Sei sulla pagina 1di 75

LEZIONE DA 29/09/21 A 25/10/21

ANALISI BIOCHIMICO CLINICHE


Preparazione, progettazione e sperimentazione
sono le fasi che si susseguono nel momento in
cui si vuole realizzare un’indagine. Il discorso
può essere applicato ad un’indagine di
laboratorio o più in generale alla costruzione di
un sistema per verificare la presenza o la
quantità di un determinato analita di interesse
diagnostico.
Inizialmente ci si fa venire un’idea che deriva o
da una necessità o, nel caso in cui ci si trovi
nell’ambito delle ricerche di base, è un’idea
totalmente originale che non si lega
nell’immediato a diagnosi di laboratorio o scopi
applicativi. Per esempio, qualche anno fa venne
studiato il motivo per cui certi batteri venivano
lisati da determinati virus mentre altri batteri
no, non aveva nell’immediato nessuna
applicazione pratica ma è stato l’inizio
dell’ingegneria genetica perché ha permesso di scoprire la resistenza degli enzimi di restrizione che solo alcuni ceppi batteri
possiedono. Successivamente all’idea si passa allo studio della letteratura perché bisogna verificare se l’idea in considerazione è già
stata affrontata e risolta da qualcun altro. Se nessuno ha risolto il problema si passa alla progettazione: è necessario costruire un
disegno sperimentale e per farlo si devono scegliere il sistema e le metodologie.
A questo punto si passa alla fase sperimentale, nella quale si iniziano ad avere dei risultati in seguito a misurazioni opportune e
analisi di dati. È necessario ripetere più volte le osservazioni perché nella scienza esiste l’errore sperimentale, l’approssimazione
ecc. e quindi facendolo è possibile ottenere una media dei risultati ed arrivare a una risposta finale che infichi la bontà di tali
osservazioni e fornisca un dato robusto ed attendibile.
Solo a questo punto si passa alla divulgazione che nella ricerca di base consiste nello scrivere un lavoro, il quale verrà inviato a varie
riviste che faranno delle revisioni e, se non riscontrano anomalie, lo accetteranno e lo pubblicheranno.
SCELTA DEL SISTEMA
Vi sono diversi livelli di indagine su cui si può andare a lavorare: animale intero, organo isolato, organo omogenato, organuli o
particelle ecc. Questi livelli però non sono tutti quanti sovrapponibili e non tutti danno la stessa risposta.
Si prenda il caso degli agenti antiparassitari usati in agricoltura, ad esempio il paratail che agisce paralizzando il parassita.
Per capire come riesce a paralizzarlo si deve pensare al sistema neuro-muscolare: normalmente i nervi utilizzano un mediatore che
è l’acetilcolina, sul muscolo esiste un recettore per l’acetilcolina e quando quest’ultima viene rilasciata dal nervo si lega al recettore
e stimola il muscolo il quale genera potenziale d’azione e apertura di canali che determinano la contrazione del muscolo stesso.
Se la situazione rimanesse così i canali rimarrebbero aperti ed il muscolo resterebbe sempre contratto, invece, vicino al recettore
c’è un enzima di tipo idroilitico, l’acetilcolinaesterasi, che idrolizza l’acetilcolina in acetato e colina che di conseguenza non è più in
grado di legare il recettore che diventa disponibile a ricevere un altro stimolo.
Il sistema dell’antiparassitario consiste nel bloccare l’acetilcolinaesterasi cosicché non possa più idrolizzare l’acetilcolina e di
conseguenza il sistema si paralizzi.
Se si lavora a questo livello, ovvero a livello di omogenato cellulare, di organuli e particelle, e si prende un estratto di muscolo ci si
accorge che l’agente antiparassitario inibisce l’acetilcolinaesterasi ma non ci si accorge di un altro problema, l’effetto del contatto
tra l’agente antiparassitario ed un altro organismo intero: cosa accade a chi utilizza, produce e mangia queste sostanze?
Il sistema neuro-muscolare umano funziona allo stesso modo di quello del parassita, così come numerosi circuiti nervosi che
prendono il nome di sistemi colinergici, tra cui anche il sistema di controllo della respirazione che se venisse paralizzato impedirebbe
al soggetto di respirare. Quest’ultima situazione fortunatamente si verifica solo in casi di inquinamento acuto mentre i casi di
esposizione cronica, piccole dosi per lunghi periodi, portano tipicamente disturbi comportamentali come il nervosismo.
Se si passa a livello di un organismo intero ci si accorge che questa sostanza, così come tutte le sostanze esogene, viene
metabolizzata dalla frazione microsomiale, una serie di attività enzimatiche che si trovano associate al reticolo liscio delle cellule
deputate alla depurazione dell’organismo da sostanze non solubili; lo fa in due modi, può ossidarle e renderle più idrosolubili oppure
le coniuga con zuccheri in modo da renderle più solubili.
Il paratail viene eliminato con ossidazione e diventa paraoxon, questo, tuttavia, ha un’attività inibitoria molto più forte rispetto al
paratail quindi è più pericoloso e se non si fossero condotti esperimenti a livelli differenti non si sarebbe mai scoperto.
Tutto questo per dire che a seconda del livello di studio che si utilizza per affrontare un problema si ottengono risposte differenti e si
ha bisogno di più livelli di ricerca per affrontare in tutte le sue sfaccettature una problematica.

1
Oggi per diversi motivi etici ed economici per fare questi esperimenti si tende a non utilizzare animali, un livello sostitutivo, che non
fornisce tutte le soluzioni che può dare un animale ma è comunque molto valido sia per la ricerca di base sia per la ricerca applicata,
è il modello delle colture cellulari.
Le più utilizzate sono quelle che riguardano le cellule del sistema nervoso ma si possono realizzare per qualsiasi tessuto.
Esistono due step:
• Linee cellulari: cellule che sono state rese immortali attraverso trattamenti o attraverso trasformazioni in senso neoplastico.
Il sistema classico per procurarsi una linea cellulare consiste nell’isolare da un tumore spontaneo alcune cellule tumorali, le
quali regrediscono dal loro stadio differenziativo e riacquistano la capacità di replicarsi in maniera indefinita.
I vantaggi sono che ponendole su una coltura si possono moltiplicare fino ad ottenerne un numero davvero cospicuo e possono
essere congelate in uno specifico momento del differenziamento in azoto liquido (-180°) e poi scongelate quando servono per
fare le osservazioni. Nel terreno di coltura si possono anche aggiungere sostanze diverse, ad esempio antiparassitari. Tuttavia,
ci sono anche dei limiti, si tratta di cellule che non sono più originarie del sistema nervoso, la trasformazione in senso
neoplastico gli ha fatto perdere alcune caratteristiche e quindi simulano di esserlo, dunque, è un metodo molto utile perché
permette di fare numerose osservazioni però le risposte che si ottengono possono non rispecchiare esattamente la realtà.
• Colture primarie di cellule: coltura ottenuta prelevando tessuti embrionali, è previsto necessariamente l’utilizzo di animali.
Il vantaggio è che, in questo caso, le cellule in coltura sono molto più vicine alla realtà in quanto non vanno incontro a
trasformazioni neoplastiche, dunque, attraverso le linee cellulari si possono fare in un primo momento tutta una serie di
osservazioni e poi andare a validarle a questi livelli successivi di coltura primaria. Il difetto delle colture primarie è però che non
rimangono indefinite, solitamente si possono portare avanti fino a un mese/un mese e mezzo e poi muoiono.
Per quanto riguarda le cellule muscolari dell’uomo non vengono prelevate a livello embrionale ma attraverso prelievi bioptici
di muscolo, in particolare nelle zone sotto la placca motoria dove ci sono le cellule satelliti che non sono differenziate e che si
possono moltiplicare in coltura. Su queste colture si può fare un’osservazione molto importante che è quella elettrofisiologica:
se le cellule muscolari vengono stimolate correttamente si ottengono dei potenziali d’azione ed in questo modo si può studiare
direttamente in coltura la contrazione muscolare. Analogamente per le cellule del midollo spinale perché anch’esse stimolanti.
Quando non si ha disposizione il tipo di cellula che
occorre si possono creare, con le moderne
tecnologie, degli ibridi cellulari.
Produrre un ibrido cellulare consiste nel prendere
due cellule differenti, fonderle ed ottenere un
eterocarionte. Quest'ultimo per un breve periodo
mantiene due nuclei, poi subisce un
riarrangiamento che porta ad una cellula
uninucleata che corrisponde all’ibrido. L’ibrido
mantiene caratteristiche di ciascuna delle due
cellule parentali.
Questo meccanismo è stato applicato dagli anni ‘70
per la produzione di anticorpi monoclonali:
fondendo una cellula tumorale del sistema
immunitario ed un linfocita si ha una certa probabilità di ottenere un ibrido che ha acquisito la proprietà di riprodursi in maniera
indefinita e la capacità di produrre gli anticorpi di interesse, caratteristiche peculiari delle parentali. Inoltre, è stato utilizzato anche
per produrre ibridi del sistema nervoso partendo dai neuroblastomi e ottenendo pseudomotoneuroni in quanto i motoneuroni in
coltura non si possono mantenere.
Un’altra applicazione ancora è quella di fare la trasfezione per recuperare i geni possibilmente persi durante le trasformazioni in
senso neoplastico. Ad esempio, prendere le cellule del neuroblastoma e trasfettare il gene della biosintesi dell’acetilcolina, ovvero
un gene terminale che si esprime nel differenziamento di precursori neurali, allo scopo di verificare se si riesce ad ottenere in coltura
qualcosa che somigli a un motoneurone. Si osservò che, una volta effettuata questa trasfezione, a partire da cellule iniziali dalla
forma rotondeggiante che non erano in grado di produrre fibre si ottenevano cellule con una nuova morfologia ed in grado di
produrre fibre cellulari senza dover aggiungere al terreno di coltura gli agenti differenzianti, similmente ad un motoneurone.

SCELTA DELLE METODOLOGIE


In un’indagine una cosa importante è il metodo con cui si porta avanti lo studio e tutte le diverse possibilità partono dai metodi
separativi: separazione delle diverse strutture cellulari in modo tale da poter semplificare il problema da affrontare.

TECNICHE CENTRIFUGATIVE
I metodi separativi si basano su tecniche centrifugative che necessitano a monte dell’omogenizzazione del tessuto, ossia separare
le cellule l’una dall’altra ed in particolare fare in modo che venga rotta la membrana plasmatica così da avere in sospensione
omogenati che contengono le varie strutture cellulari.
Uno degli omogeneizzatori più usati è il potter. È uno strumento abbastanza semplice da usare e consiste in una provetta di vetro
ed in un pistone realizzato in modo tale che la distanza che intercorre tra la sua superficie ed il vetro della provetta sia minore del
diametro di una cellula ma più grande del diametro di un nucleo.

2
Ad esempio, se si deve fare l’omogenato di un fegato lo si prende, lo si spezza e lo si mette nel potter, si collega il pistone ad un
motore e lo si fa ruotare all’interno della provetta, il tutto in un tampone opportuno e che non rompa i nuclei delle cellule (isotonico
rispetto alla pressione osmotica interna al nucleo). Accade che i pezzi di tessuto finiscono sul fondo della provetta dove vengono
sminuzzati, le cellule essendo più grandi dello spazio tra pistone e provetta vengono rotte, mentre i nuclei essendo più piccoli no.
Quello che si ottiene è una sospensione di particelle che corrispondono al contenuto della cellula ovvero nuclei, mitocondri,
ribosomi e reticolo endoplasmatico. Solo dopo aver ottenuto la sospensione si può andare a fare una centrifugazione.
Con la centrifugazione si sperano le varie particelle in sospensione grazie ai loro diversi valori di sedimentazione, grandezze e densità:
si esegue una centrifugazione differenziale.
Il principio della sedimentazione differenziale delle particelle in un campo centrifugo si basa sull’applicazione di una forza centrifuga
tale da simulare l’aumento della forza di gravità così da ottenere una sedimentazione più rapida delle particelle.
Queste sedimenteranno in maniera differente in base alle loro caratteristiche, in particolare all’aumentare della forza diminuisce la
dimensione delle particelle che sedimentano.

I calcoli sono semplificati da sistemi chiamati


nomogrammi in cui si può mettere facilmente in
relazione la velocità del rotore, il raggio e la forza
centrifuga relativa: la velocità è 15 000 giri/min ed
il raggio 7 cm, si tira una riga tra i due dati, essa
interseca il valore di forza centrifuga relativa che
corrisponde a circa 15 000 volte la forza di gravità.
Si possono utilizzare rotori differenti, un esempio sono i rotori ad angolo variabile in cui inizialmente le provette sono appese
verticalmente al rotore e poi, quando questo viene fatto girare, si dispongono orizzontalmente e si ha la centrifugazione. La cosa
importante è che non c’è un aumento della forza di gravità costante all’interno della provetta ma il raggio di rotazione sarà diverso
nei vari punti, maggiore sul fondo e minore sul pelo della provetta e questa differenza creerà un gradiente di forza centrifuga
maggiore sul fondo e minore sulla superficie. La presenza di un gradiente aumenterà conseguentemente la capacità separativa
perché le particelle più grandi che si muovono incontreranno via via forze di gravità maggiori e quindi saranno maggiormente spinte
sul fondo della provetta.
Nei rotori ad angolo fisso invece le provette sono fisse all’interno del rotore in posizione angolata ed anche qui si crea un gradiente
di campo centrifugo perché il raggio di rotazione è differente tra il fondo e la superficie, ma, al contrario, qui il gradiente aumenta
dalla superficie verso il fondo.
Rotore ad angolo variabile

provetta a riposo provetta durante la centrifugazione


Rotore ad angolo fisso

3
Se si pone a centrifugazione differenziale un omogenato che
inizialmente contiene tante particelle diverse e lo si centrifuga per
10 minuti a 1000 volte la forza di gravità sedimentano i nuclei
mentre restano in sospensione tutte le altre particelle,
centrifugando il supernatante a 10 000 volte la forza di gravità per
20 minuti si ottiene la frazione mitocondriale e questa,
centrifugata a 100 000 volte la forza di gravità darà la componente
microsomiale. È importante notare che con una semplice
sedimentazione iniziale si ottiene un precipitato chiamato pellet
che è sporco in quanto al suo interno ci si trovano anche altre
particelle, come mitocondri, oltre che ai nuclei, per questo motivo si tende a non considerare il primo precipitato ma lo si riprende,
lo si ri-sospende con una soluzione di saccarosio e lo si ri-centrifuga, questo processo viene chiamo lavaggio del pellet.

IL CITOMETRO A FLUSSO
L’uso del citometro a flusso è un sistema di frazionamento molto
interessante che permette di separare tra di loro cellule di tipo diverso che
al microscopio non sono distinguibili, per esempio i linfociti.
Esistono diversi tipi di linfociti, linfociti B, linfociti T, ecc…, e se li si guarda al
microscopio, in particolare al microscopio ottico, sono identici tra di loro,
tuttavia risulta interessante, e necessario, farne una conta per quello che è
ad esempio lo studio dell’evoluzione di una patologia grave che affligge il
sistema immunitario, come l’immunodeficienza acquisita (AIDS).
Un soggetto affetto da immunodeficienza acquisita o un soggetto che nasce
con immunodeficienze, detta immunodeficienza congenita, non ha un
numero sufficientemente grande di linfociti B che gli permette di produrre
degli anticorpi e solo avendo dei dati quantitativi si può arrivare a fare delle
conclusioni in ottica farmacologica.
Il citometro a flusso viene utilizzato proprio per eseguire questa conta.
Lo strumento è in grado di creare un flusso laminare di liquido, in questo
liquido sono presenti delle cellule e mediante l’uso di opportune pompe le
cellule vengono fatte passare attraverso un ugello una per volta ed in
questo modo vengono contate.
Una volta contate si andranno a distinguere perché il fatto che siano
morfologicamente identiche non preclude che abbiano delle diversità
funzionali, e ciò che le fa distinguere, grossolanamente parlando, è avere
sulla superficie molecole proteiche differenti, per esempio recettori.
Ad esempio, esistono i linfociti T4 (linfociti help) che facilitano la risposta immunitaria e i linfociti T8 (linfociti soppressor) che la
sopprimono. Se quelli che vengono a mancare, per esempio nell’immunodeficienza acquisita, sono i linfociti T4, avendo sulla loro
superficie proteine/recettori specifici e diversi da altri, si possono preparare degli anticorpi capaci di riconoscerli, dopodiché questi
anticorpi vengono resi fluorescenti in qualche modo, ad esempio si può legare all’anticorpo che riconosce i T4 una molecola
fluorescente nel verde e all’anticorpo che riconosce i T8 una molecola fluorescente nel rosso e, fatto questo preparato di cellule si
crea il flusso di liquido.
A valle c’è un laser, quindi una sorgente di radiazione elettromagnetica, che può essere scelto dell’opportuna lunghezza d’onda tale
da poter eccitare i linfociti T4 oppure i linfociti T8, e quindi, una volta percepiti dai sistemi di rivelazione, i primi daranno una
fluorescenza nel verde e i secondi nel rosso.
Se passano due cellule contemporaneamente, essendo molto difficile realizzare un flusso che sempre e comunque fa passare una
singola cellula, si registreranno due segnali, uno nel rosso e uno nel verde, e il sistema non li conta.
Se passa una cellula che non è marcata nuovamente non viene contata perché non c’è una corretta registrazione.
Questo strumento, oltre che contare le cellule marcate con rosso o con verde, può fare di più, infatti, a valle dell’ugello esiste una
tratta elettromagnetica che può produrre un intenso campo elettrico in modo da fornire alla cellula che passa una carica negativa
o una carica positiva. Si supponga che passi una cellula nel verde, si attiva il sistema elettromagnetico che dà una carica elettrica
negativa e la cellula, che è stato detto essere un T4, si carica negativamente, analogamente, se passa una cellula marcata nel rosso,
cioè un T8, il sistema la rivela, si attiva la parte che fornisce una carica elettrica positiva e quindi questa diventa positiva.
Ancora più a valle esiste un altro campo elettromagnetico ancora più intenso, detto campo di deflessione, che defletterà le cellule
in direzioni differenti in base alla carica acquistata nel tratto precedente: se passa una cellula caricata negativamente tenderà ad
andare verso il polo positivo poiché cariche elettriche di segno opposto si attraggono e verrà così deflessa in una provetta,
analogamente, se la cellula ha preso carica elettrica positiva verrà attratta dalla regione negativa e verrà deflessa verso un’altra
provetta di raccolta.
Il risultato finale è che non solo sono state contate queste cellule ma sono anche state separate: da una miscela di cellule differenti
si è ottenuto, purificandole, cellule di un tipo oppure cellule di un altro.

4
Le cellule che non sono state contate, perché passate due alla volta o perché non marcate, non risentono del primo campo elettrico
e rimangono neutre e quando passano nella zona di deflessione non saranno attratte né verso il polo positivo né negativo ma
andranno dritte in uscita ad un sistema di raccolta, un sistema che ricicla il liquido che contiene le cellule in sospensione e le rifà
passare nel sistema. Eseguendo il riciclo per un certo periodo di tempo tutte le cellule prima o poi verranno separate correttamente.
Quindi il citometro a flusso risulta un sistema particolarmente importante di diagnosi, perché direttamente permette di fare delle
diagnosi: in base all’esempio fatto si saprà se si ha un buon rapporto di cellule T4 e cellule T8, quindi se il soggetto ha un sistema
immunitario che funziona regolarmente, o, se questo rapporto è scompensato, se è immunodeficiente.
Ma oltre che diagnostico ha anche un uso terapeutico, infatti, si usa nei soggetti che sono affetti da leucemia per purificare il sangue
da cellule che non sono volute: tramite il citofluorimetro in una coltura si può controllare come avanza il ciclo mitotico delle cellule
tumorali per poi arrestarlo, mediante l’uso di particolari farmaci, in una specifica fase e condurre tali cellule a morte.

Nell’immagine A si vede il risultato di un tipico studio di questo tipo: nel grafico in ordinate si ha una scala che indica il numero di
cellule presenti in ogni fase del ciclo, si parte dalla fase G0/G1, poi la fase S e poi la fase G2/M. La differenza è stata fatta sulla base
del diverso contenuto di DNA, perché le cellule in mitosi hanno, nelle diverse fasi, un numero dei cromosomi diverso.
Il DNA si conta trattando le cellule con delle molecole che si intercalano ad esso e che sono fluorescenti, come lo ioduro di propidio.
Usando il citofluorimetro, quando le cellule passano attraverso il flusso vengono marcate con lo ioduro di propidio, poi a valle il
laser lo ecciterà ed essendo fluorescente questo sarà percepito dal sistema di rivelazione che a questo punto non semplicemente
conterà le cellule ma ne valuterà anche l’intensità di fluorescenza: più la luminosità è accentuata, più ioduro c’è e più DNA c’è.
Infatti, mettendo in ascisse la quantità di fluorescenza che è associata a quel tipo di cellula viene fuori una conta e si vede che, in
una normale moltiplicazione cellulare, le cellule in fase G0/G1 sono tante, un certo numero sono in fase S dove comincia la
replicazione del DNA e si raggiungerà un valore massimo in divisione mitotica (G2/M).
Nell’immagine B invece viene mostrato un altro sistema di studio: si sa che le cellule in coltura sopravvivono per un certo periodo
di tempo ma possono dopo un po’ morire in modi differenti, ad esempio diventando cellule necrotiche oppure andando in apoptosi.
L’apoptosi è un sistema di morte programmata e quando le cellule entrano in questo sistema non creano stati infiammatori, questo
è molto interessante soprattutto nello studio di patologie di tipo canceroso per sapere cosa succede alla massa tumorale al seguito
di un determinato trattamento che ha indotto una tale morte senza il rischio di osservare effetti secondari.
Per eseguire uno studio di questo tipo si misura la quantità di ioduro di propidio che queste cellule assumono sapendo che tale
quantità è in relazione al loro stato cellulare: coloro che sono in buono stato fisiologico, quindi quelle che si stanno attivamente
replicando o che stanno rimanendo correttamente in coltura, assumono una certa quantità di ioduro di propidio, se vanno in necrosi
ne assumono una quantità differente, se in apoptosi un’altra ancora.
Si può usare anche un’altra molecola fluorescente oltre il propidio, l’annessina, che marca preferenzialmente le cellule nello stato
apoptotico dando fluorescenza nel verde.
Nel grafico si ha in ordinate la fluorescenza in ioduro di propidio e in ascisse la fluorescenza in annessina e si distinguono 4 quadranti:
- 1° quadrante (in basso a sinistra): ci sono cellule che hanno un basso contenuto di ioduro di propidio ed anche un basso
contenuto di annessina, esse sono cellule vive in buono stato di coltura e si trovano fisiologicamente in una situazione
corretta, stanno sopravvivendo tranquillamente
- 2° quadrante (in alto a sinistra): ci sono cellule che hanno un’elevata fluorescenza di ioduro di propidio ed una bassa
fluorescenza in annessina, sono cellule necrotiche
- 3° quadrante (in basso a desta): ci sono cellule che hanno bassa fluorescenza di ioduro di propidio ma alta fluorescenza di
annessina, esse sono le vere e proprie cellule apoptotiche e si tratta della cosiddetta apoptosi precoce, ovvero l’inizio del
meccanismo apoptotico
- 4° quadrante (in alto a destra): ci sono cellule che hanno un’alta assunzione di ioduro di propidio ed una bassa marcatura
con l’annessina, sono quelle cellule in condizione di apoptosi tardiva che stanno definitivamente morendo
[Da notare che nel grafico la colorazione presente non si riferisce alla fluorescenza rosso/verde descritta finora ma significa
rosso=tante cellule, giallo=meno cellule, e così via]

5
Quando una cellula passa attraverso una radiazione elettromagnetica nel visibile o nell’ultravioletto si genera il fenomeno dello
scuttering (o diffrazione). Tale fenomeno fa sì che le molecole e le particelle presenti nell’atmosfera diffrangano la luce e ci permette
così di vedere i colori (es. azzurro del cielo), quindi, quando una cellula passa per il raggio laser del citometro, se è una molecola
fluorescente può essere eccitata e può restituire una fluorescenza, ma in ogni caso questo raggio laser viene anzitutto diffratto.
La diffrazione è diversa a seconda della grandezza e della forma della cellula e si può distinguere una forward scutter, diffrazione
lungo il raggio elettromagnetico, e una side scutter, diffrazione perpendicolare al raggio.
Lo strumento, così come riesce a misurare la fluorescenza, riesce anche a misurare la quantità di luce che viene diffratta in una
direzione oppure in un’altra avendo dei rivelatori posizionati nelle opportune posizioni rispetto al raggio. Chiaramente non si può
essere veramente precisi ma si tratta di un intervallo di angoli che sono a 90° o lungo il raggio.
In questo grafico in basso sono considerate cellule del sangue umano (neutrofili, basofili, monociti, cellule natural killer, linfociti T,
linfociti B e cellule dendritiche circolanti) e si vede che hanno diffrazioni di luce differenti.

Se si va a combinare la misurazione di fluorescenza, avendo marcato le cellule con molecole/anticorpi fluorescenti, e la misurazione
della luce diffratta, si possono allora riconoscere diversi tipi di cellule, quindi complessivamente non solo contarle ma anche separarle
con i sistemi visti precedentemente.
Infine, un’ulteriore applicazione della citometria a flusso si ha con la separazione di cromosomi, infatti, i cromosomi sono differenti
per grandezza e quindi avranno quantità di DNA differenti e produrranno scutter di diffrazione di luce differenti.

FRAZIONAMENTO E PURIFICAZIONE DELLE PROTEINE


La maggioranza dei marcatori che si usano dal punto di vista diagnostico sono delle proteine già presenti nel circolo sanguigno, ad
esempio le proteine coinvolte nella coagulazione del sangue, e quindi si vanno a misurare i livelli di tali proteine, tuttavia, nel circolo
sanguigno ci possono finire accidentalmente anche molecole proteiche inconsuete per cui diventa importante misurarne la
presenza per avere un’informazione dal punto di vista diagnostico. Per esempio, ci potrebbero essere delle proteine necessarie al
normale ricambio tissutale che però, al verificarsi di un’alterazione funzionale di un tessuto o di un organo, possono aumentare o
diminuire di livello a seconda del danno che la patologia provoca.
Per misurare la loro presenza spesso si ha bisogno di metodi di frazionamento che ne consentono la purificazione.
Si può essere interessati a purificare proteine per costruire un test diagnostico, per esempio, un sistema con il quale misurare la
quantità di anticorpi anti-Covid19 nel circolo sanguigno dopo il contagio o il vaccino. Per farlo serve una molecola che venga
riconosciuta da questi anticorpi, ovvero la proteina Spike che sta sulla superficie del Coronavirus e con la quale esso riconosce le
cellule e le infetta (stessa cosa di cui si ha bisogno per il vaccino), quindi, si dovrà fare una preparazione del virus ed andare a
purificare questa molecola in modo tale da poterla utilizzare.
Ad oggi sono tantissime le proteine prodotte con la tecnica del DNAricombiante molte delle quali sono state autorizzate all’impiego
sull’uomo dai vari enti nazionali, ma dove si prende la proteina da purificare?
Tanti anni fa, l’ormone somatotropo, che è l’ormone della crescita prodotto dalle nostre ipofisi ed usato per curare soggetti affetti
da patologie congenite che alterano la crescita, si estraeva dalle ipofisi dei cadaveri. È chiaro che ci volessero dei metodi di
purificazione sia per il tessuto prima che della molecola dopo. Oggi il sistema non funziona più così perché si conosce il gene
dell’ormone somatotropo e con tecniche di ingegneria genetica se ne riproduce la proteina in colture cellulari.
Si usa un processo di fermentazione su larga scala per cui si prendono delle cellule, si ingegnerizzano, ovvero si inserisce il gene di
interesse, e si fa produrre la rispettiva proteina.
Le cellule di partenza possono essere batteriche, procariotiche, di qualsiasi tipo, ciò che importa è la loro efficienza di produzione e
la necessità che le proteine prodotte debbano poi essere modificate (glicosilate) post-traduzione.
La produzione della molecola proteica di interesse avviene secondo due modalità, la molecola viene secreta da queste cellule
attivamente e poi o va nel mezzo di coltura oppure rimane all’interno della cellula. Questo dipende da vari fattori, intanto la
possibilità che la molecola proteica abbia un segnale di riconoscimento, un peptide, che gli consente di rimanere all’interno del
reticolo endoplasmatico e poi di essere secreta all’esterno, se questo peptide manca lo si può aggiungere con tecniche di ingegneria
genetica ma se la modificazione rende la proteina inattiva il sistema non può essere eseguito.

6
Sia che vada nel terreno di coltura, sia che rimanga all’interno della cellula, la proteina non si troverà mai allo stato puro ed i metodi
di frazionamento e purificazione risulteranno estremamente necessari: se rimane all’intero delle cellule e queste si rompono e si
omogenizzano si avrà una soluzione che contiene non solo tale molecola (che sarà presente in grande quantità) ma anche tutte
quante le altre proteine che caratterizzano il sistema di coltura, se viene invece secreta nel sistema di coltura insieme ad essa ci
saranno tutte quelle proteine che le cellule normalmente secernono insieme al contenuto di quelle già morte.
Esistono diverse tecniche di frazionamento delle proteine:
o Metodo di Howe o della Salatura, è il metodo più antico
o Ultracentrifugazione
o Cromatografia
o Elettroforesi, è anche una tecnica diagnostica

Tecnica della salatura


Si basa sull’osservazione di come varia la solubilità di una proteina qualunque all’aumentare della forza ionica di un sale.
Il grafico mostra il comportamento dell’albumina, la proteina più rappresentata nel
circolo sanguigno umano: inizialmente qualunque sale ne determina un aumento di
solubilizzazione, poi, per aumenti molto grandi della forza ionica, la solubilità in certi casi
(curva del cloruro di sodio) non aumenta più ma rimane costante, e per certi casi (curva
del solfato di ammonio) diminuisce e questo vuol dire che la proteina perde di solubilità.
Proteine differenti perdono di solubilità in maniera differente perché hanno una
composizione amminoacidica differente ed è evidente che per questo saranno
influenzate dalla forza ionica in maniera diversa.
Questa scoperta dello scorso secolo è stata utilizzata per il frazionamento delle proteine
ed infatti si può dire che variando la concentrazione salina, ovvero variando la forza
ionica presente in soluzione, con proteine differenti si ottiene una precipitazione
differenziale delle stesse.
Un tale esperimento fu condotto prima degli anni ’50 per ottenere il frazionamento del sangue
umano. Non c’erano ancora metodi di misurazione della quantità di proteina e perciò essa
veniva misurata in ‘milligrammi di azoto in 100 millilitri’, perché le proteine hanno l’azoto
essendo fatte di amminoacidi. La soluzione utilizzata era il plasma umano, ricco in proteine ma
anche di altre molecole come l’urea, che contengono azoto, quindi la misurazione era molto
imprecisa. Il frazionamento fu eseguito con fosfato di sodio, aggiunto via via a concentrazioni
differenti, esso è riportato sulle ascisse in ‘moli/litro’ che indica la concentrazione del sale (non
è la forza ionica) ed in ordinate invece è inserita la quantità di azoto presente nella soluzione.
Quello che si vede immediatamente è che mettendo fosfato di sodio la quantità di azoto (quindi
grossolanamente la quantità di proteine in soluzione) va via via diminuendo fino ad azzerarsi.
Si è poi andati a caratterizzare quello che precipita utilizzando diverse concentrazioni di fosfato
di sodio: nell’intervallo fino a 10 moli/litro si ha la precipitazione del fibrinogeno, che sarebbe
la parte liquida del sangue che non è stato fatto coagulare, nell’intervallo fino a 20 moli/litro si
ha la precipitazione delle globuline, ovvero tutte quelle proteine che non sono albumina, per
esempio le alfa-1-globuline, le alfa-2-globuline, le beta-globuline e le immuno-globuline,
nell’ultimo intervallo fino a 30 moli/litro si ha la precipitazione dell’albumina.
Questo sistema semplicissimo ed “antico” si può usare ancora oggi se ad esempio si vuole ottenere un siero iperimmune, e quindi
interessa la sola frazione delle gamma-globuline, per liberarsi rapidamente delle altre proteine, o altrimenti, lo si può usare per
ricavare l’albumina per preparare i derivati del plasma a scopo trasfusionale.
Qui si vede come utilizzando invece concentrazioni di solfato di ammonio via via
differenti possono essere separate proteine specifiche da una miscela di proteine
generiche che contenga tante proteine differenti. La curva mostra la quantità di
proteina che finisce nel precipitato e ne indica con le x la curva di precipitazione:
fino a concentrazioni di sale pari a 3 precipitano grandi quantità di proteine non
di interesse ma poca quantità della proteina di interesse, allora si rimuove la gran
parte delle proteine che non interessano (circa il 90% che comunque conterrà
anche un po’ della proteina di interesse) e si avrà la precipitazione della “sola”
proteina di interesse.
Questa tecnica può essere un primo step di purificazione di proteine da miscele
molto complesse come ad esempio il sangue/plasma o il siero (il plasma è la parte
liquida del sangue reso incoagulabile ed il siero è quello che rimane dopo aver
fatto coagulare il sangue).
Ma se la proteina è precipitata come si fa a caratterizzarla dato che non sta più in soluzione?
La precipitazione con la tecnica della salatura è reversibile. È vero che si perde comunque un po’ di proteina ad ogni
trattamento/passaggio che si fa, ma con la tecnica della dialisi la si può riportare in soluzione:

7
nel precipitato si hanno grandi quantità di sale e le proteine di interesse, allora
si aggiungono un solvente ed una soluzione tampone opportuna ed in questo
modo la concentrazione salina diminuisce, quindi la proteina torna in soluzione;
ma rimane ancora una grande quantità di sale, allora si preparano dei sacchetti
fatti di una membrana semipermeabile che fa passare piccole molecole/soluti
con un limite intorno ai 500-1000 Dalton (quindi il sale passerà tranquillamente
ma una proteina, che pesa di più, no), si inserisce il preparato precedente in
questi sacchetti e si immergono i sacchetti in una soluzione tampone che non
contiene il sale e per diffusione il sale uscirà dai sacchetti di dialisi, andrà nel
volume all’esterno, ovvero nella soluzione tampone, e quindi la concentrazione
salina all’interno di sacchetti diminuirà raggiungendo quella di interesse che non darà più fastidio ai successivi trattamenti.
Non conviene mai eliminare tutto quanto il sale perché le proteine ad una certa tendono a denaturarsi, infatti, la soluzione
all’esterno non è distillata ma è una soluzione tampone a pH fisiologico.
Ultracentrifugazione
E’ una tecnica di laboratorio che permette di frazionare molecole che sono solubili, ovvero sono in soluzione.
Su un omogenato verranno fatte una serie di centrifugazioni per togliere nuclei, mitocondri, microsomi, lisosomi, ecc. ed alla fine
un’ulteriore centrifugazione con cui verranno giù ribosomi, virus, macromolecole e aggregati di macromolecole, che nell’insieme
formano un precipitato; quello che rimane superiormente è il citosol ovvero la parte liquida che costituisce le cellule ed al cui interno
sono presenti macromolecole e proteine e per frazionarlo si userà l’ultracentrifugazione.
L’ultracentrifugazione viene fatta in centrifughe particolari che sono in grado di far girare i
propri rotori a velocità da 50.000 a 80.000 giri/minuto, valori altissimi tali da superare le
velocità delle auto da corsa, e per questo il tutto si trova assemblato all’interno di una sorta
di cassaforte (armored chamber) con pareti di acciaio di notevole spessore in modo tale che
se si dovesse rompere l’asse o il rotore tutto rimarrebbe confinato all’interno di questa
camera. I rotori sono fatti in metallo e ricordiamo che un metallo può essere immaginato come
un mare di elettroni all’interno del quale navigano dei nuclei, quindi è un liquido
estremamente denso che sottoposto a tali velocità tende ad avere deformazioni, per cui dopo
un certo numero di giri si sottopongono ad analisi a raggi X per verificarne la conformità.
Un altro aspetto da tenere in considerazione è che queste velocità di rotazione così grandi
creano comunque un attrito con l’aria che produce calore inducendo la fusione delle proteine,
quindi tutto questo deve essere fatto in una camera refrigerata e sottovuoto.
Spesso in centrifugazioni di questo tipo si utilizzano rotori ad angolo variabile per cui si forma un gradiente di forza centrifuga
maggiore sul fondo della provetta e minore sul pelo del liquido.
La capacità di frazionamento di queste centrifughe è estremamente potente, tuttavia, quando si sceglie usare un’
ultracentrifugazione per separare molecole proteiche in funzione della loro dimensione sono necessari degli accorgimenti tra cui
sfruttare un opportuno gradiente di zucchero: dal punto in cui andrà posizionato il campione (in alto) al fondo della provetta si crea
un gradiente di densità di saccarosio che, nel caso più classico, è al 20% sul fondo della provetta, al 5% in cima ed in mezzo varia
linearmente*. Una tale centrifugazione si definirà perciò centrifugazione zonale o su gradiente preformato (a).
Una volta preparato il gradiente si stratifica sulla superficie libera della provetta la soluzione con le molecole proteiche e si inserisce
la provetta all’interno della centrifuga. Mentre il rotore gira, all’interno della provetta si forma il gradiente lineare di forza centrifuga
che, poiché è maggiore sul fondo e minore in alto, stabilizza il gradiente di densità del saccarosio facendo in modo che la soluzione
a maggior densità sia sottoposta ad una maggior forza di campo centrifugo e quella a minor densità ad una minor forza. Le molecole
iniziano a migrare ed il risultato ultimo è che dopo un certo numero di ore (13-20) si saranno stratificate in modo da avere in basso
le più grandi ed in alto le più piccole. Se si continuasse a centrifugare per tempi molto più lunghi è chiaro che anche le molecole più
piccole andrebbero sul fondo della provetta, quindi è un gioco di equilibrio basato sull’esperienza.
Quando invece si opera sugli acidi nucleici si usa una separazione isopicnica (b), ovvero la molecola si muoverà all’interno di un
gradiente di densità fino a raggiungere il punto alla sua medesima densità. Il gradiente non è preformato ma si forma durante la
centrifugazione ed è ottenuto utilizzando delle soluzioni di sali ad alto peso molecolare come per esempio il cloruro di cesio.
In questo caso si tratta di un gradiente lineare a concentrazione maggiore sul fondo e minore in alto ed è un gradiente stabile, a
differenza del gradiente zonale preformato che se centrifugato per tempi molto lunghi porta anche le molecole piccole sul fondo.

[Si possono separare acidi nucleici in


gradienti zonali preformati ma non si
possono separare proteine su gradienti
isopicnici perché si avrebbe bisogno di
proteine allo stato nativo (non denaturate)
ma il cloruro di cesio è un potente
denaturante.]

8
*varia linearmente = Come si realizza un gradiente lineare?
Viene prodotto per cromatografia da un formatore di gradiente.
Un formatore è costituito da due becher collegati fra loro da un tubo chiuso con
un rubinetto, il primo becher contiene la soluzione di partenza del gradiente, è
collegato anche ad una colonna cromatografica mediante un secondo rubinetto
e viene posto sotto agitazione da un agitatore magnetico posizionato al di sotto,
l’altro becher contiene la soluzione finale del gradiente.
La formazione del gradiente inizia nel momento in cui vengono aperti i rubinetti:
se i due contenitori hanno lo stesso volume produrranno un gradiente lineare.
Ad esempio, si immagini di mettere nei due contenitori, a rubinetti chiusi, un
volume identico di saccarosio a concentrazioni diverse, a destra una
concentrazione maggiore-20% ed a sinistra una concentrazione minore-5%, a questo punto si mette la provetta sul tubicino di uscita
e si aprono contemporaneamente i due rubinetti (sistema automatico) facendo in modo che si generi un lento flusso laminare in
uscita che scivolerà sul fondo della provetta. Il liquido viene agitato molto lentamente dall’agitatore magnetico in modo tale da non
avere un flusso turbolento ma che comunque ci sia un rimescolamento. La prima goccia che esce avrà concentrazione di saccarosio
20% e si andrà a posizionare sul fondo della provetta, di contro, per il principio dei vasi comunicanti, verrà richiamato nel vaso di
uscita un delta 5%, quindi nel vaso di uscita sarà presente una soluzione al 20%-5% e continuando a sottrarre il delta in uscita l’ultima
goccia avrà concentrazione 5%.
Una volta fatta la centrifuga come si preleva il materiale di interesse?
Che la centrifugazione sia isopicnica o zonale il materiale che sedimenta più velocemente (più grande)
sarà più in basso e quello che sedimenta più lentamente (più piccolo) sarà più in alto, allora, basterà
bucare il fondo della provetta e, gocciolina dopo gocciolina, uscirà ordinatamente tutto il contenuto.
Questo sarà raccolto in provette differenti per cui nella prima non si troverà nulla, nella seconda le
componenti ad alta densità, poi nulla e infine le componenti a bassa densità.
Quando le miscele sono molto complesse è raro che si riesca ad isolare un componente in un’unica
provetta ma in ciascuna provetta se ne troverà una porzione, si parla infatti di picco di concentrazione
per ogni sostanza. Il picco di concentrazione dal punto di vista teorico ha un andamento a campana, è
una distribuzione normale, simmetrica, per cui in alcune provette si avrà una concentrazione più alta,
in altre più bassa, si raccolgono tutte quelle che hanno un contenuto discreto e invece quelle a basso
contenuto (testa e coda della curva) si tolgono. Si potrebbero tenere anche testa e coda qualora si
volesse una preparazione meno pulita ma con il contenuto massimo di prodotto.
In ingegneria genetica tanti sono i materiali con cui creare i gradienti, interessante è il caso del ficoll, un polisaccaride con il quale è
possibile fare gradienti che separano cellule con diverse caratteristiche, per esempio per separare gli eritrociti di diversa età volendo
fare uno studio sull’invecchiamento cellulare che poi si tradurrà al livello di tutto l’organismo o dell’organo. Il sistema prevede di
fare dei gradienti discontinui stratificando all’interno della provetta soluzioni di ficoll a densità differente ed inserirvi sopra la
sospensione di eritrociti che, con la centrifugazione, si stratificheranno a seconda del loro invecchiamento avendo sialidazione delle
molecole di superfice differenti. La sialidazione è l’aggiunta post-traduzionale di acido sialico ad una proteina: sulla superfice degli
eritrociti esistono numerose glicoproteine, ad esempio il sistema B 0, e col passar del tempo il livello di acido sialico in queste
cambia, in particolare aumenta, e questo fa sì che la cellula sia più giovane o più vecchia.
Metodi cromatografici
Il metodo cromatografico più semplice, ma anche quello meno efficiente, è la cromatografia monodimensionale su derivati della
cellulosa (A): si inserisce una soluzione (campione) sul supporto cromatografico di cellulosa e se ne immerge uno dei lembi in un
eluente, questo, per effetto della capillarità del supporto, migra all’interno del supporto e raggiunge la zona dove è presente il
campione effettuandone la ripartizione delle componenti che si basa sul fatto che le componenti possono essere più o meno solubili
nel solvente, possono essere più o meno ritardate dalle interazioni che hanno col supporto cromatografico, e quindi verranno
trascinate con velocità diverse in punti diversi del supporto, separandosi.
Un miglior risultato della medesima metodologia applicativa si ha con la cromatografia bidimensionale (B) in cui si utilizzano due
eluenti che vanno a fluire sul supporto cromatografico in direzioni ortogonali uno rispetto all’altro. Il campione viene posto
all’origine dei riferimenti del supporto (indicata con X), il supporto viene immerso dal lato della base nell’eluente, l’eluente migra
attraverso il supporto, incontra il campione e ne trascina le componenti: guardando l’immagine che si ottiene si deduce se a
spostarsi sono una o più componenti, infatti, se la macchia è tondeggiante è più probabile che sarà solo un componente, se la
macchia è allungata è molto probabile ne contenga più di uno, allora si fa ruotare il supporto di 90° e lo si immergere nuovamente
in un diverso eluente, in modo tale che ci sia un diverso effetto di ripartizione dato da un diverso effetto di attrito col supporto
cromatografico e si potrà vedere che le componenti verranno ulteriormente separate.
A B

9
Le macchie che escono fuori sono date da colorazioni con ninidrina e fluorescamina che permettono rispettivamente di visualizzarle
ad occhio nudo e con una lampada a fluorescenza.
Questo sistema ha però un difetto intrinseco in sé: permette di ottenere la separazione di piccolissimi volumi ma non è sicuramente
un sistema preparativo, cosa che per qualunque analista è fondamentale. È comunque una metodologia estremamente potente dal
punto di vista applicativo e negli anni 60/70 permise di ricavare la sequenza amminoacidica di tantissime proteine: si idrolizzava la
proteina in peptidi, ogni peptide veniva studiato con questa tecnica e si capiva quale fosse l’amminoacido. Oggi non si fa più in
questo modo ma, al contrario, si conosce qual è il gene, si identifica l’open reeding frame e poi dalla sequenza di basi si risale alla
sequenza amminoacidica.
Un’altra tecnica cromatografica tra le più comuni è la cromatografia su colonna.
Piuttosto che un foglio di cellulosa o una lastrina di gel di silice, si usa una colonna
cromatografica all’interno della quale viene inserita la soluzione che contiene le
componenti da separare ed una volta che il campione viene assorbito dalla colonna
si applica un eluente che viene fatto passare per caduta o spinto da una pompa
all’interno del supporto cromatografico. Man mano che le componenti della
miscela scorrono, interagiscono con il solvente e con il supporto cromatografico e
si ripartiscono più o meno con ciascuno di essi in funzione del loro coefficiente di
ripartizione e dell’attrito che si genera: se la componente “preferisce” l’eluente
uscirà prima, se “preferisce” il supporto cromatografico rimarrà ritardata su di esso
(preferisce = avere maggiori o minori interazioni con il supporto), allora si raccoglie
ciò che esce dalla colonna in provette e si ottengono le varie componenti.
Le colonne cromatografiche possono essere di diverse dimensioni e forme: tanto più la colonna è lunga tanto maggiore il suo potere
risolutivo cioè la capacità di separare componenti differenti, tanto più è grande di diametro tanto maggiore sarà la quantità di
materiale che si potrà separare.
Quando due componenti sono ben separate e fuoriescono
dalla colonna si ottiene il profilo di eluizione ideale A.
Quando invece le componenti non si separano
perfettamente si ottengono dei picchi sovrapposti C, in
questo caso per separarle si andranno a prendere solo le
provette contenenti la testa per il profilo del primo
componente e la coda per il profilo del secondo, andando
così a buttare un sacco di materiale.
Un sistema legato alla cromatografia su colonna che viene molto utilizzato oggi è l’HPLC (High Pressure Liquid Cromatograpy o High
Performance Liquid Cromatografy), un sistema ad alta pressione in cui delle pompe sparano il solvente all’interno della colonna
cromatografica. Si possono utilizzare diversi solventi miscelati fra loro oppure alternati al fine di ottenere i risultati migliori in uscita
dalla colonna dove ci sarà un sistema di rivelazione computerizzato che li identificherà. Il sistema di per sé non ha una grande
capacità in termini quantitativi ma ha una grande potere risolutivo: in poco tempo si riescono a separare tutte le molecole ed a
paragone con uno standard interno si scopre cosa si sta osservando, per questo viene usato come sistema di rivelazione di eventuali
sostanze dopanti nelle urine degli atleti.
Nel fare cromatografie su colonna si possono usare diversi supporti, le tecniche più utilizzate oggi per separare proteine sono la
cromatografia ad esclusione o ultrafiltrazione su gel, la cromatografia a scambio ionico e la cromatografia per affinità.
# La cromatografia ad ultrafiltrazione ed esclusione si basa su un supporto cromatografico che fa si che qualcosa possa entrare e
qualcosa venga escluso in funzione della dimensione. Tale supporto è costituito da polimeri di origine naturale, come l’agarosio, o
sintetici, come la poliacrilammide, che si organizzano tridimensionalmente a formare palline con una specifica porosità (forate) che
permetteranno l’entrata di molecole con una certa dimensione -i pori hanno diametro variabile in base alle esigenze, si parla perciò
di limiti di esclusione-: generalmente le molecole più piccole entrano dentro la pallina mediante i pori e vengono rilasciate molto
più lentamente, in quanto è come se percorressero delle strade più lunghe, rispetto alle molecole più grandi che passano accanto
alle palline senza entrarci dentro.
Con una cromatografia ad esclusione ed avendo a disposizione molecole di taglia differente
e peso molecolare noto è possibile tarare una colonna cromatografica ad esclusione
ottenendo una retta di taratura: sull’asse delle ascisse si ha peso il molecolare in scala
logaritmica, sull’asse delle ordinate si ha il volume con cui esce la molecola (vol di
eluizione/vol colonna) e si vedrà che entro un certo intervallo di pesi molecolari esiste una
linearità perfetta del rapporto tra peso molecolare e volume necessario per uscire dalla
colonna, così che prendendo una molecola incognita, facendola passare sulla colonna,
misurando il rapporto Ve/V0 e vedendo dove va a posizionarsi, per interpolazione è
possibile ricavarne il peso molecolare.
Ciò che accade con le proteine che non sono sulla retta è che spesso queste sono modificate
post-traduzionalmente e la presenza della modificazione fa sì che non migrino linearmente.

10
# La cromatografia a scambio ionico si basa sulla possibilità di creare un supporto cromatografico che leghi la proteina in funzione
della carica che essa ha, quindi, per trattarla è intanto utile concentrarsi sulla struttura delle proteine ed in particolare degli
amminoacidi che hanno come gruppo R un residuo polare. I mono-ammino-dicarbossilici, l’acido aspartico e l’acido glutammico,
che come residuo laterale hanno un secondo carbossile, si potranno dissociare e dare COO- quindi conferiranno alla proteina una
carica negativa, mentre, gli idrofilici basici come l’istidina, che hanno un residuo imidazolico con un azoto con un doppietto
elettronico libero che può essere protonato, le conferiranno carica positiva. Più in generale, si sa che il gruppo amminico N terminale
e carbossilico C terminale presenti in alfa in tutti gli amminoacidi possono ionizzarsi dando una carica positiva o negativa, ma, una
volta che si crea la catena amminoacidica perdono di importanza perché si legano tra loro e ciò che interagirà dal punto di vista
ionico saranno solo i gruppi R.
Ponendo una generica proteina con i suoi gruppi laterali a pH acidi questa protonerà gli azoti con
doppietto elettronico libero e acquisterà carica elettrica positiva, invece, a valori di pH alcalini
dissocerà i gruppi acidi acquistando carica negativa, ci sarà sempre un punto di pH con carica neutra
chiamato punto isoelettrico.
Per la cromatografia, se si costruisce un supporto cromatografico con carica elettrica positiva e si
lavora in modo che le proteine abbiano carica elettrica negativa, queste tenderanno a legarsi al
supporto tramite interazioni elettrostatiche, tuttavia queste proteine non sono uguali tra loro ma
hanno una diversa composizione in amminoacidi che influenzerà la forza del legame: se la proteina
è molto carica negativamente si legherà molto bene, se è poco carica negativamente il legame sarà
debole, se non è carica negativamente, quindi è neutra o positiva, non si legherà al supporto e uscirà
subito dalla colonna con i vari lavaggi. In questo specifico caso, quando il supporto è positivo e la
proteina è negativa, si parla di cromatografia a scambio anionico, al contrario invece si parla di
cromatografia a scambio cationico.
Nel dettaglio come si realizza la cromatografia: il supporto cromatografico, in questo caso ha delle cariche elettriche positive, viene
bagnato con un’opportuna soluzione tampone che mediante ioni cloruro bilancia le cariche positive, in questo modo il supporto è
pronto per la separazione; allora, si fanno passare sulla colonna proteine con carica elettrica negativa bilanciate da sodio che,
fluendo, provocano il fenomeno dello scambio ionico per cui lo ione cloruro verrà sostituito dalla proteina negativa che resterà
legata alla colonna ed il sodio si accoppierà al cloruro; ora, andando ad eluire con una soluzione a basso contenuto di cloruro di
sodio gli ioni cloruro tenderanno a riattaccarsi al supporto e quindi innanzitutto usciranno dalla colonna le proteine neutre e positive
e poi quelle con carica poco negativa che non erano fortemente legate; infine, aumentando la concentrazione di cloruro di sodio
anche le proteine molto negative via via si staccheranno dal supporto.
# La cromatografia per affinità si basa sulla possibilità di individuare, su una macromolecola, una regione peculiare, posseduta da
essa ma non posseduta da altre. Un esempio molto semplice è l’enzima che ha un sito di legame specifico per il suo substrato e
diverso da quello di altre molecole, quindi, producendo un supporto cromatografico nel quale è presente un ligando che si associa
al sito attivo si può trattenere sul supporto cromatografico l’enzima e lasciar passare tutte quante le altre molecole proteiche
eventualmente presenti nell’estratto cellulare o tissutale in quanto queste non interagiranno con il supporto.
Nel dettaglio come si produce e come funziona una colonna
cromatografica per affinità: anzitutto è necessario avere un
ligando che possa essere riconosciuto dalla proteina di
interesse, volendo separare un enzima il ligando non sarà il
substrato perché verrebbe riconosciuto dal sito attivo e
modificato senza realizzare di fatto alcune legame, ma
potrebbe invece essere un inibitore di tipo reversibile,
questo non verrebbe modificato dall’attività enzimatica
quindi si realizzerebbe il legame e poi successivamente
l’enzima potrà venire liberato (reversibile=non covalente);
poi serve un braccio spaziatore che è una lunga molecola
generalmente di atomi di carbonio che tiene legato
lontano, per evitare problemi di ingombro sterico, il ligando
dal supporto cromatografico, quest’ultimo è realizzato con uno dei polimeri già trattati, ad esempio l’agarosio; a questo punto la
struttura è completa, si fa passare sulla colonna cromatografica la soluzione contenente le proteine, l’enzima rimane legato ed il
resto delle proteine vengono lavate via sfruttando un opportuno tampone.
Per staccare l’enzima dall’inibitore si possono usare varie strategie:
• variare il pH, così facendo varia la ionizzazione dei gruppi laterali delle proteine e quindi potrebbe modificarsi la struttura del
sito attivo e l’enzima si staccherebbe, tuttavia, per ottenere questo risultato è necessario usare variazioni di pH molto grandi e
ciò potrebbe causare la denaturazione della proteina quindi questa tecnica viene usata ben poco (eluizione non specifica)
• aumentare la concentrazione salina, ovvero alimentare la forza ionica, in questa maniera si rende più difficile l’interazione
dell’inibitore con il sito attivo, cioè diventa più difficile l’interazione del ligando con il sito specifico della molecola proteica che
lo riconosce, ma anche questa tecnica non è particolarmente efficiente (eluizione non specifica)
• usare un ulteriore analogo del substrato o del ligando, ovvero una struttura complementare alla molecola proteica ma che
abbia un’affinità maggiore per andare a sostituire ciò che la blocca sulla colonna cromatografica (eluizione per affinità)

11
A questo punto, per allontanare questo ligando che darebbe una molecola proteica inibita lo si fa passare per diluizione attraverso
una membrana da dialisi.
Esiste una particolare utilizzazione della cromatografia di affinità: è vero che ci sono molecole che hanno siti peculiari, come per
esempio l’enzima, ma molte molecole non hanno qualcosa di particolare in questo senso bensì hanno epitopi che vengono
riconosciuti da anticorpi, una molecola proteica è essa stessa un antigene, quindi si può costruire una cromatografia per affinità con
degli anticorpi che riconoscono solo la specifica proteina.
Si avrà sempre il supporto cromatografico, il braccio spaziatore stavolta funzionalizzato con idrossisuccinamide capace di reagire
con i gruppi NH2 delle proteine ed un anticorpo legato su questa colonna cromatografica; allora, facendo passare una soluzione di
proteine, l’anticorpo riconoscerà quella di interesse legandola, quindi la colonna verrà lavata con una soluzione tampone e la
proteina riconosciuta sarà isolata. A questo punto il sistema di recupero della proteina è semplice, si utilizzano soluzioni di urea, un
denaturante, reversibile e non particolarmente forte, che indebolirà l’interazione tra l’antigene e l’anticorpo fino a separarli ed
infine nuovamente si userà la dialisi per eliminare la concentrazione di urea in eccesso. È un sistema davvero molto efficiente.
Ad oggi vengono prodotte molte proteine con le tecniche di ingegneria
genetica, sfruttando un plasmide che si replica attivamente dentro cellule
batteriche oppure inserendo geni dentro il genoma di cellule eucariotiche
superiori, ma si pone comunque il problema della purificazione di queste
proteine che con le tecniche della cromatografia ad esclusione o a scambio
ionico non riesce quasi mai, quindi è comunque necessario fare un’ulteriore
procedura di cromatografia di affinità.
Ormai da diversi anni, per farlo, si sfrutta un una sequenza amminoacidica che
può essere riconosciuta da un anticorpo, quindi si generano le cosiddette le
proteine di fusione ed il peptide viene attaccato alla proteina.
Qui è riportato un esempio: è stata prodotta dell’interleuchina2 con un
sistema di ingegnerizzazione di microrganismi, è stata fusa con un peptide
marcatore che ovviamente non ne altera la funzione e così è stata ottenuta la
proteina di fusione; questa può essere facilmente purificata con la
cromatografia di affinità perché si possono produrre grandi quantità di
anticorpi che riconoscono il peptide marcatore, gli anticorpi verranno legati
sulla colonna cromatografica ed a questo punto, con il flusso, le proteine di
fusione che contengono il peptide marcatore si legheranno alla colonna e,
successivamente, utilizzando soluzioni di urea, si potranno staccare.
Si può lavorare in questo modo perché le sequenze amminoacidiche che vengono utilizzate hanno un grande potere immunogenico,
cioè sono in grado di stimolare fortemente il sistema immunitario, per cui è facile ottenere una grande quantità di anticorpi.
Oltretutto gli anticorpi avranno alta affinità per cui legheranno in maniera molto efficiente il peptide stabilizzando il legame
tra la proteina di fusione e la colonna cromatografica e rendendo il sistema estremamente funzionante. Si formano degli
immunocomplessi molto stabili ed inoltre il sistema ha il vantaggio di poter essere usato per qualsiasi proteina senza dover ogni
volta cambiare supporto cromatografico: nel primo metodo si utilizza un antigene specifico per ogni proteina, in questo si utilizza
sempre lo stesso antigene perché non si va a legare la proteina ma il “vettore” che, anche cambiando proteina, è sempre lo stesso.
In questo modo vengono legati alla colonna cromatografica degli anticorpi per riconoscere un antigene ma niente vieta di fare il
contrario, anzi il sistema è speculare e quindi diventa “facile” ottenere un antisiero.
Ancora, un’altra possibile utilizzazione della cromatografia per affinità riguarda gli acidi nucleici: andare ad isolare in una
preparazione di RNA l’mRNA, presente in piccola percentuale rispetto ad rRNA e tRNA, al fine di produrre una particolare proteina
o realizzare una sonda specifica per una particolare seguenza di acidi nucleici.
I nostri laboratori lavorarono con questa tecnica proprio per ottenere i messaggeri per realizzare le prime sonde molecolari per la
beta-globina e l’alpha-globina: estraendo l’RNA dai reticolociti (l’ultima fase di maturazione dei globuli rossi), venne sfruttato il fatto
che il segnale che hanno le molecole di mRNA per uscire dal nucleo di una cellula eucariote è la poli-adenilazione, cioè tutti i
messaggeri vengono modificati dentro il nucleo attaccandogli una sequenza di adenine, cosa che rRNA e tRNA non hanno perché
modulati al di fuori del nucleo, per cui, realizzando una colonna cromatografica dove sono bloccati dei poli-uracile e facendogli
passare il preparato solo gli mRNA con la coda di poli-adenine si legheranno.
I ligandi che possono essere utilizzati per fare cromatografia di affinità sono tantissimi, tra questi è interessante richiamare
l’attenzione sulla concanavalinaA che permette l’individuazione di proteine glicosilate e modificate port-traduzionalmente, come
glicoproteine, glicopeptidi, glicolipidi e frammenti di membrana contenenti residui di alpha-D-mannopiranosio o alpha-D-
glucopiranosio, e sulla lectina di lenticchia che permette di ottenere solo le IgA e IgG umane, molto interessante da un punto di
vista farmacologico in quanto si possono così fare preparazioni di immunoglobuline a scopo farmaceutico.
Ma, quella che sembrerebbe una tecnica potentissima come la cromatografia per affinità non funziona se è condotta su una miscela
di proteine molto complesse, come il siero umano in cui ci sono 80g/L di proteine, perché piuttosto che interagire specificamente
con i ligandi messi sulla colonna cromatografica di affinità tenderà a mascherarli.

È sempre necessario combinare tra di loro tecniche differenti per ottenere la purificazione di una generica proteina, nessuna tecnica
di quelle viste, da sola, permette di ottenere la procedura completa.

12
Questo è un andamento di una procedura di purificazione completa.
Quando mi dovrei fermare? L’unico metodo per capire se una proteina si trova pura è l’elettroforesi, posso fare elettroforesi dopo
ciascuna di queste fasi per capire a che punto mi trovo, quando vedrò la presenza di un’unica proteina allora avrò finito.
Queso non significa che la purificazione è del 100% ma che ho ottenuto l’unico componente veramente visibile perché esistono
sempre dei limiti di sensibilità, anche per l’elettroforesi che al di sotto di un certo livello non vedrà più.

Tecniche elettroforetiche
Il miglior metodo per capire se una proteina è stata purificata è fare un’analisi elettroforetica del contenuto della soluzione, inoltre,la
separazione elettroforetica dei componenti di liquidi biologici è di per sé anche un metodo diagnostico che permette di ricavare
informazioni sullo stato di salute del paziente.
Il principio alla base dell’elettroforesi è che, presa una particella carica e posta dentro ad un campo elettrico essa verrà attratta
verso il polo di segno opposto al proprio e la velocità con cui si muoverà dipenderà evidentemente dall’intensità del campo elettrico,
dalla sua carica elettrica e dall’eventuale forza di attrico che si genera nel muoversi sul supporto elettroforetico.
Un po di storia… La più antica metodologia elettroforetica introdotta nella diagnostica medica fu l’elettroforesi a fronte mobile
(1930/1940), un’elettroforesi poco risolutiva ottenuta all’interno di una soluzione liquida per uno studio sulle proteine.
Molto più efficienti risultarono le tecniche ad elettroforesi zonale, realizzate su specifici supporti elettroforetici, distinte in
elettroforesi su strato sottile (1937) a cui appartengono le separazioni su nitrocellulosa, su gel di silice e su acetato di cellulosa, e le
elettroforesi su gel di agarosio AGE o di poliacrilamide PAGE. Quest’ultima tecnica può essere realizzata per focalizzazione
isoelettrica (1966 Vesterberg e Svensson), quindi basandosi sul punto isoelettrico delle proteine, oppure in presenza di SDS, sodio-
dodelcil-solfato, (1970 Laemmli) che permette di far correre le proteine in base al loro peso molecolare. Combinando queste ultime
due tecniche si ottiene l’elettroforesi bidimensionale (1975 O’Farrel) che è la tecnica di base dell’attuale proteomica.
Infine, negli anni ’80, fu introdotta l’elettreoforesi capillare realizzata dentro un lungo capillare riempito di polimeri in grado di
determinare attrito differente delle diverse componeneti, attualemente utilizzata per separare acidi nucleici a scopo diagnostico.
E’ possibile creare un campo elettrico E generando una differenza di
potenziale tra due elettrodi, l’anodo carico positivamente ed il catodo
carico negativamente: l’intensità di E sarà direttamente proporzionale
alla differenza di voltaggio applicato.
Inserendo nel sistema una specie ionica di carica q, essa si muoverà
dentro questo campo elettrico in relazione alla forza elettrostatica che
agisce su di essa che sarà proporzionale sia all’intensità di E, sia alla
quantità ed al segno della carica q della particella stessa.
A questo movimento si opporrà la forza frizionale che è l’attrito che la
molecola incontra nel muoversi sul supporto.
Per riassumere si può dire che con l’elettroforesi si descrive la
migrazione di particelle cariche sotto l’influenza di un campo elettrico.
Molte molecole biologiche, tra cui le proteine, possiedono gruppi ionizzabili e possono comportarsi in soluzione come cationi
migrando verso il polo negativo o come anioni migrando verso il polo positivo. La stragrande maggioranza delle proteine, tra cui
quelle del siero umano, ha carica negativa ed in elettroforesi ad un pH leggermente alcalino, quindi poco sopra il pH 7 e intorno al
pH 8, vanno al polo positivo.
Elettroforesi su strato sottile di acetato di cellulosa
Uno dei supporti più usati in diagnostica ed in laboratorio è la striscia di acetato di cellulosa. Si tratta di un derivato della cellulosa
che viene stratificata su un supporto plastico impermeabile. Lo strato sottile è alto normalmente non più di 1 mm ed al contrario
della carta, che si usava un tempo, è possibile prepararlo affinchè diventi omogeneo in qualunque punto e quindi in modo che la
forza di attrito che si oppone al movimento delle particelle
risulti sempre la stessa. Le estremità del supporto
pescano in due vaschette che contengono la stessa
soluzione tampone, ed in queste stesse vaschette sono
presenti i due elettrodi, in genere fatti di platino, ai quali
può essere collegato un generatore di corrente continua.
Acceso il generatore le molecole proteiche si muoveranno
sul supporto in relazione alla loro carica elettrica.
13
Quando si applica una differenza di potenziale a voltaggio V agli elettrodi si genera un gradiente di potenziale E = V/d
(voltaggio/distanza tra gli elettrodi), la distanza degli elettrodi solitamente è molto contenuta, si tratta di pochi centimetri, per cui
questo fattore diventa trascurabile.
La velocità con cui si muove la molecola sarà data da v=E*q/F , quindi è direttamente proporzionale al campo elettrico e alla quantità
di carica ed inversamente proporzionale al coefficiente frizionale, per cui molecole che hanno una maggior carica elettrica ma una
minore interazione col supporto andranno veloci, mentre quelle con minor carica elettrica e maggior attrito risulteranno più lente.
Queste combinazioni renderanno possibile la separazione delle molecole.
Nel dettaglio, i fattori che influenzano la migrazione elettroforetica sono:
• Valore del campo elettrico
Il supporto elettroforetico è un cattivo conduttore e quindi costituisce una resistenza al passaggio della corrente, dalla relazione
stabilita dalla legge di Ohm l’intensità della corrente I che passa su un qualunque conduttore (supporto elettroforetico) è
direttamente proporzionale alla differenza di potenziale in voltaggio V ed inversamente proporzionale alla resistenza R, quanto
maggiore è la resistenza quanto più difficile è il passaggio della corrente I = V / R
Tuttavia, essendo un cattivo conduttore, al passaggio della corrente si verifica un riscaldamento del supporto e l’aumento di calore
fa si che la resistenza non sia costante nel tempo; se la resistenza cambia, cambierà l’intensità della corrente ed in proporzione
anche il voltaggio, ma, poiché lo spostamento delle molecole dipende dalla differenza di potenziale, se cambia il voltaggio la velocità
con cui si spostano le molecole cambierà nel tempo.
NB: il voltaggio è una forza esercitata sullo ione direttamente proprorzionale alla carica e alla differenza di potenziale ed
inversamente proporzionale alla distanza tra gli elettrodi, un aumento di voltaggio si traduce in un aumento di velocità di
migrazione; la corrente in soluzione è la carica complessiva trasportata da uno ione all’elettrodo ed aumenta all’aumentare del
voltaggio; la resistenza è un’opposizione al moto degli ioni in soluzione ed aumenta con la distanza tra gli elettrodi mentre
diminuisce con l’aumento della sezione del supporto.
• Grado di ionizzazione delle molecole e valore del pH
Il grado di ionizzazione è dato dalla somma algebrica dei gruppi ionizzati positivamente o negativamente e dipende dal pH.
La stragrande maggioranza delle proteine di origine biologica è caricata negativamente, a pH leggermente alcalino quindi migrano
verso il polo positivo; ci sono poche eccezioni, come per esempio gli istoni che tendono ad avere una carica elettrica positiva per la
presenza di lisine e arginine.
Si usano solitamente sui supporti elettroforetici classici, acetato di cellulosa e agarosio, delle differenze di potenziali intorno ai 200
V quindi per mantenere il pH leggermente alcalino è necessario usare delle soluzioni tampone opportune.
• Grandezza, peso e forma delle molecole e struttura del supporto di migrazione
La struttura tridimensionale di un supporto elettroforetico è data dall’intreccio dei polimeri che determinano una serie di maglie
con una certa porosità all’interno delle quali le macromolecole camminano o restano intrappolate, in questo sono decisive le
dimensioni delle maglie e delle proteine.
Le maglie potrebbero essere piuttosto larghe e non fungere da impedimento al passaggio delle macromolecole, questo succede
sull’acetato di cellulosa e sull’agarosio quando si fa elettroforesi di proteine, oppure potrebbero essere più strette generando un
considerevole effetto frizionale, come succede per l’agarosio sugli acidi nucleici o per il gel di poliacrilamide sulle proteine.
Dall’altra parte, le proteine possono avere diverse forme, quelle più o meno globulari si orienteranno facilmente nello spazio e
avranno sempre più o meno lo stesso attrito, quelle filamentose avranno più difficoltà perché si dovranno orientare nel senso della
lunghezza, allo stesso tempo, tanto più è grande il filamento maggiore sarà la difficoltà nell’orientarsi. Gli acidi nucleici, invece,
hanno tutti la stessa forma e variano solo nella grandezza, l’interazione col supporto elettroforetico può essere talmente grande
che nonostante un acido grande abbia molta più carica elettrica di uno piccolo sul supporto va più veloce quello piccolo perché si
orienta più facilmente.
• Dissipazione di potenza sotto forma di calore
Durante un’elettroforesi si genera una potenza W dallo spostamento delle cariche elettriche sul supporto, tale potenza è data da
W = I^2 * R e la maggior parte non viene usata per spostare le macromolecole ma viene dissipata sottoforma di calore.
L’effetto di questo calore determina la comparsa delle correnti convettive che tendono a rimescolare le molecole tra di loro
impedendone la separazione: il campione diffonde a maggiore velocità in tutte le direzione piuttosto che nell’unica di interesse e
questo porta a una minor definizione delle bande elettroforetiche. Inoltre, il calore ha di per se un effetto denaturante delle proteine
stesse, quindi, per evitare il surriscaldamento del supporto, il processo si esegue su sistemi di raffreddamento che consistono nel
fare circolare acqua attraverso una piastra di raffreddamento a 4 °C o ponendo l’intero supporto in un opportuno frigorifero.
NB: è stato detto che se si aumenta la differenza di potenziale le molecole migrano più velocemente, tuttavia ciò non vuol dire che
per impiegare la metà del tempo basta raddoppiare la differenza di potenziale, così facendo, l’aumentare delgi ioni che passano fa
aumentare solamente il surriscaldamento e si finirà per rendere inutilizzabile la separazione elettroforetica.
• Forza ionica del tampone
All’aumentare della forza ionica aumenta la corrente che viene trasportata nel supporto elettroforetico e questo comporta la
riduzione della mobilità elettroforetica del campione, al contrario, in condizioni di forza ionica molto ridotta non c’è più passaggio
di corrente perché le macromolecole presenti non sono abbastanza e questo fa si che ci sia una perdita di definizione delle bande
elettroforetiche. La forza ionica che si usa è un compromesso tra gli estremi 0.05 e 0.1 M.

14
Questa immagine rappresenta una classica elettroforesi su acetato di cellulosa di sieri umani ed è
proprio il risultato di un’indagine di laboratorio, di una diagnosi chimico-clinica, che permette di
trarre alcune conclusioni sullo stato di salute e sull'eventuale patologia che affligge il paziente.
Le proteine non sono normalmente colorate, il plasma umano una volta preparato appare come
un liquido giallo paglierino per la presenza dei pigmenti biliari, quindi, per vederle, una volta fatta
l’elettroforesi, è necessario colorarle e si possono sfruttare diverse colorazioni.
Una cosa importante da sapere è che nel punto in cui viene posizionato inizialmente il deposito
non vi sarà più nulla perché le proteine si spostano tutte quante e quindi alla fine non vi sarà
colorazione. Essendo tracciati fatti a pH leggermente alcalino ed essendo che le proteine del siero
sono caricate negativamente la zona del deposito corrisponde al polo negativo mentre quella
verso la quale migrano al polo positivo.
Occorre ora interpretare il tracciato, cioè, come si fa a capire se un tracciato appartiene ad un soggetto normale oppure ad un
soggetto con patologia?
Si interviene quando si assiste alla comparsa di una componente che nell’analogo tracciato “sano” non era presente oppure ad un
suo aumento di colorazione, tenendo comunque sempre a mente che i parametri di riferimento normale per uomo sono
estremamente variabili.
Per farlo si utilizza uno strumento chiamato densitometro con il quale è possibile misurare la densità (l'intensità di colorazione) di
ciascuna banda elettroforetica: il supporto elettroforetico è, o viene reso, trasparente e da una sorgente di luce, normalmente una
lampada a tungsteno, e viene campionato attraverso una fessura un sottile raggio luminoso monocromatico, ovviamente poiché un
colore assorbe la radiazione complementare ad esso in presenza di una data colorazione si utilizzerà un filtro che dia radiazione
elettromagnetica opportunamente complementare; a valle del supporto sono presenti una cellula fotoelettrica, un fotodiodo molto
sensibile, ed un sistema di amplificazione, un circuito elettronico, quest’ultimo rivelerà la quantità di corrente prodotta dalla cellula
fotoelettrica una volta colpita dal raggio di luce e ne restituirà il valore in
un’unità di misura arbitraria che potrà essere rappresentata in un grafico.
E’ chiaro che l’inizio del grafico avrà valori molto bassi o addirittura nulli
perché in quelle posizioni (zona del deposito), essendosi spostate tutte le
proteine, non c'è colorazione e di conseguenza non c’è assorbimento,
quindi passa la maggior quantità di luce possibile e la cellula fotoelettrica
ridà la massima intensità di corrente.
La colorazione completa si determina facendo scorrere il supporto lungo il raggio luminoso con un piccolo motore e man mano si
ha la lettura del tracciato densitometrico. L'area totale presente al di sotto del tracciato è la quantità totale di colorazione, per cui
se si fa l’integrale se ne ottiene il valore numerico, ma, allo stesso modo, l'area che si trova sotto ciascun picco percentualmente
indica quanta di questa colorazione c'è in ciascun picco, quindi l’interpretazione di un tracciato elettroforetico è una interpretazione
proporzionale, non ridà dei valori assoluti, è come dire che proporzionalmente in quel piccolo rispetto al totale c’è quella quantità
di colorazione e quindi proporzionalmente quella quantità di proteina.
Può accadere che un piccolo aumenti in seguito ad una patologia ma alcuni aumenti
possono non essere “reali” cioè possono essere dovuti alla diminuzione delle proteine in
altri picchi e non ad un reale aumento delle proteine di quel picco, questo perché il tutto
deve essere sempre 100% (se qualcosa aumenta qualche altra cosa deve diminuire).
Da un tracciato di siero umano può venir fuori che il picco più veloce, l'albumina, sia del
30,7% e la zona in ultimo, la più lenta, quella delle gamma globuline, sia del 55.3%. Tuttavia,
in condizioni normali l’albumina è al 50% mentre le gamma globuline sono al 11%, quindi,
osservando dalle bande elettroforetiche (in basso) la comparsa della nuova componente
proprio verso la fine del tracciato, si dedurrà che sono le gamma globuline ad essere
aumentate rispetto al normale e non l’albumina ad essere
diminuita. Di albumina ce n'è comunque il 50% ma, con la comparsa
della nuova componente delle globuline, percentualmente questo
50% sta dentro il 30% complessivo. Si ha una distorsione della realtà
per la quale apparentemente metà del fegato potrebbe essere
morto mentre in realtà si tratta di un calcinoma.
Con i metodi più sensibili ad oggi è stato possibile individuare più di mille componenti proteiche all'interno del siero umano, nelle
normali diagnosi di laboratorio però si vedono solo i componenti maggioritari, ciò dipende del potere risolutivo del sistema di
rivelazione utilizzato: deve essere infatti chiaro che all'interno di ciascun picco evidenziato ci potrebbero essere tante altre
componenti ma in quantità troppo “piccole” affinché quel sistema li riveli.
Maggiore è il livello di sensibilità del sistema più è probabile che stia osservando un’unica componente.
Per questo per confrontare due situazioni è indispensabile averle esaminate con il medesimo sistema di rivelazione, oltretutto, un
discorso di paragone non si può fare mai in assoluto ma sempre rispetto ad intervalli normali di riferimento che possono essere
molto diversi da metodica e metodica. Per esempio, preso un siero ed eseguito lo studio elettroforetico prima su acetato di cellulosa
colorato in rosso e successivamente ripetuto su agarosio colorato in blu, il fatto che siano cambiati il pH, il tempo di esecuzione, il
voltaggio,… porterà ad ottenere tracciati differenti perché per ciascuna tecnica sono cambiati gli intervalli di riferimento.

15
Parlando nel dettaglio di metodi di rivelazione e delle loro diverse sensibilità c’è da fare una premessa: esistono svariati sistemi di
colorazione (amido black, coomassie blu, ponceau red) che “vedono” le proteine perché, essendo polipeptidi, vanno ad interagire
con gli NH2, ma esistono anche dei metodi specifici per alcune classi di proteine, ad esempio, per evidenziare solo le glicoproteine
si può trattare la striscia elettroforetica con una specifica reazione che è l'ossidazione con acido periodico-reattivo di Schiff che
interagisce con la parte glucidica e non con quella peptidica, oppure per le lipoproteine si usa il Fat Red 7B.
Il caso delle lipoproteine è molto interessante perché l'alterazione della percentuale di una lipoproteina rispetto ad un’altra può
essere indice di patologie molto gravi: un aumento di beta-lipoproteine (LDL) aumenta il rischio di patologia aterosclerotica in
quanto queste sono in grado di rilasciare colesterolo sull’endotelio dei vasi sanguigni, quindi di determinare l’inizio della placca
aterosclerotica, mentre le HDL fanno il lavoro contrario, prelevano il colesterolo dalla periferia e lo trasportano al fegato dove verrà
magari utilizzato per fare i pigmenti biliari che serviranno alla digestione.
Per svolgere queste funzioni di traporto le lipoproteine hanno una parte chiamata apoproteina capace di legarsi ai gruppi prostetici
delle altre molecole, appunto, colesterolo non esterificato, colesterolo esterificato, fosfolipidi o trigliceridi, e di permetterne il
trasporto inizialmente nelle zone di assorbimento, intestino e fegato, e da qui in tutti gli altri distretti.
Facendo un’elettroforesi con il Fat Red 7B compaiono tre bande (se il test non è eseguito a digiuno sono quattro perché con
l’assunzione di lipidi con la dieta compaiono anche i chilomigroni, delle lipoproteine che trasportano lipidi dall’intestino al fegato):
la prima banda viene chiamata alpha-HDL perché la sua mobilità è la stessa delle alpha-1-globuline e si trova nella stessa regione in
cui si troverebbero queste, analogamente per le beta-LDL, la terza componente è detta probeta-VLDL perché ha una mobilità
intermedia e di fatti si trova in mezzo leggermente più vicina alle beta.
Per conoscere poi la quantità di colesterolo si utilizzeranno una serie di reazioni enzimatiche accoppiate che metteranno in luce se
le alpha e le beta sono in equilibrio all’interno del range di valori normali di riferimento o se c’è una situazione patologica.
Ora, facendo un passo indietro, è stato detto che anche l’ultracentrifugazione è un sistema diagnostico, infatti i nomi HDL, LDL e
VLDL derivano dalla densità che queste hanno: HDL vuol dire proteine ad alta densità ovvero proteine che hanno tanta parte proteica
e bassa quantità di colesterolo associato, LDL vuol dire a bassa densità perché hanno poca proteina e tanti lipidi associati, le VLDL
sono ancora meno dense e praticamente contengono solo lipidi.
Quindi si potrebbe eseguire un’ultracentrifugazione come metodo separativo e poi, in base all’indice di rifrazione di ciascuna sezione
ottenuta stabilire quante lipoproteine ci sono, ma generalmente si preferisce il sistema elettroforetico perché è più semplice e
rapido. Inoltre, un dettaglio che confrontando le due tecniche viene alla luce è che mentre sul tracciato elettroforetico prima
vengono i chilomigroni, poi LDL, poi VLDL e infine le HDL, nell’ultracentrifugazione i più lenti sono sempre i chilomigroni, poi vengono
le VLDL, poi le LDL (inversione) e poi le HDL perché questa tecnica si basa sulla densità mentre il tracciato elettroforetico sulla parte
proteica che nelle LDL si carica di più rispetto alle VLDL.
Per quanto riguarda gli enzimi, invece, si può dire che se si trova variazione nei livelli di un’attività enzimatica la si può ricondurre
all’alterazione di un organo. Questo concetto in linea di massima è giusto ma sarebbe più corretto studiare non tanto l’attività
enzimatica quanto i suoi isoenzimi in quanto un’attività enzimatica non è catalizzata da un solo polipeptide ma da più di uno mentre
gli isoenzimi hanno una distribuzione sui tessuti “più precisa” di quella che è l’attività enzimatica.
La lattico deidrogenasi che catalizza la trasformazione da piruvato a lattato e viceversa, ad esempio, la si trova in tutti i tessuti, non
vi sono cellule prive, quindi se se ne studia l’attività totale nel circolo sanguigno e la si trova aumentata non si saprà dove è
aumentata di preciso.
Viene in aiuto lo studio degli isoenzimi, molecole proteiche che catalizzano la medesima reazione enzimatica ma che hanno mobilità
elettroforetica diversa. Per evidenziarli, invece che i normali coloranti, si usa un metodo di colorazione che metta in evidenza solo
gli isoenzimi di quella specifica attività enzimatica.
Si prende il supporto di acetato di cellulosa e lo si tratta con lattato e NAD, gli enzimi della lattico deidrogenasi in presenza di questi
reagenti faranno la reazione producendo piruvato e NADH2; questa reazione inoltre produce la fenazina matasolfato PMS, una
molecola che reagisce con il NADH2 producendo PMSridotta e NAD; allora alla PMSridotta si aggiunge MTT che reagisce formando
Formazan, una molecola caratterizzata dal fatto di essere colorata in violetto e che è anche un precipitato quindi rimarrà bloccata
nelle maglie del supporto elettroforetico e sarà un indice di misura della lattico deidrogenasi.
Usando delle strisce trasparenti si può fare anche una lettura al densitiometro che mette in luce come primo picco l’isoenzima del
cuore e del muscolo scheletrico, normalmente il più veloce, al quale seguono il polmone, il fegato, ….
Lo stesso vale per la fosfatasi alcalina: si fa avvenire la reazione caratteristica fornendo
la molecola BCIP che possiede un gruppo fosfato che viene staccato dalla fosfatasi
alcalina, si forma un intermedio di reazione che è una molecola che precipita e che è
colorata di blu, si fornisce NBT che reagisce con l’intermedio in una reazione di ossido-
riduzione dando ulteriore precipitato blu e, alla fine, si vedranno quattro isoenzimi
(epatica, ossea, macro-epatica, intestinale). Se qualcosa non sta andando bene questo
studio evidenzierà quale organo o tessuto è il deficitario.
Ancora, lo studio può ripetersi per gli isoenzimi della creatin chinasi che sono tre, CK-BB, CK-MM, CK-MB. Come mobilità
elettroforetica la CK-BB è addirittura più veloce dell’albumina, la CK-MB sta sotto le beta e la CK-MM sta praticamente all’origine di
un tracciato elettroforetico.

16
Mentre i sistemi di rivelazione visti fino ad ora possono essere fatti su qualsiasi supporto elettroforetico, cellulosa, agarosio,
polacrilammide, ne esiste uno particolare, il Western Blotting, eseguito su due supporti, prima gel di poliacrilammide per sfruttarne
il potere risolutivo particolarmente elevato e poi una membrana di nitrocellulosa.
E’ un sistema particolarmente interessante perché, in questo modo, a discapito della presenza di tanti componenti proteici nel
tracciato, evidenzia solo quello di interesse.
Nell’elettroforesi A realizzata con Comassie, nella banda 3 c’è
il componente di interesse purificato e nelle bande 4 e 5
vengono mostrate due preparazioni diverse dopo aver fatto
purificazione di materiale ma che risultano visibilmente
ancora ricche in componenti per cui non si riesce a capire se
c’è quello di interesse. Nell’elettroforesi B realizzata con la
tecnica western blotting è chiaro che nel tracciato 3 si vede
solo la componente di interesse perché è stata appositamente
purificata e poi si può vedere che nella preparazione del
tracciato 4 non c’è, mentre è presente nel tracciato 5.
Questo metodo funziona utilizzando degli anticorpi specifici: un primo anticorpo, dopo aver fatto l’elettroforesi, riconosce il
componente proteico di interesse ed un secondo anticorpo riconosce il primo anticorpo e catalizza una reazione enzimatica oppure
permette di avere produzione di luce e quindi vedere la molecola (porta il tracciante dando qualcosa che si può vedere).
Dopo la separazione su gel di poliacrilammide, le proteine vengono trasferite sulla membrana di nitrocellulosa essendo tale
membrana più maneggevole della poliacrilammide che si romperebbe nei trattamenti successivi. Infatti, la tecnica prende il nome
“western blot” blot da proteine su una membrana e Western da Southern Western, il ricercatore che negli anni ‘70 mise insieme
questo sistema di trasferimento da poliacrilammide a nitrocellulosa per il DNA chiamandolo Southern blot e successivamente,
applicandolo alle proteine, venne denominato Western.
Il passaggio da poliacrilammide a nicrocellulosa avviene
per mezzo di elettroforesi. Si prepara un sandwich del gel
elettroforetico con la membrana di nitrocellulosa sulla
quale si vogliono fare arrivare le proteine, si mette il tutto
all’interno del supporto elettroforetico nel quale si genera
un campo elettrico e le proteine escono dal gel e finiscono
nel filtro di nitrocellulosa rimanendo bloccate sulla
membrana. A questo punto si fa incubazione con
l’anticorpo primario, si fa incubazione con l’anticorpo
secondario, vengono forniti i substrati all’anticorpo
secondario che è stato modificato con un enzima in modo
tale da poterlo impregnare di qualcosa che dia un segnale,
ad esempio, impregnato con una fosfatasi alcalina si
forniscono i substrati della fosfatasi alcalina per avere un
prodotto colorato e si ottiene la banda elettroforetica
corrispondente al componente di interesse.

Riepilogando: la separazione su strato sottile di acetato di cellulosa (trattata inizialmente) funziona efficientemente con le proteine
che non risentono dell’effetto di attrito nel passaggio sull’acetato perché questo supporto, pur avendo una struttura tridimensionale
di setaccio molecolare, in realtà presenta dei pori abbastanza grandi che non rendono l’effetto setaccio sufficiente, lo stesso motivo
per cui non può essere utilizzato per separare acidi nucleici. Due supporti dove l’effetto attrito si fa sentire fortemente a seconda del
materiale che viene separato sono invece il gel di agarosio ed il gel di poliacrilammide.

Elettroforesi su gel di Agarosio AGE


L’agarosio è un polisaccaride naturale purificato dalle alghe di agar, la sua unità strutturale è L-galattosil-3,6-anidro-L-galattosio.
Questo supporto è anche utilizzato in batteriologia per coltivare batteri, muffe e lieviti, tuttavia, quello utilizzato per fare i supporti
elettroforetici ha un grado di purificazione nettamente superiore.
Ha una struttura solida che per realizzare il supporto elettroforetico può essere preparata come una polvere da sciogliersi in un
solvente opportuno: si inserisce l’agarosio in una beuta dove è presente una soluzione tampone a pH leggermente alcalino (intorno
ad 8) alla giusta concentrazione, quindi alla giusta forza ionica, ed a temperatura ambiente e si ottiene la polvere in sospensione; si
porta la soluzione ad una temperatura di circa 60° mediante un microonde, la polvere di agarosio in questo modo si scioglierà
completamente per cui si avrà una soluzione limpida, perfettamente
trasparente; il liquido viene colato su una sorta di stampo e viene
inserito un pettinino che, rimosso ad avvenuta solidificazione, avrà
realizzato i pozzetti in cui potrà essere inserito il campione da
analizzare; lasciando raffreddare la soluzione a temperatura ambiente
avverrà il processo di nucleazione per cui i filamenti di agarosio
cominceranno ad associarsi tra di loro formando prima delle strutture
ad elica e poi dei fasci di doppia elica.
17
È chiaro che questo supporto alla fine, visto al microscopio elettronico a scansione, avrà una struttura tridimensionale con una sua
porosità che sarà in relazione alla quantità di agarosio che è stato sciolto inizialmente nella soluzione tampone: quanto più agarosio
è presente, tanto più le maglie saranno strette e quindi tanto maggiore sarà la densità del gel.
Con questo metodo, dunque, si ha la possibilità di ottenere supporti con capacità di separazione elettroforetica differente in
relazione alla grandezza delle molecole che si vogliono separare.
A questo punto si applicherà la differenza di potenziale (corrente elettrica continua) grazie a degli opportuni alimentatori che
possono essere regolati per lavorare a diversi voltaggi e, sottoposte all’azione del campo elettrico, le molecole all’interno del gel di
agarosio si muoveranno verso il polo di segno opposto alla carica che possiedono.
Da un punto di vista di diagnostica di laboratorio non è necessario preparare il gel di agarosio ogni volta, come per le strisce di
acetato di cellulosa, questo supporto è normalmente già disponibile perché preparato a livello industriale.
Normalmente per la separazione di proteine su gel di agarosio o su acetato di cellulosa il risultato finale è esattamente lo stesso
perché in entrambi i casi l’effetto di setaccio molecolare del supporto è ininfluente ma le proteine si muovono nel campo elettrico
solo ed esclusivamente in base alle differenze di carica elettrica posseduta (chi è più carico va più veloce, chi è meno carico va più
lento). Tuttavia, esistono alcune preparazioni di agarosio influenzate da un particolare effetto definito effetto elettroendosmotico.
Il fenomeno dell’elettroendosmosi si genera quando il supporto elettroforetico
possiede una sua carica elettrica.
Si supponga che il supporto elettroforetico sia esso stesso carico negativamente,
all’interno di un campo elettrico tenderebbe ad andare verso il polo positivo se non
fosse che, essendo un gel, è immobile, per cui si crea una situazione instabile e per
equilibrarla vengono richiamati dalla soluzione tampone al polo positivo una corrente
di ioni H3O+ che, migrando sul supporto elettroforetico, ne equilibrano la carica
elettrica. Poiché la quantità di carica del supporto è enorme, il flusso di questi piccoli
ioni H3O+ che viaggiano dovrà essere molto grande e veloce. Le proteine della
soluzione molto cariche negativamente e quindi veloci, andranno comunque verso il
polo positivo senza risentire del flusso di ioni H3O+ che va in direzione opposta, le
proteine meno cariche verranno rallentate, le proteine veramente poco cariche, cioè
le immunoglobuline, verranno proprio trascinate dal flusso di ioni nella direzione
opposta rispetto a quella verso cui erano dirette.
Il fenomeno dell’elettroendosmosi è sfruttato anche nell’elettroforesi capillare delle proteine, una tecnica realizzata all’interno di
un sottile capillare di vetro che oggi, in molti laboratori, sostituisce il supporto bidimensionale dell’agarosio.
All’interno del capillare sono presenti molecole che hanno gruppi funzionalmente carichi negativamente, queste, sottoposte ad un
campo elettrico, vorrebbero andare verso il polo positivo ma non possono perché fisse sul capillare, dunque richiamano il flusso di
ioni H3O+; così facendo, poiché all’interno del capillare si può lavorare ad alto voltaggio (2000V), si genera un flusso
elettroendosmotico talmente grande che le proteine non vanno più verso il polo positivo, ma, pur essendo caricate negativamente,
vanno verso il polo negativo, ritardate in maniera diversa a seconda della
loro grandezza ed in particolare a seconda della quantità di carica elettrica:
le più cariche saranno ritardate di meno dunque si sposteranno di meno,
mentre quelle meno cariche risentiranno di più dell’effetto e si
sposteranno più velocemente.
L’elettroforesi capillare necessita di una regione di iniezione del campione
che sarà verso il polo positivo e poi verso il polo negativo vi sarà un sistema
di rivelazione: le proteine assorbono radiazioni elettromagnetiche a 280
nm quindi basterà utilizzare una lampada ad UV che produca radiazioni a
280 nm per cui durante il passaggio della proteina l’assorbanza aumenterà
e tornerà a 0 quando la proteina sarà passata del tutto.
Contrariamente alle proteine, per quanto riguarda la separazione degli acidi nucleici si può sfruttare l’elettroforesi capillare con un
diverso supporto che non porti al fenomeno elettroendosmotico ma che agisca da setaccio molecolare, ma questa tecnica rivela
sostanzialmente lo stesso risultato osservato con elettroforesi dei medesimi acidi nucleici su gel d’agarosio.
In una tipica separazione elettroforetica per campioni che contengono una diversa quantità di DNA, essendo il DNA incolore, i
campioni separati vengono messi in evidenza con il bromuro di etidio, una molecola con struttura planare che si intercala nella
doppia elica tra le basi del DNA e che, siccome è fluorescente, illuminando l’agarosio con una opportuna radiazione
elettromagnetica con lunghezza d’onda nell’ultravioletto, restituisce luce visibile ad occhio nudo.
Questo principio si sfruttava per i test di paternità fino ad una ventina di anni fa: si hanno quattro tracciati elettroforetici M (madre),
F (figlio), P1 (padre 1) e P2 (padre 2) realizzati frazionando il DNA con un opportuno enzima di restrizione ed usando una sonda per
ibridare i frammenti, si vanno a vedere quali frammenti sono presenti nel figlio e nella madre e si ipotizza che il figlio li abbia ereditati
da essa per cui si escludono, dopodiché si vanno a paragonare i frammenti restanti nel tracciato elettroforetico del figlio con quelli
dei “padri” e si va a vedere dove c’è la più alta corrispondenza identificando così il genitore.
L’agarosio può essere sfruttato a diverse percentuali, per le proteine a qualunque percentuale l’effetto è sempre lo stesso, non c’è
alcun ostacolo da parte del setaccio, quindi si lavora con la standardizzazione all’1%, per gli acidi nucleici invece variando la
concentrazione si ottengono effetti diversi.

18
C’è una concentrazione di agarosio ottimale per la separazione di DNA entro un dato range di PM: una
concentrazione al 2,5% è ottimale per la visualizzazione di piccoli frammenti di restrizione compresi tra 25
e 300 paia di basi, si ottengono 12 bande distanziate da 25 paia di basi; una concentrazione al 4% è ideale
per la visualizzazione di piccoli DNA compresi tra 10bp e 100bp, si ottengono 10 bande distanziate da 10
paia di basi; una concentrazione all’1% è ideale per la visualizzazione di 40 frammenti compresi tra 100pb e
4kb. Lavorando con 3 diverse concentrazioni (0.7%, 1.0% e 1.5%) sullo stesso frammento di DNA, allo 0.7%,
quindi avendo un gel con una maglia più larga, i frammenti a più alto peso molecolare si separano molto
bene fra di loro, lavorando su un gel all’1.5% si separano molto bene frammenti a più basso peso molecolare,
tant’è vero che la regione ad alto peso molecolare è praticamente indistinta. La banda indicata in ciascuna
corsia corrisponde a un frammento di 1000 bp che si sposta sull’agarosio in posizioni differenti in relazione
al fatto che la concentrazione di gel va via via aumentando.
Tenuto conto che le uniche cose che contano in questo supporto elettroforetico sono la grandezza del frammento elettroforetico
e la forma della molecola vale la seguente relazione: Log u = Log uo – Krc
Il logaritmo della migrazione Log u è in funzione del logaritmo della mobilità elettroforetica in un ambiente liquido dove non c’è
setaccio molecolare Log(uo) meno (perché viene rallentato) il coefficiente di ritardo frizionale Krc, che è caratteristico di ogni supporto,
moltiplicato per la concentrazione del gel di quel supporto.
(la carica elettrica non conta più, si potrebbe pensare che i frammenti a carica maggiore abbiano più basi e quindi siano più grandi
ma in questo caso risultano più lenti, così come trovano più ingombro ad orientarsi nella direzione giusta per attraversare le maglie)
Questo permette di dire che è possibile tarare un gel elettroforetico di agarosio,
cioè usare frammenti di DNA a diverso peso molecolare noto per realizzare una
retta di taratura confrontabile con altri campioni che scorrono sul medesimo
tracciato per risalire direttamente alla loro dimensione. Ad esempio,
utilizzando il DNA del fago λ tagliato con un opportuno enzima di restrizione
esso restituisce frammenti da 2, 4, 9 e 21 kbp, li si fa migrare sul tracciato e si
inserisce con carta semilogaritmica su un sistema di assi in ascisse il valore della
migrazione sul gel in mm ed in ordinate il logaritmo del numero di paia di basi,
si traccia la retta e poi, preso un DNA sconosciuto ed inserito nel grafico il valore
in mm della sua migrazione per interpolazione si ottiene la sua grandezza in kb.
Quando si ha a che fare con frammenti di DNA circolare, come i plasmidi, per realizzare l’elettroforesi esso può essere linearizzato
cioè lo si può tagliare nettamente in modo da renderlo una molecola di DNA lineare e da avere una migrazione classica. In alternativa
può essere esaminato nella sua conformazione naturale, in questo caso tenderà a ruotare su se’ stesso facendo una sorta di
superelica per linearizzarsi e così si muoverà più velocemente dando una taglia molecolare minore rispetto al se’ completamente
tagliato, oppure ancora, se semplicemente inciso (nicked circles) non riuscirà a linearizzarsi arrotolandosi e risultando più pesante.
Elettroforesi su gel di Poliacrilammide PAGE
Le elettroforesi fatte su gel di agarosio o acetato-cellulosa permettono di ricavare una piccola quantità di informazioni facilmente
interpretabili e riconducibili a stati patologici, al contrario il gel di poliacrilammide fornisce una grande quantità di informazioni e
spesso ciò rende difficile l’interpretazione dei dati, per questo in diagnostica di laboratorio non è molto usato, tuttavia, rimane
molto utile sia al livello di ricerca di base che applicata.
Il poliacrilammide è un polimero completamente sintetico realizzato per la prima volta negli anni ’60 a partire dalla molecola di
acrilamide. Per la sua produzione serve che i monomeri di acrilamide vengano messi in soluzione in presenza di persolfato di
ammonio che, essendo molto instabile, rompe il proprio legame O-O dando un radicale libero; un O con un elettrone libero (il
radicale) è altamente reattivo e l’acrilamide ha un doppio legame disponibile, per cui, l’elettrone viene trasferito a questo doppio
legame che, però, rompendosi libera un altro radicale che ripeterà la stessa cosa innescando una reazione radicalica a catena.
Per la polimerizzazione occorre inoltre che ci sia l’ambiente opportuno creato con una molecola chiamata TEMED. Quindi, si prende
una soluzione tampone, si inseriscono l’acrilamide, il TEMED, il persolfato ed infine ancora la bisacrilammide, una molecola con due
doppi legami che permette la creazione di ponti tra i polimeri lineari di acrilamide per la realizzazione della porosità tridimensionale
del polimero. Nella pratica di laboratorio la concentrazione di bisacrilammide è tenuta sempre costante e si varia quella di
acrilamide, quindi si ottengono gel di acrilamide fino al 15-20% e più aumenta la concentrazione di acrilamide e più la maglia sarà
stretta. Per esempio, per separare gli istoni che pesano intorno a 12-20 kDa si un gel molto concentrato, per separare invece
molecole con pesi tra 50-100 kDa un gel a più bassa concentrazione, un gel
classico per la separazione di proteine del siero è fatto al 7-8%.
Lo schema costruttivo principale di una camera elettroforetica per separazioni
su gel di poliacrilammide prevede che venga creata una “scatola” con delle
lastre di vetro che chiudono i tre lati, i due verticali e il fondo, in cui si cola la
soluzione di acrilamide posizionando in alto un pettine (come per l’agarosio)
affinché dopo la polimerizzazione rimangano i pozzetti per i campioni da
sottoporre ad elettroforesi; avvenuta la polimerizzazione si toglie la lastra sul
fondo e l’estremità si fa bagnare in una vaschetta con il tampone collegato al
polo positivo e superiormente si applica un’altra vaschetta con il polo negativo,
il circuito elettrico risulterà sempre chiuso dal gel.
19
Il gel che viene colato è prodotto a due diverse concentrazioni, prima si inserisce il gel di corsa (running gel) che ha la concentrazione
opportuna per la separazione delle molecole proteiche, mediamente è fatto al 7-8% o al 10-12%, e può avere dimensioni diverse in
genere non più di 15 cm, successivamente, sopra di esso si inserisce il gel compattatore (gel spaziatore o stacking gel) che è stato
prodotto con una più bassa concentrazione di acrilamide, generalmente 3,5-4% e presenta il pettine alla superficie, in esso l’effetto
di migrazione sarà legato solo alla carica elettrica. In questo modo si crea una discontinuità di gel.
Tuttavia, non è l’unica discontinuità che si realizza, c’è anche una discontinuià di soluzione tampone: nella vachetta in alto e in quella
in basso si ha la stessa soluzione, trisglicina a pH 8.3, la soluzione con la quale si realizza il gel spaziatore è generalmente tris-HCl a
pH 6.7 e quella per il gel di corsa è il tris-HCl a pH 8.9 .
Questa grande discontinuità è necessaria per fare in modo che la regione del deposito sia il più sottile possibile, così, se da un punto
di vista bidimesionale due molecole uguali si troveranno una più in alto e una più in basso rispetto all’altra, saranno comunque il
più vicino possibile per poter viaggiare insieme in sottili bande elettroforetiche. Come avviene?
Considerando il polo negativo in alto ed il polo positivo in basso, per condurre la corrente occorre una molecola che possa caricarsi
negativamente infatti vi sono glicina e HCL, tuttavia la glicina nelle vaschette si trova a pH 8.3 ed a questo pH è molto poco dissociata,
quindi si hanno pochi ioni carichi negativamente e quindi una bassa intensità di corrente, mentre l’HCl nel gel compattatore è un
buon conduttore perché, essendo un acido forte sarà tutto dissociato, quindi, tra i due ambienti si formerà un gradiente di corrente
con “intensità elevata davanti e bassa dietro” che per la legge di Ohm equivale a dire “alta differenza di potenziale dietro e bassa
differenza di potenziale davanti”.
Quello che succederà è che la molecola delle due che è più avanti si muoverà con una certa velocità ma quella che sta dietro,
trovandosi soggetta ad una differenza di potenziale più alta, sarà più veloce e correrà di più, si avvicinerà all’altra e le due si
schiacceranno viaggiando nella stessa banda.
Quindi, la discontinuità di pH ha permesso di creare un gradiente di differenza di potenziale (perché I è essa stessa un gradiente
inversamente proporzionale a V) con il conseguente compattamento delle molecole della medesima specie.
Quando le proteine entrano nel gel di corsa il pH è uguale per tutti ad 8,9 mentre I e V sono costanti ma questa volta interviene
l’effetto setaccio molecolare visto che la concentrazione di poliacrilamide è maggiore, dunqe le proteine si muoveranno in relazione
alla carica elettrica ed all’effetto setaccio molecolare (forma e peso molecolare): le più grandi saranno rallentate e le più piccole
andranno velocemente, inoltre, le globulari saranno più veloci a parità di peso molecolare di quelle filiformi.
Combinando tutti questi fattori si ottiene un potere risolutivo molto superiore rispetto a quello su agarosio e acetato-cellulosa (vedo
più bande se confronto le tecniche per il medesimo siero)

Poliacrilammide
Acetato di cellulosa Gel di agarosio

L’elettroforesi bidimensionale su poliacrilammide ha una stragrande possibilità applicativa, uno studio molto interessante che ne
prevede l’utilizzo è l’identificazione delle metalloproteasi MMP-2 e MMP-9. Le metalloproteasi sono enzimi coinvolti nella crescita
degli assoni, dei dendriti, dei vasi sanguigni durante lo sviluppo, nel fenomeno di rimarginazione delle ferite ma anche nella crescita
neoplastica, le cellule delle metastasi che partono da un primario per raggiungere la loro localizzazione definitiva sono capaci di
infiltrarsi nei tessuti e viaggiare perché le metalloproteasi glielo permettono.
Per studiarle si realizza un gel di poliacrilammide e all’interno di esso, quando è ancora in
soluzione, si aggiunge del collagene, su di esso si fa correre in elettroforesi una preparazione di
proteine nella quale si suppone vi siano le metalloproteasi e si aspetta un certo periodo di tempo
mettendo in incubazione a temperatura e pH opportuni: le metalloproteasi sono in grado di
digerire il collagene per cui, ove presenti, compariranno delle regioni bianche.
Si ottiene uno zimogramma al rovescio, infatti gli zimogrammi usati per gli isoenzimi ne mettevano
in evidenza l’esistenza dando un prodotto mentre qui il prodotto viene digerito dall’enzima.
Un altro caso di utilizzo riguarda I’identificazione delle superossido dismutasi, una classe di enzimi metallici e catalizzatori chimici
che favoriscono la dissociazione dell’anione superossido in ossigeno molecolare e perossido di idrogeno mediante una redox che
coinvolge lo ione metallo del loro sito attivo. Vengono messe in evidenza grazie al fatto che operando la loro reazione di
dismutazione digeriscono la colorazione di fondo usata per il gel lasciando anche in questo caso delle bande chiare.
Riepilogando: l’elettroforesi bidimensionale su poliacrilammide opera su proteine in condizioni native sfruttando il diverso peso
molecolare e la diversa carica elettrica, ma è possibile ottenere un’elettroforesi che sfrutti un solo fattore escludendo l’altro -o solo
peso molecolare o solo carica elettrica-? La risposta è si, anzi l’elettroforesi bidimensionale è proprio il risultato ottenuto combinando
studi che precedentemente venivano condotti sui singoli parametri, l’SDS-PAGE e la focalizzazione isoelettrica.

20
L’SDS-PAGE separa i polipeptidi in base al peso molecolare in quanto sfrutta l’SDS (sodiododecilsolfato) che denatura le proteine
riducendole a sequenze di aminoacidi lineari.
Il sodiododecilsolfato è una molecola a dodici atomi di carbonio che formano una catena alifatica con una testa polare di acido
solforico salificato con il sodio che, posta in soluzione, risulta completamente dissociata. In soluzione si lega lungo la catena
polipeptidica più o meno ogni due (1,8) aminoacidi andando a costituire un ingombro che sdrotola la catena rendendola lineare,
tuttavia, le proteine tendono ad assumere le conformazioni tradimensionali per ragiorni termodinamiche sfruttando, per
stabilizzare la struttura terziaria ed eventualmente quaternaria, ponti disolfuro intramolecolari realizzati con i residui di cisteine,
quindi, per linearizzare la molecola è necessario anzitutto che agisca un agente riducente, solitamente si usa il beta-
mercaptoetanolo, che rompa i ponti disolfuro rendendo la molecola tridimensionale più instabile ed accessibile all’SDS che la
sdrotolerà.
In linea di principio, da una parte all’aumentare della grandezza della proteina aumenta il contenuto di SDS e, poiché esso possiede
ioni del sale dissociati, aumenta la quantità di cariche negative, ma, poichè si ragiona in termini di densità di carica (m / V) essa sarà
la medesima per ogni proteina presa in considerazione; dall’altra parte invece all’aumentare della grandezza aumenterà la lunghezza
del filamento sdrotolato e quindi, poiché questo dovrà riorientarsi nel tracciato per entrare nelle maglie, aumenterà la difficoltà di
passaggio: sul gel elettroforetico andranno più velocemente le molecole piccole (basso PM) che quelle grandi (alto PM).
Ad esempio, l’emoglobina è composta da quattro subunità, due alpha e due beta a diverso PM, in soluzione con SDS queste potranno
essere separate, anzi, poiché solitamente prima si prepara comunque uno stacking gel, le due alpha e le due beta viaggeranno
insieme in bande estremamente sottili.
Analogamente a quanto fatto con l’agarosio e gli acidi nucleici, in presenza di
proteine a peso molecolare noto (taglia molecolare delle basi), denaturate con
beta-mercaptoetanolo ed SDS, anche su gel di poliacrilammide si può
realizzare un grafico in scala semilogaritmica per ricavare una retta di taratura:
si esprime in ascisse la mobilità relativa sulla banda elettroforetica di ciascuna
proteina, cioè quanto spazio hanno percorso sul gel, ed in ordinate il logaritmo
del peso molecolare in kDa. Se in parallelo, sullo stesso gel elettroforetico in
un’altra corsia, si fa correre un campione con una proteina a peso molecolare
incognito, per interpolazione dallo spostamento che ha avuto, questo potrà
essere ricavato.
La focalizzazione isoelettrica separa invece i polipeptidi in base al punto isoelettrico.
Le proteine possono essere considerate molecole anfotere in quanto hanno dei residui naturali ionizzabili che possono conferire
carica elettrica positiva e residui che possono conferire carica elettrica negativa e variando il pH si può identificare un valore di pH
al quale la probabilità di protonazione degli azoti con doppietto elettronico libero e la probabilità di dissociazione dei COH è la
stessa, quindi la molecola risulta avere una carica netta pari a zero ed in questo caso rispetto al supporto elettroforetico non si
muoverà perché in un supporto sul quale è creato un gradiente di pH i polipeptidi e le molecole anfotere focalizzano (si fermano)
ad un pH pari al loro punto isoelettrico.
Come? Si supponga di avere un supporto elettroforetico al 4% di acrilamide (le maglie sono grandi e non viene risentito alcun effetto
setaccio molecolare) sul quale è presente un gradiente lineare di pH, per cui la zona in basso del supporto sarà a pH alcalino, la zona
in alto a pH acido ed in mezzo tutti i valori intermedi; presa una proteina la si deposita in entrambe le estremità del supporto, in
quella a pH acido tenderà a protonarsi caricandosi positivamente, in quella
a pH alcalino tenderà a dissociarsi caricandosi negativamente; si applica la
differenza di potenziale con il polo positivo nella parte del pH acido e la
proteina differentemente trattata tenderà in ciascun caso a migrare verso
il polo opposto, spostandosi però, essendoci un gradinte lineare di pH,
cambia la sua ionizzazione; dopo un certo periodo di tempo ciascuna specie
raggiungerà una zona del gradiente in cui la probabilità di subire
protonazione e quella di subire dissociazione è la medesima quindi la sua
carica netta sarà zero, quel pH equivale al suo PI.
Un’altra questione importante è come si realizza il gradiente di pH? Ci sono due modi.
Il primo consiste nel mettere nella vaschetta al polo positivo una soluzione acida ed al polo negativo una soluzione basica, quindi
da una parte ci sarà prevalenza di OH- e dall’altra parte di H3O+; applicando una differenza di potenziale e facendo in modo che il
polo positivo sia nella zona dell’acido, OH- tenderà ad andare verso il polo polo positivo e H3O+ verso il negativo quindi si creerà un
flusso di ioni che trasporta la corrente. Si parla in questo caso di gradiente naturale, tuttavia questo gradiente è instabile perché è
fatto da molecole piccolissime quindi deve essere stabilizzato per fare in modo che quando sul supporto si andranno a separare le
molecole proteiche tutto avvenga correttamente, per stabilizzarlo si usa una miscela di molecole anfotere artificiali che andranno
a tamponare il valore di pH al PI.
Il secondo metodo porta alla realizzazione di un gradiente artificiale, vengono utilizzate molecole di acrilamide funzionalizzate con
gruppi COH ed NH2 in modo da ottenere molecole che sono in grado esse stesse di tamponare il pH e sulla lastra si fa in modo che
ci sia una prevalenza di molecole di acrilamide in grado di tamponare il pH acido al polo positivo e di quelle in grado di tamponare
il pH alcalino al negativo.

21
Per quanto riguarda il potere risolutivo, l’isoelettrofocalizzazione è in grado di separare
proteine che differiscono tra di loro di una singola carica elettrica.
In questo esempio è stato separato l’enzima serina idrossimetiltrasferasi e si può vedere che
la molecola in condizioni native (primo tracciato elettroforetico a sinistra) si ferma ad un
valore di punto isoelettrico piuttosto acido, molto vicino al polo positivo; nella corsia al centro
è presente la stessa proteina nella quale però è stata indotta una mutazione, per cui un
residuo di aspartato è stato sostituito da un residuo di asparagina (che non dà carica elettrica)
ed avendo perso la carica dell’acido aspartico è come se la proteina avesse acquisito
complessivamente una carica elettrica positiva e di fatti il pI si sposta in una regione più vicina
al pH alcalino; nella corsia a destra si ha il caso con compresenza di due mutazioni, per cui
due acidi aspartici sono mutati in asparagina ed è come se la proteina avesse acquisito due
cariche elettriche positive e quindi migra verso valori di pH ancora più alcalini.
Uno spostamento di questo tipo comunque non è necessariamente legato al cambiamento della composizione in aminoacidi, basti
pensare alle proteine che subiscono modificazioni post-traduzionali come la fosforilazione, attaccare o staccare un gruppo fosfato
da una proteina vuol dire conferire o togliere una carica elettrica e la cellula lo fa da se in base al proprio stato fisiologico.
L’isoelettrofocalizzazione è in grado di distinguere proteine che hanno subito o meno un evento di fosforilazione ed è anche in
grado di distinguere le differenze di carica elettrica dovute ad uno specifico trattamento o alle modificazioni.
Complessivamente in elettroforesi bidimensionale (2-DE) le proteine di un campione proteico sono separate secondo principi
indipendenti e secondo direzioni ortogonali, nella prima dimensione (1d), l’isoelettrofocalizzazione condotta in genere in presenza di
agenti denaturanti come l’urea separa per punto isoelettrico, mentre nella seconda dimensione (2d) la SDS-PAGE in presenza di
agenti riducenti tiolici come il beta-mercaptoetanolo separa per peso molecolare.
La capacità di separazione risultante di questo sistema sarà estremamente elevata.
Il concetto è simile a quello già affrontato nella cromatografia ed è necessario perché
due proteine possono avere lo stesso punto isoelettrico ma differire in base alla propria
grandezza oppure avere la stessa grandezza e punti isoelettrici differenti: inizialmente si
fa una prima dimensione per isoelettrofocalizzazione sfruttando l’antico sistema della
polimerizzazione della poliacrilammide in tubicini di vetro, si preleva il gel dal tubicino e
lo si incolla ad un’altra lastra di poliacrilammide in cui c’è l’SDS facendolo colare a bassa
concentrazione in modo che siano perfettamente aderenti fra di loro, a questo punto si
applica il secondo campo elettrico che spingerà le proteine ad uscire dal tubicino e ad
entrare dentro la lastra di gel di poliacrilamide dove troveranno l’SDS, si caricheranno di
SDS e quindi alla fine migreranno per differenze di peso molecolare [la banda cerchiata
in rosso è costituita in realtà da 4 campioni distinti a differente PM ma a medesimo PI,
quella in verde da campini al medesimo PM e differente PI].
Si può ottimizzare questa risoluzione, nel senso che si possono fare range ampi di pH 4-
10 con l’isoelettrofocalizzazione oppure degli zoom gel 4-6 o 5-8 con l’SDS-PAGE per
osservare più nel dettaglio.
Una volta che i differenti componenti sono stati separati e si trovano sulla lastra di gel di poliacrilamide se ne può fare una
valutazione quantitativa, infatti questo sistema può essere considerato micropreparativo perché si preparano le specie molecolari
una volta estratte dal gel alle procedure di identificazione eseguite, ad esempio, con la spettrometria di massa.
È quindi un’introduzione a quello che è lo studio della proteomica, cioè con questi sistemi si possono studiare tutte
contemporaneamente le variazioni delle molecole proteiche che sono presenti nel campione biologico.

22
PROTEOMICA
La proteomica può essere molto utile per analizzare livelli di espressione proteica ed individuare eventuali marcatori che possono
essere poi utilizzati da un punto di vista diagnostico. L’obiettivo che si pone la proteomica è quello di portare la diagnosi a livello del
singolo paziente: studiando l’insieme delle proteine coinvolte in una situazione fisiologica o patologica si vuole cercare di adattare la
diagnosi non alla malattia in generale ma al singolo individuo.
Il proteoma è l’insieme delle proteine espresse da un tessuto in uno stato fisiologico o patologico definito.
Non è analogo al genoma: i proteomi possono essere identificati come un processo, il genoma come un’entità in quanto è la
sequenza specifica di basi azotate che costituiscono un determinato gene (per certi versi è un’identità statica seppur può mutare).
I proteomi sono fenotipici perché legati alle differenze geniche, dinamici perché cambiano con lo stato fisiologico e patologico,
plastici perché appunto possono modificarsi, adattativi perché possono adattarsi alle diverse situazioni e regolati dall’azione di
diversi parametri.
Nella ricerca biomedico-farmacologica e quindi nell’ambito delle analisi biochimico cliniche si possono prendere in considerazione
proteomi di tessuti (biopsia epatica, biopsia muscolare) o proteomi di fluidi biologici costituiti da proteine del siero di persone sane,
utilizzandoli come materiale biologico di controllo, la cui composizione proteica rappresenta il punto di partenza.
Ci potrà essere un processo infettivo o patologico che colpisce l’organo, il tessuto o il liquido biologico oggetto di studio, per cui si
avrà un “proteoma di un tessuto patologico” e mettendolo a confronto con il “proteoma di controllo” si potrà scoprire che cosa è
stato cambiato dal processo infettivo, a questo punto si potrà provare a trattare il soggetto con un farmaco ed andando a studiare
il “proteoma dopo il trattamento con il farmaco” si potrà capire il meccanismo d’azione del farmaco ed identificare eventuali
meccanismi di resistenza al farmaco o di tossicità del farmaco stesso o effetti aspecifici causati dal veicolo del farmaco.
Le fasi di un progetto di proteomica prevedono:
1) un protocollo 2-DE, cioè la separazione delle proteine di fluido biologico o estratto tissutale nelle due diverse dimensioni
2) procedure di rivelazione con Blu di Coomassie, molecole fluorescenti, silver-staining, … perché sul gel non si vede nulla
3) analisi dell’immagine e creazione di mappe sintetiche (pattern matching e quantizzazione delle macchie) cioè un’immagine
digitalizzata, spesso a falsi colori o a false intensità di grigio, in modo tale che si abbia un’informazione rapida permettendo
una quantizzazione comoda delle macchie elettroforetiche
4) identificazione delle macchie elettroforetiche con spettrometria di massa (fingerprinting e peptide sequencing), così da
associare a ciascuna macchia una determinata proteina grazie a dei database ricchi di informazioni utili ad interpretare le
eventuali variazioni presenti nei quadri di elettroforesi bidimensionale analizzati

A B

B= viene mostrata la mappa di riferimento delle proteine sieriche del ratto (ratti maschi di 90 giorni) come risultato di una
separazione elettroforetica bidimensionale dove si ha la differenza di peso molecolare lungo le colonne e di punto isoelettrico lungo
le righe. È interessante notare che esistono una sorta di “costellazioni di proteine” che in realtà non sono proteine differenti ma
rappresentano una stessa proteina che ha subito modificazioni post-traduzionali (se si attacca una catena polisaccaridica cambia il
peso molecolare; se si attacca un fosfato cambia il suo punto isoelettrico).
A= viene mostrata la mappa sintetica, qui hanno un ruolo importante anche i colori, infatti essi forniscono un’informazione sul peso,
quanto più un componente è scuro tanto più è presente.
• PROTEOMA DEL SIERO DI RATTO IN CORSO DI ARTRITE SPERIMENTALE
L’artrite reumatoide è una patologia che frequentemente colpisce il sesso femminile nel genere umano, è una malattia di tipo
autoimmunitario, il soggetto produce degli anticorpi nei confronti di proteine proprie per cui si formano degli immunocomplessi
che circolano nel sangue e successivamente precipitano nelle articolazioni
creando una certa granulosità che rende ruvidi i dischi cartilaginei rendendo
difficile e doloroso il movimento, solitamente, delle dita.
L’artrite può essere indotta nelle ratte iniettando nel piede 100 μL di una
soluzione 10 mg/mL di Mycobacterium tuberculosis inattivato al calore in olio
di paraffina, il ratto produrrà degli anticorpi nei confronti di questo antigene e
gli anticorpi formeranno gli immunocomplessi che precipiteranno a livello
delle articolazioni della zampa del ratto.

23
Verificando con la mappa sintetica di controllo il proteoma di un ratto normale e confrontandolo con quello di ratte in cui è stata
indotta artrite sperimentale si può osservare che moltissime proteine sono ampiamente variate, sia in aumento che in diminuzione.
A questo punto si può intervenire con un farmaco che inibirà l’effetto dell’artrite, cioè andrà a diminuire percentualmente le
variazioni causate dalla patologia sui valori normali del ratto sano: quanto più è alta la colonnina dell’inibizione percentuale, quanto
più l’effetto percentuale del farmaco è stato elevato. Rispetto all’α2-macroglobulina, per esempio, l’indometacina ha avuto un
effetto praticamente del 100% di inibizione della variazione, cioè ha eliminato la variazione in positivo della proteina, mentre gli
effetti che indurrebbe l’ibuprofene sarebbero molto più ridotti, circa del 30%, si può dire quindi che l’indometacina è più efficace
rispetto all’ibuprofene nel contrastare gli effetti indotti dall’artrite.
• PROTEOMA DEL SIERO UMANO IN CORSO DI INFIAMMAZIONE DA MENINGITE BATTERIA ACUTA
L’Haemophilus influenzae è il batterio responsabile della meningite di tipo batterico, diversa da quella
virale. Normalmente i bambini vengono a contatto con questo batterio e si immunizzano in maniera
naturale ma ci sono dei casi di infezione acuta in cui Haemophilus può entrare nel sistema nervoso
centrale provocando gravi danni come paralisi, perdita dell’olfatto o dell’udito.
Questa elettroforesi bidimensionale di siero umano mostra le variazioni in corso di infiammazione
acuta: in blu sono evidenziate le proteine invarianti, confrontando il siero di controllo e il siero
patologico esse risultano della stessa intensità; in rosso sono evidenziate le proteine in aumento nella
situazione patologica analizzata.
• MAPPA DEL LIQUIDO DI LAVAGGIO BRONCO ALVEOLARE UMANO (BALF)
Ci sono dei casi clinici piuttosto gravi che necessitano di una sorta di lavaggio
del polmone per eliminare situazioni particolarmente negative per la Fibriosi idiopatica Sarcoidosi

respirazione, ad esempio, nei soggetti affetti da fibrosi cistica si può fare un


lavaggio broncoalveolare per asportare tutto il muco che si accumula.
Il lavaggio si effettua introducendo del liquido all’interno del polmone che,
dopo un certo periodo di tempo in cui è stato a contatto con i patogeni che
trovano terreno fertile nel muco, viene riaspirato per studiarne la
composizione. Ora, in seguito ad uno studio molto approfondito,
osservando sulle mappe la variazione di specifici componenti rispetto ad
altri si può ricondurre la patologia ad una tra due diverse situazioni, il caso
della fibrosi idiopatica e quello della sarcoidosi.
• PROTEOMA DI SIERO IN CORSO DI INFEZIONE DAI DUE CEPPI DI NEISSERIA MENINGITIDIS
Neisseria meningitidis è l’agente patogeno della meningite e ne esistono
due ceppi, uno sensibile all’antibiotico rifampicina, RisS, ed uno resistente,
RisR. La resistenze è determinata dalla comparsa di numerosi nuovi
componenti proteici ed avendo identificato queste differenti proteine si
può cercare di capire come agire da un punto di vista farmacologico sia in
vista del trattamento con antibiotico specifico, sia perché le mappe
permettono di individuare un possibile marcatore da usarsi per lo studio
dell’evolversi della situazione.
• PROTEOMA DI ESTRATTO TISSUTALE DA POLMONE UMANO IN CORSO DI ADENOCARCINOMA
Come già detto, qualunque metodo utilizzato per mettere in evidenza componenti o per valutare la quantità di un parametro o di
un marcatore biologico fornisce delle informazioni in relazione al suo livello di sensibilità: ad esempio, se si fa un estratto tissutale
di cellule A549 di adenocarcinoma di polmone seguito dall’elettroforesi bidimensionale e da rivelazione delle proteine tramite
colorazione con nitrato d’argento è possibile notare la presenza di regioni in alto a sinistra che sembrano non popolate da proteine;
tuttavia, se si trattano le cellule con un derivato della biotina modificata in
modo tale da legarsi covalentemente con le proteine della superficie
cellulare e si ripete l’estratto cellulare e la separazione elettroforetica
bidimensionale con un sistema di immunorivelazione che metta in evidenza
esclusivamente le proteine che hanno legato la biotina, in alto a sinistra
compariranno moltissimi componenti, evidentemente proteine di superficie
che da un punto di vista quantitativo sono meno rappresentate rispetto alle
altre, motivo per cui nel primo gel non erano visibili.
Lavorando in questo modo si è scoperto che sulla superficie delle cellule tumorali A549 sono presenti in quantità molto elevata
delle chaperonine citoplasmatiche, cioè proteine che accompagnano altre proteine all’interno del citoplasma o all’interno del
reticolo endoplasmatico, non hanno alcun significato fisiologico sulla superficie cellulare ma evidentemente il processo di
trasformazione neoplastica (cioè il processo che ha condotto queste cellule a diventare cellule di un adenocarcinoma) ne ha
modificato la fisiologia ed ora espongono sulla superficie proteine come BIP, ad esempio, che normalmente sta nel reticolo
endoplasmatico dove serve a riconoscere molecole proteiche non correttamente formate. A questo punto, essendo esposta in
superficie, BIP potrà essere utilizzata come marcatore per individuare cellule di tipo canceroso all’interno di tessuti apparentemente
normali.
24
LEZIONE DA 27/10/21 A 08/11/21

FASE SPERIMENTALE
Gli argomenti trattati di seguito sono volti a studiare diagnosi di patologie dello stato fisiologico e patologico utilizzando separazione
elettroforetica di proteine e verteranno su tre campioni: proteine sieriche, proteine che possono trovarsi nelle urine ed emoglobine
che possono essere estratte dai globuli rossi.
SEPARAZIONE ELETTROFORETICA DELLE PROTEINE SIERICHE
Il sangue può essere suddiviso in due parti, una liquida detta plasma, che rappresenta il 55%, ed una corpuscolare costituita da
elementi figurativi suddivisa nel dettaglio in 43% di eritrociti (cellule anucleate-globuli rossi), 1% di leucociti (cellule nucleate-globuli
bianchi) ed 1% di piastrine (frammenti cellulari). La porzione di interesse alle analisi biochimico cliniche è il plasma, esso è costituito
per il 91% da acqua che è il solvente del sangue nel quale si trovano in sospensione le proteine. La maggior parte delle proteine
presenti, tuttavia, non esplica una vera e propria funzione legata al sangue ma sono per lo più proteine tissutali presenti a causa del
continuo ricambio dei tessuti.
In analisi biochimico cliniche si parla spesso di siero, la differenza tra plasma e siero è essenzialmente il consumo in quest’ultimo
degli elementi necessari alla coagulazione del sangue, in particolare del fibrinogeno: se si esegue un prelievo venoso di sangue in
presenza di anticoagulanti (es. eparina) facendo una centrifugazione a bassa velocità tutti gli elementi figurati vengono mandati sul
fondo della provetta ed in superfice rimane il plasma, non avendo fatto coagulare il sangue, nel plasma è presente ancora
fibrinogeno, contrariamente, se si fa coagulare il sangue (prelievo in assenza di anticoagulante), il fibrinogeno viene consumato e si
forma il tappo di fibrina che intrappola gli elementi figurativi nel reticolo di coagulazione e, eseguita la centrifugazione, il coagulo
viene “spremuto” come fosse una spugna ottenendo così un sedimento ed un surnatante, la parte liquida che è riuscita a fuoriuscire
che è il siero.
Il siero è stabile e può essere conservato a lungo una volta isolato aspirandolo con una pipetta ed in genere è il materiale utilizzato
per fare l’elettroforesi delle proteine, il plasma, invece, viene definito “in equilibrio tra coagulato e non coagulato” poiché si possono
formare fustolini di fibrina che sono fastidiosi nelle successive osservazioni, per questo non viene usato.
Proteine del plasma
Le proteine del plasma costituiscono un gruppo eterogeneo, ciascuna possiede una determinata funzione o raggruppa in sé diverse
funzioni. La loro sintesi è sotto stretto controllo genico e la normale concentrazione varia da pochi microgrammi ad alcuni grammi
per litro ed è indice di una specifica situazione fisiologica o patologica, molto importante, infatti, è determinare un valore clinico di
concentrazione da attribuire alle modificazioni dei singoli elementi o alle variazioni multiple nella diagnosi e nel monitoraggio delle
malattie. Le principali funzioni di queste proteine sono:
o funzione nutritiva, in quanto sono fonte di amminoacidi; es. nei soggetti anoressici che digiunano si possono usare le proteine
del plasma, in particolare albumina, per fornire gli amminoacidi in sostituzione della dieta
o capacità tamponante a carico dell’emoglobina perché il pH dei tessuti deve essere controllato; se cambia il pH, cambia la
struttura terziaria e quaternaria della proteina rendendola inattiva
o funzione nella coagulazione del sangue (funzione specifica)
o sono fattori di difesa, le immunoglobuline
o sono fattori del complemento cioè costituiscono un gruppo (il complemento) che può essere attivato in seguito alla risposta
immunitaria; es. contratta un’infezione batterica il batterio patogeno induce una risposta immunitaria, si producono anticorpi
e questi ultimi si legano sulla superficie del batterio, legandosi in qualche modo rendono visibile il batterio al complemento così
l’immunocomplesso si lega e infine forma un complesso proteolitico che va a “bucare” la superficie del batterio uccidendolo
(meccanismo che accade in caso di rigetto di organo)
o funzione di trasporto a carico di trasportatori specifici, es. le lipoproteine per i lipidi, o aspecifici, es. l’albumina per gli ormoni
steroidei e le vitamine non solubili nel circolo sanguigno
o funzione di mantenimento della pressione colloidoosmotica per permettere gli scambi
Alcune proteine non hanno funzioni specifiche nel plasma, significa che circolano nel sangue solo al fine di raggiungere l’organo
bersaglio dove esplicheranno la loro funzione, ad esempio l’insulina, oppure, anche gli enzimi rilasciati durante il “rimaneggiamento”
cellulare non hanno funzioni specifiche ma possono essere degli importanti marcatori in situazioni fisiologiche e patologiche.
Lettura densitometrica delle proteine del plasma: il grafico è molto complesso,
innanzitutto è importante ricordare che le varie frazioni elettroforetiche ottenute dopo
separazione non sono pure, contengono tanti componenti diversi e quello
rappresentativo è quello presente in quantità maggioritaria, inoltre, ciascun picco ha
anche una spiccata eterogeneità funzionale, cioè sono presenti proteine che tra loro
hanno funzioni differenti ma che stanno insieme perché hanno la stessa mobilità
elettroforetica, vale a dire che hanno la stessa velocità quindi arrivano insieme nella
regione ove determinano la formazione del picco.
Ad esempio, guardando il picco delle α1 ci sono la lipoproteina HDL, la chimotripsina e
l’antitripsina che sono due proteine inibitrici di attività proteolitiche per tripsina e
chimotripsina, e la protrombina, una proteina impegnata nella coagulazione del sangue.
Importante è il picco del fibrinogeno che ha mobilità elettroforetica tra le β e le γ.

25
Le proteine possono essere presenti in basse o medio-alte
concentrazioni (mg/L o g/L), queste ultime sono quelle che alterano il
tracciato elettroforetico e sono sintetizzate e secrete dal fegato,
l’albumina, la transferrina, l’α1-antitripsina, l’aptoglobina e le
lipoproteine, o dalle plasmacellule, nel caso delle immunoglobuline.
Dato un tracciato, quando varia l’ampiezza o l’altezza di un picco,
varia l’abbondanza percentuale e non quella assoluta; le abbondanze
percentuali da un tracciato di plasma normale da tenere a mente sono
fibrinogeno al 2.5%, transferrina al 4%, albumina al 64%, IgG al 16%,
IgA al 2%, IgM al 1.3% e l’8% delle componenti minoritarie.
Proteine sieriche
Per quanto riguarda la variazione della concentrazione delle proteine sieriche essa può essere ricondotta ad una ridotta sintesi per
cause genetiche, es. deficit di sintesi selettivi di albumina perché manca un allele, cause necrotiche, es. cirrosi epatiche, metastasi
epatiche e midollari, cause neoplastiche, es. tumori primitivi, epatici o del sistema immunocompetente, o per presenza di tossine
quali farmaci e radiazioni; ad una ridotta disponibilità di amminoacidi per malnutrizione, digiuno, malassorbimento o cachessia nei
soggetti portatori di neoplasia; o ad un’aumentata sintesi fisiologica nel caso della gravidanza, farmacologica per assunzione di
ormoni, o “compensatoria” per la risoluzione di un problema.
Il tracciato densitometrico ha cinque picchi, perché rispetto al plasma
manca il fibrinogeno, i valori normali delle frazioni proteiche ottenuti
con un tracciato elettroforetico su acetato di cellulosa sono quelli
riportati a sx. (ricorda tabellina del 4= 4, 8, 12, 16)
Le variazioni nei valori normali di riferimento possono essere legate a fattori controllabili in laboratorio o a fattori biologici. Per
quanto riguarda i primi si parla di variabilità analitica cioè il metodo e l’attrezzatura con cui si lavora, tanto più è automatizzato tanto
minori saranno i problemi a livello di precisione e accuratezza, e di variabilità pre-analitica cioè legata alle modalità di raccolta,
conservazione e trasporto del materiale prima di eseguire l’analisi. Per quanto riguarda i fattori biologici, invece, si parla di variazioni
intra-individuali, cioè all’interno dello stesso individuo, influenzati da ormoni, dieta, esercizio fisico, alternanza delle stagioni e ritmi
sonno-veglia, e variazioni inter-individuali, cioè tra individui diversi, influenzati da età, sesso, area geografica, fisicità, stress,
ambiente,…, ad esempio, l’α2-macroglobulina è una proteina del picco delle α2-globuline, pesa 800 kDa, ed è coinvolta in funzioni
legate alla crescita dei soggetti, i neonati hanno valori da 80 a 150% mentre durante l’adolescenza è presente al 300%.
Le immunoglobuline sieriche variano notevolmente nelle diverse età, neonato ed adulto hanno quantità finali confrontabili ma se
si osserva l’andamento della concentrazione si vede che, passato un certo tempo, questa concentrazione diminuisce nel neonato e
poi aumenta fino ad arrivare al valore dell’adulto, ciò ha una spiegazione: il sistema del neonato non è “funzionante”, le
immunoglobuline sono state passate dalla madre al feto perché sono proteine in grado di attraversare la barriera placentare, ma le
immunoglobuline della madre con il passare del tempo scompaiono, per cui, ci sarà un iniziale diminuzione della concentrazione
nel neonato che però viene ricompensato dal fatto che il sistema immunitario inizierà successivamente a produrre proprie
immunoglobuline caratteristiche dell’adulto. Se non si conoscesse l’età si darebbe un’interpretazione sbagliata del tracciato.
Elettroforesi multifrazionata delle proteine
sieriche

Le indicazioni che vengono date dalle società di biochimica clinica consigliano di non realizzare
separazioni elettroforetiche a cinque frazioni ma mettere in evidenza un maggior numero di frazioni*

26
Questo schema è consigliato dalle società di biochimica clinica per avere un quadro completo, la separazione si realizza
in condizioni particolari usando sia acetato di cellulosa, sia agarosio che capillari elettroforetici

La pre-albumina ha una emivita molto breve (circa 48 hrs) rispetto ad altre proteine sieriche (inclusa l’albumina=20 gg), quindi le
sue fluttuazioni sono molto più rapide al verificarsi di una patologia ed hanno una maggiore utilità clinica se viene usata come
marcatore dello stato nutrizionale. I livelli di pre-albumina sono comunque in genere bassi e l’elettroforesi non è sufficientemente
sensibile.
Per quanto riguarda l’albumina le situazioni patologiche possono riguardare uno stato di analbuminemia, patologia genetica che
comporta mancanza di albumina che raggiunge concentrazioni di 0,5 g/L, o di ipoalbuminemia, più o meno intensa, derivante da
situazioni genetiche in cui si ha un solo allele funzionante su due o da patologie legate al fegato o al rene. L’ipoalbuminemia è spesso
accompagnata da edema periferico.
Ancora, con la sindrome nefrotica, il danno glomerulare comporta la perdita di proteine ed il picco dell’albumina si abbassa.

27
Ancora, il caso della bisalbuminemia prevede che il soggetto eterozigote abbia due alleli
per l’albumina diversi, uno classico ed uno con una mutazione che ne altera la velocità:
una fast-bisalbuminemia ha un allele più veloce quindi la sua banda si troverà più avanti
(come immagine), una slow-bisalbuminemia ha un allele più lento quindi la sua banda si
troverà più indietro rispetto a quella dell’allele normale, più o meno nella regione delle α-
globuline (dal tracciato si estrapola un aumento proporzionale delle α-globuline ma non
è vero!). Non è una situazione patologica.
Infine, l’infiammazione cronica è una infiammazione da agenti patogeni che porta ad un
aumento generalizzato reale delle γ-globuline, ad un aumento reale delle α2-globuline e
delle α1-globuline e ad una diminuzione proporzionale dell’albumina.
*come è stato detto… le indicazioni che arrivano dalla società di biochimica clinica
consigliano di realizzare elettroforesi più separative, ad esempio con la tecnica
dell’elettroforesi multifrazionata, in questo modo la regione delle globuline
metterà in evidenza ben due componenti nella banda delle α2-globuline,
l’aptoglobina e l’α2-macroglobulina, e ben tre componenti nella regione delle β,
la transferrina, la β-lipoproteina e C3, la frazione del complemento. Per quanto
riguarda la regione delle γ-globuline, essa è caratterizzata dalla presenza degli
anticorpi, in particolare il componente maggioritario sono immunoglobuline di
tipo G (IgG), ma vi sono anche le immunoglobuline di tipo M (IgM), per esempio
quelle che riconoscono il gruppo sanguigno B0, e le immunoglobuline di tipo A
(IgA), che normalmente sono presenti nelle secrezioni, ed in particolare nella
secrezione mammaria costituiscono una delle difese che la madre fornisce al
neonato in via di sviluppo, e nel circolo sanguigno.
Nell regione delle γ-globuline si può osservare, in certe condizioni abbastanza rare, una situazione di ipo-γ-globulinemia, cioè il picco
risulta notevolmente ridotto, è una situazione molto grave dovuta a cause genetiche per cui i soggetti non sono in grado di avere
una risposta immunitaria umorale, quindi, non sono in grado di produrre anticorpi, ma la stessa situazione si può osservare in
patologie non genetiche come per esempio l’immunodeficienza acquisita.
Più frequenti sono invece gli aumenti del picco: l’aumento può essere generalizzato per iper-γ-globulinemia (policlonale), ovvero il
picco aumenta sia in altezza che in ampiezza per la presenza di tanti cloni linfocitari che vengono attivati ed eseguono la
sovrapproduzione di immunoglobuline, oppure, si può avere la comparsa di picchi molto sottili, con base piccola ma molto alti,
dovuti alla presenza di componenti monoclonali che possono indicare situazioni benigne (spesso si osservano nell’anziano) o
situazioni maligne, ed è il caso del mieloma o plasmocitoma, che sta ad indicare una trasformazione in senso neoplastico del sistema
immunitario, nel dettaglio, un clone linfocitario impazzisce, comincia a proliferare in maniera non controllata e produce singole
immunoglobuline o pezzi di immunoglobuline.
Un caso di aumento policlonale è la cirrosi epatica, una degenerazione del parenchima epatico, il quale muore e viene sostituito da
tessuto adiposo, tessuto cicatriziale o tessuto connettivale. La si osserva spesso negli stadi terminali dei soggetti che fanno abuso di
alcool ma può comparire anche in altre situazioni, per esempio per esposizione a sostanze tossiche. In questo caso si osserva una
diminuzione reale del picco dell’albumina, non è una variazione percentuale perché il parenchima epatico muore quindi ci sono
meno epatociti che producono albumina, e contemporaneamente c’è la risposta infiammatoria che determina l’aumento, anche
qui reale, delle immunoglobuline. Si assiste ad un incremento di IgA che determina una perdita di definizione del tracciato
elettroforetico, cioè, mentre spesso si vede una chiara distinzione tra il picco delle β e il picco delle γ, in situazioni di aumento delle
IgA si ha confusione fra i due picchi perché le IgA si trovano proprio nella loro regione di confine. Osservandone i tracciati, la cirrosi
epatica potrebbe essere confusa con un generico stato infettivo (il soggetto è esposto ad un agente patogeno), la cosa che li
differenzia è però che nel caso di infezione non c’è diminuzione di albumina, o meglio, il picco diminuisce ma è una diminuzione
percentuale non reale.
Una situazione molto interessante è quella del lupus eritematoso che comporta, anche in questo caso, un aumento del picco
generalizzato. È una patologia molto grave, su base autoimmunitaria per cui il soggetto produce anticorpi nei confronti di sè stesso,
dei propri antigeni, e questi immunocomplessi che si formano attivano l’ingestione da parte di macrofagi, il soggetto in gergo “si
autodigerisce”, digerisce i propri tessuti.
Casi in cui, invece, si ha una diminuzione generalizzata del picco possono essere manca la banda delle immunoglobuline
legati ad una patologia genetica ereditaria chiamata agammaglobulinemia, si tratta
di una mutazione sul cromosoma X che determina un’incapacità di produrre
anticorpi e quindi il soggetto non avrà difese immunitarie di questo tipo. I bambini
con l’agammaglobulinemia sono protetti dall’infezione nei primissimi periodi di vita
perché hanno ricevuto dalla madre quantità sufficienti di IgG, le uniche
immunoglobuline in grado di attraversare la placenta, ma con il passare dei mesi
queste si esauriscono, fino al raggiungimento di un anno d’età quando terminano,
ovviamente, l’aumento della probabilità di infezioni è aumentato in parallelo con
la diminuzione dei livelli di immunoglobuline.

28
Uno degli obiettivi dello studio elettroforetico delle proteine sieriche è quello di individuare le gammopatie monoclonali, un gruppo
di malattie eterogene per certi versi, dove l’elemento comune che le distingue da tutte le altre è dato dalla proliferazione
incontrollata di elementi linfocitari, in particolare dei linfociti B, quelli che producono gli anticorpi. Quando la grande quantità di
anticorpi viene secreta nel circolo sanguigno si può vedere il picco monoclonale, tuttavia, non è detto che venga prodotta
un’immunoglobulina intera, molte volte il clone linfocitario che impazzisce produce soltanto catene pesanti o soltanto catene
leggere mentre gli anticorpi hanno una struttura quaternaria, ovvero due catene pesanti e due catene leggere insieme. Catene
leggere, pesanti o complete vanno comunque a migrare nella regione delle γ-globuline.
In situazioni in cui si ha una ipo-γ-globulinemia generalizzata si ha un’alterazione percentuale, cioè il picco delle γ-globuline aumenta
perché aumenta la componente monoclonale, sia che si tratti di IgG, IgM, IgA, o di catena pesante o di catena leggera, infatti, queste
componenti monoclonali sembrano non avere non avere una grande capacità di riconoscere uno specifico antigene ma vengono
caratterizzate soltanto per il fatto che sono componenti monoclonali IgG, IgM, IgA, a catene pesanti o a catene leggere.
Guardando a tutte le gammopatie monoclonali si nota che il 50-60% di queste sono caratterizzate da immunoglobuline G, il 10-15%
da IgA, il 15-20% da IgM, potrebbero anche comparire delle IgD o delle IgE e ci sono anche situazioni di sole catene leggere o solo
catene pesanti, tra queste sono più frequenti le situazioni di gammopatie monoclonali da catene leggere, tant’è vero che la prima
proteinuria che fu individuata all’inizio del secolo scorso dal medico Bence Jones fu proprio una gammopatia monoclonale che
produceva solo catene leggere.
Vi sono quadri delle proteine sieriche che sembrerebbero patologici ma in realtà non lo sono, sono degli artefatti. Possono essere
dovuti alla presenza di fibrinogeno, perché probabilmente nel momento in cui il siero è stato preparato non è stato lasciato a
coagulare un tempo sufficiente affinchè venisse consumato tutto, è un errore di preparazione e si può risolvere con un test
immunoelettroforetico chiamato immunofissazione. Altri possibili artefatti sono quelli dovuti alla cattiva conservazione del
campione e ci sono poi alterazioni del tracciato causate da farmaci assunti dal paziente per motivi di necessità, per esempio in
situazioni post-operatorie si assume eparina per evitare la coagulazione del sangue, questa è in grado di attivare enzimi, come la
lipasi, che digerendo i trigliceridi cambia la mobilità delle frazioni lipoproteiche; anche in questo caso è importante conoscere la
storia clinica del paziente per poter dare l’interpretazione corretta. Un altro un errore di preparazione che può causare problemi è
l’emolisi del sangue, cioè quando si preleva il sangue si può indurre la rottura dei globuli rossi con la conseguente fuoriuscita
dell’emoglobina, se quest’ultima è piuttosto contenuta si ha un’alterazione della banda delle α2-globuline che si “sbodola” perché
si forma un complesso tra l’aptoglobina e l’emoglobina, se invece è molto forte ci sarà un eccesso di emoglobina che finisce nella
posizione tra le α2 e le β-globuline, sovrapponendosi al picco della transferrina.

SEPARAZIONE ELETTROFORETICA DELLE PROTEINE URINARIE


I reni si occupano della regolazione liquido extracellulare, la quantità di liquido che è presente nei nostri tessuti al di fuori delle
cellule è un terzo di tutto il volume corporeo e va mantenuto correttamente bilanciato, della regolazione dell’osmolarità, quindi del
mantenere la corretta pressione osmotica che ha un valore prossimo a 290 mOsm (milliosmoli), della regolazione del bilancio ionico
del sodio, della regolazione del pH, per evitare che le proteine cambino conformazione, hanno funzione detossificante eliminando
tossine e farmaci, si occupano della produzione di alcuni ormoni, in particolare quello implicati nel bilancio del sodio, ed infine
hanno una funzione di escrezione delle sostanze di scarto del metabolismo cellulare, urea, acido urico, urobilinogeno, creatinina.
L’unità funzionale del rene è il nefrone, ne contiene in numero estremamente grande ed esso è deputato alla produzione dell’urina.
L’acqua e i soluti del plasma passano dai vasi sanguigni dei reni ai capillari del glomerulo del nefrone, qui, a livello della capsula di
Bowman, si ha la filtrazione del sangue con comparsa di un liquido chiamato “pre-urina”; questo liquido arriva nel tubulo prossimale
e passa nell’ansa di Henle e poi nel tubulo distale ed in queste sedi si ha il riassorbimento dal lume verso il sangue, se non ci fosse il
riassorbimento si avrebbe una quantità di acqua pari a circa 180-200 l e questo sarebbe assolutamente incompatibile con la
sopravvivenza; infine si arriva nel dotto collettore.
A livello del glomerulo la filtrazione avviene per equilibrio tra diverse pressioni: la pressione idrostatica del capillare sanguigno di
circa 55 mmHg tende a far passare il liquido dal glomerulo verso la capsula del Bowman e la pressione colloidosmotica di 30 mmHg
si oppone a questo passaggio, la somma algebrica risultante in una direzione o nell’altra fa sì che la forza netta che farà passare
materiale dal sangue verso la capsula del Bowman sia di circa 10 mmHg, sufficiente a far filtrare 180 l di liquido al giorno, di questi,
per il riassorbimento, solo 1,5 l al giorno verrà escreto con le urine.
Si ha un’arteriola afferente che indirizza il liquido verso una struttura complessa di
vasi sanguigni, il sangue passa attraverso questi capillari e poi esce con l’arteriola
efferente. L’endotelio di questi vasi sanguigni è in contatto con la membrana
basale glomerulare che li separa dal lume del glomerulo che viene identificato
come capsula di Bowman. In questa capsula di Bowman si individua lo spazio
urinario dove si forma la pre-urina per filtrazione del plasma da parte della
membrana basale glomerulare. La filtrazione è resa possibile dall’endotelio dei vasi
sanguigni che è un endotelio fenestrato inizialmente chiuso, infatti, aldilà della
MBG si trovano delle cellule, i podociti, che completano questa struttura
attribuendole la porosità: potranno passare piccoli soluti da eliminare, che
traineranno anche grandi quantità di solventi, e verranno trattenute le proteine.
Si tratta di una porosità molto stretta che non è solo in termini di grandezza ma
anche in termini elettrostatici, infatti, la MBG è fatta di proteine e queste si trovano
nel sangue che ha un pH leggermente alcalino di 7,1-7,2 e quindi avranno una

29
carica elettrica negativa, per cui: una molecola neutra come il glucosio passa facilmente perché è piccola e non ha carica elettrica,
proteine molto cariche negativamente passano con più difficoltà, proteine poco cariche negativamente passano più facilmente
perché questo filtro è probabilistico, cioè qualunque molecola ha una sua probabilità di passare che aumenta con il diminuire della
grandezza e della carica elettrica negativa, infatti, in un ultra filtrato da urine di soggetto normale non patologico sono presenti un
po’ tutte le proteine del plasma, ovviamente alcune più rappresentate e altre meno.
Ogni volta che, al seguito di una patologia renale, compaiono nelle urine quantità anomale di una o più proteine si parla di
proteinuria. Può avere tre cause: la proteinuria glomerulare deriva da un’alterazione del filtro glomerulare che non funziona più
bene, la proteinuria tubulare deriva dal malfunzionamento del sistema di recupero di quelle proteine utili che finiscono nel filtrato
per via delle piccole dimensioni, e la proteinuria pre-renale è attribuibile tutte quelle cause che fanno comparire nel circolo
sanguigno grandi quantità di proteine che normalmente non ci sono e che, a questo punto, passeranno anche nelle urine. Essendo
pre-renale non è dovuta al rene, il quale funziona normalmente, ma dipende da una causa a monte del rene, che può essere di vario
tipo, per esempio, in situazioni di anemia emolitica i globuli rossi diventano molto fragili e riversano l’emoglobina nel circolo
sanguigno, questa si accumulerà nel plasma, potrebbe quindi passare attraverso il glomerulo e non esisterebbe alcun sistema di
recupero in quanto in condizioni normali essa nel plasma non c’è, lo stesso vale per le catene leggere della gammopatia monoclonale
di Bence Jone. Un’altra causa potrebbe essere la mioglobinuria parossistica notturna, ci sono soggetti che hanno una fragilità del
tessuto muscolare scheletrico particolarmente evidente quando sono in posizione orizzontale, quindi quando dormono, e in seguito
a questa patologia compare nel circolo sanguigno una proteina molto piccola, la mioglobina, perché il tessuto muscolare scheletrico
ne è particolarmente ricco in quanto è il serbatoio di ossigeno e che gli serve quando il muscolo è sotto sforzo fisico, per cui facendo
un’elettroforesi la mattina la vedremmo.
Nelle urine di soggetti normali nell’arco delle 24 h si trova una quantità di proteine compresa tra 40 e 80 mg, quindi piccola, si ricordi
che nel plasma il rapporto è 80 g/l mentre nelle urine 80 mg/1,5l perché il filtro trattiene e il tubulo recupera quello che è passato.
Si parla di proteinuria ogni qual volta se ne trova una quantità superiore ai 150mg al giorno, è una situazione patologica che si
classifica come modesta se la quantità nelle 24 h raggiunge i 500mg, o come grave se compresa fra 0,5 e 4 g al giorno. Come nelle
urine normali il componente maggioritario è l’albumina, anche nelle proteinurie sarà la più rappresentata. Un primissimo segno di
danno a livello glomerulare è chiamato microalbuminuria e si manifesta con un’escrezione urinaria di albumina tra i 30 ed i 300 mg
al giorno, per poter dosare questi livelli di albumina si utilizzano saggi molto specifici che fanno uso di anticorpi, come il saggio
immunonefelometrico.
Cosa succede quando si instaura una patologia?
Una classica alterazione a livello renale è dovuta alla patologia diabetica: i soggetti
che non riescono a controllare correttamente i livelli di glucosio nel circolo
sanguigno instaurano anche una serie di patologie secondarie che comportano per
esempio problemi a livello cardiaco, circolatorio, ottico ed in particolare la
nefropatia diabetica. Nella nefropatia diabetica si ha un incremento dello spessore
della MBG che si accompagna ad una aumentata grandezza dei pori, ma anche a una
perdita di carica elettrica, quindi, la MBG diventa meno carica negativamente ed
essendo contemporaneamente aumentata la grandezza dei pori è chiaro che sarà
più facile che proteine passino attraverso il filtro. Nei soggetti con diabete che non
si riesce a controllare questa patologia progredisce con progressivo aumento della
grandezza dei pori e progressiva diminuzione della carica elettrica, per cui si osserveranno una serie di passaggi che complicano la
funzionalità renale, dalla microalbuminuria alla proteinuria moderata alla proteinuria grave, tant’è vero che il soggetto diabetico in
questi casi finisce in dialisi, non ha più funzionalità renale. Si tratta di un danno glomerulare in quanto è il glomerulo che non sta
funzionando per alterazione della sua barriera.
Un danno tubulare, invece, si ha con l’avvelenamento dei sistemi di trasporto e si osservava, per esempio, nei soggetti addetti alla
produzione di tubi catodici dei televisori a colori in quanto venivano utilizzate particolari vernici per lo schermo che contenevano
cadmio che è un inibitore dei trasportatori.
Questo schema illustra le varie
proteinurie: la 1 è la situazione
normale, infatti si ricavano piccole
quantità di albumina e uromucoide, la
2 per proteinuria selettiva in cui il
filtro glomerulare comincia a non
funzionare bene quindi passa anche la
transferrina, la 3 vale per proteinuria
non selettiva in cui il danno è avanzato
e compaiono anche le IgG, la 4
introduce un danno tubulare quindi,
mancando i trasportatori che le
dovrebbero recuperare, passano
anche proteine a basso pm, le più
rappresentate sono la

30
β2microglobulina ed il lisozima, ed infine la 5 è una proteinuria pre-renale con sovraccarico di proteine nel glomerulo per cui ci
saranno anche emoglobina e catene leggere degli anticorpi.
È chiaro quindi che la quantità di proteina nelle urine è controllata, tra 40 e 80 mg nelle 24 h, ma se questa quantità aumenta le
proteine tendono a precipitare in quanto il pH delle urine non è il pH fisiologico ma è più acido, 5-5.5-6, e quindi le denatura. Si
creano delle strutture chiamate cilindri dovuti al fatto che le proteine precipitano nel tubulo e vanno a rivestirne la faccia interna
formandone uno stampo che poi, per effetto della pressione idrostatica, viene espulso e lo si ritrova nelle urine. Per osservarli le
urine devono essere centrifugate e guardando il sedimento al microscopio si troveranno le cellule del ricambio epiteliale, i cristalli
di ossalato di calcio e questi cilindri ialini trasparenti. Nel caso di un soggetto normale la quantità di cilindri è estremamente limitata
ed essi sono poco visibili (A), nel caso di un soggetto patologico, invece, la quantità dei cilindri, la loro grandezza e la loro
compattezza, aumenta con l’aumentare delle proteine, quindi con l’aggravarsi della patologia, ed essi tenderanno, rivestito il tubulo,
a trascinarsi cellule epiteliali che li renderanno molto più visibili al microscopio (B). Possono esserci poi anche situazioni più gravi,
per esempio, la formazione di cilindri accompagnati da leucociti polimorfonucleati, indice di un’infezione in atto a livello tubulare
che ha appunto richiamato sul parenchima renale i globuli bianchi (C), o ancora, la formazione di cilindri ricoperti di globuli rossi
presenti per perdita ematica a causa di dialisi renale (D).
A B C D

Se si vuol fare un’elettroforesi di proteine urinarie su un supporto elettroforetico classico, come l’acetato di cellulosa o l’agarosio,
si ha bisogno di concentrare le urine perché la quantità di proteina presente è comunque molto bassa, un soggetto normale ha 40-
80 mg/l ed anche in situazioni gravi si arriva al massimo a 4 g nelle 24h, che sono ben lontani dagli 80 g presenti nel siero, quindi,
per poter vedere qualcosa nell’elettroforesi va fatto un pretrattamento di concentrazione usando vari metodi di ultrafiltrazione allo
scopo di eliminare più solvente possibile.
Nell’immagine in alto si vede un tracciato di elettroforesi di proteine in urine normali,
è stato concentrato più di cento volte e successivamente è stato colorato e, con un po’
di difficoltà, si può distinguere la banda dell’albumina. Sotto, invece, si vede il tracciato
corrispondente ad una prima fase di danneggiamento del glomerulo per
microalbuminuria, la banda dell’albumina è infatti molto netta e si distingue
perfettamente rispetto al resto del tracciato elettroforetico.
La fase successiva di questo danno è la proteinuria glomerulare di tipo selettivo, che
nell’immagine si vede in una situazione più iniziale a sinistra e più grave a destra, è
caratterizzata da due bande elettroforetiche, la più intensa e più veloce è l’albumina
mentre l’altra meno intensa e più lenta è la transferrina, che sono le due componenti
che vengono perdute per prime perché maggiormente rappresentate.
Nella terza immagine si ha una situazione di proteinuria glomerulare non selettiva, in
basso in uno stadio meno grave rispetto al tracciato in alto. Se guardati in maniera
superficiale, poiché il danno glomerulare è così marcato da far passare tantissime
componenti, questi sembrano tracciati elettroforetici dei sieri, infatti confrontandoli si
troveranno l’albumina, le α1-, le α2-, le β- e le γ-globuline, tuttavia rispetto ai sieri la
posizione delle bande elettroforetiche delle urine non è esattamente uguale e questo
è dovuto al fatto che le proteine nelle urine sono esposte ad un ambiento acido quindi
la migrazione elettroforetica subisce una distorsione.
In un’elettroforesi su acetato di cellulosa o su agarosio la proteinuria glomerulare selettiva e la non selettiva non sono distinguibili
dalla tubulare, in entrambi i casi la più veloce è l’albumina e poi nel caso della glomerulare si hanno α1-, α2-, β- e γ-globuline mentre
nel caso della tubulare prima la β2microglobulina e dietro comunque tutte le altre. Per distinguerle è necessario cambiare supporto
elettroforetico ed utilizzare, per esempio, gel di poliacrilammide in SDS. In questo modo si vedrà che nel caso di proteinuria
glomerulare non selettiva vi è l’albumina come componente più veloce e dietro tutte le altre proteine a più alto peso molecolare,
nel caso di proteinuria tubulare invece si vedrà l’albumina, poi poco più lenta la transferrina, e davanti all’albumina una quantità di
altre proteine a più basso peso molecolare; si deve comunque sempre tenere presente che potrebbero esistere casi di proteinuria
mista, in cui è danneggiato sia il tubulo sia il glomerulo, e queste situazioni daranno tracciati elettroforetici complessi con l’albumina
sempre come punto di riferimento, quindi le proteine con basso PM davanti e le proteine ad alto PM dietro.

31
SEPARAZIONE ELETTROFORETICA DELLE EMOGLOBINE
Le emoglobine sono le proteine deputate al trasporto dell’ossigeno. Trovandosi nei globuli rossi non sono immediatamente
disponibili per fare un’elettroforesi ma questi devono essere trattati per riuscire ad isolarle: la prima cosa da fare è prelevare il
sangue in condizioni non coagulanti in modo tale che i globuli rossi non vengano intrappolati all’interno del reticolo di fibrina,
centrifugando si elimina il sopranatante che è il plasma, si effettua lavaggio con soluzione fisiologica e a questo punto si ottiene il
sedimento di globuli rossi.
I globuli hanno una forma discoidale biconcava che viene mantenuta solo se
essi si trovano in sospensione in una soluzione isotonica, cioè con una
pressione osmotica uguale a quella interna al globulo, altrimenti, se la
soluzione all’esterno è ipertonica, cioè ha una pressione osmotica maggiore
dell’interno del globulo, allora il liquido interno al globulo verrà richiamato
all’esterno nel tentativo di diluire la soluzione ed il globulo assumerà una
forma detta crenata dovuta al fatto che il citoscheletro formato da spectrina protrude sulla membrana, se, invece, la soluzione è
ipotonica, cioè con pressione osmotica minore dell’interno del globulo, quest’ultimo si comporterà anche stavolta come una
membrana semipermeabile con la differenza che il liquido verrà richiamato verso l’interno, per cui il globulo si gonfierà, in condizioni
di bassissima concentrazione salina il globulo continuerà a gonfiarsi fino alla lisi .
Dentro il globulo rosso c’è essenzialmente emoglobina e quando si centrifuga la soluzione e la si isola si ottengono tutta una serie
di indicazioni che servono a studiarne eventuali alterazioni che possono essere di tipo quantitativo, quando visibilmente c’è
un’alterazione nel numero per globulo, o qualitativo se riconducibile a mutazioni nei geni che la codificano.
L’emoglobina è una proteina a struttura quaternaria fatta da 4 catene polipeptidiche uguali a due
a due, due α-globine e due β-globine. Ognuna è coordinata con un gruppo eme ed a livello di
questo gruppo avviene la coordinazione con l’ossigeno, per cui, in condizioni di elevata pressione
parziale d’ossigeno, l’emoglobina si carica di O2. Quando arriva a livello tissutale, cioè dei
capillari, la pressione parziale d’ossigeno diminuisce e quindi l’emoglobina scarica l’O2 che verrà
utilizzato a livello delle cellule dei tessuti periferici.
Durante il corso della nostra vita abbiamo emoglobine diverse a seconda dello sviluppo/età del
soggetto: fino al terzo mese di vita intrauterina (si parla di embrione) sono presenti delle catene
emoglobiniche z e e che sono i sostituiti rispettivamente di a e b, si possono combinare fra loro
formando le emoglobine embrionali ed attivano i promotori per questi geni, tuttavia, l’attività dei promotori decade velocemente
nel passaggio da embrione a feto ed infatti queste catene dopo il terzo mese (quando si parla di feto) non vengono più prodotte,
piuttosto, inizia ad essere prodotta la catena a la cui produzione aumenta molto rapidamente, raggiunge il massimo livello e resta
così stabile per tutta l’esistenza del soggetto; sempre nella vita embrionale inizia la sintesi della catena g, una catena sostitutiva
della catena b, per cui durante la vita fetale, cioè dal terzo mese alla nascita, il soggetto è caratterizzato da emoglobina fetale
costituita da 2 catene a e 2 catene g; la sintesi della catena b è a livelli minimi durante la vita embrionale per poi aumentare
velocemente nel periodo perinatale e successivamente alla nascita, contemporaneamente la catena g diminuisce nella sua
espressione sparendo nel periodo post natale. Se non ci fosse l’emoglobina fetale non ci sarebbe possibilità di far arrivare ossigeno
dal circolo sanguigno materno al circolo sanguigno fetale, infatti, l’emoglobina fetale ha un’affinità addirittura maggiore per l’O2
rispetto all’adulta, quindi, quando il sangue materno arriva alla placenta e viene a trovarsi in prossimità una barriera permeabile
all’O2, l’endotelio, senza che avvenga commistione, poiché l’emoglobina fetale ha un’affinità maggiore per l’O2 l’emoglobina
materna glielo cede. Nel tardivo periodo fetale vi è anche la sintesi della catena d, sostitutiva sempre della catena b, i suoi livelli di
espressione rimangono bassi in periodo fetale per poi aumentare leggermente alla nascita e in vita adulta. Quindi:
Nell’adulto à emoglobina principale HBA -2 catene a e 2 catene b- ed emoglobina secondaria HbA2 -2 catene a e 2 catene d-;
Nel feto à emoglobina fetale -2 catene a e 2 catene g- e tracce di emoglobina adulta HbA
Nel neonatoà la sintesi della catena gamma diminuisce nel periodo perinatale ma è ancora presente nel neonato per cui si possono
trovare sia emoglobina fetale che adulta HbA che poi verranno sostituite dalle sole adulte
A causa di mutazioni nei diversi geni che codificano per le diverse catene si possono verificare anemie, si parla invece di talassemie
quando si assiste ad una riduzione del quantitativo generale di emoglobina adulta HbA e HbA2 e di anomalie di sviluppo in quei
soggetti che hanno una persistenza ereditaria dell’emoglobina fetale in età adulta non riuscendo ad eliminarla per un difetto
nell’espressione della catena g che rimane attiva (non funzionano i siti di legame per i fattori di trascrizione che bloccano
l’espressione del promotore).
Lo studio di emoglobina comporta la raccolta di sangue in presenza di EDTA o eparina (anticoagulanti), risospensione di globuli rossi
in liquidi ipotonici ed elettroforesi su acetato cellulosa o gel agarosio. I rapporti quantitativi sono a favore di HbA che è circa al 97%
mentre HbA2 è al 2-3%, per cui, nonostante l’emoglobina sia di per sé visibile perché rossa, se non
si colora il tracciato elettroforetico difficilmente si riesce a distinguere l’emoglobina secondaria.
Nel tracciato 2 si mette in evidenza solo HbA perché molto rappresentata, se si esegue colorazione
ci si accorge della presenza di HbA2 che è più lenta, nell’adulto, infatti, con un’elettroforesi fatta
in ambiente leggermente alcalino (ph=8) e proteine caricate negativamente, l’emoglobina HbA è
più veloce mentre quella secondaria più lenta e quindi si trova più vicina al deposito, inoltre,
colorando con amido schwartz o black si riesce ad evidenziare anche un’altra proteina che non è

32
emoglobina ma anidrasi carbonica, molto rappresentata nei globuli rossi perché
coinvolta nel trasporto di CO2 ‘al contrario’ cioè dai tessuti ai polmoni.
Nelle corsie 1 e 5 sono fatte correre le emoglobine standard, A, F (fetale), S (anemia falciforme) e C (emoglobinosi C), per studiarne
i tracciati a confronto, mentre nella corsia 3 c’è l’emoglobina neonatale (HbA + emoglobina fetale che è quella più lenta).
Talassemie
In ogni momento della vita di un individuo, sia nel periodo embrionale,fetale,post-natale ed adulto, il rapporto tra la quantità delle
catene-a e non-a (b,g,d,somma delle tre) deve essere pari ad 1. Si definisce talassemia la condizione in cui questo rapporto è diverso
da 1 e può derivare dal cambiamento del numeratore, quindi delle catene-a, oppure del denominatore, quindi delle catene non-a:
- Si parla di a-talassemia quando il rapporto a/non-a è minore di 1. Può essere una condizione in omozigosi o eterozigosi,
nel dettaglio, l’uomo ha 2 geni per le catene-a che essendo diploidi diventano 4, in eterozigosi può succedere che uno
degli alleli abbia una mutazione tale per cui scompaiono le catene-a e ci saranno catene b non accoppiate a catene a, si
tratta di un’a-talassemia minor ed è verificabile anche nell’adulto, mentre non esiste un soggetto adulto omozigote per
l’a-talassemia perché già nella vita intrauterina all’emoglobina fetale servono 2a da accoppiare alle 2g e se non c’è alcuna
produzione di a la vita di questo soggetto è interrotta molto velocemente
- Si parla di b-talassemia quando il rapporto a/non-a è maggiore di 1. Anche questa può essere una situazione in omozigosi
o eterozigosi, per quanto riguarda l’eterozigosi viene chiamata b-talassemia minor e si ha 1 solo allele funzionante nella
produzione di catene-b per cui vi è un difetto di disaccoppiamento con le catene-a, è comunque una situazione compatibile
con la sopravvivenza ma la mancata presenza di catene b non sarà compensata dalle catene d che caratterizzano
l’emoglobina secondaria, in altre parole, se non siamo capaci di produrre quantità sufficiente di HbA questa non può essere
risolta con un aumento di HbA2. In realtà esiste una sintesi di compenso per cui l’allele ancora funzionante delle catene-b
viene utilizzato in maniera più efficiente e quindi in realtà saranno presenti un po' più del 50% delle catene-b. Invece, la
condizione di omozigosi chiamata b-talassemia-maior è una condizione di sub-letalità, il soggetto arriva fino alla nascita
con l’emoglobina fetale ma dal periodo neonatale la catena-g viene spenta quindi l’emoglobina fetale diminuisce fino a
scomparire e, non essendoci più catene-b, il soggetto non può sopravvivere a meno che non venga sottoposto a trapianto
di midollo osseo per ripristinare la capacità di produrre catene-b.
Quindi le talassemie sono un difetto di tipo quantitativo e dal punto di vista della nomenclatura microcitemia o talassemia minor o
trait talassemico sono sinonimi e indicano la condizione clinicamente asintomatica degli eterozigoti facilmente individuabile
attraverso un semplice esame ematologico, cioè facendo uno striscio di sangue e analizzando al microscopio la forma di questi
globuli rossi, proprio perché, quelli talassemici sono appunto microcitemici, quindi appariranno più piccoli del normale ed avranno
una forma che non è quella caratteristica discoidale biconcava; anche anemia mediterranea o morbo di Cooley o talassemia maior
sono sinonimi ma indicano un quadro clinico molto grave, mortale in assenza di trapianto di midollo osseo, degli individui omozigoti
oppure eterozigoti per alleli non funzionati.
Nel nostro paese è molto frequente questa condizione di b-0-talassemia per la quale i soggetti, con diverse frequenze a seconda
del sesso (maschi 12-13 g/100ml - femmine 11-12 g/100ml rispetto ai normali 13-14 g/100ml) e delle aree geografiche considerate,
avranno una ridotta capacità di produzione delle catene b, perché uno dei 2 alleli non funziona, nonché una riduzione del livello
medio di emoglobina. Per compensare questa condizione il soggetto aumenterà la produzione dei globuli rossi che però saranno
anomali come forma ed infatti morfologicamente identificabili. Questo aumento rappresenta il miglior meccanismo di compenso
grazie al quale la riduzione totale della quantità di emoglobina si ferma solo al 20%. Ciascun globulo rosso avrà un volume ridotto e
quindi potrà contenere una minor quantità di emoglobina ma, in compenso, avrà un aumento nella resistenza alle soluzioni saline
ipotoniche, cioè si liserà con più difficoltà. Un’evidenza del fatto che
globuli rossi normali si lisano più facilmente mentre quelli del
soggetto microcitemico più difficilmente si ha semplicemente
confrontando due provette: la soluzione che contiene l’emoglobina
ottenuta dai globuli rossi normali apparirà perfettamente
trasparente (si vede la linea dietro) mentre quella con emoglobina
ottenuta da globuli microcitemici sarà torbida.
I soggetti affetti da talassemia maior, se non curati, presentano gravissime deformazioni del
cranio e della faccia ed ingrossamento epatico e della milza (epato- e spleno- megalia)
perché sono le sedi di produzione dei globuli rossi, strategia che però risulta totalmente
inefficace in quanto i globuli rimangono in poca quantità, presentano marcate alterazioni
morfologiche, alcuni sono solo dei frammenti, e tutti vanno incontro a morte precoce. TALASSEMIA MAIOR

Facendo un quadro riassuntivo della patofisiologia: i globuli rossi con pochissima emoglobina hanno molte catene a libere, si ha
una fortissima emocateresi, cioè distruzione del globulo, che comporta un’anemia grave, quindi anossia perché non c’è capacità di
trasporto di ossigeno, si ha un’iperproduzione di EPO, l’ormone che induce la produzione di globuli rossi per cui si verifica
un’eritropoiesi definita ‘tumultuosa’ ma di fatto inefficiente perché i globuli rossi non contengono adeguata quantità di emoglobina,
e questo porta ad un’iperplasia estrema del midollo osseo che si ingrossa notevolmente e deforma le ossa.

33
Cosa si vede facendo elettroforesi di un soggetto microcitemico? Quasi niente.
A) soggetto normale= HbA normale colorata, segue HbA2, segue
anidrasi carbonica
B) soggetto microcitemico= HbA e HbA2 presentano bande più
marcate, segue l’anidrasi carbonica; c’è una leggera distorsione
del quadro elettroforetico, l’emoglobina totale è diminuita solo
del 20% e l’aumento di HbA2 è illusorio; il test effettivo per
rendersi conto di una situazione microcitemica è lo striscio di
sangue e poi si può procedere con la cromatografia HPLC che
permette di scindere le catene e studiarne le proporzioni relative.
Allora lo studio elettroforetico diventa importante dal momento che permette di identificare l’enorme numero di varianti
emoglobiniche cliniche. Il tipo di difetto molecolare al quale si va in contro può essere una diminuzione della solubilità piuttosto che
l’aumento dell’affinità per l’ossigeno la sua diminuzione ed a questi si associano situazioni quali cianosi, anemia falcemica o
emolitica, …. Queste varianti sono dovute a mutazioni sulle subunità b e a per sostituzione di base che può comportare sostituzione
amminoacidica, nel caso della b-talassemia un codone per glutammico diventa codone di stop in posizione 39, mentre le a-
talassemie sono delle delezioni. Cambiando l’aa cambia la mobilità elettroforetica e per questo diventano evidenti su agarosio o
acetato di cellulosa. Se invece si è interessati a ricavare la proporzione per ciascuna porzione delle emoglobine si procede con l’HPLC
delle catene globiniche.

Nelle immagini a destra viene mostrato quello che succede nell’Hb J di Sardegna. Si tratta di una mutazione che cade sul gene della
catena a: in posizione 50 viene codificata un’istidina mutata che diventa aspartico. L’istidina è un aa che ha un N con un doppietto
elettronico libero che può protonarsi, invece, l’aspartico ha un gruppo -COH che può dissociarsi per cui His darebbe una carica
positiva, Asp una carica negativa. Da un punto di vista elettroforetico levando una carica positiva e aggiungendone una negativa
l’elettroforesi va più veloce (perché va verso il polo positivo), nel tracciato HPLC l’area totale delle -a+ Hb J Sardegna- sarà uguale
all’area totale delle b, per cui il rapporto sarà 1, ma esiste una componente che normalmente non c’è.
Altri esempi si possono fare con Hb O Padova in cui nella catena a, in
posizione 30 il glutammico diventa lisina, questa emoglobina sarà più
lenta in quanto la lisina con N positivo dà carica positiva, e con Hb J
Baltimora, in questo caso nella catena b in posizione 16 una glicina
diventa un aspartico e la globina risulterà più veloce perché da un aa
neutro si passa ad un aa con carica negativa.
Anemie
Normalmente nell’emoglobina il sesto codone della catena b codifica per un glutammico ma può avvenire una mutazione su questa
tripletta per cui compare valina, e sempre su questa tripletta può avvenire un altro tipo di mutazione per cui la valina viene sostituita
da lisina: si tratta di due varianti emoglobiniche, la sostituzione con valina comporta anemia falciforme (emoglobina S), l’ulteriore
sostituzione con lisina comporta emoglobinosi C (emoglobina C).
La trasformazione da Glu a Val si basa su una mutazione che consiste in un passaggio da A a T, per cui il codone del Glutammico
GAG diventa GTG che è appunto il codone per la Valina. Gli eterozigoti bA/bS che hanno un gene della b globina corretto e l’altro
mutato per l’anemia falciforme sono portatori sani, i loro globuli rossi vanno incontro a falcizzazione in condizione di bassa pressione
di O2, quindi a livello dei capillari nei tessuti mentre a livello polmonare hanno la forma corretta, l’individuo non ha grandi
problematiche se non ad alte altitudini o in ambienti particolarmente inquinati dove appunto la pressione parziale di ossigeno si
riduce, gli omozigoti invece presentano sempre la forma di falce ed hanno molte problematiche.

34
La mutazione della forma si basa sul fatto che quando l’emoglobina normale perde O2 da una delle due subunità b, quest’ultima
assume un epitopo, che di per sé non è dannoso, l’emoglobina mutata per anemia falciforme, invece, crea un epitopo particolare
sull’altra subunità b che ha la capacità di interagire con l’epitopo della subinità scarica di ossigeno legandosi ad esso. L’emoglobina
assume la forma caratteristica dell’anemia di polimerio filamentoso, chiamato tattoide, che ha una lunghezza più grande del
diametro del globulo rosso e la conseguenza della deformazione si riscontra in una maggiore rigidità del globulo, per cui, mentre il
globulo normale quando arriva a livello dei capillari si rende plastico e li attaversa, i globuli falcizzati non riescono a passare
attraverso i capillari di piccolo calibro provocando in tal modo ostruzioni del circolo sanguigno e conseguente ischemia dei tessuti.

ossiHbA deossiHbA ossiHbS deossiHbS

deossiHbS polimerizzata formando i tattoidi

In elettroforesi: l’emoglobina S, essendo il Glu carico negativamente sostituito da un Val apolare, risulta più lenta, l’’emoglobina C,
essendo un Val apolare sostituito da una Lys carica positivamente, risulta ancora più lenta, la si troverà più o meno allo stesso livello
di HbA2. Infatti, capita che nel tracciato elettroforetico in ambiente alcalino tante emoglobine differenti si ritrovino nella stessa
posizione (stessa mobilità elettroforetica) per cui diventa difficile risalire al tipo di anemia, per ovviare a questo problema si possono
cambiare le condizioni in cui viene effettuata la separazione elettroforetica scegliendo un pH acido e poi confrontando i due tracciati
si potrà risalire alla corretta situazione.

35
LEZIONE DA 11/11/21 A 17/11/21

ANALISI ENZIMATICA
Nei liquidi biologici umani (sangue, plasma, siero) sono presenti una certa quantità di enzimi, alcuni hanno una funzione specifica in
quel determinato liquido, altri no, e sono molto importanti le loro variazioni quantitative perché forniscono indicazioni sullo stato di
salute di determinati organi e tessuti.
Gli enzimi specifici presenti nel sangue si occupano della coagulazione e del sistema proteico del complemento per la difesa
immunitaria, mentre, i non specifici sono tutti quegli enzimi secreti dalle ghiandole nei vari distretti dell’organismo per svolgere
funzioni dedicate e, se li si ritrova nel sangue, potrebbero indicare un malfunzionamento di un dato organo, ad esempio, amilasi e
lipasi sono prodotte dalla parte esocrina del pancreas, attraverso il succo pancreatico vengono riversate nel duodeno e li hanno una
funzione digestiva, se per alterazioni questi enzimi compaiono nel sangue si può dedurre un mal funzionamenti del pancreas. A
livello del plasma, con metodi molto sensibili, si possono rilevare anche enzimi di metabolismo intracellulare, LDH (lattato
deidrogenasi), ALP (fosfatasi alcalina), GDT (transaminasi), CPK (creatinin chinasi), GPT (glutammico piruvico transaminasi).
Come si ricava la quantità di un enzima presente nel circolo sanguigno e quanto questa differisca rispetto al valore normale?
Fare una valutazione in valore assoluto sfruttando degli anticorpi potrebbe fornire indicazioni precise su quando c’è di un
polipeptide con determinate caratteristiche, tuttavia, risulta un processo molto lungo e complesso, per cui, poiché si sa che gli
enzimi hanno la caratteristica specifica di riuscire a catalizzare una reazione, si possono fare valutazioni proprio sulla capacità di
catalizzare una trasformazione chimica.
Una reazione chimica seguendo il II principio della termodinamica è possibile con un DG=DH-HDS negativo.
Anche la degradazione del glucosio libera energia ma lo fa troppo lentamente, per cui, se lo si vuole trasformare rapidamente in
H2O e CO2, bisogna fornirgli un’energia di attivazione, ovvero ‘riscaldare’ in modo tale da ‘bruciare’ glucosio che libererà energia,
CO2 e H2O, però, questo non è possibile a livello dei tessuti che brucerebbero, per cui intervengono i catalizzatori che non cambiano
il livello energetico di partenza (del glucosio) e dei prodotti finali (CO2 e H2O) ma cambiano l’energia di attivazione.

Un catalizzatore inorganico comunemente usato nei processi industriali funziona in questo modo, pur riuscendo ad abbassare la
richiesta di energia di attivazione, non entra a fare parte della reazione, cosa che invece succede ai catalizzatori proteici (enzimi)
che entrano materialmente a fare parte della reazione di trasformazione che porterà dalla sostanza di partenza (substrato) fino al
prodotto della reazione. Questo enzima può interagire con cofattori esterni eventualmente necessari, si produce un epitopo
caratteristico che è il sito attivo dove può essere alloggiato il substrato, in questo modo si attivano delle interazioni (ad esempio
legami ionici) tra sito attivo e substrato che indeboliscono i legami del substrato per cui questo arriva ad uno stato di attivazione e
successivamente si ha la liberazione del prodotto, cioè il substrato decade a prodotto di reazione. Ciò che ha fatto l’enzima
interagendo con il substrato è stato proprio fornire l’energia di attivazione necessaria, è entrato a far parte del meccanismo di
reazione ed alla fine è stato restituito intatto.
Questo può essere scritto secondo l’equilibro di reazione enzimatica:
l’enzima E ed il substrato S interagiscono materialmente tra di loro,
raggiungono lo stato intermedio di attivazione ES ed il substrato
decade a prodotto di reazione P.
Se l’enzima entra a far parte del meccanismo di reazione allora la velocità alla quale si ottengono prodotti di reazione dipende dalla
quantità dell’enzima, idem aumentando la quantità del substrato.
Per misurare la quantità di enzima si può misurare la velocità di comparsa del prodotto o quella di consumo del substrato, è
preferibile la misura della comparsa del prodotto perché si farà in modo che la quantità di substrato non sia capace di influenzare
la velocità di reazione.
Il grafico A mette in relazione la concentrazione di substrato, che ovviamente andrà a diminuire nel tempo, e la concentrazione del
prodotto, che aumenterà fino a raggiungere un massimo quando il substrato sarà completamente consumato. La velocità di questa
reazione è indicata dal valore della tangente a ciascun punto della curva, questo valore però cambia con il passare del tempo, quindi:
quando si misura la velocità per essere sicuro che questa dipenda unicamente dalla concentrazione dell’enzima?
È necessario misurare la velocità di reazione nelle fasi iniziali della reazione, cioè quando non c’è stato un consumo sufficientemente
grande di substrato, si dice “misurare la velocità di reazione in condizioni di V0”. Facendo un esempio: si supponga di fare quattro
preparazioni di un enzima (grafico B), in una provetta se ne mette un’unità, in un’altra provetta due unità, e così via;
successivamente si ricava il valore della velocità di reazione a tempi differenti, in condizioni di velocità iniziale, al tempo t1 ed al
36
tempo t2, cioè si misura il valore della tangente in questi diversi punti della curva; si otterranno tre valori di velocità/tangente a t0,
tre valori a t1 e tre valori a t2. A questo punto si realizza un secondo grafico (grafico C) in cui si inserisce in ascisse la quantità di
enzima ed alle ordinate i valori della tangente e si osserva che al valore della tangente a t iniziale t0 si ottiene una retta a 45°, per
t1 si ottiene una curva e lo stesso discorso per t2, ciò vuol dire che soltanto nelle fasi inziali della reazione la velocità di reazione è
direttamente proporzionale con la quantità di enzima, con il passare del tempo la dipendenza lineare diretta si perde e questo vuol
dire che, oltre che dalla quantità di enzima, la velocità verrà determinata anche da qualche altra cosa che è la quantità di substrato.

A B C

Il fatto che la relazione tra enzima e velocità è lineare e che si raggiunga la velocità massima D
di reazione quando la quantità di substrato è molto grande permette di affermare che la
concentrazione di substrato è saturante l’enzima: c’è una quantità di substrato al quale
tutte le molecole di enzima funzionano a pieno per catalizzare la trasformazione
enzimatica, al diminuire della quantità di substrato diminuisce la velocità enzimatica
(grafico D).
Da qui si ricava l’equazione di Michaelis-Menten (REAZIONI ENZIMATICHE):

se [S]>>[E] allora Vmax = K+2[E]

dividendo per [S] si


ottiene:

che corrisponde all’equazione di


una retta con coef.angolare:

come si può osservare nel grafico a sinistra, variando la concentrazione del substrato
varia solo la pendenza della retta, tale pendenza tende al valore K+2 per S tendente
all’infinito, infatti V0=Vmax

Perciò l’equazione di Michaelis-Menten viene trasformata in una retta che permette


di calcolare la Km e quindi di ricavare la concentrazione di substrato necessaria a far
si che misurando la velocità di reazione questa dipenda solo dal substrato

Quindi, per far sì che le misurazioni fatte oggi siano confrontabili con quelle passate e future sarà necessario che si lavori in tempi
brevi in modo che siano mantenute le condizioni di substrato saturante. Questo è il principio di fondo da rispettare ma ci sono poi
altri fattori che possono influenzare la velocità di una reazione catalizzata da un enzima e che vanno tenuti in considerazione: la
temperatura alla quale viene fatta avvenire la reazione, il valore del pH e l’eventuale presenza di effettori allosterici ed anche in
questo caso devono essere valori dichiarati per rendere le misurazioni confrontabili.

37
Per quanto riguarda la temperatura, l’equazione di Arrhenius afferma che qualunque trasformazione
chimica dipende dalla temperatura perché la costante di velocità di una trasformazione chimica k
dipende dalla temperatura: all’aumentare della temperatura aumenta la velocità della reazione perché
aumenta l’energia cinetica tra le sostanze che reagiscono, cioè queste si mettono in movimento con la possibilità che si verifichino
degli urti sufficientemente energetici per raggiungere lo stato di attivazione che poi decadrà a prodotto di reazione.
Questo vale per qualunque reazione chimica, catalizzata o meno, nel dettaglio delle
trasformazioni chimiche catalizzate da un enzima, però, la relazione di Arrhenius è valida solo
in certi intervalli di temperatura, quindi il problema è più complesso. Per osservarlo si può
sfruttare un grafico in cui si predispone in ascissa la temperatura a cui avviene una
trasformazione catalizzata da un enzima e in ordinata la velocità di reazione, si osserva che:
in un primo tratto la velocità di reazione aumenta fino a raggiungere un massimo, in questo
tratto vale la relazione di Arrhenius, nelle fasi successive al massimo all’aumento della
temperatura la velocità non aumenta più, anzi, diminuisce fino al punto in cui non avrà più
luogo la reazione. Perché? Perché il catalizzatore organico viene “ucciso” dalle alte
temperature, essendo una proteina viene denaturato, perde la sua struttura tridimensionale
e precipita per cui non è più in grado di più interagire con il substrato e catalizzare la sua
trasformazione in prodotto. Si può affermare che -esiste un optium di temperatura-.
Noi siamo organismi omeotermi e gli enzimi che operano nei liquidi biologici hanno un optium di temperatura all’incirca pari alla
nostra T corporea, 37°, diverso sarà per quegli organismi che vivono nelle sorgenti calde che avranno ottimi di T su valori molto più
alti e per gli organismi che vivono nei ghiacciai che avranno ottimi a temperature molto più basse.
Per qualunque attività enzimatica vale che per un aumento di 10° di temperatura la velocità di reazione raddoppia.
Per esempio, eseguendo la misurazione in estate con 30° o in inverno con 20°, avendo una differenza di 1°, la velocità di un ezima
X raddoppierà, il che vorrebbe dire che ce ne sarà il doppio, se non si sapesse che tutto dipende da T si potrebbe pensare ad una
situazione patologica.
Per quanto riguarda il pH, al variare di pH variano la condizione di dissociazione di gruppi COH e di protonazione di N con doppietto
elettronico libero. Cambiare la dissociazione di un gruppo laterale o la protonazione di N porta a cambiamenti nelle interazioni
all’interno della molecola, cioè a variazioni nella struttura della molecola, e quindi un sito attivo può non essere più adatto ad
alloggiare il substrato. Anche in questo caso esiste un optium: il pH dei nostri liquidi biologici è di poco superiore alla neutralità ed
è questo il valore ottimo per l’azione dei nostri enzimi, ma esistono anche delle situazioni interessanti, la pepsina, per esempio, ha
un ottimo di pH che è 1,8/2, infatti lavora nello stomaco dove il succo gastrico a base di acido cloridrico determina una forte acidità,
la lattico deidrogenasi lavora invece ad un pH più basico rispetto alla neutralità. Altri due esempi sono la fosfatasi acida e la fosfatasi
alcalina che catalizzano la stessa reazione, ovvero staccano gruppi fosfato da substrati differenti, ma sono così definiti perché hanno
un ottimo di pH a valori notevolmente differenti, la fosfatasi acida è localizzata nei lisosomi dove opera a pH 4,5 su materiale che
deve essere allontanato e risulta essere utile nella diagnosi di patologie che hanno a che fare con la prostata nei soggetti in età
avanzata, mentre, la fosfatasi alcalina è presente nel tessuto epatico, intestinale, osseo, e nella placenta dove lavora a pH 9,8/10,5
ed è di interesse diagnostico per patologie del fegato; essendo entrambe presenti nel circolo sanguigno ma lontane dal suo pH,
facendo la determinazione di una delle due a pH poco superiore alla neutralità si otterrebbe una misurazione dell’attività risultante
dalla somma dell’attività residua di ciascuna.
Per quanto riguarda i fattori allosterici, molti enzimi oltre ad essere caratterizzati da un sito catalitico
presentano anche siti allosterici che possono avere effetti di inibizione o attivazione sull’attività
enzimatica, cioè gli effettori, legandosi su questi siti, determinano un cambiamento di configurazione del
sito attivo per cui questo enzima è più efficiente rispetto a quando è assente l’effettore. È evidente che
si deve tener conto di questo quando si fa una determinazione dell’attività enzimatica perché a parità
della stessa quantità di enzima, se presenti, l’attività risulterà maggiore.
Esempi di effettori allosterici utili ad alcuni enzimi sono i fattori inorganici come ioni rame, ioni ferro o
ioni magnesio, questi devono essere presenti come sali che poi si dissociano nel sistema di rivelazione
altrimenti l’enzima non funziona correttamente. Altri enzimi invece necessitano di fattori organici, cioè i
coenzimi, senza i quali non funzionerebbero, per esempio le deidrogenasi hanno bisogno del coenzima
piridinico. Per stare certi che tutto funzioni bene i cofattori, che siano organici o inorganici, vanno sempre
aggiunti in eccesso alla miscela di reazione.
Passando ora alla parte pratica, il grafico (è stato compresso per ragioni
grafiche nella parte centrale e dilatato nella parte iniziale e finale) permette di
osservare quanto detto con la teoria: se si prepara una miscela di reazione in
cui si inseriscono un tampone a valore ottimo di pH, i cofattori per l’enzima, i
substrati e l’enzima, esiste una fase iniziale in cui la reazione non procede
linearmente, probabilmente per problemi banali quali ad esempio il
rimescolamento, alla quale segue una fase in cui la reazione procede
linearmente, cioè la velocità rimane costante nel tempo e quindi la quantità
di prodotto che si forma è lineare rispetto al tempo che sta trascorrendo
(infatti, se si traccia la tangente nel tratto centrale della curva questa rimane

38
sempre la stessa), e se poi si lascia passare un tempo sufficientemente lungo, invece, il substrato si consuma quindi si esce dalla
condizione di substrato saturante per cui la quantità di prodotto che si forma nel tempo non è più costante, cioè la velocità di
reazione torna a cambiare nel tempo. Da questo si capisce che non si può fare una valutazione della velocità di reazione ne
inizialmente, perché essa non è costante nel tempo, ma neanche troppo tardi, perché il substrato sarà stato consumato e non sarà
più saturante, quindi, quando si dice di misurare la velocità iniziale V0 della reazione, non si sta dando una definizione pratica, ma
teorica, cioè non si sta valutando V effettivamente al tempo 0 ma la si sta misurando dopo un certo periodo di tempo quando tutto
è a regime di funzionamento corretto.
[Quando la reazione procede linearmente si misura la quantità di prodotto al tempo t1, la quantità di prodotto al t2, si sottrae la
prima alla seconda e si divide per il tempo ottenendo la velocità di reazione.]
Come si fa a capire quanto prodotto si è formato in un certo intervallo di tempo?
Per molte attività enzimatiche sono stati individuati substrati sintetici, per esempio, la fosfatasi acida o la fosfatasi alcalina, ammesso
che si lavori ai corretti valori di pH, possono essere valutate utilizzando come substrato il para-nitrofenolfosfato che possiede un
anello organico a cui si attacca un fosfato, infatti, le fosfatasi non hanno grande specificità, la cosa importante è la presenza di un
fosfato che può essere staccato.
Il para-nitrofenolfosfato è praticamente incolore, è di un giallino leggero, ma quando perde il fosfato e diventa para-nitrofenilato
(passando per l’intermedio) acquisisce un intenso colore giallo: la velocità con cui compare il colore giallo corrisponde alla velocità
con cui compare il prodotto quindi si può misurare
la variazione di intensità di giallo per risalire alla
velocità di reazione e tanto più enzima c’è tanto più
velocemente comparirà il giallo. Con questo
principio per tante attività enzimatiche sono stati
costruiti substrati sintetici incolore che diventano
colorati una volta trasformati in prodotti. Una
sostanza è colorata di giallo perché sta assorbendo
radiazioni elettromagnetiche complementari al
giallo (405/410 nm) e tramite lo spettrofotometro è
possibile misurare l’assorbanza di una reazione.
La legge di Lambert-Beer mette in relazione la trasmittanza, cioè la quantità di luce che passa attraverso una soluzione che contiene
sostanze colorate, con la capacità di assorbimento della luce o assorbanza, cioè la quantità di luce che viene assorbita da queste
sostanze colorate in soluzione. La trasmittanza è definita in termini percentuali, infatti, è ottenuta dal rapporto tra l’intensità di
radiazione che passa attraverso una soluzione che assorbe radiazione elettromagnetica e l’intensità di luce che incide sulla soluzione
inizialmente; trasmittanza 100 vuol dire che passa tutta la radiazione elettromagnetica.
La legge di Lambert-Beer si può rappresentare graficamente con un grafico in cui sulle
ascisse vi è la concentrazione della sostanza presente in soluzione e sulle ordinate la
trasmittanza, si ottiene una curva che va da 0 a 100 (a), oppure l’assorbanza, in
quest’ultimo caso si ottiene una retta a 45° (b) che rappresenta la dipendenza diretta
tra concentrazione e assorbanza. Numericamente la legge dice che il logaritmo
decimale del reciproco della trasmittanza prende il nome di assorbanza A.

[Quindi, durante un’analisi enzimatica, si misura A ad un certo tempo t1 e poi dopo un periodo sufficientemente lungo, si fa la
differenza A finale - A iniziale e si ottiene il prodotto di quel lasso di tempo, si divide per il tempo e si ottiene la velocità con cui
compare il prodotto valutata in base alla velocità con cui compare assorbanza: tanto più prodotto c’è tanto maggiore è l’assorbanza.]
-quanto più enzima c’è quanto più prodotto compartirà nell’unità di tempo e quindi quanto più aumenterà l’assorbanza nell’unità
di tempo-
Il metodo delle determinazioni spettrofotometriche è il metodo più semplice per determinare un’attività enzimatica, tuttavia, ci
sono dei problemi: lo spettrofotometro in realtà utilizza una sorgente di radiazione elettromagnetica dalla quale, attraverso un
monocromatore, si ricavare quella di interesse che poi viene indirizzata attraverso la soluzione, la rivelazione della quantità di
radiazione che passa avviene a valle attraverso una misurazione con un rivelatore, una cellula fotoelettrica, dei sistemi di
amplificazione, dei microcircuiti, ecc. questo vuol dire che effettivamente non si va a misurare la radiazione elettromagnetica che
incide, ma solo quella che passa che risulterà diminuita sia perché c’è qualcosa che assorbe, che è quello che si vuole misurare, ma

39
anche per altri fenomeni banali come l’effetto di riflessione della luce o la diffrazione o la rifrazione. Allora, la misurazione della
radiazione assorbita dal prodotto che si sta formando risulta la somma di tutte quante queste perdite.
Per sapere quanta è esattamente la radiazione assorbita dal prodotto formato, si sfruttano i bianchi. Per esempio, se si misura
l’assorbanza in presenza nelle provette esclusivamente del tampone si ottiene la perdita di radiazione dovuta a riflessione, rifrazione
e diffrazione, quando poi si misura l’assorbanza durante la formazione del prodotto della reazione basterà sottrarre il valore
corrispondente alla perdita per questi effetti per ottenere l’assorbanza del prodotto. Si può fare anche un altro bianco solo con il
reagente ed in questo caso, all’interno della provetta con tampone, si misurerà la perdita di radiazione dovuta a riflessione,
rifrazione, diffrazione ed alla quota di assorbimento del reagente, o ancora, considerando anche l’assorbanza del siero stesso;
togliendo tutti questi componenti si ottiene quella che si chiama assorbanza netta che è la misura della comparsa del prodotto.
Ma è sempre possibile trovare substrati sintetici che variano di capacità di assorbimento della radiazione quando diventano
prodotto? Ovviamente no, non è possibile fare questo per tutti gli enzimi perché alcuni hanno una specificità più elevata. Questo
ostacolo è stato aggirato mettendo in piedi la determinazione dell’attività enzimatica basate su misurazioni di radioattività.
Per esempio, la quantità della glutammico decarbossilasi potrebbe essere misurata utilizzando acido glutammico con C14 (carbonio
radioattivo) al gruppo –COOH che viene staccato dall’enzima producendo acido alfa-aminobutirrico e CO2 radioattiva, misurando
la radioattività che si associa alla produzione di anidride carbonica si potrà risalire alla quantità di glutammico decarbossilasi; questo
sistema chiaramente non si può usare dal punto di vista diagnostico perché l’anidride radioattiva metterebbe a rischio gli operatori.
Esiste un’altra possibilità, il sistema delle reazioni accoppiate: si può accoppiare ad una reazione enzimatica una reazione chimica;
per esempio, si vuole misurare la quantità di isocitrato liasi (enzima del ciclo di Krebs) che utilizza come substrato l’isocitrato per
produrre succinato e gliossilato, ma nessuno di questi composti ha un coefficiente di assorbimento tale da poter fare una
determinazione spettrofotometrica, allora, la reazione viene fatta avvenire in presenza di fenilidrazina, in questo modo il gliossilato
reagirà con essa formando gliossilato-fenilidrazone che ha un elevato coefficiente di estinzione molare (capacità di assorbire
radiazioni) per cui misurando la velocità con cui compare la colorazione si potrà risalire alla quantità di isocitrato liasi.
Nei sistemi di reazioni accoppiate è importante che la seconda reazione, cioè quella che produce la molecola misurabile, non sia
limitante rispetto alla prima, altrimenti non si misurerebbe la velocità della prima reazione ma quella della seconda; teoricamente
il problema non sussiste perché una reazione enzimatica è sicuramente più lenta di una chimica che avviene spontaneamente.
Quest’ultima cosa però è da tenere a mente nel momento in cui si va a determinare l’attività di un enzima misurando la variazione
relativa alla trasformazione del suo coenzima: si supponga di voler misurare la presenza di lattico deidrogenasi, enzima che prende
il piruvato e lo trasforma in lattato, per far questo ha bisogno di un coenzima ridotto, il NADH, che viene ossidato mentre il piruvato
si riduce a lattato. Conoscendo il fenomeno si può risalire alla quantità di enzima presente misurando la velocità con cui compare
NAD ossidato, o meglio, con cui scompare NADH ridotto, piuttosto che misurando la velocità con cui compare lattato che non ha
un coefficiente di estinzione molare caratteristico. Infatti, NAD ossidato e NAD ridotto assorbono entrambi radiazione a 260 nm,
mentre a lunghezze d’onda più elevate, il coenzima ridotto assorbe anche a 340 nm mentre quello ossidato non ha più assorbanza,
quindi, ci si può aspettare che al
passaggio da coenzima piridinico
ridotto a ossidato ci sia una
diminuzione di assorbanza a 340 nm.
Quindi, misurare la velocità di una
reazione catalizzata da lattico
deidrogenasi può essere fatto
misurando la velocità di scomparsa di
radiazione a 340 nm il che dipende
dalla quantità di enzima presente.
Tutte le deidrogenasi funzionano così.
Inoltre, si possono accoppiare tra loro reazioni enzimatiche con una deidrogenasi come seconda reazione enzimatica, in questo
modo, valutando la velocità di comparsa o scomparsa di radiazione elettromagnetica a 340 nm, si può risalire alla quantità
dell’enzima che si vuole dosare.
Per esempio, si consideri la glicolisi: un passaggio della glicolisi prevede la presenza di aldolasi che utilizza fruttosio 1,6-bifosfato per
produrre diidrossiaceton fosfato e gliceraldeide 3-fosfato i quali non hanno coefficienti di estinzione molare utilizzabili, non è
possibile costruire una molecola sintetica analoga al fruttosio-1,6 bisfosfato e non ci sono reazioni chimiche che si possono
accoppiare al processo, ma si può accoppiare una reazione enzimatica perché il diidrossiaceton fosfato è il substrato di un altro
enzima, la glicerolo 3-fosfato deidrogenasi che, sfruttando la riduzione dell’enzima piridinico, trasforma il diidrossiaceton fosfato in
glicerolo 3-fosfato. Perciò, si potrà risalire alla quantità di aldolasi misurando la velocità con cui scompare l’assorbanza a 340 nm
dovuta all’attività di questo enzima secondario indicatore.
Precisazione: tutte le deidrogenasi sono enzimi definiti ausiliari stacanovisti, cioè nell’unità di tempo trasformano un enorme numero
di molecole di substrato, quindi, così come le reazioni chimiche, sono reazioni accoppianti NON limitanti il sistema, cosa che infatti
era da tenere a mente.
Accoppiare due reazioni enzimatiche di cui la seconda usa una deidrogenasi è il metodo più diffuso per misurare l’attività enzimatica
con interesse diagnostico. Un altro esempio sono i due sistemi di determinazione delle transaminasi, che sono due enzimi molto
importanti dal punto di vista diagnostico perché servono per valutare il buon funzionamento del tessuto epatico in caso di infezione,
di epatiti A, B o C, di cirrosi epatica, di tumori del fegato e di altri organi.

40
La glutammico-ossalacetico transaminasi (GOT) che prende un –NH2 dall’aspartato e lo trasferisce sull’alfa-chetoglutarato,
producendo ossalacetato e glutammato, nessuna di queste molecole ha un coefficiente di estinzione molare misurabile quindi non
si può sfruttare la spettrofotometria, ma, se si accoppia un’altra reazione catalizzata dall’enzima malico deidrogenasi, questa
utilizzerà ossalacetato e in presenza di NADH produrrà acido malico con formazione di NAD ossidato. La velocità con cui scompare
NADH (assorbanza a 340 nm) è dovuta alla velocità con cui compare ossalacetato, la quale è dovuta alla presenza di glutammico-
ossalacetico transaminasi, tanto più questo enzima è presente quanto più veloce sarà la comparsa di ossalacetato e quanto più
veloce sarà la scomparsa di assorbanza di radiazione elettromagnetica a 340 nm.
La glutammico-piruvico transaminasi (GTP), invece, utilizza l’alanina e trasferisce –NH2 sull’alfachetoglutarato con produzione di
piruvato e glutammato, la molecola che accoppia è il piruvato che è sil ubstrato della lattico deidrogenasi (vista prima) ed importante
è fornire NADH; mano a mano che la GTP produce piruvato, questo viene utilizzato dalla lattico deidrogenasi che lo trasforma in
lattato ossidando NADH e nuovamente la diminuzione di assorbanza a 340 nm dipenderà dalla velocità con cui compare piruvato
che a sua volta dipende dalla quantità di GPT.
Si possono accoppiare anche più di due reazioni, tre, per esempio quando si va a misurare la quantità di CPK. La creatin-chinasi è
un enzima molto importante nel metabolismo del tessuto muscolare, esso prende il gruppo fosfato legato con un legame ad alta
energia del creatin fosfato e lo trasferisce sull’ADP ottenendo ATP e producento contemporaneamente creatina. In teoria, in questo
caso qualcosa che assorbe radiazione elettromagnetica c’è, l’ADP e l’ATP assorbono a 260 nm, però la velocità a cui si produce ATP
dipende dalla quantità di creatin chinasi, quindi, si accoppia la reazione in cui il glucosio in presenza di ATP viene fosforilato a glucosio
6-fosfato ad opera dell’enzima esochinasi, ed a questo punto, la velocità con cui compare glucosio 6-fosfato dipenderà dalla velocità
con cui compare ATP che, a sua volta, dipende dalla quantità di creatin chinasi. Ma ancora non è stato ottenuto alcun prodotto che
faccia variare l’assorbanza ad una qualche lunghezza d’onda, per cui, si associa una terza reazione enzimatica catalizzata dalla
glucosio 6-fosfato deidrogenasi che fungerà da enzima indicatore, questa infatti utilizzerà il glucosio 6-fosfato e NAD ossidato per
produrre acido 6-fosfogluconato e NADH ridotto. La velocità con cui compare NADH, e quindi con cui compare assorbanza a 340
nm, dipenderà dalla velocità con cui compare glucosio 6-fosfato che dipende dalla velocità con cui compare ATP che dipende dalla
creatin chinasi presente inizialmente.

Non si possono accoppiare più di tre reazioni in quanto tutti i composti che reagiscono hanno delle proprie condizioni ottimali per
cui con le trasformazioni potrebbero insorgere dei problemi come, per esempio, la comparsa di un fattore limitante per qualcosa.
Va sempre verificata la compatibilità dell’esistenza di tutte le attività enzimatiche che entrano in gioco.
Quanto è stato detto in linea di principio è valido, ma bisogna fare ulteriori considerazioni: quando si accoppiano reazioni tra di loro
si può scrivere un equilibrio di reazione.
Se si vuole monitorare graficamente come varia la velocità di reazione di un sistema di reazioni accoppiate si può realizzare un
grafico con il tempo sulle ascisse e l’assorbanza sulle ordinate. Nel caso della glutammico ossalacetico transaminasi si prepara una
miscela di reazione in cui si mette l’aspartato che fungerà da primo substrato, il NAD ridotto e la deidrogenasi malica che fungerà
da enzima secondario indicatore, si tiene da parte l’alfa-chetoglutarato, il secondo substrato, perché anzitutto è necessario
verificare che il sistema stia funzionando regolarmente: inizialmente si osservano delle variazioni di assorbanza che però non sono
dovute all’andamento della reazione proprio perché di fatto manca l’alfa-chetoglutarato (tempo necessario affinché il sistema vada
in fase stazionaria), poi, a un certo punto, l’assorbanza rimane costante e ciò vuol dire che il sistema si è assestato e perciò si può
aggiungere l’alfa-chetoglutarato; aggiungendolo, la glutammico ossalacetico transaminasi presente nel siero comincia a funzionare
e produce l’ossalacetato (intermedio) che sarà il substrato della malico deidrogenasi, subito dopo l’aggiunta dell’alfa-chetoglutarato
non vi è variazione costante di assorbanza e la curva delinea una regione definita lag-phase (fase di latenza), cioé una velocita di
reazione costante nel tempo, in quanto l’ossalacetato non è ancora presente in quantità tali da far funzionare correttamente la
malico deidrogenasi, quindi questo mette in evidenza che è necessario aspettare un tempo sufficientemente lungo durante il quale
il sistema va a regime per ottenere una concentrazione sufficiente di intermedio di reazione tale da far funzionare in maniera
ottimale il secondo enzima e poter fare le misurazioni.
I livelli degli enzimi vengono espressi in unità enzimatiche, non in concentrazione di proteina, e
le unità enzimatiche intendono la quantità di enzima presente. Si definisce un’unità
internazionale (UI) di attività enzimatica quella quantità̀ di enzima che in 1 minuto catalizza la
trasformazione di 1μMol di substrato.

41
Come si fa la determinazione di attività enzimatica materialmente?
- Si aspetta una fase inziale in cui il sistema “si tranquillizza” andando in fase stazionaria, non vi sono variazioni del parametro da
misurare
- Si aggiunge il substrato che fa partire la reazione
- Se necessaria, si aspetta una fase di latenza
- Si controlla che l’assorbanza vari linearmente nel tempo e se ne valuta la variazione in un certo intervallo di tempo che dipende
da come è stato costruito il sistema (che volume di reazione, che volume di cambio è stato utilizzato ecc.)
- Si divide la variazione di assorbanza per il tempo (misurato in minuti) ∆E/min
∆"/$%& *
- Si calcolano le unità di attività enzimatica con = U cm!" , dove:
' ) & +
§ ε coefficiente di estinzione molare della sostanza che si sta misurando in termini di variazione di assorbanza
§ d volume/spessore della provetta (per definizione è uguale a 1cm per cui può essere trascurato)
§ n è la molecolarità della reazione
§ V è il volume della miscela di reazione
§ v è il volume del campione che è stato utilizzato (siero)
∆"/$%& * .
I biochimici definiscono l’attività enzimatica riferita alla proteina presente (specifica) con + / = U mg prot !#
' ) & !
N.B. Estinzione, assorbanza e attività ottica sono sinonimi.
Perché c’è una variazione di assorbanza all’inizio?
Nonostante inizialmente non si inseriscano tutti gli enzimi per permettere alla soluzione di stabilizzarsi e giungere alla fase
stazionaria si osserva comunque una variazione di assorbanza perché si lavora con del materiale biologico (plasma o siero) che
contiene moltissime sostanze e non su sostanze purificate, per cui, riprendendo l’esempio precedente, è possibile che sia presente
dell’alfa chetoglutarato endogeno che viene utilizzato dalla gluttamico ossalacetico transaminasi per produrre ossalacatetato, che
a sua volta viene utilizzato dalla malico deidrogenasi per catalizzare la sua reazione con diminuzione dell’assorbanza a 340 nm; la
quantità di ossalacetato presente nel siero è comunque limitata e verrà consumata in un breve lasso di tempo e l’assorbanza
diventerà costante. Adesso il sistema è pronto per poter fare la valutazione di attività enzimatica.
Aspettare un lasso di tempo sufficiente affinché l’assorbanza vada a costanza garantisce che non ci siano cause esterne ad
influenzarne le successive variazioni.
All’inizio, in assenza di uno dei substrati, si verificano due
situazioni differenti:
• immagine a sinistra: in alcuni casi la variazione di
assorbanza segue una curva asintotica e quindi va a
costanza, in quel momento la velocità sarà pari a zero
• immagine a destra: in alcuni casi c’è una dipendenza
lineare della variazione di assorbanza con il tempo e
quindi questa non arriverà mai a costanza ma sarà la
velocità ad essere costante nel tempo
Il secondo caso si ha in tutti quei sistemi in cui uno dei substrati della reazione decade spontaneamente e si trasforma in prodotto
della reazione spontaneamente, ciò si può osservare sia nelle reazioni accoppiate sia nelle reazioni non accoppiate: la variazione
iniziale nel tempo non è dovuta all’attività enzimatica ma è dovuta al fatto che il substrato è instabile e di per sé decade a prodotto
di reazione. Se si fa una misurazione dell’assorbanza in presenza dell’enzima la variazione non sarà dovuta solo all’attività
dell’enzima ma anche alla degradazione spontanea del substrato, il problema si risolve facendo una valutazione della variazione di
assorbanza lorda (componente per l’enzima + componente per degradazione spontanea) che si osserva quando è presente l’attività
dell’enzima, alla quale si sottrarrà la variazione di assorbanza per minuto (componente per degradazione spontanea) calcolata
quando non è ancora partita la reazione enzimatica.
Ricapitolando: per essere sicuri di eseguire una valutazione della quantità di enzima correttamente
• la concentrazione di substrato deve essere saturante altrimenti l’enzima non funziona correttamente e la velocità ne risente
• non si deve aspettare tempi troppo lunghi per eseguire le misurazioni altrimenti il substrato diminuisce e non sarà più saturante
• si deve tenere presente che a temperature diverse cambia l’attività dell’enzima, è sempre meglio lavorare a temperatura ottimale
di funzionamento per l’enzima e tale temperatura va dichiarata per applicare gli opportuni fattori di correzione
• si deve controllare il pH che deve essere ottimale di quella specifica attività enzimatica
• non ci devono essere fattori allosterici che inibiscono l’attività enzimatica ma ci devono essere tutti quei fattori attivatori necessari
a farlo funzionare correttamente
• si devono effettuare dei controlli di variazione, per esempio, dell’assorbanza con enzima non ancora funzionante per verificare se
sono presenti due modalità
• si deve aspettare un tempo sufficiente affinché sia superata la fase di latenza se parliamo di reazioni accoppiate
L’ultimo controllo prevede che se il sistema funziona correttamente quando aumenta la quantità di enzima presente (la quantità di
siero) la velocità della reazione aumenta linearmente: la variazione della velocità di reazione (v! in ordinata) rispetto al volume di
campione segua una retta (a) che passa per l’origine e che ha una pendenza di 45°.
Tuttavia, nell’eseguire questo controllo non sempre si ottiene una retta tale:

42
- la retta b ha una pendenza di 45° ma non passa per l’origine, cioè anche in assenza di
enzima c’è una velocita di reazione; è il caso della degradazione spontanea del substrato,
infatti, ad ogni volume di campione analizzato si somma una quantità di degradazione del
substrato in una componente di velocita di reazione che non dipende dall’enzima presente
- la retta c indica per volumi piccoli una dipendenza diretta e lineare della velocità di
reazione con il volume di campione, ma a volumi più grandi la curva si flette ed a volumi
sufficientemente grandi non si ha più alcuna dipendenza della velocità di reazione con il
volume di campione; questo accade nelle reazioni accoppiate che nel siero presentano un
inibitore competitivo dell’enzima indicatore (secondario), infatti, a volumi piccoli di
campione la concentrazione di questa sostanza è bassa e quindi non inibisce l’enzima
secondario, mentre a volumi grandi diventa così elevata da inibirlo annullando la dipendenza della velocità con il volume; è un
problema difficile da risolvere perché non si può togliere l’inibitore, l’unica cosa che si può fare è la diluizione del siero in modo da
ricadere nella zona dove la concentrazione dell’inibitore è bassa
- la retta d indica una presenza insufficiente di fattori attivatori per l’enzima secondario; può essere osservato nelle reazioni
accoppiate e si risolve aggiungendo gli attivatori in modo da essere sicuri che tutte le molecole di enzima stiano funzionando
correttamente; è come se a volumi piccoli di campioni l’enzima che si aggiunge fosse inefficace e poi a un certo volume di
campione cominci a funzionare, ciò vuol dire che nel sistema è presente un inibitore irreversibile (non competitivo), che blocca
e uccide l’enzima, infatti, inizialmente una certa quantità di enzima si lega all’inibitore che lo blocca e non gli permette di
funzionare, ma, continuando ad aggiungere il campione e quindi l’enzima, l’inibitore, uccidendolo tutto, si esaurisce ed a questo
punto si osserverà una variazione della velocità di reazione
- la retta e indica la presenza di attività soltanto dopo aver aggiunto un certo quantitativo di enzima, quindi un volume
sufficientemente grande di campione; può capitare anche per reazioni semplici e non necessariamente per reazioni accoppiate

USO DELLA DETERMINAZIONE DI ATTIVITÀ ENZATICA A SCOPO DIAGNOSTICO


Nel siero, durante un’analisi, si possono trovare enzimi che sono normalmente presenti
in vari tessuti, perciò, se c’è una patologia che colpisce quel tessuto, la quantità di questi
enzimi varierà rispetto ai valori normali di riferimento.
Alcuni tra i più comuni enzimi che si ritrovano nel siero sono la glutammico ossalacetico
transaminasi GOT, la glutammico piruvico transaminasi GPT, la lattico deidrogenasi LDH
e la cheratinfosfochinasi CPK, l’attività di questi enzimi per soggetti normali è stata
misurata e posta uguale a 1 (valore medio dell’intervallo normale di riferimento),
dopodiché si è osservato nei diversi tessuti quanta attività enzimatica è presente rispetto
al siero, per esempio, la GOT negli eritrociti è presente 15 volte di più rispetto al siero,
nel muscolo scheletrico 5000 volte, nel fegato 7000 volte e nel cuore 8000 volte. Quando
una patologia colpisce uno di questi organi, esso perderà nel siero una certa quantità di
attività enzimatica che qui aumenterà considerevolmente, tuttavia, poiché non si tratta
di enzimi specifici ma si trovano in tanti tessuti diversi non si può dedurre quale sia
l’organo colpito dalla patologia.
Solo guardando al quadro enzimatico di un siero, cioè alla variazione di insieme di attività enzimatiche, si può risalire all’organo o al
tessuto colpito responsabile dell’alterazione dei rapporti.
Per esempio, cuore, fegato e muscolo hanno i medesimi enzimi ma con un contenuto
diverso, il cuore è ricco di GOT e LDH, nel fegato tutti gli enzimi ad eccezione della CPK
sono abbondanti mentre nel muscolo scheletrico tutti gli enzimi ad eccezione della CPK
e LDH sono meno rappresentati. Si conosce il quadro enzimatico di un siero normale e
nella situazione patologica si osserva una variazione percentuale delle componenti: con
un infarto del miocardio, poiché le cellule muscolari cardiache muoiono riversando il
loro contenuto all’esterno, queste attività enzimatiche verranno a trovarsi nel circolo
sanguigno, allora, distorceranno i rapporti tra le varie attività portandolo ad
assomigliare a quello che è il tessuto di provenienza. Inoltre, i livelli di attività
enzimatica che si ottengono possono essere messi in relazione all’estensione della
patologia: quanto più è grave la patologia quanto maggiore saranno i valori di attività
in assoluto che si trovano nel circolo sanguigno. Per esempio, in seguito a un infarto
del miocardio la percentuale di tessuto cardiaco che viene colpito, quindi l’estensione
del danno, può essere del 10%, 20% e 50%, percentuale che indica anche l’incremento di enzima che si osserva.
Un altro dato importante da ricordare è che gli enzimi non sono tutti localizzati in maniera uniforme nelle cellule ma ci sono enzimi
citoplasmatici, nucleari, mitocondriali ecc. Se l’enzima è presente nel citoplasma, una patologia che colpisce un tessuto o un tipo
cellulare sarà facilmente evidenziabile perché farà facilmente perdere questa attività enzimatica all’esterno, ma, per vedere
comparire variazioni delle attività enzimatiche mitocondriali il danno dovrà essere molto più grave, si dovranno rompere sia la
membrana plasmatica che la membrana mitocondriale, cioè deve verificarsi necrosi. Quindi l’entità del danno dipende anche dalla
localizzazione dell’attività.

43
Molti sono i parametri che influenzano le attività enzimatiche e quindi con il passare del tempo sono stati messi a punto vari metodi
di determinazione che hanno livelli diversi di riferimento, solitamente infatti si rappresentano due colonne, una con i valori validi
per i metodi convenzionali ed una con i valori validi per i metodi standard ottimizzati; per esempio, per indicare lo stato patologico,
i metodi convenzionali per le due transaminasi GOT e GPT danno una soglia pari a 12, mentre, i metodi standard ottimizzati a 18 e
22. Inoltre, si può osservare che ci sono molte attività enzimatiche la cui presenza nel siero è piuttosto limitata, è il caso di GOT,
GPT, LDH, CPK, e ALD, ed altre che sono molto rappresentate, come le amilasi e le lipasi, per cui, in caso di patologie, ci si potrebbe
aspettare che gli enzimi poco rappresentati aumentino mentre quelli molto rappresentati diminuiscano: in genere, le diminuzioni
sono osservabili negli enzimi secreti mentre gli aumenti sono osservabili negli enzimi che si trovano casualmente nel siero per
ricambio tissutale, quindi in quantità estremamente limitata.
Metodi Valori di riferimento Qui vengono mostrati i livelli di riferimento della glutammico ossalacetico
Colorimetrici anni ’50 Fino a 40 U Karmen transaminasi in relazione a vari metodi utilizzati:
• i saggi colorimetrici degli anni ’50 usavano le unità dette Karmaned e
Cinetici a 25°C 12 U/L
davano un valore di 40 U
Cinetici ottimizzati • con i metodi cinetici a 25° vale il valore di 12 Unità/Litro
a 25°C 15-18 U/L • i recenti metodi ottimizzati presentano soglie di attività enzimatica
a 30°C 21-25 U/L diverse a temperature diverse: passando da 25° a 37° i valori normali di
a 37°C 31-37 U/L riferimento raddoppiano perché a 37° l’enzima ha il suo ottimo di pH e
funziona meglio, mentre a 25° c’è una minore attività delle sue molecole;
a 37°C con piridossalfosfato fino a 46 U/L
nel caso poi della presenza di pridossalfosfato, i valori aumentano fino ad
una soglia di 46 U/L, valore molto superiore rispetto ai 37° in assenza di piridossalfosfato, questo perché le transaminasi utilizzano
il piridossalfosfato come coenzima ma esso è legato mediante un legame covalente non molto forte, perciò, quando l’enzima viene
riversato nel siero perde il piridossalfosfato e non avendo più il suo coenzima non funziona più, tuttavia, evidentemente non tutte
le molecole di enzima perdono il coenzima perché si ottiene ancora un valore di attività enzimatica seppur inferiore.
Non si può sapere se in un soggetto nel corso della patologia la perdita parziale del coenzima è stata più o meno ampiamente o se
i valori che si ottengono dipendono dall’influenza del metodo di preparazione del siero, perciò, se si aggiunge il piridossalfosfato
alla preparazione automaticamente si recupera l’attività di tutte le molecole di enzima presenti e quindi i valori normali di
riferimento aumentano. Praticamente, si fa in modo che funzionino tutte le molecole di enzima sia in condizioni fisiologiche sia in
condizioni patologiche grazie all’aggiunta dell’attivatore.
Un altro parametro da tenere in considerazione durante la determinazione di attività enzimatica è che si tratta di proteine e le
proteine sono soggette al fenomeno della denaturazione. In realtà, nel nostro organismo non solo ci sono fenomeni di
denaturazione casuale dell’attività enzimatica, ma anche fenomeni di depurazione, allontanamento e recupero come sorgente di
enzimi/amminoacidi ecc. Per cui, è possibile stabilire per ogni attività enzimatica un tempo di dimezzamento nel plasma o tempo di
turnover, che è il tempo che deve passare affinché una certa quantità di enzima si dimezzi. I tempi di dimezzamento sono molto
variabili, ad esempio, GOT ha un tempo di turnover di 17 ore, GPT di 47 ore, LDH è piuttosto stabile e altre hanno un tempo di
dimezzamento molto rapido.
Il significato di queste attività enzimatiche nel tempo è
molto utile per poter monitorare la recrudescenza di
una patologia e l’andamento della terapia usata, infatti,
non si fanno mai valutazioni di attività enzimatica
istantanee ma le si fanno nel tempo per vedere costa
sta accadendo man mano.
Quando si verifica un infarto al miocardio, per esempio,
alcuni enzimi si dimezzano rapidamente nel giro di un
paio di ore, ed infatti nel quadro delle attività enzimatiche fatto settimane dopo l’insorgenza
della malattia non sono più evidenziabili, altri persistono per lungo tempo. L’evento che è
l’infarto al miocardio, in realtà, può essere paragonato a un terremoto caratterizzato da un susseguirsi di scosse più o meno forti,
infatti, proprio facendo uno studio nel tempo, si può vedere che un enzima che si dimezza molto rapidamente scomparirà dopo il
primo episodio ed un suo successivo innalzamento permette di segnare la comparsa di un nuovo episodio, invece, un enzima che
persiste a lungo nel tempo permette di avere informazioni sulla bontà della terapia che è stata messa in atto.
Nel caso dell’epatite A, invece, le variazioni delle transaminasi sono molto più durature nel tempo, la perdita di queste attività
enzimatiche può essere più o meno generalizzata per quanto riguarda il parenchima epatico e la patologia recupera in tempi molto
lunghi; mentre, nel caso dell’epatite cronica attiva gli aumenti dell’attività delle due transaminasi si ripetono nel tempo e quindi
questa situazione porterà tutto il fegato ad essere colpito dalla patologia, per cui non ci sarà più recupero di parenchima epatico.
Infarto del miocardio
Rappresenta la prima patologia, insieme alle patologie epatiche, nella quale negli anni ’70 è stata utilizzata la valutazione dell’attività
enzimatica. Ma perché dosarne l’attività enzimatica se mediante la valutazione strumentale dell’elettrocardiogramma si ha già
conferma della patologia in atto? L’elettrocardiogramma (ECG) ha una specificità del 100%, cioè ogni qualvolta che si altera indica
un infarto del miocardio, ma la sua sensibilità è solo il 73%, cioè circa ¼ dei soggetti che hanno un infarto non mostra alcuna
alterazione all’elettrocardiogramma, quindi, è un test molto utile ma non dirime tutte le situazioni e perciò vale la pena accoppiarlo
allo studio delle determinazioni di attività enzimatiche che, in particolare, saranno il dosaggio di CK e di LAD.

44
La cheratinchinasi ha una sensibilità del 98%, cioè il 98% dei soggetti che ha un infarto del miocardio ne mostra un aumento, ma la
sua specificità non è del 100% perché oltre ad essere presente nel muscolo cardiaco si trova anche nel muscolo scheletrico; la lattico
deidrogenasi ha una bassa sensibilità ma una specificità del 97%.
Queste valutazioni devono essere ripetute nel tempo per vedere se l’episodio è stato superato o se la patologia si è acutizzata.
Questo per dire che quando si fanno valutazioni dello stato di salute di una persona e si sospetta una determinata patologia non ci
si accontenta mai di una singola osservazione ma si fanno dei quadri diagnostici di insieme.
Il tessuto muscolare è un tessuto che consuma molto ossigeno e, nel momento in cui l’ossigeno scarseggia per qualche motivo, si
ricorre alla mioglobina come riserva. La mioglobina è una proteina citoplasmatica a basso peso molecolare (18kD) e quando le
cellule muscolari muoiono colpite da infarto, proprio per le sue caratteristiche, viene persa molto rapidamente all’esterno insieme
alle altre attività enzimatiche. È quindi un indicatore precoce, delle fasi iniziali dell’infarto, inoltre, ha un’emivita breve (10-20 min)
e quindi, se l’infarto è stato superato scompare nell’arco di una giornata, ma se l’infarto si riacutizza allora riaumenta. Non è
presente solo nel muscolo cardiaco ma anche nel muscolo scheletrico e perciò anche un danno alla muscolatura scheletrica la
farebbe comparire nel circolo sanguigno e quindi va considerata insieme agli altri elementi per fungere da indicatore dell’infarto,
ad esempio, il dosaggio delle troponine.
Le troponine sono piccole molecole proteiche associate ai fasci di fibre contrattili che servono per il corretto scorrimento dell’actina
e della miosina, nel caso di danneggiamento della cellula vengono facilmente perdute all’esterno, quindi anche loro sono indicatori
precoci e, inoltre, sono presenti sia nel miocardio che ne muscolo scheletrico ma tra loro sono diverse. Per avere informazioni
sull’insorgenza dell’infarto possono essere valutate mediante dosaggio con specifici anticorpi.
Quando la patologia dell’infarto del miocardio comincia, aumentano le attività enzimatiche LDH, CK, GOT e meno importante GPT,
i livelli degli stessi enzimi aumentano durante lo shock muscolare (trauma muscolare intenso): ci sono situazioni in cui è difficile
capire cosa è successo in un soggetto basandosi solo su certe osservazioni. Serve qualcos’altro…gli isoenzimi.

ISOENZIMI
Le attività enzimatiche nel sangue/siero non sono dovute alla presenza di un singolo polipeptide, ma, per ogni attività esistono
diversi polipeptidi (isoenzimi) che catalizzano la stessa reazione.
In un test di valutazione enzimatica per capire quanto enzima c’è non ci si accorge della preponderanza di un isoenzima piuttosto
che di un altro, ma, trattandosi di polipeptidi diversi, si può pensare che abbiano carica diversa, quindi, per verificare le loro
proporzioni se ne può fare separazione attraverso un campo elettrico mediante elettroforesi.
Collegandosi all’infarto del miocardio si parlerà di isoenzimi della lattico deidrogenasi e di isoenzimi della creatinchinasi.
Isoenzimi della lattico deidrogenasi
Gli enzimi della lattico deidrogenasi sono cinque e sono dovuti al fatto che la lattico deidrogenasi è
una proteina piccola ma ha una struttura quaternaria fatta da più subunità, in particolare è un
tetramero e le quattro subunità possono essere di due tipi, M o H.
I cinque isoenzimi sono numerati con i numeri arabi dall’1 al 5 dove l’isoenzima 1 è quello da un
punto di vista elettroforetico più veloce, mentre l’isoenzima 5 il più lento. L’isoenzima 1 si chiama
LDH1 ed è formato da quattro subunità H, procedendo si avranno l’LDH2 formato da tre subunità H
e una M, l’LDH3 formato da due H e due M, l’LDH4 formato da tre M e una H e l’LDH5 formato da
quattro M.
Le subunità H sono caratteristiche del miocardio, H infatti sta per Heart (cuore), mentre le M sono caratteristiche del muscolo
scheletrico ed infatti M sta per Muscle (muscolo). Questi isoenzimi sono comunque presenti in tutti quanti i tessuti dove è attivo sia
il promotore della subunità H che quello della M, ma questi promotori, a seconda del tessuto, hanno un’efficienza diversa: nel
muscolo cardiaco è molto efficiente il promotore della subunità H mentre in quello scheletrico è molto efficiente il promotore della
subunità M. Inoltre, nei vari tessuti non sono presenti tutti alla stessa quantità, laddove il promotore è più efficiente di localizzano
grandi concentrazioni dei suoi polipeptidi, per esempio, LDH1 e LDH2 sono presenti soprattutto nel cuore, nel rene, nel cervello,
negli eritrociti e nel polmone, LDH5, invece, è molto presente nel fegato e nel muscolo scheletrico.
Da un punto di vista elettroforetico, considerando che si è in ambiente leggermente alcalino
perché l’elettroforesi viene fatta su gel di agarosio o acetato di cellulosa, le proteine sono caricate
negativamente e vanno verso il polo positivo: LDH1 è veloce quasi quanto l’albumina, mentre LDH5
è addirittura più lento delle γglobuline.
Il metodo che viene utilizzato per mettere in evidenza esclusivamente gli isoenzimi della LDH prevede che il campione di siero venga
sottoposto a separazione elettroforetica ottenuta in 30-35 minuti con circa 200 Volt di differenza di potenziale e mettendo il polo
negativo verso il deposito e il polo positivo più lontano. Il supporto elettroforetico, anziché trattarlo con un colorante per le proteine,
lo si tratta per far avvenire la reazione catalizzata dalla lattico deidrogenasi: la LDH è un enzima che catalizza la reazione in due
direzioni a seconda di quale substrato possiede, da piruvato può produrre lattato e da lattato può produrre piruvato, in questo caso
vengono forniti lattato e NAD (ossidato) per cui la reazione va verso produzione di piruvato in uno stato ossidato rispetto al lattato,
e riduzione del NAD a NADH.
Se ci si fermasse qui non si potrebbe vedere nulla perché è vero che ci sarà una comparsa di assorbanza a 340 nm dovuta alla
produzione di NADH, ma sul supporto elettroforetico vedere questa cosa non è pratica, da una parte perché NADH è una piccola
molecola solubile che va in giro per il supporto elettroforetico e dall’altra perché il supporto ha una sua densità e composizione e
quindi è scomodo. Allora, a questa prima reazione catalizzata dalla LDH e che può essere condotta da uno qualsiasi dei 5 isoenzimi,
45
viene accoppiata un’altra reazione di tipo chimico, alla quale non serve nessun enzima: si fornisce la PMS, ovvero la fenazina
metosolfato, che reagisce con il NADH producendo NAD, a disposizione per la reazione iniziale, e la PMS ridotta.
Ma fin qui ancora niente di pratico, quindi si fornisce al sistema MTT
che è un sale di tiazolo, il quale reagisce con PMS ridotta in un’altra
reazione di ossidoriduzione producendo nuovamente PMS, a
disposizione per la seconda reazione, e Formazan.
Il formazan ha un colorito tra blu e viola, inoltre, è insolubile e quindi precipita nel supporto elettroforetico ed in questo modo la
colorazione rimane bloccata nella sua posizione rendendo possibili le letture densitometriche.
Un densitometro permette di valutare la quantità di colorazione di ogni singola banda elettroforetica, allora, facendo la lettura del
tracciato elettroforetico in cui è stata messa in evidenza solo la LDH, si avrà la possibilità di sapere se c’è più LDH 1, 2, 3, 4 o 5,
inoltre, tenendo conto che questi isoenzimi hanno distribuzioni diverse nei diversi tessuti, i due dati permetteranno di fare una
diagnosi differenziale e sapere se l’aumento di LDH totale provenga da una patologia del muscolo, del cuore o del polmone.
Quali sono le distribuzioni ideali delle attività isoenzimatiche della LDH nei vari tessuti?
Nel siero umano normale l’isoenzima prevalente è LDH2 al 40%, seguono l’LDH1 al 30%, l’LDH3 al 20%, l’LDH4 al 7,5% e l’LDH5 al 2,5%.
Nel muscolo cardiaco post mortem LDH5 e LDH4 sono praticamente assenti, c’è una piccola percentuale di LDH3 mentre LDH1 e LDH2
sono abbondanti, il 2 ancor più del 1; questo dipende dal fatto chele subunità associate ai promotori del cuore sono le H ed LDH1
ed LDH2 le hanno in quantità maggiori.
Nel siero di una persona che ha avuto infarto del miocardio bisogna sommare la situazione del muscolo cardiaco a quella fisiologica
del siero normale: a causa dell’infarto arriveranno nel circolo sanguigno le LDH provenienti dal cuore, quindi LDH1 ed LDH2, e queste
aumenteranno rispetto ai valori della situazione fisiologica mentre le altre attività isoenzimatiche rimarranno più o meno inalterate.
Si osserva un flip dell’isoenzima 1 rispetto all’isoenzima 2, cioè ora sarà il primo a prevalere sul secondo, e questa è una situazione
considerata specifica, cioè il suo verificarsi è associato unicamente alla patologia “infarto” ed a nessun altra; dall’altra parte, però,
non tutti gli infarti mostrano questo flip perché potrebbe essere che non ci sia stata una sufficiente perdita di isoenzimi nel circolo
sanguigno tale da alterarne la proporzione, per cui si dice che la sensibilità è al 70%, mentre la specificità è al 100%.
Nel polmone il promotore della subunità H e quello della subunità M hanno più o meno la stessa efficienza, per questo l’isoenzima
più rappresentato è LDH3, fatto da due M e due H, gli altri sono meno rappresentati. Quando si verifica un infarto del polmone si ha
un flip che stavolta riguarda l’LDH3 sull’LDH2 (perché in assenza di infarto le condizioni del siero fisiologico presentano più 2 che 3).

Ma perché è necessaria la lattico deidrogenasi?


Si sa che l’organismo ricava l’energia da varie reazioni: attraverso la glicolisi il glucosio viene degradato ottenendo il piruvato che
entra nel mitocondrio dove si svolge il ciclo di Krebs, quindi, questo viene degradato ulteriormente con produzione di coenzimi
piridinici e flavinici ridotti che vengono riossidati a livello della catena della fosforilazione ossidativa, la catena dei citocromi, dove si
produce ATP che serve alla cellula per tutti quei metabolismi che richiedono energia.
Ricavare energia dalla fosforilazione ossidativa nel mitocondrio è possibile solo in presenza di ossigeno, ma si potrebbe comunque
produrre energia in assenza di ossigeno perché a livello della glicolisi ci sono due momenti in cui viene prodotto ATP, la
trasformazione del fosfoenolpiruvato a piruvato e, prima di questo, la produzione di 3-fosfoglicerato a partire da 1,3-
bisfosfoglicerato, infatti, si dice che esiste una fosforilazione a livello di substrato.
Attraverso questa fosforilazione per degradazione del glucosio si ottengono livelli molto più bassi di energia ed il risultato ultimo è
che questa si accumulerà del piruvato che, però, non entra nel midollo perché, non essendoci ossigeno, non può essere
ulteriormente degradato con la fosforilazione ossidativa.
La cosa indispensabile per poter arrivare a questi processi è la presenza di
coenzimi piridinici ossidati (NAD+), il NAD+ viene trasformato a NADH nella
reazione che da gliceraldeide-3-fosfato porta a 1,3-bisfosfoglicerato e
quindi si può andare avanti. Tuttavia, bisogna tener conto del fatto che la
quantità di NAD+ presente in una cellula non è infinita, anzi è piuttosto
poco, quindi, questa produzione di energia lungo la glicolisi non può andare
avanti se non c’è rifornimento di NAD+.
Ecco che interviene la lattico deidrogenasi: prende il piruvato ed in
presenza di coenzima piridinico ridotto (NADH) che si è formato nelle tappe
della glicolisi, produce lattato e riossida il NADH a NAD+. Si dice che si è
instaurata una produzione di energia per glicolisi anaerobica o
fermentazione lattica.
È quello che succede quando si compie un intenso sforzo fisico e non
essendoci un sufficiente apporto di ossigeno ai muscoli si forma l’acido
lattico. Gli atleti comunemente non ne risentono perché, essendo allenati,
rapidamente la lattato deidrogenasi elimina il lattato producendo piruvato,
quindi non è un grave problema ma piuttosto una situazione fisiologica,
46
tuttavia ci sono situazioni ben più gravi, come nel caso del cuore durante l’infarto del miocardio: un’occlusione della coronaria
comporta mancato apporto di ossigeno al muscolo cardiaco che non può rendere in fosforilazione ossidativa, non può risolvere
nemmeno con la fermentazione lattica, quindi va in sofferenza portando al verificarsi dell’evento infarto.

Nel caso degli enzimi che rispondono alle curve di Michaelis-Menten viste fino ad ora, all’aumentare della concentrazione del
substrato aumenta la velocità di reazione e quando la concentrazione di substrato diventa saturante la velocità non aumenta più e
rimane costante, ma esistono degli enzimi che, per via di particolarità nel loro sito attivo, hanno un altro tipo di comportamento,
cioè, quando la concentrazione di substrato diventa sufficientemente alta, la velocità di reazione non rimane costante ma subisce
un’inibizione da parte dalla stessa presenza del substrato, il meccanismo infatti si chiama inibizione da substrato.

47
La lattico deidrogenasi è un enzima caratterizzato da questa situazione ed il substrato che la blocca è il piruvato.
L’inibizione non è uguale per tutti gli isoenzimi: LDH1 ne risente molto (si indica con +++) mentre LDH5 ne risente poco (un solo +),
infatti, quando manca ossigeno e si accumula piruvato, il muscolo scheletrico che ha preponderanza di LDH5 può fare fermentazione
lattica in quanto non risente di alcuna inibizione, mentre nel cuore, che ha preponderanza di LDH1, la fermentazione lattica non
parte perché fortemente inibita, mancando apporto di energia le cellule non possono contrarsi e muoiono, per questo si dice che il
muscolo cardiaco è un aerobio obbligato.
Il fatto che un isoenzima ne risenta più di un altro dipende, a sua volta, dalle subunità di cui è composto: l’inibizione è forte per la
subunità H invece per la M vale in maniera molto minore, infatti, il cuore non può fare fermentazione perché ha preponderanza di
LDH1 che è composto principalmente da H, mentre il muscolo scheletrico può fare fermentazione perché ha preponderanza di LDH5
che è composto principalmente da M.
Il polipeptide M e il polipeptide H hanno caratteristiche molto differenti l’uno dall’altro ed i biochimici hanno individuato una
conseguenza che ne deriva, riguardante la diversa capacità di utilizzare i substrati, che permette di fare dei saggi di attività
isoenzimatica molto più rapidi rispetto a quello che sarebbe il dosaggio degli isoenzimi fatto con elettroforesi, che richiede circa
due ore: tutti, da LDH1 a LDH5, hanno il 100% di attività se viene fornito piruvato e NADH, infatti questo è l’inizio della reazione di
rivelazione sulle strisce elettroforetiche, ma, se invece di fornire piruvato, insieme al NADH viene fornito α-chetobutirrato, un
chetoacido con un CH2 in più, si vedrà che l’LDH1, fatta da 4 subunità H, ha ancora il 92% di attività rispetto a quella che mostra con
il piruvato, mentre le altre, in particolare LDH4 e LDH5 con preponderanza di M, hanno una capacità di utilizzare questo substrato
scarsissima, quasi assente; questo vuol dire che le H si adattano al diverso substrato riuscendo a sfruttarlo mentre le M no.
I valori normali dell’α-idrossibutirrato deidrogenasi (α-HBDH), attività enzimatica, nel siero di un soggetto normale adulto sono
intorno a 55-140 unità/litro e variano con il variare dell’età, se si vuole chiarire l’evento di infarto del miocardio per escludere altre
patologie si andrà prima a misurare l’attività in presenza di piruvato, ottenendo un aumento di LDH, e si andrà poi a fornire il
substrato α-chetobutirrato per vedere l’aumento esclusivo di LDH1.
Isoenzimi della creatin kinasi
Le membrane mitocondriali sono impermeabili all’ATP, quindi, l’ATP prodotto
in seguito a fosforilazione ossidativa rimane bloccato nello spazio inter-
membrana (tra esterna ed interna) dove è presente anche la creatin kinasi
mitocondriale, essa si occuperà di trasferire il gruppo fosfato dall’ATP alla
creatina con produzione di creatin fosfato e liberazione di ADP. Quest’ultimo
tornerà nel mitocondrio e sarà nuovamente a disposizione della fosforilazione
ossidativa, mentre, creatin fosfato e creatina sono permeabili alla membrana
mitocondriale, quindi, il creatin fosfato si andrà a ritrovare nel citoplasma
dove sarà presente la creatin kinasi citoplasmatica che si occuperà di trasferire
il gruppo fosfato dalla creatin fosfato all’ADP con formazione di ATP che verrà
usato per tutte le reazioni delle cellule.
Per valutare la creatin kinasi in generale si utilizza la quantità specifica di 160 unità/litro misurata a 25° in presenza di n-acetil
cisteina, è necessario aggiungere questa molecola per mantenere un ambiente riducente dato che la creatin kinasi deve avere i
gruppi -SH ridotti.
Lo stato patologico risponde ad un eccesso di creatin kinasi il quale può derivare da tante situazioni differenti essendo un enzima
ubiquitario, per tanto tornano utili i suoi isoenzimi. Ne esistono diversi, citoplasmatici e mitocondriali, e si differenziano in tre
tipologie, MM, BB ed MB, dalle combinazioni dei due monomeri (subunità), uno detto M (subunità muscolare) e l’altro B (subunità
celebrale), che formano il dimero della struttura quaternaria dell’enzima. Poiché l’enzima serve a trasferire energia avrà una
distribuzione differente sulla base della necessità dei tessuti, le sedi in cui se ne ha maggiore quantità in quanto è richiesto un
considerevole apporto di energia sono, ad esempio, il muscolo cardiaco che possiede gli isoenzimi MM e MB con una percentuale
del 50 e 50 %, il muscolo scheletrico che possiede la forma MM preponderante al 96% e la restante parte di MB, ed infine, il cervello
dove gli isoenzimi sono posti nella forma esclusiva di BB al 100%. Altre sedi avranno quantitativi dell’enzima molto bassi per cui., in
un ipotetico stato patologico, non riuscirebbero ad alterare le proporzioni di attività del circolo sanguigno.
Curioso è il caso del cervello perché essendo posto sotto la barriera metencefalica nel siero non si osserverebbe nulla in risposta ad
un eventuale stato patologico, ma, in questi casi, torna utile il tratto gastrointestinale in quanto anch’esso ha un’elevata presenza
di isoenzima BB perché possiede il sistema nervoso enterico (potrebbe essere definito il nostro secondo cervello) che governa tutta
la peristalsi, ossia i movimenti per far camminare il materiale digerito lungo l’intestino fino alla formazione delle feci.
Oltre a queste creatin kinasi citoplasmatiche sono presenti le cosiddette macro creatin kinasi che sono di due diversi tipi: la prima
si ha in situazioni di patologie autoimmuni e di forma perchè l’isoenzima BB si associa a immunoglobuline in un immuno-complesso,
la seconda invece è composta da agglomerati di creatin kinasi mitocondriale e si ha al verificarsi di danni molto gravi.
Come tutti gli isoenzimi, anche questi possono essere studiati da un punto di vista elettroforetico: si
vedrà che BB è l’isoenzima più veloce e corrisponde al picco dell’albumina, MM è il più lento ed infatti
si ritrova nel picco delle γ-globuline e la forma MB è quella intermedia e la si ritrova nel picco delle
β-globuline. Nel siero di una persona che non presenta infarto del miocardio, poiché il muscolo
funziona correttamente, in elettroforesi si ritroverà solo l’isoenzima nella forma MM, se invece è in
atto la patologia non solo vi è un aumento di MM ma si assiste anche alla comparsa di MB.

48
Anche qui si tratta di un’elettroforesi che richiede tempi molto lunghi, per cui, per rendere le procedure più rapide, è stata inventata
la tecnica molto sofisticata degli anticorpi monoclonali. Si tratta di molecole di anticorpo che riescono a legare un singolo epitopo
di una proteina, ovvero, se si effettua l’immunizzazione di un animale con un antigene, esso produrrà tanti anticorpi differenti che
riconosceranno i diversi epitopi della proteina per lui estranei, mentre l’anticorpo monoclonale è un modo per produrre anticorpi
in modo tale che tra tutti quelli possibili nei confronti dell’antigene si possa prendere solo un epitopo.
Uno studio fatto in questo campo ha portato all’immunizzazione di
alcuni animali con la creatin kinasi umana ottenendo una libreria di
anticorpi monoclonali che riconoscono i diversi epitopi delle subunità
M e delle subunità B. In particolare, tra tutti gli anticorpi monoclonali
prodotti nei confronti della subunità M ne è stato trovato uno che
legandosi nelle prossimità del suo sito attivo lo blocca, si comporta
quindi da inibitore. Nel caso dell’isoenzima MM perde completamente
la sua funzionalità, nel caso dell’isoenzima MB perde la sua
funzionalità parzialmente in quanto la subunità B non viene inibita.
Si supponga di prendere il siero di una persona che non presenta patologie in atto e si misuri l’attività della creatin kinasi: in assenza
di anticorpo si registrerà un certo valore, in presenza di anticorpo ne rimarranno solo poche tracce. Se il soggetto ha avuto delle
patologie che non hanno a che fare con infarto del miocardio, il trattamento con anticorpo riporterà un’attività a livelli bassissimi
poiché l’MM è stato rilasciato nel circolo sanguigno, se invece il soggetto ha avuto l’infarto del miocardio presenterà sia MM che
MB, di conseguenza, l’attività di MM verrà bloccata dalla presenza di anticorpo mentre l’isoenzima MB resterà parzialmente attivo.
Studi epidemiologici hanno stabilito un valore soglia del 6%, nel senso che se
l’attività residua dopo il trattamento con anticorpo è superiore al 6% rispetto
a quello che era in assenza dell’anticorpo, con buona probabilità si tratta di
infarto del miocardio.
Inoltre, anche se è il caso di una patologia abbastanza complessa e grave,
quando compare, la macro-creatin kinasi (costituita dall’isoenzima BB)
restituisce un’attività residua maggiore del 35%, quindi, si parlerà di infarto al
miocardio in condizioni superiori al 6% ma inferiore al 35%.
Sono stati ottenuti buoni risultati, sempre con gli studi epidemiologici, per
tante altre patologie diverse dall’infarto del miocardio per andare a vedere
quale fosse la percentuale di attività residua dopo il trattamento di anticorpo
e tutte le patologie restituiscono, in presenza di aumenti dell’attività creatin
kinasica, un’attività residua minore del 6%.
Una situazione particolare riguarda le intossicazioni alimentari, dove, a volte,
si possono avere dei valori di attività residua di creatin kinasi superiori al 6%
che sono dovuti a compromissioni del sistema nervoso enterico, quindi, in
presenza dell’anticorpo si ha comunque un residuo di attività enzimatica.
Schema diagnostico dell’infarto del miocardio
L’attività enzimatica si basa sulla determinazione della
creatin kinasi e della lattico deidrogenasi. L’n acetil
cisteina, ossia l’agente riducente, farà sì che tutte le
molecole di creatin kinasi siano attive. Quindi, si effettua
la determinazione delle creatin kinasi e si possono
ottenere due diversi valori: un valore inferiore alla soglia
di 160u/l esclude l’infarto o ammette un infarto molto
recente, un valore superiore alla soglia di 160u/l allude
ad una patologia. Allora, si ricava il valore dell’isoenzima
MB, caratteristico del muscolo cardiaco, lo si dosa in
presenza dell’anticorpo e si effettua la determinazione
della creatin kinasi MB: con un valore minore al 6% è
possibile che si sia verificata una lesione della
muscolatura scheletrica o un infarto recente, con un
valore superiore al 6% si va a studiare il rapporto tra
l’attività della creatin kinasi e l’attività della glutammico
sarecenico transaminasi perché, insieme alla lattico
deidrogenasi, sono interessate nell’infarto del miocardio.
Se il rapporto tra questi due enzimi, escludendo
l’aumento dell’attività della glutammico per problemi
epatici, è maggiore di 10 l’infarto è poco probabile perché il tessuto muscolare scheletrico contiene grandi quantità di creatin kinasi
che potrebbe perdere, ad esempio, in caso di shock muscolare senza perdere contemporaneamente la glutammico saracenico
transaminasi (denominatore piccolo), se è minore di 10 è proprio il caso dell’infarto del miocardio.

49
LEZIONE DA 22/11/21 A 24/11/21

DOSAGGIO DE METABOLITI
La presenza e la quantità di enzimi nei liquidi biologici è un dato che permette di valutare l’eventuale stato di patologia di un tessuto,
ma, più a monte, ciò che funge da substrati per gli enzimi sono piccole molecole che prendono il nome di metaboliti.
La glicemia, cioè la quantità di glucosio nel sangue, è uno degli indicatori più importanti per valutare i livelli di metabolita nel sangue.
Fino agli anni ’70 il valore della glicemia veniva ricavato con la chimica organica basandosi sul potere riducente degli zuccheri, il
glucosio, infatti, ha una funzione aldeidica e chiaramente ha un potere riducente perché può ossidarsi ad acido gluconico. Questo
metodo era però altamente impreciso perché non escludeva che, insieme al glucosio, potessero ossidarsi altre sostanze presenti
nel circolo sanguigno rendendo il risultato del test fallace. Allora vennero introdotti i metodi colorimetrici in cui venivano usate
sostanze come l’α-toluidina che, reagendo con il glucosio, formano degli intermedi di reazione decadendo poi a base di Schiff la
quale assorbe radiazione elettromagnetica a 630 nm dando un colore verde e permettendo così di escludere le molecole diverse
dal glucosio. Tuttavia, l’α-toluidina è in grado di reagire anche con altri zuccheri analoghi al glucosio, come il galattosio, per cui,
anche in questo caso, le considerazioni finali non erano molto attendibili. Negli anni ’80 vennero infine introdotti i metodi enzimatici
con il grande vantaggio che la stragrande maggioranza degli enzimi ha un’elevata specificità al substrato escludendone gli analoghi,
per esempio, la glucosio ossidasi è in grado di ossidare il glucosio a gluconolattone con produzione di acqua ossigenata, ma non è
in grado di usare come substrato il galattosio, un suo stereoisomero. Tali risultati si ottennero anche perché in quegli anni i
biochimici avanzarono moltissimo nel campo delle materie di purificazione basate sulle tecniche di cromatografia, elettroforesi,
centrifugazione ecc… ottenendo così enzimi molto purificati sui quali era più facile lavorare.
Come si fa ad avere una valutazione precisa della quantità di metabolita?
Una strategia è il dosaggi a termine, ovvero, affinché si possa valutare la quantità di substrato presente nel campione si inserisce
una concentrazione di enzima tale da far si che tutto il substrato venga consumato e trasformato in prodotto.
[S]<< Km in questi saggi la concentrazione del metabolita da dosare è molto piccola rispetto alla Km (è praticamente l’inverso di
quando si fa la determinazione di quantità di enzima in cui ci si mette in condizioni di substrato saturante)
si può dimostrare con la biochimica che a queste condizioni la velocità della reazione sarà uguale a k = Vmax/Km
l’obiettivo è fare consumare tutto il substrato in un tempo
ragionevole, quindi, quanto enzima si deve inserire per far si che
il substrato venga consumato in X minuti? Vale questa relazione:

Per esempio, si vuole valutare la quantità di piruvato presente in una certa soluzione, per cui,
si fa eseguire la reazione tra NADH e lattico deidrogenasi, si aggiunge il piruvato e si ottiene
NAD+ e una certa quantità di acido lattico; il tutto è avvenuto in circa 5 minuti. Si osserva il
grafico dell’assorbanza: il NADH inizialmente è presente in quanto è stato inserito come
reagente e riporta un certo valore di assorbanza, ora, trovandosi in ambiente ossidante quale
è l’atmosfera tende leggermente a degradarsi con la conseguente diminuzione dell’assorbanza,
poi, nel momento in cui si aggiunge l’enzima viene convertito in NAD+ e l’assorbanza scende
ad un livello ancora più basso, il punto è che la trasformazione in NAD+ dipende dalla
concentrazione del piruvato, che è il substrato dell’enzima e viene trasformato in lattato, quindi
il salto di assorbanza misurerà esattamente la quantità di piruvato presente.
Si dice che la quantità dell’analita presente è data dalla relazione: C = ΔE V / ε d v n = μmol/ml
Con ΔE variazione di assorbanza, V volume della miscela di reazione, ε coefficiente di estinzione molare, v volume del campione, d
cammino ottico ed n stechiometria di reazione
a questo punto basterà fare un’equivalenza per ottenere la quantità di glucosio in mol/l
Questo metodo diretto è poco utilizzabile perché valido solo per determinare i substrati di deidrogenasi quindi la soluzione è di
accoppiare le reazioni: alla reazione indicatrice, quale può essere la deidrogenasi, si accoppia una reazione che, in seguito al
consumo dell’analita da dosare, produca un intermedio di reazione che possa funzionare da substrato della deidrogenasi.
Per esempio (A), si può usare l’esochinasi, l’enzima che per far partire la glicolisi fosforila il glucosio producendo il glucosio-6-fosfato,
sfruttando proprio quest’ultimo come intermedio che farà da substrato per la G6P deidrogenasi, quindi, si prepara una soluzione in
cui sono presenti ATP e NADPH, si aggiungono l’esochinasi e la G6P deidrogenasi e nel tempo si vedrà comparire assorbanza a 340

50
nm; le concentrazioni sono stimate per far si che tutto avvenga in 5 minuti. Dall’incremento di assorbanza a 340 nm si risale alla
quantità di glucosio perchè la quantità di NADPH prodotto dipende dalla quantità di G6P e questo dipende dal glucosio presente.
Un altro modo per costruire un sistema di reazioni accoppiate è utilizzando un’ossidasi, un enzima che riduce l’analita di interesse
ossidandosi e contemporaneamente producendo acqua ossigenata che diventa l’intermedio della seconda reazione. Nel dettaglio
(B): glucosio, ossigeno ed H2O in presenza della glucosio ossidasi producono acido gluconico ed acqua ossigenata, l’acqua ossigenata
reagendo con un indicatore (ABTS, sale di diammonio) in presenza di una perossidasi produce nuovamente acqua ed un composto
colorato. Quest’ultimo assorbe a 436 nm, a 578 nm ed a 610 nm e per essere dosato non richiede spettrofotometri uv ma semplici
colorimetri con reattivi poco concentrati. La perossidasi è fortemente specifica solo nei riguardi dell’acqua ossigenata mentre è
aspecifica per quanto riguarda il donatore di protoni che può essere indifferentemente un fenolo, un aminofenolo, ecc... .
A
B

Nel caso della misurazione dell’attività enzimatica è stato sottolineato il fatto che la reazione accoppiata (seconda) non debba essere
limitante per la prima, in questo caso invece non si hanno problemi di questo tipo perché anche se anche la seconda reazione fosse
limitante si arriverebbe comunque a calcolare il tempo necessario a consumare tutto il substrato, indipendentemente dalla velocità
con il quale lo si raggiunge.
Esistono poi altri sistemi per determinare la quantità dei metaboliti che meglio si applicano quando si ha a che fare con delle basse
concentrazioni di analita perché il modulo spettrofotometrico non va sotto al 10^-3 molare.
Si può usare la chemiluminescenza, infatti, esistono dei composti come il luminolo e la lucigenica che in presenza di acqua ossigenata
e di un catalizzatore, anche in questo caso una perossidasi, possono essere ossidati e durante il processo emettere fotoni.
Per esempio (C), l’acetilcolina è un neurotrasmettitore che viene usato dai neuroni colinergici che innervano le cellule muscolari ma
che sono presenti anche nel sistema nervoso centrale, si utilizza una serie di reazioni per cui l’acetilcolina in presenza di
acetilcolinesterasi produce acido acetico e colina, la colina è il substrato della colina ossidasi quindi viene ossidata producendo
acqua ossigenata, quest’ultima ossida il luminolo ad acido aminoftalico con produzione di luce. La quantità di luce dipende dalla
quantità di acqua ossigenata prodotta, questa dipende dalla quantità di colina che a sua volta dipende dalla quantità di acetilcolina
presente ed andando ad esaminare la molecolarità della reazione, per ogni colina si ottengono 2 molecole di acqua ossigenata
quindi la quantità di luce prodotta in realtà sarà doppia rispetto a quella dell’acetilcolina presente.
Prima della chemioluminescenza veniva utilizzata la bioluminescenza: l’enzima luciferasi veniva estratto dalle lucciole ed in presenza
di luciferina, anche questa di origine biologica, di ATP e ossigeno, produceva ossiluciferina, AMP, difosfato e luce (D). Con questo
sistema si può dosare l’ATP che proporzionalmente ad un estratto cellulare è una molecola piccola e, se ci sono delle reazioni che
producono ATP a monte di questa, si può dosare la molecola di interesse, basta avere come intermedio di reazione l’ATP.
Oltre la luciferasi della lucciola esiste quella di alcuni batteri marini che sono soliti illuminare la superficie del mare di notte, questa
luciferasi non catalizza la reazione a partire dalla luciferina ma necessita di flavin mononucleotide ridotto FMNH2, un coenzima
flavinico che, in presenza di ossigeno e di un'aldeide alifatica con una catena sufficientemente lunga di almeno 8 atomi di C, produce
flavin mononucleotide ossidato FMN, la forma ossidata dell’aldeide e luce (E). In questo caso l’intermedio di reazione è il flavin
mononucleotide ridotto e, per esempio, una reazione che produce questo intermedio utilizza NADH ed è catalizzata da
un’ossidoreduttasi (F), con questo accoppiamento si può dosare il NAD presente nella cellula.
Oppure, si può accoppiare un’altra reazione che permetterà invece di dosare il malato, in cui la malato deidrogenasi utilizza malato
in presenza di NAD+ producendo ossalacetato e NADH che diventa substrato dell’ossidoreduttasi (G).
C D

E
F

Nel grafico è mostrato l’andamento dell’emissione luminosa nel corso di una reazione
luminescente o bioluminescente: all’inizio c’è un flash di luce molto grande ed a mano a
mano che passa il tempo si assiste ad un decadimento.
Tutto questo non è percepibile ad occhio nudo ma viene rivelato da uno strumento che
per un certo periodo di tempo misura la quantità di luce prodotta restituendo un numero
in unità arbitraria che corrisponde alla superficie al di sotto della curva di emissione (non
in numero di fotoni), tale valore verrà messo a paragone con una retta di taratura per
estrapolare la quantità di luce esatta. Questo strumento è molto semplice e si chiama
luminometro: possiede una cuvetta/camera di mescolamento a tenuta stagna di luce,
ovvero dove non può arrivare luce dall’esterno in nessun modo, dove con delle siringhe
viene iniettato il volume della soluzione tampone con i vari componenti da analizzare, a
questo punto partono le reazioni enzimatiche e si produce luce che, mediante una finestra, verrà misurata da un tubo
fotomoltiplicatore. Si procederà con il confronto con la retta di taratura e si otterrà il dato di interesse.
51
Un’altra strategia di interesse diagnostico per il dosaggio di analiti è il sistema dei biosensori. È usato soprattutto nell’analisi del
livello di glucosio nel sangue che deve essere controllato accuratamente in quanto le alterazioni potrebbero essere molto pericolose
per la salute, il glucosio, infatti, quando presente in quantità eccessive può andare incontro a reazioni non enzimatiche con alcune
sostanze essendo capace di glicosilare le proteine, tali proteine glicosilate non funzioneranno bene. Un esempio può essere quando
la funzionalità del glomerulo si altera nei sogetti con patologie diabetiche proprio perché il glucosio, reagendo con le proteine della
membrana basale in cui si trova a concentrazioni troppo elevate, la altera cambiandone le caratteristiche elettriche alla base del
fenomeno della filtrazione.
Nei soggetti diabetici, per questi motivi, si eseguono sistematicamente dei controlli del dosaggio della glicemia, ed un metodo messo
a punto per rendere più semplice la vita di queste persone, consentendo un’autodiagnosi, si basa su una striscia reattiva dove sono
immobilizzati tutti i substrati necessari per una rapida ma corretta analisi di un piccolissimo prelievo di sangue ricavato da una
puntura sul dito. Sulla striscia si ha la reazione catalizzata dalla glucosio ossidasi, per cui si forma l’acqua ossigenata che in presenza
della perossidasi determina la formazione di un composto colorato e la quantità di assorbanza viene automaticamnete letta da un
microspettrofotometro rilasciando il valore della glicemia.
La persona diabetica in questo modo si controlla ed in base al valore ottenuto potrà decidere di fare un'iniezione di insulina.
L'insulina elimina dal circolo sanguigno il glucosio cosicché possa entrare ad essere assorbito dalle cellule, essa comunemente viene
prodotta per stimolazione delle cellule b delle isole del Langerhans per assorbire il carico di glucosio che arriva con la dieta,
dopodiche viene degradata.
L’uso dei biosensori è ancora in fase di sperimentazione ma è estremamente innovativo perché permette di misurare la
concentrazione della sostanza in tempo continuo.
Consiste in un enzima purificato immobilizzato su una membrana, nel caso del
glucosio sono la glucosio ossidasi e la perossidasi, direttamente inserita nel circolo
sanguigno dove potrà percepire il glucosio nel tempo. Il segnale viene trasdotto ad un
sistema registratore al di fuori dal circolo e collegato ad una pompa riempita di
insulina che verrà modulata per pompare in circola l’insulina quando necessaria. I
sistemi di trasduzione del segnale possono essere diversi ma sono sempre accoppiati
a sistemi di amplificazione che producono corrente che è in grado di pilotare la pompa.
Purtroppo il problema di questi enzimi immobilizzati è che non hanno stabilità del
tempo ma solo per poche settimane.

METABOLISMO DEL GLUCOSIO


Nei soggetti normali il valore della glicemia oscilla tra i 70-
100 mg/100mL di siero; questi valori sono stati calcolati
con il metodo dell’esochinasi ma si ottengono risultati
analoghi anche utilizzando la glucosio ossidasi. Uscendo
da questo intervallo si incorre in gravi stati patologici ed è
intuitivo comprendere che se il valore è minore si ha una
quantità di glucosio insufficiente per mantenere la
corretta produzione di energia necessaria all’organismo.
La condizione in cui c’è un apporto corretto di glucosio
basandosi sulla dieta è chiamata normoglicemia, la
quantità di glucosio viene mantenuta nell’intervallo
normale di concentrazione tramite specifici meccanismi,
sia dentro che fuori la cellula, così il passaggio di glucosio
dal sangue ai tessuti è ben funzionante ed analogamente
anche la sua uscita.
Questo glucosio che va ad accomularsi nelle cellule viene
principalmente utilizzato nella via degradativa della
glicolisi: una volta fosforilato a glucosio6P viene
degradato con produzione di piruvato, il piruvato viene
poi ridotto ad acetil-CoA, viene condensato
sull’ossalacetato e a questo punto si avvia il ciclo di Krebs
con produzione di coenzimi flaminici e piridinici ridotti che
verranno riossidati all’interno del mitocondrio con
produzione di ATP. Questo ATP viene trasferito all’esterno
sottoforma di creatinfosfato con la cooperazione della
creatinchinasi, per poi essere nuovamente convertito in
ATP grazie alla presenza di ADP nel citoplasma.
Il glucosio6P viene sintetizzato con la gluconeogenesi a
partire da amminoacidi introdotti con la dieta o derivati
dalla degradazione delle proteine. In condizioni di
corretto apporto di glucosio non è necessaria
52
gluconeogenesi perché parte del glucosio6P che non va in glicolisi viene direttamente utilizzato per sintetizzare glicogeno che
rappresenta la riserva di glucosio per l’organismo e che potrà essere utilizzato quando c’è una carenza da parte della dieta.
Per quanto riguarda il metabolismo degli acidi grassi in un normoglicemico, con l’introduzione mediante la dieta di acidi grassi,
questi vengono accumulati dentro depositi lipidici, può essercene una degradazione attraverso la via della beta ossidazione con
produzione di acetil-CoA ma molto più frequentemente la beta ossidazione viene attivata per produrre colesterolo che è alla base
di molte vitamine e ormoni.
Cosa succede ad un soggetto diabetico?
Iperglicemia
La possibilità del glucosio di entrare dentro le cellule è ridotta perché le cellule non sono in grado di assorbirlo, ad esempio per
mancanza di insulina, mentre il passaggio verso il sangue non è alterato.
Il poco glucosio prodotto potrebbe essere trasformato in glucosio6P ed entrare nella via glicolitica ma a queste condizioni è una
strategia poco sfruttata, piuttosto, per produrre energia l’organismo degrada (idrolizza) il glicogeno a disposizione producendo
glucosio1P che poi viene trasformato in glucosio6P a disposizione della glicolisi. Quando il glicogeno termina ci si rivolge alla
gluconeogenesi, cioè viene sintetizzato glucosio a partire dagli amminoacidi della dieta oppure per depauperazione delle proteine
dell’organismo. Tutto ciò continua ad essere insufficiente e l’organismo richiede altra energia ricavabile dalla beta ossidazione che
porterà alla formazione di aceti-CoA da inviare al ciclo di Krebs.
Sebbene si tenti in maniera massiccia di produrre energia la quantità di acetil-CoA non può essere completamente utilizzata per il
ciclo di Krebs, una parte è impiegata nella produzione dei cosiddetti corpi chetonici, l’acido acetoacetico, l’acido betaidrossibutirrico
e l’acetone. Queste molecole essendo acide abbassano il pH dei tessuti portando, nel caso si accumulino esageratamente, ad
un’acidificazione dei liquidi biologici ed è questo il motivo per cui un soggetto affetto da diabete non controllato, che non potendo
utilizzare il glucosio si rivolge fortemente a questa via metabolica, viene condotto a morte.
Ipoglicemia
Nei soggetti che tendono a digiunare causa anoressia o che hanno un’alimentazione scorretta la concentrazione del glucosio
all’esterno delle cellule è bassa e, di conseguenza, anche quella all’interno. Ciò che succede al livello del metabolismo è esattamente
quello che succede nei casi di iperglicemia, perché, di fatto, il glucosio non viene introdotto nelle cellule e quindi la glicolisi e il ciclo
dei Krebs non funzionano, il glicogeno allora viene degradato per formare glucosio6P grazie alla gluconeogenesi ma ciò non è ancora
sufficiente per cui ci si rivolge alla beta ossidazione che però porta alla produzione di acetil-CoA che finisce in gran parte impiegato
nella produzione dei corpi chetonici che acidificano i tessuti.
Classificazione delle patologie
Per quanto riguarda le situazioni di iperglicemia si distinguono:
• diabete mellito primario che può essere
- Insulino-dipendente (IDDM) o di tipo 1, cioè il soggetto può essere controllato con somministrazioni esogene di insulina
- Non insulino-dipendente (NIDDM) o di tipo 2 a varietà obesa o a varietà non obesa, cioè il soggetto non può essere
controllato con somministrazioni esogene di insulina
• diabete secondario o di tipo 3 che può derivare da
- malattie pancreatiche quali pancreatiti acute o croniche, emocromatosi, neoplasie destruenti il pancreas,
pancreasectomia, fibrosi cistica al pancreas
- endocrinopatie quali acromegalia, ipertiroidiscmo, feocromocitoma, iperaldosteronismo, iperfunzione delle cellule
alfa insulari
- farmaci quali corticosteroidi, contraccettivi, diuretici, diazossido, feni-idantoina
- sindromi genetiche che possono contrastare l’azione dell’insulina
- anormalità recettoriali per l’insulina per le quali l’insulina viene perfettamente prodotta alle giuste quantità ma non
funziona il suo recettore che quindi non la riconosce per cui è come se non ci fosse
• ridotta tolleranza al glucosio, riguarda soggetti che se osservati a digiuno hanno una glicemia normale, ma, se osservati
dopo un aumento di glucosio introdotto con la dieta, impiegano più tempo rispetto ad un soggetto con una fisiologia
corretta ad assorbirlo nel circolo sanguigno, sono estremamente difficili da individuare e sono i più interessanti dal punto
di vista della prevenzione perché questi potrebbero facilmente sviluppare un diabete mellito
• diabete gestazionale, si riscontra in soggetti che in gravidanza tendono ad avere una glicemia più alta del normale e che al
termine della gravidanza continuano a mantenere tale situazione, può tramutare in diabete mellito
• precedente anormalità della tolleranza al glucosio (prec AGT)
Per quanto riguarda le situazioni di ipoglicemia si distinguono in:
• esogene quando derivano da qualcosa che è all’esterno dell’organismo, ad esempio, abuso di alcol, digiuno prolungato,
iperattività muscolare, assunzione di insulina o di ipoglicemizzanti orali
• endogene quando derivano da
- difetto di fattori antiinsulari di corticoidi glicoattivi, somatrotopo o glucagone
- perdite renali per diabete renale
- malassorbimento
- difetto o inibizione di produzione endogena per epatopatie parenchimali, glicogenosi, galattosemia o intolleranza
congenita al fruttosio
- eccesso di insulinao sostanze insulino simili per tumori o iperplasie insulari, tumori mesenchimali, epatomi o
ipoglicemie reattive
53
Come possono essere individuate le cause di queste situazioni?
Normalmente, le analisi del sangue vengono eseguite a digiuno, in questo modo se il soggetto ha problemi dal punto di vista
dell’assorbimento del glucosio, cioè è diabetico, si ritroverà ad avere una glicemia superiore ai livelli normali anche a digiuno, se,
invece, ha una ridotta tolleranza al glucosio, cioè è potenzialmente diabetico, a digiuno non si riscontrerà alcuna alterazione e per
individuarlo sarà necessario usare le curve da carico.
Queste curve si costruiscono eseguendo prima un prelievo di
sangue a digiuno e successivamente, dopo aver fatto ingerire al
soggetto una quantità precisa di glucosio di circa 10g ogni 10kg di
peso corporeo, altri prelievi a distanza di intervalli di tempo diversi,
dopo 30, 60, 90, 120 e 150 minuti (test dimanico).
In un soggetto normale ( ) a digiuno si ottiene un valore
all’interno dell’intervallo corretto che, dopo 30 minuti, aumenta
oltre i 100 pur rimanendo sempre al di sotto della soglia renale,
stimata a 180 mg/100 mL di siero, ovvero la quantità massima di
glucosio che può passare attraverso il glomerulo del rene ed essere
riassorbita a livello dei tubuli. Inoltre, dopo 60 minuti la glicemia
inizia a ritornare verso valori normali, questo perché il carico di
glucosio ha stimolato le cellule beta del Langerhans che hanno
prodotto insulina che stimola il riassorbimento, addirittura dopo
120 minuti si osserva un valore inferiore al valore misurato a
digiuno per via di una sovrapproduzione di insulina, ed infine, dopo
150 minuti, il valore risale fino a rientrare nell’intervallo normale.
In un soggetto affetto da diabete mellito (•) a digiuno il valore registrato è già superiore all’intervallo di riferimento e dopo
l’assunzione di glucosio rapidamente aumenta fino a superare entro i 30 minuti la soglia renale, a 90 minuti la situazione si stabilizza
e molto lentamente il valore inizia a diminuire pur rimanendo comunque sempre oltre la soglia renale.
Nel caso del diabete lieve (o) si parte da un valore normale, dopo 30 minuti si supera la soglia renale e poi lentamente la glicemia si
abbassa rientrando entro la soglia nei 120 minuti, mentre, nel caso della ridotta tolleranza al glucosio ( nero) si parte sempre da
un valore normale che dopo 30 minuti supera la soglia renale ma, stavolta, diminuisce abbastanza rapidamente tornando sotto la
soglia pur non raggiungendo, nei 60 minuti, l’intervallo modello che sarà raggiunto molto lentamente nelle ore successive.
Infine, nel grafico è presente anche la cosiddetta “curva piatta” (stelline) a descrivere la situazione di un soggetto affetto da sindrome
da malassorbimento.
Alcune volte può essere necessario realizzare la curva da doppio carico, essa consiste in
una prima misurazione a digiuno alla quale seguono altre due misurazioni realizzate dopo
un primo carico di glucosio successivo al primo prelievo e dopo un secondo carico di
glucosio a 90 minuti dal primo.
Nel caso di un soggetto normale, al secondo carico di glucosio la glicemia raggiunge dei
valori massimi ma inferiori rispetto a quelli massimi misurati dopo il primo carico, questo
accade perché viene prodotta una quantità di insulina maggiore rispetto a quella
stechiometricamente necessaria per assorbire il primo carico, quindi nella seconda fase
è già presente quella in eccesso della prima.
Nel soggetto diabetico il secondo carico crea problemi ancor maggiori rispetto al primo,
lo stesso accade nel soggetto con ridotta tolleranza al glucosio.
Sempre su questi prelievi di sangue fatti a digiuno ed a 30, 60, 90, 120 e 150 minuti si può eseguire anche una valutazione della
produzione di insulina.
In un soggetto normale (stelline) inizialmente si ha un livello molto
basso di insulina in quanto a digiuno non è necessaria, a 30 minuti dalla
somministrazione del glucosio la concentrazione di insulina aumenta e
continua ad aumentare anche a 60 minuti, si ha infatti una
sovrabbondanza rispetto al necessario, dopo circa 2/3 ore la quantità
diminuisce rapidamente e si ritorna ai valori osservati a digiuno.
Nel caso di diabete mellito di tipo secondario si osserva la stessa curva
di un soggetto normale perché di fatto l’insulina c’è, in quanto viene
prodotta, ma poi non riesce a far assorbire il carico di glucosio o per un
problema a livello recettoriale oppure per un’iperproduzione di ormoni
che ne contrastano l’azione. Nel caso, invece, di diabete mellito di tipo
primario (fiori), in seguito al carico di glucosio la concentrazione di
insulina non aumenta e questo significa che qualcosa non sta
funzionando a livello delle cellule beta delle isole di Langerhans, per cui
la stimolazione indotta dal glucosio è inefficace.

54
Si possono realizzare anche altri tipi di curve di carico basate sulla misurazione della glicemia fornendo insulina piuttosto di glucosio.
Nei soggetti normali quando viene fornita insulina a digiuno la glicemia scende
rapidamente, a volte anche leggermente sotto i minimi livelli di riferimento, per
poi risalire tornando ai livelli normali.
Nei soggetti iperglicemici, quindi con ipersensibilità all’insulina, a digiuno i livelli
sono ovviamente al di sopra dei valori normali di riferimento e, fornendo
insulina, diminuiscono fino ad arrivare ad un valore minimo, tuttavia, una volta
che l’insulina è stata consumata, tornano ad essere elevati.
Infine, nei soggetti insulina-resistenti la glicemia è molto superiore ai livelli
normali ed anche se sottoposti a insulina esogena rimangono pressoché invariati,
le cause sono diverse, probabilmente si tratta di un’insulina resa inattiva ed
inefficace per un eccesso di fattori di contrasto o per problemi di recettori.
Queste curve servono anche per dare indicazioni sul tipo di terapia, infatti, permettono di capire quante somministrazioni di insulina
sono necessarie al paziente prima di recuperare in certo andamento.
***
È stato detto che il soggetto diabetico si rivolge alla beta-ossidazione. La beta-ossidazione è un insieme di reazioni in cui si parte da
un acido grasso con una coda idrocarburica e si ottengono molecole di acetil-CoA staccando due atomi di carbonio terminali
dell’acido grasso. Oltre all’acetil-CoA vengono prodotte molecole di FADH2 e NADH, queste vengono riossidate a livello della catena
dei citocromi nei mitocondri e li porteranno alla produzione di energia sotto forma creatin fosfato e poi di ATP a livello del citoplasma.
L’acetil-CoA prodotto può entrare, come previsto dalla situazione fisiologica, nel ciclo di Krebs dove viene condensato
sull’ossalacetato a formare il citrato e, poiché il ciclo di Krebs termina con produzione di ossalacetato, si può immaginare che l’acetil-
CoA sia stato consumato. Questo è sbagliato.
L’ossalacetato che sembrerebbe essere riprodotto alla fine del ciclo di Krebs in realtà è una molecola piuttosto instabile, ossia si
degrada facilmente, quindi, non ce n’è in quantità sufficiente ad utilizzare tutto l’acetil-CoA prodotto dalla beta-ossidazione.
Fisiologicamente le cose funzionano perché esiste un enzima di tipo carbossilasi che, servendosi del coenzima biotina, utilizza
piruvato ed è in grado di trasferire su questo un gruppo acido per formare l’ossalacetato. Quindi normalmente, un po’ di piruvato
prodotto alla fine della glicolisi, invece che essere utilizzato per produrre l’acetil-CoA destinato al ciclo di Krebs, viene utilizzato per
produrre dell’ossalacetato, lo stesso ossalacetato che si è degradato spontaneamente e che quindi non era più disponibile per fare
condensazione con l’acetil-CoA e produrre citrato.
Il piruvato proviene dal glucosio tramite glicolisi ed ecco che si incorre nelle conseguenze della patologia, perché, se nei soggetti
diabetici non c’è glucosio non ci potrà essere neanche piruvato e di conseguenza non si potrà ripristinare la quantità sufficiente di
ossalacetato per far funzionare il ciclo di Krebs. Se anche il piruvato fosse prodotto grazie alle transaminasi a partire dall’acido
aspartico si avrebbe depauperamento delle proteine che da una parte vengono degradate per ottenere amminoacidi con cui fare
gluconeogenesi e dall’altra si utilizzano amminoacidi per produrre piruvato che serve per ossalacetare.
In conclusione, si può dire che nel momento in cui si ha un mancato apporto di piruvato con la glicolisi, il ciclo di Krebs non funziona
correttamente e solo una quantità ridotta di acetil-CoA potrà entrare nel ciclo.
La restante parte di acetil-CoA finisce nella produzione di corpi chetonici. Si tratta di un insieme di reazioni a catena che partono da
due molecole di acetil-CoA ed arrivano alla produzione di acido acetoacetico. Dall’acido acetoacetico, per decarbossilazione
spontanea si produce acetone, in alternativa, per decarbossilazione enzimatica si produce acido beta-idrossibutirrico.
Normalmente queste molecole sono presenti in concentrazioni estremamente limitate ma, nei soggetti con patologia si accumulano
portando all’acidificazione dei tessuti che ne determina anche il caratteristico odore acido dell’alito e delle urine.
L’acido acetoacetico e l’acido beta-idrossidibutirrico sono sostanze molto piccole che attraversano il glomerulo e arrivano nelle
urine ed un modo per controllarne la produzione è infatti una semplice analisi delle urine con cartine reattive, cartine in grado di
cambiare colore a seconda dei livelli dei corpi chetonici. Da questo punto di vista però c’è un problema perché queste cartine sono
molto sensibili alla presenza di acido acetoacetico e poco sensibili alla presenza di acido beta-idrossibutirrico, per cui, se si trova
una molecola di acido acetoacetico se ne ritroveranno 3 di acido beta-idrossibutirrico, ma, al peggiorare dello stato patologico,
poiché viene prodotto sempre più acido acetoacetico, una molecola corrisponderà a 30 di beta-idrossidibutirrico. In definitiva si
può dire che l’accumulo di acetil-CoA non è seguito da accumulo di acido acetoacetico, bensì da quello di acido beta idrossibutirrico,
ma le cartine continueranno a rispondere sempre meglio all’acido acetoacetico, per cui, si osserverà un apparente miglioramento
della situazione, cosa che non è affatto vera.
Si può correggere in qualche modo la patologia con presidi farmacologici, di trattamento, alimentazione e somministrazione di
insulina e quindi tentare di portare indietro la situazione. “Portare indietro la situazione” vuol dire diminuire la produzione di acetil-
CoA, che entra finalmente nel ciclo di Krebs, e quindi diminuisce la produzione di acido acetoacetico. Diminuendo la concentrazione
di acido acetoacetico, la beta-idrossibutirratodeidrogenasi, che può catalizzare la reazione nei due sensi, utilizza l’accumulo di acido
beta-idrossidibutirrico trasformandolo in acetoacetico, nelle cartine se ne vedrà quindi un aumento. La patologia sta di fatto
migliorando.

55
Questo test può essere definito paradossale per via del comportamento delle cartine, un test che invece mostra una situazione più
reale si basa sul dosaggio del substrato: si utilizza l’enzima beta-idrossibutirricodeidrogenasi per dosare la quantità di acido beta-
idrossibutirrico. Il beta-idrossibutirrico, in presenza di NAD+ e dell’enzima, produce acido acetoacetico e NADH, quindi, alla
comparsa di assorbanza a 340 nm si può risalire alla concentrazione di acido idrossibutirrico, se la patologia peggiora con
conseguente accumulo di acido idrossidibutirrico si avrà una maggiore assorbanza a 340nm, se la patologia migliora, per cui
l’idrossibutirrico viene trasformato in acido acetoacetico, la sua concentrazione diminuirà e quindi diminuirà anche l’assorbanza.

Il glucosio è una molecola che può essere trasformata rapidamente in zuccheri, come il fruttosio, ed andare a determinare la
glicosilazione di molecole proteiche che possono essere presenti, ad esempio, nel nervo, nel cristallino, nelle vescicole seminali,
nell’umor vitreo, nella membrana basale. Tutti questi meccanismi sono indipendenti dalle attività enzimatiche, l’insulina non centra
nulla in questo, dipende tutto solo dalla concentrazione di glucosio libero nell’organismo.
Quello che accade, per esempio, nella membrana basale è che il glucosio, legandosi alle proteine di membrana, ne altera le
caratteristiche, cosa che si ripercuote sulla funzionalità, in particolare sulla filtrazione, a livello renale.
Il glucosio può determinare anche la glicosilazione dell’emoglobina. L’emoglobina è presente all’interno dei globuli rossi mentre il
glucosio sta all’esterno, tuttavia, per entrare nelle cellule epatiche, nervose o muscolari, ha bisogno di insulina, mentre per entrare
nei globuli rossi non la richiede, passa per filtrazione, per cui, in condizioni normali, la concentrazione di glucosio all’interno dei
globuli rossi rimane in equilibrio costante con la concentrazione all’esterno, ma, se la concentrazione all’esterno sale, aumenta
anche la concentrazione di glucosio interna. Quando il soggetto ha una ridotta tolleranza al glucosio, cioè impiega più tempo ad
assorbirlo all’interno delle cellule, la sua concentrazione all’interno del sangue rimane elevata per tempi più lunghi e, poiché è
capace di glicosilare, si ritroverà più emoglobina glicosilata rispetto a quella di un soggetto normale.
Andare a dosare i livelli di emoglobina glicosilata all’interno dei globuli rossi diventa quindi un test dinamico molto interessante: si
sa che i globuli rossi hanno una vita media di 120 giorni, per cui, si va a vedere ciò che è successo in 120 giorni ai livelli di glucosio
nel sangue, si vanno a vedere i livelli di emoglobina glicosilata all’interno dei globuli e si estrapolano informazioni sulla capacità del
soggetto di assorbire il glucosio.
Per glicosilare l’emoglobina si parte dalla sua catena
beta che presenta un NH2 terminale, il glucosio reagisce
con l’NH2 terminale formando un composto intermedio
che poi si stabilizza nella forma di chetoamina in cui si
ha legame tra glucosio-emoglobina.
Da un punto di vista elettroforetico si può separare
l’emoglobina normale, Hb, dall’emoglobina glicosilata
che avrà una mobilità elettroforetica differente.

56
LEZIONE DA 29/12/21 A 15/12/2021

PRODUZIONE DI ANTICORPI
Gli anticorpi vengono usati per fare determinazione di sostanze interessanti dal punto di vista diagnostico, nella maggior parte dei
casi si tratta di proteine, marcatori, ma possono anche essere piccole molecole come ormoni steroidei.
La risposta immunitaria può essere di due tipi:
- cellulare, cioè mediata da cellule
- umorale, cioè mediata da proteine solubili che vengono secrete nei fluidi corporei e che sono proprio gli anticorpi, in
particolare, questi, vengono secreti nel circolo sanguigno e quindi sono circolanti nell’organismo
Per quanto riguarda la produzione di anticorpi dal punto di vista di utilizzatori, cioè chi li usa per dosare altre molecole, si possono
distinguere due strategie:
o produrre anticorpi policlonali o antisieri, a partire dalle plasmacellule, cellule derivanti dai linfociti B che hanno raggiunto
lo stato di maturazione terminale; si tratta di realizzare un insieme di anticorpi differenti che possono essere sfruttati
contemporaneamente per riconoscere i diversi epitopi dell’antigene ed immunizzare nei confronti di esso, si tratta quindi
di una preparazione eterogenea
o produrre anticorpi monoclonali, a partire da un solo clone cellulare; si tratta quindi di reagenti specifici,
proteine/immunoglobuline che riconoscono lo stesso determinante antigenico sull’antigene.
Produzione di anticorpi policlonali (antisieri)
Dal punto di vista della capacità immunologica anticorpi policlonali e antisieri sono esattamente la
stessa cosa, la sottile differenza tra i due è che l’antisiero è tutto il siero di animale immunizzato, cioè
un liquido che oltre gli anticorpi contiene anche le altre proteine del siero tipo l’albumina, eliminando
albumina e globuline e tenendo le immunoglobuline si avrà l’anticorpo policlonale.
Un antigene è una molecola complessa con diversi epitopi, questo perché la proteina ha centinaia di
aminoacidi ed un singolo determinante antigenico ne copre al massimo 6. I determinanti differiscono
da animale ad animale, nel senso che l’albumina umana iniettata nel coniglio o nel topo induce
stimolazioni dei sistemi immunitari diverse, questo perché i vari sistemi immunitari riconoscono certi
epitopi mentre altri no, quindi, la presenza di determinanti antigenici sull’antigene non è univoca ma
dipende dall’animale nel quale si inietta quell’antigene.
Reagendo in maniera diversa per un medesimo antigene, specie diverse producono combinazioni di
anticorpi differenti e quindi anticorpi policlonali differenti per quello stesso antigene. La specificità di
un antisiero dipende dal sistema immunitario che è stato stimolato per produrre tali anticorpi.
Se nel topo si inietta come antigene la transferrina umana, esso la riconosce come estranea perché
di fatto la sequenza amminoacidica della transferrina umana e di quella del topo sono diverse, quindi,
per ciascun determinante antigenico della transferrina viene attivato uno specifico clone linfocitario
che si legherà a livello dell’epitopo. Questo legame la stimola inizialmente a moltiplicarsi e poi a
maturare in plasmacellule, queste saranno in grado di produrre gli anticorpi. Si otterrà l’antisiero del
topo che sarà costituito da tutte le proteine del suo siero, i suoi anticorpi e gli anticorpi che
riconoscono i determinanti antigenici della transferrina umana.
È importante porre attenzione al fatto che ci siano ancora gli anticorpi propri dell’animale, infatti, per passare al policlonale prima
andrà eliminato tutto ciò che non è anticorpo ed, in teoria, poi andrebbero eliminati anche gli anticorpi dell’animale per isolare solo
quelli prodotti in seguito all’immunizzazione, ma nella pratica, spesso, quest’ultimo passaggio non è necessario perché avendo
stimolato il sistema immunitario la quantità di anticorpi che riconoscono l’antigene risulta nettamente superiore a quella degli
anticorpi dell’animale, che perciò la maggio parte delle volte non danno alcun fastidio.
I linfociti B derivano da cellule precursori che si trovano nel midollo
osseo, queste possono differenziare anche in linfociti T o globuli rossi,
dipende tutto dalla via differenziativa intrapresa.
I linfociti B hanno la caratteristica di esporre sulla loro superficie dei
recettori che sono in grado di riconoscere non l’antigene in toto, ma
solo un suo epitopo, questo perché si parla di un antigene proteico
quindi multivalente, cioè con tante valenze differenti. Per capire: se
l’antigene possedesse un solo determinante antigenico, cioè un solo
epitopo, verrebbe attivata la determinata linea linfocitaria che
riconosce quell’epitopo, poiché in realtà ne possiede molti viene
attivata solo la linea linfocitaria che riconosce quello di interesse.
Questa viene indotta a moltiplicarsi ed a differenziare in maniera
terminale in plasmacellule, le cellule effettrici che produrranno gli
anticorpi che verranno secreti all’esterno nel circolo sanguigno.

57
Il punto è che ci sono dei linfociti B preformati con una loro specificità -definiti immunocompetenti- e solo quelli che riconoscono il
determinante antigenico sull’antigene sono indotti a replicarsi.
Come è stato dimostrato ciò?
Si prenda un topo e lo immunizzi con un determinato antigene, ad esempio,
la transferrina, il suo sistema immunitario produrrà anticorpi nei confronti
della transferrina; l’idea è che ci siano dei linfociti preformati circolanti in
grado di riconoscere i determinanti antigenici della transferrina quindi
moltiplicarsi e produrre anticorpi transferrina.
Adesso, da questo animale si prelevano i linfociti della milza e si prepara una
colonna di cromatografia per affinità sfruttando una resina con attaccata la
transferrina umana. Passando i linfociti della milza su questa colonna
cromatografica, se i linfociti fossero davvero cellule immunocompetenti che
riconoscono a priori i determinanti antigenici, dovrebbe succedere che i
linfociti che riconoscono la transferrina si legano alla colona cromatografica
mentre tutti gli altri linfociti passano attraverso.
Tutti questi altri evidentemente non riconoscono la transferrina ma
riconoscerebbero qualcos’altro.
Si prenda ora un topo dello stesso ceppo trattato con radiazioni per uccidere
il suo sistema immunitario, se gli venissero iniettati i linfociti che hanno
attraversato la colonna, cioè quelli che non riconoscono la transferrina, ed
esso riacquisterebbe la capacità di dare una risposta immunitaria nei
confronti di un antigene diverso dalla transferrina, questa sarebbe la
dimostrazione della ipotesi avanzata. È esattamente ciò che avviene.
È stato detto che a partire da cellule staminali ematopoietiche indifferenziate
presenti nel midollo osseo si ottengono tutti gli elementi figurativi del sangue,
ma ora è importante soffermarsi sulla differenza tra linfociti B e T: i linfociti T
vengono prodotti come precursori invece i linfociti B come cellule mature.
Ciò vuol dire che il linfocita B che esce dal midollo è già immunocompetente, mentre, il precursore del linfocita T non è ancora in
grado di riconoscere l’antigene, per diventare immunocompetente deve passare attraverso organi linfoidi secondari, in particolare
attraverso il timo, dove maturerà ulteriormente e sarà in grado di riconoscere l’epitopo. Questo, in realtà, succede solo nei
mammiferi, negli uccelli, ad esempio, non è così perché il linfocita B che esce dal midollo per diventare immunocompetente deve
entrare in un organo linfoide, la borsa di Fabrizio, che i mammiferi non hanno.
Il linfocita B immunocompetente viaggia ora nell’organismo attraverso la
circolazione sanguigna e linfatica e può venire in contatto con l’antigene,
riconosce l’epitopo e gli si lega mediante i suoi recettori di superficie, ed
a questo punto si dice che viene indotta la trasformazione blastica che
consiste in una moltiplicazione cellulare, per cui la cellula si ingrandisce
diventando un immunoblasto, a questa segue l’espansione clonale per
mitosi ed infine avviene il differenziamento in plasmacellule.
Queste possono essere viste come “piccole industrie” che producono
anticorpi e ne possono produrre di tipi differenti, IgG, IgM, IgA, IgD ed
IgE e possono differenziare anche in linfociti B della memoria.
Le caratteristiche di un antisiero sono tre:
• Specificità, capacità di riconoscere l’antigene e solo quello
• Titolo, quantità di anticorpi
• Affinità, forza di legame che le immunoglobuline di questo antisiero hanno verso l’antigene di interesse
Ciascuno di questi parametri può essere migliorato: per quanto riguarda l’affinità basta prolungare il ciclo di immunizzazione, cioè
ripetere l’immunizzazione più volte, ed è quello che si sta facendo contro il coronavirus con le tre dosi di vaccino; per quanto
riguarda il titolo dipende anzitutto dal momento, ad esempio, se si sbaglia il giorno del prelievo del sangue può accadere che gli
anticorpi non ci siano più, oppure che non siano stati ancora stati prodotti, poi sperimentalmente è chiaro che se si immunizza un
animale grosso si ottengono molti più anticorpi rispetto a quelli di un topo ed in alternativa si può aumentare il numero degli animali;
per quanto riguarda la specificità dipende evidentemente dalla purificazione dell’antigene, se viene fatta male alla fine saranno
presenti delle contaminazioni per cui l’animale produrrà sia anticorpi nei confronti dell’antigene di interesse, sia nei confronti di
altro, è qui che entrano in gioco tutte le tecniche analizzate sulla purificazione di molecole proteiche per assicurarsi di avere un
buon antisiero. Tuttavia, riguardo quest’ultima caratteristica, anche facendo le elettroforesi più sensibili si può verificare che
l’antisiero prodotto riconosca più di una proteina e ciò è possibile perché bisogna considerare che la grandezza di un epitopo è circa
5/6 aminoacidi, cioè è molto piccolo e non ha una specificità molto elevata, per cui è possibile che un’altra proteina possegga la
stessa sequenza; una eventuale soluzione è ricorrere ad una cromatografia di affinità in cui la colonna cromatografica sia legata
all’antigene di interesse ed inserendo la miscela che contiene anche l’antigene interferente, sulla colonna rimarranno attaccati solo
gli anticorpi con il determinante in comune e quello interferente passerà, questo processo è chiamato adsorbimento dell’antisiero
sull’antigene interferente.
58
Produzione di anticorpi monoclonali
Un anticorpo monoclonale è ottenuto usando un singolo clone
linfocitario, ad esempio, dopo aver immunizzato un topo, invece di
prendere gli anticorpi prodotti che si trovano nel siero, si prende un
singolo clone che riconosca un epitopo dell’antigene e lo si usa come
fonte di produzione di anticorpi. Il problema si presenta proprio nel
riuscire ad isolare un solo clone che sia in grado di riconoscere solo e
soltanto quell’epitopo.
Per riuscire a farlo l’immunizzazione può essere fatta solo sul topo, a
questo punto, nel suo circolo sanguigno ci sarà una quantità
aumentata di linfociti che riconoscono l’antigene, quindi, se si va a
pescare tra tutti i linfociti dell’animale si ha una grande probabilità di
prendere un clone linfocitario che riconosca l’epitopo dell’antigene.
Se il topo non fosse stato immunizzato, tutti i cloni linfocitari
sarebbero stati allo stesso livello e sarebbe stato molto difficile
pescare quello di interesse.
Per prelevare il linfocita si utilizza ancora oggi una tecnica sviluppata
negli anni ’70 che consiste nel fondere tra loro differenti tipologie
cellulari così da ottenere una cellula che avrà le caratteristiche di
interesse, si creano quindi degli ibridi.
Il motivo per cui si agisce in questo modo è che il linfocita di per sé è una cellula
che può moltiplicarsi, ma non all’infinito, quindi, anche se si riuscisse a prendere
il clone linfocitario di interesse, dopo un po’ di tempo in coltura morirebbe, lo
scopo è indurlo a moltiplicarsi in maniera indefinita. Nel dettaglio, da una parte
si preleva la milza del topo immunizzato che è un tessuto che si dissocia
facilmente e dove si accumulano tantissimi linfociti e per questa ragione avrà
una grande percentuale di quelli che rispondono all’antigene di interesse,
dall’altra parte si prendono le cellule di trasformazione neoplastica del sistema
immunitario, cioè cellule di mieloma o plasmocitomi, queste hanno perso il
sistema di inibizione di divisione cellulare e quindi si moltiplicano in maniera indefinita, fondendo queste due tipologie si può
“sperare” di ottenere un ibrido idoneo. In realtà, infatti, si ottiene un eterocarionte con due nuclei che non è stabile, di conseguenza,
i due nuclei si fondono tra di loro e l’assetto cromosomico si riarrangia perdendo del materiale, quindi si tratta di una probabilità di
ottenere un ibrida che mantenga entrambe le capacità.
All’atto pratico, per fare gli ibridomi si mettono entrambi i tipi cellulari in una sospensione che contiene polietilenglicol (PEG), una
sostanza che ammorbidisce le membrane, per cui, effettuando una leggera agitazione le cellule sbattono tra di loro, si fondono e si
ottiene l’ibrido. Essendo tutto affidato al caso, però, gli ibridi che si formano possono essere ibridi linfociti-cellule di mieloma, ma
anche ibridi tra soli linfociti o tra sole cellule di mieloma, per ottenere solo quelli di interesse si deve mettere appunto un sistema
che permetta di avere in coltura solo questi. Come si fa?
La sintesi del DNA per via normale avviene sempre a partire da aminoacidi e
zuccheri, questi permettono di sintetizzare nucleotidi che vengono poi utilizzati
per replicare il DNA passando per una serie di tappe enzimatiche intermedie
che, però, possono essere all’occorrenza bloccate dalla presenza di un inibitore,
l’aminopterina. Le cellule, oltre ad avere la via normale di replicazione, hanno
anche la via di recupero, questa può essere intrapresa solo se la cellula ha a
disposizione le basi azotate timidina, guanidina e ipoxantina e la possibilità di
produrre l’enzima ipoxantina-guanina fosforibosiltransferasi (HGPRT) e la
timidina chinasi. A partire da questi substrati, piuttosto che da aminoacidi e
zuccheri, e con queste attività enzimatiche verranno prodotti i nucleotidi
utilizzati per sintetizzare il DNA.
Quindi, se nella via normale si inserisce aminopterina, la competenza a replicare il DNA può essere recuperata in presenza di queste
tre basi azotate e di queste due attività anzimatiche: prendendo una linea parentale priva di HGPRT ed un’altra priva di timidina
chinasi, solo fondendole e qual ora, in seguito alla stabilizzazione dell’eucarionte, esso abbia acquistato entrambe le attività, si
potranno moltiplicare in presenza di aminopterina.
Queste cellule vengono quindi coltivate in terreno HAT dove H sta per ipoxantina-guanidina fosforibosiltransferasi, A sta per
aminopterina e T sta per timidina. Si utilizzano i topi perché se ne conosce molto bene la genetica e si possono facilmente isolare
ceppi che sono carenti di un’attività enzimatica piuttosto che di un’altra, quindi si prendono topi con cellule della milza [HGPRT-
timina chinasi+] e cellule di mieloma [HGPRT+ timidina chinasi-] e si immunizzano. In presenza di aminopterina e ipoxantina,
guanidina e timidina, le cellule di mieloma senza timidina chinasi non possono moltiplicarsi e quindi non si moltiplicheranno
nemmeno gli ibridi mieloma-mieloma, dall’altra parte, neanche i linfociti della milza si potranno moltiplicare perché carenti di
HGPRT e quindi non si moltiplicheranno nemmeno gli ibridi linfocita-linfocita.

59
Dal processo di fusione si ottengono invece migliaia di ibridi linfocita-mieloma sui quali verrà fatta una tipizzazione per escludere
casi in cui non si ha produzione di anticorpi oppure casi che producono anticorpi diversi non di interesse.
Stando a tutto questo sembra che produrre anticorpi monoclonali sia molto poco
conveniente, ma esiste un modo per aumentare la probabilità con cui si fondono
solo le cellule di mieloma e le cellule linfocitarie di interesse: i linfociti possiedono
recettori sulla superficie che riconoscono epitopi dell’antigene, quindi, si va a
produrre un complesso costituito dall’antigene legato, con processi di chimica
organica, ad una molecola chiamata avidina.
Se si prendono i linfociti della milza e li si trattano con questo complesso proteico,
solo i linfociti che riconoscono l’antigene lo legheranno, gli altri linfociti no, in un
certo senso, i linfociti di interesse sono stati marcati con il complesso antigene-
avidina.
Perché proprio l’avidina? Si tratta di una molecola presente in natura nell’albume
d’uovo ma che si può anche ingegnerizzare, essa possiede 4 siti di legame per
un’altra molecola, la biotina, il cofattore delle carbossilasi, inoltre, il legame avviene
con un’affinità elevatissima, di forza simile a quella di un legame covalente.
Questo torna utile perché, a questo punto, si andranno a modificare le cellule di
mieloma, sempre con un sistema di chimica organica, per fargli avere in superficie
la biotina, per cui, mescolando tutto in presenza di PEG, avidina e biotina si
riconosco ad altissima affinità e si fondono rapidamente tra loro, escludendo le altre cellule che si fonderanno con minor facilità ed
aumentando la probabilità di avere fusione tra elementi di interesse che includono oltretutto l’antigene.
In seguito, si prendono sempre i cloni uno alla volta e si fa l’espansione clonale, cioè si fanno diluizioni delle soluzioni contenenti gli
ibridi e si mandano in coltura singole cellule. La singola cellula si moltiplica e potrà essere caratterizzata per la capacità di produrre
uno specifico anticorpo. Quest’ultimo controllo è ancora necessario perché potrebbe ancora esserci una probabilità che sia
avvenuta una fusione errata, ma con tutti questi accorgimenti tale probabilità è sicuramente diminuita.
le due tecniche a confronto

60
Antigeni e risposta immunitaria
Per quanto riguarda gli antigeni, si distinguono gli antigeni monovalenti in cui l’intera molecola
stessa è il determinante antigenico, ad esempio l’ormone steroideo della tiroide, e gli antigeni
multivalenti, in questo caso si individuano un certo numero di determinanti antigenici sulla
stessa molecola tutti diversi l’uno dall’altro. In entrmabi i casi si parla di proteine che hanno una
sequenza primaria specifica di aminoacidi e riproducono in struttura tridimensionale l’epitopi o
gli epitopi.
Ci sono poi altre molecole dette antigeni polivalenti che sono dei polisaccaridi, quindi sequenze
della stessa unità, perciò si tratta di un singolo determinante antigenico ripetuto un numero
molto grande di volte.
Dal punto di vista della capacità di produrre anticorpi, i polivalenti sono in grado di indurre
blastizzazione, proliferazione e differenziamento di soli linfociti B, mentre i multivalenti hanno
bisogno della cooperazione di linfociti B e T per dare blastizzazione, espansione clonale e maturazione in plasmacellule. Ovviamente
se si tratta di antigeni monovalenti e polivalenti sarà un’unica linea linfocitaria ad essere attivata, quindi un solo anticorpo presente
in grande quantità, con antigeni multivalenti vengono attivati tanti cloni linfocitari quindi tanti anticorpi differenti.
Se si immunizza un animale iniettandogli un antigene e si va a esaminare nel tempo cosa
avviene, inizialmente non si vede nulla, ma dopo un certo numero di giorni cominciano a
comparire degli anticorpi contro l’antigene e la loro quantità aumenta fino a un massimo per
poi decadere e sparire, questo comportamento è chiamato risposta anticorpale primaria.
Successivamente, si inietta lo stesso antigene e la risposta che si ottiene questa volta risulta
molto più rapida e più massiccia, raggiungendo un massimo maggiore del primo, questa è
chiamata risposta anticorpale secondaria.
Oltre al tempo di latenza ed alla quantità di anticorpi prodotta un’altra differenza risiede nella tipologia di anticorpo: nella risposta
primaria vengono prodotte le IgM, anticorpi a struttura pentamerica dove ognuna delle 5 unità è formata da due catene leggere e
due pesanti legate tra loro dalla catena polipeptidica J e ponti disolfuro, questa molecola possiede complessivamente 10 siti di
legame per quel determinante antigenico che le forniscono una capacità estremamente grande, invece, nella risposta secondaria
vengono prodotte le IgG, anticorpi a struttura monomerica e caratterizzate dall’avere una catena pesante chiamata catena gamma.

Questa immagine rappresenta la risposta anticorpale primaria:


Le stem cell sono le cellule precursori presenti nel midollo osseo, li vengono indotte a differenziare verso la linea dei linfociti B, in
particolare si producono precursori dei linfociti B che iniziano ad esprimere sulla loro superficie dei recettori, questi maturano in
cellule B native immature dove il recettore sulla superficie inizia a presentare delle modificazioni, dopodiché, sulla superficie
compaiono anche altri recettori. La cosa interessante è che i recettori composti per primi hanno la caratteristica di somigliare
(condividono un’omologia) alle unità pentameriche delle IgM, quindi, in pratica, il linfocita immunocompetente, che a questo punto
è maturo e sta circolando, possiede sulla sua superficie delle IgM bloccate in membrana, che per stare li dentro avranno delle regioni
idrofobiche nella loro struttura. Quando queste riconoscono l’antigene, trasducono all’interno della cellula un segnale che indica
che il legame con l’epitopo è avvenuto, questo è un segnale di differenziamento che induce la blastizzazione, la moltiplicazione e
infine la maturazione in plasmacellule circolanti. Le plasmacellule, a questo punto, secernono delle proteine analoghe alle IgM di
superficie ma in forma completamente solubile e le secernono all’esterno.
La risposta secondaria è diversa perché di nuovo avvengono altri arrangiamenti per cui non sono più prodotte le IgM ma le IgG.
A questo punto ci si rende conto che non possono queste avere i medesimi precursori, ed ecco infatti che entrano in gioco le cellule
della memoria. Esse vengono prodotte da una linea differenziativa parallelamente al differenziamento dei linfociti indotti a
diventare plasmacellule che secernono le IgM, ma durante la produzione perdono il recettore IgM di superficie che viene sostituito
con la comparsa di un recettore recettore IgG, in questo modo, moltiplicandosi e differenziandosi, produrranno plasmacellule IgG.
Di fatto non cambia la specificità per l’antigene, che è sempre lo stesso, ma, nel
passaggio IgM-IgG cambia l’affinità di legame.
Il recettore IgM di superficie riconosce l’epitopo con una forza di legame non
particolarmente elevata, quindi ha bassa affinità, il recettore sulla superficie delle
cellule della memoria invece è molto migliorato e riconosce l’epitopo ad alta affinità.

61
In altri termini, per attivare i linfociti primari è necessaria un’altra concentrazione di antigene, mentre per attivare le cellule della
memoria, che hanno recettori più affini, occorre una concentrazione più bassa di antigene e quindi la risposta è più rapida.
In un certo senso il sistema immunitario impara e funziona meglio.
Per quanto riguarda l’uso degli anticorpi, quelli ad alta affinità sono più utili di quelli a bassa affinità perché daranno risposte più
sicure quando li si usa per individuare le molecole di interesse, inoltre, questo processo può essere moltiplicato un certo numero di
volte, ossia, la risposta secondaria non si esaurisce lì, se si fanno altre iniezioni migliora ancora di più la forza di legame fra l’anticorpo
e il suo epitopo, cioè migliora l’affinità.
Questo è dovuto al fatto che gli anticorpi hanno catene pesanti
e catene leggere ed all’interno di esse esistono delle regioni
costanti e delle regioni variabili, le variabili determinano il
legame con l’epitopo mentre le costanti caratterizzano la
classe anticorpale (IgM, IgG, IgD ecc) e la cosa interessante è
che la regione variabile contiene al suo interno delle regioni
ipervariabili. Da immunizzazione a immunizzazione con il
passare del tempo nelle regioni ipervariabili vengono scelte
sequenze aminoacidiche sempre migliori fino a raggiungere un
massimo che determina la presenza di anticorpi alla più alta
affinità possibile, che sono ovviamente quelli più utili.
Per esempio, viene immunizzato un coniglio facendogli produrre degli anticorpi che riconsonco le immunoglobuline di capra.
Essendo gli anticorpi stessi delle proteine si possono usare come antigeni e produre degli anticorpi anti-anticorpi. Vengono fatti
quindi una serie di trattamenti: il primo trattamento elabora una risposta primaria di IgM, il secondo una risposta secondaria di IgG,
il terzo migliora la situazione. A questo punto, nel siero dell’animale si avranno una grande quantità di anticorpi di tipo IgG alla più
alta affinità possibile nei confronti degli epitopi delle immunoglobuline di capra. Nella pratica, nel tempo si è saggiato tramite prelievi
di sangue la presenza di questi anticorpi e si è visto che occorre fare un’immunizzazione che dura dai 36 ai 40 giorni.
Da questo antisiero, per avere una preparazione di anticorpi policlonali, si eliminano l’albumina e le globuline, ma la preparazione
ottenuta non contiene ancora solo anticorpi nei confronti delle immunoglobuline di capra, seppur in quantità minore ci sono le
immunoglobuline caratteristiche di quell’animale, quindi si fa una cromatografia per affinità con immunoglobuline di capra, in
questo modo gli anticorpi che riconoscono l’immunoglobulina di capra potranno essere recuperati dalla colonna perché le
rimangono attaccati mentre quelli dell’animale fuoriescono.

METODI IMMUNOCHIMICI
Dopo aver visto come si producono le varie classi di anticorpi, adesso si vedrà come essi si possono usare, considerando tutta una
serie di passaggi che prevedono che l’immunocomplesso che si forma tra l’antigene e l’anticorpo sia stabile.
Si può dire che quando un antigene ed un anticorpo, monoclonale, antisiero o policlonale che sia, vengono in contatto, se l’anticorpo
ha la specificità di riconoscimento di quell'antigene, si forma un immunocomplesso. È una reazione molto rapida alla quale seguono
quelle che vengono definite reazioni secondarie, quali:
o l’immunoprecipitazione, quando l’immunocomplesso non è più solubile e precipita nel liquido biologico (o nelle provette)
o l’agglutinazione, quando l’antigene non è solubile andandosi a trovare associato a particelle, ad esempio a cellule, ed è ciò
che si verifica nel caso della determinazione dei gruppi sanguigni, infatti, l’antigene che si va a cercare sta sulla superficie
del globulo rosso e se messo in contatto con un anticorpo che lo riconosce le cellule vengono agglutinate e poi sedimentano
o la fissazione del complemento, quando un antigene è presente sulla superficie di una cellula che il sistema immunitario
considera estranea si ha una risposta immunitaria, gli anticorpi si legano sulla superficie di questa cellula e questo attiva
tutte le proteine del complemento che alla fine formano un complesso litico che perfora la membrana della cellula estranea
che in questo modo viene uccisa
Immunoprecipitazione e agglutinazione sono le reazioni secondarie che vengono utilizzate per mettere in piedi sistemi di
riconoscimento di marcatori biologici o di valutazione quantitativa di questi marcatori a scopo diagnostico.
IMMUNOPRECIPITAZIONE
Gli antigeni possono essere classificati in base alle valenze, antigeni monovalenti, hanno un solo
determinante antigenico, oppure, antigeni polivalenti, hanno più di un determinante antigenico.
Al momento in cui gli antigeni monovalenti vengono riconosciuti da un anticorpo, essendo presente un
solo determinante, l’immunocomplesso che si forma tra antigene-anticorpo è un immunocomplesso molto
piccolo che non può precipitare ma rimane in soluzione, ragion per cui non si può usare la tecnica
dell’immunoprecipitazione per valutare la presenza
oppure la quantità degli antigeni monovalenti. Quindi,
la condizione per cui si abbia immunoprecipitazione è
che l’antigene sia polivalente e almeno bivalente in
modo da formare un immunocomplesso abbastanza
grande: quanta più valenza hanno, cioè quante più volte è ripetuto quel singolo
determinante, quanto più facile sarà ottenere immunoprecipitazione.

62
La maggior parte delle proteine sono multivalenti ed è molto facile avere immunoprecipitazione con un antigene di questo tipo se
trattato con una miscela di anticorpi differenti, cioè un antisiero o un anticorpo policlonale (A). Un anticorpo monoclonale, invece,
non dà immunoprecipitazione perché necessita di un antigene monovalente essendo capace di riconoscere un solo specifico
epitopo, si può ottenere immunoprecipitazione solo nel caso in cui se ne utilizzino almeno due (B) ma dal punto di vista pratico
resta una tecnica sconsigliata.
Regola n°1: per usare immunoprecipitazione è necessario che l’antigene sia quantomeno bivalente
Ma, una volta stabilita la regola principale, si ha immunoprecipitazione in qualunque condizione tra antigene ed anticorpo o sono
necessarie delle condizioni specifiche?
Dal punto di vista delle quantità reciproche di antigene ed anticorpo ci si può trovare in
(a) (c)
una situazione in cui c'è un eccesso di anticorpo (a), in una situazione in cui c'è un
eccesso di antigene (c), o in una situazione di equivalenza (b) (attenzione: non si parla di
equivalenza in termini chimici perché è troppo difficile capire quanti legami si formano
tra le specie coinvolte, non significa avere le stesse quantità, ma si dice equivalenza (b)
perché in quelle condizioni si ha la situazione ottimale per l'immunoprecipitazione).
Con un eccesso di anticorpi e pochi antigeni ciò che si forma con più probabilità sono immunocomplessi piccoli perché le poche
molecole di antigene vengono saturate sui loro siti di legame, sui loro epitopi, dalle molecole anticorpali ed il tutto rimane piccolo
e quindi in soluzione. Con un eccesso di antigeni e pochi anticorpi si ha la situazione speculare, le valenze dei siti di legame degli
anticorpi sono bloccate dagli antigeni, ma anche qui gli immunocomplessi che si formano sono piccoli e rimangono in soluzione.
Nella regione di equivalenza, invece, le molecole di antigene fungono da ponti tra gli anticorpi ottenendo un reticolo
tridimensionalmente molto grande che perciò non rimane in soluzione ma precipita.
Si può costrure il grafico mostrato a sinistra mettendo in ascisse la
quantità di antigene ed in ordinate la quantità di immunoprecipitato,
che può essere misurata valutando la quantità di anticorpo precipitata.
Facendo tante provette differenti dove è fissata la quantità di anticorpo
e si varia solo quella di antigene si vedrà che inizialmente, la quantità di
immunoprecipitato è piccola e va via via aumentando, è questo è ovvio
perché aumentando la quantità di antigene aumenta la probabilità che
si formino degli immunocomplessi grandi che precipitano, dopodiché si
raggiunge un massimo nella regione della zona di equivalenza, ed infine,
aumentando ancora la quantità di antigene, si verifica la cosiddetta
situazione paradosso in cui la quantità di immunoprecipitato inizia a
diminuire proprio a causa dell’eccesso di antigene che comporta la formazione di immunocomplessi piccoli.
Da notare che se il medesimo grafico fosse stato costruito con quantità costanti di antigene e facendo variare la quantità di anticorpo
si avrebbe ottenuto la stessa curva ma rovesciata, speculare.
Regola n°2= è necessario che l’anticorpo e l’antigene si trovino nel rispettivo intervallo di concentrazioni definito zona di equivalenza
Immunodiffusione radiale (RID) ed elettroquantizzazione (ELQ)
Tenendo conto che l’immunoprecipitazione ha questo tipo di comportamento è stata sfruttata questa situazione per fare dei
dosaggi quantitativi che associano un grafico di questo tipo, che è semplicemente qualitativo ma non da dei rapporti numerici, ad
un altro saggio chiamato immunodiffusione radiale RID (Radial ImmunoDiffusion).
Consiste nel preparare delle lastre di agarosio in modo tale che contengano la preparazione di anticorpi policlonali o l'antisiero,
quindi, si scioglie l’agarosio, ci si mette l’antisiero e lo si fa solidificare ottenendo una lastra dallo spessore di qualche millimetro; si
fa anche in modo di ricavare dei pozzetti al centro dove poter inserire soluzioni di antigene via via crescenti.
In questo caso, per esempio, si è voluta dosare albumina sierica umana: è stato preso
un coniglio, gli si è iniettata l’albumina del siero umano e si è ottenuto un antisiero nei
confronti dell’albumina sierica umana che è stato messo all’interno dell’agarosio. Poi
è stata presa albumina sierica umana purificata ed è stata caricata nei pozzetti alle
concentrazioni crescenti note di 50, 100, 150, 200 e 250 µg/ml, e nel momento in cui
questo viene fatto, per l’effetto della capillarità, la soluzione diffonde radialmente
incontrando l'antisiero, riconoscendolo e formando gli immunocomplessi.
Tuttavia, nei primi momenti della diffusione l’immunocomplesso che si forma sarà
piccolo perché ci si trova nella regione con eccesso di antigene, man mano che la
diffusione procede è come se avvenisse una diluizione perché si va verso la zona di
equivalenza e gli immunocomplessi aumentano di grandezza rimanendo bloccati nel
gel di agarosio. La diffusione però, e quindi la diminuzione, è diversa se la soluzione è
da 50, da 100, … o da 250 µg/ml, cioè è necessario, all’aumentare della concentrazione
iniziale di antigene, una diluzione maggiore, una diffusione maggiore che occuperà volumi più grandi formando alla fine un alone di
precipitazione quando si raggiunge la concentrazione di equivalenza. Quindi, gli anelli di precipitazione sono proporzionali alla
concentrazione iniziale dell'antigene: quando l’antigene è poco l’anello di precipitazione ha un diametro più piccolo, quando
l’antigene è tanto l’anello di precipitazione ha un diametro più grande.

63
Avendo usato delle soluzioni a concentrazione nota si può realizzare anche una curva di taratura mettendo in ascisse la
concentrazione di albumina ed in ordinate il diametro dell’anello. Tenendo in un pozzetto una soluzione incognita, in base al
diametro dell’anello di precipitazione ottenuto si potrà dedurre, per interpolazione, il suo valore della concentrazione di albumina.
Quando il precipitato precipita fa cambiare l’indice di rifrazione, quindi l’agarosio inizialmente è completamente trasparente, nelle
prime fasi della diffusione continua ad essere trasparente, quando raggiunge la zona di equivalenza si forma il precipitato e lo si
potrà vedere come un anello bianco. In altri casi si può proprio colorare l’agarosio trattandolo con una soluzione fisiologica, PBS,
per eliminare tutte le molecole proteiche in esso presenti e lasciare solo l’immunoprecipitato, che, essendo una proteina, reagisce
con i coloranti per le proteine rendendosi visibile (se non si facesse il lavaggio iniziale ci sarebbe una colorazione uniforme perché
l’anticorpo, anch’esso proteico, si va a ritrovare ovunque legandosi al colorante ovunque).
Questa tecnica quindi è semplicissima, tanto è vero che l’industria prepara tante di queste piastrine, ma ha un grosso svantaggio,
per ottenere un risultato ci vogliono diversi giorni perché la diffusione all’interno dell’agarosio è lenta e questo rende il saggio utile
dal punto di vista diagnostico sono in quei casi in cui le analisi non debbano essere date nell’arco di poche ore.
È possibile allora accelerare questo sistema?
Sì, si può accelerare la diffusione. In particolare, essendo proteine, se si utilizza un campo elettrico la diffusione diventa più rapida
ed infatti la modifica a questa tecnica si chiama elettroimmunodosaggio o elettroquantizzazione ELQ.
Si realizza una lastra di agarosio leggermente più grande della precedente e si inserisce la
preparazione di anticorpi policlonali costante su tutta la lastra, a questo punto si scavano i
pozzetti, ma non al centro della lastra bensì ad un'estremità e si inseriscono le soluzioni di
antigene, qualcuna a concentrazione nota e qualcuna a concentrazione incognita, in modo
tale da poter fare anche valutazioni. Si applica quindi un campo elettrico con polo negativo
dalla parte dei pozzetti e positivo lontano dai pozzetti perché si lavora sempre a pH
leggermente alcalino e le proteine avranno acquistato carica negativa: gli antigeni
diffonderanno per effetto del campo elettrico, non più passivamente ma attivamente.
Uscendo dal pozzetto troveranno l'antisiero ed interagiranno con esso con l’unica
differenza rispetto al caso precedente che la diffusione non sarà più radiale ma
preferenziale lungo le linee di campo elettrico, e quindi non si fermeranno degli anelli di
precipitazione ma dei picchi di precipitazione (hanno la forma di un razzetto ed è per questo
che gli anglosassoni chiamano questa tecnica rocket immunoelettroforesi).
Se nel caso precedente il diametro dell’anello di precipitazione era proporzionale alla concentrazione dell’antigene, in questo caso
è l’altezza del picco di precipitazione ad essere direttamente proporzionale a questo volume. Questo perché la base di questi
triangoli è sempre identica essendo l’ampiezza del pozzetto, lo spessore è sempre uguale in tutti i punti e quindi rimane il volume
che è diventato variabile solo in funzione dell'altezza.
Ad esempio, per realizzare la retta di taratura sono stati usati gli ultimi quattro pozzetti mentre i primi quattro sono pozzetti a
concentrazione incognita, di questi ultimi se ne può ricavare solo l’altezza, ma, confrontandola con quella della retta di taratura per
interpolazione se ne potrà ricavare anche la concentrazione.
Immunodiffusione monodimensionale e bidimensionale
Oltre queste tecniche di valutazione quantitativa, l’immunodiffusione rimane comunque un saggio molto utilizzato anche per le
semplici valutazioni qualitative, ovvero per sapere se c’è o non c’è antigene.
Ad esempio, prendendo un antisiero in agarosio e mettendolo all’interno di una
provetta con sopra la soluzione con l’antigene, quando l'antigene diffonde
nell'antisiero, se viene riconosciuto, nella regione di agarosio sottostante comparirà
una banda di precipitazione. Questa tecnica può essere resa più utile da un punto di
vista del potere risolutivo se, ad esempio, all’interno della provetta si vanno a
stratificare a partire dal fondo agarosio con antisiero, agarosio senza antisiero e
superiormente la soluzione con l’antigene: l’antisiero che è nell’agarosio più inferiore
tenderà a diffondere nell’agarosio libero e così farà anche l’antigene ed i due si
incontreranno in questa regione e, riconoscendosi, si raggiungerà l’equivalenza e si
formerà l’immunoprecipitato con comparsa di una banda.
Inoltre, l’antisiero può essere in grado di riconoscere anche più antigeni
contemporaneamente, tutto dipende da come viene ingegnerizzato. In questo caso si
avranno gli anticorpi in agarosio in basso, l’agarosio libero al centro e sopra la soluzione di più antigeni, con la diffusione antigeni
ed anticorpi entreranno in contatto, si riconosceranno e nella regione di solo agarosio formeranno più bande di precipitazione.
Lo scopo dell’agar libero inserito “tra antigeni e anticorpi” è fondamentalmente quello di rendere lo spessore maggiore, il che
permetterà di vedere meglio soprattutto in quei casi in cui si formano più bande di immunoprecipitazione contemporaneamente
che non staranno tutte nello stesso punto ma in punti differenti in base alle diverse concentrazioni.
In questi casi la diffusione è monodimensionale, nel senso che si muove soltanto l’antigene, ma si possono realizzare delle
immunodiffusioni bidimensionali dove si muovono sia l’antigene che l’anticorpo.
Invece di realizzare singoli pozzetti in cui mettere l’antigene se ne realizzano, ad esempio, tre, posizionandoli ai vertici di un triangolo
equilatero sempre in agarosio. Nei pozzetti ai due vertici in alto si inserisce lo stesso antigene e nel pozzetto in basso si mette un
antisiero che riconosce questo antigene: quello che succede è che l’anticorpo diffonde radialmente andando sia verso il pozzetto
64
alla sinistra sia verso il pozzetto alla destra e, poiché l’antigene è lo stesso in tutti e due, si formano delle bande di
immunoprecipitazione fuse tra di loro definite coalescenti.
Questo primo esempio è esplicativo dal punto di vista didattico ma non si riproduce in
situazioni reali, altri casi più pratici prevedono, ad esempio, che nel pozzetto a sinistra
si inserisca l’antigene 1, nel pozzetto a destra gli antigeni 2 e nel pozzetto in basso un
antisiero in grado di riconoscerli tutti e tre. Proprio perché c’è il riconoscimento tra
tutti quanti ci sarà una banda di immunoprecipitazione tra il pozzetto dell’antigene 1
ed il pozzetto dell’antisiero e, dall’altro lato, due bande di precipitazione, una tra
l’antisiero e l’antigene 2 ed un’altra tra l’antisiero e l’antigene 4, queste ultime però
non saranno più coalescenti ma si intersecheranno tra loro.
La prima reazione viene definita reazione di identità immunologica perché l’antigene
1 è presente in entrambi i pozzetti e viene riconosciuto dall’antisiero come uguale in
quanto le bande sono coalescenti, il secondo caso, invece, evidenzia che i tre antigeni
sono sì riconosciuti dall’antisiero, ma che sono riconosciuti come diversi da un punto
di vista immunologico perché le bande non sono fuse ma intrecciate e questa risposta
si definisce un risultato di non-identità immunologica.
Attenzione però, il primo caso non indica che gli antigeni sono gli stessi ma che
quell'antisiero li vede come identici, ciò significa che l’antisiero contiene anticorpi che
riconoscono determinanti antigenici comuni ai due antigeni, quando non hanno
determinanti antigenici in comune le bande di precipitazione si incrociano.
Infine, si può esaminare anche un terzo caso, il più interessante, che definisce una
situazione di identità parziale: le bande di precipitazione in realtà non sono completamente incrociate, c'è uno sperone che sporge
solo da un lato, e ciò vuol dire che i due antigeni condividono qualche cosa tra di loro, tanto è vero che le bande sono fuse e
coalescenti, ma c'è anche qualche cosa in uno dei due che lo rende diverso dall’altro, tanto è vero che si incrocia andando dall’altra
parte. Se quello di sinistra non si incrocia significa che ha gli stessi determinanti antigenici di quello di destra ed è fuso
completamente ed è quello di destra ad avere qualcosa in più.
Cross-over elettroforesi
In alcune situazioni, ad esempio, in biologia forense quando si prelevano campioni da una scena del crimine, si ha a che fare con
quantità di antigene molto piccole e la tecnica vista non può essere utilizzata perché, diffondendo radialmente, l’antigene in quantità
così piccole non permette di vedere qualcosa, allora si deve fare in modo che l’antigene e l’anticorpo viaggino l’uno verso l’altro,
per agevolarsi, e questo si può ottenere per elettroforesi sfruttando il fenomeno dell’elettroendosmosi.
L’elettroendosmosi è quel fenomeno per cui, su certi supporti di agarosio, alcune proteine vanno nella direzione opposta alla loro
carica perché spostate da un flusso di ioni e queste proteine interessate all’”inversione di marcia” sono le gamma globuline che
sono proprio anticorpi.
Quindi, su un’apposita lastra di agarosio, si inserisce in un pozzetto la soluzione di antigene e nell’altro l’antisiero che potrebbe
riconoscerlo, a questo punto si applica il campo elettrico di cui il polo negativo è dalla parte del pozzetto dell’antigene ed il polo
positivo dall'altra: l’antigene è una proteina quindi caricata negativamente a pH 8 andrà verso il polo positivo, invece, per il
fenomeno dell’elettroendosmosi, l’antisiero fatto da immunoglobuline, sebbene sia caricato anch’esso negativamente, non andrà
verso il polo positivo ma verso il negativo, così si fa in modo che l’antigene non venga disperso radialmente e viene agevolata la
formazione di una banda di immunoprecipitazione. La tecnica prende il nome di counter-elettroforesi o cross-over elettroforesi.
Immunofissazione
Nel campo dell’immunoprecipitazione si annoverano tante altre tecniche, una di
largo uso è l’immunofissazione. Si chiama immunofissazione perché fissa su un
supporto elettroforetico mediante un anticorpo la proteina individuata come
presente in quantità non fisiologiche.
Quando si realizza un’elettroforesi si possono ottenere dei tracciati con delle bande
aggiuntive che si sospetta possano essere bande monoclonali, cioè gammopatie
monoclonali, tumore delle plasmacellule, e diventa molto importante caratterizzarle
perché la gravità della situazione varia in relazione al tipo di immunoglobulina
prodotta.
Ad esempio, è stata fatta un’elettroforesi di 4 campioni e tutti e 4 mostrano delle
bande aggiuntive. A questo punto si replica l'elettroforesi 6 volte ed invece di
procedere immediatamente alla colorazione del supporto in agarosio (o acetato di
cellulosa) lo si tratta con delle preparazioni di antisieri:
- un antisiero che riconosce le catene pesanti delle IgM (II pannello colonna a sinistra)
- un antisiero che riconosce le catene pesanti delle IgG (III pannello colonna a sinistra)
- un antisiero che riconosce le catene pesanti delle IgA (IV pannello colonna a sinistra)
- un antisiero che riconosce le catene pesanti delle IgD (I pannello colonna a destra)
- un antisiero che riconosce le catene leggere K (II pannello colonna a destra)
- un antisiero che riconosce le catene leggere lambda (III pannello colonna a destra)

65
Dopodiché si effettua il lavaggio del supporto con PBS in modo da lasciare solo l’immunoprecipitato che ora potrà essere colorato
per evidenziare le proteine:
essendoci colorazione nel tracciato numero 1 al trattamento con antisiero x IgM la conclusione è che questa banda aggiuntiva è
fatta quantomeno da catene pesanti di tipo M; in tutti i tracciati poi si ha colorazione al trattamento con l’anticorpo che riconosce
le catene G, questo perché le IgG sono sempre presenti, tuttavia, nel tracciato 2 si evidenzia una colorazione più intensa e ciò vorrà
che questa banda aggiuntiva è fatta quantomeno da catene pesanti di tipo G; lo stesso discorso vale per le catene pesanti di tipo A
evidenziate nel tracciato 3 e per quelle di tipo D evidenziate nel tracciato 4; per quanto riguarda K c’è colorazione nel tracciato 1,
analoga a quanto avviene per con le catene pesanti M, e la conclusione è che questa banda aggiuntiva è fatta da IgM complete, cioè
composte sia da catene pesanti che da catene leggere K; per lambda c’è colorazione sia nel tracciato 2 sia nel tracciato 4, il che
porta alla conclusione che nel tracciato 2 la banda monoclonale è fatta da IgG che montano catene leggere lambda e nel tracciato
4 da IgD che montano catene leggere lambda, quindi anche in questo caso due immunoglobuline complete.
Si ricorda ora quanto detto riguardo il fibrinogeno: il fibrinogeno in elettroforesi crea una
banda tra le beta e le gamma globuline per cui, guardando un tale quadro elettroforetico, ci si
può chiedere se ci si trova di fronte ad una gammopatia monoclonale oppure ad un
inquinamento da fibrinogeno. Facendo l’immunofissazione con i vari antisieri ci si rende conto
che questo è un artefatto perché se ci fosse stata effettiva presenza di immunoglobuline di
tipo IgA si avrebbe avuto positività con l’antisiero per le catene pesanti A o con l’antisiero per
le catene leggere K o L, o addirittura solo con antisiero anti-A o con antisiero anti-L, mentre, in
assenza di una rivelazione del genere, si può affermare che la colorazione è semplicemente attribuibile al solo fibrinogeno.
Queste osservazioni così come sul siero si possono eseguire anche sulle urine. Le proteine che possono passare nelle urine sono
dette proteinurie pre-renali, quella di Bence Jones è fatta da catene leggere di tipo lambda ma possono esserci anche passaggi di
catene pesanti, sono infatti in entrambi casi proteine relativamente piccole, mentre un'immunoglobulina pesa 140-150 kDa le
catene leggere sono da 20 e le pesanti intorno a 50.
Immunoelettroforesi semplice, bidimensionale e tandem-crossed
Si supponga di realizzare una lastra di agarosio, di depositarvi in un pozzetto l’antigene e di applicare un campo elettrico:
contrariamente a quando viene realizzato un deposito sottile, sfruttando un pozzetto il materiale si muoverà uniformemente
segnando sul supporto non delle bande ma delle macchie. Si proceda scavando un solco ed inserendovi l’antisiero, a questo punto,
il campo elettrico avrà cessato la sua azione per cui l’antigene continuerà a muoversi per diffusione mantenendo più o meno la sua
immagine di cerchio distorto, e diffonderà anche l’antisiero, i due si incontreranno e si formerà l’immunoprecipitato che in questo
caso viene chiamato falce di immunoprecipitazione.
Siero antiumano di
coniglio
albumina
Siero antiumano di
cavallo

Più antigeni si hanno più falci si formeranno, addirittura, se nel pozzetto viene inserito il siero umano e nel solco un antisiero capace
di riconoscere tutte le proteine umane, si avranno tante falci di immunoprecipitazione che si intrecciano tra di loro.
L’agarosio che è stato utilizzato in questo caso è un agarosio in cui si verifica l’elettroendosmosi: il polo positivo viene posto a destra,
il negativo a sinistra ed il pozzetto in mezzo, e tra le proteine che vanno verso il polo negativo anche se non sono caricate
positivamente ci sono le immunoglobuline di cui la banda più intensa è l'albumina.
Questa tecnica prende il nome di immunoelettroforesi e permette di riconoscere in una singola osservazione l’eventuale presenza
di bande aggiuntive, tuttavia il tracciato che si ottiene è molto complesso e per questo è ormai in disuso.
L’immunoelettroforesi può essere condotta utilizzando antisieri prodotti nel coniglio, nel cavallo, … ma si otterranno immagini
notevolmente differenti perché entrambi i sistemi immunitari riconosceranno le proteine umane come estranee ma in modi diversi
tra loro. Ad esempio, si guardi la banda dell’albumina: il coniglio la riconosce come molto etranea e produce tanti anticorpi (spessore
della falce maggiore) mentre il cavallo no, e ciò vuol dire che evidentemente l’albumina umana e quella a del cavallo hanno meno
differenze tra loro rispetto all’albumina umana e quella del coniglio (quando si parla di riconoscimenti si intende identità
immunologica o non-identità immunologica) e questo dipende dalla sequenza. Siamo più vicini ai cavalli che ai conigli.
Unendo l'immunoelettroforesi e l'elettroimmunoquantizzazione si ottiene l’immunoelettroforesi bidimensionale.
Si esegue una prima un’elettroforesi (b) da destra verso sinistra, successivamente si prende questa lastra di agarosio, senza colorarla
e senza trattarla con anticorpi, e si attacca a 90° ad
un’altra lastra di agarosio con gli antisieri e si applica il
campo elettrico: l’antigene che stava dentro la lastra
iniziale diffonderà nella lasta l’antisiero, i due si
incontreranno, raggiungeranno la zona di equivalenza e
si manifesterà il picco di precipitazione. Facendolo con
più componenti e più anticorpi si ottengono
contemporaneamente più picchi (a). Poiché tutto viene
opportunamente caratterizzato si saprà riconoscere
ciascun picco per poter dire a cosa appartiene.
66
Lo stesso risultato si può ottenere con la tecnica tandem-crossed immunoelettroforesi: si fanno due
pozzetti nei quali si inseriscono due soluzioni di antigene diversi, si realizza la prima dimensione, si incolla
la lastra di agarosio con l’anticorpo che riconosce i due antigeni e si realizza la seconda dimensione. Gli
antigeni escono dalla lastra di agarosio iniziale e vanno nell’altra dove raggiungono l’anticorpo formano
il picco di precipitazione. Se uno dei due sta più avanti dell’altro manterranno a registro la loro differenza
di migrazione e quindi si otterranno due picchi di precipitazione che si intersecano tra di loro, questo
dato suggerisce che non c’è identità immunologica tra le due componenti.
Tutto ciò sembrerebbe molto difficile da interpretare, ma un caso molto interessante è quello mostrato
a sinistra: fatta l’immunoelettroforesi bidimensionale si vedrà che tutti picchi sono fusi eccetto uno che è
singolo, questo vuol dire che, oltre ad esserci tutti gli antigeni in comune, o nel pozzetto a sinistra o nel
pozzetto a destra c'è un componente in più rispetto all’altro. Le lettere dell’alfabeto S e P che nominano
i pozzetti vengono in aiuto, vogliono dire siero e plasma e la differenza tra siero e plasma si sa essere il
fibrinogeno, quindi, il picco solitario è il fibrinogeno.
Con questa tecnica si ottengono risultati estremamente interessanti non di utilizzo diagnostico ma ultimi
nella preparazione di test diagnostici.
Western blotting
Il western blotting viene realizzato dopo aver fatto separazioni elettroforetiche su gel di acrilamide e da’ la possibilità di vedere in
tracciati molto complessi singoli componenti: dopo aver fatto l’elettroforesi le proteine separate vengono trasferite su un supporto
più stabile di nylon o di nitrocellulosa in cui restano bloccate senza poter fuoriuscire, quindi sono rese le condizioni ottimali per
favorire i successivi trattamenti con anticorpi primari che riconoscono le componenti di interesse e formano l’immunocomplesso la
cui presenza verrà rivelata da anticorpi secondari, i quali sono legati a molecole con attività enzimatica che, fornendo gli opportuni
substrati, vengono evidenziati.
Importante è la scelta dell’enzima: la fosfatasi alcalina, ad esempio, è una molecola piccola che può essere legata egregiamente ad
un anticorpo lontano dalla regione di riconoscimento in modo da non dar fastidio, fornendo come substrati il BCIP e l’NBT essa li
attiva staccandogli i gruppi fosfato, seguono reazioni di ossidoriduzione e formazione finale di un complesso colorato visibile.
Quando è necessaria una sensibilità maggiore si può utilizzare un anticorpo secondario coniugato con una perossidasi in modo da
mettere in piedi una reazione di chemiluminescenza che amplifica il segnale: dopo il riconoscimento dell’anticorpo secondario da
parte dell’anticorpo primario si forniscono i substrati per questa reazione in un apparato al buio nel quale è presente una lastra
fotografica molto sensibile, in questo modo, dove c'è emissione di luce c’è la perossidasi e dove c’è la perossidasi c’è l’anticorpo
secondario, quindi l’anticorpo primario e la proteina.
Tutti i metodi trattati hanno una grande utilità per evidenziare quantità considerevoli, seppur piccole, di materiale, ma, quando le
quantità diventano -troppo- piccole si ricorre ad un altro studio, quello degli immunodosaggi.

IMMUNODOSAGGI
Per dosare molecole che si trovano in concentrazioni molto piccole nei liquidi biologici sono necessari metodi altrettanto sensibili.
Dosaggio radioimmunologico (RIA)
Storicamente, il primo metodo usato è stato il dosaggio radioimmunologico (RIA), un sistema che fa uso di marcatura con
radioisotopo: la sua specificità è assicurata dall’uso di un anticorpo e la sua sensibilità dalla marcatura con radioisotopo che può
essere rivelato anche in quantità molto piccole.
L’anticorpo sarà in grado di riconoscere un antigene, che ad esempio può essere un ormone, questo può trovarsi all’interno di una
soluzione standard oppure in un campione di siero, e poi è necessario lo stesso antigene preventivamente marcato con un
radioisotopo. Esistono, infatti, due specie di antigene, uno definito -freddo- che non è marcato radioattivamente ed è presente nella
soluzione standard o nei sieri in esame ed un altro definito -caldo- che è marcato radioattivamente.
Il sistema si basa su una cosiddetta “competizione” tra l’antigene caldo e l’antigene freddo per i siti di legame con l’anticorpo e per
poter realizzare questa competizione è necessario che la quantità di anticorpo sia limitante.
Dunque, se queste specie molecolari vengono messe in provetta si otterranno immunocomplessi di due diversi tipi, quelli con
l’antigene caldo e quelli con antigene freddo.
Ora, mantenendo costante la quantità di anticorpo limitante e la quantità di antigene caldo ma facendo variare la quantità di
antigene freddo, supponendo di fare una retta di taratura, si avranno soluzioni con l’antigene freddo in concentrazioni diverse.
Quello che succede è descritto dai seguenti equilibri di reazione:
• equilibrio I: con 4 equivalenti di antigene marcato radioattivamente e 4 equivalenti di anticorpo che riconosce l’antigene si
formeranno 4 equivalenti di immunocomplessi marcati radioattivamente
• equilibrio II: con 4 equivalenti di antigene marcato radioattivamente, 4 equivalenti di antigene non marcato e 4 equivalenti
di anticorpo, poiché la quantità di anticorpo è limitante (non ce n’è abbastanza per legare gli 8 equivalenti antigenici), si
creeranno, per competizione tra le due specie, una certa quantità di immunocomplesso marcato radioattivamente, una
certa quantità di immunocomplesso non marcato e rimarranno liberi una quantità di antigene marcato radioattivamente
ed una quantità di antigene non marcato
• equilibrio III: aumentando la quantità di antigene non marcato radioattivamente, per effetto della competizione, ci sarà la
tendenza da parte dell’anticorpo di legare la specie di antigene non marcata

67
Quindi: mantenendo costante la quantità di anticorpo limitante e la quantità di antigene marcato radioattivamente, e variando la
concentrazione dell’antigene non marcato, si fa diminuire la concentrazione dell’immunocomplesso radioattivo.

Per ottenere la retta di taratura la relazione viene


trasformata in una retta sfruttando la formula:

e per interpolazione della retta si potrà ricavare la


concentrazione nel siero di ciò che si sta studiando.

Il problema è che spesso si ha a che fare con antigeni che non precipitano, ad esempio l’estradiolo, l’aldosterone, ormoni steroidei
che sono antigeni monovalenti, ed al momento della determinazione si ritrova la stessa quantità di radioattività prima e ad avvenuta
reazione. Quindi, il problema è separare gli immunocomplessi dagli antigeni che rimangono in soluzione non legati, come?
L’obiettivo è far precipitare gli immunocomplessi e lasciare in soluzione l’antigene che non si è legato, per farlo si possono utilizzare
degli anticorpi secondari che riconoscono l’anticorpo primario: si misura la radioattività dell’antigene prima che avvenga la reazione,
si aggiunge l’anticorpo che rimane in soluzione, si aggiunge l’anticorpo secondario ed in questo modo l’immunocomplesso marcato
precipita ed in soluzione rimane una piccola quota di antigene non marcato, si misura nuovamente la radioattività ed eseguendo la
differenza tra i valori di radioattività pre e post reazione si ottiene quello associato all’immunocomplesso precipitato (prima riga).
Quando in gioco si ha la stessa quantità di antigene marcato e non marcato (seconda riga), aggiungendo l’anticorpo si formeranno
degli immunocomplessi che competono perché legano sia l’antigene freddo sia l’antigene caldo, la radioattività sarà maggiore
rispetto alla precedente e, sempre per differenza, si otterrà quella associata all’immunocomplesso.

In che modo viene marcato l’antigene?


Si utilizzano gli isotopi. Sono sconsigliati quelli con tempi di dimezzamenti molto lunghi, come trizio e carbonio, mentre uno tra i più
favoriti è lo iodio125 che ha un tempo di dimezzamento di soli 60 giorni: sono un tempo sufficientemente lungo per produrre
l’antigene, stoccarlo e utilizzarlo ed inoltre, decadendo in 60 giorni, la radioattività non permane nell’ambiente.
Per introdurre gli isotopi nelle molecole biologiche, prendendo in esempio lo iodio, esistono due diversi metodi, uno enzimatico che
utilizza la tiroide, sfruttando la lattoperossidasi per condensazione di due molecole di tirosina si ottiene una base su cui viene poi
fissato lo iodio, ed uno chimico che sfrutta la cloramina T.
Dosaggio immunoenzimatico
Per evitare di usare la radioattività è stata sviluppata la tecnica del dosaggio immunoenzimatico che può essere condotta secondo
due schemi procedurali: sfruttando il principio di competizione tra due antigeni (fig 2) o sfruttando il “principio sandwich” (fig 3).

68
Analogamente a quanto già visto nel dosaggio radioimmunologico, lo schema secondo principio di competizione prevede due specie
di antigeni, uno marcato ed uno non marcato, in presenza di quantità di anticorpo limitante, con la differenza che in questo caso
l’antigene marcato viene marcato con un enzima stacanovista (enzima che nell’unità di tempo utilizza una grande quantità di
substrato). Si preparano dei supporti plastici, essenzialmente delle provette o piastre a 96 pozzetti, dove l’anticorpo che riconosce
l’antigene viene fissato sulla plastica, in questo modo il successivo passaggio di separazione fra immunocomplessi marcati e antigeni
non legati all’anticorpo viene reso molto più semplice non essendoci più la necessità dell’anticorpo secondario e l’eccesso potrà
essere eliminato con un semplice lavaggio.
Quindi, sugli anticorpi rimasti bloccati sul fondo della provetta si avranno legati sia gli antigeni coniugati con l’enzima che quelli non
coniugati e le loro quantità saranno in relazione. Per mettere in evidenza la quantità di antigeni coniugati si forniscono i substrati
dell’enzima, ad esempio i substrati fosfatasi alcalina in modo da ottenere un composto colorato, e si va a misurare l’assorbanza.
Questo sistema, nonostante sia estremamente simile, non può sostituire del tutto il saggio radioimmunologico perché, pur
basandosi sempre sulla competizione tra antigene marcato e non marcato, i due devono avere la stessa affinità per l’anticorpo, cioè
si devono legare con la stessa forza di legame, cosa che non viene in alcun modo influenzata dall’uso di un radioisotopo ma che
potrebbe con l’uso di un enzima.
Per quanto riguarda lo schema immunoenzimatico “a sandwich”, invece, si ha una provetta con anticorpo ed antigene marcato e
non marcato ma, in questo caso, non c’è una quantità limitante di anticorpo, piuttosto una quantità abbondante, per cui esso è in
grado di saturare tutte le possibilità di legame con l’antigene. Inserito anche l’anticorpo secondario questo si legherà all’antigene
su un epitopo diverso da quello occupato dall’anticorpo primario e, fatta la curva di taratura, all’aumentare della quantità di
antigene aumenterà sempre l’assorbanza. In sostanza qui si supera il problema dell’affinità perché non c’è competizione, tuttavia,
non si possono dosare le molecole monovalente come gli ormoni steroidei che non hanno più di un epitopo disponibile per il legame.
Un caso particolare del saggio “a sandwich” riguarda la marcatura
dell’anticorpo con biotina: l’anticorpo viene biotinilato e la biotina ne
permette il legame in uno dei quattro siti di legame dell’avidina, i tre siti
restanti, a questo punto, potranno essere occupati, ad esempio, da una
fosfatasi alcalina che ne permetterà la rivelazione. Il vantaggio di questo
sitema è proprio che per un anticorpo invece di un singolo enzima se ne
potranno legare tre, si ha quindi un’amplificazione del messaggio.
Un’altra possibilità per eseguire la tecnica “a sandwich” è fare la marcatura con una terra rara. L’europio, ad esempio, ha la
caratteristica di emettere fluorescenza a seconda dello stato di complessazione in cui si trova, quindi: sull’anticorpo secondario
viene legato un composto che coordina europio, una volta che l’anticorpo secondario si è legato all’antigene dentro la provetta,
trattando con un dichetone, si può staccare l’europio dall’anticorpo e ottenere delle micelle in soluzione che contengono l’europio,
in questo stato esso emette fluorescenza ed in base al grado di luminosità se ne può fare una misurazione quantitativa.
Dosaggio immunoenzimatico ELISA
Il dosaggio ELISA (Enzyme Linked Immuno-Sorbent Assay) è la tecnica più vecchia ma è usata ancora oggi per dosare anticorpi e si
basa sulla possibilità di fissare su un supporto plastico un antigene.
Si supponga di voler dosare l’eventuale produzione di anticorpi nei confronti di un
agente patogeno: si prendono molecole di superficie del virus e si legano alla
plastica interna al pozzetto, in questo modo questa plastica è come se presentasse
gli epitopi del virus; a questo punto si prende il siero di una persona che potrebbe
69
essere stata esposta al virus in questione, se questo fosse vero il suo sistema
immunitario avrebbe già reagito e prodotto gli anticorpi, quindi, si inserisce il siero
nelle provette e, se presenti, gli anticorpi si legheranno sulla proteina del virus (B);
successivamente, inserendo un anticorpo secondario marcato con un enzima
questo si legherà sull’anticorpo primario riconoscendo le immunoglobuline umane
e, se c’è stato legame delle immunoglobuline con l’antigene del virus, questo
anticorpo secondario si legherà sull’immunoglobuline (C); ovviamente l’anticorpo
secondario è stato marcato con un enzima, ad esempio una fosfatasi alcalina,
quindi, fornendone i substrati si vedrà la formazione dei prodotti di reazione
colorati che potranno essere misurati per via spettrofotometrica (D).
Si dice che in caso di risposta positiva il soggetto è immunopositivo per tale virus.
Si ricordi che nella risposta primaria vengono prodotte IgM e nella secondaria IgG,
allora, è possibile usare questo sistema per vedere se ci sono IgG o IgM umane,
basterà prendere un anticorpo secondario che le riconosca. Se la risposta arriva
solo da parte delle IgM questo vorrà dire che l’infezione è recente o addirittura
ancora in atto perché sono le prime immunoglobuline prodotte quindi si tratta di
una risposta primaria, se si ritrovano entrambe, invece, è indice che ci si trova uno
stadio avanzato di infezione quindi in risposta almeno secondaria, infine, se la
risposta arriva solo dalle IgG vorrà dire che l’infezione è pregressa.
Dosaggio immunoenzimatico EMIT
Il dosaggio EMIT (Enzyme Multiplied Immunoassay Technique) è usato per dosare la quantità di farmaci circolanti nell’organismo,
questo perché i farmaci vanno generalmente assunti in una quantità idonea alle caratteristiche fisiche (peso) dell’organismo ma
alcuni se assunti in dosi eccessive possono essere deleteri e addirittura condurre a morte come nel caso della diossina che si assume
per problemi cardiaci ed i quali effetti secondari, in seguito all’abuso, possono essere ben più gravi della patologia stessa. Per
mantenerne sotto controllo la quantità il paziente è sottoposto a dosaggi molto frequenti anche a giorni alterni perché l’accumulo,
in questi casi, prescinde dal peso ma riguarda l’effettiva presenza del farmaco nel circolo sanguigno.
Il sistema si basa sulla produzione di un coniugato (immunocomplesso) fatto tra l’enzima ed il farmaco da dosare che può essere
riconosciuto da uno specifico anticorpo.
Funziona in modo tale che quando l’anticorpo si lega al coniugato farmaco-enzima, l’enzima non esprime alcuna attività enzimatica.
In pratica: il farmaco viene legato vicino al sito attivo dell’anticorpo, quando l’anticorpo riconosce il farmaco e si lega al coniugato
farmaco-enzima, dato che è grande, blocca il sito attivo, quindi, l’anticorpo riconosce il farmaco ma il farmaco attaccandosi
all’enzima vicino al sito attivo lo blocca, in questo modo il coniugato farmaco-enzima legato all’anticorpo non ha attività enzimatica.
Se si aggiunge del farmaco libero, però, questo si legherà all’anticorpo e spezzerà il coniugato farmaco-enzima, a questo punto, non
essendoci più l’anticorpo che chiude il sito attivo si avrà attività enzimatica.
Per costruire le curve di taratura si utilizzano delle soluzioni standard di farmaco a concentrazione nota con il quale verranno
spezzate dall’anticorpo quantità differenti di coniugato ottenendo attività differenti in relazione alla quantità di farmaco presente.
Dosaggio torbidimetrico e dosaggio nefelometrico
Se si prende un anticorpo che riconosce una molecola di interesse e lo si fa interagire con questa molecola si avrà la formazione di
immunocomplessi. Questi immunocomplessi, se ci si trova nella regione di equivalenza, tenderanno a precipitare ed intorbidiranno
la soluzione, si parla quindi di dosaggio torbidimetrico, oppure, varieranno lo scattering (diffrazione) della luce, si parla quindi di
dosaggio nefelometrico.
Per questi sistemi automatizzati non sono necessarie le tecniche di immunoprecipitazione, basterà osservare il variare di questi due
parametri, torbidità e diffrazione della soluzione, che si verificheranno quando gli immunocomplessi rimasti in sospensione sono
rispettivamente tanti o molto piccoli.
Immunofluorescenza
L’immunofluorescenza non è una tecnica molto usata in analisi biochimico cliniche è più impiegata in istochimica quando si studiano
tessuti e si vanno a cercare su di essi gli antigeni. Si usano anticorpi che riconoscono l’antigene sul tessuto e anticorpi secondari resi
fluorescenti che vanno a fare il riconoscimento.
A) sezione di midollo spinale di embrione di
pollo marcato con un anticorpo primario che
riconosce i neurofilamenti
B) corno ventrale di midollo spinale, nella parte
corticale si osservano le fibre e nella parte
interna i corpi cellulari che sono motoneuroni
e contengono colin aacetil-transferasi
C) cellule di neuroblastoma
D) cellule di gangli dorsali
E) cellule di muscolo striato marcate con
actinina sui fascetti contrattili
F) doppia marcatura per actina e laminina di
cellule muscolari lisce

70
IMMUNOAGGLUTINAZIONE
Un’altra reazione secondaria alla formazione dell’immunocomplesso è l’immunoagglutinazione. Si verifica quando l’antigene in
soluzione non è libero ma si trova associato a qualcosa, ad esempio, a cellule ed è proprio il caso dell’agglutinazione dei globuli rossi
durante la determinazione dei gruppi sanguigni: in questo caso vengono ricercati gli antigeni presenti sulla superficie della cellula
(quindi non sono in soluzione), l’anticorpo li riconosce e avvicina fra di loro i globuli legandoli, una volta legati fra di loro è molto
difficile mantenerli in sospensione e si ritroveranno sedimentati sul fondo della provetta.
Tenendo conto di questo fenomeno è stata realizzata un’immunoagglutinazione sintetica
utilizzando particelle di lattice di polistirolo.
Il polistirolo viene utilizzato solitamente per produrre imballaggi e se sfregato tra le mani
si scioglie in tante piccole particelle rotonde, è possibile produrre tali particelle con le
dimensioni approssimativamente di un globulo rosso, mantenendole poi in sospensione
agitando una soluzione che le contenga. Inoltre, le medesime particelle di lattice possono
essere funzionalizzate, nel senso che ci si possono attaccare sopra con legami covalenti
degli anticorpi, potendo in questo modo verificare la presenza di antigeni nei liquidi
biologici di interesse, oppure degli antigeni, per andare a ricercare la presenza di anticorpi.
Cosa succede quando il lattice di polistirolo funzionalizzato viene messo a contatto con un liquido biologico nel quale esiste l’antigene
riconosciuto dal suo anticorpo?
Quando le particelle di polistirolo si trovano da sole sono in sospensione e formano delle goccioline che se messe sul fondo scuro
di un vetrino diventano lattescenti, sul medesimo vetrino si andrà ad inserire il reagente di polistirolo funzionalizzato con gli anticorpi
mescolandolo con un liquido biologico che potrebbe contenere l’antigene riconosciuto da quell’anticorpo, a questo punto succede
che in assenza dell’antigene riconosciuto dall’anticorpo le particelle di lattice di polistirolo non si legano fra loro ma si dispongono
uniformemente all’interno della goccia rivelando un’immagine bianca, al contrario, se nel campione è presente l’antigene si
formano dei ponti tra le particelle di lattice e quindi verifica il fenomeno dell’agglutinazione.
Si tratta di un metodo soprattutto qualitativo che è stato reso semiquantitativo
dando un’interpretazione alle immagini che si possono vedere: si utilizzano
combinazioni dei segni “+” e “-“, per cui, se viene dato un segno - vuol dire che
non c’è nessuna agglutinazione e viene rivelata l’immagine a sx, se viene dato il
segno +- vuol dire che si vedono degli agglutinati piccoli che si sciolgono facilmente
agitando il vetrino e quindi la quantità di antigene è probabilmente molto bassa,
aumentando via via con la quantità di segno + vuol dire che gli agglutinati crescono
di dimensione e verrà rivelata un’immagine sempre più simile a quella a dx.
Questo metodo è stato utilizzato per tanti anni come test di gravidanza, gli odierni test invece si basano sulla valutazione della
molecola gonadotropina umana (HCG) prodotta immediatamente dopo l’impianto dell’ovulo fecondato nella mucosa uterina dal
citotrofoblasto e successivamente dal sincizio trofoblastico con la funzione mantenere il corpo luteo nel primo trimestre della
gravidanza e stimolare il metabolismo placentare. Il test si esegue solitamente in autonomia sulle urine ma questa gonadotropina
si può rintracciare anche nel plasma dal 12°-15° giorno dopo il concepimento, anzi, nei periodi direttamente successivi è utile
eseguirne dosaggi che consentono di ricavare svariate info sull’andamento della gravidanza, soprattutto quando se ne prevedono
possibili interruzioni o rischi come il distacco della placenta.
Nel dettaglio il sistema funzionava utilizzando particelle di lattice di
polistirolo funzionalizzate con la gonadotropina corionica invece che con
anticorpi: il test può essere positivo o negativo perché ci può
rispettivamente essere o non essere la gonadotropina nelle urine del
soggetto, quindi, si prende una goccia di urina e si aggiunge una quantità di
antisiero che riconosce la gonadotropina corionica, se le urine contengono
l’HCG l’anticorpo aggiunto la lega, altrimenti, se la donna non è in
gravidanza non c’è HCG quindi gli anticorpi restano liberi; a questo punto si
aggiungono le particelle di lattice di polistirolo funzionalizzate con HCG, se
la donna è in gravidanza queste non verranno agglutinate perché l’anticorpo
aggiunto precedentemente è stato bloccato dall’HCG, se il soggetto è
negativo, invece, poiché l’anticorpo è rimasto libero potrà agglutinarle. Con
questo metodo si possono usare quantità estremamente piccole di
anticorpo che riconosce la gonadotropina perché di fatto all’inizio della
gravidanza questa viene prodotta in piccolissime quantità, quindi si otterrà
una risposta il più precocemente possibile.
Vi sono state poi successive evoluzioni di questo test basate sulle osservazioni condotte osservando la variazione degli ormoni
durante l’intero ciclo di una donna: quando una donna è in gravidanza compare la gonadotropina corionica ma nel corso del
quotidiano ciclo mestruale vi sono variazioni nel tempo degli ormoni follicolostimolante (FSH) e luteinizzante (LH), questi ormoni,
successivamente alla fase mestruale, consentono per stimolazione da parte del primo la formazione del follicolo, durante la
cosiddetta fase follicolare, e per stimolazione da parte del secondo la fase luteale ovvero la rottura del follicolo con fuoriuscita della
cellula uovo che potrebbe venire potenzialmente fecondata a livello delle tube di Falloppio.

71
FSH ed LH sono molecole molto piccole per cui possono
andare a trovarsi nelle urine sia in una qualsiasi fase del
ciclo sia, insieme all’HCG, durante la gravidanza.
Questo è importante perché di fatto queste molecole
sono tutte correlate tra di loro: vengono prodotte
dall’ipofisi ed hanno una struttura quaternaria con una
catena α e una catena β, la α è in comune a tutti mentre
la β li differenzia, cioè le catene β hanno epitopi
differenti tra loro.

Inizialmente il test di gravidanza descritto fu realizzato utilizzando antisieri, o anticorpi policlonali, ottenuti da animali immunizzati
con l’HCG intero, quindi venivano prodotti sia anticorpi nei confronti della catena β dell’HCG sia anticorpi nei confronti della catena
α che però, appunto, hanno in comune tutti questi ormoni, se oltre quest’ultimo fattore si considera che in certi momenti del
normale ciclo mestruale i livelli di FSH ed LH nelle urine diventano abbastanza alti, per trarre un’informazione dello stato gravido
era necessario aspettare un momento opportuno altrimenti il test sarebbe risultato erroneamente positivo, perché, pur non
essendoci le catene dell’HCG, se ne aveva abbondanza di quelle degli altri due ormoni.
Questo era ovviamente uno svantaggio, il passo successivo, quindi, fu di produrre anticorpi policlonali non usando più l’HCG intero
ma solo la sua catena β, eliminando così le interferenze della catena α.
Si guardi la catena β (immagine in alto a dx): la catena β dell’HCG è diversa dalla catena β dell’FSH e da quella del TSH ma ha un
epitopo in comune con quella dell’LH (sono entrambe a punta).
Quindi, utilizzando solo la catena β dell’HCG è stato possibile eliminare le interferenze con FSH e TSH ma non quelle con l’LH, che
diventa lo scopo del passo successivo della ricerca, infatti, a questo punto, si sceglie di costruire un test basandolo su anticorpi
monoclonali capaci di riconoscere gli epitopi specifici della catena β dell’HCG, che non sono presenti neanche sull’LH.
Si è arrivati ad ottenere un test molto più specifico dei precedenti, con una sensibilità tale da avere una positività sin dal momento
in cui la donna ha la sua prima mancanza circa 15 giorni dopo l’evento di fecondazione.
Oggi questo strumento è economico ed acquistabile in farmacia, è
un test immunocromatografico costituito da un device di plastica
con due di finestre, una in cui viene inserita una gocciolina di urina,
chiamata “zona di caricamento”, e l’altra, chiamata “zona di
controllo”, in cui si fa la lettura del test. Se compaiono due bande
colorate il test è positivo, se compare una sola banda il test è
negativo, in particolare la banda colorata che deve comparire da sola
è quella della zona di controllo ed esprime la correttezza del test.
Anche il test antigenico che attualmente si usa per il coronavirus è
di questa tipologia e ricerca come antigene la proteina spike.
Il device è costituito da materiale assorbente e carta cromatografica
e si prevede che il materiale messo nella zona di caricamento possa
diffondere per capillarità nella “zona test” dove sono presenti gli
anticorpi e dove avranno luogo le interazioni che permetteranno di
ottenere le colorazioni:
quando l’antigene ipoteticamente presente nel campione prelevato e caricato diffonde, incontra una prima zona dove sono presenti
degli anticorpi liberi, non fissati al supporto e sovrabbondanti rispetto alla quantità di antigene, si tratta di anticorpi primari che lo
riconoscono e lo legano, tuttavia, poiché c’è un flusso di liquido proveniente della zona di caricamento del campione, questi, legati
e non, diffonderanno verso le altre zone del device ed arriveranno nella successiva zona del test; qui sono presenti anticorpi
secondari fissati sul supporto cromatografico che riconosceranno l’antigene, ovviamente in un epitopo differente rispetto a quello
legato dall’anticorpo primario, e lo legheranno bloccandolo sul supporto, mentre, gli anticorpi primari che erano rimasti liberi perché
sovrabbondanti continueranno a diffondere fino ad arrivare alla zona di controllo dove ci saranno altri anticorpi, anch’essi fissati al
supporto, pronti a riconoscerli; si deve tenere presente che gli anticorpi primari sono coniugati anche con un enzima e che sia nella
zona del test che in quella di controllo vi sono i substrati per questo enzima, per cui, trovandosi bloccato sia nella prima per via del
legame con l’antigene e l’anticorpo secondario sia nella seconda per via del legame al suo anticorpo, si avranno due bande colorate
che esprimeranno la positività del test.
[Nel caso in cui il test fosse negativo, invece, si creerà una sola banda perché gli anticorpi primari, non essendoci antigene, non si
legheranno in alcun modo nella zona del test ma si legheranno esclusivamente nella zona di controllo.]

72
Il test di gravidanza è stato ben tarato e fornisce un’informazione attendibile e molto precoce, ci sono però delle considerazioni da
fare sul test per il Coronavirus, perché, mentre L’HCG è una molecola stabile e non cambia i suoi epitopi, questo virus è un agente
patogeno del quale viene ricercata una molecola proteica che varia nel tempo, la proteina Spike. Si tratta infatti di un test che è
stato prodotto per la proteina originaria di Wuhan, con gli anticorpi monoclonali che riconoscono gli epitopi di quella proteina,
proteina di un virus che però non c’è più perché è mutato, sostituito con la variante omicron ormai predominante.
Questo test funzionerà sempre o potrebbero esserci dei problemi?
Ci possono essere dei problemi perché un epitopo di una proteina è fatto da 5-6 amminoacidi e la mutazione potrebbe capitare
proprio sull’epitopo riconosciuto dall’anticorpo monoclonale del test che quindi potrebbe non riconoscerlo più, in realtà “potrebbe”
perché non è detto, potrebbe essere anche che continui a riconoscerlo ma magari con un’affinità più bassa. Questi test, quindi,
vanno controllati ad ogni comparsa di una nuova variante.
Per ovviare il problema sono stati modulati i test molecolari in cui, trattandosi di virus ad RNA, dopo aver eseguito una retro
trascrizione se ne va a ricercare direttamente il materiale genetico di cui vengono amplificati, mediante PCR, solo i tratti più stabili
rendendolo così un test estremamente sensibile e non inibito davanti una mutazione.
GRUPPI SANGUIGNI
La maggior parte degli anticorpi utilizzati per fare ricerche di antigene sono delle IgG perché hanno la maggiore affinità e quindi
garantiscono una maggiore stabilità, tuttavia, a volte accadde che non riescano a dare agglutinazione dei globuli rossi, in questi casi
si dice che l’anticorpo è un anticorpo incompleto, non perché manchi di qualcosa ma perché manca della capacità agglutinante.
Ciò deriva dal fatto che i due siti di legame sono piuttosto vicini l’uno all’altro e gli eritrociti sono troppo grandi per legarsi, inoltre,
hanno sulla loro superficie delle molecole proteiche caricate negativamente perché il sangue è un ambiente alcalino e, per la legge
di Coulomb, cariche dello stesso segno non fanno altro che respingersi. Soltanto anticorpi IgG che abbiano un’affinità esagerata
riescono a dare agglutinazione perché la forza di legame è tale da vincere la forza di repulsione delle cariche elettrostatiche ma
questa non è la generalità dei casi, riescono a dare agglutinazione soltanto le IgG prodotte per riconoscere il fattore RH, nella
maggior parte degli altri casi occorre una strategia.
Gli anticorpi di tipo IgM, invece, nonostante abbiano una bassa affinità rispetto alle IgG, riescono a dare agglutinazione perché i siti
di legame sono molto lontani tra di loro, sono infatti molecole pentameriche, cioè molto grandi, quindi gli eritrociti restano lontani
e non risentono delle forze di repulsione.
Come si fa a sapere che antigeni ci sono sui globuli rossi se non si vede agglutinazione?
Si ricorre ad un trucco introdotto dal dottor Coombs che consiste nell’utilizzare un anticorpo secondario chiamato siero di Coombs.
Si tratta di un siero che non riconosce gli antigeni sugli eritrociti ma riconosce gli anticorpi: se un anticorpo primario si è legato su
di un eritrocita ed un’altra molecola di anticorpo primario si è legata su di un altro eritrocita non c’è possibilità di agglutinarli, ma,
se si inserisce questo siero di Coombs esso farà da ponte fra i due anticorpi ed i due eritrociti, sufficientemente lontani per non
risentire delle forze di repulsione, andranno in agglutinazione.
Agglutinazione artificiale
Agglutinazione diretta

Siero di Coombs

Anticorpo primario

Tra i più importanti sistemi di gruppo eritrocitario individuati il più antico è il gruppo AB0 risalente al 1900 quando, nel corso di
pratiche cliniche a seguito di ferite molto gravi riportate per la guerra, si iniziò a tentare con le trasfusioni di sangue ottenendo
grandi insuccessi perché spesso e volentieri si sbagliava e quindi risentendo della necessità di un sistema che favorisse il
riconoscimento e l’adeguata cura dei pazienti. Attualmente nella pratica trasfusionale si vanno a ricercare l’AB0, il Rhesus ed il Kell
perché sono i tre sistemi di gruppo che hanno maggiori capacità nel dare immunizzazione o agglutinazione.
Per capacità immunogenica si intende la capacità di far produrre anticorpi quindi di stimolare il sistema immunitario.
Per quanto riguarda la composizione chimica degli antigeni di
questi gruppi si tratta di glicoproteine, glicolipidi e lipoproteine,
molecole di superficie che possono avere anche delle
modificazioni post-traduzionali e tutte derivate da alleli diversi
più o meno frequenti nella popolazione di appartenenza.
Dal punto di vista degli anticorpi che li riconoscono, invece, si
distinguono due categorie, gli anticorpi naturali e gli anticorpi
immuni. Questa definizione sta ad indicare che ci sono anticorpi
che naturalmente sono presenti nel circolo sanguigno dalla
nascita e che sono in grado di riconoscere le proteine presenti sui globuli rossi, ovviamente per quanto riguarda gli alleli non
posseduti e non le proteine dei globuli rossi del proprio organismo altrimenti si agglutinerebbero, ed anticorpi che normalmente
non si possiedono ma che vengono prodotti se si viene in contatto con eritrociti estranei.
73
Gli anticorpi naturali sono normalmente delle IgM, più raramente IgG o IgA, e sono anticorpi completi perché danno agglutinazione,
questi non attraversano la barriera placentare quindi non sono trasferiti al feto dalla madre ma vengo prodotti nei primi mesi di
vita. Gli anticorpi immuni, invece, sono normalmente delle IgG e sono anticorpi incompleti, vengono prodotti soltanto in risposta
ad un corrispondente stimolo antigenico quindi, per esempio, con una trasfusione sbagliata o nel corso di una gravidanza ed hanno
azione bloccante, ovvero bloccano quell’epitopo, quindi si fissano sul globulo rosso e attivano il complemento e lo liserà, inoltre,
riescono ad attraversare la barriera placentale, per cui se la madre si è immunizzata nei confronti di un antigene presente sui globuli
rossi e trasmette tali IgG al feto, se questo possiede i globuli rossi con quell’antigene, i suoi eritrociti verranno legati e distrutti dal
complemento in quella che è la cosiddetta malattia emolitica del neonato.
Nel dettaglio il sistema AB0
Il sistema AB0 è governato da diversi genotipi: AA, A0, BB, B0, AB, 00. La
differenza non è data dall’avere proteine diverse sulla superficie del globulo ma
si tratta della medesima sequenza amminoacidica che subisce diverse
modificazioni post-traduzionali, nel dettaglio vi è sempre la stessa sostanza di
base, una glicoproteina chiamata sostanza H, che viene rimodellata in diversi
modi da una glicosidasi presente nel reticolo di Golgi, per cui, un
rimodellamento da la sostanza di tipo A, un altro rimodellamento da la sostanza
di tipo B, se sono presenti gli alleli per entrambe le glicosidasi si avranno sia A
che B, in alternativa, se mancano entrambi gli alleli il risultato sarà lo 0.
Da qui derivano i diversi fenotipi: si è di gruppo A se si ha il genotipo AA o A0 perché è dominante la presenza dell’allele A (42% della
popolazione italiana), analogamente per quanto riguarda il gruppo B (12%), di gruppo AB se si è emizigote per A ed emizigote per B
(2%), di gruppo 0 se non si possiede nessuno di questi enzimi (44%).
Se si è di gruppo A si possiederanno l’antigene eritrocitario A e gli anticorpi anti-B che non “disturberanno” perché di fatto non si
ha sostanza B, tuttavia, se dovesse venir fatta una trasfusione errata che contiene eritrociti B il sangue verrebbe immediatamente
agglutinato con il conseguente blocco dei vasi sanguigni fino alla morte. Analogamente per il gruppo B che ha l’antigene eritrocitario
B ed anticorpi anti-A. Il gruppo AB, invece, ha entrambi gli antigeni ma nessun anticorpo altrimenti in ogni caso agglutinerebbe i
suoi stessi eritrociti, mentre, il gruppo 0 non ha nessun antigene ma possiede sia anticorpi anti-A che anti-B.
Per determinare l’appartenenza ad uno di questi gruppi si procede prendendo una goccia di sangue e mettendola su un vetrino
dove si potranno aggiungere gli antisieri anti-A e anti-B e guardare se i globuli rossi vanno in agglutinazione: se la gocciolina di
sangue rimane uniformemente colorata di rosso vorrà dire che il test è negativo, se si ha la formazione di aggregati il test è positivo.
Se il test risulta negativo sia all’anti-A che all’anti-B vorrà dire che il gruppo è 0, se risulta positivo all’anti-A e negativo all’anti-B il
gruppo sarà A, viceversa gruppo B e se risulta positivo a tutti e due il gruppo è AB.
L’agglutinazione è sicura ed abbondante perché si ha a che fare con IgM ed ottenere antisieri anti-A o anti-B non è difficile perché
questi si possono ricavare come sottoprodotto delle donazioni di sangue dal plasma.
Nella pratica trasfusionale si rispetta lo schema di Ottemberg: in linea di
principio ad un soggetto A si può dare A, ad un B si può dare B, ad un AB si
può dare AB, inoltre, ad un A si può dare anche 0 in quanto esso non possiede
antigeni e quindi gli anticorpi di A non agglutineranno questo sangue, per le
stesse ragioni anche ad un B si può dare 0, ad un AB si potranno dare anche
A, B e 0 perché non ha anticorpi circolanti e quindi qualunque eritrocita
funzionerà sempre bene, ad uno 0 non si potrà dare niente altro che 0.
AB0 è il sistema più complicato quindi la prima cosa che va fatta ad un paziente è sicuramente la tipizzazione del sangue. Per scala
di importanza poi lo seguono il sistema Rhesus o Rh che ha tanti alleli differenti tra i quali il D è il più potente dal punto di vista
immunogenico, cioè un soggetto Rh-negativo se viene in contatto con eritrociti Rh-D-positivi produce molto facilmente degli
anticorpi, cioè si immunizza molto facilmente nei confronti dell’antigene presente sugli eritrociti estranei, ed il sistema Kell che può
essere anch’esso positivo K+ o negativo K-.
Nel dettaglio il sistema Rh
La maggior parte dei soggetti è Rh-negativo, soltanto una piccola parte Rh-positivo, in genere si oscilla intorno al 5% a seconda delle
varie popolazioni nelle diverse aree geografiche, ad esempio, nella popolazione caucasica l’allele D è sicuramente quello più
frequente. L’allele D ha una capacità immunogena molto forte e quindi è importantissimo nella pratica trasfusionale ed è un fattore
cruciale nei casi di malattia emolitica del neonato.
Quando una donna Rh-negativa decide di mettere al mondo un figlio con un soggetto Rh positivo, il figlio potrebbe essere Rh-
positivo come il padre che può avergli trasmesso questo allele ed al momento del parto, al seguito di ferite e commistione di sangue
tra la madre ed il neonato, la madre potrebbe venire a contatto con gli eritrociti Rh-positivi del figlio ed immunizzarsi.
La madre nasce Rh-negativa quindi questo primo figlio non avrà alcun problema che infici la sua sopravvivenza.
Un secondo figlio della stessa coppia potrebbe nuovamente essere Rh-positivo ma, a questo punto, la madre avrà sviluppato gli
anticorpi anti-Rh per immunizzazione in seguito al primo parto e, poiché si tratta di IgG che riescono ad attraversare la barriera
placentare, arriveranno al feto e si legheranno sui suoi eritrociti attivando il complemento ed inducendone la lisi, per cui alla nascita
il bambino non avrà globuli rossi circolanti. Per salvarlo bisognerà fare una trasfusione di sangue completa in modo da allontanare
tutti gli anticorpi ricevuti dalla madre e dargli una corretta quantità di sangue Rh positivo come richiesto dal suo genoma.
Per eseguire la ricerca dell’Rh si usano dei sieri anti-Rh, in particolare anticorpi anti-RhD che sono capaci di dare agglutinazione,
anche se sono IgG, nella maggior parte dei casi senza siero di Coombs perchè l’Rh è un antigene molto forte.
74
Per quanto riguarda la tipizzazione, preso un campione ed analizzato con l’anti-RhD, se risulta positivo l’analisi termina qui potendo
affermare che esso sia Rh-positivo, se invece il risultato con l’anti-RhD fosse negativo sarà necessario provare ad utilizzare l’anti-
RhC o l’anti-RhE, in modo tale da poter escludere anche questi.
Questi anticorpi sono immuni quindi ottenuti purificando l’antigene Rh-D, l’antigene Rh-E, l’antigene Rh-C ed utilizzandoli per
immunizzare degli animali ed ottenere degli antisieri che riconoscono il C, il D o l’E. Un problema, in questo caso, è l’esistenza della
variante Rh-Du che se testata con un anti-RhD non riesce a dare agglutinazione fornendo quindi un risultato erroneamente negativo.
Si ricorrerà ad un anti-D insieme ad un siero di Coombs e soltanto in questo caso si potrà accertare l’esito negativo.
Considerazioni
è stata fatta una tipizzazione del sangue in un soggetto che deve subire una trasfusione, quindi si conoscono il suo gruppo AB0, il
suo gruppo Rh, ed il suo gruppo K; ci si rifornisce di sacche a lui compatibili ma NON si esegue subito la trasfusione perché non si
conosce se il soggetto sia immunizzato per gli altri gruppi, PIUTTOSTO si fa la “prova crociata”: una volta che si ha compatibilità AB0,
Rh e K si incrociano gli eritrociti del donatore con il plasma del ricevente perché è possibile che nel plasma ci siano gli anticorpi degli
antigeni non ricercati, a questo punto, se si verifica agglutinazione la trasfusione è già da escludere, se non si verifica si conduce
un’ulteriore prova in presenza di siero di Coombs che è capace di rendere più reattive anche quelle molecole a bassissima capacità
immunogenica e, se a questo punto non si vede agglutinazione, si può eseguire la trasfusione.

75

Potrebbero piacerti anche