Sei sulla pagina 1di 95

RIASSUNTO – LE

NEUROIMMAGINI
CAPITOLO 1: FONDAMENTI TEORICI ED EPISTEMOLOGICI (6
PAG.)
1.1 Cosa sono e a cosa servono le neuroimmagini
Le neuroimmagini anatomiche: radiografia, tomografia computerizzata (CT), risonanza magnetica. Neuroimmagini
funzionali: tomografia ad emissione di positroni (PET), tomografia a emissione di un singolo fotone (SPECT),
risonanza magnetica funzionale (fMRI), elettroencefalografia (EEG), magnetoencefalografia (MEG). Queste ultime
registrano attività cerebrale, si affiancano anche a tecniche strumentali di stimolazione o inibizione (stimolazione
magnetica transcranica TMS o stimolazione transcranica a corrente diretta tDCS).

Si studiano i circuiti cerebrali coinvolti in una vasta gamma di domini, sia su soggetti sani che su pazienti con
patologie neurologiche o psichiatriche: funzioni cognitive (percezione, attenzione, memoria e apprendimento,
pensiero, linguaggio e comunicazione), aspetti emotivi, sociali e motivazionali, di intelligenza e personalità,
coscienza e consapevolezza. Si studiano modificazioni nelle diverse fasi di vita e la plasticità tramite valutazione di
efficacia di protocolli volti a produrre cambiamenti di funzioni cognitive o motorie o emotive. Si usano tecniche
anche in ambito forense.

L’interpretazione dei risultati non è semplice. Ci sono delle fasi: (1) definire un quesito e/o un modello teorico di
riferimento; (2) creare un disegno sperimentale; (3) specificare le caratteristiche dei soggetti di studio; (4) definire
i paradigmi, i parametri e le sequenze da impostare nell’apparato di acquisizione; (5) condurre la sperimentazione;
(6) analizzare i dati e interpretare i risultati. Quindi si fa una serie di scelte sulla base del quesito al quale si intende
rispondere, delle conoscenze sulla metodica che sta usando, dell’anatomia e fisiologia del cervello umano e della
conoscenza delle analisi matematiche che si possono applicare ai dati. I risultati sono dipendenti da: metodica,
segnale biologico misurato, scelte operato in ogni specifico studio. I risultati sono probabilistici e necessitano di
una interpretazione che va integrata con studi precedenti e spesso richiede conferme o approfondimenti da studi
futuri.

Si possono distinguere diversi livelli di indagine:

A. Ricerca di base in psicologia cognitiva: studio dell’architettura e funzionamento normale del sistema mente-
cervello, nei diversi domini.
B. Ricerca pre-clinica neurologica e psichiatrica: comprensione delle malattie neurologiche e psichiatriche e
sviluppo di nuovi approcci alla diagnosi e alla programmazione e monitoraggio della terapia. Obiettivi sono:
integrare le categorie diagnostiche attuali basate sui sintomi con indicazioni sulle caratteristiche anatomo-
funzionali dei sottostanti sistemi cerebrali; identificare caratteristiche anatomo-funzionali che consentano
una diagnosi precoce; prevedere l’efficacia di trattamenti.

1
C. Sperimentazione clinica neurologica e psichiatrica: valutazione dell’efficacia del trattamento, da sole o in
congiunzione con altri indicatori. Fine è rilevare cambiamenti anatomici e/o funzionali determinati dal
trattamento che supportino un miglioramento della condizione clinica.
D. Applicazioni cliniche neurologiche e psichiatriche: valutazioni cliniche, programmazione e monitoraggio di
trattamenti farmacologici o riabilitativi e pianificazione e monitoraggio di interventi chirurgici.

La difficoltà nel passaggio dalla ricerca all’applicazione clinica è la necessità di trasformare i risultati basati su studi
di gruppo agli individui presi singolarmente.

BOX 1.1 NEUROIMMAGINI E PSICOLOGIA COGNITIVA


Le neuroimmagini sono metodi di indagine della psicologia cognitiva. L’obiettivo è quello di comprendere la
normale attività cognitiva umana. Ci sono 4 approcci fondamentali e in ogni approccio l’impostazione di un
progetto di ricerca parte da una teoria su un determinato processo cognitivo; dalla teoria poi vengono derivate
delle ipotesi che dovranno essere testate attraverso un metodo di validazione. In tutti i casi ci si basa su studi
sistematici di rapporti causa-effetto in condizioni controllate. Si manipola la VI e si osserva il suo effetto sulla VD,
tenendo sotto controllo i fattori estranei. Si può così trarre inferenze probabilistiche sulla causalità.

1. La psicologia cognitiva sperimentale usa il metodo sperimentale per condurre esperimenti comportamentali
su soggetti sani: ai soggetti è richiesto di eseguire uno o più compiti cognitivi e viene misurata la loro
prestazione (velocità di risposta + correttezza/accuratezza della risposta). Emergono info indirette su processi
cognitivi coinvolti nei compiti somministrati.
2. Scienza cognitiva usa il metodo computazionale o simulativo: processi cognitivi ipotizzati da teoria sono
simulati attraverso un programma per computer. Uomo visto come un elaboratore di info. È possibile
confrontare il funzionamento della mente umana col funzionamento di un computer, poi si va ad aggiungere
il metodo sperimentale. Il metodo simulativo mira a riprodurre i passaggi ipotizzati dalla teoria. Le risposte
prodotte dal computer vengono poi confrontate con quelle fornite dalle persone. In pratica, si parte dalla
teoria del processo cognitivo che si intende studiare, la si specifica nei singoli passaggio e la si traduce in
linguaggio di programmazione.
3. Neuropsicologia cognitiva usa metodo neuropsicologico o correlazionale: condotti esperimenti
comportamentali su soggetti con lesioni cerebrali. Se vi è una lesione dell’area/circuito cerebrale “x” e un
deficit della funzione cognitiva “y”, allora l’area “x” è necessaria per svolgere la funzione “y”; se il deficit è
selettivo, allora la funzione “y” è una componente isolabile del sistema cognitivo. Se si ha doppia dissociazione
si può affermare che le due lesioni abbiano danneggiato due sistemi funzionalmente isolabili. Ci sono però
delle problematiche: difficoltà nel reperimento di pazienti neurologici con lesioni selettive e formazione di
gruppi sperimentali omogenei; ci sono anche difficoltà derivanti dalla plasticità cerebrale.
4. Neuroscienze cognitive usa il metodo delle neuroimmagini (tecniche funzionali soprattutto) per identificare
circuiti cerebrali deputati a specifiche funzioni cognitive. La VD è costituita dalle attivazioni cerebrali. queste
info si integrano con quelle delle tecniche anatomiche per costruire modelli dell’architettura del sistema
mente-cervello neurobiologicamente fondati.

1.2 Assunti di base negli studi di neuroimmagine funzionale


1.2.1 IL SISTEMA MENTE-CERVELLO
Secondo gli emergentisti, nell’universo esiste una sola sostanza: la materia. Le particelle della configurazione
“cervello” hanno la proprietà di produrre coscienza. Parliamo di un unico sistema mente-cervello in cui tutti i
2
fenomeni psicologici sono causati dal cervello ma non riducibili ad esso: non si può dire che una sensazione
soggettiva e cosciente, sperimentata in prima persona, corrisponda a nient’altro che ad una configurazione,
oggettivamente rilevata, di neuroni eccitati. Ne consegue, da una parte, che la mente non può essere spiegata
senza fare riferimento alle interazioni causali che hanno luogo tra i neuroni; dall’altra, che la mente non può essere
dedotta o calcolata riferendosi unicamente agli elementi fisici costitutivi del sistema.

Lo studio dei correlati neurali di fenomeni psicologici è necessario ma non sufficiente per la comprensione del
sistema mente-cervello.

La visione condivisa oggi maggiormente considera il sistema mente-cervello come un insieme di sottosistemi
distinti, che eseguono funzioni in relativa autonomia gli uni dagli altri: “moduli”. La modularità del sistema riguarda
circuiti cerebrali: le singole aree del cervello non sono rappresentative di singole funzioni. Una stessa area può
supportare funzioni diverse e ogni funzione può essere supportata da più di una regione cerebrale. Le singole
regioni cerebrali non lavorano mai indipendentemente: il cervello è un sistema dinamico complesso.

1.2.2 SPECIALIZZAZIONE E INTEGRAZIONE FUNZIONALE


Due categorie di obiettivi degli studi di neuroimmagine funzionale:

1. Identificazione di regioni cerebrali specializzate in specifiche funzioni cognitive: obiettivo degli studi di
specializzazione funzionale. È un approccio tradizionale per cui si cerca di rispondere a quesiti di ricerca
inerenti alla dissociabilità e localizzazione di funzioni cognitive.
2. Identificazione di circuiti cerebrali per la realizzazione di una certa funzione cognitiva: questo è obiettivo degli
studi di integrazione funzionale, che forniscono configurazioni di regioni cerebrali la cui attività covaria
durante l’esecuzione del compito somministrato. Si usa per rispondere a quesiti di ricerca inerenti
l’associazione e la connettività anatomo-funzionale. Questo approccio si presta anche per analisi prospettiche.

I due approcci devono essere combinati per una piena comprensione dei risultati di neuroimmagine.

1.2.3 INFERENZE IN AVANTI E INFERENZE INVERSE


Quali inferenze si possono trarre validamente dagli studi di neuroimmagine funzionale. Per domande sulla
specializzazione funzionale si una un approccio di “inferenze in avanti” che si presentano nella forma: “se il
processo cognitivo “x” è coinvolto, allora una determinata regione/circuito cerebrale è attivo”. L’assunzione di
base è che uno stesso processo cognitivo non possa essere supportato da regioni cerebrali differenti durante
condizioni differenti all’interno dello stesso esperimento.

Punto di partenza è una specifica teoria cognitiva: teoria consente di formulare ipotesi sul funzionamento di un
processo cognitivo; sulla base di queste ipotesi vengono disegnate condizioni sperimentali per verificare
dissociazioni tra funzioni. In pratica, vengono confrontate condizioni che si suppongono differire per la funzione
di interesse.

• Se i pattern di attivazione cerebrale nelle due condizioni risultano qualitativamente differenti si inferisce che
le condizioni coinvolgono sistemi funzionali indipendenti: le regioni che si attivano in una condizione ma non
nell’altra si ritiene prendano parte in quella specifica funzione cognitiva.
• Se, invece, i pattern non differiscono o differiscono solo in quantità, allora si inferisce che le condizioni sono
sottese da un unico processo mentale.

3
Questo approccio è utile per confrontare teorie cognitive concorrenti (che sostengono dissociazione vs unicità).
Non si può inferire che le regioni attivate siano necessarie o sufficienti per il coinvolgimento di quel processo
mentale: ci sono casi in cui regioni che risultano attivate durante un compito non sono necessarie per esso. Per
dimostrarne la necessità sono necessari dati provenienti da altre metodiche: occorre dimostrare che la
soppressione dell’attività di quella regione produce qualche forma di deficit comportamentale nelle stesse
condizioni sperimentali.

Le inferenze in avanti possono essere impiegate per testare modelli di funzioni cognitive. Ma: (1) le aree cerebrali
che risultano attive non possono essere considerate necessarie per la funzione studiata quindi i risultati delle
neuroimmagini devono essere interpretati insieme a quelli di altre metodiche delle scienze e neuroscienze
cognitive; (2) altri tipi di inferenze devono essere impiegate in assenza di una teoria cognitiva di riferimento e nel
caso di studi di integrazione funzionale.

Altri quesiti di ricerca possono avere scopo più esplorativo: invece di partire da una teoria, ci si chiede, dato un
compito, quali processi cognitivi siano coinvolti nella sua esecuzione. In pratica, si somministra un compito, si vede
l’attivazione di aree, si inferisce che queste sono responsabili del processo cognitivo coinvolto nel compito. Si
adotta un approccio di “inferenze inverse”: a partire dalle attivazioni, si compiono inferenze sui processi cognitivi
coinvolti. Questo tipo di inferenza non è necessariamente valido in quanto una forma condizionale “se x, allora y”
non implica che “se y allora x” perché potrebbe sussistere un fattore diverso da x a determinare il conseguente y.
Per compiere validamente l’inferenza inversa occorrerebbe porre un’assunzione forte sulla sistematicità del
mappaggio funzione-struttura, ovvero assumere che sussista un mappaggio uno-a-uno (ad ogni funzione
corrisponde una specifica struttura e ogni struttura è deputata ad un solo tipo di funzione). Questo però pare
infondato.

Le inferenze inverse però, se usare nella consapevolezza, possono essere rilevanti sia per fornire info circa processi
cognitivi coinvolti nella prestazione di un compito, sia per suggerire nuove ipotesi.

Per usarle in modo adeguato, visto che l’inferenza che si trae non è necessariamente valida, occorre valutare il
grado di fiducia che in essa si può riportare. Per valutare la probabilità che un dato empirico sia effettivamente
un’evidenza a favore (o contro) l’ipotesi sperimentali, si usano diversi tipi di approcci. Alcuni autori propongono
di valutare le inferenze inverse inquadrando i risultati in un approccio bayesiano che conferisce gradi di certezza-
incertezza all’inferenza sulla base dei fattori che ne influenzano la qualità. La fiducia dipenderà:

1. Dalla credenza/stima a priori nel coinvolgimento del processo cognitivo di interessa nel compito; tale credenza
è almeno parzialmente sotto il controllo dello sperimentatore perché sceglie il compito.
2. Dalla probabilità a posteriori dell’inferenza inversa, che è fata dalla selettività di attivazione della regione di
interesse (ovvero dal grado con cui l’area è selettivamente attivata dal processo indagato rispetto alla
probabilità totale di attivazione di quell’area tra tutti i possibili compiti). Se una regione è attivata da un grande
numero di processi cognitivi, allora la sua attivazione fornisce un’evidenza debole e viceversa. Non è però
facile determinare la selettività di attivazione di un’area. Un modo possibile per farlo consiste nell’usare il
teorema di Bayes applicandolo ai risultati degli studi presenti su internet. Si cercano gli studi che mostrano
attivazione di una particolare area e si stima la selettività di attivazione di quella.

Le inferenze inverse possono essere impiegate per indagini esplorative che possano guidare studi successivi anche
nell’ambito dell’approccio di integrazione funzionale. Ma: (1) le inferenze inverse devono essere considerate con

4
cautela quando usate come mezzo diretto per interpretare i risultati; (2) è fondamentale il confronto e condivisione
dei dati: le meta-analisi consentono di trarre inferenze più solide. Inoltre, la rilevazione di siti comuni di attivazione
tra studi diversi consente di fare connessioni tra domini tradizionalmente separati.

1.2.4 METODO SOTTRATTIVO E METODO DI COVARIANZA


• Metodo sottrattivo: usato per studi di specializzazione funzionale. Si fonda sul presupposto che ogni
funzione mentale coinvolga specifiche regioni cerebrali: scopo è isolare nel modo più preciso le regioni
coinvolte nella funzione studiata rispetto a quelle coinvolte in altre funzioni mentali. Assunzione di base è che
i processi mentali possano essere localizzati mettendo a confronto aree cerebrali attivate dall’esecuzione di
compiti che richiedono impiego di funzioni mentali diverse. In pratica, si sottraggono le immagini acquisite
durante una condizione attiva da quelle di una condizione di base. In generale, gli studi di specializzazione
funzionale usano questo metodo. In generale la condizione di base può essere rappresentata dall’assenza di
qualsiasi attività. Più spesso, quando la componente di interesse è una funzione complessa, alla condizione di
riposo viene aggiunta una condizione denominata “condizione di controllo”: rappresentata da un compito che
differisce da quello sperimentale solo per la funzione mentale oggetto di studio.
Un disegno sottrattivo ricava la componente di interesse come “attivazione vs baseline” e si può riassumere
così: A=(A+B)-B in cui A è condizione attiva e B baseline. Ciò presuppone l’assunzione di “pura inserzione”: si
assume che un processo cognitivo possa essere aggiunto ad altri processi senza influenzarli (ma non è sempre
vero). Per ovviare al problema si usano disegni sperimentali più sofisticati: disegni di congiunzione, disegni
parametrici o fattoriali; non presuppongono la pura inserzione e rilevano il contributo reale di ogni
componente con più accuratezza.
Un disegno di congiunzione combina una serie di sottrazioni, tutte mirate ad isolare il medesimo processo
cognitivo: la componente di interesse è data dalla comunalità di attivazione tra coppie di compiti e si riassume
così: A=[(A+B)-B] and [(A+C)-C]. Per conoscere i correlati di A si considera l’intersezione degli insiemi di ogni
componente. In pratica si testano più confronti e si verifica se tutte le attivazioni siano congiuntamente
significative.
Un disegno parametrico consente di controllare la bontà dei confronti tra condizione attiva e baseline
attraverso una parametrizzazione del compito: compito presentato in diverse condizioni che evocano lo stesso
processo cognitivo ma ad un diverso livello. Assunzione è che la risposta cerebrale vari sistematicamente con
il livello di processo richiesto.
Un disegno fattoriale consente di caratterizzare le interazioni tra condizioni, ovvero di rilevare possibili effetti
che un processo o componente cognitiva ha su un’altra. Comprende due o più componenti (fattori) combinati
tra loro in modo da poter essere valutate sia separatamente che congiuntamente. In generale, gli effetti di
interazione possono essere interpretati come integrazione di due o più processi cognitivi, oppure come la
modulazione di un processo a causa dell’altro.
• Metodo di covarianza: usato per studi di integrazione funzionale. Si fonda sul presupposto che ogni funzione
mentale è mediata da un insieme di regioni cerebrali interagenti: regioni la cui attività è correlata vengono
considerate parte di uno stesso circuito. Assunzione di base è che regioni cerebrali che presentano una
covarianza temporale siano funzionalmente connesse. Gli studi di integrazione volti all’indagine della
connettività funzionale usano analisi statistiche di questo tipo. La covarianza temporale tra diverse regioni
può essere misurata: (a) durante lo svolgimento di un compito determinato, con assunto che differenti compiti
coinvolgano differenti pattern di connessioni; (b) a riposo. Molte analisi statistiche basaste su questo metodo
possono essere applicate senza ipotesi a priori circa le differenze attese nel contrasto tra condizioni
5
sperimentali, quindi possono fornire info su nuove connessioni cerebrali, correlazioni con indici
comportamentali e anche effetti dovuti a variabili non controllate o non controllabili.

APPROCCIO SPECIALIZZAZIONE FUNZIONALE INTEGRAZIONE FUNZIONALE


(studi di attivazione) (studi di connettività)
OBIETTIVO Identificare le specifiche regioni Identificare circuiti cerebrali di una
cerebrali specializzate in specifiche certa funzione cognitiva (trovare
funzioni mentali (trovare associazioni, compiere studi di
dissociazioni, localizzare e connettività anatomo-funzionale,
segregare funzioni, testare analisi prospettiche dei risultati
ipotesi/modelli, confrontare teorie dall’analisi di un set di dati
cognitive concorrenti). completamente nuovi).
TIPI DI INFERENZE Sia inferenze in avanti che Inferenze inverse (decodifica).
inferenze inverse (codifica e
decodifica).
METODI Metodo sottrattivo sia per Metodo di covarianza.
inferenze in avanti che per quelle
inverse.
MODELLI DI ANALISI STATISTICA Approcci univariati (GLM): viene Approcci multivariati: viene testata
testata la dipendenza statistica tra la dipendenza statistica tra
manipolazione sperimentale e manipolazione sperimentale e
risposte cerebrali per ogni singolo risposte cerebrali per tutti i voxel
voxel. Si ottengono mappe che considerati congiuntamente. Si
rappresentano attività neurale in ottengono mappe che
specifiche aree. rappresentano attività neurale
distribuita (spesso in termini di
covarianza tra regioni cerebrali
multiple).
BOX 1.2 QUESTIONI ETICHE
Pericoli della divulgazione mediatica. I media prendono i risultati degli studi saltando a conclusioni discutibili,
ipersemplificando i risultati e omettendo i difetti della ricerca. A volte dei lavori vengono pubblicati su riviste non
scientifiche e pertanto non sottoposte a revisione di esperti del settore.

Non è tutto oro quel che luccica. È bene valutare prima di tutto l’onestà di un articolo. Gli studi di neuroimmagine
hanno un forte potere persuasivo.

Neuroimmagini: una nuova macchina della verità? Il metodo più diffuso per capire la verità di una persona è la
registrazione fisiologica multicanale: poligrafo. Permette di rilevare cambiamenti di risposte del SNA. Non è
affidabile però. Gli ERP sono misurazioni che possono essere usate per rilevare la presenza di specifiche memorie
(attività cerebrale che risulta da eventi conosciuti è diversa da quella relativa ad eventi nuovi). Con la fMRI oltre a
rilevare la presenza di specifiche memoria per distinguere diverse aree cerebrali associate al riconoscimento, è
anche possibile provare a distinguere la menzogna dalla verità: maggiore attivazione di aree prefrontali e cingolata
anteriore nelle condizioni di bugia rispetto a quelle di verità. Bisogna considerare con cautela la possibilità di
generalizzare il metodo. La lettura dei dati fMRI può lasciare spazio a interpretazioni alternative e questo è un
ulteriore problema. Il problema più grande è l’effetto della messa in atto di contromisure.

A livello etico, la principale questione riguarda il concetto di libertà cognitiva, ovvero diritto alla privacy dei propri
pensieri.

In conclusione, l’uso delle neuroimmagini per rilevare memorie o menzogne non sembra maturo.

6
Neuroimmagini e genetica a conferma dell’infermità mentale: la sentenza di Trieste. Tecniche usate al fine di
stabilire il grado di incapacità di intendere e di volere dell’imputato. Viene trovato il gene MAOA in basse quantità
(questo è associato a condotta aggressiva e criminale in individui cresciuti in ambienti non protettivi e che si
trovano in condizione di esclusione sociale) e alterazioni con fMRI del funzionamento cerebrale.

CAPITOLO 2: FONDAMENTI METODOLOGICI (8 PAG.)


Negli studi di neuroimmagine, l’immagine del cervello è suddivisa in unità spaziali (circa 100mila) chiamate “voxel”.
I dati si presentano nella forma di una matrice di valori che rappresentano l’intensità del segnale ad ogni voxel.
Nell’immagine il segnale misurato da ogni voxel viene visualizzato con una diversa gradazione cromatica in
relazione alla sua intensità.

Per le tecniche anatomiche:

• Confrontare il segnale emesso ad ogni voxel rispetto a ciascun altro voxel al tempo 1 e 2 in un singolo soggetto,
per valutare cambiamenti di tempi.
• Confrontare segnale medio emesso ad ogni voxel rispetto a ciascun altro voxel in un gruppo di soggetti al
tempo 1 e 2 e poi confrontare valori medi ottenuti ad ogni voxel in caiscuno dei due punti temporali per
rilevare cambiamenti nel tempo a livello di gruppo.
• Confrontare il segnale medio emesso ad ogni voxel rispetto a ciascun altro voxel in un gruppo di soggetti S1 e
uno S2, poi confrontare i valori medi ottenuti ad ogni voxel da ciascun gruppo per rilevare differenze tra essi.

Per le tecniche funzionali:

• Confrontare il segnale medio emesso ad ogni voxel rispetto a ciascun altro voxel nella condizione A (compito
A) rispetto alla condizione B (no compito o compito B diverso da A). questo consente, attraverso il metodo
sottrattivo, di rilevare aree selettivamente attivate durante lo svolgimento di una determinata funzione.
• Il confronto può essere svolto su un gruppo di soggetti per compiere inferenze generalizzabili alla popolazione
di riferimento relativamente al coinvolgimento di determinate aree per una funzione.
• Confrontare il segnale medio emesso ad ogni voxel rispetto a ciascun altro voxel nella condizione A rispetto
alla condizione B, in un gruppo S1 e uno S2; calcolare la differenza tra valori medi ottenuti da ogni gruppo
nelle due condizioni; confrontare le differenze medie dei due gruppi, per rilevare differenze tra i gruppi
relativamente alle aree cerebrali attivate durante una funzione.

2.1 Cenni di metodologia della ricerca sperimentale


2.1.1 DISEGNI SPERIMENTALI
• Effetto VD è rappresentato dalle variazioni di intensità del segnale ad un dato voxel o insieme di voxel; la VD
è sempre costituita da valori numerici di tipo metrico.
• La causa VI rappresenta il quesito sperimentale (sperimentatore la controlla).

A seconda del numero di VI e VD e del tipo di quesito sperimentale, si distinguono diversi disegni sperimentali.
negli studi di neuroimmagine funzionale, una VI é di solito rappresentata dal “tipo di compito”; possono esserci
ulteriori VI.

Disegni con campioni dipendenti. Si valuta l'effetto entro i soggetti: sia un unico gruppo che viene sottoposto a
tutte le condizioni della VI. Il quesito di ricerca riguarda il tipo di condizione: in che modo le risposte cerebrali

7
cambiano nelle diverse condizioni? I dati sono campioni dipendenti perché provengono dagli stessi soggetti e le
risposte cerebrali vengono confrontate (condizione attiva vs. di base o riposo). Un caso particolare è lo studio
longitudinale: il gruppo di soggetti viene sottoposto a valutazione in tempi diversi e il quesito di ricerca riguarda i
cambiamenti di segnale al tempo 2 (t2) rispetto al tempo 1 (t1). Il disegno deve comprendere un gruppo di
controllo che non sia stato sottoposto al trattamento oggetto di studio; alternativamente, o in aggiunta, deve
incorporare un lasso temporale precedente al T1 in cui non sia stato somministrato il trattamento, e una
valutazione dei soggetti al tempo 0 (t0) che dimostri assenza di cambiamenti cerebrali rispetto al T1.

Disegni con campioni indipendenti. Si valuta l'effetto tra i soggetti: si hanno due gruppi contrapposti senza
nessuna relazione intercorrente. Il quesito di ricerca riguarda l'effetto del tipo di gruppo: in che modo le risposte
cerebrali cambiano in un gruppo rispetto all'altro?

2.1.2 TECNICHE STATISTICHE


Le tecniche descrittive consentono di riassumere alcune caratteristiche dei dati raccolti, calcolando valori di
tendenza centrale e indici di variabilità o dispersione.

È il punto di partenza per le Stime di parametri necessari all'inferenza statistica: si può compiere una stima dei
relativi parametri nella popolazione di riferimento.

Le tecniche inferenziali consentono di generalizzare I risultati ottenuti da un campione all'intera popolazione di


riferimento. Sono usate per decidere se una differenza osservata tra le medie e/o le varianze nelle diverse
condizioni sperimentali o tra i gruppi esaminati sia statisticamente significativa.

2.1.2.1 Approccio confermativo vs esplorativo


Una distinzione tra due tipi di approcci statistici: Le analisi condotte confermativo e quelle condotte con approccio
esplorativo.

Nelle analisi confermative o “guidate dal modello”, il modello della relazione tra VI e VD è definito dallo
sperimentatore; l'analisi dei dati mira a confermare la validità del modello. Generalmente, mirano a testare ipotesi
e a determinare la significatività delle differenze ipotizzate.

Nelle analisi esplorative o “guidate dai dati”, il modello della relazione tra VI e VD non è definito a priori ma
emerge dall'analisi dei dati. Queste tecniche che consentono di formulare ipotesi a posteriori sulle cause del
fenomeno in esame. Fanno uso di tecniche multivariate Perché vengono utilizzate per indagare dati
multidimensionali.

L'approccio tradizionale negli studi di neuroimmagine è quello confermativo. Le analisi esplorative vengono
utilizzate soprattutto per studi di connettività funzionale.

2.1.2.2 Approccio univariato vs multivariato


Una seconda distinzione è tra analisi univariate (considerano una sola VD) e multivariate (considerano più VD).
Negli studi di neuroimmagine, nel caso di analisi univariate, il test statistico viene applicato ad ogni voxel, una sola
VD è rappresentata dal segnale misurato in quel voxel; nella analisi multivariate, il test statistico viene applicato
considerando tutti i voxel, ognuno costituisce una VD.

Tecniche univariate: ANOVA, regressione o Modello Lineare Generale (GLM). Corrispettivi multivariati: analisi della
varianza multivariata (MANOVA) e correlazione canonica:

8
• MANOVA: serve per valutare la relazione tra una o più VI nominali e un insieme di VD metriche basata
sull’analisi delle differenze tra medie che assumono le misurazioni di un gruppo/condizione e le stesse
medie calcolate per l’altro gruppo/condizione. Valuta l’effetto del gruppo/condizione sul segnale di tutti
i voxel considerati nell’analisi.
• Correlazione canonica: valuta la relazione tra due insiemi di var metriche. Consiste nell’individuare una
combinazione lineare di uno degli insiemi di var. e una combinazione lineare dell’altro insieme in modo
che la correlazione semplice tra le due combinazioni lineari risulti massimizzata. Fornisce una serie di
variabili dette canoniche: il coefficiente di correlazione tra la prima coppia di var canoniche esprime la
correlazione massima; poi, considerando la varianza non spiegata dalla prima correlazione, vengono
calcolate le coppie di var. canoniche successive, e così via. È possibile identificare quali var. spiegano la
varianza in termini di voxel. Sono usate a scopo confermativo.

Ci sono poi tecniche multivariate esplorative:

• Analisi delle Componenti Principali (PCA);


• Analisi delle Componenti Indipendenti: (ICA).

Ci sono tecniche multivariate che vengono usate sia per scopi confermativi che esplorativi: Modelli ad Equazioni
Strutturali (SEM) → usata per testare e stimare relazioni causali.

Una tecnica multivariata sviluppata apposta per l’analisi di dati di neuroimmagine funzionale è il Modellamento
Causale Dinamico (DCM) → di tipo confermativo, consente di fare inferenze e stime sulla connettività effettiva.

Tradizionalmente vengono usate tecniche univariate che rispondono a quesiti di specializzazione funzionale. Le
tecniche multivariate consentendo di valutare l’effetto della manipolazione sperimentale in regioni cerebrali
multiple sono state introdotte per caratterizzare la configurazione globale distribuita del volume o dell’attività
cerebrale in diverse condizioni o gruppi; negli studi funzionali esse rispondono a quesiti di integrazione funzionale.
Le tecniche multivariate non consentono però inferenze specifiche ad ogni voxel.

2.2 Analisi dei dati di neuroimmagine


2.2.1 MODELLO LINEARE GENERALE (GLM)
Valutano relazioni lineari tra una o più VI e una VD. Una relazione lineare implica una descrizione dei dati in termini
di linee rette, piani, cubi ecc. T-test, ANOVA, correlazione, regressione sono tutte forme di GLM e forniscono il
medesimo valore di p. L’ANOVA richiede che le VI siano categoriali, mentre la regressione consente VI categoriali
e metriche. La regressione ha potere descrittivo e predittivo. L’ANOVA è preferibile in studi con misure ripetute.
In alcuni casi, come quando VI è categoriale e può assumere solo 2 valori, la regressione coincide con ANOVA e t-
test.

I dati misurati sono determinati dalla combinazione delle VI, ciascuna moltiplicata per un parametro (beta) che
indica quanto quella VI contribuisce ai dati complessivi, più l’errore.

𝑌 = 𝑋1 𝛽1 + 𝑋2 𝛽2 + 𝑋𝑛 𝛽𝑛 + 𝜀

• Y è il vettore dei dati che corrisponde ad una colonna di lunghezza n. Negli studi funzionali Y è
rappresentata dalle n misurazioni effettuate sul voxel.

9
• X è la matrice del disegno sperimentale definita dallo sperimentatore (ovvero il modello). Descrive ciò che
ci si aspetta relativamente all’intensità del segnale ad ogni scan o punto temporale. La specificazione della
design matrix è la cosa più importante; è necessario rispettare l’assunzione che le condizioni siano il più
possibile indipendenti.
• 𝛽 (coefficienti di regressione) sono i parametri da stimare che indicano la variabilità spiegata dal modello.
Fornisce la quantità di segnale spiegato dalla corrispettiva X (VI).
• 𝜀 è il vettore di errore o rumore, corrisponde alla variabilità non spiegata dal modello e può essere
attribuita a qualsiasi variabile non considerata nel modello.

Una scelta importante riguarda l’uso di analisi a effetti fissi vs analisi a effetti random. La prima considera solo la
varianza intra-soggetto, ovvero la variazione tra le misurazioni (scan) del singolo soggetto nella stessa condizione,
e non considera la varianza tra soggetti. La seconda tiene conto anche della varianza tra soggetti, assumendo che
essi costituiscano un campionamento random della popolazi0one di riferimento e che le differenze tra i soggetti
siano informative rispetto alla popolazione da cui sono estratti. Un’analisi a effetti fissi consente di trarre inferenze
solo relativamente al gruppo di soggetti studiati, un’analisi a effetti random consente di generalizzare e i risultati
ottenuti alla popolazione di riferimento. Negli studi di confronto tra gruppi in cui si intende estendere i risultati
alla popolazione di riferimento è necessario procedere ad un’analisi a effetti random. Per condurre un’analisi a
effetti random occorre prima condurre un’analisi a effetti fissi: si calcolano i parametri di interesse, o grandezza
dell’effetto, per ogni soggetto. Dopodiché, occorre compiere un’analisi di secondo livello, che confronti la
grandezza dell’effetto in ogni soggetto con la varianza tra i soggetti. Se questa è sufficientemente grande, si può
inferire che l’effetto sia presente nell’intera popolazione di riferimento. Le analisi ad effetti fissi sono più potenti
rispetto a quelle a effetti random.

Per trovare un effetto significativo con un’analisi a effetti random occorre che la numerosità del gruppo sia
sufficientemente ampia.

2.2.1.1 Mappaggio statistico parametrico (SPM)


SPM approccio vengono applicati ad ogni voxel o unità spaziale, per valutare l’effetto dei parametrici sperimentali.
Il modello statistico utilizzato è un GLM. Lo sperimentatore specifica la design matrix. La GLM calcola i parametri
𝛽 per ciascun voxel e questi sono usati per creare mappe statistiche parametriche che caratterizzano le specifiche
risposte locali alle manipolazioni sperimentali. La significatività della mappa è valutata con metodi di calcolo
probabilistico. Le mappe colorate degli studi di neuroimmagine rappresentano la probabilità del test di
significatività.

Un’altra scelta riguarda il metodo di correzione per i confronti multipli: implica che per ogni soggetto vengano
effettuati decine di migliaia di test e, quindi, senza una adeguata correzione si incorre in molte centinaia di falsi
positivi. Sono stati sviluppati altri metodi per la correzione dei confronti multipli: spesso si applica la teoria dei
campi gaussiani random che considera cluster di voxel contigui come un’unica unità e stima quanto sia probabile
che i cluster appaiano nei dati per effetto del caso. Un altro metodo è dato dall’esecuzione di test di permutazione,
test non parametrici che non richiedono alcuna assunzione sui dati. La tecnica crea delle matrici di disegno
random: attribuisce le misurazioni che appartengono a ciascuna condizione/gruppo a ciascuna delle altre
condizioni/gruppo, così da ottenere tutte le possibili combinazioni di misurazioni-VI. Si ottiene una distribuzione
di valori t, uno per ciascuna delle matrici random applicate. Se il modello sperimentale è buono, i valori t del

10
disegno sperimentale reale saranno molto più alti di quelli delle matrici random e, quindi, molti dei voxel
dell’esperimento reale avranno valori di t sopra la soglia.

Un altro metodo valuta il tasso di scoperta dei falsi positivi, che adotta un approccio ancora diverso il cui obiettivo
è garantire che ci siano pochi falsi positivi.

Negli studi di neuroimmagine un’altra scelta riguarda le aree cerebrali su cui effettuare l’analisi dei dati. Nella
maggior parte degli studi l’analisi è condotta su tutti i voxel dell’encefalo; ma in alcuni casi è possibile effettuare
un’analisi solo su alcune regioni di interesse (ROI analisi). Le ROI possono essere definite su base anatomica o
funzionale. Le ROI anatomiche si disegnano sulle immagini cerebrali del singolo soggetto; quelle funzionali sono
derivate dai dati funzionali ottenuti su ogni soggetto, attraverso una scansione precedente usata come
“localizzatore”. Sui voxel selezionati vengono poi eseguite le analisi statistiche dell’esperimento. Il vantaggio
deriva dal fatto che l’analisi viene fatta su un numero limitato di voxel, diminuendo i confronti multipli e
aumentando la potenza statistica. Tuttavia, la determinazione delle aree è delicata e risente di margini di
soggettività; inoltre, la focalizzazione su ROI pre-definiti può portare a negligere dati potenzialmente interessanti
da altre regioni.

2.2.2 ANALISI PER STUDI DI CONNETTIVITÀ


Per studiare la connettività anatomica in vivo si usano tecniche MR che forniscono info sulle principali direzioni di
diffusione delle molecole di acqua, quali la visualizzazione basata sul tensore di diffusione (DTI): a partire dai valori
del tensore di diffusione è possibile ricostruire i percorsi dei fasci di fibre di materia bianca che connettono
neuroni. Applicando poi specifici algoritmi si possono compiere simulazioni relative alla connessione tra voxel di
materia grigia. È possibile studiare alcune proprietà delle reti neurali. Le analisi di connettività anatomica sono
importanti per ipotizzare modelli di connettività funzionale.

Per studiare la connettività funzionale idealmente dovremmo poter misurare il percorso spaziale e temporale che
segue l’info, da un punto all’altro. Le tecniche di neuroimmagine funzionale generalmente misurano ciò che
accade a livello della singola unità di misura. Si può quindi campionare molti siti contemporaneamente e vedere
in che modo i pattern di attività ottenuti siano correlati tra loro. Se l’andamento dell’attività nel tempo di un certo
voxel assomiglia a quella di un altro, è probabile che essi stiano facendo cose simili. Se i due voxel sono
spazialmente vicini, li si può considerare parte di una stessa area funzionale; se sono lontani, si può inferire che
siano connessi. Il problema è che la correlazione non implica causalità. Inoltre, anche se sono connessi, è difficile
stabilire la direzione della connessione. Con il termine “connettività funzionale” ci si riferisce al concetto di
correlazione, ovvero all’attività simultanea tra campioni di voxel spazialmente distanti.

Con il termine “connettività effettiva” ci si riferisce al concetto di causazione, ovvero all’influenza che un sistema
neurale esercita su un altro, direttamente o indirettamente. La connettività effettiva non richiede una connessione
fisica diretta, ma richiede di rendere conto della direzione di causalità.

2.2.2.1 Connettività funzionale


Vengono usate tecniche multivariate che considerano tutti i voxel nel loro insieme caratterizzando la
configurazione globale distribuita dell’attività cerebrale. Si usa per indagare la covarianza delle attivazioni tra
regioni cerebrali. Tutte le tecniche si fondano sullo stesso concetto: misurare la correlazione tra serie temporali in
punti diversi del cervello. Si campionano serie temporali di attività da molte aree diverse e poi si applicano
equazioni matematiche per cercare nei dati andamenti temporali che siano simili tra regioni. Poi possono essere

11
impiegate analisi guidate dal modello, come la PPI, che rilevano correlazioni di aree cerebrali in relazione alle
condizioni sperimentali. Negli studi in cui l’attività cerebrale è invece rilevata in uno stato di riposo vengono usate
analisi guidate dai dati, quali PCA e ICA.

Interazioni psicofisiologiche – PPI. Si definisce una regione di interesse (ROI), chiamata “seme”, si estrae la serie
temporale della sua attività e si misura la correlazione con le serie temporali di tutti gli altri voxel nel cervello,
osservando dove si riscontrano alti valori di correlazione. Questo metodo si chiama correlazione basata sul voxel-
seme e si evidenziano tutte le connessioni tra regioni cerebrali e il seme. La PPI è un avanzamento della
correlazione basata sul voxel-seme, che tiene conto anche delle diverse condizioni sperimentali. Esamina le
interazioni tra condizioni sperimentali e cambiamenti del segnale in aree cerebrali. La PPI prende in input una ROI-
seme e la matrice del disegno sperimentale. Le serie temporali del seme vengono convolute con un vettore che
rappresenta un contrasto nella matrice del disegno. Questo regressore nuovo PPI viene inserito in un GLM, insieme
alle serie temporali stesse e al vettore che rappresenta il contrasto: i voxel del cervello per i quali il regressore PPI
mostra un parametro molto alto sono quelli che hanno un cambiamento significativo nelle connessioni con il seme,
tra una condizione sperimentale e l’altra. La PPI fornisce un modello di modulazione. È utile quando si ha una sola
regione di interesse e si vuole vedere la sua covarianza con le altre parti cerebrali, e se questa covarianza è diversa
nelle diverse condizioni sperimentali. Se si hanno molte ROI, per ciascuna occorre ristimare la PPI, questo richiede
un grosso dispendio di tempo.

Analisi delle componenti principali (PCA) e analisi delle componenti indipendenti (ICA). L’obiettivo è
identificare le maggiori fonti di varianza nei dati, per costruire configurazioni di covariazioni spazio-temporali; negli
studi di neuroimmagine funzionale, ciò consente di identificare le componenti di larga scala di sistemi motori o
cognitivi.

Nella matrice dei dati (Y) ogni colonna rappresenta un voxel (v), e ogni riga rappresenta uno scan di dati (s), ovvero
la scansione di uno stesso soggetto in punti temporali diversi.

L’equazione è 𝑌(𝑠, 𝑥) = 𝑠𝑠𝑓(𝑠) × 𝑣(𝑥) + 𝜀(𝑠, 𝑥) in cui Y(s,x) è l’insieme dei dati, che dipende da “s” che è l’indice
di scan, e “x” che è l’indice di voxel; ssf(s) è il punteggio di scan su un determinato fattore; v(x) è il pattern di
covarianza; 𝜀(𝑠, 𝑥) è l’errore. Queste tecniche scompongono i dati nelle principali fonti di varianza, determinate
dalle configurazioni di voxel che variano simultaneamente.

La PCA calcola la matrice tra ogni coppia di covarianza che esprime la relazione tra ogni coppia di voxel, e
decompone i dati in componenti principali. La prima componente è la configurazione cerebrale spaziale che spiega
la maggior parte della varianza tra tutti gli scan. Ogni componente successiva spiega la maggior parte della varianza
con il vincolo di essere ortogonale a tutte le componenti precedenti (ortogonale significa non correlata, quindi per
individuare le componenti successive occorre considerare unicamente la varianza non spiegata da quelle
precedenti). Ad ogni componente è associato un punteggio, che rappresenta la configurazione temporale relativa
ai voxel di quella componente. La PCA produce un insieme di componenti spaziali, il punteggio di ciascun
componente indica la variabilità relativa da essa spiegata.

La ICA è simile alla PCA. Può focalizzarsi sugli aspetti spaziali o sugli aspetti temporali, si utilizza l’ICA spaziale.
Nell’ICA spaziale, le configurazioni spaziali o mappe componenti devono essere non solo ortogonali ma
statisticamente indipendenti, quindi ogni componente comprende solo voxel che hanno punteggi molto alti su
quella componente e che non sono presenti nelle altre componenti.

12
Queste tecniche possono essere utilizzate per ridurre la dimensionalità dei dati prima dell’applicazione dell’analisi
statistica di interesse, oppure possono essere usate dopo l’applicazione di tecniche confermative per esplorare la
presenza di configurazioni inaspettate dei dati o per ottenere informazioni sulla variabilità non spiegata dal
modello.

2.2.2.2 Connettività effettiva


Le tecniche per studiare la connettività effettiva sono i modelli di equazione strutturali (SEM) e i modelli causali
dinamici (DCM). I primi sono usati in altri domini di ricerca, i secondi sono sviluppati per l’analisi delle serie
temporali provenienti da studi di neuroimmagine funzionale e comprendono molte delle forme di analisi descritte
finora. Il SEM è usato in modo confermativo; il DCM è guidata dal modello. Entrambe partono da un insieme di
ROI definite dallo sperimentatore e da assunzioni sulle connessioni tra queste ROI. Le connessioni ipotizzate sulla
base di considerazioni teoriche e/o di conoscenze empiriche.

Modelli di equazioni strutturali – SEM. Il SEM è “analisi di percorsi/traiettorie” è usata per investigare modelli
anatomico-funzionali che sottostanno a differenti funzioni motorie o cognitive in termini di quali regioni siano
coinvolte, e come interagiscono funzionalmente in un determinato sistema di rete (network).

Il SEM usato a scopo confermativo: lo sperimentatore definisce un insieme di ROI e ipotizza a priori un insieme di
connessioni direzionali e la loro forza. L’analisi SEM calcola la matrice di covarianza tra le serie temporali di queste
ROI, e poi “aggiusta” le forze di connessione del modello fintanto che la matrice di covarianza del modello sia il
più possibile simile alla matrice di covarianza dei dati sperimentali. Le connessioni tra le regioni con una più alta
correlazione vengono mantenute mentre quella tra regioni con correlazione più bassa vengono eliminate. È
possibile valutare differenze tra condizioni o gruppi.

Questa tecnica è utile quando si è interessati a un insieme di ROI e si vuole stimare la presenza e la forza della loro
connessione. Questa tecnica opera una modellizzazione statica, ovvero le connessioni vengono calcolate senza
tener conto dei possibili cambiamenti tra le diverse condizioni sperimentali.

Modelli causali dinamici – DCM. Il DCM parte da un insieme di ROI e cerca di determinare l’influenza di ciascuna
sull’altra e l’influenza dell’esperimento sulle forze di connessione. Si definisce un insieme di ROI e si ipotizza a
priori un insieme di connessioni direzionali e la loro forza. Il DCM prende come input la matrice del disegno
sperimentale e le serie temporali delle ROI, e opera un GLM avanzato che considera esplicitamente alcuni aspetti
non lineari dell’esperimento, in particolare le connessioni tra le ROI e come queste possano cambiare con la
manipolazione sperimentale. Si fornisce in output un grande insieme di parametri, tra i quali le forze di
connessione a riposo tra ciascuna delle regioni, i valori 𝛽 che descrivono come le manipolazioni sperimentali
influenzino ciascuna regione, questi valori di connessione indicano le forze di connessione, e stime della
significatività statistica per ciascun valore ottenuto.

Questa tecnica è utile se si hanno molte ROI, un’ipotesi sulle loro interazioni fondata e se si è interessati a validare
il proprio modello di rete. Il DCM è molto complicato e difficile da interpretare.

2.2.3 CLASSIFICATORI BASATI SU CONFIGURAZIONI DI ATTIVITÀ CEREBRALE


I classificatori basati su configurazioni sono metodi fondati sull’apprendimento automatico da parte di un sistema
informativo. Il sistema, dopo aver ricevuto in input una serie di stimoli diversi, impara a discriminarli sulla base
delle loro caratteristiche distintive. Il sistema corregge via via i propri output, arrivando a discriminare tra gli
stimoli, senza regole esplicite implementate a priori dallo sperimentatore.
13
Ci si riferisce ad essi come “anali si di brain-reading” in quanto sono in grado di leggere stati mentali. I classificatori
possono essere usati per distinguere tipologie di soggetti, patologie o atteggiamenti.

In generale, queste tecniche cercano le configurazioni di voxel che meglio discriminano tra le condizioni/gruppi e,
in una seconda fase, le usano per compiere inferenze inverse ovvero, data una certa configurazione di attivazioni,
classificare la relativa condizione/gruppo. Ci sono diverse fasi:

1. Creazione degli input per il classificatore. Con una tecnica multivariata esplorativa si riduce la
dimensionalità dei dati selezionando le componenti spaziali (voxel) i cui punteggi (andamenti temporali)
mostrano una differenza massima tra le condizioni. Su questo sottoinsieme di voxel si calcola la matrice
di covarianza per ogni condizione.
2. Fase di apprendimento. Si forniscono al classificatore un insieme di dati e le matrici di covarianza, in modo
che esso apprenda le relazioni statistiche tra configurazioni di attività cerebrali e la presenza di specifiche
condizioni sperimentali.
3. Fase di predizione. Si forniscono al classificatore nuove configurazioni di attivazioni ed esso genera le
relative predizioni della condizione sperimentale. La classificazione di nuove configurazioni di attivazioni
viene fatta usando misure di similarità. Le somiglianze o distanze possono essere calcolate in diversi modi:
correlazione, mappe di similarità, confronti basati su rappresentazioni multivariate degli scan cerebrali.
4. Misure di attendibilità delle predizioni. Viene misurata l’accuratezza delle predizioni attraverso misure
standard di prestazione. Si possono applicare metodi inferenziali.

L’uso dei classificatori rappresenta un avanzamento perché consente di formalizzare le inferenze reverse:
permette di inferire funzioni mentali dalle attivazioni cerebrali, e valutare l’attendibilità delle predizioni in modo
quantitativo, ossia determinare la probabilità che una particolare funzione mentale sia stata esperita. Vantaggi:
superano i principali problemi delle tecniche tradizionali: da una parte, trattando le immagini cerebrali come
configurazioni, superano il limite delle tecniche univariate del considerare i dati come voxel indipendenti;
dall’altro, forniscono una connessione quantificabile con le condizioni sperimentali, superando il limite delle
tecniche multivariate “tradizionali” del non quantificare le relazioni con le var. sperimentali.

BOX 2.1 ANALISI STATISTICHE NEGLI STUDI DI NEUROIMMAGINE: ALCUNE


PROBLEMATICHE
Correlazioni Vudù? Le analisi non indipendenti possono condurre a errori sistematici; possono essere fuorvianti,
anche se non si sa di quanto. Questa problematica riguarda tutti i lavori fMRI che riportano correlazioni lineari tra
attività cerebrale e comportamento. Per fortuna in molti lavori fMRI le conclusioni vengono tratte sulla base delle
analisi eseguite sull’intero cervello, mentre analisi non indipendenti vengono usate per un controllo della qualità
dei dati. In generale, l’uso di analisi non indipendenti è un problema rilevante nel caso in cui queste siano applicate
a dati precedentemente analizzati senza l’applicazione di correzioni per i confronti multipli: in tal caso un grande
numero di voxel può risultare significativo per effetto del caso e quindi la ROI può essere poco rappresentativa
delle aree coinvolte nel compito. Quando un’analisi non indipendente è applicata a dati su cui siano state
apportate adeguate correzioni per i confronti multipli, il peggio che può succedere è che la dimensione dell’effetto
sia gonfiata, rendendo la correlazione più forte di quello che realmente è. Un’altra var. da tenere presente è il
numero di voxel selezionati. La soluzione migliore è definire le ROI in modo indipendente, con una procedura che
non usi info relative ai dati oggetto di analisi.

14
Come i confronti multipli hanno resuscitato un salmone morto. C’è un grande pericolo dei falsi positivi in qualsiasi
analisi di neuroimmagine. Ogni articolo sottoposto al giudizio di esperti del settore dovrebbe essere valutato
anche in questo aspetto, prima della sua pubblicazione.

CAPITOLO 3: CENNI DI FISICA DELLE RADIAZIONI (6 PAG.)


In fisica si definisce radiazione un processo in cui particelle, energia o onde di propagano nello spazio o in un
mezzo, in linea retta, in tutte le direzioni. Si distinguono due tipi principali di radiazioni:

• Ionizzanti: possiedono energia sufficiente per “ionizzare” gli atomi con cui vengono a contatto, ovvero
possono trasformare un atomo neutro in uno ione. Esempi: particelle ad elevata energia, cariche o neutre;
onde elettromagnetiche ad alta frequenza e bassa lunghezza d’onda come raggi X, gamma e parte di raggi
ultravioletti.
• Non ionizzanti: esempi sono onde elettromagnetiche a media o bassa frequenza e alta lunghezza d’onda
come parte della radiazione luminosa, raggi infrarossi, microonde e onde radio. Sono onde che non
riescono a strappare gli elettroni alle loro orbite, ma possono interagire con la materia cedendo energia
in diversi modi: aumentando la vibrazione, la rotazione, l’energia cinetica degli atomi o eccitando gli
elettroni e portandoli su orbite differenti, senza che avvenga la ionizzazione.

Entrambe hanno effetti sui tessuti biologici, cambiano solo i meccanismi di interazione tra radiazione e tessuto.

Spettro elettromagnetico è diviso in base a frequenza e lunghezza d’onda in differenti tipi di radiazioni (ionizzanti
e non ionizzanti). La cosa fondamentale è il fattore fondamentale, quanto l’energia portata da ogni singola onda-
particella: solo se ogni “quanto” è sufficientemente energetico da poter provocare singolarmente la ionizzazione,
allora la radiazione è ionizzante.

• Le radiazioni elettromagnetiche possono dare luogo a fenomeni diversi pur essendo tutte le oscillazioni del
campo elettrico e magnetico. Un essere umano interagisce in modo limitato ad una parte del loro spettro,
essendo comunemente attraversato per esempio da onde radio e raggi gamma di alta energia. La probabilità
che un singolo fotone di questo tipo sia direttamente assorbito dal corpo è bassa poiché, per queste
frequenze, non vi sono coppie di livelli quantistici, negli atomi che ci compongono, la cui differenza di energia
sia uguale a quella portata da queste radiazioni.
• La situazione non cambia molto per microonde, onde radar e satellitari, una piccola frazione di energia è
assorbita sotto forma di energia rotazionale con un effetto netto indistinguibile dal riscaldamento. La
differenza è invece considerevole in tutto l’intervallo di frequenze della cosiddetta luce visibile e nei suoi
dintorni dove il corpo umano assorbe quasi completamente fotoni con cui entra in contatto.
• I raggi infrarossi riscaldano il corpo, sono assorbiti sotto forma di energia vibrazionale, fotoni nello spettro dei
colori sono fortemente assorbiti facendo balzare gli elettroni su livelli più energetici e i raggi ultravioletti sono
ancora più fortemente assorbiti non riuscendo ad attraversare neppure la pelle.

3.1 La scoperta delle radiazioni


• 1895 Rontgen scopre casualmente i raggi X, prodotti dal suo tubo Hittorf-Crookes (tubo sottovuoto con un
anodo e catodo sotto tensione).
• 1896 Becquerel studia i raggi X. Esperimento: esposizione di solfato di uranile al sole e porre esso vicino ad
una lastra fotografica, avvolta in carta nera, con ipotesi che uranio potesse assorbire l’energia solare per poi

15
emetterla sotto forma di raggi X. Egli decide di sviluppare la lastra e con sua grande sorpresa ha notato che
era rimasta impressionata. Questo fenomeno poteva essere causato da qualcosa che emergeva
spontaneamente dai sali di uranio stesso. Aveva scoperto la radioattività.
• 1898 Curie riesce ad isolare due nuovi elementi radioattivi da alcuni minerali di uranio (polonio e radio).

3.2 I raggi
Si comincia a studiare il decadimento e la natura delle particelle emesse da questi processi. 1899 Rutherford conia
i termini raggi alfa e beta per descrivere i raggi emessi. I raggi alfa sono i meno penetranti, i beta un po’ di più, i
più penetranti sono i raggi gamma.

Poi egli deviò i raggi con campi elettrici e magnetici riuscendo a dedurre segno e intensità della loro carica elettrica.
I raggi emessi venivano deviati prima di colpire uno schermo, da punto di impatto e dalla distanza rispetto alla
traiettoria rettilinea egli calcolò che i raggi alfa avevano carica positiva, quelli beta negativa e quelli gamma erano
neutri.

Poi l’impiego della camera a nebbia e della camera a bolle ha permesso di studiare e rivelare le tracce lasciate dai
raggi e di comprenderne meglio la natura. La camera a nebbia è una scatola ermetica che contiene aria satura di
vapore acqueo collegata, tramite condotto, ad un cilindro entro il quale scorre un pistone. Il rapido spostamento
dello stantuffo provoca un’espansione del vapore. In tali condizioni una qualsiasi particella elementare carica
elettricamente che penetri nella scatola, ionizzando gli atomi con cui si scontra, crea un fitto susseguirsi di nuclei
di condensazione (atomi ionizzati), attorno ai quali il vapore si raccoglie a formare minuscole gocce (nebbia). La
traccia lasciata dalla traiettoria percorsa della particella può essere fotografata attraverso una parete trasparente
e quindi si risale alla determinazione della natura della particella.

La camera a bolle è un’evoluzione della precedente: costituita da un recipiente contenente liquido in condizione
metastabile (surriscaldato e compresso). Una particella carica veloce che attraversi il recipiente ionizza molti
atomi del liquido, perdendo nel contempo parte della sua energia pure senza subire deviazioni. Lungo il percorso
della particella vengono a trovarsi ioni positivi e negativi attorno a cui il liquido inizia a bollire e le bollicine possono
ingrandirsi. Si scattano foto e si ottiene una ricostruzione stereoscopica spaziale delle tracce. Questa camera è
circondata da un grosso magnete il cui campo deflette le particelle cariche lungo una traiettoria circolare il cui
raggio dipende dalla quantità di moto di particelle. Analizzando le tracce si hanno sulla carica, sulla massa e
velocità delle particelle.

Dopo la descrizione dei primi tre tipi di raggi se ne aggiungono anche altre. Si scopre che raggi alfa sono nuclei di
elio (2 protoni e 2 neutroni con carica positiva doppia); i raggi beta sono elettroni liberi, come elettroni sono raggi
delta e eta; i raggi gamma sono fotoni altamente energetici. Poi vengono trovate particelle simili ai raggi beta (ma
con carica positiva unitaria): antiparticelle degli elettroni (positroni).

3.3 Interazione radiazione-materia


Interazione radiazione-materia avviene in modi diversi. Per classificarli si usano due caratteristiche fondamentali:

1. La massa;
2. Carica delle particelle radianti.

Si distinguono 4 diverse situazioni:

16
1. Alta massa e presenza di carica (protoni, alfa);
2. Bassa massa e presenza di carica (beta);
3. Massa nulla e carica neutra (raggi gamma);
4. Alta massa e carica neutra (neutroni).
• Particella alfa costituita da 2 neutroni e 2 protoni, generalmente è emessa da atomi pesanti ed instabili.
Quando entra in contatto con materia perde energia cedendola al materiale attraversato finché non si arresta,
catturando due elettrodi. I meccanismi predominanti nella cessione di energia sono le collisioni inelastiche
con elettroni e la diffusione elastica o quasi elastica dei nuclei della materia attraversata. La particella alfa,
avendo carica positiva, è respinta dai nuclei e attrae elettroni; questa attrazione risulta in un trasferimento di
energia agli elettroni che possono essere mossi su livelli più energetici o essere completamente staccati da
orbitali che circondano i l nucleo. Quando elettroni sono spostati su livelli a più alta energia possono rimuovere
l’eccesso di energia che li ha portati in uno stato instabile di eccitazione spostandosi nuovamente sul
precedente livello ed emettendo energia in eccesso sotto forma di raggi X o luce visibile (fotoni). Quando gli
elettroni sono strappati alle loro orbite, viene creata una coppia di particelle cariche e il processo è detto
ionizzazione.
• Una particella beta- è un elettrone ad alta energia emesso da un nucleo; si forma quando un neutrone
all’interno di un nucleo si trasforma in un protone per conservare carica ed energia. La particella possiede una
quantità di energia e interagisce con la materia in modo simile alle particelle alfa, per urti e deflessioni, ma si
differenzia nel processo di ionizzazione. Infatti queste particelle, avendo carica negativa, sono attratte dai
nuclei e respingono gli elettroni. Questo è il contrario di quello che succede con le particelle beta+, che in
questo aspetto si comportano in modo molto simile alle particelle alfa.

Meccanismo di Bremmstrahlung: quando queste particelle (positroni ed elettroni) sono deviate nel campo
elettrico del nucleo possono perdere energia per irraggiamento in quanto subiscono accelerazione, ma questo
è trascurabile per particelle più massive come le alfa.

Quando le particelle beta- perdono energia, normalmente sono catturate in uno degli orbitali più esterni di
qualche atomo. Le particelle beta+ invece tendono a collidere con un elettrone annichilendosi e formando
una coppia di fotoni di alta energia in direzioni opposte.

• Una particella gamma è un fotone, interagisce con la materia attraverso 3 meccanismi:


1. Effetto fotoelettrico (predominante a basse energie). Consiste in un fotone che colpisce un elettrone. Se
fotone ha energia pari a quella di legame dell’elettrone, il fotone trasferisce tutta la sua energia ad esso e
scompare. Elettrone è sbalzato dalla sua orbita e si forma uno ione.
2. Effetto/scattering Compton (medie energie). Consiste in un’interazione tra fotone ed elettrone orbitante. Il
fotone cede parte della sua energia all’elettrone e viene deflesso. Quando ha sufficiente energia il fotone può
creare uno ione ed un elettrone libero, che può procedere nella materia interagisce come la particella beta-.
Anche il fotone procede nella materia, compiendo ulteriori interazioni.
3. Produzione di coppie elettrone-positrone (alte energie). Può manifestarsi solo sopra la soglia critica, pari
all’energia necessaria per creare un elettrone e la sua antiparticella (positrone). Se un fotone sufficientemente
energetico interagisce con il campo elettromagnetico del nucleo può svanire e convertire la sua energia nella
massa di una coppia beta+ e beta-. Se l’energia del fotone è maggiore di quella delle due particelle create,
energia in eccesso viene ceduta alla coppia come energia cinetica ed esse procederanno all’interno della
materia interagendo. Il positrone potrà annichilirsi con un elettrone creando una nuova coppia di fotoni.
17
L’effetto finale è quello di spezzare fotoni di alta energia in un numero di fotoni meno energetici che potranno
interagire di nuovo. Un fotone può causare ionizzazioni nelle interazioni Compton e fotoelettrica ma la sua
capacità di ionizzazione diretta è ridotta; è importante ricordare che gli elettroni liberati a loro volta possono
causare ionizzazioni.

I neutroni, come i fotoni, non possiedono carica e non possono ionizzare la materia attirando o respingendo gli
elettroni; quindi hanno una ridotta capacità di indurre ionizzazione diretta. Essi possono creare ioni
principalmente attraverso meccanismi di scattering, ovvero collidendo contro atomi leggeri o cedendo parte della
loro energia ad un nucleo che a sua volta cede energia in eccesso emettendo un fotone. Possono creare ioni anche
tramite meccanismi di cattura assorbimento di un neutrone da parte di un nucleo può attivarlo rendendolo
radioattivo, la radiazione emessa può ionizzare la materia.

3.4 Unità di misura


Nel sistema internazionale (SI) il Becquerel (Bq) è l’unità di misura della radioattività. Un Bq è definito come
l’attività di una quantità di materiale radioattivo in cui decade un nucleo al secondo. È espresso come l’inverso di
un tempo.

Le unità di misura della radiazione ionizzante sono collegate al concetto di esposizione: nel SI è il Coulomb per
chilogrammo, ovvero la quantità di radiazione necessaria a creare 1 Coulomb di carica elettrica di entrambe le
polarità all’interno di 1 chilogrammo di materia.

Il Rontgen è una vecchia unità tradizionale, ormai non più usata.

È interessante, per stimare i potenziali danni arrecati ai tessuti viventi, considerare la quantità di energia
depositata, chiamata dose assorbita. Il Gray è l’unità del SI che rappresenta la radiazione necessaria per depositare
1 Joule di energia in un chilogrammo di materia. L’equivalente tradizionale è la dose assorbita di radioattività (rad).
A dosi uguali, tipi differenti di radiazione producono effetti molto diversi sul tessuto vivente. Quindi è stato
introdotto il concetto di dose equivalente come parametro per stimare il danno biologico. Esso si calcola
moltiplicando la dose assorbita per un fattore di pesatura che differisce per tipo di radiazione.

Il Sievert (Sv) è l’unità del SI che indica la dose equivalente: è la dose di una radiazione in Gy che produce lo stesso
effetto biologico su un essere umano che produrrebbe 1Gy di raggi X o gamma. Il rem (Rontgen equivalent man)
è l’unità tradizionale della dose equivalente (generalmente ha valore molto grande). Un’unità usata per le basse
dosi di radiazione è il BRET o BERT (Background Radiation Equivalent Time), che corrisponde alla dose equivalente
assorbita da un uomo medio durante un giorno di esposizione alla radiazione naturale. Questo tipo di unità non è
standard perché dipende dalla scelta del valore medio della radiazione di fondo, che varia a seconda della regione
geografica.

3.5 Effetti biologici delle radiazioni


Si definisce emettitore alfa, beta o gamma una sostanza radioattiva che decadendo emette radiazioni alfa, beta o
gamma. Un emettitore è una fonte radioattiva che costituisce un possibile rischio per la salute. Se la fonte è
esterna al corpo è più semplice proteggersi da fonti alfa e beta (avendo potere di penetrazione basso), è più
complesso schermare i raggi gamma. La situazione è opposta in caso di ingestione di materiale radioattivo: quando
la fonte è a diretto contatto col tessuto biologico, i raggi alfa (che trasferiscono un elevato grado di energia nel
loro tragitto) diventano i più difficili da cui proteggersi.

18
Le radiazioni non ionizzanti possono indurre reazioni fotochimiche, o accelerare le reazioni che producono radicali
liberi. Gli effetti dannosi per i tessuti biologici sono legati a processi di induzione di correnti e riscaldamento. In
determinate circostante e a determinati dosaggi, altri possibili effetti possono essere: eritema, irritazioni, nevriti,
neuropatie, cataratta, invecchiamento accelerato, vertigini e nausea.

Le radiazioni ionizzanti producono radicali liberi che possono danneggiare le cellule e il DNA (accrescono il rischio
di sviluppare cancro). Dosi molto basse di radiazione possono avere effetti irrilevanti. Gli effetti biologici sul DNA
cadono in 3 categorie:

1. Cellula può subire danno al DNA che riesce ad identificare e riparare;


2. Può subire danno al DNA che riesce a identificare ma non a riparare (inizia processo di morte
programmata chiamato apoptosi);
3. Può subire danno al DNA che non riesce a identificare: effetto della mutazione viene trasmesso a tutte le
generazioni discendenti.

La probabilità che la radiazione ionizzante causi cancro dipende dalla dose di radiazioni assorbite, aggiustata per
il tipo di radiazione – o dose equivalente. La misura del numero di ionizzazioni che un tipo di radiazione causa per
unità di distanza attraversata entro un tessuto biologico è detta Trasferimento di Energia Lineare (LET). Il concetto
implica l’ammontare e la concentrazione di ionizzazioni prodotte lungo il cammino, in contrasto col semplice
concetto di lunghezza di cammino percorso o potere di penetranza. Le particelle beta, es, hanno un LET minore
ed un maggiore potere di penetranza rispetto alle alfa. I raggi gamma hanno LET molto simile a quelle beta,
inducendo ionizzazioni per via indiretta attraverso elettroni con cui interagiscono.

Molti studiosi e la EPA (Environmental Protection Agency) assumono come vero il modello lineare senza soglia,
ovvero modello del danno fisiologico sull’organismo che presuppone che il danno cresca linearmente al crescere
del livello della dose di radiazione assorbita o della dose equivalente di radiazioni ionizzanti, e che questo valga
per qualsiasi valore della dose. Dati epidemiologici mostrano incidenze di cancro e leucemie più basse rispetto a
quelle previste dal modello LNT. Quindi in alternativa sono stati proposti altri modelli. Uno tra i più accreditati
presuppone un livello di soglia di dose equivalente al di sotto del quale, ovvero ai bassi livelli di dose assorbita,
l’esposizione alle radiazioni non comporterebbe danni all’organismo. Secondo questo modello, l’organismo
sarebbe in grado di riparare i danni causati dalle radiazioni a basse dosi. Alcuni scienziati ritengono che un basso
livello di radiazione, al di sotto di una cera soglia, possa essere benefico (questo è alla base del modello detto
ormesi da radiazioni → si basa sull’osservazione di casi in cui dosaggi molto bassi di radiazioni hanno ridotto
l’impatto di una dose successiva più intensa). Al contrario ci sono modelli alternativi che prevedono che il danno
cresca più che linearmente alla base dosi e che il modello LNT sottostimi il rischio di basse esposizioni.

3.6 Alcuni usi delle radiazioni


Le radiazioni non ionizzanti sono usate in modo pervasivo nella quotidianità: tecnologia, elettroterapia (TMS tDCS,
tense, magnetoterapia, RM ecc).

Anche le radiazioni ionizzanti sono utilizzate molto in campo medico: tomografia computerizzata, angiografia,
radiografia, PET, SPECT, radioterapia, radiochirurgia. La radiochirurgia stereotassica usa raggi gamma e X, ma si
sta diffondendo anche uso di fasci di protoni o ioni carbonio. La chirurgia con il bisturi gamma focalizza molti fasci
di radiazioni gamma ad alta energia facendoli convergere sul tessuto patologico (poco effetto diffuso e molto
effetto sul tumore da combattere, zona di convergenza dei raggi). Emettitori di radiazioni alfa e beta possono

19
essere iniettati attraverso microcapsule intorno al tumore per ucciderne le cellule; vantaggio: danno localizzato
(grazie alla basa penetranza). Ultimamente si usa molto la radioterapia molecolare: radiazioni emesse da molecole
radiomarcate con alta affinità per cellule tumorali, così che la dose sia distribuita solo sul bersaglio di interesse.

Il danno alle cellule o al DNA provocato da radiazioni ionizzanti può essere sfruttato per la sterilizzazione di
apparecchi, sterilizzazione di specie nocive o produzione di nuove specie vegetali mutanti.

Le radiazioni sono impiegate come strumenti di misura: aggiungendo un tracciante gamma ad un gas o liquido in
un circuito chiuso è possibile rilevare il punto di eventuali perdite. È possibile creare dei contatori del livello di
radiazioni: Contatore Geiger (misura la presenza di radiazioni ionizzanti di qualunque tipo), detettori gamma o
beta (sfruttano il fenomeno dell’assorbimento quando attraverso un materiale per dedurne lo spessore o la
densità). I livelli di emissione di radioattività naturale che diminuiscono col tempo, possono essere usati per la
datazione di artefatti, rocce, minerali e altri materiali. Tra i rilevatori di uso più comune ci sono quelli di fumo o
incendi che troviamo in case ed aeroporti: americio-241 decade emettendo particelle alfa e raggi gamma a bassa
energia. Le particelle alfa collidono con atomi di ossigeno e azoto presenti nell’aria dentro il rilevatore creando
degli ioni, si crea una modesta corrente elettrica. Quando le particelle di fumo entrano all’interno si attaccano agli
ioni neutralizzandoli. Diminuiscono gli ioni e di conseguenza la corrente: quando la caduta arriva sotto una certa
soglia innesca l’allarme.

Anche le pile atomiche o nucleari → batterie che convertono fenomeni di emissione di un isotopo radioattivo in
energia elettrica. Non usano la fissione ma fenomeni di conversione termici e non termici. Sono più costose di
quelle tradizionali ma hanno vita lunga ed un’alta densità di energia. Vengono impiegate come fonti energetiche
in apparecchiature che devono operare senza manutenzione per lunghi periodi di tempo.

CAPITOLO 4: METODICHE RADIOGRAFICHE (3 PAG.)


Sono metodiche che consentono di creare delle immagini del tessuto biologico attraverso uso di raggi X (radiazioni
ionizzanti). Ci sono 3 metodiche radiografiche:

1. Radiografia (Rx);
2. Tomografia computerizzata (TC);
3. Angiografia.

Oggi sono usate esclusivamente in pratica clinica, il loro uso in ambito di ricerca è molto limitato, per l’inserimento
di metodiche di risonanza magnetica che sono più informative e non prevedono uso di radiazioni ionizzanti.

4.1 Principi fisici


Emissione dei raggi X. Tubo radiogeno: tubo sottovuoto in cui vengono posti un anodo caricato positivamente
(disco di tungsteno) e un catodo (filamento riscaldato). Tra i due viene imposta una forte differenza di potenziale.
Dal filamento per effetto termoionico si distaccano elettroni che vengono accelerati e impattano sul disco di
tungsteno. Nell’impatto l’energia cinetica si trasforma in calore e radiazione X.

Assorbimento dei raggi X da parte dei tessuti del corpo. Le metodiche radiografiche misurano l’assorbimento
dei raggi X da parte del corpo. I diversi tessuti presentano diverse capacità di attenuazione dei raggi X (diversa
capacità di frenare i raggi). Tale capacità è in relazione alla loro densità, spessore e numero atomico. Più alto è il
numero atomico della sostanza attraversata, più essa sarà radiopaca (capace di attenuare e quindi assorbire raggi
X).
20
Creazione dell’immagine. Dopo aver attraversato i tessuti corporei, il fascio di radiazioni raggiunge una pellicola
sensibile ai raggi X. Essa evidenzia i diversi tessuti in quanto viene impressionata in modo inversamente
proporzionale al loro grado di assorbimento. Se un tessuto assorbe molto i raggi X apparirà chiaro; se li assorbe
poco apparirà scuro.

Poiché nel cervello esistono regioni anatomiche con densità simili, spesso una loro differenziazione può essere
difficile. Per migliorare la risoluzione di contrasto è possibile usare i cosiddetti mezzi di contrasto. Nel caso delle
metodiche radiografiche, si usano sostanze che vengono iniettate in spazi/cavità dell’organismo o nel lume
vascolare, in grado di aumentare o diminuire l’attenuazione dei raggi X. Per l’esame dell’encefalo generalmente si
usano MDC iperintensi, di solito composti a base di iodio.

BOX 4.1 NASCITA E SVILUPPO DELLE METODICHE RADIOGRAFICHE


Scoperte scientifiche.

• 1895 Rontgen: scopre un nuovo tipo di radiazioni (raggi X). Nel suo laboratorio al buio studiava i fenomeni
luminosi prodotti da tubi a vuoto. Quando il tubo veniva caricato elettricamente, un foglio di carta con una
lettera scritta nella soluzione di platinocianuro, brillava al buio. Se metteva una mano tra il tubo e lo schermo,
le ossa della mano comparivano come ombre sul foglio di carta su cui era depositata la soluzione di
platinocianuro di bario. Nasce la radiologia medica.
• 1896 Cushing: usa raggi X per esaminare la colonna vertebrale cervicale di un paziente con disturbi neurologici
ed evidenzia la presenza di un frammento di proiettile.
• 1905 Shuller: studi sistematici sulla radiografia del cranio e sui suoi cambiamenti legati a patologie
intracraniche.
• 1918 Dandy: introduce sviluppo che hanno consentito di visualizzare le strutture interne del cervello. Il
problema nel visualizzare le strutture interne era riuscire a discriminare tra loro i tessuti che presentano
densità simile. Per aumentare il contrasto di luminosità pensò di usare l’aria come mezzo di contrasto. Nasce
così la pneumo-encefalografia e pneumo-ventricolografia. Queste tecniche erano però molto invasive e
comportavano rischi; oggi sono sostituite con CT e MR.
• 1927 Moniz: per primo usa l’angiografia cerebrale. È necessario l’uso di un mezzo di contrasto: sostanza
idrosolubile che ne aumenta la radiopacità, i vasi divengono così visibili.
• 1930 Vallebona: propone un metodo per rappresentare una singola sezione sulla pellicola radiografica
(stratigrafia o tomografia). L’idea è: se il tubo radiogeno e la pellicola si muovono sincronicamente in direzioni
opposte, si può ottenere un’immagine nitida dei punti che si trovano nel centro di rotazione del movimento.

4.2 Radiografia (Rx)


Fornisce un quadro statico, consentendo la visualizzazione delle ossa della scatola cranica e delle ossa della faccia.
Questa tecnica differenzia solo quelle strutture che hanno una capacità di assorbimento dei raggi X molto diversa,
quindi non riesce a visualizzare strutture interne del cervello. Quindi viene esaminata la struttura del cranio
(strutture ossee). Limite principale è determinato dal fatto che le immagini costituiscono una rappresentazione
bidimensionale, l’immagine quindi è meno precisa. Si cerca di ridurre il problema eseguendo l’esame da vari angoli
si proiezione.

Oggi la creazione dell’immagine viene fatta usando sistemi di detezione digitali o computerizzati, che permettono
una discreta riduzione della dose di raggi X somministrata al paziente.

21
4.3 Tomografia computerizzata (CT)
La CT si basa sull’uso di raggi X per ottenere immagini dei vari tessuti biologici; ha consentito di superare limiti
della radiografia. È un metodo tomografico, acquisisce i dati provenienti da sezioni o volumi corporei. La matrice
di dati acquisita, tramite algoritmi, consente di ricostruire immagini bidimensionali su innumerevoli piani.
Attraverso software di “rendering” volumetrico è possibile ottenere rappresentazioni tridimensionali delle
strutture e organi indagati particolarmente suggestive.

Quindi mentre la radiografia fornisce una rappresentazione bidimensionale (immagine sintetica), la CT permette
una rappresentazione tridimensionale. La CT ha permesso di visualizzare il parenchima degli organi.

La CT è un densitometro: attenuazione (assorbimento) del fascio di raggi X varia in modo proporzionale alla densità
elettronica dei tessuti, ovvero alla distribuzione spaziale degli elettroni nello strato corporeo in esame; la CT,
desume la densità delle varie strutture.

La macchina, detta scanner, è costituita da un lettino posizionato all’interno di una apparecchiatura circolare.
All’interno di questo anello si trovano il tubo radiogeno, che proietta il fascio di raggi X sull’organo e il sistema di
detezione del segnale (rilevatori). Il tubo radiogeno ruota continuamente attorno alla testa e i rilevatori ruotano
dal lato opposto. Il lettino si sposta progressivamente verso l’interno dello scanner per consentire l’acquisizione
delle varie sezioni cerebrali. Per ogni sezione, l’attenuazione dei raggi X viene calcolata sommando le letture di
tutti i raggi passanti per quella regione; il risultato è una matrice di coefficienti di attenuazione. L’analisi
computerizzata mediante specifici algoritmi matematici permette di ricostruire le immagini delle sezioni cerebrali,
in cui le differenze di assorbimento dei raggi X dei diversi tessuti sono riprodotte visivamente con diverse
sfumature di grigio. Immagine viene suddivisa in una serie discreta di elementi di volume (voxel) ai quali
corrisponde un elemento unico di immagine (pixel). I voxel con alta densità elettronica vengono rappresentati con
una gradazione più chiara; quelli con bassa densità con una gradazione più scura.

La risoluzione spaziale della CT è buona, dipende dalla distanza dei punti di intersezione dei fasci di raggi X. La
risoluzione di contrasto è discreta. In alcuni casi è necessaria l’iniezione endovenosa di un MDC, di solito un
composto iodato.

La CT ha un ruolo importante negli esami d’urgenza per la rapidità d’acquisizione delle immagini. Nello studio
dell’encefalo è impiegata per valutazione di: trauma cranico, lesione emorragica, patologie ossee. È possibile
usarla, se la MR è controindicata per la valutazione di malattie infettive e tumori. Non è indicata nella valutazione
di ischemia in fase acuta, né patologie di demielinizzazione come sclerosi multipla.

4.4 Angiografia
Ha lo scopo di visualizzare i vasi sanguigni. Il sangue ha radiopacità simile a quella dei tessuti circostanti, quindi è
necessaria iniezione di MDC radiopaco all’interno di un vaso, che permette di evidenziare accuratamente i vasi
sanguigni che lo contengono. Al fine di visualizzare solo i vasi e rimuovere le strutture circostanti, alle immagini
acquisite con MDC viene sottratta un’immagine acquisita prima dell’introduzione del MDC: le ossa e le strutture
non impegnate dal MDC appaiono con stessa intensità prima e dopo la sua introduzione e possono essere
eliminate dall’immagine.

All’inizio veniva effettuata su pellicola. Con affinamento della tecnica (metodiche digitalizzate) è possibile studiare
il flusso sanguigno. La visualizzazione dei vasi consente di identificare aneurismi cerebrali, malformazioni cerebrali

22
vascolari, occlusioni o restringimenti (responsabili di ischemia), tumori vascolarizzati e lesioni del sistema
vascolare intracranico.

Oggi viene eseguita con la radiografia convenzionale ma anche con tomografia computerizzata o risonanza
magnetica. Queste ultime sono meno invasive perché la somministrazione del MDC avviene per via endovenosa,
evitando possibili traumatismi e complicanze legati al cateterismo arterioso. L’angio-MR presenta l’ulteriore
vantaggio di usare MDC meno allergenizzanti e di non usare radiazioni ionizzanti. Ma l’angiografia con raggi X ha
una migliore risoluzione spaziale ed è utile nelle situazioni d’urgenza perché consente di intervenire con appositi
trattamenti endovascolari atti a risolvere la condizione patologica individuata.

CAPITOLO 5: METODICHE DI RISONANZA MAGNETICA: PRINCIPI


FISICI (4 PAG.)
Risonanza magnetica (MR) consente di creare immagini del tessuto biologico usando campi magnetici molto
potenti. In particolare crea delle immagini del cervello non usando radiazioni ionizzanti e non richiede mezzi di
contrasto. Ci sono due tipologie di uso:

1. MR anatomica: produce immagini della struttura del cervello: differenze tra tessuti (sostanza grigia vs bianca),
anomalie di tessuti (lesioni). Le immagini anatomiche possono essere poi analizzate con tecniche che
consentono di eseguire specifiche indagini.
2. MR funzionale (fMRI): produce immagini del funzionamento del cervello sia a riposo, sia durante lo
svolgimento di un compito specifico sensoriale, motorio o cognitivo. Si sfruttano proprietà biofisiche sensibili
al processamento di info nel cervello.

Entrambe sono impiegate a scopi clinici e di ricerca. La macchina (scanner) è composto da:

• Magnete: grosso tubo che genera un campo magnetico statico (campo uguale o superiore di 1,5 Tesla).
• Bobina a radiofrequenza: genera un campo magnetico oscillante (serie di impulsi elettromagnetici in
radiofrequenza). Questi impulsi forniscono energia agli atomi dei tessuti biologici: perturbandone l’equilibrio,
consentono di generare il segnale MR.
• Bobine di gradiente: generano campi magnetici che variano linearmente nello spazio. Sono necessari per
formare l’immagine.
• Bobine ausiliarie: generano campi magnetici che servono a compensare eventuali disomogeneità del campo
magnetico principale.

Il processo di generazione del segnale e di creazione delle immagini avviene così:

1. Energia elettromagnetica generata dalla macchina attraverso sequenze di impulsi viene assorbita da nuclei
degli atomi dei tessuti. Nel caso di MR su esseri viventi gli impulsi sono sintonizzati alla frequenza di
precessione dei nuclei di idrogeno.
2. Dopo essere stata assorbita, l’energia elettromagnetica viene rilasciata dai nuclei. La quantità di energia
emessa dipende dal numero dei nuclei (densità protonica) e dalle interazioni di natura magnetica che i nuclei
presenti nel tessuto stimolato esercitano tra di loro e con l’ambiente molecolare circostante. Quindi tessuti
diversi producono segnali di intensità diverse (diverse tonalità di grigio). Così lo scanner può distinguere tra
tessuti diversi.

23
BOX 5.1 NASCITA E SVILUPPO DELLA RISONANZA MAGNETICA
Scoperte scientifiche e tecnologiche.

• 1924 Pauli: scopre che i nuclei degli atomi hanno proprietà magnetiche.
• Primi anni 30 Rabi: sperimenta proprietà magnetiche degli atomi e scopre il concetto di MR: dentro un campo
magnetico può essere fornita energia ai nuclei attraverso onde radio; se energia ha stessa frequenza di
rotazione dei nuclei allora gli atomi risuonano.
• 1946 Bloch e Purcell: dimostrano effetto di MR nelle sostanze solide normali (non biologiche).
• 1971 Damadian: sottopone a MR campioni di tessuto canceroso e non e trova che il tempo in cui gli atomi
ritornano al loro orientamento originale è molto più lungo nel tessuto canceroso.
• 1973 Lauterbur: sviluppa idea per la formazione delle immagini. Se la forza del campo magnetico varia nello
spazio, anche la frequenza di risonanza degli atomi cambia. Misurando quanta energia è stata emessa a
differenti frequenze si può ricostruire l’organizzazione spaziale dell’oggetto. Introduce i gradienti spaziali (uso
di un campo magnetico la cui forma varia nello spazio per creare immagini di MR).
• 1976 Mansfield: sviluppa il metodo eco-planare (EPI), tecnica che consente la raccolta rapida di immagini:
raccoglie dati di un intero piano con un’unica acquisizione cambiamento i gradienti spaziali in seguito ad un
singolo impulso elettromagnetico inviato dalla bobina trasmittente; il risultante segnale di risonanza viene
ricostruito in un’immagine utilizzando un formalismo matematico. Questa tecnica riduce i tempi di raccolta di
un’immagine.
• 1977 Damadian e colleghi: costruiscono la prima macchina di MR per corpo umano. Non usava il metodo dei
gradienti ma si basava sulla raccolta di ogni voxel come volume indipendente. Raccolta delle immagini molto
lenta.
• Anni 80 sviluppo di sequenze e hardware per acquisizioni rapide: tecniche di schermatura attiva dei
gradienti, magneti superconduttori che superano limiti di potenza e omogeneità del campo magnetico,
produzione di macchine per il corpo umano commerciali, approvazione per l’uso di RM a scopi clinici.
• Primi anni 90 Ogawa: esame della fisiologia cerebrale del cervello usando MR. Propone una tecnica che
costituisce la base dell’fMRI. Con macchina MR è possibile misurare cambiamenti di ossigenazione del sangue,
così da mappare aree attive del cervello ad un dato momento.

5.1 Generazione del segnale


Molecole sono formate da atomi; ogni atomo è composto da un nucleo centrale in cui ci sono protoni e neutroni
e da una nube periferica di elettroni. Nei nuclei con numero dispari di protoni, essi possiedono uno spin (ruotano
attorno a se stessi) e possono anche avere una carica elettrica positiva. Poiché il movimento di cariche elettriche
induce campo magnetico, i protoni si comportano come barre magnetiche. Il segnale MR deriva da queste
proprietà (magnetismo nucleare).

L’atomo sfruttato nella MR è l’idrogeno con un singolo protone (produce segnale visibile all’MR ed è uno dei più
abbondanti nel corpo). In assenza di un campo magnetico esterno, gli atomi sono orientati in direzione casuale:
circa la metà verso l’alto, l’altra metà verso il basso. Se si applica un campo magnetico statico gli atomi tendono
ad orientarsi lungo l’asse del campo applicato: a questo punto ci saranno più atomi orientati verso l’alto rispetto
a quelli verso il basso (opposti al campo). Questi orientamenti rappresentano due specifici livelli energetici: verso
l’alto ha un basso livello energetico e verso il basso un livello più alto. I segnali generati in MR sono basati su questa
differenza di energia nei due orientamenti. La magnetizzazione netta (orientamento medio degli atomi) è verso

24
l’alto, quindi si definisce magnetizzazione longitudinale. Non è misurabile perché parallela al campo magnetico
applicato, quindi MR deve rilevare i segnali lungo asse xy, per fare questo occorre annullare la magnetizzazione
longitudinale, facendo sì che ci sia un egual numero di atomi orientati verso l’alto e basso e spostare la
magnetizzazione lungo l’asse xy.

Per ristabilire un’equa proporzione di atomi orientati verso alto e basso occorre fornire energia necessaria e
sufficiente affinchè la quantità extra di atomi orientati verso l’alto capovolgano l’orientamento. Tale energia viene
fornita con l’applicazione di un’onda (o impulso) a radiofrequenza (applicazione di un nuovo campo magnetico
esterno). L’onda deve avere la stessa frequenza con cui gli atomi ruotano attorno al campo magnetico statico (asse
z). La velocità di rotazione attorno al campo magnetico statico è costante e dipende dal tipo di atomo e intensità
di campo magnetico. Applicando un’onda della stessa frequenza con cui gli atomi procedono intorno all’asse z,
essi risuonano, entrano in fase sintonizzando i loro spin e creando un vettore di magnetizzazione attorno alla
direzione cui è applicato il secondo campo magnetico esterno. Per determinare una magnetizzazione trasversale
è necessario applicare un impulso a RF di ampiezza, durata e frequenza opportune, in grado di trasformare tutta
la magnetizzazione longitudinale in trasversale, chiamato impulso a 90°.

Nel momento in cui si cessa di fornire energia, gli atomi tendono a tornare nelle condizioni iniziali cedendo
l’energia accumulata durante l’eccitazione. Viene chiamata fase di rilassamento, e si possono distinguere:

• T1 o tempo di rilassamento spin-reticolo: tempo impiegato dagli atomi a recuperare il 63% della
magnetizzazione longitudinale iniziale;
• T2 o tempo di rilassamento spin-spin: tempo impiegato dagli atomi a decadere al 37% del valore iniziale della
magnetizzazione trasversale. I fattori che contribuiscono al decadimento della magnetizzazione trasversale
sono: (a) interazione con i tessuti (effetto T2 puro); (b) variazioni di omogeneità del campo magnetico statico
iniziale (effetto T2 di disomogenetià del campo). La combinazione di questi due fattori è quella che si verifica
nel decadimento della magnetizzazione trasversale. La costante di tempo “combinata” è chiamata T2 star.

Durante la fase di rilassamento i protoni scaricano energia accumulata emettendo un segnale sottoforma di
radiofrequenza. Questo viene rilevato e misurato attraverso la stessa bobina trasmittente l’impulso di
radiofrequenza, che funziona come antenna ricevente. L’ampiezza e durata del segnale dipendono dalla durata
dei tempi di rilassamento T1 e T2, l’ampiezza poi dipende anche dalla densità protonica. I tempi di rilassamento
dipendono dal tessuto (stato fisico). Il segnale MR riflette queste differenze con diverse tonalità di grigio.

Alcuni parametri definiti dall’operatore sono in grado di modificare tempi e modalità di acquisizione del segnale,
manipolandoli si può modificare il contrasto tra tessuti aventi tempi di rilassamento lunghi vs. corti. I parametri
che può variare sono:

• Tempo di ripetizione degli impulsi (TR): ogni quanto tempo viene applicata la radiofrequenza;
• Tempo di eco (TE): tempo che intercorre tra applicazione della radiofrequenza e momento di ricezione del
segnale.

A seconda dei parametri scelti si determina quale dei principali fenomeni (tempo di rilassamento longitudinale o
trasversale) viene valutato dalla macchina. Inoltre, si possono generare sequenze di impulsi diverse così da usare
sequenze specifiche, a seconda dello scopo dell’esame. Sequenze diverse sono sensibili a patologie diverse. La
possibilità di caratterizzare i tessuti sulla base di più parametri è una prerogativa della MR, utile per la diagnostica.

25
Rispetto alla CT, che caratterizza i tessuti in base ad un unico parametro (radioassorbenza), essa ha maggiore
risoluzione di contrasto.

Infine, a fini diagnostici, in alcuni casi è utile l’uso di mezzi di contrasto (MDC). Vengono somministrati per via
endovenosa composti paramagnetici o superparamagnetici che accorciano i tempi di rilassamento (entrambi).

5.2 Formazione delle immagini


Generazione di immagini avviene attraverso la ripetuta acquisizione di segnali, e attraverso opportuna
modulazione delle bobine di gradiente. Per stabilire da quale punto dello spazio proviene il segnale, è necessario
applicare i gradienti di campo magnetico. Per codificare la posizione di ciascuna regione occorre fare in modo che
il segnale, ad ogni punto del CM, sia sempre diverso da quello provenienti da un altro punto. Così all’interno del
magnete principale, vengono posizionate delle bobine: in esse il CM non è omogeneo ma presenta un gradiente,
ovvero una variazione progressiva dell’intensità del campo. In questo modo, regioni spazialmente separate
subiranno CM diversi dando luogo a segnali diversi. Si seguono i seguenti passaggi:

• Selezione della fetta. Sul piano assiale. L’impulso RF viene applicato mentre il gradiente lungo l’asse è
attivo e quindi RF eccita solo la fetta selezionata.
• Codifica in frequenza. Dopo l’impulso RF, durante l’acquisizione del segnale, si applica un gradiente lungo
l’asse x. Così si varia linearmente la frequenza di emissione da parte dei protoni lungo l’asse x. Il segnale
acquisito è la somma dei segnali a frequenze diverse: segnale generico rappresentabile come un’onda che
decade nel tempo. Per poter far corrispondere ad ogni frequenza una specifica posizione spaziale è
necessario trasformare questo segnale dal dominio del tempo a quello delle frequenze (scomporre il
segnale in una serie di frequenze che indica il numero di cicli della forma d’onda per secondo). Questa
conversione viene fatta con la trasformata di Fourier. Così si ottiene una localizzazione sull’asse x.
• Codifica in fase. Per ottenere localizzazione sull’asse y, dopo impulso RF, prima di acquisire il segnale, si
applica un gradiente lungo l’asse y. Così gli spin lungo questa direzione si distingueranno durante
l’acquisizione per differenze di fase.

CAPITOLO 6: METODICHE DI RISONANZA MAGNETICA:


TECNICHE ANATOMICHE (10 PAG.)
6.1 Tecniche di morfometria
Servono per analisi della morfologia cerebrale: permettono di vedere differenze di forma, configurazione e volume
tra due o più cervelli (studi trasversali e longitudinali).

Negli anni ‘80/’90 attraverso tecniche manuali si disegnavano regioni di interesse (ROI) sulle immagini derivate da
scansioni encefaliche calcolandone il volume contenuto. Problemi: grande dispendio di tempo e forniva misure
solo di larga scala; la sua applicazione era limitata a strutture non ambigue come ippocampi e ventricoli.

Con avvento dei metodi di neuroanatomia computazionale i tempi di lavoro si accorciano e le operazioni vengono
svolte dal computer. Si possono effettuare misurazioni di differenze anatomiche precise su tutto il cervello e su
campioni più ampi.

Ci sono dei principali gruppi di tecniche:

1. Morfometria basata sulla deformazione (DBM): identifica differenze di forma globale.


26
2. Morfometria basata sul tensore (TBM): identifica differenze di forma a livello locale.
3. Morfometria basata sul voxel (VBM): identifica differenze nel volume cerebrale regionale e nella
composizione locale del tessuto cerebrale.
4. Mappatura dello spessore corticale: necessario usare sequenze di RM che garantiscano un’elevata
risoluzione spaziale, poi vengono eseguiti una serie di passaggi comuni che possiamo riassumere così:
a. Pre-processamento dei dati. Visto che la morfometria riguarda solo la forma di un oggetto,
l’analisi comincia rimuovendo fattori confondenti quali differenze di rotazione e traslazione,
grandezza e posizione. Questi passaggi sono “normalizzazione” delle immagini, fatti con un unico
algoritmo.
b. Riduzione delle componenti (es. attraverso analisi delle componenti principali (PCA). Per
quantificare e visualizzare differenze di forma, la variabilità dei dati deve essere ridotta ad un
numero limitato di componenti in grado di distinguere gli oggetti in gruppi differenti.
c. Analisi dei dati. Applicazione di tecniche statistiche di analisi della varianza, che calcolano la
deviazione di ogni oggetto dalla media del campione. Si produce una mappa statistica
parametrica che evidenzia le differenze significative tra gruppi di oggetti.

6.1.1 MORFOMETRIA BASATA SULLA DEFORMAZIONE (DBM)


Tecniche di indagine di livello macroscopico: usate per identificare differenze nelle forme globali.

Ogni cervello viene mappato in uno standard di riferimento, detto modello o template; usando i campi di
deformazione. La deformazione è una mappatura da una forma x a una forma y attraverso una funzione di
trasformazione. Studiare la deformazione rivela le differenze tra due forme simili.

In pratica, per ogni cervello si ottiene un campo di deformazione tridimensionale, costituito dai vettori di
spostamento sui piani x-y-z richiesti a livello di ogni voxel per mappare quel cervello nel modello. Si crea una
matrice con questi coefficienti. Poi i vettori di spostamento ad ogni voxel vengono smussati con un filtro. È
necessario poi ridurre il numero di questi coefficienti e per farlo si usa l’analisi delle componenti principali (PCA)
che estrae i fattori che spiegano la maggior parte della varianza.

Per confrontare i campi di deformazione si usano tecniche di analisi della varianza multivariata: misurano le
differenze tra più variabili dipendenti. Lo scopo è verificare se la VI abbia un effetto significativo sulla VD. Si
avranno 3 VD (spostamenti necessari sui piani x-y-z); il valore di p indica la significatività della differenza.

Le tecniche di DBM rilevano gli spostamenti necessari per far combaciare due immagini o due insiemi di immagini.
Tali spostamenti danno info su differenze posizionali significative tra le immagini confrontate e quindi indicazioni
di larga scala sulle differenze di forma delle immagini confrontate.

6.1.2 MORFOMETRIA BASATA SUL TENSORE (TBM)


Tecniche per identificare differenze di forma a livello locale: producono mappe statistiche che indicano le strutture
cerebrali la cui forma differisce tra gruppi. Possono essere anche usate nello stesso paziente nel corso del tempo.

Le immagini da confrontare vengono pre-processate con algoritmi di normalizzazione.

Come input per analisi dei dati, al posto di usare il campo vettoriale delle deformazioni (DBM) si usa una sua
derivata detta campo tensore. Ad ogni voxel, gli spostamenti sui piani x-y-z vengono trasformati in un’unica
derivata spaziale detta determinante Jacobiana. È un parametro che caratterizza cambiamenti di volume. Se tutti

27
i vettori che circondano un voxel sono direzionati verso l’esterno, allora significa che si è dovuto spostare verso
l’esterno i voxel del cervello di origine di quella zona (in tal caso viene generato un valore altamente positivo).
Viceversa quando tutti i vettori sono direzionati verso l’interno, significa che si è dovuto applicare un
restringimento del cervello di origine (in tal caso il valore generato è altamente negativo). Usando le determinanti
Jacobiane, si usano tecniche statistiche univariate: le info sugli spostamenti vettoriali non contengono più la
direzione dello spostamento sui tre piani, ma un’unica misura. Quindi queste tecniche forniscono info relativa alla
grandezza strutturale regionale: analisi locali delle espansioni e contrazioni che consentono di identificare
differenze sistematiche di forma e volume. Tali differenze possono essere visualizzate nell’immagine con colori di
intensità diversi.

DBM e TBM studiano entrambe la morfologia cerebrale attraverso applicazione e analisi di campi di deformazione,
ma forniscono tipi diversi di info.

6.1.3 MORFOMETRIA BASATA SUL VOXEL (VBM)


Identifica differenze nel volume cerebrale regionale e nella composizione locale (densità/concentrazione) del
tessuto. I campi di deformazione vengono applicati per normalizzare le immagini spazialmente, ovvero per
eliminarne differenze anatomiche macroscopiche. Le immagini vengono confrontate voxel per voxel su tutto
l’encefalo, per rilevare specifiche differenze regionali residue. Viene impiegata per studiare differenze di volume
e/o densità della sostanza grigia.

Ci sono dei passi per eseguire un’analisi VBM:

1. Differenze posizionali e volumetriche vengono rimosse attraverso la normalizzazione spaziale: template


può essere generato da scansioni strutturali di un gran numero di soggetti.
2. Le immagini normalizzate di ogni soggetto vengono segmentate in materia grigia, bianca e liquido. Così si
assegna ogni voxel dell’immagine ad una specifica classe di tessuti (si usa metodo bayesiano).
3. I segmenti del tessuto di interesse vengono sottoposti a smussamento così che ogni voxel rappresenti la
media di se stesso e dei suoi vicini. Viene fatto per ridurre variabili confondenti causate da differenze
individuali nell’anatomia dei giri cerebrali e per aumentare la potenza dei test.
4. Test statistici parametrici (t-test) voxel per voxel vengono applicati per confrontare immagini di materia
grigia nei due gruppi: differenze di intensità del segnale MR ad ogni voxel riflettono differenze di intensità
nella materia grigia.

È possibile cacolare il volume computando il numero di voxel che appartengono al compartimento di materia
grigia. È possibile anche fare delle correlazioni tra densità di materia grigia/bianca in specifiche aree cerebrali e
determinati sintomi clinici o comportamentali.

Metodologicamente questa è più adatta per studi intra-gruppo e longitudinali, per osservare quindi cambiamenti
strutturali del cervello nel tempo sullo stesso gruppo di soggetti. Questo perché la problematica principale è la sua
alta sensibilità ad errori di coregistrazione tra le immagini.

Numerosi lavori hanno applicato la VBM allo studio di alterazioni strutturali (sostanza grigia, bianca) in numerose
patologie neurologiche e psichiatriche e ne hanno indagato la correlazione con indici cognitivi/fisiologici.

28
6.1.4 MAPPATURA DELLO SPESSORE CORTICALE
Ci sono zone dove la curvatura corticale è alta: densità e volume possono fornire valori spuri, influenzati da quanto
la corteccia è circonvoluta.

La mappatura dello spessore può essere eseguita con:

A. Tecniche basate sulla ricostruzione della superficie corticale (surface-based): generano un


modello di superficie corticale su cui calcolare le differenze di spessore corticale tra i gruppi di soggetti in
esame. Ci sono varie tecniche e algoritmi. Un esempio: dopo aver normalizzato tutti i cervelli in uno spazio
standard e segmentato i tessuti così da aver identificato i confini della materia grigia rispetto a quella
bianca e rispetto alla pia madre, occorre produrre mappe di superficie. Per fare questo, sulle mappe di
materia grigia di ciascun soggetto vengono tracciati i punti di riferimento corrispondenti a solchi e giri, e
viene applicato un sistema sferico di coordinate (mappe tridimensionali). I dati delle corrispondenti
regioni corticali possono essere mediati tra soggetti per ottenere un modello corticale medio di ciascun
gruppo di studio. Su ciascun modello di superficie, ad ogni coordinata spaziale, vengono calcolati i valori
di spessore corticale: utilizzando misure della distanza di ogni voxel di sostanza grigia dai confini interno
ed esterno.
Per confrontare i gruppi di studio, i dati di spessore possono essere comparati ad ogni coordinata.
Effettuando una sovrapposizione di pattern corticali basata su punti di riferimento relativi ai solchi, queste
tecniche consentono una coregistrazione delle immagini più affidabile rispetto a tecniche basate sul
volume.
B. Tecniche basate sul volume (volume-based o voxel-based): non usano un modello di superficie
tridimensionale. Dopo la segmentazione in materia grigia, bianca e liquor, ad ogni voxel della corteccia è
applicato un algoritmo che identifica la direzione delle traiettorie che connettono un margine del voxel a
quello opposto: lo spessore è calcolato come la somma delle distanze da quel voxel verso i bordi interni
ed esterni della materia grigia. Vengono generate mappe dove ad ogni voxel di materia grigia viene
assegnato un valore di spessore.
La VBM e VBCT sono complementari, e la VBCT è in grado di cogliere anche piccole differenze tra gruppi.
C. Tecniche miste.

La misurazione dello spessore è utile per rilevare un assottigliamento nel corso di alcune patologie
neurodegenerative (es. demenze).

Ci sono anche altre tecniche che possono fornire misure morfometriche diverse: area di superficie corticale,
profondità dei solchi, mappatura radiale di strutture specifiche, ecc.

La validità delle tecniche morfometriche in vivo può essere valutata confrontando i dati da esse ottenuti con quelli
provenienti da studi post-mortem.

6.2 Tecniche di diffusione


Rilevano il tasso di movimento delle molecole d’acqua, visto che i diversi tessuti biologici hanno ostacoli al suo
movimento. Possono fornire info importanti sulla struttura dei tessuti e sulla presenza di eventuali alterazioni
patologiche.

29
• DWI – imaging pesata in diffusione: differenze nella velocità di movimento delle molecole d’acqua
consentono di creare un contrasto tra tessuti diversi e tra una regione patologica e il tessuto circostante
sano.
• DTI – imaging basata sul tensore di diffusione: è possibile rilevare la direzione principali di movimento di
acqua; questo consente una descrizione completa delle proprietà della sostanza bianca, dove la diffusione
di acqua è altamente direzionale.
• DSI – imaging dello spettro di diffusione;
• QBI – imaging q-ball.

Tutte queste possono essere sottoposte ad analisi di trattografia, per ricostruire i percorsi seguiti dai fasci di fibre
di sostanza bianca che connettono diverse regioni, fornendo mappe di connettività anatomica.

Le sequenze MR usate di definiscono “sequenze pesate in diffusione”. Per rendere una sequenza sensibile alla
diffusione si aggiunge un gradiente di campo magnetico con due ampi impulsi intervallati da un impulso a
radiofrequenza di 180°. Gli spin dei protoni statici si defasano con il primo impulso e si rifasano col secondo. I
protoni in movimento saranno soggetti ad una diversa intensità del campo durante il secondo impulsi e quindi
non avranno tempo di rifasarsi completamente: questo risulta in un decremento dell’intensità del segnale MR. In
pratica, ogni movimento di molecole d’acqua nel tempo di osservazione risulta in una perdita del segnale e in una
diminuita intensità dell’immagine. Strutture con diffusione veloce appaiono più scure e strutture con ridotta
diffusione appaiono più chiare.

Il parametro che determina il grado di pesatura in diffusione è il valore di b (b-value), che è in relazione con una
serie di fattori (intensità del gradiente di diffusione e durata dell’intervallo tra i due impulsi). Si misura la
proporzione di molecole di acqua che ha percorso una certa distanza in un dato intervallo di tempo. Impostanto
b-value bassi le immagini mostreranno prevalentemente il contrasto T2, impostando valori alti, il contrasto sarà
prodotto prevalentemente dalle proprietà di diffusione. La scelta del valore dipende da cosa si vuole misurare.

Ad esempio, un intervallo di tempo di diffusione più lungo produce una migliore risoluzione direzionale (aumenta
la distinzione tra segnali in direzioni diverse; utile per lo studio dei fasci assonali); un intervallo più corto migliora
il rapporto segnale-rumore, fondamentale quando si intendono rilevare differenze tra tessuti sani e patologici.

Queste immagini richiedono uso di sequenze ultraveloci per due motivi: (1) affinché le molecole in movimento
non abbiano il tempo per rifasarsi; (2) perché le immagini sono molto sensibili non solo ai moti di diffusione
molecolare ma anche ad altri tipi di movimento involontario. Sono inoltre necessari scanner dotati di gradienti di
campo intensi.

6.1.2 IMAGING PESATA IN DIFFUSIONE (DWI)


Applicazione di una sequenza di impulsi in una singola direzione del gradiente di diffusione. Usata per scopi clinici
per evidenziare lesioni della sostanza grigia.

Una minima pesatura in T2 risulta ineliminabile quindi in alcuni casi è difficile capire se l’iperintensità del segnale
dipende da una carenza di diffusione o dalla pesatura in T2. Inoltre, il contrasto dell’immagine rivela
qualitativamente l’entità dei processi diffusivi ma non fornisce info quantitativa. Quindi spesso vengono create
mappe dei coefficienti di diffusione apparente (ADC) che non risentono di pesatura in T2 residua e consentono di
quantificare la diffusione protonica. Per ottenere ADC occorre acquisire almeno due DWI con parametri di
pesatura (b-value) diversi. Il coefficiente di diffusione apparente è calcolato considerando la relazione tra i b-value
30
usati e i segnali ottenuti dalle due DWI; esso indica la distanza percorsa dall’acqua in una certa unità di tempo. Le
immagini ADC appaiono come il negativo delle DWI.

DWI e ADC sono applicabili in tessuti in cui i movimenti dell’acqua sono isotropici come corteccia e nuclei cerebrali
maggiori (sostanza grigia). Utili perché sono in grado di diagnosticare ictus in fase iperacuta, inoltre forniscono
info sul tempo di insorgenza della lesione e consentono di differenziare lesioni ischemiche recenti da pregressi
infarti.

Vantaggio di DWI e ADC è che si possono ottenere in pochissimi minuti. Limite è la dipendenza dalla direzione di
applicazione del gradiente. Limite trascurabile quando si indagano strutture caratterizzate da processi di diffusione
isotropa (sost. Grigia) ma rilevanti nello studio di quella bianca (diffusione anisotropa). In questi casi il tasso di
diffusione differirà a seconda della direzione in cui il gradiente è stato applicato. Per fare queste misure si possono
eseguire tre misurazioni ortogonali (applicare gradienti di diffusione per ciascuno dei tre assi) e calcolare la media
dei risultati ottenuti. Queste mappe però non contengono info sulla direzione di spostamento prevalente.

6.2.2 IMAGING DEL TENSORE DI DIFFUSIONE (DTI)


La DTI consiste nell’applicazione di gradienti di diffusione in direzioni multiple. Consente di stimare, oltre la
velocità di diffusione delle molecole d’acqua, anche misure relative alla quantità di anisotropia e alla direzione
principale della diffusione. Le misure ottenute vengono usate per studiare proprietà della sostanza bianca e per
indagare la connettività anatomica.

In generale, la diffusione può essere:

A. LIBERA: viene definita isotropa, le molecole si muovono in modo omogeneo in tutte le direzioni;
B. VINCOLATA: definita anisotropa, le molecole si muovono in una direzione preferenziale.

Nella sostanza bianca, l’acqua si diffonde in modo altamente direzionale (anisotropo) con diffusione preferenziale
lungo gli assi dei fasci assonali. Per studiare i processi diffusivi in mezzi anisotropi è necessario stimare, per ogni
voxel, la distribuzione delle molecole sulle tre direzioni (x-y-z). Con la DTI vengono acquisite un minimo di 6
immagini pesate in diffusione lungo direzioni non collineari e 1 immagine di riferimento non pesata in diffusione
(b=0). La diffusività viene espressa attraverso un tensore di diffusione tridimensionale (elissoide) che rappresenta
per ogni voxel, lo spostamento delle molecole di acqua. Per ciascun voxel la stima del tensore risulta in 3
autovettori (x-y-z), che rappresentano le direzioni di diffusione, con 3 autovalori associati, ovvero i valori di
diffusività, che rappresentano la quantità di anisotropia. Gli autovalori specificano la forma dell’elissoide; gli
autovettori ne specificano l’orientamento. Se le molecole di acqua all’interno di un voxel si diffondono equamente
in tutte le direzioni, il tensore di diffusione avrà la forma di una sfera (diffusione isotropa). Invece se la diffusione
è prevalentemente limitata ad alcune direzioni rispetto ad altre, la forma sarà un elissoide (diffusione anisotropa).

La DTI consente di calcolare la direzione locale di maggiore diffusione, che può essere usata per evidenziare le
diramazioni dei fasci assonali.

Ci sono alcuni indici che si possono ricavare dal tensore di diffusione:

• Diffusività media (MD) o mappa di traccia: media dei tre autovalori. Indica la quantità di diffusione. I
colori più brillanti (giallo) rappresentano maggiore diffusione, dove c’è mobilità di acqua (liquor), i colori
meno brillanti (arancione) rappresentano minore diffusione (materia bianca e grigia).

31
• Anisotropia frazionaria (FA): ottenuta confrontando ogni autovalore con la media di tutti gli autovalori.
Indica la quantità di diffusione anisotropa ossia quanto l’acqua si diffonde prevalentemente in una
direzione rispetto alle altre. Varia da 0 a 1. I colori più brillanti (giallo) indicano anisotropia (materia
bianca) e i colori meno brillanti (arancione) minore anisotropia (materia grigia).
• Direzione principale di diffusione: l’asse di diffusione con lunghezza maggiore è interpretato come la
direzione principale della diffusione (PDD, principal diffusion direction) ossia l’asse lungo il quale le
molecole di acqua si muovono preferenzialmente nel voxel. Le mappe di direzione colorate danno info
sulla direzione della diffusione. Nella mappa il rosso indica la diffusione lungo l’asse sinistra-destra (x), il
verde indica la diffusione lungo asse anteriore-posteriore (y), il blu indica la diffusione lungo l’asse
inferiore-superiore (z). L’intensità del colore è proporzionale all’anisotropia frazionaria.
• Coerenza direzionale: la coerenza della direzione delle fibre in voxel adiacenti può essere stimata
attraverso misure come indice di coerenza inter-voxel (IC). Indica il coallineamento della direzione
principale di diffusione tra l’autovettore con maggiore autovalore di un dato voxel e gli autovettori dei
voxel circostanti; si ottiene calcolando la media dei prodotti scalari degli autovettori di un voxel di
riferimento e un determinato numero di voxel circostanti. Varia da 0 (isotropia e assenza di allineamente
dei vettori di voxel adiacenti) a 1 (alta anisotropia e perfetto allineamento).

Il valore di FA aumenta durante il normale sviluppo encefalico, suggerendo una possibile correlazione con la
formazione della guaina mielinica e il completarsi del processo di mielinizzazione. Anche nelle fibre assonali però
senza guaina mielinica è stata riscontrata una certa quota di anisotropia. Gli indici di anisotropia possono essere
considerati marker di integrità dei tratti di sostanza bianca.

Indici di FA hanno una significativa correlazione con la prestazione a compiti motori e test cognitivi.

Il modello del tensore di diffusione di presta bene per lo studio di regioni dove è presente una sola popolazione di
fibre. Il suo uso è problematico dove sono presenti fibre con diversi orientamenti: il tensore può stimare una
singola direzione principale di diffusione. Situazioni di eterogeneità di orientamento di fibre all’interno di uno
stesso voxel possono derivare dall’intersezione di fasci di sostanza bianca in regioni profonde o dalle complesse
disposizioni di fibre in prossimità della superficie corticale. Si possono avere casi di fibre che si incrociano (fiber
crossing) che si avvicinano per poi allontanarsi (fiber kissing) o che si diramano (fiber branching). Con il modello
del tensore, l’info sull’incrocio di fibre risulta come rumore o decremento non spiegato di anisotropia in quel voxel.
Diventa necessaria una funzione di diffusione che sia in grado di mappare contemporaneamente diverse direzioni
dominanti di diffusione all’interno dello stesso voxel.

Ci sono anche diversi approcci (DSI e QBI).

6.2.3 IMAGING DELLO SPETTRO DI DIFFUSIONE (DSI)


Fornisce la maggiore quantità di info e il maggiore dettaglio. È usata principalmente per acquisire dati da usare
per la trattografia di fibre. Mentre il segnale prodotto dagli spin protonici ad ogni posizione spaziale viene
campionato in un sistema di coordinate denominato spazio k, il campionamento dello spostamento o diffusione
degli spin viene campionato in un sistema di coordinate denominato spazio q. Un’immagine pesata in diffusione
(DWI) rappresenta l’intensità del segnale di diffusione in una specifica posizione q; corrisponde al campionamento
di un punto dello spazio q. Con la DTI vengono campionati almeno 6 punti di spazio q, in quanto si acquisiscono
almeno 6 immagini pesate in diffusione con lo stesso b-value ma con gradienti applicati in direzioni diverse. Con
la DSI viene campionato l’intero spazio q, o un grande campione di questo rappresentativo. Una serie di immagini
32
pesate in diffusione vengono acquisite consecutivamente con differenti b-value, corrispondenti ciascuno a un
diverso vettore q. La funzione tridimensionale è calcolata per ogni voxel. Per campionare l’intero spazio q occorre
acquisire centinaia di immagini; questo consente di ricostruire in modo completo la funzione di diffusione, ma
richiede lunghi tempi di acquisizione. Inoltre, per applicare alti b-value occorre avere a disposizione
apparecchiature con gradienti di campo magnetico molto intensi.

Con la DSI le fibre di fasci diversi sono più chiaramente separati. La differenza tra DSI e e DTI è data dalla
predominanza del rosso nella DSI che rappresenta le fibre callosali di decussazione che connettono lobi parietali
e temporali e nella distribuzione di fibre callosali che proiettano nel lobo frontale.

6.2.4 IMAGING Q-BALL (QBI)


La QBI è nata dal tentativo di coniugare i vantaggi di DTI e DSI, ovvero velocità di acquisizione e un’accurata
ricostruzione dei fasci di sostanza bianca anche dove siano presenti direzioni assonali multiple all’interno di uno
stesso voxel.

La maggiore velocità di acquisizione rispetto alla DSI è ottenuta misurando selettivamente la struttura angolare
della funzione di diffusione. Campionando il segnale di diffusione solo sulla superficie esterna della sfera, anziché
su tutto il reticolo cartesiano, si ottiene la proiezione radiale della funzione di diffusione. Interessa sapere quali
linee di direzione abbiano le misure massime di anisotropia: se il voxel è attraversato da un singolo tratto di fibre,
si avranno solo due valori di “massima” che puntano in direzioni opposte; se il voxel è attraversato da due tratti
di fibre, si avranno due coppie di “massima” e così via.

La QBI permette di applicare la tecnica della trattografia anche in situazioni di incroci di fibre all’interno dello
stesso voxel. La diffusione viene ricostruita campionando punti dello spazio q su una sfera con raggio costante;
poiché è sufficiente campionare solo una singola frequenza spaziale, anziché campionare esaustivamente le alte
frequenze spaziali, la QBI presenta una ridotta richiesta di intensità di gradienti. La risultante funzione è definita
funzione di distribuzione di orientamento (ODF). Essa contiene solo le info sulla direzione. La struttura angolare
della funzione di diffusione è sufficiente a catturare le info rilevanti allo scopo di mappare l’orientamento delle
fibre. È in grado di descrivere la diffusione multidirezionale: ODF multimodali indicano la presenza di orientamenti
multipli di fibre all’interno del voxel.

6.2.5 TRATTOGRAFIA
Nell’uomo è possibile usare tecniche istologiche nel cervello post-mortem, mentre tecniche di tracciamento
convenzionali in vivo sono inapplicabili nell’uomo a causa della loro invasività. La trattografia si pone come
alternativa non invasiva. Essa consiste nell’usare i dati provenienti da sequenze di DTI ottimizzate, DSI, QBI o simili,
per stimare i percorsi seguiti dai maggiori fasci di fibre di sostanza bianca da una regione all’altra. È un’analisi di
post-processamento dei dati che consente di tracciare computazionalmente la traiettoria di fasci di fibre, dandone
una visualizzazione tridimensionale. Il livello di risoluzione spaziale è enormemente più grossolano rispetto all’uso
di traccianti.

Gli algoritmi di trattografia usando le info relative alla quantità di diffusione anisotropa e all’orientamento di
massima diffusione per stimare i percorsi di massima coerenza di diffusione. Si ricostruisce la traiettoria della fibra.
L’orientamento del vettore di ogni voxel deve essere connesso in modo appropriato con l’orientamento dei vettori
dei voxel vicini. La direzione di massima diffusione in un voxel è seguita nel voxel adiacente: se l’angolo tra le due
direzioni è minore di un valore predeterminato scelto come soglia angolare, i due voxel vengono connessi e il

33
processo è ripetuto nei voxel successivi per continuare la traiettoria; se l’angolo è maggiore della soglia, la linea di
tracciamento del percorso viene terminata in quel punto. Può essere usata una soglia di anisotropia: assicura che
i percorsi tracciati proseguano in regioni dove la direzione di massima diffusione è ben definita. Il percorso viene
proseguito solo se l’anisotropia è maggiore del valore di soglia.

La trattografia può essere fatta con il software Brain Voyager: le traiettorie delle fibre sono proiettate su
un’immagine anatomica visualizzata su tre piani, i colori vengono scelti dall’operatore. È possibile richiedere al
programma di tracciare tutte le fibre del cervello o, più comunemente, richiedere di tracciare una o più fibre di
interesse. Per farlo si può disegnare una regione di interesse (ROI) come punto di origine (seed), nel qual caso il
programma ricostruirà tutte le fibre che passano per quella ROI in tutte le direzioni; alternativamente si può
disegnare una ROI come punto di origine e un’altra come punto di arrivo, il programma costruirà le fibre che
passano tra le due regioni.

I risultati della trattografia sono soggetti a una serie di parametri dipendenti dall’operatore e dai metodi usati.
Queste variabili fanno sì che i percorsi di massima coerenza generati computazionalmente possano differire
dall’effettiva architettura assonale.

La DTI fornisce un’approssimazione gaussiana della reale disdtribuzione di spostamento e il metodo può dar luogo
ad errori sistematici nei risultati della trattografia. DSI e QBI consentono una più realistica mappatura di
connettività in quanto le intersezioni tra fibre possono essere meglio gestite e le fibre appartenenti a diversi tratti
vengono più chiaramente differenziate.

Per quanto riguarda il tipo di algoritmo usato per la ricostruzione si distinguono:

A. Trattografia deterministica: usa in input dati ottenuti con la DTI, si basa sui principi sopra descritti e può
ricostruire una sola traiettoria per ogni punto di origine. Non può rappresentare incroci di fibre per una
singola traccia. I risultati vengono espressi qualitativamente e non forniscono una misura quantitativa
della forza o confidenza nel percorso tracciato, il che rende difficoltosi i confronti tra soggetti.
B. Trattografia probabilistica: questi algoritmi vengono proposti per superare i limiti dell’approccio
deterministico, considerando percorsi multipli che si dipartono dal punto di origine e da ogni punto lungo
la traiettoria ricostruita. Questi metodi rendono conto dell’incertezza nella stima della traiettoria
tracciata, e quantificano tale incertezza attraverso un valore di confidenza. Ciò che forniscono è una
distribuzione di probabilità dell’orientamento delle fibre. Un tracciato che parte da un certo punto può
incontrare regioni di alta incertezza nel suo cammino verso il target ma essere in grado di raggiungere il
target, con una funzione di densità di probabilità che si allarga spazialmente per rendere conto
dell’incertezza che incontra. Per ciascun punto di origine e ciascuna area target, si ottiene il valore di
probabilità della connessione.

La trattografia probabilistica è utile negli studi multi-soggetto, dove per la trattografia deterministica è un
problema confrontare i dati provenienti da diversi soggetti. È un metodo che però richiede tempi lunghi di
elaborazione e i percorsi tracciati risultano di più complessa interpretazione. I metodi probabilistici generano un
volume tridimensionale di potenziali connettività; tali mappe possono fuoriuscire in regioni inattese del cervello e
quindi è richiesta una buona conoscenza anatomica al fine di valutare quali parti delle traiettorie raffigurate siano
rilevanti.

34
La trattografia è limitata dalla risoluzione spaziale nettamente inferiore, che, per es., può sottorappresentare i
tratti di fibre più sottili e le connessioni interemisferiche verso la corteccia più laterale. Inoltre, dato che i percorsi
sono ben definiti solo in presenza di alta anisotropia, la trattografia è in grado di delineare con accuratezza i larghi
fasci profondi di sostanza bianca, ma presenta maggiori problematiche nel definire i tratti che vanno verso la
neocorteccia, dove c’è più divergenza di fibre e quindi, minore anisotropia. Infine, la trattografia, non può
distinguere tra proiezioni afferenti ed efferenti.

Nell’uomo il metodo più diretto per validare i dati di trattografia, o determinare quanto una ricostruzione
trattografica sia attendibile, consiste nel confronto con dissezioni post-mortem degli stessi sistemi di fibre.

La riproducibilità delle scansioni, sia a livello intra- che inter- individuale, è un altro elemento utile a rendere conto
dell’affidabilità della metodica. L’affidabilità è alta in presenza di consistenza delle scansioni acquisite a qualche
giorno di distanza, minime differenze inter-emisferiche, resistenza all’introduzione di effetti di perturbazione
random sulla matrice di connessione strutturale. Un ulteriore parametro consiste nella correlazione tra le mappe
di connettività anatomica, misurata con trattografia, con mappe di connettività funzionale, misurata ad es. con
fMRI.

Applicazioni cliniche: la trattografia è usata per la pianificazione di interventi neurochirurgici, per lo studio delle
alterazioni dei fasci di sostanza bianca in malattie neurologiche e psichiatriche, per la valutazione della
riorganizzazione cerebrale in seguito a eventi lesivi, o in seguito a trattamenti o training riabilitativi.

6.3 Tecniche di perfusione


L’imaging pesata in perfusione (PWI), usando sequenze ultrarapide rileva le modificazioni di segnale che
avvengono durante il rapido passaggio di un tracciante attraverso il letto vascolare. Se la barriera emato-encefalica
è intatta, il tracciante rimane nel compartimento vascolare e induce un campo magnetico locale decrescente dal
centro del vaso fino ad una breve distanza fuori di esso. Se il tessuto è perfuso ci sarà una transitoria perdita di
segnale nelle immagini T2; aree non perfuse daranno segnale più intenso rispetto alle aree perfuse. Il tracciante
può essere esogeno (si usa un mezzo di contrasto permagnetico e applicando i modelli matematici sulle proprietà
del trasporto del sangue e sui meccanismi di scambio con il tessuto, si risale alla misura di parametri emodinamici,
quali flusso sanguigno cerebrale o tempo di transito medio) o endogeno (tracciante sono molecole d’acqua
presenti nel sangue, marcando con opportuni impulsi a radiofrequenza pacchetti di spin protonici e studiandone
la dinamica successiva → si misura il CBF ma è meno preciso). La PWI è usata per scopi clinici, è utile per la
valutazione di lesioni ischemiche acute in quanto è in grado di fornire info fin dalle prime ore dall’infarto. È utile
anche per la valutazione di tumori e infezioni.

6.4 Tecniche di spettroscopia


La spettroscopia con risonanza magnetica (MRS) è una tecnica per fini clinici, per ottenere info metaboliche e
istologiche ultrastrutturali del tessuto in esame. Il principio chimico-fisico su cui si basa è denominato spostamento
chimico e indica che la frequenza di risonanza del nucleo dell’atomo cambia in funzione della conformazione
molecolare a cui è chimicamente legato. Il campo magnetico che agisce sul nucleo dell’atomo viene modificato
dai campi prodotti dagli elettroni presenti nella stessa molecola. Ne consegue che differenti molecole possono
essere rilevate e distinte in base alle loro diverse frequenze di risonanza. In pratica con la MRS il segnale derivante
da un dato elemento viene separato in funzione delle sue varie forme chimiche. Lo spettro rappresenta l’intensità
dell’energia assorbita in funzione della frequenza di risonanza. Questo metodo consente di valutare la

35
concentrazione tessutale di vari metaboliti su volumi singoli o multipli, creando mappe di concentrazione
molecolare. La tecnica MRS più diffusa è la spettroscopia del protone che rileva i segnali di metaboliti come:

• Colina: indice della degenerazione e/o del ricambio delle membrane cellulari.
• Creatinina-fosfocreatina: il suo segnale può fornire una misura indiretta del metabolismo cellulare legato
ai fosfati (riserva energetica).
• N-acetilaspartato: si considera correlato alla vitalità o funzionalità neuronale; una sua riduzione è
correlata ad una peggiore prognosi.
• Lattato: rilevabile solo quando la cellula è in carenza di ossigeno e quindi attiva il percorso anaerobico
della glicolisi; il suo segnale è interessante per processi ischemici o infiammatori e nella diagnosi di tumori.

CAPITOLO 7: METODICHE DI RISONANZA MAGNETICA:


TECNICHE FUNZIONALI (12 PAG.)
Le tecniche funzionali sono quelle metodiche che consentono di identificare regioni o circuiti cerebrali coinvolti in
funzioni mentali. L’oggetto di indagine è l’attività mentale, sia a riposo che durante lo svolgimento di compiti
sensitivi, motori, cognitivi o emotivi. La fMRI lavora sul livello di ossigenazione del sangue o effetto BOLD.

7.1 Principi fisiologici


Negli studi fMRI oltre a osservare caratteristiche statiche delle strutture cerebrali, interessa osservarne il
funzionamento. Occorre identificare una proprietà biofisica che venga modificata dal processamento di info
all’interno del cervello. Obiettivo è quindi creare immagini sensibili all’attività neuronale. Queste tecniche
forniscono misura indiretta dell’attività neuronale. Il segnale fMRI dipende da cambiamenti del flusso e del
metabolismo sanguigno del cervello. L’intensità del suo segnale dipende da differenze nel livello di ossigenazione
del sangue tra uno stato di riposo e uno stato di attività. Tali differenze di ossigenazione sono generate
internamente dall’attività fisiologica del cervello e rappresentano un contrasto endogeno: effetto BOLD.

In condizioni di riposo, nel sistema vascolare le molecole di emoglobina legate all’ossigeno (ossiemoglobina Hb)
vengono convertite in molecole di emoglobina non ossigenate (deossiemoglobina dHb): viene estratto l’ossigeno
al fine di provvedere alla necessità metaboliche di base, e ciò avviene con ritmo costante. Quando il soggetto deve
svolgere una determinata attività i neuroni delle aree deputate a quella funzione mentale diventano attivi. Tale
attività neuronale richiede energia (glucosio e ossigeno): la trasmissione sinaptica rilascia glutammato e questo
provoca un aumento del flusso sanguigno nella regione di interesse, quindi un aumento di molecole di Hb e una
diminuzione delle molecole di dHb. La dHb una più alta suscettibilità magnetica rispetto alla Hb; pertanto la
presenza di dHb produce una disomogeneità magnetiche riducendo il segnale di radiofrequenza emesso degli
atomi dell’idrogeno. Man mano che la quantità di dHb diminuisce, le disomogeneità magnetiche diminuiscono e
il segnale di radiofrequenza aumenta. Il segnale emesso dagli atomi di idrogeno nell’acqua dei tessuti circostanti
vasi sanguigni ricchi di Hb ha un’intensità maggiore rispetto a quello di altre regioni con metabolismo vascolare
“di base” → questo si traduce in un’area di brillantezza maggiore.

Poi la rilevazione dell’effetto BOLD si usano sequenze sensibili all’effetto T2*, ossia alle variazioni di omogeneità
del campo magnetico statico.

La sensibilità del segnale o grandezza dell’effetto è bassa ed è proporzionale all’intensità del campo magnetico
statico. È consigliabile un campo magnetico uguale o superiore a 1,5 T.

36
Principi fisici e fisiologici della fMRI:

1. In condizioni normali gli atomi ruotano in direzioni random.


2. All’interno dello scanner il campo magnetico statico forza gli atomi ad allinearsi lungo l’asse z.
3. Quando la bobina a radiofrequenza emette un impulso disallinea gli atomi.
4. Al cessare della radiofrequenza gli atomi tornano all’allineamento iniziale ed emettono un segnale. Questo
proveniente dagli atomi vicini a sangue ossigenato è più forte rispetto a quello proveniente dagli atomi vicini
a sangue deossigenato.

BOX 7.1 SCOPERTA DELL’EFFETTO BOLD


Ricerche scientifiche.

• Broca: aveva compiuto studi di termometria cerebrale, rilevando delle variazioni di temperatura relativa di
regioni del cervello associate con l’esecuzione di compiti cognitivi. Usando una corona termometrica. Egli
dimostrò considerevoli variazioni nella temperatura in risposta a compiti diversi in soggetti sani.
• Schiff: fa un passo avanti inserendo i termometri in luoghi specifici del cervello di animali sperimentali.
• Mosso: dimostra la relazione tra funzioni mentali e flusso della circolazione sanguigna in determinate regioni
cerebrali. Già aveva notato come il flusso diminuisse durante il sonno e aumentasse durante la veglia. Egli ha
costruito un apparato ingegnoso ma rozzo: una tavola in equilibrio su un fulcro centrale, sulla quale veniva
fatto sdraiare il soggetto sperimentale. L’aumento del volume sanguigno nel cervello associato con attività
mentale avrebbe teoricamente modificato il peso sulla tavola causandone un’inclinazione. Il volume
sanguigno è costante nel tempo quindi questa strumentazione era inadeguata. Mosso fece studi su pazienti,
tra cui Michele Bertino, dopo trauma cranico. In tutti i casi osservati, i cambiamenti nella pulsazione cerebrale
avvenivano indipendentemente dal cambiamento nel battito cardiaco o pressione sanguigna misurata.
• Roy e Sherrington: l’effettiva relazione venne ulteriormente esplorata nel modello animale. Essi conclusero
che le sostanze chimiche contenute nella linfa che bagna le pareti delle arteriole del cervello può causare
variazioni del calibro dei vasi cerebrali.

L’interesse cessò nei primi 20 anni del ‘900. Vennero seguite le orme di Hill che portarono a concludere
erroneamente che non ci fosse relazione tra funzioni e circolazione cerebrale.

• Fulton: presenta uno studio clinico importante → un suo paziente era stato ricoverato per un progressivo
decremento della vista causato da una malformazione arterovenosa nella corteccia occipitale. Fu possibile
registrare l’intensificazione del rumore mentre il paziente sdraiato chiudeva e apriva gli occhi. Egli concluse
che il flusso sanguigno nelle cortecce visive era sensibile all’attenzione prestata agli oggetti nel loro ambiente.

La ricerca subì ancora una battuta d’arresto fino al termine della II guerra mondiale.

• Kety: sviluppa il primo metodo quantitativo per rilevare il flusso sanguigno e il metabolismo cerebrale negli
umani. Svilupparono anche l’autoradiografia che consentì di evidenziare l’aumento del consumo di glucosio
nel cervello dell’animale durante stimolazione.
• Penfield: notò che il flusso sanguigno non è accompagnato da cambiamenti di simile grandezza nel consumo
di ossigeno.
• Cooper e colleghi: su suggerimento di Meyer approfittarono degli elettrodi impiantati per studiare
l’ossigenazione cerebrale. Riuscirono a documentare che allo svolgimento di compiti motori e cognitivi
corrisponde un aumento della disponibilità di ossigeno. Questi studi però vennero ignorati.
37
• Fox e Raichle: presentano dati su un esperimento tattile con PET → inequivocabilmente e quantitativamente
il flusso sanguigno nella zona cerebrale attivata dal compito aumenta maggiormente rispetto al consumo di
ossigeno. Il risultato è un incremento regionale del grado di ossigenazione del sangue e una riduzione relativa
della concentrazione di dHb.

Era però ancora necessario scoprire gli effetti dei cambiamenti di ossigenazione del sangue sul segnale MR e
misurarli.

• Faraday: osservò che il sangue secco non è magnetico.


• Pauling e Coryell: scoprirono che la dHb ha una suscettibilità magnetica maggiore della Hb.
• Thulborn e colleghi: sfruttarono la differenza nella suscettibilità magnetica tra ossi e deossiemoglobina per
misurare il consumo di ossigeno nel cervello.
• Ogawa: mostrò come nei ratti anestetizzati la perdita di segnale che si registra in presenza di una maggiore
proporzione di dHb rispetto a quella di Hb è visibile nelle immagini RM. Si era quindi trovato un mezzo di
contrasto endogeno per la MR: il sangue.

7.2 Risoluzione
Importante è l’accuratezza con cui la fMRI può misurare dove (risoluzione spaziale) e quando (risoluzione
temporale) un evento neuronale stia avvenendo. Le due proprietà sono inversamente proporzionali al rapporto
segnale-rumore, inoltre sono tra loro inversamente proporzionali. Sono stati sviluppati alcuni apparecchi per
mantenere alti livelli sia di risoluzione spaziale che temporale, quali ad esempio il jittering e l’imaging in parallelo.

7.2.1 RISOLUZIONE SPAZIALE


L’unità di misura è la dimensione del voxel. I voxel sono prismi tridimensionali le cui dimensioni sono specificate
dai tre parametri seguenti:

1. Il campo di vista: estensione della fetta sul piano x-y;


2. Grandezza della matrice: indica quanti voxel sono acquisiti per ogni dimensione del piano x-y. Il FoV e la
grandezza della matrice determinano la dimensione del voxel sul piano x-y.
3. Lo spessore di fetta: la misura del voxel sul piano z. Di solito, è la stessa o superiore di quella sul piano x-
y; quando è la stessa i voxel sono definiti isotropici.

Prima dell’esame fMRI occorre decidere la dimensione del voxel a cui si intendono raccogliere i dati. Poiché minore
è la dimensione del voxel e migliore è l’accuratezza spaziale della misura, si potrebbe campionare alla più piccola
dimensione possibile. Tuttavia, l’utilizzo di voxel di dimensioni ridotte ha delle controindicazioni quali la riduzione
del rapporto segnale-rumore e l’aumento del tempo di acquisizione.

Riducendo la dimensione del voxel si riduce la sensibilità all’effetto BOLD in quanto la variazione nel segnale BOLD
dipende dal cambiamento nella quantità totale di dHb all’interno di un voxel. Se si riduce della metà la grandezza
del voxel, si dimezza il tessuto campionato e il segnale misurato.

Voxel piccoli hanno maggiore specificità spaziale e hanno il vantaggio di produrre meno artefatti da suscettibilità
magnetica come gli artefatti del volume parziale. Questi ultimi si hanno quando, entro un singolo voxel, sono
presenti contributi del segnale provenienti da due o più tipi di tessuti distinti o due o più regioni funzionali. Poiché
ogni voxel è rappresentato con un solo valore della scala di grigi, tutto quello che è compreso nel suo volume viene
considerato congiuntamente: il segnale proveniente da tessuti diversi da quello di interesse riduce la quantità del
38
segnale di interesse. Per ridurre gli effetti di volume parziale è bene usare voxel non più grandi dello spessore
corticale (3-4 mm). Voxel più grandi possono migliorare la capacità di rilevare i deboli cambiamenti al rumore di
fondo.

Per ciò che riguarda il tempo di acqusizione, riducendo la dimensione del voxel aumenta proporzionalmente il
tempo necessario ad acquisire un dato volume cerebrale.

La dimensione del voxel delle immagini fMRI è intorno ai 4 mm in ciascuna direzione. Generalmente viene
acquisito un ulteriore set di immagini anatomiche ad alta risoluzione spaziale, con voxel di 1 mm in ciascuna
direzione: in fase di elaborazione dei dati, le immagini funzionali vengono sovrapposte a quelle anatomiche,
consentendo di visualizzare i risultati sulle immagini ad alta risoluzione.

Concordanza spaziale tra risposta BOLD e attività neuronale (co-localizzazione). L’assunzione di base
è che la risposta BOLD rifletta l’attività di neuroni che sono spazialmente co-localizzati, ma quanto questa co-
localizzazione è precisa? Autori hanno indagato la corrispondenza tra il segnale BOLD e misure elettrofisiologiche.
I risultati hanno mostrato una corrispondenza piuttosto buona tra le misure. Altri autori hanno confrontato
attivazioni fMRI e registrazioni con microelettrodi nel mappaggio delle rappresentazioni della faccia e della mano
nella corteccia sensitiva e motoria della scimmia: vi è buona sovrapposizione delle mappe.

Per comprendere l’effetto dei grandi vasi, consideriamo i contributi di differenti parti del sistema vascolare
all’effetto BOLD. Il segnale BOLD risulta dagli effetti della dHb, assente nel sangue arterioso in quanto è
completamente ossigenato; quindi il segnale riflette solo gli effetti del contenuto di dHb dei capillari e vene. Il
segnale che ci interessa proviene dai capillari. Dato che la dHb viene rimossa dal cervello attraverso il sistema
venoso, il segnale acquisito può anche derivare da vene drenanti. La presenza di cambiamenti del segnale nelle
vene determina gli “effetti dei grandi vasi”. Usando specifiche sequenze di acquisizione dei dati è possibile isolare
ed escludere le componenti del segnale BOLD che sono distanti dall’attività neuronale. Queste tecniche però
riducono anche il segnale di interesse quindi è bene usarle con scanner ad alto campo (>3T).

L’altro limite di risoluzione spaziale è posto dall’architettura della microvascolatura. La risposta BOLD ha inizio per
un aumento del flusso sanguigno, il flusso nel letto capillare è controllato da piccoli vasi resistenti, le arteriole.
Quindi la dilatazione delle arteriole è un elemento importante che incide sulla specificità spaziale dei cambiamenti
del flusso sanguigno. Uno studio ha indagato i cambiamenti nel diametro dei vasi sanguigni sulla superficie del
cervelletto di un ratto durante stimolazione di fibre parallele. In definitiva, l’epicentro della risposta sanguigna si
trova in una regione di attività sinaptica, ma anche ad alcuni millimetri di distanza, si verificano dilazione delle
arteriole e aumento del flusso sanguigno.

Effetti del processamento dei dati. Scelte operate in fase di analisi dei dati hanno influenza sulla risoluzione
spaziale. Lo smoothing spaziale riduce la risoluzione, sovrapponendo parzialmente voxel vicini. La risoluzione
spaziale diminuisce soprattutto quando si operano confronti tra vari soggetti.

7.2.2 RISOLUZIONE TEMPORALE


È importante poter separare gli eventi cerebrali nel tempo. L’unità di misura è il tempo di ripetizione (TR), velocità
con cui viene acquisito un volume cerebrale. La velocità di campionamento degli scanner attuali è molto elevata.
Diminuire il TR ha degli svantaggi, quali la riduzione del rapporto segnale-rumore e la riduzione della copertura
spaziale.

39
La riduzione del segnale è connessa alla riduzione del tempo di misurazione del segnale. È dovuta alla necessità di
usare con un TR corto, un angolo di rotazione più piccolo. L’angolo di rotazione indica di quanto la magnetizzazione
longitudinale netta debba essere ribaltata sul piano trasverso dell’impulso RF. Dato che la quantità di segnale MR
misurato è proporzionale alla proiezione del vettore di magnetizzazione sul piano trasverso, angoli di rotazione
ampi sono associati a un segnale maggiore. Per sequenze con TR uguali o superiori a 2 sec, l’angolo di rotazione è
di 90°. L’uso di TR ridotti richiede la riduzione dell’angolo di rotazione, che comporta una diminuzione
dell’ampiezza della magnetizzazione trasversale e, quindi, meno segnale MR misurato. La scelta del TR terrà quindi
in considerazione sia la precisione con cui si ritiene necessario misurare l’evento cerebrale oggetto di indagine, sia
l’estensione del volume cerebrale che si intende misurare.

Per migliorare la risoluzione temporale si possono usare accorgimento: es. presentazione degli stimoli in punti
temporali diversi del TR in prove differenti, così che mettendo insieme il segnale raccolto nei diversi punti
temporali nelle varie prove si aumenta il tasso effettivo di campionamento. Lo svantaggio è una diminuzione del
numero di stimoli per condizione con il conseguente aumento della variabilità che può indebolire la stima del
segnale.

Latenza del segnale BOLD. La variazione del segnale BOLD è in ritardo rispetto all’attività neuronale che l’ha
innescata (1-2 sec più tardi). Il decorso temporale tipico del segnale BOLD è: il tempo 0 coincide con la
presentazione dello stimolo. Alcuni studi hanno riportato una iniziale flessione negativa di ½ sec che potrebbe
essere attribuita a un aumento transitorio di dHb. Il segnale aumenta dopo 2 sec dall’inizio dell’attività neurale,
crescendo a un valore massimo di 5 sec per stimoli di breve durata. Dopo aver raggiunto il picco, il segnale decresce
fino ad un livello inferiore alla linea di base e lì rimane per un certo intervallo per poi tornare alla linea di base. Per
stimoli ripetuti la risposta è prolungata (plateau).

La latenza del segnale può costituire un limite: i cambiamenti emodinamico-metabolici possono avvenire troppo
lentamente per fare inferenze circa rapidi cambiamenti neuronali. La latenza però rispetto all’attività neuronale è
approssimativamente costante quindi è possibile usare appropriati algoritmi in grado di renderne conto.

7.3 Progettazione, esecuzione e valutazione di un esame fMRI


Un esame fMRI può essere volto a valutare il coinvolgimento di determinate aree cerebrali durante lo svolgimento
di un compito oppure usato per valutare la connettività funzionale dei vari sistemi cerebrali attraverso il resting
state. Nel primo caso, oltre ad uno scanner MR ad alto campo è necessario un sistema per la presentazione degli
stimoli, detto stimolatore. Gli studi di rs-fcMRI si basano sul fatto che analizzando le correlazioni temporali del
segnale BOLD a bassa frequenza è possibile identificare l’attività intrinseca di diversi sistemi funzionali. I diversi
sistemi cerebrali lavorano incessantemente anche in assenza di un compito finalizzato: la loro attività intrinseca si
manifesta nel segnale BOLD.

7.3.1 PROGETTAZIONE
Ci sono dei vincoli legati a:

• Neurofisiologia del segnale misurato (es. tempi di insorgenza della risposta BOLD).
• Caratteristiche strutturali dello scanner;
• Modalità di acquisizione delle immagini: che richiedono la posizione supina e l’immobolità del soggetto;
• Caratteristiche tecnologiche dei macchinari a disposizione come intensità del campo magnetico statico o tipo
di ausili per la presentazione degli stimoli.
40
Gli studi si rs-fcMRI sono semplici in quanto il soggetto non viene sottoposto ad alcun compito. Nel caso di esami
che richiedono l’esecuzione di un compito, la progettazione è più complessa.

Nella costruzione del paradigma, coccorre innanzitutto decidere il tipo di disegno che si intende usare: a blocchi o
evento-correlato. Poi attraverso un software apposito, si deve creare il paradigma, inserirvi gli stimoli da
presentare, impostare quali risposte possano essere fornite sul soggetto, quali risposte siano da considerare
corrette e quali errate. I tipi di disegno possono essere ricondotti ai seguenti modelli:

• Disegno a blocchi: stimoli simili che costituiscono una “condizione”, sono raggruppati in un singolo periodo o
blocco, che si alterna ad altri periodi in cui sono presentati stimoli appartenenti a una diversa condizione. La
durata ideale di ogni blocco è intorno ai 12 sec: sufficiente da produrre cambiamenti di segnale ampi e
sufficientemente rapida da consentire una buona alternanza delle condizioni, mantenendo il segnale ad alte
frequenze. Rispetto ai disegni evento-correlati, questi mantengono alcuni vantaggi, quali: (1) migliore
rapporto segnale-rumore e (2) maggiore potenza statistica, in quanto la varianza tra le prove di ogni blocco è
compensata dal mantenimento più prolungato del picco del segnale BOLD; (3) maggiore semplicità di
comprensione ed esecuzione e (4) maggiore semplicità nel computo dell’analisi dei dati. Per queste ragioni
sono i più usati nelle valutazioni cliniche e negli esperimenti su pazienti cognitivamente deficitari o poco
collaboranti.
• Disegno evento-correlato: stimoli presentati singolarmente e vengono definiti “eventi”. Sono tra loro separati
da un intervallo di tempo (da 2 a 20 sec). Quando la durata dell’ISI (intervallo di tempo) è superiore ai 12-15
sec, il disegno evento-correlato si definisce “lento”: ogni evento evoca una risposta BOLD completa e le
risposte evocate possono essere poi mediate insieme in fase di analisi dei dati; sono poco efficienti in quanto
vi è molto tempo tra uno stimolo e il successivo e uno scarso numero di prove. L’ISI può essere impostato su
valori molto brevi, si parla di disegno evento-correlato “rapido”: vi sarà una sovrapposizione delle funzioni
della risposta BOLD dei vari eventi, che dovrà essere deconvoluta in fase di analisi dei dati. È consigliabile
avere un ISI diversificato e/o una randomizzazione del tipo di stimoli. Infatti, abbinare un ISI breve e fisso con
un ordine di presentazione degli stimoli che si ripete sempre uguale comporta il problema della
multicollinearità: poiché le funzioni BOLD si sovrappongono sempre nello stesso modo, risulta
matematicamente impossibile discernere il contributo dei singoli stimoli alla somma delle risposte BOLD. Il
problema di evita randomizzando la presentazione degli stimoli. Anche l’ISI può essere diversificato (jittered)
e che rende le somme delle funzioni BOLD anche più differenziate le une dalle altre, riducendo la
multicollinearità. La randomizzazione è importante per rendere il compito meno prevedibile dal soggetto
evitando effetti di anticipazione. Rispetto ai disegni a blocchi, questi presentano una serie di vantaggi: (1) è
possibile distinguere processi cerebrali differenti associati con specifiche parti di un compito o in alcuni casi
con sotto-componenti temporalmente separabili di funzioni mentali; (2) è possibile, in fase di analisi dei dati,
indagare i correlati neurali delle risposte comportamentali date a ogni prova; (3) i disegni evento-correlati,
contenendo una migliore stima dell’andamento nel tempo della funzione mentale oggetto di studio, spesso
usati in ambito di ricerca.

La scelta del tipo di disegno dipende anche dal tipo di processo oggetto di indagine. In generale, in tutti i casi in
cui sia necessaria una randomizzazione delle prove, è necessario un paradigma evento-correlato.

Sono stati proposti anche disegni misti, in cui stimoli sono presentati in blocchi regolari, ma all’interno di ogni
blocco vi sono diversi tipi di eventi: consentono di identificare regioni cerebrali che, in un determinato compito,

41
hanno un’attività transitoria oppure sostenuta. Ad es. è stato dimostrato che, durante l’esecuzione di compiti di
memorizzazione di info, alcune regioni cerebrali hanno un’attività sostenuta che supporta l’intera prestazione al
compito, indipendentemente dalla risposta ai singoli stimoli e che la quantità di info ricordate è correlata con
l’attivazione di queste regioni cerebrali. Questo tipo di disegno coinvolge un maggior numero di assunzioni rispetto
agli altri disegni e la stima della forma della risposta BOLD è scarsa.

7.3.2 ESECUZIONE
Il soggetto è fatto sdraiare su un lettino dello scanner in modo che la testa dia posizionata al centro del campo
magnetico. È possibile presentare stimoli visivi o uditivi attraverso ausili collegati con lo stimolatore; il soggetto
può anche fornire risposte. Lo stimolatore è posizionato nella stanza degli operatori. Lo stimolatore è un computer,
spesso dotato di un doppio schermo, che serve sia per la somministrazione del paradigma che per la registrazione
delle risposte fornite dal soggetto. Quando l’esame richiede la somministrazione di un compito è altamente
consigliabile che al soggetto sia richiesto di fornire risposte registrabili/osservabili. Queste oltre a forzare
l’attenzione del soggetto sul compito, servono per verificare la sua prestazione: sarà possibile valutarle in termini
di adeguatezza/correttezza e tempo di risposta.

Attraverso il computer che gestisce le sequenze RM, vengono inviate le sequenze relative all’esame in corso, e
raccolte le relative immagini. Durante la sequenza fMRI vengono raccolte immagini BOLD di volumi cerebrali,
vengono acquisiti circa un centinaio di volumi per ogni serie (run) e ogni volume è acquisito ogni 2-3 sec. Ciascuna
run dura quindi intorno ai 5-7 minuti. Un esame fMRI può essere composto da una o più run. È necessario acquisire
un set di immagini RM anatomiche ad alta risoluzione, usate per visualizzare i risultati delle analisi funzionali.

7.3.3 VALUTAZIONE
Le immagini sono sottoposte a un’elaborazione che comprende diversi passaggi. Esistono numerosi software che
consentono di elaborare dati di neuroimmagine: gli algoritmi per il pre-processamento e per l’analisi dei dati sono
implementati nel software e ciò automatizza l’esecuzione delle procedure.

7.3.3.1 Pre-processamento dei dati


Prima di eseguire le analisi statistiche, i dati devono essere sottoposti a pre-processamento.

Per prima cosa vengono acquisite alcune procedure finalizzate a ridurre la variabilità indesiderata, attribuibile a
fonti di rumore. Quindi i procedimenti che eliminano o riducono la varianza associata a fonti di rumore sono
importanti per aumentare la sensibilità al segnale di interesse. Tali procedure includono: correzioni per
compensare i movimenti della testa; correzioni per compensare le discrepanze nel tempo di scansione; talvolta
correzioni per compensare i cambiamenti di intensità del segnale nel tempo non dovuti alle variabili di interesse;
l’applicazione di filtri spaziali e temporali. Questi ultimi sono utili a migliorare il rapporto segnale-rumore. Se il
segnale e il rumore sono presenti a frequenze separabili è possibile usare i filtri che rimuovono le frequenze del
rumore e mantengono quelle del segnale di interesse. I filtri hanno effetto positivo: riducendo la dimensionalità
dei dati viene attenuato il problema dei confronti multipli.

Inoltre, affinché le mappe di attivazioni ottenute con le analisi statistiche possano essere visualizzate su immagini
ad alta risoluzione è necessario che le immagini fMRI vengano coregistrate al set di immagini anatomiche di quel
soggetto.

Infine, negli studi che coinvolgono uno o più gruppi di soggetti, è necessario ricondurre le mappe di ogni soggetto
a un’immagine cerebrale standardizzata, tale operazione è detta normalizzazione.
42
Correzione dei movimenti della testa. I movimenti della testa attuati dal soggetto costituiscono uno dei
maggiori problemi. Tipici artefatti da movimenti possono essere rappresentati da “attivazioni” ad anello ai bordi
del cervello, perché qui si trovano maggiormente confini tra tessuti diversi.

Si opera un riallineamento spaziale delle immagini, che ha scopo di rimuovere i cambiamenti dell’intensità del
segnale dovuti a piccoli movimenti della testa nello stesso soggetto. Le serie temporali di immagini (volumi)
vengono allineate in modo tale che il cervello si trovi nella stessa posizione in ogni immagine. Si prende come
riferimento un singolo volume e ciascuno degli altri volumi acquisiti dovrà venire allineato a quello di riferimento.
Per ogni volume occorre stimare la quantità del movimento rispetto al volume di riferimento, ovvero la
trasformazione che serve per farli combaciare. Viene cercata e poi applicata una trasformazione “a corpo rigido”
in cui si assume che la grandezza e la forma dei due oggetti che devono essere coregistrati siano identiche e che
quindi i cambiamenti da applicare siano gli stessi per tutta l’immagine da trasformare: si fa una combinazione di
tre traslazioni e tre rotazioni attorno all’asse z. Per trovare la trasformazione possono essere usati algoritmi di
riallineamento basati su approcci iterativi. Viene testata una prima stima e poi una serie di combinazioni che si
discostano progressivamente dalla prima, fino a trovare una stima sufficientemente buona che fornisce minore
errore residuo.

Una volta che i parametri di correzione sono stati trovati, possono venire applicati a ogni volume originario per
produrre un nuovo volume. La ricostruzione di un’immagine volumetrica richiede un procedimento di
interpolazione spaziale, attraverso cui viene stimata l’intensità luminosa a ogni punto spaziale che non è stato
originariamente campionato, usando i dati provenienti da punti spaziali vicini.

Occorre tenerne presenti i limiti. Infatti la trasformazione a copro rigido assume che la forma degli oggetti da
confrontare sia identica, tuttavia nel caso in cui vi sia un brusco movimento i 6 parametri di rotazione e traslazione
non sono più sufficienti per rendere conto del movimento dell’interno del volume. Questa procedura non può
compensare completamente i movimenti della testa. Inoltre, i movimenti riducono l’omogeneità del campo
magnetico, fintanto che i movimenti della testa sono piccoli, la procedura è efficace.

Il movimento della testa può essere casuale oppure correlato al compito. In quest’ultimo caso i parametri di
movimento stimati possono essere usati in fase di analisi dei dati inserendoli nel modello statistico come variabile
confondente.

Correzione del tempo di scansione. Le sequenze a impulso usate acquisiscono una fetta alla volta, quindi le
fette che appartengono a un volume funzionale non sono acquisite nello stesso istante temporale, ma ogni fetta
è acquisita a un diverso punto temporale all’interno del TR. Queste differenze possono essere problematiche
quando le fette all’interno di ciascun volume sono state acquisite in modo intervallato, come avviene solitamente.
Questo comporta che vengano acquisite tutte le fette dispari e poi tutte le pari al fine di minimizzare l’influenza
dell’impulso di eccitazione tra fette adiacenti. Fette spazialmente adiacenti non sono acquisite consecutivamente
e gli scostamenti nell’acquisizione temporale tra una fetta e l’altra possono avere un effetto sul segnale BOLD. Di
conseguenza, il segnale BOLD in ciascuna fetta avrà decorsi temporali piuttosto diversi nonostante l’attività
neuronale sottostante sia identica. In questi casi lo sfasamento temporale può portare ad esempio ad una
riduzione della potenza statistica. Infatti, mentre nei disegni a blocchi i cambiamenti del segnale sono misurati su
lunghi intervalli e quindi gli errori temporali hanno un impatto trascurabile, i disegni evento-correlati dipendono
da un modellamento accurato dei tempi di presentazione degli stimoli e quindi gli errori temporali possono avere
un impatto significativo.
43
La correzione va effettuata attraverso un processo di interpolazione temporale, attraverso cui viene stimato il
valore del segnale come se tutte le fette fossero state acquisite al tempo 0 del TR. Si possono usare diverse
tecniche di interpolazione; tutte compiono una stima tenendo conto del TR e del tempo tra acquisizione di una
fetta e la successiva nello stesso volume. L’accuratezza dell’interpolazione dipende da quanto i dati sperimentali
cambiano rapidamente nel tempo e dalla velocità di campionamento.

Smoothing spaziale. Consiste nell’applicare una funzione di diffusione che spalma l’intensità del segnale di ogni
voxel sui voxel vicini: i valori di intensità del segnale entro ogni voxel sono sostituiti con una media pesata che
tiene conto dei valori dei voxel vicini. La funzione di diffusione usa un filtro gaussiano detto kernel. Il filtro ha un
effetto di sfocatura dell’immagine. L’ampiezza del filtro determina a quanta distanza si propagano i suoi effetti:
un filtro stretto espande i dati su pochi voxel, mentre un filtro largo su molti voxel. L’ampiezza del filtro deve
essere scelta in base alla grandezza dei voxel usati nell’acquisizione, e i base all’estensione spaziale attesa
dell’attivazione. L’attività di voxel adiacenti è correlata, ed è quindi possibile predire se un voxel sarà attivo
sapendo se i suoi vicini sono attivi. La correlazione spaziale è dovuta sia alla similarità funzionale di regioni cerebrali
adiacenti sia alla sfocatura introdotta dal sistema vascolare. Per scegliere il valore specifico dell’ampiezza del
kernel si possono seguire alcuni principi guida. Nel caso di studi su gruppi è consigliabile un filtro ampio. L’attività
distribuita su un certo range di voxel. Usando un filtro spaziale che corrisponde con la correlazione spaziale attesa
dei dati, è possibile aumentare considerevolmente il rapporto segnale-rumore con una perdita limitata di
risoluzione spaziale. Il rischio dell’uso di un filtro troppo grande è la perdita di attivazioni rilevanti; il rischio dell’uso
di un filtro troppo piccolo è di avere un effetto positivo minimo sul rapporto segnale-rumore. Lo smoothing
spaziale è molto utile per le analisi voxelwise, mentre il suo uso nelle analisi su regioni di interesse (ROI) è da
considerare con cautela.

Lo smoothing viene eseguito per migliorare la validità dei test statistici parametrici mediando tra osservazioni
multiple, tende a normalizzare la distribuzione dei parametri, compresa la distribuzione dell’errore. Il filtraggio
attenua il problema dei confronti multipli. Lo smoothing spaziale, mediando l’intensità del segnale su insiemi di
voxel, riduce la dimensionalità dei dati, e di conseguenza il numero di confronti effettivi.

Filtraggio temporale. Il decorso temporale del segnale ad ogni voxel è da considerare. Oltre alle componenti
di interesse sono presenti componenti di rumore che, se non vengono attenuate in fase di pre-processamento,
possono impedire di identificare attivazioni rilevanti in fase di analisi dei dati.

È necessario passare al dominio delle frequenze. Obiettivo del filtraggio temporale è di minimizzare il rumore,
mantenendo i cambiamenti del segnale che avvengono alla frequenza di interesse. Vi sono diverse fonti di rumore:
fonti fisiche, quali i cosiddetti “sbandamenti dello scanner” che avvengono a frequenze molto basse e sono dovuti
ad esempio a (1) lenti cambiamenti della temperatura dell’ambiente, che si manifestano in trend lineari o quasi
lineari del segnale, particolarmente problematici in studi con blocchi lunghi; (2) fattori fisiologici (ciclo cardiaco e
respiratorio); (3) effetti del movimento e loro interazione con campo magnetico statico.

Un filtro passa-alto lascia passare solo frequenze sopra una certa soglia, rimuovendo le oscillazioni troppo lente.
La scelta della soglia è importante; una possibilità è di prendere la frequenza fondamentale dello studio e
raddoppiarla o triplicarla in modo da assicurarsi di non rimuovere frequenze vicine a quella fondamentale. Il più
semplice e sempre usato filtro passa-alto rimuove i trend lineari. Al contrario, un filtro passa-basso, mantiene le
basse frequenze eliminando quelle superiori a una certa soglia. Occorre fare attenzione perché se si ha un

44
paradigma evento-correlato rapido in cui gli stimoli vengono presentati a distanza di pochi secondi, il filtraggio
può ridurre la rilevazione del segnale. L’uso di filtri bassa-passo è sconsigliato.

È importante sottolineare che tutte le fonti di rumore non contribuiscono a una sola frequenza. Quando il segnale
è sottocampionato si possono avere effetti di “aliasing”, ovvero la rappresentazione di una componente a
frequenza diversa dalla sua effettiva. Per ricostruire correttamente un segnale analogico campionato digitalmente
è necessario che la frequenza di campionamento sia sufficientemente rapida da cogliere i cambiamenti del
segnale. Il teorema di Nyquist-Shannon stabilisce che, affinché sia possibile ricostruire un segnale analogico a
partire dai suoi campioni, è necessario che la frequenza di campionamento sia almeno il doppio della frequenza
più alta contenuta nello spettro del segnale di interesse.

Il pre-processamento dei dati ha un effetto rilevante sulle mappe di attivazione.

Coregistrazione dei dati funzionali ai dati anatomici. Consiste nell’allineare (sovrapporre) il set di
immagini funzionali al set di immagini anatomiche ad alta risoluzione, meglio se acquisite nella stessa sessione.
Serve per una localizzazione più accurata dell’origine del segnale e la sua assegnazione anatomica. Gli algoritmi
procedono automaticamente sovrapponendo i due set di immagini a partire da specifici punti spaziali. In alcuni
casi è importante l’intervento dell’operatore esperto per migliorare il processo di coregistrazione.

Normalizzazione spaziale. Negli studi con uno o più gruppi di soggetti, è necessario trovare un modo per
combinare e/o confrontare le attivazioni provenienti dai cervello dei diversi soggetti. La procedura più usata è la
normalizzazione spaziale. Consiste nel riportare l’immagine del volume cerebrale di ogni individuo all’interno di
un riferimento standard (template), con un algoritmo che tende a minimizzare la differenza tra immagine che deve
essere normalizzata e quella del template. Una volta determinata la misura globale e identificati alcuni punti di
riferimento, l’algoritmo applica all’immagine una serie di trasformazioni lineari e non lineari. Lo spazio anatomico
convenzionale impiegato è definito “spazio stereotassico”. Sono stati proposti spazi probabilistici ottenuti
combinando dati di centinaia di scansioni individuali → template MNI. La normalizzazione consente di specificare
la localizzazione delle attivazioni attraverso un sistema di coordinate specifico, consentendo il confronto tra studi.

La normalizzazione porta con sé il limite dell’imprecisione spaziale. Problematici sono i gruppi di soggetti non
rappresentati nei campioni normativi come anziani o bambini. Ancor maggiore è il problema per i gruppi di
pazienti, caratteristiche anormali possono ridurre l’accuratezza del processo. Le trasformazioni lineari però sono
più precise. Una soluzione è di escludere l’area lesionata dal computo della differenza tra le immagini.

Alcuni autori propongono un approccio diverso per gli studi di gruppo: identificare, per ogni soggetto, determinate
regioni di interesse (ROI). Fondamentale è che il compito usato per definire la ROI e quello oggetto di studio siano
indipendenti. La definizione delle ROI deve avvenire individualmente per ogni soggetto. Poi occorre mediare i dati
tra tutti i voxel per ogni ROI ed eseguire l’analisi statistica per ogni soggetto; infine, eseguire analisi sul gruppo di
soggetti.

7.3.3.2 Analisi dei dati


Prima dell’analisi statistica è necessario definire la matrice del disegno tenendo conto del ritardo della risposta
BOLD rispetto all’attività neuronale che la innesca. Successivamente, viene eseguita l’analisi statistica che
consente di rilevare le aree in cui vi è un aumento reale del segnale. Sono necessarie le statistiche. Si potrebbe
analizzare i dati navigando voxel per voxel, ovvero muovendo il cursore sulle differenti aree e guardando se ci sono
decorsi temporali del segnale che rispecchiano l’andamento predetto. Questo procedimento non è però fattibile.
45
Le statistiche indicano dove trovare le attivazioni relative al paradigma oggetto di studio, e stimano con quanta
probabilità l’attivazione sia reale, considerato il rumore. La più semplice è l’analisi di correlazione, in cui il decorso
temporale a ogni voxel viene correlato con la funzione di riferimento; r è il valore di correlazione tra il predittore
e il segnale ad ogni voxel; r al quadrato è la proporzione di varianza spiegata dal predittore; p è il livello di
significatività statistica. Il valore di significatività dipende da:

• Segnale;
• Rumore;
• Grandezza del campione.

I risultati sono rappresentati in una mappa statistica: i voxel che oltrepassano la soglia specificata sono mostrati
in rosso/giallo; i voxel in blu/verde rappresentano deattivazioni.

7.4 Impieghi
7.4.1 COMPRENSIONE DEL FUNZIONAMENTO DEL SISTEMA MENTE-CERVELLO
La fMRI è oggi impiegata ampiamente nell’ambito di ricerca sul funzionamento del sistema mente-cervello in
quanto consente di studiare volontari sani, eseguendo esami anche ripetuti nel tempo, senza effetti nocivi.

• Gli studi riguardano ogni dominio cognitivo. Oltre ai classici filoni di ricerca su percezione, attenzione,
memoria e ragionamento, un crescente interesse ha suscitato lo studio dell’immaginazione mentale. Un altro
dominio riguarda la comprensione delle azioni compiute dalle altre persone (neuroni specchio).
• Ci sono anche lavori che indagano differenze di attività e connettività funzionale nelle diverse fasi di vita.
• Si studiano anche effetti dell’esperienza sulla plasticità cerebrale in soggetti sani.
• Si studia anche come i cervelli di persone diverse lavorino in modo simile in condizioni naturali.

7.4.2 CARATTERIZZAZIONE DI PATOLOGIE NEUROLOGICHE E PSICHIATRICHE


Lo studio dei pazienti con patologie neurologiche e psichiatriche è utile per la caratterizzazione cerebrale delle
relative malattie. L’accoppiamento neurovascolare può essere influenzato dalla vicinanza di tumori vascolari, da
lesioni legate a epilessia, malattia e trattamento farmacologico.

• Molti studi su pazienti vengono eseguiti tramite resting state.


• Studi con utilizzo di specifici compiti consentono di affrontare quesiti sperimentali specifici, nonché di
correlare il (dis)funzionamento di asse o circuiti cerebrali con comportamento o prestazioni.

7.4.3 VALUTAZIONE DI CAMBIAMENTI CEREBRALI IN SEGUITO A TRATTAMENTI


TERAPEUTICI
Studi usati per valutare i cambiamenti cerebrali che possono avvenire in seguito a trattamenti terapeutici
(farmacologici, riabilitativi o psicoterapici). Per quanto riguarda i training, di particolare valore clinico sono gli
esercizi volti alla diminuzione del dolore e quelli finalizzati alla riabilitazione motoria. Gli studi sui cambiamenti
cerebrali in seguito a psicoterapia possono essere utili nella comprensione dei meccanismi neuronali che, a livello
globale, consentono modificazioni di credenze, stati affettivi, modalità di pensiero di comportamento.

7.4.4 VALUTAZIONI PRE-CHIRURGICHE


La fMRI, spesso usata insieme alla DTI, viene usata per la valutazione preoperatoria di pazienti che devono essere
sottoposti a interventi neurochirurgici, in particolare interventi di resezione per epilessia farmaco-resistente o
interventi per l’asportazione di tumori cerebrali.
46
Nella valutazione di paziente che devono subire resezione della zona responsabile dei focolai epilettici, è quindi
fondamentale identificare l’emisfero dominante e valutare l’integrità dell’emisfero controlaterale a quello che
deve essere asportato. Il metodo più usato per la valutazione è il test di WADA. È stata trovata però alta
corrispondenza tra indici di lateralizzazione ottenuti con questo test e quelli ottenuti con fMRI.

Nella valutazione prechirurgica di un tumore, l’esame fMRI è usato per localizzare aree cerebrali deputate a
importanti funzioni sensorimotorie o cognitive e la loro vicinanza al tessuto da asportare.

7.4.5 NEUROFEEDBACK: LA FMRI PER IL CONTROLLO DI AUSILI E PER UTILIZZI


TERAPEUTICI
C’è la possibilità di usare fMRI per scopi terapeutici, in particolare attraverso l’uso del neurofeedback, una forma
di biofeedback. Il biofeedback è una tecnica in cui il soggetto in esame viene sottoposto alla registrazione di un
segnale biologico, gli viene fornita una rappresentazione del segnale registrato che consiste in una visualizzazione
grafica illustrativa dell’andamento del segnale e viene addestrato a controllare il segnale. Nel caso del
neurofeedback il segnale è relativo al SNC, come un tracciato EEG o il segnale fMRI proveniente da una
determinata area cerebrale, e il controllo del soggetto sull’andamento del segnale avviene tramite uso di strategie
mentali. Il soggetto viene poi allenato a generalizzare la capacità di controllare l’attività dell’area oggetto di
indagine anche in assenza del feedback. Il controllo del segnale può essere usato per diversi scopi: studi di ricerca
su rapporti tra funzionamento cerebrale, stati mentali e comportamento; gestione di ausili; trattamento e
riabilitazione. Il neurofeeback è possibile grazie all’introduzione della fMRI in tempo reale in cui i dati sono
elaborati man mano che vengono acquisiti.

Altre applicazioni terapeutiche del neurofeedback con fMRI sono state sperimentare ad esempio per il
trattamento di depressione, schizofrenia, psicopatia, tinnito, tabagismo, e nella riabilitazione del movimento in
seguito a ictus.

CAPITOLO 8: METODICHE DI MEDICINA NUCLEARE (13 PAG.)


Includono tomografia a emissione di un singolo fotone (SPECT) e la tomografia a emissione di positroni (PET),
consentono di indagare il funzionamento cerebrale e le relative dinamiche neurochimiche, a riposo e durante lo
svolgimento di compiti mentali. Hanno impieghi di ricerca e applicazioni cliniche. Usano i radiofarmaci ovvero
molecole marcate con sostanze che emettono radiazioni; consente di rilevare dall’esterno le aree dove la stessa
si concentra. L’assunzione è che le aree in cui avvengono processi metabolico-chimici accumulino il radiofarmaco.

Il funzionamento cerebrale è strettamente legato all’apporto sanguigno costante di ossigeno e glucosio. Vi è una
stretta associazione tra attività funzionale normale, flusso sanguigno e consumo di ossigeno e glucosio. Quindi il
livello di attività funzionale cerebrale può essere descritto da:

A. Perfusione cerebrale: studia il flusso sanguigno cerebrale (CBF). Gli esami SPECT di perfusione sono
comuni nella clinica; usano sostanze marcate con Tecnezio (Tc), in grado di attraversare la barriera emato-
encefalica e di localizzarsi nel cervello in quantità proporzionale al flusso sanguigno regionale.
B. Metabolismo cerebrale: si studiano consumo di ossigeno, sintesi proteica e acidi nucleici. La più diffusa
PET è lo studio del consumo di glucosio usando un suo analogo, il fluorodeossiglucosio (FDG), legato
all’isotopo Fluoro (F) a formare il F-FDG. Informazioni complementari si possono ottenere con
spettroscopia a risonanza magnetica.

47
Nelle immagini di perfusione sono ben individuabili le principali aree corticali cerebrali e cerebellare, i nuclei della
base e i talami. Nei pazienti, è possibile evidenziare aree ad alterato funzionamento (ipo/ipermetabolismo).

Queste tecniche possono studiare i sistemi di neurotrasmissione. Le immagini con impiego di traccianti dei sistemi
di neurotrasmissione presentano distribuzione regionale variabile in relazione al sistema studiato. Le info sui
sistemi di neurotrasmissione non possono essere fornite da altre metodiche di neuroimmagine.

PET e SPECT si differenziano per il tipo di emissione dei radiofarmaci usati e conseguentemente per la tecnologia
delle apparecchiature, il tipo di studi, la sensibilità di rilevazione del segnale e la risoluzione spaziale. La PET ha
una maggiore fisiologicità dei suoi traccianti, perché sono sostanze normalmente presenti nell’organismo umano;
il loro elevato numero; la breve emivita fisica dei radioisotopi. Essa consente di eseguire analisi quantitative di
parametri fisiologici. Le immagini ottenute dalla PET hanno una risoluzione spaziale che è circa il doppio di quelle
SPECT. I costi di una SPECT sono inferiori e pertanto essa è più diffusa per usi clinici. Gli impieghi dipendono dal
tipo di quesito. In generale, la PET si presta meglio ad un impiego per scopi di ricerca.

8.1 Principi fisici


Radioattività: condizione nella quale un nucleo in condizione di instabilità energetica emette energia in forma
corpuscolata o elettromagnetica per raggiungere lo stato di stabilità. Si riconoscono due tipi: naturale e artificiale.

I tipi principali di radiazioni sono 4: particella alfa, beta negativa (elettrone), particella beta positiva (positrone) e
radiazione gamma. Le prime due trasferiscono un’elevata energia nel tessuto con cui vengono a contatto, sono
impiegate per usi terapeutici (radioterapia); le ultime due sono quelle utilizzate a fini diagnostici in PET e SPECT.

La particella beta positiva, liberata da un nucleo in eccesso di protoni con trasformazione di un protone di
neutrone, ha vita brevissima: dopo un tragitto variabile molto breve, collide con un elettrone negativo con
annichilazione delle loro masse e liberazione di una corrispondente energia elettromagnetica sotto forma di due
fotoni di uguale energia di verso opposto. È usata nella PET.

Il fotone gamma può originare durante molte forme di decadimento nucleare. Es. il Tecnezio emette fotoni gamma
durante la transizione dallo stato metastabile a quello stabile. È usato nella scintigrafia planare e SPECT.

Apposite apparecchiature permettono di rilevare le radiazioni emesse dal radiofarmaco somministrato e di


ottenere immagini (scintigrafie) che rappresentano la sua distribuzione nell’organo.

8.1.1 RILEVAZIONE DEI FOTONI: GAMMACAMERA


Nella diagnostica per rilevare i fotoni viene usata la gammacamera nelle due varie configurazioni (singola testata
detta detettore o a testate multiple, con possibilità di ruotare attorno all’organo). Il principio è quello di
trasformare energia della radiazione incidente in impulso elettrico, che può essere analizzato e collocato
spazialmente definendone il punto di origine. Si ricorre ad una catena di componenti contenuti nella testata:

1. COLLIMATORE: strumento di piombo, serve a fare in modo che alla superficie di rilevazione della testata
arrivino solo le radiazioni perpendicolari ad essa con esclusione di quelli a direzione obliqua, consentendo
di definire nel modo più preciso possibile il punto di emissione della radiazione (sorgente). I collimatori
hanno un aspetto a nido d’ape con numerosi fori paralleli di piccolo calibro separati da setti deputati al
blocco della radiazione che incide non perpendicolarmente. Il collimatore “fan beam” (fascio a ventaglio)
presenta fogli paralleli secondo un piano di sezione e fori convergenti secondo quello perpendicolare al

48
primo, così da risultare focalizzanti, con ottenimento di una miglior sensibilità di rilevazione, quindi miglior
qualità dell’immagine.
2. CRISTALLO: trasforma l’energia del fotone incidente in lampo di luce (scintillazione) di intensità
proporzionale all’energia ceduta dal fotone stesso. È generalmente costituito di ioduro di sodio attivato
dal tallio. Il raggio luminoso viene incanalato tramite una guida di luce al fotomoltiplicatore.
3. FOTOMOLTIPLICATORE: accoppiato in numero variabile al cristallo scintillatore, trasforma ogni singolo
impulso luminoso prodotto in un segnale elettrico, a sua volta amplificato in una scarica di milioni di
elettroni. Risponde in modo differenziato e costante alle diverse energie gamma incidenti.
4. CONVERTITORE ANALOGICO-DIGITALE: converte i segnali in uscita dai fotomoltiplicatori in segnali
digitali, analizzati in base alla loro energia, collocati spazialmente e poi raccolti sulla memoria di un
computer, poi c’è la visualizzazione e per le successive elaborazioni.
5. ANALIZZATORI DEL SEGNALE.

Altri tipi di rilevatori: piccoli cristalli semiconduttori trasformano direttamente l’impulso fotonico in impulso
elettrico senza necessità di fotomoltiplicatori, semplificano il processo di localizzazione. Ma ci sono ancora
problemi tecnici.

8.1.2 RILEVAZIONE DEI POSITRONI: IL TOMOGRAFO PET


Data la brevissima vita dei positroni, possono essere rivelati solo attraverso la determinazione del punto della loro
annichilazione mediante la rilevazione dei due fotoni da essa derivati. Quando due fotoni colpiscono due rivelatori
opposti in modo pressoché simultaneo il segnale viene registrato (rilevazione di coincidenza); i fotoni che non
arrivano in coincidenza vengono ignorati.

I tomografi PET hanno collimazione elettronica e dunque hanno assenza di collimatori questo permette migliore
efficienza di rilevazione rispetto alla gammacamera.

Il cristallo è formato da un insieme di piccoli cristalli raggruppati in blocchi, in genere in matrici 6x6 o 8x8, in
rapporto con più fotomoltiplicatori; i blocchi vengono montati in più file di anelli per contornare l’organo. Come
materiale costitutivo preferiscono altri materiali allo ioduro di sodio, che risultano più adatti all’elevata energia
dei fotoni da rilevare: ossido di germanato di Bismuto, ortosilicato di Lutezio, ortosilicato di Gadolinio.

C’è un netto miglioramento nella risoluzione spaziale rispetto che con la SPECT.

8.1.3 IMAGING INTEGRATO


Alle rispettive componenti SPECT e PET viene associato un sistema di tomografia computerizzata (CT). Queste
macchine permettono l’esecuzione in rapida successione di esame funzionale ed esame morfologico, quindi
risolvono due problemi: (1) quello relativo al fatto che le tecniche di medicina nucleare incontrano difficoltà nella
precisa collocazione topografica dei reperti (quindi associazione con esame anatomico CT è fondamentale); (2)
ogni fotone emesso da un radioisotopo all’interno del corpo umano va incontro ad un processo di attenuazione,
questa può essere calcolata e corretta in vari modi (uno dei metodi è quello di usare la mappa dei coefficienti di
attenuazione ricavata dalla CT associata).

La metodica PET/MR coniuga all’info tipica della PET la elevata risoluzione spaziale propria della MR, ovvero la sua
capacità di ottenere info di tipo funzionale.

49
8.2 Radiofarmaci
Vengono suddivisi in base alle principali categorie di utilizzo e a seconda della tipologia SPECT/PET.

Una caratteristica peculiare e distintiva è l’emivita fisica (o emiperiodo fisico), ovvero il tempo entro il quale il
radiofarmaco riduce della metà la propria radioattività. Il problema condizionante per la PET è che alcuni
radiofarmaci hanno un’emivita particolarmente breve e per poterli impiegare è necessario che la struttura possa
produrli in proprio tramite ciclotrone.

La scelta del radiofarmaco dipende dall’obiettivo dell’esame: si sceglie la molecola più rappresentativa del
processo biologico che si intende studiare.

L’emivita fisica condiziona anche la possibilità di esecuzione di alcuni tipi di esami. I radiofarmaci con emivita corta
possono essere utilizzati in studi sequenziali che richiedono di confrontare aree cerebrali in condizioni di
stimolazione. I radiofarmaci con emivita lunga possono essere impiegati al fine di monitorare l’evoluzione di una
condizione patologica anche nel corso di più giornate.

La permanenza di un radiofarmaco nell’organo è condizionata anche dalla emivita biologica, legata al tempo in cui
esso permane nell’organo in base al ciclo metabolico cui è sottoposto.

8.2.1 TRACCIANTI DI PERFUSIONE


8.2.1.1 SPECT
Le due sostanze disponibili come farmaco “freddo” da marcare al momento dell’uso con Tecnezio sono l’esametil-
propilen-amina-ossima (HMPAO) e l’etilcisteinato dimero (ECD).

Prima erano disponibili sono traccianti “non diffusibili”, ovvero non in grado di attraversare la barriera emato-
encefalica integra; erano solo in grado di visualizzare la presenza di una qualche lesione, senza evidenziare il
tessuto sano. Solo lo Xenon (Xe) aveva la possibilità di associare la valutazione assoluta del flusso ematico ma è
difficile da gestire.

HMPAO e ECD entrano nel gruppo di traccianti “diffusibili”, attraversano la barriera emato-encefalica normale;
arrivati alle cellule e diffusi al loro interno, vengono trasformati in idrosolubili e restano intrappolati senza una
significativa retrodiffusione (hanno concentrazione costante). Il passaggio dalla condizione di lipo a quella di
idrosolubilità prevede consumo di energia da parte della cellula; l’info ricavata è complessa e interessante perché
si associa strettamente quello della vitalità cellulare. Forniscono immagini simili a quelle ottenibili con il F-FDG,
anche se a minor risoluzione.

8.2.1.2 PET
Si sfruttano i radioisotopi dotati di emivita fisica breve o brevissima (Carbonio, Azoto o Ossigeno) e hanno
possibilità di condurre analisi quantitativa di parametri fisiologici quali la misura assoluta del flusso sanguigno e
del consumo di ossigeno.

Nello studio del flusso regionale cerebrale (rCBF) trova applicazione l’acqua marcata con ossigeno radioattivo.

50
8.2.2 TRACCIANTI DI METABOLISMO
8.2.2.1 SPECT
In questa categoria rientrano prevalentemente radiofarmaci PET. Quelli SPECT assimilabili sono i cosiddetti
“indicatori positivi”. Non tracciano un metabolismo in particolare, ma si concentrano in tessuti ricchi di cellule ad
elevato metabolismo e ad elevata replicazione, quindi in lesioni tumorali o infiammatorie.

Quelli più usati sono Tallio-cloruro, potassio mimetico e mTc-MIBI, proposti per la caratterizzazione dell’attività di
lesioni occupanti spazio. Si usano per identificare l’estensione di aree vitali e rilevare eventuali componenti
necrotiche in funzione di una radioterapia più mirata; oppure per differenziare un’eventuale ripresa di malattia da
residui fibrotici.

8.2.2.2 PET
F-FDG (fluorodesossiglucosio). Il glucosio viene usato per studiare l’attività del tessuto normale, in condizioni
di riposo o dopo stimolazione, sia le modificazioni del metabolismo in condizioni varie di patologia. Il F-FDG viene
trasportato nella cellula e viene fosforilato, ma resta bloccato per un tempo sufficiente all’esecuzione dell’esame
tomografico PET. Viene impiegato nelle demenze, ma non è adatto nello studio di lesioni, poiché viene fissato dal
tessuto sano e quindi soffre di scarso contrasto bersaglio/fondo.

C-MET (metilmetionina). È un amminoacido marcato usato nello studio del metabolismo proteico. Si accumula
nel tessuto neoplastico. Si accumula in quota minore anche nella cellula infiammatoria, però ha aspecificità per
lesioni tumorali. Ha indicazioni sovrapponibili a quelle dei citati indicatori positivi per SPECT.

C-tirosina, F-FET (fluoroetiltirosina), F-FMT (alfa-metiltirosina). Sono traccianti del metabolismo


proteico. Sono maggiormente specifiche in quanto è minima la concentrazione nelle aree di infiammazione.

F-DOPA. Usata nello studio del sistema dopaminergico nigro-striatale e fornisce info sulla capacità del neurone
di produrre dopamina. somministrato in associazione ad un inibitore della dopa-decarbossilasi periferica, penetra
nei neuroni dopaminergici nigrali, risultando un tracciante della loro vitalità. Fornisce immagini ed info che sono
paragonabili a quelle dei ligandi dei trasportatori della dopamina. Usata nello studio dei rumori neuroendocrini.

C-colina e F-colina. La colina è un precursore metabolico dei fosfolipidi della membrana cellulare. Hanno come
prima indicazione lo studio della ripresa di malattia nei casi di neoplasia prostatica, ma anche in ambito oncologico.

8.2.3 TRACCIANTI RECETTORIALI


8.2.3.1 SPECT
Si usano marcatori specifici indirizzati allo studio del sistema dopaminergico nigro-striatale, tra questi: I-FP-CIT.
rientra nel gruppo dei ligandi del trasportatore della dopamina (DAT). La quota di dopamina libera in tale spazio
viene recuperata mediante i DAT, la cui integrità è indice della condizione vitale/funzionale delle cellule. Nelle
patologie del movimento un danno dei neuroni della pars compacta della sostanza nera. Il marcatore di questo
radiofarmaco non può essere stoccato, è obbligatorio quindi l’uso con arrivo specifico per ogni paziente. Ci sono
degli interferenti: cocaina, anfetamine, benzatropina, bupropione, metilfenidato, mazindolo, fentermina e
sertralina. Non è ritenuta necessaria la sospensione dei farmaci antiparkinsoniani.

51
La I-IBZM è il più noto tra i ligandi dei recettori dopaminici D2 postsinaptici, a cui la dopamina si fissa per svolgere
la propria funzione. È stato proposto inizialmente per la diagnosi differenziale tra morbo di Parkinson e
parkinsonismi atipici degenerativi.

Il In(Indio)-Octreotide, ligando dei recettori della somatostatina, trova indicazione nella ricerca di lesioni che
esprimono tali recettori, per la selezione dei pazienti eleggibili a terapia medica.

8.2.3.2 PET
Traccianti presinaptici del sistema dopaminergico sono dei derivati cocainici strutturalmente analoghi a quelli
SPECT: sono C-FE_CIT e F-CFT.

Simile è il C-DTBZ, ligando del trasportatore della dopamina dal citoplasma delle cellule nigrali all’interno delle
vescicole di raccolta prima del rilascio nello spazio sinaptico. È un altro tracciante dell’integrità cellulare.

I traccianti post-sinaptici dopaminergici (C-raclopride, C-N-metilspiperone e F-fallypride) forniscono risposte


analoghe ai loro corrispondenti per uso in SPECT, ma con immagini di migliore qualità e di più facile interpretabilità.
Sono proposti per la diagnosi differenziale tra morbo di Parkinson e parkinsonismi atipici degenerativi.

8.2.3 ALTRI RADIOFARMACI


Sistema colinergico. Ligandi volti a studi sulla densità dei recettori pre- e post-sinaptici muscarinici e nicotinici
e substrati per il monitoraggio in vivo dell’attività acetilcolinesterasica (AchE). Per la valutazione di quest’ultima si
usa C.fisostigmina, C-PMP e C-PM4A; proposti anche per la selezione di pazienti candidabili alle terapie con
inibitori dell’AchE e per il monitoraggio del loro effetto.

Sistema serotoninergico. Non esistono ancora traccianti che abbiano trovato indicazione per un esteso uso in
vivo nell’uomo. Sono stati sintetizzati ligandi per lo studio sia del trasportatore della serotonina (SERT) sia dei
recettori 5HT, pre e postsinaptici, che si concentrano nelle aree dove sono localizzate le terminazioni
serotoninergiche.

Amiloide. Importanti nella genesi dell’Alzheimer. C-PIB ha dimostrato buona specificità ed affinità per la beta-
amiloide. Permettono di documentare l’accumulo dell’amiloide non solo nella demenza conclamata, in fase molto
precoce (MCI).

Infiammazione. È presente in tutte le patologie acute e croniche del SN e può svolgere attività neurotossica con
liberazione di fattori pro-infiammatori, glutammato, ossido di azoto, ma può avere anche funzione neurotrofica.
L’acido arachidonico è marcato con Carbonio.

8.3 Esecuzione e valutazione di un esame PET/SPECT


8.3.1 ESECUZIONE
L’esecuzione prevede varie fasi che vanno dalla preparazione del paziente, alla somministrazione del radiofarmaco
ed all’acquisizione delle immagini.

Preparazione. Richiede il digiuno da alcune ore, adeguata sospensione farmacologica e informazione del
paziente. Se si vogliono studiare perfusione e metabolismo è indispensabile che il paziente sia posizionato
comodamente in ambiente privo di stimoli acustici e luminosi, utile il preventivo posizionamento di un catetere

52
intravenoso. Qualora fosse necessaria la sedazione è bene che avvenga dopo la somministrazione del
radiofarmaco. Non è richiesta preparazione farmacologica particolare.

Somministrazione. Avviene attraverso una via venosa aperta in precedenza. In seguito è necessario che
trascorra un intervallo di tempo, variabile da esame ad esame, necessario affinché avvengano sia la migliore
fissazione delle sostanze nelle strutture sia il maggior abbassamento possibile della aspecifica attività di fondo.

Acquisizione. Il paziente viene posizionato nel campo di vista nella macchina, in posizione supina, con la testa in
una doccia apposita che favorisce il mantenimento della posizione più corretta eventualmente fissata con fasce di
contenimento per evitare movimento. La durata dell’esame varia. L’esame può essere condotto a riposo, oppure
durante un test di stimolazione.

8.3.3.1
CO2. L’anidride carbonica è un regolatore del tono vasale cerebrale e l’aumento della sua pressione parziale nel
sangue arterioso agisce da potente vasodilatatore. È usata in un test per lo studio della riserva vascolare cerebrale;
la risposta dei territori cerebrali ad uno stimolo vasodilatatorio permette di evidenziare aree in cui la riserva è già
impegnata per compensare una stenosi, che mostreranno ridotta o nulla vasodilatazione rispetto ad aree sane in
cui la vasodilatazione sarà massimale.

La CO2 viene fatta inalare o sotto controllo capnometrico/grafico oppure solo facendo respirare il paziente in
ambiente chiuso. Il vantaggio è che in caso di insorgenza di disturbi può essere immediatamente interrotto.

In presenza di stenosi arteriosa cerebrale e di calo della pressione di perfusione nel territorio a valle, entra in gioco
il meccanismo di autoregolazione del circolo per compensare la diminuzione del flusso con una vasodilatazione
del microcircolo a valle.

Pertanto le indagini perfusionali PET e SPECT sono state proposte principalmente nella vasculopatia cerebrale ed
in particolare nella selezione dei pazienti vasculopatici da candidare a terapia medica o vascolare disostruttiva e
per monitorarne gli effetti. Può trovare impiego in varie altre patologie cerebrali.

Acetazolamide. È un inibitore dell’anidrasi carbonica che causa un aumento della concentrazione ematica di
CO2 con conseguente effetto vasodilatatorio cerebrale. Il test prevede la somministrazione per via endovenosa,
seguita da quella del radiofarmaco. Questo test ha sostituito l’analogo con inalazione di CO2. Una caratteristica
favorevole è lo scarso effetto a livello dei vasi cardiaci, per cui può essere usata anche in presenza di coronaropatie
note o addirittura in assenza di notizie sulle condizioni del circolo coronarico. Controindicazione è la presenza in
anamnesi di stroke recente.

8.3.1.2 Test per lo studio di funzioni mentali


Le indagini medico nucleari sono utilizzabili con varie tipologie di stimoli sensoriali e di compiti motori e cognitivi.
L’interpretazione deriverà sempre dal confronto dei dati ottenuti durante o dopo stimolo rispetto a quelli relativi
allo stato di riposo, mediante l’identificazione delle aree attivate e la valutazione dell’entità dell’attivazione in
relazione allo stimolo.

Si indaga la perfusione cerebrale tramite PET usando come radiofarmaco l’acqua con ossigeno marcata. Viene
eseguita una prima iniezione di farmaco in condizioni di riposo, seguita da una prima scansione. Dopo una pausa
di minuti, necessaria per lo smaltimento del radiofarmaco, si procede con una seconda iniezione, effettuata

53
durante l’esecuzione del compito. Attraverso un confronto tra le immagini acquisite si identificano le aree in cui si
verificano modificazioni della perfusione, che vengono interpretate come coinvolte nella funzione mentale
oggetto di studio.

8.3.2 VALUTAZIONE
8.3.2.1 Analisi qualitativa
La prima valutazione viene data di un esame di medicina nucleare è quella qualitativa, ovvero si analizzano
visivamente le immagini acquisite e la loro ricostruzione. Il controllo iniziale è quello su eventuali movimenti
eseguiti dal soggetto studiato, correggibili elettronicamente oppure se l’esame debba essere ripetuto. Sulle sezioni
tomografiche ricostruite si valuta l’omogeneità e la simmetria della distribuzione del radiofarmaco, l’eventuale
presenza di anomalie di concentrazione, il loro numero e la localizzazione dell’ambito delle strutture cerebrali.

8.3.2.2 Analisi semiquantitativa (SQ)


È stata proposta come supporto all’interpretazione visiva delle immagini, per disporre di una modalità più
oggettiva nel confronto tra pazienti. Permette lo studio di parametri relativi, riconducibili a fenomeni clinici, ma
non li misurano in termini assoluti.

Per l’analisi SQ si ricorre alla delimitazione mediante computer di regioni di interesse su varie aree della corteccia
ed al calcolo dell’attività presente in ciascuna di esse, dipendente da flusso o metabolismo o numero di recettori.
Tale valore viene rapportato sia a quello di asse di riferimento sia a quello di ciascuna delle corrispondenti zone
controlaterali e può essere valutato in termini di normalità.

L’analisi SQ sugli studi SPECT di perfusione non ha trovato diffusa applicazione e non solo ha soppiantato, non
viene associata all’analisi qualitativa: lo stesso vale il metabolismo cerebrale con FDG. Ha trovato spazio negli
studi recettoriali. Le cause della scarsa diffusione dell’analisi SQ sono varie: è operatore-dipendente, scarsa
omogeneità tra i vari programmi di elaborazione a seconda della piattaforma utilizzata e conseguente difficoltà
nel confronto tra esami e nella creazione dei gruppi di soggetti di riferimento.

8.3.2.3 Analisi quantitativa


È la migliore perché misura in termini assoluti parametri fisiologici come flusso ematico in millilitri di sangue per
100 grammi di tessuto al minuto, metabolismo in milligrammi per 100 grammi di tessuto al minuto, densità
recettoriale in termini di fente o picomoli di mg di tessuto. Ha scarsa applicazione al di fuori delle applicazioni
sperimentali perché è di complessa realizzazione anche con la PET, sono necessarie analisi precise dei
compartimenti e una raccolta di dati che prevede multiple acquisizioni di immagini di tipi dinamico e
campionamenti ematici.

8.4.2.3 Analisi statistico-parametrici


Fornisce info utili sia in campo di ricerca sia in campo clinico routinario. Può essere usata per metodiche
radiologiche e medico nucleari e mira a valutare la significatività delle differenze di concentrazione cerebrale dei
vari radiofarmaci in singoli soggetti o in gruppi di soggetti.

Si possono usare diversi pacchetti di analisi. Tutti i software, prima dell’analisi statistica dei dati, consentono la
standardizzazione spaziale tridimensionale delle immagini, cioè l’adattamento delle immagini tomografiche ad un
determinato spazio standard, in cui a ciascuna coordinata corrisponde su tutte le immagini la stessa struttura
anatomica. Questo è detto normalizzazione spaziale, si usano immagini di riferimento di esami analoghi
(template). È imprescindibile realizzare la massima uniformità possibile delle metodologie applicate. L’uniformità
54
deve riguardare tutte le fasi di una determinata procedura: selezione dei soggetti, preparazione prima dell’esame,
tipologia delle apparecchiature, programmi di acquisizione, algoritmi di ricostruzione delle immagini, criteri di
interpretazione e refertazione.

BOX 8.1 CONTRIBUTI ALLO STUDIO DEL SISTEMA MENTE-CERVELLO


Il cervello non riposa mai. Il 60-80% di questa energia viene consumata durante lo stato di riposo, il consumo
aggiuntivo di energia associato con l’esecuzione di un compito che richiede attenzione focalizzata è marcatamente
piccolo.

• Berger: l’idea che il cervello sia costantemente in uno stato considerevole di attività era stata proposta da lui.
• Sokoloff: usa una tecnica per lo studio del metabolismo cerebrale che usava protossido di azoto per vedere
se il metabolismo cambia a livello globale quando un soggetto passa da uno stato di riposo all’esecuzione di
un compito → non rileva cambiamenti.
• Ingvar: attività frontale mostra elevati livello di flusso durante stati di riposo. C’è un pattern di iperattività
frontale che corrisponde al lavoro mentale non direzionato, spontaneo. Queste idee sono però rimaste
inesplorate.

La maggior parte dei lavori condotti attraverso il metodo sottrattivo ha riportato attivazioni, ovvero aumenti di
attività durante la condizione sperimentale rispetto al controllo. In alcune circostanze però eseguendo la
sottrazione inversa (controllo meno compito), vengono evidenziate zone maggiormente attive durante la
condizione di controllo rispetto a quella sperimentale (deattivazioni). La spiegazione più plausibile è l’ipotesi della
presenza di processi aggiuntivi nella condizione di controllo quando questa si alterna ad un altro compito.

• Raichle: ha notato che decrementi dell’attività erano presenti nelle immagini di sottrazione anche quando la
condizione di controllo era rappresentata da una semplice fissazione visiva o da uno stato di riposo ad occhi
chiusi. I decrementi di attività quasi sempre includevano la corteccia cingolata posteriore e l’adiacente
precuneo nel lobo parietale mediale. C’è una rete di regioni cerebrali quali corteccia prefrontale mediale,
corteccia cingolata posteriore, precuneo, ed aree parietali mediali, che diminuisce l’attività durante compiti
finalizzati. Poteva trattarsi di un sistema funzionale che lavora di default in uno stato di riposo ma sospende o
attenua la sua attività durante lo svolgimento di compiti finalizzati. Un’altra possibilità era che si trattasse di
attivazione specifiche dello stato di riposo in assenza di un compito finalizzato. Egli inizia ad usare la
definizione fisiologica della baseline. Ha dimostrato che durante lo svolgimento di un compito, rispetto ad una
situazione di riposo, il flusso sanguigno aumenta di più rispetto al consumo di ossigeno. A livello locale, la
frazione di ossigeno estratto diminuisce e la quantità di ossigeno nel sangue aumenta. Le attivazioni possono
quindi essere definite fisiologicamente come un decremento locale transiente nell’estrazione dell’ossigeno o
un aumento transiente di disponibilità dell’ossigeno. Ipotizza che le attivazioni siano assenti durante il resting
state. Non ci sono evidenze che queste aree siano maggiormente attive in uno stato di riposo e quindi che la
loro attività rappresenti un funzionamento di base del cervello che viene sospeso durante l’esecuzione di
compiti finalizzati (default mode network).

Una serie di studi fMRI ha cominciato ad esplorare l’attività cerebrale intriseca.

• Biswal: ci sono fluttuazioni a bassa frequenza, considerate semplice rumore e quindi eliminate. Rileva che
queste fluttuazioni non sono solo variazioni casuali del segnale. Esamina la correlazione tra l’attività della
corteccia motoria primaria sinistra e quella delle altre regioni cerebrali. rileva un robusto pattern di

55
correlazione con altre regioni motorie, mappe spaziali ottenute da queste correlazioni ricalcavano quelle
ottenute in studi di attivazione durante l’esecuzione effettiva di movimenti. Anche quando un soggetto rimane
immobile, il segnale nell’area del cervello che controlla il movimento della mano destra è sincronizzato con
quello dell’area associata al movimento di quella sinistra, e con quello di altre aree di programmazione
motoria. Viene dimostrato che un altro sistema cerebrale mostra attività organizzata anche in assenza di un
comportamento osservabile ad esso associato.
• Grecius e colleghi: altri studi hanno consentito di identificare diversi sistemi funzionali che lavorano
incessantemente anche in assenza di compito finalizzato. Le fluttuazioni sincronizzate del DMN durante
resting state sono state trovate da questi autori. I decorsi temporali del segnale BOLD fMRI e dalle aree
prefrontali mediali sono altamente correlati.

Gli studi fMRI hanno evidenziato che il cervello a riposo è caratterizzato non solo da attività del DMN ma anche
da quella di tutti gli altri sistemi funzionali, che lavorano di sottofondo, presumibilmente in preparazione a stimoli
esterni a cui il cervello deve essere pronto a reagire. Sono stati fatti studi con tecniche EEG e MEG. I potenziali
corticali lenti coincidono con le fluttuazioni spontanee osservate nelle immagini fMRI.

Un’altra proprietà del DMN è la specifica alternanza tra la sua attività e quella di altri sistemi: il DMN mostra un’alta
correlazione negativa con sistemi attenzionali che focalizzano le risposte su stimoli sensoriali esterni. Il DMN è
stato anche definito task negative network e contrapposto al task positive network, che si sovrappone al sistema
attenzionale dorsale ed al sistema attenzionale ventrale. Un sistema fronto-parietale è stato proposto come
candidato per il controllo della loro interazione.

È importante il suo significato evoluzionistico.

Il DMN ha anche connessioni con strutture coinvolte nella memoria autobiografica, nella teoria della mente e
nell’immaginazione di scenari futuri. L’ipotesi che il DMN abbia un ruolo nella simulazione mentale di eventi o
scenari ipotetici rilevanti per il sé, ovvero prospettive alternative. È implicato nel pensiero autoriflessivo.

C’è un coinvolgimento del DMN nella consapevolezza di stimoli interni o esterni durante lo stato di veglia.
Nonostante sia mantenuto in stati di ridotta coscienza, il contributo di alcuni nodi del sistema diminuisce. Con
l’aumento della profondità del sonno si verificano riduzioni della connettività funzionale tra regioni mediali
posteriori ed anteriori del DMN.

Alterazioni del suo funzionamento sono rilevate in una serie di patologie neurologiche e psichiatriche: autismo,
schizofrenia e malattia di Alzheimer.

8.4 Impieghi
8.4.1 RICERCA DI BASE IN PSICOLOGIA COGNITIVA
Ciò che viene rilevato non è direttamente il segnale elettrico prodotto dai neuroni, bensì sono indici del flusso
cerebrale. L’assunzione è che variazioni dell’attività cerebrale siano accompagnate costantemente da variazioni
dell’irrorazione sanguigna dei tessuti.

La peculiarità è quella di poter quantificare parametri fisiologici, quali l’estrazione di ossigeno dai tessuti, ha inoltre
consentito di caratterizzare l’attività spontanea e le connessioni funzionali tra diverse aree cerebrali durante uno
stato di riposo.

56
Oggi viene sostituita dalla fMRI.

Nelle tecniche di medicina nucleare l’uso di traccianti radioattivi, oltre al problema della radioesposizione, pone
una serie di vincoli. Occorre usare radiofarmaci costituiti da molecole a veloce smaltimento ed isotopi ad emivita
rapida. Solo alcuni radioisotopi PET hanno un’emivita sufficientemente breve da scomparire totalmente dagli
organi che vengono esplorati e permettere la rapida ripetizione dell’indagine, tipicamente è usato Ossigeno negli
studi di perfusione. Radiofarmaci per lo studio del metabolismo del glucosio non sono adatti per studi di
attivazione. Si deve anche considerare che quanto maggiore è il numero delle ripetizioni di uno studio medico
nucleare tanto maggiore è la dose di radiazioni assorbita dal soggetto.

Per quanto riguarda la risoluzione spaziale vi è difficoltà ad una precisa definizione anatomica delle strutture
studiate. La risoluzione temporale della PET e della SPECT è condizionata dalla emivita dei radiofarmaci.

8.4.2 RICERCA E SPERIMENTAZIONE CLINICA


Grazie alla crescente disponibilità di ciclotroni si attendono ulteriori avanzamenti. Un aspetto cruciale è lo sviluppo
di nuovi radiofarmaci che funzionino da marcatori biologici di aspetti fisiopatologici delle varie malattie
neurologiche e psichiatriche.

La ricerca applicata alla clinica neurologica, molti studi con tecniche medico nucleari focalizzati sulle demenze
(particolare Alzheimer). Di rilievo è la ricerca di elementi predittivi di possibile evoluzione da forme precliniche di
demenza (MCI) a demenza conclamata. Sia attraverso analisi della perfusione e del metabolismo cerebrale sia
attraverso analisi dei sistemi neurorecettoriali, in particolare sistema colinergico, come marcatore di integrità
cognitiva e di memoria. Più recente è lo studio sui ligandi dell’amiloide.

Altri studi PET e SPECT hanno indagato invece la correlazione tra alterazioni funzionali e caratteristiche genetiche.

In ambito dei disturbi del movimento, soprattutto per il morbo di Parkinson, ci sono studi SPECT e PET sul sistema
dopaminergico volti a valutare l’efficacia di nuovi farmaci dopaminoagonisti rispetto alla classica levodopa.

Studi sui neurotrasmettitori vengono impiegati anche per ottenere info sui meccanismi molecolari associati allo
sviluppo di malattie psichiatriche, sia per ottenere dati utili nella scelta della terapia sia per testare nuove cure. Ci
sono dimostrazioni del coinvolgimento del sistema dopaminergico nella schizofrenia e la valutazione
dell’interazione dei farmaci neurolettici con i recettori D2. Analoghe indagini hanno dimostrato l’interessamento
del sistema serotoninergico nei disturbi depressivi così come di entrambi i sistemi, dopaminergico e
serotoninergico nei disturbi bipolari.

L’applicazione delle metodiche di analisi statistico-parametrica agli studi PET e SPECT ha dato loro grande impulso.
È possibile correlare ai dati relativi a flusso o metabolismo basali o all’esposizione recettoriale in ciascun voxel,
molteplici indici, espressione di fattori che possano influire su o dipendere da determinate aree encefaliche,
mettendo in evidenza circuiti neuronali tra loro funzionalmente connessi, in senso sia agonista sia antagonista.

8.4.3 APPLICAZIONI CLINICHE


Gli utilizzi più comuni sono la diagnosi, stadiazione, valutazione della risposta alle terapie e follow-up. Queste
metodiche vengono impiegate per diagnosi precoce e per studi in fase preclinica su soggetti a rischio di sviluppo
di malattia. In associazione con CT e MR, trovano ampio impiego in ambito neurologico in patologie
cerebrovascolari, demenze, disturbi del movimento, epilessia, neoplasie.

57
8.4.3.1 Patologie cerebrovascolari
Il primo uso dei radiofarmaci SPECT con distribuzione dipendente dal flusso sanguigno ha avuto come finalità: lo
studio delle malattie cerebrovascolari, sia a esordio acuto (TIA) e lo stroke, sia a decorso cronico; la diagnosi
differenziale tra demenza su base vascolare e demenza degenerativa tipicamente l’Alzheimer; il supporto per la
diagnosi di morte cerebrale.

Quando in un’arteria la pressione di perfusione scende, se vengono esauriti i meccanismi di compenso, i tessuti a
valle del vaso vanno incontro a sofferenza e a morte.

Nel caso dello stroke, mediante studio di perfusione è possibile mettere in evidenza la sofferenza tessutale molto
precocemente rispetto all’insorgenza dell’insulto ischemico. La comparsa di difetti di concentrazione del
radiofarmaco è praticamente immediata, mentre quella di corrispondenti difetti strutturali su esami CT o di MR è
più tardiva. Altra caratteristica è la possibilità di evidenziare la cosiddetta penombra ischemica, cioè quei territori
contigui alla zona più colpita che non sono completamente compromessi, ma risultano in condizione di flusso
ridotto e sofferenza cellulare.

Il quadro dell’esame è correlato con la gravità del quadro clinico e con la prognosi finale.

Nel TIA, attacco ischemico con risoluzione dei sintomi entro le 24 ore, l’utilizzo della metodica, è proposto per lo
studio della riserva vascolare del territorio colpito e quindi del rischio per il paziente di andare incontro ad episodi
ischemici ripetuti e gravi. Si ricorre ai test di vasodilatazione con inalazione di anidride carbonica o con
somministrazione endovenosa di acetazolamide. È possibile così selezionare i soggetti indirizzabili all’intervento
di tromboendoarteriectomia, di cui si possono poi monitorare gli effetti.

L’applicazione della SPECT perfusionale in fase acuta si scontra con la necessità di una organizzazione molto
complessa ed onerosa.

Nelle patologie croniche la funzione è di monitoraggio della condizione di stato della perfusione in relazione alle
terapie e di un’eventuale evoluzione.

Viene usata anche la diagnosi differenziale tra demenze su base vascolare e demenze degenerative: le prime
presentano in genere circoscritte lesioni a carattere diffuso o deficit focali più o meno estesi e lateralizzati, mentre
quelle degenerative si caratterizzano più spesso per deficit a localizzazione definita e spesso simmetrica.

Nella morte cerebrale il quadro tipico è quello di una assoluta assenza di concentrazione di radiofarmaco nelle
strutture encefaliche.

La metodica PET appare meno adatta della SPECT per lo studio delle patologie acute. La possibilità di disporre di
traccianti per studiare perfusione, volume ematico, frazione di estrazione dell’ossigeno, metabolismo, vitalità ed
ipossia offre alla PET ampie possibilità di indagine nel monitoraggio degli esiti di tali patologie, in quelle ad
evoluzione cronica, nella selezione di pazienti candidabili alle varie forme di terapia e nella valutazione della
risposta ad esse.

8.4.3.2 Demenze
L’inquadramento delle demenze viene fatto con test neurologici e neuropsicologici, studi genetici, metodiche di
imaging, CT/MR che fanno info anatomico-strutturali, metodiche medico-nucleari, prettamente funzionali.

58
Vengono usate in fase di diagnosi. Gioca un ruolo importante la precocità dell’info medico nucleare che risulta ben
caratterizzata quando l’imaging morfologico è spesso ancora normale.

L’importanza del dato funzionale va oltre questa fase: è un valido marker di stato di malattia, in quanto l’entità
del danno correla con la gravità del deficit cognitivo, come indice di progressione di malattia. Si candida come
indicatore ideale della risposta alla terapia stessa, della progressione o regressione della malattia.

La precocità dell’info è utile nella fase pre-clinica di malattia o addirittura nella ricerca degli individui sani a rischio
di sviluppo di malattia.

Nella malattia di Alzheimer le tecniche più usate sono SPECT di perfusione e F-FDG/PET che forniscono immagini
ed info che sono paragonabili. Il quadro perfusionale più tipico è l’ipoperfusione temporo-parietale bilaterale con
maggiori o minori caratteri di simmetria, con o senza interessamento frontale. Quadri a più bassa frequenza sono:
ipoperfusione parieto-temporale unilaterale; normale distribuzione del radiofarmaco a livello corticale;
ipoperfusione frontale simmetrica. La miglior risoluzione ha permesso di individuare, tramite SPECT, un danno
anche a livello delle strutture temporali mesiali (atrofia).

Nelle demenze fronto-temporali c’è deficit di perfusione/metabolismo a carico delle strutture encefaliche
anteriori.

Nelle demenze extrapiramidali, quali demenza associata al morbo di Parkinson e demenza con corpi di Lewy, i
quadri riscontrabili non sono dirimenti per una diagnosi differenziale rispetto all’AD. Nella demenza con corpi di
Lewy è stato individuato un pattern di ipoperfusione/ipometabolismo occipitale che può essere considerato tipico.

L’info prettamente funzionale è di complessa valutazione e non è per forza legata alla presenza di un danno
strutturale.

La disconnessione o deafferentazione, è riscontrabile in varie situazioni (riduzione di flusso/metabolismo di varie


aree corticali nell’AD in assenza di atrofia, o nella ipoperfusione del lobo cerebellare controlaterale a zone cerebrali
lese da un fatto vascolare).

8.4.3.3 Disturbi del movimento


L’info medico nucleare è rilevante non solo in fase diagnostica, ma anche nella prognosi, nel follow-up e con lo
sviluppo di terapie, nella valutazione della risposta ad esse.

L’approccio più diffuso è lo studio del versante presinaptico della sinapsi nigro-striatale per la diagnosi
differenziale tra morbo di Parkinson idiopatico o parkinsonismi degenerativi atipici e tremori di altra natura. Dato
il precoce danno della pars compacta della sostanza nigra presente nel primo gruppo ed assente nell’altro, la
diagnosi differenziale ha una pesante ricaduta dal punto di vista prognostico e terapeutico: nel primo caso sarà
utile la terapia con levodopa o dopamino-agonisti, nel secondo inutile se non addirittura controindicata.

Il radiofarmaco normalmente impiegato in SPECT è il I-FP-CIT, ligando del trasportatore della dopamina. In PET è
disponibile un più ampio ventaglio di radiofarmaci e di bersagli. Oltre a ligandi del DAT ci sono F-DOPA e la C-DTBZ.

Nei parkinsonismi atipici degenerativi al danno presinaptico si associa, diversamente dal PD, quello del versante
postsinaptico. Quindi per la diagnosi differenziale si usano ligandi specifici dei recettori dopaminergici D2 post-
sinaptici.

59
Altri approcci sono lo studio flusso/vitalità o di metabolismo glucidico, in associazione ad analisi statistico-
parametrica, per evidenziare anomalie di concentrazione sottocorticali, ma soprattutto deficit corticali associati.
Un approccio differente è quello dello studio dell’innervazione adrenergica cardiaca: si usa la semplice scintigrafia
cardiaca planare con I-MIBG. Nel PD vi è un danno a tale livello pertanto non si riscontra concentrazione del
radiofarmaco; nei parkinsonismi atipici degenerativi al contrario il danno è pregangliare e le immagini risultano
normali.

8.4.3.4 Epilessia
L’impiego di SPECT perfusionale e F-FDG/PET è consigliato per l’individuazione dei foci epilettogeni. Nella forma
temporale farmacoresistente si è individuata la maggiore utilità, con quadri tipici di
iperprofuzione/ipermetabolismo nella fase ictale e di ipoperfusione/ipometabolismo nella fase inteictale. I
risultati possono essere usati per valutare il grado di controllo di una terapia antiepilettogena oppure in previsione
chirurgica.

8.4.3.5 Tumori
Vengono usate per caratterizzare i tumori metabolicamente, per valutare la loro aggressività e definire con la
miglior precisione possibile la loro estensione.

I farmaci usati sono gli indicatori positivi con la SPECT e i traccianti di metabolismo e di proliferazione cellulare con
la PET. Gli usi riguardano: il grado tumorale, la valutazione della presenza di residui dopo terapia, la diagnosi
differenziale tra recidiva di malattia e necrosi conseguente ad una radioterapia, a volte non agevole con CT o MR,
la diagnosi differenziale tra linfoma cerebrale e lesione infiammatoria nei pazienti positivi al virus dell’HIV, la guida
alla biopsia stereotassica e la pianificazione di interventi di radioterapia e chirurgia.

CAPITOLO 9: METODICHE NEUROFISIOLOGICHE (15 PAG.)


Queste metodiche consentono di indagare l’attività cerebrale, consentono di misurare in modo diretto i potenziali
elettrici dei neuroni tramite l’utilizzo di elettrodi di superficie o di profondità. La rilevazione dell’attività del singolo
neurone richiedendo l’applicazione di elettrodi, viene usata solo in pazienti che necessitano di tale indagine a scopi
prechirurgici. Esistono tecniche non invasive che consentono la rilevazione dell’attività dall’esterno, sono però
meno precise nella localizzazione spaziale del segnale. Viene registrato in questo caso un tracciato di attività
elettrica o magnetica. È possibile ricavare immagini o mappe dell’attività cerebrale (brain mapping).

9.1 Cosa sono e a cosa servono le metodiche neurofisiologiche


Queste metodiche sono: elettroencefalografia (EEG) e magnetoencefalografia (MEG). La risoluzione temporale è
ottima, possono dare info molto precisa su come un processo cognitivo si sviluppa nel tempo. La risoluzione
spaziale dell’EEG è povera e non è facile identificare quali aree cerebrali siano reclutate nell’esecuzione del
compito. La MEG permette di combinare un’ottima risoluzione temporale, con una migliore risoluzione spaziale.
Ma ha lo svantaggio di essere costosa e complessa da usare. L’EEG è di più ampio utilizzo.

BOX 9.1 NASCITA E SVILUPPO DELL’ELETTROENCEFALOGRAFIA


Scoperte scientifiche: primi studi.

• Galvani, Volta. Scoprono le proprietà elettriche di alcuni tessuti.


• Ohm e Faraday. Studiano campi elettrici e magnetici e i conduttori.

60
• Matteucci. Studia i primi segnali elettrici fisiologici descrivendo il potenziale d’azione che precede la
contrazione muscolare.
• Reymond. Mette a punto un galvanometro molto sensibile, dotato di elettrodi polarizzabili. Questi elettrodi
vengono usati per studi su animali e umani.
• Caton. Registra attività elettrica nel cervello di diversi animali e descrive alterazioni dell’attività elettrica in
seguito ad eventi esterni e analizza le variazioni dell’attività elettrica nelle condizioni di veglia e sonno.
• Berger. Primo ad eseguire studi EEG sull’uomo. Scopre: ritmo alfa (veglia rilassata) e ritmo beta (veglia).
• Jasper. Conferma i risultati di Berger e prosegue le indagini iniziando il percorso della registrazione EEG
intraoperatoria.
• Loomis. Fa le prime registrazioni poligrafiche del sonno prolungate.
• Frederick e Gibbs. Sono tra i primi a registrare l’EEG di uno stato epilettico di crisi di piccolo male.

Negli anni ’30 iniziano ad essere prodotte apparecchiature commerciali che eliminano la necessità di costruirsi
personalmente le strumentazioni di registrazione. Gli anni della seconda guerra mondiale rappresentano un
arresto. Negli anni ’50 vengono introdotti i primi amplificatori “a transistor” che permettono una maggiore
efficienza e precisione nella registrazione. Progressivamente l’EEG si diffonde. Nascono le apparecchiature digitali
e i segnali possono essere salvati e analizzati in un momento successivo, con tecniche e metodiche che col passare
degli anni aumentano in complessità e possibilità.

Nascita dei potenziali.

• Nel 1964 Walter e colleghi riportano l’esistenza del primo potenziale evento-correlato cognitivo, la variazione
negativa contingente. Questa componente è interpretata come la preparazione del soggetto per l’esecuzione
del compito.
• Shutton e colleghi scoprono la componente P300: maggiormente pronunciata quando gli stimoli presentati ai
partecipanti non erano prevedibili.

Quando la mente è più lenta del cervello.

• Libet. Lo studio della consapevolezza viene inaugurato da Libet, che fu in grado di dimostrare che a livello
della corteccia somatosensoriale primaria si osservava una risposta in seguito a stimoli somatosensoriali che
però non erano percepiti consapevolmente dai soggetti. Concludono che le prime risposte evocate in seguito
a stimoli tattili non sono sufficienti per la costruzione di un percetto cosciente.
• Schubert e collaboratori. Hanno applicato stimoli tattili alle mani dei partecipanti usando una “maschera” per
far sì che parte degli stimoli non fosse percepita consapevolmente. Le prime componenti (definite brevi)
hanno origine dalla corteccia somatosensoriale primaria, non vengono influenzate dalla percezione
consapevole dello stimolo, mentre lo sarebbero le risposte più tardive. Quando lo stimolo veniva percepito
consapevolmente si registrava un’ampiezza maggiore rispetto a quando lo stimolo non era percepito
consapevolmente.

9.2 Elettroencefalografia (EEG)


EEG misura l’attività elettrica cerebrale attraverso elettrodi di superficie, posizionati sullo scalpo o montati su
cuffie particolari, non è invasiva. Inoltre servono un elettroencefalografo e degli elettrodi.

61
EEG può essere registrata a riposo (tracciato spontaneo) oppure in condizioni particolari. Oppure possono essere
somministrati stimoli sensoriali o può essere richiesta l’esecuzione di compiti motori o cognitivi, in questi casi si
rilevano onde particolari, chiamate potenziali evento-correlati (ERP), essi riflettono la risposta cerebrale agli
stimoli/compiti somministrati. Questa tecnica converte un segnale continuo e reale in una rappresentazione
numerica, che può essere importata su un computer e analizzata in un momento successivo alla registrazione.

Sulla mappa vengono indicati i canali dai quali si registra l’attività elettrica. Le onde orizzontali rappresentano il
tracciato EEG, le righe verticali indicano il tempo. Un’onda costituita da diverse deflessioni positive e negative. Il
numero di deflessioni indica la frequenza di oscillazione.

L’EEG tout court lo si fa nello stato di riposo. I potenziali evento-correlati invece quando si somministrano stimoli
o si richiede la produzione di risposte motorie o cogntive.

9.2.1 POTENZIALI EVENTO-CORRELATI (ERP)


I potenziali evento-correlati sono deflessioni prodotte in relazione a stimoli sensoriali o a risposte motorie o
cognitive. I potenziali evocati sono attività elettrica cerebrale prodotta in seguito ad uno stimolo sensoriale. I
processi cognitivi misurabili includono processi legati al movimento volontario (variazione negativa contingente),
all’elaborazione dell’errore, ecc. che non sono propriamente evocati da uno stimolo esterno. La preparazione al
movimento produce un’onda riconoscibile che appare prima che il movimento venga eseguito.

• Per questo tipo di potenziali a volte si usa il termine “legati alla risposta” (hanno come riferimento l’attività
che precede la risposta). In questo caso viene definito “0” il momento della risposta.
• In contrapposizione ai potenziali “legati allo stimolo” (necessitano di uno stimolo esterno per essere prodotti
e la risposta si osserva a certe latenze). In questo caso viene definito “0” il momento in cui è stato inviato lo
stimolo sensoriale.

Lo “0” è importante perché un ERP è dato dalla media delle risposte del cervello ad un numero ripetuto di trial
che appaiono in una finestra temporale prefissata. Risulta importante ripetere la stimolazione un numero
adeguato di volte in modo che anche la risposta allo stimolo sia prodotta un certo numero di volte. Si effettua poi
una media di tutte le risposte e si osservano le varie componenti, ovvero le risposte alle diverse latenze. Ogni volta
che uno stimolo viene inviato, sul tracciato appare un trigger (segno che nell’elaborazione dei dati verrà indicato
come lo 0). Si può decidere di selezionare un pezzo del tracciato EEG, tagliando da 100ms prima dello stimolo a
1000ms dopo. L’ampiezza temporale, definita epoca, è decisa sulla base degli scopi e in funzione delle
caratteristiche della stimolazione.

Viene effettuata una media (averaging) e il risultato è definito “grande media”, considerata la risposta del soggetto
sotto esame allo stimolo sensoriale.

L’assunto di base è che la risposta cerebrale allo stimolo o compito avvenga sempre nella medesima finestra
temporale. Tutti i potenziali evento-correlati ottenuti con l’averaging riflettono la media della risposta più una
serie di componenti latenti. Ogni trail differisce leggermente da ogni altro. Inevitabilmente alcuni sfasamenti
vengono appiattiti: dal semplice averaging è impossibile osservare le componenti latenti, ovvero risposte che non
appaiono in tutti i trial nella stessa finestra temporale e che quindi scompaiono quando viene effettuata una
media. Tali componenti sono dette “rumore”, tuttavia esistono tecniche che permettono di estrarre la risposta
trial per trial e in seguito calcolare una media di queste. In tal modo, spostamenti temporali non minimi possono
essere tenuti sotto controllo e la media delle risposte è influenzata in modo minore.
62
La risposta ERP consiste in una serie di deflessioni positive o negative, chiamate “componenti”, definite come
un’attività neurale generata da un sistema neuroanatomico quando una specifica funzione mentale viene
eseguita. Ogni componente è caratterizzata da una determinata latenza. Le componenti vengono divise in:

• Precoci: sono più legate a caratteristiche intrinseche dello stimolo (componenti esogene);
• Tardive: riflettono processi cognitivi/attentivi più di alto livello (componenti endogene).

Un vantaggio è che la misurazione dei potenziali può evidenziare dei cambiamenti a livello cerebrale non rilevabili
attraverso l’osservazione comportamentale o la prestazione al compito. Ha un’ottima risoluzione temporale ed è
meno costosa. La risoluzione spaziale è debole, il numero di trial necessari è alto e non sempre il significato
funzionale di una componente è chiaro. Una difficoltà è data dai nomi che vengono attribuiti alle diverse
componenti: una stessa componente può essere etichettata con nomi diversi oppure etichette uguali per
componenti diverse.

9.2.1.1 Potenziali evento-correlati sensoriali


Potenziali evocati visivi – VEPs.

• Dopo stimolazione visiva, la prima componente che si identifica è la C1 (dovuta alla risposta di V1). Si indica
con P/N componenti positive o negative; C non esprime polarità. C1 si rileva a 80ms dallo stimolo.
• Poi a 100-130ms compare P1, influenzata da variabili cognitive come attenzione spaziale e arousal.
• Poi N1 a 100-150ms negli elettrodi anteriori e a 150-200ms in quelli posteriori. Sono influenzate da attenzione
spaziale.
• N170 è potenziale legato all’elaborazione dei volti, ma c’è ancora dibattito su questo.

Potenziali evocati uditivi – AEPs.

• C’è una risposta precoce che riflette l’attività del tronco cerebrale.
• Poi c’è N1, che presenta diverse componenti: (1) componente fronto-centrale (75ms) in corteccia uditiva; (2)
picco di vertice (a Cz, punto centrale dello scalpo) a 100ms; (3) componente distribuita lateralmente a 150ms.
• La “mismatch negativity” (MMN) è una componente che si osserva con stimoli devianti, ovvero quelli che
presentati all’interno di altri stimoli tra loro identici, se ne differenziano per una o più caratteristiche. È una
deflessione negativa, massima centralmente tra i 160-220ms. Si presenta quando i soggetti sono attivamente
impegnati in un’altra attività e non prestano attenzione agli eventi, quindi si ritiene che rappresenti un
processo automatico di riorientamento dell’attenzione.

Potenziali evocati somatosensoriali non-nocicettivi – SEPs.

• Presentano componenti molto precoci: N10 a 10 ms di origine sottocorticale e N20 precoci corticali (20ms),
originati da S1. Queste componenti precoci non sono sensibili all’attenzione spaziale.
• Poi c’è una positività P25/P27, poi una negatività N33 e ancora una positività P45. Queste sono massime
negli elettrodi centrali controlaterali.
• Poi appaiono N60 (massima controlateralmente); N120 (massima temporalmente controlateralmente);
N140 (Cz) e P200. Queste componenti tardive sono più ampie quando i soggetti prestano attenzione alla
zona corporea dove lo stimolo viene inviato e si riducono quando i soggetti vengono distratti.

63
Potenziali evocati laser – LEPs. Vengono usati per misurare potenziali che riflettono l’attività delle fibre
nocicettive.

• La prima componente è N160, massima controlateralmente, centrali o temporali.


• Complesso N2-P2, negatività-positività massime al vertice.
• Ulteriore componente precoce, definita positività precoce (eP) massima temporalmente
controlateralmente. Ma necessita di ulteriori conferme.

9.2.1.2 Potenziali evento-correlati motori o cognitivi


Potenziale di prontezza (RP) e variazione contingente negativa (CNV). Sono due potenziali dipendenti dalla
risposta motoria, appaiono prima del movimento: riflettono una preparazione o un’intenzione.

• RP: negatività evidente, appare 500ms prima dell’esecuzione di un movimento. Ne esiste una versione
lateralizzata, il potenziale di prontezza lateralizzato (LRP). Negli studi di RP il soggetto è libero di eseguire un
movimento quando preferisce.
• CNV: negatività ampia che segue un suono di allerta e perdura fino alla presentazione dello stimolo target.
Per evocare CNV vengono inviati due stimoli, il primo è un suggerimento.

Potenziale correlato all’errore – ERN o Ne. È un potenziale risposta-correlato, si calcola da quando il soggetto
fornisce la risposta. Durante lo svolgimento del compito, quando i soggetti si rendono conto di aver compiuto un
errore, compare una componente negativa frontale e centrale immediatamente successiva alla risposta (errata).
Riflette l’elaborazione e la consapevolezza dell’errore ed è sensibile al conflitto tra la risposta intesa ed effettiva.

La famiglia P300. È divisa in diverse componenti:

• Una massima a livello frontale (P3a);


• Una massima a livello parietale (P3b) → quella indicata genericamente con il termine P300 è questa. È molto
sensibile alla probabilità di uno stimolo: la sua ampiezza aumenta al diminuire della probabilità di
presentazione di uno stimolo. Generalmente si usano i paradigmi odball.

9.2.2 ORIGINE DEL SEGNALE


Le cellule nervose producono due tipi di segnali elettrici:

• Potenziali d’azione: viaggiano dall’inizio dell’assone fino ai terminali dove vengono rilasciati i
neurotrasmettitori.
• Potenziali postsinaptici: appaiono quando il neurotrasmettitore si lega ai recettori posti sulla membrana del
neurone che riceve l’info. Il binding, ovvero il legare del neurotrasmettitore col recettore porta ad una
apertura o chiusura dei canali ionici, creando potenziali postsinaptici eccitatori (EPSP) ed inibitori (IPSP).

Le variazioni del potenziale di membrana sono dovute alle modificazioni dei flussi ionici e delle loro concentrazioni
intra ed extra cellulari. Nell’EPSP ioni a carica positiva entrano nella cellula ed escono neuroni a carica negativa.
Nell’IPSP escono ioni positivi dall’interno della cellula ed entrano ioni negativi all’interno di essa.

Le registrazioni dei potenziali postsinaptici sono dette registrazioni dei potenziali di campo locali. Le registrazioni
dei potenziali d’azione dette registrazioni multi-unità. Siccome molto raramente i neuroni producono segnali
elettrici nel medesimo istante, e la durata di un potenziale d’azione è di circa 1 millisecondo, i potenziali d’azione
in diversi assoni tendono a cancellarsi e non a sommarsi. I potenziali postsinaptici invece sono più lenti e durano
64
decine o centinaia di millisecondi, inoltre sono spazialmente limitati ai dendriti e al corpo cellulare e tendono ad
essere contemporanei. Questi tendono a sommarsi: la sommazione è fondamentale perché il segnale possa
propagarsi ed essere registrato. Il contributo dell’EEG è dato quindi dai potenziali postsinaptici.

Mediante l’EEG non è possibile discriminare tra un’eccitazione e un’inibizione. Una deflessione
elettroencefalografica può essere dovuta sia a un’eccitazione superficiale che a un’inibizione profonda.

Il segnale EEG è la risultante di potenziali postsinaptici dei neuroni piramidali; un ruolo importante hanno le cellule
gliali che si depolarizzano quando gli ioni positivi di potassio penetrano nello spazio extracellulare. La corrente
generata dal flusso intra/extracellulare degli ioni potassio nelle cellule di glia contribuisce alla modulazione
(amplificazione) dei potenziali di campo cellulari.

Il flusso di cariche nella terminazione dendritica è visto come un dipolo, ovvero un’unità di generazione di carica,
costituita da una polarità positiva e una negativa in cui la corrente va dal polo positivo a quello negativo. Il dipolo
è costituito da una sorgente e da uno scarico. Il valore di potenziale è zero nel punto equidistante tra sorgente e
scarico. La maggior parte dei neuroni corticali è organizzata parallelamente e la loro attivazione è sincrona. Quindi
esiste uno strato corticale più superficiale in cui sono localizzati i vari scarichi e uno strato più profondo in cui sono
localizzate le sorgenti. I dipoli sono definiti verticali, quando sono orientati verticalmente rispetto alla corteccia;
orizzontali quando sono orientati orizzontalmente rispetto alla corteccia oppure obliqui se le due estremità non
sono allineate.

I segnali EEG sono definiti da alcune caratteristiche:

• Frequenza: numero di cicli al secondo. Il ritmo alfa (8-13Hz) corrisponde alla fase di veglia rilassata. Il ritmo
beta (13-30Hz) corrisponde alla veglia. Il ritmo gamma (40Hz) legata a processi di consapevolezza. Ritmo delta
(<4Hz) corrisponde a fasi di sonno, infanzia e stati patologici. Ritmo teta (4-8Hz) circa legato a processi mnestici
e alla esplorazione spaziale. A loro volta alcune bande di frequenza sono state scomposte in sottobande.
• Ampiezza: grandezza delle onde, misurata dalla base al picco dell’onda o tra due picchi successivi. In processi
patologici l’ampiezza di alcune onde può essere eccessivamente grande, o anche in situazioni normali (es. se
si modifica la condizione cognitiva).
• Topografia: localizzazione di dove si manifesta una determinata componente.
• Latenza: finestra temporale in cui si manifesta la risposta post-stimolo. La latenza fornisce indicazioni sulla
velocità con cui uno stimolo viene processato. Esistono risposte a breve, media e lunga latenza. Risposte a
latenza breve di solito riflettono stadi precoci di elaborazione dello stimolo sensoriale, risposte a latenza più
lunghe sono associate a processi più tardivi di elaborazione che possono avere a che fare con la
consapevolezza dello stimolo. La latenza dipende da diversi fattori: età del soggetto ed il suo arousal.
• Polarità: direzione della deflessione, positiva o negativa. Negative sono le onde direzionate verso l’alto e
positive quelle verso il basso.

9.2.3 RILEVAZIONE DEL SEGNALE


Gli elettrodi sono costituiti da materiale conduttivo attaccato ad un cavo. Il tipo di metallo può variare. Il numero
di elettrodi può variare, da poche unità a 256 elettrodi (ad alta densità in questo caso). La posizione e il nome degli
elettrodi sono generalmente definiti dal Sistema Internazionale 10-20: tali valori si riferiscono alla distanza che
deve essere tenuta tra gli elettrodi. La distanza tra essi è calcolata in modo proporzionale ai punti di riferimento
delle linee nasion-inion e periauricolari. I sistemi intenzionali sono stati creati per standardizzare il posizionamento

65
degli elettrodi. Partendo da alcuni reperti anatomici si disegnano delle linee. Il nasion è il punto di intersezione del
naso con la fronte, l’inion è la sporgenza dell’osso posto alla base del cranio. Al punto di intersezione tra le due
linee viene posizionato un elettrodo di riferimento (Cz). La distanza tra gli elettrodi è sempre il 10/20% della
lunghezza delle linee. Il nome degli elettrodi è dato dalla loro posizione rispetto alle aree cerebrali e dalla loro
posizione emisferica. Numeri più bassi si riferiscono ad elettrodi in prossimità della linea mediana, numeri più alti
ad elettrodi più laterali.

Il tracciato EEG corrisponde alla differenza di potenziale tra due elettrodi che varia al variare delle condizioni di
stimolazione. Ci sono sistemi di amplificazione che sfruttano 3 elettrodi: (A) un elettrodo attivo, posto nella
posizione desiderata; (R) un elettrodo di referenza, posizionato sullo scalpo o sulla testa e (T) una terra, posizionata
in un sito comodo sulla testa o sul corpo. L’amplificatore differenziale amplifica la differenza di voltaggio tra
l’elettrodo attivo e quello di riferimento. Gli elettrodi definiscono il montaggio e ce ne sono di due tipi:

• Montaggio bipolare: il tracciato registrato rappresenta la differenza di voltaggio tra due elettrodi adiacenti;
• Montaggio con referenza: il tracciato rappresenta la differenza di voltaggio tra un elettrodo attivo ed un
elettrodo di referenza. In questo, l’output di tutti gli amplificatori viene sommato e viene fatta una media; tale
segnale medio è poi usato come referenza per ciascun elettrodo.

Ogni montaggio può essere ricostruito matematicamente. Alcune componenti di potenziali evocati sono osservate
meglio con una referenza intracefalica oppure extracefalica. L’ampiezza e la latenza di un potenziale evocato
possono cambiare a seconda dell’elettrodo di riferimento.

Il segnale EEG è un segnale continuo (analogico). Ad ogni unità di misura nel tempo la differenza di potenziale
assume un valore numerico preciso; questo valore prende il nome di campione. La frequenza di campionamento
si riferisce a quanti campioni vengono registrati per secondo; il periodo di campionamento indica il tempo tra due
campioni successivi. La sequenza dei campioni rappresenta il tracciato EEG originale. Questa sequenza numerica
corrisponde alla conversione digitale del tracciato. La conversione del segnale da analogico a digitale corrisponde
quindi alla suddivisione del tracciato in un certo numero di istanti, ad ognuno dei quali corrisponderà un valore
numero della differenza di potenziale tra elettrodi. Per fare questo si usa il convertitore analogico-digitale. Un’altra
caratteristica importante è il “guadagno” che rappresenta il fattore di amplificazione.

Visto che l’elettricità segue il percorso dove trova meno resistenza è importante che l’impedenza tra lo scalpo e
l’elettrodo sia bassa. È indicato come Z ed è misurata in Kilo Ohm, generalmente è consigliato mantenerlo al di
sotto di 5 KOhm. Un’alta impedenza può creare due classi di problemi:

1. Può ridurre la capacità dell’amplificatore di sottrarre il rumore. L’abilità di un amplificatore di sottrarre il


rumore in modo accurato è definita “common mode rejection”, ed è misurato in decibel (dB).
2. Può aumentare il rumore prodotto dai potenziali a basso voltaggio della pelle.

Un modo per eliminare la corrente elettrica ambientale viene dall’uso del filtro “notch”. Questo filtro rimuove i
segnali a 50-60Hz. Esistono altri due tipi di filtro: filtro passa-alto (filtra tutta la parte di segnale al di sotto del
valore selezionato, lascia passare tutto ciò che sta al di sopra di quel valore di soglia o cut-off) e quello passa-basso
(lascia passare le frequenze al di sotto del suo valore di cut-off). Esiste un rapporto importante tra la frequenza
del segnale e la frequenza di campionamento: secondo il teorema di Nyquist, la frequenza di campionamento deve
essere almeno doppia della frequenza più alta presente nel segnale.

66
9.2.4 ANALISI DEL DOMINIO DELLA FREQUENZA
Le oscillazioni sono caratterizzate dalla fase e dall’ampiezza. La fase è definita dal momento di istaurazione rispetto
al tempo dell’evento. Nelle analisi di ERP nel dominio del tempo, l’attività che si osserva si interpreta come legata
alla fase. Negli studi nel dominio della frequenza, ci si riferisce all’ampiezza come potenza, abitualmente intesa
come l’ampiezza al quadrato.

Si usano metodi per identificare la banda di frequenza di interesse. Esistono diversi metodi per eseguire tale
scomposizione, quali:

• Filtraggio: è il metodo più semplice è filtrare solo la banda di frequenza desiderata. In principio ogni segnale
può essere scomposto in oscillazioni sinusoidali di diverse frequenze. Permette di osservare il fenomeno nel
tempo, ma non rende agevole la sua quantificazione.
• Trasformata di Fourier: permette la scomposizione del segnale in uno spettro di frequenze, ma non fornisce
alcuna info temporale sulle variazioni nello spettro.
• Analisi wavelet: presenta vantaggi perché permette di osservare sia lo spettro di frequenze che il
cambiamento nel tempo.

9.2.5 ANALISI DEI GENERATORI


Per comprendere la scarsa risoluzione spaziale occorre affrontare il problema della sorgente, ovvero della
localizzazione. Da un punto di vista correlativo, un’indicazione di dove si verifichi una risposta ad uno stimolo
sensoriale, o un processo cognitivo, viene fornita dalla topografia, essa cambia al cambiare del tempo. Al tempo 0
non c’è attività sullo scalpo; si passa poi ad un’attività negativa e poi positiva. Disponendo di un numero adeguato
di canali è possibile calcolare per ciascun elettrodo quale sia l’attività in una precisa finestra temporale. Questa
tecnica non consente di compiere assunzioni casuali rispetto al ruolo di una determinata area cerebrale nella
risposta.

Le tecniche di analisi della sorgente cercano di comprendere dove questo dipolo sia posto, e in che direzione. Un
dipolo si ritiene caratterizzato dalla sua localizzazione, dal suo orientamento e dalla sua forza. Tali tecniche
affrontano due problemi:

1. Problema diretto: consiste nel predire la distribuzione di voltaggio osservabile sullo scalpo a partire da un
dipolo. La soluzione consiste nell’idea che i voltaggi si sommino in modo lineare. Di conseguenza anche se più
dipoli sono attivi contemporaneamente, la soluzione è data dalla somma della distribuzione dei singoli dipoli.
Per rappresentare lo scalpo, i modelli più semplicistici usano una sfera, ma ovviamente l’attività elettrica
riflessa nell’EEG non è uguale all’attività elettrica in una sfera. Neanche i modelli a tre/quattro sfere sembrano
rappresentare in modo adeguato ciò che realmente accade. I modelli attuali non tengono conto dell’esistenza
di diversi tipi di materia cerebrale, di alcune strutture, della presenza del liquido cerebro-spinale ecc. Anche
all’interno di uno stesso tessuto possono esserci differenze di conduttanza, e ciò complica la modellizzazione.
Una buona modellizzazione è importante perché le imprecisioni possono condurre ad errori di localizzazione.
2. Problema inverso: emerge quando si cerca di determinare la posizione e l’orientamento dei dipoli sulla base
della distribuzione di voltaggio osservata sullo scalpo. Se si sa che un solo dipolo è attivo, il problema può
essere risolto confrontando la risoluzione data al problema diretto e la distribuzione del segnale osservata.
Quando vi sono più dipoli attivi esistono diverse soluzioni classificabili in due classi di tecniche che
rappresentano soluzioni probabilistiche.

67
A. Il primo approccio, definito equivalent current dipole, consiste nell’usare un piccolo numero di dipoli di
corrente equivalente che rappresentano l’attività sommata di una piccola regione; si assume che i dipoli
varino solo in termini di forza nel tempo. La sua assunzione è che la distribuzione spazio-temporale del
voltaggio possa essere modellata in modo adeguato usando un numero ridotto di dipoli, ciascuno con
localizzazione ed orientamento fissi ma cambia in magnitudine nel tempo. Ogni dipolo è caratterizzato da
cinque parametri differenti: 3 indicano la sua posizione e 2 il suo orientamento. L’algoritmo BESA
posiziona dipoli scegliendo la posizione e l’orientamento e lasciando non definito il parametro della
magnitudine. Su queste basi viene calcolata una soluzione diretta della distribuzione dei dipoli. La
magnitudine viene computata in modo che possa corrispondere alla distribuzione osservata per ciascun
istante nel tempo. Il modello della distribuzione paragonato alla reale distribuzione sullo scalpo. La bontà
di una soluzione viene stimata in termini di varianza residua, ovvero di quanta della variabilità dei dati è
spiegata in modo efficace dal modello. La procedura viene ripetuta in modo iterativo. Un limite di questa
tecnica è che il numero iniziale di dipoli viene deciso dallo sperimentatore e ciò ha influenza sui possibili
risultati; inoltre, se il numero di dipoli scelto non è corretto, la tecnica produrrà una soluzione non
corretta. La soluzione con più bassa varianza residua non necessariamente corrisponde a quella corretta.
B. Il secondo approccio, definito distributed source, cerca di risolvere il problema dividendo il volume
cerebrale o la superficie corticale in un numero sufficientemente grande di voxel e computando la forza
di tali voxel sullo scalpo. Il limite è la non unicità della soluzione. Una possibilità è creare dei vincoli sul
numero di dipoli. Anche questo approccio può produrre errori. L’algoritmo più usato è LORETA.

9.2.6 LA REGISTRAZIONE EEG INTRACRANICA


Jasper e Penfield sono i primi a condurre studi di registrazione elettroencefalografica intracranica. L’EEG è quindi
utile per localizzare l’attività epilettica durante le operazioni di asportazione delle aree di generazione delle crisi.
Tali studi permisero la messa a punto delle mappe di rappresentazione motoria e sensoriale (homunculus).
Possono essere usati diversi metodi di registrazione intracranica, quali:

• Stereoelettroencefalografia: elettrodi sono posizionati sotto la superficie corticale, anche in strutture


cerebrali profonde, usato per il monitoraggio e la localizzazione dei foci epilettici. Ha il vantaggio di poter
localizzare con più precisione i generatori di potenziali evocati e di poter permettere lo studio di specifiche
bande di frequenza.
• Elettrocorticografia (ECoG): elettrodi sono applicati con metodologia chirurgica direttamente sulla superficie
corticale con o senza interposizione della dura madre. Ci sono difficoltà tecniche dovute all’ambiente di
registrazione, alla mancanza di un elettrodo silente di riferimento e alla contaminazione degli anestetici. Le
registrazioni ECoG hanno il vantaggio di poter fornire una maggiore precisione nella localizzazione delle
sorgenti del segnale. Sono in grado di registrare dei potenziali di campo locale sulla superficie corticale,
possibilità preclusa nell’EEG registrato con elettrodi posti sullo scalpo.

9.2.7 UTILIZZI
I potenziali evento-correlati sono ampiamente usati per studiare processi motori, percettivi e cognitivi nel loro
decorso temporale. Studi di connettività funzionale sono condotti sia nel dominio del tempo che in quello delle
frequenze. Nel dominio del tempo, circuiti corticali dinamici possono essere rilevati come transitorio
accoppiamento di fase tra regioni cerebrali. Nel dominio delle frequenze, l’attività oscillatoria ritmica può essere
studiata attraverso analisi di coerenza tra le onde elettroencefalografiche: aree cerebrali distanti possono essere
funzionalmente accoppiate in differenti bande di frequenza.
68
L’EEG è usata anche per applicazioni cliniche. È usata per l’indagine di patologie quali epilessia e disturbi del sonno.

Epilessia. Condizione patologica del SNC in cui una o diverse popolazioni di neuroni, durante episodi ricorrenti
definiti crisi epilettiche, scaricano eccessivamente e in modo sincronizzato.

C’è un quadro EEG patognomico tipico che permette la loro identificazione e cura. Esistono casi di pazienti
epilettici in cui l’EEG intercritico non presenta alterazioni evidenti. Per poter porre diagnosi da un punto di vista di
EEG, occorre osservare diversi e ripetuti episodi di crisi.

L’EEG epilettico presenta grafoelementi: (1) la punta, con ampiezza maggiore e morfologia bifasica a polarità
negativa, e di durata temporale ridotta; (2) polipunta, in cui diverse punte possono raggrupparsi tra loro; (3) punta
aguzza, caratterizzata da un’ampiezza pronunciata rispetto al tracciato di fondo, con morfologia irregolare; (4)
complessi punta polipunta-onde, in cui la punta o polipunta precedono un’onda.

Ci sono diverse forse di crisi epilettiche:

• Quando le scariche sono localizzate in una specifica area cerebrale si parla di crisi parziale. Il focolaio
epilettogeno risulta ben localizzato nella regione di origine e si caratterizza per una successione di punte, onde
aguzze, complessi punta-onda lenti o per attività ritmiche a frequenza alfa, teta o delta localizzate nella zona
del focolaio epilettico. Le crisi parziali vengono divise in semplici o complesse a seconda del mantenimento o
alterazione della coscienza.
a. Nelle crisi parziali semplici con sintomi motori, come quella somato-motoria la scarica epilettica esordisce
nella corteccia frontale motoria, presenta clonie facciali o degli arti superiori. La crisi si diffonde poi alle
aree limitrofe dando origine a clonie in tutto l’emicorpo (marcia Jacksoniana). La crisi può concludersi in
questo modo oppure generalizzare. Le crisi con sintomi sensoriali sono l’equivalente sensoriale della
marcia jacksoniana e hanno localizzazione nella corteccia parietale somatosensoriale. Sono caratterizzate
da fenomeni visivi, olfattivi, uditivi o gustativi. Esistono anche crisi con sintomi autonomici, caratterizzate
da manifestazioni oro-digestive, vascolari, cardiache, viscerali o sessuali, e crisi con sintomi psichici (come
il deja-vù).
b. Le crisi parziali complesse sono caratterizzate da alterazione o perdita della coscienza ed amnesia. Quando
vi è semplice alterazione della coscienza il paziente interrompe bruscamente la sua attività, non risponde
agli stimoli e ha lo sguardo fisso nel vuoto. Le crisi con automatismi sono di tipo psicomotorio: gesti o
movimenti stereotipati come leccamento, deglutizione, sfregamento mani, frasi stereotipate e risate,
oppure si alza dalla sedia e cammina. Possono essere la prosecuzione di una crisi semplice che porta alla
perdita di coscienza con la seguente apparizione di automatismi. Hanno origine da scariche nelle cortecce
frontali o temporali: le crisi a carico del lobo temporale di solito evidenziano la scarica all’EEG, mentre
quelle del lobo frontale non sempre presentano EEG positivo in stato di crisi.
• quando sono inizialmente localizzate e successivamente si propagano si parla di crisi parziali
secondariamente generalizzata;
• quando esordiscono con un coinvolgimento dell’interno encefalo si parla di crisi primariamente
generalizzata. Queste crisi coinvolgono entrambi gli emisferi e sono associate a perdita di coscienza. Ci sono
diversi tipi:
a. Di assenza tipiche: gli attacchi sono di breve durata e sull’EEG sono osservabili scariche di complessi punta-
onda bilaterali su un’attività di fondo normale.

69
b. Di assenza atipiche: hanno durata maggiore e sono caratterizzate da complessi punta-onda lenti, su un
ritmo di fondo rallentato.
c. Miocloniche: caratterizzate da ripetute mioclonie agli arti senza perdita di coscienza. All’EEG si osservano
scariche bilaterali simmetriche e sincrone di complessi polipunta-onda.
d. Cloniche: tipiche dell’infanzia, caratterizzate da mioclonie massive con perdita di coscienza e associate a
scariche bilaterali di complessi polipunta-onda.
e. Toniche: contrattura con aumento del tono muscolare in estensione del collo di durata variabile; EEG
mostra una scarica bilaterale di polipunte rapide di ampiezza crescente.
f. Atoniche: caratterizzate da improvvisa perdita di tono posturale con usuale caduta a terra; EEG mostra
una scarica bilaterale di complessi punta-onda lenti irregolari.
g. Tonico-cloniche: sono le più drammatiche e invasive, si distinguono 3 fasi: (1) una fase tonica con
contrattura improvvisa, persistente e generalizzata alla muscolatura; (2) una fase clonica, con
rilassamento intermittente della muscolatura e mioclono associato; (3) una fase post-critica caratterizzata
da alterazione della coscienza (coma) e progressivo risveglio con stato confusionale. Nella fase tonica
l’EEG è caratterizzato da una scarica bilaterale di punte rapide di ampiezza crescente interrotta durante
la fase clonica da onde lente di grande ampiezza. La fase post-critica è caratterizzata anch’essa da onde
lente di durata variabile, anche alcuni giorni.

Studio e patologie del sonno. Il sonno è caratterizzato da:

1. Riduzione dell’attività motoria;


2. Ridotta responsività agli stimoli;
3. Posture tipiche;
4. Reversibilità facile.

Dallo stato di veglia, il passaggio è al sonno non-REM, che ha 4 stadi e poi al sonno REM (movimenti oculari rapidi).
Nel sonno non-REM invece prevalgono i movimenti oculari lenti. Nel passaggio dalla veglia al sonno non-REM,
nella fase iniziale di sonnolenza sono presenti dei segni tipici (progressiva riduzione dell’attività alfa nelle regioni
anteriori e movimenti oculari lenti). La fase 1 del sonno non-REM è caratterizzata da onde più lente rispetto allo
stato di veglia. Possono apparire in questa fase le punte al vertice, componente negativa pronunciata ed una
positiva più ridotta. Si presentano soprattutto al vertice (Cz), sono bilaterali e simmetriche. Le punte al vertice
persistono e si intensificano in fase 2 del sonno non-REM. Lo stadio 2 è caratterizzato dalla presenza dei fusi del
sonno, nelle regioni anteriori e centrali. Fusi del sonno e complessi K, sono tipiche dello stadio 2. I complessi K
sono onde bifasiche, di ampio voltaggio ed evidenti al vertice, ma sono più sincrone e diffuse. In generale i
complessi K precedono i fusi del sonno. Un altro tipo di onde sono le POSTs, onde triangolari e positive che di
solito appaiono in regioni bilaterali occipitali. Tipiche dello stadio 2 del sonno, possono già apparire in stadio 1. La
loro presenza può essere associata ad anormalità dell’EEG. Gli stadi 3 e 4 sono definibili “sonno ad onde lente”
per via del caratteristico tracciato con grande ampiezza e bassa frequenza. Il sonno REM è “sonno paradosso”, con
EEG simile a quello della veglia e ci sono alcuni neuroni (ponte, talamo e regioni occipitali) che scaricano di più
durante questa fase del sonno che durante la veglia. L’EEG ha potenziali chiamati “punte ponto-genicolo-
occipitali”. Durante la fase REM, l’attività simil-veglia a livello di EEG è associata, in condizioni fisiologiche a
completa atonia muscolare.

70
Per studiare i disturbi del sonno, si fanno registrazioni poligrafiche notturne, attraverso elettrodi posti sullo scalpo,
i movimenti oculari, l’elettromiografia (EMG) agli arti inferiori e superiori e la respirazione. I disturbi del sonno
sono divisi in:

1. Insonnia: durata insufficiente del sonno. Si distingue l’insonnia iniziale, intermedia o terminale. Si parla di
insonnia psicofisiologica persistente quando è presente uno stato di ansia elevato, ma non abbastanza per un
profilo di disturbi d’ansia. Si parla di falsa percezione del sonno quando i pazienti si lamentano di non aver
dormito a sufficienza mentre non appaiono dalle registrazioni poligrafiche disturbi evidenti. Si parla di
insonnia idiopatica quando l’insonnia è cronica e dura tutta la vita, la causa più probabile è l’alterazione dei
meccanismi sonno-veglia. Generalmente causa di insonnia sono i miocloni notturni o la sindrome da gambe
senza riposo. I pazienti esperiscono movimenti più o meno duraturi degli arti, che disturbano il riposo e
vengono registrati sull’EMG e alle volte sull’EEG.
2. Ipersonnia: disturbi del sonno caratterizzati da eccessiva sonnolenza. Ci sono due tipi:
a. Narcolessia: definita da 4 sintomi principali: (1) sonnolenza diurna, caratterizzata da improvvisi
addormentamenti; (2) cataplessia, perdita improvvisa del tono muscolare; (3) paralisi del sonno, pazienti
narcolettici sono svegli ma è come se fossero addormentati; (4) allucinazioni ipnagogiche, esperienze
uditive e visive complesse, spesso a contenuto disturbante. I problemi della narcolessia sembrano essere
legati ad alterazioni del sonno REM.
b. Sindrome delle apnee morfeiche ostruttive: caratterizzate da episodi ostruttivi notturni delle vie
respiratorie.
3. Parasonnia: insieme di manifestazioni cliniche caratterizzate dalla presenza di fenomeni motori o
neurovegetativi. Sono più frequenti nei bambini. Le parasonnie del sonno REM includono gli incubi e anche i
disordini comportamentali in sonno REM. Mettono in atto comportamenti aggressivi o violenti, o i loro sogni.
Nelle parasonnie del sonno non-REM vengono invece incluse il sonnambulismo, la confusione durante il sonno
e il terrore notturno. Nel sonnambulismo può essere presente attività alfa durante lo stadio 1.

Trauma cranico e coma. La sede e l’estensione del trauma sono le variabili principali che condizionano il recupero.
Nei traumi chiusi il danno primario è causato da forze applicate dall’esterno della scatola cranica che si
ripercuotono all’interno. I danni sono causati da fenomeni di contatto osso-encefalo o danno assonale diffuso. Si
può anche avere alterazione o perdita di coscienza, ci sono diversi stati:

1. Fase 1: coma;
2. Fase 2: vigilanza senza risposta o stato vegetativo;
3. Fase 3: reattività muta e sindrome locked-in;
4. Fase 4: stato confusionale;
5. Fase 5: indipendenza emergente;
6. Fase 6: recupero delle capacità intellettive e sociali.

Il coma può evolvere fino al risveglio oppure dare esito a sindromi come lo stato vegetativo persistente o la
sindrome locked-in oppure può essere reversibile.

Per la diagnosi strumentale si usano: EEG, CT, MR e PET. L’EEG è in grado di distinguere tra un coma di origine
tossico-metabolica (caratterizzato da un rallentamento globale del tracciato) e un coma di origine lesionale
(presenta segni focali o emisferici). L’EEG dà utili indicazioni sulla prognosi del paziente → glasgow coma scale
basata su risposti a stimoli oculari, verbali e motori. La valutazione della gravità del coma dovrebbe inoltre essere
71
stimata sulla base della localizzazione della lesione. Il coma da lesione ponto-bulbare è il più grave e ha sintomi
specifici come assenza di apertura degli occhi, assenza di motilità oculare spontanea, assenza di risposte verbali,
assenza di risposta motoria agli stimoli dolorosi. Il coma da sofferenza corticale diffusa presenta invece apertura
degli occhi, deviazione coniugata degli occhi, retrazione in seguito allo stimolo doloroso. Il coma è caratterizzato
da alterazioni dello stato di coscienza, classificate in diversi stadi clinici:

1. Nello stadio 1: alterazione di coscienza è minima, non ci sono sintomi vegetativi e le risposte verbali sono
spesso appropriate.
2. Nello stadio 2: disturbo di vigilanza diventa più importante, appaiono segni vegetativi e scompaiono le risposte
verbali, rimangono preservate le risposte agli stimoli dolorosi; si osservano tracciati di attività teta, alfa e beta
di bassa ampiezza alternati a periodi di attività lenta, come il teta e il delta di ampio voltaggio.
3. Nello stadio 3 (coma profondo): manca la risposta agli stimoli dolorosi; vengono meno i riflessi corneali e la
respirazione spontanea può risultare inefficace; appare un’attività lenta di voltaggio più o meno basso e
possono apparire quadri particolari come l’alfa coma.
4. Nello stadio 4 (morte cerebrale): il paziente è tenuto in vita grazie alla ventilazione assistita con presenza di
battito cardiaco autonomo; attività EEG scompare (linea completamente piatta).

Nello stato vegetativo persistente si osservano stati di apparente vigilanza con apertura e chiusura degli occhi,
pupille reagenti, movimenti oculari, a cui tuttavia non sono associate attività di partecipazione all’ambiente. Il
paziente sembra vigile e sveglio ma non presenta attività mentali di natura finalizzata. Il quadro EEG è vario (da
normale a rallentamento generalizzato continuo e intermittente).

Nella sindrome locked-in il paziente risulta sveglio e cosciente, ma non può comunicare. Pazienti sono suddivisi in
3 categorie:

1. Sindrome locked-in classica: quadriplegia e anartria. Paziente non si muove e non parla, ma può comunicare
con movimenti oculari.
2. Sindrome locked-in incompleta: possibilità residue di movimento che non coinvolgano solo i movimenti
oculari;
3. Sindrome locked-in completa: include anche l’impossibilità di effettuare movimenti oculari, in condizione di
consapevolezza.

Indicazioni più utili per la differenziazione tra coma, stato vegetativo persistente e sindrome locked-in si possono
avere con la PET.

Nei casi di trauma cranico più lieve ci può essere commozione cerebrale, caratterizzata da perdita di coscienza di
breve durata. Nei traumi cranici più gravi si assiste a lesioni a carico delle strutture encefaliche, contusioni,
ematomi intracerebrali. La lesione di vasi comporta presenza di ematomi epidurali o subdurali. Ci possono essere
anomalie dell’EEG nello stato acuto e precoce ed anomalie nello stato cronico. Nello stato acuto, le anomalie
dell’EEG sono direttamente legate allo stato di coscienza e all’entità della lesione. In presenza di un disturbo di
coscienza lieve, l’EEG può presentare un ritmo di fondo più rallentato. Con l’aggravarsi del disturbo di coscienza,
la distribuzione, le caratteristiche e l’entità delle alterazioni dell’EEG diventano sovrapponibili a quelle presenti
nello stato di coma. Se si producono lesioni del tessuto encefalico, dei vasi o delle meningi, il quadro EEG
presenterà alterazioni più focali. Ci saranno quindi alterazioni diffuse del ritmo o focolai in cui queste onde lente
sono prevalenti.

72
9.3 Magnetoencefalografia (MEG)
La MEG sfrutta le potenzialità magnetiche dei dipoli e misura il flusso magnetico associato alle risposte dei neuroni.
Non ha avuto la diffusione sperata perché probabilmente non è conveniente il rapporto costo/benefici. Presenta
però dei limiti, ad esempio il calcolo dei generatori del segnale deve passare attraverso la soluzione del problema
inverso. La MEG però permette di rispondere ad alcune domande in modo più preciso e consente l’esecuzione di
studi difficilmente realizzabili con altre tecniche:

• Monitoraggio continuo della posizione della testa e nuovi metodi per la soppressione degli artefatti facilitano
la registrazione in soggetti poco collaboranti.
• È più adatta per studi sulla produzione linguistica.
• Adatta per il monitoraggio degli esiti di ictus.
• È l’unica tecnica completamente sicura per l’indagine del funzionamento cerebrale nel feto.

9.3.1 ORIGINE DEL SEGNALE


Sfrutta le potenzialità magnetiche dei dipoli. Ogni volta che viene prodotto un flusso di corrente elettrica, si genera
un campo magnetico ad esso perpendicolare. La MEG registra questi campi magnetici. I campi magnetici che
circondano i dipoli si sommano in maniera analoga ai campi elettrici, ma hanno il vantaggio di risultare trasparenti
allo scalpo e agli altri tessuti extracerebrali, quindi risultano meno alterati. La MEG rileva i campi magnetici
perpendicolari allo scalpo, che sono generati in prevalenza nei solchi. Ma l’attività visibile in MEG può essere
localizzata con maggiore accuratezza. La maggiore accuratezza di localizzazione è determinata anche dal fatto che
il campo magnetico è influenzato principalmente da correnti intracellulari che rimangono confinate alla regione
corticale in cui la scarica si determina.

L’EEG necessita di una referenza, es. l’attività elettrica registrata ad ogni elettrodo è calcolata in riferimento a
quella di altri elettrodi, quindi l’esatta localizzazione è difficile. Nella MEG non è necessario disporre di un analogo
punto di riferimento per cui è possibile una informazione più precisa delle aree attivate.

Infine, occorre considerare che il decadimento dei campi magnetici in funzione della distanza è più pronunciato
rispetto a quello dei campi elettrici. Ciò rende la MEG idonea per lo studio dell’attività corticale di superficie.

I segnali MEG hanno natura oscillatoria e quindi possono essere definiti dalla loro frequenza. Le bande di frequenza
della MEG sono uguali a quelle dell’EEG: alfa, beta, gamma e delta. L’ampiezza delle risposte anziché in microvolt
(EEG) viene misurata in fermo Tesla (fT). I campi magnetici evento-correlati (ERMF) sono analoghi agli ERP: occorre
calcolare la media di diversi trial di risposte a stimoli presentati. Per quanto riguarda i nomi delle componenti,
sono gli stessi ma con l’aggiunta di una m: es. P50m, N100m etc.

9.3.2 RILEVAZIONE DEL SEGNALE


I campi magnetici generati dai dipoli sono molto deboli e per rilevarli sono necessari sensori molto sensibili,
altrimenti vengono nascosti dal magnetismo terrestre e da altre fonti di magnetismo. Il soggetto indossa un
elmetto ergonomico contenente una serie di sensori (SQUID), sensibili a campi magnetici molto deboli. La
registrazione deve avvenire in specifiche stanze schermate magneticamente.

73
9.3.3 UTILIZZI E PROSPETTIVE
L’impiego di elezione è l’indagine dell’elaborazione linguistica. Nella clinica, la MEG è usata principalmente come
strumento diagnostico per epilessia neocorticale e nella localizzazione di lesioni nella programmazione pre-
chirurgica. È usata anche nella valutazione dell’attività cerebrale del feto all’interno dell’utero materno.

Valutazione dell’attività cerebrale prenatale. È possibile dalla superficie dell’addome materno. Non è attendibile
misurare i potenziali elettrici perché i tessuti corporei costituiscono una resistenza elettrica che li disturba. Invece,
i segnali magnetici si diffondono attraverso il tessuto corporeo e le ossa senza distorsione significativa. La MEG
fetale (fMEG) è l’apparecchiatura appositamente messa a punto.

Combinando la frequenza cardiaca con i movimenti del corpo (ecografia) è possibile categorizzare 4 differenti stati
fetali: addormentato tranquillo, addormentato attivo, sveglio tranquillo e sveglio attivo.

Vengono anche compiuti degli studi:

1. Studi stimolo-risposta per evocazione di potenziali di campo uditivi. Risposte corticali avvengono a latenze di
200ms e la latenza diminuisce con il crescere dell’età gestazionale.
2. Studi stimolo-risposta per evocazione di potenziali di campo visivi.
3. Studi sui precursori dello sviluppo cognitivo. Questo si studia con diversi paradigmi:
a. Paradigma di abituazione (uditiva). Si basa sullo sfruttamento della tendenza spontanea a preferire
la novità. Consiste nella misurazione del decremento della durata della risposta cerebrale in
conseguenza alla ripetuta presentazione di uno stesso stimolo. Tale diminuzione è presente nel feto
a partire dalle 30 settimane di gestazione. È dimostrato che caratteristiche materne come fumo,
diabete, depressione, ansia e stress influenzano l’abituazione prenatale in modo negativo.
b. Paradigma di risposta discriminativa (uditiva). Paradigma odball, sequenze di stimoli standard
frequenti sono mescolate a stimoli devianti rari. Misura la capacità di differenziare tra due tipi di
stimoli uditivi.
c. Processamento temporale rapido. Coppie di stimoli uditivi vengono presentati rapidamente per
rilevare la capacità di percezione dei suoni, ritenuta un precursore della percezione linguistica.

La fMEG permette di constatare l’efficacia di interventi quali tecniche di rilassamento, yoga, meditazione,
programmi psico-educazionali per donne che hanno ansia o depressione. Con la fMEG se ne possono valutare gli
effetti direttamente sullo stato di benessere del feto.

La fMEG può costituire uno strumento addizionale per decidere quando effettuare un parto pretermine.

Prospettive future considerano la possibilità di rilevare crisi epilettiche in utero.

La fMEG ha però una serie di limitazioni: problema della determinazione della sorgente. La risoluzione del
problema inverso è possibile solo con un modello adeguato della struttura investigativa. Si usa l’aiuto di sistemi
aggiuntivi, come l’ecografia, usata per determinare la posizione fetale prima e dopo la registrazione. Una soluzione
consiste nella registrazione ecografica continua durante la fMEG. Un uso combinato delle due consente di
correlare i segnali fetali corticali con le osservazioni dei movimenti fetali.

La fMEG è promettente per la valutazione prenatale dei precursori dello sviluppo cognitivo, importante indicatore
dello sviluppo cognitivo successivo, per la diagnosi prenatale di ritardi dello sviluppo, per l’eventuale

74
implementazione e valutazione di programmi di intervento fetale atti alla prevenzione di deficit in popolazioni a
rischio.

9.4 Integrazione e combinazione di tecniche


I due tipi di metodiche (neurofisiologia e neuroimaging) applicati in momenti diversi. Si opera un’integrazione dei
dati provenienti dalle diverse tecniche. È possibile in certi casi un uso simultaneo di metodiche neurofisiologiche
(EEG o ERP) e di neuroimmagine (PET o fMRI): si parla di uso combinato delle metodiche.

La combinazione è complessa e costosa quindi spesso si usa integrazione: la registrazione EEG/ERP e fMRI/PET
avviene in due sessioni separate e i risultati vengono confrontati in fase di analisi dei dati. In primo luogo, è
necessario avere un riferimento sperimentale identico: istruzioni del compito, risposte, tempi di stimolazione,
aspettative dei soggetti, devono essere uguali. Identica deve essere anche la cornice di riferimento sensoriale (tipo
di stimolazione e apparecchiature di stimolazione). Inoltre, gli stessi partecipanti devono prendere parte ad
entrambe le sessioni sperimentali.

Esiste la possibilità di registrare simultaneamente i dati EEG/ERP e fMRI/PET. La combinazione è complessa e


richiede il soddisfacimento di alcuni principi tecnici e teorici. In primo luogo, il materiale delle apparecchiature per
la registrazione elettroencefalografica e per la somministrazione degli stimoli deve essere compatibile con
l’ambiente di risonanza magnetica, sia per ragioni pratiche e di sicurezza, sia per ridurre al minimo gli artefatti. Ciò
include l’utilizzo di apposite cuffie, stimolatori, dispositivi audio e video etc; un problema economico è che le
apparecchiature MR compatibili hanno costi maggiori. Di fatto, la registrazione simultanea è contaminata da
artefatti e sono possibili alterazioni del segnale o perdita di qualità. Tali artefatti devono essere corretti a
posteriori. La registrazione simultanea di EEG e PET risulta più semplice. La scelta dell’uso della registrazione
simultanea dipende in grande parte dal quesito, clinico o di ricerca. La registrazione simultanea all’inizio è nata
per scopi clinici, per localizzare in modo preciso focolai epilettogeni. Oggi è impiegata per:

a. Determinare con maggiore precisione l’origine della risposta elettrica a stimoli sensoriali o in compiti cognitivi
(ERP).
b. Indagare la relazione tra fluttuazioni spontanee dell’EEG e del segnale fMRI BOLD.

Sia per l’uso integrato che per quello combinato, ci si può chiedere se i risultati ottenuti con registrazione EEG/ERP
e quelli fMRI/PET riflettano esattamente gli stessi processi. Le risposte elettriche EEG/ERP sono generate
dall’attività postsinaptica e riflettono l’attività neurale diretta del cervello. fMRI e PET sono misure indirette che
riflettono il cambiamento del flusso ematico associato ad attività neuronale. Quindi la fisiologia dei due tipi di info
è diversa. Essi possono però riflettere le stesse attività di processamento dell’indo. Per quanto riguarda le
popolazioni neurali coinvolte, le misure elettriche ed emodinamiche possono essere il prodotto della stessa
popolazione, ma possono anche riflettere diversi aspetti di attività sensoriale/cognitiva negli stessi neuroni.
Oppure le due risposte possono riflettere lo stesso processo sensoriale/cognitivo in due popolazioni neurali
diverse. Esiste in linea teorica, la possibilità che non esista alcun tipo di relazione tra le due misurazioni dell’attività
cerebrale.

CAPITOLO 10: METODICHE DI STIMOLAZIONE NEGLI STUDI DI


NEUROIMMAGINE (12 PAG.)

75
10.1 Cosa sono e a cosa servono le metodiche di stimolazione
cerebrale
Le metodiche di stimolazione cerebrale offrono la possibilità di intervenire sulla funzionalità e plasticità del SNC
per fini conoscitivi o terapeutici. Possono anche costituire uno strumento di valutazione degli interventi effettuati.
Il meccanismo di intervento è costituito dalla stimolazione cerebrale ottenuta mediante leggere correnti
elettriche, indotte o trasmesse al cervello, in modo più o meno diretto.

Ci sono sia tecniche non invasive (TMS stimolazione magnetica transcranica e tDCS stimolazione transcranica a
corrente continua o alternata tACS), in cui l’applicazione avviene a livello di scalpo, sia tecniche invasive (DBS
stimolazione cerebrale profonda) che comporta l’impianto neurochirurgico di elettrodi in specifiche regioni del
cervello. Una tecnica poco invasiva per il trattamento dell’epilessia e depressione è la VNS (stimolazione del nervo
vago). In questo caso un generatore impiantato nel sottocute a livello toracico riesce ad avere i suoi effetti
indirettamente sul cervello attraverso la stimolazione del nervo vago cervicale sinistro.

In molti casi la stimolazione non è convulsiva, mentre in alcuni, come nella ECT terapia elettroconvulsivante o nella
MST terapia magnetica convulsivante, l’efficacia del trattamento dipende proprio dall’induzione di una
convulsione. Possono anche rappresentare una valida alternativa ad interventi neurochirurgici di ablazione.

È ipotizzabile che la stimolazione cerebrale inneschi dei meccanismi terapeutici diversi da quelli conseguenti
all’uso di farmaci o di altri interventi medici. Si focalizzano sui meccanismi elettrici del cervello, da cui dipendono
anche i suoi eventi chimici. Gli effetti collaterali e l’efficacia del trattamento dipendono dalla risposta adattiva del
cervello alla stimolazione elettrica.

Alcune di queste tecniche, quelle non invasive, sono state introdotte anche in ambito sperimentale. L’info che
fornisce è complementare a quella fornita dagli studi correlazionali di neuroimmagine (PET, fMRI, EEG).

BOX 10.1 NASCITA E SVILUPPO DELLE METODICHE DI STIMOLAZIONE CEREBRALE


Dai pesci elettrici alla terapia elettroconvulsivante. I primi dispositivi usati per la stimolazione cerebrale sono i
pesci elettrofori (greci e romani).

• Nel 1773 Walsh compie i primi studi sistematici sui pesci elettrici e questo rappresenta l’inizio
dell’elettrofisiologia moderna e stimolano Galvani e Volta.
• Galvani usa pile rudimentali e dimostra che la stimolazione elettrica di un nervo esposto di una rana produce
contrazioni muscolari. Stabilisce che ciò che viene propagato dai nervi è elettricità.
• Volta osserva che stimoli elettrici di diversa intensità inducono effetti fisiologici diversi. Le correnti galvaniche
sono state poi introdotte per il trattamento dei disordini mentali.
• 1804, Aldini dimostra l’efficacia delle correnti galvaniche applicate sullo scalpo nel trattamento della
melanconia. Molti altri studiosi fecero studi ma i risultati erano discordanti e poco confrontabili. Quindi questa
tecnica viene quasi totalmente abbandonata.
• Cerletti e Bini nel 1938 scoprono la terapia elettroconvulsivante (ECT) per il trattamento di disordini
psichiatrici. Inizialmente la convulsione era indotta chimicamente tramite iniezione intramuscolare di farmaci,
però le crisi erano molto forti e poco controllabili. L’introduzione della ECT viene perfezionata e migliorata e
diviene il trattamento elettivo per la depressione maggiore e il disturbo bipolare.
• Ancora ai giorni nostri una forma più evoluta di ECT costituisce l’unica possibilità di trattamento per alcuni
pazienti estremamente gravi.
76
Induzione elettromagnetica e sviluppo della stimolazione magnetica transcranica. Il funzionamento della TMS si
basa sul principio di induzione elettromagnetica scoperto da Faraday.

• D’Arsonval è il primo ad usare un apparecchio assimilabile ad una rudimentale TMS. Riporta che un forte
campo magnetico indotto da una bobina posta intorno al capo di un individuo produce fosfeni, vertigini e
anche sincope.
• Beer riporta che l’applicazione di un campo magnetico al capo produce percezione di fosfeni. Beer e Pollacsek
brevettano una bobina elettromagnetica da porre sullo scalpo del paziente per la cura della depressione e
delle nevrosi.
• Barker presenta il primo prototipo di stimolatore magnetico moderno. Erano però lenti a riscaldarsi, la bobina
si surriscaldava facilmente e non erano in grado di produrre frequenze superiori a 0,5Hz poi vennero
perfezionate.

10.2 Stimolazione magnetica transcranica (TMS)ù


La TMS è in grado di modulare l’attività neurale corticale. A seconda dei parametri di stimolazione adoperati
(frequenza ed intensità di stimolazione), è possibile potenziare o diminuire l’eccitabilità corticale. In principio era
usata in ambito clinico per testare l’integrità funzionale delle proiezioni cortico-spinali del sistema motorio. Negli
ultimi 20 anni è usata per fini conoscitivi e terapeutici. Ha tre scopi di uso:

1. Valutazione e misurazione di alcuni parametri funzionali e temporali del cervello;


2. Studio delle mappe cerebrali sottostanti il sistema sensorimotorio e le diverse funzioni cognitive;
3. Modulazione della plasticità neurale per il potenziale trattamento di patologie psichiatriche e neurologiche.

La TMS usa una bobina che, attraverso un passaggio di corrente elettrica, genera la variazione rapida di un campo
magnetico. Lo stimolo magnetico induce un flusso di corrente nell’area corticale sottostante la bobina, di intensità
proporzionale alla conduttività del tessuto che attraversa. Una parte dello stimolatore è costituita da capacitatori
che scaricano nella serpentina un’elevata quantità di corrente (5000-6000 Ampere).

Quando viene stimolata la corteccia motoria, si produce una leggera contrazione registrata come potenziale
motorio evocato. Se si produce la corteccia visiva si producono fosfeni. Se si stimola la corteccia frontale inferiore
di sinistra, si può interferire con compiti linguistici. Nella maggior parte delle altre aree il partecipante non
percepisce in modo consapevole alcun effetto. In questi casi, gli effetti della TMS vengono rilevati solo se testati
con specifici compiti.

10.2.1 METODI DI SOMMINISTRAZIONE


Ci sono diversi tipi di protocollo a seconda degli scopi:

1. Stimolazione a singolo impulso: impulso singolo o coppie di impulsi, somministrati non ritmicamente e
ad intervalli di almeno qualche secondo tra un’applicazione e l’altra. Gli effetti non superano il periodo di
stimolazione e quindi è necessario misurarli online (in tempo reale). Viene usata nella ricerca fisiologica e a
scopi diagnostici. L’alta risoluzione temporale della TMS a singolo impulso permette di identificare le
caratteristiche temporali di un’area stimolata e/o delle aree ad essa connesse. Esempio: si può misurare la
specifica finestra temporale in cui un’area prende parte ad un processo cognitivo o la sequenza temporale
secondo cui diverse aree partecipano ad un evento cognitivo, percettivo o motorio. Viene chiamata
“cronometria causale”.

77
2. Stimolazione ripetitiva (rTMS): somministrazione di stimoli ripetuti secondo una specifica frequenza di
stimolazione espressa in Hz. Quella ad alta frequenza (>5Hz, 10-25Hz) aumenta l’eccitabilità corticale e
l’effetto dura pochi msec, quella a bassa frequenza (1Hz o meno) diminuisce l’eccitabilità corticale e l’effetto
dura più a lungo (10-15 min). La stimolazione ripetitiva può avvenire in modo continuo o seguendo specifici
schemi di stimolazione. Sono stati proposti due nuovi tipi di protocollo:
a. Stimolazione “theta burst” (TBS): consiste in brevi raffiche di impulsi ad alta frequenza (50Hz) e bassa
intensità. Si possono produrre effetti opposti sulla corteccia motoria. La TBS intermittente (iTBS) aumenta
l’eccitabilità della corteccia motoria mentre la TBS continua (cTBS) riduce l’eccitabilità corticale.
b. Stimolazione associativa appaiata (PAS): vengono applicati due stimoli: la stimolazione elettrica del
nervo periferico a bassa frequenza (0.01Hz, 0.025Hz), accoppiata a stimolazione magnetica transcranica
della corteccia motoria primaria controlaterale. A seconda che l’intervallo (ISI) tra stimolo elettrico e TMS
sia leggermente più lungo (25msec) o leggermente più breve (10msec) del tempo necessario perché lo
stimolo periferico afferente raggiunga la corteccia, e se un certo numero di stimoli associati vengono
erogati, l’eccitabilità corticale aumenterà o diminuirà, rispettivamente.

Gli effetti vengono misurati online o offline. La presenza di una o più condizioni di controllo è importante: queste
possono essere la stimolazione di un’altra area o altre aree oltre all’area target, o nel chiedere l’esecuzione di un
compito alternativo durante la stimolazione dell’area target. È utile prevedere una condizione di stimolazione
fittizia, detta “sham”, generalmente ottenuta ponendo la bobina attiva in posizione ruotata di 90° rispetto alla
condizione di stimolazione o tramite altri metodi (che si è cercato di convalidare).

10.2.2 RISOLUZIONE SPAZIALE E TEMPORALE


Le caratteristiche spaziali dipendono da molti fattori come ad esempio: forma della bobina, forma dello stimolo,
intensità di stimolazione e proprietà elettriche della corteccia stimolata. Con una bobina “a otto” standard, il
campo elettrico massimo indotto si trova in corrispondenza della regione di giunzione tra i due anelli che formano
l’otto. L’impulso può penetrare il tessuto solo di 2-3cm sotto della bobina, il campo elettrico diminuisce
rapidamente con l’aumentare della distanza dalla bobina. Quindi la TMS raggiunge direttamente solo le regioni
superficiali e indirettamente la stimolazione corticale può raggiungere le strutture profonde.

La risoluzione temporale dipende dal protocollo di stimolazione. Un singolo impulso TMS induce una breve
corrente elettrica corticale per un tempo inferiore ad 1 msec, che causa una scarica ad alta frequenza sincronizzata
in una popolazione ampia di neuroni. A questa segue un’inibizione GABAergica che dura parecchie centinaia di
millisecondi. La TMS ripetitiva ha risoluzione temporale inferiore: effetti possono durare da pochi millisecondi ad
oltre un’ora dalla fine della stimolazione per particolare protocolli di stimolazione prolungata.

10.2.3 MISURE DI NEUROFISIOLOGIA DI BASE


10.2.3.1 Misure di eccitabilità corticale
Vengono usate misure di eccitabilità della corteccia motoria.

La soglia motoria (MT). È la minima intensità della TMS necessaria per elicitare un movimento visibile in almeno
metà delle prove. La leggera contrazione muscolare è associata ad un potenziale motorio evocato (MEP). La MT
viene misurata usando l’elettromiografia (EMG). La MT è la minima intensità della macchina necessaria per
produrre un MEP di ampiezza compresa tra i 50 e i 150 microvolts, in almeno metà dei 10-20 stimoli erogati.

78
Spesso la MT viene misurata in relazione al muscolo abductor pollicis brevis (APB) o al muscolo primo interosseo
dorsale (FDI) della mano. Quindi la MT viene determinata in due modi:

1. Attraverso il metodo visivo;


2. Attraverso la misurazione del MEP.

L’intervallo tra stimoli successivi deve variare tra i 3 e i 5 secondi.

La MT varia tra individui diversi ma è relativamente costante per uno stesso individuo. La MT può essere misurata
a riposo (RMT) o durante una leggera contrazione isometrica del muscolo target (AMT. La AMT è più bassa della
RMT di circa il 5-20% dell’output massimo dello stimolatore.

La MT è influenzata da farmaci e questa è una misura dell’eccitabilità di membrana di fibre cortico-corticali e


talamo-corticali.

Il periodo corticale silente (CSP). È l’interruzione di attività volontaria durante contrazione sostenuta del muscolo
in seguito alla somministrazione di una serie di stimoli TMS. Al soggetto viene chiesto di pressare tra pollice e
indice un dinamometro che registra la massima forza di contrazione. Dall’osservazione dell’ago del dinamometro
è possibile al soggetto mantenere la forza di contrazione. Applicando poi 10 stimoli TMS di intensità pari al 120%
della RMT, a un intervallo tra i 3 e i 5 secondi è possibile inibire l’attività elettromiografica ed ottenere il CSP della
durata di circa 200-300ms. Questo sembra rappresentare il contributo della trasmissione GABAergica di
interneuroni corticali. Il CSP è una misura di inibizione esclusivamente cortico-corticale e può essere influenzata
da fattori che non influenzano la MT.

Curve di reclutamento (RC). Sono misurate in riferimento alla MT e sono misurate a risposo o durante la
contrazione volontaria. È una misura globale di eccitabilità cortico-spinale che può essere influenzata da fattori
diversi che non influenzano la MT. Vengono calcolate usando 6 diverse intensità di stimolazione (da intensità
inferiore a MT del 5% fino a superiore del 20%). Per ogni intensità sono applicati 6 stimoli consecutivi con intervalli
di 3-5sec. Viene fatta la media dei valori massimi da picco a picco ottenuti per i 6 stimoli alla stessa intensità e i
valori sono riportati su un grafico come curva sigmoidale in funzione dell’intensità. Da questa curva vengono
derivati come parametri di descrizione la pendenza, il plateau, ed altri indici per interpretare i dati.

TMS a doppio impulso. Vengono somministrati due stimoli consecutivi: uno stimolo test preceduto da un breve
stimolo condizionante. Da questo si otterranno effetti di inibizione o facilitazione sulla risposta motoria (MEP)
elicitata dal secondo stimolo. Per stimoli condizionanti di intensità sottosoglia, il MEP registrato del secondo
stimolo risulta ridotto per intervalli interstimolo di 1-4msec, mentre il MEP risulta aumentato per intervalli di 5-30
msec. Queste risposte rifletterebbero fenomeni di inibizione e facilitazione intracorticale. Ci si riferisce a queste
misure in termini di inibizione intracorticale (ICI) e facilitazione intracorticale (ICF).

10.2.3.2 Misure di connettività corticale


La TMS offre possibilità in campo clinico per misurare l’integrità del tratto corticospinale, la connessione
transcallosale tra le cortecce motorie dei due emisferi o ancora l’integrità delle connessioni tra cervelletto e
corteccia motoria controlaterale.

La TMS a doppia bobina è usata per testare la connettività o cambiamenti di connettività tra aree. Tipicamente lo
stimolo test è applicato su M1 o su V1 perché questo permette una facile misurazione degli effetti. Gli effetti di

79
un singolo impulso TMS non sono limitati al sito di stimolazione ma si propagano a regioni funzionalmente
connesse. È possibile studiare le fini dinamiche temporali e causali tra due regioni corticali.

10.2.4 UTILIZZI CLINICI


La rTMS è importante come potenziale strumento non invasivo per il trattamento di patologie psichiatriche e
neurologiche. La rTMS ad alta frequenza quotidiana per diverse settimane sulla corteccia prefrontale di sinistra ha
un effetto antidepressivo. Si cerca di usarla anche su Parkinson, dolore neuropatico, emicrania, distonia, epilessia,
acufene, schizofrenia, disturbi ossessivo-compulsivi, disturbi di memoria e riorganizzazione della corteccia motoria
che avviene durante il disuso di un arto. È utile anche nel trattamento dei disordini motori e cognitivi conseguenti
ad ictus. La rTMS inibitoria somministrata sull’emisfero controlesionale migliora sia i sintomi neuropsicologici (es.
consapevolezza visuo-spaziale nel neglect o linguistici nell’afasia e disturbi motori). La teoria della rivalità
emisferica spiega i deficit conseguenti ad ictus come dovuti non solo ad inattivazione dell’area lesa ma anche ad
iperattivazione dell’emisfero sano e aumento di inibizione da parte dell’emisfero sano su quello leso. rTMS
inibitoria dell’emisfero sano migliorano la sintomatologia. I meccanismi alla base di questi possono essere mediati
da due processi opposti: inibizione dell’emisfero sano (tramite rTMS a bassa frequenza) o eccitazione dell’emisfero
leso (tramite rTMS ad alta frequenza). Viene preferito il primo tipo.

10.2.5 UTILIZZI SPERIMENTALI


La TMS è usata per studiare l’architettura funzionale del cervello attraverso il paradigma della “lesione virtuale”.
È possibile modificare in modo transitorio, focale e reversibile l’attività neurale di una specifica area corticale e
studiare il suo coinvolgimento nell’esecuzione di uno specifico compito motorio, percettivo o cognitivo. Questo
paradigma permette di inferire se una specifica area sia necessaria allo svolgimento di uno specifico compito. La
“neurologia virtuale” della TMS permette di superare i limiti posti dagli studi di correlazione anatomo-clinica sui
pazienti neurologici, che sono tre:

1. Estensione delle lesioni naturali;


2. Effetti della diaschisi (in fase acuta, una lesione causa alterazioni funzionali anche in aree connesse all’area
lesa ma strutturalmente risparmiate);
3. Riorganizzazione cerebrale dovuta a fenomeni di plasticità neurale e recupero funzionale.

Si assume che gli effetti della TMS superino questi limiti almeno in parte, perché gli effetti diretti sono focali e
temporanei. Gli effetti osservati della stimolazione non sono limitati all’area a cui si applica la stimolazione ma
coinvolgono anche aree remote ad essa funzionalmente interconnesse.

L’uso della TMS per lo studio delle basi neurali dei processi cognitivi fornisce info complementari a quelle fornite
da studi di neuroimmagine (PET, fMRI o EEG). Le tecniche di neuroimmagine sono di tipo correlazionale, rivelano
quali aree siano attive durante l’esecuzione di uno specifico compito, ma non danno info sulla necessità di ciascuna
area per lo svolgimento dello stesso. L’info che riesce a fornire la TMS completa quella ottenuta su pazienti
cerebrolesi ed è complementare a quella fornita da neuroimmagini.

10.2.6 RISCHI ED EFFETTI COLLATERALI


L’induzione di una crisi epilettica come effetto collaterale è un evento estremamente raro. La sua occorrenza
avviene con protocolli che eccedono i parametri di stimolazione indicati nelle linee guida e in pazienti sottoposti
a trattamenti farmacologici che potenzialmente ne aumentavano i rischi. Vengono esclusi: pazienti con storia
clinica di epilessia, portatori di pace-maker cardiaci, protesi acustiche, protesi metalliche cranio-facciali, persone

80
che usano sostanze e farmaci che possano alterare l’eccitabilità corticale, donne in gravidanza. Effetti collaterali
comuni sono: cefalea dovuta a tensione muscolare e fastidio al sito di stimolazione.

10.3 Stimolazione transcranica a corrente diretta (tDCS)


È una tecnica non invasiva. Sullo scalpo vengono applicati elettrodi che erogano una corrente continua di bassa
intensità (1-2mA), non percepibile, per un periodo relativamente lungo (2-30 minuti). Il passaggio di corrente è in
grado di modulare la frequenza di scarica dei neuroni. Le modificazioni dell’eccitabilità corticale indotte persistono
a lungo, oltre il tempo di stimolazione. È interessante dal punto di vista terapeutico per il trattamento di patologie
caratterizzate da alterazioni focali di eccitabilità corticale. I vantaggi sono la semplicità di applicazione, assenza di
effetti collaterali e persistenza degli effetti indotti.

Rispetto alla TMS è di più facile applicazione e meno costosa. Lo svantaggio è che non induce una stimolazione
molto focale. Gli elettrodi sono relativamente grandi, quindi la stimolazione non è sufficientemente focale per
poter mappare accuratamente le funzioni cognitive. Anche la risoluzione temporale è più bassa di quella della
TMS.

Polarità, grandezza e posizione degli elettrodi sono di fondamentale importanza nel determinare la distribuzione
spaziale e la direzione della corrente. Generalmente si usano un catodo e un anodo in posizioni diverse sullo
scalpo. L’anodo è negativo ed è il punto in cui entrano gli elettroni nel cervello, mentre il catodo che è positivo è
dove l’elettricità esce dal cervello. Quindi al di sotto del catodo si forma una carica negativa, sotto l’anodo quella
positiva. Un catodo più piccolo produce una maggiore focalizzazione degli effetti di stimolazione. È possibile
modulare la stimolazione modificando la grandezza dell’elettrodo di stimolazione che di quello di riferimento. Si
usano i termini tDCS catodica o tDCS anodica a seconda dell’elettrodo montato sulla regione che si vuole
modificare. In alcuni paradigmi sperimentali si usa un montaggio in cui l’elettrodo di riferimento è posto su una
zona non cefalica. Anche la distanza tra gli elettrodi modula le caratteristiche del flusso di corrente: distanze
maggiori aumentano il flusso e la profondità di densità della corrente. I soggetti percepiscono un leggero
formicolio. Per la stimolazione sham gli elettrodi sono disposti nelle stesse posizioni degli elettrodi attivi ma la
corrente è interrotta dopo pochi secondi.

Non è ancora del tutto chiaro che cosa avvenga nel cervello durante tDCS. Sembra che la stimolazione anodica
produca una depolarizzazione delle membrane dei neuroni corticali con conseguente aumento del ritmo di scarica
e di eccitabilità, e che la stimolazione catodica produca iperpolarizzazione delle membrane dei neuroni con
conseguente diminuzione del ritmo di scarica e di eccitabilità. La tDCS modula l’eccitabilità e l’attività neurale
spontanea attraverso una depolarizzazione o iperpolarizzazione del potenziale di membrana a risposo, senza
indurre potenziali d’azione. La durata degli effetti dipende dalla durata e intensità di stimolazione.

Gli effetti comportamentali prodotti non sono sempre così semplici e chiari. Sembra che le diverse regioni cerebrali
con le loro differenze morfologiche e di composizione cellulare, possano rispondere in modo diverso alla
stimolazione elettrica.

La tDCS è molto utile in diversi ambiti: cognitivo, neurologico e psichiatrico. È possibile modulare la prestazione
ad un compito motorio o cognitivo così come è possibile farlo con la rTMS. Diversi studi cognitivi hanno dimostrato
che con la tDCS è possibile migliorare o peggiorare la prestazione ad un compito a seconda del tipo di stimolazione
usato in partecipanti sani. Ci sono quindi importanti potenzialità come metodica di neuroriabilitazione: per il

81
trattamento di diversi disordini motori o cognitivi conseguenti a ictus o a malattie neurodegenerative, per la
terapia del dolore, dell’emicrania, fibromialgia, depressione e epilessia.

10.3.1 RISCHI ED EFFETTI COLLATERALI


Sono senza rischi le stimolazioni che raggiungono al massimo intensità di 2mA per un massimo di 20 minuti. I
possibili eventi avversi sono minori e consistono in leggero prurito sotto l’elettrodo o mal di testa. Vengono esclusi:
individui con impianti metallici cranio-facciali o altre condizioni che possano risultare rischiose, come epilessia,
pelle sensibile sullo scalpo, ecc.

10.4 Integrazione e combinazione di tecniche


Nella maggioranza dei casi, i due tipi di tecniche sono applicati in momenti diversi per ottenere info convergenti
sul fenomeno indagato. Un uso combinato e simultaneo di tecniche di stimolazione e tecniche di neuroimmagine.
Si parla di approccio offline nel primo caso e di approccio online nel secondo.

La scelta della tecnica di neuroimmagine dipende dal tipo di domande a cui si vuole rispondere:

• Se si è interessati a fattori spaziali (localizzazione) si userà una metodica ad alta risoluzione spaziale come la
fMRI.
• Se si è interessati alle caratteristiche temporali è necessario usare una tecnica ad alta risoluzione temporale
come l’EEG.

Sarà fondamentale tenere in considerazione anche le caratteristiche spazio-temporali dei diversi protocolli TMS
in relazione a quelle della tecnica di neuroimaging che si vuole usare. La risoluzione spaziale e quella temporale
hanno un impatto sostanziale.

10.4.1 TMS E NEUROIMMAGINI


Le tecniche di neuroimmagine funzionale, essendo correlazionali non permettono di trarre inferenze causali tra
area attivata e prestazione al compito. Invece la TMS è una tecnica di intervento, usata per alterare l’attività del
circuito neurale stimolato offrendo così la possibilità di testare le relazioni causali tra area stimolata e
comportamento.

Le neuroimmagini possono fornire info importanti per comprendere gli effetti della TMS e per guidare la sua
applicazione. L’uso della TMS da sola non può rivelare gli effetti della stimolazione su altre aree, limitando le
inferenze possibili all’area stimolata. A questi quesiti si può rispondere con un uso integrato o combinato della
TMS con metodiche di neuroimmagine funzionale come la fMRI, PET, EEG e spettroscopia dell’infrarosso-vicino
(NIRS), che permettono di mappare gli effetti acuti o a lungo termine della TMS sul funzionamento di tutto il
cervello.

Le tecniche di neuroimmagine e la TMS forniscono info convergenti e complementari. Solo con uso integrato o
combinato è possibile tracciare le dinamiche temporo-spaziali e le interazioni causali di aree appartenenti ai
circuiti neurali che stanno alla base del funzionamento cerebrale.

10.4.1.1 Integrazione di dati provenienti da studi TMS e studi di neuroimmagine


La TMS può essere usata in associazione con le metodiche di neuroimmagine per ottenere info complementari e
convergenti. La TMS viene applicata prima o dopo il neuroimaging.

82
Neuroimaging prima della TMS (approccio map-and-perturb). Applicazione offline in cui tecniche di
neuroimmagine sono usate per ottenere info sulla possibile localizzazione spaziale o sulle caratteristiche temporali
dei pattern di attivazione associati all’esecuzione di uno specifico compito sperimentale e quindi ad una specifica
funzione cognitiva. Le info spazio-temporali vengono poi usate per definire il sito e la finestra temporale ottimali
per l’applicazione della TMS, allo scopo di interferire selettivamente con la prestazione ad un compito specifico e
definire quindi un legame di causalità tra l’area stimolata e i processi cerebrali sottostanti l’esecuzione del
compito.

Il neuroimaging può anche essere usato per localizzare a livello individuale il sito ottimale su cui posizionare la
bobina. Lo scopo è di localizzazione spaziale, quindi si usa la risonanza magnetica. Si può, ad esempio, far eseguire
il compito sperimentale durante la fMRI e usare il picco di attivazione per identificare successivamente il sito di
stimolazione. I picchi di attivazione individuali possono essere sovrapposti all’immagine strutturale del cervello
dell’individuo e dare così info su dove posizionare la bobina. Una soluzione alternativa è usare i risultati di gruppo
di uno studio precedente che usa un paradigma molto simile o identico. Le coordinate stereotattiche del picco di
attivazione danno indicazione del sito da stimolare.

TMS prima del neuroimaging (approccio condition and map). Si possono monitorare gli effetti indotti dalla
stimolazione magnetica. Si usano protocolli rTMS che sono in grado di indurre effetti duraturi di plasticità neurale.
Gli effetti prolungati sono mappati usando uno dei metodi di neuroimmagine nei minuti successivi alla
somministrazione della stimolazione. Rilevano cambiamenti funzionali e si può mappare l’impatto funzionale che
gli effetti della rTMS possono avere nel lungo termine sull’attività neurale. La specificità degli effetti può essere
testata usando un compito di controllo nella stessa sessione di neuroimmagine. Il metodo elettivo è quello di
confrontare le attivazioni correlate al compito prima e dopo rTMS. Per escludere che gli effetti osservati e imputati
alla rTMS non siano dovuti alla ripetizione del compito è importante includere nel disegno sperimentale una
condizione di controllo rTMS sham. Se i cambiamenti di attivazione indicanti riorganizzazione osservati nella
seconda scansione fMRI sono indotti dalla stimolazione magnetica e non da altro, questi saranno presenti solo
dopo rTMS reale.

Uso di TMS e neuroimaging in parallelo. È una tecnica in grado di misurare i cambiamenti di eccitabilità corticale.
La TMS e le metodiche di neuroimaging come fMRI, PET o EEG offrono misure diverse e complementari dello stato
e/o dei cambiamenti di attività cerebrale. Alcuni parametri misurati con TMS (come MT, CSP e RC) forniscono info
sulla funzionalità/eccitabilità della corteccia motoria. I cambiamenti nei valori di questi parametri possono essere
usati per valutare cambiamenti nello stato della corteccia cerebrale in seguito all’intervento dei fattori diversi sia
patologici che fisiologici.

10.4.1.2 Utilizzo combinato di TMS e tecniche di neuroimmagini


La TMS è un intervento non fisiologico per indurre un’attività neurale cerebrale. Non è comunque ancora
completamente chiaro come questa attività neurale indotta interagisca con l’attività neurale intrinseca del
cervello. Con l’uso combinato e simultaneo di TMS e delle tecniche di neuroimmagine è possibile studiare in modo
diretto gli effetti della TMS sull’attività cerebrale.

Nell’approccio in cui la TMS è combinata al neuroimaging (approccio perturb-and-measure o approccio online), il


neuroimaging permette di visualizzare gli effetti immediati locali e distali della TMS, ovvero gli effetti indotti dalla
TMS sull’attività e la connettività dei circuiti neurali.

83
Questo approccio è più complesso perché la TMS può alterare l’acquisizione dei dati di neuroimaging soprattutto
quando è combinata a fMRI o EEG. Sono necessari accorgimenti per evitare o controllare la presenza di artefatti.
Occorre tenere presente che la TMS, oltre agli effetti diretti della stimolazione magnetica corticale, produce anche
effetti indiretti sull’attività cerebrale. Questi ultimi sono ad esempio dovuti alla stimolazione uditiva o sensoriale
dell’attrezzatura. Occorre tenere presente queste possibili variabili confondenti quando si analizzano i dati e
quando si disegnano i paradigmi sperimentali usando l’approccio combinato TMS/neuroimaging.

Uso combinato di TMS-fMRI per esplorare le interazioni funzionali tra regioni cerebrali. Un uso combinato di
TMS e fMRI permette di mappare gli effetti locali e i cambiamenti interregionali dell’attività neurale evocati dalla
TMS.

L’uso simultaneo è semplice e pone una serie di problemi tecnici e metodologici. Bohning e colleghi hanno
dimostrato per primi la fattibilità tecnica di usare la TMS all’interno dello scanner durante fMRI. Gli autori si sono
concentrati sulla stimolazione di M1 poiché i risultati potevano essere facilmente confrontati con l’ampia
letteratura già esistente sugli effetti della TMS misurati con EMG. Anche l’identificazione del sito di stimolazione
è semplice da ottenere e può essere testato con l’evocazione di movimenti dei muscoli controlaterali. I risultati
sono stati: (1) osservazione che la TMS può modificare l’attività di altre regioni oltre all’area stimolata (SMA e
corteccia premotoria); (2) evidenza che l’impatto sull’attività di queste aree dipende dalla dose di stimolazione.

Negli studi in cui viene stimolata M1 ad intensità superiore alla soglia motoria, occorre fare attenzione
nell’interpretare i cambiamenti di attivazione osservati. Alcune attivazioni sono causate dal feedback afferente
proveniente dal movimento del muscolo indotto da TMS e dalla sua elaborazione da S1. Un altro effetto aspecifico
deriva dall’elaborazione del suono della TMS che causa attivazioni nella corteccia uditiva primaria. Potrebbe essere
difficile distinguere il contributo specifico della TMS su M1 da altri effetti aspecifici dovuti non solo alla
stimolazione uditiva e sensoriale della TMS ma anche agli effetti del movimento da essa indotto e alla sua
elaborazione. Anche con un’intensità inferiore alla soglia motoria sono stati osservati effetti remoti della TMS. I
cambiamenti osservati in regioni diverse dal sito di stimolazione non possono essere attribuiti al feedback
afferente dai muscoli periferici.

Diverse osservazioni suggeriscono che gli effetti dell’impulso magnetico sull’attività neurale dipendono anche
dall’eccitabilità delle connessioni in atto al momento della stimolazione. Serve uno stimolo magnetico meno
intenso per elicitare un movimento in un muscolo contratto rispetto a quando il muscolo è rilassato. Il valore della
soglia motoria misurata a riposo è più altro del valore della soglia motoria misurata durante la contrazione del
muscolo. Anche in relazione al sistema visivo gli effetti della TMS dipendono da fattori contestuali che possono
aumentare o diminuire lo stato di eccitabilità corticale di base.

Ci si è chiesti se solo gli effetti locali della TMS dipendano dal contesto o se anche i suoi effetti remoti siano
modulati da fattori contestuali. Lo si fa tramite tecnica TMS-fMRI. Risultati indicano che gli effetti contestuali
cambiano le interazioni intra ed interemisferiche come evidenziato dagli effetti remoti della TMS rilevati dalla
fMRI.

La tecnica TMS-fMRI è usata per esplorare l’ipotesi di un controllo top-down parietale e frontale sulla corteccia
visiva. In sintesi i risultati suggeriscono una dominanza delle aree frontali e parietali dell’emisfero di destra per il
controllo top-down dell’elaborazione visiva. Queste influenze sono risultate indipendenti dal contesto visivo nel
caso della stimolazione frontale; al contrario, sono risultate modulate dalla presenza o assenza di stimoli nel caso

84
della stimolazione parietale. Queste differenze sembrano indicare che mentre il controllo delle aree frontali su
quelle occipitali avviene prevalentemente in maniera top-down, l’interazione funzionale delle aree parietali con
quelle occipitali è anche influenzata in modo bottom-up.

In generale, dagli studi di TMS-fMRI emerge che la TMS non influenza solo l’area stimolata ma anche regioni
distanti e interconnesse con il sito di stimolazione. Inoltre, gli effetti remoti della TMS non riflettono
semplicemente la connettività anatomica tra regioni cerebrali, ma piuttosto le interazioni funzionali modulate dal
contesto all’interno di circuiti cerebrali ben definiti.

Uso della fMRI per mappare i correlati neurali degli effetti TMS sul comportamento. TMS usata per stimolare in
modo transitorio e non invasivo una regione cerebrale focale e testare la sua funzione. Si assume che gli effetti
osservati dioendano dal coinvolgimento della zona corticale stimolata nell’esecuzione del comportamento
osservato. Quando la TMS produce in partecipanti sani un piccolo ma significativo errore nell’esecuzione di un
compito che mima o simula un sintomo neuropsicologico, questo effetto è dovuto ad interferenza o riduzione
dell’attività neurale nelle aree che si trovano al di sotto della bobina. Quindi gli effetti della TMS sarebbero simili
a quelli di una lesione virtuale. Viene usata per lo studio delle relazioni tra mappe cerebrali e funzioni cognitive,
rispetto al metodo di correlazione anatomo-clinica nel paziente neurologico presenta dei vantaggi. Nonostante
queste assunzioni, i correlati neurali degli effetti della TMS sono poco compresi. L’uso del neuroimaging funzionale
insieme alla TMS permette di visualizzare l’attività dell’intero cervello, fornendo un quadro completo.

Recentemente l’idea che la TMS possa modulare gli effetti di una lesione virtuale è stata messa in discussione. Per
esempio, nei casi in cui la stimolazione simula un deficit neuropsicologico, non è chiaro se a livello corticale si
induca una soppressione del segnale neurale in atto o invece un’interferenza dovuta all’introduzione di attività
neurale casuale nella corteccia stimolata. In una interessante analisi di Siebner e colleghi, riportano che gli effetti
di un singolo impulso di TMS dipendono dall’intensità dello stimolo e dal contesto. Uno stimolo ad alta intensità
induce scariche ad alta frequenza sincronizzate in una popolazione ampia di neuroni, seguita da una inibizione
GABAergica. Questo produrrebbe una transitoria interruzione di un processo percettivo, motorio o cognitivo e
agirebbe come lesione virtuale. Al contrario, basse intensità aggiungerebbero solo rumore all’attività corticale
neurale e quindi con il comportamento. Un altro fattore cruciale è il contesto, gli effetti della TMS dipendono dallo
stato di attività in cui si trova la corteccia stimolata. Gli effetti dipendono anche da quanto è eccitabile la corteccia
stimolata e questo dipende dal suo stato e dal suo coinvolgimento o dall’assenza di coinvolgimento nell’esecuzione
del compito.

Dagli studi TMS-fMRI emerge che gli effetti della TMS sul comportamento possono anche dipendere dal
coinvolgimento di regioni remote e interconnesse all’area stimolata e non sono attribuibili sono all’effetto locale
della TMS. Gli studi comportamentali di TMS indicano un coinvolgimento dell’area stimolata nello svolgimento del
compito. La sola osservazione degli effetti comportamentali non rivela se questi riflettano esclusivamente il
contributo della regione stimolata o anche il contributo di regioni remote ma interconnesse. L’uso di paradigmi
sperimentali con TMS combinata a neuroimaging può aiutare nella comprensione di come l’interazione tra
componenti di reti neurali e i relativi cambiamenti di connettività funzionale possano contribuire ai fenomeni
cognitivi, percettivi o comportamentali.

Studi TMS-fMRI volti ad applicazioni cliniche. Viene usata come strumento per indagare il trattamento di disturbi
neuropsichiatrici. La TMS in combinazione con neuroimaging fornisce info utili alla comprensi0one dei suoi effetti
nel trattamento di patologie psichiatriche e neurologiche.
85
Nahas e colleghi hanno usato la TMS combinata alla fMRI per studiare in partecipanti sani, gli effetti della rTMS ad
1Hz sulla corteccia prefrontale dorso-laterale (DLPFC) di sinistra, coinvolta nella depressione. Questa regione è
connessa con la parte subgenuale del giro del cingolo. La TMS aumenta l’attivazione di aree vicine al sito stimolato
ma anche della DLPFC di destra, ma non del giro del cingolo. Mentre lo stesso protocollo su pazienti con
depressione, mostrava che la TMS induceva aumentata attivazione sia vicino al sito di stimolazione, PFC mediale,
OFC, insula e ippocampo, tutte aree coinvolte nella depressione. La risposta dei circuiti neuronali alla TMS è diversa
nel cervello malato rispetto a quello sano.

La tecnica TMS-fMRI è usata anche per lo studio di casi singoli. Bestmann e colleghi hanno studiato i correlati
corticali della sensazione di movimento indotto dalla TMS applicata alla corteccia motoria corrispondente all’arto
fantasma controlaterale in un paziente amputato. Durante la percezione soggettiva di movimento vi era
attivazione di regioni tipicamente coinvolte nella percezione di alcune illusioni di movimento della mano e di
immaginazione motoria osservata nei partecipanti normali. La sensazione consapevole di movimento della mano
può derivare dall’attivazione di corrispondenti circuiti neurali motori. La TMS-fMRI viene usata anche per studiare
i cambiamenti funzionali di connettività all’interno di circuiti neurali in seguito alla somministrazione di sostanze
neuroattive. Risultati di studi dimostrano che la combinazione TMS-fMRI può essere usata per studiare come i
farmaci influenzano i circuiti neurali rilevanti per le diverse patologie neurologiche o psichiatriche.

10.4.1.3 TMS in associazione o combinazione con EEG o MEG


TMS e EEG/MEG possono essere usati con approccio offline (momenti separati) senza problemi. Per TMS-MEG, la
TMS deve essere somministrata all’esterno della stanza MEG quindi approccio online è impossibile. Per TMS-EEG,
la TMS può essere applicata con gli elettrodi dell’EEG sullo scalpo (ma così aumenta la distanza tra bobina e scalpo
e quindi è necessaria intensità di stimolazione più alta) o senza elettrodi. Può essere usato con TMS-EEG un
approccio online (nello stesso momento), ma è complicata perché la TMS produce un campo elettrico molto forte
che può mandare in saturazione gli amplificatori dell’EEG. Si può però superare questo limite, sono stati costruiti
apparecchi EEG compatibili con la TMS.

TMS in coregistrazione con l’EEG. Ci sono tre diversi approcci:

1. Induttivo: l’EEG registra i potenziali evocati dalla TMS (TEPs): integrazione TMS-EEG permette di ricavare info
sulla reattività e connettività corticale attraverso analisi dei TEPs.
In questo approccio la registrazione dei TEPs fornisce una misura dello stato neurofisiologico di aree corticali
durante lo stato di riposo. In generale, i TEPs permettono di misurare la reattività e la connettività corticale in
corrispondenza di diverse condizioni. In questi studi il comportamento non viene valutato perché non
vengono fatte ipotesi sui possibili effetti comportamentali indotti dalla TMS.
Gli effetti di reattività e connettività corticale che vengono misurati tramite l’analisi della forma d’onda,
latenza e distribuzione dei TEPs, dipendono dallo stato fisiologico della corteccia stimolata.
2. Interattivo: EEG registra i potenziali durante l’applicazione di TMS ed esecuzione di un compito. Si misura
quando, dove e come la TMS influenza un circuito neurale durante l’esecuzione di un compito e permette di
indagare le relazioni tra attività di circuiti corticali e comportamento.
La TMS è usata per alterare temporaneamente l’attività all’interno di un circuito neurale e studiare i suoi
effetti sull’esecuzione di un compito. È utile per chiarire quali siano i meccanismi di azione della TMS
sull’attività neurale durante l’induzione di effetti comportamentali. Il vantaggio dell’EEG è che permette di
misurare l’attività corticale corrispondente ai diversi stadi di elaborazione dell’indo, con alta risoluzione

86
temporale. È possibile osservare quali aree siano influenzate dalla TMS, quando questi effetti abbiano luogo
e come gli effetti TMS correlino con gli effetti comportamentali.
3. Ritmico: EEG registra i potenziali durante l’applicazione di TMS in modalità ritmica per simulare l’attività
oscillatoria del cervello che si ipotizza essere alla base di un determinato processo mentale. Si può studiare la
relazione causale tra oscillazione corticale e processi percettivi, cognitivi o motori.
Viene usata la TMS per esplorare il ruolo funzionale delle oscillazioni cerebrali nel cervello. L’attività elettrica
è caratterizzata da oscillazioni che riflettono variazioni di eccitabilità neurale. L’evidenza che emerge da studi
EEG/MEG è che alla base dei processi percettivi, cognitivi o motori ci sono specifici fenomeni oscillatori. Ma
con l’uso esclusivo di queste metodiche non è possibile stabilire se la relazione tra l’attività oscillatoria e
l’evento cognitivo abbia natura correlazionale o causale. Per dimostrare la causalità, si usano tecniche
combinate che registrano cambiamenti oscillatori e possono anche modularne l’attività oscillatoria. Con la
TMS è possibile stimolare ritmicamente il cervello a frequenze corrispondenti a quelle cerebrali naturali,
funzionalmente rilevanti.

10.4.2 TDCS E NEUROIMMAGINI


Anche la tDCS può essere usata in associazione a neuroimaging con paradigmi offline per la comprensione di quali
effetti siano prodotti dalla tDCS sulla plasticità neurale e anche con protocolli online per la misurazione diretta
degli effetti acuti indotti da questa metodica.

Le misure elettrofisiologiche (TMS/tDCS) non permettono di visualizzare gli effetti indotti dalla stimolazione su
tutto il cervello. Al fine di comprendere meglio gli effetti di plasticità neurale e i meccanismi d’azione della tDCS,
questa metodica viene usata insieme a neuroimaging. I primi studi di tDCS e neuroimaging funzionale si sono
concentrati su M1. In uno studio PET offline Lang e colleghi hanno studiato quali fossero gli effetti della tDCS su
cambiamenti di flusso ematico cerebrale dopo 10 minuti di stimolazione anodica, catodica o sham di M1. Sia la
stimolazione catodica che quella anodica, viene indotto un pattern di cambiamenti di flusso ematico in entrambi
gli emisferi sia in aree corticali che sottocorticali. 10 minuti di stimolazione inducono effetti duraturi sulle
attivazioni cerebrali che non sono limitati alle aree vicine agli elettrodi ma comprendono anche aree remote
dell’emisfero opposto. Anche la fMRI è usata per mappare gli effetti della tDCS sulle attivazioni cerebrali. in uno
studio, fMRI è stata usata per misurare i cambiamenti del segnale BOLD durante un compito di opposizione
sequenziale delle dita dopo 5 minuti di stimolazione anodica o catodica di M1. Quella catodica ha prodotto una
riduzione globale nel numero medio dei voxel attivati, quella anodica non ha indotto alcun effetto. Questi risultati
suggeriscono che la riduzione di eccitabilità neurale indotta dalla stimolazione catodica causa una riduzione di
attivazione cerebrale e dimostrano la possibilità di rilevare con fMRI cambiamenti dovuti a stimolazioni con tDCS.

Studi hanno dimostrato la fattibilità della combinazione tDCS-fMRI: Kwon e colleghi hanno usato una stimolazione
tDCS anodica su M1 sinistra durante fMRI. Studi successivi hanno usato paradigmi tDCS-fMRI simili su M1, alcuni
studi hanno confermato questi risultati mentre altri non hanno trovato corrispondenza. Antal e colleghi avanzano
l’ipotesi che la mancanza di parallelismo tra misure elettrofisiologiche e segnali BOLD possa dipendere dal fatto
che le due tecniche misurano meccanismi fisiologici diversi.

Recentemente la tDCS è stata usata in modo oscillatorio in combinazione con EEG, per interagire con l’attività
ritmica cerebrale e indagare i ritmi endogeni sottostanti il funzionamento cerebrale similmente a quanto è
possibile fare con la TMS ritmica.

87
CAPITOLO 11: CONSIDERAZIONI CONCLUSIVE (1 PAG.)
Si considerano i principali parametri che devono essere tenuti in considerazione nella scelta dell’una o dell’altra
tecnica. La scelta deve essere in relazione, innanzitutto, al quesito clinico o di ricerca a cui si intende rispondere.

Parametri da considerare:

A. Risoluzione spaziale (accuratezza con cui si può misurare dove un evento stia avvenendo) e temporale
(accuratezza con cui si può misurare quando un evento sta avvenendo):
a. EEG/ERP e MEG: sono temporalmente accurate, perché misurano direttamente l’attività neuronale.
La loro risoluzione spaziale non è ottimale a causa delle difficoltà di localizzazione della sorgente di
attività. La MEG, rispetto all’EEG, ha il vantaggio che il segnale magnetico non risente dell’interferenza
delle strutture interposte tra tessuto cerebrale e cute. Con la tecnica degli ERP intracranici, altamente
invasiva, si può coniugare l’eccellente risoluzione temporale ad una risoluzione spaziale nell’ordine
dei micron.
b. fMRI e metodiche di medicina nucleare: forniscono un’immagine accurata dell’intero volume
cerebrale ma hanno una risoluzione temporale inferiore alle precedenti. Hanno un picco di
attivazione dopo 4-6 sec dall’effettiva attività cellulare, ma sono stati sviluppati algoritmi in grado di
renderne conto in fase di analisi dei dati. fMRI ha rapporto di proporzionalità inversa tra risoluzione
spaziale e temporale: aumentando la precisione temporale, occorre acquisire le immagini in modo
più rapido con minore dettaglio spaziale. La risoluzione temporale dell’fMRI è nell’ordine di qualche
secondo. Per le metodiche di medicina nucleare, la risoluzione temporale dipende dall’emivita del
radiofarmaco usato.
c. Metodiche di stimolazione cerebrale (TMS/tDCS): la rilevazione degli effetti prodotti avviene tramite
misurazioni elettrofisiologiche o attraverso misure comportamentali o con metodiche di
neuroimmagine. La risoluzione temporale della TMS è di per sé ottima. La combinazione di TMS-EEG
consente di sfruttare massimamente l’ottima risoluzione temporale della TMS. La risoluzione spaziale
della TMS è tipicamente di 1-2cm, è limitata nel suo potere di penetrazione.
B. Invasività/effetti che l’utilizzo può avere sul tessuto biologico:
a. ERP intracraniche: sono altamente invasive e limitate nei casi di intervento chirurgico.
b. EEG/ERP di superficie e MEG: non invasive e non hanno limiti di uso.
c. MR: la sua invasività dipende dalla necessità dell’iniezione di un agente di contrasto.
d. fMRI: basata sul segnale BOLD, non richiede mezzo di contrasto.
e. Segnali MR/fMRI: producono radiazioni non ionizzanti, non causano alcun rischio grave. Sono
comunque da evitare in gravidanza o in persone con pacemaker.
f. Tecniche radiografiche (CT): producono radiazioni ionizzanti (raggi X).
g. PET/SPECT: necessitano di iniezione di radioisotopi, quindi il loro uso è limitato a esami di evidente
utilità clinica e/o sociale.
C. Caratteristiche tecniche che rendono certe metodiche più facilmente impiegabili di altre o più adatte ad
alcuni tipi di studi:
a. EEG: registrata in contesti naturali.
b. NIRS: consente registrazioni in movimento permettendo studi sulla effettiva deambulazione.

88
APPENDICE: CONCETTI DI BASE DI STATISTICA PER LA RICERCA
SPERIMENTALE (7 PAG.)
A.1 Tecniche descrittive
Media. Somma di tutte le misurazioni x divisa per il numero di misurazioni N.

∑𝑁
𝑖=1 𝑥𝑖
𝑋̅ =
𝑁

Deviazioni o scarti dalla media. Quanto una qualsiasi misurazione differisce dalla media.

𝑑 = 𝑥 − 𝑋̅

Varianza. La somma tra gli scarti è zero. Per poter avere una singola misura di quanto i dati si discostano dalla
media, occorre elevare al quadrato le singole deviazioni ottenendo tutte quantità positive e quindi in grado di
essere sommate tra loro. Il valore ottenuto viene poi diviso per il numero di misurazioni.
𝑁
∑𝑖=1(𝑥𝑖 − 𝑋̅)2
2
𝑠 =
𝑁

Deviazione standard. La varianza ha come unità di misura il quadrato dell’unità di misura dei valori di riferimento.
Per avere una grandezza comparabile con quella di partenza, occorre estrarre la radice quadrata della varianza. La
deviazione standard fornisce un’indicazione di quanto i dati siano più o meno dispersi intorno alla media.

𝑁
√∑𝑖=1(𝑥𝑖 − 𝑋̅)2
𝑠=
𝑁

A.2 Tecniche inferenziali


A.2.1 STIMA DEI PARAMETRI
Stima della media dalla popolazione. La media del campione ̅̅̅
(𝑋) è una stima della media della popolazione (𝜇)
da cui il campione è estratto. Negli studi di neuroimmagine la media della popolazione è la media del segnale di
un dato voxel per tutte le misurazioni che in teoria si potrebbero fare su quel soggetto o su tutti i soggetti che il
campione di persone intende rappresentare.

𝜇 = 𝑋̅

Stima della deviazione standard della popolazione. Al denominatore troviamo N-1 e questo fa sì che la stima sia
un po’ più grande di quella che si otterrebbe con N, correggendo così la tendenza che si avrebbe a sottostimare le
incertezze.

𝑁
√∑𝑖=1(𝑥𝑖 − 𝑋̅)2
𝜎=
𝑁−1

Gradi di libertà. Numero dei dati effettivamente disponibili per valutare la quantità di info contenuta nella stima
che si sta calcolando. Un dato non è indipendente o libero quando l’info che esso fornisce è già contenuta
implicitamente negli altri dati. Generalmente si calcolano N-1 gradi di libertà. Si tratta del numero di componenti

89
libere di variare, che corrisponde al numero di componenti che devono essere conosciute affinché la funzione
possa essere determinata.

Il calcolo di ciascuna stima probabilistica tiene conto dei gradi di libertà perché calcolare la statistica considerando
solo il numero di osservazioni indipendenti porta a una maggiore precisione dei risultati. I gradi di libertà
dipendono dal tipo di statistica che si vuole calcolare e dal numero di misurazioni compiute.

A.2.2 LIVELLI DI INCERTEZZA DEI PARAMETRI STIMATI


Alcuni indici possono dare un’idea di quanta fiducia si possa riporre nei parametri stimati.

Assunzioni sulla distribuzione dei dati. In molti casi la distribuzione dei dati può essere rappresentata con una
curva normale o gaussiana. I parametri che caratterizzano una curva di distribuzione sono la posizione e la forma.

Ci sono delle assunzioni teoriche: se estraessimo n campioni dalla popolazione, le medie campionarie si
distribuirebbero secondo una curva normale. È in riferimento a tale distribuzione campionaria che è possibile fare
inferenze sulla popolazione di riferimento, a partire dalle misurazioni ottenute sul campione studiato.

Per poter calcolare la probabilità con cui i valori del campione siano rappresentativi della popolazione o per
calcolare un intervallo di valori entro cui, con un certo livello di probabilità, si stima ricadere un certo parametro,
è necessario fare assunzioni sulla distribuzione campionaria delle medie. Si assume che essa si distribuisca secondo
una curva normale o gaussiana.

Distribuzione normale. Ha una forma a campana, il valore centrale o picco, coincide con media, mediana e moda.
Se il campione che si ha a disposizione è sufficientemente grande, si può assumere che la media del campione si
situi intorno alla media di una distribuzione campionaria delle medie con forma normale.

Standardizzazione dei dati: punteggi z. I dati raccolti sono espressi nell’unità di misura della VD, spesso è utile
riportare i dati ad una distribuzione normale standardizzata, ossia che non dipende dall’unità di misura della VD.
Questa distribuzione ha media 0 e deviazione standard 1. Per standardizzare i dati si trasforma ogni punteggio
grezzo nel corrispondente punteggio standard. Il punteggio z rappresenta il numero di deviazioni standard dalla
media. Questo permette di valutare dove ciascun valore del campione ricada all’interno di una distribuzione
normale standardizzata. Ad ogni valore di z è associato un valore che rappresenta la probabilità che un punteggio
compreso tra la media della distribuzione e quel valore si verifichi nell’ipotesi che provenga da quella popolazione.

(𝑥 − 𝑋̅)
𝑧=
𝑠

Errore standard. Stima della variabilità, intesa come grado di incertezza, di una statistica rispetto al valore “vero”
della popolazione. L’errore standard della media corrisponde alla deviazione standard della distribuzione
campionaria delle medie. In teoria, se estraessimo n campioni dalla popolazione, la media delle medie dovrebbe
avvicinarsi a quella della popolazione. Più è grande il campione, minore sarà l’incertezza. A livello pratico, per
stimare l’errore standard della media, usiamo la stima della deviazione standard della popolazione rapportata alla
radice quadrata della grandezza del campione.

L’errore standard è l’errore associato ad un determinato parametro stimato, errore dovuto al processo di
generazione del campione. È utile per calcolare gli intervalli di confidenza e i test di significatività.
𝑠
𝑆𝐸𝑥̅ =
√𝑁
90
Margine di errore. Si fissa un livello di confidenza (es. p=0,95), che è la percentuale di fiducia (95%). Il relativo
livello 𝛼, che rappresenta la probabilità di errore, è dato da 1 – livello di confidenza (𝛼 = 0,05). Si calcola il
punteggio critico corrispondente al livello di confidenza stabilito (z=1,96). Poi si calcola l’errore standard.

Il margine di errore è determinato dal punteggio z critico moltiplicato per l’errore standard. Il margine serve per
calcolare gli intervalli di confidenza.

𝑧𝑐𝑟𝑖𝑡𝑖𝑐𝑜 × 𝑆𝐸

Intervalli di confidenza (statistica ± margine di errore). Intervallo dei valori entro cui si stima ricadere un
parametro all’interno della popolazione. A tale intervallo è associato un livello di confidenza. Questi intervalli
forniscono una misura di quanto la statistica che si è calcolata sia affidabile.

A.2.3 TEST STATISTICI: VALUTAZIONE DI IPOTESI E SIGNIFICATIVITÀ


Per confrontare le misurazioni ottenute in due o più condizioni sperimentali e inferire se le differenze tra le medie
siano reali, si utilizzano i test di ipotesi.

Si testa l’ipotesi di ricerca (H1: manipolazione della VI ha effetto sulla VD) contro l’ipotesi nulla (H0: manipolazione
della VI non ha effetto sulla VD). H0 predice che i valori osservati nella VD saranno distribuiti in modo simile tra le
condizioni ed ogni differenza sia dovuta al caso. Il risultato del test fornisce un’indicazione, o giudizio di probabilità,
che la differenza osservata tra le medie e/o le varianze nelle diverse condizioni o nei campioni esaminati sia da
attribuire al caso (H0) o se sia statisticamente significativa (non attribuibile al caso, ovvero rifiuto H0 e accetto H1).

In uno studio di neuroimmagine la significatività di una differenza sarà legata positivamente all’intensità del
segnale e alla dimensione del campione.

• H0 o ipotesi nulla: si intende falsificare. Le condizioni non differiscono significativamente, le differenze tra
i parametri nel/nei campioni osservati sono da attribuire al caso. Ovvero le medie osservate sono uguali
alla stessa media di popolazione: 𝜇0 = 𝜇1 .
• H1 o ipotesi di ricerca o ipotesi alternativa: si accetta nel caso in cui venga falsificata l’ipotesi nulla. Le
condizioni differiscono significativamente 𝜇0 ≠ 𝜇1 .

Per fare un test di significatività si usano:

• 𝛼 (livello alfa): soglia delle significatività statistica, stabilita dallo sperimentatore. Rappresenta la
probabilità di errore del tipo I: probabilità di rifiutare H0 quando in realtà è vera (comporta l’accettare H1
quando in realtà è falsa) → falsi positivi.
• 1 − 𝛼 (coefficiente di confidenza): rappresenta la probabilità di accettare H0 quando è realmente vera
(comporta rifiutare H1 quando è davvero falsa) → veri negativi.
• 𝛽 (beta): probabilità di errori di tipo II, ovvero la probabilità di accettare H0 quando in realtà è falsa →
falsi negativi.
• 1 − 𝛽: probabilità di rifiutare H0 quando è realmente falsa e accettare H1 quando realmente vera → veri
positivi.

Un test di significatività ha una regione di rifiuto per H0, per ogni dato livello di significatività. La regione di rifiuto
è l’insieme di tutti i valori della statistica test che non è probabile che si verifichino quando H0 è vera, mentre è
probabile che questi si verifichino quando H0 è falsa.

91
La distribuzione normale standardizzata viene usata quando si conosce la varianza nella popolazione di riferimento
o quando si hanno campioni numerosi. Quando invece si hanno campioni ristretti si usano distribuzioni simili alla
normale standardizzata ma che tengono conto anche della variabilità dovuta a campionamento. Si usa la
distribuzione t di Student e/o la distribuzione F per tre o più condizioni e si procede così:

1. Si decide il livello di alfa;


2. Si sceglie il test di significatività idoneo per il tipo di dati e di confronto che si intende compiere;
3. Si esegue il test di significatività stimando il parametro. Tutti i test di significatività estraggono la variabilità
dei dati dovuta alla manipolazione sperimentale (VI) dal resto della variabilità, dovuta all’errore. Ciò fa sì che
la decisione circa la significatività della differenza sia basata su: (1) ampiezza della differenza tra le medie
(dimensione dell’effetto): maggiore è la differenza tra medie, maggiore è la probabilità che sia significativa;
(2) ampiezza dell’errore standard: più elevata è la variabilità dei dati (quindi l’errore di stima) più è bassa la
probabilità che le differenze osservate tra le medie siano significative; (3) grandezza del campione.
4. Si determina la probabilità (p) di ottenere il valore del parametro stimato nel caso in cui H0 sia vera: è
determinata in base alla distribuzione di riferimento e ai gradi di libertà,
5. Se la probabilità è uguale o superiore ad alfa, non si può rifiutare H0. Se ne conclude che non c’è differenza
significativa tra le condizioni. Se invece p è inferiore ad alfa, si può rifiutare H0 e accettare H1.

T di Student.

̅̅̅̅
𝑿𝟏 − 𝑿 ̅𝟐
𝒕= 𝒔
√𝑵

È una distribuzione simmetrica con ampiezza dipendente dal numero di osservazioni del campione. Il test di
significatività t è usato per confrontare le medie di due distribuzioni di dati. Il parametro t è dato dal rapporto tra
la differenza delle medie e il suo errore standard, tenendo conto della numerosità. Si usa per campioni dipendenti
quando si ha un unico gruppo sottoposto a due diverse condizioni. Si usa per campioni indipendenti quando si
hanno due gruppi sottoposti allo stesso compito. T è uguale a 0 se le due medie sono uguali e si scosta dallo 0 in
modo tanto più elevato quando più elevata è la differenza osservata tra le due medie.

Analisi della varianza: ANOVA. Utilizza le funzioni di distribuzione F. Per determinare se ci sono differenze tra
medie di due o più gruppi o condizioni, confronta la variabilità tra le distribuzioni con la variabilità all’interno delle
distribuzioni. La variabilità tra distribuzioni è misurata confrontando le medie delle singole distribuzioni con la
media globale delle distribuzioni: è una misura diretta di quanto le medie delle distribuzioni siano diverse l’una
dall’altra. La variabilità casuale può essere calcolata, all’interno di ciascuna distribuzione, in termini di scarti dalle
osservazioni dalla propria media. Poi si può calcolare quanto le differenze tra le distribuzioni siano grandi
confrontate alla quantità di variabilità casuale; si può così determinare quanto sia probabile ottenere differenze
grandi come quelle osservate, solo a causa della variabilità casuale. F è uguale a 1 se la varianza dovuta all’effetto
è uguale a quella casuale; affinché F risulti significativo, la varianza dovuta all’effetto deve essere superiore a quella
dovuta al caso.

Il rapporto tra variabilità dovuta all’effetto e il totale della variabilità produce il coefficiente 𝜂 2 (eta) che dà una
misura compresa tra 0 (VI non spiega niente di VD) e 1 (tutta la variabilità di VD è spiegata da VI), in modo analogo
al coefficiente 𝑅 2 calcolato nell’analisi di regressione.

92
Dall’ANOVA si può inferire se c’è una differenza tra le distribuzioni, ma non dove è la differenza. Se il test è
significativo vuol dire che almeno una delle distribuzioni esaminate ha valori differenti da almeno un’altra. Per
capire quali condizioni differiscono, occorre eseguire ulteriori test statistici, quali contrasti o post-hoc, così da
confrontare ogni distribuzione con ogni altra: corrispondono al condurre t-test tra coppie di distribuzioni. Ma
condurre confronti multipli aumenta la possibilità di errori. Per evitare gli errori derivati dai confronti multipli,
occorre abbassare il livello globale di errore: un modo è dividere alfa per il numero di confronti che si stanno
effettuando (correzione di Bonferroni).

Negli studi di neuroimaging, ogni test statistico è eseguito ad ogni voxel dell’area cerebrale considerata: negli studi
“voxelwise” si considera tutto l’encefalo, quindi un minimo di 50mila voxel; in altri si considerano solo specifiche
regioni di interesse, ma in ogni caso i confronti multipli sono moltissimi e quindi le relative correzioni sono
necessarie.

ANOVA a una via. Consente di confrontare due o più gruppi, al variare di un’unica VI. È quindi un’estensione del t
di Student per campioni indipendenti, usata quando i gruppi da confrontare sono più di due.

ANOVA a misure ripetute. Consente di confrontare die o più condizioni, a cui un unico gruppo di soggetti è
sottoposto, al variare di un’unica VI. È un’estensione del t di Student per campioni dipendenti, usata quando le
condizioni da confrontare sono più di due.

ANOVA a due vie (o mista). Consente di confrontare due o più gruppi o condizioni al variare di più VI e valutare le
loro interazioni. L’ANOVA compie i confronti per ciascun fattore, valuta l’interazione tra essi.

Correlazione lineare. Utile per esplorare la relazione tra due variabili, calcolando il coefficiente di correlazione (r),
che indica la forza e direzione della relazione. Non valuta l’effetto di una relazione su un’altra (causa-effetto) ma
confronta le misurazioni eseguite su due variabili e indica se e quanto queste siano relate tra loro. I cambiamenti
di entrambe le variabili potrebbero essere determinati da una terza variabile, quindi non c’è causa-effetto.

La covarianza delle due variabili è data dall’interazione (prodotto) tra la sommatoria delle distanze di ogni valore
della variabile X dalla rispettiva media e la sommatoria delle distanze di ogni valore dalla variabile Y dalla rispettiva
media, rapportata al numero delle misurazioni.
𝑁
∑𝑖=1(𝑋1 − 𝑋̅) × (𝑦1 − 𝑌̅)
𝑐𝑜𝑣(𝑋, 𝑌) =
𝑁−1

Per ottenere una misura della relazione che non dipenda dall’unità di misura, si calcola la covarianza sulle X e le Y
standardizzate, ovvero il rapporto tra il coefficiente di covarianza e il prodotto delle deviazioni standard delle due
variabili.

𝑐𝑜𝑣(𝑋, 𝑌)
𝑟𝑋𝑦 =
𝑠𝑋 𝑠𝑦

Si ottiene così il coefficiente di correlazione, che varia da -1 a +1.

Per valutare la significatività del coefficiente di correlazione si usa un t-test, che rapporta ai residui la differenza
tra la linea di maggiore adattamento ai dati e una linea parallela all’asse X, passante per la media di Y. Il valore di
p associato indica quanto è probabile ottenere una correlazione di quella forza o superiore, con quel numero di
soggetti, se nella popolazione di riferimento le due variabili non sono correlate in alcun modo. Un alto valore di r

93
indica un’alta correlazione, mentre un alto valore di p indica che il risultato ottenuto è probabile che avvenga
anche se le due variabili non sono in realtà correlate. Si considera significativa una correlazione se 𝑝 ≤0,05.

È fondamentale l’osservazione del grafico dei dati. Esso rivela la presenza di outliers che eventualmente si possono
anche eliminare.

Negli studi di neuroimmagine la correlazione può essere usata per valutare se il volume o l’attività in determinate
aree cerebrali aumenta o diminuisce congiuntamente a qualche altro parametro misurato all’interno del gruppo.
È usata per confrontare il modello delle risposte cerebrali attese con l’andamento effettivo delle risposte cerebrali,
può anche essere usata al posto di un t-test e corrisponde ad una regressione semplice.

Regressione lineare. Quando si può assumere a priori quale variabile costituisca la causa e quale l’effetto si può
ipotizzare che tra le due variabili sussista una relazione funzionale. La regressione stabilisce se esiste una relazione
tra variabili e analizza la forma e la direzione di tale relazione. Per valutare la relazione tra var, è possibile calcolare
la linea di miglior adattamento ai dati, ovvero la linea che è più vicina al maggior numero di punti. Le distanze tra
linea e punti sono dette residui.

La regressione consente di fare predizioni sull’andamento della VD sulla base della conoscenza della/e VI. Si può
costruire un modello di come una VD (effetto) risponde ad una VI (causa) ed è possibile stimare ogni valore della
VD a partire da quello della VI.

La regressione lineare semplice ha un’equazione: 𝑌 = 𝑎 + 𝑏𝑋 dove Y è la VD, X è la VI, a è l’intercetta e b la


pendenza della retta. Tale retta passa per il punto (𝑋̅, 𝑌̅). Vengono stimati: “b”, che è dato dal rapporto tra la
covarianza di X e Y e la varianza di X; “a” che è dato da (𝑋̅, 𝑏𝑌̅). Ogni valore di Y è predicibile con l’equazione di
regressione. La differenza tra valori ottenuti e predetti di Y rappresentare l’errore statistico ε. La variazione totale
nei dati di Y in parte è spiegata dalla regressione e in parte no. La varianza non spiegata è dovuta all’errore di
campionamento e/o ad altre variabili che non sono state considerate nel modello. La bontà di regressione è
definita dal coefficiente di determinazione 𝑅 2 che varia da 0 a 1 e rappresenta il rapporto tra varianza spiegata e
quella totale.

Per valutare la significatività del coefficiente di regressione nella popolazione, si esegue un t-test in cui H0: b=0,
sostiene quindi che non vi sia relazione tra VI e VD. Il valore test si ottiene con:

𝑏 − 𝐻0
𝑡=
𝑆𝐸𝑏

Per valutare l’ipotesi di significatività del modello di regressione si esegue un test F che esamina il rapporto tra
varianza spiegata dalla regressione e varianza residua. La regressione semplice determina la forma della relazione
tra due variabili: una VI (predittore) e una VD (criterio o target). La regressione multipla determina la forma della
relazione tra più variabili: due o più VI o predittori, e una VD o criterio.

Regressione semplice. Determina la forma della relazione tra una VI e una VD. Negli studi di neuroimmagine la
regressione è usata spesso quando l’ipotesi sperimentale include specifiche aspettative circa la forma dei
cambiamenti dell’attività cerebrale. È usata per quantificare la corrispondenza tra il modello della risposta
predetta e i dati osservati. Il test trova la correlazione tra il predittore (VI) e il segnale cerebrale (VD), estrae il
valore r, il p associato e calcola 𝑅 2. Quest’ultimo rappresenta la proporzione di variabilità presente nelle attivazioni
cerebrali, che è spiegata/predetta dal modello della risposta cerebrale.

94
Regressione multipla. Determina la forma della relazione tra due o più VI, e una VD. Quando si hanno più VI,
correlare separatamente ogni VI con la VD non è un buon metodo. Con la regressione multipla si possono
considerare congiuntamente più VI e vedere come lavorano insieme per predire la VD, ovvero quanto l’insieme
dei predittori riesce a spiegare la VD.

La visualizzazione grafica è complessa, per ogni variabile che si aggiunge nel modello, si aggiunge un’ulteriore
dimensione nello spazio geometrico.

r è il coefficiente di correlazione multipla, e varia da 0 a 1; più è alto, migliore è la predizione raggiunta dal modello.
𝑅 2 corretto tiene conto dell’aumento che la semplice introduzione di una nuova VI nel modello determina sul
coefficiente di determinazione. Il suo valore è uguale o più basso di quello di 𝑅 2 normale. È buona norma poi
valutare modelli con più VI quando si hanno a disposizione un buon numero di osservazioni, così da procedere a
stime più stabili dei parametri.

Per conoscere il contributo di ogni VI al modello di regressione, occorre osservare i coefficienti non standardizzati
B per ogni VI: essi indicano la relazione tra ogni VI e VD in termini di quantità reale misurata nelle unità di
misurazione dei dati. Spesso è utile avere misure standardizzate; a questo scopo si usano coefficienti standardizzati
β (valori beta): ad ogni deviazione standard di cambiamento della VD, la VI cambia di β deviazioni standard. Nella
regressione semplice il β corrisponde al valore di r.

Le statistiche in generale sono affidabili quando le VD si distribuiscono normalmente e con deviazione standard
omogenea per ogni valore della VI. Il requisito di normalità viene soddisfatto anche in presenza di moderata
asimmetria se il campione è sufficientemente numeroso.

95

Potrebbero piacerti anche