Sei sulla pagina 1di 220

Mario Coriasco

Osvaldo Rampado
Nello Balossino
Sergio Rabellino

L'immagine digitale
in diagnostica per immagini

Imaging formazione
&
Tecniche e applicazioni

ABC
L’immagine digitale in diagnostica per immagini
Mario Coriasco · Osvaldo Rampado · Nello Balossino ·
Sergio Rabellino

L’immagine digitale
in diagnostica per immagini
Tecniche e applicazioni

Presentazione a cura di
Francesco Sicurello
Luisa Begnozzi
Alessandro Beux
Mario Coriasco Osvaldo Rampado
Dipartimento di Neuroscienze S. C. Fisica Sanitaria
Università di Torino A.O. Città della Salute e della Scienza
Torino

Nello Balossino Sergio Rabellino


Dipartimento di Informatica Dipartimento di Informatica
Università di Torino Università di Torino

I lettori possono accedere a un software gratuito (http://eidos.di.unito.it/eidoslab.php), un vero e pro-


prio laboratorio di elaborazione di immagini con il quale esercitarsi a riprodurre gli esempi di ela-
borazione illustrati.

In copertina: una elaborazione grafica agli pseudo-colori del modulo della trasformata di Fourier
di un'immagine digitale (Mario Coriasco, Sergio Rabellino).

ISSN 2239-2017

ISBN 978-88-470-5363-2 ISBN 978-88-470-5364-9 (eBook)

DOI 10.1007/978-88-470-5364-9

© Springer-Verlag Italia 2013

Quest’opera è protetta dalla legge sul diritto d’autore e la sua riproduzione anche parziale è ammessa esclusivamente
nei limiti della stessa. Tutti i diritti, in particolare i diritti di traduzione, ristampa, riutilizzo di illustrazioni, recita-
zione, trasmissione radiotelevisiva, riproduzione su microfilm o altri supporti, inclusione in database o software, adat-
tamento elettronico, o con altri mezzi oggi conosciuti o sviluppati in futuro, rimangono riservati. Sono esclusi bre-
vi stralci utilizzati a fini didattici e materiale fornito ad uso esclusivo dell’acquirente dell’opera per utilizzazione su
computer. I permessi di riproduzione devono essere autorizzati da Springer e possono essere richiesti attraverso Ri-
ghtsLink (Copyright Clearance Center). La violazione delle norme comporta le sanzioni previste dalla legge.
Le fotocopie per uso personale possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento al-
la SIAE del compenso previsto dalla legge, mentre quelle per finalità di carattere professionale, economico o com-
merciale possono essere effettuate a seguito di specifica autorizzazione rilasciata da CLEARedi, Centro Licenze e
Autorizzazioni per le Riproduzioni Editoriali, e-mail autorizzazioni@clearedi.org e sito web www.clearedi.org.
L’utilizzo in questa pubblicazione di denominazioni generiche, nomi commerciali, marchi registrati, ecc. anche se
non specificatamente identificati, non implica che tali denominazioni o marchi non siano protetti dalle relative leg-
gi e regolamenti.
Le informazioni contenute nel libro sono da ritenersi veritiere ed esatte al momento della pubblicazione; tuttavia, gli
autori, i curatori e l’editore declinano ogni responsabilità legale per qualsiasi involontario errore od omissione. L’e-
ditore non può quindi fornire alcuna garanzia circa i contenuti dell’opera.

9 8 7 6 5 4 3 2 1

Layout copertina: Ikona S.r.l., Milano

Impaginazione: C & G di Cerri e Galassi, Cremona


Stampa: Esperia S.r.l., Lavis (TN)

Springer-Verlag Italia S.r.l., Via Decembrio 28, I-20137 Milano


Springer fa parte di Springer Science+Business Media (www.springer.com)
Presentazione

Da sempre i processi decisionali umani, necessari a comprendere fenomeni naturali e


sociali o a risolvere i problemi connessi, necessitano di elaborazione, analisi e valuta-
zione di parametri, variabili ed elementi informativi utili al caso; questi ultimi si pre-
sentano sotto svariate forme (testi, dati, grafici, segnali, immagini, suoni).
L’informazione da cui trarre supporto alle decisioni, oltre a presentarsi in forme va-
rie, può essere registrata su diversi tipi di documenti (fisici, cartacei, elettronici) che
possono contenere: testi scritti per esprimere concetti e descrivere esperienze, dati nu-
merici o alfanumerici come risultati di misurazioni o di codifiche, segnali acustici e trac-
ciati, immagini, forme pittoriche ed eidetiche che raffigurano o fotografano uno o più
aspetti della realtà osservata.
Ciò storicamente è sempre avvenuto, con metodologie, tecnologie e strumenti diver-
si e sempre più evoluti, in quasi tutti i campi di studio e dell’osservazione umana: dal-
le scienze naturali pure e applicate a quelle economiche e sociali: dalla fisica alla chi-
mica, dalla biologia alla medicina, dall’economia alla sociologia, dalla meteorologia al-
la sismologia, e così via.
In campo biomedico e sanitario, a cui gli autori del libro principalmente si riferisco-
no, i servizi diagnostici erogati ai pazienti da ambulatori specialistici, ospedali e centri
clinici direttamente o anche a distanza (con sistemi di telemedicina) sono ormai basati
su segnali e immagini di tipo digitale e il loro trattamento automatico costituisce un va-
lido apporto al decision-making dei medici e degli operatori sanitari.
Nelle diverse strutture diagnostiche, come ad esempio le divisioni di radiologia, so-
no presenti ormai sofisticate e complesse apparecchiature biomedicali, strumentazioni
e biodevices innovativi ed evoluti che consentono di “osservare” approfonditamente e
raccogliere informazioni sempre più precise per la definizione di un completo quadro
clinico del paziente.
La diagnostica per immagini, con il suo impatto visivo, fornisce un notevole aiuto al
processo diagnostico-terapeutico nella quotidiana attività di cura e assistenza sanitaria, spe-
cialmente nei campi medici più complessi come quelli dei tumori o delle patologie neu-
rologiche, ma anche in cardiologia, ortopedia e nel monitoraggio di malattie croniche.
L’obiettivo è sempre quello di arrivare in tempi rapidi a una corretta diagnosi, per
esempio consentendo nelle malattie oncologiche di individuare con maggior precisio-
ne la sede delle alterazioni e la loro natura, riducendo così i margini di errore nelle te-
rapie.

v
vi Presentazione

La diagnostica per immagini, in particolare nel settore radiologico, fino a non molti
anni fa dominata da strumentazioni di tipo analogico, ha subito un cambiamento profon-
do, grazie all’introduzione di nuovi apparati tecnologici (quali NMR, TAC, PET, OCT,
retinografi, ecografi, angiografi, mammografi, ecc.) che forniscono immagini in formato
digitale. Il passaggio dall’analogico al digitale, non solo in radiologia ma anche in altri
settori clinico-diagnostici come, per esempio, in cardiologia, oftalmologia, neurofisio-
logia, anatomia patologia, offre all’operatore sanitario tutti i vantaggi del trattamento
automatico delle immagini (acquisizione, ricostruzione, archiviazione, trasmissione, ana-
lisi) come rapidità di elaborazione, economicità e maggiore efficacia.
In questo contesto si stanno sempre più diffondendo sistemi informatici di archivia-
zione e comunicazione di immagini come il Picture Archiving and Communication Sy-
stem (PACS), che vengono integrati nei sistemi e sottosistemi informativi sanitari (Si-
stema Informativo Ospedaliero, SIO; Radiological Information System, RIS; ecc.).
Qui assumono notevole rilevanza e importanza i sistemi di interoperabilità, gli stan-
dard informatici e di comunicazione, per far sì che ci possa essere indipendenza tecno-
logica dalle modalità o dagli strumenti che producono segnali o immagini. Per queste
ultime, per esempio, vi è uno standard ormai affermato denominato Digital Imaging and
Communication in Medicine (DICOM), usato per l’archiviazione e lo scambio di im-
magini biomediche, specialmente in campo radiologico.
La messa in opera e la gestione dei sistemi di diagnostica per immagini richiedono
anche un’adeguata organizzazione e la disponibilità di specifiche figure professionali
che, assieme alle competenze tipiche degli operatori e tecnici sanitari, abbiano una co-
noscenza di informatica e di tecniche di trattamento e gestione delle immagini e siano
in grado di comprendere il funzionamento di sistemi informatici complessi e multime-
diali. In tal senso, una nuova figura tecnico-professionale può essere quella di Ammi-
nistratore di Sistemi Informatici in Diagnostica per Immagini, che oggi viene formata
con livelli di preparazione adeguata come corsi di laurea o master di 1° e 2° livello.
Nella stesura del testo gli autori si sono ispirati ai temi sopra accennati e hanno sfrut-
tato la loro esperienza interdisciplinare in ambito eidetico. Ne è nato così un volume
che descrive fondamenti utili per acquisire, elaborare e valutare le immagini radiologi-
che con un approccio interdisciplinare, che coniuga contributi tecnico-scientifici della
fisica, informatica, biomedicina e radiologia: medici, tecnici di radiologia, ricercatori,
tecnologi e professionisti dell’informatica medica, della fisica sanitaria o della teleme-
dicina e tutti gli operatori, in genere, del campo biomedico e sanitario vi troveranno un
valido riferimento conoscitivo e didattico.

Maggio 2013 Prof. Francesco Sicurello


Docente di Informatica Medica e Telemedicina,
Università di Milano Bicocca;
Presidente Istituto Internazionale di TeleMedicina (IITM)/
Associazione Italiana di Informatica Medica e Telemedicina (@ITIM)
Presentazione

Un testo utile. Questa è la sensazione che si ha affrontando la lettura di questo libro.


Utile e chiaro.
Di questo libro, che si propone di analizzare i principali metodi di elaborazione del-
le immagini digitali utilizzando un linguaggio semplice e, in particolare, un elevato nu-
mero di esempi illustrativi, si apprezzano molteplici aspetti: la scientificità, la ricchez-
za e la capillarità dei contenuti, la chiarezza ma soprattutto l’intento, che è quello di
sensibilizzare gli operatori coinvolti nel processo di acquisizione e formazione dell’im-
magine radiologica ad appropriarsi di conoscenze scientifiche idonee, utili alla corret-
ta gestione del processing delle immagini radiologiche in ambito digitale. L’obiettivo è,
infatti, quello di fornire al lettore le chiavi per analizzare le funzioni delle piattaforme
informatiche che utilizzerà nella pratica quotidiana.
Il rapido e diffuso passaggio dalla tecnologia analogica a quella digitale ha compor-
tato un’acquisizione e un uso a volte inconsapevole delle nuove tecnologie e delle rela-
tive potenzialità, in particolare per quanto riguarda quei processi non direttamente con-
trollabili dall’operatore e genericamente gestiti dalle ditte, primo fra tutti il processo di
elaborazione dell’immagine, spesso visto come un’inaccessibile scatola nera.
Tra le tante innovazioni correlate alla diffusione massiccia di immagini digitali in ra-
diodiagnostica, l’introduzione di elaborazioni intrinseche che agiscono senza il diretto
controllo degli operatori, se da un lato ha favorito un indiscutibile miglioramento del-
l’informazione ottenibile, dall’altro ha portato alla perdita di consapevolezza sull’influenza
di alcuni passi del processo di formazione dell’immagine finale. Gli aspetti tecnici ope-
rativi e le prestazioni tecnologiche delle apparecchiature hanno ancora un ruolo impor-
tante, ma sempre più spesso le opzioni disponibili e le scelte effettuate relativamente al
processing sono determinanti per il risultato ottenibile.
Impadronirsi di conoscenze in tale ambito permette all’operatore non solo di essere
consapevole del significato e dell’importanza del processing nella formazione di un’im-
magine radiografica adeguata, ma di essere quotidianamente parte attiva nel processo
di ottimizzazione dell’esame.
Un aspetto importante illustrato nella trattazione e affrontato anche nei numerosi eser-
cizi proposti è quello della quantificazione dei parametri caratteristici e di qualità del-
l’immagine, che sottolinea l’importanza di sfruttare la possibilità offerta dalla tecnolo-
vii
viii Presentazione

gia digitale di utilizzare un approccio quantitativo sia nella valutazione delle prestazio-
ni che nell’analisi di particolari informazioni diagnostiche.
Questo libro rappresenta, pertanto, un valido testo di formazione per gli operatori del
settore, che, grazie all’ausilio di test presenti alla fine di ciascun capitolo, potranno fa-
cilmente valutare l’effettiva preparazione raggiunta nei diversi ambiti affrontati. Tutte le
figure professionali coinvolte sia nelle fasi di acquisizione di una nuova tecnologia che
nella routine operativa dovrebbero prestare, quindi, molta attenzione a questa realtà, nel-
l’ottica dell’ottimizzazione delle risorse e delle prestazioni mediche.
In particolare, il testo rappresenta un importante riferimento per i Fisici medici, dal-
lo specializzando al dirigente: il diretto coinvolgimento nelle fasi di accettazione e con-
trollo delle apparecchiature e, più in generale, nei programmi di assicurazione di qua-
lità del Fisico medico non può, infatti, prescindere dalla conoscenza corretta e comple-
ta della tecnologia con cui si confronta.
Buona lettura!

Maggio 2013 Luisa Begnozzi


Presidente AIFM
presidente@aifm.it
Presentazione

Tra le molte considerazioni che sarebbe possibile fare al termine della lettura di questo
testo, quella che mi sovviene più spontanea è, apparentemente, la più distante dai temi
trattati nel volume. Essa non attiene ai contenuti, bensì al metodo col quale gli autori li
hanno raccolti, organizzati e presentati: una cooperazione multidisciplinare in grado di
elaborare un testo didatticamente efficace.
L’ordine di trattazione degli argomenti, la loro esaustività e la chiarezza della loro
esposizione sono testimonianze della competenza degli autori, sono le componenti tec-
niche che rendono il testo di qualità. Ma ciò che, a mio avviso, lo rende particolarmente
interessante è la componente relazionale; il valore aggiunto di questo volume è rappre-
sentato dall’interazione coordinata e finalizzata tra soggetti portatori di competenze di-
verse, spesso complementari. Più che i contenuti, dunque, le persone che vi hanno la-
vorato e il modo in cui l’hanno fatto.
Forse influenzato dalla mia professione, posso affermare che la differenza tra questo
e altri testi sullo stesso tema sia simile a quella esistente tra un’indagine di radiologia
convenzionale e una tomografia computerizzata. La prima fornisce una rappresentazio-
ne a due dimensioni del segmento corporeo indagato, sfruttando i contributi provenien-
ti da un solo punta di vista alla volta; la seconda consente una rappresentazione tridi-
mensionale, poiché riunisce informazioni acquisite da punti di vista diversi.
Il testo è la sintesi dei contributi provenienti da informatici, fisici medici e tecnici di
radiologia: questo, oltre a renderlo più chiaro e completo, offre al lettore la possibilità
di entrare dentro l’argomento, andando oltre la sola conoscenza di superficie alla qua-
le è limitato chi può solo osservarlo da fuori.
Tale visione “interna” consente al lettore di acquisire non solo le nozioni necessarie
a utilizzare in modo ordinario le tecnologie digitali di diagnostica per immagini, ma an-
che quelle utili a dialogare con esse, al fine di sfruttarne appieno le potenzialità, per
migliorare l’accuratezza delle immagini da esse prodotte, migliorare l’efficienza delle
attività e, se possibile, contenere la dose alla persona.
Un dialogo costruttivo tra la tecnologia e l’operatore che la utilizza è possibile solo
se il secondo conosce il linguaggio e le modalità di pensiero e di azione della prima.
Questo testo garantisce entrambe, rendendo il lettore adeguatamente competente e con-
sapevole.

ix
x Presentazione

Infine, ritengo doveroso riconoscere una particolare rilevanza all’uso esperto che gli
autori fanno dell’iconografia, agevolando il lettore nella comprensione di ciò che sta
prima, dentro e dietro la formazione, la post-elaborazione e l’archiviazione delle im-
magini digitali.

Maggio 2013 Alessandro Beux


Presidente FNCPTSRM
presidenza@tsrm.org
Indice

1 Rappresentazione digitale di segnali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


1.1 Caratteristiche dei segnali e dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Segnali continui e discreti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Il trattamento dell’informazione digitale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1 Il sistema di acquisizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.2 Il sistema di elaborazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Il sistema di distribuzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Grandezze analogiche e digitali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1 Strumenti di misura analogici e digitali . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 La risoluzione di una misura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Il trasduttore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Il sistema campionatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6.1 Il teorema di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6.2 Il teorema del campionamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6.3 Il fenomeno aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7 Il sistema quantizzatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.7.1 Il convertitore A/D: campionamento e quantizzazione . . . . . . . . . . . . . 21
1.8 L’immagine come distribuzione di energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.9 Cenni sull’architettura degli elaboratori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.9.1 L’informazione binaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2 Luce, immagini e visione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41


2.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2 La luce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3 Il principio di indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4 Il raggruppamento percettivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5 Il ricevitore occhio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.6 Proprietà della visione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.7 Il colore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.8 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

xi
xii Indice

3 Introduzione all’immagine digitale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69


3.1 Discretizzazione spaziale e quantizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2 L’istogramma dei livelli di grigio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.3 Le periferiche di visualizzazione e stampa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.4 Il cambio delle dimensioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.5 La valutazione della qualità delle immagini digitali . . . . . . . . . . . . . . . . . . . . . 80
3.5.1 Risoluzione spaziale e funzione di trasferimento della modulazione . 81
3.5.2 Rumore: quantificazione e analisi spettrale . . . . . . . . . . . . . . . . . . . . . 83
3.5.3 Rapporto contrasto-rumore ed efficienza quantica . . . . . . . . . . . . . . . . 84
3.6 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

4 Elaborazione di immagini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.1 Tecniche di elaborazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.2 Distanze fra pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.3 Elaborazioni puntuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.3.1 Look-Up Table . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.3.2 Tecnica degli pseudo colori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.3.3 Le operazioni algebriche tra immagini . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.3.4 Gli operatori logici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.4 Elaborazioni locali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.4.1 I filtri convolutivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.4.2 Rilevazione ed evidenziazione dei bordi . . . . . . . . . . . . . . . . . . . . . . . . 113
4.4.3 La riduzione del rumore e lo smoothing . . . . . . . . . . . . . . . . . . . . . . . . 116
4.4.4 Il filtro mediano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.4.5 L’unsharp masking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.4.6 Gli operatori morfologici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.5 Elaborazioni globali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.5.1 L’istogramma e il miglioramento del contrasto . . . . . . . . . . . . . . . . . . 122
4.6 Elaborazioni nel dominio delle frequenze spaziali . . . . . . . . . . . . . . . . . . . . . . 128
4.6.1 La frequenza spaziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.6.2 La trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.6.3 Proprietà dell’immagine nel dominio trasformato . . . . . . . . . . . . . . . . 131
4.6.4 Le tecniche di filtraggio nel dominio trasformato . . . . . . . . . . . . . . . . 132
4.6.5 Applicazioni dei filtri in frequenza alle immagini . . . . . . . . . . . . . . . . 133
4.6.6 Filtro ideale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.6.7 Filtro Butterworth . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.6.8 Filtro esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.6.9 Filtro trapezoidale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.7 Ripristino di qualità dell’immagine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
4.8 I software per l’elaborazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.9 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

5 Elaborazioni intrinseche alle metodiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153


5.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Indice xiii

5.2 Radiologia digitale proiettiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154


5.3 Mammografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.4 Angioradiologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
5.5 Tomografia computerizzata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

6 La memorizzazione delle immagini digitali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169


6.1 I formati di file per la memorizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
6.2 La compressione delle immagini digitali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
6.2.1 La valutazione della qualità della compressione: il PSNR . . . . . . . . . . 172
6.3 Tecniche di compressione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
6.3.1 Packing Bits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
6.3.2 L’algoritmo RLE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
6.3.3 La perdita di informazione sul colore . . . . . . . . . . . . . . . . . . . . . . . . . . 174
6.3.4 L’algoritmo di codifica di Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
6.3.5 La compressione nello spazio trasformato . . . . . . . . . . . . . . . . . . . . . . 177
6.4 Panoramica dei formati di file per immagini digitali . . . . . . . . . . . . . . . . . . . . 178
6.4.1 Requisiti principali dei formati di immagini medicali . . . . . . . . . . . . . 180
6.4.2 Lo standard DICOM/3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
6.4.3 Lo standard di formato JPEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
6.4.4 Lo standard JPEG 2000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
6.4.5 Lo standard di formato PNG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
6.5 La trasmissione delle immagini digitali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
6.5.1 La sicurezza delle immagini: le tecniche di watermarking . . . . . . . . . 193
6.6 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
Sitografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

Soluzioni esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

Indice analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205


Rappresentazione digitale di segnali
1

Indice dei contenuti


1.1 Caratteristiche dei segnali e dei sistemi
1.2 Segnali continui e discreti
1.3 Il trattamento dell’informazione digitale
1.4 Grandezze analogiche e digitali
1.5 Il trasduttore
1.6 Il sistema campionatore
1.7 Il sistema quantizzatore
1.8 L’immagine come distribuzione di energia
1.9 Cenni sull’architettura degli elaboratori
Esercizi

Per controllare la temperatura in un ambiente, mantenendola entro limiti prefissati, è


sufficiente paragonare la tensione proveniente dal sensore di temperatura con una ten-
sione utilizzata come riferimento, comandando opportunamente il dispositivo preposto
al riscaldamento; si tratta di un segnale analogico che varia con continuità.
Lo spostamento dell’interesse verso i segnali digitali (detti anche numerici), che va-
riano per intervalli, è spinto dalla diffusione capillare di apparecchiature come i calco-
latori, che hanno determinato un sempre maggiore orientamento verso le tecnologie di-
gitali, rendendo possibili tecniche di elaborazione e risultati non altrimenti ottenibili in
ambito analogico.
La possibilità di elaborare e trasferire in forma digitale l’informazione può avvan-
taggiarsi di caratteristiche molto superiori di stabilità e resistenza al rumore rispetto ai
segnali elaborati e trasmessi in forma analogica rendendoli, di conseguenza, anche me-
no sensibili alle derive termiche dei circuiti elettronici coinvolti nel loro trattamento.
Anche nell’ambito delle immagini, la digitalizzazione ha aperto possibilità di elabo-
razione e di restauro della qualità impossibili prima del suo impiego.
Requisito necessario per comprendere gli aspetti peculiari coinvolti nel passaggio dal-
l’immagine analogica a quella digitale sono i concetti legati alla digitalizzazione, alla

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, 1
Sergio Rabellino
DOI: 10.1007/978-88-470-5364-9_1 © Springer-Verlag Italia 2013
2 M. Coriasco et al.

caratterizzazione dei fenomeni e loro distinzione in continui e discreti, ai concetti di cam-


pionamento, all’informazione binaria e all’architettura dei calcolatori.
Nel presente capitolo si intendono richiamare alcuni elementi base di tali argomenti,
rimandando alla ricca letteratura specifica eventuali esigenze di approfondimento.

1.1
Caratteristiche dei segnali e dei sistemi

Nell’affrontare la trattazione di un argomento sulle immagini digitali è utile illustrare,


pur sommariamente, i concetti di segnale e sistema, per l’importanza che essi assumo-
no nei vari ambiti della tecnologia e della scienza, come la progettazione di circuiti per
le telecomunicazioni, i processi industriali o, in particolare, in ambito sanitario e nel-
l’ingegneria biomedica. Nella diagnostica medica, la natura dei segnali e dei sistemi coin-
volti è molto varia, potendo spaziare dalle onde elettromagnetiche della risonanza ma-
gnetica (RM) alle radiazioni ionizzanti della tomografia computerizzata (TC) e della ra-
diologia, dalla luce emessa da un cristallo scintillatore in medicina nucleare agli ultrasuoni
delle tecniche ecografiche.
Tuttavia, vi sono due caratteristiche comuni: i loro segnali, in funzione di una varia-
bile spaziale o temporale, portano informazioni riguardanti lo stato di qualche partico-
lare fenomeno fisico dal quale provengono.
I sistemi che li caratterizzano sono in grado di rispondere alle sollecitazioni prodot-
te dai segnali in ingresso manifestando in uscita un determinato comportamento (ad esem-
pio, la generazione di un altro segnale).
Un esempio di segnale è dato da grandezze elettriche come tensione o corrente for-
nite a un circuito elettrico che, a sua volta, è un esempio di sistema. In TC i detettori,
sollecitati dalla radiazione, producono in uscita una grandezza elettrica che costituisce
il segnale, mentre l’apparato necessario per la rivelazione è il sistema. In RM la radio-
frequenza proveniente dai tessuti stimolati del paziente determina il segnale, mentre lo
scanner e l’insieme dei circuiti atti a rivelare e trattare opportunamente tali onde elet-
tromagnetiche per produrre un’immagine costituiscono il sistema.
Solitamente, l’esperienza suggerisce che il segnale sia una grandezza fisica variabi-
le nel tempo: molti segnali incontrati nella vita quotidiana appartengono a questo tipo,
come i segnali corrispondenti alla voce umana nell’ambito della radio-telefonia, oppu-
re i suoni e la musica riproducibili su un lettore multimediale. Anche in ambito medi-
co molti tra i segnali sono classificabili come temporali, per esempio quelli di un elet-
trocardiogramma o di un elettroencefalogramma.
Tuttavia, il tempo è solo una tra le variabili indipendenti in funzione della quale può va-
riare una grandezza fisica. Per comprendere come i concetti di segnale e informazione sia-
no applicabili anche alle immagini, tale definizione va estesa: in generale, un segnale è
una grandezza fisica che può variare nel tempo, nello spazio o in una loro combinazione.
Nel seguito del testo si potrà osservare che, nel caso delle immagini, la variabile può
essere un vettore di coordinate cartesiane. In tali casi si parla di segnale di tipo spaziale.
Si può quindi esprimere un segnale in funzione di una certa variabile, rappresentan-
dolo matematicamente come u  f ( v苳), dove:
1 Rappresentazione digitale di segnali 3

• u è la variabile dipendente che esprime i valori della grandezza fisica considerata;


• v苳 è la variabile indipendente che esprime un vettore di coordinate (in genere tempo-
rali e/o spaziali);
• f è la relazione che associa a ogni valore di v苳 il corrispondente valore della grandez-
za fisica u.

1.2
Segnali continui e discreti

Il mondo reale, o la sua percezione, si basa su segnali con caratteristiche sostanzialmente


analogiche: lo spazio, il tempo, l’intensità di una luce o di un suono possono assumere
valori che variano con continuità. Gli organi di senso trasformano le stimolazioni che
ricevono in un segnale elettrico; il cervello elabora questi segnali elettrici basandosi sul-
le informazioni in essi contenute per compiere le scelte più opportune.
L’elaborazione numerica dei segnali del mondo reale pone in evidenza un problema
fondamentale: i computer possono trattare solo valori finiti; questa è una modalità di
trattamento incompatibile con un segnale analogico che, per sua natura, è continuo e ca-
ratterizzato da un insieme infinito di valori possibili.
In base alle caratteristiche citate, i segnali possono essere classificati in continui e di-
screti: la funzione u  f ( v苳), che descrive il segnale in base alla modalità con cui le va-
riabili dipendente (u) e indipendente ( v苳) cambiano il loro valore, individua le due se-
guenti situazioni:
1. la variabile indipendente v苳 assume valori reali oppure un sottoinsieme discreto di va-
lori reali (per esempio, assumendo il tempo come variabile, multipli interi dell’unità
di tempo). Si può definire il primo come un segnale a variabile continua, e il se-
condo come segnale a variabile discreta;

Fig. 1.1 Possibili


combinazioni tra
funzioni a valori
continui o finiti e
la variabile
indipendente,
continua o
discreta. Un
segnale analogico
è a valori continui
a variabile
continua, un
segnale digitale a
valori finiti a
variabile discreta
4 M. Coriasco et al.

2. la variabile dipendente u assume valori reali o in un sottoinsieme finito di valori rea-


li (per esempio, quando per memorizzare la variabile sia disponibile solo un numero
finito di valori, come nel caso dei calcolatori). Nel primo caso il segnale è detto a
valori continui, nel secondo caso a valori finiti.
Nello schema rappresentato in Figura 1.1 sono rappresentate le quattro combinazio-
ni possibili dei due casi precedenti.

1.3
Il trattamento dell’informazione digitale

Per procedere al trattamento ed elaborazione di un segnale proveniente dal mondo rea-


le è necessario trasformare il segnale analogico in segnale digitale. L’insieme di opera-
zioni necessarie è compiuto dal sistema di acquisizione.
Il sistema di elaborazione applica al segnale digitale proveniente dall’acquisizione le
procedure definite nel contesto degli specifici obiettivi, producendo in uscita il dato di-
gitale elaborato.
Dopo l’elaborazione, spesso si rende necessaria l’interazione con il mondo esterno
per la manifestazione dei risultati: nel caso delle immagini in ambito medico, appositi
strumenti di visualizzazione e di stampa provvedono alla corretta presentazione del-
l’informazione diagnostica. Il dato digitale elaborato deve quindi essere nuovamente tra-
sformato in un’informazione che possa interfacciarsi con il mondo reale, per esempio
la stampa su pellicola o supporto plastico degli esami radiologici. Le operazioni con-
nesse a quest’ultima fase sono compiute dal sistema di distribuzione.
Nello schema in Figura 1.2 sono evidenziati i principali passaggi che coinvolgono i
tre sistemi.

1.3.1
Il sistema di acquisizione

Descrivere le caratteristiche di un sistema di acquisizione non è agevole, data la varietà


di applicazioni. Il sistema può essere costituito dai sensori di una fotocamera digitale o
di uno scanner, la sonda di apparecchio per ecografia, il ricevitore RF di una risonanza
magnetica, l’insieme dei detettori di una tomografia computerizzata o una camera a scin-
tillazione in medicina nucleare. Si possono, tuttavia, individuare alcuni elementi basi-
lari che sono costantemente presenti in una forma o nell’altra e che ci permettono di
schematizzare il loro funzionamento. I principali passaggi nei quali si possono suddivi-

Fig. 1.2 Schema di trattamento ed elaborazione di un segnale proveniente dal mondo reale
1 Rappresentazione digitale di segnali 5

dere le operazioni di acquisizione sono: rilevamento, condizionamento, multiplexing, cam-


pionamento, conversione.
Nella fase di rilevamento, l’elemento più importante è il trasduttore. Esso ha la fun-
zione di fornire in uscita una grandezza elettrica di valore proporzionale a quello del-
la grandezza fisica in esame.
Il segnale proveniente da un trasduttore deve essere sottoposto a operazioni dette
di condizionamento: per ottenere sufficienti garanzie su precisione, linearità e im-
munità al rumore nel trasferimento del segnale dal trasduttore al circuito successivo,
esso è sottoposto ad amplificazione e filtrazione. La qualità e complessità dei circui-
ti preposti a tali operazioni può essere anche molto elevata, data l’importanza del-
l’interfacciamento tra il rilevatore del segnale e il resto della circuiteria necessaria al
suo trattamento.
Se nel sistema di acquisizione è presente più di un trasduttore, può essere utile l’im-
piego di un elemento di raccordo tra i trasduttori e il circuito di campionamento; que-
sto elemento prende il nome di selettore analogico (analog multiplexer, AMUX). Il
multiplexer collega al circuito di campionamento un solo trasduttore per volta, ripe-
tendo ciclicamente l’operazione (multiplexing) per ciascuno dei trasduttori. In tal mo-
do negli stadi successivi è possibile trattare i segnali provenienti da più trasduttori
con un solo circuito di campionamento e di conversione. Si osservi che questo meto-
do pone problemi di temporizzazione e sequenzialità nel trasferimento dei segnali,
che dovranno avere sufficiente grado di precisione per garantire la correttezza delle
conversioni.
Per quanto rapidi, i convertitori analogico/digitali impiegano per la digitalizzazione del
segnale analogico una certa quantità di tempo diversa da zero: qualsiasi variazione del
segnale in ingresso durante l’operazione di conversione può portare errori significativi.
Il circuito che esegue il campionamento, detto circuito SAMPLE and HOLD, ha il com-
pito di prelevare a intervalli di tempo regolari il valore assunto dal segnale tempo-va-
riante in ingresso e mantenerlo stabile durante il tempo necessario al suo trattamento.
In ultimo, il convertitore analogico/digitale (analog to digital converter, ADC) rice-
ve in ingresso il segnale analogico proveniente dagli stadi precedenti e lo converte in
valori numerici digitali proporzionali ai valori assunti dal segnale in ingresso, produ-
cendo in uscita un flusso costante di dati digitali.

1.3.2
Il sistema di elaborazione

Il sistema di elaborazione è normalmente costituito da uno o più calcolatori, più comu-


nemente detti computer, da programmi informatici sviluppati per realizzare le procedu-
re richieste dall’applicazione e, se previste, da interfacce uomo-macchina che consen-
tono di interagire per guidare il raggiungimento dei risultati attesi; tipico il caso del-
l’apparecchiatura ecografica in cui l’operatore ha la possibilità di modificare i parametri
dell’elaborazione tramite il pannello dei comandi.
Molte delle tecniche, metodologie e applicazioni descritte nei capitoli successivi av-
vengono in questo specifico ambito.
6 M. Coriasco et al.

1.3.3
Il sistema di distribuzione

Il sistema di distribuzione è costituito dall’insieme di apparecchiature capaci di fornire una


rappresentazione dell’informazione affinché sia resa disponibile all’utente finale. Nel cam-
po delle apparecchiature a uso medico esso assume particolare rilevanza: in molti casi, la
legislazione stabilisce degli standard qualitativi minimi ai quali il sistema deve uniformar-
si per poter essere utilizzato a scopi diagnostici. Le apparecchiature solitamente coinvolte
sono monitor oppure stampanti. I principali passaggi nei quali si possono suddividere le ope-
razioni di distribuzione sono: conversione, demultiplexing, ricostruzione e visualizzazione.
Il dato digitale elaborato deve nuovamente essere reso in forma analogica attraverso
un’operazione di conversione, per ottenere una grandezza elettrica in grado di pilotare
lo stadio successivo che provvede a separare opportunamente il segnale (de-multiplexing)
affinchè esso sia ricostruito su ciascun singolo elemento della batteria di circuiti che co-
stituiscono il dispositivo di visualizzazione.
In modo speculare rispetto a quanto avviene nel sistema di acquisizione, vi è un certo
numero di trasduttori il cui compito è di generare il segnale elaborato, sia esso un suono,
una luce o la pigmentazione di un supporto adeguato (stampa su carta o su pellicola).
La Figura 1.3 riassume schematicamente gli elementi funzionali di un generico si-
stema di elaborazione digitale dei segnali.

1.4
Grandezze analogiche e digitali

La maggior parte dei fenomeni fisici in natura si può definire continuo: le grandezze
che rappresentano questi fenomeni variano nel tempo oppure nello spazio con continuità,
potendo assumere infiniti valori in un qualunque intervallo considerato. In un recipien-
te, a seconda che si aggiunga o si tolga dell’acqua, il livello di liquido può assumere
tutti gli infiniti valori possibili da zero (livello corrispondente al recipiente vuoto) al
massimo (livello raggiunto a recipiente pieno). La variazione del livello di acqua, dun-
que, entro i limiti dell’osservazione macroscopica, presenta caratteristiche di continuità.
Alle grandezze variabili con continuità si contrappone un’altra classe di grandezze
che possono variare solo in modo discreto: all’interno di un intervallo esse possono as-
sumere soltanto un numero finito di valori.
Un esempio intuitivo è dato dal numero di persone all’interno di una stanza: esso può
essere variato facendo entrare o uscire qualcuno, ma esso può in ogni caso variare esclu-
sivamente per salti di almeno un’unità.
L’affermazione che in una stanza vi sono 3,4673 persone è priva di significato.
Per ottenere la misura di una grandezza variabile con continuità è possibile utilizza-
re strumenti sia di tipo analogico sia di tipo digitale: essi forniscono rispettivamente
una rappresentazione continua o discreta del fenomeno misurato.
Un esempio è fornito dalla temperatura: se si effettua la misura con un termometro tra-
dizionale, la variazione dell’altezza del liquido colorato nella colonnina di vetro è conti-
nua: per la lettura è necessario paragonare l’altezza raggiunta dal liquido a una scala gra-
1 Rappresentazione digitale di segnali 7

Fig. 1.3 Schema


di un sistema
di elaborazione
digitale dei
segnali

duata. Usando per la misura un termometro a display è possibile fornire una misura del-
la temperatura vincolata alle cifre su di esso visibili. Attraverso un’indicazione numerica
discreta si passa pertanto da un valore al successivo per intervalli fissi: se si suppone la
temperatura in aumento costante, un termometro a display con una cifra decimale indi-
cherà via via 21,2, 21,3, 21,4, ecc. °C, scattando sul valore successivo solo al raggiungi-
mento di una certa soglia di temperatura, per quanto la temperatura passi con continuità
attraverso tutti i valori intermedi (Fig. 1.4). Allo stesso modo, un’immagine analogica sarà
8 M. Coriasco et al.

Fig. 1.4 Differenza tra


rappresentazione analogica e
digitale di un fenomeno
analogico. La temperatura
varia con continuità,
ma un termometro digitale
rappresenta la sua variazione
“per salti”, anche se
con un grado di precisione più
o meno elevato. La freccia
azzurra verso il basso indica
quattro schematizzazioni di
termometri con un grado di
precisione crescente

Fig. 1.5 Differenza nell’andamento del segnale rilevato su immagine analogica e digitale percorrendole
lungo una direzione orizzontale. Nel caso A, l’andamento presenta caratteristiche di continuità, trat-
tandosi di un’immagine analogica. Nel caso B, l’immagine è digitale, la curva si presenta “spezzata”
lungo l’asse delle ascisse e assume valori “livellati” sull’asse delle ordinate, conseguenza rispettiva-
mente del campionamento e della quantizzazione del segnale durante il processo di digitalizzazione,
come spiegato in seguito nei paragrafi dedicati

una distribuzione continua di variazioni di intensità luminose tra il nero e il bianco, lun-
go le due direttrici orizzontale e verticale, mentre un’immagine digitale assumerà un nu-
mero limitato di valori, come intuitivamente possiamo comparare in Figura 1.5.
1 Rappresentazione digitale di segnali 9

Fig. 1.6 Differenza tra due strumenti


di misura commerciali, a sinistra
analogico, a destra digitale. Si noti
l’aspetto molto simile
nell’impostazione della selezione
delle grandezze da misurare e delle
portate, mentre fondamentale è la
differenza nella rappresentazione
dei valori rilevati: nel primo caso
con una lancetta di uno strumento
con scala graduata, nel secondo
caso direttamente sotto forma di
numero (per gentile concessione di
I.C.E. Strumentazione - Pavia)

1.4.1
Strumenti di misura analogici e digitali

La misurazione di una qualsiasi grandezza fisica può essere fatta con uno strumento
analogico oppure digitale, dei quali è rappresentato un esempio in Figura 1.6.
Uno strumento analogico è uno strumento di misura nel quale il segnale in uscita (o la
sua visualizzazione) è una funzione continua della grandezza fisica oggetto della misura
(misurando). Nell’esempio della temperatura di un liquido, che rappresenta il misurando,
valutata con un termometro a colonnina di mercurio, la visualizzazione della grandezza
misurata è fornita dall’altezza della colonnina, che cambia linearmente e con continuità
con la variazione di temperatura. La scala graduata con un numero finito di livelli ha lo
scopo di permettere una lettura più agevole, ma il numero di livelli che la colonnina di
mercurio può raggiungere, pur entro un certo intervallo, è infinito.
Gli strumenti di misura analogici possono inoltre essere di due tipi: a lettura diretta
o a lettura indiretta; al primo gruppo appartengono gli strumenti in cui il valore misu-
rato è direttamente leggibile su una scala graduata nell’adeguata unità di misura, al se-
condo gruppo gli strumenti nei quali il valore misurato viene reso disponibile da un tra-
sduttore come segnale che rappresenta una grandezza diversa da quella del misurando;
in ogni caso essa è proporzionale al misurando (generalmente si tratta di una grandez-
za elettrica) che viene successivamente rappresentata da uno strumento indicatore con
una scala di valori opportunamente scelta.
Uno strumento di misura digitale è un apparecchio in cui la grandezza fisica misu-
rata è rappresentata direttamente sotto forma di numero. L’indicazione numerica può es-
sere fornita in diversi modi, solitamente di tratta di un display in grado di riportare il
valore numerico della misura.
10 M. Coriasco et al.

Fig. 1.7 Errore di parallasse introdotto dalla necessità di paragonare la posizione della lancetta dello
strumento con una scala graduata. Nella parte in basso della figura sono schematicamente rappresen-
tate in sezione la scala graduata e la lancetta dello strumento (rettangolo azzurro). Si osservi come
l’angolo di visuale influenza la bontà della lettura, provocando una sovrastima o sottostima del valo-
re reale. Negli strumenti di misura professionali, il problema è risolto collocando uno specchio dietro
la scala graduata: la lettura (in questo caso circa 15 Ohm) è corretta quando la lancetta e il suo rifles-
so sono perfettamente sovrapposti (freccia verde tratteggiata). Negli altri due casi si ha una sottosti-
ma (freccia rossa, valore letto circa 12 Ohm) o sovrastima (freccia blu, valore letto circa 20 Ohm) del
valore realmente misurato dallo strumento

1.4.2
La risoluzione di una misura

Nell’ambito dell’esecuzione di una misura, il termine risoluzione indica in generale la


capacità di rilevare la variazione della grandezza fisica in esame. Più specificamente, può
indicare la minima variazione della grandezza rilevabile dallo strumento: misurando la
temperatura con una risoluzione di 0,1°C, è possibile apprezzare variazioni del suo va-
lore maggiori o uguali a 0,1°C. In pratica, la risoluzione di misura costituisce il limite
inferiore al di sotto del quale non ha più senso definire un valore di lettura. Un valore ri-
levato di 10,5°C ha senso utilizzando uno strumento con risoluzione di 0,1°C, mentre lo
stesso valore non ha senso se misurato con uno strumento avente risoluzione pari a 1°C.
In altre parole, la risoluzione di uno strumento quantifica l’errore commesso nell’ap-
prossimare il valore reale della grandezza misurata. Poiché l’indicazione fornita da uno
strumento analogico ideale può assumere infiniti valori, il suo errore di risoluzione è teo-
ricamente pari a zero. Nell’utilizzo pratico, però, la lettura deve essere mutuata da una
scala graduata, che introduce quindi rilevanti limitazioni sia sulla risoluzione dello stru-
mento sia sull’errore commesso durante la lettura. La maggiore o minore precisione del-
la scala graduata impone limiti più o meno grandi sulla risoluzione di lettura; l’errore com-
messo durante la lettura è condizionato, ad esempio, da problemi di parallasse introdotti
dalla seppur minima distanza tra la lancetta dello strumento e la scala graduata (Fig. 1.7).
1 Rappresentazione digitale di segnali 11

Nella rappresentazione digitale di una grandezza misurata, la risoluzione è invece de-


finita in modo univoco (si osservino i diversi gradi di precisione dei termometri in Fig.
1.4 a sinistra). Si osservi che:
• la rappresentazione digitale di un fenomeno analogico è una sua approssimazione;
• l’errore di approssimazione dipende dalla risoluzione dello strumento digitale uti-
lizzato.
Il funzionamento di uno strumento di misura digitale può essere schematizzato in tre
principali componenti: un trasduttore, che rileva la grandezza fisica da sottoporre a mi-
surazione convertendola in un segnale, un convertitore A/D che provvede a trasforma-
re in un numero il segnale proveniente dal trasduttore e un display che provvede a for-
nire una rappresentazione della misura con il grado di precisione voluto.

1.5
Il trasduttore

Come si può osservare nello schema riassuntivo di Figura 1.3, il primo degli elementi
coinvolti nel processo di acquisizione è il trasduttore. Esso ha la funzione di fornire in
uscita una grandezza elettrica di valore proporzionale alla grandezza fisica in esame.
Il microfono fornisce un segnale proporzionale all’onda di pressione acustica misurata,
una termocoppia fornisce una tensione proporzionale alla temperatura che registra, un
fotodiodo fornisce una corrente in proporzione alla luminosità dalla quale è interessa-
to. Nello schema in Figura 1.8 sono elencati alcuni esempi di trasduttori raffrontati al-
la grandezza fisica che sono in grado di misurare e il tipo di grandezza elettrica forni-
ta in uscita.
Allo stesso modo, altri tipi di trasduttori avranno il compito di convertire una gran-
dezza elettrica in ingresso, tipicamente tensione, corrente, capacità o resistenza, in una
grandezza fisica apprezzabile dai cinque sensi, come luce, suono, calore o altre. Alcu-
ni esempi sono visibili in Figura 1.9.

Fig. 1.8 Esempi


di trasduttori in
ingresso, che
trasformano
fenomeni fisici in
fenomeni elettrici
12 M. Coriasco et al.

Fig. 1.9 Esempi di


trasduttori in
uscita, che
trasformano
fenomeni elettrici
in fenomeni fisici

1.6
Il sistema campionatore

Per trattare un segnale variabile nel tempo o nello spazio proveniente dal trasduttore e
convertirlo in valori numerici memorizzabili, occorre considerare soltanto alcuni dei va-
lori da esso assunti a intervalli regolari: quest’operazione, detta campionamento, è com-
piuta ad opera del sistema campionatore.
Il sistema campionatore si occupa di prelevare a un intervallo  prefissato detto pe-
riodo di campionamento i valori del segnale in ingresso f(t) ottenendo un segnale di-
screto f(n): i valori registrati sono ancora tutti valori reali del segnale originario, ma
sono trascurati tutti gli infiniti valori esistenti tra un prelievo e il successivo (Fig. 1.10).
1
La frequenza di campionamento vale il reciproco del periodo, f s  .

Un tipico esempio di applicazione è quello su un segnale temporale come quello che
porta l’informazione sonora, ma gli stessi principi sono applicabili a un segnale spaziale
come le variazioni di energia luminosa di un’immagine, prelevando a intervalli defini-
ti sulle coordinate x e y i valori di luminosità corrispondenti.
Una prima considerazione importante è che la precisione con la quale si approssima
la curva originaria dipende dalla dimensione dell’intervallo di campionamento, che con-
diziona il numero di campioni prelevati nell’unità di tempo.
Al diminuire del periodo, cioè aumentando la frequenza di prelievo dei campioni, au-
menta la quantità di informazione originale prelevata, migliorando la qualità dell’ap-
prossimazione del fenomeno campionato (Fig. 1.11). Ha senso chiedersi, dunque, se sia
possibile determinare la frequenza minima di campionamento sotto alla quale il segna-
le non è più correttamente ricostruibile con i campioni acquisiti.

1.6.1
Il teorema di Fourier

Per rispondere alla domanda del paragrafo precedente è utile considerare il teorema di
Fourier.
1 Rappresentazione digitale di segnali 13

Fig. 1.10 Esempio di campionamento di una curva esprimente un fenomeno analogico: a intervalli regola-
ri si è prelevato il valore corrispondente della grandezza f(t) (pallino bianco). L’interpolazione lineare tra
i valori rilevati fornisce un’approssimazione della curva originaria. I valori misurati f(t), pur entro un in-
tervallo di valori ammissibili, si distribuiscono tuttavia ancora su un numero infinito di valori possibili

Fig. 1.11 In a è stato effettuato un campionamento con periodo di 1 cm (vale a dire 1 campionamento
ogni centimetro). In b, il periodo è raddoppiato, con un campionamento di periodo 5 mm (con frequenza
di 2 campionamenti ogni centimetro). In c un ulteriore raddoppio della frequenza di campionamento
(4 campionamenti ogni centimetro) permette una migliore approssimazione della curva originaria
14 M. Coriasco et al.

Fig. 1.12 Rappresentazione di un segnale come somma di funzioni sinusoidali e corrispondente spettro.
La funzione f1(t) è caratterizzata da ampiezza A1 e frequenza f1, la funzione f2(t) da ampiezza A2 e fre-
quenza f2. Il segnale somma è rappresentato dalla funzione f3(t) = f1(t) + f2(t), nella quale le informa-
zioni relative ad ampiezza e frequenza dei singoli segnali componenti non è più visibile (funzione in
basso a sinistra). Con l’operazione di trasformazione di Fourier, nel dominio delle frequenze, le singo-
le componenti del segnale somma tornano a mettersi in mostra con la loro frequenza e ampiezza. Ana-
loghe considerazioni sono possibili nel caso delle fasi dei singoli segnali componenti il segnale som-
ma, che in questo caso per semplicità sono state scelte identiche

Esso afferma che qualunque forma d’onda di segnale periodico può essere scompo-
sta nella somma di un termine costante e di funzioni sinusoidali di opportuna frequen-
za e fase. L’insieme di tutte le frequenze delle sinusoidi componenti prende il nome di
spettro di quella forma d’onda.
Si osservi che il teorema è applicabile anche a generici segnali non periodici, consi-
derando come periodo l’intero intervallo temporale del segnale da analizzare e repli-
cando infinitamente il segnale a sinistra e a destra. Il segnale così ottenuto acquisisce
caratteristiche di periodicità, e verifica le condizioni di applicabilità del teorema.
Basandosi sui risultati del teorema, nell’operazione detta sintesi di Fourier sarà pos-
sibile generare qualsiasi segnale sommando forme d’onda sinusoidali di opportuna fre-
quenza e fase, ciascuna di esse moltiplicata per un coefficiente anch’esso opportuna-
mente scelto; tra i casi più conosciuti dell’applicazione della sintesi di Fourier troviamo
gli strumenti musicali elettronici. Nell’operazione detta analisi di Fourier, sarà possi-
bile scomporre un qualsiasi segnale determinando le forme d’onda sinusoidali e i coef-
ficienti che lo costituiscono (Fig. 1.12): salvo casi particolari, la somma ha un numero
di termini infinito. Sarà necessario, dunque, arrestare i calcoli dopo un certo numero di
passi, dipendente dall’arbitrario grado di precisione con il quale si intende approssimare
1 Rappresentazione digitale di segnali 15

Fig. 1.13 Esempio


di analisi e sintesi
di Fourier, due
aspetti diversi dai
quali si può
considerare il
teorema di Fourier

il segnale. Nell’esempio di Figura 1.13 è stato rappresentato il caso semplice di un se-


gnale ottenibile come somma di un numero finito di sinusoidi: si noti tuttavia che, in
accordo con il teorema, il numero delle sinusoidi componenti è in realtà sempre infini-
to, ma da un certo passo in poi i loro coefficienti sono nulli e non compaiono più.
L’analisi di Fourier è compiuta attraverso lo strumento matematico della trasformata
di Fourier, che consente di calcolare frequenza, fase e coefficiente delle sinusoidi che
compongono il segnale. Essa non sarà oggetto di trattazione matematica rigorosa, per
la quale si rimanda a letteratura specifica, ma nel corso dei capitoli successivi verran-
no affrontate diffusamente le conseguenze della sua applicazione nel campo dell’elabo-
razione delle immagini digitali.
16 M. Coriasco et al.

1.6.2
Il teorema del campionamento

Abbiamo descritto come attraverso il campionamento sia possibile descrivere un segnale


continuo proveniente da un sensore.
Nella Figura 1.14 è schematizzata un’onda RF, per esempio una componente di quel-
la proveniente dal paziente sottoposto a un esame di risonanza magnetica. Tale onda è
un segnale continuo e, per poterla trattare ed elaborare con l’apparecchiatura RM, è ne-
cessario eseguirne il campionamento e la digitalizzazione, misurandone l’intensità a in-
tervalli regolari.
Confrontando i due campionamenti rappresentati, in accordo con quanto sopra affer-
mato, è evidente che il segnale digitale approssima tanto meglio il segnale analogico,
quanto maggiore è il numero di campioni prelevati.
Poiché il periodo di campionamento è la distanza temporale tra il prelievo di un cam-
pione e il successivo, la frequenza di campionamento, definita come reciproco del pe-
riodo e data da fc  1/ esprime il numero di campioni al secondo prelevati dal segna-
le f(t).
Nel caso di frequenza di campionamento fc troppo bassa, si ha una perdita di infor-
mazione nella ricostruzione del segnale originale; nel caso di frequenza fc troppo alta
si ha un eccesso di informazione e il numero di campioni appesantisce inutilmente le
successive elaborazioni. La frequenza minima di campionamento sufficiente a ricostruire
correttamente un segnale continuo è determinata dal teorema di Nyquist-Shannon o teo-
rema del campionamento.

Fig. 1.14 Esempio di campionamento di un fenomeno periodico analogico (onda RF). In a, il campio-
namento viene eseguito a intervalli di tempo regolari 2. La curva risultante è una spezzata che ap-
prossima il fenomeno analogico da cui proviene (sotto). In basso, dimezzando la dimensione dell’in-
tervallo raddoppia la frequenza di campionamento e migliora l’approssimazione della curva originale
del fenomeno analogico (b)
1 Rappresentazione digitale di segnali 17

Il teorema del campionamento è uno dei teoremi fondamentali della teoria dei se-
gnali. Esso stabilisce come individuare la minima frequenza necessaria per campiona-
re un segnale analogico senza che si verifichi perdita di informazione, riuscendo così a
ricostruire il segnale analogico originario. Mettendo in relazione il contenuto di un se-
gnale campionato con la frequenza di campionamento, e valutando le componenti di fre-
quenza minime e massime del segnale analogico originale, il teorema, verificate alcu-
ne ipotesi, dimostra che nella conversione da analogico a digitale la frequenza minima
di campionamento necessaria a ricostruire il segnale originario senza perdita di infor-
mazione o ambiguità, deve essere almeno il doppio della massima frequenza dello spet-
tro di Fourier del segnale analogico da campionare. Tale frequenza è detta frequenza di
Nyquist.

1.6.3
Il fenomeno aliasing

L’aliasing, detto anche sottocampionamento o distorsione da campionamento lento, è il


fenomeno per cui due segnali analogici diversi possono diventare tra loro indistinguibi-
li una volta che siano stati campionati.
Esso altera la veridicità del risultato in uscita del sistema in esame, producendo ri-
sultati falsi, o comunque ambigui.
L’aliasing può essere riscontrato sia nel tempo sia nello spazio: nell’ambito delle
immagini esso solitamente riguarda le frequenze spaziali dell’immagine, per quanto in
diagnostica per immagini non sia infrequente che esso si verifichi, a monte della rico-
struzione dell’immagine, anche in ambito temporale (ad esempio, in RM o in ultraso-
nologia).
Tipicamente, l’aliasing si verifica quando nel campionamento non sono rispettate le
condizioni imposte dal teorema precedente, cioè quando la frequenza di campionamen-
to è insufficiente. Un esempio di aliasing nel dominio temporale è visibile in Figura
1.15, mentre in Figura 1.16 è rappresentato un esempio di aliasing nel dominio delle
frequenze, ulteriormente caratterizzato in Figura 1.17a, aliasing che a parità di sistema
utilizzato per il campionamento tende a divenire più evidente con l’aumentare delle fre-
quenze spaziali (Fig. 1.17b).
Da quanto detto si può notare che non si pongono limiti superiori alla frequenza di
campionamento, ma le considerazioni fatte in precedenza suggeriscono che una
ridondanza d’informazione legata a una frequenza di campionamento troppo elevata non
solo risulta inutile, ma può essere addirittura controproducente poiché appesantisce il
lavoro del sistema di elaborazione del segnale senza alcun vantaggio in termini di pre-
cisione.
Nelle applicazioni pratiche, essendo assai raro il caso di segnali con spettro di fre-
quenze limitato, il campionamento è effettuato utilizzando una misura della massima
frequenza del segnale efficace, tale per cui l’errore di ricostruzione dei campioni (alias-
ing) sia trascurabile. La quantità di frequenze contenute in un segnale analogico, infat-
ti, è finita solo nel caso in cui esso sia composto da sinusoidi pure, mentre nella prati-
ca un segnale analogico contiene di fatto un numero di frequenze infinito.
18 M. Coriasco et al.

Fig. 1.15 Esempio di aliasing. Le sinusoidi in nero e in blu rappresentano rispettivamente un segnale a
0,5 e a 3,5 kHz. Campionando a una frequenza insufficiente (4 kHz, ogni 0,25 s, pallini in nero) i va-
lori rilevati per le due sinusoidi coincidono, generando ambiguità, mentre campionando a una frequenza
doppia (8 kHz, ogni 0,125 s, pallini in blu) i valori rilevati per i due segnali sono diversi. In altre pa-
role, i pallini neri, che rappresentano i campioni prelevati a una frequenza insufficiente, possono
essere interpolati sia dalla curva nera che da quella blu. Tale ambiguità è dovuta al fatto che non è
rispettato il teorema del campionamento, secondo cui la frequenza alla quale vanno prelevati i cam-
pioni dev’essere almeno il doppio della massima frequenza che compare nel segnale originario

Fig. 1.16 Esempio di aliasing nel campionamento di un’immagine. Il caso del campionamento alla fre-
quenza di Nyquist (al centro) produce una curva non perfetta ma che sostanzialmente riproduce la
frequenza originaria del segnale dell’immagine originale (in alto), come si vede a sinistra dal suo pro-
filo. Nel caso di una frequenza inferiore a quella di Nyquist (in basso), si osservi come il segnale cam-
pionato risultante sottostimi la frequenza originaria, dando luogo al fenomeno detto di aliasing

La banda di un segnale analogico, scelta secondo criteri legati alla fedeltà di ri-
produzione del segnale originale desiderata nel segnale digitale, è data dall’interval-
lo di frequenze che vanno dalla minima alla massima contenenti la maggior parte
dell’energia del segnale. A minore banda corrisponde minore fedeltà di riproduzio-
1 Rappresentazione digitale di segnali 19

Fig. 1.17 Esempio di aliasing nell’ambito delle frequenze spaziali su un’immagine formata da una rag-
giera di linee concentriche. Nell’immagine in a, con l’aumento delle frequenze spaziali, man mano
che la raggiera diventa più fitta, verso il centro, la capacità di campionamento del sistema utilizzato
per la rappresentazione non è più sufficiente e si nota la comparsa di disegni altrimenti inesistenti. Ta-
li disegni sono causati da un’insufficiente frequenza di campionamento del sistema di visualizzazio-
ne, con conseguente aliasing, e il fenomeno diventa progressivamente più evidente se si riduce l’an-
golo tra le linee, cioè aumentando le frequenze spaziali, come visibile nell’esempio in b

ne del segnale originale. Le frequenze al di fuori della banda sono solitamente eliminate
ad opera di filtri. Ad esempio, una trasmittente radio in modulazione di frequenza
utilizza una banda di 15 kHz, per quanto il suo spettro contenga armoniche, prodot-
te durante la modulazione, di frequenza anche molto superiore. Esempi di segnali,
banda occupata e minima frequenza di campionamento sono visibili nello schema in
Figura 1.18.

1.7
Il sistema quantizzatore

Il sistema quantizzatore, applicato a un segnale continuo f (t), lo trasforma in un se-


gnale a valori finiti Q( f(t)). La funzione Q opera su un insieme finito di numeri V 
{x1, … , xm} e associa a ogni valore reale x del segnale in ingresso il più vicino valo-
re dell’insieme V, vale a dire:
Q(x)  argminx – xk 
xkV
Nell’esempio rappresentato in Figura 1.19 in alto, i valori assunti dalla curva a un cer-
to istante t sono approssimati al più vicino valore xk, sull’asse delle ordinate. Nella stessa
figura, in basso, è schematizzato il modo di operare del sistema quantizzatore a un solo
20 M. Coriasco et al.

Fig. 1.18 Esempi di


segnali con
relativa banda
occupata e
frequenza di
campionamento.
Facendo
riferimento
all’esperienza, si
osservi come a
una più ristretta
banda corrisponda
minor fedeltà
riproduttiva
dell’audio

Fig. 1.19 Schema di funzionamento del sistema quantizzatore. Esso riceve in ingresso un segnale con-
tinuo e fornisce in risposta un segnale a valori finiti. In alto, il numero finito di valori disponibili per
la quantizzazione è dato da V = (x1,…, xm) e i valori assunti dalla funzione sono approssimati con il
più vicino valore disponibile x1 dell’insieme V. In basso è rappresentato un esempio di sistema quan-
tizzatore a due valori (x11, x21) con g(t)=sgn(f(t)). La funzione sgn fa sì che quando il segnale
in ingresso assume valori diversi da zero valga 1 se il valore è positivo e 1 se il valore è negativo

bit, quindi con l’insieme limitato a due soli valori disponibili: l’insieme è dato da V 
{1, 1}, e la funzione applicata è g(t)  sgn( f(t) ) .
Per operare la quantizzazione di un segnale si utilizza un circuito denominato con-
vertitore analogico digitale, descritto nel paragrafo successivo.
1 Rappresentazione digitale di segnali 21

1.7.1
Il convertitore A/D: campionamento e quantizzazione

Il convertitore analogico/digitale è un circuito elettronico che riceve in ingresso un se-


gnale elettrico variabile con continuità e ne fornisce una rappresentazione numerica di-
screta.
Le caratteristiche fondamentali del convertitore A/D sono l’intervallo di valori am-
missibili per la grandezza in ingresso e il numero di livelli associato alla variazione del
segnale entro tale livello, per ciascuno dei quali esiste la relativa indicazione numerica.
Facendo riferimento all’esempio del termometro digitale, il sensore trasforma l’infor-
mazione proveniente dalla misura della temperatura circostante in una grandezza elet-
trica proporzionale alla grandezza fisica. L’informazione elettrica proveniente dal sen-
sore è tuttavia ancora una grandezza variabile con continuità e deve quindi essere tra-
sferita a un circuito (il convertitore A/D) in grado di trasformarla in un valore discreto
che possa essere rappresentato (Fig. 1.20).
Per compiere l’operazione il convertitore A/D fissa un intervallo di riferimento al-
l’interno del quale deve trovarsi la grandezza da misurare e lo suddivide in un numero
più o meno elevato di sottointervalli, o gradini, ai quali approssima (quantizzazione) la
grandezza elettrica ricevuta in ingresso.
Si supponga che tale grandezza elettrica sia una tensione: nel caso del termometro
digitale, si può ipotizzare che l’intervallo di valori di tensione provenienti dal sensore
si trovi tra 5 V e 5 V, e che essi siano associati a un intervallo di temperature che
vanno da 20°C a 80 °C.
Supponendo che il termometro abbia una precisione di misura di 1°C, sulla base di
quanto formulato, poiché l’intervallo da 20° a 80° è di 100 gradi, il convertitore
A/D dovrà suddividere in 100 parti l’intervallo elettrico di 10 volt in ingresso, dando
luogo a una sensibilità alla variazione di tensione di 10 Volt/100, ovvero 0,1 Volt.
Ipotizziamo ora che dal sensore provenga una tensione compresa tra 5 e 4,9 Volt:
il convertitore A/D farà corrispondere ad essa la rappresentazione di una temperatura
di 20°C, a un valore compreso tra 4,8 e 4,9 Volt una temperatura di 19°C e co-
sì via.

Fig. 1.20 Schema di funzionamento di base di uno strumento di misura digitale. Il sensore ha la fun-
zione di convertire la grandezza da misurare in un’altra (solitamente una tensione elettrica, che può
variare con continuità all’interno di un certo intervallo) utile a pilotare un circuito, il convertitore A/D,
che la converte in valori numerici atti a pilotare uno strumento capace di rappresentare l’informazio-
ne da esso proveniente (ad esempio, un display elettronico a LED o LCD)
22 M. Coriasco et al.

Fig. 1.21 Definizione del passo di


discretizzazione per la conversione
analogico digitale, tramite raffronto tra il
range dei valori ammissibili provenienti
dal trasduttore con una scala a gradini di
livelli discreti disponibili

Una variazione di temperatura di mezzo grado non produrrà alcuna variazione del
valore in uscita, non essendo sufficiente a far compiere lo scatto al gradino successivo.
Per definire completamente la conversione A/D è quindi necessario stabilire sia un
intervallo continuo di valori della grandezza da misurare, sia il numero totale di livelli
discreti che devono essere rappresentati in uscita.
Questi due parametri caratteristici della conversione, definiscono il passo di discre-
tizzazione (ampiezza del gradino) che è dato dal rapporto tra l’ampiezza dell’intervallo
dei valori in ingresso e il numero dei livelli in uscita.
Si supponga di disporre all’ingresso del convertitore di un segnale elettrico variabi-
le nell’intervallo [V1,V2] e di disporre di M diversi livelli.
Il passo di discretizzazione sarà dato da:
−V 1
ΔV = V 2
M

Nell’esempio di Figura 1.21 si avrà dunque:

10 − 0
ΔV = = 0, 5
20

Per un valore di tensione arbitrario Vx compreso nell’intervallo [V1,V2] il livello di-


screto N associato sarà dato dalla seguente equazione:
⎡ − ⎤
N = int ⎢V 2 V 1 ⎥
⎢⎣ M ⎥⎦
1 Rappresentazione digitale di segnali 23

Fig. 1.22 Esempio di conversione analogico digitale: il segnale in ingresso varia tra 0 e 10, e il numero
di livelli disponibili è 20. Di conseguenza, il passo di discretizzazione ha ampiezza pari a 0.5, e i valori
numerici in uscita dal convertitore A/D varieranno tra 0 e 20

Per cui, ad esempio, avendo in ingresso un valore di tensione di 8,87 V, il livello di-
screto associato sarà dato da:
⎡ 8, 87 − 0 ⎤
N = int ⎢ ⎥ = int(17, 34 ) = 17
⎣ 0, 5 ⎦
Nella Figura 1.23 sono riassunte le operazioni principali che consentono di eseguire
la conversione analogico/digitale di un generico segnale continuo.
Applicando le considerazioni fatte fino a questo punto a uno strumento di misura, si
ricava facilmente che la scelta del numero di livelli disponibili per la conversione ana-
logico/digitale influisce direttamente sul suo grado di precisione. In Figura 1.22 un esem-
pio completo di conversione A/D.

1.8
L’immagine come distribuzione di energia

Fra le grandezze rappresentabili come segnali rientrano le immagini, in quanto distri-


buzioni bidimensionali di valori di luminosità e di colore, che cambiano il loro valore
al variare delle due coordinate del piano. Considerando il caso più semplice di un’im-
magine monocromatica, priva quindi di informazioni relative al colore, sulla base di quan-
to affermato è possibile associarla a un segnale di sola luminosità variabile nello spazio,
come chiarito nell’esempio della Figura 1.24. In accordo a quanto già espresso in
24 M. Coriasco et al.

Fig. 1.23 Operazioni


principali del
processo di
conversione
analogico/digitale
di un generico
segnale continuo

Fig. 1.24 L’immagine come distribuzione bidimensionale di valori. Nel caso di un’immagine monocro-
matica, percorrendo l’immagine lungo le due direzioni del piano x e y si ottengono due funzioni che
contengono l’informazione di luminanza misurata. Il caso di un’immagine a colori è analogo, ma è
necessario considerare anche l’informazione del colore (crominanza)

precedenza per un segnale generico, il segnale associato a un’immagine monocromati-


ca si può esprimere dal punto di vista matematico come funzione delle coordinate del
piano L  f ( v苳), dove:
• L è la variabile dipendente che esprime i valori di luminosità nell’immagine;
• v苳 è la variabile indipendente che esprime il vettore di coordinate del piano;
• f è la funzione che associa a ogni valore di v il corrispondente valore della grandez-
za fisica L.
Analoghe considerazioni possono essere estese al caso più generale di un’immagine
a colori: ciascun colore rilevato a determinate coordinate (x, y) è ottenibile come somma
1 Rappresentazione digitale di segnali 25

Fig. 1.25 Effetto


dell’applicazione
successiva dei
sistemi
campionatore e
quantizzatore su
segnale analogico.
L’applicazione dei
due sistemi su un
segnale analogico
ricavato da
un’immagine
secondo le modalità
appena trattate,
permette di ottenere
come risultato
un’immagine
digitale

di luminosità variabili dei tre colori base rosso, verde e blu (quella che nel corso del te-
sto verrà illustrata come codifica RGB). L’immagine sarà quindi associabile a tre fun-
zioni distinte del piano, ciascuna esprimente la luminosità di uno dei colori base sotto
forma di segnale.
Le considerazioni viste sulla conversione analogico/digitale, applicate a questi singoli
segnali, permetteranno di ottenere l’immagine nella forma digitale: nella Figura 1.25 è rias-
sunto il procedimento di conversione del segnale da analogico a digitale, rappresentando
le forme d’onda del segnale sottoposto al sistema campionatore e quantizzatore.
Gli aspetti più importanti della conversione e le loro conseguenze saranno trattati nel
corso del capitolo 3.

1.9
Cenni sull’architettura degli elaboratori

La maggior parte degli elaboratori programmabili moderni sono realizzati basandosi


sull’architettura di Von Neumann, detta anche “a memoria condivisa”, in cui nello stes-
so spazio di memorizzazione coesistono sia le istruzioni del programma sia i dati sui
quali esse devono operare. Tale caratteristica distingue l’architettura di Von Neumann
dall’architettura Harvard, nella quale per le istruzioni e i dati sono utilizzati due spazi
fisici distinti.
L’architettura si compone di cinque elementi fondamentali:
• central processing unit (CPU o unità di lavoro);
• unità di memoria, intesa come memoria principale (la random access memory, RAM);
• unità di input, tramite la quale i dati e istruzioni vengono inseriti nel calcolatore;
• unità di output, necessaria affinché i dati elaborati possano essere restituiti all’operatore;
• il Bus, un canale che collega tutti i componenti fra loro.
26 M. Coriasco et al.

Fig. 1.26 Schema architetturale


del calcolatore secondo Von
Neumann

Lo schema in Figura 1.26 fornisce una rappresentazione grafica dell’architettura di


un generico calcolatore.
Nella forma più semplice e generica, per produrre un’elaborazione, l’utente carica il
programma all’interno della memoria centrale avvalendosi delle unità di input, siano es-
si dei videoterminali con tastiera, oppure dei dischi magnetici nonché ottici, o qualsia-
si altro metodo con cui possa efficacemente colloquiare con l’elaboratore; successiva-
mente, vengono inseriti i dati da elaborare e viene dato il comando di start all’elabora-
tore, che produrrà un qualche risultato sulle unità di output.
Questo modello di lavoro è stato la realtà dei calcolatori per molti anni, ma con il
progredire delle tecnologie, l’avvento di nuovi sistemi operativi e di calcolatori sempre
più sofisticati, il modello di lavoro si è evoluto ed è ora molto più articolato. Se la no-
stra capacità di interagire con l’elaborazione ha subito notevoli cambiamenti e innova-
zioni, all’interno del calcolatore il funzionamento è all’incirca sempre lo stesso: sono
cambiati i modi con cui l’elaboratore comunica con la persona che lo adopera, la sua
velocità di elaborazione e la semplicità di utilizzo.
Per trattare i segnali con un calcolatore è necessario che i dati che li descrivono sia-
no rappresentati in una forma trattabile dal calcolatore.
L’uomo adotta per contare ed eseguire calcoli un sistema posizionale in base 10, mol-
to verosimilmente perché risulta comodo utilizzare per contare le dieci dita delle mani,
prima di passare alla decina successiva. I calcolatori digitali utilizzano un sistema po-
sizionale in base 2, perché le “dita” di cui essi dispongono sono soltanto due, associa-
bili a due livelli di tensione, livello “uno” corrispondente alla presenza di tensione e li-
vello “zero” corrispondente alla sua assenza (Fig. 1.27).
L’unità di memoria centrale è composta da celle elementari, ciascuna delle quali può
memorizzare due soli stati o situazioni diverse (“0” e “1”) rappresentati con una cifra
binaria elementare detta bit, forma contratta delle parole BInary digiT. All’interno di
un calcolatore sono presenti miliardi di miliardi di celle a formare la memoria in cui ri-
versare i dati da analizzare e le istruzioni su come elaborare i dati stessi.
1 Rappresentazione digitale di segnali 27

Fig. 1.27 Nel calcolatore le cifre binarie


sono rappresentate da livelli di tensione
misurate su fili elettrici. I livelli di
tensione, solitamente due, sono associati
a un livello logico: nell’esempio
rappresentato l’assenza di tensione è
associata al livello logico 0, mentre la
presenza di tensione è associata al livello
logico 1, anche se è possibile lavorare
con la convenzione opposta. In ogni caso
è possibile memorizzare e trattare due
stati diversi (logica binaria)

Per risolvere un problema con un calcolatore, sarà indispensabile conoscere l’algorit-


mo, ovvero un succedersi di passi che descrivano la procedura con cui desideriamo che si
operi sui dati, al fine di ottenere uno specifico risultato. L’algoritmo, che può essere una
descrizione informale della procedura da applicare, sarà tradotto, tramite un linguaggio di
programmazione, in un programma che potrà essere inserito all’interno del calcolatore.
Un calcolatore è in grado di applicare il programma ai dati, operando su di essi le
singole istruzioni che compongono il programma; le istruzioni vengono eseguite dal
cuore del calcolatore, la CPU (central processing unit), o microprocessore, o più sem-
plicemente processore.
Il processore elabora un’istruzione per volta, prelevando i dati necessari dalla me-
moria centrale, eseguendo l’operazione richiesta e memorizzando i risultati nuovamen-
te nella memoria centrale.
È intuitivo pertanto che le sequenze di istruzioni devono essere ordinate in modo ben
preciso: far eseguire un calcolo su dei numeri e stampare il risultato ha senso, mentre
il contrario è privo di significato, non potendosi stampare il risultato di un calcolo pri-
ma di aver eseguito il calcolo stesso.
Per informazioni più approfondite e rigorose, rimandiamo alla letteratura specifica,
ma da quanto detto dovrebbe risultare chiaro che i tipi di informazioni che la CPU è in
grado di trattare sono due: gli ordini da eseguire (istruzioni) e i dati sulle quali le istru-
zioni sono eseguite (operandi).
Ogni istruzione è codificata in maniera specifica dal costruttore di ciascuna CPU:
questo significa che ogni processore utilizza una diversa codifica delle istruzioni che è
in grado di eseguire.
Il VIC20 della Commodore utilizzava un processore Motorola 6502c, mentre nel Com-
modore 64 vi era una sua versione più evoluta, il Motorola 6510. Il cuore dello Spectrum
28 M. Coriasco et al.

era lo Zilog Z80, mentre nel primo PC IBM era possibile trovare il processore 8086 del-
la Intel, evoluto negli anni con il nome di 80286, i386, i486, Pentium, Xeon, Itanium,
Centrino; attualmente gli smartphone di ultima generazione utilizzano processori basa-
ti sull’architettura ARM, come il CortexV9.
I processori si dividono in due grandi famiglie:
• CISC (Complex Instruction Set Computers), in cui esistono specifiche istruzioni an-
che per operazioni complesse; sono processori con un elevato numero di componen-
ti e sono caratterizzati da una fase produttiva molto articolata;
• RISC (Reduced Instruction Set Computers), in cui il numero di istruzioni è il mini-
mo possibile e le operazioni complesse sono realizzate componendo istruzioni sem-
plici; sono processori con un minor numero di componenti, di conseguenza la fase
produttiva è più semplice.
Per capire meglio la differenza, nei processori di tipo CISC è normale trovare sia l’i-
struzione MUL che esegue la moltiplicazione tra interi, che la ADD utile per eseguire
l’addizione tra due interi; in un processore RISC è normale che sia presente solo l’istru-
zione ADD, e la moltiplicazione verrà realizzata attraverso l’uso di addizioni multiple.
Appartengono alla famiglia CISC tutti i processori x86, che sono il cuore dei nostri
portatili e personal computer, mentre sono processori di tipo RISC quelli della famiglia
ARM, che troviamo spesso nei palmari e smartphone di ultima generazione.
Nella Figura 1.28 troviamo un esempio minimale di programma rappresentato sia in
linguaggio macchina, come sequenza di zeri e di uno, sia nella forma più leggibile del
corrispondente linguaggio assembly.

Fig. 1.28 Esempio di istruzioni


in linguaggio assembly e
corrispondente codifica in
linguaggio macchina. Questo
semplicissimo programma
confronta il contenuto di due
locazioni di memoria e
memorizza in una terza
locazione il risultato del
confronto, ponendovi il valore
“1” se i contenuti coincidono e
“0” se sono diversi. Si notino i
due differenti tipi di parametro,
assoluto, quando il valore è
specificato direttamente nella
locazione successiva
all’istruzione (LDX #00) e
relativo, quando nella locazione
successiva è invece specificato
l’indirizzo della locazione che
contiene il valore di interesse
(LDA $20)
1 Rappresentazione digitale di segnali 29

1.9.1
L’informazione binaria

La memoria di un calcolatore è composta da bit che possono assumere solamente due


valori: 0 o 1. Se consideriamo una sequenza di 8 bit, questi permettono di rappresenta-
re 256 valori; lasciamo al lettore la prova di quanto detto, variando ciascun bit da 00000000
per finire a 11111111, considerando tutte le possibili combinazioni intermedie di 0 e 1.
Una sequenza costituita da n bit sarà in grado di rappresentare 2n informazioni di-
verse, esattamente come nel sistema posizionale decimale solitamente utilizzato nella
pratica quotidiana, in cui disponendo di dieci cifre (da 0 a 9) è possibile rappresentare
10n informazioni diverse (con due sole cifre si ha 102  100 configurazioni diverse, da
0 a 99); in generale possiamo affermare che in un sistema numerico posizionale in base
B e con n cifre disponibili, il numero di diverse configurazioni rappresentabili è Bn. Nel-
la Figura 1.29 è schematizzato il procedimento per convertire un numero binario in nu-
mero decimale.
Sequenze di 8 bit prendono il nome di BYTE, sequenze di 16 bit prendono il nome
di word, sequenze di 32 bit prendono il nome di DOUBLE WORD, come schematiz-
zato nella Figura 1.30. L’evoluzione tecnologica ha reso possibile trattare contempora-
neamente un numero di bit crescente: allo stato attuale è possibile manipolare sequen-
ze di 64 bit, che prendono il nome di QUAD WORD.

Fig. 1.29 Il sistema binario è un sistema posizionale, esattamente come il sistema decimale, pertanto è
necessario stabilire il “peso” di ciascuna cifra in base alla posizione occupata nel numero e moltipli-
candola per una potenza che ha per base la base del sistema considerato (base 2 per il binario, base
10 per il decimale, base 16 per il sistema esadecimale, ecc.) e per esponente la posizione occupata dal-
la cifra stessa, numerata a partire da zero da destra verso sinistra. Nell’esempio si illustra come con-
vertire un numero binario nel suo corrispondente decimale
30 M. Coriasco et al.

Fig. 1.30 Aumentando il numero di bit a disposizione per la codifica numerica, aumentano i numeri
rappresentabili. L’incremento va per potenze del due: con 8 bit sono codificabili 28  256 numeri, con
16 bit si possono codificare 216  65536 numeri, con 32 bit si possono codificare 232  4.294.967.296
numeri

Le CPU si distinguono anche in base alla dimensione massima dell’informazione che


riescono a trattare con una singola istruzione; esistono CPU in grado di trattare dati a
8, 16, 32 e 64 bit, secondo le loro caratteristiche costruttive.
Nei calcolatori, per ragioni storiche, il byte è stato assunto come unità di misura del-
la capacità di memoria ed è anche la minima unità di memoria indirizzabile, ovvero aven-
te un indirizzo proprio; se associamo un simbolo ad ognuno dei 256 valori, l’insieme
dei simboli utilizzati costituisce un alfabeto.
È necessario però accordarsi su come associare una specifica configurazione di un
byte (ad esempio, 10111001) a una lettera o a una cifra; questa associazione prende il
nome di codifica.
L’utilizzo di una codifica è necessario per la comunicazione tra l’uomo e la macchina:
il codice stabilisce una corrispondenza tra il numero binario usato dalla macchina e un
simbolo, che può essere un carattere alfabetico, un carattere numerico o un qualsiasi ele-
mento simbolico come i caratteri di punteggiatura, le parentesi, le virgolette, i vari tipi di
accento o di apice o qualsiasi altro simbolo che si ritenga necessario codificare.
Nelle tabelle della Figura 1.31 è possibile vedere una rappresentazione completa del
codice ASCII, di come sono associati i simboli con il corrispettivo valore assunto dal
byte. L’ASCII è un sistema di codifica dei caratteri a 7 bit suggerito nel 1961 da Bob
Berner dell’IBM, poi accettato come standard dalla più importante organizzazione a li-
vello mondiale per la definizione di norme tecniche, l’International Organization for
Standardization (ISO: l’ISO 646). La codifica attualmente in uso nella maggior parte
dei computer europei prende il nome di ISO-8859-15, derivante dalla codifica ASCII,
a cui si è aggiunto un ottavo bit e integrato l’insieme dei caratteri con quelli accentati
e caratteri speciali come il simbolo che rappresenta l’Euro, “€” . Nella Figura 1.32 è vi-
sibile uno schema che fornisce un esempio di codifica: al codice 01000001, che rap-
presenta il numero decimale 65, è associata la lettera A (maiuscola) dell’alfabeto, al nu-
mero binario immediatamente successivo 01000010, cioè il numero 66 in decimale, la
lettera B maiuscola, e così via.
1 Rappresentazione digitale di segnali 31

Fig. 1.31 Esempio di tabelle di


codifica utilizzate per la
memorizzazione dei dati nei
calcolatori. Il codice ASCII viene
ricordato per ragioni storiche, la
codifica ISO-8859-15 è un
esempio di codifica attualmente
utilizzata
32 M. Coriasco et al.

Fig. 1.32 Codifica ASCII a 8 bit. Con 8 bit è possibile codificare 256 configurazioni diverse, che sono
fatte corrispondere ai caratteri alfabetici e numerici, caratteri speciali come le parentesi e i segni di in-
terpunzione, più un certo numero di caratteri invisibili che codificano determinate azioni. Il 13, per
esempio, corrisponde al ritorno carrello (a capo), il 7 al suono di un campanellino, ecc. Questo tipo
di codifica viene ricordato per ragioni didattiche e storiche, avendo subito nel corso del tempo nume-
rose evoluzioni per meglio rispondere a più moderne esigenze di codifica

Sono stati sviluppati altri tipi di codifica in grado di supportare i simboli presenti in
altre lingue ed è quindi divenuto possibile visualizzare su un computer i caratteri giap-
ponesi, cinesi o russi.
Il byte è l’unità di misura della capacità di memoria di un calcolatore, ma sempre più
comunemente si sente parlare dei multipli del byte, il kilobyte, il megabyte, il gigabyte
e, ultimamente, il terabyte e lo zettabyte. Per motivi storici e ancora oggi in alcuni am-
biti, i multipli del byte sono calcolati come multipli di 210, pertanto 1024 byte corri-
sponde a 1 KiB, 1024 KiB sono 1MiB, 1024 MiB sono 1GiB, dove la i esplicita che si
tratta di prefissi binari; nel Sistema Internazionale, in cui i multipli del byte seguono il
sistema di numerazione decimale, un insieme di 1000 byte corrisponde a 1 KB, un in-
sieme di 1000 KB corrisponde a 1 MB, e via di seguito.
Questa duplice dizione porta spesso a fraintendimenti, per esempio i supporti ma-
gnetici esprimono la propria capacità in termini di MB (2 MB  2.000.000 byte), men-
tre i sistemi operativi esplicitano tale capacità in MiB (2 MiB  2.097.152 byte); oc-
corre pertanto porre attenzione a quale dei due casi ci si riferisca.
La memoria centrale (RAM) presenta due caratteristiche fondamentali: è molto effi-
ciente quando è necessario recuperare un dato, ma il suo contenuto si perde nel mo-
mento in cui viene meno l’alimentazione elettrica.
Per rendere i dati persistenti allo spegnimento del calcolatore, per poterli elaborare
in tempi differenti, o anche solo per preservare i risultati di un’elaborazione complessa,
1 Rappresentazione digitale di segnali 33

Fig. 1.33 In a è rappresentato un hard-disk


per la memorizzazione dei dati in un
calcolatore. Quello rappresentato è
formato da due piattelli di cui vengono
utilizzate entrambe le superfici. Si noti
nella fotografia a destra la testina di
lettura/scrittura dei dati. L’indirizzamento
dei dati avviene facendo spostare la
testina sulla superficie del disco che
ruota a grande velocità (fino anche a
oltre 20000 giri al minuto). Il
reperimento del dato è più lento rispetto a
quello della memoria RAM, ma i dati
sono permanenti. In b sono visibili vari
circuiti integrati di memoria RAM per la
memorizzazione temporanea dei dati nei
calcolatori. Ognuno dei circuiti contiene
una gran quantità di cellette nelle quali è
possibile memorizzare l’insieme di bit
dato dalle tabelle di codifica e
singolarmente indirizzabile dalla CPU. Il
reperimento del dato è più veloce rispetto
a quello degli hard-disk, ma si perdono i
dati quando viene spenta la macchina
(memoria volatile)

sono stati concepiti i supporti di memorizzazione magnetica, detti anche hard-disk. Il


calcolatore può riversare parte della sua memoria centrale, scrivendo l’informazione sui
dischi sfruttando le caratteristiche dei materiali magnetici, dati che saranno in una cer-
ta misura stabilmente disponibili nel tempo, avendo avuto cura di scriverli con rigore e
ordine. La peculiarità dei supporti magnetici è di mantenere l’informazione scritta an-
che in assenza di alimentazione elettrica e di consentire il reperimento dell’informazio-
ne nel momento in cui è necessario disporne per una successiva elaborazione.
Nella Figura 1.33 sono stati riprodotti alcuni strumenti atti a memorizzare i dati,
un supporto magnetico (hard-disk) per la memorizzazione non volatile, e dei moduli
RAM.

Letture consigliate

Brookshear JG (2007) Informatica. Una panoramica generale. Pearson


Curtin DP, Foley K, Sen K, Morin C (2012) Informatica di base. Quinta edizione, McGraw-Hill
Sciuto D, Buonanno G, Mari L (2008) Introduzione ai sistemi informatici. McGraw-Hill Com-
panies
Stallings W (2004) Architettura e organizzazione dei calcolatori. Pearson Italia
Tanenbaum AS (2006) Architettura dei calcolatori: Un approccio strutturale, quinta edizione. Pear-
son - Addison Wesley
34 ESERCIZI

Esercizi

1) Indicare tra le seguenti la caratteristica comune a tutti i segnali:


a) sono dotati di algoritmi di correzione per recuperare gli errori di trasmissio-
ne
b) diventano stazionari se trasmettono onde quadre digitali
c) i segnali, in funzione di una variabile spaziale o temporale, portano informa-
zioni riguardanti lo stato di qualche particolare fenomeno fisico dal quale pro-
vengono
d) conservano i dati in modo deterministico o stocastico

2) Indicare tra i seguenti comportamenti quello che caratterizza un sistema:


a) è sempre dotato di algoritmi di correzione per recuperare gli errori di trasmis-
sione
b) risponde alle sollecitazioni prodotte dai segnali in ingresso rispondendo in usci-
ta con un determinato comportamento
c) porta informazioni riguardanti lo stato di un fenomeno fisico da cui provie-
ne
d) genera sempre in uscita un segnale con caratteristiche simili a quello ricevuto
in ingresso

3) Indicare quale tra le seguenti caratteristiche di un segnale è corretta:


a) è una grandezza fisica variabile nel tempo
b) è una grandezza fisica variabile nello spazio
c) è una grandezza fisica variabile nel tempo, nello spazio o in una loro combi-
nazione
d) in ambito medico è sempre un vettore di coordinate cartesiane

4) Un segnale digitale è un segnale:


a) a valori continui e a variabile continua
b) a valori finiti e a variabile discreta
c) a valori finiti e a variabile continua
d) a valori continui e a variabile discreta

5) Facendo riferimento allo schema in figura, dopo aver abbinato a ciascun tipo di se-
gnale la corretta forma d’onda, indicare quale tra esse può rappresentare un segnale
digitale:
a) 3, freccia rossa; 1, freccia blu; 2, freccia gialla; 4, freccia verde; 2
b) 2, freccia rossa; 4, freccia blu; 3 freccia gialla; 1, freccia verde; 3
c) 4, freccia rossa; 1, freccia blu; 2, freccia gialla; 3, freccia verde; 4
d) 3, freccia rossa; 1, freccia blu; 2, freccia gialla; 4, freccia verde; 1
ESERCIZI 35

6) Indicare qual è la funzione di un trasduttore nella fase di rilevamento in un sistema


di acquisizione:
a) fornire in uscita una grandezza chimica di valore proporzionale a quello della
grandezza fisica ricevuta in ingresso
b) fornire in uscita una grandezza elettrica di valore proporzionale a quello della
grandezza fisica ricevuta in ingresso
c) fornire in uscita una grandezza fisica di valore proporzionale a quello della gran-
dezza elettrica ricevuta in ingresso
d) nessuna delle precedenti, non esiste fase di rilevamento in un sistema di acqui-
sizione

7) Nel sistema di acquisizione, lo scopo dell’operazione di condizionamento è:


a) amplificare e filtrare il segnale proveniente dal trasduttore per renderlo meno sen-
sibile al rumore
b) amplificare e filtrare il segnale da inviare al trasduttore per renderlo più lineare
e preciso
c) amplificare e filtrare il segnale proveniente dal mondo esterno per renderlo sen-
sibile al rumore
d) nessuna delle precedenti, non esiste fase di condizionamento in un sistema di ac-
quisizione

8) L’operazione di multiplexing nel sistema di acquisizione ha lo scopo di:


a) utilizzare più circuiti di campionamento da collegarsi uno alla volta a un unico
trasduttore
b) utilizzare più trasduttori per collegarli a più circuiti di campionamento
c) collegare più trasduttori, ciclicamente e uno alla volta, ad un unico circuito di
campionamento
d) nessuna delle precedenti, non esiste fase di multiplexing in un sistema di ac-
quisizione
36 ESERCIZI

9) Nel sistema di acquisizione, il circuito di “Sample and Hold” serve:


a) ad amplificare e filtrare il segnale proveniente dal trasduttore per renderlo sen-
sibile al rumore
b) a prelevare e mantenere stabile il segnale per il tempo necessario alla sua digi-
talizzazione
c) a digitalizzare il segnale mantenendolo stabile per il tempo necessario al cam-
pionamento
d) nessuna delle precedenti, non si trova un simile circuito nel sistema di acquisi-
zione

10) Nel sistema di acquisizione, indicare la funzione del convertitore digitale/analogico


(DAC):
a) riceve in ingresso il segnale analogico e lo converte in valori numerici digitali
proporzionali
b) riceve in ingresso il segnale digitale e lo converte in valori analogici
c) amplifica e filtra il segnale proveniente dal mondo esterno per renderlo sensibi-
le al rumore
d) nessuna delle precedenti, non si trova un simile circuito nel sistema di acquisi-
zione

11) Nel sistema di distribuzione, la funzione della conversione è:


a) riconvertire in forma analogica un flusso digitale di dati
b) ricevere in ingresso il segnale analogico e convertirlo in valori digitali
c) amplificare e filtrare il segnale proveniente dal mondo esterno per renderlo sen-
sibile al rumore
d) nessuna delle precedenti, i dati sono inviati al de-multiplexing senza essere con-
vertiti

12) Indicare la definizione corretta di “risoluzione di una misura”:


a) minima variazione della grandezza fisica misurata rilevabile da uno strumento
di misura
b) errore commesso durante la lettura di una misura
c) errore commesso dal trasduttore nel rilevare la grandezza elettrica dall’esterno
d) intervallo di variazione dei valori della grandezza fisica rilevabili da uno stru-
mento di misura

13) Un trasduttore è uno strumento che:


a) fornisce in uscita una grandezza elettrica di valore proporzionale alla grandezza
fisica osservata, o che pilotato da un segnale elettrico produce in uscita un fe-
nomeno fisico percepibile dai sensi
b) appartiene alla catena di elaborazione delle immagini
c) riceve in ingresso un’onda luminosa e la ribalta sulla pellicola da impressio-
nare
d) fornisce in uscita una grandezza elettrica di valore inversamente proporzionale
alla grandezza fisica osservata
ESERCIZI 37

14) Cosa significa compiere un campionamento su un segnale continuo x(t)?


a) estrarre dal segnale stesso i valori che esso assume a determinati istanti di
tempo, multipli di un certo intervallo di tempo T detto intervallo di campio-
namento
b) estrarre dai valori dell’intervallo di campionamento gli istanti di tempo t, mul-
tipli del segnale, detti istanti di campionamento
c) fargli perdere gran parte dei dati, al punto da ricostruire con difficoltà il segna-
le originario
d) estrarre dai valori degli istanti di tempo t alcuni multipli del segnale, detti valo-
ri di campionamento del segnale digitale

15) Che cosa permette l’analisi di Fourier?


a) estrarre dal segnale i valori che esso assume a determinati istanti di tempo, mul-
tipli di un certo intervallo di tempo T detto intervallo di campionamento
b) far diventare un segnale da stazionario a multifrequenza
c) scomporre il segnale nelle sue infinite componenti sinusoidali, moltiplicate per
un opportuno coefficiente, ciascuna di esse dotata di una certa fase, una certa
frequenza
d) campionare un segnale digitale

16) Quale informazione è possibile ricavare tra l’altro dal teorema del campionamento?
a) individuare la minima frequenza con la quale campionare un segnale analogico
senza che si verifichi perdita di informazione
b) individuare la metà della frequenza dello spettro di Fourier
c) eliminare le componenti a frequenza doppia del segnale originario
d) individuare il minimo campione a cui analizzare un segnale analogico senza che
si verifichi perdita di segnale

17) L’aliasing è un fenomeno che si evidenzia in presenza di una frequenza di campio-


namento:
a) elevata
b) media
c) insufficiente rispetto alle frequenze massime componenti il segnale
d) sufficiente rispetto alle frequenze componenti il segnale

18) Il convertitore analogico/digitale è un circuito elettronico che:


a) riceve in ingresso un segnale elettrico digitale e ne fornisce una rappresentazio-
ne numerica proporzionale
b) riceve in ingresso un segnale elettrico variabile con continuità e ne fornisce una
rappresentazione numerica proporzionale
c) riceve in ingresso un’onda luminosa e ne fornisce una rappresentazione nume-
rica proporzionale
d) riceve in ingresso un segnale elettrico variabile con continuità e ne fornisce una
rappresentazione elettrica
38 ESERCIZI

19) Un’immagine è:
a) una distribuzione bidimensionale di valori di luminosità e di colore
b) una distribuzione di luce
c) un insieme di punti nello spazio
d) una distribuzione bidimensionale di elementi strutturanti

20) Togliendo l’alimentazione elettrica, la memoria centrale di un elaboratore:


a) recupera i dati dopo la reintegrazione dell’alimentazione
b) diventa stazionaria
c) perde i dati
d) conserva i dati

21) Sul BUS circolano:


a) solo indirizzi
b) informazioni quali indirizzi, segnali di controllo e dati
c) solo dati
d) variabili analogiche

22) L’ algoritmo è costituito da:


a) un insieme finito di passi per risolvere tutti i problemi dello stesso tipo
b) un software applicativo
c) un insieme di passi per la conversione analogico-numerica
d) un insieme finito di passi per risolvere un problema

23) Un linguaggio di programmazione traduce:


a) l’algoritmo nel corrispondente programma
b) le istruzioni assembly in istruzioni macchina
c) il livello gerarchico in quello paritetico
d) i file in valori aleatori

24) Determinare il valore del numero binario 1 1 1 0 1 0 0 0 1

25) Sapendo di utilizzare il codice ASCII esteso (8 bit), calcolare l’occupazione in byte
di un testo di 50 righe con 80 caratteri (spazi compresi)

26) Dato un segnale elettrico variabile tra 2V e 15,2V, supponendo un passo di discre-
tizzazione di 0,1V, determinare il numero di valori digitali attesi in uscita

27) La risoluzione di uno strumento quantifica:


a) un segnale elettrico
b) un segnale digitale
c) l’inverso dell’errore commesso nell’approssimare il valore reale della grandez-
za misurata
d) l’errore commesso nell’approssimare il valore reale della grandezza misurata
ESERCIZI 39

28) Un sistema per il trattamento digitale dei segnali è composto da sottosistemi con-
nessi in sequenza:
a) acquisizione-distribuzione-elaborazione
b) distribuzione-elaborazione-acquisizione
c) acquisizione-elaborazione-distribuzione
d) elaborazione-acquisizione-distribuzione

29) Nei segnali a valori continui e variabile discreta:


a) la variabile indipendente assume valori in un sottoinsieme finito dei valori rea-
li, mentre la variabile dipendente assume valori reali
b) la variabile dipendente assume valori in un sottoinsieme finito dei valori reali,
mentre la variabile indipendente assume valori reali
c) la variabile dipendente assume valori digitali, mentre la variabile indipendente
assume valori reali
d) il segnale assume valori in un sottoinsieme finito dei valori naturali, mentre la
variabile indipendente assume valori reali

30) Descrivere cosa ci si può aspettare se si effettua il campionamento della banda udi-
bile con una frequenza di 4 KHz, tenuto conto che l’orecchio è in grado di perce-
pire da alcuni Hz fino a poco più di 20 KHz

31) Nella memoria centrale di un elaboratore sono presenti:


a) solo il programma
b) solo i dati opportunamente organizzati
c) dati di input e programma
e) dati e programmi

32) Nell’architettura di Von Neumann non è presente:


a) CPU
b) memoria centrale
c) BUS di sistema
d) BUS di spedizione

33) Un bit è in grado di immagazzinare:


a) la minima quantità di informazione
b) una porzione considerevole di immagine
c) un programma per elaboratore
d) un set di caratteri tipografici

34) Il codice ASCII consente di:


a) codificare i bit presenti sui dischi rigidi
b) accedere a un differente livello di programmazione
c) stabilire una corrispondenza tra un numero binario utilizzato dalla macchina e
un simbolo grafico
d) codificare differenti livelli elettrici in numeri
40 ESERCIZI

35) Perché a volte ci si può confondere nell’utilizzo corretto dei multipli del byte?
a) perché per motivi storici, in alcuni ambiti, i multipli del byte sono calcolati co-
me multipli di 210, e quelli che sarebbero da denominarsi MiB vengono scorret-
tamente chiamati MB, e viceversa
b) perché per motivi storici, in alcuni ambiti, i multipli del byte sono calcolati co-
me multipli di 102, e quelli che sarebbero da denominarsi GiB vengono scorret-
tamente chiamati GB, e viceversa
c) a causa di un uso scorretto delle unità di misura nelle chiavette Flash-USB, che
contengono meno memoria di quanto dichiarato
d) nessuna delle precedenti, non c’è mai ambiguità se non negli hard-disk (100 Gi-
ga = 1024 Mega)

36) Che cosa indica la lettera i nei prefissi utilizzati per i multipli del byte?
a) nulla, secondo il sistema internazionale (SI) è sufficiente indicare Giga o Mega
come potenze di dieci
b) che è necessario convertire dai MB ai GB nelle unità di misura delle chiavette
USB
c) che si tratta di prefissi binari, che quindi seguono i multipli di potenze di 2 nei
prefissi
d) nessuna delle precedenti

37) Un MB corrisponde a:
a) 1.000.000 byte
b) 1.024 KB
c) 1.000 KiB
d) 1.048.576 byte

38) Un GB corrisponde a:
a) 1.000.000.000 byte
b) 1.024 KB
c) 1.000 MiB
d) 1.048.576.000 byte

39) Un kiB corrisponde a:


a) 1.000 byte
b) 1.024 byte
c) 1 kB
d) nessuna delle precedenti

40) Cosa indica un QUAD-WORD?


a) 1.000 byte
b) 1.024 byte
c) una sequenza di quattro byte, per un totale di 64 bit
d) nessuna delle precedenti
Luce, immagini e visione
2

Indice dei contenuti


2.1 Introduzione
2.2 La luce
2.3 Il principio di indeterminazione
2.4 Il raggruppamento percettivo
2.5 Il ricevitore occhio
2.6 Proprietà della visione
2.7 Il colore
2.8 Considerazioni finali
Esercizi

2.1
Introduzione

Un’immagine è la rappresentazione grafica di una scena tratta dalla realtà, oppure di un


fenomeno di qualsiasi natura, nonché del risultato di una modellazione o simulazione
di un evento. Una sommaria classificazione delle immagini è la seguente:
• immagini reali: sono rilevabili direttamente dall’ambiente; un esempio è quello del-
le immagini derivanti da riprese video-fotografiche;
• immagini scientifiche: definiscono l’evoluzione della distribuzione spazio-temporale
di grandezze fisiche, ad esempio la temperatura, la pressione, il potenziale elettro-
magnetico, il legame chimico, le radiazioni;
• immagini sintetiche: sono costituite dalla rappresentazione grafica di funzioni mate-
matiche di più variabili che modellano un ambiente o un soggetto, ma anche ne si-
mulano il comportamento secondo leggi fisiche o di fantasia.
Le immagini possono essere bi- e tridimensionali, per le quali si utilizza generalmente
la notazione f ( x,y,  ,t) e f( x,y,z,  ,t), in cui x, y, z rappresentano le variabili spaziali, 
è la lunghezza d’onda della radiazione e t il tempo in cui viene effettuata l’acquisizione.

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, 41
Sergio Rabellino
DOI: 10.1007/978-88-470-5364-9_2 © Springer-Verlag Italia 2013
42 M. Coriasco et al.

Quando la distribuzione f ( x,y,z) varia con continuità, cioè assume valori reali nelle
variabili indipendenti x, y, z e nei valori assunti dalla funzione, si parla di immagini ana-
logiche; se invece le variabili e la funzione assumono solo valori discreti, cioè interi,
l’immagine è detta numerica (o anche digitale).
Nel caso in cui il tempo t non sia indicato, l’immagine sarà di tipo statico, mentre
quando il valore di  non è specificato, siamo in presenza di immagini visibili dall’oc-
chio umano.
Per procedere nello studio delle immagini è importante conoscere le proprietà fisi-
che della luce e del colore, come anche le proprietà psicofisiologiche della visione; le
informazioni così acquisite possono essere poi proficuamente utilizzate direttamente o
indirettamente nella definizione dei sistemi per l’elaborazione delle immagini e nelle
tecniche di analisi delle immagini (image analysis).

2.2
La luce

La luce può essere considerata sotto un duplice punto di vista: fisico e psicofisiologi-
co. Dal punto di vista fisico si tratta di una forma di energia, interpretata secondo la
teoria ondulatoria oppure quella corpuscolare. Per quanto riguarda l’aspetto psicofisio-
logico, l’energia stimola i recettori dell’occhio umano inviando al cervello segnali che
sono opportunamente interpretati.
La teoria ondulatoria si basa sulle equazioni di Maxwell: un campo elettrico e uno
magnetico, fra loro ortogonali, si propagano lungo una direzione perpendicolare ai cam-
pi stessi, con una data velocità (Fig. 2.1).
Sono di fondamentale importanza alcuni parametri che caratterizzano l’onda il cui
andamento è sinusoidale (ci si riferisce in genere al campo elettrico) e cioè:

Fig. 2.1 Luce


come onda
elettromagnetica
2 Luce, immagini e visione 43

Fig. 2.2 Lunghezze


d’onda della
radiazione
elettromagnetica

• il periodo T: tempo impiegato a compiere una oscillazione, si misura in secondi;


• la frequenza f: è definita dal numero di oscillazioni al secondo e si misura in Hertz,
vale la relazione f  1/T;
• la lunghezza d’onda λ: è la distanza percorsa, espressa in nanometri, in un periodo
di oscillazione, cioè la distanza fra una cresta e la successiva. È legata alla velocità
di propagazione c dalla relazione   cT  c/f.
Nella teoria corpuscolare la luce è invece un insieme di fotoni cioè pacchetti di ener-
gia con valore:
hc
E

dove  è la lunghezza d’onda della radiazione e h è la costante di Planck (6,63 10–34 J s).
Le lunghezze d’onda dello spettro elettromagnetico sono riportate in Figura 2.2; quel-
le del campo visibile spaziano dai 380 nm (1 nm  10–9 m, luce ultravioletta) fino a
760 nm (luce rossa). Al di sotto dei 380 nm ci troviamo nella zona degli ultravioletti,
al di sopra dei 760 nm in quella degli infrarossi.
Dal punto di vista psicofisiologico si definisce luce la sensazione prodotta dalla ra-
diazione compresa approssimativamente fra i limiti espansi in Figura 2.2; queste ven-
gono percepite dall’occhio come segnali inviati al cervello per essere interpretati come
valori cromatici. L’onda elettromagnetica stimola quindi l’occhio umano provocando la
sensazione visiva.
La luce bianca è la somma del contributo di tutte le frequenze, mentre il nero corri-
sponde alla mancanza di radiazione. Per scindere le componenti cromatiche della luce
bianca è sufficiente realizzarne la dispersione in un prisma ottico; si ottengono in tal
modo i colori dell’iride e cioè: rosso, arancione, giallo, verde, azzurro, indaco e viola.
L’intensità luminosa è l’energia che una sorgente emette in un secondo; la sua unità
di misura è il watt. Occorre però osservare che da un punto di vista fisiologico l’inten-
sità della sensazione luminosa prodotta da una sorgente dipende non solo dall’energia
emessa ma anche dalla forma e dimensione della sorgente nonché dal colore della luce.
44 M. Coriasco et al.

Per esempio, l’occhio giudica più luminosa la debole radiazione emessa da un fiammi-
fero piuttosto che quella di un blocco di ferro portato all’incandescenza, ed è chiaro che
nel caso del blocco di ferro l’energia emessa è notevolmente maggiore.
Per tenere in considerazione la risposta dell’occhio umano ai fenomeni luminosi, si in-
troducono le grandezze fotometriche. La candela è l’intensità luminosa in una data dire-
zione di una sorgente che emette una radiazione monocromatica di frequenza 540 1012
Hz e che ha un’intensità di radiazione in quella direzione di 1/683 watt per steradiante,
cioè per unità di angolo solido.
L’intensità luminosa di una sorgente sarà quindi definita come numero intero o fra-
zionario della candela.
La gamma delle intensità luminose in grado di stimolare l’occhio è enorme; la luce
più intensa che si può vedere senza offesa fisica o dolore è miliardi di volte più inten-
sa della luce visibile più debole.
Per poter manipolare più agevolmente l’ampia gamma dell’intensità della luce si in-
troduce il decibel definito come:
dB  10 log(I/I0)
dove I0 è l’intensità luminosa di riferimento standard che per convenzione è assunta pa-
ri a 10-6 candele/m2 e I è l’intensità luminosa presa in considerazione. Ciò significa che
se un’intensità luminosa I è di 60 decibel il suo valore è un milione di volte maggiore
di quello di riferimento I0.
In Tabella 2.1 sono presi in considerazione alcuni valori di intensità luminosa e i cor-
rispettivi decibel.
La Tabella 2.2 fornisce inoltre un’idea immediata sugli ordini di grandezza di alcu-
ne comuni intensità luminose.
Il flusso luminoso di una sorgente supposta puntiforme è il prodotto tra la sua inten-
sità luminosa I e l’angolo solido Ω avente il vertice nella sorgente stessa:

 IΩ

Tabella 2.1 Valori di intensità luminosa e i corrispettivi decibel


I/I0 dB I/I0 dB
0,0001 40 100000,0 40
0,001 30 10000,0 30
0,01 20 1000,0 20
0,032 15 31,60 15
0,10 10 10,00 10
0,13 9 7,90 9
0,16 8 6,30 8
0,20 7 5,00 7
0,25 6 4,00 6
0,32 5 3,20 5
0,40 4 2,50 4
0,50 3 2,00 3
0,63 2 1,60 2
0,79 1 1,30 1
1,00 0 1,00 0
2 Luce, immagini e visione 45

L’unità di misura è il lumen (lm) che rappresenta il flusso luminoso emesso entro l’an-
golo solido di uno steradiante da una sorgente puntiforme avente l’intensità di una candela.
La quantità di luce (Q) emessa da una sorgente puntiforme è il prodotto del flusso
luminoso
per il tempo t durante il quale viene emesso, cioè:
Q 
t
L’unità di misura del flusso luminoso è il lumen per secondo (lm/s), che rappresenta
la quantità di luce emessa in un secondo entro l’angolo solido di uno steradiante da una
sorgente puntiforme avente l’intensità di una candela.
L’illuminamento E è l’effetto dell’incidenza di un fascio di luce sopra una superficie
ed è definito dal rapporto tra il flusso luminoso
incidente uniformemente su una da-
ta superficie e l’area S della superficie stessa:

E
S
si misura in lux, definito come l’illuminamento prodotto su una superficie di un metro
quadro sulla quale incide uniformemente il flusso di un lumen (Fig. 2.3).

Tabella 2.2 Ordini di grandezza di alcune comuni intensità luminose


Intensità Correlati psicologici
160 –
140 –
120 Soglia del dolore, sole
100 –
80 Carta bianca in luce media
60 Schermo televisivo
40 –
– Luce minima per la visione del colore
20 –
0 Soglia di visibilità per l’occhio adattato all’oscurità

Fig. 2.3
Rappresentazione
grafica del
modello per la
valutazione dei lux
46 M. Coriasco et al.

Se la sorgente non è puntiforme ma estesa si introduce il concetto di luminanza L (o bril-


lanza), definita come il rapporto tra l’intensità luminosa I emessa da una sorgente estesa in
direzione normale a un elemento di superficie e l’area S dell’elemento considerato, cioè:
I
L
S
L’unità di misura è il nit, che rappresenta la luminanza di una sorgente estesa avente
l’intensità di una candela per ogni metro quadro di superficie emittente in direzione per-
pendicolare alla superficie stessa.

2.3
Il principio di indeterminazione

La progettazione di interfacce per dispositivi informatici, così come l’analisi di docu-


menti video-fotografici, richiede conoscenze che permettano di valutare e interpretare
una distribuzione spazio-temporale di dati che sia in grado di produrre un’immagine
(visibile o latente); è pertanto necessario prendere in considerazione temi legati alla psi-
co-fisiologia della visione.
In generale, la visione fornisce informazioni utili all’osservatore per svolgere attività di
vario tipo; si può citare come esempio la scelta dei movimenti necessari per interagire con
un dato ambiente oppure l’estrazione di caratteristiche sugli oggetti, o ancora eventi che
compaiano in una scena (come nel caso di immagini radiografiche o tomografiche) al fi-
ne di dar vita a una eventuale successiva analisi, classificazione o anche descrizione.
Il sistema visivo umano (occhio-cervello) si basa su un insieme di complessi processi
non ancora completamente noti, che rende disponibile all’osservatore un mondo percepi-
to, in quanto frutto dell'elaborazione da parte del cervello degli stimoli sensoriali esterni.
Si tratta di realtà percettiva che appare all’individuo in termini immediati e diretti ed
è detta realtà fenomenica; questa può essere tuttavia ben diversa dal mondo reale, cioè
dalla realtà fisica. In altri termini, la percezione visiva soffre di limiti che possono es-
sere fonte di interpretazione notevolmente diversa della realtà. Le discrepanze possono
manifestarsi in forme diverse.

Fig. 2.4 Effetto Kanizsa


2 Luce, immagini e visione 47

Fig. 2.5 Quadrato


di Mach

Un esempio tipico è quello dell’effetto Kanizsa (Fig. 2.4), in cui vi è presenza del-
l’oggetto fenomenico (il triangolo bianco) ma non di quello fisico.
Un altro esempio classico è costituito dal cosiddetto quadrato di Mach (Fig. 2.5); le
due forme, pur essendo geometricamente identiche, all’osservatore possono apparire di-
verse per forma e dimensione.
La differenza percepita è imputabile al tipo di rappresentazione della forma da par-
te del sistema visivo. Se a livello retinico fosse acquisita come immagine fotografica,
potrebbe godere della proprietà di invarianza per rotazione e non si rileverebbe alcuna
differenza. Diversa è la situazione se l’acquisizione è legata agli assi cardinali dello spa-
zio percettivo. A sinistra della figura, il quadrato ha gli angoli retti e i lati sono vinco-
lati all’allineamento verticale e orizzontale degli assi cartesiani; a destra ciascun ango-
lo appare come una punta di ampiezza non ben definita, orientata in una delle direzio-
ni cardinali e i lati appaiono vincolati alle diagonali. Il quadrato è allora generalmente
percepito in modo diverso rispetto al caso precedente.
Il quadrato di Mach costituisce un efficace esempio di percezione non veridica. La
forma di destra si apprezza più grande di quella di sinistra: la dimensione percepita di-
pende verosimilmente dall’ingombro dei descrittori salienti della forma, vale a dire quel-
li allineati con gli assi cardinali (cioè lati a sinistra e diagonali a destra). Nel quadrato
di Mach si produce quindi un’illusione della valutazione della grandezza.
Le illusioni visive rivestono notevole interesse perché dimostrano come la percezio-
ne non sia sempre perfettamente aderente alla realtà. Alcune illusioni dipendono dalla
natura dei meccanismi sensoriali, altre dal modo in cui il sistema visivo utilizza l’infor-
mazione ottica per fornire all’osservatore una rappresentazione dell’ambiente.
Nel caso sia necessario valutare il contenuto semantico di un’immagine, occorre
porre molta attenzione e considerare la possibile presenza di un’illusione visiva. Nel-
la Figura 2.6 proponiamo come esempio l’illusione di Hering in cui le linee paralle-
le orizzontali sono percepite convesse per effetto del contesto in cui sono inserite.
Il passaggio dal mondo fisico reale all’informazione ottica, catturata con opportuno
dispositivo, costituisce una trasformazione (il mapping anglosassone) di tipo distrutti-
vo che produce una indeterminazione.
Questa può essere di tipo:
• fotometrico: si genera confusione fra componenti che nel mondo fisico sono ben se-
parate e cioè, rispettivamente, dell’illuminazione e delle proprietà delle superfici;
48 M. Coriasco et al.

Fig. 2.6 Illusione


di Hering

Fig. 2.7 Stesso


livello di
luminanza al
variare della
riflettanza e
dell’illuminazione

• geometrico: eliminazione dell’informazione sulla profondità per effetto della riduzione


del numero di dimensioni dello spazio entro cui si collocano rispettivamente gli og-
getti e le corrispondenti immagini (da tridimensionale a bidimensionale).
Appare evidente il significato di indeterminazione: data un’immagine retinica e la
sua rappresentazione in codice neurale, non è possibile ricostruire in modo certo cosa
l’abbia determinata. L’inverso, ovvero il passaggio da informazione ottica a mondo per-
cepito, è una trasformazione ricostruttiva in cui il sistema visivo cerca di recuperare le
proprietà del mondo fisico non veicolate dai raggi di luce.
L’esempio che segue illustra il caso più semplice di indeterminazione fotometrica in am-
bito acromatico: è coinvolta la reciprocità tra l’intensità dell’illuminazione I e la percen-
tuale di luce riflessa da una superficie con intrinseche proprietà fisiche, detta riflettanza.
È importante che l’occhio riesca a discriminarla in quanto fornisce indicazioni sulla na-
tura dell’oggetto (per esempio gesso, foglio di carta, carbone). La quantità di luce che rag-
giunge l’occhio è però la luminanza L che non è in corrispondenza biunivoca con la ri-
flettanza. In Figura 2.7, la stessa luminanza L (indicata con 40 unità) può corrispondere a
tre diversi prodotti rI: il 20% di 200 unità di illuminazione, il 40% di 100 oppure l’80%
di 50. Ne segue che è indeterminato il valore acromatico: la superficie potrebbe essere
2 Luce, immagini e visione 49

Fig. 2.8 Indeterminazione


geometrica di tipo radiale.
a, visione bidimensionale;
b, visione prospettica;
c, visione lineare

bianca (riflettanza elevata, superiore a 80%), grigia (riflettanza intermedia) oppure nera
(riflettanza bassa, inferiore al 5%) e il nostro occhio non saprebbe in quale caso ci troviamo.
Per quanto riguarda l’indeterminazione geometrica, la propagazione rettilinea della lu-
ce fa sì che allo stesso angolo ottico corrispondano diverse combinazioni di grandezza del-
l’oggetto e distanza dal punto di vista o anche di forma e inclinazione rispetto all’asse del-
lo sguardo; tali combinazioni sono classificabili come indeterminazione radiale (Fig. 2.8).
L’indeterminazione radiale svanisce quando si disponga di almeno due immagini del-
la scena riprese con diversa angolazione (la visione binoculare umana di un soggetto sa-
no) oppure di informazioni aggiuntive.

2.4
Il raggruppamento percettivo

Il sistema visivo mostra un comportamento in cui tende a raggruppare oggetti simili e/o
vicini come se appartenessero a una sola entità; si tratta di un processo di unificazione
del campo percettivo. Questo comportamento, indicato dalla Gestalt, scuola di psicolo-
gia tedesca, tende a considerare l’interezza più che le singole componenti: l’intero è più
che la somma delle parti.
Le sei leggi che influiscono sul processo di unificazione sono:
1. vicinanza: all’interno di una scena visiva, sono accorpati gli elementi più vicini tra
loro. Nella Figura 2.9 le rette non sono percepite singolarmente ma raggruppate in
serie di due; si apprezzano quindi quattro colonne strette e non tre larghe;
2. somiglianza: gli elementi tendono a unificarsi tra di loro se posseggono somiglianza
per esempio in forma e grandezza. Nella Figura 2.10 sono percepite, a sinistra co-
lonne alternate di punti e triangoli, mentre a destra risaltano sotto forma di righe. Si
può verificare anche il caso di uguaglianza cromatica, come in Figura 2.11;
50 M. Coriasco et al.

Fig. 2.9 Percezione


delle rette in serie
di due

Fig. 2.10 Elementi


che si uniscono per
somiglianza di
forma e grandezza

Fig. 2.11 Elementi


che si uniscono per
somiglianza
cromatica

3. continuità di direzione: una serie di elementi posti uno di seguito all’altro, seguendo
un determinato cammino, è percepita come un’unità. In Figura 2.12 possiamo ap-
prezzare come il processo di continuità induca a percepire come veridici il cammino
AC e BD; risultano invece meno naturali il cammino AB e CD. Un esempio in am-
bito biomedico è relativo a un angiogramma in fase arteriosa del circolo posteriore
che evidenzia un aneurisma gigante a carico dell’arteria basilare (Fig. 2.13).
2 Luce, immagini e visione 51

Fig. 2.12 Percorsi


ambigui

Fig. 2.13
Angiogramma in
fase arteriosa del
circolo posteriore e
ingrandimento al
fine di evidenziare
i possibili percorsi

A destra è riportato il riquadro ingrandito in cui sono stati evidenziati i possibili per-
corsi. Percorsi come ab e cd si possono scartare a priori, data l’innaturale angolazio-
ne che il vaso dovrebbe assumere, ma non è sempre così agevole e immediato di-
stinguere i percorsi reali da quelli che il nostro cervello percepisce come corretti;
4. chiusura: la visione è predisposta a fornire i dati mancanti al fine di chiudere i con-
torni di una figura come un’unità: la figura chiusa è quindi favorita rispetto a quel-
la aperta (Fig. 2.14);
5. buona forma o pregnanza: quando figure diverse si uniscono, ciascuna conserva la
propria forma. In Figura 2.15, quando le due figure di sinistra vengono unite, la per-
cezione evidenzia, nella figura di destra, un cerchio e un quadrato come se fossero
sovrapposti;
6. esperienza passata: la segmentazione del campo è influenzata anche delle esperien-
ze passate ed è favorita la costituzione di oggetti familiari piuttosto che di forme sco-
nosciute. Nella Figura 2.16 si osserva la lettera E nell’insieme di spezzate a sinistra;
nel gruppo a destra invece la percezione è meno nitida.
52 M. Coriasco et al.

Fig. 2.14 Esempio


di chiusura

Fig. 2.15 Esempio


di buona forma o
pregnanza

Fig. 2.16 Esempio


di immagine la cui
percezione è
influenzata dalle
esperienze passate

2.5
Il ricevitore occhio

Analizziamo ora sotto il profilo fisiologico come è composto il sistema di visione uma-
no, in particolare l’organo delegato alla rilevazione dell’energia luminosa. Lo schema
in Figura 2.17 mostra le componenti più importanti del ricevitore occhio.
La parte bianca che ricopre il globo oculare è detta sclera; questa si fonde nella par-
te anteriore con una membrana trasparente, la cornea. Tra la cornea e l’iride, cioè l’a-
nello muscolare colorato, vi è un’area detta camera anteriore, riempita di una sostanza
fluida trasparente che è l’umore acqueo; la zona nera al centro dell’iride è la pupilla.
La luce supera la cornea e passa all’interno dell’occhio tramite la pupilla; la quantità
di luce è regolata dalla sua dimensione che può essere variata dai muscoli presenti sul-
l’iride. I muscoli circolari dislocati lungo la circonferenza dell’iride permettono con la
loro contrazione di restringere la pupilla, mentre i muscoli radiali, che si dirigono come
2 Luce, immagini e visione 53

Fig. 2.17 Il ricevitore


occhio nelle sue
componenti
principali

raggi verso la pupilla, la dilatano. Tali muscoli sono influenzati non solo dall’intensità
luminosa, ma anche da stimoli emotivi; è possibile osservare come la pupilla si restrin-
ga in situazioni di paura e si dilati per stimoli interessanti. In entrambi gli occhi, le pu-
pille hanno approssimativamente la stessa grandezza e subiscono variazioni contempo-
ranee anche quando una sola delle due è stimolata.
Gli occhi sono mossi da tre paia di muscoli antagonisti extraoculari; anche quando
non li muoviamo consciamente, questi sono sottoposti a un tremito impercettibile che è
fondamentale per una buona visione. Piccoli spostamenti mantengono l’immagine in mo-
vimento, cosicché in ciascun istante sono interessate differenti cellule recettive.
Nella parte inferiore della sclera vi è la coroide che, ricca di vasi sanguigni, procura
le sostanze nutritive per le cellule nervose dell’occhio; il pigmento di cui è dotata per-
mette l’assorbimento della luce diffusa. Lo strato successivo è la retina, in cui avviene
la trasformazione in informazione neurale della luce assorbita.
Il cristallino, situato subito dietro l’iride, ha una struttura a strati sovrapposti e cre-
sce continuamente; esso può deformarsi sotto l’azione dei muscoli intraoculari. L’area
racchiusa tra il cristallino e la retina è detta camera posteriore ed è riempita da una so-
stanza relativamente densa cioè l’umore vitreo.
I raggi luminosi provenienti da sorgenti lontane giungono paralleli alla cornea, subi-
scono la rifrazione e convergono in un punto detto fuoco, la cui distanza dalla cornea è
la distanza focale e dipende sia dalla densità della cornea sia dalla sua convessità.
Se consideriamo sorgenti luminose vicine, i raggi di luce tendono a divergere quan-
do arrivano alla cornea; per ovviare a tale inconveniente e far sì che i raggi convergano
nel fuoco come nel caso di sorgenti lontane, il cristallino aggiunge al potere della cor-
nea un potere di rifrazione supplementare, ispessendosi quando gli oggetti osservati so-
no vicini e diventando più sottile quando sono lontani. Il processo di cambiamento di
forma del cristallino per mantenere costante la distanza focale è detta accomodazione.
L’affaticamento degli occhi è determinato dall’uso dei muscoli intraoculari che defor-
mano il cristallino per permettere l’accomodazione.
L’immagine è detta a fuoco quando il punto focale cade sulla retina. L’accomodazio-
ne non porta però i raggi paralleli e quelli divergenti a convergere nello stesso punto; il
54 M. Coriasco et al.

Fig. 2.18 Il processo


di messa a fuoco

punto focale di oggetti molto distanti è sempre un po’ più vicino al cristallino di quel-
lo di oggetti molto vicini.
Mettere a fuoco un oggetto significa mettere a fuoco l’insieme dei punti luminosi
che lo compongono. Schematizziamo il processo di messa a fuoco considerando come
oggetto una freccia e rappresentando con un singolo raggio luminoso le due estremità
(Fig. 2.18).
L’angolo formato da due raggi che si intersecano è detto angolo visivo e varia in mo-
do inverso rispetto alla distanza dell’oggetto, in modo diretto rispetto alla grandezza del-
l’oggetto. L’angolo visivo più piccolo che può essere visto chiaramente misura l’acuità
visiva; può essere controllata mediante una carta ottica costituita da righe di lettere che
diventano sempre più piccole.
Occupiamoci ora della parte dedicata alla ricezione dell’informazione visiva, ovvero
la retina; essa è composta da tre strati di cellule e cioè cellule gangliari, cellule inter-
medie e cellule recettive.
Le cellule recettive che assorbono la luce e la trasformano in informazione neurale
sono i coni e i bastoncelli, e costituiscono lo strato più vicino alla coroide; essi forma-
no delle sinapsi con le cellule dello strato intermedio, che provvedono alla raccolta e
alla conservazione delle informazioni. Queste, a loro volta, formano delle sinapsi con
cellule gangliari, le quali raccolgono l’informazione dallo strato intermedio e la inca-
nalano nel nervo ottico verso lo strato più interno dell’occhio.
Gli assoni delle cellule gangliari formano le fibre del nervo ottico che esce dall’oc-
chio in un punto indicato come macchia cieca; esiste quindi una zona del campo visi-
vo in cui l’occhio non percepisce alcun segnale.
I bastoncelli hanno soglia bassa, cioè reagiscono in condizioni di luce debole (per-
mettono di vedere di notte, visione scotopica), i coni hanno soglia elevata, cioè sono
meno sensibili (visione fotopica). La distribuzione di coni e bastoncelli all’interno del-
la retina non è uniforme ma ha l’andamento descritto nella Figura 2.19.
La maggiore concentrazione di coni è al centro della retina, nell’area di maggior acuità
visiva con luce buona, detta fovea. Far cadere l’immagine sulla fovea significa utilizza-
re la visione centrale. In condizioni di luce debole si utilizzano le aree periferiche ric-
che di bastoncelli; si parla in questo caso di visione periferica.
Per quanto riguarda la macchia cieca, non ci si rende conto della mancanza di infor-
mazioni poiché quando si osserva il mondo circostante non si vedono “due piccoli bu-
chi neri”; le due macchie, infatti, non coincidono nei due occhi e il cervello interpreta
2 Luce, immagini e visione 55

Fig. 2.19
Distribuzione di
coni e bastoncelli
all’interno
dell’occhio umano

Fig. 2.20 Sensibilità


di coni e
bastoncelli alle
diverse lunghezze
d’onda della luce

l’informazione ottenuta dai due occhi integrando le immagini e ricostruendo la parte di


immagine mancante.
L’uomo possiede circa 6 106 coni e 120 106 bastoncelli, ha una buona visione
diurna, una buona acuità e un’adeguata visione notturna. Gli animali notturni, invece,
tendono ad avere solo bastoncelli, mentre i predatori hanno occhi con solo coni.
A proposito dell’uomo, il numero dei coni e dei bastoncelli fa sì che si possa verifica-
re la situazione in cui si abbia un livello di luce troppo debole per i coni e allo stesso tem-
po troppo forte per i bastoncelli; in queste situazioni, la visione può essere più difficolto-
sa rispetto a quanto accadrebbe con una luce un po’ più intensa o un po’ più debole. Que-
sto livello di luce viene raggiunto al tramonto e all’alba (luce crepuscolare) e in tali
condizioni di illuminazione la percentuale di incidenti stradali tende, di conseguenza, ad
essere maggiore.
Coni e bastoncelli rispondono in modo diverso al variare della lunghezza d’onda del-
la luce secondo quanto indicato in Figura 2.20.
56 M. Coriasco et al.

I recettori che permettono di vedere i colori sono i coni; questa particolarità è dovuta
al tipo di sostanze fotosensibili di cui sono costituiti. Ciascuno di essi contiene una sola
sostanza fotochimica appartenente alle tre colorazioni fondamentali (R  red, rosso; G 
green, verde; B  blue, blu) determinando una diversa sensibilità a diversi colori di luce.
Le risposte spettrali, cioè la sensibilità in funzione della lunghezza d’onda, sono ri-
portate in Figura 2.20, in cui si mette in evidenza come il picco di risposta di ogni tipo
di cono corrisponda a una particolare lunghezza d’onda.

2.6
Proprietà della visione

È importante sapere quanto le percezioni visive siano vicine agli stimoli ottici dovuti a
eventi reali; in altri termini, occorre sapere come il sistema visivo analizzi i dati pre-
senti in un’immagine e produca informazione.
La sensibilità al contrasto dell’occhio, cioè la sua risposta alle variazioni dell’inten-
sità luminosa, è non lineare; per misurarla consideriamo un’area di intensità luminosa
I nel cui centro ne sia posta un’altra di intensità I  I (Fig. 2.21).
Se si aumenta la differenza I da zero fino a un valore appena percettibile (da un os-
servatore sottoposto a sperimentazione), la quantità
I
I
detta frazione di Weber si mantiene pressoché costante (pari al 2%), per un notevole in-
tervallo di variabilità di I, escludendo il caso di luminosità molto piccole o molto grandi.
Ciò significa che I dipende da I e quindi la risposta dell’occhio è non lineare ri-
spetto a variazioni di luminosità. La grandezza I prende il nome di soglia di contra-
sto, in quanto rappresenta la minima differenza di intensità luminosa percepibile dal-
l’occhio umano.
In realtà, sia la frazione di Weber sia l’intervallo di valori in cui è costante dipen-
dono dalla luminosità dello sfondo dell’immagine osservata. Se si sperimenta con due
aree, una di intensità I e l’altra di intensità I I con sfondo I0 variabile, otteniamo
la risposta di Figura 2.22a. L’inviluppo delle varie risposte conduce alla situazione di
Figura 2.22b.

Fig. 2.21 La
sensibilità
al contrasto
2 Luce, immagini e visione 57

Fig. 2.22 Inviluppo


della frazione di
Weber

Fig. 2.23 Contrasto


simultaneo

Fig. 2.24 Contrasto


simultaneo-
filling-in

La sensibilità al contrasto dipende anche dal contesto in cui sono inseriti gli oggetti
(contrasto simultaneo). Osserviamo i quadratini inscritti in Figura 2.23, ognuno dei qua-
li è chiamato obiettivo. Tutti e quattro sono stampati nello stesso modo e riflettono la
medesima quantità di luce, cioè hanno la stessa luminosità; poiché sono inseriti in con-
torni di diversa tonalità di grigio, non ci appaiono con la stessa luminosità in quanto il
nostro occhio li recepisce in modo dipendente dall’area esterna, nel senso che sembra-
no più scuri gli elementi su fondo più chiaro.
Riprendiamo ancora in considerazione il contrasto simultaneo: una sfumatura di gri-
gio collocata su sfondo bianco appare più scura della stessa collocata su sfondo nero
(Fig. 2.24); ciò potrebbe spiegarsi con il meccanismo di propagazione e omogeneizza-
zione degli effetti di contrasto (filling-in) entro ogni zona delimitata da bordi netti.
58 M. Coriasco et al.

Fig. 2.25 Contrasto


simultaneo –
filling-in

Fig. 2.26 Contrasto


simultaneo

Nella Figura 2.25 l’anello non suddiviso appare pressoché omogeneo; invece, nel
caso dell’anello diviso a metà da una linea, la differenza è facilmente osservabile. Il
mezzo anello sul bianco appare omogeneamente più scuro dell’altro, come spiegato dal
filling-in entro zone delimitate da bordi.
Alcuni autori hanno avanzato l’ipotesi della scissione della luminanza in componenti;
questa ipotesi sembra essere confermata dalla Figura 2.26, in cui i due quadrati centrali
appaiono molto diversi, pur avendo in realtà la stessa intensità fisica: la configurazione
complessiva porta a percepire una distribuzione tridimensionale di superfici diversamen-
te illuminate.
La soglia di contrasto è correlata inoltre con la frequenza spaziale, che rappresenta
la rapidità di variazione di luminosità tra pixel contigui.
Per definire la frequenza spaziale ci riferiamo a immagini costituite da reticoli in cui
l’intensità luminosa varia in modo sinusoidale lungo la direzione orizzontale con diversa
frequenza (Fig. 2.27). L’immagine di sinistra ha un frequenza spaziale minore di quel-
la dell’immagine di destra.
La frequenza spaziale del reticolo si misura contando il numero di sinusoidi che ca-
dono in un grado di campo visivo; l’unità di misura è quindi cicli/grado.
2 Luce, immagini e visione 59

Fig. 2.27 La
frequenza spaziale

Fig. 2.28 La
frequenza spaziale
relativa tra
osservatore
e immagine

Il grado di campo visivo è definito come l’angolo che sottende uno schermo di 1 cm
di lato alla distanza D di 57 cm (Fig. 2.28).
Si preferisce esprimere la frequenza spaziale in termini di cicli/grado piuttosto che
in cicli/centimetro per non dipendere dalla distanza fra osservatore e immagine. Rad-
doppiando per esempio la distanza, l’angolo visivo si riduce della metà, per cui uno stes-
so reticolo avrà frequenza spaziale raddoppiata.
La frequenza spaziale è correlata al livello di dettaglio presente in un’immagine: a
un elevato livello di dettaglio (che determina brusche variazioni di luminosità) corri-
sponde una frequenza spaziale alta e viceversa. Come esempio classico si pensi a un’im-
magine costituita da una pagina con caratteri di stampa: la frequenza spaziale sarà mol-
to elevata. Una piccola sfocatura condurrà all’eliminazione delle alte frequenze spazia-
li con conseguente incomprensione del testo.
Uno dei fenomeni più interessanti connessi alle frequenze spaziali è l’effetto Mach
che può essere osservato considerando un certo numero di strisce verticali di intensità
uniforme che differiscono tra di loro di una quantità costante di intensità luminosa. Nel-
la Figura 2.29, in corrispondenza alle zone di transizione appaiono rispettivamente una
zona chiara e una scura: la striscia a sinistra è più chiara, quella a destra è più scura
60 M. Coriasco et al.

Fig. 2.29 Effetto


Mach

Fig. 2.30 Andamen-


to della sensibilità
al contrasto in
funzione della
frequenza spaziale

rispetto alla transizione. I bordi che delimitano le fasce sembrano netti e distinti come
se un’artista li avesse rimarcati leggermente. La risposta del sistema visivo è riportata
in ultimo nel grafico come livello di attività nervosa.
Se si ricoprono tutte le fasce, tranne una, questa presenterà un’intensità costante: le ban-
de di Mach non compaiono se si vede una sola striscia. Allo stesso modo prendendo una
matita sottile e coprendo il margine tra due bande grigie si elimina l’effetto Mach e si di-
mostra che la percezione è illusoria. Una buona ragione per spiegare come mai la percezio-
ne non debba ricalcare esattamente la realtà consiste nel fatto di poter essere in grado di lo-
calizzare i contorni degli oggetti soprattutto se non ci sono differenze notevoli nell’intensità
della luce tra un oggetto e le cose che lo circondano. Il fenomeno delle bande di Mach per-
mette di distinguere questi bordi consentendo così l’identificazione degli oggetti visti.
L’occhio ha una diversa sensibilità al contrasto relativamente alle diverse frequenze
spaziali: è minore alle frequenze alte e basse rispetto a quelle intermedie.
L’andamento della sensibilità al contrasto in funzione della frequenza spaziale in
Figura 2.30 rappresenta come siano favorite le frequenze centrali.
Per effettuare l’esperimento che evidenzia la risposta dell’occhio alle diverse frequenze
spaziali si può pensare di presentare a un soggetto un’immagine costituita da sinusoidi
2 Luce, immagini e visione 61

con frequenza variabile in modo logaritmico lungo l’asse orizzontale da sinistra a de-
stra e aventi un contrasto che varia anch’esso logaritmicamente lungo l’ordinata.
Fisicamente, il contrasto è costante a qualsiasi livello dell’ordinata, ma dal punto di
vista percettivo si nota una differenza in funzione della frequenza spaziale: quelle al cen-
tro sono percepite per contrasti più bassi rispetto alle frequenze spaziali più alte e più
basse.

2.7
Il colore

Possiamo definire il colore come un fenomeno sia fisico sia psicofisiologico; la perce-
zione del colore dipende, infatti, dalla natura fisica della luce, considerata come un’e-
nergia elettromagnetica, dalla sua interazione con i materiali (riflessione, rifrazione) e
dall’interpretazione dei fenomeni risultanti da parte del sistema visivo umano; la per-
cezione dell’energia elettromagnetica come luce visibile avviene in un intervallo di lun-
ghezze d’onda comprese fra 380 e 780 nanometri. Al di sotto ci troviamo nella zona de-
gli ultravioletti, al di sopra negli infrarossi.
Quando la luce percepita contiene tutte le lunghezza d’onda circa nella stessa quan-
tità, essa appare come acromatica. Una sorgente di luce acromatica appare bianca.
La luce riflessa o trasmessa da un oggetto in modo acromatico potrà essere percepi-
ta bianca, nera, o a un livello intermedio di grigio. Se gli oggetti riflettono acromatica-
mente più dell’80% della luce bianca incidente, appaiono bianchi. Quelli che riflettono
acromaticamente meno del 3% appaiono neri; livelli intermedi di riflessione acromati-
ca generano vari livelli di grigio. L’unico attributo della luce acromatica è la sua inten-
sità, che è conveniente considerare come compresa fra 0 e 1, con 0 uguale al nero e 1
uguale al bianco. I valori intermedi corrispondono ai livelli di grigio.
La percezione della luminosità dipende dalla sensibilità dell’occhio alle varie lunghezze
d’onda. La Figura 2.31 mostra l’andamento della curva detta sensibilità spettrale del-
l’occhio medio normale dell’uomo (curva di luminosità); essa evidenzia che per quan-
to riguarda la luce del giorno, l’occhio è più sensibile a lunghezza d’onda approssima-
tivamente di 550 nanometri. La sensibilità dell’occhio decresce rapidamente verso la fi-
ne dello spettro della luce visibile.
Quando la luce percepita contiene lunghezze d’onda in quantità diversa, il colore del-
la luce viene detto cromatico. Un colore percepito generato da un’energia elettroma-
gnetica di una singola lunghezza d’onda dello spettro visibile è monocromatico. Una
pura luce monocromatica, tipicamente la luce di un fascio LASER, si trova raramente
in pratica. I colori percepiti sono una miscela di diverse lunghezze d’onda.
Una luce cromatica viene definita psicofisiologicamente tramite tre grandezze: la tin-
ta (hue), la saturazione e la brillantezza o intensità del colore:
• la tinta è il termine che permette di distinguere il “colore” del colore;
• la saturazione è la misura del grado con il quale viene diluito il colore con il bianco
(rosso, rosa). Un colore puro è saturato al 100%. Quando viene aggiunto del bianco
il grado di saturazione decresce; la luce acromatica è saturata allo 0%;
• la brillantezza è l’intensità della luce cromatica.
62 M. Coriasco et al.

Fig. 2.31 Curva di


luminosità

Le componenti fisiche dello spettro corrispondenti alla tinta, saturazione e brillan-


tezza hanno le seguenti interpretazioni:
• lunghezza d’onda dominante: è la lunghezza d’onda del picco dello spettro ed è il
colore che percepiamo quando osserviamo la luce cromatica;
• purezza: corrisponde alla saturazione del colore; essa rappresenta il rapporto fra l’al-
tezza del picco nella lunghezza d’onda dominante e il valore medio dello spettro cioè
la luce bianca necessaria per definire il colore;
• luminosità: è la quantità di energia luminosa, cioè l’altezza media dello spettro ed è
data dall’area sottesa da tutto lo spettro.
Poiché fisiologicamente l’occhio contiene tre differenti tipi di coni sensibili al Ros-
so, al verde (Green) e al Blu, la sensazione della luce bianca può essere prodotta da una
qualsiasi combinazione di tre colori. I tre colori RGB vengono detti primari e costitui-
scono il sistema di colori additivo.
Il sistema di colori complementare è detto secondario o sottrattivo ed è costituito dai
colori ciano magenta e giallo (CMY). I due sistemi sono mostrati nella Figura 2.32.
Il complemento di un colore si ottiene sottraendo al bianco il colore stesso; il ciano
è bianco meno rosso, il magenta è bianco meno verde, il giallo è bianco meno blu. Pos-
siamo anche dire che il rosso è il complemento del ciano, il verde del magenta e il blu
del giallo. È interessante notare come il magenta non appaia nello spettro dei colori ge-
nerati dal prisma, per cui esso è solo una creazione del sistema visivo umano.
Il sistema visivo umano è capace di distinguere approssimativamente 350 colori; quando
il colore differisce solo per la tinta, il sistema visivo può distinguere tra colori con lunghezza
d’onda dominanti che differiscono per circa un nanometro nella parte blu-gialla dello
spettro. Comunque, vicino agli estremi dello spettro viene richiesta una distanza di circa
10 nanometri. Possono essere distinte circa 128 tinte diverse. Se sono presenti solo
differenze di saturazione, l’abilità del sistema visivo nel distinguere i colori è più limitata.
2 Luce, immagini e visione 63

Fig. 2.32 I sistemi


di colori

2.8
Considerazioni finali

Nel capitolo sono stati presi in considerazione i principali temi che caratterizzano la
luce e il sistema visivo umano. La letteratura specifica sull’argomento è molto ampia
e il lettore interessato ad approfondimenti può fare riferimento alla bibliografia. Quan-
to affrontato permette di avvicinarsi all’analisi di un’immagine sapendo quali sono i
meccanismi fisici che costituiscono il veicolo che trasferisce una scena presa dalla realtà
nel sistema visivo umano. Questo è tutt’altro che un sistema di acquisizione perfetto e
proprio per questo sono stati evidenziati alcuni meccanismi di percezione che devono
mettere in guardia da una sommaria conclusione nel compiere l’analisi del contenuto
di un’immagine.

Letture consigliate

Born M, Wolf E (1999) Principles of optics: electromagnetic theory of propagation, interference


and diffraction of light. University Press, Cambridge
Cahan D (1993) Hermann von Helmholtz and the foundations of nineteenth-century science. Uni-
versity of California Press, Berkley
Cornsweet T (1970) Visual perception. Academic Press, New York
David L (1970) MacAdam, sources of color science. MIT Press, Cambridge
Frova A (2000) Luce colore visione. Perché si vede ciò che si vede. BUR Biblioteca Univ. Riz-
zoli, Milano
64 M. Coriasco et al.

Gerbino W (1977) Manuale di Psicologia, Legrenzi (a cura di). Il Mulino, Bologna


Gibson JJ (1950) The perception of the visual world. Houghton Mifflin, Boston
Gordon IE (2004) Theories of visual perception. Psychology Press, Hove
Hubel D (1995) Eye, brain, and vision. Henry Holt and Company, New York
Koffka K (1970) Principi di psicologia della forma. Bollati Boringhieri, Torino
Newton I (1704) Opticks: or, a treatise of the reflections, refractions, inflections and colors of
light: also two treatises of the species and magnitude of curvilinear figures. Octavo, ©1998,
Palo Alto, CA
Palladino P (2002) Lezioni di illuminotecnica. Tecniche nuove, Milano
Regan D (2000) Human perception objects: early visual processing of spatial form defined by
luminance, color, texture, motion, and binocular disparity. Sinauer Associates, Sunderland, NA
Rossi M, Moretti A (1998) Sintesi delle immagini per il fotorealismo. Franco Angeli, Milano
Turner RS (1994) In the eye's mind. Princeton, Princeton University Press
Valdeplanque P (1991) Illuminotecnica. Tecniche nuove, Milano
Walsh JW (1958) Photometry. Dover, New York
Wolfe WL (1998) Introduction to radiometry. SPIE Optical Press, Washington
ESERCIZI 65

Esercizi

1) La relazione che lega velocità di propagazione dell’onda elettromagnetica e il


periodo è data da:
a) =cT
b) =cf
c) =c/T
d) =f/c

2) La porzione di spettro elettromagnetico che interessa le radiazioni visibili cade:


a) nell’intervallo 780–980 nm
b) nell’intervallo 380–780 nm
c) al di sopra dei 1200 nm
d) al di sotto dei 780 nm

3) La luminanza si ottiene:
a) dividendo il flusso luminoso per l’angolo solido
b) dividendo l’intensità luminosa nella direzione di osservazione per l’area proiet-
tata nella stessa direzione
c) dividendo l’intensità luminosa per 4 r2
d) dividendo il flusso luminoso per 4 r2

4) La frequenza spaziale rappresenta:


a) la rapidità di variazione di luminosità tra pixel contigui
b) il numero di pixel compresi in un pollice
c) il numero di pixel nelle direzioni x e y del monitor
d) il range di variabilità dei valori di luminanza

5) Il sistema di colori primari è costituito dai colori


a) RGB
b) CMY
c) RGY
d) CRY

6) La macchia cieca corrisponde:


a) al punto di minima acuità visiva
b) al punto in cui si ha la diminuzione dei coni
c) al punto in cui il nervo ottico si inserisce nella zona dei recettori
d) al punto più laterale dell’occhio

7) La sensibilità al contrasto:
a) dipende dalla luminosità degli oggetti presenti nella scena
b) dipende dal contesto in cui sono inseriti gli oggetti
c) è maggiore se gli oggetti sono scuri
d) è maggiore se gli oggetti sono chiari
66 ESERCIZI

8) La frazione di Weber è:
a) variabile a seconda della frequenza spaziale
b) sempre uguale al 10%
c) circa pari al 2%, per un notevole range di variabilità dell’intensità I
d) direttamente proporzionale all’intensità I

9) Un colore è detto puro quando:


a) non contiene alcuna miscela dei primari additivi
b) non contiene alcuna miscela dei secondari sottrattivi
c) è saturato al 100%
d) è saturato al 50%

10) La riflessione acromatica compresa fra il 3 e l’80% genera:


a) il colore nero
b) il colore bianco
c) sfumature di grigio
d) il colore corrispondente alla lunghezza d’onda considerata

11) La luce è:
a) una forma di energia
b) il colore bianco
c) un insieme di elettroni diretti nello stesso punto
d) una forma di trasmissione della potenza

12) Normalmente il mondo percepito in rapporto al mondo reale è:


a) identico
b) influenzato da fattori percettivi
c) influenzato da fattori percettivi e psicologici
d) analogo

13) Il raggruppamento percettivo può creare difficoltà nella:


a) identificazione di percorsi
b) individuazione delle fratture
c) percezione delle sfumature di grigio
d) visione notturna

14) All’interno dell’occhio umano i bastoncelli reagiscono a:


a) condizioni di luce intensa
b) lunghezze d’onda al di fuori del visibile (visione infrarossa)
c) condizioni di luce debole
d) variazioni del calore degli oggetti nel campo di visione

15) All’interno dell’occhio umano i coni:


a) hanno una soglia di percezione bassa
b) influenzano la visione da lontano
ESERCIZI 67

c) influenzano la visione da vicino


d) sono di tre tipi, uno per ogni colore fondamentale

16) Nell’occhio umano:


a) il numero di coni è superiore a quello dei bastoncelli
b) il numero di bastoncelli è maggiore di quello dei coni
c) vi è ugual numero di coni e bastoncelli
d) coni e bastoncelli sono addensati nella macchia cieca

17) In condizioni di contrasto simultaneo si possono determinare:


a) errate valutazioni dell’intensità luminosa
b) distorsioni spaziali degli oggetti
c) distorsioni temporali nella percezione dei colori
d) forti emicranie a carico dell’osservatore

18) L’effetto Mach:


a) consente di focalizzare al meglio gli oggetti distanti
b) interferisce con la percezione dei colori
c) influenza la percezione delle discontinuità di luminanza
d) è di tre tipi, uno per ogni colore fondamentale

19) Il colore ciano è dato dalla differenza tra:


a) rosso-blu
b) bianco-rosso
c) magenta-blu
d) rosso-bianco

20) Ordinare le immagini partendo da quella meno satura a quella con il massimo
livello di saturazione
Introduzione all’immagine digitale
3

Indice dei contenuti


3.1 Discretizzazione spaziale e quantizzazione
3.2 L’istogramma dei livelli di grigio
3.3 Le periferiche di visualizzazione e stampa
3.4 Il cambio delle dimensioni
3.5 La valutazione della qualità delle immagini digitali
3.6 Considerazioni finali
Esercizi

3.1
Discretizzazione spaziale e quantizzazione

Tutte le immagini digitali sono il risultato di un processo di acquisizione che compren-


de sempre nelle sue diverse fasi un’operazione di campionamento e una di quantizza-
zione o conversione analogico digitale, come schematizzato in Figura 3.1. Nell’ambito
della fotografia digitale e in quello della radiologia proiettiva, per esempio, il sensore uti-
lizzato è in grado di misurare l’intensità di radiazione luminosa o ionizzante incidente e
contestualmente effettua un campionamento il cui passo di discretizzazione dipende dal-
le dimensioni dei singoli rivelatori che compongono la sua matrice di acquisizione. Tut-
te le misure vengono poi convertite in dato numerico digitale e attribuite ai valori dei sin-
goli pixel (picture element) dell’immagine. In altri ambiti della radiologia, il processo di
formazione dell’immagine è più complesso e coinvolge sofisticate elaborazioni mate-
matiche, ma troveremo comunque una fase di campionamento e quantizzazione del se-
gnale di origine che condizionerà poi il risultato dell’immagine finale.
Le immagini digitali che vediamo nella nostra esperienza comune hanno ormai nel-
la maggior parte dei casi dimensioni dei pixel non percepibili a occhio nudo, ma un

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, 69
Sergio Rabellino
DOI: 10.1007/978-88-470-5364-9_3 © Springer-Verlag Italia 2013
70 M. Coriasco et al.

Fig. 3.1 Schematizzazione del processo di acquisizione. L’immagine originale è una funzione continua
bidimensionale f (x,y). La rivelazione porta alla trasformazione dell’immagine in un segnale elettrico
analogico, del quale, con l’operazione di campionamento, vengono prelevati i valori a intervalli rego-
lari (campioni). Tali valori sono quindi ancora valori reali del segnale elettrico inizialmente misurato.
La successiva quantizzazione è l’operazione che approssima questi valori al valore numerico (digitale)
e l’immagine, ora numerica, può essere memorizzata su appositi supporti informatici

opportuno ingrandimento può mostrare l’insieme dei pixel come singoli quadratini di
colore uniforme che costituiscono ogni dettaglio dell’immagine considerata (Fig. 3.2).
La discretizzazione spaziale di un’immagine digitale può essere definita in vari modi.
In ambito radiologico, dove le immagini devono preservare l’informazione delle dimen-
sioni fisiche reali e dei rapporti di formato, è frequente l’utilizzo della dimensione fisica
del pixel per definire la discretizzazione. Dove invece le dimensioni dei rivelatori e dei
pixel dell’immagine non sono direttamente associati a una dimensione reale della scena
rappresentata, come nell’ambito della fotografia, si utilizza la dimensione della matrice di
rivelazione in termini di righe per colonne o di numero totale di pixel. Ad esempio, una
fotocamera da 12 Megapixel potrà avere una matrice di 2848 righe per 4288 colonne, per
un totale di 12212224 pixel. In ambito di stampa o di visualizzazione si utilizza invece
spesso un’indicazione di discretizzazione spaziale in termini di numero di pixel per una
data unità di lunghezza, come ad esempio i dot per inch o point per inch (DPI o PPI, in
entrambi i casi punti per pollice, dove un pollice è pari a 2,54 cm) o punti per cm (PPcm).
Noti i parametri che definiscono una delle modalità di indicazione della discretizza-
zione spaziale è facile ricavare le notazioni alternative tramite semplici formule alge-
briche, come indicato nella Figura 3.3. Nella Figura 3.4 sono riportati alcuni esempi di
dimensioni di pixel e di matrici tipiche per alcune tipologie di immagini digitali in ambito
3 Introduzione all’immagine digitale 71

Fig. 3.2 Esempio di


digitalizzazione. Con un
opportuno sistema di
acquisizione capace di compiere
la scansione e la rivelazione, si
ottiene una funzione
bidimensionale (a) che per poter
essere elaborata da un
calcolatore va campionata nello
spazio (griglia di quadrati
bianchi, b) e quantizzata in
intensità (ogni quadratino di
campionamento può assumere
solo un numero finito di valori,
c). Il risultato finale è
l’immagine digitale (d) in basso
a destra

Fig. 3.3 Relazioni algebriche che legano i parametri di discretizzazione spaziale di un’immagine
digitale
72 M. Coriasco et al.

Fig. 3.4 Parametri


di discretizzazione
spaziale tipici per
alcune modalità di
immagini mediche
digitali

radiologico. Nella pratica quotidiana, in TC ed RM, sono disponibili anche valori su-
periori, che vengono utilizzati in caso di esigenze di maggior risoluzione.
Per quanto riguarda la quantizzazione dei valori assunti da ciascuno dei singoli pixel
occorre invece distinguere tra il caso di rappresentazione a livelli di grigio e rappre-
sentazione a colori.
Una volta definita la discretizzazione spaziale, per definire completamente un’im-
magine digitale occorre attribuire a ciascun pixel un dato numerico. Consideriamo la
rappresentazione binaria dei numeri: maggiore è il numero di bit utilizzati, maggiore
è il numero di valori diversi codificabili. In pratica, avendo n bit è possibile codifica-
re 2n valori e, quindi, 2n livelli di grigio. Dato 1 solo bit, avremo quindi un’immagine
in bianco o nero senza gradazioni intermedie. È questo il caso della quantizzazione
adottata dagli apparecchi fax, dove non è di interesse rappresentare le diverse sfuma-
ture di grigio di un’immagine, mentre si vuole trasmettere l’informazione testuale o
grafica con la minore occupazione possibile della banda telefonica. Con 2 bit saranno
possibili 4 livelli e così via, fino ad arrivare a 16 bit con 65536 livelli di grigio. Tale
numero è enormemente superiore alle capacità di discriminazione del nostro occhio,
che arriva a distinguere contemporaneamente al massimo un numero di livelli di gri-
gio dell’ordine del centinaio, come visto nel capitolo precedente. Una delle motiva-
zioni predominanti per cui viene utilizzato un numero elevato di livelli di grigio risie-
de però nella possibilità di variare il contrasto della rappresentazione dell’immagine
digitale, scegliendo opportunamente la modalità di presentazione a video o in stampa.
Se, quindi, il processo di discretizzazione spaziale è legato alla risoluzione dell’immagine
prodotta, si può affermare che la quantizzazione è legata al contrasto presente e rap-
presentabile dell’immagine.
Dal punto di vista dei dispositivi che producono l’immagine si può dire che, mentre
il rivelatore e le sue dimensioni definiscono le dimensioni dei pixel e quindi la discre-
tizzazione spaziale, la quantizzazione è legata principalmente al convertitore analogico
digitale, che imposta un intervallo di valori possibili e la loro ampiezza. Ovviamente, il
ruolo svolto dal convertitore AD è comunque condizionato dal segnale di ingresso for-
nito dal rivelatore, che deve essere di entità adeguata. Nella Figura 3.5 sono rappresen-
tate le unità numeriche in uso per alcune modalità radiologiche con il numero di bit uti-
lizzabile, anche se in realtà negli ultimi anni si è affermato l’utilizzo di 16 bit (due by-
te) per pixel in tutte le discipline diagnostiche.
3 Introduzione all’immagine digitale 73

Fig. 3.5 Parametri


di quantizzazione
per alcune
modalità di
immagini mediche
digitali

Per quanto riguarda la rappresentazione digitale di immagini a colori si avrà ancora


una quantizzazione dei valori dei pixel, ma con la possibilità di rappresentare i diversi
colori e, eventualmente, di combinarli tra loro.
Le codifiche dei colori maggiormente utilizzate sono la RGB, la CMYK e la YUV.
La codifica RGB è principalmente utilizzata dai dispositivi per i quali la formazione
del colore avviene con un processo di tipo additivo, come i monitor, le fotocamere digi-
tali e gli scanner, che trasmettono o assorbono la luce nel loro processo di formazione del
colore del pixel. I colori che si osservano sui monitor catodici dei computer, appaiono quan-
do i fasci di elettroni colpiscono i fosfori rossi, verdi e blu dello schermo provocando l’e-
missione di diverse combinazioni di luce. Il valore del pixel è espresso in questo caso da
3 numeri che rappresentano la quantità di rosso, verde e blu che, addizionati, formano il
colore risultante. Per ognuno dei tre colori primari si hanno 256 possibili livelli, per cui
sono necessari 8 bit, quindi in totale un pixel con codifica RGB necessita di 24 bit. Le
combinazioni possibili sono circa 16 milioni che, per quanto possa sembrare un numero
elevato, rappresenta una porzione limitata dello spettro visibile dall’occhio umano.
Il processo di stampa delle immagini digitali a colori comporta invece una modalità
di formazione del colore di tipo sottrattivo, in quanto ogni inchiostro è in grado di as-
sorbire alcuni colori e di rifletterne altri. Pertanto, la sovrapposizione di più inchiostri
darà origine a un colore risultante dalla sottrazione dal bianco dei colori dei singoli in-
chiostri. La codifica del colore CMYK è basata sui colori complementari al rosso, ver-
de e blu, dati dal ciano (C), dal magenta (M) e dal giallo (Y). Per visualizzare comple-
tamente la gamma dei colori generata dalla codifica RGB con le caratteristiche di to-
nalità degli inchiostri per le stampanti e per evitare che un’immagine in toni di grigio
convertita da RGB a CMYK appaia con sfumature rossastre, è stato aggiunto un altro
colore, il nero (K, da blacK), che migliora la qualità di stampa. Si hanno quindi 256 li-
velli per quattro colori, corrispondenti a 32 bit. Le immagini CMYK occupano quindi
uno spazio maggiore di quelle RGB, senza peraltro contenere una gamma di colori su-
periore. Il processo di conversione dalla codifica RGB a quella CMYK è proprio di cia-
scun software che gestisce la stampa di immagini e deve essere opportunamente tarato
per rispettare il più possibile i colori originali.
In ultimo, la codifica YUV separa le informazioni di luminanza (Y) e crominanza
(UV) di ciascun pixel, decorrelando le informazioni di intensità dalle informazioni re-
lative al colore. Questa codifica è largamente utilizzata negli apparati di trasmissione
televisiva e nell’ambito della compressione delle immagini. La separazione delle infor-
74 M. Coriasco et al.

Fig. 3.6 Effetto della ricostruzione di un’immagine quando sia stato ridotto il campionamento della metà
a ogni passaggio; notare che a ogni passaggio il fattore di riduzione è 4, dovuto al fatto che operiamo
sia sulle righe che sulle colonne

mazioni consente di operare sulla luminanza senza alterare le informazioni cromatiche


presenti e viceversa, aspetto fondamentale se si considera che l’occhio umano è meno
sensibile alle variazioni cromatiche rispetto alle variazioni di luminosità.
Di relativa importanza in ambito medico è anche l’uso della tecnica detta ai falsi co-
lori, che utilizza una corrispondenza biunivoca tra un valore che indica il livello del-
l’informazione che si vuole rappresentare nel pixel e una tonalità di colore scelta op-
portunamente. Le immagini in medicina nucleare fanno un uso esteso di questa tipolo-
gia di rappresentazione, per cui a un certo numero di conteggi corrisponderà un dato
colore. La quantizzazione del valore del pixel è comunque analoga a quella dei livelli
di grigio, un solo valore che, a seconda dei casi, può occupare da 8 a 16 bit, con asso-
ciata una tabella di conversione in tonalità di colori.
Il numero di bit che definisce la quantizzazione del pixel viene anche detto profon-
dità del pixel. Oltre alle considerazioni sul numero di tonalità rappresentabili, è bene ri-
cordare che tale parametro è anche correlato allo spazio occupato dall’immagine digi-
tale in termini di quantità di memoria. Convertire da una profondità di 8 bit per un’im-
magine in scala di grigi a una a 16 bit significa raddoppiare lo spazio occupato
dall’immagine sul supporto sulla quale è memorizzata.
In alcuni casi, può essere utile o necessario ridurre l’informazione, operazione che
può essere realizzata con due diversi metodi:
1. campionamento lasco, in cui non vengono considerati tutti i pixel dell’immagine ori-
ginale f(x,y) (per esempio uno sì e uno no), ottenendo così un’immagine f (x,y) che
ha un minore numero di pixel. Per ricostruire l’immagine originale occorrerà proce-
dere alla replicazione dei pixel mancanti; ciò dà origine però a un indesiderabile ef-
fetto mosaico (tassellamento). Supponiamo, per esempio, che l’immagine sia com-
posta da 512 512 pixel; per realizzare un campionamento lasco possiamo conside-
rare solo i pixel delle righe e colonne pari. Questa operazione riduce a ¼ la quantità
di spazio necessario per la memorizzazione dell’immagine. Rimuovendo tre pixel ogni
quattro, l’occhio non si accorge di questa operazione; quando invece si trascurano più
pixel, l’occhio rileva nell’immagine ricostruita f (x,y) la presenza di informazione re-
plicata, evidenziando l’effetto mosaico, come mostrato in Figura 3.6. Aumentando il
numero di pixel trascurati si ottiene, pertanto, un notevole effetto di tassellamento che
provoca un evidente deterioramento della qualità visiva dell’immagine, sino a ren-
derla non intelligibile. Da quanto detto è chiaro come il campionamento lasco sia un’o-
perazione irreversibile;
3 Introduzione all’immagine digitale 75

Fig. 3.7 La
sequenza di
immagini riporta
quantizzazioni da
256 a 2 livelli di
grigio secondo le
potenze
decrescenti del 2

2. quantizzazione lasca: si agisce sul numero di elementi della matrice che rappresenta
la funzione, procedendo con un accorpamento dei livelli di luminanza, diminuendo-
ne così il numero; ne segue che saranno necessari meno bit per la codifica.
Supponendo di disporre di 256 diversi livelli di luminanza, si possono accorpare i li-
velli di luminanza, per esempio a due a due, in modo che si dimezzino: dopo questa
operazione, sono necessari solo sette bit per la codifica. In fase di visualizzazione, un
occhio non esperto potrebbe non accorgersi della differenza. Se continuiamo ad accor-
pare, per valori superiori a 4, l’occhio incomincia a rilevare che vi è una discontinuità
nei valori di luminanza, in quanto diventano evidenti le linee di isointensità dette falsi
contorni, come mostrato in Figura 3.7. Se i livelli finali ottenuti nella fase di accorpa-
mento fossero solo due, allora si dice che l’immagine è binarizzata.
Ovviamente, si può pensare di considerare assieme le due soluzioni presentate e cioè
realizzare un campionamento e una quantizzazione lasca, avendo ben presente quali sia-
no le problematiche introdotte da ciascuno dei due metodi.

3.2
L’istogramma dei livelli di grigio

È un importante strumento statistico che permette di visualizzare la distribuzione dei va-


lori dei pixel sulla scala dei grigi; viene costruito rappresentando sulle ascisse l’intero in-
tervallo di livelli disponibile (intervallo dinamico) e in ordinata il numero di pixel appar-
tenenti a ciascun livello. La visualizzazione e l’analisi dell’istogramma possono fornire mol-
te informazioni relativamente all’immagine in esame, come mostrato negli esempi delle Figure
3.8, 3.9 e 3.10. Per esempio, la presenza di uno o più picchi nell’istogramma indica, in
76 M. Coriasco et al.

Fig. 3.8 Radiografia digitale di torace e relativo istogramma dei livelli. In ascissa sono rappresentati i
livelli dallo 0 a 255. Nessun pixel possiede livello di grigio inferiore a 18 o superiore 240. Il maggior
numero di pixel si distribuisce nei valori che vanno da 140 a 210 circa. Si verifica un picco positivo
isolato in corrispondenza del livello 27, dovuto alle parti più scure dell’immagine sopra alle clavicole
e ai fianchi del torace, nelle quali il passaggio delle radiazioni in aria non ostacolato dai tessuti ha im-
pressionato maggiormente il piano sensibile

Fig. 3.9 Diversi


istogrammi calcolati
su porzioni della
stessa immagine;
importante notare
come, restringendo
il campo su diverse
regioni
dell’immagine,
l’istogramma varia
in base al contenuto.
Si osservi come il
valore medio della
luminanza fornisca
un’indicazione della
luminosità
complessiva. Una
particolarità è data
invece in a dal
piccolo picco
positivo nei pressi
del valore minimo:
esso è dato dal
numero di pixel di
valore simile che
corrispondono alle
parti sopra alle
spalle, nella quale i
raggi x non hanno
subito attenuazione
significativa e
hanno prodotto due
aree molto scure
3 Introduzione all’immagine digitale 77

Fig. 3.10 Radiografie digitali di torace con diverse tipologie di istogrammi. Il pannello a mostra un
istogramma esteso sulla quasi totalità dell’intervallo dinamico disponibile e, in effetti, l’immagine pre-
senta un elevato contrasto tra le diverse strutture. L’immagine b ha invece un istogramma a banda limi-
tata e il contrasto dell’immagine risulta ridotto. Le immagini c e d offrono esempi di istogrammi sbi-
lanciati rispettivamente a destra e a sinistra, associati a immagini con livelli prevalentemente chiari e scuri

genere, la presenza di regioni estese aventi livelli di grigio omogenei. In particolare, in un


istogramma multimodale con diversi picchi si avrà che il primo sarà associato a una re-
gione estesa di tonalità più scura e l’ultimo a una regione estesa di tonalità più chiara. L’i-
stogramma rappresenta anche un utile strumento per individuare i parametri corretti di
post-processing e, successivamente, per valutare il risultato ottenuto tramite elaborazioni.
È possibile caratterizzare un’immagine in base alla forma assunta dall’istogramma:
• banda limitata: l’istogramma si estende su un sottointervallo di valori; l’immagine pre-
senta un limitato contrasto, tanto più basso quanto più ristretto è l’intervallo (Fig. 3.10b);
• sbilanciata a sinistra: l’immagine ha una predominanza di pixel appartamenti a va-
lori bassi, l’immagine corrispondente avrà una prevalenza di tonalità scure (Fig. 3.10d);
• sbilanciata a destra: l’immagine ha una predominanza di pixel appartamenti a valo-
ri alti, l’immagine corrispondente avrà una prevalenza di tonalità chiare (Fig. 3.10c);
• uniforme: tutti i livelli hanno pressoché la stessa rilevanza numerica e l’immagine ha,
di conseguenza, in genere un elevato livello di informazione.

3.3
Le periferiche di visualizzazione e stampa

L’insieme di dati numerici che costituisce la matrice dell’immagine digitale, per poter
essere utilizzato, deve essere inviato a un dispositivo di output, che può essere costitui-
to da un monitor (soft copy) o da una stampante (hard copy).
78 M. Coriasco et al.

È importante sottolineare il fatto che, ogni volta che un’immagine digitale viene vi-
sualizzata su un monitor o viene stampata, la necessità di dover adattare l’immagine alle
capacità di rappresentazione del mezzo può indurre delle alterazioni della discretizza-
zione spaziale e, quindi, alle dimensioni dei pixel o relativamente al numero di tonalità
o livelli di grigio. Ogni dispositivo di output ha, infatti, delle sue caratteristiche di ri-
soluzione e contrasto, ed è fondamentale che esse siano correttamente accoppiate con
quelle dei dati in ingresso che costituiscono l’immagine da rappresentare. Il manteni-
mento dei colori in ambito fotografico prevede, ad esempio, un complesso sistema di
gestione con la memorizzazione di tabelle di conversione che descrivono la risposta cro-
matica di ogni periferica.
In ambito radiologico, negli ultimi anni si è assistito progressivamente a una dimi-
nuzione dell’utilizzo di immagini stampate su pellicola, sostituite dalla sola visualizza-
zione a monitor per la fase di refertazione, e dalla consegna al paziente di un supporto
informatico (CD o DVD).
Per i monitor, attualmente la tecnologia Liquid Crystal Display (LCD) ha definitiva-
mente soppiantato la Cathode Ray Tube (CRT). La “Linea guida per l’assicurazione di
qualità in teleradiologia” ISTISAN indica alcuni requisiti minimi che dovrebbero avere
i monitor ad alta definizione per stazioni di refertazione: almeno 2K×2K (cioè 4 Me-
gapixel) a colori per tomografia computerizzata (TC) e risonanza magnetica (RM), 3K×3K
per radiologia convenzionale e 5K×5K per la mammografia. La luminosità dei monitor
deve essere elevata, di almeno 300 cd/m2.
Il problema della corretta taratura dei monitor per radiologia e della giusta resa dei li-
velli di luminanza è stato affrontato nell’ambito dello standard relativo al trattamento del-
le immagini medicali DICOM. Il documento NEMA specifica una funzione di visualizza-
zione standard (Grayscale Standard Display Function, GSDF) che ha lo scopo di garanti-
re che, a parità di variazione nei valori digitali, si abbia una costante variazione di luminosità
percepita su qualsiasi dispositivo di visualizzazione. In particolare, la GSDF è una funzio-
ne basata su di un modello di risposta del sistema visivo umano al variare della luminan-
za, che pone sulle ascisse i livelli percepibili come differenti e sulle ordinate i livelli di lu-
minanza associati. Quando viene richiesto di visualizzare l’immagine, i valori digitali di
ogni pixel vengono convertiti in Digital Driving Levels (DDL), rappresentati poi come li-
velli di luminanza. La conversione da valore del pixel a DDL può essere modificata in mo-
do da correggere eventuali errori nella luminanza rappresentata rispetto alla risposta attesa.
In alcuni casi, per la produzione dell’immagine diagnostica si procede anche alla stam-
pa su supporto. Occorre tener presente che questo dispositivo può introdurre delle va-
riazioni alle proprietà dell’immagine. In ambito medico, le stampanti più diffuse sono
di tipo laser con stampa su pellicola, in passato con sviluppo tramite appositi liquidi, e
oggi sempre più frequentemente con sviluppo a secco (processo termografico).
La risoluzione di queste stampe è mediamente di circa 300 DPI con una dimensione
del pixel intorno agli 80 m, che è data dalla sezione del laser che effettua la scansio-
ne per impressionare la pellicola. Per alcune applicazioni in cui è richiesta una maggior
risoluzione, come per esempio in mammografia, sono state sviluppate stampanti con dia-
metro del laser e quindi dimensioni del pixel dell’ordine di 40 m.
Il numero di livelli di grigio è tipicamente di 4096 (12 bit). Anche in questo caso i
dati in input saranno legati a quelli rappresentati attraverso la funzione di conversione
3 Introduzione all’immagine digitale 79

utilizzata per la rappresentazione a monitor, opportunamente adattata per mantenere il


più possibile la stessa rappresentazione su stampa.
Negli ultimi anni, ai dispositivi tradizionali si affiancano sempre più spesso strumenti
di tipo mobile, come i tablet pc e gli smartphone. Pur non raggiungendo la qualità del-
la rappresentazione di un monitor professionale, questi apparati sono sempre più spes-
so utilizzati in ambito medico, per le caratteristiche di mobilità e semplicità di intera-
zione con l’utente, tramite gli schermi di tipo touchscreen.
Gli apparati con display a cristalli liquidi di tipo retina, pur disponendo di una ele-
vata risoluzione (da 230 a 320 ppi a seconda dei modelli), sono in grado di rappresen-
tare al massimo una profondità di luminanza di 8 bit, ancora molto lontani dai 12 bit
dei monitor professionali. Non sono quindi un sostituto dei monitor tradizionali, quan-
to un’integrazione nel contesto dei sistemi informativi ospedalieri.
Le nuove tecnologie in fase di sviluppo sono basate sull’uso di Organic Light Emit-
ting Diode (OLED), ovvero diodo organico a emissione di luce, che non necessita di re-
tro-illuminazione ma produce luce propria; questa caratteristica consente la realizzazione
di display con elevato contrasto e con un’ottima resa cromatica, ma al momento i costi
di produzione sono ancora elevati, e non ci sono apparati disponibili su larga scala.

3.4
Il cambio delle dimensioni

Si ricorre agli algoritmi di zooming quando si renda necessario cambiare la dimensio-


ne di un’immagine e degli elementi in essa presenti in fase di visualizzazione o di stam-
pa. Il cambio di dimensioni comporta una ridefinizione della discretizzazione spaziale
dell’immagine, in quanto la porzione di matrice selezionata dell’immagine in oggetto
dovrà essere adattata alla matrice di visualizzazione o stampa.
È intuitivo che cambiare la discretizzazione di un’immagine mette di fronte a due
problemi diversi, a seconda che si voglia aumentare o diminuire la risoluzione dell’im-
magine. Se la discretizzazione deve essere aumentata, bisogna aggiungere dei pixel che
non esistono nell’immagine originale, bisogna quindi calcolarne il valore. Se la discre-
tizzazione deve essere diminuita, bisogna eliminare dei pixel in eccesso nell’immagine
originale. In ogni caso, l’obiettivo è quello di alterare la discretizzazione dell’immagi-
ne di partenza, preservando il più possibile le informazioni in essa presenti.
Prendiamo in esame il caso dell’ingrandimento: è necessario aumentare la discretiz-
zazione, quindi bisogna in qualche modo ridisegnare l’informazione mancante. Si ri-
corre allora agli algoritmi di interpolazione. I principali metodi di interpolazione uti-
lizzati, di cui è mostrato un esempio in Figura 3.11, sono:
• replicazione: detto anche zero-order-hold o nearest neighbour (vicini più prossimi),
consiste in una semplice copia del pixel da ingrandire nel suo intorno, ed è quello
che produce l’effetto di quadrettatura;
• bilineare (first-order): esegue un’interpolazione prima lungo tutte le righe poi lungo
tutte le colonne. Introduce un effetto di smoothing nell’immagine risultante;
• bicubico (second order): lavora calcolando il valore del nuovo pixel come valore me-
dio di una matrice di pixel nel suo intorno. Di solito riduce gli effetti indesiderati
80 M. Coriasco et al.

Fig. 3.11 Esempi di ingrandimento con diversi algoritmi. Il particolare dell’immagine (a) è stato in-
grandito con l’algoritmo di interpolazione per replicazione (b), hermite (c), bilineare (d), bicubico (e)
e lanczos (f)

delle due tecniche precedenti, ma il risultato non è sempre ottimale e dipende molto
dall’immagine originale. In particolare, esistono alcune varianti di questo algoritmo
che si basano su di una diversa attribuzione di fattori peso ai pixel nell’intorno di
quello da calcolare, in modo da ottenere un risultato con variazioni di luminanza più
morbide (con maggior smoothing) o più nitide;
• Hermite: deve il suo nome dal matematico Charles Hermite, ed è una tecnica di in-
terpolazione basata sull'uso di polinomi che considerano sia i valori presenti nell'im-
magine, sia la derivata prima dei valori stessi, consentendo quindi una migliore va-
lutazione dell'andamento della luminanza;
• Lanczos: è una formula matematica che consente un ricampionamento del segnale otte-
nuto tramite la convoluzione con una matrice di ricostruzione del segnale detta Kernel
di Lanczos; è il miglior compromesso nelle operazioni di ingrandimento di immagini.

3.5
La valutazione della qualità delle immagini digitali
Come visto nei paragrafi precedenti, ogni immagine digitale è il risultato di un proces-
so di acquisizione che comprende sempre la rilevazione di un segnale e un procedimento
che ha come ultimo passo la definizione dei valori dei singoli pixel.
I principali parametri per la valutazione della qualità di un’immagine digitale sono da-
ti dalla quantificazione della risoluzione spaziale e del contrasto. Occorre inoltre valuta-
re la presenza di eventuali artefatti, termine con il quale indichiamo un qualunque tipo
di alterazione dei valori dei pixel non riconducibile direttamente all’oggetto che viene
rappresentato. Particolare importanza tra gli artefatti è rivestita dal rumore d’immagine.
Nei paragrafi che seguiranno verranno descritte le modalità con le quali è possibile
fornire una valutazione quantitativa dei parametri di qualità di un’immagine digitale,
operazione possibile grazie ad analisi numeriche di immagini test realizzate con proce-
dure ben definite.
3 Introduzione all’immagine digitale 81

Fig. 3.12 L’oggetto di sinistra presenta delle linee di larghezza 0,5 mm, con una frequenza spaziale di
1 lp/mm. L’immagine che lo rappresenta, seppur con una perdita di nitidezza, mostra ancora l’alter-
nanza di linee propria dell’oggetto. Nel caso rappresentato a destra, l’oggetto ha linee di larghezza 0,25
mm, con una frequenza di 2 lp/mm. L’immagine che lo rappresenta, ottenuta con un sistema analogo
a quello del caso di sinistra, non permette di distinguere le diverse linee

3.5.1
Risoluzione spaziale e funzione di trasferimento della modulazione

Per risoluzione spaziale si intende un’indicazione dei più piccoli dettagli presenti nel-
l’oggetto in esame correttamente rappresentati dall’immagine ottenuta. Può anche es-
sere definita come la minima distanza tra due oggetti puntiformi per cui essi sono an-
cora distinguibili nell’immagine prodotta.
L’unità di misura della risoluzione spaziale può quindi essere semplicemente un’u-
nità di lunghezza (es. mm) oppure un’indicazione di frequenza spaziale correttamente
rappresentata, come ad esempio le paia di linee per unità di lunghezza (lp/mm). Si con-
sidera cioè l’immagine di un oggetto che contiene coppie di linee appaiate di uguale lar-
ghezza e di elevato contrasto. Il sistema di produzione dell’immagine sarà in grado di
riprodurre l’alternanza di livelli intrinseca dell’oggetto per larghezze di linee superiori
a un dato valore soglia, al di sotto del quale non sarà più possibile distinguere i due li-
velli, come mostrato nella Figura 3.12 di esempio.
Questo valore soglia rappresenterà il potere risolutivo dell’immagine digitale e del si-
stema di acquisizione.
Nel trattare la risoluzione di un’immagine digitale, è importante distinguere gli aspet-
ti relativi alla discretizzazione dell’immagine stessa da quelli inerenti il processo di ac-
quisizione. In pratica, possiamo dire che non è possibile rappresentare correttamente det-
tagli con dimensioni inferiori a quelle di un singolo pixel, mentre non è detto che oggetti
con dimensioni analoghe a quelle di un pixel siano correttamente rappresentati, come
mostrato nell’esempio in Figura 3.13.
Il fatto che non sia possibile rappresentare dettagli con dimensioni inferiori a quelle
di un pixel è una diretta conseguenza del teorema del campionamento. Infatti, la di-
mensione del pixel rappresenta il periodo di campionamento, mentre la frequenza di cam-
pionamento sarà data dal suo reciproco. La massima frequenza spaziale correttamente
rappresentabile, in accordo al teorema di Shannon, sarà pari alla metà della frequenza
di campionamento, per cui per esempio avendo un pixel di 0,25 mm potrò rappresenta-
re correttamente frequenze spaziali fino a (1/2) (1/0,25) = 2 lp/mm.
82 M. Coriasco et al.

a b

Fig. 3.13 Un oggetto circolare di diametro 0,5 mm viene rappresentato in un’immagine digitale con pix-
el di 1 mm (a) e in un’altra con pixel di 0,5 mm (b). Nel primo caso l’oggetto appare nell’immagine con
dimensioni maggiori a quelle reali per le limitazioni della dimensione del pixel, nel secondo caso è il
processo di acquisizione che implica una perdita di risoluzione, per cui il potenziale vantaggio di un pix-
el di dimensioni inferiori non si traduce in un effettivo miglioramento di qualità dell’immagine

Fig. 3.14 Rappresentazione schematica del significato di funzione di trasferimento della modulazione
(MTF). I dettagli a diversa frequenza spaziale dell’oggetto vengono rappresentati con un contrasto de-
crescente, il cui valore relativo viene riportato nel grafico della MTF

Esiste un modo per esprimere e descrivere dettagliatamente la risoluzione spaziale di


un sistema per produzione di immagini, che è quello di valutare la sua funzione di tra-
sferimento della modulazione (MTF). Tralasciando i fondamenti matematici di tale fun-
zione, in termini pratici essa esprime la variazione relativa di contrasto che il nostro si-
stema apporta a ciascuna frequenza spaziale.
Si consideri l’esempio della Figura 3.14 con i diversi set di linee in ingresso. Per cia-
scuno di essi, la differenza tra il valore massimo e minimo di intensità dei livelli di gri-
gio nell’immagine avrà un determinato valore, decrescente all’aumentare della risolu-
zione. Questa differenza, rapportata all’intensità del segnale, rappresenta l’attenuazione
introdotta dal sistema alle diverse frequenze spaziali. Riportando questi valori su di un
grafico ponendo sulle ascisse le frequenze spaziali e sulle ordinate la percentuale di con-
trasto mantenuta, si ottiene una rappresentazione della MTF. Il valore soglia univoco per
la definizione della risoluzione spaziale può essere definito considerando la frequenza
spaziale per la quale si ha un valore di MTF pari al 10 o al 5%.
L’MTF è molto importante per confrontare sistemi diversi ed è stata ampiamente uti-
lizzata per discutere l’introduzione dei sistemi per radiologia digitale in sostituzione dei
sistemi tradizionali.
3 Introduzione all’immagine digitale 83

Fig. 3.15 Esempio di immagine priva di rumore (con valori costanti dei pixel in una regione omogenea)
e di immagine dello stesso oggetto con rumore (valori dei pixel con alterazioni casuali)

3.5.2
Rumore: quantificazione e analisi spettrale

Il rumore in un’immagine è costituito da variazioni casuali dell’intensità dei livelli di gri-


gio, non corrispondenti a una vera differenza di intensità di segnale proveniente dall’og-
getto da rappresentare ma dovuti al contributo di diversi fattori, tra cui oscillazioni casuali
dovute ai circuiti elettronici, ai detettori o, comunque, a tutta la strumentazione in catena
che trasforma l’immagine originale in quella digitalizzata dell’oggetto rappresentato.
Il rumore può essere quantificato considerando i valori assunti dai pixel in una re-
gione dell’immagine che dovrebbe essere omogenea, in quanto ottenuta da un oggetto
omogeneo (Fig. 3.15). Calcolando la deviazione standard in rapporto al valore medio
dei pixel e moltiplicando per cento si ha il valore del rumore espresso in percentuale.
Questa deviazione standard percentuale permette di quantificare l’entità del rumore,
ma non definisce univocamente l’aspetto dell’immagine che dipenderà anche da altre
caratteristiche. In particolare, è importante considerare la distribuzione statistica delle
deviazioni dei valori dei pixel, che potrà avere un andamento uniforme, gaussiano, espo-
nenziale o di altre funzioni di densità di probabilità. Questa distribuzione potrà essere
evidenziata attraverso l’istogramma dei valori dei pixel nella regione esaminata, come
mostrato nell’esempio della Figura 3.16.
Altro punto da considerare relativamente al rumore è quello delle frequenze spa-
ziali con le quali esso si manifesta, che potranno condizionare pesantemente l’aspet-
to dell’immagine con diverse “tessiture” di rumore. Per evidenziare le frequenze spa-
ziali del rumore occorrerà utilizzare l’analisi di Fourier che è stata già introdotta in
precedenza e verrà approfondita in un capitolo seguente. In questo ambito ci interes-
sa utilizzare questo strumento matematico per rappresentare graficamente lo spettro
di frequenza del rumore e di conseguenza poter argomentare sulla sua composizione.
In caso di andamento costante si parla di rumore bianco, riferendosi al colore che è
dato dalla somma degli altri colori noti e, pertanto, presenta uno spettro costituito dal-
la somma di tutte le possibili frequenze. In altri casi si noterà un rumore con mag-
giori componenti a basse frequenze oppure ad alte frequenze, come negli esempi mo-
strati in Figura 3.17.
Nell’ambito della diagnostica dell’immagine il rumore è costantemente al centro del-
l’attenzione nel processo che porta alla definizione dei parametri di acquisizione. Nel-
84 M. Coriasco et al.

Fig. 3.16 Esempio di immagini con


diversa distribuzione del rumore.
Entrambe le immagini della figura
presentano un valore medio di 128 e
una deviazione standard di 32 (25%)
ma, come mostrato dagli istogrammi
abbinati, l’immagine in a ha una
distribuzione del rumore uniforme,
mentre l’immagine in b ha una
distribuzione gaussiana

Fig. 3.17 Esempio di immagini con diverso spettro di frequenza del rumore. Le tre immagini mostrate
(a, b e c) hanno tutte valore medio 128 e deviazione standard di 32 (25%), ma presentano diverse com-
ponenti spettrali di rumore come mostrato nel grafico di destra. In particolare, l’immagine in a mostra
un andamento dello spettro che oscilla intorno a un valore costante e si avvicina quindi al caso di ru-
more bianco. L’andamento del grafico relativo all’immagine in b presenta una maggior componente
di basse frequenze, come è evidente anche osservando qualitativamente la “tessitura” del rumore. Il
grafico in c ha un andamento tendenzialmente crescente verso le alte frequenze

la maggior parte dei casi il suo valore risultante è frutto di un compromesso tra la qua-
lità desiderata e altri fattori quali, ad esempio, il rischio radiologico per il paziente. Nei
capitoli che seguiranno si discuterà approfonditamente di tecniche di elaborazione che
consentono di isolare, attenuare e al limite rimuovere il rumore.

3.5.3
Rapporto contrasto-rumore ed efficienza quantica

I diversi elementi che compongono un’immagine sono distinguibili grazie al contrasto che
è presente tra di essi. In particolare, nell’ambito medicale assume un’importanza fonda-
mentale la possibilità di visualizzare determinate strutture con adeguato contrasto, che con-
3 Introduzione all’immagine digitale 85

Fig. 3.18 Esempi di immagini con diverso rapporto contrasto rumore (CNR). a Contrasto del 12%,
assenza di rumore; b CNR 200%; c CNR 100%; d CNR 50%; e CNR 25%

dizioneranno la diagnosi conseguente. In termini quantitativi, il contrasto può essere defi-


nito come la differenza di livello tra due regioni di interesse dell’immagine, eventualmen-
te rapportata a uno dei due livelli per esprimerlo in percentuale. Nell’esempio (a) della Fi-
gura 3.18, la zona centrale ha un livello di 144, mentre la zona circostante presenta un li-
vello di 128, quindi con una differenza numericamente pari a 16 che corrisponde al 12%.
Occorre però precisare che l’esempio di Figura 3.18a ha la peculiarità di essere to-
talmente esente da rumore, situazione che nella pratica non si verifica sostanzialmente
mai. L’effettiva visibilità di un elemento di un’immagine dipenderà, oltre che dal con-
trasto, anche dal rumore presente. Per questo motivo è possibile utilizzare un indicato-
re di qualità dell’immagine che tenga conto sia del contrasto tra oggetti diversi che del
rumore con il quale essi sono rappresentati. Si parlerà in questo caso di rapporto con-
trasto rumore (Contrast to Noise Ratio, CNR), che potrà essere definito come il rap-
porto tra la differenza di livello tra due elementi e la deviazione standard media dei li-
velli presente al loro interno. Gli esempi (b), (c), (d) ed (e) di Fig. 3.18 sono stati otte-
nuti aggiungendo un rumore prestabilito all’immagine (a). È possibile intravedere la
regione centrale ancora nell’immagine (d) che presenta un CNR di 50%, mentre risul-
ta critica la distinzione di tale regione nell’esempio (e), che mostra un CNR di 25%. È
da notare che il contrasto relativo rimane costante per le diverse immagini, in quanto è
stato mantenuto il livello medio di 144 all’interno e di 128 nello spazio circostante. Ciò
che cambia è proprio la quantità di rumore, con una deviazione standard media rispet-
tivamente di 8, 16, 32 e 64 per le immagini da (b) a (e).
Questo tipo di valutazione può essere utilizzata per verificare le prestazioni di un si-
stema di produzione di immagini, utilizzando degli adeguati oggetti test. Il risultato sarà
tuttavia associato alle caratteristiche dell’oggetto utilizzato, alla sua geometria e al con-
trasto intrinseco offerto dagli elementi che lo costituiscono. Tuttavia, così come per la ri-
soluzione spaziale abbiamo visto la possibilità di una valutazione più estesa e oggettiva,
anche per l’efficacia del sistema nella visualizzazione di elementi con basso contrasto
esiste una modalità di valutazione che fornisce una quantificazione univoca e indipen-
dente dagli oggetti test utilizzati. Si parla in questo caso di efficienza quantica di rivela-
zione (Detective Quantum Efficiency, DQE) che può essere definita nel seguente modo:
SNR2out ( f )
DQE(f ) 
SNR2in ( f )
dove SNRout è il rapporto segnale rumore dell’immagine esaminata e SNRin è il rappor-
to segnale rumore all’ingresso del sistema che produce l’immagine. La distribuzione di
86 M. Coriasco et al.

energia che viene rilevata dal sistema è infatti già affetta da un suo rumore intrinseco:
se essa viene mantenuta perfettamente si avrà un’efficienza pari a uno, se invece si ha
una perdita di segnale o un aumento del rumore l’efficienza verrà ridotta. Il tutto è va-
lutato per ciascuna frequenza spaziale f, in quanto la risposta dipende fortemente da questo
parametro.
Si può dimostrare che l’efficienza quantica è strettamente correlata alla funzione di
trasferimento della modulazione e allo spettro di frequenza del rumore secondo la se-
guente relazione:
Win MTF 2 ( f )
DQE(f ) 
NPS 2 (f)

dove Win rappresenta il rumore in ingresso al sistema, ricavabile nel caso di imma-
gini radiologiche dal valore di dose in ingresso al rivelatore e da coefficienti tabulati.
A partire, quindi, dalla valutazione di MTF e NPS sarà possibile ottenere l’efficienza
quantica del proprio sistema, quantità che, come la singola MTF, è stata ampiamente di-
scussa in occasione dell’introduzione dei sistemi digitali per radiologia proiettiva in so-
stituzione dei sistemi analogici.

3.6
Considerazioni finali

Abbiamo visto come l’analisi numerica di immagini digitali di opportuni oggetti test
permetta di effettuare valutazioni quantitative di indicatori di qualità. Vale la pena riba-
dire e sintetizzare in conclusione di questo capitolo i principali fattori che concorrono
al risultato di immagine finale con le sue caratteristiche qualitative:
1. la discretizzazione e la quantizzazione scelta determinano in sostanza le potenzialità
dell’immagine, rappresentano lo spazio strutturale nel quale le informazioni di det-
taglio e di contrasto verranno rappresentate;
2. il sistema di produzione dell’immagine presenta sempre delle limitazioni che altera-
no sensibilmente la distribuzione di energia da rappresentare, con conseguenti perdi-
te di risoluzione e rapporto segnale rumore;
3. la tecnica di acquisizione con la definizione dei vari parametri condiziona ulterior-
mente il risultato ottenuto;
4. la visualizzazione dell’immagine comporta un adattamento della matrice numerica
che costituisce l’immagine allo spazio predefinito del dispositivo;
5. la post-elaborazione offre la possibilità di alterare secondo una precisa intenzione de-
terminate caratteristiche come, per esempio, la riduzione del rumore o l’aumento di
visibilità di piccoli dettagli.
Il professionista che nella propria attività si trovi a ottenere informazioni attraverso
immagini dovrebbe conoscere le conseguenze delle scelte relative a tutti questi punti sul
suo prodotto finale. In questo testo verrà in particolare approfondito il quinto punto re-
lativo alle possibili post-elaborazioni, finalizzate al miglioramento di qualità o, comun-
que, alla definizione di procedure per evidenziare informazioni contenute nell’immagine.
3 Introduzione all’immagine digitale 87

Per il secondo e terzo punto è invece essenziale una trattazione più specifica delle sin-
gole metodiche, reperibile in altri testi di questa collana.

Letture consigliate

Gruppo di Studio per l’Assicurazione di Qualità in Radiologia Diagnostica ed Interventistica (ed)


(2010) Linee guida per l’assicurazione di qualità in teleradiologia. Rapporti ISTISAN 10/44.
Istituto Superiore di Sanità, Roma
National Electrical Manufactures Association (2004) Digital Imaging and Communications in Me-
dicine (DICOM) Part 14: Grayscale Standard Display Function. Standard NEMA PS 3.14-
2004, Rosslyn, Virginia, USA
88 ESERCIZI

Esercizi

1) La quantizzazione consiste nella:


a) attribuzione di valori reali alle variabili spaziali
b) rappresentazione dei livelli di luminanza con valori interi
c) prelevamento del valore del campione a intervalli interi
d) definizione della risoluzione di acquisizione

2) La fedele ricostruzione di un’immagine da numerico ad analogico avviene se:


a) la discretizzazione è uniforme
b) la quantizzazione è uniforme
c) è stato rispettato il teorema del campionamento
d) sia la discretizzazione sia la quantizzazione sono uniformi

3) Nei FAX la profondità è di due soli livelli di grigio, perché


a) l’informazione su filo elettrico può assumere solo due valori (presenza/assenza
di tensione)
b) codificare con un solo bit/pixel minimizza l’occupazione di banda sul canale te-
lefonico
c) si preleva il valore del campione a intervalli interi
d) la risoluzione di acquisizione non è esattamente definita nella grafica a scala di
grigi

4) Perché solitamente nelle immagini a uso clinico sono impiegati molti più livelli di
grigio di quanti sia in grado di discriminare l’occhio umano?
a) perché l’informazione su filo elettrico può assumere solo due valori (presen-
za/assenza di tensione) quindi è necessario integrare tale mancanza aumentando
il numero di livelli
b) perché con il tempo l’occhio dell’operatore si esercita e diventa in grado di di-
scriminare molti più livelli di quanto sia abituato l’occhio umano normale
c) per aumentare le possibilità di variazione del contrasto nelle immagini rappre-
sentate, adottando opportune tecniche di elaborazione dei valori dei pixel ini-
zialmente presenti nell’immagine
d) perché la risoluzione di acquisizione non è esattamente definita nella grafica a
scala di grigi

5) Come è definita la tecnica in medicina nucleare nella quale a determinati range di


conteggi viene associato un particolare colore?
a) colorazione con falsi tecnici
b) tecnica dei falsi colori
c) tecnica dei colori ambigui
d) tecnica dei colori finti
ESERCIZI 89

6) Cosa indica la profondità di un pixel?


a) la sua altezza fisica espressa in micron
b) il numero di tonalità di colore usate per quantizzare l’informazione contenuta
nel pixel
c) il numero di tonalità di grigio utilizzate per rappresentare l’immagine
d) il numero di bit utilizzati per quantizzare (da essa dipende il numero di tonalità
rappresentabili)

7) Cosa succede raddoppiando la profondità dei pixel in un’immagine a colori nel si-
stema RGB?
a) raddoppia il numero di tonalità rappresentabili
b) quadruplica il numero di tonalità rappresentabili
c) raddoppia lo spazio occupato
d) la quantità di memoria occupata diventa di otto volte

8) Per la conversione analogico-numerica di un’immagine occorre applicare:


a) operazioni di campionamento e quantizzazione
b) operazioni di conversione in digit
c) conversioni in formato analogico
d) trasformazioni da numeriche ad analogiche

9) Utilizzando 16 bit, si ottengono livelli di luminanza compresi fra:


a) 0 e 256
b) 0 e 1023
c) 1 e 255
d) 0 e 65535

10) Supponendo di voler memorizzare una sequenza di immagini della durata di 13 se-
condi con dimensioni 1024 768 a colori RGB e 25 fotogrammi al secondo, calco-
lare la quantità di memoria necessaria

11) Calcolare il numero di KiB necessari per la memorizzazione raw di un'immagine a


colori RGB di 1024 768 con profondità di 8 bit per ogni colore

12) Un’immagine numerica viene rappresentata mediante:


a) una matrice di pixel f (x, y) con x, y valori di righe e colonne
b) una distribuzione di frequenze
c) una distribuzione di livelli di luminanza
d) una matrice f(x,y) con x, y valori di luminanza

13) Una quantizzazione lasca induce:


a) due soli livelli di luminanza
b) tutti i livelli di luminanza previsti
c) falsi contorni corrispondenti a isolinee
d) livelli di luminanza distribuiti in modo uniforme
90 ESERCIZI

14) La discretizzazione spaziale definisce:


a) la quantizzazione dei valori di luminanza
b) le dimensioni dell’immagine
c) la conversione di formato
d) la risoluzione in frequenza

15) Una penna USB abbia capacità di 2GB e sia occupata per il 30%.
Calcolare quante immagini di dimensioni 1024 768 con 2 byte per la codifica dei
livelli di luminanza in formato raw è ancora in grado di contenere

16) Nelle immagini radiologiche si utilizzano generalmente 4096 diversi livelli di lu-
minanza:
a) quanti bit occorrono per rappresentarli tutti?
b) quanti byte occorrono per rappresentarli tutti?

17) Data l’immagine di cui sotto, di dimensione 4 4 e quattro livelli di luminanza,


(0,1,2,3) determinare l’istogramma dei livelli di grigio e rappresentarlo graficamente

0 3 3 3
0 0 0 3
0 1 1 3
2 0 0 3

18) In un’immagine numerica l’errore che si commette nella quantizzazione:


a) dipende dalla profondità di una scena
b) è funzione delle dimensioni dell’immagine
c) dipende dal numero di bit riservati al valore della luminanza
d) è funzione della risoluzione

19) La discretizzazione di un’immagine digitale può essere definita come:


a) il numero di bit utilizzati
b) il numero di pollici lungo le due direzioni spaziali
c) il numero di pollici lungo la diagonale
d) il numero di pixel per pollice

20) Per diminuire l’errore di quantizzazione:


a) si agisce sulla profondità di una scena
b) si aumentano le dimensioni dell’immagine
c) si aumenta il numero di bit riservati al valore della luminanza
d) si cambia la risoluzione

21) L’istogramma dei livelli di luminanza fornisce informazioni:


a) sulla rappresentazione gaussiana
b) sulla metodologia di acquisizione di un’immagine
ESERCIZI 91

c) sulla distribuzione cumulativa di luminanza


d) sul rapporto fra il numero di pixel con dato valore di luminanza e il numero to-
tale di pixel

22) L’istogramma dei livelli di luminanza:


a) descrive il contenuto di un’immagine piatta
b) varia a seconda della posizione assunta dagli oggetti all’interno dell’immagine
c) rappresenta la distribuzione cumulativa di luminanza
d) permette di ricavare la luminanza media di un'immagine

23) Un’immagine di una radiografia di formato 24 30 con dimensioni del pixel di 90


m viene stampata su una pellicola di dimensioni 18 24 con una risoluzione di
stampa di 600 DPI. Calcolare:
a) la matrice dell’immagine originale
b) le dimensioni del pixel in fase di stampa
c) la matrice dell’immagine stampata

24) Si desidera ottenere un voxel isotropico (con i tre lati uguali) a partire da un’im-
magine tomografica di matrice 512 512 e spessore della sezione di 0,75 mm. Che
dimensioni di FOV (Field Of View, dimensione dell’immagine in cm) si dovrà sce-
gliere?

25) Si vogliono archiviare delle immagini digitali CR con matrice 1500 2500, pro-
fondità pixel 16 bit, su di un CD da 700 MiB. Quante immagini è possibile archi-
viare?

26) Che caratteristiche possiede un’immagine il cui istogramma dei livelli è sbilancia-
to a destra?
a) una predominanza di pixel appartenenti a valori alti, con prevalenza di tonalità
scure
b) una predominanza di pixel appartenenti a valori bassi, con prevalenza di tona-
lità scure
c) una predominanza di pixel appartenenti a valori alti, con prevalenza di tonalità
chiare
d) una predominanza di pixel appartenenti a valori bassi, con prevalenza di tona-
lità chiare

27) Che caratteristiche possiede un’immagine il cui istogramma dei livelli è sbilancia-
to a sinistra?
a) una predominanza di pixel appartenenti a valori alti, con prevalenza di tonalità
scure
b) una predominanza di pixel appartenenti a valori bassi, con prevalenza di tona-
lità scure
c) una predominanza di pixel appartenenti a valori alti, con prevalenza di tonalità
chiare
92 ESERCIZI

d) una predominanza di pixel appartenenti a valori bassi, con prevalenza di tona-


lità chiare

28) Che caratteristiche possiede un’immagine con istogramma a banda limitata?


a) una predominanza di pixel appartenenti a valori medi, con prevalenza di tona-
lità scure
b) una predominanza di pixel appartenenti a valori medi, con prevalenza di tona-
lità chiare
c) un contrasto tanto più limitato quanto più ristretto è l’intervallo di banda
d) un contrasto tanto più elevato quanto più ristretto è l’intervallo di banda

29) Cosa indica la risoluzione spaziale di un’immagine radiologica digitale?


a) la distanza tra oggetti distinguibili per cui essi risultino ancora puntiformi
b) la distanza tra due oggetti puntiformi per cui essi non risultino distinguibili
c) la massima distanza tra due oggetti puntiformi per cui essi risultino ancora
distinguibili
d) la minima distanza tra due oggetti puntiformi per cui essi risultino ancora
distinguibili nell’immagine prodotta

30) Come si può quantificare percentualmente l’entità del rumore presente in un’im-
magine?
a) calcolando la deviazione standard in rapporto al valore medio dei pixel apparte-
nenti a una regione dell’immagine che si suppone omogenea e moltiplicando per
cento
b) calcolando la deviazione standard in rapporto al valore medio dei pixel apparte-
nenti a una regione il più possibile disomogenea dell’immagine e moltiplicando
per cento
c) calcolando il valore medio dei pixel di una regione disomogenea dell’immagine
e moltiplicando per cento
d) non esiste un tale sistema, il rumore viene sempre espresso in valore assoluto e
non in termini percentuali

31) Quali differenze presenta la tecnologia OLED rispetto a quella a LED?


a) nessuna differenza, solo nella OLED si ha maggior resa cromatica e più eleva-
to contrasto
b) nella OLED il pixel, necessitando di retroilluminazione, garantisce maggior
resa luminosa
c) nella OLED il pixel non necessita di retro-illuminazione ma emette luce propria
d) non esiste nessuna tecnologia OLED, esiste solo quella a LED (Light Emitting
Diode)

32) Quale problema si presenta nel cambiare le dimensioni di un’immagine?


a) nessun problema, basta eseguire un ingrandimento
b) ridefinire la matrice di discretizzazione spaziale originaria
c) è necessario calcolare il valore dei pixel prodotti dalla nuova discretizzazione
d) è necessario eliminare dei pixel che non esistono nell’immagine originale
ESERCIZI 93

33) Quale problema si presenta nell’aumentare le dimensioni di un’immagine?


a) nessun problema, basta eseguire un ingrandimento
b) diminuire le dimensioni della matrice di discretizzazione spaziale originaria
c) è necessario calcolare il valore di nuovi pixel che non esistevano nell’immagine
originaria
d) è necessario eliminare selettivamente dei pixel nell’immagine originale

34) Quale problema si presenta nel diminuire le dimensioni di un’immagine?


a) nessun problema, basta eseguire un ingrandimento al contrario
b) aumentare le dimensioni della matrice di discretizzazione spaziale originaria
c) è necessario calcolare il valore di nuovi pixel che non esistevano nell’immagine
originaria
d) è necessario selezionare quali pixel devono essere eliminati nell’immagine ori-
ginale

35) Quale algoritmo utilizzato nell’ingrandimento produce un tipico effetto di quadret-


tatura?
a) algoritmo bilineare
b) algoritmo bicubico
c) algoritmo di replicazione
d) non esiste effetto quadrettatura negli ingrandimenti, solo nelle riduzioni

36) Con quali unità di misura può essere quantificata la risoluzione spaziale?
a) nessuna, è sufficiente che l’immagine sia intelligibile con la sua matrice di ri-
soluzione nativa
b) un’unità di lunghezza (mm) oppure una frequenza spaziale, come lp/mm
c) un’unità di superficie (mm2) oppure una frequenza spaziale (lp/mm2)
d) un’unità di memoria (byte), oppure come flusso di dati (in bit/s)

37) Qual è il valore della massima frequenza spaziale rappresentabile in una matrice nel-
la quale i pixel hanno dimensione fisica di 0,1 mm?
a) la metà della frequenza di campionamento: (½) (1/0,1) = 5 lp/mm
b) il doppio della frequenza di campionamento: 2 (1/0,1) = 20 lp/mm
c) frequenza di campionamento, pari alla dimensione del pixel: 0.1mm
d) nessuna delle precedenti

38) Cosa esprime la funzione di trasferimento della modulazione?


a) il rapporto segnale/rumore in uscita dal singolo elemento di detezione
b) il valore assoluto del contrasto massimo rappresentato in base all’SNR
c) quantifica la capacità relativa del sistema di modulare il trasferimento del-
l’informazione
d) la variazione relativa di contrasto che il sistema apporta alle varie frequenze spa-
ziali
94 ESERCIZI

39) Come è denominato il rumore che contenga indifferentemente tutte le componenti


in frequenza senza prevalenza di alte o basse o medie frequenze?
a) rumore verde
b) non esiste, nel rumore c’è sempre una netta prevalenza di una certa componen-
te in frequenza
c) rumore RGB
d) rumore bianco

40) L’efficienza quantica di rivelazione (DQE) dipende da:


a) SNR del sistema e CNR dell’immagine
b) funzione di trasferimento della modulazione e spettro di frequenza del rumore
c) funzione di trasferimento della modulazione e rumore bianco
d) algoritmo di ricostruzione e frequenza del rumore
Elaborazione di immagini
4

Indice dei contenuti


4.1 Tecniche di elaborazione
4.2 Distanze fra pixel
4.3 Elaborazioni puntuali
4.4 Elaborazioni locali
4.5 Elaborazioni globali
4.6 Elaborazioni nel dominio delle frequenze spaziali
4.7 Ripristino di qualità dell’immagine
4.8 I software per l’elaborazione
4.9 Considerazioni finali
Esercizi

4.1
Tecniche di elaborazione

La principale caratteristica delle immagini digitali è la possibilità di sottoporle a elabo-


razione numerica: i pixel possiedono caratteristiche di colore e luminosità associate a nu-
meri, il cui valore può essere modificato secondo opportuni algoritmi di trasformazione;
le caratteristiche dell’immagine finale saranno frutto delle trasformazioni applicate.
In radiologia tradizionale, la pellicola sensibile viene impressionata utilizzando op-
portuni parametri scelti a priori e l’immagine finale, affetta da eventuali errori di espo-
sizione, non può più essere corretta.
In radiologia digitale, invece, i numeri che identificano il livello di grigio di ciascun
pixel di un’immagine possono essere modificati applicando opportune tecniche di ela-
borazione; lo scopo, oltre alla correzione di errori di esposizione, è l’estrazione e l’en-
fatizzazione di alcune informazioni rispetto ad altre per scopi diagnostici.
L’insieme delle tecniche di elaborazione utilizzate per modificare il contenuto di im-
magini digitali in fasi successive all’acquisizione è denominato col termine anglosas-
sone digital image processing.

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, 95
Sergio Rabellino
DOI: 10.1007/978-88-470-5364-9_4 © Springer-Verlag Italia 2013
96 M. Coriasco et al.

I tipi di elaborazione di immagine possono essere classificati in base alla modalità con
cui vengono modificati i singoli pixel; possiamo distinguere tra tecniche di elaborazione:
• puntuali: questo tipo di elaborazione agisce modificando il valore di ciascun pixel
secondo una funzione analitica di conversione prestabilita, resa eventualmente in for-
ma tabellare; il valore del pixel così calcolato è attribuito al pixel in posizione omo-
loga nell’immagine elaborata; il procedimento è ripetuto per ciascuno dei pixel che
compongono l’immagine;
• locali: in esse si considera un insieme di pixel circostanti a quello oggetto di modifi-
ca; il nuovo valore del pixel è calcolato tenendo conto del valore dei pixel dell’insie-
me, pesato differentemente a seconda del tipo di elaborazione che si vuole ottenere;
• globali: ciascuno dei pixel dell’immagine elaborata ha un valore che è correlato con
i pixel dell’intera immagine oggetto di elaborazione;
• nel dominio trasformato: l’elaborazione è condotta operando sulle frequenze spazia-
li che compongono l’immagine.
Le tecniche di elaborazione possono anche essere classificate in base all’obiettivo che
si vuole ottenere. Le metodiche usate più di frequente nell’elaborazione delle immagi-
ni mediche digitali si pongono tipicamente i seguenti obiettivi:
• aumento e ottimizzazione del contrasto (contrast enhancement);
• aumento della nitidezza (sharpening);
• riduzione del rumore (smoothing);
• ingrandimento (zooming);
• ripristino di qualità dell’immagine (image restoration).
Nei paragrafi successivi saranno analizzate in maggior dettaglio le tecniche più si-
gnificative utilizzate nell’ambito dell’elaborazione di immagini biomediche; queste tec-
niche costituiscono le basi che, mediante opportune combinazioni, permettono di af-
frontare elaborazioni più complesse.

4.2
Distanze fra pixel

Prima di continuare nell’analisi delle tecniche di elaborazione, è necessario introdurre


alcuni concetti fondamentali che saranno utili per la trattazione. Fra i pixel che com-
pongono un’immagine a toni di grigio o binarizzata, possiamo identificare delle rela-
zioni che legano i pixel tra di loro. Prendiamo un pixel p di coordinate (x,y); i quattro
pixel vicini nelle direzioni nord, sud, est, ovest, cioè con coordinate (x1,y), (x1,y),
(x,y1), (x,y1), costituiscono l’insieme N4(p) dei 4-vicini (4-neighbors), ciascuno dei
quali ha distanza uno dal pixel (x,y) preso in considerazione (Schema 4.1a).
Se ora applichiamo lo stesso concetto ai quattro pixel vicini percorrendo le diagona-
li, questi avranno coordinate (x1,y1), (x1,y1), (x1,y1), (x1,y1) e forme-
ranno l’insieme ND(p) (Schema 4.1b).
Questi pixel, uniti all’insieme dei 4-vicini, costituiscono l’insieme degli 8-vicini (8-
neighbors) di p, che indichiamo con N8(p):

N8(p) N4(p) 傼 ND(p)


4 Elaborazione di immagini 97

Schema 4.1

Partendo da queste definizioni, possiamo affermare che due pixel p,q sono connessi
se, oltre a essere tra loro in una data relazione di adiacenza spaziale, i livelli di lumi-
nanza soddisfano uno specifico criterio di similarità.
In generale, il criterio di similarità può consistere nel fatto che i valori di luminanza
dei pixel p,q appartengono a un dato intervallo V di valori. Nel caso in cui V  ⎨0,1⎬,
saremo in presenza di un’immagine binarizzata con soli pixel bianchi e neri, se invece
V  ⎨32,33,34,...,63⎬, l’immagine avrà livelli di luminanza compresi fra 32 e 63, e co-
sì via.
Valgono le seguenti definizioni di connettività fra due pixel p,q:
• 4-connettività (4-neighbors): i due pixel p,q hanno valori in V e q è nell’insieme N4(p);
• 8-connettività (8-neighbors): i due pixel p,q hanno valori in V e q è nell’insieme N8(p);
• m-connettività (mixed connectivity): i due pixel p,q hanno valori in V e
– q è nell’insieme N4(p); oppure
– q è nell’insieme ND(p) e risulta vuoto l’insieme dei pixel 4-vicini sia di p sia di
q, cioè N4(p) 傽 N4(q) 
.
Da quanto descritto, si dice che un pixel p è adiacente a un pixel q se sono connes-
si; se due pixel sono 4-, 8-, m-connessi, saranno definiti rispettivamente come 4-, 8-,
m-adiacenti. Infine, due sottoinsiemi S1 e S2 sono adiacenti se qualche pixel di S1 è
adiacente a qualche pixel di S2.
Grazie a queste relazioni, è possibile ora identificare un cammino (path) del pixel p
di coordinate (x,y) al pixel q di coordinate (s,t) come costituito da una sequenza di coor-
dinate:
(x0, y0), (x1, y1), (x2, y2), ... (xn, yn)

dove la prima coordinata (x0,y0) è il pixel p, l’ultima coordinata (xn, yn) è il pixel q e
ognuno dei pixel presenti nella sequenza è adiacente a quello che lo precede.
Il valore di n è la lunghezza del cammino che potrà essere un 4-, 8-, m-cammino a
seconda del livello di adiacenza che prendiamo in considerazione.
Consideriamo ora due generici pixel p,q appartenenti a un sottoinsieme S dell’im-
magine; possiamo affermare che p è connesso a q all’interno di S se esiste un cammi-
no fra p,q interamente costituito da pixel di S. Per ogni pixel p in S, l’insieme dei pixel
98 M. Coriasco et al.

in S che sono connessi a p sono detti componenti connesse di S; ne segue che due pixel
di una componente connessa sono connessi fra loro e, come ulteriore conseguenza, com-
ponenti connesse distinte sono composte da insiemi di pixel differenti.
Grazie alle definizioni introdotte, siamo ora in grado di introdurre un metodo per va-
lutare numericamente le distanze all’interno di un’immagine. Consideriamo 3 pixel: p
con coordinate (x,y), q con coordinate (s,t) e z con coordinate (u,v); la funzione distan-
za o metrica sarà definita come dalle seguenti regole:
D(p,q)  0;
D(p,q)  0 se e solo se p  q;
D(p,q)  D(q,p);
D(p,z)  D(p,q)  D(q,z).
La distanza euclidea tra p e q è definita come:

De ( p, q) = ( x − s )2 + ( y − t )2

Ne segue che i pixel che posseggono distanza minore o uguale a un valore r da (x,y)
sono pixel contenuti in un disco di raggio r con centro in (x,y).
Oltre alle distanze classiche derivate dalla geometria euclidea, introduciamo la distanza
D4, detta city-block, definita come segue:
D4(p,q)  冟x  s 冟 + 冟y  t 冟
in cui i pixel con distanza D4 dal pixel di coordinate (x,y) minore o uguale a un va-
lore r costituiscono un diamante con il centro in (x,y). Per esempio, i pixel a distanza
D4  2 dal punto centrale formano i seguenti contorni di distanza costante, come de-
scritto in Schema 4.2a.
Osserviamo che i pixel a D4  1 sono i 4-vicini di (x,y). La distanza D8, detta di-
stanza degli scacchi, è definita come:
D8(p,q)  max(冟x  s 冟, 冟y  t 冟)
In questo caso, i pixel con distanza D8 da (x,y) minore o uguale a qualche valore r
formano un quadrato centrato in (x,y). Per esempio, nel caso di D8  2 da (x,y) si ot-
tengono i contorni di distanza costante descritti in Schema 4.2b.
Osserviamo che i pixel a D8  1 sono gli 8-vicini di (x,y). Possiamo allora afferma-
re che la distanza D4 fra due punti p e q è uguale alla lunghezza del cammino più cor-
to fra questi due punti, se ci si sposta solo in orizzontale o in verticale e lo stesso vale
per la distanza D8 se sono ammesse anche le direzioni diagonali.
Se consideriamo la m-connettività, la lunghezza del cammino tra due pixel è legata
al valore dei pixel lungo il cammino a quello dei loro vicini. Facendo riferimento al ca-
so in cui p0, p2 e p4 abbiano valore uguale a 1 e che p1 e p3 abbiano valore 0 oppure 1
si ottiene (Schema 4.2c):
• se è permessa solo la connettività 1 per i pixel e p1 e p3 sono 0, la m-distanza tra
p0 e p4 assume valore 2;
• se p1 oppure p3 è pari a 1, la m-distanza assume valore 3;
• se p1 e p3 sono 1, la m-distanza assume valore 4.
4 Elaborazione di immagini 99

Schema 4.2

In generale, la valutazione metrica delle distanze tra pixel è utile quando si vogliono
considerare regioni di interesse (Region Of Interest, ROI) in termini quantitativi e qua-
litativi, e anche nel caso in cui le componenti connesse rappresentino un elemento di
interesse, come ad esempio i contorni di un organo, o di un vaso.

4.3
Elaborazioni puntuali

4.3.1
Look-Up Table
Le Look-Up Table (LUT) sono tabelle che stabiliscono una relazione tra i valori origi-
nali dei pixel e quelli risultanti dopo l’elaborazione. Nell’esempio che segue è utiliz-
zata una LUT molto semplice a due valori, con l’obiettivo di alterare il contrasto del-
l’immagine, aumentando la possibilità di discriminare l’area chiara circostante da quel-
la più scura.
Nell’immagine a basso contrasto, riportata a sinistra in Figura 4.1, i pixel hanno un
valore di 140 per lo sfondo, supposto chiaro, e di 110 per l’oggetto, supposto più scu-
ro e disposto al centro. Il contrasto tra le due aree, cioè dell’oggetto centrale rispetto al-
lo sfondo, è dato dalla differenza tra i valori, vale a dire 140  110  30.
L’elaborazione nell’esempio utilizza una LUT che sostituisce il valore 220 ai pixel
con valore 140, e valori di 60 ai pixel con valore 110. L’effetto di questa sostituzione
genera un’enfatizzazione del contrasto che fa emergere il quadrato più scuro sullo sfon-
do di colore più chiaro. La LUT, intesa come tabella di corrispondenza, può essere
rappresentata graficamente con un diagramma cartesiano, che riporta sulle ascisse i li-
velli di grigio dell’immagine di partenza e sulle ordinate quelli dell’immagine risultan-
te. La rappresentazione grafica della LUT sotto forma di curva (detta curva di stret-
ching o curva LUT) fornisce un’indicazione sintetica e immediatamente comprensibile
del risultato finale dell’elaborazione.
100 M. Coriasco et al.

Fig. 4.1 Rappresentazione schematica delle conseguenze dell’applicazione di una LUT. La differenza
numerica tra i valori assunti dai pixel passa da 30 a 160. In questo caso l’effetto è quello di aumenta-
re il contrasto dell’immagine

Fig. 4.2 Rappresentazione grafica di una LUT con


windowing. L’effetto è quello di sfruttare l’intera
scala dei livelli di grigio per rappresentare i pixel
che hanno un valore compreso tra 60 e 160. Ai
pixel di valore inferiore a 60 sarà attribuito valore
0, a quelli di valore superiore a 160 sarà attribuito
valore 255

In un sistema per l’imaging radiografico digitale, sono generalmente disponibili LUT


preconfigurate: a seconda del tipo di indagine selezionato dall’operatore viene applica-
ta automaticamente la LUT più appropriata in relazione al contrasto d’immagine richiesto.
Una radiografia del torace sarà elaborata con una curva diversa da quella applicata su
un’indagine radiografica dell’addome oppure di piccoli segmenti ossei.
È possibile intervenire sull’intervallo di valori su cui si distribuiscono le intensità dei
pixel (la scala tonale) applicando LUT con finestre (windowing): si seleziona una par-
te dell’intervallo di valori e si rappresenta tale porzione su tutta la scala di grigi (dal ne-
ro al bianco). L’operatore può regolare sia la posizione del centro che la larghezza del-
la finestra di rappresentazione (Fig. 4.2).
4 Elaborazione di immagini 101

Fig. 4.3 Elaborazioni tramite


windowing e rappresentazioni
delle LUT corrispondenti

Con questa tecnica è possibile esaltare il contenuto informativo in uno specifico in-
tervallo di valori.
Per esempio, come si può vedere in Figura 4.3, regolando la finestra in modo da co-
prire il segmento più basso dell’intervallo totale di valori, si ottiene nell’immagine fi-
nale un buon contrasto per le regioni d’immagine più scure come il polmone, mentre
regolando la finestra sulla parte più alta dell’intervallo si rappresentano con un buon
contrasto le regioni più chiare dell’immagine, come il mediastino.
L’effetto dell’applicazione delle LUT lineari con finestra consiste nel far corrispon-
dere a un insieme più o meno ampio di livelli di grigio dell’immagine originale un in-
sieme di livelli di grigio in cui il contrasto sia massimo.
Dobbiamo comunque osservare che, mentre si ha un’espansione dei livelli all’inter-
no della finestra, si avrà contemporaneamente una compressione degli intervalli ester-
ni che coincideranno con il livello minimo coincidente con il nero e quello massimo,
rappresentato in bianco.
L’espansione di una parte dell’istogramma è accompagnata da una compressione del-
le parti rimanenti; un tipico esempio è la selezione della finestra nelle indagini TC: quan-
to più si limita l’estensione dell’intervallo da amplificare (window width) tanto più è
notevole l’incremento del contrasto apprezzabile tra le strutture la cui densità ricade in
tale intervallo (Fig. 4.4).
102 M. Coriasco et al.

Fig. 4.4 Esempio di elaborazione di immagine TC. L’immagine di partenza non è visibile in quanto com-
posta dai dati grezzi misurati e non viene rappresentata. A tali dati viene applicata una LUT del tipo
windowing, privilegiando di volta in volta la parte di intervallo dinamico che si desidera vedere con
un buon contrasto. In a, la finestra è stata molto ristretta per enfatizzare le strutture encefaliche: esse
hanno densità da 15 a 45, dal liquido cerebro-spinale alla sostanza bianca. In b, la finestra è stata al-
largata e centrata più in alto, i valori di densità che corrispondono all’encefalo vengono rappresentati
con una tonalità di grigio uniforme, mentre le strutture ossee risultano ora ben visibili

Dal punto di vista matematico è possibile considerare l’equazione che associa ai va-
lori di origine r dei pixel dell’immagine i valori modificati s dopo il windowing, data
dalla seguente:
⎛r − c 1⎞
s = ( 2 n − 1) ⋅ ⎜ + ⎟
⎝ w 2⎠
dove n è la profondità del pixel, c è il centro finestra e w l’ampiezza.
Un altro esempio di LUT è quello che presenta un grafico “a gradini” in cui un’im-
magine con valori tonali che cadono in un intervallo sono unificati in un solo valore;
avremo come risultato una suddivisione dell’immagine in zone fra loro omogenee, co-
me si può vedere in Figura 4.5.
Di particolare interesse nell’ambito della radiologia digitale sono le LUT che pre-
sentano l’andamento di una funzione matematica detta sigmoide.
Come si può vedere in Figura 4.6, essa rispecchia l’andamento della curva sensito-
metrica di una tradizionale pellicola, con un tratto iniziale di bassa pendenza (piede),
un tratto centrale di inclinazione lineare e un tratto in cui viene raggiunta la saturazio-
ne con nuovamente una diminuzione dell’inclinazione (spalla).
4 Elaborazione di immagini 103

Fig. 4.5 L’immagine sottoposta a una LUT a gradini come quella in figura è rappresentata utilizzando
soltanto i livelli di grigio corrispondenti ai gradini. Il numero di grigi utilizzato è quindi determinato
dal numero dei gradini della LUT. Tale situazione è immediatamente visibile nell’istogramma sulla de-
stra, ove si conta un numero estremamente limitato di livelli presenti: il loro numero è dato dal nu-
mero di gradini della LUT che è stata applicata

Fig. 4.6 Elaborazioni tramite LUT con andamento sigmoidale simile a quello della curva sensitometri-
ca di una pellicola radiografica. A sinistra è mostrata l’immagine prima dell’elaborazione, al centro la
curva LUT e a destra l’immagine dopo l’elaborazione. Si noti come l’immagine risultante sia molto
simile a un’immagine ottenuta su pellicola con tradizionali sistemi non digitali

Come per le curve caratteristiche delle pellicole radiografiche, la pendenza della cur-
va in qualsiasi punto dà un’informazione su come sarà cambiato il contrasto dopo l’elabo-
razione. Nel tratto in cui la curva ha un’elevata pendenza, l’elaborazione aumenterà il
104 M. Coriasco et al.

contrasto; viceversa, quando la pendenza è scarsa (inferiore a 45°) il contrasto risulterà


diminuito.
Se l’immagine acquisita da un sistema radiografico digitale viene visualizzata senza
subire alcun tipo di elaborazione, si presenterà con un contrasto insufficiente, come si
può apprezzare nell’immagine della Figura 4.6 a sinistra; ciò è dovuto all’ampia gam-
ma dinamica del range di esposizione e alla contemporanea risposta lineare dei detet-
tori del sistema digitale.
L’ampia variabilità di esposizione è acquisita nella sua totalità poiché il detettore è in
grado di rilevare le caratteristiche di contrasto in tutto l’intervallo dinamico, a differen-
za di quanto avviene per la curva sensitometrica delle immagini direttamente impres-
sionate su pellicola radiografica. I sistemi per radiologia digitale (computed radiography,
CR o direct radiography, DR) offrono quasi sempre una curva LUT con andamento coe-
rente con quello di una curva sensitometrica, che conferisce all’immagine elaborata ca-
ratteristiche di contrasto simili a quello di una pellicola radiografica.
L’equazione che permette di calcolare i nuovi valori di pixel s a partire dai valori di
origine r per una LUT sigmoide è la seguente:
−1
⎛ −
r −c ⎞
s = ( 2 − 1) ⋅ ⎜⎜1 + e w ⎟⎟
n

⎝ ⎠
dove n è la profondità del pixel e i parametri c e w definiscono sostanzialmente la po-
sizione relativa (centro finestra) e l’ampiezza della finestra della LUT.
A volte, secondo le preferenze personali, può essere utile visualizzare contempora-
neamente l’immagine applicando una LUT sensitometrica inversa (osso rappresentato
scuro) in aggiunta all’immagine tradizionale (osso rappresentato chiaro), in quanto al-
cune lesioni o strutture anatomiche risultano più visibili e di più facile individuazione
nell’immagine invertita. La LUT in grado di produrre tale tipo di immagini corrispon-
de a quella visibile al centro della Figura 4.7. Il grafico indica chiaramente che i livel-
li più chiari diventeranno i più scuri nell’immagine elaborata, e viceversa.
Tra le altre tipologie di LUT ricordiamo quelle associate a trasformazioni logaritmi-
che ed esponenziali. In quelle logaritmiche l’intervallo costituente l’istogramma del-
l’immagine di partenza è trasformato calcolando il logaritmo di ciascun livello di gri-
gio aumentato di una unità (corrispondente a valori positivi del logaritmo).
L’andamento della curva logaritmica rende la modifica del contrasto più efficace per
i livelli di grigio più scuri, ovvero situati più in basso nella scala; essi vengono trasfor-
mati in livelli molto più distanziati fra loro di quanto non avvenga per i livelli più chia-
ri, che risultano più compressi e quindi meno discriminabili. La trasformazione logarit-
mica è efficace nell’elaborazione di immagini in cui sono contenute zone di interesse
con predominanza di livelli scuri. Il contrasto di tali strutture viene amplificato, men-
tre quello del resto dell’immagine è compresso (Fig. 4.8).
Al contrario, una trasformazione esponenziale è più efficace nell’ampliare il contra-
sto delle zone con predominanza di livelli alti. I livelli di grigio più chiari risulteranno
così più distanziati fra loro e meglio rappresentati. Per questo motivo essa è molto utile
nell’elaborazione di immagini in cui interessa analizzare con il massimo contrasto par-
ticolari i cui livelli di grigio sono situati nella parte alta del range. Il contrasto delle al-
tre zone risulterà diminuito (Fig. 4.9).
4 Elaborazione di immagini 105

Fig. 4.7 Elaborazioni


tramite LUT con
andamento
invertito. A sinistra
è mostrata
l’immagine prima
dell’elaborazione, al
centro la curva
LUT e a destra
l’immagine dopo
l’elaborazione. Si
noti l’inversione dei
livelli di grigio
rispetto all’immagine
di Figura 4.6

Fig. 4.8 Elaborazione tramite LUT logaritmica. La situazione è inversa a quella precedente, le regioni
più scure dell’immagine sono rappresentate con un intervallo di livelli più ampio e appaiono meglio
visibili, quelle più chiare vengono schiacciate su livelli alti e tendono a scomparire in quanto rappre-
sentate con un più ristretto intervallo di livelli verso il 255° livello (spalla della curva)

Un effetto simile a quello delle LUT esponenziali e logaritmiche appena descritto può
essere ottenuto anche con una LUT basata su una funzione di tipo potenza, chiamata
spesso gamma. Per questa LUT, il nuovo valore del pixel è definito sulla base del pre-
cedente secondo la seguente equazione:
s  (2n  1)  (r/(2n  1))
dove al solito s è il nuovo valore del pixel, r è il valore precedente, con n profondità del
pixel e  è il parametro che può essere variato a seconda degli effetti che si desidera ot-
106 M. Coriasco et al.

Fig. 4.9 Elaborazione tramite LUT esponenziale. Le regioni più chiare dell’immagine vengono rappre-
sentate con un intervallo di livelli più ampio e appaiono meglio visibili, quelle più scure vengono schiac-
ciate su livelli bassi e tendono a scomparire in quanto rappresentate con un ristretto intervallo di li-
velli verso lo zero (ginocchio della curva)

Fig. 4.10 Esempi di


applicazioni di
LUT gamma con
diversi valori del
parametro

tenere. In particolare, con  < 1 si avrà un andamento tale da ottenere alterazioni simi-
li a quelle riscontrate per una LUT esponenziale, mentre per  > 1 si avranno effetti si-
mili a quelli descritti per la LUT logaritmica. Si noti che nel caso particolare in cui 
 1 si ottiene una LUT identità s  r (Fig. 4.10).
4 Elaborazione di immagini 107

Fig. 4.11 Esempi di


applicazione di
pseudo colori a
un’immagine a
livelli di grigio

4.3.2
Tecnica degli pseudo colori

Come abbiamo descritto nei capitoli precedenti, la risposta dell’occhio umano è molto
sensibile alla luminosità relativa presente nell’immagine e a repentini cambiamenti di
colore. Basandosi su questa osservazione, la tecnica degli pseudo colori associa a ogni
intensità dell’immagine iniziale un differente colore, nell’idea che in questo modo l’oc-
chio umano riesca a identificare particolari altrimenti poco percepibili; la risposta è molto
soggettiva ed è per questo che sono numerosi gli schemi di trasformazione che vengo-
no applicati. Nell’esempio di Figura 4.11, un’immagine di medicina nucleare che rap-
presenta una scintigrafia perfusionale polmonare, la scala dei livelli di grigio è asso-
ciata a due diverse scale di pseudo colori.

4.3.3
Le operazioni algebriche tra immagini

Le operazioni algebriche forniscono come risultato un’immagine f(x,y) i cui valori dei
pixel sono costituiti dalla combinazione algebrica dei corrispondenti pixel di due im-
magini g(x,y) e h(x,y). Operazioni comuni sono addizione, sottrazione, moltiplicazio-
ne e divisione. Analizziamo una per una queste operazioni, per capire quali effetti pro-
ducano sull’immagine risultato dell’elaborazione.
L’operazione di addizione fornisce un’immagine i cui pixel sono la somma dei valo-
ri corrispondenti delle due immagini; è utilizzata in risonanza magnetica per ridurre l’ef-
fetto del rumore.
Si consideri un’immagine f(x,y) a cui sia addizionato un rumore n(x,y); l’immagi-
ne sarà data da:
g(x,y)  f(x,y)  n(x,y)
108 M. Coriasco et al.

Se supponiamo che n(x,y) sia scorrelato e a media nulla, avendo a disposizione N im-
magini g r (x,y) che rappresentino la stessa scena possiamo calcolare la media come:
1 N 1 N
g ( x, y ) = ∑ ( ) ( ) N ∑ nr ( x, y )
g
N r =1 r
x , y = f x , y +
r =1

Ma il rumore è a media nulla, quindi tende ad annullarsi e otteniamo:


g ( x, y ) = f ( x, y )
mentre per la varianza vale la relazione
 2 g ( x , y ) =  2 n( x , y ) N
Da questo si ricava la deviazione standard come radice quadrata della varianza, ovvero:
 g ( x , y ) =  n( x , y ) N

Ne segue che la deviazione standard del rumore presente nell’immagine risultato è


ridotta del fattore 兹莥 N. Una tipica applicazione di questa tecnica la si trova in risonan-
za magnetica, dove l’acquisizione ripetuta dei medesimi dati in momenti diversi per-
mette di ridurre l’entità del rumore sull’immagine finale, con conseguente aumento del
tempo di acquisizione.
La sottrazione sostituisce al pixel in esame la differenza tra i valori dei pixel di due
immagini; ha un ruolo significativo nell’ambito delle immagini mediche angiografiche.
L’obiettivo della sequenza di immagini angiografiche è quello di fornire una rappre-
sentazione nitida di un tratto dell’apparato vascolare.
La realizzazione di una sequenza angiografica inizia con l’acquisizione di una o più
immagini cosiddette “maschera”. In Figura 4.12 è riportato un esempio di un’immagine
maschera con a fianco i possibili valori dei pixel di un dettaglio espressi in una scala di
livelli di grigio a 8 bit.
Successivamente all’immagine maschera vengono acquisite una serie di immagini con-
temporanee all’immissione nei vasi di un mezzo di contrasto. In Figura 4.12b è ripor-
tato lo stesso dettaglio dell’immagine precedente. Come si può notare, la visibilità dei
vasi è notevolmente migliorata e tale apparenza è confermata dai valori numerici dei
pixel che differiscono rispetto ai precedenti (si noti la diminuzione dei valori della ta-
bella nelle celle con sfondo più scuro).
Per evidenziare maggiormente il tratto interessato dal flusso di mezzo di contra-
sto occorrerebbe concentrarsi su ciò che è variato tra la Figura 4.12a e la Figura
4.12b. La disponibilità dei valori numerici permette di evidenziare il mezzo di con-
trasto tramite una sottrazione tra le matrici delle due immagini, cioè ricavando la
differenza dei valori numerici dei pixel che si trovano nelle stesse posizioni (pixel
omologhi).
Una volta effettuata la sottrazione è possibile amplificare la visibilità dei pixel aven-
ti valore diverso da zero, moltiplicando per una costante. Il risultato finale è mostrato
in Figura 4.12c.
Per migliorare ulteriormente la qualità dell’immagine risultante, tutti i sistemi an-
giografici prevedono anche una trasformazione logaritmica dei valori dei pixel, al fine
4 Elaborazione di immagini 109

Fig. 4.12 a Immagine “maschera” e, sotto, la rappresentazione della matrice di un suo dettaglio con i
valori numerici delle intensità di grigio dei pixel; b la stessa immagine ottenuta durante l’immissione
e la progressione del mezzo di contrasto, e la rappresentazione dei valori numerici delle intensità di
grigio assunte dai pixel; c l’immagine ottenuta dopo sottrazione e amplificazione di un fattore 3 e la
corrispondente rappresentazione della matrice del dettaglio considerato con i valori numerici dei pixel.
È stata inoltre applicata un’inversione di scala dei livelli visibile in d

Fig. 4.13 Esempio di moltiplicazione tra un’immagine radiografica e una maschera ad-hoc; notare co-
me l’effetto della moltiplicazione per un bianco produce nell’immagine risultato la copia del pixel,
mentre la moltiplicazione per un nero produce un pixel nero. Grazie alle sfumature intermedie di li-
velli di grigio, si ottiene nell’immagine risultato una corrispondente sfumatura del bordo

di aumentare la correlazione tra i dati dell’immagine sottratta finale e la concentrazio-


ne di mezzo di contrasto.
Infine, la moltiplicazione e la divisione consentono di enfatizzare o mascherare i pixel
in corrispondenza ai diversi valori assunti dall’immagine moltiplicatore o divisore; si
potranno così ottenere degli effetti di trasparenza (alpha blending) che possono essere
utili per evidenziare o mascherare zone all’interno dell’immagine (Fig. 4.13).
110 M. Coriasco et al.

4.3.4
Gli operatori logici

Se l’immagine è binaria, ovvero nell’immagine sono presenti esclusivamente pixel bian-


chi o neri, possiamo identificare l’oggetto (foreground) quando i pixel assumono valo-
re 1 e lo sfondo (background) quando i pixel assumono valore 0.
Possiamo allora applicare operazioni logiche sui pixel dell’immagine. Le operazioni
logiche possono essere unarie, come ad esempio il NOT, e quindi si applicano a una sin-
gola immagine, oppure binarie come AND, OR e XOR, che vengono applicate a coppie
di immagini che dovranno avere quindi uguale dimensione, a meno di operare solo su
specifiche sottoaree delle immagini che abbiano dimensioni coerenti. Ogni operatore
logico si applica al singolo pixel al fine di ottenere il risultato, che sarà anch’essa un’im-
magine binarizzata.
Per comprendere meglio quali effetti si producano applicando le operazioni logiche
sulle immagini, nella Figura 4.14 sono riportati alcuni esempi.

Fig. 4.14 Esempio di applicazione di


operatori logici a immagini binarizzate
4 Elaborazione di immagini 111

4.4
Elaborazioni locali
4.4.1
I filtri convolutivi

I filtri convolutivi sono metodi di filtraggio nel dominio spaziale che si basano su
somme di prodotti fra l’immagine originale e opportune matrici scelte sulla base de-
gli obiettivi da perseguire; questa operazione matematica prende il nome di convo-
luzione.
Le convoluzioni operano con maschere quadrate di pixel di dimensioni dispari, in cui
i valori costituiscono i pesi assegnati ai pixel nell’intorno del pixel oggetto del calcolo,
che occupa la posizione centrale della matrice.
Il calcolo del nuovo valore del pixel oggetto di modifica si effettua moltiplicando i va-
lori di luminanza dei pixel nella matrice considerata per i relativi pesi in posizione omo-
loga nella matrice di convoluzione; la somma dei prodotti così ottenuti è normalizzata mol-
tiplicando per il fattore di correzione che si ottiene come inverso della somma dei pesi, e
ulteriormente moltiplicata per un fattore di guadagno globale opportunamente scelto.
Con un guadagno maggiore di 1 avremo un generale aumento della luminosità del-
l’immagine risultante, mentre con un guadagno inferiore a 1 (ma sempre maggiore di
zero) avremo una diminuzione di tale luminosità. L’esempio di Figura 4.15 può chiari-
re quanto appena affermato.
A seconda del tipo di matrice di convoluzione utilizzata si realizzerà una diversa
elaborazione. Gli esempi di Figura 4.16 e 4.17 illustrano, rispettivamente, un’elabo-
razione che produce uno smoothing (attenuazione dei contorni) e una che produce uno
sharpening (esaltazione dei contorni) dell’immagine.

Fig. 4.15 Per applicare un


filtro di convoluzione si
considera un pixel
dell’immagine insieme ai
suoi circostanti, inseriti in
una matrice quadrata di lato
dispari. Si moltiplica poi
ciascun valore per il
corrispettivo valore del peso
nella matrice di
convoluzione e si sommano
tutti i risultati. Il tutto va
moltiplicato ancora per il
valore del coefficiente di
normalizzazione
112 M. Coriasco et al.

Fig. 4.16 Esempio di filtro convolutivo, matrice di convoluzione e metodo per il calcolo del nuovo va-
lore del pixel. Il valore 75 al centro della matrice viene ricalcolato come indicato e riposizionato (il nuo-
vo valore è 83). Il risultato di tale filtro è uno smoothing dell’immagine, descritto più avanti. Il coeffi-
ciente di normalizzazione k viene calcolato facendo la somma dei pesi della matrice di convoluzione

Fig. 4.17 Altro esempio di filtro convolutivo. Il valore 120 al centro della matrice viene ricalcolato co-
me indicato e riposizionato (il nuovo valore è 165). Il risultato di tale filtro è uno sharpening del-
l’immagine, descritto più avanti
4 Elaborazione di immagini 113

4.4.2
Rivelazione ed evidenziazione dei bordi

Le immagini radiografiche contengono solitamente informazioni relative a strutture con


densità simile a quella delle strutture anatomiche che le circondano; queste strutture so-
no difficilmente percepite dall’occhio in quanto delimitate da una debole discontinuità
locale di intensità luminosa. In corrispondenza al passaggio tra la struttura e i tessuti
circostanti è presente un contorno o bordo (edge) che deve essere enfatizzato.
L’interpretazione dell’immagine si basa sull’individuazione della struttura affidando-
si alle caratteristiche morfologiche o irregolarità più o meno marcate ai suoi margini;
tali caratteristiche sono molto più evidenti quanto maggiore è la differenza di contrasto
tra la struttura stessa e i tessuti circostanti.
La definizione dei contorni si propone la rilevazione dei bordi (edge detection), se-
guita dalla loro estrazione (edge extraction), ovvero la cancellazione del contesto nel
quale la struttura è inserita; al termine del procedimento la struttura isolata è più chia-
ramente analizzabile.
Gli algoritmi agiscono isolando e raggruppando pixel con caratteristiche di lumino-
sità simili: poiché si analizzano piccole aree dell’immagine alla ricerca di significative
variazioni quantitative tra pixel contigui, queste metodologie rientrano tra le tecniche di
elaborazione locale.
Per rilevare i bordi facciamo uso di operatori convolutivi di tipo derivativo in grado di
agire in tutte le direzioni, rilevando cioè qualunque tipo di contorno a disposizione oriz-
zontale, verticale con gli operatori di Sobel o Prewitt e obliqua, con gli operatori di Kirsh.
Nella Figura 4.18 troviamo descritte le matrici 3 3 degli operatori, e in Figura 4.19
degli esempi di elaborazione che fanno uso degli operatori derivativi.

Fig. 4.18 Operatori classici di


convoluzione di tipo derivativo
(edge detection) e le varianti
orientate secondo la direzione dei
bordi che si intende evidenziare
114 M. Coriasco et al.

Fig. 4.19 Esempi di elaborazioni eseguite con operatori di convoluzione di vari tipi. L’immagine in a è sta-
ta ottenuta con l’operatore Laplaciano, quella in b con operatore di Kirsch eseguito verso NE, quella in c
con operatore di Sobel eseguito verso SO, le immagini in d, e e f con operatore di Prewitt rispettivamen-
te eseguito verso E, N e SO. Si noti come essi siano in grado di evidenziare le informazioni relative ai
bordi in modo diverso, ricavando effetti particolari di tridimensionalità; per una maggior percezione degli
effetti delle elaborazioni, le immagini sono state equalizzate (immagini elaborate con il software Eidoslab)

Un altro filtro convolutivo che esaminiamo si basa sull’operatore laplaciano, che pren-
de in analisi aree dell’immagine costituite da gruppi di cinque pixel, di cui uno centra-
le e altri quattro contigui nei punti cardinali; valori dei pixel circostanti vengono som-
mati e, dal valore risultante, viene sottratto il quadruplo del valore del pixel centrale. Il
risultato costituisce il nuovo valore del pixel centrale.
Interessante notare che il filtro laplaciano è indipendente dalla direzionalità del con-
torno, ed è in grado di evidenziare all’interno dell’immagine, bordi orientati secondo i
quattro punti cardinali (cross operator).
Così facendo, la zona omogenea, interna al bordo, viene cancellata, mentre dove
sono presenti differenze di luminosità (appunto in prossimità dei bordi), esse ven-
gono amplificate. L’immagine risultante mantiene quindi soltanto i contorni, men-
tre le zone a luminosità costante vengono azzerate (esiste poi un’ulteriore versione
del filtro Laplaciano, la versione square, di cui è visibile un esempio in Figura 4.20,
che considera anche le direzioni diagonali e quindi permette di evidenziare i bordi
lungo tutte le direzioni della “Rosa dei venti”).
Nella Figura 4.21 sono riportati degli esempi di estrazione dei contorni, utilizzando di-
versi operatori convolutivi, la cui matrice applicata è espressa all’interno dell’immagine.
L’utilità degli algoritmi di edge extraction si rende evidente ovunque sia necessaria
un’accurata valutazione dei contorni di una formazione. L’elaborazione risulta poco
4 Elaborazione di immagini 115

Fig. 4.20 Esempi di filtraggio con matrici di convoluzione secondo la tecnica indicata nel testo. Gli esem-
pi sono stati generati utilizzando il radiogramma digitale di una mano (in formato bitmap) e facendo
eseguire i calcoli al programma EidosLab. L’operatore Laplaciano funziona come edge detection, evi-
denziando i bordi e cancellando le regioni a luminanza uniforme, gli operatori di Sobel e Kirsh come
edge enhancement. Le aree a densità più omogenea vengono “azzerate” nel caso dell’edge detection
(nel quale la somma dei pesi della matrice di convoluzione vale 0), mentre vengono mantenute nel ca-
so dell’edge enhancement (in cui la matrice di convoluzione ha somma dei pesi pari a 1)

Fig. 4.21 Altri


esempi di
filtraggio
convolutivi con
operatori vari,
eseguite con le
matrici indicate
nelle immagini in
basso a sinistra. Si
noti come nelle
immagini si abbia
progressivamente
un aumento della
nitidezza dei
particolari, pagata
però in termini di
amplificazione del
rumore
116 M. Coriasco et al.

efficace se la discontinuità di luminosità è molto limitata, mentre può dare un signifi-


cativo contributo rinforzando contorni frammentari e poco definiti. Gli algoritmi di ed-
ge enhancement agiscono in modo analogo, mantenendo però le informazioni di con-
trasto delle diverse strutture (Figg. 4.20 e 4.21). Mettendo a confronto le matrici di con-
voluzione, si può osservare come negli algoritmi di edge extraction, la somma dei pesi
è uguale a 0, mentre negli algoritmi di edge enhancement tale somma è diversa da ze-
ro, solitamente uguale a 1.

4.4.3
La riduzione del rumore e lo smoothing

Consideriamo una matrice di convoluzione 3 3 a pesi unitari; si ottiene che il risulta-


to dell’operazione coincide con la media aritmetica dei valori dei pixel presi in consi-
derazione; ripetendo questa operazione per tutti i pixel dell’immagine (filtraggio a me-
dia mobile), potremo osservare che le fluttuazioni dei valori medi ottenuti saranno in-
feriori a quelle dei valori dei pixel originali.
L’effetto della media è quello infatti di attenuare (smoothing) le variazioni casuali e
repentine, che si compensano vicendevolmente nel calcolo. Se nell’immagine originale
è presente un disturbo, applicando il filtraggio a media mobile, otterremo una nuova im-
magine in cui il contributo del rumore sarà ridotto. Lo svantaggio associato a questo ti-
po di filtraggio è la diminuzione di nitidezza, il cosiddetto effetto sfocatura (blurring).
È possibile considerare matrici più ampie, 5 5 o 7 7, con un conseguente aumento
dell’efficacia nella riduzione del rumore ma anche dell’effetto di blurring (Fig. 4.22).
Per limitare l’effetto di sfocatura possiamo considerare valori diversi dei pesi nella
matrice di convoluzione, in cui i pixel all’interno della matrice vengono moltiplicati per
un coefficiente positivo in funzione della distanza rispetto al centro (filtraggio a media
ponderata). Nel caso in Figura 4.23 è stata utilizzata una matrice di convoluzione for-
mata da tutti uno eccetto il pixel centrale che ha peso zero (filtraggio a media locale) e
una matrice con i pesi ponderati.

Fig. 4.22 Effetto di uno smoothing basato sul valore medio. A sinistra l’immagine di partenza, al centro
quella dopo l’applicazione di una matrice di smoothing a pesi unitari di 3×3 e 5×5. Si noti il progressivo
calo dell’effetto del rumore e il corrispondente aumento del blurring
4 Elaborazione di immagini 117

Fig. 4.23 Esempio di


smoothing tramite
convoluzione con filtraggio
a media locale e con
filtraggio a media
ponderata

Fig. 4.24 Esempio


monodimensionale di
elaborazione con filtro mediano

4.4.4
Il filtro mediano

Un modo alternativo di operare filtraggi sulle immagini è quello di utilizzare degli ope-
ratori di tipo statistico. Il più noto di essi è il filtro mediano, molto efficace per rumo-
ri di tipo impulsivo, come quello denominato “sale e pepe”, in cui il rumore assume l’a-
spetto di puntini bianchi o neri sovrapposti all’immagine.
Per comprendere il meccanismo con cui opera il filtro mediano da un punto di vista
operativo, consideriamo il caso monodimensionale, potendosi facilmente estendere quan-
to detto al caso a due dimensioni.
Preso un numero dispari di pixel (nell’esempio di Figura 4.24 ne consideriamo 5), si
sostituisce il valore del pixel centrale con il valore mediano della sequenza di cui fa par-
te. Ricordiamo che in un insieme ordinato di un numero dispari di elementi, il valore
mediano è quello che occupa la posizione centrale della sequenza.
La sequenza di passi è la seguente:
• si consideri una fila di pixel sulla quale si fa scorrere una finestra mobile costituita
da un numero dispari di pixel;
• si prenda la sequenza ordinata dei livelli di luminanza dei pixel che ricadono all’in-
terno della finestra;
• infine, si sostituisca il valore del pixel che occupa il centro della finestra con il va-
lore mediano della sequenza ordinata.
Nella serie rappresentata in Figura 4.24, formata da 158, 65, 244, 78, 101 il valore
mediano è il numero 101.
118 M. Coriasco et al.

A differenza del filtro a media mobile, che sostituisce al pixel un valore calcolato,
nel filtro mediano il valore sostituito al pixel è ancora un valore dell’immagine origi-
nale; lo scopo è di ridurre il rumore preservando la nitidezza dell’immagine.
Il motivo dovrebbe essere ora chiaro: si osservi il pixel dell’esempio in figura: esso
vale 244, e intorno a sé ha due pixel i cui valori sono molto più bassi, 65 e 78. Si trat-
ta certamente di un “granello di sale” e, come si vede, esso viene sostituito con il va-
lore 101, pertanto scompare.
Notiamo che i primi due pixel sono stati copiati sulla destinazione (pixel con bordo
nero tratteggiato), poiché la finestra mobile uscirebbe a sinistra dai confini della sequenza,
laddove non ci sono valori da considerare; possiamo inoltre vedere come il filtro me-
diano sia già stato applicato a tre pixel della sequenza, quelli che in figura appaiono con
il bordo rosso tratteggiato.
Nel secondo esempio di Figura 4.25 è stato applicato il filtro mediano al caso bidi-
mensionale di un’immagine. La finestra mobile questa volta è una matrice 3 3. La ma-
trice maschera può scorrere lungo le due dimensioni, in modo da poter coprire tutti i
pixel dell’immagine (normalmente si procede per righe successive).
Nell’esempio il pixel preso in considerazione ha luminanza 25, quindi è molto scu-
ro (granello di pepe). Prendendo in esame la sequenza ordinata dei valori di luminanza
dei pixel della maschera, si osserva che il valore mediano è 119 e lo si sostituisce al va-
lore 25. Il “granello di pepe” è stato eliminato. Anche in questo caso si verifica il problema
dell’applicazione del filtraggio ai bordi estremi dell’immagine, per cui la prima e l’ul-
tima riga, così come la prima e l’ultima colonna dell’immagine saranno ricopiate diret-
tamente sull’immagine destinazione (pixel con bordo nero tratteggiato); inoltre, nell’e-
sempio vediamo che il filtro mediano è già stato applicato alla prima riga e a un pixel
della seconda (pixel con bordo rosso tratteggiato).
Una strategia per elaborare immagini con il filtro mediano può essere quella di ese-
guire prima un tentativo con una finestra 3 3, poi 5 5 e così via, fino a quando non
si ottengono più miglioramenti dell’immagine ma un visibile degrado della qualità. In
Figura 4.26 un esempio di applicazione del filtro mediano a una immagine che presen-
ta un disturbo di tipo “sale e pepe”.

Fig. 4.25 Esempio bidimensionale di


elaborazione con filtro mediano. La
finestra scorrevole è una matrice n×n,
con n di valore dispari. Dopo avere
disposto in una sequenza ordinata i
valori della matrice, si preleva il
valore dell’elemento centrale
(mediano) e lo si mette al posto del
vecchio valore del pixel. Come si
osserva, i valori molto elevati o molto
bassi (sale e pepe) verranno abbassati
o innalzati sulla base del contesto nel
quale si trovano
4 Elaborazione di immagini 119

Fig. 4.26 Effetti di alcuni tipi di filtro


messi a confronto. In 1 vi è
l’immagine originale, artificialmente
degradata da rumore tipo “sale e
pepe”. In 2 è visibile il risultato
dell’applicazione su questa di un filtro
convolutivo come quello citato nel
testo, a matrice 3×3. In 3 è stato
applicato un filtro identico ma a
matrice 5×5, con ulteriore riduzione
del rumore ma conseguente aumento
del blurring. In 4 l’immagine è stata
elaborata applicando il filtro mediano.
Si noti la quasi scomparsa della
punteggiatura bianca e nera e il non
rilevante aumento del blurring. Questo
è dovuto alla sostanziale differenza tra
i filtri convolutivi e il filtro mediano:
nei primi si sostituisce totalmente il
valore di un pixel con un valore medio
tra quelli circostanti, mentre nel filtro
mediano un pixel viene sostituito il
valore di un altro pixel che tuttavia
appartiene ancora all’immagine

4.4.5
L’unsharp masking

L’unsharp masking è un tipo di elaborazione che si usa nell’ambito della radiologia di-
gitale per enfatizzare la visibilità dei dettagli presenti nell’immagine; il procedimento
coinvolge diverse operazioni. Inizialmente si esegue uno smoothing dell’immagine ori-
ginale, con uno dei metodi descritti nel paragrafo 4.4.3.
Questa operazione attenua i dettagli presenti nell’immagine. Ora si dispone di due
immagini:
• l’originale contiene inalterate le informazioni relative alla globalità dell’immagine e
dei piccoli dettagli;
• quella sottoposta a smoothing, in cui le informazioni relative ai dettagli risultano at-
tenuate e l’immagine appare sfuocata, per effetto del filtraggio.
Successivamente, si sottrae all’immagine originale l’immagine sottoposta a smoothing,
ottenendo una differenza detta maschera (mask), contenente le sole informazioni rela-
tive al contrasto dei piccoli dettagli, rimosse nel passo precedente.
120 M. Coriasco et al.

Fig. 4.27 Effetto dell’algoritmo di unsharp masking. La a è l’immagine di partenza, la b è quella otte-
nuta dopo l’applicazione di filtro smoothing 5 5, la c è l’immagine risultante contenente soltanto le
informazioni relative ai contorni. Se si somma la a alla c si ottiene un’immagine che contiene mag-
giori informazioni relative ai contorni

La maschera dovrà essere opportunamente pesata, moltiplicando i valori numerici ot-


tenuti per un peso K (con K  0); il risultato della pesatura è infine sommato all’im-
magine iniziale, esaltando la visibilità dei piccoli dettagli.
Si è quindi realizzata un’operazione di aumento della nitidezza dell’immagine (shar-
pening) utile, per esempio, nel caso di un radiogramma dell’articolazione tibio-tarsica,
nel quale si apprezza un evidente aumento della nitidezza con cui è rappresentata la par-
te ossea (Fig. 4.27).

4.4.6
Gli operatori morfologici

La morfologia è la scienza che studia le forme. Gli operatori morfologici costitui-


scono strumenti di elaborazione molto importanti per rimuovere irregolarità presen-
ti nell’immagine.
4 Elaborazione di immagini 121

Fig. 4.28 Esempio


di applicazione
dell’operatore di
base erosione

Fig. 4.29 Esempio


di applicazione
dell’operatore di
base dilatazione

Lo strumento di analisi è l’elemento strutturante, cioè una maschera di qualsivoglia


forma il cui centro corrisponde al pixel corrente. La variazione di forma e dimensione
dell’elemento strutturante permette di estrarre informazioni utili sulla geometria delle
diverse parti dell’immagine e sulle loro relazioni. Le immagini da elaborare possono es-
sere in bianco e nero oppure a toni di grigio; per semplicità, quelle considerate nel se-
guito sono binarie, con background bianco (1) e foreground nero (0).
È consuetudine considerare una finestra 3 3 il cui punto centrale è quello di riferi-
mento, sfruttando la metrica della 8-vicinanza. Verranno perciò ricercate le coinciden-
ze (matching) dell’elemento strutturante in varie posizioni.
Gli operatori di base sono l’erosione che rimuove pixel dai bordi di regioni e la di-
latazione che li aggiunge. I due operatori sono basati sulle seguenti regole:
• erosione: se tutto l’elemento strutturante giace all’interno di una regione nell’imma-
gine in analisi, allora il pixel centrale dell’immagine elaborata è posto uguale a 0. Gli
8-vicini di un pixel sono tutti elementi dell’oggetto (Fig. 4.28);
• dilatazione: se almeno un pixel dell’elemento strutturante giace all’interno della re-
gione nell’immagine in analisi, allora il pixel centrale dell’immagine elaborata è po-
sto uguale a 0. Un pixel ha almeno un elemento dell’oggetto fra gli 8-vicini (Fig. 4.29).
122 M. Coriasco et al.

Fig. 4.30 Esempio


di applicazione
dell’operatore
complesso di
apertura

Fig. 4.31 Esempio


di applicazione
dell’operatore
complesso di
chiusura

Partendo dagli operatori elementari di erosione e dilatazione, combinandoli insieme ot-


teniamo due operatori complessi detti:
• apertura: erosione seguita da dilatazione che elimina frange nei bordi e piccole la-
cune, separa oggetti debolmente connessi e rimuove regioni piccole;
• chiusura: dilatazione seguita da erosione che riempie buchi e piccole concavità non-
ché rafforza la connessione di regioni unite debolmente.
La Figura 4.30 illustra un esempio di applicazione dell’operatore di apertura, mentre
la Figura 4.31 un esempio di applicazione dell’operatore di chiusura.
Gli operatori morfologici di base, vale a dire l’erosione e la dilatazione, possono es-
sere estesi a immagini con toni di grigio, per una loro più ampia applicazione.

4.5
Elaborazioni globali

4.5.1
L’istogramma e il miglioramento del contrasto

Un metodo per migliorare il contrasto consiste nel modificare il livello di luminanza di


un pixel sulla base dei valori assunti da tutti quelli che costituiscono l’immagine. Il cal-
colo del valore da sostituire nell’immagine elaborata si basa sull’analisi statistica dei
valori assunti dai pixel. Alcuni autori indicano questo tipo di elaborazione come globa-
le in quanto sono presi in considerazione tutti i valori assunti dai pixel dell’immagine.
Lo strumento utilizzato è l’istogramma dei livelli di luminanza, cioè la distribuzione
di frequenza dei livelli di luminanza assunti dai pixel; si rappresenta mediante una tabella
4 Elaborazione di immagini 123

Fig. 4.32 Due immagini molto semplici,


composte da soli 4 pixel e aventi lo stesso
identico istogramma

che riporta la frequenza dei pixel di un’immagine il cui valore cade in intervalli defini-
ti della scala dei grigi; la tabella può essere convertita in un diagramma per una visua-
lizzazione più compatta e comprensibile.
Supponendo che l’immagine abbia dimensione M N, allora n  M N è il numero
totale dei pixel dell’immagine, posto L il numero finito e discreto di livelli di grigio,
definiamo fk come la frequenza del k-esimo livello di grigio nell’immagine originale,
calcolato tramite il seguente rapporto:
fk  nk /n
dove nk è il numero di occorrenze con cui il k-esimo livello di grigio compare nell’im-
magine originale. L’insieme di tutti i valori fk calcolati costituisce l’istogramma discre-
to normalizzato (la frequenza assumerà valori compresi tra 0 e 1) di un’immagine.
L’istogramma fornisce una raffigurazione sintetica delle caratteristiche di luminosità
dell’immagine, trascurando però ogni informazione relativa al contenuto e alla posizio-
ne dei singoli pixel. Di conseguenza, più immagini possono essere caratterizzate dallo
stesso istogramma, come nell’esempio in Figura 4.32, in cui sono rappresentate due sem-
plici immagini di dimensione 2 2.
Per meglio comprendere il metodo, consideriamo ora un’immagine di 64 64 pixel a
8 livelli di grigio (dal livello 0 al livello r7); detto nk il numero di occorrenze di un par-
ticolare valore rk di luminanza, nella quarta colonna della Tabella 4.1 sono riportati gli
ipotetici valori di fk .
Il grafico dell’istogramma è riportato nella Figura 4.33.
Determinato l’istogramma di un’immagine è necessario, al fine di migliorarne il con-
trasto, applicare ai livelli di grigio una trasformazione T, che renda l’istogramma quan-
to più possibile uniforme. Il procedimento viene detto uniformazione o equalizzazione
dell’istogramma.

Tabella 4.1 Calcolo dell’istogramma


rk rk nk fk=nk/n
r0 0 451 0,11
r1 1/7 737 0,18
r2 2/7 1147 0,28
r3 3/7 819 0,20
r4 4/7 532 0,13
r5 5/7 205 0,05
r6 6/7 123 0,03
r7 7/7 82 0,02
124 M. Coriasco et al.

Fig. 4.33 Forma grafica dell’istogramma


dei livelli di grigio della Figura 4.25

Attraverso una dimostrazione, che lasciamo al lettore come approfondimento, si de-


termina che la distribuzione cumulativa delle frequenze è una funzione ottimale come
funzione di trasformazione per l’equalizzazione dell’istogramma.
Le immagini sono discrete, e la forma discreta della distribuzione cumulativa si
ottiene sostituendo l’integrale con la sommatoria:
k k
nj
sk = T ( rk ) = ∑ = ∑ pr ( rj )
j =0 n j =0

Come esempio, consideriamo nuovamente l’immagine di 64 64 pixel con 8 livelli


di grigio la cui distribuzione sia quella calcolata precedentemente.
La funzione di trasformazione è data da:
0
s0 = T ( r0 ) = ∑ pr ( rj ) = 0, 11
j =0
1
s1 = T ( r1 ) = ∑ pr ( rj ) = 0,1
11 + 0, 18
j =0
2
s2 = T ( r2 ) = ∑ pr ( rj ) = 0, 11 + 0, 18 + 0, 28
j =0

E così via per tutti i valori di sk, come nella Tabella 4.2.

Tabella 4.2 Trasformazione dei livelli


nk sk
451 0,11
1188 0,29
2335 0,57
3154 0,77
3686 0,90
3891 0,95
4014 0,98
4096 1,0
4 Elaborazione di immagini 125

Fig. 4.34 Funzione di trasformazione


derivata dalla distribuzione cumulativa
di probabilità discreta

La procedura di equalizzazione spesso riduce il numero di livelli di grigio facendo


corrispondere a uno o più livelli originali uno nuovo, in modo tale che il numero di pixel
in ogni classe di livello di grigio sia prossimo al valore medio dell’istogramma (nume-
ro di punti diviso per il numero di livelli).
La funzione di trasformazione assume allora l’aspetto di Figura 4.34.
Nel caso preso in analisi sono stati considerati otto livelli di grigio uniformemente
spaziati, per cui ciascuno dei valori trasformati sk deve essere assegnato al più vicino li-
vello valido come indicato nella quarta colonna della Tabella 4.3.
Osserviamo che vi sono solo sei distinti livelli di grigio per cui ridefiniamo i livelli
sk e otteniamo la quinta colonna della Tabella 4.3.
Poiché r0  0 è stato trasformato in s0  1/7, vi sono 451 pixel trasformati con que-
sto nuovo valore corrispondente a p s (s k )  0,11; analogamente, vi sono 737 pixel con
valore s1  2/7, corrispondente a p s (s k )  0,29, 1147 pixel con valore s3  4/7, 819
con s4  5/7, 532 con s5  6/7. Poiché r5, r6 e r7 sono trasformati in s5  1, vi saran-
no ora 205  123  82 pixel con questo nuovo valore.
L’istogramma che si ottiene è quello schematizzato nella Figura 4.35, in cui è descrit-
ta graficamente la trasformazione dall’immagine originale a quella equalizzata per il tra-
mite della distribuzione cumulativa. Le frecce puntinate rappresentano il passaggio tra il
livello di grigio dell’immagine originale e il livello equalizzato più vicino a quello deter-
minato dalla funzione di trasformazione; notare che non tutte le trasformazioni sono sta-
te disegnate per non appesantire la rappresentazione, ma nella Tabella 4.3 tutti i rk livelli
devono essere convertiti su un nuovo livello di grigio sk dell’immagine destinazione.

Tabella 4.3 Tabella di trasformazione


k rk “sk trasformati” “Valori sk” sk ps(sk)
0 0 0,11 1/7 s0 0,11
1 0,14 0,29 2/7 s1 0,18
2 0,28 0,57 4/7 s2 0,28
3 0,42 0,73 5/7 s3 0,20
4 0,57 0,90 6/7 s4 0,13
5 0,71 0,95 1 s5 0,10
6 0,85 0,98 1 – –
7 1 1 1 – –
126 M. Coriasco et al.

Fig. 4.35 Applicazione della


trasformazione all’istogramma dei
livelli di grigio, ottenendo la nuova
distribuzione che rappresenta la
migliore approssimazione della
equalizzazione dell’immagine. a
Distribuzione delle frequenze dei
livelli di grigio nell’immagine
originale; b distribuzione
cumulativa delle frequenze
dell’immagine originale che funge
da funzione di trasformazione; c
distribuzione delle frequenze
dell’immagine equalizzata

Osserviamo che lavorando nel dominio discreto non si ottiene un istogramma equa-
lizzato perfettamente piatto. Questa discrepanza è dovuta all’approssimazione nel cal-
colo dei nuovi livelli e alla natura discreta dei livelli stessi, che causano la non unifor-
mità dell’istogramma; si può inoltre notare che il livello massimo è necessariamente pre-
sente, per effetto del meccanismo di trasformazione utilizzata.
L’equalizzazione porterà a un’immagine che non è generalmente migliorata dal pun-
to di vista estetico, ma che può essere un’immagine in cui vengono messe in evidenza
delle particolarità che in precedenza erano poco visibili.
Per rendere più esplicito l’effetto di questa trasformazione, vediamo in Figura 4.36
l’equalizzazione dell’istogramma applicato a un esempio reale.
Infine, riportiamo due casi operativi in cui è opportuno applicare l’equalizzazione del-
l’istogramma:
• si vogliono confrontare due immagini A e B per individuare quali sono le differenze
tra di loro. Se le immagini sono state ottenute sotto diverse condizioni di luminosità
è necessario compensare queste differenze, altrimenti si potrebbero ottenere diversi va-
lori di grigio per gli stessi pixel, anche se le due immagini rappresentano lo stesso sog-
getto. Si ottiene la compensazione trasformando la scala dei livelli di grigio dell’im-
magine A, in modo che il suo istogramma uguagli quello dell’immagine B oppure tra-
sformando ambedue le immagini in modo da ottenere un istogramma standard;
• è richiesto di misurare alcune proprietà di un’immagine A per classificarla o descri-
verla. Se queste proprietà dipendono dai livelli di grigio presenti in A, allora i loro
valori saranno funzione delle condizioni di luminosità rispetto alle quali A è stata ot-
tenuta; questa sensibilità può essere ridotta agendo su A con l’equalizzazione.
4 Elaborazione di immagini 127

Fig. 4.36 Esempio


reale di
equalizzazione
dell’istogramma
dei livelli di grigio

Nell’ambito dell’imaging radiologico, l’equalizzazione può essere utilizzata in quel-


le situazioni in cui le immagini originali sono intrinsecamente a basso contrasto ed è
importante evidenziare in un’unica rappresentazione tutte le strutture presenti. In parti-
colare, ci sono due situazioni che presentano questo tipo di problematica, la mammo-
grafia digitale e l’imaging cosiddetto portale, per la verifica di posizionamento del pa-
ziente in radioterapia. Le elaborazioni peculiari della mammografia digitale saranno de-
scritte nel capitolo 5, mentre in questa sede possiamo considerare alcuni esempi di
equalizzazioni di istogramma applicati alle immagini proiettive di radioterapia. Dal pun-
to di vista fisico, queste immagini hanno scarso contrasto per il fatto che sono ottenu-
te con fasci di radiazioni per terapia che hanno energia molto più elevata rispetto a quel-
li utilizzati in radiologia. Nell’immagine, il medico dovrà identificare i contorni del fa-
scio di trattamento e le strutture anatomiche utili a valutare il corretto posizionamento
come, in particolare, parti ossee, parenchima polmonare, profili di tessuti. L’applicazione
dell’equalizzazione consente di evidenziare contemporaneamente in un’unica immagi-
ne queste strutture caratteristiche, come mostrato nell’esempio di Figura 4.37.
Esistono diverse varianti nelle modalità di applicazione dell’equalizzazione dell’i-
stogramma, che vengono indicate con le seguenti sigle:
• Global Histogram Equalization (GHE): è il processo descritto in precedenza di equaliz-
zazione sulla base della distribuzione complessiva dei valori nell’istogramma di origine;
• Adaptive Histogram Equalization (AHE): agisce equalizzando localmente regioni di
dimensioni minori rispetto all’intera immagine ed è utile in particolare quando non
si è interessati al contributo di aree estese dell’immagine come, ad esempio, la par-
te di sfondo di un soggetto;
• Contrast Limited Adaptive Histogram Equalization (CLAHE): in questa variante si
fissa il valore massimo di pendenza della LUT di equalizzazione calcolata a partire
dall’istogramma, che equivale a definire un’altezza massima di una componente del-
l’istogramma rispetto a quelle adiacenti;
128 M. Coriasco et al.

Fig. 4.37 Esempi di


tipologie di
equalizzazione
dell’istogramma.
a,b Immagine
portale originale
per trattamento di
tumore al seno; c
immagine
processata con
metodo AHE; d
immagine
processata con
metodo CLAHE

• SHarpened Adaptive Histogram Equalization (SHAHE): consiste nell’applicazione di


un filtro di sharpening prima di realizzare il processo di AHE;
• Multiscale Adaptive Histogram Equalization (MAHE): l’immagine viene prima scom-
posta nelle sue componenti di diversa frequenza spaziale, a ciascuna delle quali vie-
ne applicato il processo AHE per poi ricombinare i risultati ottenuti nell’immagine
finale.

4.6
Elaborazioni nel dominio delle frequenze spaziali

4.6.1
La frequenza spaziale

Nei capitoli precedenti è già stato introdotto il concetto di frequenza spaziale presente
in un’immagine. In questo paragrafo si vuole introdurre la possibilità di effettuare ela-
borazioni di un’immagine considerando e alterando le frequenze spaziali presenti in es-
sa, operazione che viene denominata elaborazione nel dominio delle frequenze.
Il sistema visivo umano è predisposto per rilevare transizioni di luminosità: sono que-
ste che portano informazione. Il numero di transizioni di luminosità in un intervallo di
spazio, assunto come unitario, costituisce la frequenza spaziale. La Figura 4.38 rappre-
senta immagini con uguali dimensioni costituite da reticoli ottenuti con alternanza di
strisce bianche e nere: al diminuire dello spessore delle strisce, aumenta il loro nume-
ro, cioè la frequenza spaziale è più elevata.
Quanto visto nel primo capitolo relativamente al teorema di Fourier per un segnale
che varia nello spazio e nel tempo può essere esteso anche al caso bidimensionale delle
4 Elaborazione di immagini 129

Fig. 4.38 Schema di


frequenza spaziale
rilevata su
un’immagine. Si
può osservare nei
grafici sottostanti
le immagini che le
variazioni di livello
influenzano la
frequenza del
segnale misurato
lungo una
direzione

Fig. 4.39 Esempi di


immagini con
andamento
sinusoidale con
differente periodo
e direzione e
risultato della
somma pesata

immagini. In altre parole, un’immagine può essere scomposta nella somma di un’im-
magine uniforme e di una serie di immagini rappresentanti ciascuna un singolo pattern
sinusoidale di ampiezza, frequenza e fase opportunamente definite.
La Figura 4.39 mostra un esempio di immagine e della sua scomposizione nelle di-
verse componenti con frequenza spaziale univoca. L’ultima immagine a destra rappre-
senta, infatti, la somma mediata delle 4 immagini precedenti. Pur non essendo intuiti-
vo, questo tipo di operazione può essere effettuata a partire da qualunque tipo di im-
magine, estendendo la serie delle immagini sinusoidali componenti.

4.6.2
La trasformata di Fourier

È possibile ottenere una rappresentazione delle diverse frequenze spaziali presenti in


un’immagine, attraverso l’uso dello strumento matematico denominato trasformata di-
screta di Fourier (Discrete Fourier Transform, DFT).
La DFT trasforma un’immagine nel dominio spaziale nella corrispondente distribuzione
delle frequenze, in cui ogni valore è espresso nel campo dei numeri complessi e rappre-
senta una delle frequenze spaziali componenti l’immagine. Se nel dominio spaziale sia-
130 M. Coriasco et al.

Fig. 4.40 Esempi di


trasformate di
Fourier
(visualizzazione del
modulo in valore
assoluto) di
immagini con
pattern sinusoidale
e della loro somma
pesata; la
trasformata è stata
ingrandita
fortemente per
apprezzarne il
contenuto
informativo
altrimenti molto
labile

mo abituati a considerare l’immagine come una distribuzione lungo le coordinate x e y


di valori di luminanza, nel dominio delle frequenze, in cui vengono studiate le variazio-
ni dei valori dei pixel nelle direzioni spaziali, la stessa immagine può essere rappresen-
tata come una distribuzione delle frequenze spaziali in essa presenti lungo le componen-
ti indicate con u e v. In tale tipo di rappresentazione, è possibile analizzare le frequenze
spaziali che compongono l’immagine osservando il modo in cui esse si distribuiscono.
Consideriamo, ad esempio, il modulo della trasformata di Fourier delle immagini con
andamento sinusoidale e della loro somma dell’esempio precedente, come mostrato in
Figura 4.40. Per ciascuna immagine sinusoidale, la trasformata di Fourier evidenzia tre
punti. Il punto centrale è indicativo del valore medio di luminanza dell’immagine stes-
sa, mentre gli altri due punti sono associati alla frequenza spaziale. Come è evidente
considerando i diversi esempi, al crescere della frequenza spaziale i valori della trasformata
si allontanano dal centro dell’immagine. È quindi intuitivo che le basse frequenze con-
fluiranno nella parte centrale dell’immagine del modulo della trasformata di Fourier, men-
tre le alte frequenze occuperanno le regioni più periferiche. La trasformata dell’imma-
gine somma evidenzia i punti associati a tutte le frequenze componenti.
Le dimensioni dell’immagine sono identiche prima e dopo applicazione di DFT, ma
cambia il valore che ciascun pixel assume; nel dominio spaziale avremo dei valori di-
screti di luminanza (es. 0, 1, ...), mentre la DFT avrà valori anche molto elevati. Ciò
comporta delle difficoltà di rappresentazione dello spettro di frequenza, per cui nor-
malmente viene visualizzata una distribuzione del modulo delle frequenze applicando
una LUT logaritmica, in modo da compensare visivamente l’ampia gamma dinamica
dello spettro.
Per immagini più complesse di quelle dell’esempio di Figura 4.40, la trasformata di
Fourier evidenzia uno spettro completo di frequenze con diverse intensità, come mo-
strato nella Figura 4.41. Nella distribuzione delle frequenze, la presenza di corone cir-
colari, centrate sullo spettro stesso, indica come l’energia luminosa dell’immagine si di-
stribuisce ai vari livelli di frequenza. Sui cerchi più prossimi al centro dello spettro si
rilevano i contributi relativi alle basse frequenze, mentre sui cerchi più distanti dal cen-
tro si rilevano i contributi relativi alle alte frequenze. Nell’ottica di un’elaborazione è
4 Elaborazione di immagini 131

Fig. 4.41 Esempio


di elaborazione
globale nel
dominio
trasformato, con
filtri di tipo passa-
basso e passa-alto,
per eliminare
selettivamente
nell’immagine le
componenti a
bassa o ad alta
frequenza

possibile eliminare parte delle frequenze (la parte centrale delle basse frequenze o quel-
la periferica delle alte frequenze) e successivamente ricostruire l’immagine nel dominio
dello spazio, applicando alla distribuzione delle frequenze la trasformata discreta di Fou-
rier inversa (Inverse Discrete Fourier Transform, IDFT) rendendo l’informazione nuo-
vamente fruibile all’occhio umano.

4.6.3
Proprietà dell’immagine nel dominio trasformato

La trasformata di Fourier di un’immagine digitale, o in termini più generici di una fun-


zione bidimensionale reale, presenta numerose proprietà matematiche utili e interessanti.
Una loro trattazione completa esula dagli scopi di questo testo, ma si può citare ad esem-
pio che la trasformata di Fourier e la sua inversa sono operazioni lineari per cui, appli-
cando la trasformata a una combinazione lineare di immagini, si ottiene la combina-
zione lineare delle loro singole trasformate. Altre proprietà sono legate alla natura di
132 M. Coriasco et al.

numero complesso del risultato dell’operazione, che quindi prevede la possibilità di in-
dicare i valori in termini di componente reale e immaginaria oppure in termini di mo-
dulo e fase. Di particolare interesse sono le proprietà di simmetria che presenta la tra-
sformata per cui, indicando con u e v le componenti in frequenza nelle due direzioni, si
ha che il modulo della trasformata di Fourier A obbedisce alla relazione:
A(u,v)  A(-u,-v).
In altri termini, nelle immagini delle trasformate di Fourier è possibile notare una sim-
metria centrale, dove il centro rappresenta l’origine del sistema di riferimento del domi-
nio delle frequenze. Queste proprietà vengono sfruttate, ad esempio, nell’ambito del pro-
cesso di acquisizione delle immagini in risonanza magnetica. In questa metodica, i segnali
di radiofrequenza indotti e rilevati interagendo con i tessuti del paziente, vengono memo-
rizzati in uno spazio di memoria che compone direttamente le immagini nel dominio del-
le frequenze, denominato spazio K. Successivamente, tramite la trasformata di Fourier, è
possibile ricostruire le immagini di risonanza nel consueto dominio spaziale. La simme-
tria dell’immagine nel dominio delle frequenze viene sfruttata, ad esempio, in alcune tec-
niche di acquisizione rapide che prevedono la raccolta dei dati che compongono la metà
dello spazio K (tecniche half-Fourier), permettendo comunque una ricostruzione comple-
ta dell’immagine ribaltando i dati ottenuti nella porzione di memoria vuota.

4.6.4
Le tecniche di filtraggio nel dominio trasformato

Cercando un nesso esplicativo tra dominio spaziale e dominio trasformato si può ben in-
tuire come le frequenze più basse (relative a funzioni di base con un ridotto numero di
oscillazioni) possono essere associate alla ricostruzione di contenuti informativi spazia-
li a luminosità poco variabile quali sfondi o zone dell’immagine a intensità uniforme.
Le frequenze più elevate (relative a funzioni di base con un numero anche notevole di
oscillazioni) possono essere associate alla ricostruzione di contenuti informativi spaziali qua-
li oggetti, dettagli, bordi, contorni e, in generale, a zone con grande variabilità di luminanza.
Riflettendo su quanto esposto è chiaro che, sopprimendo nello spettro dell’immagi-
ne le alte frequenze, si attenuino nel dominio spaziale i dettagli dell’immagine, intro-
ducendo come effetto collaterale una sfocatura; è altrettanto evidente che sopprimendo
le basse frequenze si attenuino nel dominio spaziale gli elementi di sfondo, lasciando
in evidenza i dettagli e i contorni.
I filtri nel dominio delle frequenze operano attenuando o al limite eliminando parti
delle frequenze componenti l’immagine; l’individuazione delle frequenze su cui opera-
re è compiuta identificando una soglia detta frequenza di taglio. Il valore della frequenza
di taglio è molto importante poiché determina la quantità di frequenze spaziali compo-
nenti che viene conservata o eliminata nelle operazioni di filtraggio.
Un filtraggio che mantiene pressoché inalterate le basse frequenze è denominato passa-
basso, al contrario un filtraggio che preserva le alte frequenze è denominato passa-alto.
Un filtro passa-basso è utile per ridurre gli effetti del rumore presente nelle imma-
gini che generalmente è associabile alla presenza di alte frequenze.
4 Elaborazione di immagini 133

Sfruttando l’effetto di sfocatura introdotto dalla tipologia di filtraggio, la tecnica per-


mette di smussare le immagini che presentano il fenomeno dei falsi contorni, cioè una
separazione evidente tra livelli di luminanza, dovuta a una quantizzazione operata con
un numero insufficiente di livelli di grigio.
Un filtro passa-alto è utile, invece, per evidenziare bordi e contorni e accentuare le
frontiere che separano i pixel con valori simili di livello.

4.6.5
Applicazioni dei filtri in frequenza alle immagini

Per eseguire un filtraggio basato sulle frequenze, sarà necessario eseguire la trasforma-
ta discreta di Fourier. I tempi di elaborazione della trasformata sono normalmente ele-
vati; con l’attuale tecnologia, un’immagine di dimensioni dell’ordine di 1024 pixel per
lato l’operazione può richiedere anche diversi minuti. Nel caso in cui l’immagine sia
quadrata e le dimensioni siano una potenza del due (256, 512, 1024, ...), i tempi di cal-
colo sono drasticamente ridotti utilizzando la versione veloce della trasformata, detta
Fast Fourier Transform (FFT).
Una volta ottenuta l’immagine nel dominio trasformato, a fronte di un’analisi dello
spettro di ampiezza delle frequenze, sarà possibile applicare una riduzione o un’enfasi a
intervalli di frequenze opportunamente scelti in base al risultato che si vuole ottenere.
Operando successivamente la trasformata inversa sullo spettro modificato, si otterrà l’im-
magine nel dominio spaziale in cui saranno presenti i risultati dell’operazione di filtraggio.
Un esempio del concetto appena esposto è presentato negli esempi di Figura 4.42 e 4.43.
Fig. 4.42 Esempio di elaborazione nel dominio
trasformato eseguita con software EidosLab. A partire da
un’immagine radiografica della spalla (convertita in
formato bitmap, a evitare artefatti da compressione .jpeg
e ridotta a formato 512×512 per poter applicare la FFT)
si esegue la Direct Fast Fourier Transform e la si elabora
mediante un filtro passa-basso di tipo Butterworth, con
parametri r020% e r15. Al risultato viene poi
applicata la Inverse Fast Fourier Transform per tornare al
dominio spaziale, ottenendo come risultato un’immagine
simile a un’immagine sottoposta a smoothing, ulteriore
evidenza che le alte frequenze si trovano verso la
periferia dello spazio trasformato
134 M. Coriasco et al.

Fig. 4.43 Esempio di elaborazione nel dominio


trasformato eseguita con software EidosLab. A
partire da un’immagine radiografica del bacino
(convertita in formato bitmap, a evitare artefatti da
compressione .jpeg e ridotta a formato 512×512
per poter applicare la FFT) si esegue la Direct Fast
Fourier Transform e la si elabora mediante un
filtro passa-alto di tipo Butterworth, con parametri
r020% e r15. Al risultato è applicata la Inverse
Fast Fourier Transform per tornare al dominio
spaziale, ottenendo come risultato una immagine
contenente scarse informazioni di contrasto, ma
con molte informazioni relative ai bordi. Questo
fatto prova che le regioni centrali dello spazio
trasformato contengono le informazioni a bassa
frequenza, relative ai contrasti

La scelta delle funzioni filtro, il significato delle stesse nel dominio spaziale e gli ef-
fetti prodotti dalla moltiplicazione di una trasformata per una funzione filtro varieran-
no in base alle specifiche necessità di elaborazione.
Analizzeremo ora un insieme di filtri classici applicabili alle trasformate di Fourier
nella loro versione passa-basso; la versione passa-alto sarà matematicamente duale, per
cui dove il passa-basso vale 1, il passa-alto varrà 0 e viceversa, considerando invertiti
anche i valori intermedi delle curve.

4.6.6
Filtro ideale

Il filtro ideale (Fig. 4.44) è definito dalla seguente funzione in cui u e v rappresentano
le frequenze lungo la direzione orizzontale e verticale, mentre r0 è la frequenza di taglio:
⎧⎪1 se r ( u, v ) ≤ r0
H ( u, v ) = ⎨
⎪⎩0 se r ( u, v ) > r0
dove r ( u, v ) = u 2 + v 2 .
Il termine r(u,v) rappresenta la distanza dall’origine di un punto nel dominio delle
frequenze.
In corrispondenza della frequenza di taglio, il filtro ideale introduce una discontinuità,
nella quale il limite sinistro vale 1 e il limite destro vale 0. Questo cambio repentino di
valori si ripercuote sull’immagine filtrata introducendo delle irregolarità in corrispon-
denza dei bordi degli oggetti ripresi dall’immagine.
4 Elaborazione di immagini 135

Fig. 4.44 Rappresentazione grafica del filtro ideale

4.6.7
Filtro Butterworth

Per ovviare ai problemi indotti dal filtro ideale, si utilizzano spesso dei filtri di struttu-
ra più complessa che introducono un taglio meno netto delle frequenze per mezzo del-
l’applicazione di un’attenuazione progressiva. Uno di questi filtri è denominato But-
terworth (Fig. 4.45) e, nella sua forma generale, è definito dalla seguente relazione:
1
H ( u, v ) =
⎛ r ( u, v ) ⎞ 1
r

1+ ⎜ ⎟
⎝ r0 ⎠
dove r ( u, v ) = u 2 + v 2 .
I parametri r0 e r1 permettono di caratterizzare l’andamento della curva del filtro. In
particolare il parametro r0 determina la posizione radiale del punto di flesso della cur-
va e svolge la medesima funzione deputata al raggio nel filtro ideale, cioè quella di in-
dicare l’ampiezza di banda delle basse frequenze che si intende conservare.
Dal punto di vista del filtraggio, anche se impropriamente, il parametro r0 può essere
assimilato a una frequenza di taglio; infatti il cambiamento di concavità della curva de-
termina il punto in cui il filtro applica una maggiore attenuazione delle alte frequenze
(schiacciamento). Il parametro r1 determina invece il grado di schiacciamento interve-
nendo sulla pendenza della curva, per questo il parametro r1 è considerato un parametro
di “attenuazione” della curva. Tipicamente r1 è definito come r1  2k con k  0, 1, ecc.
Aumentando il parametro r1, il filtro Butterworth tende ad approssimare il filtro pas-
sa-basso ideale.
136 M. Coriasco et al.

Fig. 4.45 Rappresentazione grafica del filtro di


Butterworth

Dal punto di vista della qualità dell’immagine filtrata, il filtro Butterworth risolve i
problemi introdotti dalla discontinuità del filtro ideale, limitando l’effetto di sfocatura
e riducendo, al contempo, il contributo delle alte frequenze. È importante rilevare che
il filtro Butterworth non esegue un taglio delle alte frequenze ma solo un’attenuazione.
Per questo motivo, pur non parlando di frequenza di taglio in senso stretto, si è soliti
definire la frequenza di taglio dei filtri ad attenuazione come la frequenza alla quale il
valore della funzione H raggiunge una predeterminata frazione del suo valore massimo.

4.6.8
Filtro esponenziale

Il filtro esponenziale (Fig. 4.46), molto simile al filtro Butterworth, si differenzia so-
prattutto per la rapidità di abbattimento delle alte frequenze. L’espressione analitica del
filtro è riportata a seguito:

1
H ( u, v ) =
⎛ r ( u ,v ) ⎞r1
⎜⎜ ⎟⎟
⎝ r0 ⎠
e

dove r ( u, v ) = u 2 + v 2 .
I parametri r0 e r1 permettono di caratterizzare la forma della curva con modalità equi-
valenti a quelle espresse per il filtro Butterworth. Come nel caso del filtro Butterworth,
la frequenza di taglio è definita come la frequenza alla quale la funzione H è ridotta al-
la frazione p del suo valore massimo.
4 Elaborazione di immagini 137

Fig. 4.46 Rappresentazione grafica del filtro


esponenziale

4.6.9
Filtro trapezoidale

Il filtro trapezoidale (Fig. 4.47) rappresenta una sorta di compromesso tra i filtri But-
terworth ed esponenziale e il filtro ideale, sia per il comportamento qualitativo del fil-
tro, sia per la struttura analitica dello stesso. L’espressione analitica del filtro trapezoi-
dale è la seguente:

1 se r ( u, v ) < r0
⎧ r ( u, v ) − r
H ( u, v ) = ⎨ 1
se r0 ≤ r ( u, v ) ≤ r1
⎪⎩ r0 − r 1
se r ( u, v ) > r1

dove r ( u, v ) = u 2 + v 2 .

Il parametro r0 indica la frequenza di inizio attenuazione mentre il parametro r1 in-


dica la frequenza di inizio taglio. L’intervallo di frequenze tra r0 e r1 è sottoposto a
un filtraggio con variazione lineare. Le due frequenze che identificano l’area di atte-
nuazione lineare, consentono un filtraggio dagli effetti meno marcati rispetto al filtro
passa-basso ideale, evitando una brusca discontinuità sulle frequenze. Si nota comunque,
che in corrispondenza delle frequenze r0 e r1 il cambiamento di pendenza della fun-
zione lineare tende a determinare la comparsa, nel dominio spaziale dell’immagine
filtrata, di strutture ad anello. Questo fenomeno è tanto più evidente quanto maggio-
re è la pendenza della rampa del filtro trapezoidale.
In Figura 4.48 è rappresentata una comparazione dei diversi tipi di filtraggio in
frequenza.
138 M. Coriasco et al.

Fig. 4.47 Rappresentazione grafica del filtro


trapezoidale

Fig. 4.48 Comparazione dei


diversi tipi di filtraggio in
frequenza (passa-basso). In
ogni immagine è riportata
la curva di filtraggio
applicata ed i parametri
scelti per la generazione
del filtro. Notare come le
curve, pur avendo
andamento simile, portano
a un risultato piuttosto
diverso. La comparsa più
o meno accentuata dei
“ring” è legata all’entità
dell’abbattimento delle
basse frequenze
4 Elaborazione di immagini 139

4.7
Ripristino di qualità dell’immagine

Le proprietà del dominio trasformato sono tali da mettere in evidenza alcuni difetti in
modo molto più marcato dal contesto dell’immagine.
Poiché nella sua rappresentazione si evidenzia una specie di mappa delle frequenze,
è chiaro che alcuni disturbi, in particolare quelli periodici nei quali sia possibile indivi-
duare determinate frequenze fisse, avranno una loro rappresentazione identificabile nel-
la distribuzione delle frequenze.
Questo li rende particolarmente individuabili e separabili dal resto, applicando ad esem-
pio alcune immagini di maschera opportunamente predisposte.
Negli esempi rappresentati in Figura 4.49 e 4.50 si sono messi in evidenza i tipici
spike che si formano nel dominio trasformato quando nell’immagine originale sia pre-
sente un rumore di tipo periodico.

Fig. 4.49 Esempio di


immagine degradata da
half-tone pattern
140 M. Coriasco et al.

Fig. 4.50 Immagine


degradata da
frequenze spaziali
spurie sovrapposte
all’immagine
originale. Il rumore
periodico è stato
modellizzato e la
corrispondente TDF
è utilizzata per
filtrare
l’informazione in
frequenza
dell'immagine
degradata (mediante
sottrazione); si
ottiene così una
maggiore precisione
nella rimozione del
disturbo rispetto
alle semplici
maschere empiriche
ricavate dall’analisi
soggettiva

In un primo caso, l’immagine presenta un disturbo tipico delle immagini provenien-


ti dall’acquisizione di un’immagine stampata su un quotidiano con la tecnica dell’half-
toning, nell’altro un generico rumore con caratteristiche di ripetitività.
Si può notare in entrambi i casi come si evidenziano bene gli spike responsabili del
degrado dell’immagine e come sia, di conseguenza, possibile rimuoverli.
È chiaro che il ripristino di qualità (Fig. 4.51 e 4.52) può operare efficacemente quan-
do il degrado è conosciuto oppure correttamente modellizzabile, per cui non si può pen-
sare che il ripristino di qualità sia applicabile a qualsiasi disturbo di qualsiasi forma.
Sarà sempre necessario identificare il disturbo e operare sulla base della conoscenza
del difetto che ha rovinato l’immagine originale.
Si deve tenere presente che l’efficacia di tali metodi di filtrazione è tanto maggiore
quanto maggiori sono le informazioni sul disturbo che ha causato il degrado. Se le infor-
4 Elaborazione di immagini 141

Fig. 4.51 Esempio


di ripristino di
qualità a partire da
un’immagine
degradata da
artefatti da griglia
anti-diffusione
(effetto Moiré
derivante da
interazione degli
elementi di griglia
con gli elementi
rivelatori del plate)

mazioni sono poche e il disturbo non è facilmente discriminabile dal contesto, il recu-
pero della qualità dell’immagine è comunque molto difficile o addirittura impossibile.

4.8
I software per l’elaborazione

Per realizzare le elaborazioni finora descritte su un normale personal computer in uffi-


cio o a casa propria è necessario disporre di un adeguato software per l’elaborazione di
immagini.
Tra i software più conosciuti e utilizzati possiamo sicuramente menzionare prodotti
commerciali quali Photoshop della Adobe o Paint Shop Pro della Corel, oppure software
142 M. Coriasco et al.

Fig. 4.52 Esempio di image restoration in presenza di degrado indotto dal movimento di cui è stimato
il modello di disturbo. In a l’immagine originale degradata, in b l’immagine ripristinata con una pri-
ma stima ancora imprecisa del disturbo; c secondo tentativo di ripristino con una seconda stima del
disturbo; d immagine finalmente ripristinata con una stima corretta del disturbo

gratuiti (spesso open source) quali ImageJ o Eidoslab. La nostra scelta per la produzio-
ne della maggior parte degli esempi e delle immagini è ricaduta su Eidoslab, in quanto
realizzato nel contesto della tesi di laurea da uno degli autori di questo lavoro e messo
a disposizione in forma gratuita a chi sia interessato all’argomento dell’elaborazione di
immagini.
Il software è stato sviluppato basandosi su criteri e tecnologie di ultima generazio-
ne quali l’object oriented programming in ambiente .NET framework della Microsoft
ed è in continua evoluzione e aggiornamento, e chiunque ne abbia volontà e compe-
tenza può contribuire aggiungendo ulteriori algoritmi e funzionalità secondo il model-
lo dei plug-in.
4 Elaborazione di immagini 143

Il software può essere liberamente prelevato dal sito internet http://eidos.di.unito.it e


funziona con i sistemi operativi Windows su cui sia installato .NET framework, anch’esso
liberamente fruibile dal sito della Microsoft (http://windowsupdate.com).
Eidoslab non è un software di fotoritocco, ma un laboratorio didattico e nello stesso
tempo professionale per chi voglia avvicinarsi alle tematiche classiche e innovative del-
l’elaborazione delle immagini.
Non troverete, pertanto, molte delle opzioni tipiche dei software come Photoshop re-
lative al disegno a mano libera, ma sarà viceversa possibile agire sulle immagini trami-
te i parametri conosciuti nella teoria dell’elaborazione delle immagini affrontati in que-
sto testo, senza mascherare gli aspetti matematici che sono alla base delle elaborazioni.
Sono presenti le elaborazioni con le trasformate di Fourier (DFT/FFT) e la coseno
discreta (DCT), il filtraggio nello spazio delle frequenze, le convoluzioni e molto altro
ancora; nel tempo le funzionalità cresceranno ulteriormente ed è possibile crearne in
proprio di nuove, magari sulla base di idee proposte dal lettore.
Sarà inoltre possibile ripetere gli esempi che qui abbiamo riportato, e sperimentarne
di nuovi, in modo da comprendere fattivamente (learning-by-doing) gli effetti indotti
dalle elaborazioni sulle immagini.

4.9
Considerazioni finali

I dati visivi contenuti in un’immagine digitale vengono percepiti dall’occhio umano e


tradotti in informazione sulla base dell’esperienza dell’osservatore; questi può even-
tualmente vantare conoscenze in un particolare dominio applicativo (per esempio im-
magini radiologiche, ecografiche). Al fine di rendere maggiormente percepibile e valu-
tabile l’informazione eidetica, si rende sovente opportuno agire sui dati grezzi con va-
ri metodi elaborazione. L’elaborazione può agire su forma e contenuto dei dati. La forma
consiste generalmente nella distribuzione bidimensionale di intensità luminosa (domi-
nio spaziale) oppure di frequenze (dominio di Fourier). Se la forma rimane inalterata,
si tratta sempre di una distribuzione spaziale di intensità luminosa.
Nel primo caso si parla di elaborazioni che enfatizzano e rendono più facile l’ap-
prezzamento del contenuto: in questo ambito abbiamo analizzato le LUT, i filtri con-
volutivi per la rivelazione e l’evidenziazione dei bordi, oppure per la riduzione del ru-
more e lo smoothing. Abbiamo poi affrontato il caso particolare del filtro mediano e
dell’unsharp masking che, rispettivamente, operano per ridurre il rumore e per eviden-
ziare i bordi e le discontinuità presenti nell’immagine.
Sempre tra le elaborazioni fondamentali abbiamo analizzato il miglioramento del con-
trasto tramite l’equalizzazione dell’istogramma, per poi passare alle elaborazioni nel do-
minio delle frequenze componenti l’immagine.
Utilizzando la trasformata di Fourier siamo in grado di operare direttamente sulle fre-
quenze che compongono l’immagine, ampliando considerevolmente le possibilità di ela-
borazione digitale dell’immagine; applicando il filtraggio nel dominio trasformato po-
tremo creare filtri passa-alto o passa-basso per isolare, attenuare o enfatizzare determi-
nate componenti in frequenza dell’immagine. Sempre con tecniche nel dominio
144 M. Coriasco et al.

trasformato è possibile determinare un approccio al ripristino di qualità dell’immagine,


avendo identificato correttamente la natura del rumore e operando per la sua rimozione.
Infine, nell’ultimo paragrafo abbiamo presentato brevemente il software sviluppato
dal gruppo di ricerca in elaborazione di immagini EidosLab, strumento utile per affi-
nare le proprie conoscenze nell’ambito dell’eidomatica.

Letture consigliate

Ballard DH, Brown CM (1982) Computer vision. Prentice Hall, Englewood Cliffs
Brigham EO (1988) The fast Fourier transform and its applications. Prentice Hall, Upper Saddle
River
Castleman KR (1996) Digital image processing, 2 edn. Prentice Hall, Upper Saddle River
Forsyth DF, Ponce J (2002) Computer vision. A modern approach. Prentice Hall, Upper Saddle
River
Gonzalez RC, Woods RE (2008) Digital image processing, 3 edn. Pearson International Edition,
New Jersey
Haralick RM, Shapiro LG (1992) Computer and robot vision, Vol. 1–2. Addison-Wesley, Read-
ing
Plataniotis KN, Venetsanopulos AN (2000) Color image processing and applications. Springer-
Verlag, New York
Pratt WK (1978) Digital image processing. John Wiley & Sons, California
Rosenfeld A, Kak AC (1982) Digital image processing, Vol. 1–2, 2 edn. Academic Press, New
York
Russ JC (1999) The image processing handbook, 3 edn. CRC Press, Boca Raton
Schalkoff RJ (1989) Digital image processing and computer vision. John Wiley & Sons, New
York
Serra J (1983) Image analysis and mathematical morphology. Academic Press, New York
Shapiro LG, Stockman GC (2001) Computer Vision. Prentice Hall, Upper Saddle River
Sid-Ahmed MA (1995) Image processing: theory, algorithms, and architectures. McGraw-Hill,
New York
Snyder WE, Qi H (2004) Machine vision. Cambridge University Press, New York
Theoridis S, Kostantinos K (2006) Pattern recognition, 3 edn. Academic Press, New York
ESERCIZI 145

Esercizi

1) Una LUT esponenziale tende a:


a) scurire un’immagine
b) binarizzare un’immagine
c) rischiarare un’immagine
d) rendere equiprobabili i livelli di luminanza

2) La tecnica degli pseudocolori permette di:


a) ottenere dei colori nel modello CMYK
b) diminuire l’intensità cromatica
c) trasformare i valori di grigio in valori cromatici
d) trasformare un insieme di colori in un altro

3) Il filtro mediano:
a) è selettivo
b) si può applicare una sola volta
c) si può applicare più volte consecutivamente fino a che si determina un miglio-
ramento dell’immagine
d) è sensibile al contesto

4) Il filtro di Sobel permette di:


a) accelerare il processo di binarizzazione
b) evidenziare i contorni
c) ridurre il contrasto
d) eliminare i picchi dell’istogramma

5) Con l’estensione del contrasto i livelli di grigio sono modificati:


a) in ampiezza
b) in frequenza
c) nel range di variabilità
d) fanno aumentare l’informazione

6) Il filtraggio passa-basso presenta come effetto collaterale:


a) l’eliminazione dei picchi del segnale
b) uno sfuocamento dell’immagine
c) la riduzione del numero di pixel globali
d) l’esaltazione del rumore

7) Una LUT a scala permette di:


a) comprimere un’immagine
b) digitalizzare un’immagine
c) convertire il formato di un’immagine
d) restituire valori scalari
146 ESERCIZI

8) Dato lo stralcio di un’immagine f(x, y) di cui in figura, calcolare l’immagine g(x, y)


ottenuta sostituendo solo i pixel i cui valori siano inferiori alla media locale calco-
lata su una finestra 3 3, con il valore medio calcolato

10 12 15 18 20
12 14 20 16 30
15 30 25 18 30
18 25 27 20 28
20 14 30 30 20

9) Applicare il filtro di Sobel per linee orizzontali al seguente stralcio di immagine,


riportando i valori numerici ottenuti
1 1 1
1 1 1
1 1 10
10 10 10
10 10 10
10 10 10

10) Descrivere il comportamento della seguente LUT

11) Dato lo stralcio dell’immagine f(x, y) di figura, calcolare l’immagine g(x, y) ottenuta
applicando un filtro a pesi unitari di dimensioni 3 3.

10 10 8 10 12
10 4 10 50 12
10 10 10 8 10
ESERCIZI 147

12) Dato il seguente stralcio di immagine, applicare il filtro mediano

10 12 8 10 12
10 4 30 10 10
10 10 10 8 12

13) Un’immagine è detta a basso contrasto quando:


a) si ottiene miscelando pochi colori
b) ha i livelli di luminanza all’interno di un range ristretto
c) ha i livelli di luminanza al di sotto di una soglia minima
d) evidenzia solo il nero

14) Il filtro di Prewitt è uno dei metodi di:


a) estrazione dei contorni
b) binarizzazione
c) riduzione del contrasto
d) eliminazione dei picchi dell’istogramma

15) Una LUT logaritmica tende a:


a) scurire un’immagine
b) binarizzare un’immagine
c) rischiarare un’immagine
d) rendere piatto l’istogramma

16) La convoluzione consiste in:


a) matrici a pesi unitari
b) somme di prodotti
c) matrici con distribuzione gaussiana
d) valori costanti

17) Una LUT sia descritta dal seguente diagramma. Descriverne il comportamento:
148 ESERCIZI

18) Le frequenze spaziali elevate coincidono generalmente con:


a) variazioni lente del segnale
b) i contorni di un oggetto
c) il background
d) la massima frequenza

19) Gli algoritmi di estrazione dei contorni si basano principalmente:


a) sulla suddivisione dell’immagine in aree di interesse
b) sulla ricerca delle brusche variazioni di luminosità
c) sulla correlazione fra pixel a distanza pari a un quarto della dimensione totale
dell’immagine
d) sulla possibile presenza di rumore di ridotte dimensioni

20) Dato lo stralcio dell’immagine f (x, y) di figura, calcolare l’immagine g(x, y) otte-
nuta applicando un filtro di dimensioni 3 3 con pesi della seguente maschera

1 2 1
2 4 2
1 2 1

10 10 8 10 12
10 8 10 10 12
10 10 10 8 10

21) Un filtraggio di tipo convolutivo è ottenuto con:


a) una matrice di punti neri che oscurano i pixel di un’immagine
b) una matrice con pesi opportuni
c) una modificazione del formato di scala
d) la tecnica degli pseudocolori

22) Un filtro convolutivo di dimensioni 5 5 passa-basso ha i pesi:


a) sempre unitari
b) sempre positivi o nulli
c) tutti nulli
d) tutti uguali al valore della dimensione della maschera

23) Detto r il livello di luminanza dell’immagine di partenza e s quello dell’immagine


riscalata (con r e s che variano da 0 a L), disegnare una LUT che:
a) imponga i livelli di grigio al valore L/4 nell’intervallo 0-L/4
b) espanda fra i valori 3L/4 a L nell’intervallo L/4-L/2
c) imponga il valore L/4 nell’intervallo L/2-3L/4
d) forzi al valore massimo L nell’intervallo 3L/4-L
ESERCIZI 149

24) Detto r il livello di luminanza dell’immagine di partenza e s quello dell’immagine


riscalata (con r e s che variano da 0 a L), disegnare una LUT che:
a) espanda fra i valori 0 e L/3
b) imponga il valore L nell’intervallo L/3 e 2L/3
c) comprima i livelli di grigio fra 2L/3 e L

25) Considerando la porzione di matrice digitale di un’immagine rappresentata in figu-


ra e i filtri di convoluzione A e B indicati, calcolare i valori dei due pixel eviden-
ziati (di valori 150 e 34) dopo l’applicazione dei filtri.

26) Calcolare i valori assunti dai due pixel evidenziati dopo l’applicazione di un filtro
mediano.

27) Data l’immagine 1, indicare quali tra le immagini 2, 3 e 4 sono state ottenute tramite
i filtri A e B dell’esercizio precedente e spiegare perché
150 ESERCIZI

28) Data l’immagine 1a e la sua trasformata di Fourier 2a, indicare i tipi di filtri rap-
presentati nelle figure 2b – 2e e associarle alle rispettive antitrasformate delle fi-
gure 1b – 1e
1

29) Data l’immagine a e il suo istogramma, associare correttamente le LUT rappresen-


tate nelle figure b, c, d alle immagini sottostanti

30) L’effetto “blurring” è determinato da:


a) un’applicazione di filtri passa-alto di tipo convolutivo
b) un’applicazione di filtri passa-basso all’immagine originale
c) la differenza tra due immagini
d) un riscalamento dei livelli di grigio in una finestra dinamica
ESERCIZI 151

31) Le elaborazioni delle immagini nel dominio trasformato sono tecniche che fanno
uso di:
a) scomposizione dell’immagine nelle frequenze che la costituiscono
b) strumenti per la rotazione delle immagini
c) strumenti per la traslazione delle immagini
d) strumenti che modificano i colori secondo uno schema psico-visuale predefinito

32) L’equalizzazione dell’istogramma dei livelli di grigio di un’immagine consente:


a) di vedere un maggior numero di colori
b) di fare in modo che i livelli di grigio presenti nell’immagine tendano a fornire
lo stesso contributo
c) di vedere un’immagine più chiara
d) di vedere un’immagine più scura

33) L’applicazione all’immagine di Look-Up Table (LUT) è una tecnica che


a) riduce il numero di colori visibili
b) consente di visualizzare immagini multispettrali
c) aumenta il numero di livelli di grigio presenti nell’immagine
d) riduce la quantità di rumore presente nell’immagine

34) L’applicazione all’immagine di una LUT tipo “gamma”:


a) equivale ad applicare una LUT logaritmica se γ < 1
b) equivale ad applicare una LUT logaritmica se γ > 1
c) equivale ad applicare una LUT esponenziale se γ < 1
d) equivale ad applicare una LUT esponenziale se γ  1

35) L’applicazione all’immagine di LUT esponenziale:


a) rende la modifica del contrasto più efficace per i livelli di grigio più scuri
b) rende la modifica del contrasto più efficace per i livelli di grigio più chiari
c) aumenta il numero di livelli di grigio presenti nell’immagine
d) diminuisce il numero di livelli di grigio presenti nell’immagine

36) L’applicazione all’immagine di LUT logaritmica:


a) rende la modifica del contrasto più efficace per i livelli di grigio più scuri
b) rende la modifica del contrasto più efficace per i livelli di grigio più chiari
c) aumenta il numero di livelli di grigio presenti nell’immagine
d) diminuisce il numero di livelli di grigio presenti nell’immagine

37) Perché nei sistemi radiografici digitali si utilizza spesso una LUT di tipo sigmoide?
a) perché riduce il numero di grigi aumentando il contrasto
b) perché consente di visualizzare immagini multispettrali
c) perché il suo andamento è simile a quello della curva sensitometrica tipica dei
sistemi analogici
d) perché riduce la quantità di rumore presente nell’immagine
152 ESERCIZI

38) Che tipo di Look-UpTable (LUT) si utilizza per variare il contrasto in un’immagi-
ne TC?
a) LUT logaritmica di tipo sharpening
b) LUT lineare di tipo windowing
c) LUT lineare di tipo smoothing
d) LUT con andamento sigmoide

39) Cosa si intende per Digital Image Processing?


a) l’insieme delle tecniche di elaborazione utilizzate per modificare la dimensione
di immagini digitali in fasi successive all’acquisizione
b) l’individuazione nell’immagine dei pixel responsabili di false rappresentazioni
di colore
c) l’insieme delle tecniche di elaborazione utilizzate per modificare il contenuto di
immagini digitali in fasi successive all’acquisizione
d) ridurre la quantità di rumore presente nell’immagine digitale
Elaborazioni intrinseche alle metodiche
5

Indice dei contenuti


5.1 Introduzione
5.2 Radiologia digitale proiettiva
5.3 Mammografia
5.4 Angioradiologia
5.5 Tomografia computerizzata
Esercizi

5.1
Introduzione

La disponibilità di grandi potenze di calcolo con costi contenuti, unitamente alla conti-
nua ricerca di miglioramento della qualità d’immagine in ambito medicale diagnostico,
ha reso possibile l’introduzione e l’impiego sempre maggiore di elementi di elabora-
zione d’immagine intrinseci al processo di acquisizione e formazione.
L’immagine risultante da un’indagine radiologica ha caratteristiche di qualità e di con-
tenuto informativo dipendenti dai parametri tecnici di acquisizione e dalle prestazioni
dei rivelatori utilizzati. Hanno però un ruolo sempre più importante una serie di altera-
zioni e trattamento dei segnali misurati automatizzati, che solitamente intervengono sen-
za il diretto controllo dell’operatore, se si eccettua la fase di calibrazione durante l’in-
stallazione o la manutenzione dell’apparecchiatura.
Gli strumenti di elaborazione prima trattati verranno in parte ripresi fornendo esem-
pi di elementi peculiari di alcune delle metodiche impiegate in diagnostica per imma-
gini, allo scopo di aumentare la consapevolezza su questa parte di elaborazioni chia-
mate “intrinseche” per la loro inscindibilità dagli altri passi di realizzazione delle im-
magini visti nel capitolo 2.

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, 153
Sergio Rabellino
DOI: 10.1007/978-88-470-5364-9_5 © Springer-Verlag Italia 2013
154 M. Coriasco et al.

5.2
Radiologia digitale proiettiva

In radiologia digitale esiste una vasta tipologia di elaborazioni intrinseche. Alcune so-
no in grado di ottimizzare la risposta dei rivelatori impiegati e ne correggono eventua-
li difetti: comune è l’impiego di sistemi per ovviare a difetti causati da un singolo ele-
mento di rivelazione, detti bad pixel.
In tale tipo di difetto, la risposta di un singolo elemento di rivelazione è assente o mol-
to diversa dalla risposta degli elementi circostanti: essa può essere corretta sostituendo-
ne il valore errato con quello mediano degli elementi di rivelazione adiacenti (Fig. 5.1).
Sono poi applicabili altre correzioni per migliorare l’uniformità di risposta e com-
pensare differenze di guadagno elettronico degli elementi della matrice, misurando una
mappa di fattori di correzione in fase di calibrazione e utilizzandola per ricalcolare i
singoli valori in fase di acquisizione.
Altri tipi di elaborazioni intrinseche sono specifici per le diverse proiezioni: in una
radiografia proiettiva del torace, ad esempio, i rivelatori digitali registrano in prima
battuta una mappa della fluenza del fascio radiogeno emergente dopo l’interazione
con i tessuti del paziente, e realizzano la conversione dai valori d’intensità di radia-
zione misurati a valori in scala di grigio, con dipendenza lineare o logaritmica. Un’im-
magine di questo tipo, definibile immagine grezza, è visibile in Figura 5.2: si osser-
vi come essa sia caratterizzata da scarso contrasto, e si debba necessariamente ri-
correre a un processing per migliorare la visione delle componenti di interesse.

Fig. 5.1 Rappresentazione del fenomeno denominato bad pixel. A sinistra, sono stati artificialmente si-
mulati “granelli di sale” che alterano la qualità dell’immagine a causa dell’errata risposta degli ele-
menti rivelatori associati ai rispettivi pixel. Al centro, particolare ingrandito, sottoposto a elaborazio-
ne con filtro mediano, e risultato finale visibile a destra
5 Elaborazioni intrinseche alle metodiche 155

Fig. 5.2 A sinistra è possibile osservare un radiogramma grezzo privo di elaborazione. Sotto, a sinistra,
il relativo istogramma con la distinzione delle diverse componenti che permette di effettuare una seg-
mentazione, visibile

Analizzando i processi di elaborazione intrinseci descritti nei manuali delle apparec-


chiature, si individuano le seguenti principali categorie:
• enfatizzazione del contrasto tramite l’applicazione di una LUT, tipicamente di tipo
sigmoide, con parametri caratteristici dipendenti dalla forma dell’istogramma e da im-
postazioni preferenziali definite dall’utente;
• miglioramento del rapporto contrasto rumore e della definizione dei bordi tramite ela-
borazioni nel dominio spaziale, come ad esempio l’unsharp masking;
• elaborazioni nel dominio delle frequenze, con separazione in bande di frequenza del-
l’immagine trasformata ed equalizzazione studiata per ridurre il rumore e aumenta-
re la nitidezza dei bordi.
Per osservare da vicino questi tre processi consideriamo un caso reale, analizzando
l’istogramma del radiogramma non elaborato di Figura 5.2. L’immagine è stata ottenu-
ta esponendo un fantoccio antropomorfo. Nell’istogramma sono evidenti alcuni picchi
caratteristici e regioni distinte, associati rispettivamente alle regioni di aria circostanti
ai tessuti, alle zone periferiche con spessore e attenuazione crescente, il picco relativo
alla regione del parenchima polmonare, la regione mediastinica e sottodiaframmatica e
il picco di intensità più alto associato alla parte collimata. Ovviamente, le parti di se-
gnale associate al picco più basso e a quello più alto (aria e collimazione) sono di scar-
so interesse e pertanto il sistema selezionerà in prima istanza la parte centrale dell’i-
stogramma per l’applicazione della LUT.
156 M. Coriasco et al.

Fig. 5.3 A partire dall’istogramma e dalla segmentazione delle componenti relative si rileva il risultato
ottenuto con una LUT tesa a evidenziare il parenchima polmonare (a sinistra) e una rivolta invece al-
le componenti ossee e mediastiniche (a destra)

Tuttavia, ci possono essere numerose altre varianti definite dall’utente in collabora-


zione con il tecnico dell’apparecchiatura in fase d’installazione, per esempio con pro-
tocolli finalizzati allo studio del parenchima polmonare o dei tessuti mediastinici e spo-
stamento di conseguenza del centro della finestra. Anche la latitudine stessa o la forma
della curva in prossimità delle regioni di saturazione (piede e spalla) possono normal-
mente essere modulate in accordo alle preferenze individuali.
È di particolare importanza la corretta predisposizione delle curve di elaborazione in
fase di acquisizione dell’apparecchiatura perché, nella pratica quotidiana, avere delle buo-
ne regolazioni automatiche di luminosità e contrasto può consentire un rilevante rispar-
mio di tempo. In questo modo, attraverso la registrazione corretta dell’esame, sarà pos-
sibile ottenere immediatamente una delle immagini risultanti nella Figura 5.3.
Veniamo alla seconda categoria di processing intrinseco generalmente offerto nella
radiografia digitale proiettiva. L’elaborazione di unsharp masking è già stata descritta
nel capitolo 4 e non verrà qui ripresa nel dettaglio. Si vuole solo osservare in questo
ambito come, anche in questo caso, l’azione nel dettaglio di questo processo può esse-
re spesso parametrizzata, definendo per esempio le dimensioni dei kernel del filtro con-
volutivo di smoothing in pixel o l’intensità dei coefficienti di guadagno dell’immagine
associata ai bordi come mostrato in Figura 5.4. Anche in questo caso, si osserva l’im-
portanza della definizione dei protocolli di processing e della consapevolezza del si-
gnificato dei parametri contenuti. Sono riportati esempi in letteratura di artefatti asso-
ciati proprio a livelli impropri di elaborazione dell’immagine.
Infine, la terza tipologia di elaborazioni intrinseche considerata è l’equalizzazione nel
dominio delle frequenze, processo che richiede sicuramente una potenza di calcolo su-
periore rispetto alle altre metodiche appena descritte e che, fino all’inizio di questo se-
colo, era da considerare difficilmente compatibile con i tempi di lavoro comuni nella
pratica clinica. La Figura 5.5 schematizza il processo nel quale l’immagine viene pri-
ma trasformata nel dominio delle frequenze e poi suddivisa in componenti, alle quali
sono associate diverse componenti informative. L’elaborazione prevede un’equalizzazione
di queste diverse componenti, in modo da ottenere un risultato in cui sono enfatizzate
le frequenze spaziali di maggior interesse con fattori di guadagno opportuni e ridimen-
sionate le frequenze spaziali tipicamente associate al rumore.
5 Elaborazioni intrinseche alle metodiche 157

Fig. 5.4 Esempi di


possibili
parametrizzazioni
di processi USM. a
Immagine grezza;
b kernel raggio 1 e
guadagno 0,5;
c kernel raggio 1 e
guadagno 0,9; d
kernel raggio 5 e
guadagno 0,9
158 M. Coriasco et al.

Fig. 5.5 Processo di elaborazione nel dominio delle frequenze con equalizzazione delle componenti ot-
tenute con filtri passa-basso, banda e alto in modo da ottimizzare la qualità globale dell’immagine

5.3
Mammografia

L’esame radiologico della mammella presenta una serie di caratteristiche specifiche, re-
lativamente alla tipologia di apparecchiature utilizzate e alla tecnica di esposizione con
parametri geometrici e di energia dei fasci radianti peculiari. L’introduzione dei rivela-
tori digitali in quest’ambito è avvenuta con una grande cautela ed è stata condizionata
dall’esigenza di una risoluzione più elevata rispetto alla radiologia tradizionale e dalla
garanzia di rapporti contrasto rumore adeguati per i fasci radiogeni utilizzati.
Oltre alle caratteristiche dei rivelatori, il processing intrinseco gioca un ruolo fonda-
mentale per il raggiungimento della massima informazione diagnostica. In particolare,
uno dei suoi obiettivi è quello di limitare l’effetto del gradiente di spessore tra la parte
di organo più vicina alla parete toracica e la parte più distale che avrà uno spessore e
attenuazione decrescenti. In Figura 5.6 è mostrato un esempio di immagine mammo-
grafica digitale grezza nel pannello a, con due diversi windowing applicati uno per vi-
sualizzare meglio le regioni più periferiche di minor spessore (b) e uno per ottimizzare
il contrasto della parte più prossima alla parete toracica (c).
5 Elaborazioni intrinseche alle metodiche 159

Fig. 5.6 Immagine mammografica digitale e esempi di elaborazioni. a Immagine grezza a basso con-
trasto intrinseco; b applicazione di LUT adatta per le regioni più superficiali, ma con contrasto ridot-
to sul tessuto interno; c applicazione di LUT adatta per le regioni più interne, ma con perdita di vi-
sualizzazione delle regioni più superficiali; d immagine con algoritmi di elaborazione basati su equa-
lizzazione dell’istogramma; e immagine ottenuta con tecnica di equalizzazione periferica

Sono stati proposti diversi algoritmi, alcuni dei quali ricalcano in parte quelli visti
nel paragrafo precedente per la radiologia tradizionale. Ad esempio, anche in mammo-
grafia è possibile trovare l’applicazione di LUT dopo segmentazione automatica dell’i-
stogramma dei livelli di grigio, ma relativamente ai tessuti d’interesse in questo ambi-
to, che sono il tessuto adiposo non compresso, il tessuto adiposo compresso, il tessuto
ghiandolare e i muscoli pettorali. Ci sono poi algoritmi che sfruttano l’unsharp masking,
l’equalizzazione dell’istogramma CLAHE o l’analisi nello spazio delle frequenze.
Esistono poi tecniche di equalizzazione periferica, il cui processo può essere descritto
nei seguenti passi:
• applicazione di un filtro passa-basso, per esempio di tipo Butterworth, con frequen-
za di taglio di 0,05 cicli per mm;
• dall’immagine così ottenuta si ricava una mappa di attenuazione relativa allo spesso-
re con coefficienti compresi tra 0 e 1;
• l’immagine originale viene rapportata alla mappa di attenuazione in modo da livel-
lare il gradiente di luminanza legato allo spessore e permettere una rappresentazione
uniforme della struttura ghiandolare.
Un esempio di questo tipo di elaborazione è mostrato in Figura 5.6e.

5.4
Angioradiologia

Anche per quanto riguarda le immagini fluoroscopiche e angiografiche, la rivoluzione


digitale ha creato una serie di possibilità di miglioramento della qualità diagnostica im-
possibili con le tecniche analogiche. Con i tempi di calcolo attuali è oggi possibile ot-
tenere immagini intrinsecamente elaborate in tempo reale, anche se acquisite a frequenze
molto elevate (anche decine di immagini al secondo, con unità di misura in frames per
second, abbreviato in fps), come avviene comunemente con la fluoroscopia pulsata o
con le sequenze di fluorografia in ambito di emodinamica.
160 M. Coriasco et al.

Fig. 5.7 Quantità di


dati richiesta e data
rate necessari per un
flat panel di varie
dimensioni a un
frame rate di 30 im-
magini al secondo.
Ogni elemento di
rivelazione occupa 2
byte e ha dimensione
di 200 micrometri.
Le cifre relative al
numero di rivelatori/
pixel sono espresse
in milioni

Fig. 5.8 Esempio di rebinning:


l’ingrandimento della regione d’interesse
estratta dall’angiografia di sinistra è mostrato
con un pixel per rivelatore e successivamente
con un pixel ogni quattro rivelatori

Le elaborazioni intrinseche presenti rientrano nelle categorie già esplorate per la ra-
diologia convenzionale, come ad esempio filtraggi spaziali con unsharp masking o nel
dominio trasformato. Una parte importante di elaborazione può inoltre essere attuata già
a livello elettronico sui singoli dati acquisiti, come ad esempio è comune l’impiego di
diverse discretizzazioni spaziali in base al campo di vista necessario e della frequenza
di acquisizione scelta.
Quando siano necessarie frequenze di acquisizione elevate, a parità di area rappre-
sentata (Field of View, FOV), oltre un certo limite le capacità di risposta dell’hardware
possono non essere sufficienti a elaborare in tempo reale la quantità di dati necessaria:
un FOV quadrato di 40 cm, in base alle dimensioni degli elementi rivelatori può arri-
vare a produrre un’immagine di 4 milioni di pixel, e supponendo una profondità di co-
lore di due byte per pixel, tale immagine occupa 8 MB. Con tali valori, l’acquisizione
di immagini a 30 fps, il flusso di dati prodotto determina un flusso dati di 240 MB/s.
Quantità di dati così elevate non sono manipolabili in tempo reale dalle attuali appa-
recchiature (Fig. 5.7).
5 Elaborazioni intrinseche alle metodiche 161

Fig. 5.9 Esempi di scelta di diversi campi di vista

Utilizzando la tecnica di rebinning è possibile ridurre l’entità del flusso di dati man-
tenendo i parametri impostati in termini di frequenza di acquisizione e di FOV, a scapi-
to però della risoluzione spaziale.
Una matrice fisica di 2048 2048 rivelatori può essere utilizzata facendo confluire
in un unico pixel l’informazione proveniente da piccole sottomatrici quadrate di 2 2
rivelatori, ridefinendo quindi la risoluzione nativa di matrice quadrata di lato 2048 pixel
in una matrice quadrata di lato 1024 pixel (Fig. 5.8). In tal modo, si riduce a un quarto
del valore iniziale la quantità di dati da elaborare in tempo reale, aumenta il rapporto
segnale rumore ed è possibile l’acquisizione nei tempi previsti. La perdita di risoluzio-
ne conseguente al rebinning è accettabile per i campi di vista più estesi, mentre per quel-
li minori nei quali occorre preservare la visibilità delle strutture più piccole si utilizze-
ranno i rivelatori fisici di dimensioni minime (Fig. 5.9).
Una parte peculiare di elaborazioni intrinseche in questo ambito è relativa al filtrag-
gio temporale del segnale e alle tecniche di riduzione del degrado dell’immagine dovu-
to al movimento delle strutture rappresentate. Questi metodi procedono attraverso l’i-
dentificazione e riconoscimento di una medesima struttura all’interno di un’immagine
e la definizione di un’ipotesi di come essa si sia mossa all’interno del campo di vista
sfruttando le immagini precedenti e le successive. Per fare questo utilizza un approccio
gerarchico, ricampionando l’immagine con una discretizzazione spaziale di vari livelli
e, per ciascuno di essi, ricercando gli spostamenti effettuati, sostanzialmente da un li-
vello macro a uno micro. Infine, l’immagine viene rigenerata con le sue diverse com-
ponenti riallineate, come mostrato in Figura 5.10.
Inoltre, molti algoritmi di compensazione del movimento, specie in applicazioni an-
giografiche, sfruttano subalgoritmi di riconoscimento bordi come quelli descritti nel ca-
pitolo precedente. Per esempio, in interventi di emodinamica è possibile rendere dispo-
nibile in real-time la visualizzazione del solo stent coronarico.
162 M. Coriasco et al.

Fig. 5.10 Esempio di correzione del movimento in fluroscopia; a sinistra l’immagine da correggere, a
destra l’immagine corretta. Al centro è mostrata una schematizzazione del processo di correzione con
approccio gerarchico

5.5
Tomografia computerizzata

Nell’ambito della tomografia computerizzata (TC) sono disponibili molti strumenti di


post processing finalizzati prevalentemente alle ricostruzioni multiplanari su piani co-
ronali e sagittali, o ricostruzioni Maximum Intensity Projection (MIP) o di surface-ren-
dering e volume-rendering. Per quanto riguarda la qualità d’immagine in termini di ri-
soluzione spaziale e rapporto contrasto rumore, il ruolo fondamentale è giocato dai pa-
rametri tecnici di acquisizione scelti e dagli algoritmi di ricostruzione utilizzati. In
particolare, nella ricostruzione tramite retroproiezione filtrata, l’operatore ha la possi-
bilità di scegliere il filtro di convoluzione più adatto all’indagine diagnostica in corso,
favorendo quindi la risoluzione spaziale o il basso contrasto in rapporto al rumore. Que-
sti filtri di convoluzione agiscono alterando i dati misurati dai rivelatori delle apparec-
chiature come mostrato in Figura 5.11. Nel primo caso viene utilizzato un kernel w(x)
finalizzato a evidenziare i dettagli dell’immagine che, applicato al profilo di attenua-
zione f(x), determina anche un significativo aumento del rumore evidenziato nel risul-

Fig. 5.11 Esempi di


prodotti di
convoluzione tra una
funzione kernel
(w(x) o k(x)) e una
funzione f(x).
Si osservi nella
funzione risultante
come le transizioni
tra livelli risultino
più “lente” nel primo
caso (effetto
smoothing) e molto
enfatizzate nel
secondo caso, con un
aumento del rumore
(effetto sharpening)
5 Elaborazioni intrinseche alle metodiche 163

Fig. 5.12 Immagini TC ricostruite con diversi filtri


convolutivi. a Sezione addome ottenuta con filtro
standard e b con filtro sharp; c pallino metallico
ricostruito con filtro standard e d con filtro sharp

tato del prodotto di convoluzione w(x)*f(x). Nel secondo caso viene utilizzato un ker-
nel k(x) finalizzato alla riduzione del rumore.
In Figura 5.12 sono mostrati esempi di immagini ottenute a partire dalla stessa ac-
quisizione con l’utilizzo di filtri di convoluzione diversi. In particolare, nelle Figure 5.12c
e 5.12d viene mostrata l’immagine di un pallino metallico di diametro 0,25 mm otte-
nuta con un filtro standard (del tipo k(x)) e un filtro sharp (del tipo w(x)). Si può nota-
re come, a parità di matrice (512 512) e di dimensioni del pixel (0,5 mm), si ottenga
una dimensione diversa dell’oggetto nell’immagine, con un diametro misurato di 1,3 mm
per il filtro standard e di 0,9 mm per il filtro sharp. Nel caso del filtro sharp in Figura
5.12d è inoltre evidente l’incremento di rumore.
Le case costruttrici di apparecchiature per tomografia computerizzata adottano per
i filtri convolutivi soluzioni tecnologiche proprietarie con diversa nomenclatura, in al-
cuni casi con nomi intuitivi come bone, standard, edge, in altri con sigle tipo B47,
U23, ecc.
Non sempre è dunque agevole orientarsi nella scelta del filtro più appropriato per le
diverse applicazioni cliniche, in particolare se di un filtro devono essere replicati gli ef-
fetti su apparecchiature di diversi produttori. A questo scopo, per caratterizzare un fil-
tro convolutivo può essere utile analizzare lo spettro del rumore (vedi capitolo 3) risul-
tante dal suo utilizzo: filtri con analogo spettro di rumore permetteranno di ottenere im-
magini con caratteristiche analoghe.
In alternativa al metodo di ricostruzione di retroproiezione filtrata sulle apparecchiature
di ultima generazione, è possibile utilizzare metodi iterativi. Lo schema dell’approccio
utilizzato da questi metodi è mostrato in Figura 5.13. Si parte da un’immagine iniziale
164 M. Coriasco et al.

Fig. 5.13 Schema di


funzionamento di
un algoritmo
iterativo nella TC

(in genere quella ottenuta con retroproiezione filtrata) e dai profili di attenuazione mi-
surati dai rivelatori dell’apparecchiatura. A partire dall’immagine iniziale, vengono cal-
colati dei profili di attenuazione “virtuali” simulando il processo fisico con il quale si
ottengono i dati durante l’acquisizione. I profili reali acquisiti e quelli calcolati vengo-
no confrontati e, sulla base delle differenze ottenute, verranno adottati dei fattori cor-
rettivi per minimizzarle con un processo iterativo. Dopo un certo numero di iterazioni
o quando le differenze risultano inferiori a una soglia predefinita si otterrà l’immagine
finale.
Attualmente, esistono diversi algoritmi iterativi, alcuni basati esclusivamente su pro-
cessi matematici di correzione e altri che simulano in modo più dettagliato tutti i feno-
meni fisici coinvolti nella produzione delle immagini, considerando anche il rumore quan-
tico e il rumore elettronico dei rivelatori. Le immagini ottenute con questi algoritmi pre-
sentano una risoluzione spaziale invariata o, in alcuni casi, migliore rispetto alla
retroproiezione filtrata, e un rumore decisamente inferiore, con uno spettro spostato ver-
so le basse frequenze. Si è osservata in molti casi una lieve alterazione dei bordi, in par-
ticolare delle strutture a basso contrasto e, per questo motivo, è possibile modulare l’ef-
fetto dell’algoritmo iterativo nell’immagine finale in rapporto all’immagine tradiziona-
5 Elaborazioni intrinseche alle metodiche 165

Fig. 5.14 Immagini ottenute con diverse percentuali di presenza di algoritmo iterativo 40% (a), 70%
(b), e 100% (c)

le con retroproiezione filtrata scegliendo, in alcuni casi, la percentuale delle due im-
magini o, in altri, il livello di intensità dell’approccio iterativo. In Figura 5.14 è mostrato
un esempio di immagine ricostruita con diversi livelli di iterativo dal 40 al 100%. Si può
notare la netta diminuzione del rumore nel caso di iterativo al 100% e la differenza di
rappresentazione delle strutture a basso contrasto.

Letture consigliate

Associazione Italiana Fisici in Medicina (AIFM) (2009) Apparecchi di radiologia digitale AMF-
PI: Linee guida per i controlli di qualità. Report n. 6, allegato al Suppl. al n. 1-2009. Fisica
in medicina, Genova
Beister MM, Kolditz DD, Kalender WA (2012) Iterative reconstruction methods in X-ray CT. Phys
Med 28:94–108
Krupinski EA, Williams MB, Andriole K et al (2007) Digital radiography image quality: image
processing and display. J Am Coll Radiol 4:389–400
Nickoloff EL (2011) AAPM/RSNA physics tutorial for residents: physics of flat-panel fluoroscopy
systems. Survey of modern fluoroscopy imaging: flat-panel detectors versus image intensi-
fiers and more. RadioGraphics 31:591–602
Pisano ED, Cole EB, Hemminger BM et al (2000) Image processing algorithms for digital mam-
mography: a pictorial essay. RadioGraphics 20:1479–1491
Willis CE, Thompson SK, Shepard SJ (2004) Artifacts and misadventures in digital radiography.
Appl Radiol 33(1):11–20

Ringraziamenti

Gli autori desiderano ringraziare l'Ing. Andrea Carola per le preziose informazioni e precisazioni
sulle elaborazioni intrinseche, utili alla realizzazione di questo capitolo.
166 ESERCIZI

Esercizi

1) Che cosa si intende con bad pixel:


a) un pixel di dimensioni anomale rispetto ai circostanti
b) un difetto associato a un singolo elemento di rivelazione
c) un pixel che assume valori casuali saltuariamente
d) un pixel che non ha associato nessun elemento di rivelazione

2) Quale dei seguenti gruppi di elaborazioni intrinseche è comunemente impiegato nella


realizzazione di una radiografia digitale del torace:
a) LUT sigmoide, unsharp masking ed equalizzazione nel dominio delle frequenze
b) LUT esponenziale, filtro mediano ed equalizzazione dell’istogramma
c) LUT gamma, filtro laplaciano e filtro di Butterworth
d) LUT lineare, filtro di Sobel ed equalizzazione dell’istogramma

3) L’unsharp masking può essere parametrizzato variando:


a) il numero di volte che viene applicato
b) esclusivamente le dimensioni del kernel
c) esclusivamente il guadagno dell’immagine associata ai bordi
d) le dimensioni del kernel del filtro di smoothing e il guadagno dell’immagine
associata ai bordi

4) In mammografia digitale, per limitare l’effetto del gradiente di spessore tra la par-
te di organo più vicina alla parete toracica e la parte più distale che avrà spessore e
attenuazione decrescenti, è possibile utilizzare:
a) l’equalizzazione dell’istogramma CLAHE
b) il filtro mediano
c) una semplice LUT sigmoide
d) un filtro passa-basso

5) Il flusso di dati di una sequenza di immagini angiografiche con campo di vista 30 30


cm, pixel di 0,2 mm, profondità 16 bit e frequenza di 30 frame al secondo è di cir-
ca:
a) 13 MiB/s
b) 65 MiB/s
c) 130 MiB/s
d) 1300 MiB/s

6) La tecnica di rebinning per ridurre il flusso di dati in angioradiologia consiste in:


a) una riduzione della frequenza di acquisizione delle immagini
b) una riduzione dell’area delle immagini rappresentate, acquisendo alternativamente
i quattro quadranti della regione sensibile del rivelatore
c) una riduzione della profondità di pixel delle immagini rappresentate, passando
da 16 a 12 bit
ESERCIZI 167

d) una riduzione della discretizzazione spaziale, attraverso la confluenza in un uni-


co pixel dell’informazione proveniente da piccole sottomatrici quadrate di 2 2
rivelatori

7) In angioradiologia si utilizzano elaborazioni intrinseche per:


a) aumentare lo scarso contrasto dei vasi
b) ridurre il degrado dell’immagine dovuto al movimento delle strutture rappresentate
c) aumentare il contrasto dei tessuti molli
d) ridurre il degrado dell’immagine dovuto alla presenza di parti ossee

8) La scelta del filtro di convoluzione in tomografia computerizzata è importante


perché ha conseguenze:
a) sulla risoluzione spaziale e sul rumore delle immagini ottenute
b) sullo spessore di strato
c) sul contrasto globale dell’immagine
d) sulle dimensioni delle immagini ottenute

9) Per caratterizzare un filtro di convoluzione utilizzato nella ricostruzione in tomo-


grafia computerizzata è utile conoscere:
a) la matrice di convoluzione
b) lo spettro del rumore associato
c) la sigla che lo identifica
d) la percentuale di riduzione del rumore

10) L’utilizzo di metodiche iterative di ricostruzione in TC permette di ottenere imma-


gini:
a) con rumore ridotto e spettro del rumore spostato verso le basse frequenze
b) con risoluzione aumentata e spettro del rumore spostato verso le alte frequenze
c) con rumore ridotto a scapito della risoluzione spaziale
d) con rumore ridotto e spettro del rumore spostato verso le alte frequenze
La memorizzazione
delle immagini digitali 6

Indice dei contenuti


6.1 I formati di file per la memorizzazione
6.2 La compressione delle immagini digitali
6.3 Tecniche di compressione
6.4 Panoramica dei formati di file per immagini digitali
6.5 La trasmissione delle immagini digitali
6.6 Considerazioni finali
Esercizi

Il passo finale nel trattamento delle immagini digitali è l’archiviazione, al fine di man-
tenere stabilmente una copia dell’immagine acquisita ed eventualmente elaborata.
Un’immagine digitale è composta da un insieme di dati:
• la dimensione, definita dal prodotto tra il numero di pixel orizzontali, e il numero dei
pixel verticali;
• il valore assunto da ciascun pixel, definito da un insieme di bit in quantità suffi-
ciente a descrivere il numero di colori o livelli di grigio richiesti dall’immagine
stessa.
Per descrivere un’immagine avente dimensione 1024 768 e con 4096 livelli di gri-
gio (per la codifica dei quali servono non meno di 12 bit), sono necessari

1024 768 2byte  1572864 byte

perché 2 è il minimo numero di byte necessari a contenere 12 bit.


L’immagine dell’esempio richiederà 1,5 MiB di spazio su disco per essere archivia-
ta in modalità raw, modalità in cui i valori di ciascun pixel sono salvati linearizzando
l’immagine per righe o per colonne, come si può vedere nella Figura 6.1.

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, 169
Sergio Rabellino
DOI: 10.1007/978-88-470-5364-9_6 © Springer-Verlag Italia 2013
170 M. Coriasco et al.

Fig. 6.1 Linearizzazione per righe di un’immagine digitale

Questa è una convenzione per cui, sapendo a priori che l’immagine:


• è stata linearizzata per righe successive;
• ha dimensione 1024 768;
• ogni suo pixel è memorizzato all’interno di 2 byte, di cui solo i primi 12 bit significativi,
è possibile ricostruire l’immagine originale a partire dal file contenuto nel supporto di
memorizzazione.
Si comprende che questa convenzione, per quanto comoda, difficilmente si presta per
versatilità ed efficienza, perché ogni minimo cambiamento dell’immagine in uno dei suoi
parametri fondamentali, presuppone un radicale cambio del programma adibito alla sua
ricostruzione.
Il programma necessario alla ricostruzione dell’immagine, adatto nell’esempio ap-
pena riportato a un’immagine linearizzata con matrice 1024 768, non è più consono
per un’immagine con matrice 1600 1200 o per un’immagine con un differente nume-
ro di livelli di grigio.
Al fine di ovviare a questa scarsa flessibilità è utile definire degli standard per la me-
morizzazione, che prendono il nome di formato di memorizzazione dell’immagine. Nel
tempo sono stati definiti centinaia di formati diversi. Elencarli e considerarli tutti è al
di fuori degli obiettivi di questo testo; verranno trattati dunque solo alcuni tra i forma-
ti più diffusi e utilizzati.
Molti produttori di software hanno sviluppato e proposto alla comunità internazio-
nale uno o più standard, alcuni dei quali sono stati accettati dagli organismi di standar-
dizzazione quali ITU o CCITT, ma molti di essi rimangono relegati all’ambito del softwa-
re proprietario in cui sono nati.
Sarà inoltre trattata la compressione delle immagini digitali come strumento per ot-
timizzare la rappresentazione delle immagini in termini di spazio occupato sui suppor-
ti di memorizzazione.

6.1
I formati di file per la memorizzazione

Un formato di file è la convenzione usata per leggere, scrivere e interpretare i conte-


nuti di un file, un insieme ordinato di byte, scritto su un supporto di memorizzazione
6 La memorizzazione delle immagini digitali 171

quale può essere un disco magnetico, un nastro, un download via internet o un sup-
porto ottico.
Un formato di file per immagini può prevedere dello spazio aggiuntivo al cui inter-
no sono descritte le caratteristiche salienti dell’immagine (header):
• le dimensioni spaziali (righe/colonne);
• il numero di bit effettivamente utilizzati per descrivere ciascun pixel;
• l’eventuale ordine dei colori e a quale spazio appartengono (RGB, BGR, GRB, YUV,
YIQ, CMYK);
• informazioni sulla persona che ha realizzato l’immagine;
• eventuali dati anagrafici e anamnestici del paziente a cui l’immagine si riferisce;
• numero di immagini contenute nel file;
• altre informazioni legate allo specifico formato o software.
L’header è una struttura dati in grado di descrivere compiutamente la parte restante
del file, consentendo al software di ricostruire le immagini memorizzate anche senza
conoscerne a priori le caratteristiche.
Qualsiasi errore presente nella struttura del file rende impossibile ricostruire corret-
tamente l’immagine memorizzata, per cui si deve porre particolare cura nel rendere i
formati di file matematicamente resistenti agli errori, al fine di minimizzare la perdita
di informazioni. Le tecniche coinvolte prevedono la ridondanza dei dati e l’uso di co-
dici a controllo di errori (CRC), la cui analisi dettagliata va oltre gli obiettivi del pre-
sente testo.
Tipico è il caso delle immagini trasmesse dalle sonde spaziali: i tempi particolarmente
elevati necessari alla trasmissione non consentono di inviare ripetutamente l’immagine
fintanto che almeno una pervenga correttamente alla base terrestre. Per questi scopi so-
no utilizzati formati tali da consentire la perdita di parti considerevoli del file (anche il
25% di dati mancanti o errati) ma in grado di fornire ugualmente la ricostruzione cor-
retta dell’immagine inviata dalla sonda.
L’archiviazione sicura di immagini provenienti da esami diagnostici può avvantag-
giarsi di strumenti simili, al fine di garantirne la corretta conservazione nel tempo, es-
sendo i supporti di memorizzazione soggetti a guasti e rotture nonché a limitata affida-
bilità nel tempo.

6.2
La compressione delle immagini digitali

Una delle peculiarità di molti formati è la possibilità di ridurre le dimensioni del file
contenente l’immagine digitale, utilizzando tecniche dette di compressione dei dati.
In informatica la compressione avviene in forma differente rispetto al concetto in-
tuitivo cui si è abituati nel mondo reale. La compressione non è di natura meccanica,
non si schiacciano i dischi su cui sono memorizzate le immagini, provocandone peral-
tro la distruzione; si utilizzano invece alcune proprietà tipiche dei numeri e delle im-
magini digitali per ottenerne una rappresentazione più sintetica.
Da queste rappresentazioni più compatte sarà possibile ricostruire con un maggiore
o minore grado di fedeltà l’immagine originale, a seconda delle tecniche adoperate per
172 M. Coriasco et al.

la compressione; la caratteristica fondamentale di qualsiasi algoritmo usato per la com-


pressione è il suo grado di reversibilità, ovvero la capacità di invertire le operazioni ef-
fettuate durante la compressione. L’operazione di ricostruzione dell’immagine prende il
nome di decompressione.
Una prima suddivisione tra i vari metodi di compressione adottati nei formati di file
può essere fatta in base al grado di fedeltà nella ricostruzione dell’immagine:
• assoluta: compressione senza perdita di informazione (lossless);
• relativa: compressione con perdita di informazione controllata (lossy).
Nel primo caso, la compressione garantisce a priori che l’immagine ricostruita coin-
cida con l’immagine originale, nel secondo l’immagine ricostruita sarà soltanto un’ap-
prossimazione dell’immagine originale: la bontà della ricostruzione sarà data dall’effi-
cienza dell’algoritmo utilizzato e dai vincoli di qualità imposti in fase di compressione.
In generale, i file ottenuti con compressione lossless sono caratterizzati da dimen-
sioni maggiori rispetto a quelli ottenuti con compressione lossy. Sarà l’utente a valuta-
re quale formato si adatti meglio alle esigenze di memorizzazione, anche in base a even-
tuali vincoli normativi.
Per quantificare l’entità del risparmio, si introduce il concetto di fattore di compres-
sione (compression rate) ottenibile dal rapporto tra la dimensione raw dell’immagine e
la dimensione del file compresso.
Nell’esempio precedente, l’immagine ha dimensione raw di 1,5 MiB; se il file com-
presso ha dimensione 0,8 MiB, il fattore di compressione vale
1,5 MiB / 0,8 MiB  1,875.
Fattori di compressione maggiori indicano un algoritmo più efficiente, a patto che la
qualità dell’immagine ricostruita sia mantenuta invariata.
La ricerca è costantemente orientata a definire nuovi algoritmi in grado di compri-
mere con maggior efficienza le immagini digitali, mantenendo invariata la qualità del-
l’immagine ricostruita.

6.2.1
La valutazione della qualità della compressione: il PSNR

Per valutare la bontà di un algoritmo di compressione, è utile adottare un metodo che


consenta di misurare quanto l’immagine ricostruita, a fronte della decompressione, si
discosti da quella originale.
La misura adottata per valutare la qualità di un’immagine compressa rispetto all’ori-
ginale è il peak signal-to-noise ratio (PSNR). Questo indice di qualità delle immagini
è definito come il rapporto tra la massima potenza del segnale e la potenza del rumore
che può invalidare la fedeltà della sua rappresentazione compressa.
Spesso le immagini presentano una gamma dinamica molto ampia, per cui il PSNR
è solitamente espresso in scala logaritmica.
Matematicamente, il PSNR è più facile da definire attraverso l’errore quadratico
medio. Sia R l’immagine originale e K l’immagine ottenuta dall’operazione di com-
pressione/decompressione; tali immagini avranno le stesse dimensioni (X,Y), per cui
6 La memorizzazione delle immagini digitali 173

definiamo l’errore quadratico medio (Mean Square Error, MSE) tra le due immagini
come:
X −1 Y −1
1
∑ ∑ R( i, j ) − K ( i, j )
2
MSE =
XY i =0 j =0

Il PSNR è definito come:


⎛ MAX { R} ⎞
PSNR = 20 * log10 ⎜⎜ ⎟

⎝ MSE ⎠

dove MAX{R} è il massimo valore che può assumere un pixel nell’immagine; nel caso
di un’immagine binarizzata il MAX {R} avrà valore 1, per una immagine a 256 livelli
di grigio avrà valore 255.
Maggiore è il valore del PSNR maggiore è la somiglianza con l’immagine originale,
e quindi maggiore è la bontà dell’algoritmo di compressione analizzato; tipici valori di
PSNR variano da 20 a 40.
Si noti che il PSNR non è una misura assoluta: potrà essere utilizzato esclusivamen-
te per valutare e confrontare due metodi di compressione applicati alla stessa immagi-
ne originale. Il suo valore può essere utilizzato per caratterizzare la bontà un algoritmo
in termini relativi, ma solo come termine di confronto tra diversi algoritmi applicati al-
lo stesso insieme di dati di partenza.

6.3
Tecniche di compressione

Verranno analizzati di seguito i principali algoritmi di compressione, evidenziandone le


caratteristiche peculiari.

6.3.1
Packing Bits

Un semplice metodo di compressione si può realizzare usando con maggiore efficien-


za i byte all’interno dei file, quando i possibili valori assunti dai pixel non siano un mul-
tiplo esatto di 8 bit.
Nel caso tipico di immagini in scala di grigi aventi 12 bit riservati alla luminanza,
ogni pixel necessita di 16 bit (2 byte) per poterne contenere 12, in quanto all’interno dei
file non è possibile scrivere porzioni inferiori a 8 bit (il byte).
Inserendo un’opportuna intelligenza a monte della scrittura dell’immagine, sarà pos-
sibile sfruttare i 4 bit rimasti inutilizzati per memorizzare i primi 4 bit del pixel suc-
cessivo, usando così 3 byte per memorizzare 2 pixel invece di 4 byte.
In fase di ricostruzione sarà necessario leggere il file di 3 byte in 3 byte per poter de-
comprimere 2 pixel alla volta.
174 M. Coriasco et al.

È immediato comprendere che questo metodo è non distruttivo (lossless), in quanto


tutta l’informazione presente nell’immagine è preservata integra, ma è anche ovvio che
la compressione è inefficace nel momento in cui i pixel siano esprimibili con multipli
esatti di 8 bit.

6.3.2
L’algoritmo RLE

Osservando attentamente un’immagine, si può notare che spesso è facile individuare aree
con uguale intensità di colore o luminanza. L’algoritmo che sfrutta questa peculiarità
delle immagini prende il nome di Run Length Encoding (RLE).
La compressione avviene ricercando i pixel contigui aventi ugual valore e sostituen-
do all’insieme dei pixel una coppia di dati: il primo indica quanti pixel fanno parte del-
l’insieme, il secondo il valore assunto da tutti i pixel dell’insieme.
Per esempio, consideriamo una piccola porzione di immagine, in cui i pixel abbiano
i seguenti valori:
[95 12 12 12 4 10 10 10 10 10] (10 byte)
applicando la compressione RLE, otterremo un elenco come segue:
[1#95 3#12 1#4 5#10] (8 byte).
Per la decompressione della lista, ogni coppia N#V sarà rimpiazzata da N volte il va-
lore V. Qualora i pixel contigui siano in numero K maggiore di 255, allora verranno
create M coppie di valori, tali che N1  N2  ...  NM  K con N  255.
Questo tipo di compressione è molto efficiente se applicato a immagini costruite sin-
teticamente al computer, mentre tende a essere scarso se l’immagine proviene dal mon-
do reale, laddove è difficile che compaiano aree di grandi dimensioni aventi esattamente
lo stesso colore o livello di grigio.
Questo metodo di compressione appartiene ai metodi lossless, in quanto nessuna infor-
mazione è persa durante le fasi di compressione/decompressione.

6.3.3
La perdita di informazione sul colore

È possibile comprimere anche riducendo la quantità di colori presenti in un’immagine


al fine di ottenere un’immagine in cui ciascun pixel sia rappresentato da un numero in-
feriore di bit rispetto all’immagine originale.
Scegliamo un insieme di colori minimale dell’immagine originale e li numeriamo (in
genere vengono scelti insiemi da 2 fino a 256 colori) creando una tavolozza, come fa-
rebbe un pittore che ha in mente un quadro da realizzare e seleziona i colori con cui di-
pingere la scena.
Memorizziamo l’immagine originale andando a cercare per ogni pixel quale dei co-
lori prescelti meglio approssima il colore originale e memorizziamo, al suo posto, la po-
sizione che questo colore simile ha nella tavolozza.
6 La memorizzazione delle immagini digitali 175

Per stimare il fattore di compressione, ipotizziamo che l’immagine originale usi 3


byte per descrivere il colore di ogni pixel (classica codifica di RGB a 8 bit per componen-
te); scegliendo una tavolozza di 256 colori (per cui è sufficiente 1 byte), otterremo un ri-
sparmio di 2 byte per ogni pixel dell’immagine, a cui sarà da togliere lo spazio necessario
per allegare la tavolozza che è fissata a priori e occupa 768 byte ( 256 3 byte). Avremo
pertanto un risparmio crescente con la dimensione dell’immagine da comprimere.
In un’immagine reale il numero di colori presenti può essere molto superiore al nu-
mero di quelli scelti per la tavolozza, per cui sono stati realizzati degli algoritmi detti di
dithering che consentono di ottimizzare la scelta dei colori per gruppi di pixel adiacenti
al fine di rendere l’immagine il più possibile simile all’originale sotto il profilo percettivo.
La compressione dei colori è un metodo generalmente lossy in quanto, durante la tra-
scrizione dell’immagine con la tavolozza, l’informazione sul colore originale del pixel
è persa per sempre a favore di una stima che, per quanto sia ben calcolata, difficilmen-
te corrisponderà al valore originale.

6.3.4
L’algoritmo di codifica di Huffman

Quest’algoritmo di compressione non distruttivo fu inventato nel 1952 dal matematico


D.A. Huffman ed è un metodo di compressione detto anche entropico, con riferimento
alla misura dell’entropia nella teoria dell’informazione.
L’algoritmo analizza il numero di ricorrenze di ciascun pixel, ottenendo la frequenza
con cui un determinato colore si presenta nell’immagine da comprimere.
I due colori meno frequenti sono accomunati in una categoria che li rappresenta en-
trambi, avente quindi una ricorrenza pari alla somma delle occorrenze dei colori com-
ponenti. Così, ad esempio, se il colore A ricorre 8 volte e il colore B 7 volte, viene crea-
ta la categoria AB, avente 15 ricorrenze. Intanto, i colori A e B ricevono ciascuno un
differente marcatore (0 e 1) che li identifica come elementi entrati in una categoria e
vengono considerati come un nuovo colore.
L’algoritmo identifica i due successivi elementi meno frequenti nel file e li riunisce
in un nuovo colore, usando lo stesso procedimento descritto precedentemente.
Il gruppo AB potrà a sua volta entrare in nuove associazioni e costituire, ad esempio,
la categoria CAB. Quando ciò accade, la A e la B ricevono un nuovo marcatore che al-
lunga il codice di identificazione di ciascuno dei due colori nel file compresso che verrà
generato.
L’algoritmo termina nel momento in cui esistono solo due categorie a cui assegnare
il marcatore.
Si crea per passaggi successivi un grafo costituito da una serie di ramificazioni bi-
narie, all’interno del quale appaiono con maggiore frequenza e in combinazioni suc-
cessive gli elementi più rari all’interno del file, mentre appaiono più limitatamente gli
elementi più frequenti.
In base all’algoritmo descritto, ciò fa sì che gli elementi rari all’interno del file non
compresso siano associati a un codice identificativo lungo, che accresce di un elemen-
to a ogni nuova associazione.
176 M. Coriasco et al.

Fig. 6.2 Immagine di


esempio per
l’applicazione
dell’algoritmo di
Huffman

Gli elementi che si ripetono più spesso nel file originale sono anche i meno presenti nel-
l’albero delle associazioni, sicché il loro codice identificativo sarà il più breve possibile.
Terminata la costruzione del codice, viene generata l’immagine compressa, sostituendo
a ciascun valore del pixel nell’immagine originale il relativo codice associato al colore.
Il guadagno di spazio al termine della compressione è dovuto al fatto che gli elementi
che si ripetono frequentemente sono identificati da un codice breve, che occupa meno
spazio di quanto ne occuperebbe la loro codifica normale. Viceversa, gli elementi rari
nel file originale ricevono nel file compresso una codifica lunga che può richiedere, per
ciascuno di essi, uno spazio anche notevolmente maggiore di quello occupato nel file
non compresso.
Da quanto detto si deduce che questo tipo di compressione è tanto più efficace quan-
to più ampie sono le differenze di frequenza degli elementi che costituiscono il file ori-
ginale, mentre scarsi sono i risultati che si ottengono quando la distribuzione degli ele-
menti è uniforme.
Prendiamo ad esempio un’immagine avente dimensioni 64 64 con 4 livelli di gri-
gio, con ipotetica distribuzione dei pixel come si può vedere in Figura 6.2.
Applichiamo l’algoritmo di Huffman e raggruppiamo G1 e G3, creando il gruppo
G1-3 (760  480  1240 ricorrenze) e marchiamo G1 con 0 e G3 con 1; proseguen-
do, raggruppiamo G2 con G1-3, creando il gruppo G2-1-3 (1204  1240  2444 ri-
correnze) e marchiamo G1-3 con 0 e G2 con 1.
Terminiamo marcando G1-2-3 con 0 e G4 con 1. Notiamo che, nella marcatura, ab-
biamo sempre segnato con 1 l’elemento con minore numerosità, e con 0 l’altro; questa
è ovviamente una convenzione, l’importante è che tale scelta sia mantenuta coerente du-
rante la costruzione dell’albero. In Figura 6.3 è possibile apprezzare i passi compiuti
nella creazione dell’albero di Huffman.
Se ora ripercorriamo le scelte al contrario risalendo le marcature, scrivendo da sini-
stra a destra, otteniamo il codice di Huffman di Figura 6.4.
La dimensione teorica dell’immagine espressa in bit è di 64 64 2  8192 bit (4
livelli di grigio richiedono 2 bit), ma se ora esprimiamo i pixel secondo la tabella ap-
pena ottenuta, avremo una dimensione data da
1 16522 1204  760 3480 3  7780 bit
con un fattore di compressione
8192 bit / 7780 bit  1,0529.
6 La memorizzazione delle immagini digitali 177

Fig. 6.3 Grafo di


Huffman

Fig. 6.4 Codice di Huffman

Il lettore non si allarmi per questo risultato così poco entusiasmante, ma la sempli-
cità dell’esempio utilizzato induce un fattore di compressione scarso; l’algoritmo di Huff-
man risulta molto più efficiente nei casi reali, tanto da essere correntemente usato co-
me algoritmo di base per diversi formati di file molto conosciuti, quali GIF e JPEG e
il noto archiviatore ZIP.
È infatti dimostrabile che questo metodo di codifica consente la massima compres-
sione teoricamente raggiungibile per un’immagine senza perdita di informazione.

6.3.5
La compressione nello spazio trasformato

Una nuova famiglia di metodi di compressione si avvale della possibilità matematica di


trasformare le immagini dal dominio spaziale a un dominio trasformato, in cui l’imma-
gine è ancora compiutamente espressa secondo dei valori che non rappresentano più dei
178 M. Coriasco et al.

colori ma, a seconda della tecnica usata per la trasformazione, dei valori in uno spazio
matematico diverso ma equivalente, di cui si è parlato diffusamente nel capitolo 4.
La trasformazione dovrà garantire la reversibilità dell’operazione, al fine di ottenere
una precisa ricostruzione dell’immagine di partenza. Il dominio trasformato può però
presentare delle caratteristiche peculiari che, se sfruttate a dovere, possono condurre a
fattori di compressione superiori a quelli ottenuti nel dominio spaziale.
Le trasformate normalmente in uso per la compressione sono la Discrete Cosine Tran-
sform (DCT) e la Discrete Wavelet Transform (DWT), anche se per correttezza è giusto
ricordare che esistono anche trasformate come la Discrete Fourier Transform, la Hada-
mard Transform o la Welch Transform e altre ancora.
Una delle caratteristiche fondamentali di questi metodi è la possibilità di eliminare
una certa quantità di informazioni del dominio trasformato, degradando in modo con-
trollato l’immagine che sarà ricostruita, creando i presupposti per la creazione di meto-
di lossy in cui è possibile determinare a priori il grado di fedeltà dell’immagine de-
compressa.
La trattazione matematica delle trasformate è sicuramente interessante, ma non negli
obiettivi di questo testo; lasciamo al lettore interessato la ricerca di informazioni più
complete.

6.4
Panoramica dei formati di file per immagini digitali

Come accennato in precedenza, esistono moltissimi formati di file per la memorizza-


zione delle immagini digitali; riportiamo di seguito un breve elenco dei formati più dif-
fusi.
• BMP: è il formato più utilizzato per le immagini su computer dotati di sistema ope-
rativo Windows™ ed è l’acronimo di BitMaP. Consente di memorizzare immagini di
qualsiasi dimensione e con profondità di colore a 32 bit. L’unico algoritmo di com-
pressione utilizzabile con questo formato è l’algoritmo RLE;
• JPEG: è il formato utilizzato correntemente nella fotografia digitale ed è stato svi-
luppato dal Joint Photographic Expert Group, formato nel 1986 con lo scopo di sta-
bilire uno standard di compressione per le immagini a tono continuo. Data l’impor-
tanza di questo formato, la struttura di questo formato e le tecnologie in uso sono
analizzate successivamente con maggiore profondità;
• TIFF: il formato Tagged Image File Format nasce dall’esigenza di associare delle infor-
mazioni a compendio delle immagini (tagging) quali la risoluzione, lo spazio di co-
lore in uso e altro ancora. Per la compressione utilizza l’algoritmo non distruttivo Lem-
pel-Ziv-Welch (LZW) che, al suo interno, utilizza una versione particolare dell’al-
goritmo di Huffman. È il formato di riferimento nell’ambito dell’editoria elettronica.
Recentemente si è affermato il formato Digital NeGative (DNG) che è un formato
lossless basato sullo standard TIFF ed è utilizzato per la memorizzazione delle foto-
grafie digitali;
• GIF: CompuServe Graphics Interchange Format, è uno dei formati di file più comu-
nemente usati per le immagini su Internet. Utilizza il metodo di compressione a perdi-
6 La memorizzazione delle immagini digitali 179

ta di informazione sul colore con tavolozze da 1 a 8 bit e, successivamente, comprime


con LZW l’immagine a colori ridotti. È un formato compresso, sviluppato per ridurre
al minimo il tempo di trasferimento delle immagini sulle linee di trasmissione dati. Il
formato consente, inoltre, di memorizzare una sequenza di immagini che saranno suc-
cessivamente visualizzate dai browser internet come una animazione. Al momento, la
bassa qualità dell’immagine e il brevetto sull’algoritmo LZW ne stanno limitando pe-
santemente la diffusione a favore di altri formati non coperti da royalty;
• PNG: Portable Network Graphics, è un formato di recente definizione nato in con-
trapposizione a GIF, con l’obiettivo di creare uno standard non brevettabile (Open-
Standard) e di maggiore flessibilità. Sarà affrontato diffusamente più avanti nel te-
sto;
• JPEG2000: è l’evoluzione naturale del progetto JPEG e ha caratteristiche innovative
che lo fanno eleggere come il miglior formato per la memorizzazione delle immagi-
ni nel futuro prossimo. Anche questo formato sarà oggetto di approfondimento a se-
guire;
• ACR-NEMA: l’American College of Radiology (ACR) e la National Electrical Ma-
nufacture Association (NEMA) nella prima metà degli anni ’80 hanno concordato uno
standard comune per permettere di connettere diverse unità radiologiche e di archi-
vio o elaborazione con possibilità di scambio reciproco di informazioni. La prima
stesura dello standard (versione 1.0) è del 1985, per approdare 3 anni più tardi alla
versione 2.0. In queste prime versioni, gran parte dell’attenzione è concentrata nel
tentativo di formulare una codifica comune dei dati, con sequenze di caratteri che
siano universalmente riconoscibili per identificare il tipo e la posizione delle infor-
mazioni trasportate;
• DICOM/3: è il formato d’elezione nell’ambito medico-diagnostico e deriva direttamente
da ACR-NEMA di cui DICOM/3 è la versione 3.0. Per la complessità e l’importanza
che ricopre nel nostro contesto, l’approfondimento successivo è obbligatorio;
• PAPYRUS: realizzato da un gruppo dell’università di Ginevra, è DICOM-compati-
bile ed è celebre per il software OSIRIS. Costituisce un’estensione di ACR-NEMA
2 e ha contribuito allo sviluppo di DICOM 3, in particolare per la sezione 10 speci-
fica dei formati dei file immagini;
• INTERFILE: molto diffuso nell’ambito della medicina nucleare, nasce originariamente
per il trattamento di immagini di fantocci per controlli di qualità e poi esteso all’uso
clinico. Specifica un formato di file composto da valori chiave di tipo ASCII (key va-
lue). I dati dell’immagine possono essere contenuti all’interno dello stesso file come
administrative information o in un file separato individuato da una chiave del tipo
name of data file;
• ANALYZE: formato che prende il nome dal software commerciale che ne fa uso. Per
ogni insieme di immagini esistono due file: uno di intestazione contenente le pro-
prietà, avente estensione .hdr, e uno contenente la matrice numerica dei dati, avente
estensione .img. È adatto per elaborazioni con software matematico, come ad esem-
pio Matlab;
• QSH: indica una famiglia di programmi per la manipolazione di immagini. Anche in
questo caso, l’intestazione e i dati dell’immagine sono memorizzati in due file sepa-
rati, con estensione rispettivamente .qhd e .qim.;
180 M. Coriasco et al.

• DEFF: formato specifico delle immagini ecografiche ideato per la loro stampa, tra-
smissione e archiviazione. Il formato deriva dal TIFF di cui è un’estensione, per cui
sovente è possibile ricostruire l’immagine utilizzando software in grado di interpre-
tare il formato TIFF.

6.4.1
Requisiti principali dei formati di immagini medicali

Nei file di immagini medicali possiamo generalmente trovare tre tipologie di informa-
zioni ritenute essenziali per una corretta generazione e archiviazione delle immagini:
• i dati della matrice dell’immagine (che possono essere compressi o nella forma ori-
ginale);
• l’identificazione del paziente e i suoi dati anagrafici;
• le informazioni relative alla tecnica dell’esame, alla serie, al numero di immagini.
I vari formati di file potranno disporre queste informazioni all’interno del file se-
guendo una delle seguenti strategie:
• formato fisso, in cui lo spazio destinato a ogni informazione è costante, definito a prio-
ri e ogni tentativo di immettere informazioni più ampie e meglio descrittive è inutile;
• formato a blocchi, in cui l’intestazione contiene dei rimandi alle informazioni, gene-
ralmente allocate al termine del file, in modo da poter ampliare a piacere la dimen-
sione delle informazioni a contorno dell’immagine medicale, senza intaccare la po-
sizione dei dati dell’immagine;
• formato tag-based, in cui ogni informazione nel file è delimitata da un simbolo di
inizio e uno di fine (tag) che divide in sezioni esplicite il file e memorizza distinta-
mente in ciascuna sezione i dati relativi alla matrice e le informazioni al contorno,
eliminando ogni rigidità nella struttura del file.
Sarà cura dell’operatore, qualora consentito dall’apparecchiatura, scegliere il forma-
to di file con le migliori caratteristiche, coerenti con le necessità di impiego.

6.4.2
Lo standard DICOM/3

Lo standard DICOM/3 si presenta come un notevole sforzo di introdurre una normati-


va per tutti gli aspetti dell’acquisizione, trattamento e trasmissione delle immagini di-
gitali nell’ambiente medicale.
Per fare ciò, lo standard DICOM/3 realizza un dettagliato modello a oggetti, descri-
vendo paziente, immagine, apparecchiatura e stampante, che insieme concorrono a for-
mare il dato radiologico.
In particolare, ogni oggetto presenta delle proprietà e offre dei servizi, cioè delle azioni
come memorizzazione, trasmissione o stampa, delle quali può essere fornitore o utente.
In questo contesto si inserisce anche il formato delle immagini, trattato nella parte 10
dello standard. Le immagini sono rappresentate da information object, costituiti da una se-
rie di moduli che possono essere presenti o assenti in accordo con determinate regole.
6 La memorizzazione delle immagini digitali 181

Per esempio nell’information object di un’immagine TC saranno presenti, tra gli al-
tri, il modulo relativo al paziente, o patient module, il modulo relativo all’apparecchia-
tura, o general equipment module, il modulo sulle caratteristiche dell’immagine TC, det-
to TC image module, e il modulo con i valori dei pixel, l’image pixel module.
L’information object di un’immagine RM conterrà tutti questi moduli eccetto quello
sulle caratteristiche TC, che sarà sostituito da uno analogo sulle caratteristiche RM.
In quest’ultimo potranno trovarsi, per esempio, il TE e il TR della sequenza, che ov-
viamente non è definito per un’immagine TC, ma è importante sottolineare che tutti gli
altri moduli saranno analoghi per le due tipologie dei file di immagini.
Per indicare in maniera univoca ogni file immagine, DICOM adotta il concetto ISO
di identificatore univoco, o unique identifier, per cui il nome del file è costituito da una
sequenza di numeri intervallati da punti, con estensione .dcm, acronimo di DICOM.
Per esempio, il nome di un file di un’immagine RM potrà assumere la forma:
1.3.12.2.1107.5.2.2.9320.20021122153628000001001.dcm
laddove le prime cifre evidenziate in corsivo si riferiscono a parametri dello standard
ISO e all’identificazione dell’apparecchiatura, mentre successivamente le cifre identifi-
cano la data e l’ora dell’esame, il numero identificativo della serie e il numero ordina-
le dell’immagine nella serie.
Analizziamo ora maggiormente nel dettaglio l’intestazione di un file DICOM.
Per poter osservare le informazioni che ora verranno presentate è sufficiente dispor-
re di un DICOM Viewer, cioè di un software in grado di leggere e rappresentare sia l’im-
magine che i dati informativi presenti nel file DICOM/3. In internet è possibile reperi-
re diversi software anche gratuiti, come per esempio EZDicom, MRIcro, ImageJ, Irfan-
View, Microdicom o Dicom Dumper.
Oltre ad applicazioni orientate alla semplice visualizzazione dei dati, su internet è
possibile reperire anche dei software per la realizzazione di sistemi di archiviazione e
trasmissione di immagini, normalmente identificati con l’acronimo PACS (Picture
Archiving and Communication System); l’uso di questi sistemi consente la gestione del-
l’archiviazione e, quindi, il successivo reperimento delle immagini tramite opportune
ricerche. Tra i tanti disponibili, ricordiamo K-Pacs, Dicoogle e Dcm4chee, tutti softwa-
re utili per la creazione di PACS server su cui archiviare i dati provenienti da appa-
recchiature diagnostiche. Ricordiamo che, secondo l’attuale legislazione nazionale, i
dati medici sono considerati dati sensibili e, pertanto, dovrà essere posta particolare
cura nella realizzazione di un sistema di archiviazione di immagini diagnostiche non
anonimizzate, in cui il software PACS di gestione rappresenta solamente una delle com-
ponenti.
La Figura 6.5 mostra le informazioni presenti nella intestazione di un file DICOM/3.
In questo caso, le immagini memorizzate hanno una dimensione di 2192 2248 1
voxel (pixel tridimensionale), con 11 bit per voxel e 16 bit in realtà allocati, per uno
spazio occupato da ciascuna immagine è di circa 9 MiB. I primi 128 byte, tutti con va-
lore zero, seguiti dalle lettere ASCII “D I C M” costituiscono un preambolo con il qua-
le inizia il file.
Nelle varie parti della Figura 6.5 compaiono i diversi moduli informativi che sono
identificati da un codice esadecimale. Il codice 0028 indica il gruppo relativo alle ca-
182 M. Coriasco et al.

Fig. 6.5 Elementi informativi all’interno dell’intestazione di un file DICOM/3

ratteristiche di presentazione dell’immagine, tra le quali troviamo l’interpretazione fo-


tometrica, che in questo caso è una scala di grigi, il numero di immagini memorizzate,
il numero di bits per pixel e così via.
Le immagini DICOM/3 possono essere compresse con uno schema JPEG di tipo los-
sy o lossless, oppure con una compressione lossless di tipo RLE. Notiamo, comunque,
che la validità clinica di immagini compresse con algoritmi lossy non è argomento di
discussione per lo standard DICOM che fornisce i mezzi per poter realizzare entrambe
le tipologie di compressione senza entrare nel merito della loro validità.
Il modello di strutturazione dei dati riporta anche l’ordine dei byte all’interno dei da-
ti per rappresentare valori interi che necessitano di più di un byte, che può essere di ti-
po little endian o big endian, a seconda dell’ordine con cui i byte devono essere inter-
pretati per la ricostruzione del valore numerico decimale.
Il completamento delle specifiche dello standard DICOM/3 è avvenuto nel settem-
bre 1993, con il superamento delle difficoltà di interconnessione in rete attraverso l’a-
dozione dei protocolli internet TCP/IP e lo standard di rete ISO-OSI. Definiti gli og-
getti di interesse e tutte le loro caratteristiche, DICOM/3 definisce quali operazioni pos-
sono essere eseguite e su quali oggetti. Tali operazioni sono chiamate Dicom Message
Service (DIMSE).
6 La memorizzazione delle immagini digitali 183

Fig. 6.6 Schema


delle parti che
compongono il
protocollo
DICOM/3

La combinazione di un oggetto e i corrispondenti servizi prende il nome di Service Object


Pair (SOP) e l’insieme delle SOP relative a un unico oggetto formano una SOP Class.
La base del protocollo di comunicazione è un modello Client/Server, laddove ogni
volta che due applicazioni decidono di connettersi per scambiarsi informazioni, una del-
le due svolge il ruolo di fornitore del servizio (Service Class Provider, SCP), mentre
l’altra quello di utente del servizio (Service Class User, SCU). Per ciascuna combina-
zione di SOP Class e ruolo, lo standard definisce un livello di negoziazione, durante la
quale si stabilisce se la comunicazione tra i due apparati è possibile oppure no, sulla ba-
se delle rispettive capacità e specificità.
Nella Figura 6.6 è schematizzato lo standard DICOM/3 nelle sue parti componenti.
La suddivisione in sezioni tematiche consente l’aggiornamento parziale dello stan-
dard senza dover necessariamente ripubblicare le parti non variate, consentendo una più
semplice evoluzione delle sezioni legate alla tecnologia.
Vediamo ora brevemente una descrizione dei contenuti di ciascuna sezione:
• Parte 1: contiene una panoramica dello standard stesso, con descrizione dei principi
basilari. Tra di essi si trovano per esempio i concetti di oggetto e SOP Class, prece-
dentemente introdotti;
• Parte 2: in questa sezione viene fornita la definizione di conformità verso DICOM,
cioè si richiede ai costruttori di descrivere chiaramente come gli apparati siano confor-
mi a DICOM/3. Le precedenti versioni 1.0 e 2.0 di ACR NEMA non avevano queste
caratteristiche, cosicché era possibile per due apparecchi essere dichiarati conformi
pur utilizzando strutture e software diversi che non avrebbero permesso loro la co-
municazione;
• Parte 3: formula la definizione degli oggetti di informazione (IO), alcuni dei quali
potrebbero contenere gruppi di attributi simili, raccolti insieme in una serie di moduli
comuni. La Figura 6.7 mostra gli information objects definiti nell’allegato alla Parte
184 M. Coriasco et al.

Fig. 6.7 Tabella riassuntiva


degli IO in DICOM/3

3 dello standard. La colonna di sinistra della Figura 6.7 mostra l’elenco delle defini-
zioni degli IO che contengono attributi tra loro correlati, non direttamente legati al-
l’oggetto in questione, più quelli inerenti. Per esempio l’IO Computed Tomography
image contiene attributi come il nome del paziente, che è in relazione con l’immagi-
ne ma non direttamente inerente, mentre altri attributi lo sono, come per esempio la
dimensione della matrice. Gli IO normalizzati contengono invece solo attributi di-
rettamente collegati. L’utilizzo di oggetti composti è dovuto al fatto che la recente let-
teratura informatica ha mostrato che usando tale struttura, i relativi attributi possono
essere richiamati più celermente;
• Parte 4: mostra le specifiche delle classi di servizi che sono fondate su di una serie
di operazioni base operanti su IO. Tali classi di servizi sono: certificazione, memo-
rizzazione, richiamo/consultazione di immagini e informazioni, contenuto dello stu-
dio, gestione del paziente, gestione dell’esame, gestione del referto, gestione della
stampa. Quando un’applicazione DICOM/3 genera una serie di dati, questa deve es-
sere decodificata per poter essere inserita in un messaggio per la comunicazione. È
importante sottolineare il fatto che affinché due entità possano effettivamente comu-
nicare è necessario che entrambe siano state predisposte per la stessa classe di servizi,
una come utente e l’altra come fornitore. Per esempio, un’apparecchiatura che sup-
porta esclusivamente il servizio di stampa secondo DICOM/3 non potrà comunicare
con un sistema PACS che supporti soltanto la classe di servizi di memorizzazione.
6 La memorizzazione delle immagini digitali 185

La dizione conforme a DICOM per un sistema o un’apparecchiatura si presta quin-


di a molte sfumature e deve essere verificata per le specifiche esigenze del reparto
in cui dovrà essere utilizzata;
• Parte 5: le specifiche della codifica dati e i relativi processi formano la quinta parte
di DICOM/3. Questa sezione definisce il linguaggio con cui le apparecchiature co-
municano e descrivono, pertanto, anche gli standard di compressione utilizzabili;
• Parte 6: è l’elenco completo di tutti i tipi di dato, insieme ai loro possibili valori nu-
merici o alfanumerici;
• Parte 7: definisce ciò che è necessario al software applicativo per interagire con i
protocolli di comunicazione DICOM. Il formato base di un messaggio è costituito da
una stringa di comando e una stringa di dati;
• Parte 8: il supporto di rete per il trasferimento dei messaggi è descritto nell’ottava
parte: in ambiente DICOM, il protocollo di comunicazione utilizzato è il TCP/IP, che
rappresenta uno standard, ormai molto diffuso, che consente il trasferimento di im-
magini e dati, a prescindere dal mezzo fisico di trasmissione, in modo efficiente e
coordinato;
• Parte 9: sono raggruppate tutte le modalità relative ai vecchi protocolli punto-punto
ancora in uso presso vecchi sistemi. Nel 1998 questa parte è stata ritirata e le infor-
mazioni in essa contenuta compaiono rinnovate nella Parte 13;
• Parte 10: descrive i formati dei file di immagine a cui abbiamo fatto cenno nei pa-
ragrafi precedenti;
• Parti 11 e 12: definiscono la forma e l’uso dei supporti diversi di memoria e tra-
smissione dati, come per esempio le pellicole 35 mm usate in cardiologia e che non
vengono utilizzati in altri ambiti;
• Parte 13: si occupa della gestione della stampa e della comunicazione punto-punto;
• Parte 14: si occupa delle problematiche di visualizzazione delle immagini;
• Parte 15: vengono delineati i protocolli di sicurezza che possono essere utilizzati al-
l’interno dei sistemi di gestione dei dati; i protocolli possono usare le tecniche clas-
siche a chiave pubblica, così come le smartcard. Viene anche affrontato il tema del-
la crittografia dei dati e degli schemi di cifratura standard da utilizzare per garantire
la sicurezza dei dati;
• Parte 16: sono descritti i modelli per la creazione di documenti come IO, gli insiemi
di termini codificati per l’uso negli information objects, e le loro traduzioni nelle di-
verse lingue;
• Parte 17: contiene chiarimenti ed esempi in forma di allegati informativi e normative;
• Parte 18: sono definiti i metodi attraverso i quali è possibile ottenere l’accesso a un
oggetto DICOM per mezzo di schemi tipici del web, ovvero URL/URI;
• Parte 19: sono definite le Application Programming Interface (API) a disposizione
dei programmatori per interagire con un sistema medicale conforme allo standard DI-
COM; la presenza di API standard consente di scrivere programmi che possono fun-
zionare come plug-in, estensioni personalizzate in grado di aumentare le potenzialità
del sistema medicale;
• Parte 20: definisce i modelli di trasformazione dei dati dallo standard DICOM allo
standard ISO/HL7 27931 (Health Level 7, un altro standard per la realizzazione di
sistemi informativi per immagini medicali).
186 M. Coriasco et al.

Senza dubbio, DICOM/3 rappresenta il progetto più ambizioso che sia mai stato in-
trapreso nell’ambito dell’imaging medicale, congiuntamente dall’industria e dalle asso-
ciazioni professionali. Può apparire inizialmente complesso nella sua struttura e nella
sua forma, ma ha dimostrato la sua fattibilità e utilità.

6.4.3
Lo standard di formato JPEG

La sigla JPEG identifica una commissione di esperti denominata Joint Photographic Ex-
pert Group, formata nel 1986 con lo scopo di stabilire uno standard di compressione
per le immagini a tono continuo, cioè di tipo fotografico, sia a colori che in bianco e
nero.
Il lavoro di questa commissione ha portato alla definizione di una complessa serie di
algoritmi, approvata come standard ISO nell’agosto del 1990 e successivamente dive-
nuta la raccomandazione T.81 (9/92) della International Telecommunication Union (ITU).
Il JPEG è uno standard industriale e non va confuso con il formato di file JPG, che
rappresenta di volta in volta, a seconda del software, un sottoinsieme variabile e non
sempre universalmente compatibile dello standard di riferimento. Pochi, ad esempio,
sanno che le specifiche JPEG descrivono anche un formato di compressione non di-
struttivo ma che, a causa delle non eccezionali prestazioni, risulta poco utilizzato nel-
la pratica.
Analizziamo nel dettaglio la sequenza di operazioni che, a partire da un’immagine in
formato raw RGB, porta a un’immagine compressa secondo lo standard JPEG (Fig. 6.8):
1. trasformazione dello spazio colore: a causa delle particolari caratteristiche dell’oc-
chio umano, molto più sensibile alle variazioni di luminosità che alle variazioni cro-
matiche, è opportuno innanzitutto convertire l’immagine dallo spazio dei colori RGB
allo spazio dei colori YUV. È questo lo spazio dei colori definito per il sistema tele-
visivo PAL in uso in Europa. Tra i suoi equivalenti nel campo della computergrafica
troviamo il metodo L*a*b presente in Adobe Photoshop.
Il sistema YUV scompone l’informazione relativa a ciascun pixel in due componen-
ti: la luminanza, che definisce il grado di luminosità nella scala da nero a bianco (Y),
e la crominanza, che definisce il colore in base al rapporto tra due assi cartesiani,
uno che va da blu a giallo (U) e l’altro che va da rosso a verde (V).
Eseguire la trasformazione dallo spazio-colore RGB allo spazio-colore YUV non è
indispensabile, ma consente di ottenere una maggiore compressione JPEG. Quando
le successive trasformazioni matematiche che si applicano all’immagine trovano l’infor-
mazione nettamente suddivisa nelle due componenti di luminosità e di colore, pos-
sono procedere all’eliminazione di molte informazioni relative al colore senza intac-
care quelle relative alla luminosità, più importanti per la visione umana, limitando in
tal modo i danni visibili al contenuto dell’immagine. Ciò non è possibile invece nel-
la stessa misura quando gli algoritmi di compressione si applicano a valori RGB, che
presentano l’informazione relativa al colore e quella relativa alla luminosità fuse in-
sieme. Ovviamente, questo discorso è ininfluente per le immagini in scala di grigio,
in quanto l’informazione di crominanza è totalmente assente;
6 La memorizzazione delle immagini digitali 187

Fig. 6.8
Schematizzazione
semplificata del
processo di
compressione JPEG

2. riduzione, in base alla componente, di gruppi di pixel a valori medi: è un’operazio-


ne opzionale, di cui alcuni software di grafica consentono l’impostazione. La com-
ponente che esprime la luminanza è lasciata invariata, mentre la componente cro-
matica viene dimezzata in orizzontale e in verticale, oppure soltanto in orizzontale.
Ciò si esprime con il rapporto 2:1 per indicare il dimezzamento e con il rapporto
1:1 per indicare che la componente è lasciata invariata. Alcuni programmi di grafi-
ca, tra le opzioni di salvataggio in JPG, mostrano stringhe di difficile comprensio-
ne come 4:1:1 e 4:2:2, che esprimono appunto il coefficiente di riduzione che vie-
ne applicato alle componenti cromatiche dell’immagine. Tale operazione, che fa par-
te degli algoritmi distruttivi dello standard JPEG, riduce in partenza il file di una
metà o di un terzo della sua grandezza originale. Non si applica alle immagini a to-
ni di grigio e ciò spiega perché queste siano meno comprimibili in generale delle
immagini a colori;
3. trasformata DCT applicata a blocchi di 8 8 pixel suddivisi in base alla componen-
te: si tratta di una serie di operazioni matematiche che trasformano i valori di lumi-
nosità e colore di ciascuno dei 64 pixel di ogni blocco preso in esame in altrettanti
valori di frequenza spaziale. In particolare, mentre i valori dei pixel contenuti nei bloc-
chi di 8 8 tratti dall’immagine originale variano da 0 a 255, dopo l’esecuzione del-
la DCT essi, trasformati in frequenze, variano da -721 a 721. Utilizzando una parti-
colare combinazione di quantizzazione e codifica entropica, la trasformazione dei va-
lori in frequenze consentirà nei passaggi successivi di tagliare più informazioni senza
apparente perdita visiva di quante se ne potrebbero tagliare lavorando sui valori na-
turali dei pixel. Inoltre, la sequenza a zig zag in cui i nuovi valori vengono scritti con-
sente di applicare ad essi una codifica di Huffman più efficace.
Vediamo in Figura 6.9 la scrittura a zig zag dei valori ottenuti con la DCT, a partire
dall’angolo superiore sinistro del blocco di 8 8 pixel (JPEG ITU.T81);
188 M. Coriasco et al.

Fig. 6.9 Image


Blocking e scelta
dei coefficienti
della DCT

4. divisione e arrotondamento all’intero dei 64 valori ottenuti con la DCT: ciascuno dei
64 valori di frequenza viene diviso per uno specifico coefficiente di quantizzazione,
codificato in apposite tavole di riferimento. Il risultato della divisione viene arroton-
dato all’intero più vicino. L’eliminazione dei decimali è la principale operazione di
compressione distruttiva dello standard JPEG. Il tutto è studiato in modo che le fre-
quenze più importanti per l’occhio umano, cioè le basse frequenze, memorizzate nel-
l’angolo superiore sinistro del blocco di 8 8, siano preservate, mentre le più alte, la
cui perdita è relativamente ininfluente, vengano progressivamente eliminate;
5. compressione non distruttiva dei coefficienti quantizzati: ai valori risultanti dalla di-
visione e dall’arrotondamento sopra descritti viene applicata una compressione non
distruttiva, per la quale può essere utilizzato l’algoritmo Huffman;
6. inserimento nel file compresso di intestazioni e parametri per la decompressione: af-
finché il file possa essere in seguito decompresso e possa generare un’immagine il
più possibile somigliante all’originale non compresso, occorre che nel file JPG sia-
no inserite le tabelle contenenti i coefficienti di quantizzazione e i valori della tabel-
la di codifica prodotta dall’algoritmo di Huffman.
Un fenomeno molto conosciuto riguardo allo standard JPEG è la comparsa dei cosid-
detti artefatti; tra questi, il più noto è il fenomeno dei blocchi quadrettati, che sono spes-
so chiaramente visibili nelle immagini JPG molto compresse e rappresentano un forte ele-
mento di degrado della qualità. Essi sono la conseguenza diretta dell’algoritmo che sud-
divide l’immagine di partenza in blocchi da 8 8 pixel. Le varie trasformazioni applicate
ai valori dei pixel di ciascun blocco sono del tutto indipendenti dalle trasformazioni ap-
plicate ai pixel dei blocchi adiacenti. Ciò causa talvolta transizioni brusche tra pixel adia-
centi appartenenti a blocchi differenti. Il fenomeno è tanto più appariscente quanto più
l’immagine contiene aree di colore uniforme e linee sottili ben separate dallo sfondo.
Nell’esempio in Figura 6.10 è mostrato un particolare fortemente ingrandito del-
l’immagine di sinistra, che mostra in modo inequivocabile la quadrettatura tipica risul-
tante dalla compressione JPEG.
6 La memorizzazione delle immagini digitali 189

Fig. 6.10 Immagine


compressa JPEG e
zoom per
evidenziarne gli
artefatti

6.4.4
Lo standard JPEG 2000

Il successo dello standard di compressione JPEG si può desumere dalle cifre: è stato
calcolato, infatti, che l’80% circa delle immagini presenti su internet siano file JPG.
Tuttavia, esiste il successore designato di questo fortunato standard: si tratta di un al-
goritmo che va sotto il nome di JPEG 2000.
Le differenze tra i due standard sono numerose e la principale è senz’altro il cam-
biamento dello strumento matematico alla base dell’algoritmo di compressione.
Se JPEG usa la trasformata Discrete Cosine Transform (DCT), JPEG 2000 usa la
Discrete Wavelet Transform (DWT).
Questa trasformata consente di superare il difetto principale delle immagini trattate
secondo il normale standard JPEG, cioè la presenza di quei blocchi quadrettati che so-
no il prezzo da pagare per la maggior compressione ottenuta.
Con l’uso della DWT, il contenuto del file originale non viene più suddiviso in bloc-
chi da 8 8 pixel, ma l’immagine è analizzata nella sua totalità e, successivamente, scom-
posta per ottenere alla fine un file compresso, dove l’eventuale degrado dell’immagine
è significativamente inferiore a quello ottenibile, a parità di fattore di compressione, con
il JPEG tradizionale.
Il degrado non si manifesta più attraverso i famosi blocchi quadrettati, ma con un
aspetto più o meno sfocato dei contorni degli oggetti presenti nell’immagine.
Ma vediamo in dettaglio quali sono le fasi della compressione eseguita con l’algo-
ritmo JPEG 2000.
1. preparazione dell’immagine: la trasformazione wavelet agisce separando i contenuti
a bassa frequenza, dai contenuti ad alta frequenza. Per far ciò è necessario che l’im-
magine originale sia suddivisa in quattro immagini più piccole, dotate ciascuna di un
numero di colonne e di righe uguale a esattamente la metà del file iniziale. La pre-
parazione consiste nel fornire alla DWT una griglia di righe e colonne tale da consentire
190 M. Coriasco et al.

Fig. 6.11 Esempio di trasformata wavelet in cui è possibile distinguere le quattro sottoimmagini scala-
te: in a le basse frequenze, in b le alte frequenze orizzontali, in c le alte frequenze verticali, in d le al-
te frequenze oblique

la ripetizione dell’operazione di suddivisione in quattro quadranti a ogni successivo


stadio del ciclo di trasformazione operato con la DWT;
2. trasformazione: l’immagine viene trasformata dalla DWT e poi scalata, in modo da
ottenere quattro immagini alte e larghe ciascuna esattamente la metà dell’originale.
Nel quadrante superiore sinistro, grazie all’uso di un filtro passa-basso, sono salva-
te le basse frequenze presenti nel file di partenza. Negli altri tre quadranti, per mez-
zo dell’uso di un filtro passa-alto, sono salvate le alte frequenze. Il risultato di que-
st’operazione è la decorrelazione tra le informazioni di bassa e alta frequenza conte-
nute nell’immagine.
Il passaggio successivo consiste nella ripetizione del medesimo procedimento, ap-
plicato stavolta solo all’immagine del quadrante superiore sinistro, contenente le
basse frequenze. Come risultato, l’immagine con le basse frequenze ha ormai al-
tezza e larghezza pari a un quarto dell’originale, mentre tutto il resto è occupato
dalle alte frequenze. Il procedimento poi continua per analisi e scalature successi-
ve, fino al limite minimo di un’immagine ridotta a un solo pixel. In Figura 6.11 è
possibile apprezzare un esempio di trasformata wavelet applicata a un’immagine.
Il risultato finale di tutta l’operazione è che l’intero contenuto informativo dell’im-
magine originale è stato frazionato in una serie di trasformazioni successive, che po-
tranno poi essere compresse in un minimo spazio e utilizzate in modo reversibile in
fase di decompressione, per generare un’immagine il più possibile simile all’origi-
nale non compresso;
3. quantizzazione e codifica: la quantizzazione è un’operazione generalmente distrutti-
va, che divide per specifici coefficienti i valori trovati dalla DWT e arrotonda poi i
risultati all’intero più vicino. Le fasi di quantizzazione e di codifica hanno lo scopo
di selezionare per cicli successivi i dati da comprimere e disporli poi in un ordine
preciso all’interno del flusso dei dati. Possono essere implementate come stadi sepa-
rati, così come avviene nel JPEG standard, con la fase di quantizzazione che elimina
6 La memorizzazione delle immagini digitali 191

la parte meno rilevante dell’informazione e passa i dati alla parte di software che si
occupa della fase di codifica. Combinando quantizzazione e codifica in un singolo
stadio, si ottiene la possibilità di controllare esattamente l’entità della compressione
in termini di qualità dell’immagine. La dimensione del flusso di dati compresso può
essere predefinita con esattezza. In questo caso, la quantizzazione dei coefficienti tra-
sformati ha luogo durante la fase di codifica.
Il primo ciclo di quantizzazione ha, per così dire, una grana grossa, nel senso che
solo i coefficienti maggiori sono presi in considerazione e codificati. Al ciclo successi-
vo, gli intervalli di quantizzazione vengono dimezzati, sicché divengono significativi
coefficienti più piccoli. Ciò indica che i valori dei coefficienti selezionati nel primo ci-
clo sono specificati in modo sempre più preciso dalle informazioni aggiunte a ogni suc-
cessivo ciclo di quantizzazione e codifica. I cicli continuano finché il flusso dei dati non
ha raggiunto la sua lunghezza predefinita oppure fino a quando tutta l’informazione pre-
sente nell’immagine non viene codificata. Questo modo di incorporare nella sequenza
finale di dati strutture via via più raffinate consente di ricostruire l’immagine iniziale a
partire da qualsiasi blocco di dati contenuto nel file compresso, con la limitazione che
la qualità dell’immagine ricostruita sarà tanto migliore quanto maggiore sarà la parte di
dati utilizzata dall’intero flusso.
Una simile caratteristica è importantissima per gli usi di questo formato su internet.
I file compressi con JPEG 2000 racchiudono infatti al loro interno più risoluzioni dif-
ferenti della stessa immagine. I produttori di software hanno quindi la possibilità di rea-
lizzare comandi in grado di consentire all’utente collegato via internet di decidere, in
base al tempo stimato per il download, quale risoluzione dell’immagine visualizzare nel
proprio browser. I file JPEG 2000 consentono di racchiudere in un unico documento
l’anteprima, la bassa, la media e l’alta risoluzione di una stessa immagine, senza però
moltiplicare proporzionalmente il peso del file.
Per concludere, vediamo un elenco delle principali caratteristiche innovative previste
dallo standard:
• supporto per differenti modalità e spazi-colore (immagini a due toni, in scala di gri-
gi, a 256 colori, a milioni di colori, in standard RGB, PhotoYCC, CIELAB, CMYK);
• supporto per differenti schemi di compressione, adattabili in base alle esigenze;
• standard aperto a successive implementazioni legate al sorgere di nuove necessità;
• supporto per l’inclusione di un’illimitata quantità di metadati nello spazio di intesta-
zione del file;
• algoritmi allo stato dell’arte per la compressione distruttiva e non distruttiva delle im-
magini, con un risparmio di spazio a parità di qualità, rispetto allo standard JPEG,
dell’ordine del 20–30%;
• supporto per immagini più grandi di 64000 64000 pixel, ovvero maggiori di 4 Gib;
• supporto per la trasmissione dei dati in ambienti disturbati, per esempio attraverso la
radiotelefonia mobile;
• capacità di maneggiare indifferentemente sia le immagini naturali sia la grafica sin-
tetizzata al computer;
• supporto per la codifica di Regions Of Interest (ROI), cioè di zone ritenute più im-
portanti e perciò salvate con una risoluzione maggiore di quella usata per il resto del-
l’immagine.
192 M. Coriasco et al.

Fig. 6.12 L’immagine originale è stata fortemente compressa con JPEG 2000 e JPEG a un fattore di
compressione simile; notare la forte presenza di artefatti nella versione JPEG, totalmente assenti nel-
la versione JPEG 2000

Per poter iniziare da subito a provare questo nuovo standard, è possibile utilizzare un
visualizzatore di immagini gratuito, scaricabile da internet sul sito http://www.irfanview.com,
e provare a comprimere fortemente le immagini per vedere le capacità di ricostruzione
di questo formato.
Nella Figura 6.12 si può vedere la differenza tra due immagini fortemente compres-
se, l’una con JPEG 2000, l’altra con il normale JPEG, differenza che appare a tutto van-
taggio della compressione di tipo wavelet. La corrispettiva immagine prodotta con JPEG
2000 (1:100 rispetto all’originale) mostra, a paragone con JPEG e a parità di fattore di
compressione, un degrado molto minore rispetto all’originale e l’assenza del fastidioso
fenomeno del blocking.

6.4.5
Lo standard di formato PNG

L’acronimo PNG deriva da Portable Network Graphics, ed è facile perciò intuire che
questo formato trova la sua maggior applicazione nella diffusione via rete delle imma-
gini.
Il progetto nasce a seguito dell’introduzione del brevetto sull’algoritmo LZW, che co-
struisce un dizionario delle sequenze codificate, utilizzato all’interno del formato GIF,
altro formato nativamente pensato per la trasmissione delle immagini.
PNG nasce quindi in contrapposizione a GIF, come un formato grafico compresso e
allo stesso tempo del tutto gratuito.
6 La memorizzazione delle immagini digitali 193

Analizziamo, dunque, i punti di forza di questo formato:


• compressione: PNG utilizza metodi di compressione non distruttiva. L’algoritmo uti-
lizzato per la compressione è lo zlib, una variante dell’algoritmo LZ77, sviluppato
per la parte di compressione da Jean-loup Gailly e per quella di decompressione da
Mark Adler. Questo algoritmo ricerca all’interno dell’immagine degli insiemi ripeti-
tivi di pixel e su essi opera una codifica entropica; tanto più è sofisticata tale ricer-
ca, tanto più sarà possibile ottenere alti fattori di compressione;
• controllo di errore: PNG dispone di un sistema chiamato Cyclic Redundancy Check
a 32 bit (CRC-32), che associa valori di controllo a ogni blocco di dati ed è in gra-
do di rilevare immediatamente qualsiasi alterazione delle informazioni salvate o tra-
smesse;
• supporto per milioni di colori: le immagini PNG non sono limitate a un massimo
di 256 colori come accade per i file GIF, ma supportano anche la modalità RGB.
Non permette al momento la modalità CMYK, anche se è prevista come futura esten-
sione;
• canali alfa: mentre GIF supporta una trasparenza basata sul keying (tutti i pixel aven-
ti uno specifico colore sono trasparenti), PNG permette, grazie all’uso dei cosiddetti
canali alfa, la possibilità di una trasparenza variabile su 254 livelli di opacità per
ciascun pixel componente l’immagine. L’unico difetto di questo formato è che non
è prevista la possibilità di memorizzare all’interno dello stesso file più di una im-
magine.

6.5
La trasmissione delle immagini digitali

La trasmissione delle immagini digitali nelle applicazioni non critiche, avviene utiliz-
zando i formati che abbiamo descritto in questo capitolo; siamo ormai abituati a rice-
vere nei messaggi di posta elettronica immagini provenienti della fotocamera digitale
dell’amico o, più semplicemente, ottenute navigando sui siti internet che propongano
uno stile graficamente accattivante.
Discernere su quali formati siano in assoluto i migliori è difficile, poiché ognuno di
essi rappresenta un insieme di scelte tecnologiche che consentono di ottimizzare alcuni
parametri e nel contempo di tralasciarne altri.
Rimane allora la possibilità di effettuare una scelta guidata dalla conoscenza di ciò
che si trova dietro a una delle tante sigle che abbiamo visto, e provare a cercare il for-
mato che meglio si adatta alle nostre esigenze.

6.5.1
La sicurezza delle immagini: le tecniche di watermarking

Abbiamo esplorato come l’informazione digitale sia versatile e consenta un gran nu-
mero di elaborazioni numeriche che modificano il segnale originale per consentire una
migliore interpretazione diagnostica. Allo stesso modo si può operare in modo fraudo-
194 M. Coriasco et al.

lento, alterando degli esami diagnostici, ad esempio sovrapponendo opportunamente una


frattura ossea a un osso sano per poter incassare un premio assicurativo. Questa opera-
zione, che è difficile da realizzare con esami radiologici tradizionali, è invece molto più
semplice con un’immagine digitale, laddove la modificazione dei pixel, è relativamen-
te semplice, vista anche l’ampia diffusione di software per l’elaborazione di immagini.
È chiaro che si rende necessario poter disporre di strumenti che consentano di mettere
in sicurezza le immagini digitali, cioè assicurare che non sia possibile alcuna alterazio-
ne dei dati.
Dovremo essere in grado di garantire che la diagnosi sia condotta sull’immagine ori-
ginale priva di qualsiasi artefatto creato durante il trattamento dell’informazione o in-
trodotto fraudolentemente.
Per garantire l’integrità delle immagini è necessario introdurre un metodo di auten-
ticazione che modifica la forma dei dati originali in modo da poterli recuperare nella
loro configurazione originale. Senza entrare nei dettagli tecnici, l’idea è di avere a di-
sposizione una tecnologia che consenta di conglobare dati strutturati all’interno del-
l’immagine, come una specie di filigrana invisibile, o comunque non percettibile all’occhio
umano: il watermarking.
Il watermarking consiste nell’introduzione di dati nascosti (detti marchio) all’inter-
no dell’immagine detta “ospite”, rispettando una serie di vincoli dipendenti dalla spe-
cifica applicazione. Un esempio di vincolo è che un marchio non sia facilmente indivi-
duabile, in modo da non deteriorare la qualità dell’immagine ospite e, al tempo stesso,
garantire la scoperta di eventuali alterazioni.
Gli algoritmi di watermarking sono generalmente classificati in due tipi: reversibile
o irreversibile. Nel caso di watermarking irreversibile l’applicazione del marchio non
permette la ricostruzione dell’immagine originale; questa tecnica è impiegata quando è
richiesto che il marchio rimanga permanentemente all’interno dell’immagine, come ad
esempio nella tutela del copyright.
Con il watermarking reversibile è garantita a priori la ricostruzione dell’immagine
originale attraverso la rimozione del marchio dall’immagine ospite; in ambito medico è
indispensabile che il processo diagnostico si avvalga dell’immagine originale, per cui
la scelta dovrà cadere necessariamente su un algoritmo con questa caratteristica.
Gli algoritmi di watermarking reversibile possono poi essere suddivisi in tre princi-
pali categorie in base al comportamento del watermarking in caso di alterazioni del-
l’immagine:
• robusto: quando il marchio resiste alle più comuni operazioni e trasformazioni sui
dati, per esempio il filtraggio convolutivo, la compressione con perdita di informa-
zione, la sotto-quantizzazione, il prelievo di porzioni di immagini (cropping) e lo sca-
lamento;
• fragile: il marchio inserito viene deteriorato quando l’immagine ospite è anche solo
minimamente modificata; in questo modo appare evidente che l’integrità dell’imma-
gine è stata compromessa; queste proprietà rendono questo tipo di marchiatura utile
nei processi di autenticazione e verifica di integrità, come richiesto nella diagnosti-
ca per immagini;
• semifragile: il marchio può sopravvivere a un procedimento di leggera modifica co-
me può essere esempio una compressione JPEG.
6 La memorizzazione delle immagini digitali 195

Fig. 6.13 Schema di applicazione e utilizzo del watermarking. Nelle immagini il marchio è stato volu-
tamente enfatizzato per scopi didattici, poiché nella realtà un buon marchio tipicamente non è visibi-
le a occhio nudo. Lasciamo al lettore il compito di analizzare l’immagine trasmessa (d) alla ricerca
della modifica fraudolenta introdotta nel radiogramma

Gli algoritmi di watermarking operano sia nel dominio spaziale, spettrale o ibrido quan-
do entrambi i primi due vengano utilizzati. Operando nel dominio spaziale, l’applicazione
del marchio avviene modificando direttamente i valori dei singoli pixel, ad esempio al-
terando i livelli di luminosità o di colore. Nel dominio spettrale l’inserimento del mar-
chio potrà avvenire tramite trasformazioni lineari quali la trasformata coseno discreta
(DCT), la trasformata wavelet (DWT), la trasformata discreta di Fourier (DFT), appli-
cando opportune modificazioni ai valori degli spettri componenti l’immagine originale.
Nella Figura 6.13 è descritto lo schema concettuale di applicazione e utilizzo del wa-
termarking.
Alla luce di quanto esposto possiamo identificare i vincoli più importanti e utili per
la valutazione di un algoritmo di marcatura informatica per immagini in ambito medico:
• recupero dell’immagine originale (vincolo di reversibilità);
• inserimento di un marchio impercettibile anche all’utente esperto, come ad esempio
il medico refertatore (vincolo di invisibilità del marchio);
• fragilità del marchio (vincolo di verifica di integrità);
• localizzazione delle zone dell’immagine su cui siano stati effettuati dei ritocchi (vin-
colo di verifica di dolo nella modifica dell’immagine).
Dal punto di vista pratico, gli attuali algoritmi di watermarking non sono però in gra-
do di soddisfare tutti i vincoli che abbiamo espresso e che ragionevolmente possiamo
196 M. Coriasco et al.

ritenere come indispensabili in un contesto di immagini medicali. Per ovviare a questa


insufficienza, a integrazione del watermarking dell’immagine si utilizza la firma digi-
tale come parte integrante del marchio, con l’intento di rendere matematicamente dif-
ficile l’alterazione fraudolenta del marchio stesso.

6.6
Considerazioni finali

La destinazione finale delle immagini è la loro memorizzazione su un supporto, per con-


sentirne l’archiviazione o la successiva trasmissione. Le immagini richiedono elevate
quantità di memoria nel loro formato nativo o raw, per cui sono state sviluppate tecni-
che e metodi per ridurre la dimensione dei dati necessari alla loro descrizione e me-
morizzazione; tali tecniche prendono il nome di compressione. Gli algoritmi di com-
pressione si dividono in due grosse famiglie, quelli che consentono di recuperare inte-
gralmente l’informazione originaria, detti lossless, e quelli che ammettono una certa
perdita di informazione, a favore di un fattore di compressione più elevato, detti lossy.
Tra gli algoritmi più efficaci di compressione, troviamo la compressione entropica,
ovvero l’algoritmo di codifica di Huffman, che è l’algoritmo a maggior efficienza che
si possa ottenere. Tra gli algoritmi che fanno affidamento su un dominio trasformato
per comprimere l’informazione, abbiamo preso in considerazione JPEG e JPEG 2000,
analizzando gli algoritmi nelle loro componenti fondamentali, senza dimenticare una bre-
ve analisi del formato di immagini in medicina per eccellenza, lo standard DICOM.
Per garantire l’integrità delle immagini digitali sia in fase di memorizzazione che di
trasmissione, può essere utile introdurre il watermarking delle immagini, una sorta di
filigrana invisibile che pervade l’immagine e che consente di verificare se una imma-
gine è stata alterata dopo l’introduzione del marchio. Il watermarking può essere di ti-
po irreversibile o reversibile, e quest’ultimo può essere robusto, semifragile o fragile, a
seconda delle caratteristiche dell’algoritmo che realizza l’inserimento del marchio nel-
l’immagine ospite.
Infine, il watermarking può operare sia nel dominio spaziale, che in quello spettra-
le, alterando l’immagine originale in modo controllato per ottenere lo scopo prefissato,
a seconda di quali vincoli siano ritenuti indispensabili nella specifica applicazione.

Sitografia

http://medical.nema.org
http://www.ijg.org
http://www.openjpeg.org
http://www.libpng.org/pub/png/
ESERCIZI 197

Esercizi

1) Nel caso di tecniche di compressione lossy, l’immagine ricostruita è:


a) completamente diversa dall’originale
b) di dimensioni poco più piccole dell’originale
c) simile all’originale
d) esattamente uguale all’originale

2) Per comprimere un’immagine senza perdita di informazione si può:


a) associare a ciascun pixel un byte
b) codificare i pixel con codici di lunghezza variabile in funzione della loro intensità
c) sottrarre ogni pixel a quello di massima luminosità
d) sottrarre l’immagine originale a quella traslata di un pixel e riferirsi poi alla pri-
ma colonna dell’originale

3) Quale fra i seguenti non è un formato di memorizzazione?


a) TIFF
b) BMP
c) PPN
d) JPEG

4) DCT è l’acronimo di:


a) Device Control Transmitter
b) Dot Control Technology
c) Discrete Cosine Tansform
d) Discriminant Cosine Transform

5) I metodi di compressione irreversibili:


a) si applicano quando non sia importante che l’immagine ricostruita sia esattamente
uguale all’originale
b) si applicano solo alle immagini industriali
c) non si applicano mai nella computer graphics
d) si applicano solo a immagini semplici

6) Nel caso di tecniche di compressione senza perdita di informazione, l’immagine


ricostruita è:
a) simile all’originale
b) di dimensioni poco più piccole dell’originale
c) completamente diversa dall’originale
d) esattamente uguale all’originale

7) La codifica Run Lenght Encode si presta bene per:


a) immagini grafiche come i disegni
b) immagini con istogramma piatto
198 ESERCIZI

c) immagini fotografiche
d) eliminare i pixel il cui livello di luminanza sia sotto una determinata soglia

8) Il PSNR valuta:
a) la perdita di informazione dovuta alla compressione
b) la bontà assoluta della qualità della compressione di un’immagine
c) la qualità di un’immagine compressa rispetto all’originale
d) il guadagno di informazione dovuto alla compressione dell’immagine

9) La codifica di Huffman è un metodo per:


a) quantificare l’informazione presente in un’immagine
b) comprimere dati con una codifica a lunghezza variabile
c) calcolare il massimo fattore di compressione di un’immagine
d) determinare il massimo numero di livelli di grigio di un’immagine

10) Lo standard DICOM ha come obiettivo:


a) standardizzare tutti gli aspetti dell’acquisizione, trattamento e trasmissione del-
le immagini digitali
b) standardizzare le immagini medicali
c) veicolare le informazioni sui pazienti sulle reti ospedaliere
d) standardizzare le immagini medicali con perdita di informazione

11) Il formato JPEG utilizza:


a) lo spazio trasformato per ottimizzare l’algoritmo di compressione
b) la differenza tra blocchi di sottoimmagini per aumentare il fattore di compres-
sione
c) solo colori naturali per la codifica dei pixel
d) l’informazione binaria dei pixel per la codifica differenziale

12) Quale delle due immagini evidenzia artefatti tipici della compressione?

13) Il watermarking è una tecnica di:


a) sviluppo ad acqua delle pellicole radiografiche
b) marchiatura delle immagini e codifica di informazioni al loro interno
ESERCIZI 199

c) trasferimento dei dati su una linea telematica


d) strutturazione delle informazioni diagnostiche all’interno di immagini

14) Le tecniche di watermarking utilizzate per applicazioni mediche devono essere pre-
feribilmente di tipo:
a) semifragile e irreversibile
b) fragile e reversibile
c) robusto e reversibile
d) fragile e irreversibile

15) La compressione delle immagini è utile a:


a) migliorare la qualità visiva delle immagini
b) ridurre il numero di colori/livelli di grigio presenti nell’immagine
c) ridurre le quantità di dati necessari alla memorizzazione dell’immagine senza per-
dita di informazione
d) ridurre le quantità di dati necessari alla memorizzazione dell’immagine even-
tualmente ammettendo perdita di informazione

16) Il fattore di compressione di un’immagine è:


a) il rapporto tra la quantità di informazione e il numero di bit necessari a rappre-
sentare un singolo pixel
b) il rapporto tra dimensione grezza dell’immagine e la dimensione dei dati otte-
nuti tramite un algoritmo di compressione
c) la percentuale di guadagno su ciascun pixel ottenuto tramite la compressione dei
livelli di grigio
d) il numero di pixel risparmiati applicando la compressione delle immagini

17) Quali tra i seguenti approcci non viene solitamente utilizzato da algoritmi di
watermarking?
a) nel dominio trasformato
b) nel dominio spaziale
c) predittivo
d) a correlazione

18) In base al tipo di applicazione è possibile contestualizzare le tecniche di watermarking


nel seguente modo:
a) watermarking robusto per applicazioni di tutela del copyright e watermarking
fragile per verifica di integrità
b) watermarking robusto per applicazioni di verifica di integrità e watermarking
fragile per tutela del copyright
c) watermarking fragile per applicazioni di verifica di integrità e watermarking ro-
busto per tutela della privacy
d) watermarking fragile per applicazioni di tutela del copyright e watermarking ro-
busto per verifica della privacy
200 ESERCIZI

19) La compressione JPEG 2000 consente di avere nello stesso file:


a) più immagini di una stessa sequenza
b) la codifica di diversi colori contemporaneamente
c) la stessa immagine a più risoluzioni contemporaneamente
d) le immagini e i dati del paziente

20) Un sistema PACS consente di:


a) archiviare immagini provenienti da sorgenti differenti in modo confuso e ineffi-
ciente
b) consente la gestione dell’archiviazione e quindi il successivo reperimento delle
immagini
c) elaborare le immagini provenienti da un sistema TAC
d) applicare marchiature alle immagini in ingresso
Soluzioni esercizi

CAPITOLO 1

1) c 15) c 29) a
2) b 16) a 30) aliasing
3) c 17) c 31) e
4) b 18) b 32) d
5) d 19) a 33) a
6) b 20) c 34) c
7) a 21) b 35) a
8) c 22) a 36) c
9) b 23) a 37) a
10) d 24) 465 38) a
11) a 25) 4000 39) b
12) a 26) 132 40) c
13) a 27) d
14) a 28) c

CAPITOLO 2
1) a 8) c 15) d
2) b 9) c 16) b
3) b 10) c 17) a
4) a 11) a 18) c
5) a 12) c 19) b
6) c 13) a 20) 2–1–3
7) b 14) c

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, 201
Sergio Rabellino
DOI: 10.1007/978-88-470-5364-9 © Springer-Verlag Italia 2013
202 M. Coriasco et al.

CAPITOLO 3
1) b 15) 1 immagine 25) 97
2) c 1572864 byte capa- 26) c
3) b cità: 1400000000: 27) b
4) c num im= 890 28) c
5) b 16 a) 12 bit 29) d
6) d 16 b) 2 byte 30) a
7) c 17) vedi figura sotto 31) c
8) a 18) c 32) b
9) d 19) d 33) c
10) 1024*768*3*25*13 20) c 34) d
11) 1024*768*3 21) d 35) c
12) a 22) d 36) b
13) c 23 a) 2667 3333 37) a
14) b 23 b) 42 m 38) d
23 c) 4252 5669 39) d
24) 38,4 cm 40) b

17
Soluzioni esercizi 203

CAPITOLO 4
1) a 15) c 33) b
2) c 16) b 34) a
3) c 18) b 35) b
4) b 19) b 36) a
5) c 21) b 37) c
6) b 22) b 38) b
7) a 30) b 39) c
13) b 31) a
14) a 32) b

28

29
204 M. Coriasco et al.

CAPITOLO 5

1) b 5) c 9) b
2) a 6) d 10) a
3) d 7) b
4) a 8) a

CAPITOLO 6
1) c 8) c 15) d
2) b 9) b 16) b
3) c 10) a 17) c
4) c 11) a 18) a
5) a 12) a 19) c
6) d 13) b 20) b
7) a 14) b
Indice analitico

A Lasco, 74
AHE (Adaptive Histogram periodo di, 12
Equalization), vedi Istogramma teorema del, 16
Addizione, 107 Chiusura, operatore complesso, 122
Aliasing, 17 CISC, 28
Analogico CLAHE (Contrast Limited Adaptive
grandezza, 5 Histogram Equalization),
strumenti di misura, 9 vedi Istogramma
Apertura, operatore complesso, 122 CMYK, 73
Artefatti, 188 Codice identificativo, 175
ASCII, 30 Coefficiente di quantizzazione, 188
Colore, 61
B brillantezza, 61
Background, 110 luminosità, 62
Bad pixel, 154 lunghezza d’onda dominante, 62
Bicubico, 79 purezza, 62
Bilineare, 79 saturazione, 61
Binario, 29, 30 sistema di colori additivo, 62
Bit, 26 sistema di colori sottrattivo, 62
Blurring, 116 tinta, 61
Bordo, vedi anche Contorno Compressione dei dati, 171
edge detection, 113 fattore di compressione, 172, 174, 176
edge extraction, 113 LossLess, 172, 174
Butterworth, 135 Lossy, 172, 175
Byte, 29 massima compressione, 177
multipli, 32 metodo di compressione, 177
metodo di compressione
C entropico, 175
Campionamento, 12 Contorno, 113
frequenza di, 12 estrazione dei contorni, 114

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, 205
Sergio Rabellino
DOI: 10.1007/978-88-470-5364-9 © Springer-Verlag Italia 2013
206 M. Coriasco et al.

Contrasto, 84, 85, 96, 99, 104, 127 rumore, 96


contrasto simultaneo, 57 Equalizzazione, 126
rapporto contrasto rumore, 84 Erosione, 121
sensibilità al contrasto, 56, 57 apertura, 122
soglia di contrasto, 56 chiusura, 122
Convoluzione, 116 operatore di base, 121
maschere, 111 Esposizione, 104

D F
DCT, 187 Falsi colori, 74
DDL, Digital Driving Levels, 78 Falsi contorni, 75
Decompressione dei dati, 172 Filtraggio, 135
Decorrelazione, 190 a media locale, 116
Degrado, 140 a media mobile, 116
DICOM, 180 a media ponderata, 116
GSDF, 78 Filtro
Digitale esponenziale, 136
strumento di misura, 9 ideale, 134
Digital image processing, 95 mediano, 117
Dilatazione, operatore di base, 121 rumori di tipo impulsivo, 117
Dimensione, 169 sale e pepe, 117
Discretizzazione valore mediano, 117
passo di, 22 passa-alto, 132
spaziale, 69, 70 passa-basso, 132
Dithering, 175 trapezoidale, 137
Divisione, 107, 109 Foreground, 110
Dominio trasformato, 132, 177 Formati di file per immagini digitali
DPI, 70 ACR-NEMA, 179
DQE, 85 ANALYZE, 179
DWT (Discrete Wavelet Transform), 189 BMP, 178
DEFF, 180
E DICOM/3, 179
Edge DNG, 178
detection, 113 GIF, 178
extraction, 113 INTERFILE, 179
Eidoslab, 142, 143 JPEG, 178
Elaborazione, 95 JPEG2000, 179
contrasto, 96 PAPYRUS, 179
globale, 96 PNG, 179
ingrandimento, 96 QSH, 179
locale, 96 TIFF, 178
nel dominio trasformato, 96 Formato, 170
nitidezza, 96 Fourier
puntuale, 96 combinazione lineare di immagini,
ripristino di qualità, 96, 139 131
Indice analitico 207

DFT, Discrete Fourier Transform, 129 K


Fast Fourier Transform, 133 Kirsh, operatore di, 113
Half Fourier, 132
simmetria, 132 L
simmetria centrale, 132 Laplaciano, operatore, 114
spettro di, 17 Look Up Table (LUT), 99, 101, 104
teorema di, 12, 128 a gradini, 102
trasformata di, 15, 129, 130 curva di stretching, 99
Frazione di Weber, 56 curva sensitometrica, 102
Frequenza, 130 gamma, 105
di taglio, 132, 136 invertita, 104
spaziale, 58, 128 logaritmica, 130
dominio delle frequenze, 128 sensitometrica inversa, 104
effetto Mach, 59 sigmoide, 102
livello di dettaglio, 59 trasformazioni logaritmiche, 104
trasformazione esponenziale, 104
G window, 101
GHE (Global Histogram Equalization), windowing, 100
vedi Istogramma Luce, 41
flusso luminoso, 44
H intensità luminosa, 43
Hard copy, 77 livelli di grigio, 61
Header, 171 luminanza, 46

I M
Illusioni visive, 47 MAHE (Multiscale Adaptive Histogram
Immagine, 41 Equalization), vedi Istogramma
Immagini medicali, 180 Mappa delle frequenze, 139
Integrità delle immagini, 194 Marchio, 194
Istogramma Matching, 121
AHE (Adaptive Histogram posizioni, 121
Equalization), 127 Mediano, filtro, 117
CLAHE (Contrast Limited Adaptive Modalità raw, 169
Histogram Equalization), 127 Moltiplicazione, 107, 109
dei livelli, 75 Morfologia, 120
dei livelli di luminanza, 122 elemento strutturante, 121
equalizzazione dell’istogramma, 123 Morfologici, operatori, 120
funzione di trasformazione, 124 MTF, 82
GHE (Global Histogram
Equalization), 127 N
MAHE (Multiscale Adaptive Nearest neighbour, 79
Histogram Equalization), 128
miglioramento del contrasto, 122 O
SHAHE (SHarpened Adaptive Occhio, 44
Histogram Equalization), 128 angolo visivo, 54
208 M. Coriasco et al.

bastoncelli, 54 Q
coni, 54 Quadrato di Mach, 47
distanza focale, 53 Quantizzazione Lasca, 75
fuoco, 53
macchia cieca, 54 R
Onda Rebinning, 161
frequenza, 43 Replicazione, 79
lunghezza d’onda, 43 RGB, 73
periodo, 43 Riflettanza, 48, 49
Operatore laplaciano, 114 RISC, 28
Operazioni logiche, 110 Risoluzione spaziale, 81
Operazioni algebriche tra immagini, 107 Rumore, 83
distribuzione del, 83
P spettro del, 83
PACS (Picture Archiving and
Communication System), 181 S
Pixel, 69 Segnale, 2
4-connettività, 97 continuo, 3
8-connettività, 97 discreto, 3
Adiacente, 97 Sfocatura, 116
cammino, 97 SHAHE (SHarpened Adaptive
connesso, 97 Histogram Equalization), vedi
city-block, 98 Istogramma
componenti connesse, 98 Sharpening, 120
criterio di similarità, 97 Sistema, 2
funzione distanza, 98 di acquisizione, 4
m-connettività, 97 di elaborazione, 4
profondità del, 74 di distribuzione, 4
regioni di interesse, 99 Sistema visivo, 46
Prewitt, operatore di, 113 Smoothing, 111, 116
Principio di indeterminazione, 46 Sobel, operatore di, 113
indeterminazione geometrica, 49 Soft copy, 77
indeterminazione radiale, 49 Sottrazione, 107
Processo di unificazione del campo Spazio K, 132
percettivo Spike, 139
buona forma, 51 Supporto di memorizzazione, 170
chiusura, 51
continuità di direzione, 50 T
esperienza passata, 51 Trasduttore, 11
pregnanza, 51 Trasmissione delle immagini digitali,
somiglianza, 49 193
uguaglianza cromatica, 49
vicinanza, 49 U
Pseudo colori, tecnica degli, 107 Unique identifier, 181
PSNR (peak signal-to-noise ratio), 172 Unsharp masking, 119
Indice analitico 209

V Y
Visione, 46 YUV, 73, 186
Von Neumann, architettura di, 25
Z
W Zero order hold, 79
Watermarking, 194 Zoom, algoritmi, 79
irreversibile, 194
reversibile, 194
fragile, 194
robusto, 194
semifragile, 194
Windowing, 100