Sei sulla pagina 1di 143

APPUNTI DI EPIDEMIOLOGIA

a cura del Dr. Paolo Pandolfi


INTRODUZIONE ALL’EPIDEMIOLOGIA

Che cos’è l’Epidemiologia?


L’Epidemiologia studia la distribuzione delle malattie e le relative determinanti nelle
popolazioni umane. Il termine deriva dalla parola ‘epidemic’ che a sua volta sembra derivare
da epidemeion, una parola usata da Ippocrate quando descrive una malattia che sta “visitando
il popolo”.
Un moderno uso del termine restringe l’interesse alla popolazione umana, ma allo stesso
tempo è stato allargato lo studio a qualunque malattia, incluse quelle ben lontane da una
forma transitoria. Perciò gli epidemiologi studiano le malattie croniche come l’asma così
come le malattie acute, tipicamente infettive come il colera, che meglio possono essere
collegate all’idea di “epidemia”. Inoltre oggi la metodologia epidemiologica è stata adottata
anche da aree e discipline non puramente rivolte all’uomo; si pensi all’epidemiologia
veterinaria od a quella molecolare. E’ evidente, tuttavia, la forte relazione che queste
discipline hanno rispetto all’obiettivo di perseguire la salute dell’essere umano.

La distribuzione della malattia studiata è spesso di tipo geografico, ma anche le distribuzioni


per sesso, età, classe sociale, stato civile, gruppo razziale e tipo di occupazione (tra le altre)
sono spesso interessanti. A volte la stessa popolazione geografica è confrontata in tempi
diversi per investigare gli andamenti (trends) della malattia.
Ad esempio, consideriamo il cancro alla mammella come malattia di interesse. Questa
rappresenta una delle principali cause di morte tra le donne nei paesi industrializzati, ma gli
studi epidemiologici hanno mostrato che essa è molto più comune nelle latitudini più a nord
che nelle altre parti del mondo.
Comunque, queste differenze geografiche sembrano essere in decremento a partire dagli anni
’90; per esempio, studi fatti negli USA suggeriscono un declino nella morte per cancro alla
mammella, mentre studi fatti in Giappone suggeriscono un incremento. In generale, i tassi di
tumore alla mammella sono risultati crescenti al crescere dell’età e sono più alti nelle donne
con elevato stato socio-economico e che non hanno mai contratto matrimonio.
Le determinanti della malattia sono i fattori che “precipitano” la malattia.
Lo studio della distribuzione della malattia è essenzialmente un esercizio descrittivo; lo
studio delle determinanti considera l’eziologia della malattia.

1
Per esempio, il trovare con una analisi descrittiva che le donne che non hanno mai contratto
matrimonio sono più inclini al cancro alla mammella porta a investigare sul perché questo
dovrebbe accadere. Forse i fattori causali sono legati a caratteristiche della riproduzione,
come ad esempio la mancanza di un qualche tipo di protezione che potrebbe essere conferita
dall’allattamento al seno.
Sono stati fatti molti studi relativi a queste problematiche nell’ambito dell’epidemiologia del
tumore al seno.
In generale, i fattori studiati dipendono dalla particolare malattia in questione e dalle ipotesi a
priori. Esempi tipici potrebbero essere l’esposizione agli inquinanti atmosferici, gli stili di
vita particolari (come abitudine al fumo o specifiche abitudini alimentari) e le caratteristiche
biologiche (come il livello di colesterolo e la pressione del sangue).
Ci riferiremo a un qualunque potenziale agente eziologico sotto studio come a un fattore di
rischio per la malattia di interesse. E’ evidente in questo caso che per alcune patologie,
tipicamente nelle infettive, un fattore di rischio diventa anche unico agente causale di
malattia, mentre in altri fenomeni morbosi (è l’esempio delle malattie tumorali) non emerge
in modo chiaro ed univoco un solo agente causale ma una molteplicità di agenti che pesano in
modo differente nel determinare una specifica malattia.

Lo scopo essenziale dell’epidemiologia è informare i professionisti della sanità e, in generale,


il pubblico sui provvedimenti che occorre prendere per migliorare lo stato di salute generale.
Sia le analisi descrittive sia quelle eziologiche ci aiutano a raggiungere questo scopo.
Le analisi descrittive forniscono una guida per l’allocazione ottimale dei servizi sanitari e il
target della promozione della salute.
Le analisi eziologiche possono dirci che cosa fare per ridurre la nostra (o delle altre persone)
probabilità di sviluppare la malattia in questione.
I dati epidemiologici sono essenziali per la pianificazione e lo sviluppo dei servizi sanitari.
L’epidemiologia è generalmente considerata una branca della medicina che tratta con le
popolazioni piuttosto che con gli individui. Mentre i clinici ospedalieri considerano il miglior
trattamento e il miglior consiglio da dare a ogni paziente individuale, perché questi si
comporti nel migliore dei modi, l’epidemiologo considera quale consiglio dare alla
popolazione generale, così da ridurre il carico generale di malattia.
È da sottolineare lo stretto legame tra epidemiologia e statistica.

2
Quest’ultima rappresenta lo strumento indispensabile per comprendere alcuni fenomeni legati
alla frequenza ed alla distribuzione delle malattie. Le tecniche statistiche, inoltre, permettono
di valutare sia il grado di correlazione tra un evento ed il fattore di rischio ipotizzato, sia il
grado di incertezza che necessariamente si ha nelle condizioni di osservazioni campionarie.

L'EVOLUZIONE DELLA SCIENZA EPIDEMIOLOGICA


EPIDEMIOLOGIA= Studio sulla popolazione
L’epidemiologia può essere definita come la disciplina che si occupa dello studio delle
malattie e dei fenomeni ad esse correlati attraverso l’osservazione della distribuzione e
dell’andamento delle patologie nella popolazione, ovvero attraverso l’individuazione dei
fattori di rischio che ne possono condizionare l’insorgenza.

1) IPPOCRATE (V° SECOLO A.C.)

Tracce di concetti epidemiologici si ritrovano già negli scritti di Ippocrate (V° secolo
a.C.), il quale aveva osservato che alcune patologie umane erano correlate a condizioni
ambientali o individuali.

PATOLOGIA AMBIENTE CIRCOSTANTE

Per i successivi 2000 anni le cause delle malattie, pur sottoposte ad attente osservazioni,
non furono mai oggetto di indagini analitiche.

2) JOHN GRAUNT (XVII° SECOLO)


PRIME ANALISI SU MORTALITA' E NATALITA'

L’epidemiologia come disciplina autonoma si sviluppa inizialmente nel Regno Unito,


dove si conducono i primi studi epidemiologici degni di tale nome.
John Graunt pubblicò nel 1662 un’analisi della mortalità e della natalità a Londra,
soffermandosi sulle differenze per sesso, età e stagionalità.
Inoltre, valutò analiticamente l’entità di una epidemia di peste che colpì la città in quegli
anni. Fu uno dei primi studiosi a riconoscere il valore delle statistiche correnti, base di
partenza, anche oggi, di molte ricerche epidemiologiche.

3
3) WILLIAM FARR (XIX° SECOLO)
Due secoli più tardi William Farr elaborò un sistema di raccolta dei certificati di
morte, imponendo la segnalazione della causa accanto ai dati anagrafici.

4) JOHN SNOW (META' DELL'OTTOCENTO)

APPLICAZIONE DEL METODO EPIDEMIOLOGICO PER LO


STUDIO DELLE CAUSE DI MALATTIA

( LE EPIDEMIE DI COLERA A LONDRA)


Ma il primo vero EPIDEMIOLOGO moderno è John Snow, medico inglese che aprì la
grande tradizione della medicina preventiva anglosassone svolgendo, in due occasioni, a
metà del XIX° secolo, indagini epidemiologiche sul colera quando ancora non ne era noto
l’agente etiologico.
John Snow, nella prima epidemia del 1857 osservò che tutti i casi erano distribuiti attorno ad
una sola delle numerose pompe erogatrici di acqua potabile della City londinese.
Da qui dedusse il possibile ruolo dell’acqua nella diffusione della malattia e, ordinando la
chiusura della famosa Broad street pump, riuscì a porre fine all’epidemia e ad identificare
l’acqua stessa come veicolo di trasmissione dell’ancora sconosciuto agente eziologico del
colera.

Alcuni anni più tardi, un altro episodio di colera colpì soltanto i quartieri meridionali della
città; grazie alle nozioni precedentemente acquisite, Snow concluse brillantemente la sua
indagine epidemiologica, non solo scoprendo che la maggior parte dei contagiati era stata
rifornita di acqua potabile dalla Southwark and Vauxhall Company, ma risalendo anche alle
modalità del contagio: e cioè al fatto che quest’ultima impresa di distribuzione attingeva
l’acqua dal Tamigi, contaminata dalle fognature, alla sua uscita dalla città, mentre la società
concorrente, la Lambeth Company, tra i clienti della quale si erano registrati solo pochi casi
di colera, la attingeva all’entrata della città.

Questo esempio, oltre a testimoniare come già nel XIX° secolo, pur in possesso di mezzi
scarsissimi (mancanza di registri, censimenti, ecc.) si era tentato lo studio di varie malattie, ci
fa capire come l’indagine epidemiologica non richieda la conoscenza dell’agente eziologico

4
ma cerchi piuttosto di fornire indizi per individuarlo; infatti, non passarono molti anni dagli
studi di Snow che Robert Kock giunse all’isolamento, proprio dall’acqua, del Vibrio
cholerae.

5) L'EPIDEMIOLOGIA MODERNA (DOPO LA SECONDA


GUERRA MONDIALE)
Arriviamo così all'epidemiologia moderna. Nascono sin dal 1948 i primi trials clinici
strutturati (è di questo anno l’articolo sull’efficacia degli antibiotici nel trattamento della
tubercolosi) ovvero i primi studi epidemiologici sperimentali che tanto peso avranno per la
farmacologia moderna e per le evidenze di efficacia di interventi di natura terapeutica o di
tipo diagnostico.
Cambia inoltre il campo di azione dell’epidemiologia con i lavori del medico Richard Doll e
dello statistico Austin Bradford Hill (1954) che fondano l’epidemiologia delle malattie
cronico-degenerative. D’altronde le nuove terapie contro gli agenti infettivi che hanno
determinato il drastico abbattimento della mortalità per le malattie infettive nei paesi
occidentali, associate alle migliorate condizioni di vita hanno permesso un allungamento
della vita media spostando l’attenzione dell’epidemiologia proprio verso quelle patologie
tipiche dell’età avanzata classificabili in due grandi categorie: i tumori e le malattie del
sistema cardiocircolatorio.
Gli anni ‘70 ed ‘80 vedono invece lo sviluppo dell’epidemiologia ambientale; più
recentemente (anni ‘90), infine, l’epidemiologia si mette al servizio della nuova rivoluzione
culturale del mondo medico che fa della medicina basata sulle evidenze il vero cavallo di
battaglia. Attualmente l’interesse sulla genetica, in particolare sulla mappatura del genoma,
ha spinto parte degli epidemiologi verso una nuova ed interessantissima branca:
l’epidemiologia molecolare.

IN QUESTO PERIODO L'EVOLUZIONE DELL'EPIDEMIOLOGIA E' ANDATA DI


PARI PASSO CON UNA SEMPRE MAGGIORE APPLICAZIONE:

 DEL METODO STATISTICO (supportato da capacità di calcolo sempre più


potenti rese possibili dai personal computer)
 DEL METODO QUANTITATIVO IN GENERE NELLE SCIENZE BIOLOGICHE
(sviluppo delle capacità informative)

5
DEFINIZIONE E SCOPI DELL'EPIDEMIOLOGIA

NUMEROSE NEL TEMPO SONO STATE LE DEFINIZIONI FORNITE PER


L'EPIDEMIOLOGIA
Ecco un esempio di come è stata definita dal Dizionario di Epidemiologia di Last JM et al:

The study of the distribution and


determinants of health-related states or
events in specified populations, and the
application of this study to control of
health problems

IN SINTESI SI PUO' AFFERMARE CHE:

"L'EPIDEMIOLOGIA E' LA SCIENZA CHE HA PER OGGETTO LO


STUDIO DELL'INSORGENZA DELLE MALATTIE NELLA
POPOLAZIONE UMANA, CON PARTICOLARE RIGUARDO ALLO
STUDIO DELLE CONDIZIONI E DEI FATTORI CHE LE
DETERMINANO"

6
GLI AMBITI DI ATTIVITA' EPIDEMIOLOGICA SI SVILUPPANO SU DUE LIVELLI:

CONOSCITIVO

DI INTERVENTO

IN PARTICOLARE L'EPIDEMIOLOGO:

1. osserva il fenomeno oggetto di studio

2. lo descrive quantitativamente ricorrendo ad adeguate misure di esposizione e di


insorgenza di malattia

3. ne studia e descrive la distribuzione nel tempo e nello spazio

4. formula ipotesi circa le sue cause

5. disegna e conduce studi appropriati a saggiare le ipotesi

6. analizza i dati raccolti e interpreta i risultati ottenuti valutando le possibili fonti di


distorsione

7. stima l'impatto di utilizzazione, a fini preventivi, dei risultati della propria ricerca

8. valuta l'impatto reale, sulla popolazione, delle misure adottate sulla base delle sue
conclusioni

E' IMPORTANTE SOTTOLINEARE CHE LA QUALITA' DELLE CONCLUSIONI


NON PUO' MAI ESSERE SUPERIORE A QUELLA DI DATI RACCOLTI

7
SCOPI PRINCIPALI DELL'EPIDEMIOLOGIA

A) DESCRIVERE
FREQUENZA EVENTI

DISTRIBUZIONE EVENTI

B) VERIFICARE EVENTUALI ASSOCIAZIONI TRA


CARATTERISTICHE INDIVIDUALI O FATTORI DI RISCHIO E
FENOMENI MORBOSI

MODALITA' DI PRESENTAZIONE DELLA FREQUENZA DEGLI


EVENTI

1) DESCRIZIONE DEL NUMERO DI EVENTI

2) RAPPORTI

3) PROPORZIONI

4) TASSI

5) ODDS

8
DESCRIZIONE DEL NUMERO DI EVENTI

La descrizione del numero di eventi soddisfa soltanto un'esigenza amministrativa di


quantificazione del fenomeno ma non risponde a quesiti epidemiologici (il numero dei casi
non dà informazioni particolari se non rapportato alla dimensione della popolazione).

Per presentare i dati ai fini epidemiologici occorre sempre mettere in relazione il numero di
eventi (NUMERATORE) con la popolazione alla quale i casi appartengono
(DENOMINATORE). In questo senso si può parlare di rapporti e di proporzioni, odds e tassi.

RAPPORTI
Esprimono la relazione tra due quantità indipendenti tra loro; sono rappresentati da una
frazione in cui il numeratore non è incluso nel denominatore (ad es. rapporto uomini/donne,
numero di morti da traffico per 100.000 veicoli circolanti, rapporto litri di latte prodotti su
popolazione bovina censita).

PROPORZIONE
E' un tipo di rapporto particolare in cui il numeratore è sempre incluso nel denominatore e
quindi indica una relazione quantitativa tra una parte ed il tutto. Il risultato può assumere
valori da 0 ad 1, ovvero, se espresso in percentuale da 0% a 100%. Non ha mai una relazione
con il tempo.

ODDS
Rappresenta il rapporto tra la probabilità di un evento (successo) e la probabilità del non
evento (fallimento). (ad es. numero nati maschi su numero nati femmine, numero di parti a
termine su numero di aborti).

TASSI
Il tasso è un tipo particolare di proporzione che introduce la variabile tempo quale
caratteristica essenziale. Con il tasso si intende indicare il numero di eventi che si sviluppano
in una popolazione specifica durante un determinato periodo di tempo (t).

9
LA PREVALENZA E L'INCIDENZA

Rappresentano le due più importanti misure di frequenza degli eventi in epidemiologia e sono
l'analogo dei tassi di mortalità nell'ambito della morbosità (tassi di morbosità).

In termini generali nei tassi di morbosità il numeratore è rappresentato dal numero di casi di
una specifica patologia mentre al denominatore viene riportata la popolazione che è esposta
al rischio di contrarre quella malattia.

PREVALENZA

La PREVALENZA è la proporzione della popolazione affetta dalla


malattia in esame in uno specifico momento del tempo.

Indica, pertanto, un'immagine fotografica della popolazione al momento del rilievo. Come
tutte le proporzioni è rappresentata da un numero che può assumere valori da 0 ad 1.

Conoscere la prevalenza è fondamentale negli studi descrittivi ed è essenziale in


pianificazione sanitaria per la stima della domanda di servizi sanitari.

In base all'intervallo di tempo analizzato si possono calcolare due differenti tipi di


prevalenza:

la Prevalenza puntuale o di punto e la Prevalenza di periodo o periodale.

a) PREVALENZA PUNTUALE o DI PUNTO (t0)

Considera ed analizza l'evento in uno specifico istante. In altre parole, viene calcolata
in un unico momento di osservazione e stima la probabilità di un individuo di essere un
caso in un certo momento (t0).

10
N  di casi esistenti di malattia ad un dato istante
P  10 K
Popolazion e totale
(N  soggetti che costituisc ono la popolazion e nel medesimo istante)

In questo caso il valore ottenibile può subire notevoli oscillazioni legate alle caratteristiche
proprie della malattia in esame. In generale si tende a sovrastimare i casi a lunga durata.

b) PREVALENZA di PERIODO o PERIODALE (t1 - t0)

Considera ed analizza l'evento in uno specifico periodo. Essa stima la probabilità che
un individuo sia un caso in qualsiasi momento in un arco di tempo (  t) intercorrente
tra due specifici momenti (t0 e t1).

N di casi di malattia rilevati nel periodo


P 10 k
Popolazione totale
(N di soggetti che costituiscono la popolazione nel medesimo periodo)

Questa misura può sostituire altre misure di frequenza quando è impossibile definire l’epoca
esatta di inizio della malattia (es. alcune patologie psichiatriche).

Nel numeratore vengono inclusi i casi di malattia già iniziati prima del tempo t0 ma ancora in
corso al tempo t0, e i casi che insorgono nello stesso intervallo.

La prevalenza di periodo è una misura efficiente se la popolazione è fissa, cioè costante in


quantità e qualità dei soggetti e se il denominatore rimane costante nel tempo  t, altrimenti è
di scarso valore.

La prevalenza di periodo è strettamente dipendente dal tipo di patologia e dall’ampiezza


dell’intervallo di tempo considerato: se la malattia in esame è cronica è evidente che più
ampliamo il tempo dell’osservazione, maggiore sarà il numero di casi presenti e la
prevalenza.

11
La prevalenza fornisce, quindi, uno spaccato della popolazione in un certo momento di tempo
indicando la proporzione di individui malati, ma non ci dà alcuna informazione sulla velocità
con cui compaiono nuovi casi in seno alla popolazione. La misura di frequenza che stima la
velocità del cambiamento dello stato di salute della popolazione è l’incidenza.

L'entità della prevalenza di una malattia dipende dall'incidenza visto che una maggiore
frequenza di nuovi casi tenderà ad aumentare il numero di casi esistenti; inoltre la prevalenza
dipende dalla durata della malattia.

Guarigioni

Incidenza SERBATOIO DELLA


PREVALENZA
Morti

12
FATTORI CHE INFLUENZANO LA PREVALENZA

Diminuito da:

Durata più breve della


malattia Aumentato da:
Elevato tasso di letalità Maggiore durata della
per la malattia malattia
Diminuzione di nuovi Prolungamento della vita
casi dei pazienti senza
(diminuzione incidenza) guarigione
Immigrazione persone Aumento dei nuovi casi
sane (aumento dell'incidenza)
Emigrazione casi Immigrazione di casi
Miglioramento del tasso Emigrazione di persone
di guarigione dei casi sane

Immigrazione di persone
suscettibili

Miglioramento delle
capacità diagnostiche

13
INCIDENZA

L'INCIDENZA considera il numero di nuovi eventi in una popolazione in un


determinato periodo di tempo.

In pratica mentre la prevalenza descrive la proporzione di individui di una popolazione affetti


da una malattia in uno specifico momento, l'incidenza descrive la velocità di spostamento
dallo stato di salute allo stato di malattia.

Pertanto, l’incidenza misura la frequenza con cui le persone si ammalano indipendentemente


da quanto a lungo rimangono malate.

Per contare quante persone si ammalano bisogna definire l’arco di tempo durante cui
osserveremo l’intero gruppo.

Ovviamente negli studi epidemiologici in cui lo scopo è quello di indagare i fattori di rischio
o le cause delle malattie ovvero di studiare l'efficacia delle misure preventive, l'interesse è
focalizzato sullo spostamento degli individui dallo stato di salute allo stato di malattia.

Il denominatore a cui rapportare i casi sarà diverso a seconda che noi siamo interessati ad
ottenere una stima del rischio individuale di ammalarsi dei soggetti esaminati, oppure ad
ottenere una stima complessiva della velocità con cui parte del gruppo esaminato passa da
uno stato di salute ad uno di malattia.
Nel primo caso l'incidenza è espressa come Incidenza Cumulativa (IC) e nel secondo
come tasso di Densità di Incidenza (DI):

a) RISCHIO o INCIDENZA CUMULATIVA

Indica la probabilità di contrarre la malattia in un definito intervallo di tempo. Si


calcola come la proporzione di individui, inizialmente sani, che si ammalano nel
periodo di osservazione.

14
La popolazione candidata all’inizio dello studio è la popolazione priva di malattia ed
a rischio all’inizio del periodo.

Sia il numeratore che il denominatore includono esclusivamente individui che all'inizio del
periodo erano sani (liberi dalla malattia) e che pertanto sono a rischio di contrarre la malattia.

Il numeratore è generato (proviene) dal denominatore. Essendo una proporzione, la IC è una


misura priva di dimensioni e può assumere solo valori da 0 ad 1.

La lunghezza del periodo di osservazione influenza direttamente l'IC: più è lungo il periodo
di osservazione maggiore sarà la IC.
E' importante in questi casi prendere in considerazione questa variabile.
Anche la mortalità per altre cause può influenzare la IC: alcuni individui deceduti per cause
diverse da quelle studiate avrebbero potuto sviluppare la malattia in studio se non fossero
deceduti.

Quindi:
Il rischio è rappresentato da una proporzione, è adimensionale e indica la probabilità di un
individuo di ammalarsi di una certa malattia in uno specifico lasso di tempo
(condizionatamente al fatto che il soggetto non si perda all’osservazione o non muoia per
qualsiasi altra causa durante lo stesso periodo).

Il rischio individuale non è direttamente conoscibile, ma viene stimato come Incidenza


Cumulativa (IC) della malattia in esame, riferita ad una popolazione che ha le stesse
caratteristiche (età, sesso, ecc.)

Quando il periodo è abbastanza piccolo, come ad esempio la durata di un’epidemia, questo


tipo di incidenza prende il nome di TASSO D’ATTACCO.

15
b) TASSO D'ATTACCO

Solitamente calcolato nel corso di analisi di patologie infettive; è il rapporto tra nuovi casi
di malattia in un tempo t (in genere periodo massimo di incubazione) e la popolazione a
rischio (esposti al contagio).

Si possono distinguere due tipi di tasso d’attacco:


 PRIMARIO quando si contano solo i nuovi casi che si verificano nella
popolazione;
 SECONDARIO quando si contano solo i casi insorti in seguito ai primi.

ATTENZIONE:

Sia l'incidenza cumulativa che il tasso di attacco si riferiscono ad una popolazione


statica (popolazione chiusa = non ci sono nuove entrate né uscite per morte).

Nella proporzione che esprime il rischio, il denominatore è l’insieme degli individui che sono
potenziali casi di malattia, cioè la popolazione esposta al rischio di ammalarsi, all’inizio del
periodo di osservazione (popolazione candidata).

Questo tipo di incidenza misura la probabilità intesa in senso classico come rapporto tra il
numero di eventi (casi di malattia) verificatisi e tutti gli eventi possibili, e la formula generale
è:

N di nuovi casi in uno specifico periodo di tempo


Incidenza Cumulativa nel periodo t 0  t 1 
Popolazion e candidata all' inizio dello studio

La bontà della stima del rischio di ammalarsi è subordinata al fatto che i soggetti non
vengano perduti di vista durante il periodo di osservazione.

Poiché questa misura è una probabilità condizionata al non verificarsi di altri eventi (perdita
all’osservazione), IC è una buona stima dell’incidenza in periodi t1-t0 abbastanza brevi in cui
la popolazione è assimilabile ad una coorte fissa, cioè quando alla fine dello studio, di ogni

16
individuo a rischio appartenente alla popolazione iniziale saremo in grado di dire se è
divenuto un caso oppure no.

Una COORTE si dice FISSA se per tutto il periodo di osservazione si mantiene


costante la numerosità e il tipo di persone che la compongono.

Se, invece, il periodo di osservazione è lungo, è verosimile che si registrino perdite di


soggetti (a causa di emigrazioni, mancanza di collaborazione o, più naturalmente, perché i

soggetti muoiono per cause diverse da quelle in studio) dei quali non potremo mai sapere se
sarebbero diventati casi.

Più lungo è il periodo di osservazione, maggiori sono le perdite di soggetti.


In simili condizioni l’Incidenza Cumulativa, calcolata come sopra, ha un valore molto
limitato e necessita una correzione per la riduzione della popolazione iniziale. Ammettendo
che tutti i soggetti persi allo studio siano stati presenti in media per metà tempo di
osservazione, l’IC diviene:

N  di nuovi casi in uno specifico periodo di tempo


Incidenza Cumulativa   10 k
Persi
(Popolazio ne candidata all' inizio dello studio - )
2

Per le malattie croniche con lungo periodo di latenza come i tumori, l'incidenza cumulativa
può essere calcolata su base anche quinquennale, decennale e ventennale, mentre per le altre
malattie più comuni si preferisce la base annua.
Un altro problema che riguarda l'incidenza cumulativa è dato dal fatto che, qualora si tratti di
malattie comuni ed a rapida guarigione (influenza, raffreddore), uno stesso soggetto potrebbe
ammalare due volte nel periodo di tempo considerato e portare un ipotetico rischio totale ad
un valore superiore ad uno, in che non avrebbe alcun senso logico.
In questo caso particolare, il valore dell'incidenza si riferirebbe al numero di eventi e non al
numero di persone che ammalano rispetto a quelle a rischio.
Salvo precisazione contraria, IN TUTTI GLI STUDI SI CONSIDERA SOLITAMENTE
L'INSORGENZA DEL PRIMO EVENTO.

17
c) DENSITA' DI INCIDENZA

Se la popolazione non solo può perdere soggetti ma anche acquistarne durante il


periodo di studio, allora stimare il rischio individuale può essere inutile.

Infatti che significato ha misurare il rischio delle singole persone quando, se c’è un
ricambio continuo di soggetti, ciascuna di queste rimane esposta al rischio di ammalarsi
per un periodo di tempo diverso?

In questi casi è più appropriata una misura che descriva il cambiamento dello stato di
salute della popolazione, complessivamente considerata (relativamente alla numerosità
della popolazione e al periodo di osservazione).

Questa misura è il tasso di densità d’incidenza (DI).

Il tasso istantaneo è una misura rapportata al periodo di tempo di riferimento e rappresenta


la forza di impatto potenziale della malattia sullo stato di salute della popolazione.

Però, poiché le dimensioni della popolazione cambiano continuamente e noi non sempre
siamo in grado di esprimerle istante per istante come funzione matematica del tempo,
dobbiamo descrivere l’insorgenza dei casi come densità media di incidenza di un
determinato intervallo di tempo (come per la velocità, in cui, non essendo in grado di
misurare lo spazio percorso in un istante, parliamo quasi sempre di velocità media in cui
tutto lo spazio percorso viene rapportato al tempo).

La Densità di Incidenza, quindi, misura la concentrazione di nuovi casi di malattia in


uno spazio le cui dimensioni sono popolazione a rischio e tempo.
Graficamente la densità di incidenza può essere rappresentata come in figura 2, in cui le
dimensioni della popolazione sono poste in grafico in relazione al tempo. L’area sotto la
curva è lo spazio (popolazione-tempo) in cui si osservano i nuovi casi di malattia
(rappresentati dai punti neri). La densità con cui si distribuiscono i punti, nello spazio,
rappresenta la misura di frequenza.

18
Figura 2 - Rappresentazione grafica del concetto di densità di incidenza. I punti
sono i nuovi casi di malattia in una popolazione candidata.

La Densità di Incidenza è anche definita tasso di incidenza e rappresenta la misura basilare


della frequenza di malattia.
La Densità di Incidenza considera il numero di casi che si verificano nel corso del periodo di
osservazione su una popolazione a rischio costituita dalla somma dei tempi di osservazione di
ciascun soggetto fra la sua entrata nello studio e la sua uscita dal gruppo di candidati alla
malattia.

N di nuovi casi durante un definito periodo (t 0 - t1 )


Densità di Incidenza   10k
Somma dei periodi individuali di tempo a rischio di malattia

Il denominatore è dato dalla somma di tutti gli intervalli di tempo  t a rischio individuali per
ognuno degli N soggetti della popolazione.
In termini matematici:

N
Popolazione Tempo   t i
i 1
Se invece la popolazione è sufficientemente stabile tanto da assumere che tutti i soggetti
siano stati esposti al rischio di sviluppare la malattia per l’intero periodo di osservazione
(  t), allora:

19
Popolazione Tempo  N (t )

Figura 2 – Legenda: X = momento di insorgenza della malattia


__ = malattia in corso
-- = senza la malattia

Soggetto n° 10 --------------------------------------------------------------------X____
9 ----------X________________________________
8 ---------------------------------------------------------------
7 -------------------X_________________________________
6 ______________________________
5 --------------------------------------------------
4 ----X_________________________
3 --X__
2 -----------------------------------------------------------------------------
1 -------X_____________________________________________
________________________________________________________________
0 1 2 3 4 5 6 7 8 9 10
momenti di osservazione (ad es. giorni)

Nell’esempio proposto nella Figura 2 (area tratteggiata) la DI viene calcolata dal rapporto tra
i 2 casi verificatisi nell’intervallo 2-4 e il numero di persone osservate e il tempo di
osservazione (ad esempio in giorni).

Per cui il soggetto n°:


1) si è ammalato prima del giorno 2 di osservazione e non viene contato né al numeratore
né al denominatore;
2) non si ammala per niente e non contribuisce al numeratore (casi), ma poiché per tutto il
tempo dell’osservazione è esposto al rischio di ammalarsi contribuisce al denominatore
come 2 giorni-persona;
3) non viene contato perché scompare prima che inizi l’osservazione;
4) si è ammalato prima del giorno 2 e viene escluso come il caso n° 1;
5) non si ammala come il n° 2 e viene trattato come lui;

20
6) come il n° 1 e il n° 4;
7) si ammala il giorno 3 e quindi viene registrato nella nostra osservazione come un caso
(viene incluso nel numeratore); contribuisce al denominatore per tutto il tempo in cui è
stato a rischio di ammalarsi, quindi il giorno-persona, prima di diventare un caso;
8) come il n° 2 e il n° 5;
9) si ammala proprio all’inizio del primo giorno di osservazione per cui viene registrato
come un caso, ma non contribuisce al denominatore perché, rispetto all’osservazione, il
suo tempo “a rischio” è zero;
10) si ammala dopo il giorno 4 per cui viene contato come il n° 2, il n° 5 e il n° 8.

Il conto totale è: 2 casi / 9 giorni-persona = 0.22 casi per ogni giorno-persona.

Questa misura di frequenza (in genere rappresentata in anni-persona) è particolarmente utile


quando l'evento studiato si verifica più volte nella stessa persona (ad es. incidente lavorativo)
o quando il gruppo osservato è un gruppo dinamico con ingressi ed uscite che riducono il
tempo complessivo di partecipazione allo studio.

In pratica con la DENSITA' DI INCIDENZA il numero totale di individui che passano dallo
stato di salute a quello di malattia durante il periodo di osservazione è il risultato di tre
fattori:
1) la dimensione della popolazione
2) la lunghezza del periodo
3) la forza della morbosità che opera in quella popolazione

ATTENZIONE:
LA DENSITÀ DI INCIDENZA SI UTILIZZA IN CASO DI STUDIO SU POPOLAZIONE APERTA

(DINAMICA).

COORTE DINAMICA = popolazione non costante nel periodo di osservazione; di


alcuni soggetti si perdono le tracce, altri si
trasferiscono, altri entrano a far parte dello studio
in un periodo successivo.

21
COORTE STATICA = popolazione senza movimenti interni ad essa in grado di
alterare il denominatore.

La scelta di quale misura di incidenza adottare (stima del rischio o stima del tasso) dipende
dagli scopi che lo studio si prefigge: il rischio è idoneo a predire la malattia nel singolo
individuo e il tasso è più corretto per saggiare ipotesi eziologiche.
In quest’ultimo caso, il tasso è indicato soprattutto quando si studiano malattie con un lungo
periodo di latenza, per cui il periodo di rischio a cui deve essere esposta la popolazione è
molto esteso e il periodo di osservazione per ciascun soggetto nello studio rappresenta solo
una parte del tempo totale in cui l’individuo è a rischio di ammalarsi.
Quando invece il periodo di osservazione copre tutto il periodo di rischio (ad esempio, un
follow-up in un’epidemia) allora le inferenze causali possono essere fatte utilizzando stime
del rischio, anziché del tasso.

Per comprendere meglio la differenza tra tassi e rischi possiamo fare un esempio:

Consideriamo la mortalità in un istituto dove vivono 500 persone; per semplificare


supponiamo che non ci siano nuove ammissioni o dimissioni dall’istituto durante un intero
anno (che la popolazione sia cioè fissa) dal 1° gennaio al 31 dicembre.

Durante questo periodo di tempo, 18 dei soggetti istituzionalizzati muoiono.

Se i decessi sono distribuiti uniformemente durante l’anno, la popolazione media (cioè il


denominatore su cui calcolare il tasso di mortalità) nel periodo considerato sarà 500-18/2,
cioè 491.
Il tasso di mortalità è quindi 18/491, ovvero 3.7 per 100 per anno.
Ma la probabilità di morire è 18/500, ovvero 0.036.

Se vogliamo misurare l’incidenza dell’epatite virale A nella stessa comunità (data la mortalità
sopra descritta) e abbiamo osservato 28 casi durante l’anno, dovremmo togliere i casi, mano a
mano che si verificano, dal denominatore popolazione a rischio, dato che l’epatite virale A
conferisce l’immunità.

22
Assumendo ancora che i casi siano distribuiti in modo uniforme lungo l’anno, il
denominatore del tasso di incidenza è 500-(18+28)/2, cioè 477; il tasso è quindi
28/477, ovvero 5.8 per 100 per anno.
La probabilità di contrarre l’epatite viene invece calcolata usando come denominatore 500-
18/2, cioè 491, per cui è 28/491=0.057.

23
RELAZIONI TRA PREVALENZA, INCIDENZA CUMULATIVA E
DENSITA' DI INCIDENZA

Si è già affermato che la prevalenza dipende dall'incidenza e dalla durata della malattia. Una
tale associazione può essere espressa in modo sintetico come segue:

P/(1 - P) = DI x D in situazione di stabilità

P = DI x D se consideriamo malattie rare (dove P è bassa)

L'incidenza cumulativa dipende dal tasso di incidenza e dalla lunghezza del periodo di rischio
ed è influenzata dalla mortalità per malattie diverse.

CI = DI x t se malattia con bassa I o quando il periodo di rischio è breve

La relazione tra Incidenza, Prevalenza e Durata della malattia può fornire utili indicazioni ai
pianificatori in sanità pubblica per predire le necessità future di strutture e servizi sanitari,
come ad esempio quando l’incidenza di un certo tipo di malformazione congenita come la
spina bifida ed il tempo medio di sopravvivenza dei bambini affetti sono note.

Legenda:
(1-P) = soggetti liberi dalla malattia
CI = Incidenza Cumulativa
DI = Densità di Incidenza
t = periodo di rischio
D = Durata della malattia
P = Prevalenza

24
Un altro tipo di eventi, oggetto di studio in epidemiologia, e la cui frequenza può essere
quantizzata, sono i decessi che possono essere classificati in:

 morti per una specifica malattia;


 morti per altra causa ma con una specifica malattia in corso;
 morti per altra causa in persone non affette dalla malattia in esame.

Queste tre categorie sono gli elementi fondamentali per misurare la mortalità in una
popolazione. Come per l’incidenza anche per la mortalità possiamo stimare il tasso oppure il
rischio.

Il tasso di mortalità dovuto ad una specifica malattia è calcolato come il rapporto tra il
numero di morti per quella causa specifica e il numero di persone esposte al rischio di morire
per la specifica malattia.

Analogamente all’incidenza:

Morti per la malattia


Tasso di Mortalità 
Popolazione Tempo

Il denominatore, però, è diverso da quello usato per il calcolo dell’incidenza perché include
non solo i sani, ma anche coloro che si sono ammalati della malattia in questione (che sono a
rischio di morire), mentre l’incidenza doveva tenere conto solo dei sani.
Il tasso di letalità dovuto ad una malattia è stimato dallo stesso rapporto, ma nel
denominatore la popolazione è costituita dalle persone affette dalla malattia considerata.

Nell’analisi della mortalità per malattie croniche è bene tenere presente che il tasso osservato
per una specifica malattia è influenzato dalla presenza di altre cause di morte che competono
con la malattia a cui siamo interessati.
Pertanto, quando si confronta la mortalità in due gruppi, anche se si prende in considerazione
una causa specifica è necessario tenere conto anche della mortalità totale nei due gruppi.

25
ESERCIZI SULLE MISURE DI FREQUENZA

Esercizio 1: morbosità da infarto del miocardio.

Negli anni ’50 è stato condotto uno studio su 667 conducenti di mezzi di trasporto londinesi
di sesso maschile. I soggetti, selezionati in quanto ad un primo esame non presentavano
alcuna evidenza di infarto né di angina, sono stati seguiti per 5 anni. In questo periodo, nelle
diverse classi di età si sono verificati i seguenti casi di ischemia cardiaca:

Tabella 1 – Casi di ischemia cardiaca per classe di età nei conducenti di mezzi di trasporto
pubblico londinesi. Maschi.

Età Casi di ischemia cardiaca Soggetti esaminati


30 – 39 1 32
40 – 49 6 128
50 – 59 24 300
60 – 64 13 170
65 – 69 3 37
Totale 47 667

Domanda 1. Calcolare l’incidenza cumulativa di ischemia cardiaca per classi di età e


rappresentare graficamente i risultati.
Domanda 2. Calcolare, per il totale dei soggetti, l’incidenza annuale media di ischemia
cardiaca.
Domanda 3. Calcolare il numero di anni-persona di osservazione e la densità di incidenza
per 100 anni-persona di osservazione.

Per studiare l’incidenza di infarto del miocardio viene effettuato il follow-up di un gruppo di
14 soggetti a rischio. I soggetti negativi ad un controllo effettuato il 1° gennaio 1951 vengono
seguiti per quattro anni (1951-1954). Per ogni soggetto vengono fornite le seguenti
informazioni:

26
Soggetto 1: vivo e negativo al 31.12.1954
Soggetto 2: infarto nel maggio 1953, vivo al 31.12.1954
Soggetto 3: infarto nell’agosto 1953, vivo al 31.12.1954
Soggetto 4: infarto nel marzo 1951, deceduto nel maggio 1953
Soggetto 5: perso al follow-up nel marzo 1954
Soggetto 6: infarto nel dicembre 1952, vivo al 31.12.1954
Soggetto 7: deceduto nell’aprile 1954
Soggetto 8: vivo e negativo al 31.12.1954
Soggetto 9: infarto nel marzo 1951, nuovo infarto nel marzo 1953, vivo al 31.12.1954
Soggetto 10: infarto nel luglio 1951, perso al follow-up nell’agosto 1952
Soggetto 11: infarto nel marzo 1953, vivo al 31.12.1954
Soggetto 12: infarto nell’aprile 1954, vivo al 31.12.1954
Soggetto 1: perso al follow-up nel gennaio 1953
Soggetto 14: infarto nell’aprile 1954, vivo al 31.12.1954

Domanda 4. Completare lo schema di follow-up della figura 1.

Domanda 5. Sulla base dello schema di follow-up della domanda 4 calcolare:


a. Il tasso di incidenza (densità di incidenza) di primo infarto nel 1953.
b. La prevalenza di soggetti con pregresso infarto al 31.12.1952.
c. L’incidenza media mensile (densità di incidenza) di primo infarto.

27
SOLUZIONE:

Domanda 1:

Età Casi di ischemia cardiaca Soggetti esaminati Incidenza


30 – 39 1 32 1/32*100
40 – 49 6 128 6/128*100
50 – 59 24 300 24/300*100
60 – 64 13 170 13/170*100
65 – 69 3 37 3/37*100
Totale 47 667
Incidenza/100 soggetti

9,0
8,0 7,6 8,1
8,0
7,0
6,0
5,0 4,7
4,0 3,1
3,0
2,0
1,0
0,0
30 – 39 40 – 49 50 – 59 60 – 64 65 – 69
Classi di età

Domanda 2:
L’incidenza annuale media di ischemia cardiaca = (47/667)/5 = 1,41/100 soggetti
(47/677 è l’Incidenza totale; occorre dividere per il n° di anni, cioè 5).
Domanda 3:
L’incidenza annuale media di ischemia cardiaca = (47/667)/5 = 1,41/100 soggetti

28
Età Anni-persona* Incidenza
di osservazione /100 anni-persona
30 – 39 157,5 0,63**
(31x5)+(1x2,5) (1/157,5*100)
40 – 49 625 0,96**
(128x5)+(6x2,5) (6/625*100)
50 – 59 1440 1,67
(276x5)+(24x2,5) (24/1440*100)
60 – 64 817,5 1,59
(157x5)+(13x2,5) (13/817,5*100)
65 – 69 177,5 1,69**
(34x5)+(3x2,5) (3/177,5*100)
Totale 3217,5 1,46
(620x5)+(47x2,5) (47/3217,5*100)

* Per i casi si assume che, in media, l’infarto del miocardio si sia verificato a metà periodo:
ogni caso contribuirà, quindi, con 2,5 anni-persona di osservazione.
Ad esempio, nella fascia di età 30-39 anni abbiamo 31 soggetti che contribuiranno per 5 anni
di osservazione e uno per 2,5 anni. Avremo, quindi, per quella fascia di età un totale di
(31x5)+2,5=157,5 anni-persona di osservazione, e via di seguito.
** Tassi calcolati su pochi soggetti

Domanda 4:
vedi figura

Domanda 5:

a. Nel calcolo dei mesi-persona di osservazione nell’anno 1953, necessari per calcolare il
tasso di incidenza di primo infarto, non vanno considerati i soggetti 4, 6 e 9 che, avendo
già avuto un infarto, non sono più a rischio di “primo infarto”. Per calcolare il contributo
in mesi-persona dei soggetti che hanno avuto il primo infarto nel 1953, si assume che
l’infarto si sia verificato in media a metà del mese.

29
Di conseguenza, il contributo dei 14 soggetti sarà:
12 + 4,5 + 7,5 + 0 + 12 + 0 + 12 + 12 + 0 + 0 + 2,5 + 12 + 0,5 + 12 =87
e il tasso di incidenza di primo infarto nel 1953 = 3/87 = 3,45/100 mesi-persona.

b. Prevalenza di soggetti con pregresso infarto al 31.12.1952 = 3/13 = 0,231 = 23,1/100


soggetti.

c. Per il calcolo dei mesi-persona di osservazione contribuiranno tutti i 14 soggetti fino al


mese in cui si è verificato il 1° infarto. Come al punto 5a, si assume che l’infarto si sia
verificato a metà mese.
Incidenza media mensile di primo infarto:
9/(48+28,5+31,5+2,5+38,5+23,5+39,5+48+2,5+6,5+26,5+39,5+24,5+39,5) = 9/399 =
2,26/100 mesi-persona.

30
Esercizio 2.

Una coorte dinamica di 10 persone viene seguita per un periodo di quattro anni (dall'inizio
1980 all'inizio del 1984). Per 10 pazienti sono riportati data d'entrata in studio, data di uscita
e tipo di esito (malato - sano):

Tabella 1 – Casi di ischemia cardiaca per classe di età nei conducenti di mezzi di trasporto
pubblico londinesi. Maschi.

N Entrata Uscita Esito

1 1980 1984 Sano


2 1980 1983 Malato
3 1980 1981 Sano
4 1980 1982 Sano
5 1980 1981 Malato
6 1981 1983 Malato
7 1981 1984 Sano
8 1982 1983 Sano
9 1982 1984 Sano
10 1983 1984 Malato

Dopo aver costruito lo schema riassuntivo, calcolare:


a) Per i pazienti 1-5 l'incidenza cumulativa nei periodi 1980-1982 e 1980-1984;
b) Il numero totale di anni di osservazione;
c) Il tasso di incidenza persona/anno.

31
Esercizio 3.

Una coorte dinamica di 20 soggetti, reclutata tra il gennaio 1961 e il gennaio 1965, viene
seguita fino al dicembre 1980 (20 anni globali di follow-up) al fine di valutare se gli esposti a
un fattore di rischio hanno un'incidenza di tumore del polmone maggiore rispetto al gruppo di
controllo. I dati riguardanti entrate, uscite, perdite al follow-up, malati sono illustrati nella
tabella seguente:

N Exp Entrata Uscita Esito

1 Exp + Gen. 1961 Dic. 1980 Sano


2 Exp + Gen. 1961 Dic. 1965 Malato
3 Exp - Gen. 1961 Dic. 1980 Sano
4 Exp - Gen. 1961 Dic. 1974 Malato
5 Exp - Gen. 1961 Dic. 1980 Sano
6 Exp + Mar. 1961 Ago. 1979 Malato
7 Exp - Mar. 1961 Dic. 1966 Perso al follow-up
8 Exp - Mar. 1961 Dic. 1980 Sano
9 Exp + Mar. 1961 Mag. 1975 Malato
10 Exp + Mar. 1961 Dic. 1980 Sano
11 Exp + Gen. 1963 Dic. 1980 Sano
12 Exp + Gen. 1963 Dic. 1980 Sano
13 Exp - Gen. 1963 Dic. 1980 Sano
14 Exp - Set. 1964 Dic. 1974 Malato
15 Exp - Set. 1964 Mar. 1973 Perso al follow-up
16 Exp + Set. 1964 Ago. 1970 Malato
17 Exp - Set. 1964 Dic. 1979 Perso al follow-up
18 Exp + Nov. 1964 Dic. 1980 Sano
19 Exp + Nov. 1964 Mag. 1978 Malato
20 Exp - Nov. 1964 Dic. 1980 Sano

32
a) Calcolare l'incidenza persona/tempo della coorte dei 20 soggetti, prendendo il mese
unità di tempo (per semplicità il mese in cui avviene la morte o la perdita al follow-up
viene considerato per intero nel denominatore);

b) Calcolare l'incidenza persona-tempo sia per il gruppo di esposti che per i non esposti.

33
ALTRE IMPORTANTI MISURE EPIDEMIOLOGICHE

Oltre all'INCIDENZA e alla PREVALENZA, che costituiscono le misure più usate in


epidemiologia, una serie di altri tassi rivestono grande importanza, specie in relazione al
loro ruolo di indici di salute di popolazione.

Di seguito vengono riportati i tassi più importanti:

1) TASSO DI MORTALITA'
N° di morti in un anno

Popolazione residente

2) TASSO DI NATALITA'
N° di nati vivi in un anno

Popolazione residente

3) TASSO DI MORTALITA' INFANTILE


N° annuale di morti in bambini con età < 1 anno

N° nati vivi in un anno

4) TASSO DI MORTALITA' NEONATALE


N° annuale di morti nei primi 28 giorni di vita

N° nati vivi nello stesso anno

5) TASSO DI MORTALITA' POST-NEONATALE


N° annuale di morti tra il 29° giorno ed un anno di vita

N° nati vivi nello stesso anno

6) TASSO DI MORTALITA' PERINATALE


N° annuale di nati morti (> 28 settimane) + morti nella 1° settimana di vita

N° nati nello stesso anno (vivi + morti)

34
7) TASSO DI NATIMORTALITA'
N° annuale di nati morti (> 28 settimane)

N° nati nello stesso anno (vivi + morti)

8) TASSO DI LETALITA'
N° di pazienti morti dopo diagnosi di una determinata malattia

N° di casi diagnosticati della stessa malattia

9) TASSO DI SOPRAVVIVENZA (a 5 anni)


N° di pazienti ancora vivi dopo 5 anni dalla diagnosi di una certa malattia

N° di casi diagnosticati della stessa malattia

35
LE MISURE DI ASSOCIAZIONE
(misure epidemiologiche di rischio)

Uno dei principali scopi dell’epidemiologia è quello di indagare sui possibili fattori che
provocano o, più spesso, facilitano l’instaurarsi di una malattia.

Abbiamo già visto nelle prime lezioni come l’insorgenza delle malattie cronico-degenerative
possa essere favorita da uno o più fattori di rischio, che sono pertanto associati ad esse.

Vedremo ora il concetto di associazione statistica che viene spesso evidenziata misurando il
RISCHIO RELATIVO.

ASSOCIAZIONE Grado di dipendenza


in epidemiologia statistica tra due o più
eventi variabili

Questi eventi variabili sono quindi associati quando si verificano insieme più frequentemente
di quanto ci si possa attendere per effetto del caso.

Se una popolazione può essere divisa in due gruppi secondo qualche classificazione o fattore,
e in ciascuno di essi viene calcolato il rischio (incidenza, mortalità o qualsiasi altro) di una
malattia, allora la malattia si dice associata al fattore se i rischi per i gruppi differiscono.

Esempio 1
Il cancro del polmone (incidenza o mortalità) è associato con il fattore fumo di sigaretta in
quanto i tassi di cancro del polmone differiscono tra differenti categorie di fumatori nella
popolazione. Da notare che l’associazione rappresenta una descrizione della relazione tra
malattia e fattore molto più debole di quanto sia la relazione di causa-effetto. Se è possibile
mostrare che il rischio varia sistematicamente con il livello del fattore, si dice che esiste una
relazione dose-risposta tra il fattore e la malattia. La presenza di una relazione dose-risposta

36
costituisce un aspetto molto importante perché si possa passare dalla semplice associazione a
una relazione di causa-effetto.

Esempio 2
Il cancro del polmone (incidenza o mortalità) è più frequente tra gli uomini che tra le donne.
Così il sesso e il cancro del polmone sono associati. Questa associazione, tuttavia, non è di
tipo causale – gli uomini non necessariamente hanno una maggiore predisposizione biologica
al cancro del polmone di quanto non sia per le donne, né esiste una relazione dose-risposta. In
realtà, l’associazione tra sesso e cancro del polmone è ampiamente spiegata dalle differenze
nel consumo di sigarette ( FATTORE DI CONFONDIMENTO).

ASSOCIAZIONE non implica dunque un rapporto di causalità, cioè che vi sia una
relazione causale (rapporto causa-effetto), cioè che uno degli eventi induca o, quanto
meno, favorisca l’insorgenza dell’altro.

ESISTONO in effetti tre tipi di associazione:

 ASSOCIAZIONE SECONDARIA o INDIRETTA: due eventi o più sono tra loro in


relazione tra loro in quanto esiste un FATTORE CAUSALE COMUNE.

Esempio:
L’associazione tra bronchite cronica e tumore del polmone può essere considerata tra le
associazioni indirette o secondarie. Vi è, in questo caso, un fattore di rischio comune (quasi
sempre il fumo di tabacco ma può essere anche un inquinante ambientale) che può
determinare l’insorgenza di entrambi gli effetti.

La dimostrazione che un’associazione tra due fattori è secondaria richiede lo svolgimento di


studi epidemiologici che valutino, su base individuale, la presenza o meno delle diverse
condizioni in studio e la sequenza temporale di comparsa.

 NON CAUSALE o SPURIA o ARTIFICIALE: è determinata da una circostanza


esterna (FATTORE DI CONFONDIMENTO) o da qualche distorsione (BIAS) della
metodologia adottata.

37
Questi fattori, intervenendo durante lo svolgimento di uno studio, sono in grado di
evidenziare associazioni del tutto artificiali tra supposti fattori di rischio e malattie.

Esempio:
Un esempio di associazione non causale, determinata da una circostanza esterna, è quella tra
consumo di caffè e rischio di infarto al miocardio. In realtà tra i bevitori di caffè è alta la
percentuale di fumatori (i due fattori sono quindi associati). E’ altresì noto che il fumo è un
fattore di rischio per l’infarto al miocardio, il che porta ad avere un’associazione
statisticamente significativa tra bevitori di caffè e infartuati; in questo caso il fumo di
sigaretta ha agito da fattore di confondimento.

ESPOSIZIONE MALATTIA
(caffè) (infarto)

FATTORE DI CONFONDIMENTO
(fumo)

 CAUSALE DIRETTA: si ha quando una ben definita esposizione (ad esempio un


fattore nocivo ambientale) provoca o aumenta il rischio di un determinato effetto
(malattia, morte o altra condizione).

I fattori causali (o cause) possono essere necessari, sufficienti, possedere entrambi questi attributi o
nessuno di essi.

I fattori causali (o cause) sono definiti:

A. NECESSARI: quando un certo effetto deve essere sempre preceduto da una


particolare causa (es. malattie infettive).
L’effetto può tuttavia anche non essere il solo prodotto di quella causa (es.: la triade di
Gregg è una malformazione congenita che deve essere necessariamente preceduta da una

38
infezione materna con virus della rosolia, ma questo agente infettivo può provocare
durante la gravidanza anche altri effetti come aborto, malformazioni cardiache varie,
ecc.). Si comprende facilmente come quasi tutte le patologie infettive abbiano una causa
necessaria, cioè una conditio sine qua non.

B. SUFFICIENTI: quando producono inevitabilmente uno specifico effetto.


Quest’ultimo effetto può, tuttavia, essere causato anche da altri fattori.
In medicina non è facile trovare esempi di cause sufficienti; uno potrebbe essere la Chorea di
Huntington, malattia neurodegenerativa autosomica dominante a penetranza completa; in
presenza della mutazione genetica (il gene responsabile è localizzato sul cromosoma 4), i
soggetti svilupperanno inevitabilmente la malattia.

C. né NECESSARI né SUFFICIENTI: tipicamente nel caso di fattori di rischio in caso


di malattie cronico-degenerative (subentra il concetto di aumento della probabilità
di sviluppare una malattia).

I fattori causali delle malattie croniche, o condizioni che ne facilitano l’instaurarsi, sono
normalmente definiti fattori di rischio e si dividono in:

a) FATTORI PREDISPONENTI, che creano le condizioni o aumentano la suscettibilità


dell’individuo ai fini dell’instaurarsi di una patologia. Sono inclusi in questo gruppo
fattori genetici, razziali ma anche altre condizioni come la depressione del sistema
immunitario che predispone all’instaurarsi di numerose patologie infettive e
tumorali.

b) FATTORI PRECIPITANTI, che facilitano il definitivo instaurarsi di una malattia in un


individuo già suscettibile. Comprendono lesioni traumatiche, malattie intercorrenti
e altre situazioni di debilitazione come la gravidanza, condizione che facilita il
passaggio alla fase clinica di malattie già presenti in fase asintomatica.

c) FATTORI RINFORZANTI, che tendono a perpetuare o aggravare la presenza di una


malattia o condizione morbosa come l’esposizione protratta agli stessi agenti
patogeni.

39
I CRITERI DI CAUSALITA' (secondo Hill - 1971)

Il processo per definire se un’associazione è causale, ossia se vi sia o meno un rapporto


causa-effetto, deve passare attraverso procedimenti in parte supportati dalla statistica
in parte dalla logica della situazione.
Pur non essendo possibile fornire elementi di giudizio inconfutabili, nel processo di
analisi di una possibile associazione causale diretta possono essere considerati una serie
di criteri che sono illustrati nella Tabella seguente:

Linee guida per la determinazione di un’associazione causale tra fattore di rischio e


malattia
Relazione temporale L’esposizione al presunto fattore di rischio precede sempre
temporalmente l’insorgenza della malattia?
Plausibilità biologica Vi è un meccanismo d’azione conosciuto o plausibile (anche a
livello sperimentale) che possa spiegare la relazione tra fattore
di rischio e malattia?
Forza o grado Vi è una associazione statistica tra fattore di rischio e malattia
(valore del RR o dell’OR significativamente superiore ad 1)?
Consistenza Vari studi, di diverso tipo e in diverse realtà, hanno portato a
conclusioni simili?
Relazione dose-risposta All’aumentare dell’esposizione al fattore di rischio si riscontra
un aumento dell’incidenza della malattia?
Assenza di fattori di È stato analizzato il ruolo di tutti i fattori di rischio noti che
confondimento hanno rilevanza nello sviluppo della malattia in studio?

I fattori illustrati possono essere riscontrati o meno in un’associazione e, qualora presenti,


possono non dare risposte inequivocabili.
L’unico elemento fondamentale per poter parlare di associazione causale diretta è la presenza
di una sequenza temporale, ossia il presunto fattore di rischio deve sempre precedere
temporalmente l’insorgenza della malattia, ovvero la causa deve sempre precedere
temporalmente l’effetto.

40
Capita infatti frequentemente che le associazioni indichino non già la presenza di un fattore
di rischio ma di un fattore conseguente all’insorgenza della malattia (come potrebbe essere il
caso delle infezioni da microorganismi opportunisti che colpiscono più frequentemente i
malati di tumore, ma non per questo sono un fattore di rischio).

Il famoso statistico inglese Hill aveva previsto i seguenti criteri riguardanti le associazioni
causali:

1) FORZA o GRADO DELL'ASSOCIAZIONE: è rappresentata da una misura di


associazione (Rischio Relativo, Odds Ratio, Rischio Attribuibile). Può essere riportata ad
una maggiore incidenza della malattia in studio nel gruppo degli esposti rispetto a quello
dei non esposti: maggiore è il suo valore, maggiore è la probabilità che vi sia un rapporto
causa – effetto.

2) CONSISTENZA: è la presenza del supposto rapporto di associazione in diverse


condizioni, ad esempio diversi tipi di studi epidemiologici effettuati in differenti realtà
geografiche. L'associazione è stata osservata ripetutamente da diverse persone, in luoghi,
circostanze, momenti diversi.

3) SPECIFICITA' D’AZIONE: previsione di un unico effetto, cioè quel fattore di rischio


dà una sola o poche patologie. Tale caratteristica si ritrova presente nelle malattie
infettive, dove generalmente gli agenti etiologici manifestano gli effetti su un organo
bersaglio ma quasi mai nelle malattie cronico-degenerative ove un singolo fattore di
rischio (es. fumo) può provocare svariati effetti (tumori, bronchiti, malattie
cardiovascolari).

4) RELAZIONE TEMPORALE: la causa deve precedere l'effetto (UNICO CRITERIO


conditio sine qua non)

5) RELAZIONE DOSE-RISPOSTA: è strettamente correlata alla forza dell’associazione e


prevede un aumento dell’effetto all’aumentare dell’esposizione. A volte, tuttavia, questo
aspetto non è valutabile in quanto il fattore di rischio si presenta sotto forma di variabile

41
qualitativa dicotomica (presente o assente, come ad esempio la razza, il sesso, la
familiarità).

6) PLAUSIBILITA' BIOLOGICA: è la possibilità logica, secondo le conoscenze in


possesso (derivate anche da studi sperimentali), che l'esposizione possa causare la
malattia. Tuttavia alcuni meccanismi biologici non sono del tutto conosciuti così che
questo punto non deve essere considerato un elemento fondamentale nel processo di
definizione di un’associazione causale.
Ad esempio, alla prima osservazione epidemiologica si ritenne non plausibile il fatto che
il fumo di sigaretta (inalato attraverso le vie aeree) potesse aumentare il rischio del
tumore dell’utero, fatto invece confermato da successive più accurate osservazioni sulla
diffusione a livello ematico di alcuni componenti del tabacco.

7) COERENZA: con la storia naturale e la biologia della malattia.

8) REVERSIBILITA’: qualora si effettuino interventi volti alla rimozione di un fattore


causale ci si dovrebbe attendere, dopo un necessario periodo di latenza, una riduzione
dell'incidenza della malattia. Questo criterio molto importante è una sorta di evidenza
sperimentale e può essere vagliato con l’esecuzione di studi preventivi basati sulla
rimozione di uno o più fattori di rischio.

Nella tabella seguente viene dimostrato che l’incidenza persona/tempo dell’ictus cerebrale è

ridotta in coloro che hanno smesso di fumare, ma continua ad essere superiore rispetto alla

popolazione dei non fumatori.

N° casi di ictus Persone / anno di I(p/t) ictus (per RR

(in 8 anni) associazione 100.000)

Non fumatori 70 395.594 17,7 1,00

Ex fumatori 65 232.712 27,9 1,58

Fumatori 139 280.141 49,6 2,80

42
9) ANALOGIA: il fenomeno è analogo ad altri simili (ad esempio se un farmaco può
causare difetti alla nascita forse anche altri lo possono)

In realtà un ulteriore requisito che una supposta associazione causale deve possedere è
l’ASSENZA DI FATTORI DI CONFONDIMENTO noti, ossia che non vi siano fattori di
rischio della malattia associati anche alla esposizione in studio.

Alcuni criteri sono da prendere con cautela: possono essere non corretti (specificità) o
occasionalmente irrilevanti (evidenza sperimentale e forse analogia). Lo stesso HILL
sosteneva che: "…. nessuno dei nove punti può essere considerato una conditio sine qua
non…"

Oggi emergono nuovi modelli di causalità definiti MULTIFATTORIALI (Rothman:


concezione causale riferita a complessi di fattori causali o reti di causazione; Evans: ogni
esposizione al rischio non è più considerata in grado da sola e sempre di indurre patologia e
non tutti i casi sono considerati sempre e comunque attribuibili ad un identico tipo di
esposizione)

ESEMPIO:
L’associazione tra fumo di tabacco e tumore del polmone è uno degli esempi più
didattici per comprendere il processo di definizione di un’associazione causale diretta,
ossia di un rapporto causa-effetto. Infatti soddisfa sufficientemente quasi tutti i requisiti
indicati precedentemente: vi è un rapporto temporale (più anni di abitudine al fumo di
sigaretta sono necessari per lo sviluppo del tumore), un rapporto dose-risposta (più alto
è il consumo giornaliero di sigarette, maggiore è la frequenza con cui si sviluppa il
tumore), l’elevata forza o grado dell’associazione è testimonianza del fatto che il tumore
è nettamente più frequente negli esposti rispetto ai non esposti così come la consistenza
dell’associazione (diversi studi in diverse parti del mondo condotti sotto condizioni
differenti, sono giunti a conclusioni simili). Anche la plausibilità biologica trova
giustificazione nel fatto che alcuni componenti chimici del fumo di sigaretta
raggiungono i polmoni e possono quindi alterarne le caratteristiche istologiche.

43
MISURE PER CONFRONTARE
LE FREQUENZE DI MALATTIA

La fase cruciale di uno studio epidemiologico riguarda generalmente l’analisi della possibile
associazione tra supposto fattore di rischio e malattia.

Differentemente dagli studi che misurano semplicemente la frequenza di malattia in un


singolo gruppo, gli studi di associazione tra esposizione e malattia confrontano la frequenza
di malattia tra individui con differenti livelli di esposizione.

Quando si devono confrontare due qualunque quantità numeriche, si deve decidere come
effettuare il confronto.

In generale esistono due modalità di confronto:


 RAPPORTO TRA TASSI  RISCHIO RELATIVO
 DIFFERENZA TRA TASSI  RISCHIO ATTRIBUIBILE

La scelta del metodo di confronto dipende dal problema che si deve risolvere.

La misura di associazione scelta, rischio relativo o rischio attribuibile, viene spesso chiamata
effetto del fattore sulla malattia.

Consideriamo un caso semplice, in cui due gruppi di soggetti, inizialmente sani, vengono
seguiti per un determinato periodo di tempo. Un gruppo risulta esposto ad un fattore di
rischio sospetto, l’altro no. Si avranno quindi, al termine del periodo di follow-up, quattro
categorie di soggetti: malati esposti al fattore di rischio considerato, malati non esposti, non
malati esposti e non malati non esposti, secondo lo schema mostrato nella seguente tabella a
doppia entrata:

Malato (M+) Non malato (M-) Totale


Esposto (Exp+) a b a+b
Non esposto (Exp-) c d c+d

44
Focalizzando l’attenzione sul fattore di rischio, il più semplice dato ricavabile è l’incidenza
cumulativa della malattia tra gli esposti al fattore, ossia la proporzione di soggetti che durante
il periodo di osservazione sviluppa la malattia a/(a+b).
L’incidenza negli esposti viene anche definita RISCHIO ASSOLUTO.

Questa misura non fornisce tuttavia alcuna informazione su quanto quel fattore di rischio
influisca realmente sullo sviluppo della malattia, poiché l’incidenza potrebbe essere uguale
anche in coloro che non risultano esposti; per ottenere questa informazione deve essere
considerata anche l’incidenza nei non esposti c/(c+d).

ESEMPIO:
Supponiamo che ad un epidemiologo sia chiesto di investigare sul possibile rischio legato a un non adeguato sistema di filtraggio
dell’aria in una grande scuola costruita in un quartiere urbano povero.
Il particolare studio coinvolge i bambini con asma, 400 dei quali frequentavano la scuola (Scuola A).
L’epidemiologo viene informato che in un giorno particolare, 12 bambini soffrirono di un attacco di asma, mentre in una scuola
vicina molto simile (Scuola B) con 500 bambini asmatici, solo 5 soffrirono di un attacco asmatico nello stesso giorno.
L’epidemiologo costruì una tabella 2x2:

ATTACCO D’ASMA Scuola A Scuola B Totale


Sì 12 5 17
No 388 495 883
Totale 400 500 900

Il primo passo è calcolare l’incidenza in ogni scuola:


Scuola A: 12 casi / 400 bambini a rischio = 0.03 = 3%
Scuola B 5 casi / 500 bambini a rischio = 0.01 = 1%

La scuola A ha, in effetti, un’incidenza più alta di attacchi di asma nel giorno in studio.
Per valutare la forza dell’associazione tra scuola e incidenza dell’asma, il passo successivo è calcolare una misura della forza
dell’associazione.
La misura più comune calcolabile in questa situazione è il rapporto delle due incidenze cumulative.
Il rapporto tra incidenza negli esposti e incidenza nei non esposti allo stesso fattore di rischio
è definito RISCHIO RELATIVO (RR) e rappresenta l’eccedenza di rischio degli esposti
rispetto ai non esposti:

45
I E a/(a  b)
RR  
I E c/(c  d)

Il Rischio Relativo costituisce una misura della forza dell’associazione tra fattore di rischio e
malattia e dovrebbe risultare pari a 1 (o un valore molto vicino, considerando la fluttuazione
dovuta al caso) se il fattore non ha influenza nello sviluppo della malattia.
Esso risulta, invece, tanto più elevato quanto più l’esposizione è associata alla malattia. Se il
RR ha un valore inferiore a 1, il fattore considerato esplica un’azione protettiva nei confronti
dell’insorgenza della malattia.

Il rischio relativo è un termine generico che può riferirsi, a seconda del tipo di studio, al
rapporto tra due incidenze cumulative (Risk Ratio), tra due incidenze persona-tempo (Rate
Ratio) o due tassi di mortalità.

0,03
Nel nostro esempio: RR   3,0 Associazione moderatamente forte.
0,01

Un’altra misura epidemiologica utilizzata frequentemente è il RISCHIO ATTRIBUIBILE


INDIVIDUALE (RA):

RISCHIO ATTRIBUIBILE (PER GLI ESPOSTI)  Quantità di rischio supplementare (rispetto


all’incidenza dei non esposti) attribuibile al fattore di rischio considerato,
ossia la quota di malati tra gli esposti che eviterebbero la malattia se fosse
completamente rimosso il fattore di rischio. Esso è dato dalla differenza
tra incidenza negli esposti ed incidenza nei non esposti:

RA  I E   I E 

Il Rischio Attribuibile è una utile misura delle dimensioni di un problema di sanità pubblica
causato da quella esposizione.

46
Il Rischio Attribuibile può essere calcolato rispetto al gruppo degli esposti o alla popolazione
totale, e può essere espresso come differenza assoluta oppure come percentuale.

Talvolta si preferisce utilizzare il RISCHIO ATTRIBUIBILE NEGLI ESPOSTI (RAE)


(detto anche attributable proportion, nella terminologia anglosassone) che rappresenta:

RISCHIO ATTRIBUIBILE NEGLI ESPOSTI  Proporzione di malattia in una popolazione


esposta che può essere evitata rimuovendo il fattore di rischio. È dato dalla
differenza tra incidenza negli esposti e incidenza nei non esposti diviso
l’incidenza negli esposti:

IE  IE
RAE 
IE

Quando si ritiene che una esposizione sia la causa di una data malattia, la frazione attribuibile
corrisponde a quella proporzione di malattia, nella specifica popolazione, che verrebbe
eliminata in assenza di esposizione.

47
Esempio 1:

In uno studio negli Stati Uniti, il tasso di incidenza di ictus fu misurato in 118.539 donne che
erano tra 30-35 anni di età e libere da coronaropatie, ictus e cancro nel 1976. Fu indicato un
totale di 274 casi di ictus negli 8 anni di follow-up (908.447 anni-persona). Il tasso globale di
incidenza di ictus fu di 30,2 per 100.000 anni-persona di osservazione; il tasso fu più alto per
le fumatrici che per le non fumatrici, mentre per le ex-fumatrici fu intermedio:

Categoria di N° casi di Anni-persona di Tasso di incidenza di ictus (per


fumo ictus osservazione (in 8 anni) 100.000 anni-persona)
Mai fumato 70 395.594 17,7
Ex-fumatrici 65 232.712 27,9
Fumatrici 139 280.141 49,6
Totale 274 908.447 30,2

RA  49,6 - 17,7  31,9  100.000 anni - persona

49,6 - 17,7
RAE   100  64%
49 , 6
Quando si ritiene che una esposizione sia la causa di una data malattia, la frazione attribuibile
corrisponde a quella proporzione di malattia, nella specifica popolazione, che verrebbe
eliminata in assenza di esposizione.
Nell’esempio visto, ci si aspetterebbe di raggiungere una riduzione del 64% nel rischio di
ictus tra le donne fumatrici se queste smettessero di fumare, nell’ipotesi che il fumo sia un
fattore causale e prevenibile.

48
Esempio 2:

I due esempi (A e B) riportati nelle tabelle 2x2 seguenti, riguardano due ipotetici studi
di coorte in cui si è valutato il ruolo dell’esposizione ad un inquinante chimico in
relazione all’incidenza cumulativa di due malattie.

Es. A M+ M- Totale Es. B M+ M- Totale

Exp + 5 495 500 Exp + 100 300 400

Exp - 1 499 500 Exp - 30 570 600

Totale 6 994 1000 Totale 130 870 1000

5/ 500 0,01 100/ 400 0,25


RR  5 RR   5
1/ 500 0,002 30/ 600 0,05

RA=0,01–0,002=0,008=0,8% RA=0,25-0,05=0,20=20%

Si può notare come, a parità di RR, un RA più alto indica che una percentuale più alta di

esposti si ammala a causa del fattore di rischio (4 su 500 nell’esempio A pari allo 0,8% e 80
su 400 nell’esempio B pari al 20%).
Questi casi non si sarebbero quindi verificati se fosse stato rimosso il fattore di rischio.
Pertanto, a parità di RR, il RA è tanto più alto quanto maggiore è l’incidenza della malattia.

Dividendo il RA ottenuto per l’incidenza negli esposti si ottiene la percentuale di casi


attribuibili al fattore o rischio attribuibile negli esposti (RAE). Esso rappresenta la
percentuale di casi di malattia teoricamente prevenibile nella popolazione degli esposti dopo
rimozione del fattore di rischio considerato.

49
0,008 0,20
RAEA   80% RAEB   80%
0,01 0,25

La misura è direttamente equivalente al rischio relativo; infatti nell’esempio specifico i due


risultati sono uguali.

La FRAZIONE ATTRIBUIBILE è un utile strumento per valutare le priorità per un’azione


di sanità pubblica.

Dall’esempio si evince come il Rischio Relativo rappresenti una misura della forza

dell’associazione tra fattore di rischio e malattia, utile per valutare se vi sia un’associazione

causa-effetto, mentre il Rischio Attribuibile è una misura di impatto di un fattore di rischio

nella popolazione.

Il Rischio Relativo e il Rischio Attribuibile si riferiscono tuttavia ad una teorica popolazione

nella quale tutti risultano esposti; per valutare il reale impatto di un fattore di rischio sulla

popolazione nel suo complesso bisogna ricorrere invece alle misure di impatto sulla

popolazione che tengono conto della prevalenza dell’esposizione nella popolazione

considerata.

50
MISURE DI IMPATTO SULLA POPOLAZIONE

RISCHIO ATTRIBUIBILE DI POPOLAZIONE (RAP)  Proporzione di casi rispetto all’intera


popolazione che non si ammalerebbe se venisse rimosso il fattore di rischio
considerato.
È dato dal prodotto di RA e prevalenza del fattore di rischio nella
popolazione (P); può essere espresso anche come differenza tra incidenza
nella popolazione (ITOT) e incidenza nella popolazione non a rischio (IE-):

RAP  RA  P  I tot - I Exp -


Nell’esempio di prima, le donne al momento fumatrici erano il 51% (139/274); in tal modo il
rischio attribuibile di popolazione di ictus associato al fumo risulta:

RAP  (49,6 - 17,7)  0,51  16,3

In tal modo il tasso annuale di eccesso di incidenza di ictus evitabile in questa popolazione è
di 16,3 per 100.000 anni/persona.

LA FRAZIONE EZIOLOGICA O FRAZIONE DI RISCHIO ATTRIBUIBILE DI POPOLAZIONE (FE)


 Proporzione totale di malati nella popolazione dovuta al fattore di
rischio.
È data dal rapporto tra RAP e incidenza totale nella popolazione (ITot).
Esso misura la proporzione di malattia, nel totale di una popolazione allo
studio, che viene attribuita a una certa esposizione e che potrebbe venire
rimossa se l’esposizione venisse completamente evitata.

RAP RA  P I Tot  I EXP -


FE   100  
I TOT I Tot I Tot

51
Nell’esempio di prima, risulta:

16,3/100000
FE   10%  54%
30,2/100000

Questo significa che circa il 54% di tutti i casi di ictus nella popolazione potrebbe essere
prevenuto se cessasse completamente il fumo.

Consideriamo i due esempi A e B utilizzati prima per il RR e il RA.


Volendo valutare l’opportunità di rimuovere un fattore di rischio la cui diffusione
(prevalenza) in una popolazione sia del 20% (P=0,20), occorre applicare la formula per il
calcolo del RAP esposta precedentemente; si ottengono, pertanto, per i due esempi A e B i
seguenti valori:

RAPA= 0,008x0,20 =0,0016= 0,16% RAPB= 0,20x0,20 =0,04= 4%

Rimuovendo il fattore di rischio nella popolazione A l’incidenza della malattia si riduce dello
0,16% mentre nella popolazione B tale riduzione è più consistente (4%). Per calcolare la FE
(proporzione totale tra i malati nella popolazione dovuti al fattore di rischio) occorre
considerare l’incidenza totale della malattia nell’intera popolazione ITot ; essa dipende dalla
incidenza negli esposti e nei non esposti e dalla prevalenza del fattore di rischio nella
popolazione (P, che nell’esempio è 0,2 ovvero il 20%).

ITot= (IEXP+ x 0,20) + (IEXP- x 0,80) =0,0016= 0,16%

0,0016 0,04
FE A   0,444  44,4% FE B   0,444  44,4%
0,0036 0,09

52
Riassumendo:

Una volta identificata un’associazione tra una malattia e un fattore sospetto, attraverso
il rischio relativo, deve essere subito provato che l’associazione stessa sia dovuta a
fattori causali e non sia invece un’associazione indiretta o spuria o non vi siano altri
fattori di confondimento esterni che influenzino il risultato.

Nel più arduo compito di decidere le strategie preventive bisogna poi considerare altri
elementi come ad esempio la diffusione del fattore di rischio nella popolazione; ciò al
fine di concentrare gli interventi preventivi dove si possono ottenere i risultati migliori
in termini di casi evitati.
In sintesi:

In sintesi:

R.R. = probabilità degli esposti ad ammalarsi rispetto ai non esposti.

R.A. = quota percentuale di casi attribuibili al Fattore di Rischio

R.A.E. = proporzione di casi che si eviterebbe se si rimuovesse il fattore di rischio


nel gruppo degli esposti.

R.A.P. = quota globale di casi eliminati nella popolazione se fosse rimosso il fattore
di rischio in quella popolazione.

F.E. = proporzione totale di malati nella popolazione dovuti al fattore di rischio.

Vediamo ora due esempi.

53
ESEMPIO DI RIEPILOGO:

Si supponga di seguire una popolazione di 500 persone per un periodo di follow-up di 10


anni. Al termine di questo periodo, esaminando globalmente la popolazione, si rilevano 100
casi di malattia con un’incidenza cumulativa globale di 0,2 (20%). Dividendo la popolazione
in esposti (P) e non esposti (1-P) ad un particolare fattore di rischio ci si rende conto che i
100 casi di malattia non sono distribuiti proporzionalmente nei due gruppi, risultando 70 tra i
200 esposti (incidenza di 0,35 o del 35%) e 30 tra i 300 non esposti (incidenza di 0,1 o del
10%).

I E  0,35
RR    3,5
I E  0,10

Il Rischio Relativo rappresenta la maggior probabilità di ammalare degli esposti rispetto ai


non esposti (3,5 volte di più).

RA  I E   I E   0,35  0,10  0,25  25%

Il Rischio Attribuibile rappresenta la quota dei casi attribuiti al fattore di rischio che risulta
essere del 25% (ossia 50 su 200).

I E   I E  0,25
RAE    0,714  71,4%
I E 0,35

Dividendo questa quota per l’incidenza negli esposti si ottiene la proporzione di malattia che

può essere evitata nel gruppo degli esposti rimuovendo il fattore di rischio (in questo caso
71,4%).
RAP  RA  P  0,25  0,40  0,10  10%

54
Il Rischio Attribuibile di Popolazione esprime la quantità globale di casi che si eviterebbero
rimuovendo il fattore di rischio in quella popolazione (50 su 500, ossia il 10%).

RAP 0,10
FE    0,5  50%
I TOT 0,20

Complessivamente, di tutti i 200 casi di malattia, 100 (il 50%) sarebbe dovuto al fattore di

rischio. Questa quota rappresenta la frazione etiologica.

55
INTERVALLO DI CONFIDENZA
DEL RISCHIO E DEL RISCHIO RELATIVO

Consideriamo la seguente tabella:

STATO DI MALATTIA

STATO DEL FATTORE EDI RISCHIO Malato (M+) Non malato (M-) Totale
Esposto (Exp+) a b a+b
Non esposto (Exp-) c d c+d
Totale a+c b+d N

Il rischio esposizione-specifico è, per gli esposti a fattore di rischio, a/(a+b); per i non esposti
a fattore di rischio è c/(c+d).
Il rischio relativo per gli esposti, confrontato con quello dei non esposti, è dato da:

a (a  b) a  c  d 

c (c  d ) c  a  b 

Nella maggior parte delle situazioni della vita reale, i dati raccolti in uno studio
epidemiologico rappresenteranno un campione. Pertanto, dovremo specificare l’errore di
campionamento inerente le stime basate sul nostro campione del vero rischio e del vero
rischio relativo della popolazione.
Per definizione, il rischio della popolazione è semplicemente una probabilità e quindi l’errore
standard è stimato da

r 1  r 
seˆr  
n

dove r è il rischio ovvero l’incidenza

n è la numerosità del campione

seˆ è l’errore standard


Usando un’approssimazione normale, l’intervallo di confidenza al 95% per R è:

r  1,96 seˆ(r )

56
Possiamo utilizzare questo errore standard e questo intervallo di confidenza sia per il rischio
negli esposti sia per il rischio nei non esposti o, semplicemente, per tutti senza distinzione di
esposizione.
L’intervallo di confidenza per il rischio relativo presenta un calcolo un po’ più difficoltoso.
La distribuzione del rischio relativo campionario è asimmetrica e quindi è necessaria una
trasformazione logaritmica per raggiungere approssimativamente la normalità.
Sulla scala logaritmica, Katz et al. (1978) hanno dimostrato che, secondo la notazione della
tabella,

1 1 1 1
 
seˆ log e ˆ    
a ab c cd

dove  è il rischio relativo nella popolazione e ̂ è la sua stima nel campione.


Pertanto, l’intervallo di confidenza per log e  è:


log e ˆ  1,96 seˆ log e ˆ 
con i limiti inferiore e superiore rispettivamente pari a:


I  log e ˆ  1,96 seˆ log e ˆ 

S  log e ˆ  1,96 seˆ log e ˆ 

ESEMPIO:
Il progetto Pooling (Pool 5) ha studiato i fattori di rischio per malattie cardiovascolari in una
popolazione di maschi dell’Albania, di Chicago, di Framingham e di Tecumseh (1978).
Nella tabella seguente sono riportati lo stato di fumatore all’entrata nello studio e se sono
accaduti eventi coronarici nei 10 anni di follow-up per 1905 maschi, di età compresa tra 50 e
54 anni all’ingresso nello studio.
Ogni soggetto con sintomi coronarici pre-esistenti all’inizio dello studio è stato escluso.

57
EVENTI CORONARICI DURANTE IL FOLLOW-UP

STATO DI FUMATORE ALL’INZIO


Sì No Totale
DELLO STUDIO
Sì 166 1176 1342
No 50 513 563
Totale 216 1689 1905

216
Il rischio complessivo di un evento coronarico è: R   0,1134 .
1905
166
Il rischio per i fumatori è: R   0,1237 , mentre per i non fumatori è:
1342
50
R  0,0888 .
563

0,1237
Il rischio relativo è: RR   1,393 .
0,0888

L’intervallo di confidenza per il rischio di un evento coronarico per fumatori è:

0,12371  0,1237 
0,1237  1,96
1342

cioè 0,1237  0,0176 ovvero (0,1061;0,1413) .


La stima dell’errore standard del logaritmo del rischio relativo è:

1 1 1 1
 
seˆ log e ˆ    
166 1342 50 563
 0,1533

I limiti dell’intervallo di confidenza per il logaritmo del rischio relativo sono:

I  log e (1,393)  1,96  0,1533  0,0310

S  log e (1,393)  1,96  0,1533  0,6319

I limiti dell’intervallo di confidenza per il rischio relativo sono:

58
I  exp(0,0310)  1,031

S  exp(0,6319)  1,881

Dunque, abbiamo stimato che il rischio di un evento coronarico per fumatori sia 0,124 e
l’intervallo (0,106; 0,141) contiene al 95% il rischio vero della popolazione.
Il rischio relativo stimato di un evento coronarico nei fumatori confrontato con i non fumatori
è 1,39 e l’intervallo (1,03; 1,88) contiene al 95% il rischio relativo vero della popolazione.
In breve, possiamo concludere che il 12% dei fumatori ha sperimentato un evento coronarico
e questo è 1,4 volte più elevato rispetto ai non fumatori. Ovvero, fumare aumenta il rischio
stimato di almeno il 40%.

In maniera del tutto analoga, potremmo calcolare il rischio dei non fumatori sul rischio dei
fumatori. In effetti, questo è semplicemente il reciproco del rischio relativo già calcolato:
1
R  0,72.
1,393
Allo stesso modo, i limiti dell’intervallo di confidenza per il rischio relativo di un evento
coronarico per non fumatori confrontato con i fumatori si possono calcolare come reciproci
dei limiti già trovati, con l’eccezione che l’ordine di due limiti è ribaltato, cioè il limite
inferiore è 1/1,881=0,53 e il limite superiore è 1/1,031=0,97.
Chiaramente non c’è alcun vantaggio nel calcolare entrambi, ma questo esempio mostra che è
importante specificare chiaramente che cosa deve essere relazionato (al numeratore) a che
cosa (al denominatore).
Il risultato usato per definire il denominatore nel rischio relativo è chiamato base o
riferimento. In genere la base è presa come assenza del fattore di rischio nel caso di non
esposizione.

59
ODDS RATIO

Il Rischio Relativo può essere calcolato correttamente soltanto negli studi longitudinali (di
coorte), dove si valuta nel tempo l’insorgenza della condizione morbosa (incidenza o
mortalità).
Dagli studi retrospettivi (caso-controllo), a differenza degli studi di coorte, non è possibile
desumere stime dell’incidenza della malattia considerata dal momento che non sono note le
dimensioni della popolazione degli esposti a rischio di ammalare né il numero complessivo
dei casi comparsi in un dato arco di tempo.

Il numero di soggetti presente nel gruppo di casi è una proporzione sconosciuta dell’insieme
di tutti i casi e ugualmente sconosciuta è la proporzione di esposti reclutati nello studio.

Non disponendo delle misure di incidenza della malattia tra gli esposti e i non esposti non è
possibile quindi nemmeno, mediante il loro rapporto, stimare il rischio relativo associato alla
esposizione.
È possibile, però, da uno studio retrospettivo, calcolare una buona stima del rapporto tra le
incidenze, conosciuta come odds ratio (OR) (la traduzione italiana è “rapporto dei
pronostici”, ma questa dizione non è entrata nell’uso comune).

Negli studi caso-controllo l’analisi non parte da esposti e non esposti bensì da malati e non
malati (casi e controlli) per i quali si valuterà la presenza o meno dell'esposizione al fattore di
rischio.

Consideriamo una schematica tabella 2x2; all’inizio di uno studio retrospettivo sono dati i
casi (a+c) e i controlli (b+d) e alla fine dello studio sappiamo quanti sono stati esposti tra i
casi (a) e quanti tra i controlli (b).

Malato (M+) Non malato (M-) Totale


Esposto E+ A b a+b
Non Esposto E- C d c+d
Totale a+c b+d

60
a
È possibile allora calcolare la probabilità per i casi di essere esposti ( p1  ) e di non
a  c 
c
essere esposti ( q1  ); il calcolo delle stesse probabilità è ovviamente possibile
a  c 
b d
anche per i controlli ( p 2  , q2  ).
b  d  b  d 

Il rapporto tra la probabilità di essere esposti e la probabilità di non essere esposti per i casi è
p1 a c a p b d b
  e per i controlli è data da 2   .
q1 a  c  (a  c) c q 2 b  d  (b  d ) d

Queste misure sono conosciute rispettivamente con il nome di “odds di esposizione tra i
casi” e “odds di esposizione tra i controlli”.

Il rapporto tra gli odds è una buona stima del rischio relativo (il cui calcolo è possibile solo
con studi prospettici).
a/b ad
OR    RR
c/d bc
Per dimostrare come ciò sia vero immaginiamo di riportare in una tabella 2x2 i dati di una
popolazione ideale della quale siano conosciuti sia tutti i soggetti esposti che tutti i soggetti
malati. Le lettere maiuscole indicano che ci si riferisce alla totalità dei soggetti e non ad un
campione:

Malato (M+) Non malato (M-) Totale


Esposto E+ A B A+B
Esposto E- C D C+D
Totale A+C B+D A+B+C+D

L’OR è simile al RR sotto due condizioni:


 La malattia considerata è rara;
 La formazione dei gruppi a confronto non sia stata interessata da distorsioni.

61
Per malattie rare (molte delle comuni malattie cronico-degenerative possono essere
considerate tali) il rischio di malattia è sovrapponibile all’odds della malattia, in quanto i due
gruppi di non malati (B e D) risulteranno numericamente molto simili ai rispettivi totali
(A+B) e (C+D). Pertanto:

A+B >> A e BAB


C+D >> C e D  CD

Conseguentemente si deduce che:

A/(A  B) A/B A  D
RR     OR
C/(C  D) C/D B  C

Come si vede, il suo calcolo non richiede la conoscenza del numero complessivo degli
esposti e dei malati.

Vediamo ora che rapporti ci sono tra la situazione ideale della tabella precedente e quella di
uno studio caso-controllo.
La distinzione tra il disegno di studio a coorte e quello caso-controllo sta nel metodo di
selezione degli individui.
Negli studi longitudinali, in cui si seguono nel tempo gruppi di soggetti, vengono selezionati
due campioni, uno di esposti e uno di non esposti.
Il gruppo di esposti considerati nello studio è una frazione di tutti gli esposti nella
popolazione, frazione che possiamo denominare f 1 .

Allo stesso modo f 2 rappresenta la frazione di non esposti che viene selezionata.
Solitamente il valore di queste frazioni non è noto, in quanto non si conosce la proporzione di
esposti e di non esposti nella popolazione generale.
Nella tabella è riportata la situazione di indagini campionarie longitudinali:

Malato (M+) Non malato (M-) Odds della malattia


Esposto E+ a  f1 A b  f1 B a /b  A/ B
Esposto E- c  f 2C d  f2D c/d  C/D
Odds dell’esposizione a / c  f1 A / f 2 C b / d  f1 B / f 2 D

62
Nel calcolo delle due incidenze campionarie, attraverso le semplificazioni sotto riportate, si
otterrà una situazione in cui il risultato finale è estendibile alla popolazione generale. Infatti:

a f1 A A
I E   
a  b f1 A  f1 B A  B

c f 2C C
I E   
c  d f 2C  f 2D C  D

In questi studi longitudinali è possibile anche calcolare l’odds ratio, ottenendo una stima
attendibile del rischio nel caso in cui la malattia sia rara; anche in questo caso le
semplificazioni consentono di arrivare all’OR della popolazione.

a  d f1 A  f 2 D A  D
OR   
bc f1 B  f 2 C B  C

Negli studi caso-controllo la selezione dei soggetti avviene diversamente, considerando cioè
un campione di casi (malati) e un campione di controlli (non malati). Le frazioni f 3 e f 4 ,
solitamente ignote, rappresentano rispettivamente la quota di casi selezionati rispetto a tutti i
malati della popolazione e la quota di controlli rispetto a tutti i non malati nella popolazione.
Di seguito è riportata la situazione degli studi caso-controllo:

Malato (M+) Non malato (M-) Odds della malattia


Esposto E+ a  f3 A b  f4B a / b  f3 A / f4 B
Esposto E- c  f 3C d  f4D c / d  f 3C / f 4 D
Odds dell’esposizione a /c  A/C b/d  B/ D

Si è già detto che f 3 e f 4 sono solitamente ignote, e ciò impedisce di stimare l’incidenza
nella popolazione generale. Infatti:

a f3A
I E  
a  b f3A  f 4B

È invece possibile, in questa situazione, calcolare l’OR del campione che può essere
considerato una stima dell’OR della popolazione generale:

63
a  d f3A  f 4D A  D
OR   
bc f 4 B  f 3C B  C

quest’ultimo passaggio porta alla conclusione che, qualora la malattia sia rara, è corretto
l’assunto per cui:

OR  RR
Assumere che la formazione dei gruppi a confronto non sia stata interessata da distorsioni
significa assumere che la frazione di campionamento dei casi esposti è molto simile a quella
dei casi non esposti e, allo stesso modo, che la frazione di campionamento dei controlli
esposti è molto simile a quella dei controlli non esposti:

Perciò, se i due gruppi a confronto (casi e non-casi) non sono interessati da distorsione al loro
interno (esposti e non-esposti), l’OR, che può essere calcolato anche negli studi retrospettivi
è una stima molto buona del RR che può essere calcolato solo negli studi di coorte.

INTERVALLO DI CONFIDENZA DELL’ODDS RATIO

Analogamente al rischio relativo, la distribuzione dell’odds ratio è ben approssimato da una


distribuzione normale se si applica una trasformazione logaritmica.
Wolf (1955) ha mostrato che:

1 1 1 1
seˆlog e ˆ     
a b c d

e perciò i limiti dell’intervallo di confidenza al 95% per log e  sono:

I  log e ˆ  1,96 seˆ(log e ˆ )

S  log e ˆ  1,96 seˆ(log e ˆ )

64
ESEMPIO:

Ritorniamo all’esercizio precedente. L’odds complessivo di un evento coronarico è


216/1689=0.,1279; l’odds di un evento coronarico per fumatori (a/b) è 166/1176=0,1412;
mentre per i non fumatori è 50/513=0,0975.
L’odds ratio è:

166
1176  0,1412  1,448
50 0,0975
513
L’errore standard stimato del logaritmo dell’odds ratio è:

1 1 1 1
    0,1698 .
166 1176 50 513
I limiti dell’intervallo di confidenza al 95% per il logaritmo dell’odds ratio è:

I  log e 1,448  1,96  0,1698  0,0374

S  log e 1,448  1,96  0,1698  0,7030

I limiti dell’intervallo di confidenza al 95% per l’odds ratio è:

I  exp(0,0374)  1,038

S  exp(0,7030)  2,020

L’odds di un evento coronarico è stimato essere 1,45 volte più grande per i fumatori rispetto
ai non fumatori, e l’intervallo (1,038; 2,02) contiene al 95% l’odds ratio vero. In breve, si
stima che il fumo aumenti del 45% l’odds di un evento coronorico.

65
LA STANDARDIZZAZIONE DEI TASSI

Gli epidemiologi sono sempre attenti alle diversità tra le popolazioni. Virtualmente ogni
grande popolazione è eterogenea riguardo a variabili socio-demografiche (es. età, sesso,
livello di istruzione, religione), geografiche, genetiche, occupazionali, alimentari, relative alla
storia medica, e ad innumerevoli altre variabili personali, e a fattori ambientali associati con
la salute.
Una popolazione può essere vista come un insieme di diversi sottogruppi (in ultima analisi,
sottogruppi di dimensione uno, es. gli individui, ma le misure epidemiologiche si fermano a
questo livello). Qualunque misura complessiva o statistica riflette il valore di quella misura
per ogni sottogruppo compreso nella popolazione.
Una misura complessiva che non tiene esplicitamente conto della composizione della
popolazione è chiamata grezza (crude nella terminologia anglosassone). Più è grande il
sottogruppo, maggiore è l’influenza che questo avrà sulla misura grezza. Così, il tasso di
mortalità di una popolazione è una media pesata dei tassi di mortalità per i suoi gruppi
componenti.
Supponiamo di considerare una popolazione di dimensione N costituita di 5 gruppi di età, o
strati. Ogni strato avrà un numero specifico di persone, diciamo ni (i=1 a 5). Durante gli anni
successivi, ogni strato avrà un determinato numero di morti, diciamo di. La dimensione della
popolazione totale, N, è perciò  n i , il numero totale di morti, D, è  d i , e il tasso grezzo
di mortalità è D/N, che può anche essere scritto come media ponderata dei tassi di mortalità
strato-specifici, , come segue:

D  di
 
 ni d i ni 
  ni N d i ni    wi d i ni 
N N N

dove i wi sono i pesi (si noti che  wi   ni N    n  N  n n


i i  1 ).
Il tasso grezzo è la più semplice sintesi della esperienza di popolazione. Ma la mortalità è
strettamente associata all’età, così che i tassi di mortalità strato-specifici differiscono in
maniera considerevole gli uni dagli altri. La sintesi fornita dal tasso grezzo scivola su questa
eterogeneità dei tassi di mortalità strato-specifici.

66
Questo problema è particolarmente rilevante quando confrontiamo tassi di popolazioni o
relativi a periodi di tempo, perché se le popolazioni differiscono in composizione, allora
qualcosa di ciò che noi osserviamo può essere attribuibile a queste differenze.

Per esempio, supponiamo che due amici decidano di acquistare separatamente 10 frutti per un
picnic. Uno dei due amici si reca in un negozio di frutta e acquista 8 mango (1 € al pezzo) e 2
mele (0.50 € al pezzo). Contemporaneamente, il suo amico si reca al supermercato e acquista
2 mango (1.75 € al pezzo) e 8 mele (0.45 € al pezzo). Qual è l’acquisto più costoso? Da una
prospettiva, il primo acquisto è il più costoso, poiché 9 € è certamente maggiore di 7.10 €.
Ma da un'altra prospettiva, il secondo acquisto è più costoso, poiché il supermercato ha un
prezzo molto più alto per il mango e solo leggermente più basso per le mele.
Quale di queste due prospettive scegliere dipende dall’obbiettivo che ci si pone.
Molto spesso l’epidemiologo (e il consumatore serio) si dovrebbero domandare se i prezzi
sono più alta nel negozio di frutta o nel supermercato e di quanto. Noi possiamo rispondere
alla domanda semplicemente confrontando le liste dei prezzi. Ma che cosa succede se si
vogliono comperare anche arance, meloni, uva e banane? Che cosa accade se si vogliono
acquistare due dozzine di varietà di frutta? Potrebbe certamente essere più conveniente avere
una misura di sintesi che consenta un confronto complessivo.
La difficoltà con il costo totale (9.00 € versus 7.10 €) o il prezzo medio ( 0.90 € per pezzo
versus 0.71 € per pezzo) è che il prezzo medio nel negozio di frutta dà un peso maggiore al
prezzo del mango, perché uno dei due amici ha acquistato più mango, mentre il prezzo medio
del supermercato dà un peso maggiore al prezzo delle mele perché l’altro amico ha acquistato
più mele. Stiamo confrontando mele con mango, invece di negozio di frutta con
supermercato.
Chiaramente noi abbiamo bisogno di una procedura che calcoli la media dei prezzi nello
stesso modo per ogni venditore, così che entrambe le medie diano la stessa ponderazione
proporzionata per il mango. I prezzi medi dipenderanno dalla ponderazione utilizzata, ma
almeno sarà possibile confrontare (proporzionalmente parlando) mele con mele e mango con
mango. Comunque, è chiaro che, almeno in questo esempio, il tipo di ponderazione
determinerà quale vendita è favorita dal confronto. Il proprietario del negozio di frutta
preferirà un peso più alto per il prezzo del mango, così che il suo prezzo gli consentirà il
miglior guadagno. Ma il proprietario del supermercato preferirà un peso veramente basso per

67
il mango. Egli, infatti, potrà sostenere che il mango è una specialità particolare e non può
essere considerato nel confronto.

Quale insieme di pesi è più opportuno usare? Le persone a cui non piace il mango saranno in
accordo con il proprietario del supermercato. Le persone che amano il mango (o frutti simili)
non saranno d’accordo con lui. Nella maggior parte delle situazioni, la scelta dei pesi (ovvero
della popolazione standard) è basata su convenzioni, sui possibili potenziali confronti, e su
altre varie considerazioni. Spesso non esiste una scelta corretta in maniera assoluta, ed
esistono opinioni molto diverse sulla scelta migliore.

Questa premessa introduce uno dei problemi più frequenti da affrontare in uno studio
epidemiologico: limitare gli effetti di fattori confondenti che non permettono di evidenziare
la relazione vera tra esposizione e malattia o di confrontare gruppi di popolazione.

CONFONDIMENTO = Fenomeno per cui la relazione vera esistente tra esposizione e


malattia risulta “confusa” per la presenza di una o più variabili estranee.

Esempio di confondenti: età, sesso, classe sociale, attività lavorativa, ecc.

Una variabile od una mutabile F è un potenziale confondente se è un fattore di rischio per la


malattia in studio.

Una variabile od una mutabile F è confondente se distribuita diversamente nei gruppi che si
confrontano.

68
STRATEGIA PER IL CONTROLLO DEL CONFONDIMENTO

Esistono diverse procedure per neutralizzare la distorsione di fattori di confondimento in


modo da ricavare dallo studio una stima dell’effetto vero dell’esposizione sulla malattia o per
confrontare adeguatamente due diverse popolazioni.

In modo molto sintetico si può affermare che gli interventi di controllo possono essere attuati
in due fasi.

A) IN FASE DI DISEGNO DELLO STUDIO

RANDOMIZZAZIONE Clinical trials (scelta casuale di soggetti da


valutare come casi e controlli ovvero trattati e
non trattati)

APPAIAMENTO Selezione dei soggetti esposti e non in modo tale


da rendere sovrapponibile tra i gruppi la
distribuzione dei valori di una variabile
confondente.

RESTRIZIONE Includere nello studio solo i soggetti che


presentano, per una o più variabili confondenti,
valori che cadono entro un ambito relativamente
ristretto (in pratica, includere soggetti, molto
simili per le variabili confondenti).

B) IN FASE DI ANALISI

STANDARDIZZAZIONE Tecnica per rendere confrontabili due


popolazioni - esposti / non esposti – che

69
hanno una diversa distribuzione del
confondente.

STRATIFICAZIONE Misurare l’effetto della malattia tra i


soggetti esposti e non esposti suddivisi in
strati – classi – in base al livello del
confondente.

ANALISI MULTIVARIATA Costruzione di modelli matematici per


descrivere contemporaneamente l’effetto
dei fattori confondenti.

AGGIUSTAMENTO E STANDARDIZZAZIONE

I termini “aggiustamento” e “standardizzazione” si riferiscono entrambi a procedure che


facilitano il confronto tra i gruppi di misure di sintesi. Tali confronti sono a volte resi
complessi da differenze tra i gruppi dei fattori che influenzano le misure di interesse, ma che
non rappresentano il centro dell’attenzione. L’aggiustamento tenta di rimuovere gli effetti di
tali fattori “estranei” che possono impedire un confronto “corretto”.
Il termine più generale “aggiustamento” comprende sia la standardizzazione sia altre
procedure utili per rimuovere gli effetti dei fattori che “confondono” un confronto.
Il termine standardizzazione si riferisce a metodi di aggiustamento basati su medie ponderate
in cui i pesi sono scelti per fornire una base “appropriata” per il confronto (ad es., uno
“standard”), generalmente il numero di persone nei vari strati di una delle popolazioni a
confronto, un aggregato di queste popolazioni, o qualche rilevante popolazione esterna.

70
LA STANDARDIZZAZIONE

PROCEDURA UTILIZZATA PER CONFRONTARE TASSI grezzi DI


DUE O PIÙ POPOLAZIONI CON DIVERSE DISTRIBUZIONI DI
FATTORI DI RISCHIO

Perché? La mortalità o l’incidenza di molte patologie dipendono da determinanti


confondenti quali l’età ed il sesso che non permettono un valido confronto tra popolazioni
(NON ESISTE OMOGENEITA’).

SOLO DOPO UNA STANDARDIZZAZIONE SI POSSONO FARE


CONFRONTI.

La standardizzazione si può applicare a qualsiasi misura epidemiologica e si può attuare per


una o più variabili che si ritiene possano influire sulla misura in studio. Tuttavia,
classicamente, l’esempio più riportato è quello della standardizzazione del tasso di mortalità.

TASSI GREZZI DI MORTALITA’ NELLE DUE POPOLAZIONI A e B

POPOLAZIONE A POPOLAZIONE B
Popolazione a Numero Tasso Popolazione a Numero Tasso
metà anno decessi mortalità metà anno decessi mortalità
TOTALE 57.100.000 53.750 94,1 320.000 220 68,7

Ci si rende conto subito che il tasso grezzo di mortalità è differente tra le due popolazioni.
Ma è corretto utilizzare questa misura grezza per un appropriato confronto?
Una prima risposta si può avere verificando la distribuzione per classi di età della
popolazione (importanza della rappresentazione grafica delle distribuzioni di frequenza).
PER PARAGONARE LE DUE POPOLAZIONI SI RICONOSCONO
DUE METODI DI STANDARDIZZAZIONE: DIRETTO E INDIRETTO.

71
STANDARDIZZAZIONE DIRETTA

In questo caso si calcola il numero dei casi che si verificherebbero in una popolazione ideale
(quella standard) se i tassi fossero quelli delle popolazioni in studio.
Si quantifica, in pratica, il numero di morti per quella malattia che si verificherebbero nelle
rispettive popolazioni se la distribuzione per età fosse la stessa (quella della popolazione
standard scelta).

Necessariamente si devono possedere le seguenti informazioni:

1) conoscere le dimensioni delle popolazioni a confronto per classi di età


2) conoscere il numero assoluto di decessi occorsi nelle due popolazioni per ogni singola
classe di età
3) conoscere per ogni singola fascia i tassi specifici
4) scegliere una popolazione standard di riferimento

TASSI GREZZI DI MORTALITA’ NELLE DUE POPOLAZIONI A e B

POPOLAZIONE A POPOLAZIONE B
Fasce di età Popolazione a Numerod Tasso Popolazione a Numero Tasso
metà anno ecessi mortalità metà anno decessi mortalità
0-4 3.000.000 1.200 40,0 50.000 21 42,0
5-14 7.800.000 250 3,2 60.000 2 3,3
15-44 24.900.000 2.400 9,6 142.000 20 14,1
45-64 13.900.000 9.900 71,2 45.000 42 93,3
 65 7.500.000 40.000 533,3 23.000 135 587,0
TOTALE 57.100.000 53.750 94,1 320.000 220 68,7

Si dovrà a questo punto scegliere una popolazione standard. In genere la scelta ricade su una
popolazione di grandi dimensioni (regione, nazione, ecc.) oppure su standard riconosciuti
universalmente (popolazioni standard OMS).

72
POPOLAZIONE STANDARD OMS

Fasce di età Standard europeo Standard africano Standard mondiale


0-4 8.000 10.000 12.000
5-14 14.000 20.000 19.000
15-44 42.000 55.000 43.000
45-64 25.000 12.000 19.000
 65 11.000 3.000 7.000
TOTALE 100.000 100.000 100.000

ATTENZIONE: l’applicazione dei tassi specifici per classi di età va eseguita tenendo conto
del valore moltiplicativo (costante K) utilizzato (1.000, 10.000, 100.000).
Sulla popolazione standard andranno quindi calcolati i morti attesi per classe di età
applicando il tasso specifico della singola popolazione per quella classe.

Numero di morti attesi (metodo diretto)

POPOLAZIONE A POPOLAZIONE B
Fasce di Popolazione Tasso Casi Popolazione Tasso Casi
età standard mortalità attesi standard mortalità attesi
0-4 8.000 40,0 3,2 8.000 42,0 3,4
5-14 14.000 3,2 0,4 14.000 3,3 0,5
15-44 42.000 9,6 4,0 42.000 14,1 5,9
45-64 25.000 71,2 17,8 25.000 93,3 23,3
 65 11.000 533,3 58,7 11.000 587,0 64,6
TOTALE 100.000 84,1 100.000 97,7

Che cosa emerge a questo punto? La standardizzazione ha permesso di fare un corretto


confronto.

73
STANDARDIZZAZIONE INDIRETTA

In questo caso si calcola il numero dei casi che si avrebbero in ognuna delle due popolazioni
in studio se i tassi fossero standard.

Si quantifica, in pratica, il numero di morti per quella malattia che si verificherebbero nelle
rispettive popolazioni in studio utilizzando i tassi specifici standard (fonti OMS, nazione,
regione) per classe di età.

Necessariamente si devono possedere le seguenti informazioni:


1) conoscere le dimensioni delle popolazioni a confronto per classi di età

2) conoscere i tassi specifici per classe di età di una popolazione di riferimento

3) disporre del numero totale di eventi (morti) nelle popolazioni in studio (non per fasce di
età)

Tassi specifici standard

Fasce di età Tassi specifici standard


0-4 41,0
5-14 3,2
15-44 10,0
45-64 70,0
 65 540,0

Si procederà quindi a moltiplicare il numero di persone per ciascuna fascia delle due
popolazioni per il rispettivo tasso specifico standard; si otterrà quindi il numero di morti
attesi.

Numero di morti attesi (metodo indiretto)

74
POPOLAZIONE A POPOLAZIONE B
Fasce di Popolazione Tassi Casi Popolazione Tassi Casi
età a metà anno standard attesi a metà anno standard attesi
0-4 3.000.000 41,0 1.230 50.000 41 20,5
5-14 7.800.000 3,2 250 60.000 3,2 1,9
15-44 24.900.000 10,0 2.490 142.000 10,0 14,2
45-64 13.900.000 70,0 9.730 45.000 70,0 31,5
 65 7.500.000 540,0 40.500 23.000 540,0 124,2
TOTALE 57.100.000 54.200 320.000 192,3

Il confronto tra le due popolazioni si eseguirà dividendo il numero di morti osservati per il
numero di attesi (calcolato con il metodo indiretto).
In questo modo si otterrà un RAPPORTO DI INCIDENZA STANDARDIZZATO (SRR –
Standard Rate Ratio o SIR – Standard Incidence Ratio) ovvero negli studi di mortalità il
RAPPORTO STANDARDIZZATO DI MORTALITA’ (RSM o SMR).

Se il rapporto (SMR) è inferiore ad 1 significa che il numero di osservati è inferiore a quello


degli attesi, se superiore ad 1 che il numero di osservati è superiore agli attesi

53.750
SMRA   0.99
54.200

220
SMR B   1.14
192,3

75
QUANDO SCEGLIERE UNO O L’ALTRO DEI METODI

La scelta dipende da molti fattori, spesso dai dati che si hanno a disposizione. In particolare il
metodo indiretto è limitato nell’uso dall’indisponibilità dei tassi specifici per singole età.

Il metodo diretto può essere scarsamente attendibile se i tassi specifici delle popolazioni in
studio sono instabili per lo scarso numero di casi osservati (scegliere classi di età di
dimensioni più ampie).

Generalmente è più adottato il metodo diretto in quanto più adatto ad effettuare confronti fra
più popolazioni visto che utilizza il medesimo sistema di pesi (stessa popolazione tipo).

Nel caso in cui le popolazioni siano troppo piccole i tassi diventano instabili e, venendo
moltiplicati per l numero di soggetti di età “i” della popolazione standard, i relativi errori
casuali vengono amplificati.

La standardizzazione diretta, inoltre, può porre problemi quando, nella popolazione in studio,
un solo tasso strato-specifico ha un valore elevato rispetto al corrispondente della
popolazione standard mentre i restanti tassi strato-specifici sono invece simili nelle due
popolazioni.
Si ottiene così un tasso standardizzato che (ammortizzando l’unico tasso specifico elevato)
assume un valore simile a quello della popolazione standard.

Per questo motivo, prima di procedere alla standardizzazione occorre esaminare i singoli tassi
nelle popolazioni a confronto per rilevare eventuali singole classi di età con marcate
differenze nei tassi che potrebbero essere annullate nel computo complessivo del tasso
standardizzato.

76
E’ più valido l’uso del metodo indiretto quando le popolazioni in studio sono piccole (ad
esempio distretti di ASL) e di conseguenza le classi di età sono poco numerose, con
pochissimi eventi osservati e relativi tassi specifici troppo instabili.

In sintesi, dati richiesti nei diversi metodi di standardizzazione per sesso ed età sono i
seguenti:

METODO POPOLAZIONE IN STUDIO POPOLAZIONE STANDARD

DIRETTO Tassi specifici per sesso ed età Struttura della popolazione per
sesso ed età
Misura sintetica: CMF*

Struttura della popolazione per sesso


INDIRETTO ed età Tassi specifici per sesso ed età
N° totale dei morti
Misura sintetica: SMR o SIR

* CMF = E’ il rapporto tra i tassi ottenuti nelle popolazioni a confronto. Esprime


numericamente la diversità del rischio di morte tra le due popolazioni al netto dell’influenza
esercitata dalla differente composizione per età delle due popolazioni.

77
Esercizio 1 - La standardizzazione diretta ed indiretta: mortalità
neonatale nel Lazio.

Sulla base dei dati riportati nella tabella 1 rispondere alle seguenti domande:

Tabella 1 - Distribuzione dei nati vivi e tassi di mortalità neonatale per classi di peso alla
nascita e dimensione del reparto di ostetricia. Lazio 1982

 250 parti >250 parti

Classi di Tot. Nati Tassi mortalità N° decessi attesi Tassi mortalità N° decessi attesi
peso vivi Lazio neonatale/1000 neonatale/1000

500-999 123 750,0 =750,0*123/1000 783,8 =783,8*123/1000


= 92,25 = 96,41
1000-1499 172 571,4 =571,4*172/1000 166,7 =166,7*172/1000
= 98,28 = 28,67
1500-1999 439 88,2 64,0
2000-2499 1553 56,7 15,8
2500-2999 7907 5,5 1,7
3000-3499 19050 0,6 1,4
3500-3999 12445 2,5 1,8
4000-4499 2896 0,0 0,0
4500- 373 0,0 0,0

Totale 44958 7,6 7,3

a) Quali passi bisogna compiere per calcolare tassi standardizzati con il metodo diretto?
b) Completare la tabella 1 calcolando le morti attese mancanti ed i tassi standardizzati per
peso usando il metodo della standardizzazione diretta ed utilizzando come popolazione
standard quella dei nati nel Lazio.
c) Quali considerazioni si possono fare sui tassi specifici, tassi grezzi e tassi standardizzati
dei due gruppi di reparti di ostetricia?

78
Utilizzando gli stessi dati della prima parte dell'esercizio, si ipotizzi di non conoscere la
distribuzione del peso nei decessi neonatali osservati nei due gruppi di reparti di ostetricia,
ma solo i decessi totali; in questo caso non essendo, quindi, disponibili i tassi specifici per
peso per calcolare i tassi standardizzati occorre utilizzare il metodo indiretto.

Tabella 2 - Distribuzione dei nati vivi e tassi di mortalità neonatale per classi di peso alla
nascita e dimensione del reparto di ostetricia. Lazio 1982

 250 parti >250 parti

Classi di Tassi mortalità N° nati vivi N° decessi attesi Tassi mortalità N° decessi attesi
peso neonatale/1000 neonatale/1000
500-999 764,2 12 =12*764,2/1000= 37 =37*764,2/1000=
9,17 28,27
1000-1499 290,7 7 =7*290,7/1000= 48 =48*290,7/1000=
2,03 13,95
1500-1999 95,6 34 125
2000-2499 27,5 141 379
2500-2999 3,4 724 1692
3000-3499 0,7 1764 3664
3500-3999 1,4 1194 2185
4000-4499 0,3 294 434
4500- 2,7 41 49

Totale 6,3 4211 8616

Totale decessi osservati 32 63

d) Quali sono i passi necessari per calcolare i tassi standardizzati usando il metodo
indiretto?
e) Completare la tabella 2 calcolando i decessi attesi mancanti, gli SMR ed i tassi
standardizzati.
f) Cosa indica un valore del SMR superiore a 100?
g) In quali circostanze potrebbe essere necessario utilizzare il metodo indiretto rispetto al
metodo diretto?

79
SOLUZIONE:

a)  Selezionare una popolazione standard con distribuzione del peso conosciuta.


 Calcolare i tassi di mortalità specifici per peso per le due popolazioni indice, in
questo caso i nati morti nei reparti di ostetricia di diverse dimensioni.
 Calcolare i decessi attesi in ciascuna delle due popolazioni moltiplicando i tassi
specifici della popolazione indice per il numero di soggetti presenti in ciascuna classe di
peso della popolazione standard.
 Sommare i decessi attesi di ciascuna classe di peso e dividere il totale dei decessi
attesi per il totale della popolazione standard per ottenere il tasso standardizzato.

b) La tabella 1 completa è la seguente:

Tabella 1 - Distribuzione dei nati vivi e tassi di mortalità neonatale per classi di peso alla
nascita e dimensione del reparto di ostetricia. Lazio 1982

 250 parti >250 parti

Classi di Tot. Nati Tassi mortalità N° decessi attesi Tassi mortalità N° decessi attesi
peso vivi Lazio neonatale/1000 neonatale/1000

500-999 123 750,0 =750,0*123/1000 783,8 =783,8*123/1000


= 92,25 = 96,41
1000-1499 172 571,4 =571,4*172/1000 166,7 =166,7*172/1000
= 98,28 = 28,67
1500-1999 439 88,2 38,72 64,0 28,10
2000-2499 1553 56,7 88,06 15,8 24,54
2500-2999 7907 5,5 43,49 1,7 13,44
3000-3499 19050 0,6 11,43 1,4 26,67
3500-3999 12445 2,5 31,11 1,8 22,40
4000-4499 2896 0,0 0,0 0,0 0,0
4500- 373 0,0 0,0 0,0 0,0

Totale 44958 7,6 403,34 7,3 240,23


Tasso standardizzato = 403,33/44958 =8,97 = 204,23/44985 = 5,34

80
c) Si osservi come i tassi specifici siano più alti in alcune classi di peso (1000-1499, 2000-

2499, 2500-2999) nei reparti di ostetricia più piccoli rispetto a quelli più grandi, pur se i

tassi grezzi sono simili.

La maggior frequenza di nascite di neonati di basso peso negli ospedali con più di 250

nati per anno elimina nei tassi grezzi le differenze che si osservano in quelli specifici per

peso.

L'importanza dei tassi specifici risiede nella possibilità di metterli in relazione con

particolari aspetti delle cure perinatali, come ad esempio una migliore assistenza negli

ospedali più grandi.

Va ricordato che non è consigliabile ricorrere alla standardizzazione quando si dispone di

tassi specifici per classi di peso anche se una misura riassuntiva può rendere il confronto

globale più agevole.

La tecnica della standardizzazione elimina l'effetto della variabile peso alla nascita sui

tassi grezzi di mortalità e di conseguenza permette di paragonare popolazioni diverse

come se la loro distribuzione per un fattore determinante l'evento in studio (in questo

caso il basso peso alla nascita) fosse identica.

d)  Definire un set standard di tassi specifici per classi di peso.

 Applicare questi tassi specifici alla popolazione dei nati vivi nel Lazio per ottenere il

numero di decessi attesi in ogni classe di peso.

 Sommare tutti i decessi attesi.

 Dividere il totale dei decessi osservati per il totale dei decessi attesi e moltiplicare per

100 per ottenere il rapporto di mortalità standardizzato (SMR).

 Moltiplicare l'SMR per il tasso grezzo di mortalità della popolazione standard per

ottenere il tasso di mortalità standardizzato della popolazione indice.

e) La tabella 2 completa è la seguente:

81
 250 parti >250 parti

Classi di Tassi mortalità N° nati vivi N° decessi attesi Tassi mortalità N° decessi attesi
peso neonatale/1000 neonatale/1000

500-999 764,2 12 =12*764,2/1000= 37 =37*764,2/1000=


9,17 28,27
1000-1499 290,7 7 =7*290,7/1000= 48 =48*290,7/1000=
2,03 13,95
1500-1999 95,6 34 3,25 125 11,95
2000-2499 27,5 141 3,88 379 10,42
2500-2999 3,4 724 2,46 1692 5,75
3000-3499 0,7 1764 1,23 3664 2,56
3500-3999 1,4 1194 1,67 2185 3,06
4000-4499 0,3 294 0,09 434 0,13
4500- 2,7 41 1,11 49 0,13

Totale 6,3 4211 23,89 8616 76,22

Totale decessi osservati 32 63

SMR = 32/23,89*100 = 134 SMR = 63/76,22*100 = 83

Tasso standardizzato = 6,3*1,34 = 8,44 = 6,3*0,83 = 5,23

f) L'SMR esprime il rapporto tra i decessi osservati e quelli attesi. Un valore superiore a

100 significa un aumento di mortalità nella popolazione indice rispetto a quella standard.

Nel nostro esempio, un SMR di 134 nei reparti di ostetricia con meno di 250 nati per

anno significa che in questo gruppo di reparti si osserva un 34% in più di decessi

neonatali rispetto a quelle che ci aspetteremmo se la mortalità in questi reparti fosse

quella della popolazione standard.

g) Il metodo di standardizzazione indiretto è utile nelle seguenti situazioni:

82
 quando i tassi di mortalità specifici per la variabile in esame sono conosciuti solo per

la popolazione standard;

 quando il denominatore dei tassi specifici in ciascuna classe nella popolazione indice

è molto piccolo, cosicché i tassi di mortalità mostrano un'ampia variabilità dovuta al

caso. Il metodo indiretto può essere anche utile negli studi di mortalità dove si

dispone di un numero limitato di osservazioni o casi;

 quando si vogliono confrontare i valori di due SMR (ad esempio diverse cause di

morte) nella stessa popolazione.

83
SSC
CRRE
EEEN
NIIN
NGG

Lo scopo di molti studi è quello di mettere in risalto i fattori di rischio al fine di una loro
eliminazione attraverso le campagne mirate di prevenzione.

In talune circostanze, è possibile intervenire efficacemente con azioni di prevenzione


primaria, volte cioè a rimuovere il fattore di rischio, mentre in altre circostanze – dove i
fattori di rischio non sono evidenziati o non è stato possibile rimuoverli – occorre fare ricorso
ad interventi di prevenzione secondaria, ossia alla diagnosi precoce della condizione che
consenta un tempestivo trattamento con riduzione delle conseguenze invalidanti e, più in
generale, miglioramento della prognosi.

Screening  procedura che consente la presuntiva identificazione di una malattia in fase

iniziale o di una condizione particolarmente a rischio mediante

l’applicazione di un test, di un esame o di un’altra procedura, di rapido e

semplice impiego.

Il test di screening non è un test diagnostico vero e proprio (quest’ultimo è generalmente più
invasivo, ha un costo maggiore e comporta difficoltà tecniche di esecuzione) ma un primo

esame che interessa vaste popolazioni di persone sane che consenta di distinguere le persone
apparentemente sane da quelle probabilmente malate.
Applicazione del test di screening in due ambiti principali:

a) malattia già in corso nella sua fase iniziale in cui l’intervento precoce porta un
significativo miglioramento della prognosi (tumore del colo-retto, diabete) o, addirittura,
la possibilità di guarigione (carcinoma della mammella in fase iniziale, carcinoma in situ
della cervice uterina);

84
b) condizione predisponente o fortemente a rischio per lo sviluppo della malattia
(displasia grave del collo dell’utero, poliposi del colon, ipertensione arteriosa,

ipercolesterolemia).

I pazienti risultati positivi ad un test di screening o sospetti tali devono sempre essere
sottoposti ad un esame diagnostico di conferma e, solo dopo l’eventuale esito positivo di
quest’ultimo, possono essere avviati verso gli opportuni interventi terapeutici che il caso
richiede.

La figura mostra come può essere attuata una campagna di screening:


Dalla popolazione generale viene separata la quota di positivi al test che viene
sottoposta alla procedura diagnostica di conferma prima dell’eventuale intervento
terapeutico o preventivo.
I negativi allo screening, assieme a quelli risultati negativi al test di conferma (i
FALSI POSITIVI) ritornano a far parte del gruppo di popolazione che dovrà
essere ri-sottoposta periodicamente al test.
Il test di screening può essere impiegato anche in altre due circostanze:
a) per scopi di ricerca allorché, per valutare la diffusione di un fenomeno (prevalenza di
una determinata condizione), non è possibile sottoporre un campione della popolazione
ad esami diagnostici veri e propri;
b) come mezzo per la tutela di una popolazione o di una comunità confinata.

CARATTERISTICHE DI UN TEST DI SCREENING

Fattori da considerare in una campagna di screening:


1. Aumento significativo della durata e della qualità della vita
2. Sensibilità, specificità, valori predittivi del test
3. Disponibilità di mezzi diagnostici per esaminare i positivi al test
4. Problemi psicologici legati alla falsa positività
5. Costo del test, del personale impiegato e della conferma diagnostica
6. Modalità e tecniche di esecuzione del test
7. Invasività e dannosità del test.

85
Condizione indispensabile perché si possa pensare di impostare una campagna di
prevenzione secondaria mediante l’impiego di un test di screening è quella che deve trattarsi
di una malattia o condizione di una certa gravità o comunque di rilevanza sociale in cui la
diagnosi precoce ed il conseguente intervento terapeutico possano ridurre significativamente
la morbosità e la mortalità.

SENSIBILITA’, SPECIFICITA’, VALORI PREDITTIVI

Un importante elemento che condiziona l’esito della campagna di screening è la


VALIDITA’ del test utilizzato, ossia la sua abilità di classificare correttamente la
maggior parte delle persone esaminate.

Un test diagnostico si definisce valido quando conduce il clinico a una diagnosi positiva nei
soggetti affetti da una determinata malattia, e a una diagnosi negativa nei soggetti non affetti
da quella patologia.

La valutazione della validità di un test viene effettuata sottoponendo al test stesso un gruppo
di soggetti sicuramente affetti dalla malattia in esame e un gruppo di soggetti sicuramente
non affetti da tale patologia. Tali gruppi sono a loro volta identificati mediante un test preso
come riferimento (gold standard) per la diagnosi definitiva.

La definizione del gold standard è una delle principali difficoltà nella valutazione dei test
diagnostici.

Nella maggior parte dei casi, il test di riferimento è di difficile somministrazione, è


caratterizzato da un costo elevato e comporta dei rischi per il soggetto. (es.: biopsia, indagini
radiologiche con mezzi di contrasto, ecc.)

Quando il gold standard è rappresentato da test di questo tipo, esiste la possibilità di non
poter giungere all’evidenza definitiva per tutti i soggetti che vengono sottoposti al test di cui
si vuole valutare la validità.

86
Se la diagnosi definitiva viene fatta dopo la somministrazione del test in studio, esiste la
possibilità, nel caso in cui il gold standard sia rappresentato da un test invasivo, che una parte
dei soggetti negativi non venga sottoposta a quest’ultimo. Una simili situazione conduce
all’impossibilità di valutare correttamente la validità del test.
Un ulteriore problema riguarda il fatto che molte volte i test di riferimento richiedono una
interpretazione soggettiva che può produrre una discordanza tra diversi clinici, o può
condurre lo stesso clinico a risultati diversi in differenti somministrazioni del medesimo test.
In quest’ottica può risultare informativo conoscere la riproducibilità del test che viene
utilizzato come gold standard.
Una volta identificata la diagnosi definitiva attraverso il gold standard, i soggetti vengono
sottoposti al test in studio.

I risultati ottenuti possono essere schematizzati in una tabella 2x2, in cui vengono messi in
rapporto la positività ad un determinato test e la reale presenza di malattia nei pazienti
esaminati:

Risultato del test Malato Non malato Totale


Test positivo a b a+b
M+, TD+ M-, TD+ TD+
Test negativo c d c+d
M+, TD- M-, TD- TD-
Totale a+c b+d a+ b+ c + d = N
M+ M-

a: numero di soggetti malati e positivi al test, ovvero i Veri Positivi (M+, TD+ = VP)
b: numero di soggetti non malati e positivi al test, ovvero i Falsi Positivi (M-, TD+ = FP)
c: numero dei soggetti malati e negativi al test, ovvero i Falsi Negativi (M+, TD- = FN)
g: numero di soggetti non malati e negativi al test, ovvero i Veri Negativi (M-, TD- = VN)

E’ intuitivo che il test ideale dovrebbe raggruppare solo soggetti veri positivi e veri negativi,
ossia occupare le celle a e d. Questa situazione non è quasi mai raggiungibile a causa dei
possibili errori insiti nella metodica impiegata, oppure nella pratica di chi esegue il test e
quindi l’inevitabile possibilità di riscontrare falsi positivi e falsi negativi.

87
SENSIBILITA’ del test  capacità del test di fornire risultati positivi nei soggetti malati,
ed è stimata da:

a VP VP
SE   100   100   100
ac VP  FN M

SPECIFICITA’ del test  capacità del test di fornire risultati negativi nei soggetti non
malati, ed è stimata da:

d VN VN
SP   100   100   100
bd VN  FP M

Dalle espressioni riportate, risulta evidente che sensibilità e specificità tendono al 100%
quando la frequenza assoluta, rispettivamente, dei falsi negativi e dei falsi positivi tende a 0.
Quindi b e c sono gli elementi che riducono la validità del test.
In altre parole, un test caratterizzato da un’elevata sensibilità, fornirà una quota contenuta di
risultati falsi negativi, così come un test con un’elevata specificità rileverà la malattia in una
quota esigua di soggetti non malati. Al contrario, più bassa è la sensibilità più alta sarà la
proporzione di falsi negativi (negativi al test ma malati) e più bassa è la specificità più alta
sarà la quota di falsi positivi (positivi al test ma non malati).

ESEMPIO:

Nella seguente tabella sono riportati i risultati di uno studio relativo alla valutazione della
validità del test basato sulla depressione del segmento ST nell’elettrocardiogramma sotto
sforzo, nella diagnosi delle coronaropatie (malattie delle arterie coronariche).

Depressione del segmento ST Coronaropatia Coronaropatia Totale


presente assente
Positivi >= 1mm 135 54 189
Negativi < 1mm 15 96 111
Totale 150 150 300

88
Il test è stato somministrato a 150 soggetti affetti da malattia coronarica (diagnosticata
mediante coronografia) e a 150 soggetti non affetti da tale patologia, scegliendo come soglia
discriminante per una diagnosi positiva di coronopatia il valore di 1.00 mm.

La sensibilità del test è risultata:

135 135
SENSIBILITA'  SE   100   100  90%
135  15 150
Ciò significa che per 90 soggetti su 100 individui malati, il test risulta positivo; in altri
termini, un soggetto affetto da coronopatia ha una probabilità del 90% di risultare positivo al
test, e una probabilità pari a (100-90)% = 10% di risultare negativo, ovvero di essere
classificato come Falso Negativo.

La specificità del test è risultata:

96 96
SPECIFICITA'  SP   100   100  64%
96  54 150

Un soggetto che non presenta coronopatia risulta negativo al test con una probabilità del
64%, mentre ha una probabilità pari a (100-64)% = 36% di risultare positivo anche se non
malato, ovvero di essere classificato come Falso Positivo.

Sensibilità e specificità rappresentano dunque rispettivamente la probabilità di risultare


positivi al test sotto la condizione di essere malati e la probabilità di risultare negativi al test
sotto la condizione di non essere malati e possono essere espresse come probabilità
condizionate:

P(M  , TD  )
SE   P ( TD  M  )
P(M  )
e

P(M-, TD-)
SP   P ( TD  M  )
P(M  )

89
Il test ideale dovrebbe avere i valori di SE e SP entrambi uguali a 1 (o al 100%), ma questa
condizione è praticamente impossibile da realizzare. Infatti non si conoscono test ideali,
nemmeno per accertare un evento sicuro come il decesso.

Dal momento che non è possibile disporre, o pensare di poter disporre, di un test sensibile e
specifico al 100%, è necessario valutare tali caratteristiche in base alla situazione particolare
in cui si vuole applicare il test.

È preferibile un test caratterizzato da elevata sensibilità quando:


 La malattia è grave
 La malattia è curabile
 I risultati falsi positivi non comportano gravi danni psicologici o
economici per il paziente.

È preferibile un test caratterizzato da elevata specificità quando:


 La malattia è grave
 Non esiste una terapia efficace
 I risultati falsi positivi comportano gravi danni psicologici e/o economici
per il paziente.

VALORE PREDITTIVO del test POSITIVO (VPP) è la proporzione di realmente


malati tra i positivi al test, ed è:

VP
VPP   100
VP  FP

90
VALORE PREDITTIVO del test NEGATIVO (VPN)  è la proporzione di realmente
sani tra i negativi al test, ed è:

VN
VPN   100
VN  FN

La rilevanza del VPN è limitata: il suo valore tende sempre al 100% per condizioni in studio
rare, come quasi tutte quelle oggetto di test di screening.

EFFICACIA DEL TEST è il rapporto tra la somma dei veri negativi e dei veri positivi e
il totale degli esaminati:

ad
EFFICACIA   100
N

TEST BIAS è l’errore insito nel test usato, ovvero il rapporto tra positivi al test e malati:

ab
TEST BIAS 
ac

Qualora il valore del test bias risulti essere superiore a 1, il test darà una sovrastima del
fenomeno; il contrario se è inferiore a 1.

91
G
GLLII SST
TUUD
DII E
EPPIID
DEEM
MIIO
OLLO
OGGII

Esistono in letteratura differenti classificazioni degli studi epidemiologici, formulate da


diverse scuole ed ispirate alle diverse particolarità che caratterizzano i singoli studi. Noi
forniremo una classificazione molto generale.
Una distinzione fondamentale è quella che distingue gli studi epidemiologici in
SPERIMENTALI da quelli non sperimentali od OSSERVAZIONALI.

STUDI EPIDEMIOLOGICI SPERIMENTALI  lo sperimentatore compie interventi diretti,


manipola cioè le condizioni della ricerca applicando strategie terapeutiche o
preventive a due o più gruppi di soggetti; queste indagini trovano limitata
utilizzazione in campo umano, soprattutto per problemi etici.

STUDI EPIDEMIOLOGICI NON SPERIMENTALI O OSSERVAZIONALI  il ricercatore si limita


ad osservare l’andamento dei fenomeni per poter trarre conclusioni che, pur
non essendo esaustive come quelle dedotte da uno studio sperimentale,
possono egualmente fornire risultati utili ed interessanti.

Tipi di studio Nome alternativo Unità di studio


Studi Osservazionali
Studi descrittivi
Studi analitici
Ecologici Di correlazione Popolazione
Trasversali Di prevalenza Individui
Caso-controllo Individui
Di coorte Longitudinali o Follow-up Individui

Studi Sperimentali Studi di intervento Pazienti


Trial clinici randomizzati Trial clinici Persone sane
Trial sul campo Comunità
Trial di comunità Studi di interventi su comunità

92
Nell’ambito degli studi osservazionali un’ulteriore differenziazione viene posta tra gli studi
descrittivi, che si basano sull’utilizzo dei dati già esistenti e considerano generalmente intere
popolazioni, e gli studi analitici in cui, accanto alla quantificazione di un fenomeno,
appaiono generalmente elementi ricavati da anamnesi, esami di laboratorio o interviste; essi,
pur non comportando trattamenti od eliminazione dei fattori di rischio, permettono una
valutazione sommaria del ruolo che possono assumere nell’etiopatogenesi delle specifiche
malattie.

STUDI DESCRITTIVI

Uno studio descrittivo si limita ad una descrizione della frequenza di una malattia in una
popolazione ed è spesso il primo passo in una indagine epidemiologica.

Informazioni descrittive limitate, come una serie di casi, nella quale vengono descritte le
caratteristiche di un numero di pazienti con una malattia specifica, ma non sono confrontate
con quelle di una popolazione di riferimento, spesso offrono lo spunto per l’avvio di uno
studio epidemiologico più dettagliato.

Gottlieb et al. (1981), per esempio, descrissero quattro casi di giovani uomini con una forma
di polmonite in precedenza rara, e in tal modo aprirono la strada a un’ampia gamma di studi
epidemiologici su quella condizione che divenne poi conosciuta come AIDS.
Gli studi descrittivi non mirano ad analizzare i legami tra esposizione ed effetto, ma
generalmente si basano su statistiche di mortalità e possono prendere in esame gli andamenti
della mortalità per età, sesso ed etnia durante periodi di tempo specificati o in differenti paesi.

STUDI ANALITICI

Uno studio analitico va oltre, analizzando le relazioni tra stato di salute e altre variabili.
In tutti gli studi epidemiologici è essenziale avere una chiara definizione di caso della
malattia che si sta indagando, per esempio i sintomi, i segni o altre caratteristiche che
indicano che una persona presenta la malattia. È anche necessaria una chiara definizione di
persona esposta, per esempio le caratteristiche che identificano una persona come esposta ai
fattori allo studio. In assenza di chiare definizioni della malattia e della esposizione è

93
probabile che si incontrino grandi difficoltà nell’interpretare i dati derivanti da uno studio
epidemiologico.

A parte gli studi descrittivi semplici, gli studi epidemiologici sono essenzialmente di tipo
analitico.

Nell’ambito di questo ultimo gruppo di studi, che sono quelli maggiormente utilizzati nella
pratica, si riconoscono:

 gli studi trasversali (o di prevalenza), consistenti nell’esame di campioni di popolazione


per valutare singoli fenomeni senza indagare, in modo specifico, su condizioni associate;
 gli studi caso-controllo, in cui vengono selezionati due gruppi, uno di malati ed uno di
non malati, allo scopo di vagliare eventuali possibilità etiologiche;
 gli studi longitudinali (detti anche a coorte), in cui la popolazione considerata viene
seguita per un determinato periodo di tempo (follow-up).

94
SST
TUUD
DII D
DEESSC
CRRIIT
TTTIIV
VII

QUESTA CATEGORIA DI STUDI COMPRENDE L’ELABORAZIONE E LA PRESENTAZIONE DEI

DATI RICAVATI DALLE STATISTICHE CORRENTI.

A questo proposito si elencano alcune delle fonti di dati più frequentemente


utilizzate:

1) STATISTICHE UFFICIALI ISTAT:

a) demografiche
b) sanitarie (schede morti, notifiche malattie infettive)
c) socio-santarie (indagine sullo stato di salute ISTAT - l'ultima è del 1998)

2) CASISTICHE OSPEDALIERE

a) scheda di dimissione ospedaliera


b) cartelle cliniche

3) OSSERVATORI EPIDEMIOLOGICI

a) regionali
b) provinciali
c) comunali

4) ENTI ASSISTENZIALI E PREVIDENZIALI

a) INAIL (infortuni sul lavoro)


b) INPS (assenze dal lavoro)

5) REGISTRI DI PATOLOGIA

a) tumori
b) tubercolosi
c) malformazioni

6) FONTI I.S.S. - O.M.S. (rapporti epidemiologici)

E’ evidente, quindi, che non si tratta di studi che prevedono un intervento diretto del
ricercatore sul campo ma una semplice revisione di dati pervenuti attraverso canali di
raccolta già esistenti ed elaborati a livello centrale.

95
Le caratteristiche principali di questo vasto gruppo di studi sono quindi il BASSO COSTO (i
dati già esistono) e l’IMMEDIATEZZA DEI RISULTATI, compatibilmente con l’efficienza della
raccolta centrale.

La presentazione di dati riguardanti tutti i nati in un determinato anno o periodo di tempo ed


eventi di interesse sanitario accaduti loro nel corso della vita, prende il nome di analisi per
coorti, da non confondere con gli studi a coorte, concettualmente differenti.
Un limite all’attendibilità dei dati ottenuti con l’analisi per coorti (e comunque di tutti i tassi
di mortalità ottenuti in periodi diversi) dipende da diverse ragioni:
 errori nel calcolo del denominatore (popolazione a rischio nella quale si sono verificati i
casi segnalati);
 continuo miglioramento delle metodiche diagnostiche che riducono il fenomeno delle
diagnosi errate;
 aggiornamento della classificazione internazionale delle malattie da parte dell’OMS.

Sempre da buone fonti esistenti possono essere effettuati studi descrittivi su popolazioni
migranti, che sono in grado di fornire lo spunto per studi osservazionali più sofisticati. Come
è ben noto, l’incidenza delle varie patologie cronico-degenerative è diversa in varie regioni
del mondo. In molti casi può risultare difficile valutare la maggior importanza di fattori
genetici rispetto a quelli ambientali nell’etiopatogenesi di una malattia. L’importanza degli
studi su popolazioni migranti deriva proprio dalla possibilità di verificare l’incidenza di una
particolare malattia in un gruppo di persone con caratteristiche genetiche particolari (ad
esempio razza a bassa incidenza) migrate in zone in cui la malattia è molto più frequente. La
valutazione viene generalmente effettuata comparando l’incidenza nella popolazione migrata
(o nelle successive generazioni) con quella dei residenti e/o con quella di origine.

UN ADEGUAMENTO DEI TASSI (RILEVABILE GENERALMENTE NEI FIGLI E NEI NIPOTI DEGLI
EMIGRATI) A QUELLI LOCALI TESTIMONIA IL RUOLO FONDAMENTALE DELL’AMBIENTE DI

VITA, MENTRE UN MANTENIMENTO DEI TASSI DI INCIDENZA ORIGINARI (UGUALI QUINDI A

QUELLI DEL PAESE DI ORIGINE) TESTIMONIEREBBE UNA SPICCATA COMPONENTE

EREDITARIA.

96
SST
TUUD
DII E
ECCO
OLLO
OGGIIC
CII

Anche gli studi ecologici o di correlazione rappresentano spesso l’avvio di un processo


epidemiologico. In uno studio ecologico le unità di analisi sono le popolazioni o i gruppi di
persone piuttosto che gli individui.
Per esempio, in un paese fu dimostrata l’esistenza di una relazione tra la media delle vendite
di un farmaco anti-asmatico e il verificarsi di un numero insolitamente alto di morti per asma.
Tali relazioni possono essere studiate confrontando popolazioni in diversi paesi nello stesso
momento, o la stessa popolazione in uno stesso paese in diversi momenti. Il secondo
approccio può evitare in parte il confondimento socio-economico che rappresenta un
problema potenziale negli studi ecologici.
Gli studi ecologici, anche se semplici da eseguire e di conseguenza attraenti, spesso sono
difficili da interpretare poiché raramente è possibile esaminare direttamente le varie ipotesi
che spiegano i risultati ottenuti. Gli studi ecologici di solito si basano su dati raccolti per altri
scopi; possono non essere disponibili dati su esposizioni diverse e sui fattori socio-
economici. Inoltre, poiché l’unità di analisi è una popolazione o un gruppo, non può essere
accertata l’esistenza di un legame a livello individuale tra l’esposizione e l’effetto.
Un elemento di attrazione degli studi ecologici è rappresentato dal fatto che in questi possono
essere utilizzati dati ottenuti da popolazioni con caratteristiche che differiscono ampiamente.
Se si formulano conclusioni non appropriate sulla base di dati ecologici si incorre nella
FALLACIA ECOLOGICA o BIAS ECOLOGICO.
L’associazione osservata tra le variabili a livello di gruppo non è necessariamente indicativa
del fatto che l’associazione esiste a livello individuale.
Gli studi ecologici, tuttavia, hanno spesso fornito un inizio fruttuoso a ricerche
epidemiologiche più dettagliate.

97
Con questo tipo di studio è possibile:

a) calcolare
TASSI DI NATALITA', TASSI DI MORTALITA', GLI INDICI DEMOGRAFICI, LA
PREVALENZA E L'INCIDENZA DI ALCUNE MALATTIE, ECC.
c) osservare
DISTRIBUZIONE GEOGRAFICA DEI FENOMENI, IL LORO ANDAMENTO NEL
TEMPO (analisi per coorti di età)
d) confrontare
REALTA' DIFFERENTI (nazioni, regioni, zone della stessa città) - molto utile nello studio
di popolazioni migranti (spunto per studi osservazionali più sofisticati)
e) programmare
INTERVENTI SANITARI SIA DI PREVENZIONE CHE DI CURA E RIABILITAZIONE
f) avviare

UN PERCORSO DI STUDI EPIDEMIOLOGICI PIU' APPROFONDITI

OBIETTIVI

1) Analizzare statistiche correnti di mortalità e/o morbosità

2) Illustrare il quadro della distribuzione delle varie malattie in rapporto a tempo, luogo e
caratteristiche individuali

3) Calcolare i tassi di mortalità grezzi, specifici e standardizzati

4) Frequenza delle malattie (incidenza, prevalenza)

5) Andamento temporale attraverso l'analisi per coorti

98
STUDI DESCRITTIVI - (vantaggi e svantaggi)

VANTAGGI SVANTAGGI

Utili per descrivere Bias di selezione


differenze nelle (rappresentatività della
popolazioni popolazione)

Incertezza sequenza
temporale causa-effetto
Utili per identificare
fenomeni da indagare con Difficile vagliare ipotesi
studi successivi ad hoc etiologiche specifiche

Impiego frequente di
Semplicità classificazioni standard
inadeguate o non aggiornate

Talvolta non si conoscono i


Rapidità denominatori adeguati
(emigrazioni / immigrazioni)

BIAS COMUNI

Attendibilità del dato originale dubbia, variabile nel tempo e nello spazio e
comunque difficilmente verificabile

Variabilità nella codifica delle malattie

Omissioni delle notificazioni

Cause di morte errate

99
SST
TUUD
DII T
TRRA
ASSV
VEER
RSSA
ALLII oo D
DII PPR
REEV
VAAL
LEEN
NZZA
A
((SST
TUUD
DII C
CRRO
OSSSS--SSE
ECCT
TIIO
ONNA
ALL))

Gli studi epidemiologici trasversali o di prevalenza consistono nella quantificazione di


fenomeni sanitari in una popolazione definita (o più spesso un campione di essa) in un
preciso istante, al fine di determinare lo stato di malattia, l’esposizione ad un particolare
fattore o anche la presenza di qualsiasi altra condizione. In altre parole, essi sono molto
utilizzati per stimare fenomeni sanitari (quali malattie, distribuzione dei fattori di rischio,
bisogni sanitari) per i quali non sono disponibili dati tratti da altre fonti e trovano molte
occasioni di utilizzo nell’epidemiologia dei servizi sanitari.
L’indagine di prevalenza può essere considerata, quindi, come una “fotografia istantanea” del
gruppo di persone esaminate, quindi la valutazione della presenza di un fenomeno nel preciso
istante in cui si è deciso di compiere il rilevamento.
Per la rapidità d’esecuzione, i costi relativamente bassi e l’immediatezza dei risultati, questi
studi sono tra quelli più frequentemente utilizzati nella pratica; alcune volte vengono
impiegati per quantificare l’entità di un fenomeno, altre anche ai fini di una valutazione
iniziale prima di impostare studi più impegnativi, più onerosi e di maggior durata. Il dato
della prevalenza può essere calcolato anche per i vari sottogruppi della popolazione
considerata (fasce d’età, sesso, razza, condizione socio-economica, ecc.).
Per la sua caratteristica di indagine a tappeto, estesa a tutta la popolazione (o comunque a
sottogruppi a rischio), viene considerato come appartenente al gruppo delle indagini di
prevalenza anche il test di screening, strumento fondamentale della prevenzione secondaria
ed utilissimo per identificare possibili casi di malattia non ancora diagnosticati, oppure
soggetti particolarmente a rischio di ammalare.
Per le sue caratteristiche, l’indagine di prevalenza trova scarse applicazioni per malattie o
condizioni rare (dove occorrerebbe esaminare un campione molto vasto per trovare pochi
casi) e di breve durata (in quanto identificherebbe solo i casi con malattia in quello specifico
momento). È questo il caso di malattie infettive, soprattutto quelle a ricorrenza epidemica
come l’influenza. Esaminando un campione in un periodo non epidemico si troverebbero
valori insolitamente bassi mentre, in un periodo epidemico, la prevalenza della condizione
sarebbe assai elevata. In questo caso appare più appropriata un’indagine longitudinale, che
consente di calcolare l’incidenza della malattia.

100
In genere questi studi prevedono l'analisi di una popolazione intera o di un campione della
stessa (campionamento randomizzato semplice, stratificato, a grappolo-cluster, sistematico,
ecc.).

Campione si
Malattia
popolazione
e/o sintomi no

si
esposizione
no

T0
Inizio e fine
dello studio

FONTI DEI DATI

1) OSSERVAZIONI DIRETTE (rilievi strumentali, esame obiettivo, indagini di


laboratorio, ecc.)
2) SONDAGGI INDIVIDUALI (questionari, interviste)
3) CASISTICHE UFFICIALI (ad esempio registri ospedalieri infezioni nosocomiali)
4) SCREENING (registro di patologia)

OBIETTIVI

1) descrivere l'entità di un fenomeno (malattia o altra variabile) in una comunità o campione


di essa, con lo scopo di una valutazione epidemiologica, una diagnosi precoce
(screening), una pianificazione sanitaria

101
2) ottenere informazioni sugli atteggiamenti della popolazione nei confronti dei servizi
sanitari, sui bisogni di assistenza percepiti, sull'utilizzo dei servizi sanitari stessi

3) analizzare la possibile associazione di un fattore di rischio con una malattia


(limitatamente ad alcune circostanze)

STUDI TRASVERSALI - (vantaggi e svantaggi)

VANTAGGI SVANTAGGI

Libera scelta della Bias di selezione


popolazione da cui (rappresentatività della
selezionare il campione, dei popolazione)
metodi di rilevazione e dei
criteri diagnostici da Non si addice a malattie
applicare molto rare o di breve
durata
Utile per identificare nuove
ipotesi eziologiche Non fornisce indicazioni
sull'incidenza
Semplicità
Problemi di attendibilità
Rapidità con i questionari

BIAS COMUNI

Campionamento non corretto

Interpretazione errata del ruolo di un fattore causale (associazione alla


maggior sopravvivenza invece che all'incidenza della malattia)

Adesione non elevata all'indagine

102
SST
TUUD
DII C
CAASSO
O--C
COON
NTTR
ROOL
LLLO
O

Gli studi caso-controllo e quelli longitudinali o a coorte sono le due indagini osservazionali
analitiche che consentono di indagare sul ruolo etiopatogenetico di eventuali fattori di
rischio.
Negli studi caso-controllo, in particolare, dove non possono essere calcolate né l’incidenza né
la prevalenza, il vagliare ipotesi etiologiche anche recentemente emerse è l’unico obiettivo.
Questi studi sono stati definiti da molti autori come “retrospettivi” perché ricostruiscono la
storia clinica dei pazienti considerati.
Gli studi caso-controllo sono impostati per ottenere, in tempi brevi e con costi relativamente
bassi rispetto agli studi longitudinali, informazioni attendibili riguardanti fattori
etiopatogenetici di malattie anche poco frequenti.
Il disegno dello studio caso-controllo prevede che si considerino sempre due gruppi di
soggetti: uno di malati o affetti dalla particolare condizione in studio, che costituiscono i casi,
ed uno di soggetti aventi le stesse caratteristiche dei primi (i controlli), i quali differiscono
dai casi solo per non essere affetti dalla malattia.

Campione di popolazione

esposti
CASI

non esposti

esposti
CONTROLLI

non esposti

T-1 T0
Inizio dello studio

103
L’attendibilità dei risultati dipende principalmente dalla corretta selezione di casi e controlli.

I CASI I CONTROLLI

Sono i malati o coloro che Hanno le stesse


sono affetti dalla caratteristiche dei casi ma
particolare condizione in non sono malati.
studio Devono infatti
rappresentare coloro che, se
E' importante che venga avessero sviluppato la
dichiarata la definizione di malattia, sarebbero stati
caso nel protocollo di selezionati come casi.
indagine (indicare i criteri
di inclusione e di Idealmente dovrebbero
esclusione) essere un campione
rappresentativo dell'intera
E' preferibile scegliere popolazione in studio
sempre i casi "incidenti" (rispecchiano la
in quanto quelli già distribuzione
esistenti (prevalenti) dell'esposizione nella
potrebbero avere popolazione generale)
caratteristiche diverse (ad
es. forme di malattia meno E' importante che abbiano
grave) che favoriscono una le stesse caratteristiche
più lunga sopravvivenza individuali dei casi ( ciò si
può ottenere con
l'APPAIAMENTO)

La raccolta di dati anamnestici deve avvenire in modo identico per i due gruppi e, a seconda
delle circostanze, può riguardare una revisione di cartelle cliniche, un’intervista ai
partecipanti allo studio o un’intervista a parenti, qualora i casi siano persone decedute o in
condizioni tali da non poter rispondere (malati gravi, bambini).

104
La definizione di caso deve essere ben specificata nel protocollo di ricerca; essa deve
possibilmente considerare criteri di inclusione e di esclusione oggettivi piuttosto che
soggettivi; questo per rendere uniforme al massimo il gruppo dei malati.
Una prima possibilità per la scelta dei controlli è la tecnica dell’appaiamento (matching); in
questo caso, per ogni malato si seleziona una persona che abbia le stesse caratteristiche
ritenute importanti per l’indagine (età, sesso, luogo di nascita, condizione sociale, ecc.)
tranne che l’essere affetto dalla malattia considerata oppure essere portatore di condizioni
correlate alla malattia stessa (ad esempio patologie interessanti lo stesso apparato). La
tecnica, seppur metodologicamente molto appropriata, presenta inconvenienti tecnici che ne
rendono scarsamente diffuso l’impiego.
L’altra modalità si realizza scegliendo un gruppo di persone che, globalmente, ha
caratteristiche simili a quelle dei casi (stessa età media, stesse percentuali delle varie
condizioni sociali, ecc.) tranne che la malattia o condizioni correlate con essa.

MODALITA' DI CONDUZIONE di STUDI CASO-CONTROLLO

A) Identificazione dei casi (documentati da indagini cliniche, strumentali,


laboratoristiche)

B) Selezione dei controlli (ricercati in collettività, reparti ospedalieri, ambienti di


lavoro, ecc.)

C) Raccolta dei dati retrospettivi sia per i casi che per i controlli (con identiche
modalità): cartelle cliniche, interviste, test di laboratorio, eec.

D) Analisi dei dati (non calcola l'incidenza e la prevalenza; studia l'associazione tra
esposizione pregressa e malattia ODDS RATIO)

105
L'analisi dei dati di uno studio caso-controllo può essere ricondotta ad una tabella 2X2
(tabella di contingenza).

CASI CONTROLLI

Esposti a b a+b

Non esposti c d c+d

a+c b+d

ODDS RATIO:

ad
a/b : c/d = a/c x d/b =
cb

OBIETTIVI

1) valutare il ruolo di uno o più fattori di rischio attraverso una rilevazione


retrospettiva di dati ricavati da due gruppi di individui, di cui uno costituito da
soggetti con una specifica malattia (o altra condizione) e l'altro da soggetti senza
quella condizione

2) stimare il rischio relativo (odds ratio)

3) valutare il ruolo dei singoli fattori di rischio e dell'eventuale sinergismo in caso di


etiologia multifattoriale

106
STUDI CASO-CONTROLLO - (vantaggi e svantaggi)

VANTAGGI SVANTAGGI

E' organizzativamente Non permette di calcolare


semplice, poco costoso e l'incidenza o la prevalenza
rapido delle malattie ma solo la
stima dei rischi relativi
Consente di indagare
contemporaneamente su
diversi possibili fattori di Non è adatto se il fattore di
rischio rischio è poco frequente
nella popolazione
Permette di saggiare esaminata
ipotesi recentemente
emerse
Mancanza di dati oggettivi
Può essere utilizzato per sull'entità dell'esposizione
malattie molto rare

E' relativamente semplice


mantenere costanti le Scarsa rappresentatività
modalità di rilevazione

Semplicità

Rapidità
BIAS COMUNI

Selezione non accurata dei casi e dei controlli (rischio di errore


sistematico)

Atteggiamenti psicologici e ricordi diversi nei casi rispetto ai controlli


(recall bias)

Atteggiamenti diversi dell'intervistatore

Se si utilizzano casi "prevalenti" anziché "incidenti" si possono


scambiare per fattori di rischio condizioni associate con una maggiore
sopravvivenza

107
ESEMPIO
Uno degli argomenti più dibattuti nella letteratura scientifica degli ultimi anni è quello
dell’eventuale ruolo degli ormoni estro-progestinici nello sviluppo del tumore alla
mammella. Evidenze epidemiologiche avevano già scartato l’associazione tra uso di pillola
ed altri tumori dell’apparato genitale femminile, quale quelli dell’ovaio e dell’utero. Per il
tumore della mammella, i pareri sono discordanti, in quanto alcuni studi hanno dimostrato la
sussistenza di questa associazione, altri l’hanno categoricamente smentita adducendo una
serie di possibili distorsioni che possono avere alterato i risultati positivi degli studi. Uno
degli ultimi contributi è costituito da uno studio caso-controllo multicentrico effettuato in
Scandinavia, tendente a valutare il passato uso di ormoni estro-progestinici. Esso ha dato i
seguenti risultati globali:

Casi Controlli Totale


(Malati) (Non malati)
Esposti 326 371 697
Non Esposti 96 156 252
Totale 422 527 949

OR  1,42 (IC 95%  0,8  2,3)

Il valore dell’Odds Ratio (OR), che costituisce la stima del rischio relativo è di 1,42 ma il
risultato, pur mostrando una maggior frequenza di esposizione tra i casi, non può essere
considerato significativo, per la possibilità di fluttuazioni dovute al caso. L’analisi non si è
fermata ai dati globali ma ha considerato anche la stratificazione per numero di anni di
impiego dei contraccettivi orali.

Durata uso pillola OR (IC 95%)


FINO A 3 ANNI 1,2 (0,8-1,6)
Da 4 a 7 anni 1,3 (0,8-1,9)
Da 8 a 11 anni 1,4 (0,8-2,3)
12 o più anni 2,2 (1,2-4,0)

108
I dati dimostrano che, in soggetti che hanno fatto uso di ormoni estro-progestinici per più di
12 anni, la stima del rischio relativo per il tumore della mammella è di 2,2 (statisticamente
significativo con p<0,05). Il rischio di per sé non è molto elevato e soprattutto non è stato
ribadito da altri studi sull’argomento.

Diversi autori hanno tentato di dare una spiegazione in termini di distorsioni dei risultati
positivi ottenuti. Due tipi di bias sembrano poter aver inciso in maniera determinante. Il
primo riguarda la maggior tendenza dei casi rispetto ai controlli a riferire passato uso di
contraccettivi. Questa distorsione (che gli anglosassoni chiamano recall bias) è dovuta
principalmente al fatto che la presenza della malattia determina nel malato una maggiore
predisposizione nel ricordare particolari fatti avvenuti in passato. Vi è da aggiungere, poi, che
proprio nei paesi scandinavi è stata effettuata una campagna di stampa allarmistica su questo
argomento, fatto questo che può avere senz’altro influito su molte risposte.
Un altro fatto che può avere rivestito un ruolo è la frequenza dei controlli medici ai quali
sono state sottoposte le pazienti sotto terapia ormonale (bias di sorveglianza). Una maggior
frequenza di visite può non solo avere anticipato la diagnosi ma può avere anche portato alla
luce tumori di piccole dimensioni che probabilmente non si sarebbero mai manifestati in
forma clinicamente evidente. Questo fatto può avere avuto influenza sulla stima del rischio
relativo. Gli elementi illustrati rendono perciò piuttosto scettici sulla possibilità di questa
associazione.

109
SST
TUUD
DII L
LOON
NGGIIT
TUUD
DIIN
NAAL
LII O
ODDII C
COOO
ORRT
TEE

Gli studi longitudinali comprendono una vasta serie di indagini che hanno la caratteristica
comune di prevedere l’osservazione per un determinato periodo di tempo.
Gli studi longitudinali più noti sono quelli a coorte, in cui uno o più gruppi di soggetti
(generalmente esposti ad un fattore di rischio) vengono seguiti nel tempo per valutare
l’incidenza di una specifica malattia.
Un gruppo a parte è costituito da semplici studi di follow-up, in cui non sono soggetti sani ad
essere considerati ma soggetti già malati, che vengono seguiti nel tempo al fine di valutare il
periodo di sopravvivenza dal momento della diagnosi.

Questo tipo di osservazioni è la base per quella che viene definita in termini tecnici l’analisi
della sopravvivenza.
Negli studi longitudinali uno o più gruppi di soggetti (lavoratori di un’azienda, membri di
una collettività) vengono seguiti nel tempo, per un periodo variabile a seconda degli interessi
specifici dell’indagine, al fine di determinare se l’incidenza di una particolare malattia è
maggiore nel gruppo degli esposti rispetto a quello dei non esposti o rispetto alla popolazione
generale. In questo modo si può valutare con precisione il ruolo di un supposto fattore di
rischio nell’insorgenza di una malattia.

STUDIO DI COORTE PROSPETTIVO (CONCORRENTE)

popolazione
M+
esposti
M-

M+
non esposti

M-

T0 T1
inizio dello fine dello
studio studio

110
I due problemi maggiori di uno studio a coorte sono costituiti da come quantificare
l’esposizione e, soprattutto, da come raccogliere i dati riguardanti l’evento in studio (malattia
o morte).

L’evento terminale di interesse è costituito dall’insorgenza della malattia (per le condizioni


meno gravi) o dalla morte (soprattutto nel caso di tumori).

Quest’ultimo dato è più facilmente ricavabile particolarmente se sussistono validi sistemi di


raccolta centralizzata; si possono in questo caso utilizzare le schede di decesso che vengono
obbligatoriamente compilate.

Se l’evento è costituito dalla malattia, ad eccezione delle località in cui esistono appositi
registri (come il registro tumori) deve essere l’osservazione all’interno dello studio che mette
in evidenza i casi. Ciò implica ulteriori difficoltà per le visite più frequenti, i criteri di
definizione della malattia e l’utilizzo di metodiche di laboratorio con i relativi possibili errori.

Poiché lo studio longitudinale è focalizzato sulla comparsa della malattia nei soggetti
appartenenti ad una coorte, non si addice a malattie poco frequenti in cui il numero dei
partecipanti da coinvolgere dovrebbe essere molto elevato; inoltre, le difficoltà operative
aumentano proporzionalmente con l’aumento del tempo di latenza tra esposizione e comparsa
della malattia.

Una variante degli studi a coorte che risolve parzialmente problemi di lunghezza
dell’indagine e di costi è costituita dagli studi a coorte storica (historical cohorts), in cui la
coorte viene identificata in base ai dati di pregresse esposizioni e la valutazione
dell’incidenza di malattia o della mortalità per una specifica causa viene eseguita al momento
dell’impostazione dello studio od in un periodo immediatamente successivo. La condizione
essenziale è quella di disporre dei dati riguardanti particolari esposizioni, ad esempio i
registri delle fabbriche, utilissimi per raccogliere dati riguardanti l’esposizione di determinati
lavoratori a sostanze nocive.

111
STUDIO DI COORTE RETROSPETTIVO (NON CONCORRENTE-STORICO)

popolazione
M+
esposti
M-

M+
non esposti

M-

T -1 T0
inizio e fine
dello studio

112
STUDIO DI COORTE MISTO

popolazione
M+
esposti
M-

M+
non esposti

M-

T -1 T0 T1
inizio dello fine dello
studio studio

OBIETTIVI

1) calcolare la densità di incidenza e la mortalità delle malattie

2) quantizzare il rischio attraverso il calcolo dei tassi di incidenza negli esposti, nei non
esposti e negli esposti a vari gradi e livelli

3) Calcolare il rischio relativo ed attribuibile

4) Confrontare soggetti esposti in modo diverso, analisi differenziate per età e durata
dell'esposizione

113
STUDI DI COORTE - (vantaggi e svantaggi)

VANTAGGI SVANTAGGI

Calcolo diretto dei tassi di Di lunga durata,


incidenza nei gruppi organizzativamente costoso
esposti e non esposti

Tutti i casi di malattia o di E' difficile mantenere


complicazioni che si costanti nel tempo le
verificano in un tempo modalità di rilevazione
definito possono essere
accertati obiettivamente Non si possono saggiare
ipotesi etiologiche suggerite
La rilevazione dei fattori di successivamente all'inizio
rischio non è influenzata dello studio
dalla presenza di malattia
Non si addice a malattie
Valuta fattori di rischio rare nella coorte in esame
per esposizioni rare

Permette di fare confronti


relativi ed assoluti tra le
incidenze di esposti e non
esposti

BIAS COMUNI

Perdite al follow-up

La conoscenza dell'esposizione o meno ai fattori di rischio può influire


sull'accertamento della malattia (studio in cieco)

Cambiamenti nel tempo delle metodiche di rilevazione

Recall bias incaso di studio retrospettivo

114
SST
TUUD
DII SSPPE
ERRIIM
MEEN
NTTA
ALLII

Pur comprendendo gli studi metodologicamente più corretti, l’epidemiologia sperimentale, o


di intervento, trova molte limitazioni di applicazione in campo umano a causa di problemi
etici. Questi studi prevedono, infatti, l’intervento diretto dello sperimentatore provocando
l’esposizione ad un fattore di rischio , oppure sottoponendo a particolari terapie o
rimuovendo determinate esposizioni.

Siccome per la valutazione occorre disporre quasi sempre di un gruppo di riferimento,


l’assegnazione ad un gruppo piuttosto che ad un altro può avvenire correttamente per mezzo
della randomizzazione.
Tutte le misure epidemiologiche (tassi di sopravvivenza, di incidenza, di mortalità) vengono
quindi valutate nel modo più idoneo, in seguito ad intervento diretto dello sperimentatore;
esso ha lo scopo precipuo di annullare la disomogeneità dei diversi gruppi paragonati, uno tra
i principali problemi degli studi osservazionali.

Il modello dell’esposizione ad un fattore di rischio è applicabile solo in campo animale,


mentre in campo umano possono essere utilizzate sia misure preventive da applicare a
soggetti sani sia misure terapeutiche a soggetti malati; queste ultime trovano limitazione in
quanto, non appena viene provata la maggior efficacia di una cura rispetto ad un’altra, viene
ritenuto non etico trattare soggetti con la vecchia terapia.

Nel campo della prevenzione gli studi sperimentali trovano maggiori applicazioni; si tratta di
interventi consistenti nella rimozione di uno o più fattori di rischio o nell’imposizione di
misure preventive che si ritengano probabilmente efficaci.

Gli studi epidemiologici sperimentali vengono divisi in due principali gruppi: le


sperimentazioni cliniche (clinical trials) e gli interventi preventivi (preventive trials).

115
Questi ultimi sono a loro volta suddivisi in sperimentazioni di intervento comunitario
(community intervention trial) o sperimentazioni sul campo (field trial) a seconda che siano
interventi rispettivamente su intere comunità o sulle singole persone.

SPERIMENTAZIONI
CLINICHE
(clinical trials)
Community intervention trial
(target intera comunità -
sperimentaz. Interv.
INTERVENTI comunitario)
PREVENTIVI
(preventive trials)

Field trial
(target singola persona -
sperimentazioni sul campo)

L
LEE SSPPE
ERRIIM
MEEN
NTTA
AZZIIO
ONNII C
CLLIIN
NIIC
CHHE
ECCO
ONNT
TRRO
OLLL
LAAT
TEE

Il più diffuso studio epidemiologico sperimentale è costituito dalle sperimentazioni cliniche


controllate, ricerche eseguite su persone generalmente malate per valutare l’efficacia di due o
più specifici trattamenti farmacologici o altre procedure terapeutiche (es. interventi
chirurgici) nell’arrestare o rallentare il processo morboso.

Le sperimentazioni cliniche che riguardano nuovi farmaci da immettere o appena immessi in


commercio si dividono in quattro fasi distinte:

Fase I – Valutazione degli effetti farmacologici e della tossicità. La prima fase di


applicazione sull’uomo tende soprattutto a privilegiare la sicurezza del farmaco
rispetto all’efficacia e viene condotta su un numero limitato (20-80 persone) di

116
volontari, spesso reclutati nelle stesse aziende farmaceutiche. Oltre all’attenta
monitorizzazione del metabolismo e della biodisponibilità del farmaco, questa
fase mira, attraverso somministrazione di dose progressive, a stabilire gli
opportuni dosaggi terapeutici, messi poi in atto in fase II.
Fase II – Iniziale valutazione clinica dell’effetto del farmaco. Trovata la dose efficace, in
questo stadio si tende, oltre a confermare la sicurezza della sostanza, a valutarne
il reale beneficio terapeutico attraverso un monitoraggio continuo dei pazienti
reclutati. Questa fase coinvolge un numero di volontari mai superiore a 100-200 e
blocca l’iter di molte sostanze il cui reale beneficio è minimo.
Fase III – Valutazione completa del trattamento. Provata l’efficacia di un determinato
farmaco, diventa fondamentale paragonarne l’effetto con quelli già esistenti ed
utilizzati come terapia standard. Questa fase è la sperimentazione clinica
controllata propriamente detta, sicuramente la più importante ed onerosa. La
buona riuscita della sperimentazione condiziona l’eventuale registrazione del
farmaco in commercio. Trattandosi di confronti tra diversi trattamenti, questa fase
è certamente la più importante e quella in cui le metodiche epidemiologiche
trovano la maggiore applicazione; ogni ulteriore discussione sulla metodologia
delle sperimentazioni cliniche verterà principalmente su questa fase.
Fase IV – Sorveglianza post-registrazione. Dopo la registrazione, i farmaci devono essere
monitorati per valutare soprattutto l’eventuale insorgenza di effetti collaterali a
distanza o molto rari, oltre ad una più esaustiva valutazione dell’efficacia,
soprattutto per le patologie a lungo termine.

Oltre ad alcune caratteristiche comuni ad altri tipi di studio, ve ne sono alcune che risultano
particolarmente importanti negli studi sperimentali e nelle sperimentazioni cliniche in
particolare.
Come abbiamo già sottolineato, le sperimentazioni cliniche (così come gli interventi
preventivi) non possono essere impiegate frequentemente.
Diventano quindi importanti le regole etiche che devono essere rigorosamente rispettate e
controllate da speciali organi (in alcune realtà straniere esistono già da tempo comitati etici
locali che valutano questi requisiti)

Le più importanti regole etiche si possono riassumere in tre punti:

117
a) la condizione iniziale affinché lo sperimentatore possa paragonare due o più trattamenti è
che vi devono essere buone ragioni scientifiche per ritenere che il nuovo trattamento sia
più efficace di quelli impiegati sino a quel momento (che potrebbe anche essere nessuna
terapia per malattie non gravi) e contestualmente non vi deve già essere evidenza certa
della superiorità dell’uno piuttosto che dell’altro.
b) Per qualsiasi tipo di studio sperimentale il paziente deve essere informato della
sperimentazione in corso e fornire il suo benestare all’inclusione nello studio
(ottenimento del consenso informato).
c) Durante lo svolgimento dello studio può emergere che un trattamento sia, con certezza,
migliore rispetto all’altro; questo può derivare sia da dati inequivocabili che emergono
dalla sperimentazione in corso sia da altre fonti; se si verifica questa eventualità la
sperimentazione deve venire interrotta immediatamente.

Soddisfatte queste regole etiche ed altre come la ragionevole certezza che il farmaco non sia
pericolo, è lecito procedere a tale studio che è indispensabile per il progresso della medicina;
infatti, in caso di impatto positivo, le nuove procedure terapeutiche si possono
successivamente estendere all’intera popolazione.

Quando le caratteristiche della condizione in studio lo consentono, i pazienti di un gruppo


possono non venire sottoposti ad alcun trattamento terapeutico o , più correttamente, venire
sottoposti a trattamento con placebo, ossia con sostanze o procedure assolutamente
ininfluenti sulla malattia in questione (es. somministrazione di soluzioni fisiologiche); questa
procedura viene attivata quando si dubita dell’effetto benefico di un farmaco su una
determinata patologia in quanto evidenze sperimentali hanno dimostrato che il solo atto di
somministrazione del farmaco può indurre, nel caso di condizioni morbose particolari ed in
soggetti psicologicamente predisposti, miglioramenti clinici di un certo rilievo.
L’optare per il non trattamento piuttosto che per il placebo (tecnicamente più complesso e
costoso) dipende dal tipo di valutazione finale prevista; se quest’ultima viene effettuata con
criteri in qualche modo influenzabili dal soggetto (es. valutazione del dolore) oppure no.
Un’altra possibilità la cui utilizzazione dipende dal tipo di valutazione finale, è quella di
effettuare lo studio in cieco oppure no.

118
Per SINGOLO CIECO si intende la situazione in cui il soggetto non è a conoscenza del
gruppo di trattamento a cui è stato assegnato.

Per DOPPIO CIECO si intende la situazione in cui né il soggetto né lo sperimentatore


(medico che somministra il farmaco) sono a conoscenza dell’assegnazione.

Per TRIPLO CIECO si intende la situazione in cui anche l’elaborazione statistica dei dati viene
effettuata senza conoscere a quale gruppo corrispondano i diversi trattamenti.

Queste metodiche riducono l’influenza che sperimentatori e pazienti possono imprimere allo
studio rendendo i risultati più attendibili.

Esistono inoltre modelli di studio sperimentale a livello comunitario e sul campo.

SPERIMENTAZIONI DI INTERVENTO COMUNITARIO


L'intervento è destinato ad una intera comunità (fluorazione artificiale delle acque
potabili, progetti di educazione alimentare, gozzo endemico, ecc.). In genere la valutazione
finale di queste indagini richiede un tempo di alcuni anni e si attua con il confronto dei tassi
di incidenza tra i trattati e non.
SPERIMENTAZIONI SUL CAMPO (Field trials):

Interventi preventivi su soggetti non malati ma a rischio di contrarre, in futuro, una


determinata malattia. Poiché il rischio individuale di contrarre una malattia è piuttosto basso,
per essere efficaci devono coinvolgere un vasto numero di soggetti (es. studio efficacia
vaccino Salk). Un modo per ridurre i costi è quello di analizzare certi trattamenti in persona a
più alto rischio (es. studio vaccinazione antiepatite B).
La valutazione finale avverrà mediante confronto tra l'incidenza della malattia nei
trattati e quella nei non trattati.

119
OBIETTIVI DEGLI STUDI SPERIMENTALI
 Paragonare l'efficacia di due o più trattamenti terapeutici
 Valutare l'efficacia di un intervento di prevenzione o di rimozione di fattori di rischio
su un gruppo di persone o su un'intera comunità
 Analizzare le conseguenze degli interventi terapeutici in termini di NNT (Number
Needed to Treat = numero necessario di soggetti da trattare per ottenere un successo
clinico) negli studi di costo-efficacia
Dove NNT= 100/percentuale di successi in più

STUDI SPERIMENTALI - (vantaggi e svantaggi)

VANTAGGI SVANTAGGI

E' il più corretto studio da Applicazioni limitate


un punto di vista nell'uomo per problemi
metodologico etici

Unico caso in cui sono Spesso di difficile


rispettati i principi organizzazione, di lunga
dell'inferenza statistica durata e costoso

BIAS COMUNI

Perdite al follow-up

Rifiuto alla partecipazione

La conoscenza del trattamento può influenzare l'accertamento dell'esito


(se non si utilizzano studi in cieco)

120
ESEMPIO

Un esempio di sperimentazione clinica è stata condotta tra il 1973 e il 1980 presso l’Istituto
Tumori di Milano ed ha riguardato il paragone tra l’intervento di mastectomia versus la
semplice quadrantectomia in tumori maligni del seno di dimensioni inferiori a 2 cm.
Un campione di 701 pazienti sono state assegnate casualmente (busta chiusa inserita nella
cartella clinica al momento del ricovero) ad uno dei due trattamenti; sono state seguite per
cinque anni ed hanno fornito i seguenti risultati.:

Mastectomia Quadrantectomia
Tasso di sopravvivenza a 5 anni 90,1 (2,5) 89,6 (2,6)

Nessuna differenza statisticamente significativa è emersa tra i due trattamenti sia riguardo la
sopravvivenza sia riguardo l’insorgenza di metastasi; dopo la pubblicazione di questi risultati
è stata adottata su larga scala la pratica chirurgica di eseguire, nel caso di tumori circoscritti,
la sola quadrantectomia.

Mastectomia = Asportazione di tutta la mammella.

Quadrantectomia = Asportazione di un solo quadrante, quello interessato dal tumore.

Tumorectomia = Asportazione del nodulo maligno soltanto.

A questi interventi più limitati si aggiunge l’asportazione dei linfonodi.

121
L
LAAM
MEET
TAA--A
ANNA
ALLIISSII

Come si possono combinare le informazioni provenienti da diversi studi sia sperimentali che
osservazionali?
Combinare le informazioni rappresenta una parte fondamentale della attività scientifica, del
processo decisionale del medico e della programmazione e pianificazione sanitaria.
Sia per il medico pratico sia per il ricercatore, la crescita della letteratura scientifica è tale da
rendere praticamente impossibile un reale e completo aggiornamento.
Anche all’interno di una singola branca della medicina è spesso difficile tenere dietro a tutto
quanto viene pubblicato e può essere potenzialmente rilevante per la pratica clinica.
Per questa ragione, il medico pratico, ma anche il ricercatore, si affida sempre di più alle
revisioni della letteratura (le cosiddette “review”) per potersi rapidamente ed efficacemente
aggiornare sulla eziologia, sulla diagnosi e sul trattamento delle patologie pertinenti il suo
proprio settore di attività.
Tradizionalmente, queste review sono preparate da esperti che tendono a basarsi sulle
informazioni per loro più consolidate.
La selezione delle informazioni da inserire all’interno di una revisione della letteratura
vengono filtrate dalla propria esperienza personale, dalla conoscenza di ognuno su quanto si
ritiene realmente rilevante, e dalle opinioni – più o meno obiettive – sulla credibilità o meno
a priori delle singole fonti.
Per quanto ci siano degli indubbi vantaggi in questo tipo di approccio (una diretta e
approfondita conoscenza di un determinato argomento è prerequisito fondamentale per
contribuire in maniera significativa alle conoscenze) ci sono anche pericoli che non devono
essere sottovalutati.
Chi cura una review può infatti decidere di includere un determinato studio semplicemente
perché è particolarmente affidabile e credibile il gruppo di ricerca che lo ha prodotto più che
per la intrinseca qualità metodologica del lavoro stesso.
Le revisioni della letteratura finiscono spesso per fare più luce sugli aspetti di contraddizione
(più o meno reale) tra i singoli studi che non aiutare a risolvere realmente le controversie
interpretative.
Infine – e questo rappresenta indubbiamente il nodo critico più importante – le review
tradizionali si basano sul cosiddetto “approccio della conta” ovverosia sul valutare quanti
sono i cosiddetti “studi positivi” (quelli, cioè, nei quali si dice che un certo trattamento

122
sperimentale è più efficace di un altro o un certo agente eziologico è associato alla insorgenza
di una malattia) e quanti invece gli “studi negativi” (quelli, cioè, nei quali si dice che un
certo trattamento sperimentale non è più efficace di un altro o un certo agente eziologico non
è associato alla insorgenza di una malattia).
Alla fine le conclusioni si basano sulla differenza netta tra studi positivi e negativi.

Questo modo di procedere si deve considerare scorretto.


Basti ricordare che così facendo si ignora:
a) la “dimensione dell’effetto” dell’intervento studiato;
b) la “precisione della stima” di tale effetto ottenuta in ogni singolo studio.

Fin dai primi anni ’80 alle tradizionali review (definite da alcuni “narrative”, proprio per
questa loro natura essenzialmente qualitativa) si sono progressivamente affiancati studi
caratterizzati da una metodologia maggiormente strutturata e formale che va sotto il nome di
meta-analisi.
A differenza della review narativa, il metodo della meta-analisi si basa sull’idea di
considerare prima qualitativamente – nella stesura ed esplicitazione delle ipotesi di lavoro
della revisione stessa e della esplorazione delle differenze/analogie di disegno, conduzione ed
interpretazione dei diversi studi considerati – e poi quantitativamente i risultati dei singoli
studi al fine di combinarli per poter raggiungere quel grado di precisione che i singoli studi
non erano in grado di raggiungere.
La meta-analisi può quindi essere definita più come un approccio che una metodologia
specifica.

Definizione: Analisi combinata di informazioni quantitative ottenute in due o più studi


indipendenti e selezionati – sulla base di definiti criteri – dall’insieme,
possibilmente completo, di studi tendenti ad indagare uno stesso
fenomeno di interesse.

I risultati di una Meta-Analisi rafforzano la conoscenza al di là del contributo della


molteplicità dei singoli studi, accumulando evidenze circa gli effetti di un trattamento o di
una procedura.
Certamente, nel condurre una meta-analisi è importante conoscere i diversi metodi statistici
(e le relative assunzioni) disponibili per combinare quantitativamente i risultati dei singoli

123
studi o le diverse metodologie proposte per valutare la qualità del disegno e della conduzione
di uno studio.
Un errore abbastanza comune è quello di assumere che la meta-analisi sia semplicemente
un insieme di metodi statistici utili a combinare quantitativamente le informazioni derivate da
studi diversi.
In verità possiamo definire la meta-analisi come quella disciplina che governa – attraverso
un insieme di regole – l’intero processo di revisione ed analisi critica delle conoscenze
scientifiche.
Tale processo comprende le seguenti tappe:

a) formulazione dei quesiti di ricerca rilevanti;


b) definizione delle fonti appropriate attraverso le quali ricercare le evidenze (studi)
disponibili;
c) valutazione appropriata della qualità metodologica ed espositiva dei singoli studi;
d) procedura appropriata di estrazione dei dati dai singoli studi;
e) combinazione statistica (quando possibile) dei dati secondo il modello ritenuto più
appropriato alla natura dei dati disponibili.

Gli scopi essenziali di una meta-analisi possono pertanto essere così riassunti:

a) fornire una visione di insieme di un corpo di conoscenze complesse ed apparentemente


contrastanti per indirizzare nel modo più corretto possibile le decisioni (siano esse di tipo
clinico o pianificatorio) e indirizzare la ricerca futura;
b) aumentare la potenza statistica posseduta da un solo o più studi al fine di cogliere
modificazioni nella frequenza di eventi relativamente poco frequenti;
c) migliorare la precisione nella stima dell’effetto di un trattamento o del peso di un fattore
etiologico;
d) esplicitare e possibilmente risolvere contraddizioni presenti in uno specifico settore della
letteratura scientifica;
e) esplorare e aiutare a comprendere le ragioni della eterogeneità clinica tra studi diversi;
f) analizzare e possibilmente spiegare le variazioni nell’effetto di un trattamento o di una
esposizione in situazioni organizzativo/assistenziali ed ambientali diverse o all’interno di
specifici sottogruppi di pazienti.

124
PERCHE’ E DOVE E’ UTILE LA META-ANALISI

La grande maggioranza degli studi riportati in letteratura sono numericamente


sottodimensionati (includono, cioè, troppo pochi pazienti).
Questo può accadere o perché le attese circa l’efficacia (se ci occupiamo di un trattamento) o
il ruolo causale (se ci occupiamo di agenti eziologici) sono sovrastimate o perché gli Autori
dei singoli studi non hanno adeguatamente riflettuto – in fase di pianificazione dello studio -
sul numero di pazienti necessari a conferire una determinata potenza statistica.
Ciò che ha forse più di tutto contribuito all’affermarsi della Meta-analisi in medicina è stato
proprio la possibilità di combinare in modo sistematico i risultati di tanti studi tra loro
conflittuali (alcuni a favore, altri contro e altri ancora né a favore né contro un determinato
intervento).
Chi legge la letteratura medica alla ricerca di novità, o comunque per sapere se un
trattamento è efficace o una determinata esposizione è nociva, spesso dimentica la
semplice regola secondo cui l’effetto di un intervento è il risultato della sommatoria di
Effetto vero + Variabilità casuale + Errore sistematico
Anche se il problema è sempre rilevante, è soprattutto nel caso dei cosiddetti “studi negativi”
che il lettore dovrebbe “stare all’erta”.
Lì infatti, più che altrove, potrebbe nascondersi l’effetto della variabilità casuale.
Per quanto banale possa apparire, infatti, va sempre ricordato che la mancata dimostrazione
di efficacia di un trattamento (o del ruolo eziologico di una esposizione) non equivale
automaticamente alla dimostrazione di non-efficacia.
Se la variabilità casuale è grande non stupirà che i risultati dei singoli studi si distribuiscano
attorno all’ignoto “valore vero”, alcuni apparentemente suggerendo un effetto positivo ed
altri suggerendo un effetto negativo del trattamento.
È proprio in queste situazioni in cui i risultati dei diversi studi sono (spesso solo
apparentemente) tra loro conflittuali che è utile una analisi combinata, sistematica e in grado
di “pesare” in modo differenziato le evidenze che provengono dai singoli studi.
Senza contare poi che comunque una analisi qualitativa degli studi esistenti può essere la
migliore guida per disegnare futuri studi realmente informativi su un determinato argomento.

125
LE OBBIEZIONI PIU’ COMUNI ALLA META-ANALISI

Nonostante stia diventando sempre più comune incontrare i risultati di meta-analisi


all’interno di riviste scientifiche, le obbiezioni mosse alle procedure di combinazione di dati
– indipendentemente dal metodo statistico utilizzato – sono numerose.

Prima obbiezione: I pazienti differiscono da studio a studio


Chi solleva questo tipo di riserva sostiene che anche se in una meta-analisi si utilizzano i
risultati di studi in cui sono stati reclutati pazienti con analoga diagnosi principale (es. infarto
del miocardio) in realtà non è possibile combinare i risultati in quanto le differenze tra i
pazienti reclutati nei diversi studi vanno ben al di là di quanto c’è di omogeneo tra pazienti
accomunati da una diagnosi analoga (es. distribuzione per età, stato di salute, fattori
prognostici conosciuti e sconosciuti, ecc.).
Per questo motivo, le stime complessive basate sull’integrazione dei risultati provenienti dai
vari studi sarebbero fallaci e non contribuirebbero in alcun modo ad aiutare il clinico a
decidere l’uso più appropriato di una determinata terapia.

Seconda obbiezione: Anche se apparentemente similari, i tipi di trattamento variano da


studio a studio.
Nella maggior parte delle meta-analisi fino ad oggi riportate in letteratura, il quesito
principale ha riguardato l’efficacia complessiva di un farmaco (o di una combinazione di
farmaci) in una specifica patologia o in gruppi di condizioni morbose.
È stato in questa logica che sono state portate a termine le meta-analisi sull’efficacia dei -
bloccanti, dell’aspirina, o della terapia fibrinolitica nella prevenzione della mortalità nel post-
infarto, o quelle relative alla efficacia della chemioterapia adiuvante nel trattamento del
carcinoma della mammella o del colon-retto.
Alcuni obiettano che i risultati complessivi sono scarsamente attendibili, e soprattutto poco
utilizzabili per formulare specifiche raccomandazioni terapeutiche.
La decisione finale circa l’efficacia deriverebbe infatti da studi in cui il trattamento
sperimentato variava per:
a) tipo specifico di farmaco utilizzato;
b) durata della terapia;
c) via di somministrazione;

126
d) associazione con altri tipi di trattamento collaterale, ecc.
Tutto questo renderebbe difficilmente interpretabile il risultato complessivo.

Terza obbiezione: Le condizioni di setting differiscono nei vari studi.


Questa riserva sulla validità delle stime complessive ottenute con una meta-analisi viene
giustificata sostenendo che, anche a fronte di una effettiva e documentata comparabilità dei
pazienti studiati e dei trattamenti sperimentati, esistono ancora molte differenze – dipendenti
in generale dalle condizioni concrete entro cui viene condotto uno studio – che possono
rendere di fatto non confrontabili i risultati delle singole ricerche.

Quarta obbiezione: La validità scientifica, e di conseguenza l’attendibilità dei risultati,


varia in modo importante da studio a studio.
Nonostante non esista oggi un consenso su come misurare la qualità di uno studio clinico,
sono recentemente comparsi in letteratura numerosi articoli che documentano carenze
importanti sia nella metodologia impiegata sia nel modo di riferire informazioni essenziali
per la comprensione dei risultati, e mettono in guardia circa le conseguenze che questo può
avere nella produzione di risultati non validi.
È a causa di questa crescente consapevolezza che molti hanno riserve sulla validità della
meta-analisi, sostenendo che la combinazione di molti studi indipendentemente dalla loro
qualità può portare a conclusioni errate. Non essendo tuttavia possibile trovare l’accordo su
un metodo per misurare la qualità di uno studio, i diversi autori di meta-analisi hanno scelto
strade diverse per rispondere a questa obiezione.

Quinta obbiezione: Quando si fa una meta-analisi si finisce più o meno invariabilmente


per dimostrare che il trattamento comunque funziona.
Questa obiezione nasce dal fatto che alcune delle meta-analisi riportate recentemente nella
letteratura medica hanno dimostrato in modo evidente l’efficacia di trattamenti il cui
beneficio non era invece emerso in modo convincente nei singoli studi clinici anche se di
dimensioni ragguardevoli.

Chi solleva questo dubbio parte dalla constatazione che avendo a disposizione grandi numeri
è molto più probabile che differenze molto limitate tra due trattamenti raggiungano la
significatività statistica.

127
PROBLEMI METODOLOGICI NELLA ESECUZIONE
DI UNA META-ANALISI

A differenza della review tradizionale – per definizione soggettiva e legata a criteri


implicitamente stabiliti dall’autore – la meta-analisi si basa su criteri di valutazione espliciti e
necessita quindi di un protocollo di esecuzione che specifichi i diversi aspetti procedurali da
osservare.
Tra questi:
a) fasi diverse (ad esempio, nello sviluppo di un farmaco);
b) disegno diverso (ad esempio: controllati e non controllati);
c) dosi diverse di farmaco;
d) durate diverso di trattamento e di osservazione;
e) procedure diverse di trattamento;
f) definizione degli end-point principali e secondari;
g) diverse definizioni di esposizione al rischio (studi epidemiologici);
h) criteri di inclusione/esclusione degli studi;
i) metodi statistici impiegati e loro assunzioni;
j) criteri per la valutazione della consistenza dei risultati;
k) modalità di presentazione dei risultati stessi.
Come ricercare e selezionare in modo adeguato le fonti

Per quanto finora detto circa le differenze tra review tradizionale e meta-analisi è evidente
che il problema della selezione delle fonti è cruciale.
Selezionare in modo incompleto (o, peggio, palesemente parziale) le informazioni disponibili
può infatti rappresentare un cattivo servizio sia al prestigio ed alla utilità della disciplina sia
alla comunità scientifica che riceve messaggi errati cui la meta-analisi attribuisce una
maggiore credibilità.
Proviamo ad impostare il problema mettendoci dal punto di vista del lettore di una meta-
analisi ed immaginando che egli voglia, innanzitutto, assicurarsi che i risultati sono stati
ottenuti attraverso una esaustiva, appropriata e valida selezione delle fonti informative.

Che cosa dovrebbe questo lettore trovare scritto nella sezione “materiali e metodi” di questa
ipotetica meta-analisi?

128
Anche se vi possono essere differenze notevoli nel tipo di informazioni disponibili in
funzione del fatto che il quesito riguardi problemi di carattere eziologico, di efficacia di un
intervento o di impatto sulla prognosi di una malattia, si può ipotizzare che le informazioni
essenziali da fornire al nostro ipotetico lettore siano le seguenti.
Innanzi tutto la precisazione del periodo di tempo coperto dalla revisione e se il lavoro di
meta-analisi si è basato solo sui risultati di studi pubblicati o se sono state attivamente
ricercate anche informazioni provenienti da studi non ancora o mai pubblicati.

Quali sono le diverse modalità di reperimento dei dati pubblicati?

Non esiste un unico metodo in grado di garantire un completo censimento della letteratura.
Alla tradizionale esplorazione manuale delle bibliografie di articoli pubblicati si è oggi quasi
completamente sostituito l’uso delle banche dati computerizzate in grado di fornire –
attraverso l’uso di specifiche “parole chiave” – liste delle pubblicazioni pertinenti.
Se la consultazione di archivi computerizzati rappresenta oggi l’approccio standard iniziale, è
bene sapere che questo non può essere il solo modo di impostare il lavoro.
Un approccio comunemente associato al primo è quello di esaminare gli Atti dei più
importanti congressi internazionali di settore allo scopo di rintracciare le informazioni
sufficienti ad includere studi non ancora pubblicati in forma completa.
Dove esistono, può essere utile consultare registri di ricerche cliniche. Tali registri, di cui
esistono diverse tipologie e formati, possono variare in complessità ed accessibilità a seconda
che siano organizzati da singoli ricercatori o da organizzazioni nazionali o internazionali di
ricerca.
Infine, anche se può variare molto quanto a grado di formalizzazione, può essere utile
completare la ricerca delle fonti con indagini supplementari di tipo qualitativo rivolte ai
ricercatori del settore.

Ben più complesso è il problema quando si vogliono considerare nella meta-analisi anche gli
studi non pubblicati.
Tralasciamo per il momento il problema (che affronteremo tra poco) della verifica della
validità dei dati quando si utilizzano informazioni non precedentemente sottoposte a processo
di revisione.

129
Fondamentalmente il modo di procedere è lo stesso cui si è appena accennato, con però la
necessità che la fase più informale di ricerca sia condotta con particolare cura ed attenzione.
Ma perché alcuni sostengono che i risultati di una meta-analisi sono tanto più validi se si fa
uno sforzo per includere anche i risultati degli studi non pubblicati?
Occorre sottolineare che la probabilità che uno studio, una volta terminato, venga pubblicato
è direttamente influenzata dai suoi risultati.
Quanto più i risultati sono positivi, nel senso che dimostrano che un trattamento funziona, o
che una esposizione costituisce realmente un fattore di rischio per una certa malattia, tanto
più aumentano le probabilità che tale studio venga pubblicato.
Questo fenomeno è noto come “distorsione da pubblicazione” (pubblication bias) e può
rappresentare una minaccia per la validità di una meta-analisi in quanto porterà – in maniera
tanto più marcata quanto più il fenomeno è reale – a sovrastimare erroneamente l’effetto di
quel trattamento o il ruolo eziologico della particolare esposizione studiata.

Una meta-analisi non può quindi essere valida se non sono stati inclusi (o se, quanto meno,
non ci si è ragionevolmente accertati della non esistenza) di dati non pubblicati?

Una risposta valida per tutte le situazioni non è possibile.


Il dibattito in letteratura è molto vivo, anche perché viene con una qualche ragione ribattuto
ai sostenitori dell’inclusione a tutti i costi dei dati no pubblicati un possibile effetto
collaterale, che consisterebbe nella intrinseca maggiore difficoltà a verificare criticamente
consistenza e qualità del protocollo in assenza di una sua completa esposizione scritta.
Da questo punto di vista, il vero problema non è tanto la inclusione dei dati di studi non
pubblicati quanto piuttosto la possibilità di stabilire una collaborazione con gli autori dei
singoli studi per poter ottenere informazioni aggiuntive necessarie ad una verifica e ad una
corretta interpretazione dei dati.

Come estrarre le informazioni necessarie

Una volta selezionate le fonti, il passo successivo consiste nel ricavare in modo valido i dati
necessari alla esecuzione delle stime combinate quando queste sono possibili.
Quali sono i problemi metodologici cui ci si trova di fronte nella esecuzione pratica di una
meta-analisi?

130
 Non sempre i dati sono presentati nel lavoro originale in modo utile per chi vuole
condurre una meta-analisi.

Le informazioni necessarie per combinare i dati da un punto di vista quantitativo, sia che si
tratti di studi clinici controllati o di studi non sperimentali basati su variabili di tipo
categorico, sono molto semplici e possono essere schematizzate secondo la seguente tabella:

Esempio di tabella 2x2 ricavabile da ogni studio


Gruppo trattato Gruppo controllo
Morti a b a+b
Vivi c d c+d
a+c b+d N*
* = Numero totale di soggetti nello studio
Tuttavia, data la mancanza di una precisa standardizzazione nei modi di presentare i risultati
non è infrequente che gli articoli pubblicati presentino le informazioni:
a) in modo non utilizzabile (ad esempio perché categorizzati in modo diverso da studio a
studio);
b) in modo non ritenuto accettabile dal punto di vista della correttezza della analisi
statistica dei risultati (ad esempio escludendo dalla analisi finale una certa quota di
soggetti perché su di essi non c’erano informazioni sufficienti rispetto all’end-point di
interesse o perché l’autore li ha ritenuti diversi per specifiche caratteristiche dagli altri
soggetti);
c) in un modo palesemente scorretto per veri e propri errori dovuti a refusi tipografici o ad
inaccuratezze commesse dagli autori in sede di calcolo.

In tutti questi casi, evidentemente, sarebbero necessarie verifiche direttamente con gli Autori
del singolo studio.
Anche se talvolta questo viene fatto, la complessità e laboriosità di questo modo di procedere
(e talvolta anche la indisponibilità o la impossibilità dell’autore a collaborare) fa sì che
vengano scelti approcci più pragmatici come ad esempio la esclusione dello/degli studi non

131
utilizzabili o la analisi basata su quanto riportato nella pubblicazione originale senza ulteriori
verifiche.
È evidente che nel giudizio sulla credibilità dei risultati di una meta-analisi le scelte fatte in
termini di utilizzo e verifica critica dei dati originali dovranno trovare una adeguata
considerazione.

Come si utilizzano i dati quando si fa una meta-analisi

È abbastanza frequente sentire dire che i risultati di una meta-analisi non sono validi in
quanto essi derivano dall’aver messo insieme “pere con mele” associando i risultati di studi
condotti su popolazioni diverse, sottoposte a trattamenti diversi anche se apparentemente
omologabili, e sperimentati in condizioni di setting tra loro non confrontabili.

Questa idea è profondamente sbagliata.

Un punto centrale per capire come si fa una meta-analisi consiste nel fatto che ogni singolo
studio, con la sua specifica popolazione di pazienti e con il particolare tipo di trattamento
studiato, viene prima considerato separatamente e sono solo i risultati ottenuti all’interno di
ogni studio che vengono sommati.
Si ricorre cioè a una “analisi stratificata” nella quale l’effetto del trattamento viene
dapprima stimato all’interno di ciascuno studio e poi i singoli effetti vengono combinati per
stimare l’effetto complessivo.
Tale procedimento è basato sull’assunzione secondo cui i singoli studi possono essere
differenti l’uno dall’altro e dunque gli effetti del trattamento (ovvero la differenza nei risultati
tra gruppo sperimentale e di controllo) sono diversi quantitativamente tra studio e studio.

132
L
LEED
DIISST
TOOR
RSSIIO
ONNII IIN
NUUN
NOO SST
TUUD
DIIO
OEEPPIID
DEEM
MIIO
OLLO
OGGIIC
COO

Nel corso delle indagini epidemiologiche si possono verificare condizioni


esterne che tendono a produrre risultati non corrispondenti esattamente
alla realtà.

Queste condizioni esterne possono essere suddivise in due categorie principali: gli errori
dovuti alla variabilità campionaria (random error che si legano al concetto di
PRECISIONE) e gli errori sistematici detti DISTORSIONI, VIZI ovvero BIAS (legati al
concetto di VALIDITA’).

Gli errori sistematici (bias) sono distinguibili nei seguenti tipi di DISTORSIONE:

1. BIAS di SELEZIONE

2. BIAS di INFORMAZIONE

3. CONFONDIMENTO

4. MODIFICAZIONE DI EFFETTO

BIAS DI SELEZIONE

Sono quelle distorsioni che riguardano le modalità con cui i gruppi di soggetti inclusi
nell’indagine sono stati selezionati.

Ad esempio:
a. un campione non rappresentativo della popolazione alla quale si vogliono riferire i
risultati ottenuti può portare a valori talvolta anche molto lontani dalla realtà;
b. gruppi di controllo le cui caratteristiche individuali differiscono da quelle dei casi in
studio;

133
c. differente capacità (o probabilità) diagnostica nei due gruppi;
d. non risposta selettiva (solo il 10% degli intervistati ha risposto);
e. incompletezza del follow-up

COME PREVENIRE IL BIAS DI SELEZIONE

 al momento del disegno dello studio


 scegliere gruppi di confronto
 utilizzare fonti di soggetti non selezionate
 utilizzare una definizione di caso valida per tutti
 studio in cieco

BIAS DI INFORMAZIONE

I bias di informazione includono tutte le distorsioni dovute ad erronea o non precisa


classificazione dello stato del soggetto malato/non malato oppure esposto/non esposto.

All’interno del bias di informazione troviamo:


a. diagnosi non corrette;
b. errori di misurazione di strumenti;
c. risposte inesatte ai questionari;
d. differente capacità di valutazione di una passata esposizione (recall bias);
e. differenze nell’intervista dei soggetti

COME PREVENIRE IL BIAS DI INFORMAZIONE

 Al momento del disegno


 Usare la stessa documentazione
 Usare lo stesso intervistatore
 Adottare un questionario standard
 Verificare le informazione con altre fonti

134
I bias più comuni sono:

 Bias legati alla non corretta selezione del campione

 Bias di partecipazione

 Bias di sorveglianza

 Bias legati alla conoscenza dell’esposizione

 Bias legati alla presenza di fattori che allungano la sopravvivenza

 recall bias

 Bias dovuti agli intervistatori

135
CONFONDIMENTO

I fattori di confondimento rivestono una grandissima importanza in


epidemiologia in quanto portano spesso ad ipotizzare relazioni causa-
effetto del tutto inesistenti.

Per fattore di confondimento si intende un fattore che è in relazione sia con


l’evento in studio che con il supposto fattore associato.

ESPOSIZIONE MALATTIA

associazione correlazione causale

CONFONDENTE

In sintesi per essere fattore di confondimento, il fattore deve soddisfare i seguenti due criteri:

 essere associato all’esito sia negli esposti che nei non esposti;
 essere associato con l’esposizione ma non essere una conseguenza dell’esposizione.

ESEMPIO:

Viene studiato il tasso di incidenza decennale del tumore del polmone nei lavoratori di
una fabbrica di coloranti rispetto all’andamento della stessa patologia in un gruppo di
impiegati (sovrapponibile al primo nella composizione per età, sesso, razza, luogo di
residenza e livello socio-economico). Analizzando complessivamente i dati si ottiene una
situazione di questo tipo:

136
Malato Non malato Totale
(M+) (M-)
Operai della fabbrica 170 830 1000
Impiegati 80 920 1000

170 / 1000
RR   2,125
80 / 1000

FUMATORI
Malato Non malato Totale
(M+) (M-)
Operai della fabbrica 160 640 800
Impiegati 40 1600 200

160 / 800
RR   1,00
40 / 200

NON FUMATORI
Malato Non malato Totale
(M+) (M-)
Operai della fabbrica 10 190 200
Impiegati 40 760 800

10 / 200
RR   1,00
40 / 800

Se il RR grezzo iniziale risulta essere nettamente diverso da quello ottenuto mediante


l’analisi stratificata, significa che il fumo ha agito da fattore di confondimento.

Sarebbe pertanto stata assolutamente infondata l’affermazione che vi era associazione


tra il lavorare nella fabbrica di coloranti ed il tumore del polmone.

137
Il RR superiore a 2 ritrovato nei dati globali può essere quindi semplicemente ascritto al
fatto che la prevalenza di fumatori è nettamente maggiore tra gli operai (80%) rispetto
agli impiegati (20%).

In questo caso, dunque, il fumo (associato sia alla malattia che alla presunta esposizione
in studio) è un fattore di confondimento.

MODIFICAZIONE DELL’EFFETTO

In realtà i modificatori di effetto non sono una forma di bias.

MODIFICAZIONE DI EFFETTO SIGNIFICA semplicemente che IL GRADO DI


ASSOCIAZIONE TRA UN’ESPOSIZIONE E L’ESITO DIFFERISCE TRA GLI
STRATI.

Il CONFONDENTE distorce i risultato e dovrebbe essere eliminato, invece la


MODIFICAZIONE DI EFFETTO è informativa ed andrebbe attentamente studiata.
Può fornire delucidazioni essenziali su sottogruppi che sono particolarmente a rischio di
malattia e può essere estremamente utile per programmare interventi di sanità pubblica.
In generale si diagnostica un modificatore di effetto se l’analisi stratificata prevede tra i due
gruppi una notevole differenza del rischio relativo

RIEPILOGO DELLE DIFFERENZE TRA LA MODIFICAZIONE DI EFFETTO ED


IL CONFONDIMENTO

MODIFICAZIONE DI EFFETTO CONFONDIMENTO

Fattore che dstorce il rapporto tra


Effetti differenti in differenti gruppi
esposizione ed effetto
Interessante
Causa confusione
Può fornire una maggiore
Dovrebbe essere eliminato o con
comprensione dei meccanismi
l’appaiamento o restringendo nello
biologici di una malattia
studio o controllandolo in ambito di
analisi

138
COME LEGGERE UN ARTICOLO SCIENTIFICO

Innanzittutto bisogna ricordarsi che l'aggiornamento è una attività da pianificare in modo


dettagliato: solo così si può rispondere in modo adeguato all'imperativo di tutti gli operatori
sanitari che è quello di garantire perizia e conoscenza nei confronti del pubblico/utente. Una
buona pianificazione delle proprie attività deve prevedere almeno due ore settimanali
dedicate all'aggiornamento.

Al momento di affrontare la lettura di un articolo scientifico bisogna porsi tre domande di


base:

1) I risultati dello studio sono validi?

2) Quali sono i risultati?

3) Questi risultati possono essere trasferiti nella propria pratica professionale


quotidiana?

RISULTATI DELLO STUDIO VALIDI

a) Esiste una definizione univoca di caso?


b) C'è stata una procedura di randomizzazione?
c) Tutti i soggetti inclusi nello studio sono stati correttamente seguiti e valutati (adeguato
follow-up)?
d) Il campione scelto è rappresentativo dell'intera popolazione?
e) Nel disegno dello studio si prevede la cecità del paziente e dello sperimentatore?
f) Sono stati ipotizzati eventuali fenomeni di distorsione? E sono state adottate adeguate
tecniche per ridurre questi fenomeni distorcenti?
g) I criteri adottati sono descritti sufficientemente bene da permetterne una ripetizione
locale?
h) Vengono rispettati i criteri di causalità?

139
QUALI SONO I RISULTATI

a) Quanto è grande l'effetto rilevato nello studio?


b) Quanto è precisa la stima di tale effetto?

I RISULTATI POSSONO ESSERE TRASFERITI NELLA PRATICA

a) Quanto proposto dallo studio può essere calato organizzativamente nel territorio dove
opero?
b) E' stata presa in considerazione l'eventualità di effetti non desiderati?
c) I probabili benefici superano i danni ed i costi potenziali
d) I risultati cambieranno il modo personale di lavorare
e) Gli utenti trarranno beneficio dall'uso della tecnica?

140
QUALCHE CONSIGLIO BIBLIOGRAFICO

TESTI DI EPIDEMIOLOGIA

1. C. Signorelli - Elementi di metodologia epidemiologica - Ed. SEU (2000)

2. M.G. Valsecchi, C. Lavecchia - Epidemiologia e metodologia epidemiologica clinica -


Ed. Forum Service (1999)

3. R. Berglehole, R. Bonita, T. Kiellstrom - Epidemiologia di base - a cura di G. Aggazzotti,


Ed. Folini (1997)

4. R. Marchioli, G. Tognoni - Cause-effetti in medicina. Logica e strumenti di valutazione


clinico-epidemiologica - Ed. Il Pensiero Scientifico (1994)

5. A. Ahlbom, S. Norel - Introduzione all'epidemiologia moderna - Ed. Il Pensiero


Scientifico (1993)

6. A. Messori, R. Rampazzo, C. Scuffi - La Metanalisi - Ed. Il Pensiero Scientifico (1994)

7. K. Rothman, S. Greenland - Modern Epidemiology - Ed. Lippincott-Raven (1998)

TESTI DI STATISTICA

1. M. Pagano, K. Gauvreau - Fondamenti di Biostatistica - Ed. Gnocchi

2. L. Fisher, G. van Belle - Biostatistics - Ed. Wiley Interscience (1993)

SITI INTERNET

a) CDC Atlanta (EBPH): http://www.thecommunityguide.org

141
b) ISTAT: http://www.istat.it

c) Centro Cochrane Italiano: http://www.areas.it

d) GIMBE (EBM): http://www.gimbe.org

e) Organizzazione Mondiale Sanità: http://www.who.ch

f) Istituto Superiore della Sanità: http://www.iss.it

g) Ministero della Sanità: http://www.ministerosalute.it

h) British Medical Journal: http://www.bmj.org

i) Associazione Italiana di Epidemiologia: http://www.epidemiologia.it

j) Epidemiologic: http://www.epidemiolog.nethttp://www.areas.it

k) Piano Nazionale Linee Guida: http://www.pnlg.it

l) Epicentro: http://www.epicentro.iss.it

m) Siti per impact factor: http://www.isinet.com

n) Siti per impact factor: http://www.lille.inserm.fr

o) Siti per impact factor: http://www.unimo.it/bibmed/impactfactor.htm

p) PubMed per ricerche su Meline: http://www4.ncbi.nlm.nih.gov/PubMed

q) Agenzia Internazionale sulla ricerca del Cancro: http://www.iarc.fr

E PER PASSARE UN PAIO DI ORE NEL MONDO DELLA MATEMATICA…….

Hans Magnus Enzensberger - Il Mago dei Numeri - Ed. Mondadori I miti (2000)

Denis Guedy – Il teorema del pappagallo – Ed. Superpocket R.L. Libri – Milano (2001)

142

Potrebbero piacerti anche