Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1
Per esempio, il trovare con una analisi descrittiva che le donne che non hanno mai contratto
matrimonio sono più inclini al cancro alla mammella porta a investigare sul perché questo
dovrebbe accadere. Forse i fattori causali sono legati a caratteristiche della riproduzione,
come ad esempio la mancanza di un qualche tipo di protezione che potrebbe essere conferita
dall’allattamento al seno.
Sono stati fatti molti studi relativi a queste problematiche nell’ambito dell’epidemiologia del
tumore al seno.
In generale, i fattori studiati dipendono dalla particolare malattia in questione e dalle ipotesi a
priori. Esempi tipici potrebbero essere l’esposizione agli inquinanti atmosferici, gli stili di
vita particolari (come abitudine al fumo o specifiche abitudini alimentari) e le caratteristiche
biologiche (come il livello di colesterolo e la pressione del sangue).
Ci riferiremo a un qualunque potenziale agente eziologico sotto studio come a un fattore di
rischio per la malattia di interesse. E’ evidente in questo caso che per alcune patologie,
tipicamente nelle infettive, un fattore di rischio diventa anche unico agente causale di
malattia, mentre in altri fenomeni morbosi (è l’esempio delle malattie tumorali) non emerge
in modo chiaro ed univoco un solo agente causale ma una molteplicità di agenti che pesano in
modo differente nel determinare una specifica malattia.
2
Quest’ultima rappresenta lo strumento indispensabile per comprendere alcuni fenomeni legati
alla frequenza ed alla distribuzione delle malattie. Le tecniche statistiche, inoltre, permettono
di valutare sia il grado di correlazione tra un evento ed il fattore di rischio ipotizzato, sia il
grado di incertezza che necessariamente si ha nelle condizioni di osservazioni campionarie.
Tracce di concetti epidemiologici si ritrovano già negli scritti di Ippocrate (V° secolo
a.C.), il quale aveva osservato che alcune patologie umane erano correlate a condizioni
ambientali o individuali.
Per i successivi 2000 anni le cause delle malattie, pur sottoposte ad attente osservazioni,
non furono mai oggetto di indagini analitiche.
3
3) WILLIAM FARR (XIX° SECOLO)
Due secoli più tardi William Farr elaborò un sistema di raccolta dei certificati di
morte, imponendo la segnalazione della causa accanto ai dati anagrafici.
Alcuni anni più tardi, un altro episodio di colera colpì soltanto i quartieri meridionali della
città; grazie alle nozioni precedentemente acquisite, Snow concluse brillantemente la sua
indagine epidemiologica, non solo scoprendo che la maggior parte dei contagiati era stata
rifornita di acqua potabile dalla Southwark and Vauxhall Company, ma risalendo anche alle
modalità del contagio: e cioè al fatto che quest’ultima impresa di distribuzione attingeva
l’acqua dal Tamigi, contaminata dalle fognature, alla sua uscita dalla città, mentre la società
concorrente, la Lambeth Company, tra i clienti della quale si erano registrati solo pochi casi
di colera, la attingeva all’entrata della città.
Questo esempio, oltre a testimoniare come già nel XIX° secolo, pur in possesso di mezzi
scarsissimi (mancanza di registri, censimenti, ecc.) si era tentato lo studio di varie malattie, ci
fa capire come l’indagine epidemiologica non richieda la conoscenza dell’agente eziologico
4
ma cerchi piuttosto di fornire indizi per individuarlo; infatti, non passarono molti anni dagli
studi di Snow che Robert Kock giunse all’isolamento, proprio dall’acqua, del Vibrio
cholerae.
5
DEFINIZIONE E SCOPI DELL'EPIDEMIOLOGIA
6
GLI AMBITI DI ATTIVITA' EPIDEMIOLOGICA SI SVILUPPANO SU DUE LIVELLI:
CONOSCITIVO
DI INTERVENTO
IN PARTICOLARE L'EPIDEMIOLOGO:
7. stima l'impatto di utilizzazione, a fini preventivi, dei risultati della propria ricerca
8. valuta l'impatto reale, sulla popolazione, delle misure adottate sulla base delle sue
conclusioni
7
SCOPI PRINCIPALI DELL'EPIDEMIOLOGIA
A) DESCRIVERE
FREQUENZA EVENTI
DISTRIBUZIONE EVENTI
2) RAPPORTI
3) PROPORZIONI
4) TASSI
5) ODDS
8
DESCRIZIONE DEL NUMERO DI EVENTI
Per presentare i dati ai fini epidemiologici occorre sempre mettere in relazione il numero di
eventi (NUMERATORE) con la popolazione alla quale i casi appartengono
(DENOMINATORE). In questo senso si può parlare di rapporti e di proporzioni, odds e tassi.
RAPPORTI
Esprimono la relazione tra due quantità indipendenti tra loro; sono rappresentati da una
frazione in cui il numeratore non è incluso nel denominatore (ad es. rapporto uomini/donne,
numero di morti da traffico per 100.000 veicoli circolanti, rapporto litri di latte prodotti su
popolazione bovina censita).
PROPORZIONE
E' un tipo di rapporto particolare in cui il numeratore è sempre incluso nel denominatore e
quindi indica una relazione quantitativa tra una parte ed il tutto. Il risultato può assumere
valori da 0 ad 1, ovvero, se espresso in percentuale da 0% a 100%. Non ha mai una relazione
con il tempo.
ODDS
Rappresenta il rapporto tra la probabilità di un evento (successo) e la probabilità del non
evento (fallimento). (ad es. numero nati maschi su numero nati femmine, numero di parti a
termine su numero di aborti).
TASSI
Il tasso è un tipo particolare di proporzione che introduce la variabile tempo quale
caratteristica essenziale. Con il tasso si intende indicare il numero di eventi che si sviluppano
in una popolazione specifica durante un determinato periodo di tempo (t).
9
LA PREVALENZA E L'INCIDENZA
Rappresentano le due più importanti misure di frequenza degli eventi in epidemiologia e sono
l'analogo dei tassi di mortalità nell'ambito della morbosità (tassi di morbosità).
In termini generali nei tassi di morbosità il numeratore è rappresentato dal numero di casi di
una specifica patologia mentre al denominatore viene riportata la popolazione che è esposta
al rischio di contrarre quella malattia.
PREVALENZA
Indica, pertanto, un'immagine fotografica della popolazione al momento del rilievo. Come
tutte le proporzioni è rappresentata da un numero che può assumere valori da 0 ad 1.
Considera ed analizza l'evento in uno specifico istante. In altre parole, viene calcolata
in un unico momento di osservazione e stima la probabilità di un individuo di essere un
caso in un certo momento (t0).
10
N di casi esistenti di malattia ad un dato istante
P 10 K
Popolazion e totale
(N soggetti che costituisc ono la popolazion e nel medesimo istante)
In questo caso il valore ottenibile può subire notevoli oscillazioni legate alle caratteristiche
proprie della malattia in esame. In generale si tende a sovrastimare i casi a lunga durata.
Considera ed analizza l'evento in uno specifico periodo. Essa stima la probabilità che
un individuo sia un caso in qualsiasi momento in un arco di tempo ( t) intercorrente
tra due specifici momenti (t0 e t1).
Questa misura può sostituire altre misure di frequenza quando è impossibile definire l’epoca
esatta di inizio della malattia (es. alcune patologie psichiatriche).
Nel numeratore vengono inclusi i casi di malattia già iniziati prima del tempo t0 ma ancora in
corso al tempo t0, e i casi che insorgono nello stesso intervallo.
11
La prevalenza fornisce, quindi, uno spaccato della popolazione in un certo momento di tempo
indicando la proporzione di individui malati, ma non ci dà alcuna informazione sulla velocità
con cui compaiono nuovi casi in seno alla popolazione. La misura di frequenza che stima la
velocità del cambiamento dello stato di salute della popolazione è l’incidenza.
L'entità della prevalenza di una malattia dipende dall'incidenza visto che una maggiore
frequenza di nuovi casi tenderà ad aumentare il numero di casi esistenti; inoltre la prevalenza
dipende dalla durata della malattia.
Guarigioni
12
FATTORI CHE INFLUENZANO LA PREVALENZA
Diminuito da:
Immigrazione di persone
suscettibili
Miglioramento delle
capacità diagnostiche
13
INCIDENZA
Per contare quante persone si ammalano bisogna definire l’arco di tempo durante cui
osserveremo l’intero gruppo.
Ovviamente negli studi epidemiologici in cui lo scopo è quello di indagare i fattori di rischio
o le cause delle malattie ovvero di studiare l'efficacia delle misure preventive, l'interesse è
focalizzato sullo spostamento degli individui dallo stato di salute allo stato di malattia.
Il denominatore a cui rapportare i casi sarà diverso a seconda che noi siamo interessati ad
ottenere una stima del rischio individuale di ammalarsi dei soggetti esaminati, oppure ad
ottenere una stima complessiva della velocità con cui parte del gruppo esaminato passa da
uno stato di salute ad uno di malattia.
Nel primo caso l'incidenza è espressa come Incidenza Cumulativa (IC) e nel secondo
come tasso di Densità di Incidenza (DI):
14
La popolazione candidata all’inizio dello studio è la popolazione priva di malattia ed
a rischio all’inizio del periodo.
Sia il numeratore che il denominatore includono esclusivamente individui che all'inizio del
periodo erano sani (liberi dalla malattia) e che pertanto sono a rischio di contrarre la malattia.
La lunghezza del periodo di osservazione influenza direttamente l'IC: più è lungo il periodo
di osservazione maggiore sarà la IC.
E' importante in questi casi prendere in considerazione questa variabile.
Anche la mortalità per altre cause può influenzare la IC: alcuni individui deceduti per cause
diverse da quelle studiate avrebbero potuto sviluppare la malattia in studio se non fossero
deceduti.
Quindi:
Il rischio è rappresentato da una proporzione, è adimensionale e indica la probabilità di un
individuo di ammalarsi di una certa malattia in uno specifico lasso di tempo
(condizionatamente al fatto che il soggetto non si perda all’osservazione o non muoia per
qualsiasi altra causa durante lo stesso periodo).
15
b) TASSO D'ATTACCO
Solitamente calcolato nel corso di analisi di patologie infettive; è il rapporto tra nuovi casi
di malattia in un tempo t (in genere periodo massimo di incubazione) e la popolazione a
rischio (esposti al contagio).
ATTENZIONE:
Nella proporzione che esprime il rischio, il denominatore è l’insieme degli individui che sono
potenziali casi di malattia, cioè la popolazione esposta al rischio di ammalarsi, all’inizio del
periodo di osservazione (popolazione candidata).
Questo tipo di incidenza misura la probabilità intesa in senso classico come rapporto tra il
numero di eventi (casi di malattia) verificatisi e tutti gli eventi possibili, e la formula generale
è:
La bontà della stima del rischio di ammalarsi è subordinata al fatto che i soggetti non
vengano perduti di vista durante il periodo di osservazione.
Poiché questa misura è una probabilità condizionata al non verificarsi di altri eventi (perdita
all’osservazione), IC è una buona stima dell’incidenza in periodi t1-t0 abbastanza brevi in cui
la popolazione è assimilabile ad una coorte fissa, cioè quando alla fine dello studio, di ogni
16
individuo a rischio appartenente alla popolazione iniziale saremo in grado di dire se è
divenuto un caso oppure no.
soggetti muoiono per cause diverse da quelle in studio) dei quali non potremo mai sapere se
sarebbero diventati casi.
Per le malattie croniche con lungo periodo di latenza come i tumori, l'incidenza cumulativa
può essere calcolata su base anche quinquennale, decennale e ventennale, mentre per le altre
malattie più comuni si preferisce la base annua.
Un altro problema che riguarda l'incidenza cumulativa è dato dal fatto che, qualora si tratti di
malattie comuni ed a rapida guarigione (influenza, raffreddore), uno stesso soggetto potrebbe
ammalare due volte nel periodo di tempo considerato e portare un ipotetico rischio totale ad
un valore superiore ad uno, in che non avrebbe alcun senso logico.
In questo caso particolare, il valore dell'incidenza si riferirebbe al numero di eventi e non al
numero di persone che ammalano rispetto a quelle a rischio.
Salvo precisazione contraria, IN TUTTI GLI STUDI SI CONSIDERA SOLITAMENTE
L'INSORGENZA DEL PRIMO EVENTO.
17
c) DENSITA' DI INCIDENZA
Infatti che significato ha misurare il rischio delle singole persone quando, se c’è un
ricambio continuo di soggetti, ciascuna di queste rimane esposta al rischio di ammalarsi
per un periodo di tempo diverso?
In questi casi è più appropriata una misura che descriva il cambiamento dello stato di
salute della popolazione, complessivamente considerata (relativamente alla numerosità
della popolazione e al periodo di osservazione).
Però, poiché le dimensioni della popolazione cambiano continuamente e noi non sempre
siamo in grado di esprimerle istante per istante come funzione matematica del tempo,
dobbiamo descrivere l’insorgenza dei casi come densità media di incidenza di un
determinato intervallo di tempo (come per la velocità, in cui, non essendo in grado di
misurare lo spazio percorso in un istante, parliamo quasi sempre di velocità media in cui
tutto lo spazio percorso viene rapportato al tempo).
18
Figura 2 - Rappresentazione grafica del concetto di densità di incidenza. I punti
sono i nuovi casi di malattia in una popolazione candidata.
Il denominatore è dato dalla somma di tutti gli intervalli di tempo t a rischio individuali per
ognuno degli N soggetti della popolazione.
In termini matematici:
N
Popolazione Tempo t i
i 1
Se invece la popolazione è sufficientemente stabile tanto da assumere che tutti i soggetti
siano stati esposti al rischio di sviluppare la malattia per l’intero periodo di osservazione
( t), allora:
19
Popolazione Tempo N (t )
Soggetto n° 10 --------------------------------------------------------------------X____
9 ----------X________________________________
8 ---------------------------------------------------------------
7 -------------------X_________________________________
6 ______________________________
5 --------------------------------------------------
4 ----X_________________________
3 --X__
2 -----------------------------------------------------------------------------
1 -------X_____________________________________________
________________________________________________________________
0 1 2 3 4 5 6 7 8 9 10
momenti di osservazione (ad es. giorni)
Nell’esempio proposto nella Figura 2 (area tratteggiata) la DI viene calcolata dal rapporto tra
i 2 casi verificatisi nell’intervallo 2-4 e il numero di persone osservate e il tempo di
osservazione (ad esempio in giorni).
20
6) come il n° 1 e il n° 4;
7) si ammala il giorno 3 e quindi viene registrato nella nostra osservazione come un caso
(viene incluso nel numeratore); contribuisce al denominatore per tutto il tempo in cui è
stato a rischio di ammalarsi, quindi il giorno-persona, prima di diventare un caso;
8) come il n° 2 e il n° 5;
9) si ammala proprio all’inizio del primo giorno di osservazione per cui viene registrato
come un caso, ma non contribuisce al denominatore perché, rispetto all’osservazione, il
suo tempo “a rischio” è zero;
10) si ammala dopo il giorno 4 per cui viene contato come il n° 2, il n° 5 e il n° 8.
In pratica con la DENSITA' DI INCIDENZA il numero totale di individui che passano dallo
stato di salute a quello di malattia durante il periodo di osservazione è il risultato di tre
fattori:
1) la dimensione della popolazione
2) la lunghezza del periodo
3) la forza della morbosità che opera in quella popolazione
ATTENZIONE:
LA DENSITÀ DI INCIDENZA SI UTILIZZA IN CASO DI STUDIO SU POPOLAZIONE APERTA
(DINAMICA).
21
COORTE STATICA = popolazione senza movimenti interni ad essa in grado di
alterare il denominatore.
La scelta di quale misura di incidenza adottare (stima del rischio o stima del tasso) dipende
dagli scopi che lo studio si prefigge: il rischio è idoneo a predire la malattia nel singolo
individuo e il tasso è più corretto per saggiare ipotesi eziologiche.
In quest’ultimo caso, il tasso è indicato soprattutto quando si studiano malattie con un lungo
periodo di latenza, per cui il periodo di rischio a cui deve essere esposta la popolazione è
molto esteso e il periodo di osservazione per ciascun soggetto nello studio rappresenta solo
una parte del tempo totale in cui l’individuo è a rischio di ammalarsi.
Quando invece il periodo di osservazione copre tutto il periodo di rischio (ad esempio, un
follow-up in un’epidemia) allora le inferenze causali possono essere fatte utilizzando stime
del rischio, anziché del tasso.
Per comprendere meglio la differenza tra tassi e rischi possiamo fare un esempio:
Se vogliamo misurare l’incidenza dell’epatite virale A nella stessa comunità (data la mortalità
sopra descritta) e abbiamo osservato 28 casi durante l’anno, dovremmo togliere i casi, mano a
mano che si verificano, dal denominatore popolazione a rischio, dato che l’epatite virale A
conferisce l’immunità.
22
Assumendo ancora che i casi siano distribuiti in modo uniforme lungo l’anno, il
denominatore del tasso di incidenza è 500-(18+28)/2, cioè 477; il tasso è quindi
28/477, ovvero 5.8 per 100 per anno.
La probabilità di contrarre l’epatite viene invece calcolata usando come denominatore 500-
18/2, cioè 491, per cui è 28/491=0.057.
23
RELAZIONI TRA PREVALENZA, INCIDENZA CUMULATIVA E
DENSITA' DI INCIDENZA
Si è già affermato che la prevalenza dipende dall'incidenza e dalla durata della malattia. Una
tale associazione può essere espressa in modo sintetico come segue:
L'incidenza cumulativa dipende dal tasso di incidenza e dalla lunghezza del periodo di rischio
ed è influenzata dalla mortalità per malattie diverse.
La relazione tra Incidenza, Prevalenza e Durata della malattia può fornire utili indicazioni ai
pianificatori in sanità pubblica per predire le necessità future di strutture e servizi sanitari,
come ad esempio quando l’incidenza di un certo tipo di malformazione congenita come la
spina bifida ed il tempo medio di sopravvivenza dei bambini affetti sono note.
Legenda:
(1-P) = soggetti liberi dalla malattia
CI = Incidenza Cumulativa
DI = Densità di Incidenza
t = periodo di rischio
D = Durata della malattia
P = Prevalenza
24
Un altro tipo di eventi, oggetto di studio in epidemiologia, e la cui frequenza può essere
quantizzata, sono i decessi che possono essere classificati in:
Queste tre categorie sono gli elementi fondamentali per misurare la mortalità in una
popolazione. Come per l’incidenza anche per la mortalità possiamo stimare il tasso oppure il
rischio.
Il tasso di mortalità dovuto ad una specifica malattia è calcolato come il rapporto tra il
numero di morti per quella causa specifica e il numero di persone esposte al rischio di morire
per la specifica malattia.
Analogamente all’incidenza:
Il denominatore, però, è diverso da quello usato per il calcolo dell’incidenza perché include
non solo i sani, ma anche coloro che si sono ammalati della malattia in questione (che sono a
rischio di morire), mentre l’incidenza doveva tenere conto solo dei sani.
Il tasso di letalità dovuto ad una malattia è stimato dallo stesso rapporto, ma nel
denominatore la popolazione è costituita dalle persone affette dalla malattia considerata.
Nell’analisi della mortalità per malattie croniche è bene tenere presente che il tasso osservato
per una specifica malattia è influenzato dalla presenza di altre cause di morte che competono
con la malattia a cui siamo interessati.
Pertanto, quando si confronta la mortalità in due gruppi, anche se si prende in considerazione
una causa specifica è necessario tenere conto anche della mortalità totale nei due gruppi.
25
ESERCIZI SULLE MISURE DI FREQUENZA
Negli anni ’50 è stato condotto uno studio su 667 conducenti di mezzi di trasporto londinesi
di sesso maschile. I soggetti, selezionati in quanto ad un primo esame non presentavano
alcuna evidenza di infarto né di angina, sono stati seguiti per 5 anni. In questo periodo, nelle
diverse classi di età si sono verificati i seguenti casi di ischemia cardiaca:
Tabella 1 – Casi di ischemia cardiaca per classe di età nei conducenti di mezzi di trasporto
pubblico londinesi. Maschi.
Per studiare l’incidenza di infarto del miocardio viene effettuato il follow-up di un gruppo di
14 soggetti a rischio. I soggetti negativi ad un controllo effettuato il 1° gennaio 1951 vengono
seguiti per quattro anni (1951-1954). Per ogni soggetto vengono fornite le seguenti
informazioni:
26
Soggetto 1: vivo e negativo al 31.12.1954
Soggetto 2: infarto nel maggio 1953, vivo al 31.12.1954
Soggetto 3: infarto nell’agosto 1953, vivo al 31.12.1954
Soggetto 4: infarto nel marzo 1951, deceduto nel maggio 1953
Soggetto 5: perso al follow-up nel marzo 1954
Soggetto 6: infarto nel dicembre 1952, vivo al 31.12.1954
Soggetto 7: deceduto nell’aprile 1954
Soggetto 8: vivo e negativo al 31.12.1954
Soggetto 9: infarto nel marzo 1951, nuovo infarto nel marzo 1953, vivo al 31.12.1954
Soggetto 10: infarto nel luglio 1951, perso al follow-up nell’agosto 1952
Soggetto 11: infarto nel marzo 1953, vivo al 31.12.1954
Soggetto 12: infarto nell’aprile 1954, vivo al 31.12.1954
Soggetto 1: perso al follow-up nel gennaio 1953
Soggetto 14: infarto nell’aprile 1954, vivo al 31.12.1954
27
SOLUZIONE:
Domanda 1:
9,0
8,0 7,6 8,1
8,0
7,0
6,0
5,0 4,7
4,0 3,1
3,0
2,0
1,0
0,0
30 – 39 40 – 49 50 – 59 60 – 64 65 – 69
Classi di età
Domanda 2:
L’incidenza annuale media di ischemia cardiaca = (47/667)/5 = 1,41/100 soggetti
(47/677 è l’Incidenza totale; occorre dividere per il n° di anni, cioè 5).
Domanda 3:
L’incidenza annuale media di ischemia cardiaca = (47/667)/5 = 1,41/100 soggetti
28
Età Anni-persona* Incidenza
di osservazione /100 anni-persona
30 – 39 157,5 0,63**
(31x5)+(1x2,5) (1/157,5*100)
40 – 49 625 0,96**
(128x5)+(6x2,5) (6/625*100)
50 – 59 1440 1,67
(276x5)+(24x2,5) (24/1440*100)
60 – 64 817,5 1,59
(157x5)+(13x2,5) (13/817,5*100)
65 – 69 177,5 1,69**
(34x5)+(3x2,5) (3/177,5*100)
Totale 3217,5 1,46
(620x5)+(47x2,5) (47/3217,5*100)
* Per i casi si assume che, in media, l’infarto del miocardio si sia verificato a metà periodo:
ogni caso contribuirà, quindi, con 2,5 anni-persona di osservazione.
Ad esempio, nella fascia di età 30-39 anni abbiamo 31 soggetti che contribuiranno per 5 anni
di osservazione e uno per 2,5 anni. Avremo, quindi, per quella fascia di età un totale di
(31x5)+2,5=157,5 anni-persona di osservazione, e via di seguito.
** Tassi calcolati su pochi soggetti
Domanda 4:
vedi figura
Domanda 5:
a. Nel calcolo dei mesi-persona di osservazione nell’anno 1953, necessari per calcolare il
tasso di incidenza di primo infarto, non vanno considerati i soggetti 4, 6 e 9 che, avendo
già avuto un infarto, non sono più a rischio di “primo infarto”. Per calcolare il contributo
in mesi-persona dei soggetti che hanno avuto il primo infarto nel 1953, si assume che
l’infarto si sia verificato in media a metà del mese.
29
Di conseguenza, il contributo dei 14 soggetti sarà:
12 + 4,5 + 7,5 + 0 + 12 + 0 + 12 + 12 + 0 + 0 + 2,5 + 12 + 0,5 + 12 =87
e il tasso di incidenza di primo infarto nel 1953 = 3/87 = 3,45/100 mesi-persona.
30
Esercizio 2.
Una coorte dinamica di 10 persone viene seguita per un periodo di quattro anni (dall'inizio
1980 all'inizio del 1984). Per 10 pazienti sono riportati data d'entrata in studio, data di uscita
e tipo di esito (malato - sano):
Tabella 1 – Casi di ischemia cardiaca per classe di età nei conducenti di mezzi di trasporto
pubblico londinesi. Maschi.
31
Esercizio 3.
Una coorte dinamica di 20 soggetti, reclutata tra il gennaio 1961 e il gennaio 1965, viene
seguita fino al dicembre 1980 (20 anni globali di follow-up) al fine di valutare se gli esposti a
un fattore di rischio hanno un'incidenza di tumore del polmone maggiore rispetto al gruppo di
controllo. I dati riguardanti entrate, uscite, perdite al follow-up, malati sono illustrati nella
tabella seguente:
32
a) Calcolare l'incidenza persona/tempo della coorte dei 20 soggetti, prendendo il mese
unità di tempo (per semplicità il mese in cui avviene la morte o la perdita al follow-up
viene considerato per intero nel denominatore);
b) Calcolare l'incidenza persona-tempo sia per il gruppo di esposti che per i non esposti.
33
ALTRE IMPORTANTI MISURE EPIDEMIOLOGICHE
1) TASSO DI MORTALITA'
N° di morti in un anno
Popolazione residente
2) TASSO DI NATALITA'
N° di nati vivi in un anno
Popolazione residente
34
7) TASSO DI NATIMORTALITA'
N° annuale di nati morti (> 28 settimane)
8) TASSO DI LETALITA'
N° di pazienti morti dopo diagnosi di una determinata malattia
35
LE MISURE DI ASSOCIAZIONE
(misure epidemiologiche di rischio)
Uno dei principali scopi dell’epidemiologia è quello di indagare sui possibili fattori che
provocano o, più spesso, facilitano l’instaurarsi di una malattia.
Abbiamo già visto nelle prime lezioni come l’insorgenza delle malattie cronico-degenerative
possa essere favorita da uno o più fattori di rischio, che sono pertanto associati ad esse.
Vedremo ora il concetto di associazione statistica che viene spesso evidenziata misurando il
RISCHIO RELATIVO.
Questi eventi variabili sono quindi associati quando si verificano insieme più frequentemente
di quanto ci si possa attendere per effetto del caso.
Se una popolazione può essere divisa in due gruppi secondo qualche classificazione o fattore,
e in ciascuno di essi viene calcolato il rischio (incidenza, mortalità o qualsiasi altro) di una
malattia, allora la malattia si dice associata al fattore se i rischi per i gruppi differiscono.
Esempio 1
Il cancro del polmone (incidenza o mortalità) è associato con il fattore fumo di sigaretta in
quanto i tassi di cancro del polmone differiscono tra differenti categorie di fumatori nella
popolazione. Da notare che l’associazione rappresenta una descrizione della relazione tra
malattia e fattore molto più debole di quanto sia la relazione di causa-effetto. Se è possibile
mostrare che il rischio varia sistematicamente con il livello del fattore, si dice che esiste una
relazione dose-risposta tra il fattore e la malattia. La presenza di una relazione dose-risposta
36
costituisce un aspetto molto importante perché si possa passare dalla semplice associazione a
una relazione di causa-effetto.
Esempio 2
Il cancro del polmone (incidenza o mortalità) è più frequente tra gli uomini che tra le donne.
Così il sesso e il cancro del polmone sono associati. Questa associazione, tuttavia, non è di
tipo causale – gli uomini non necessariamente hanno una maggiore predisposizione biologica
al cancro del polmone di quanto non sia per le donne, né esiste una relazione dose-risposta. In
realtà, l’associazione tra sesso e cancro del polmone è ampiamente spiegata dalle differenze
nel consumo di sigarette ( FATTORE DI CONFONDIMENTO).
ASSOCIAZIONE non implica dunque un rapporto di causalità, cioè che vi sia una
relazione causale (rapporto causa-effetto), cioè che uno degli eventi induca o, quanto
meno, favorisca l’insorgenza dell’altro.
Esempio:
L’associazione tra bronchite cronica e tumore del polmone può essere considerata tra le
associazioni indirette o secondarie. Vi è, in questo caso, un fattore di rischio comune (quasi
sempre il fumo di tabacco ma può essere anche un inquinante ambientale) che può
determinare l’insorgenza di entrambi gli effetti.
37
Questi fattori, intervenendo durante lo svolgimento di uno studio, sono in grado di
evidenziare associazioni del tutto artificiali tra supposti fattori di rischio e malattie.
Esempio:
Un esempio di associazione non causale, determinata da una circostanza esterna, è quella tra
consumo di caffè e rischio di infarto al miocardio. In realtà tra i bevitori di caffè è alta la
percentuale di fumatori (i due fattori sono quindi associati). E’ altresì noto che il fumo è un
fattore di rischio per l’infarto al miocardio, il che porta ad avere un’associazione
statisticamente significativa tra bevitori di caffè e infartuati; in questo caso il fumo di
sigaretta ha agito da fattore di confondimento.
ESPOSIZIONE MALATTIA
(caffè) (infarto)
FATTORE DI CONFONDIMENTO
(fumo)
I fattori causali (o cause) possono essere necessari, sufficienti, possedere entrambi questi attributi o
nessuno di essi.
38
infezione materna con virus della rosolia, ma questo agente infettivo può provocare
durante la gravidanza anche altri effetti come aborto, malformazioni cardiache varie,
ecc.). Si comprende facilmente come quasi tutte le patologie infettive abbiano una causa
necessaria, cioè una conditio sine qua non.
I fattori causali delle malattie croniche, o condizioni che ne facilitano l’instaurarsi, sono
normalmente definiti fattori di rischio e si dividono in:
39
I CRITERI DI CAUSALITA' (secondo Hill - 1971)
40
Capita infatti frequentemente che le associazioni indichino non già la presenza di un fattore
di rischio ma di un fattore conseguente all’insorgenza della malattia (come potrebbe essere il
caso delle infezioni da microorganismi opportunisti che colpiscono più frequentemente i
malati di tumore, ma non per questo sono un fattore di rischio).
Il famoso statistico inglese Hill aveva previsto i seguenti criteri riguardanti le associazioni
causali:
41
qualitativa dicotomica (presente o assente, come ad esempio la razza, il sesso, la
familiarità).
Nella tabella seguente viene dimostrato che l’incidenza persona/tempo dell’ictus cerebrale è
ridotta in coloro che hanno smesso di fumare, ma continua ad essere superiore rispetto alla
42
9) ANALOGIA: il fenomeno è analogo ad altri simili (ad esempio se un farmaco può
causare difetti alla nascita forse anche altri lo possono)
In realtà un ulteriore requisito che una supposta associazione causale deve possedere è
l’ASSENZA DI FATTORI DI CONFONDIMENTO noti, ossia che non vi siano fattori di
rischio della malattia associati anche alla esposizione in studio.
Alcuni criteri sono da prendere con cautela: possono essere non corretti (specificità) o
occasionalmente irrilevanti (evidenza sperimentale e forse analogia). Lo stesso HILL
sosteneva che: "…. nessuno dei nove punti può essere considerato una conditio sine qua
non…"
ESEMPIO:
L’associazione tra fumo di tabacco e tumore del polmone è uno degli esempi più
didattici per comprendere il processo di definizione di un’associazione causale diretta,
ossia di un rapporto causa-effetto. Infatti soddisfa sufficientemente quasi tutti i requisiti
indicati precedentemente: vi è un rapporto temporale (più anni di abitudine al fumo di
sigaretta sono necessari per lo sviluppo del tumore), un rapporto dose-risposta (più alto
è il consumo giornaliero di sigarette, maggiore è la frequenza con cui si sviluppa il
tumore), l’elevata forza o grado dell’associazione è testimonianza del fatto che il tumore
è nettamente più frequente negli esposti rispetto ai non esposti così come la consistenza
dell’associazione (diversi studi in diverse parti del mondo condotti sotto condizioni
differenti, sono giunti a conclusioni simili). Anche la plausibilità biologica trova
giustificazione nel fatto che alcuni componenti chimici del fumo di sigaretta
raggiungono i polmoni e possono quindi alterarne le caratteristiche istologiche.
43
MISURE PER CONFRONTARE
LE FREQUENZE DI MALATTIA
La fase cruciale di uno studio epidemiologico riguarda generalmente l’analisi della possibile
associazione tra supposto fattore di rischio e malattia.
Quando si devono confrontare due qualunque quantità numeriche, si deve decidere come
effettuare il confronto.
La scelta del metodo di confronto dipende dal problema che si deve risolvere.
La misura di associazione scelta, rischio relativo o rischio attribuibile, viene spesso chiamata
effetto del fattore sulla malattia.
Consideriamo un caso semplice, in cui due gruppi di soggetti, inizialmente sani, vengono
seguiti per un determinato periodo di tempo. Un gruppo risulta esposto ad un fattore di
rischio sospetto, l’altro no. Si avranno quindi, al termine del periodo di follow-up, quattro
categorie di soggetti: malati esposti al fattore di rischio considerato, malati non esposti, non
malati esposti e non malati non esposti, secondo lo schema mostrato nella seguente tabella a
doppia entrata:
44
Focalizzando l’attenzione sul fattore di rischio, il più semplice dato ricavabile è l’incidenza
cumulativa della malattia tra gli esposti al fattore, ossia la proporzione di soggetti che durante
il periodo di osservazione sviluppa la malattia a/(a+b).
L’incidenza negli esposti viene anche definita RISCHIO ASSOLUTO.
Questa misura non fornisce tuttavia alcuna informazione su quanto quel fattore di rischio
influisca realmente sullo sviluppo della malattia, poiché l’incidenza potrebbe essere uguale
anche in coloro che non risultano esposti; per ottenere questa informazione deve essere
considerata anche l’incidenza nei non esposti c/(c+d).
ESEMPIO:
Supponiamo che ad un epidemiologo sia chiesto di investigare sul possibile rischio legato a un non adeguato sistema di filtraggio
dell’aria in una grande scuola costruita in un quartiere urbano povero.
Il particolare studio coinvolge i bambini con asma, 400 dei quali frequentavano la scuola (Scuola A).
L’epidemiologo viene informato che in un giorno particolare, 12 bambini soffrirono di un attacco di asma, mentre in una scuola
vicina molto simile (Scuola B) con 500 bambini asmatici, solo 5 soffrirono di un attacco asmatico nello stesso giorno.
L’epidemiologo costruì una tabella 2x2:
La scuola A ha, in effetti, un’incidenza più alta di attacchi di asma nel giorno in studio.
Per valutare la forza dell’associazione tra scuola e incidenza dell’asma, il passo successivo è calcolare una misura della forza
dell’associazione.
La misura più comune calcolabile in questa situazione è il rapporto delle due incidenze cumulative.
Il rapporto tra incidenza negli esposti e incidenza nei non esposti allo stesso fattore di rischio
è definito RISCHIO RELATIVO (RR) e rappresenta l’eccedenza di rischio degli esposti
rispetto ai non esposti:
45
I E a/(a b)
RR
I E c/(c d)
Il Rischio Relativo costituisce una misura della forza dell’associazione tra fattore di rischio e
malattia e dovrebbe risultare pari a 1 (o un valore molto vicino, considerando la fluttuazione
dovuta al caso) se il fattore non ha influenza nello sviluppo della malattia.
Esso risulta, invece, tanto più elevato quanto più l’esposizione è associata alla malattia. Se il
RR ha un valore inferiore a 1, il fattore considerato esplica un’azione protettiva nei confronti
dell’insorgenza della malattia.
Il rischio relativo è un termine generico che può riferirsi, a seconda del tipo di studio, al
rapporto tra due incidenze cumulative (Risk Ratio), tra due incidenze persona-tempo (Rate
Ratio) o due tassi di mortalità.
0,03
Nel nostro esempio: RR 3,0 Associazione moderatamente forte.
0,01
RA I E I E
Il Rischio Attribuibile è una utile misura delle dimensioni di un problema di sanità pubblica
causato da quella esposizione.
46
Il Rischio Attribuibile può essere calcolato rispetto al gruppo degli esposti o alla popolazione
totale, e può essere espresso come differenza assoluta oppure come percentuale.
IE IE
RAE
IE
Quando si ritiene che una esposizione sia la causa di una data malattia, la frazione attribuibile
corrisponde a quella proporzione di malattia, nella specifica popolazione, che verrebbe
eliminata in assenza di esposizione.
47
Esempio 1:
In uno studio negli Stati Uniti, il tasso di incidenza di ictus fu misurato in 118.539 donne che
erano tra 30-35 anni di età e libere da coronaropatie, ictus e cancro nel 1976. Fu indicato un
totale di 274 casi di ictus negli 8 anni di follow-up (908.447 anni-persona). Il tasso globale di
incidenza di ictus fu di 30,2 per 100.000 anni-persona di osservazione; il tasso fu più alto per
le fumatrici che per le non fumatrici, mentre per le ex-fumatrici fu intermedio:
49,6 - 17,7
RAE 100 64%
49 , 6
Quando si ritiene che una esposizione sia la causa di una data malattia, la frazione attribuibile
corrisponde a quella proporzione di malattia, nella specifica popolazione, che verrebbe
eliminata in assenza di esposizione.
Nell’esempio visto, ci si aspetterebbe di raggiungere una riduzione del 64% nel rischio di
ictus tra le donne fumatrici se queste smettessero di fumare, nell’ipotesi che il fumo sia un
fattore causale e prevenibile.
48
Esempio 2:
I due esempi (A e B) riportati nelle tabelle 2x2 seguenti, riguardano due ipotetici studi
di coorte in cui si è valutato il ruolo dell’esposizione ad un inquinante chimico in
relazione all’incidenza cumulativa di due malattie.
RA=0,01–0,002=0,008=0,8% RA=0,25-0,05=0,20=20%
Si può notare come, a parità di RR, un RA più alto indica che una percentuale più alta di
esposti si ammala a causa del fattore di rischio (4 su 500 nell’esempio A pari allo 0,8% e 80
su 400 nell’esempio B pari al 20%).
Questi casi non si sarebbero quindi verificati se fosse stato rimosso il fattore di rischio.
Pertanto, a parità di RR, il RA è tanto più alto quanto maggiore è l’incidenza della malattia.
49
0,008 0,20
RAEA 80% RAEB 80%
0,01 0,25
Dall’esempio si evince come il Rischio Relativo rappresenti una misura della forza
dell’associazione tra fattore di rischio e malattia, utile per valutare se vi sia un’associazione
nella popolazione.
nella quale tutti risultano esposti; per valutare il reale impatto di un fattore di rischio sulla
popolazione nel suo complesso bisogna ricorrere invece alle misure di impatto sulla
considerata.
50
MISURE DI IMPATTO SULLA POPOLAZIONE
In tal modo il tasso annuale di eccesso di incidenza di ictus evitabile in questa popolazione è
di 16,3 per 100.000 anni/persona.
51
Nell’esempio di prima, risulta:
16,3/100000
FE 10% 54%
30,2/100000
Questo significa che circa il 54% di tutti i casi di ictus nella popolazione potrebbe essere
prevenuto se cessasse completamente il fumo.
Rimuovendo il fattore di rischio nella popolazione A l’incidenza della malattia si riduce dello
0,16% mentre nella popolazione B tale riduzione è più consistente (4%). Per calcolare la FE
(proporzione totale tra i malati nella popolazione dovuti al fattore di rischio) occorre
considerare l’incidenza totale della malattia nell’intera popolazione ITot ; essa dipende dalla
incidenza negli esposti e nei non esposti e dalla prevalenza del fattore di rischio nella
popolazione (P, che nell’esempio è 0,2 ovvero il 20%).
0,0016 0,04
FE A 0,444 44,4% FE B 0,444 44,4%
0,0036 0,09
52
Riassumendo:
Una volta identificata un’associazione tra una malattia e un fattore sospetto, attraverso
il rischio relativo, deve essere subito provato che l’associazione stessa sia dovuta a
fattori causali e non sia invece un’associazione indiretta o spuria o non vi siano altri
fattori di confondimento esterni che influenzino il risultato.
Nel più arduo compito di decidere le strategie preventive bisogna poi considerare altri
elementi come ad esempio la diffusione del fattore di rischio nella popolazione; ciò al
fine di concentrare gli interventi preventivi dove si possono ottenere i risultati migliori
in termini di casi evitati.
In sintesi:
In sintesi:
R.A.P. = quota globale di casi eliminati nella popolazione se fosse rimosso il fattore
di rischio in quella popolazione.
53
ESEMPIO DI RIEPILOGO:
I E 0,35
RR 3,5
I E 0,10
Il Rischio Attribuibile rappresenta la quota dei casi attribuiti al fattore di rischio che risulta
essere del 25% (ossia 50 su 200).
I E I E 0,25
RAE 0,714 71,4%
I E 0,35
Dividendo questa quota per l’incidenza negli esposti si ottiene la proporzione di malattia che
può essere evitata nel gruppo degli esposti rimuovendo il fattore di rischio (in questo caso
71,4%).
RAP RA P 0,25 0,40 0,10 10%
54
Il Rischio Attribuibile di Popolazione esprime la quantità globale di casi che si eviterebbero
rimuovendo il fattore di rischio in quella popolazione (50 su 500, ossia il 10%).
RAP 0,10
FE 0,5 50%
I TOT 0,20
Complessivamente, di tutti i 200 casi di malattia, 100 (il 50%) sarebbe dovuto al fattore di
55
INTERVALLO DI CONFIDENZA
DEL RISCHIO E DEL RISCHIO RELATIVO
STATO DI MALATTIA
STATO DEL FATTORE EDI RISCHIO Malato (M+) Non malato (M-) Totale
Esposto (Exp+) a b a+b
Non esposto (Exp-) c d c+d
Totale a+c b+d N
Il rischio esposizione-specifico è, per gli esposti a fattore di rischio, a/(a+b); per i non esposti
a fattore di rischio è c/(c+d).
Il rischio relativo per gli esposti, confrontato con quello dei non esposti, è dato da:
a (a b) a c d
c (c d ) c a b
Nella maggior parte delle situazioni della vita reale, i dati raccolti in uno studio
epidemiologico rappresenteranno un campione. Pertanto, dovremo specificare l’errore di
campionamento inerente le stime basate sul nostro campione del vero rischio e del vero
rischio relativo della popolazione.
Per definizione, il rischio della popolazione è semplicemente una probabilità e quindi l’errore
standard è stimato da
r 1 r
seˆr
n
r 1,96 seˆ(r )
56
Possiamo utilizzare questo errore standard e questo intervallo di confidenza sia per il rischio
negli esposti sia per il rischio nei non esposti o, semplicemente, per tutti senza distinzione di
esposizione.
L’intervallo di confidenza per il rischio relativo presenta un calcolo un po’ più difficoltoso.
La distribuzione del rischio relativo campionario è asimmetrica e quindi è necessaria una
trasformazione logaritmica per raggiungere approssimativamente la normalità.
Sulla scala logaritmica, Katz et al. (1978) hanno dimostrato che, secondo la notazione della
tabella,
1 1 1 1
seˆ log e ˆ
a ab c cd
log e ˆ 1,96 seˆ log e ˆ
con i limiti inferiore e superiore rispettivamente pari a:
I log e ˆ 1,96 seˆ log e ˆ
S log e ˆ 1,96 seˆ log e ˆ
ESEMPIO:
Il progetto Pooling (Pool 5) ha studiato i fattori di rischio per malattie cardiovascolari in una
popolazione di maschi dell’Albania, di Chicago, di Framingham e di Tecumseh (1978).
Nella tabella seguente sono riportati lo stato di fumatore all’entrata nello studio e se sono
accaduti eventi coronarici nei 10 anni di follow-up per 1905 maschi, di età compresa tra 50 e
54 anni all’ingresso nello studio.
Ogni soggetto con sintomi coronarici pre-esistenti all’inizio dello studio è stato escluso.
57
EVENTI CORONARICI DURANTE IL FOLLOW-UP
216
Il rischio complessivo di un evento coronarico è: R 0,1134 .
1905
166
Il rischio per i fumatori è: R 0,1237 , mentre per i non fumatori è:
1342
50
R 0,0888 .
563
0,1237
Il rischio relativo è: RR 1,393 .
0,0888
0,12371 0,1237
0,1237 1,96
1342
1 1 1 1
seˆ log e ˆ
166 1342 50 563
0,1533
58
I exp(0,0310) 1,031
S exp(0,6319) 1,881
Dunque, abbiamo stimato che il rischio di un evento coronarico per fumatori sia 0,124 e
l’intervallo (0,106; 0,141) contiene al 95% il rischio vero della popolazione.
Il rischio relativo stimato di un evento coronarico nei fumatori confrontato con i non fumatori
è 1,39 e l’intervallo (1,03; 1,88) contiene al 95% il rischio relativo vero della popolazione.
In breve, possiamo concludere che il 12% dei fumatori ha sperimentato un evento coronarico
e questo è 1,4 volte più elevato rispetto ai non fumatori. Ovvero, fumare aumenta il rischio
stimato di almeno il 40%.
In maniera del tutto analoga, potremmo calcolare il rischio dei non fumatori sul rischio dei
fumatori. In effetti, questo è semplicemente il reciproco del rischio relativo già calcolato:
1
R 0,72.
1,393
Allo stesso modo, i limiti dell’intervallo di confidenza per il rischio relativo di un evento
coronarico per non fumatori confrontato con i fumatori si possono calcolare come reciproci
dei limiti già trovati, con l’eccezione che l’ordine di due limiti è ribaltato, cioè il limite
inferiore è 1/1,881=0,53 e il limite superiore è 1/1,031=0,97.
Chiaramente non c’è alcun vantaggio nel calcolare entrambi, ma questo esempio mostra che è
importante specificare chiaramente che cosa deve essere relazionato (al numeratore) a che
cosa (al denominatore).
Il risultato usato per definire il denominatore nel rischio relativo è chiamato base o
riferimento. In genere la base è presa come assenza del fattore di rischio nel caso di non
esposizione.
59
ODDS RATIO
Il Rischio Relativo può essere calcolato correttamente soltanto negli studi longitudinali (di
coorte), dove si valuta nel tempo l’insorgenza della condizione morbosa (incidenza o
mortalità).
Dagli studi retrospettivi (caso-controllo), a differenza degli studi di coorte, non è possibile
desumere stime dell’incidenza della malattia considerata dal momento che non sono note le
dimensioni della popolazione degli esposti a rischio di ammalare né il numero complessivo
dei casi comparsi in un dato arco di tempo.
Il numero di soggetti presente nel gruppo di casi è una proporzione sconosciuta dell’insieme
di tutti i casi e ugualmente sconosciuta è la proporzione di esposti reclutati nello studio.
Non disponendo delle misure di incidenza della malattia tra gli esposti e i non esposti non è
possibile quindi nemmeno, mediante il loro rapporto, stimare il rischio relativo associato alla
esposizione.
È possibile, però, da uno studio retrospettivo, calcolare una buona stima del rapporto tra le
incidenze, conosciuta come odds ratio (OR) (la traduzione italiana è “rapporto dei
pronostici”, ma questa dizione non è entrata nell’uso comune).
Negli studi caso-controllo l’analisi non parte da esposti e non esposti bensì da malati e non
malati (casi e controlli) per i quali si valuterà la presenza o meno dell'esposizione al fattore di
rischio.
Consideriamo una schematica tabella 2x2; all’inizio di uno studio retrospettivo sono dati i
casi (a+c) e i controlli (b+d) e alla fine dello studio sappiamo quanti sono stati esposti tra i
casi (a) e quanti tra i controlli (b).
60
a
È possibile allora calcolare la probabilità per i casi di essere esposti ( p1 ) e di non
a c
c
essere esposti ( q1 ); il calcolo delle stesse probabilità è ovviamente possibile
a c
b d
anche per i controlli ( p 2 , q2 ).
b d b d
Il rapporto tra la probabilità di essere esposti e la probabilità di non essere esposti per i casi è
p1 a c a p b d b
e per i controlli è data da 2 .
q1 a c (a c) c q 2 b d (b d ) d
Queste misure sono conosciute rispettivamente con il nome di “odds di esposizione tra i
casi” e “odds di esposizione tra i controlli”.
Il rapporto tra gli odds è una buona stima del rischio relativo (il cui calcolo è possibile solo
con studi prospettici).
a/b ad
OR RR
c/d bc
Per dimostrare come ciò sia vero immaginiamo di riportare in una tabella 2x2 i dati di una
popolazione ideale della quale siano conosciuti sia tutti i soggetti esposti che tutti i soggetti
malati. Le lettere maiuscole indicano che ci si riferisce alla totalità dei soggetti e non ad un
campione:
61
Per malattie rare (molte delle comuni malattie cronico-degenerative possono essere
considerate tali) il rischio di malattia è sovrapponibile all’odds della malattia, in quanto i due
gruppi di non malati (B e D) risulteranno numericamente molto simili ai rispettivi totali
(A+B) e (C+D). Pertanto:
A/(A B) A/B A D
RR OR
C/(C D) C/D B C
Come si vede, il suo calcolo non richiede la conoscenza del numero complessivo degli
esposti e dei malati.
Vediamo ora che rapporti ci sono tra la situazione ideale della tabella precedente e quella di
uno studio caso-controllo.
La distinzione tra il disegno di studio a coorte e quello caso-controllo sta nel metodo di
selezione degli individui.
Negli studi longitudinali, in cui si seguono nel tempo gruppi di soggetti, vengono selezionati
due campioni, uno di esposti e uno di non esposti.
Il gruppo di esposti considerati nello studio è una frazione di tutti gli esposti nella
popolazione, frazione che possiamo denominare f 1 .
Allo stesso modo f 2 rappresenta la frazione di non esposti che viene selezionata.
Solitamente il valore di queste frazioni non è noto, in quanto non si conosce la proporzione di
esposti e di non esposti nella popolazione generale.
Nella tabella è riportata la situazione di indagini campionarie longitudinali:
62
Nel calcolo delle due incidenze campionarie, attraverso le semplificazioni sotto riportate, si
otterrà una situazione in cui il risultato finale è estendibile alla popolazione generale. Infatti:
a f1 A A
I E
a b f1 A f1 B A B
c f 2C C
I E
c d f 2C f 2D C D
In questi studi longitudinali è possibile anche calcolare l’odds ratio, ottenendo una stima
attendibile del rischio nel caso in cui la malattia sia rara; anche in questo caso le
semplificazioni consentono di arrivare all’OR della popolazione.
a d f1 A f 2 D A D
OR
bc f1 B f 2 C B C
Negli studi caso-controllo la selezione dei soggetti avviene diversamente, considerando cioè
un campione di casi (malati) e un campione di controlli (non malati). Le frazioni f 3 e f 4 ,
solitamente ignote, rappresentano rispettivamente la quota di casi selezionati rispetto a tutti i
malati della popolazione e la quota di controlli rispetto a tutti i non malati nella popolazione.
Di seguito è riportata la situazione degli studi caso-controllo:
Si è già detto che f 3 e f 4 sono solitamente ignote, e ciò impedisce di stimare l’incidenza
nella popolazione generale. Infatti:
a f3A
I E
a b f3A f 4B
È invece possibile, in questa situazione, calcolare l’OR del campione che può essere
considerato una stima dell’OR della popolazione generale:
63
a d f3A f 4D A D
OR
bc f 4 B f 3C B C
quest’ultimo passaggio porta alla conclusione che, qualora la malattia sia rara, è corretto
l’assunto per cui:
OR RR
Assumere che la formazione dei gruppi a confronto non sia stata interessata da distorsioni
significa assumere che la frazione di campionamento dei casi esposti è molto simile a quella
dei casi non esposti e, allo stesso modo, che la frazione di campionamento dei controlli
esposti è molto simile a quella dei controlli non esposti:
Perciò, se i due gruppi a confronto (casi e non-casi) non sono interessati da distorsione al loro
interno (esposti e non-esposti), l’OR, che può essere calcolato anche negli studi retrospettivi
è una stima molto buona del RR che può essere calcolato solo negli studi di coorte.
1 1 1 1
seˆlog e ˆ
a b c d
64
ESEMPIO:
166
1176 0,1412 1,448
50 0,0975
513
L’errore standard stimato del logaritmo dell’odds ratio è:
1 1 1 1
0,1698 .
166 1176 50 513
I limiti dell’intervallo di confidenza al 95% per il logaritmo dell’odds ratio è:
I exp(0,0374) 1,038
S exp(0,7030) 2,020
L’odds di un evento coronarico è stimato essere 1,45 volte più grande per i fumatori rispetto
ai non fumatori, e l’intervallo (1,038; 2,02) contiene al 95% l’odds ratio vero. In breve, si
stima che il fumo aumenti del 45% l’odds di un evento coronorico.
65
LA STANDARDIZZAZIONE DEI TASSI
Gli epidemiologi sono sempre attenti alle diversità tra le popolazioni. Virtualmente ogni
grande popolazione è eterogenea riguardo a variabili socio-demografiche (es. età, sesso,
livello di istruzione, religione), geografiche, genetiche, occupazionali, alimentari, relative alla
storia medica, e ad innumerevoli altre variabili personali, e a fattori ambientali associati con
la salute.
Una popolazione può essere vista come un insieme di diversi sottogruppi (in ultima analisi,
sottogruppi di dimensione uno, es. gli individui, ma le misure epidemiologiche si fermano a
questo livello). Qualunque misura complessiva o statistica riflette il valore di quella misura
per ogni sottogruppo compreso nella popolazione.
Una misura complessiva che non tiene esplicitamente conto della composizione della
popolazione è chiamata grezza (crude nella terminologia anglosassone). Più è grande il
sottogruppo, maggiore è l’influenza che questo avrà sulla misura grezza. Così, il tasso di
mortalità di una popolazione è una media pesata dei tassi di mortalità per i suoi gruppi
componenti.
Supponiamo di considerare una popolazione di dimensione N costituita di 5 gruppi di età, o
strati. Ogni strato avrà un numero specifico di persone, diciamo ni (i=1 a 5). Durante gli anni
successivi, ogni strato avrà un determinato numero di morti, diciamo di. La dimensione della
popolazione totale, N, è perciò n i , il numero totale di morti, D, è d i , e il tasso grezzo
di mortalità è D/N, che può anche essere scritto come media ponderata dei tassi di mortalità
strato-specifici, , come segue:
D di
ni d i ni
ni N d i ni wi d i ni
N N N
66
Questo problema è particolarmente rilevante quando confrontiamo tassi di popolazioni o
relativi a periodi di tempo, perché se le popolazioni differiscono in composizione, allora
qualcosa di ciò che noi osserviamo può essere attribuibile a queste differenze.
Per esempio, supponiamo che due amici decidano di acquistare separatamente 10 frutti per un
picnic. Uno dei due amici si reca in un negozio di frutta e acquista 8 mango (1 € al pezzo) e 2
mele (0.50 € al pezzo). Contemporaneamente, il suo amico si reca al supermercato e acquista
2 mango (1.75 € al pezzo) e 8 mele (0.45 € al pezzo). Qual è l’acquisto più costoso? Da una
prospettiva, il primo acquisto è il più costoso, poiché 9 € è certamente maggiore di 7.10 €.
Ma da un'altra prospettiva, il secondo acquisto è più costoso, poiché il supermercato ha un
prezzo molto più alto per il mango e solo leggermente più basso per le mele.
Quale di queste due prospettive scegliere dipende dall’obbiettivo che ci si pone.
Molto spesso l’epidemiologo (e il consumatore serio) si dovrebbero domandare se i prezzi
sono più alta nel negozio di frutta o nel supermercato e di quanto. Noi possiamo rispondere
alla domanda semplicemente confrontando le liste dei prezzi. Ma che cosa succede se si
vogliono comperare anche arance, meloni, uva e banane? Che cosa accade se si vogliono
acquistare due dozzine di varietà di frutta? Potrebbe certamente essere più conveniente avere
una misura di sintesi che consenta un confronto complessivo.
La difficoltà con il costo totale (9.00 € versus 7.10 €) o il prezzo medio ( 0.90 € per pezzo
versus 0.71 € per pezzo) è che il prezzo medio nel negozio di frutta dà un peso maggiore al
prezzo del mango, perché uno dei due amici ha acquistato più mango, mentre il prezzo medio
del supermercato dà un peso maggiore al prezzo delle mele perché l’altro amico ha acquistato
più mele. Stiamo confrontando mele con mango, invece di negozio di frutta con
supermercato.
Chiaramente noi abbiamo bisogno di una procedura che calcoli la media dei prezzi nello
stesso modo per ogni venditore, così che entrambe le medie diano la stessa ponderazione
proporzionata per il mango. I prezzi medi dipenderanno dalla ponderazione utilizzata, ma
almeno sarà possibile confrontare (proporzionalmente parlando) mele con mele e mango con
mango. Comunque, è chiaro che, almeno in questo esempio, il tipo di ponderazione
determinerà quale vendita è favorita dal confronto. Il proprietario del negozio di frutta
preferirà un peso più alto per il prezzo del mango, così che il suo prezzo gli consentirà il
miglior guadagno. Ma il proprietario del supermercato preferirà un peso veramente basso per
67
il mango. Egli, infatti, potrà sostenere che il mango è una specialità particolare e non può
essere considerato nel confronto.
Quale insieme di pesi è più opportuno usare? Le persone a cui non piace il mango saranno in
accordo con il proprietario del supermercato. Le persone che amano il mango (o frutti simili)
non saranno d’accordo con lui. Nella maggior parte delle situazioni, la scelta dei pesi (ovvero
della popolazione standard) è basata su convenzioni, sui possibili potenziali confronti, e su
altre varie considerazioni. Spesso non esiste una scelta corretta in maniera assoluta, ed
esistono opinioni molto diverse sulla scelta migliore.
Questa premessa introduce uno dei problemi più frequenti da affrontare in uno studio
epidemiologico: limitare gli effetti di fattori confondenti che non permettono di evidenziare
la relazione vera tra esposizione e malattia o di confrontare gruppi di popolazione.
Una variabile od una mutabile F è confondente se distribuita diversamente nei gruppi che si
confrontano.
68
STRATEGIA PER IL CONTROLLO DEL CONFONDIMENTO
In modo molto sintetico si può affermare che gli interventi di controllo possono essere attuati
in due fasi.
B) IN FASE DI ANALISI
69
hanno una diversa distribuzione del
confondente.
AGGIUSTAMENTO E STANDARDIZZAZIONE
70
LA STANDARDIZZAZIONE
POPOLAZIONE A POPOLAZIONE B
Popolazione a Numero Tasso Popolazione a Numero Tasso
metà anno decessi mortalità metà anno decessi mortalità
TOTALE 57.100.000 53.750 94,1 320.000 220 68,7
Ci si rende conto subito che il tasso grezzo di mortalità è differente tra le due popolazioni.
Ma è corretto utilizzare questa misura grezza per un appropriato confronto?
Una prima risposta si può avere verificando la distribuzione per classi di età della
popolazione (importanza della rappresentazione grafica delle distribuzioni di frequenza).
PER PARAGONARE LE DUE POPOLAZIONI SI RICONOSCONO
DUE METODI DI STANDARDIZZAZIONE: DIRETTO E INDIRETTO.
71
STANDARDIZZAZIONE DIRETTA
In questo caso si calcola il numero dei casi che si verificherebbero in una popolazione ideale
(quella standard) se i tassi fossero quelli delle popolazioni in studio.
Si quantifica, in pratica, il numero di morti per quella malattia che si verificherebbero nelle
rispettive popolazioni se la distribuzione per età fosse la stessa (quella della popolazione
standard scelta).
POPOLAZIONE A POPOLAZIONE B
Fasce di età Popolazione a Numerod Tasso Popolazione a Numero Tasso
metà anno ecessi mortalità metà anno decessi mortalità
0-4 3.000.000 1.200 40,0 50.000 21 42,0
5-14 7.800.000 250 3,2 60.000 2 3,3
15-44 24.900.000 2.400 9,6 142.000 20 14,1
45-64 13.900.000 9.900 71,2 45.000 42 93,3
65 7.500.000 40.000 533,3 23.000 135 587,0
TOTALE 57.100.000 53.750 94,1 320.000 220 68,7
Si dovrà a questo punto scegliere una popolazione standard. In genere la scelta ricade su una
popolazione di grandi dimensioni (regione, nazione, ecc.) oppure su standard riconosciuti
universalmente (popolazioni standard OMS).
72
POPOLAZIONE STANDARD OMS
ATTENZIONE: l’applicazione dei tassi specifici per classi di età va eseguita tenendo conto
del valore moltiplicativo (costante K) utilizzato (1.000, 10.000, 100.000).
Sulla popolazione standard andranno quindi calcolati i morti attesi per classe di età
applicando il tasso specifico della singola popolazione per quella classe.
POPOLAZIONE A POPOLAZIONE B
Fasce di Popolazione Tasso Casi Popolazione Tasso Casi
età standard mortalità attesi standard mortalità attesi
0-4 8.000 40,0 3,2 8.000 42,0 3,4
5-14 14.000 3,2 0,4 14.000 3,3 0,5
15-44 42.000 9,6 4,0 42.000 14,1 5,9
45-64 25.000 71,2 17,8 25.000 93,3 23,3
65 11.000 533,3 58,7 11.000 587,0 64,6
TOTALE 100.000 84,1 100.000 97,7
73
STANDARDIZZAZIONE INDIRETTA
In questo caso si calcola il numero dei casi che si avrebbero in ognuna delle due popolazioni
in studio se i tassi fossero standard.
Si quantifica, in pratica, il numero di morti per quella malattia che si verificherebbero nelle
rispettive popolazioni in studio utilizzando i tassi specifici standard (fonti OMS, nazione,
regione) per classe di età.
3) disporre del numero totale di eventi (morti) nelle popolazioni in studio (non per fasce di
età)
Si procederà quindi a moltiplicare il numero di persone per ciascuna fascia delle due
popolazioni per il rispettivo tasso specifico standard; si otterrà quindi il numero di morti
attesi.
74
POPOLAZIONE A POPOLAZIONE B
Fasce di Popolazione Tassi Casi Popolazione Tassi Casi
età a metà anno standard attesi a metà anno standard attesi
0-4 3.000.000 41,0 1.230 50.000 41 20,5
5-14 7.800.000 3,2 250 60.000 3,2 1,9
15-44 24.900.000 10,0 2.490 142.000 10,0 14,2
45-64 13.900.000 70,0 9.730 45.000 70,0 31,5
65 7.500.000 540,0 40.500 23.000 540,0 124,2
TOTALE 57.100.000 54.200 320.000 192,3
Il confronto tra le due popolazioni si eseguirà dividendo il numero di morti osservati per il
numero di attesi (calcolato con il metodo indiretto).
In questo modo si otterrà un RAPPORTO DI INCIDENZA STANDARDIZZATO (SRR –
Standard Rate Ratio o SIR – Standard Incidence Ratio) ovvero negli studi di mortalità il
RAPPORTO STANDARDIZZATO DI MORTALITA’ (RSM o SMR).
53.750
SMRA 0.99
54.200
220
SMR B 1.14
192,3
75
QUANDO SCEGLIERE UNO O L’ALTRO DEI METODI
La scelta dipende da molti fattori, spesso dai dati che si hanno a disposizione. In particolare il
metodo indiretto è limitato nell’uso dall’indisponibilità dei tassi specifici per singole età.
Il metodo diretto può essere scarsamente attendibile se i tassi specifici delle popolazioni in
studio sono instabili per lo scarso numero di casi osservati (scegliere classi di età di
dimensioni più ampie).
Generalmente è più adottato il metodo diretto in quanto più adatto ad effettuare confronti fra
più popolazioni visto che utilizza il medesimo sistema di pesi (stessa popolazione tipo).
Nel caso in cui le popolazioni siano troppo piccole i tassi diventano instabili e, venendo
moltiplicati per l numero di soggetti di età “i” della popolazione standard, i relativi errori
casuali vengono amplificati.
La standardizzazione diretta, inoltre, può porre problemi quando, nella popolazione in studio,
un solo tasso strato-specifico ha un valore elevato rispetto al corrispondente della
popolazione standard mentre i restanti tassi strato-specifici sono invece simili nelle due
popolazioni.
Si ottiene così un tasso standardizzato che (ammortizzando l’unico tasso specifico elevato)
assume un valore simile a quello della popolazione standard.
Per questo motivo, prima di procedere alla standardizzazione occorre esaminare i singoli tassi
nelle popolazioni a confronto per rilevare eventuali singole classi di età con marcate
differenze nei tassi che potrebbero essere annullate nel computo complessivo del tasso
standardizzato.
76
E’ più valido l’uso del metodo indiretto quando le popolazioni in studio sono piccole (ad
esempio distretti di ASL) e di conseguenza le classi di età sono poco numerose, con
pochissimi eventi osservati e relativi tassi specifici troppo instabili.
In sintesi, dati richiesti nei diversi metodi di standardizzazione per sesso ed età sono i
seguenti:
DIRETTO Tassi specifici per sesso ed età Struttura della popolazione per
sesso ed età
Misura sintetica: CMF*
77
Esercizio 1 - La standardizzazione diretta ed indiretta: mortalità
neonatale nel Lazio.
Sulla base dei dati riportati nella tabella 1 rispondere alle seguenti domande:
Tabella 1 - Distribuzione dei nati vivi e tassi di mortalità neonatale per classi di peso alla
nascita e dimensione del reparto di ostetricia. Lazio 1982
Classi di Tot. Nati Tassi mortalità N° decessi attesi Tassi mortalità N° decessi attesi
peso vivi Lazio neonatale/1000 neonatale/1000
a) Quali passi bisogna compiere per calcolare tassi standardizzati con il metodo diretto?
b) Completare la tabella 1 calcolando le morti attese mancanti ed i tassi standardizzati per
peso usando il metodo della standardizzazione diretta ed utilizzando come popolazione
standard quella dei nati nel Lazio.
c) Quali considerazioni si possono fare sui tassi specifici, tassi grezzi e tassi standardizzati
dei due gruppi di reparti di ostetricia?
78
Utilizzando gli stessi dati della prima parte dell'esercizio, si ipotizzi di non conoscere la
distribuzione del peso nei decessi neonatali osservati nei due gruppi di reparti di ostetricia,
ma solo i decessi totali; in questo caso non essendo, quindi, disponibili i tassi specifici per
peso per calcolare i tassi standardizzati occorre utilizzare il metodo indiretto.
Tabella 2 - Distribuzione dei nati vivi e tassi di mortalità neonatale per classi di peso alla
nascita e dimensione del reparto di ostetricia. Lazio 1982
Classi di Tassi mortalità N° nati vivi N° decessi attesi Tassi mortalità N° decessi attesi
peso neonatale/1000 neonatale/1000
500-999 764,2 12 =12*764,2/1000= 37 =37*764,2/1000=
9,17 28,27
1000-1499 290,7 7 =7*290,7/1000= 48 =48*290,7/1000=
2,03 13,95
1500-1999 95,6 34 125
2000-2499 27,5 141 379
2500-2999 3,4 724 1692
3000-3499 0,7 1764 3664
3500-3999 1,4 1194 2185
4000-4499 0,3 294 434
4500- 2,7 41 49
d) Quali sono i passi necessari per calcolare i tassi standardizzati usando il metodo
indiretto?
e) Completare la tabella 2 calcolando i decessi attesi mancanti, gli SMR ed i tassi
standardizzati.
f) Cosa indica un valore del SMR superiore a 100?
g) In quali circostanze potrebbe essere necessario utilizzare il metodo indiretto rispetto al
metodo diretto?
79
SOLUZIONE:
Tabella 1 - Distribuzione dei nati vivi e tassi di mortalità neonatale per classi di peso alla
nascita e dimensione del reparto di ostetricia. Lazio 1982
Classi di Tot. Nati Tassi mortalità N° decessi attesi Tassi mortalità N° decessi attesi
peso vivi Lazio neonatale/1000 neonatale/1000
80
c) Si osservi come i tassi specifici siano più alti in alcune classi di peso (1000-1499, 2000-
2499, 2500-2999) nei reparti di ostetricia più piccoli rispetto a quelli più grandi, pur se i
La maggior frequenza di nascite di neonati di basso peso negli ospedali con più di 250
nati per anno elimina nei tassi grezzi le differenze che si osservano in quelli specifici per
peso.
L'importanza dei tassi specifici risiede nella possibilità di metterli in relazione con
particolari aspetti delle cure perinatali, come ad esempio una migliore assistenza negli
tassi specifici per classi di peso anche se una misura riassuntiva può rendere il confronto
La tecnica della standardizzazione elimina l'effetto della variabile peso alla nascita sui
come se la loro distribuzione per un fattore determinante l'evento in studio (in questo
Applicare questi tassi specifici alla popolazione dei nati vivi nel Lazio per ottenere il
Dividere il totale dei decessi osservati per il totale dei decessi attesi e moltiplicare per
Moltiplicare l'SMR per il tasso grezzo di mortalità della popolazione standard per
81
250 parti >250 parti
Classi di Tassi mortalità N° nati vivi N° decessi attesi Tassi mortalità N° decessi attesi
peso neonatale/1000 neonatale/1000
f) L'SMR esprime il rapporto tra i decessi osservati e quelli attesi. Un valore superiore a
100 significa un aumento di mortalità nella popolazione indice rispetto a quella standard.
Nel nostro esempio, un SMR di 134 nei reparti di ostetricia con meno di 250 nati per
anno significa che in questo gruppo di reparti si osserva un 34% in più di decessi
82
quando i tassi di mortalità specifici per la variabile in esame sono conosciuti solo per
la popolazione standard;
quando il denominatore dei tassi specifici in ciascuna classe nella popolazione indice
caso. Il metodo indiretto può essere anche utile negli studi di mortalità dove si
quando si vogliono confrontare i valori di due SMR (ad esempio diverse cause di
83
SSC
CRRE
EEEN
NIIN
NGG
Lo scopo di molti studi è quello di mettere in risalto i fattori di rischio al fine di una loro
eliminazione attraverso le campagne mirate di prevenzione.
semplice impiego.
Il test di screening non è un test diagnostico vero e proprio (quest’ultimo è generalmente più
invasivo, ha un costo maggiore e comporta difficoltà tecniche di esecuzione) ma un primo
esame che interessa vaste popolazioni di persone sane che consenta di distinguere le persone
apparentemente sane da quelle probabilmente malate.
Applicazione del test di screening in due ambiti principali:
a) malattia già in corso nella sua fase iniziale in cui l’intervento precoce porta un
significativo miglioramento della prognosi (tumore del colo-retto, diabete) o, addirittura,
la possibilità di guarigione (carcinoma della mammella in fase iniziale, carcinoma in situ
della cervice uterina);
84
b) condizione predisponente o fortemente a rischio per lo sviluppo della malattia
(displasia grave del collo dell’utero, poliposi del colon, ipertensione arteriosa,
ipercolesterolemia).
I pazienti risultati positivi ad un test di screening o sospetti tali devono sempre essere
sottoposti ad un esame diagnostico di conferma e, solo dopo l’eventuale esito positivo di
quest’ultimo, possono essere avviati verso gli opportuni interventi terapeutici che il caso
richiede.
85
Condizione indispensabile perché si possa pensare di impostare una campagna di
prevenzione secondaria mediante l’impiego di un test di screening è quella che deve trattarsi
di una malattia o condizione di una certa gravità o comunque di rilevanza sociale in cui la
diagnosi precoce ed il conseguente intervento terapeutico possano ridurre significativamente
la morbosità e la mortalità.
Un test diagnostico si definisce valido quando conduce il clinico a una diagnosi positiva nei
soggetti affetti da una determinata malattia, e a una diagnosi negativa nei soggetti non affetti
da quella patologia.
La valutazione della validità di un test viene effettuata sottoponendo al test stesso un gruppo
di soggetti sicuramente affetti dalla malattia in esame e un gruppo di soggetti sicuramente
non affetti da tale patologia. Tali gruppi sono a loro volta identificati mediante un test preso
come riferimento (gold standard) per la diagnosi definitiva.
La definizione del gold standard è una delle principali difficoltà nella valutazione dei test
diagnostici.
Quando il gold standard è rappresentato da test di questo tipo, esiste la possibilità di non
poter giungere all’evidenza definitiva per tutti i soggetti che vengono sottoposti al test di cui
si vuole valutare la validità.
86
Se la diagnosi definitiva viene fatta dopo la somministrazione del test in studio, esiste la
possibilità, nel caso in cui il gold standard sia rappresentato da un test invasivo, che una parte
dei soggetti negativi non venga sottoposta a quest’ultimo. Una simili situazione conduce
all’impossibilità di valutare correttamente la validità del test.
Un ulteriore problema riguarda il fatto che molte volte i test di riferimento richiedono una
interpretazione soggettiva che può produrre una discordanza tra diversi clinici, o può
condurre lo stesso clinico a risultati diversi in differenti somministrazioni del medesimo test.
In quest’ottica può risultare informativo conoscere la riproducibilità del test che viene
utilizzato come gold standard.
Una volta identificata la diagnosi definitiva attraverso il gold standard, i soggetti vengono
sottoposti al test in studio.
I risultati ottenuti possono essere schematizzati in una tabella 2x2, in cui vengono messi in
rapporto la positività ad un determinato test e la reale presenza di malattia nei pazienti
esaminati:
a: numero di soggetti malati e positivi al test, ovvero i Veri Positivi (M+, TD+ = VP)
b: numero di soggetti non malati e positivi al test, ovvero i Falsi Positivi (M-, TD+ = FP)
c: numero dei soggetti malati e negativi al test, ovvero i Falsi Negativi (M+, TD- = FN)
g: numero di soggetti non malati e negativi al test, ovvero i Veri Negativi (M-, TD- = VN)
E’ intuitivo che il test ideale dovrebbe raggruppare solo soggetti veri positivi e veri negativi,
ossia occupare le celle a e d. Questa situazione non è quasi mai raggiungibile a causa dei
possibili errori insiti nella metodica impiegata, oppure nella pratica di chi esegue il test e
quindi l’inevitabile possibilità di riscontrare falsi positivi e falsi negativi.
87
SENSIBILITA’ del test capacità del test di fornire risultati positivi nei soggetti malati,
ed è stimata da:
a VP VP
SE 100 100 100
ac VP FN M
SPECIFICITA’ del test capacità del test di fornire risultati negativi nei soggetti non
malati, ed è stimata da:
d VN VN
SP 100 100 100
bd VN FP M
Dalle espressioni riportate, risulta evidente che sensibilità e specificità tendono al 100%
quando la frequenza assoluta, rispettivamente, dei falsi negativi e dei falsi positivi tende a 0.
Quindi b e c sono gli elementi che riducono la validità del test.
In altre parole, un test caratterizzato da un’elevata sensibilità, fornirà una quota contenuta di
risultati falsi negativi, così come un test con un’elevata specificità rileverà la malattia in una
quota esigua di soggetti non malati. Al contrario, più bassa è la sensibilità più alta sarà la
proporzione di falsi negativi (negativi al test ma malati) e più bassa è la specificità più alta
sarà la quota di falsi positivi (positivi al test ma non malati).
ESEMPIO:
Nella seguente tabella sono riportati i risultati di uno studio relativo alla valutazione della
validità del test basato sulla depressione del segmento ST nell’elettrocardiogramma sotto
sforzo, nella diagnosi delle coronaropatie (malattie delle arterie coronariche).
88
Il test è stato somministrato a 150 soggetti affetti da malattia coronarica (diagnosticata
mediante coronografia) e a 150 soggetti non affetti da tale patologia, scegliendo come soglia
discriminante per una diagnosi positiva di coronopatia il valore di 1.00 mm.
135 135
SENSIBILITA' SE 100 100 90%
135 15 150
Ciò significa che per 90 soggetti su 100 individui malati, il test risulta positivo; in altri
termini, un soggetto affetto da coronopatia ha una probabilità del 90% di risultare positivo al
test, e una probabilità pari a (100-90)% = 10% di risultare negativo, ovvero di essere
classificato come Falso Negativo.
96 96
SPECIFICITA' SP 100 100 64%
96 54 150
Un soggetto che non presenta coronopatia risulta negativo al test con una probabilità del
64%, mentre ha una probabilità pari a (100-64)% = 36% di risultare positivo anche se non
malato, ovvero di essere classificato come Falso Positivo.
P(M , TD )
SE P ( TD M )
P(M )
e
P(M-, TD-)
SP P ( TD M )
P(M )
89
Il test ideale dovrebbe avere i valori di SE e SP entrambi uguali a 1 (o al 100%), ma questa
condizione è praticamente impossibile da realizzare. Infatti non si conoscono test ideali,
nemmeno per accertare un evento sicuro come il decesso.
Dal momento che non è possibile disporre, o pensare di poter disporre, di un test sensibile e
specifico al 100%, è necessario valutare tali caratteristiche in base alla situazione particolare
in cui si vuole applicare il test.
VP
VPP 100
VP FP
90
VALORE PREDITTIVO del test NEGATIVO (VPN) è la proporzione di realmente
sani tra i negativi al test, ed è:
VN
VPN 100
VN FN
La rilevanza del VPN è limitata: il suo valore tende sempre al 100% per condizioni in studio
rare, come quasi tutte quelle oggetto di test di screening.
EFFICACIA DEL TEST è il rapporto tra la somma dei veri negativi e dei veri positivi e
il totale degli esaminati:
ad
EFFICACIA 100
N
TEST BIAS è l’errore insito nel test usato, ovvero il rapporto tra positivi al test e malati:
ab
TEST BIAS
ac
Qualora il valore del test bias risulti essere superiore a 1, il test darà una sovrastima del
fenomeno; il contrario se è inferiore a 1.
91
G
GLLII SST
TUUD
DII E
EPPIID
DEEM
MIIO
OLLO
OGGII
92
Nell’ambito degli studi osservazionali un’ulteriore differenziazione viene posta tra gli studi
descrittivi, che si basano sull’utilizzo dei dati già esistenti e considerano generalmente intere
popolazioni, e gli studi analitici in cui, accanto alla quantificazione di un fenomeno,
appaiono generalmente elementi ricavati da anamnesi, esami di laboratorio o interviste; essi,
pur non comportando trattamenti od eliminazione dei fattori di rischio, permettono una
valutazione sommaria del ruolo che possono assumere nell’etiopatogenesi delle specifiche
malattie.
STUDI DESCRITTIVI
Uno studio descrittivo si limita ad una descrizione della frequenza di una malattia in una
popolazione ed è spesso il primo passo in una indagine epidemiologica.
Informazioni descrittive limitate, come una serie di casi, nella quale vengono descritte le
caratteristiche di un numero di pazienti con una malattia specifica, ma non sono confrontate
con quelle di una popolazione di riferimento, spesso offrono lo spunto per l’avvio di uno
studio epidemiologico più dettagliato.
Gottlieb et al. (1981), per esempio, descrissero quattro casi di giovani uomini con una forma
di polmonite in precedenza rara, e in tal modo aprirono la strada a un’ampia gamma di studi
epidemiologici su quella condizione che divenne poi conosciuta come AIDS.
Gli studi descrittivi non mirano ad analizzare i legami tra esposizione ed effetto, ma
generalmente si basano su statistiche di mortalità e possono prendere in esame gli andamenti
della mortalità per età, sesso ed etnia durante periodi di tempo specificati o in differenti paesi.
STUDI ANALITICI
Uno studio analitico va oltre, analizzando le relazioni tra stato di salute e altre variabili.
In tutti gli studi epidemiologici è essenziale avere una chiara definizione di caso della
malattia che si sta indagando, per esempio i sintomi, i segni o altre caratteristiche che
indicano che una persona presenta la malattia. È anche necessaria una chiara definizione di
persona esposta, per esempio le caratteristiche che identificano una persona come esposta ai
fattori allo studio. In assenza di chiare definizioni della malattia e della esposizione è
93
probabile che si incontrino grandi difficoltà nell’interpretare i dati derivanti da uno studio
epidemiologico.
A parte gli studi descrittivi semplici, gli studi epidemiologici sono essenzialmente di tipo
analitico.
Nell’ambito di questo ultimo gruppo di studi, che sono quelli maggiormente utilizzati nella
pratica, si riconoscono:
94
SST
TUUD
DII D
DEESSC
CRRIIT
TTTIIV
VII
a) demografiche
b) sanitarie (schede morti, notifiche malattie infettive)
c) socio-santarie (indagine sullo stato di salute ISTAT - l'ultima è del 1998)
2) CASISTICHE OSPEDALIERE
3) OSSERVATORI EPIDEMIOLOGICI
a) regionali
b) provinciali
c) comunali
5) REGISTRI DI PATOLOGIA
a) tumori
b) tubercolosi
c) malformazioni
E’ evidente, quindi, che non si tratta di studi che prevedono un intervento diretto del
ricercatore sul campo ma una semplice revisione di dati pervenuti attraverso canali di
raccolta già esistenti ed elaborati a livello centrale.
95
Le caratteristiche principali di questo vasto gruppo di studi sono quindi il BASSO COSTO (i
dati già esistono) e l’IMMEDIATEZZA DEI RISULTATI, compatibilmente con l’efficienza della
raccolta centrale.
Sempre da buone fonti esistenti possono essere effettuati studi descrittivi su popolazioni
migranti, che sono in grado di fornire lo spunto per studi osservazionali più sofisticati. Come
è ben noto, l’incidenza delle varie patologie cronico-degenerative è diversa in varie regioni
del mondo. In molti casi può risultare difficile valutare la maggior importanza di fattori
genetici rispetto a quelli ambientali nell’etiopatogenesi di una malattia. L’importanza degli
studi su popolazioni migranti deriva proprio dalla possibilità di verificare l’incidenza di una
particolare malattia in un gruppo di persone con caratteristiche genetiche particolari (ad
esempio razza a bassa incidenza) migrate in zone in cui la malattia è molto più frequente. La
valutazione viene generalmente effettuata comparando l’incidenza nella popolazione migrata
(o nelle successive generazioni) con quella dei residenti e/o con quella di origine.
UN ADEGUAMENTO DEI TASSI (RILEVABILE GENERALMENTE NEI FIGLI E NEI NIPOTI DEGLI
EMIGRATI) A QUELLI LOCALI TESTIMONIA IL RUOLO FONDAMENTALE DELL’AMBIENTE DI
EREDITARIA.
96
SST
TUUD
DII E
ECCO
OLLO
OGGIIC
CII
97
Con questo tipo di studio è possibile:
a) calcolare
TASSI DI NATALITA', TASSI DI MORTALITA', GLI INDICI DEMOGRAFICI, LA
PREVALENZA E L'INCIDENZA DI ALCUNE MALATTIE, ECC.
c) osservare
DISTRIBUZIONE GEOGRAFICA DEI FENOMENI, IL LORO ANDAMENTO NEL
TEMPO (analisi per coorti di età)
d) confrontare
REALTA' DIFFERENTI (nazioni, regioni, zone della stessa città) - molto utile nello studio
di popolazioni migranti (spunto per studi osservazionali più sofisticati)
e) programmare
INTERVENTI SANITARI SIA DI PREVENZIONE CHE DI CURA E RIABILITAZIONE
f) avviare
OBIETTIVI
2) Illustrare il quadro della distribuzione delle varie malattie in rapporto a tempo, luogo e
caratteristiche individuali
98
STUDI DESCRITTIVI - (vantaggi e svantaggi)
VANTAGGI SVANTAGGI
Incertezza sequenza
temporale causa-effetto
Utili per identificare
fenomeni da indagare con Difficile vagliare ipotesi
studi successivi ad hoc etiologiche specifiche
Impiego frequente di
Semplicità classificazioni standard
inadeguate o non aggiornate
BIAS COMUNI
Attendibilità del dato originale dubbia, variabile nel tempo e nello spazio e
comunque difficilmente verificabile
99
SST
TUUD
DII T
TRRA
ASSV
VEER
RSSA
ALLII oo D
DII PPR
REEV
VAAL
LEEN
NZZA
A
((SST
TUUD
DII C
CRRO
OSSSS--SSE
ECCT
TIIO
ONNA
ALL))
100
In genere questi studi prevedono l'analisi di una popolazione intera o di un campione della
stessa (campionamento randomizzato semplice, stratificato, a grappolo-cluster, sistematico,
ecc.).
Campione si
Malattia
popolazione
e/o sintomi no
si
esposizione
no
T0
Inizio e fine
dello studio
OBIETTIVI
101
2) ottenere informazioni sugli atteggiamenti della popolazione nei confronti dei servizi
sanitari, sui bisogni di assistenza percepiti, sull'utilizzo dei servizi sanitari stessi
VANTAGGI SVANTAGGI
BIAS COMUNI
102
SST
TUUD
DII C
CAASSO
O--C
COON
NTTR
ROOL
LLLO
O
Gli studi caso-controllo e quelli longitudinali o a coorte sono le due indagini osservazionali
analitiche che consentono di indagare sul ruolo etiopatogenetico di eventuali fattori di
rischio.
Negli studi caso-controllo, in particolare, dove non possono essere calcolate né l’incidenza né
la prevalenza, il vagliare ipotesi etiologiche anche recentemente emerse è l’unico obiettivo.
Questi studi sono stati definiti da molti autori come “retrospettivi” perché ricostruiscono la
storia clinica dei pazienti considerati.
Gli studi caso-controllo sono impostati per ottenere, in tempi brevi e con costi relativamente
bassi rispetto agli studi longitudinali, informazioni attendibili riguardanti fattori
etiopatogenetici di malattie anche poco frequenti.
Il disegno dello studio caso-controllo prevede che si considerino sempre due gruppi di
soggetti: uno di malati o affetti dalla particolare condizione in studio, che costituiscono i casi,
ed uno di soggetti aventi le stesse caratteristiche dei primi (i controlli), i quali differiscono
dai casi solo per non essere affetti dalla malattia.
Campione di popolazione
esposti
CASI
non esposti
esposti
CONTROLLI
non esposti
T-1 T0
Inizio dello studio
103
L’attendibilità dei risultati dipende principalmente dalla corretta selezione di casi e controlli.
I CASI I CONTROLLI
La raccolta di dati anamnestici deve avvenire in modo identico per i due gruppi e, a seconda
delle circostanze, può riguardare una revisione di cartelle cliniche, un’intervista ai
partecipanti allo studio o un’intervista a parenti, qualora i casi siano persone decedute o in
condizioni tali da non poter rispondere (malati gravi, bambini).
104
La definizione di caso deve essere ben specificata nel protocollo di ricerca; essa deve
possibilmente considerare criteri di inclusione e di esclusione oggettivi piuttosto che
soggettivi; questo per rendere uniforme al massimo il gruppo dei malati.
Una prima possibilità per la scelta dei controlli è la tecnica dell’appaiamento (matching); in
questo caso, per ogni malato si seleziona una persona che abbia le stesse caratteristiche
ritenute importanti per l’indagine (età, sesso, luogo di nascita, condizione sociale, ecc.)
tranne che l’essere affetto dalla malattia considerata oppure essere portatore di condizioni
correlate alla malattia stessa (ad esempio patologie interessanti lo stesso apparato). La
tecnica, seppur metodologicamente molto appropriata, presenta inconvenienti tecnici che ne
rendono scarsamente diffuso l’impiego.
L’altra modalità si realizza scegliendo un gruppo di persone che, globalmente, ha
caratteristiche simili a quelle dei casi (stessa età media, stesse percentuali delle varie
condizioni sociali, ecc.) tranne che la malattia o condizioni correlate con essa.
C) Raccolta dei dati retrospettivi sia per i casi che per i controlli (con identiche
modalità): cartelle cliniche, interviste, test di laboratorio, eec.
D) Analisi dei dati (non calcola l'incidenza e la prevalenza; studia l'associazione tra
esposizione pregressa e malattia ODDS RATIO)
105
L'analisi dei dati di uno studio caso-controllo può essere ricondotta ad una tabella 2X2
(tabella di contingenza).
CASI CONTROLLI
Esposti a b a+b
a+c b+d
ODDS RATIO:
ad
a/b : c/d = a/c x d/b =
cb
OBIETTIVI
106
STUDI CASO-CONTROLLO - (vantaggi e svantaggi)
VANTAGGI SVANTAGGI
Semplicità
Rapidità
BIAS COMUNI
107
ESEMPIO
Uno degli argomenti più dibattuti nella letteratura scientifica degli ultimi anni è quello
dell’eventuale ruolo degli ormoni estro-progestinici nello sviluppo del tumore alla
mammella. Evidenze epidemiologiche avevano già scartato l’associazione tra uso di pillola
ed altri tumori dell’apparato genitale femminile, quale quelli dell’ovaio e dell’utero. Per il
tumore della mammella, i pareri sono discordanti, in quanto alcuni studi hanno dimostrato la
sussistenza di questa associazione, altri l’hanno categoricamente smentita adducendo una
serie di possibili distorsioni che possono avere alterato i risultati positivi degli studi. Uno
degli ultimi contributi è costituito da uno studio caso-controllo multicentrico effettuato in
Scandinavia, tendente a valutare il passato uso di ormoni estro-progestinici. Esso ha dato i
seguenti risultati globali:
Il valore dell’Odds Ratio (OR), che costituisce la stima del rischio relativo è di 1,42 ma il
risultato, pur mostrando una maggior frequenza di esposizione tra i casi, non può essere
considerato significativo, per la possibilità di fluttuazioni dovute al caso. L’analisi non si è
fermata ai dati globali ma ha considerato anche la stratificazione per numero di anni di
impiego dei contraccettivi orali.
108
I dati dimostrano che, in soggetti che hanno fatto uso di ormoni estro-progestinici per più di
12 anni, la stima del rischio relativo per il tumore della mammella è di 2,2 (statisticamente
significativo con p<0,05). Il rischio di per sé non è molto elevato e soprattutto non è stato
ribadito da altri studi sull’argomento.
Diversi autori hanno tentato di dare una spiegazione in termini di distorsioni dei risultati
positivi ottenuti. Due tipi di bias sembrano poter aver inciso in maniera determinante. Il
primo riguarda la maggior tendenza dei casi rispetto ai controlli a riferire passato uso di
contraccettivi. Questa distorsione (che gli anglosassoni chiamano recall bias) è dovuta
principalmente al fatto che la presenza della malattia determina nel malato una maggiore
predisposizione nel ricordare particolari fatti avvenuti in passato. Vi è da aggiungere, poi, che
proprio nei paesi scandinavi è stata effettuata una campagna di stampa allarmistica su questo
argomento, fatto questo che può avere senz’altro influito su molte risposte.
Un altro fatto che può avere rivestito un ruolo è la frequenza dei controlli medici ai quali
sono state sottoposte le pazienti sotto terapia ormonale (bias di sorveglianza). Una maggior
frequenza di visite può non solo avere anticipato la diagnosi ma può avere anche portato alla
luce tumori di piccole dimensioni che probabilmente non si sarebbero mai manifestati in
forma clinicamente evidente. Questo fatto può avere avuto influenza sulla stima del rischio
relativo. Gli elementi illustrati rendono perciò piuttosto scettici sulla possibilità di questa
associazione.
109
SST
TUUD
DII L
LOON
NGGIIT
TUUD
DIIN
NAAL
LII O
ODDII C
COOO
ORRT
TEE
Gli studi longitudinali comprendono una vasta serie di indagini che hanno la caratteristica
comune di prevedere l’osservazione per un determinato periodo di tempo.
Gli studi longitudinali più noti sono quelli a coorte, in cui uno o più gruppi di soggetti
(generalmente esposti ad un fattore di rischio) vengono seguiti nel tempo per valutare
l’incidenza di una specifica malattia.
Un gruppo a parte è costituito da semplici studi di follow-up, in cui non sono soggetti sani ad
essere considerati ma soggetti già malati, che vengono seguiti nel tempo al fine di valutare il
periodo di sopravvivenza dal momento della diagnosi.
Questo tipo di osservazioni è la base per quella che viene definita in termini tecnici l’analisi
della sopravvivenza.
Negli studi longitudinali uno o più gruppi di soggetti (lavoratori di un’azienda, membri di
una collettività) vengono seguiti nel tempo, per un periodo variabile a seconda degli interessi
specifici dell’indagine, al fine di determinare se l’incidenza di una particolare malattia è
maggiore nel gruppo degli esposti rispetto a quello dei non esposti o rispetto alla popolazione
generale. In questo modo si può valutare con precisione il ruolo di un supposto fattore di
rischio nell’insorgenza di una malattia.
popolazione
M+
esposti
M-
M+
non esposti
M-
T0 T1
inizio dello fine dello
studio studio
110
I due problemi maggiori di uno studio a coorte sono costituiti da come quantificare
l’esposizione e, soprattutto, da come raccogliere i dati riguardanti l’evento in studio (malattia
o morte).
Se l’evento è costituito dalla malattia, ad eccezione delle località in cui esistono appositi
registri (come il registro tumori) deve essere l’osservazione all’interno dello studio che mette
in evidenza i casi. Ciò implica ulteriori difficoltà per le visite più frequenti, i criteri di
definizione della malattia e l’utilizzo di metodiche di laboratorio con i relativi possibili errori.
Poiché lo studio longitudinale è focalizzato sulla comparsa della malattia nei soggetti
appartenenti ad una coorte, non si addice a malattie poco frequenti in cui il numero dei
partecipanti da coinvolgere dovrebbe essere molto elevato; inoltre, le difficoltà operative
aumentano proporzionalmente con l’aumento del tempo di latenza tra esposizione e comparsa
della malattia.
Una variante degli studi a coorte che risolve parzialmente problemi di lunghezza
dell’indagine e di costi è costituita dagli studi a coorte storica (historical cohorts), in cui la
coorte viene identificata in base ai dati di pregresse esposizioni e la valutazione
dell’incidenza di malattia o della mortalità per una specifica causa viene eseguita al momento
dell’impostazione dello studio od in un periodo immediatamente successivo. La condizione
essenziale è quella di disporre dei dati riguardanti particolari esposizioni, ad esempio i
registri delle fabbriche, utilissimi per raccogliere dati riguardanti l’esposizione di determinati
lavoratori a sostanze nocive.
111
STUDIO DI COORTE RETROSPETTIVO (NON CONCORRENTE-STORICO)
popolazione
M+
esposti
M-
M+
non esposti
M-
T -1 T0
inizio e fine
dello studio
112
STUDIO DI COORTE MISTO
popolazione
M+
esposti
M-
M+
non esposti
M-
T -1 T0 T1
inizio dello fine dello
studio studio
OBIETTIVI
2) quantizzare il rischio attraverso il calcolo dei tassi di incidenza negli esposti, nei non
esposti e negli esposti a vari gradi e livelli
4) Confrontare soggetti esposti in modo diverso, analisi differenziate per età e durata
dell'esposizione
113
STUDI DI COORTE - (vantaggi e svantaggi)
VANTAGGI SVANTAGGI
BIAS COMUNI
Perdite al follow-up
114
SST
TUUD
DII SSPPE
ERRIIM
MEEN
NTTA
ALLII
Nel campo della prevenzione gli studi sperimentali trovano maggiori applicazioni; si tratta di
interventi consistenti nella rimozione di uno o più fattori di rischio o nell’imposizione di
misure preventive che si ritengano probabilmente efficaci.
115
Questi ultimi sono a loro volta suddivisi in sperimentazioni di intervento comunitario
(community intervention trial) o sperimentazioni sul campo (field trial) a seconda che siano
interventi rispettivamente su intere comunità o sulle singole persone.
SPERIMENTAZIONI
CLINICHE
(clinical trials)
Community intervention trial
(target intera comunità -
sperimentaz. Interv.
INTERVENTI comunitario)
PREVENTIVI
(preventive trials)
Field trial
(target singola persona -
sperimentazioni sul campo)
L
LEE SSPPE
ERRIIM
MEEN
NTTA
AZZIIO
ONNII C
CLLIIN
NIIC
CHHE
ECCO
ONNT
TRRO
OLLL
LAAT
TEE
116
volontari, spesso reclutati nelle stesse aziende farmaceutiche. Oltre all’attenta
monitorizzazione del metabolismo e della biodisponibilità del farmaco, questa
fase mira, attraverso somministrazione di dose progressive, a stabilire gli
opportuni dosaggi terapeutici, messi poi in atto in fase II.
Fase II – Iniziale valutazione clinica dell’effetto del farmaco. Trovata la dose efficace, in
questo stadio si tende, oltre a confermare la sicurezza della sostanza, a valutarne
il reale beneficio terapeutico attraverso un monitoraggio continuo dei pazienti
reclutati. Questa fase coinvolge un numero di volontari mai superiore a 100-200 e
blocca l’iter di molte sostanze il cui reale beneficio è minimo.
Fase III – Valutazione completa del trattamento. Provata l’efficacia di un determinato
farmaco, diventa fondamentale paragonarne l’effetto con quelli già esistenti ed
utilizzati come terapia standard. Questa fase è la sperimentazione clinica
controllata propriamente detta, sicuramente la più importante ed onerosa. La
buona riuscita della sperimentazione condiziona l’eventuale registrazione del
farmaco in commercio. Trattandosi di confronti tra diversi trattamenti, questa fase
è certamente la più importante e quella in cui le metodiche epidemiologiche
trovano la maggiore applicazione; ogni ulteriore discussione sulla metodologia
delle sperimentazioni cliniche verterà principalmente su questa fase.
Fase IV – Sorveglianza post-registrazione. Dopo la registrazione, i farmaci devono essere
monitorati per valutare soprattutto l’eventuale insorgenza di effetti collaterali a
distanza o molto rari, oltre ad una più esaustiva valutazione dell’efficacia,
soprattutto per le patologie a lungo termine.
Oltre ad alcune caratteristiche comuni ad altri tipi di studio, ve ne sono alcune che risultano
particolarmente importanti negli studi sperimentali e nelle sperimentazioni cliniche in
particolare.
Come abbiamo già sottolineato, le sperimentazioni cliniche (così come gli interventi
preventivi) non possono essere impiegate frequentemente.
Diventano quindi importanti le regole etiche che devono essere rigorosamente rispettate e
controllate da speciali organi (in alcune realtà straniere esistono già da tempo comitati etici
locali che valutano questi requisiti)
117
a) la condizione iniziale affinché lo sperimentatore possa paragonare due o più trattamenti è
che vi devono essere buone ragioni scientifiche per ritenere che il nuovo trattamento sia
più efficace di quelli impiegati sino a quel momento (che potrebbe anche essere nessuna
terapia per malattie non gravi) e contestualmente non vi deve già essere evidenza certa
della superiorità dell’uno piuttosto che dell’altro.
b) Per qualsiasi tipo di studio sperimentale il paziente deve essere informato della
sperimentazione in corso e fornire il suo benestare all’inclusione nello studio
(ottenimento del consenso informato).
c) Durante lo svolgimento dello studio può emergere che un trattamento sia, con certezza,
migliore rispetto all’altro; questo può derivare sia da dati inequivocabili che emergono
dalla sperimentazione in corso sia da altre fonti; se si verifica questa eventualità la
sperimentazione deve venire interrotta immediatamente.
Soddisfatte queste regole etiche ed altre come la ragionevole certezza che il farmaco non sia
pericolo, è lecito procedere a tale studio che è indispensabile per il progresso della medicina;
infatti, in caso di impatto positivo, le nuove procedure terapeutiche si possono
successivamente estendere all’intera popolazione.
118
Per SINGOLO CIECO si intende la situazione in cui il soggetto non è a conoscenza del
gruppo di trattamento a cui è stato assegnato.
Per TRIPLO CIECO si intende la situazione in cui anche l’elaborazione statistica dei dati viene
effettuata senza conoscere a quale gruppo corrispondano i diversi trattamenti.
Queste metodiche riducono l’influenza che sperimentatori e pazienti possono imprimere allo
studio rendendo i risultati più attendibili.
119
OBIETTIVI DEGLI STUDI SPERIMENTALI
Paragonare l'efficacia di due o più trattamenti terapeutici
Valutare l'efficacia di un intervento di prevenzione o di rimozione di fattori di rischio
su un gruppo di persone o su un'intera comunità
Analizzare le conseguenze degli interventi terapeutici in termini di NNT (Number
Needed to Treat = numero necessario di soggetti da trattare per ottenere un successo
clinico) negli studi di costo-efficacia
Dove NNT= 100/percentuale di successi in più
VANTAGGI SVANTAGGI
BIAS COMUNI
Perdite al follow-up
120
ESEMPIO
Un esempio di sperimentazione clinica è stata condotta tra il 1973 e il 1980 presso l’Istituto
Tumori di Milano ed ha riguardato il paragone tra l’intervento di mastectomia versus la
semplice quadrantectomia in tumori maligni del seno di dimensioni inferiori a 2 cm.
Un campione di 701 pazienti sono state assegnate casualmente (busta chiusa inserita nella
cartella clinica al momento del ricovero) ad uno dei due trattamenti; sono state seguite per
cinque anni ed hanno fornito i seguenti risultati.:
Mastectomia Quadrantectomia
Tasso di sopravvivenza a 5 anni 90,1 (2,5) 89,6 (2,6)
Nessuna differenza statisticamente significativa è emersa tra i due trattamenti sia riguardo la
sopravvivenza sia riguardo l’insorgenza di metastasi; dopo la pubblicazione di questi risultati
è stata adottata su larga scala la pratica chirurgica di eseguire, nel caso di tumori circoscritti,
la sola quadrantectomia.
121
L
LAAM
MEET
TAA--A
ANNA
ALLIISSII
Come si possono combinare le informazioni provenienti da diversi studi sia sperimentali che
osservazionali?
Combinare le informazioni rappresenta una parte fondamentale della attività scientifica, del
processo decisionale del medico e della programmazione e pianificazione sanitaria.
Sia per il medico pratico sia per il ricercatore, la crescita della letteratura scientifica è tale da
rendere praticamente impossibile un reale e completo aggiornamento.
Anche all’interno di una singola branca della medicina è spesso difficile tenere dietro a tutto
quanto viene pubblicato e può essere potenzialmente rilevante per la pratica clinica.
Per questa ragione, il medico pratico, ma anche il ricercatore, si affida sempre di più alle
revisioni della letteratura (le cosiddette “review”) per potersi rapidamente ed efficacemente
aggiornare sulla eziologia, sulla diagnosi e sul trattamento delle patologie pertinenti il suo
proprio settore di attività.
Tradizionalmente, queste review sono preparate da esperti che tendono a basarsi sulle
informazioni per loro più consolidate.
La selezione delle informazioni da inserire all’interno di una revisione della letteratura
vengono filtrate dalla propria esperienza personale, dalla conoscenza di ognuno su quanto si
ritiene realmente rilevante, e dalle opinioni – più o meno obiettive – sulla credibilità o meno
a priori delle singole fonti.
Per quanto ci siano degli indubbi vantaggi in questo tipo di approccio (una diretta e
approfondita conoscenza di un determinato argomento è prerequisito fondamentale per
contribuire in maniera significativa alle conoscenze) ci sono anche pericoli che non devono
essere sottovalutati.
Chi cura una review può infatti decidere di includere un determinato studio semplicemente
perché è particolarmente affidabile e credibile il gruppo di ricerca che lo ha prodotto più che
per la intrinseca qualità metodologica del lavoro stesso.
Le revisioni della letteratura finiscono spesso per fare più luce sugli aspetti di contraddizione
(più o meno reale) tra i singoli studi che non aiutare a risolvere realmente le controversie
interpretative.
Infine – e questo rappresenta indubbiamente il nodo critico più importante – le review
tradizionali si basano sul cosiddetto “approccio della conta” ovverosia sul valutare quanti
sono i cosiddetti “studi positivi” (quelli, cioè, nei quali si dice che un certo trattamento
122
sperimentale è più efficace di un altro o un certo agente eziologico è associato alla insorgenza
di una malattia) e quanti invece gli “studi negativi” (quelli, cioè, nei quali si dice che un
certo trattamento sperimentale non è più efficace di un altro o un certo agente eziologico non
è associato alla insorgenza di una malattia).
Alla fine le conclusioni si basano sulla differenza netta tra studi positivi e negativi.
Fin dai primi anni ’80 alle tradizionali review (definite da alcuni “narrative”, proprio per
questa loro natura essenzialmente qualitativa) si sono progressivamente affiancati studi
caratterizzati da una metodologia maggiormente strutturata e formale che va sotto il nome di
meta-analisi.
A differenza della review narativa, il metodo della meta-analisi si basa sull’idea di
considerare prima qualitativamente – nella stesura ed esplicitazione delle ipotesi di lavoro
della revisione stessa e della esplorazione delle differenze/analogie di disegno, conduzione ed
interpretazione dei diversi studi considerati – e poi quantitativamente i risultati dei singoli
studi al fine di combinarli per poter raggiungere quel grado di precisione che i singoli studi
non erano in grado di raggiungere.
La meta-analisi può quindi essere definita più come un approccio che una metodologia
specifica.
123
studi o le diverse metodologie proposte per valutare la qualità del disegno e della conduzione
di uno studio.
Un errore abbastanza comune è quello di assumere che la meta-analisi sia semplicemente
un insieme di metodi statistici utili a combinare quantitativamente le informazioni derivate da
studi diversi.
In verità possiamo definire la meta-analisi come quella disciplina che governa – attraverso
un insieme di regole – l’intero processo di revisione ed analisi critica delle conoscenze
scientifiche.
Tale processo comprende le seguenti tappe:
Gli scopi essenziali di una meta-analisi possono pertanto essere così riassunti:
124
PERCHE’ E DOVE E’ UTILE LA META-ANALISI
125
LE OBBIEZIONI PIU’ COMUNI ALLA META-ANALISI
126
d) associazione con altri tipi di trattamento collaterale, ecc.
Tutto questo renderebbe difficilmente interpretabile il risultato complessivo.
Chi solleva questo dubbio parte dalla constatazione che avendo a disposizione grandi numeri
è molto più probabile che differenze molto limitate tra due trattamenti raggiungano la
significatività statistica.
127
PROBLEMI METODOLOGICI NELLA ESECUZIONE
DI UNA META-ANALISI
Per quanto finora detto circa le differenze tra review tradizionale e meta-analisi è evidente
che il problema della selezione delle fonti è cruciale.
Selezionare in modo incompleto (o, peggio, palesemente parziale) le informazioni disponibili
può infatti rappresentare un cattivo servizio sia al prestigio ed alla utilità della disciplina sia
alla comunità scientifica che riceve messaggi errati cui la meta-analisi attribuisce una
maggiore credibilità.
Proviamo ad impostare il problema mettendoci dal punto di vista del lettore di una meta-
analisi ed immaginando che egli voglia, innanzitutto, assicurarsi che i risultati sono stati
ottenuti attraverso una esaustiva, appropriata e valida selezione delle fonti informative.
Che cosa dovrebbe questo lettore trovare scritto nella sezione “materiali e metodi” di questa
ipotetica meta-analisi?
128
Anche se vi possono essere differenze notevoli nel tipo di informazioni disponibili in
funzione del fatto che il quesito riguardi problemi di carattere eziologico, di efficacia di un
intervento o di impatto sulla prognosi di una malattia, si può ipotizzare che le informazioni
essenziali da fornire al nostro ipotetico lettore siano le seguenti.
Innanzi tutto la precisazione del periodo di tempo coperto dalla revisione e se il lavoro di
meta-analisi si è basato solo sui risultati di studi pubblicati o se sono state attivamente
ricercate anche informazioni provenienti da studi non ancora o mai pubblicati.
Non esiste un unico metodo in grado di garantire un completo censimento della letteratura.
Alla tradizionale esplorazione manuale delle bibliografie di articoli pubblicati si è oggi quasi
completamente sostituito l’uso delle banche dati computerizzate in grado di fornire –
attraverso l’uso di specifiche “parole chiave” – liste delle pubblicazioni pertinenti.
Se la consultazione di archivi computerizzati rappresenta oggi l’approccio standard iniziale, è
bene sapere che questo non può essere il solo modo di impostare il lavoro.
Un approccio comunemente associato al primo è quello di esaminare gli Atti dei più
importanti congressi internazionali di settore allo scopo di rintracciare le informazioni
sufficienti ad includere studi non ancora pubblicati in forma completa.
Dove esistono, può essere utile consultare registri di ricerche cliniche. Tali registri, di cui
esistono diverse tipologie e formati, possono variare in complessità ed accessibilità a seconda
che siano organizzati da singoli ricercatori o da organizzazioni nazionali o internazionali di
ricerca.
Infine, anche se può variare molto quanto a grado di formalizzazione, può essere utile
completare la ricerca delle fonti con indagini supplementari di tipo qualitativo rivolte ai
ricercatori del settore.
Ben più complesso è il problema quando si vogliono considerare nella meta-analisi anche gli
studi non pubblicati.
Tralasciamo per il momento il problema (che affronteremo tra poco) della verifica della
validità dei dati quando si utilizzano informazioni non precedentemente sottoposte a processo
di revisione.
129
Fondamentalmente il modo di procedere è lo stesso cui si è appena accennato, con però la
necessità che la fase più informale di ricerca sia condotta con particolare cura ed attenzione.
Ma perché alcuni sostengono che i risultati di una meta-analisi sono tanto più validi se si fa
uno sforzo per includere anche i risultati degli studi non pubblicati?
Occorre sottolineare che la probabilità che uno studio, una volta terminato, venga pubblicato
è direttamente influenzata dai suoi risultati.
Quanto più i risultati sono positivi, nel senso che dimostrano che un trattamento funziona, o
che una esposizione costituisce realmente un fattore di rischio per una certa malattia, tanto
più aumentano le probabilità che tale studio venga pubblicato.
Questo fenomeno è noto come “distorsione da pubblicazione” (pubblication bias) e può
rappresentare una minaccia per la validità di una meta-analisi in quanto porterà – in maniera
tanto più marcata quanto più il fenomeno è reale – a sovrastimare erroneamente l’effetto di
quel trattamento o il ruolo eziologico della particolare esposizione studiata.
Una meta-analisi non può quindi essere valida se non sono stati inclusi (o se, quanto meno,
non ci si è ragionevolmente accertati della non esistenza) di dati non pubblicati?
Una volta selezionate le fonti, il passo successivo consiste nel ricavare in modo valido i dati
necessari alla esecuzione delle stime combinate quando queste sono possibili.
Quali sono i problemi metodologici cui ci si trova di fronte nella esecuzione pratica di una
meta-analisi?
130
Non sempre i dati sono presentati nel lavoro originale in modo utile per chi vuole
condurre una meta-analisi.
Le informazioni necessarie per combinare i dati da un punto di vista quantitativo, sia che si
tratti di studi clinici controllati o di studi non sperimentali basati su variabili di tipo
categorico, sono molto semplici e possono essere schematizzate secondo la seguente tabella:
In tutti questi casi, evidentemente, sarebbero necessarie verifiche direttamente con gli Autori
del singolo studio.
Anche se talvolta questo viene fatto, la complessità e laboriosità di questo modo di procedere
(e talvolta anche la indisponibilità o la impossibilità dell’autore a collaborare) fa sì che
vengano scelti approcci più pragmatici come ad esempio la esclusione dello/degli studi non
131
utilizzabili o la analisi basata su quanto riportato nella pubblicazione originale senza ulteriori
verifiche.
È evidente che nel giudizio sulla credibilità dei risultati di una meta-analisi le scelte fatte in
termini di utilizzo e verifica critica dei dati originali dovranno trovare una adeguata
considerazione.
È abbastanza frequente sentire dire che i risultati di una meta-analisi non sono validi in
quanto essi derivano dall’aver messo insieme “pere con mele” associando i risultati di studi
condotti su popolazioni diverse, sottoposte a trattamenti diversi anche se apparentemente
omologabili, e sperimentati in condizioni di setting tra loro non confrontabili.
Un punto centrale per capire come si fa una meta-analisi consiste nel fatto che ogni singolo
studio, con la sua specifica popolazione di pazienti e con il particolare tipo di trattamento
studiato, viene prima considerato separatamente e sono solo i risultati ottenuti all’interno di
ogni studio che vengono sommati.
Si ricorre cioè a una “analisi stratificata” nella quale l’effetto del trattamento viene
dapprima stimato all’interno di ciascuno studio e poi i singoli effetti vengono combinati per
stimare l’effetto complessivo.
Tale procedimento è basato sull’assunzione secondo cui i singoli studi possono essere
differenti l’uno dall’altro e dunque gli effetti del trattamento (ovvero la differenza nei risultati
tra gruppo sperimentale e di controllo) sono diversi quantitativamente tra studio e studio.
132
L
LEED
DIISST
TOOR
RSSIIO
ONNII IIN
NUUN
NOO SST
TUUD
DIIO
OEEPPIID
DEEM
MIIO
OLLO
OGGIIC
COO
Queste condizioni esterne possono essere suddivise in due categorie principali: gli errori
dovuti alla variabilità campionaria (random error che si legano al concetto di
PRECISIONE) e gli errori sistematici detti DISTORSIONI, VIZI ovvero BIAS (legati al
concetto di VALIDITA’).
Gli errori sistematici (bias) sono distinguibili nei seguenti tipi di DISTORSIONE:
1. BIAS di SELEZIONE
2. BIAS di INFORMAZIONE
3. CONFONDIMENTO
4. MODIFICAZIONE DI EFFETTO
BIAS DI SELEZIONE
Sono quelle distorsioni che riguardano le modalità con cui i gruppi di soggetti inclusi
nell’indagine sono stati selezionati.
Ad esempio:
a. un campione non rappresentativo della popolazione alla quale si vogliono riferire i
risultati ottenuti può portare a valori talvolta anche molto lontani dalla realtà;
b. gruppi di controllo le cui caratteristiche individuali differiscono da quelle dei casi in
studio;
133
c. differente capacità (o probabilità) diagnostica nei due gruppi;
d. non risposta selettiva (solo il 10% degli intervistati ha risposto);
e. incompletezza del follow-up
BIAS DI INFORMAZIONE
134
I bias più comuni sono:
Bias di partecipazione
Bias di sorveglianza
recall bias
135
CONFONDIMENTO
ESPOSIZIONE MALATTIA
CONFONDENTE
In sintesi per essere fattore di confondimento, il fattore deve soddisfare i seguenti due criteri:
essere associato all’esito sia negli esposti che nei non esposti;
essere associato con l’esposizione ma non essere una conseguenza dell’esposizione.
ESEMPIO:
Viene studiato il tasso di incidenza decennale del tumore del polmone nei lavoratori di
una fabbrica di coloranti rispetto all’andamento della stessa patologia in un gruppo di
impiegati (sovrapponibile al primo nella composizione per età, sesso, razza, luogo di
residenza e livello socio-economico). Analizzando complessivamente i dati si ottiene una
situazione di questo tipo:
136
Malato Non malato Totale
(M+) (M-)
Operai della fabbrica 170 830 1000
Impiegati 80 920 1000
170 / 1000
RR 2,125
80 / 1000
FUMATORI
Malato Non malato Totale
(M+) (M-)
Operai della fabbrica 160 640 800
Impiegati 40 1600 200
160 / 800
RR 1,00
40 / 200
NON FUMATORI
Malato Non malato Totale
(M+) (M-)
Operai della fabbrica 10 190 200
Impiegati 40 760 800
10 / 200
RR 1,00
40 / 800
137
Il RR superiore a 2 ritrovato nei dati globali può essere quindi semplicemente ascritto al
fatto che la prevalenza di fumatori è nettamente maggiore tra gli operai (80%) rispetto
agli impiegati (20%).
In questo caso, dunque, il fumo (associato sia alla malattia che alla presunta esposizione
in studio) è un fattore di confondimento.
MODIFICAZIONE DELL’EFFETTO
138
COME LEGGERE UN ARTICOLO SCIENTIFICO
139
QUALI SONO I RISULTATI
a) Quanto proposto dallo studio può essere calato organizzativamente nel territorio dove
opero?
b) E' stata presa in considerazione l'eventualità di effetti non desiderati?
c) I probabili benefici superano i danni ed i costi potenziali
d) I risultati cambieranno il modo personale di lavorare
e) Gli utenti trarranno beneficio dall'uso della tecnica?
140
QUALCHE CONSIGLIO BIBLIOGRAFICO
TESTI DI EPIDEMIOLOGIA
TESTI DI STATISTICA
SITI INTERNET
141
b) ISTAT: http://www.istat.it
j) Epidemiologic: http://www.epidemiolog.nethttp://www.areas.it
l) Epicentro: http://www.epicentro.iss.it
Hans Magnus Enzensberger - Il Mago dei Numeri - Ed. Mondadori I miti (2000)
Denis Guedy – Il teorema del pappagallo – Ed. Superpocket R.L. Libri – Milano (2001)
142