Sei sulla pagina 1di 31

Errori cognitivi,

probabilit e
decisioni mediche
nella diagnostica
di laboratorio
M. Besozzi - IRCCS Istituto Auxologico Italiano

Largomento...
Errori cognitivi
Il problema gnoseologico
Dati, informazione e conoscenza
Complessit, probabilit e teorema di Bayes
Teorema di Bayes e informazione diagnostica
Teorema di Bayes e strategie diagnostiche
Teorema di Bayes e decisioni mediche

Ci sono tre tipi di menzogne:


le bugie, le bugie fottute e le statistiche.
(Mark Twain)

Probabilit: il problema classico


Abbiamo unurna contenente 500 palline
di colore bianco e 500 palline di colore rosso.
Cosa ci possiamo attendere
dallestrazione di una pallina?
Si sa tutto sullurna, ovvero si conosce luniverso,
ovvero si conosce la causa.
Si applica un ragionamento deduttivo.
Il risultato (leffetto, lestrazione di una pallina)
pu essere calcolato.
(laspetto induttivo e laspetto deduttivo compaiono nella probabilit)

Probabilit: il problema inverso


Da unurna contenente s palline estraiamo n palline
di cui k sono di colore rosso.
Cosa possiamo concludere circa
il contenuto dellurna?
Si fatto un esperimento, si conosce leffetto.
Il problema che Bayes si pone : esiste un qualche
ragionamento induttivo che ci consenta di calcolare
la causa (lo specifico contenuto dellurna)?
(per questo il teorema di Bayes noto anche come il teorema della
probabilit delle cause)

La probabilit delle cause


C1

C2

...

Cn

verosimiglianza

Deduzione

Induzione

E1

E2

(limportanza della relazione di verosimiglianza)

E3

Conoscenza
La conoscenza scientifica non pu essere di tipo
esclusivamente deduttivo.
Ma, seguendo le critiche allinduzione di Hume
e Popper, non pu nemmeno essere di tipo
induttivo.
Questi due fondamentali concetti possono
essere riassunti seguendo limpostazione data
da Peirce.
(Charles Sanders Peirce, 1839-1914)

Deduzione

REGOLA: tutti i fagioli in questo sacco sono bianchi


CASO: questi fagioli provengono da questo sacco
RISULTATO: questi fagioli sono bianchi (sicuramente)
La deduzione non comporta alcun accrescimento
del sapere.

(ragionamento deduttivo)

Induzione
CASO: questi fagioli provengono da questo sacco
RISULTATO: questi fagioli sono bianchi
REGOLA: tutti i fagioli di questo sacco sono bianchi
(forse/probabilmente)
La induzione ci consente di allargare
orizzontalmente la nostra conoscenza del mondo,
la sua essenza la generalizzazione (sempre
passibile di errore).
(ragionamento induttivo)

Abduzione
RISULTATO: questi fagioli sono bianchi
REGOLA: tutti i fagioli di questo sacco sono bianchi
CASO: questi fagioli provengono da questo sacco
(forse/probabilmente)
Prima sapevamo solo che erano bianchi, ora
abbiamo formulato lipotesi che provengano da
questo sacco.
(ragionamento scientifico!)

Approccio scientifico ai problemi


TEORIA

CONFUTAZIONE

ESPERIMENTO

DISEGNO SPERIMENTALE

RACCOLTA
DEI DATI

ANALISI
DEI DATI

VERIFICA

CONCLUSIONI

(dallabduzione di Peirce al falsificazionismo di Karl Popper)

4. Dati, informazione, conoscenza


Informazione fornita dallesperienza
[indizi]

Informazione
a priori
[pre-giudizio]

Motore
inferenziale
bayesiano
[regole]

Informazione
a posteriori
[conclusioni]

Conoscenza

(aggiungono al falsificazionismo di Popper la misura del contributo


dellesperimento in termini di aumento della verosimiglianza)

La probabilit congiunta
P(A B)
E la probabilit di due eventi congiunti, descrive
la situazione in cui si verificano sia A sia B,
si legge la probabilit congiunta di A e B
ovvero la probabilit di A e B

P(A)

P(A B)

P(B)

Probabilit composte (teorema)


Le relazione fra probabilit condizionata e
probabilit congiunta la seguente:
P(A B) = P(A|B) P(B) = P(B|A) P(A)
Da cui si ricava il teorema di Bayes:
P(B|A) P(A)
P(A|B) =
P(B)
(il teorema prende il nome dal reverendo inglese che lo ha scoperto
nel 1700 studiando il problema inverso...)

Chiavi di lettura
probabilit a priori
probabilit a posteriori

P(B|A) P(A)
P(A|B) =
P(B)

(sostituendo A con M+ e B con T+ si ottiene la visione diagnostica)

Chiavi di lettura

P(B|A) P(A)
P(A|B) =
P(B)
(la causa | dato leffetto)

(leffetto | data la causa)

(sostituendo A con M+ e B con T+ si ottiene la visione diagnostica)

Chiavi di lettura
probabilit a priori
probabilit a posteriori

P(B|A) P(A)
P(A|B) =
P(B)
(la causa | dato leffetto)

(leffetto | data la causa)

(sostituendo A con M+ e B con T+ si ottiene la visione diagnostica)

Chiavi di lettura
probabilit a priori
probabilit a posteriori

P(B|A) P(A)
P(A|B) =
P(B)
verosimiglianza standardizzata o fattore di Bayes
(il fattore di Bayes la misura della verosimiglianza [likelihood] che
collega la probabilit a priori alla probabilit a posteriori)

Reinterpretazione con gli odds


Essendo:
odds = P / (1 - P) e inversamente:
probabilit = odds / (1 + odds)
Esempio
probabilit 80% cio P = 0,8
odds = 0,8 / (1 0,8) = 0,8 / (0,2) = 4 cio 4:1
odds 4:1
probabilit = 4 / (1 + 4) = 0,8
(gli odds sono la probabilit espressa dal bookmaker come rapporto
tra la vincita e la posta giocata)

Reinterpretazione con gli odds


Essendo:
LR = rapporto di verosimiglianza = likehood ratio
LR+ (LR per un test positivo) uguale al rapporto
tra il risultato del test nei malati e nei sani:
P(T+|M+) / P(T+|M-) ovvero
sensibilit / (1 specificit)
LR- (LR per un test positivo) uguale al rapporto
tra il risultato del test nei malati e nei sani:
P(T-|M+) / P(T-|M-) ovvero
(1 sensibilit) / specificit

Tutte le probabilit in gioco


sensibilit

1 - sensibilit

Test
+

P(T+|M+)

P(T-|M+)

P(T+|M-)

P(T-|M-)

Malattia
1 - specificit

P(M+) = prevalenza della malattia


P(M-) = 1 - prevalenza

specificit

Reinterpretazione con gli odds


Ricavando in base alla definizione di odds che:
P(A)
O(A) =
P(non A)
e che
P(A|B)
O(A|B) =
P(non A|B)

Reinterpretazione con gli odds


Essendo in base alla definizione di odds
(A|B) =

P(B|A)
= LR+
P(B|non A)

(A|B) =

P(non B|A)
= LRP(non B|non A)

Reinterpretazione con gli odds


odds post-test

odds pre-test

O(A|B) = (A|B) O(A)

rapporto di verosimiglianza o likelihood ratio (LR)

(il rapporto di verosimiglianza la misura della verosimiglianza che collega


la probabilit a priori alla probabilit a posteriori)

Reinterpretazione con gli odds


odds post-test

odds pre-test

O(A|B) = (A|B) O(A)

rapporto di verosimiglianza o likelihood ratio (LR)

(al fine di evitare di trasformare la probabilit in odds e successivamente di


ritrasformare gli odds in probabilit si usa il nomogranna di Fagan)

Nomogramma di Fagan

Nomogramma di Fagan
Sangue occulto nelle feci
Sensibilit = 50% = 0,5
Specificit = 97% = 0,97
Prevalenza = 0,3% = 0,003
Valore predittivo test + = 0,048

(probabilit di essere ammalato se


risultato un test positivo)

Nomogramma di Fagan
Sangue occulto nelle feci
Sensibilit = 50% = 0,5
Specificit = 97% = 0,97
Prevalenza = 0,3% = 0,003
Valore predittivo test + = 0,048
P pre-test = 0,003
LR+ = 16,67
P post-test= 0,048

(probabilit di essere ammalato se


risultato un test positivo)

Nomogramma di Fagan
Sangue occulto nelle feci
Sensibilit = 50% = 0,5
Specificit = 97% = 0,97
Prevalenza = 0,3% = 0,003
Valore predittivo test - = 0,998

(probabilit di essere sano se


risultato un test negativo)

Nomogramma di Fagan
Sangue occulto nelle feci
Sensibilit = 50% = 0,5
Specificit = 97% = 0,97
Prevalenza = 0,3% = 0,003
Valore predittivo test - = 0,998
P pre-test = 0,003
LR- = 0,515
P post-test = 0,002

(probabilit di essere ammalato se


risultato un test negativo)

4. Dati, informazione, conoscenza


Informazione fornita dallesperienza
[indizi]

Informazione
a priori
[pre-giudizio]

Motore
inferenziale
bayesiano
[regole]

Informazione
a posteriori
[conclusioni]

Conoscenza

(aggiungono al falsificazionismo di Popper la misura del contributo


dellesperimento in termini di aumento della verosimiglianza)