Sei sulla pagina 1di 53

FORME E USI DELL INDUZIONE

Pierdaniele Giaretta

CONFERMA DI IPOTESI PREDITTIVA-DEDUTTIVA

1.
2.
3.

S
H fornisce una predizione deduttiva di E
E
===============================
H

dove la doppia linea orizzontale indica che l inferenza non


deduttiva. La conclusione H non segue logicamente dalle
premesse, perch la falsit di H compatibile con la verit
delle premesse.
H confermata dalle premesse. La conferma di H pu
essere pensata come accrescimento della plausibilit di H
dopo l acquisizione dell informazione che H predice
(deduttivamente) E ed E stato osservato.

INFERENZA ABDUTTIVA
(conferma di ipotesi esplicativa-deduttiva)
1.
2.

S
H fornisce una spiegazione deduttiva di E
================================
H

Per la nozione di spiegazione deduttiva la premessa 2 implica


che E sia noto, e quindi E figura di fatto tra le premesse.
Effettuando tale inferenza affermiamo che l ipotesi H
confermata (relativamente a S) dal fatto di fornire una
spiegazione dell evento noto E. L informazione confermante
espressa nella premessa 2 non consiste in alcuna nuova
scoperta di carattere empirico, ma piuttosto nella scoperta della
deducibilit di E da S e H.

CONCLUSIONI INDUTTIVE DI INFERENZE DEDUTTIVE

Si pu dare il caso che una conclusione segua in modo


deduttivamente valido dalle premesse, ma almeno una
delle premesse sia induttivamente giustificata sulla base
dei dati raccolti e elaborati. In questo caso la conclusione
ha una giustificazione empirico-induttiva, anche se
l inferenza finale nella quale figura come conclusione
deduttiva. Cos avviene nei metodi di Mill come mostra la
prossima diapositiva

I METODI DI MILL

1. Si prendono in considerazione pi ipotesi causali per F, ad esempio:


(C1 condizione__di F) o (C2 condizione__di F) o (C3 condizione__ di F)
dove __ sta sempre per necessaria o sempre per sufficiente .

2. Si eliminano il maggior numero possibile di condizioni mediante


l osservazione di alcuni casi. Si pu ottenere, ad esempio:
(C1 non condizione __ di F) e (C3 non condizione __ di F)
3. Da 1 e 2 segue DEDUTTIVAMENTE:

C2 condizione__di F

Ma
C2 INDUTTIVAMENTE sostenuta dai dati considerati che non
l hanno smentita e hanno portato a eliminare le altre ipotesi.

Caratteristiche dell inferenza di Mill


(o induzione per eliminazione)
La premessa 1 presenta delle possibili cause:
(C1 condizione__di F) o (C2 condizione__di F) o (C3 condizione__ di F)

Si tratta di una selezione di possibili cause di F che in parte


pu essere suggerita dalla considerazione di alcuni casi e in
parte pu essere arbitraria. La premessa 1 non pu, in
generale, essere considerata una premessa sicuramente
vera.

La premessa 2 dedotta dall osservazione di alcuni casi che


permettono di eliminare le cause C1 e C3:
C1 non condizione __ di F e C3 non condizione __ di F
Supponiamo che i casi che permettono di eliminare le cause C1
e C3 siano certi.

Ne segue che la premessa 2, che una conclusione dedotta


dall osservazione di casi certi che permettono di eliminare con
certezza le cause C1 e C3 , essa stessa certa.

La conclusione certa (sicuramente vera)?


La conclusione

C2 condizione__di F

, che si deduce dalle

premesse 1 e 2, certa nella misura in cui lo la premessa 1.


La misura in cui la premessa 1 certa dipende da quanti e quali
dati sono stati presi in considerazione e da come sono stati
elaborati.
Tuttavia DATI ULTERIORI POTREBBERO ELIMINARE ANCHE C2,
e quindi la premessa 1 non pu essere (del tutto) certa.

Le cause genetiche del morbo di Alzheimer


Dopo avere esaminato centinaia di famiglie colpite dal morbo
di Alzheimer, un gruppo di ricerca dell Universit di
Washington riuscito a eliminare una dopo l altra tutte le
possibili cause genetiche del morbo inizialmente ipotizzate in
base alla considerazione che ciascuna di esse era assente
in alcuni pazienti con l eccezione di una, costituita dalla
presenza di una piccola zona con caratteristiche peculiari sul
cromosoma 14 (Schellenberg et al., 1992). Risult in tal modo
confermato il ruolo causale di questa anomalia, presente solo
negli ammalati, come condizione necessaria del morbo.
(L esempio tratto da Copi e Cohen (2001, p. 498), che lo
impiegano con scopi simili)

INFERENZE INDUTTIVE
Consideriamo le inferenze, spesso dette induttive , nelle quali
le premesse confermano un ipotesi.
La caratteristica fondamentale delle inferenze induttive e di
quelle statistiche (che talora sono assimilate a quelle induttive)
che in queste inferenze le premesse, se vere e
riconosciute come vere, forniscono un certo supporto per
la verit della conclusione senza tuttavia garantirla (tranne
che in certi casi particolari).

Non necessario che sia formalmente impossibile che le


premesse siano vere e la conclusione falsa. All inferenza
viene attribuito un grado di forza che intuitivamente
dipende da quanto supporto le premesse forniscono alla
conclusione. Se il supporto che le premesse forniscono alla
conclusione alto, si dice che l inferenza induttivamente
forte.
Esempio:
Chimicamente, il cloruro di potassio molto simile al sale da
tavola, ovvero al cloruro di sodio.
Dunque, ( probabile che) il cloruro di potassio ha (abbia) il
gusto del sale da tavola.

Dice B. Skyrms che in un argomento induttivo (e non


deduttivamente valido) la conclusione asserisce qualcosa
di pi delle premesse, poich possiamo descrivere delle
situazioni in cui le premesse risulterebbero vere e la
conclusione falsa .
Si dice anche (I. Hacking, An Introduction to Probability and
Inductive Logic, Cambridge University Press 2001) che la
logica induttiva si occupa di argomenti rischiosi, le
argomentazione induttive, nelle quali la conclusione
caratterizzata dall avere una certa probabilit data la verit
delle premesse. (Il rischio consiste nel fatto che un tale
argomento pu portare da premesse vere ad una conclusione
falsa)

Probabilit induttiva
La probabilit di una conclusione, dato un insieme di
premesse, viene chiamata probabilit induttiva.
La probabilit di solito misurata in una scala che ha
come estremi lo 0 e l 1.
Quando la probabilit alta (vicina a 1, ma quanto vicina
oggetto di convenzione) cio quando molto probabile
che la conclusione sia vera sotto la condizione che le
sue premesse siano vere si dice che l inferenza
forte o che induttivamente forte.

Quando la probabilit bassa (vicina a 0, ma quanto vicina


oggetto di convenzione) cio quando poco probabile
che la conclusione sia vera sotto la condizione che le
sue premesse siano vere si dice che l inferenza
debole o che induttivamente debole.
Come esattamente misurare la probabilit induttiva
questione complessa e controversa, che non dipende, o
dipende solo in parte, dalla forma dell inferenza. Sono stati
elaborati metodi di misurazione per particolari classi di casi,
ma non c una logica induttiva del tutto generale, o almeno
una logica induttiva generale e consolidata, paragonabile
alla logica deduttiva.

Alcune forme di inferenze induttive


Induzione semplice (o per enumerazione)
Generalizzazioni induttive
Inferenze per analogia
Sillogismo statistico
La predizione/spiegazione induttivo-statistica
Generalizzazioni statistiche (vs. generalizzazioni
induttive)

Induzione semplice (o per enumerazione)


Esempio:
Abbiamo visto un corvo ed nero
Abbiamo visto un 2 corvo ed nero

Abbiamo visto un n corvo ed nero


================================
Il corvo n+1 che esamineremo sar nero
In generale, dato che una propriet vale per un certo
numero di membri di una classe, si conclude che allora
vale per un altro membro di tale classe.

Formalmente:
x1...xn appartengono alla classe P e hanno la propriet Q
xn+1 appartiene a P
===========================================
Allora xn+1 ha la propriet Q

L induzione semplice si pu considerare un caso particolare


(n = 100) della seguente forma inferenziale :
n % degli F finora osservati sono G
============================
Se si osserva un altro F esso sar G

Generalizzazioni induttive
L induzione pu avere una conclusione generale:
Il Milan ha vinto 15 delle 20 partite giocate finora in questa
stagione
================================================
Alla fine della stagione il Milan avr vinto (circa) 3/4 delle partite
La forma di questa inferenza la seguente:
n % degli F finora osservati sono G
===========================
(Circa) n % di tutti gli F sono G

Se n = 100 la conclusione universale:


In tutti i casi osservati (=100% dei casi osservati) l acqua
gela a 0 gradi
===========================================
(In tutti i casi) l acqua gela a 0 gradi

Forma dell inferenza:


Tutti gli F finora osservati sono G
==========================
Tutti gli F sono G

Inferenze per analogia


Esempio
I ratti hanno molte caratteristiche fisiologiche simili a quelle
degli esseri umani.
La sostanza X provoca tumori nei ratti
=============================================
La sostanza X provoca tumori anche negli uomini
NOTA BENE:
La forza di una induzione per analogia dipende dalla rilevanza
dell analogia. Se l analogia non appropriata o rilevante, la
conclusione pu risultare poco probabile date le premesse.

Sillogismo statistico
Esempio:
Il 98% delle matricole universitarie ha capacit di lettura superiori a quelle
che si hanno in prima media
Sandra una matricola universitaria
==========================================================
Sandra ha capacit di lettura superiori a quelle che si hanno in prima media

Nella prima premessa si fa riferimento alla classe di tutti gli


individui che sono matricole universitarie ad un dato momento
e in un dato luogo e Sandra deve potersi considerare come
un elemento scelto a caso di tale classe. Sotto queste
condizioni, sulla base delle sole informazioni contenute nelle
premesse, la conclusione appare abbastanza probabile e, dal
punto di vista della cosiddetta interpretazione logica della
probabilit, plausibile assegnarle il valore 0.98.

Naturalmente, se, ad esempio, sapessimo che Sandra ha


subito un incidente che ha riguardato la parte cerebrale da cui
dipende l uso del linguaggio, allora sarebbe naturale tenere
conto di ci. Sulla base di questa ulteriore informazione la
conclusione non risulterebbe cos probabile.
Ci mostra che le inferenze induttive non conservano la
loro forza a fronte di nuove informazioni (cio sono nonmonotone), ovvero la probabilit induttiva di una
conclusione pu diminuire (o aumentare) in seguito
all aggiunta di nuove premesse.

Forma del sillogismo statistico :


n % degli F G
xF
============
xG

(con forza che dipende da n)

dove F una ben determinata classe di oggetti (o individui), G


una propriet, x un oggetto che si pu supporre scelto a
caso tra gli F.
Nell interpretazione logica la probabilit induttiva (forza) di un
sillogismo statistico della forma specificata spesso
identificata con n/100.

La predizione/spiegazione induttivo-statistica
(Hempel e Oppenheim, Studies in the Logic of Explanation, 1948)

La forma del sillogismo statistico anche la forma della


predizione/spiegazione induttivo-statistica introdotta da Hempel
con il seguente esempio:
(L) Coloro che contraggono una certa infezione da streptococco e
sono trattati con penicillina hanno probabilit r di guarire nell arco
di una settimana.
(C) Gianni ha contratto un infezione da streptococco ed stato
trattato con penicillina.
================================================[r]
(E) Gianni guarisce nell arco di una settimana.
dove [r] sta ad indicare che data la verit di L e C il grado di
probabilit della verit della conclusione E r.

Hempel richiede che r debba essere molto vicina a 1. Questo


requisito motivato dall idea che sulla base della prima
premessa ci si debba aspettare la verit della conclusione. In
effetti, se r non fosse molto vicina ad 1, non sarebbe vero che
sulla base della conoscenza di L e C ci si deve attendere la
guarigione di Gianni.
Il requisito di un alto valore di probabilit stato contestato
nell ambito di una revisione critica del modello di Hempel che
per alcuni aspetti stata iniziata dallo stesso Hempel. Anche
altri requisiti, alcuni dei quali pi specifici del modello deduttivo,
sono stati oggetto di ampia discussione in filosofia della
scienza.

Problema
Cosa, in generale, contraddistingue la spiegazione induttivostatistica dal sillogismo statistico da un punto di vista pi
strettamente logico?
Gianni, a differenza di Sandra (vedi l esempio dato di
sillogismo statistico), un individuo nuovo rispetto a quelli
dai quali, usando qualche metodo statistico, stata
ricavata la percentuale che compare nella prima premessa.

Sostenere che per Gianni ha la probabilit di guarire nell arco


di una settimana (data l infezione da streptococco e il
trattamento con penicillina) quella indicata dalla legge
statistica, presuppone - nel contenuto della premessa 1 o in
virt del passo inferenziale - che
in un insieme pi vasto di individui infetti da streptococco, che
comprende Gianni, la percentuale delle guarigioni nell arco di
una settimana non cambi (presupposto dell uniformit della
natura).
Tale presupposizione potrebbe essere motivata dal fatto che
sotto tutti gli aspetti rilevanti Gianni simile agli individui
dell insieme per il quale stata fatta la rilevazione statistica.

NON-MONOTONICIT DELLE INFERENZE INDUTTIVE


e
NECESSIT DI TENERE CONTO DI TUTTA L EVIDENZA
RILEVANTE DISPONIBILE
(se si vuole che la conclusione sia affidabile)

Si consideri il caso che l infezione sia dovuta a un tipo S di


streptococchi resistenti alla penicillina. La nuova informazione
del tutto compatibile con l informazione gi posseduta.
Tuttavia, sapendo che bassa la frequenza di guarigione per
gli individui infetti da streptococco S e trattati con penicillina,
risulta corrispondentemente bassa anche la probabilit che
Gianni guarisca.

Avendo le informazioni che


Data un infezione da streptococchi del tipo S e una cura con
penicillina, la probabilit che non si guarisca molto alta.
Gianni infetto da streptococchi del tipo S e viene curato con
penicillina.
si pu inferire con alta probabilit
Gianni non guarir nell arco di una settimana.
La nuova conclusione, che contraddice quella precedente,
appare pi affidabile perch basata su una maggiore quantit
di informazione rilevante.

Bisogna dunque tenere conto di tutta l informazione rilevante


che disponibile (se si vuole che la conclusione sia affidabile)!
Ma quali sono le condizioni sotto le quali l informazione che a
un F (ad es., malato e trattato) e l informazione statistica
riguardante la frequenza di G (ad es., guarito entro 10 gg.) tra
gli F permettono di determinare nel modo pi affidabile
possibile la probabilit che a sia un G?
Pu apparire ovvio rispondere a questa domanda dicendo che
si deve considerare una sottoclasse di F (alla quale l individuo
a appartiene) che determinata sulla base di tutta
l informazione rilevante rispetto a G, ma l applicazione di
questa idea non sempre semplice.

Generalizzazione statistica e Generalizzazione induttiva


La generalizzazione statistica muove da statistiche concernenti
un sottoinsieme (un campione) di individui scelti a caso da un
insieme ad una (probabile) conclusione riguardante la
composizione dell insieme nella sua interezza.
Data una premessa della forma:
n % di s elementi (scelti a caso) tra gli F sono G
dove il numero s indica la dimensione del campione, si
conclude:
(Circa) l n % di tutti gli F sono G

Se nella conclusione
invece di F si prende in considerazione un insieme F'
di individui simili agli F in un modo che rilevante per
quanto attiene al possesso della propriet G
e
si afferma
(Circa) l n % di tutti gli F' G
si fa una generalizzazione induttiva in senso
humeano, che cio presuppone l uniformit della
natura, poich si assume che quanto rilevato per gli
F continui a valere per gli individui simili F'.

Probabilit
e
inferenze induttive
(brevi cenni introduttivi)

Che cos la probabilit?


Si pu parlare di probabilit in sensi diversi, in relazione alle
diverse domande che si possono porre riguardo alla probabilit.
Ad esempio, una compagnia assicurativa pu chiedersi quale
sia la probabilit che Giorgio abbia un incidente stradale il
prossimo anno, tenendo conto di dati quali l et, il sesso, gli
incidenti gi fatti, il tipo d auto, ecc.
Oppure, pensando di partecipare ad una lotteria, ci si pu
chiedere quale sia la probabilit che venga estratto il
biglietto acquistato.
I due casi sono diversi, se non altro per il fatto che la prima
domanda, ma non la seconda, pu avere una risposta solo
sulla base di un estesa indagine empirica. Tuttavia essi hanno
in comune il fatto che in entrambi la probabilit riferita ad un
evento, o meglio all occorrenza di un certo tipo di evento.

La probabilit di un evento (o della verit di


una proposizione)
Nell interpretazione classica della probabilit, la
probabilit di A definita come il rapporto fra il
numero degli esiti possibili in cui A si verifica ed il
numero totale degli esiti possibili:
Numero degli esiti in cui si verifica A
P(A) =
Numero totale degli esiti possibili
Ci sono anche interpretazioni della probabilit in
base alle quali la probabilit attribuita a una
proposizione e intesa come grado di fiducia (o
credenza) nella verit della proposizione.

Probabilit condizionale
la probabilit che un evento si verifichi dato il
verificarsi di un altro evento: la probabilit che si
verifichi p dato che si verifichi q.
1 esempio: la probabilit di avere un asso come seconda carta
sotto la condizione che la prima carta pescata sia una Regina.
La probabilit di 4/51: se la regina la prima carta pescata,
rimangono 51 carte, tra le quali gli assi sono 4.
2 esempio: la probabilit che nel lancio di un dado esca 2 dato
che esca un numero pari. La probabilit 1/3: le possibili uscite
di numeri pari sono 3 e quella di 2 una di queste.

Esempio di predizione induttivo-statistica


(secondo lo schema di Hempel)

(L) Coloro che risultano positivi al test T hanno probabilit r


di avere la malattia M.
(C) Gianni positivo al test.
=========================================== [r]
(E) Gianni ha la malattia M.

Assumiamo che non ci siano ragioni per pensare che Gianni sia
un individuo dissimile da quelli rispetto ai quali sono state
calcolate le probabilit riguardanti la malattia M. Possiamo
allora riformulare l inferenza usando la probabilit
condizionale:

P(Gianni ha M / Gianni positivo) = r


Gianni positivo al test.
============================================== [r]
Gianni ha la malattia M.

Problemi
1. La probabilit della malattia data l esito positivo al test
(prima premessa) pu non essere nota. Tuttavia se si
conoscono alcuni dati essa pu essere calcolata
mediante il teorema di Bayes.
2. Quanto probabile che Gianni abbia la malattia M dopo
aver accertato che positivo al test T?
3. Cosa si pu dire, e fare, se le premesse non sono
certe?
Il problema 3 segnalato ma nel seguito non verr trattato

Problema 1
Supponiamo che si conosca quanto la malattia diffusa
nella popolazione di riferimento e quanto frequente sia
l esito positivo tra i malati. La probabilit (inversa) della
malattia dato l esito positivo al test
pu essere
calcolata mediante il teorema di Bayes.
un dato di fatto rilevante che l intuizione che si pu avere
riguardo alla probabilit della malattia dato l esito positivo
al test pu divergere molto dal calcolo fatto mediante il
teorema di Bayes.

Teorema di Bayes
P(B) P(A/B)
P(B/A) = ---------------------------------------------[P(B) P(A/B)] + [P(B) P(A/B)]
P(B) e P(B) sono dette probabilit a priori (o
iniziali). Il teorema indica un modo in cui tali
probabilit a priori, se conosciute, possono essere
usate per calcolare la probabilit condizionale P(B/
A), spesso chiamata probabilit a posteriori.

La versione pi semplice e la versione


generale del teorema di Bayes
P(B) P(A/B)
P(B/A) = ------------------P(A)

(la versione pi semplice)

Se B1, B2, , Bn una serie esaustiva e mutuamente esclusiva


e Bi un membro qualsiasi di questa serie:
P(Bi) P(A/Bi)
P(Bi /A) = -------------------------------------------------------------------P(B1)P(A/B1) + P(B2)P(A/B2) + + P(Bn)P(A/Bn)

Esempio di applicazione del teorema di Bayes


(G. Gigerenzer, Quando i numeri ingannano, Cortina, Milano, 2002, pp. 145-147)

Consideriamo una popolazione immaginaria di 10000 maschi


non appartenenti a categorie conosciute come a rischio di HIV.
Circa lo 0,01% ha l infezione di HIV.
La probabilit di risultare positivi al test data l infezione del 99,9
%. (sensibilit)
La probabilit di risultare negativi al test data la non infezione
del 99,99%. (specificit)
Quanto probabile che un maschio con test positivo abbia
realmente il virus?

Applichiamo il teorema di Bayes!


P(hiv) P(pos/hiv)
P(hiv/pos) = -------------------------------------------------------------P(hiv) P(pos/hiv) + P(non-hiv)P(pos/non-hiv)
P(hiv) = 0.0001
P(non-hiv) = 0.9999 [1 0.0001, cio 1 - P(hiv)]
P(pos/hiv) = 0.999
P(pos/non-hiv) = 0.0001 [1 0,9999, cio 1 - P(non-pos/non-hiv)]
0.0001 0.999
P(hiv/pos) = ------------------------------------------------(0.0001 0.999) + (0.9999 0.0001)
0.0000999
= ----------------- = 0.4997
0.00019989

GRAFICAMENTE
10000
maschi
1
con HIV

1
positivo

0
negativi

9.999
senza HIV

1
positivo

9.998
negativi

Si vede chiaramente che 1 su 2 positivi ha l HIV

Problema 2
Torniamo all inferenza:
P(Gianni ha M / Gianni positivo) = r
Gianni positivo al test.
============================================== [r]
Gianni ha la malattia M.
r considerata da Hempel la probabilit della verit della
conclusione data la verit delle premesse. Ma, supponendo
che le premesse siano certe,
qual la probabilit che Gianni abbia la malattia M?

La possibilit che Gianni abbia M ovviamente presa


in considerazione prima di fare il test riguardante la
presenza o meno di M. Tale possibilit costituisce una
ipotesi alla quale viene a priori assegnata una
probabilit in modo pi o meno soggettivo.
naturale pensare che una volta effettuato il test e
conosciutone l esito, la probabilit dell ipotesi muti.
In che modo cambia la probabilit dell ipotesi?

In generale, supponiamo di conoscere la probabilit


(iniziale) di una ipotesi H (ad esempio l ipotesi che
Gianni abbia la malattia M) e di aver gi calcolato la
probabilit che essa ha data l evidenza E (ad
esempio l esito positivo al test T).
Se viene acquisita l informazione E, la cosiddetta
concezione bayesiana dell aggiornamento delle
probabilit ritiene che sia razionale modificare la
probabilit di H nel modo che segue.

Sia i uno stadio iniziale, E tutta la nuova informazione, avente


probabilit iniziale > 0, che successivamente a i si acquisisce.
Sia f il momento, successivo a i, in cui E diventa nota.
Quale che sia la probabilit che E aveva allo stadio i, allo stadio
f tale probabilit 1, cio Pf(E) = 1.
Allo stadio f anche la probabilit di H viene aggiornata.
razionale identificare la nuova probabilit di H con quella che
era la precedente probabilit di H condizionata ad E (regola o
principio semplice di condizionalizzazione), cio

Pf(H) = Pi(H/E)
Pf(H) viene chiamata la probabilit a posteriori di H e
contrapposta a Pi(H), la probabilit iniziale (a priori) di H.

La Pi(H/E) calcolabile in base al teorema di Bayes, che in un


primo approccio sufficiente considerare nella sua versione pi
semplice:
Pi(H) Pi(E/H)
Pi(H/E) = ----------------------Pi(E)

Dopo il verificarsi di E, per la regola di condizionalizzazione, la


precedente probabilit di H dato E, cio Pi(H/E), diventa la
nuova probabilit di H: Pf(H).

Nel caso di Gianni si supposto di aver gi calcolato


P(Gianni ha M / Gianni positivo)
trovando che essa pari a r, e di aver accertato che
Gianni positivo al test.
Dopo l esito del test, in base alla regola di
condizionalizzazione, abbiamo:
P(Gianni ha M) = r

Alcune precisazioni

In generale le ipotesi che si prendono in considerazione sono


pi di 1 (di 2, se si tiene conto anche della negazione). Perci
la versione che si deve applicare del teorema di Bayes pi
complessa.

Tutte le ipotesi devono essere fatte all inizio della procedura


di aggiornamento delle probabilit.

L aggiornamento delle probabilit pu ovviamente essere


iterato fino al momento in cui si ritiene che tutte le
informazioni utili, e accessibili, siano state raccolte.
Quando nel processo diagnostico medico si arriva a questo
punto, si procede alla formulazione del giudizio diagnostico
mediante la scelta di una delle ipotesi che alla fine risultano
maggiormente probabili ..