Sei sulla pagina 1di 201

5293-cop-Campaner_a4 04/02/2013 15:56 Page 1

11 mm 145 mm

210 mm
Raffaella Campaner - Maria Carla Galavotti La spiegazione scientifica
La spiegazione è senza alcun dubbio l’oggetto di
uno dei più vasti capitoli della filosofia della scienza,
Raffaella Campaner è ricerca-
tore confermato e svolge la Raffaella Campaner
al centro di un dibattito che dalla prima formula- sua attività di ricerca in Filo-
sofia della scienza presso
Maria Carla Galavotti
zione dei modelli di Hempel è andato sempre più
articolandosi, e arricchendosi di nuovi orienta- l’Università di Bologna. I suoi
interessi riguardano la causa-
La spiegazione
menti. Verso la fine degli anni Ottanta tale dibattito
aveva già raggiunto proporzioni tali da indurre We-
lità, la spiegazione scientifica
e la filosofia della medicina.
scientifica
sley Salmon a tracciarne la storia nel saggio 40 Modelli e problemi

FILOSOFIA
Tra le sue pubblicazioni, Spie-
anni di spiegazione scientifica (1989). A più di gazioni e cause in medicina:
vent’anni dall’uscita del testo di Salmon, il presente un’indagine epistemologica
volume si propone di offrire una panoramica del- (Gedit, 2005), La causalità tra
l’ampio ventaglio di prospettive che si sono con- filosofia e scienza (Archetipo-
frontate a proposito della natura della spiegazione Libri, 2012), Philosophy of Me-
scientifica dagli anni Quaranta a oggi, con partico- dicine. Causality, Evidence
lare attenzione alle interazioni e intersezioni tra i di- and Explanation (ArchetipoLi-
bri, 2012).
versi approcci e alle applicazioni suggerite dalle
teorie più recenti.
Maria Carla Galavotti è pro-
fessore ordinario di Filosofia
della scienza presso l’Univer-
sità di Bologna. È autrice di
circa 150 pubblicazioni, fra le
quali il volume Philosophical
Introduction to Probability
(Stanford, 2005). Ha pubbli-
cato su riviste prestigiose
come il British Journal for the
Philosophy of Science, Erken-
ntnis, Synthèse e Internatio-
nal Studies in the Philosophy
of Science. Fra i principali
temi della sua ricerca i fon-
damenti della probabilità, la
causalità, i modelli, la spiega-
zione scientifica.

ISBN 978-88-6633-119-3

€ 18,00
AB 5293
00Pag_Campaner_Galavotti.qxp:Layout 1 12-02-2013 10:29 Pagina I

Studi di epistemologia

Collana diretta da Maria Carla Galavotti

Comitato scientifico
Giovanni Boniolo (IFOM-IEO - Milano)
Arturo Carsetti (Università degli Studi di Roma “Tor Vergata”)
Paolo Garbolino (IUAV - Venezia)
Pierdaniele Giaretta (Università degli Studi di Padova)
Donald Gillies (UCL - London)
Alberto Mura (Università degli Studi di Sassari)
David Teira (UNED - Madrid)

Le opere pubblicate nella collana sono sottoposte all’approvazione


di un rappresentante del comitato scientifico e di due componenti esterni.
00Pag_Campaner_Galavotti.qxp:Layout 1 5-02-2013 9:17 Pagina II
00Pag_Campaner_Galavotti.qxp:Layout 1 5-02-2013 9:17 Pagina III

Raffaella Campaner
Maria Carla Galavotti

La spiegazione scientifica
Modelli e problemi
00Pag_Campaner_Galavotti.qxp:Layout 1 5-02-2013 9:17 Pagina IV

© 2012 by CLUEB
Cooperativa Libraria Universitaria Editrice Bologna

Le fotocopie per uso personale del lettore possono essere effettuate nei limi-
ti del 15% di ciascun volume/fascicolo di periodico dietro pagamento alla
SIAE del compenso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile
1941 n. 633.

Le fotocopie effettuate per finalità di carattere professionale, economico o


commerciale o comunque per uso diverso da quello personale possono esse-
re effettuate a seguito di specifica autorizzazione rilasciata da CLEARedi,
Centro Licenze e Autorizzazioni per le Riproduzioni Editoriali, Corso di Por-
ta Romana 108, 20122 Milano, e-mail autorizzazioni@clearedi.org e sito web
www.clearedi.org.

Copertina e progetto grafico: Avenida (Modena)

ISBN 978-88-6633-119-3

ArchetipoLibri
40126 Bologna - Via Marsala 31
Tel. 051 220736 - Fax 051 237758
www.archetipolibri.it / www.clueb.com
ArchetipoLibri è un marchio Clueb

Finito di stampare nel mese di dicembre 2012


da Studio Rabbi - Bologna
00Pag_Campaner_Galavotti.qxp:Layout 1 5-02-2013 9:17 Pagina V

INDICE

Introduzione ......................................................................................... VII

Capitolo 1 – La visione ricevuta ............................................................ 1


1.1 La teoria hempeliana della spiegazione ......................................... 1
1.2 Contro-esempi e critiche ................................................................ 13

Capitolo 2 – La teoria della spiegazione di Salmon .............................. 19


2.1 Il modello S-R ................................................................................. 19
2.2 La spiegazione causale .................................................................... 25
2.3 Obiezioni e risposte ........................................................................ 36

Capitolo 3 – La teoria pragmatica della spiegazione ............................. 43


3.1 Caratteristiche generali ................................................................... 43
3.2 La pragmatica della spiegazione di van Fraassen .......................... 46
3.3 La critica di Kitcher e Salmon ........................................................ 53

Capitolo 4 – La concezione unificazionista ........................................... 57


4.1 La teoria unificazionista di Kitcher ................................................ 57
4.2 Unificazionismo, visione ricevuta e deduttivismo ......................... 64
4.3 Spiegazione, unificazione e causalità ............................................. 68
4.4 Critiche e proposte ......................................................................... 71
4.5 L’unificazionismo “vince tutto”? .................................................... 77
4.6 L’inferenza alla miglior spiegazione ............................................... 80

Capitolo 5 – Verso un nuovo consenso? ................................................ 87


5.1 Railton e il modello D-N-P ............................................................ 87
5.2 Testo esplicativo ideale e informazione esplicativa ........................ 90
5.3 Salmon e la possibilità di un nuovo consenso ............................... 93
5.4 Sulla scia del nuovo consenso ........................................................ 97
00Pag_Campaner_Galavotti.qxp:Layout 1 5-02-2013 9:17 Pagina VI

VI Indice

Capitolo 6 – Le teorie neo-meccanicistiche ........................................... 105


6.1 Glennan e la teoria dei sistemi complessi ...................................... 105
6.2 La teoria “dualista” di Machamer, Darden e Craver ..................... 112
6.3 Scomposizione e localizzazione ...................................................... 123
6.4 Considerazioni conclusive .............................................................. 127

Capitolo 7 – La spiegazione manipolativo-controfattuale ..................... 129


7.1 Causalità, invarianza e interventi ................................................... 130
7.2 Manipolabilità e ruolo dei controfattuali ....................................... 136
7.3 L’approccio manipolativo e le scienze speciali .............................. 139

Capitolo 8 – La spiegazione funzionale ................................................. 149


8.1 Spiegazioni teleologiche e funzionali. La crisi hempeliana ........... 149
8.2 Funzioni e cause. L’eziologia della conseguenza ........................... 153
8.3 Funzioni, capacità e disposizioni ................................................... 156
8.4 Vantaggi e limiti delle spiegazioni funzionali ................................. 160

Riferimenti bibliografici ....................................................................... 169

Indice dei nomi ..................................................................................... 185


00Pag_Campaner_Galavotti.qxp:Layout 1 5-02-2013 9:17 Pagina VII

Introduzione

La filosofia della scienza nacque come disciplina autonoma con


l’empirismo logico, cui diedero vita nei primi decenni del ventesimo
secolo i circoli di Vienna e di Berlino, come pure altri gruppi di pen-
satori attivi in varie sedi disseminate in tutta Europa1. Come emerge
con grande chiarezza anche dal testo che è considerato il “manifesto
programmatico” del Circolo di Vienna2, ai suoi esordi la filosofia del-
la scienza – fortemente influenzata dal funzionalismo allora in voga,
magistralmente rappresentato negli scritti di Ernst Mach, e dalla cri-
si della causalità indotta dalla relatività e dalla meccanica dei quanti –
non prestava grande attenzione alla spiegazione, identificando con la
descrizione e la previsione gli scopi primari delle teorie scientifiche. Si
dovette attendere fino agli anni Quaranta perché la spiegazione ri-
scuotesse sufficiente interesse da stimolare l’elaborazione di una teo-
ria volta a precisarne la natura, e a chiarirne i rapporti con la descri-
zione, la previsione e la causalità, nonché con le altre maggiori com-
ponenti del sapere scientifico, ossia leggi e teorie. Il merito di aver ri-
chiamato l’attenzione dei filosofi della scienza sull’importanza della
nozione di spiegazione scientifica va attribuito a Carl Gustav Hem-
pel, cui si deve la prima teoria sistematica in proposito.
Oggigiorno, la spiegazione è senza alcun dubbio l’oggetto di uno
dei più vasti capitoli della filosofia della scienza, al centro di un dibat-
tito che dalla prima formulazione dei modelli di Hempel è andato sem-
pre più articolandosi, e arricchendosi di nuovi orientamenti. Verso la
fine degli anni Ottanta tale dibattito aveva già raggiunto proporzioni ta-
li da indurre Wesley Salmon a tracciarne la storia nel saggio 40 anni di

1
Chi volesse approfondire la filosofia e la storia dell’empirismo logico veda Sta-
dler [1997].
2
Si veda Hahn, Neurath e Carnap [1929, ed. it. 1979].
00Pag_Campaner_Galavotti.qxp:Layout 1 5-02-2013 9:17 Pagina VIII

VIII Introduzione

spiegazione scientifica [1989, ed. it. 1992]. A più di vent’anni dall’usci-


ta del testo di Salmon, il presente volume si propone di offrire una pa-
noramica dell’ampio ventaglio di prospettive che si confrontano a pro-
posito della natura della spiegazione scientifica. Mentre era nostro in-
tento delineare un quadro il più possibile esauriente della complessità
del dibattito in corso, ci è parso necessario aprire la nostra trattazione
con un’esposizione delle teorie che costituiscono il retroterra delle po-
sizioni più recenti. Il presente volume si apre quindi con un capitolo
sulla visione della spiegazione di Hempel, e prosegue con un capitolo
sulla teoria meccanicistico-causale di Salmon, seguito da uno sulla prag-
matica della spiegazione, che si sofferma in particolare sul contributo
di van Fraassen. Sulle visioni di questi autori, molto diverse fra loro, si
innestano in qualche modo le prospettive sviluppate in seguito da altri
studiosi, le cui idee sono l’oggetto dei capitoli seguenti.
Tra le posizioni elaborate nel corso degli anni Ottanta, ci si è sof-
fermate sull’unificazionismo, approccio che ha intrattenuto un dialo-
go fecondo tanto con la teoria causale di Salmon, quanto con la prag-
matica della spiegazione di van Fraassen. Pur mantenendo caratteri
nettamente distinti, queste concezioni della spiegazione scientifica
hanno saputo individuare dei punti di contatto e delle possibili inter-
sezioni, analizzate nel capitolo quinto. Se 40 anni di spiegazione scien-
tifica si concludeva con l’auspicio che fosse possibile raggiungere un
“nuovo consenso” sul tema della spiegazione in grado di conciliare
prospettive differenti, dagli anni Novanta ad oggi è stata soprattutto
la spiegazione causale ad essere al centro del dibattito. Agli sviluppi
della spiegazione causale in chiave “neo-meccanicistica”, sulla scia del-
la proposta di Salmon, e alla teoria della spiegazione manipolativo-
controfattuale sono dedicati i capitoli sesto e settimo. Nell’esaminare
queste due posizioni abbiamo cercato di far emergere come esse, pur
ispirandosi a concezioni del concetto di causa tradizionalmente di-
stanti, abbiano saputo trovare negli ultimi anni importanti spunti di in-
tegrazione reciproca. Ampio spazio è stato altresì dedicato ai tentati-
vi di svilupparle in rapporto a specifici campi disciplinari. L’ultimo
capitolo, infine, è dedicato al dibattito sulla spiegazione funzionale,
che ha giocato per decenni un ruolo rilevante nello scenario delle ri-
flessioni filosofiche sulla spiegazione scientifica, e che è venuto in-
trecciandosi in vario modo con il dibattito sulla spiegazione causale.
In tutto il volume abbiamo inteso sia presentare le principali posizio-
ni e la cornice teorica nella quale si collocano, sia darne una lettura cri-
tica attraverso molte delle voci che hanno animato il dibattito sulla
spiegazione.
00Pag_Campaner_Galavotti.qxp:Layout 1 5-02-2013 9:17 Pagina IX

Introduzione IX

Leggendo le pagine che seguono, il lettore constaterà come il di-


battito sulla nozione di spiegazione scientifica muova da posizioni an-
cora fortemente ispirate ai capisaldi dell’empirismo logico ai suoi esor-
di, verso una sempre maggiore apertura nei confronti degli elementi
di carattere pragmatico inerenti alla conoscenza. A questa tendenza
si accompagna la progressiva affermazione di un atteggiamento plu-
ralistico, che va gradualmente soppiantando la fiducia nutrita dagli
empiristi logici in soluzioni a carattere generale, improntate a un ap-
proccio di tipo sintattico-semantico alle tematiche epistemologiche.
In tal senso, l’evoluzione della letteratura sulla spiegazione riflette la
tendenza generale che caratterizza la filosofia della scienza più recen-
te, sempre più propensa ad assumere un approccio “dal basso verso
l’alto”, che muova dai problemi che sorgono nell’ambito di discipline
specifiche per procedere poi al confronto fra i metodi e le concettua-
lizzazioni adottate in settori di ricerca diversi, alla ricerca di analogie
e invarianze. Questo spostamento di prospettiva comporta una cre-
scente consapevolezza del ruolo del contesto nell’analisi della natura
e dei fondamenti della conoscenza scientifica, consapevolezza evi-
denziata chiaramente anche dalla letteratura sulla spiegazione.
Come emergerà dalle pagine che seguono, il dibattito sulla spiega-
zione sviluppatosi nell’ambito della filosofia della scienza è stato sem-
pre più declinato in relazione a specifiche discipline scientifiche. Men-
tre i modelli presentati nei primi capitoli ambivano ad essere applica-
bili in tutte le discipline, o nella maggior parte di esse, i capitoli suc-
cessivi evidenziano un interesse crescente per i caratteri peculiari di di-
scipline quali l’economia, l’antropologia, la biologia e la medicina.
Queste e altre scienze sono infatti diventate un importante terreno per
la messa a punto di approcci alla spiegazione attenti alle specificità di-
sciplinari, nonché per il confronto tra prospettive diverse. In questo
senso, riteniamo che il dibattito sulla spiegazione scientifica sia rap-
presentativo dell’orientamento generale che la filosofia della scienza è
venuta prendendo negli ultimi anni, configurandosi sempre più come
filosofia delle scienze e della pratica scientifica.

Raffaella Campaner e Maria Carla Galavotti

I capitoli 1, 2 e 3 del presente volume sono di Maria Carla Galavotti; i capi-


toli 4, 5, 6, 7 e 8 sono di Raffaella Campaner.
Un ringraziamento particolare a Beatrice Collina per l’attento lavoro reda-
zionale prestato alla stesura finale del volume.
00Pag_Campaner_Galavotti.qxp:Layout 1 5-02-2013 9:17 Pagina X
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 1

Capitolo 1

La visione ricevuta

La prima teoria sistematica della spiegazione scientifica sviluppa-


ta nell’ambito della filosofia della scienza contemporanea è dovuta a
Carl Gustav Hempel, il quale cominciò a lavorarci all’inizio degli an-
ni Quaranta, e continuò poi ad affinarla fino agli anni Settanta. La for-
tuna della teoria proposta da Hempel è stata tale da meritarle l’ap-
pellativo, tuttora piuttosto diffuso in letteratura, di “visione ricevu-
ta”. Secondo l’approccio hempeliano il fine della spiegazione è mo-
strare l’attendibilità dei fenomeni in base a leggi di natura accettate
dalla comunità scientifica. A questa idea si accompagna la convinzio-
ne che vi sia una sostanziale simmetria fra spiegazione e previsione,
ossia che queste operazioni concettuali abbiano la stessa struttura lo-
gica. Questo capitolo illustra la teoria della spiegazione di Hempel,
nonché una serie di obiezioni che sono state sollevate contro di essa,
e che hanno poi portato al sorgere di visioni alternative.

1.1 La teoria hempeliana della spiegazione

Il dibattito sulla nozione di spiegazione scientifica è stato a lungo


dominato dalla teoria di Carl Gustav Hempel (1905-1997). Già mem-
bro del Circolo di Berlino e protagonista dell’empirismo logico, Hem-
pel si accinse all’elaborazione della sua visione della spiegazione a par-
tire dall’inizio degli anni Quaranta, legando il proprio nome ai primi
studi sistematici sull’argomento sviluppati nell’ambito dell’epistemo-
logia contemporanea. Il successo della teoria hempeliana è stato tale
da meritarle l’appellativo di “visione ricevuta”, o “tesi standard”. Pur
essendo stata oggetto di varie critiche, essa ha infatti ottenuto il con-
senso di autori del prestigio di Rudolf Carnap, Ernest Nagel, Richard
Bevan Braithwaite, per non citarne che alcuni, e solo dopo una tren-
tina d’anni dalla sua formulazione sono stati proposti modelli alter-
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 2

2 Capitolo 1

nativi. Vale poi la pena di ricordare come nella prima edizione di Lo-
gik der Forschung (1934) Karl Popper avanzasse una concezione assai
vicina a quella di Hempel, tanto che il modello hempeliano di spiega-
zione viene talora citato come modello di Popper-Hempel.
Il primo saggio dedicato da Hempel alla spiegazione, dal titolo The
Function of General Laws in History, apparve nel 1942. Ad esso fece
seguito nel 1948 un altro saggio scritto in collaborazione con Paul Op-
penheim, intitolato Studies in the Logic of Explanation. Hempel è poi
andato successivamente affinando il proprio punto di vista concen-
trandosi dapprima solo sulla spiegazione deduttiva, per poi accinger-
si, intorno all’inizio degli anni Sessanta, ad elaborare anche un mo-
dello di spiegazione probabilistica. I suoi studi sull’argomento sono
culminati nel saggio del 1965 Aspects of Scientific Explanation, conte-
nente la più ampia e sistematica formulazione della visione hempelia-
na della spiegazione. Alla pubblicazione di questo saggio fece seguito
un dibattito di dimensioni tali che l’autore sentì l’esigenza di inserire
nell’edizione in lingua tedesca una lunga postfazione, intitolata Na-
chwort 1976: Neuere Ideen zu den Problemen der statistischen Erklä-
rung, contenente una lucida discussione di alcune delle più rilevanti
critiche mosse alle sue posizioni in merito alla spiegazione probabili-
stica. A beneficio del lettore, ricordiamo che tale premessa è inserita
nell’edizione italiana intitolata Aspetti della spiegazione scientifica, al
paragrafo 3.7, sotto il titolo Postfazione 1976: nuove idee sui problemi
della spiegazione statistica1.
Secondo la teoria hempeliana il procedimento esplicativo ha la
struttura logica di un argomento inferenziale composto da un insieme
di premesse, che nel loro complesso ne costituiscono l’explanans, e da
una conclusione, che ne costituisce l’explanandum. L’idea di fondo è
che il potere esplicativo riposa su leggi aventi portata empirica, che
cioè descrivono correlazioni fra fenomeni osservabili. Il ruolo di tali
leggi è quello di connettere l’explanandum alle condizioni iniziali men-
zionate, accanto alle leggi, dall’explanans. Nel caso in cui le leggi im-
piegate siano di tipo ineccepibile, o deterministico, tale connessione
appare necessaria, cosicché l’explanandum è conseguenza logica del-
l’explanans. La connessione nomica così istituita consente di conside-
rare i fatti particolari descritti dalle condizioni iniziali come forniti di
rilevanza esplicativa rispetto al fenomeno da spiegare. Per sottolinea-
re il ruolo insostituibile spettante alle leggi, Hempel denomina questo

1
Si veda Hempel [1965b, ed. it. 1986].
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 3

La visione ricevuta 3

tipo di spiegazione nomologico-deduttiva (N-D). La spiegazione N-D


ha la forma seguente:
L1, L2, ... , Ln explanans
C1, C2, ... , Cn
––––––––––––
E explanandum
dove L1, L2, ... , Ln denotano leggi ineccepibili, C1, C2, ... , Cn enuncia-
ti che descrivono condizioni iniziali pertinenti, e infine E sta per
l’enunciazione del fenomeno da spiegare.
Entro l’impostazione hempeliana, quindi, un evento viene spiega-
to riportandolo nell’ambito di leggi generali, ossia mostrando che es-
so si è verificato in accordo con tali leggi, a seguito del realizzarsi di de-
terminate condizioni antecedenti. Il campo di applicazione di questo
modello comprende, oltre alla spiegazione di eventi particolari, anche
la spiegazione di regolarità aventi portata generale (leggi scientifiche).
La spiegazione di una legge scientifica si ottiene riportandola nel-
l’ambito di una legge di portata più vasta. Così, per esempio,
la validità della legge di Galileo della caduta dei gravi in prossimità
della superficie terrestre può essere spiegata deducendola da un in-
sieme di leggi più comprensivo, ossia dalle leggi del moto di Newton
e dalla sua legge di gravitazione, insieme con alcuni enunciati intorno
a fatti particolari che ci informano circa la massa e il raggio della Ter-
ra [Hempel e Oppenheim 1948, in Hempel 1965a, 247].

Va notato che mentre le spiegazioni N-D di eventi particolari de-


vono necessariamente includere, oltre alle leggi, anche uno o più enun-
ciati che indichino le condizioni entro le quali tali eventi si sono veri-
ficati, ciò non vale per le spiegazioni N-D di leggi. A questo proposi-
to, appare del tutto adeguata a livello esplicativo «la derivazione del-
le regolarità generali che governano il movimento delle stelle doppie
dalle leggi della meccanica celeste, benché tutti gli enunciati che com-
pongono l’explanans siano leggi generali» [ibid., 248].
Tornando alla spiegazione di eventi, va sottolineato come per Hem-
pel la spiegazione causale costituisca un tipo di spiegazione N-D, che
si ottiene allorché le leggi usate sono di tipo causale. A onor del vero,
in un primo tempo egli identificò la spiegazione nomologico-dedutti-
va con quella causale2, mentre in seguito attenuò alquanto questa po-

2
Si veda Hempel e Oppenheim [1948].
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 4

4 Capitolo 1

sizione, sostenendo che vi siano anche altri tipi di spiegazione N-D, co-
me quella mediante leggi di coesistenza – quali, ad esempio, la legge di
Boyle, o quella di Ohm – o mediante leggi di successione – come la leg-
ge di Galileo – e in generale le leggi che codificano i mutamenti di sta-
to che si verificano entro sistemi deterministici.
In sostanza, quindi, la spiegazione causale rappresenta un possibi-
le tipo di spiegazione N-D, che non riveste alcuna speciale prerogati-
va rispetto a spiegazioni di altra natura. Detto altrimenti, Hempel non
attribuisce valore particolare al fatto che una spiegazione abbia carat-
tere causale. Ciò appare in linea con la convinzione di fondo che ispi-
ra la visione hempeliana, ossia che spiegare significhi mostrare l’at-
tendibilità dei fenomeni su base nomica.
Per poter adeguatamente svolgere questo compito, una spiegazio-
ne deve avere certe caratteristiche, che Hempel esprime attraverso al-
cune condizioni di adeguatezza che devono venire soddisfatte dalle spie-
gazioni N-D. Esse includono tre condizioni di ordine logico, che ri-
chiedono che una spiegazione (1) sia un argomento deduttivo valido,
e includa un explanans che (2) menzioni almeno una legge e (3) abbia
contenuto empirico. A queste si aggiunge una condizione di ordine
empirico, che richiede che (4) gli enunciati che compongono l’expla-
nans siano veri. La condizione (1) ribadisce che l’explanandum deve
essere logicamente deducibile dall’informazione contenuta nell’expla-
nans, perché in caso contrario l’explanans non costituirebbe una base
adeguata a spiegare l’explanandum. Le condizioni (2) e (3) riafferma-
no il nocciolo della visione hempeliana, per cui spiegare significa ri-
portare i fenomeni nell’ambito di leggi aventi portata empirica, alme-
no in via di principio passibili di controllo sperimentale. La condizio-
ne (4) rispecchia l’idea, indubbiamente molto plausibile, che una buo-
na spiegazione debba fare riferimento alle leggi e alle teorie facenti par-
te del bagaglio di conoscenze condivise dalla comunità scientifica.
Il soddisfacimento o meno della condizione (4) consente a Hempel
di distinguere fra spiegazioni vere e spiegazioni potenziali: le prime ca-
ratterizzate da premesse e conclusione vere, le seconde del tutto si-
mili alle prime tranne per il fatto che non è necessario che gli enunciati
che compaiono nell’explanans siano veri. Così Hempel:
usiamo la nozione di spiegazione potenziale, ad esempio, quando ci
domandiamo se una legge o una teoria non ancora controllata po-
trebbe fornire una spiegazione di qualche fenomeno empirico, o quan-
do diciamo che la teoria del flogisto, sebbene sia ora respinta, offriva
una spiegazione di certi caratteri della combustione [Hempel 1965b,
ed. it. 1986, 26].
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 5

La visione ricevuta 5

Riprendendo un termine coniato da Nelson Goodman, Hempel


chiama gli enunciati di legge contenuti in una spiegazione potenziale
legisimili, intendendo con ciò che essi sono del tutto analoghi a leggi,
ma a differenza di queste ultime possono anche essere falsi.
Si pone a questo punto il problema di definire adeguatamente il
concetto di legisimiglianza e di fissare criteri che consentano di di-
stinguere le leggi dalle generalizzazioni accidentali. Il problema è in ef-
fetti uno dei più controversi nell’ambito della filosofia della scienza
contemporanea3. Hempel ne è consapevole, e decide di puntare sul
suggerimento di Goodman di distinguere le leggi dalle non-leggi in
base al criterio che
le prime, a differenza delle seconde, possono sostenere asserti con-
trofattuali e condizionali congiuntivi. Così, la legge sull’espansione dei
gas può servire a sostenere asserti quali “Se l’ossigeno in questo cilin-
dro fosse stato riscaldato (fosse riscaldato) a pressione costante, esso
si sarebbe allora espanso (si espanderebbe)” [ibid., 27].

Parte integrante della visione hempeliana della spiegazione è la te-


si della simmetria fra spiegazione e previsione, che afferma la sostanziale
identità strutturale fra queste due operazioni concettuali. Delle due
componenti di questa tesi, ossia l’affermazione che ogni spiegazione
adeguata è potenzialmente una previsione, e che ogni previsione ade-
guata è potenzialmente una spiegazione, Hempel considera la prima
indiscutibilmente valida, mentre lascia la seconda come questione
aperta. La tesi della simmetria riflette direttamente l’idea di fondo at-
torno a cui ruota la concezione hempeliana della spiegazione, che – lo
ripetiamo – individua il fine della spiegazione scientifica nel mostrare
l’attendibilità dei fenomeni in base a leggi di natura accettate. A riba-
dire ciò, Hempel formula una
condizione generale di adeguatezza di qualsiasi spiegazione razional-
mente accettabile di un evento particolare. Tale condizione è la se-
guente: qualsiasi risposta razionalmente accettabile alla domanda
“Perché si è verificato l’evento X?” deve offrire un’informazione che
mostri che ci si doveva aspettare X – se non in modo definitivo, come
nel caso della spiegazione N-D, almeno con ragionevole probabilità
[ibid., 60; corsivo nell’originale].

3
Per un esame critico del dibattito in materia si veda Pizzi [1978]. Per un reso-
conto più recente rimandiamo a Psillos [2002].
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 6

6 Capitolo 1

Vedremo come l’esigenza di salvaguardare questa condizione di


adeguatezza condizioni la concezione hempeliana della spiegazione
probabilistica, sollevando in tale ambito problemi non indifferenti.
In molti casi le leggi di cui si fa uso non hanno carattere determi-
nistico, bensì statistico. Secondo la definizione data da Hempel
un asserto ha la forma di una legge statistica, o ha carattere statistico-
probabilistico, se è formulato in termini di probabilità statistiche, se
contiene cioè (in modo non vuoto) il termine “probabilità statistica”
o qualche equivalente notazionale, oppure un termine – come “tem-
po di dimezzamento” – definito per mezzo di probabilità statistiche
[ibid., 73].

Le spiegazioni che fanno uso di leggi statistiche possono essere di


due tipi: “statistico-deduttive” (S-D) oppure “statistico-induttive” (S-
I). Mentre le prime concernono la spiegazione di leggi, le seconde so-
no relative alla spiegazione di eventi. Una spiegazione statistico-de-
duttiva (S-D) consiste nella deduzione di una legge statistica «da un
explanans che contiene indispensabilmente almeno una legge o un
principio teorico di forma statistica. [...] Ciò di cui una spiegazione
S-D rende conto è sempre, pertanto, un’uniformità generale espressa
da una presunta legge di forma statistica» [ibid., 75]
Le leggi statistiche, tuttavia, vengono usate anche per spiegare
eventi singoli, nel qual caso si ha una spiegazione probabilistica di ti-
po statistico-induttivo. Nel costruire il modello S-I Hempel si ispira al
modello N-D, ma è obbligato a introdurre alcune varianti imposte dal
carattere di ampliatività proprio del ragionamento non-dimostrativo4.
La spiegazione S-I ha ancora la forma logica di un argomento, però in
questo caso l’explanans non implica l’explanandum, conferendo piut-
tosto ad esso un certo grado di supporto induttivo. Il potere esplicati-
vo riposa anche qui su leggi, che sono però generalizzazioni statistiche
anziché ineccepibili. Il valore del supporto induttivo conferito all’ex-
planandum di una determinata spiegazione dall’explanans è determi-
nato dal valore, o dai valori, di probabilità che caratterizzano le leggi
impiegate.
Il modello statistico-induttivo (S-I), ha la seguente struttura:

4
Il lettore che desideri approfondire le differenze fra argomenti induttivi e de-
duttivi può consultare Skyrms [1966, ed. it. 1974].
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 7

La visione ricevuta 7

p (G | F) = r explanans
Fi
–––––––––––
r
–––––––––––
Gi explanandum
dove “p (G | F) = r” sta per una legge statistica la quale afferma che “la
probabilità di G, entro la classe F, è pari a r”; “Fi” sta per l’afferma-
zione che in un certo caso i è presente la proprietà F, e “Gi” sta per
l’enunciazione del fatto che nel caso suddetto è presente anche la pro-
prietà G. Infine, “r” sta per la probabilità associata alla spiegazione, o
anche il grado di supporto induttivo che l’explanans conferisce all’ex-
planandum. Va notato come entro questa teoria compaiano due di-
stinti concetti di probabilità: la probabilità associata alla spiegazione
è infatti da intendersi come una probabilità logica, mentre le probabi-
lità relative alle leggi usate per spiegare esprimono frequenze. È pro-
prio la presenza entro questo modello di due tipi distinti di probabi-
lità: uno statistico (frequentista) e uno induttivo (logico) a ispirare la
denominazione di “modello statistico-induttivo” adottata da Hempel.
Riguardo all’interpretazione di questi due tipi di probabilità, Hempel
fa esplicito riferimento alla teoria frequentista elaborata da Richard
von Mises e Hans Reichenbach, e all’interpretazione logica elaborata
da John Maynard Keynes e Rudolf Carnap5.
Perché un argomento statistico-induttivo possa dirsi dotato di po-
tere esplicativo e previsionale, esso deve soddisfare alcuni requisiti. In
primo luogo abbiamo il requisito di specificità massimale, che impone
che l’explanans di una spiegazione menzioni tutta l’informazione rile-
vante rispetto all’explanandum che risulta disponibile entro una data
situazione conoscitiva – chiamiamola K – ovvero «tutte le leggi stati-
stiche rilevanti e quei fatti particolari che si possono connettere, me-
diante leggi statistiche, con l’evento explanandum» [ibid., 97]. Con
l’imposizione di questo requisito Hempel intende dare una risposta
al problema dell’ambiguità, che sorge in relazione al fatto che per un
argomento induttivo con premesse vere in base al quale si può affer-
mare con probabilità molto alta che un certo oggetto possiede una de-
terminata proprietà, si può avere un altro argomento, anch’esso ca-
ratterizzato da premesse vere, che porta a concludere, ancora con pro-

5
Si veda Carnap [1950] e Reichenbach [1949]. Per un’introduzione critica alle
teorie di entrambi gli autori, e più in generale sulle varie interpretazioni della proba-
bilità, si rimanda a Galavotti [2000] e [2005].
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 8

8 Capitolo 1

babilità elevata, che il medesimo oggetto non possiede la medesima


proprietà. Si prenda, ad esempio, il seguente argomento S-I:
p (G | F · H) = r
Fb · Hb
–––––––––––––
r
–––––––––––––
Gb
dove “F” sta per “contrarre un’infezione da streptococchi”, “H” sta
per “fare una cura di penicillina”, “G” sta per “guarire”, “b” sta per
un individuo, diciamo John Jones, e “r” sta per un valore di proba-
bilità prossimo a 1. Dando per noto che tutti coloro che dopo aver
contratto un’infezione da streptococchi fanno una cura di penicilli-
na guariscono con probabilità r prossima a 1, l’argomento spiega la
pronta guarigione di John Jones da un’infezione del tipo descritto in
base al fatto che egli ha fatto una cura a base di penicillina. Il me-
desimo argomento consente evidentemente anche di prevedere che
John Jones, una volta colpito dall’infezione da streptococchi, guari-
rà con probabilità prossima a 1 se si cura con la penicillina. Imma-
giniamo ora di venire a conoscenza del fatto che l’infezione contrat-
ta da John Jones è resistente alla penicillina, e indichiamo ciò con
“J”. Aggiungiamo poi l’informazione che in base alle conoscenze me-
diche la probabilità di guarigione per chi contrae un’infezione di
quel tipo che si cura con la penicillina è prossima a 0, e formuliamo
il seguente argomento S-I:
p (G | F · H · J) = r1
Fb · Hb · Jb
––––––––––––––––
r
–––––––––––––––– 1
Gb
dove r1 sta per un valore di probabilità prossimo a 0. Aggiungendo al-
l’explanans informazione rilevante, abbiamo così ottenuto due argo-
menti “rivali” che portano alla medesima conclusione una prima vol-
ta con probabilità prossima a 1, e una seconda volta con probabilità
prossima a 0. Si noti che il secondo argomento può essere immedia-
tamente trasformato nel seguente:
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 9

La visione ricevuta 9

p (G | F · H · J) = (1 – r1)
Fb · Hb · Jb
––––––––––––––––––––
(1 – r1)
––––––––––––––––––––
non Gb
Ora, se r1 designa una probabilità prossima a 0, (1 – r1) starà per un
valore di probabilità prossimo a 1. In questo modo abbiamo ottenu-
to «due forti argomenti induttivi le cui premesse sono compatibili e le
cui conclusioni si contraddicono» [Salmon 1989, ed. it. 1992, 99]. Con
le parole di Hempel:
l’insieme totale K degli enunciati scientifici accettati contiene diffe-
renti sottoinsiemi di enunciati che si possono impiegare come pre-
messe in argomenti probabilistici della forma sopra considerata [ossia:
argomenti S-I], e che conferiscono alte probabilità a “conclusioni” lo-
gicamente contraddittorie [Hempel 1965b, ed. it. 1986, 92].

Il problema nasce evidentemente dalla natura ampliativa dell’infe-


renza induttiva, e non ha alcun corrispettivo nell’ambito della spiega-
zione N-D, modellata su argomenti di tipo deduttivo.
Chiaramente, l’ambiguità compromette l’uso predittivo di argo-
menti S-I e comporta conseguenze problematiche per la tesi della sim-
metria fra spiegazione e previsione. L’imposizione del requisito della
specificità massimale a questo tipo di spiegazione risponde all’esigen-
za di limitare i danni in tal senso, salvaguardando la simmetria. Ora, il
requisito in questione «fa un riferimento esplicito e ineliminabile»
[ibid., 99] all’insieme degli enunciati accettati nell’ambito di una data
situazione conoscitiva, operando in tal modo una relativizzazione del-
la spiegazione probabilistica alla situazione al contorno. Hempel de-
nomina questa caratteristica «relatività epistemica della spiegazione sta-
tistica» [ibidem; corsivo nell’originale]. Mentre quindi la visione hem-
peliana prevede che possano darsi spiegazioni nomologico-deduttive
vere, essa non contempla l’analoga possibilità per le spiegazioni stati-
stico-induttive, che sono legate al contesto nel quale ricorrono.
Il riferimento alla situazione conoscitiva non va però confuso con
l’analogo riferimento relativo al concetto di spiegazione più o meno
ben confermata. Quest’ultimo infatti riguarda tanto la spiegazione de-
duttiva, quanto quella probabilistica, e si pone in termini di conferma,
concernendo il supporto che l’informazione disponibile entro una da-
ta situazione conoscitiva conferisce all’explanans di una spiegazione.
Al contrario, essendo dettato dall’esigenza di rispondere al problema
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 10

10 Capitolo 1

dell’ambiguità, il requisito della specificità massimale non ha alcun


corrispettivo per la spiegazione deduttiva, concernendo piuttosto
quello che si potrebbe chiamare il concetto di una spiegazione stati-
stica potenziale. Esso stabilisce, infatti, che a prescindere dal grado di
sostegno evidenziale dell’explanans, una spiegazione S-I non è accet-
tabile se la sua forza esplicativa potenziale rispetto all’explanandum
specificato è viziata da leggi statistiche che sono incluse in K ma non
nell’explanans, e che potrebbero consentire la formulazione di argo-
menti statistici rivali [ibidem; corsivo nell’originale].

Va anche notato che il requisito della specificità massimale non si


pone in termini di conferma, e in quanto tale si differenzia tanto dal
requisito dell’evidenza totale imposto da Carnap alle logiche indutti-
ve, quanto dal criterio di omogeneità avanzato da Reichenbach per la
scelta della più ristretta classe di riferimento per la quale si disponga
di statistiche rilevanti, che è visto da Hempel come il corrispettivo en-
tro la teoria frequentistica del requisito dell’evidenza totale6. Distin-
guendo fra l’evidenza in favore dell’affermazione che il fenomeno ex-
planandum si è verificato, e la probabilità associata a una spiegazione
statistico-induttiva, volta a mettere in luce il perché un evento è acca-
duto, Hempel ritiene che il requisito dell’evidenza totale vada appli-
cato nel primo contesto, e quello di specificità massimale nel secondo.
Quest’ultimo si situa infatti sul piano esplicativo, e la classe di riferi-
mento che esso individua indica su quale base è possibile mostrare
l’attendibilità di un evento su base nomica, sulla scorta dell’informa-
zione disponibile entro una situazione conoscitiva data. L’aspetto ca-
ratterizzante il piano della spiegazione, che lo differenzia da quello
della conferma, sta per Hempel proprio nel fatto che «lo scopo di una
spiegazione non è quello di esibire evidenza in favore dell’accadimento
del fenomeno da spiegare, bensì quello di mostrare come quest’ultimo
sia nomicamente attendibile» [Hempel 1968, 121]. Ciò collima per-
fettamente con il criterio di adeguatezza per la spiegazione di eventi
richiamato in precedenza.
Altro requisito imposto da Hempel alla spiegazione statistico-in-
duttiva è quello di alta probabilità induttiva, secondo il quale il valore
della probabilità associata alla spiegazione deve essere tanto elevato da
risultare prossimo a 1. In altri termini, l’informazione provvista dal-
l’explanans deve rendere l’explanandum «praticamente certo» [Hem-

6
Per un approfondimento di questi concetti rimandiamo ai cenni bibliografici
contenuti nella nota 5.
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 11

La visione ricevuta 11

pel 1965b, ed. it. 1986, 84]. Con l’imposizione di un requisito tanto re-
strittivo al modello S-I, Hempel sembra volerne anzitutto garantire la
funzionalità ai fini previsionali. In effetti, il requisito in questione ha
la conseguenza di limitare drasticamente il numero degli eventi passi-
bili di spiegazione, impedendo di fatto che eventi che accadono con
bassa probabilità possano venire spiegati. Questo aspetto della teoria
hempeliana ha sollevato non poche perplessità. Così l’epistemologo
finlandese Georg Henrik von Wright ritiene «preferibile evitare di di-
re che il modello probabilistico-induttivo spiega ciò che accade, e li-
mitarsi invece a dire che esso giustifica certe aspettative e previsioni»
[von Wright 1971, ed. it. 1977, 33]. Come vedremo nel prossimo ca-
pitolo, l’opinione è condivisa da Wesley Salmon, proponente di una
teoria della spiegazione entro la quale il nesso fra spiegazione e previ-
sione si configura in modo decisamente diverso.
Lo stesso Salmon considera l’imposizione del requisito di alta pro-
babilità induttiva frutto di un modo di concepire la spiegazione pro-
babilistica come sostanzialmente subalterna rispetto a quella dedutti-
va; cioè come una sorta di approssimazione all’ideale deduttivo tanto
migliore quanto più prossimo a 1 è il valore di probabilità associato al-
l’explanandum. Salmon considera questa impostazione ancora legata
al classico ideale deterministico di spiegazione, che egli rifiuta decisa-
mente a favore di una concezione della spiegazione probabilistica non
subalterna a quella deduttiva, nella convinzione che «quando la de-
duzione non ha più il ruolo di protagonista, il determinismo assai più
difficilmente può entrare in scena» [Salmon 1974, 168]. Analoga im-
pronta deterministica è stata ravvisata nel requisito della specificità
massimale, e più in particolare della relativizzazione epistemica che
quest’ultimo comporta, da Alberto Coffa e dallo stesso Salmon. Que-
st’ultimo parla in proposito di «tacita adesione al determinismo» af-
fermando che «l’impossibilità che si diano spiegazioni statistico-in-
duttive genuine, implicita nell’affermazione che la spiegazione stati-
stico-induttiva deve essere relativizzata alla situazione conoscitiva,
sembra comportare un’adesione al determinismo» [ibidem]7. Dal can-
to suo Hempel, nel prendere le distanze dalla tesi secondo cui tutti gli
eventi sono spiegabili, che rappresenta uno dei cardini del determini-
smo laplaciano, se intesa «come un’ambigua affermazione intorno al
mondo», ne rivendica l’utilità «come massima euristica della ricerca

7
Lo scambio fra Coffa e Salmon sulla nozione di relativizzazione epistemica del-
la spiegazione S-I è reperibile in Coffa [1974] e [1977], e Salmon [1974] e [1977a].
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 12

12 Capitolo 1

scientifica, che ci invita a strenui sforzi volti a rinvenire dei principi


esplicativi laddove non se ne conoscono» [Hempel 1976, 375]. Que-
sta presa di posizione di Hempel richiama da vicino quella di un altro
importante esponente della filosofia della scienza novecentesca, ossia
Ernest Nagel, il quale scrive:
io non credo che il determinismo rappresenti una tesi dimostrabile, e
penso che, se calato in un enunciato vertente su una caratteristica ca-
tegoriale di qualcosa, possa anche essere falso [...]. Secondo la mia co-
struzione del determinismo, esso rappresenta un principio regolativo
che identifica l’obiettivo generale della scienza con la ricerca di spie-
gazioni – ossia con il tentativo di identificare le condizioni da cui di-
pende l’accadimento degli eventi [...] abbandonare un simile princi-
pio deterministico significa rinunciare agli scopi propri della scienza
[Nagel 1960, 316-317].

Hempel ritiene che il suo modello nomologico sia in grado di ren-


der conto delle spiegazioni appartenenti alle diverse discipline scien-
tifiche, nelle scienze naturali come nelle scienze umane, pur essendo
consapevole che, specialmente nelle scienze umane, vi siano spiega-
zioni che sono ritenute accettabili dai membri della comunità scienti-
fica, e tuttavia non si conformano ai suoi modelli. In considerazione
di ciò, Hempel ammette che possano darsi spiegazioni incomplete sot-
to vari aspetti. Ad esempio, si possono avere spiegazioni il cui expla-
nans non menziona esplicitamente una o più generalizzazioni che ap-
paiono indispensabili al fine d’inferire l’evento explanandum. Altre
spiegazioni possono essere incomplete riguardo alla descrizione delle
condizioni iniziali. Simili spiegazioni vengono chiamate “abbozzi di
spiegazione”. Essi
presentano le linee generali di ciò che potrebbe venir sviluppato, me-
diante un’elaborazione e un ampliamento graduali, in un argomento
esplicativo più sistematico, basato su ipotesi enunciate in modo più
completo, che consentano una valutazione critica con riferimento al-
l’evidenza empirica [Hempel 1965b, ed. it. 1986, 149].

Il fatto stesso di contenere le linee generali che devono guidarne il


processo di completamento fornisce il criterio per l’accettabilità degli
“abbozzi di spiegazione”.
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 13

La visione ricevuta 13

1.2 Contro-esempi e critiche

Come già osservato, la teoria di Hempel ha avuto notevole riso-


nanza, ed è stata a lungo considerata la visione “ufficiale” della spie-
gazione nell’ambito della filosofia della scienza. Essa ha anche solle-
vato svariate critiche, che hanno poi portato all’elaborazione di teorie
della spiegazione alternative a quella hempeliana. Senza dilungarci
troppo sul vasto dibattito sorto in proposito, appare utile menziona-
re alcuni contro-esempi che illustrano altrettanti punti deboli del-
l’impianto concettuale elaborato da Hempel8.
Esempio 1: l’eclissi. Prendiamo il caso di un’eclissi di luna, che ri-
sulta spiegabile tramite il modello N-D deducendola dalle leggi del-
la meccanica che governano i corpi celesti, unitamente all’informa-
zione circa le posizioni relative della terra, della luna e del sole in un
certo istante antecedente. Il medesimo fenomeno è però anche de-
ducibile in base alle stesse leggi, congiuntamente alle posizioni del-
la terra, della luna e del sole in un istante temporale posteriore. Nel-
la prospettiva hempeliana ciò è del tutto ammissibile, dato che Hem-
pel non impone alcun requisito temporale al modello N-D. Tuttavia
Salmon obietta che spiegare l’eclissi in base alle posizioni che i cor-
pi celesti vengono ad assumere successivamente è decisamente con-
tro-intuitivo.
Esempio 2: l’asta e l’ombra della bandiera. Questo esempio, che è
associato in letteratura al nome di Sylvain Bromberger, propone di
considerare una bandiera issata su di un’asta di una certa altezza, po-
sta verticalmente su un terreno pianeggiante al calar del sole.9 In ba-
se alle leggi della propagazione della luce solare in prossimità della
Terra, e all’informazione circa l’altezza dell’asta e l’elevazione del so-
le sul piano dell’orizzonte è possibile spiegare la lunghezza dell’ombra
sul terreno. È però anche possibile costruire argomenti N-D che spie-
gano l’altezza dell’asta sulla scorta dell’informazione circa la lunghez-
za dell’ombra e l’elevazione del sole. Analogamente, è possibile de-
durre l’elevazione del sole sul piano dell’orizzonte dall’informazione
circa la lunghezza dell’ombra e l’altezza dell’asta. Tuttavia, si è porta-
ti a pensare che solo nel primo caso si tratti di spiegazione, e pochi sa-
rebbero disposti ad accettare l’idea che l’altezza dell’asta sia spiegata

8
L’esposizione che segue è stata largamente ripresa da Salmon [1989, ed. it. 1992].
9
Salmon [1989, ed. it. 1992, 85, nota 12] attribuisce questo esempio a Bromber-
ger [1966], aggiungendo che l’autore lo esprime in termini leggermente diversi.
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 14

14 Capitolo 1

dalla lunghezza della sua ombra, poiché «un’asta di una certa altezza
causa un’ombra di una certa lunghezza, mentre l’ombra non causa
l’asta, e quindi non può spiegarne l’altezza» [Salmon 1989, ed. it.
1992, 85]. In sostanza, Salmon ci dice che benché in base alle mede-
sime informazioni si possano costruire tre diversi argomenti N-D in
grado di soddisfare i requisiti di adeguatezza fissati da Hempel, sol-
tanto uno fra essi appare plausibile sul piano esplicativo, ossia quello
che riveste carattere causale.
Esempio 3: il barometro e il temporale. Ogniqualvolta la lancetta di
un barometro che funziona correttamente si sposta bruscamente ver-
so il basso, si prevede che scoppi un temporale, ma nessuno sarebbe
disposto a dire che lo spostamento della lancetta spieghi il temporale.
Il fatto è che tanto lo spostamento della lancetta del barometro quan-
to il temporale sono il risultato di ciò che accade nelle condizioni at-
mosferiche nella zona interessata. La spiegazione in questo caso ri-
manda a una causa comune. Di questo concetto parleremo a lungo
nelle pagine che seguono.
Nel porre l’accento sulla mancanza di condizioni che impongano
alla spiegazione asimmetrie di ordine temporale e causale, gli esempi
mettono in luce una divaricazione fra previsione e spiegazione, confi-
gurando casi in cui la previsione può anche basarsi su correlazioni che
non hanno portata genuinamente esplicativa. La tesi che ogni previ-
sione sia una spiegazione potenziale non appare quindi sostenibile.
Per di più, alcuni autori sottolineano come vi siano teorie in grado di
spiegare ma non di fare previsioni. Un esempio in proposito, discus-
so da Michael Scriven, è costituito dalla teoria evoluzionistica, che for-
nisce spiegazioni del modo in cui si sono evoluti gli esseri viventi ma
non è in grado di prevedere la loro evoluzione nel futuro10. Lo stesso
Scriven propone anche un altro contro-esempio alla teoria hempelia-
na della spiegazione:
Esempio 4: la paresi e la sifilide. In base all’informazione che la pa-
resi è una forma terziaria di sifilide di cui si ammalano soltanto indi-
vidui che siano stati affetti da forme latenti di sifilide primaria e se-
condaria e non si siano sottoposti a cure, la paresi contratta da un in-
dividuo dato può essere spiegata come conseguenza di una forma di
sifilide non curata. Poiché però solo il 25% di coloro che si ammala-
no di sifilide sviluppano poi la paresi, il fatto di contrarre la paresi può
essere spiegato ex-post, ma non previsto se non con bassa probabili-

10
Si veda Scriven [1959].
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 15

La visione ricevuta 15

tà (del 25% appunto)11. Se ne conclude che entrambe le componenti


della tesi hempeliana della simmetria, ossia (1) che ogni previsione è
una spiegazione potenziale, e (2) che ogni spiegazione è una previsio-
ne potenziale, danno luogo a contro-esempi.
Un ulteriore aspetto problematico della teoria di Hempel è ravvi-
sato da Salmon nella mancanza di restrizioni riguardo alla rilevanza
esplicativa dell’informazione inclusa nell’explanans delle spiegazioni
N-D, il che fa sì che esse consentano l’inclusione di informazione ir-
rilevante.
Esempio 5: la pillola anticoncezionale. John Jones non è rimasto in-
cinto, nonostante i ripetuti rapporti con la moglie, perché ha preso la
pillola anticoncezionale, e ogni individuo di sesso maschile che assu-
ma regolarmente la pillola non viene ingravidato. La morale è evi-
dente: gli individui di sesso maschile non vengono ingravidati, indi-
pendentemente dal fatto che prendano la pillola, tuttavia è possibile
costruire un argomento N-D che soddisfa i requisiti hempeliani, ma è
ritenuto paradossale perché basato su informazione irrilevante.
La questione della rilevanza esplicativa si pone con problematici-
tà anche maggiore nell’ambito della spiegazione probabilistica, espo-
sta all’ambiguità. Come abbiamo visto, imponendo alla spiegazione
S-I i due requisiti di alta probabilità induttiva e specificità massimale
Hempel tenta di salvaguardare la tesi della simmetria ed evitare che
l’explanans contenga informazione irrilevante. Ma ciò non basta ad
evitare contro-esempi.
Esempio 6: la psicoterapia. Jane Jones è affetta da un sintomo ne-
vrotico grave, e decide di rivolgersi a uno psicanalista; si sottopone ad
analisi e guarisce. Secondo le statistiche, vi è una buona probabilità di
guarigione spontanea da quel sintomo. Allora i casi sono due: (1) il
tasso di guarigione per coloro che si sono sottoposti ad analisi è ele-
vato, ma non superiore al tasso di guarigione spontanea, nel qual ca-
so il trattamento non può venire considerato esplicativo; (2) il tasso di
guarigione in seguito al trattamento è moderato, ma comunque più
alto del tasso di guarigione spontanea, nel qual caso essersi sottoposta
ad analisi è rilevante rispetto alla guarigione di Jane Jones. L’esempio
mostra come il requisito di alta probabilità induttiva non sia né suffi-
ciente, né necessario.
Il già considerato esempio della paresi metteva in primo piano le
difficoltà incontrate dalla tesi della simmetria fra spiegazione e previ-

11
Si veda Scriven [1963].
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 16

16 Capitolo 1

sione nel caso della spiegazione probabilistica, laddove eventi che ac-
cadono con probabilità moderata, o addirittura bassa, in presenza del-
l’informazione nomica e circostanziale rilevante possono essere spie-
gati ex-post ma non previsti, se non con probabilità per l’appunto mo-
derata o bassa, il che farebbe propendere per la previsione contraria,
ossia relativa al non-accadimento di qualcosa, piuttosto che al suo ac-
cadimento.
Prendiamo in considerazione un ultimo esempio, dovuto a Richard
Jeffrey:
Esempio 7: la moneta truccata. Immaginiamo una moneta che è
conformata in modo tale da ricadere per il 95% dei casi su Testa e
per il rimanente 5% su Croce. Se lanciando questa moneta si ot-
tiene Testa, questo risultato può facilmente essere spiegato me-
diante un argomento S-I dotato di alta probabilità induttiva, men-
tre se esce Croce non risulta possibile fornire un’analoga spiega-
zione di questo risultato. Ciò va chiaramente contro l’intuizione
che vorrebbe che entrambi i risultati siano spiegabili in base all’in-
formazione sulla conformazione della moneta. Con le parole di Jef-
frey:
per spiegare il fenomeno che è uscita almeno una volta testa in due
lanci di una moneta, mi richiamerei al fatto che siamo di fronte a un
processo stocastico con probabilità ½ che un lancio qualsiasi dia testa,
e lanci indipendenti. Darei la medesima spiegazione se si verificasse un
fenomeno diverso: se, in modo improbabile, nessuno dei lanci avesse
dato testa [Jeffrey 1969, 1971, 27].

La conclusione cui giunge l’autore è che non è corretto considera-


re la spiegazione di eventi come un’inferenza, e far coincidere la for-
za di tale inferenza con quella della spiegazione stessa. Eventi casuali
molto o poco probabili si spiegano allo stesso modo, ossia mostrando
che l’accaduto è il prodotto di un processo stocastico cui è associata
una determinata distribuzione di probabilità. Proprio da queste con-
siderazioni prenderà le mosse Salmon per proporre un diverso modo
di vedere la spiegazione.
In risposta alle critiche mossegli da più parti, nella già menzionata
Postfazione 1976 Hempel liberalizza notevolmente i due requisiti im-
posti alla spiegazione probabilistica. In particolare, rinuncia al prin-
cipio di alta probabilità induttiva affermando che anche nel caso di
spiegazioni S-I con bassa probabilità l’argomento esplicativo mantie-
ne un proprio valore, informando circa il grado in cui l’evento expla-
nandum risulta attendibile alla luce dell’explanans.
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 17

La visione ricevuta 17

Nel medesimo scritto, Hempel torna sulla relativizzazione episte-


mica, ammettendo la possibilità teorica che possano darsi spiegazioni
probabilistiche non relativizzate. Egli aggiunge però che in pratica le
leggi cui si fa riferimento sono sempre relative a una certa situazione
conoscitiva, quindi l’ammissione che possano darsi classi di riferi-
mento “oggettivamente omogenee” finisce per essere sostanzialmen-
te un’attestazione di principio. Va detto che mentre per alcuni – fra i
quali Salmon – quello di ammettere che si diano spiegazioni probabi-
listiche non relativizzate costituisce un compito importante, e ciò pre-
valentemente in funzione di un’epistemologia di stampo realista, per
altri la relativizzazione epistemica non costituisce un problema. In ef-
fetti, come emergerà dalle pagine che seguono, diversi autori, fra cui
Bas van Fraassen, ritengono che la spiegazione sia in generale relativa
a un contesto conoscitivo.
Nella postfazione del 1976 Hempel discute diffusamente le argo-
mentazioni di Wolfgang Stegmüller, il quale nega che possano darsi
spiegazioni probabilistiche, siano esse riferite a eventi poco o alta-
mente probabili. È questo il contenuto del cosiddetto “paradosso di
Stegmüller”, basato sulla constatazione che entro una spiegazione pro-
babilistica il medesimo insieme d’informazioni, che si suppone com-
pleto sotto il profilo della rilevanza, spiega tanto la ricorrenza di un
evento, quanto la sua non ricorrenza (o la ricorrenza della sua nega-
zione), comportando così l’impossibilità di spiegare non solo ciò che
è improbabile, ma anche ciò che è probabile. Per Stegmüller le leggi
statistiche possono fornire “ragioni per credere”, ovvero concorrono
alla formazione di aspettative razionali, ma non possono fornire alcu-
na spiegazione del perché accadono gli eventi12. Una possibile via
d’uscita è stata identificata da Lorenz Krüger con l’elaborazione di
una teoria della spiegazione che attribuisca carattere causale alla spie-
gazione probabilistica. Con le parole dell’autore: «la domanda circa il
perché E accada può essere intesa solo come la richiesta di qualcosa
che distingua il processo naturale che porta al verificarsi di E, dal pro-
cesso naturale che porta al verificarsi di non-E» [Krüger 1976, 137].
Il “processo naturale” cui si riferisce Krüger è il processo causale che
porta all’accadimento di un evento, che può essere ricostruito appel-
landosi a leggi tanto deterministiche quanto indeterministiche. Solo
qualora sia in grado di esibire tale processo una spiegazione può ri-
sultare soddisfacente, e ciò sia nel caso si tratti di spiegazione dedut-

12
Si veda Stegmüller [1973], volume 2.
01Capitolo_1.qxp:Layout 1 5-02-2013 9:18 Pagina 18

18 Capitolo 1

tiva, sia statistica. Ovviamente «le spiegazioni statistiche sono possibili


solo se si ammette una concezione indeterministica della causa. Il prez-
zo da pagare per la possibilità che esistano spiegazioni statistiche è
l’indeterminismo, per lo meno sul piano epistemico» [ibid., 142]. Co-
me vedremo, diversi autori si muovono proprio in questa direzione.
Hempel, dal canto suo, non è disposto ad accogliere l’idea indetermi-
nistica (o probabilistica) di causalità, e quindi neppure a coniugare la
spiegazione probabilistica con la nozione di causa.
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 19

Capitolo 2

La teoria della spiegazione di Salmon

All’inizio degli anni Settanta Wesley C. Salmon ha proposto una


visione della spiegazione alternativa a quella di Hempel, che è venuto
poi rielaborando per i successivi trent’anni. Salmon articola la propria
teoria su due livelli: al primo colloca il modello S-R, basato sulla no-
zione di rilevanza statistica, e al secondo la spiegazione causale, volta
a spiegare gli eventi collocandoli entro i meccanismi responsabili del
loro accadimento. Questo capitolo illustra la teoria della spiegazione
di Salmon, che rappresenta una rivisitazione in chiave probabilistica
dell’ideale meccanicistico di spiegazione causale.

2.1 Il modello S-R

Muovendo da critiche come quelle richiamate nel capitolo prece-


dente, Salmon ha elaborato una visione della spiegazione alternativa
a quella hempeliana, dalla quale si discosta sotto vari aspetti. La pri-
ma trattazione estensiva della teoria di Salmon risale agli inizi degli
anni Settanta col saggio Statistical Explanation1. In seguito l’autore è
venuto affinando la propria posizione fino al 2001 – anno della sua
morte – dedicando all’argomento una notevole messe di scritti, cui si
farà ampio riferimento nelle pagine che seguono. I punti di disaccor-
do con l’impostazione di Hempel a partire dai quali Salmon elabora
il suo punto di vista riguardano la tesi che la spiegazione debba ren-
dere ragione degli eventi poco probabili, e la convinzione che la spie-
gazione non possieda la struttura logica di un argomento inferenzia-
le. Altra divergenza fra le prospettive dei due autori sta nel diverso

1
Il saggio, pubblicato dapprima nel 1970, venne poi ristampato insieme con due
saggi di Jeffrey e Greeno in Salmon, Jeffrey e Greeno [1971].
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 20

20 Capitolo 2

peso attribuito alla causalità, che per Salmon riveste importanza fon-
damentale ai fini esplicativi.
Vediamo, in primo luogo, le obiezioni mosse da Salmon alla tesi
che le spiegazioni siano argomenti inferenziali. Un primo rilievo ri-
guarda l’asimmetria che caratterizza la spiegazione, ma non la struttura
logica dell’inferenza. Esempi come quelli dell’eclissi e dell’ombra del-
l’asta di bandiera portano Salmon a ritenere che la spiegazione genui-
na abbia carattere causale, e che l’asimmetria esplicativa derivi diret-
tamente dall’asimmetria causale, in quanto «noi spieghiamo gli even-
ti in base alle cause iniziali, non agli effetti che ne seguono» [Salmon
1977b, 158]. Altra obiezione contro la tesi che le spiegazioni siano ar-
gomenti nasce dal diverso ruolo spettante, nell’uno e nell’altro caso, al-
la nozione di rilevanza. Da un lato, infatti, gli argomenti richiedono un
requisito di evidenza totale, automaticamente soddisfatto da quelli de-
duttivi e cruciale nel determinare l’accettabilità di quelli induttivi, e
tuttavia non risentono della presenza di informazione irrilevante nel-
le premesse: l’aggiunta di una o più premesse irrilevanti a un argo-
mento – tanto deduttivo quanto induttivo – non ne muta la validità
(nel caso deduttivo) o il grado di probabilità (nel caso induttivo). D’al-
tro canto, le spiegazioni richiedono non soltanto che tutta l’informa-
zione rilevante rispetto al fenomeno da spiegare sia inclusa nell’expla-
nans, ma anche che quest’ultimo non contenga informazione irrile-
vante. Osserva in proposito Salmon: «gli elementi irrilevanti sono in-
nocui per gli argomenti, ma assai nocivi per le spiegazioni» [ibid.,
149]. Salmon condivide questa posizione con Jeffrey, il quale sulla
scorta dell’esempio della moneta truccata esaminato nel capitolo pre-
cedente, sostiene che è scorretto considerare la spiegazione di eventi
come un’inferenza, e identificare la forza di tale inferenza con quella
della spiegazione. L’esempio della moneta truccata mostra infatti che
quando si verifica un evento generato da un processo stocastico co-
nosciuto, quest’ultimo ne consente la spiegazione, indipendentemen-
te dal fatto che l’evento accada con probabilità alta o bassa.
Muovendo da queste premesse, Salmon avanza una prospettiva en-
tro la quale la spiegazione probabilistica rappresenta il caso generale,
e la spiegazione deterministica ne costituisce il caso limite. Salmon ar-
ticola la sua teoria su due livelli. Al primo colloca il modello incen-
trato sulla nozione di rilevanza statistica (S-R), al secondo la spiega-
zione propriamente causale, che contempla una particolare nozione
di causalità probabilistica.
Nell’ambito del modello di rilevanza statistica spiegare significa in-
serire l’evento explanandum in una rete di correlazioni espresse da ge-
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 21

La teoria della spiegazione di Salmon 21

neralizzazioni statistiche, che nel loro complesso costituiscono la clas-


se di riferimento. Alla rilevanza statistica è affidato il compito di gui-
dare la scelta della classe di riferimento, che deve rispondere a un cri-
terio di omogeneità massimale, nel senso di risultare «la più ampia clas-
se di riferimento omogenea alla quale l’evento singolo (explanandum)
appartiene» [Salmon 1971, 43]. L’omogeneità si ottiene mediante par-
tizioni statisticamente rilevanti di classi di riferimento non omogenee
in sottoclassi massimali omogenee, dove per partizione di una classe
di riferimento s’intende un insieme di sottoclassi mutuamente esclu-
sive ed esaustive della classe data.
Per rilevanza statistica s’intende quanto segue: sia A la classe di ri-
ferimento a cui appartiene un evento x, rispetto al quale si vuole sta-
bilire con quale probabilità presenta la proprietà B. Sia p (B | A) la
probabilità di riscontrare la proprietà B entro la classe A, e sia C un’ul-
teriore proprietà in base alla quale risulta possibile suddividere A in
due sottoclassi: (A · C) e (A · ~C), dove il simbolo “·” sta per la con-
giunzione e “~” per la negazione. La proprietà C è statisticamente ri-
levante rispetto a B in A se, e solo se
p (B · C | A) ≠ p (B | A).
Si noti come Salmon adotti una nozione di rilevanza pura che non
comporta un aumento di probabilità in presenza della proprietà C (ri-
levanza positiva), ma una semplice disuguaglianza. In sostanza, si ri-
chiede che prendere in considerazione la proprietà C modifichi la pro-
babilità di B nella classe di riferimento A, non che l’aumenti. Una par-
tizione omogenea di una classe di riferimento non ammette ulteriori
partizioni rilevanti, e le sottoclassi ottenute mediante essa devono es-
sere massimali nel senso che la partizione non comporta alcuna sud-
divisione irrilevante.
Talvolta ripartendo una classe A si ottengono solo due sottoclassi
(A · C) e (A · ~C) entrambe omogenee rispetto a una data proprietà B.
In questo caso, tutti gli eventi x appartenenti alla classe (A · C) presen-
tano la proprietà B, mentre nessun evento appartenente alla classe
(A · ~C) presenta la medesima proprietà. Ciò configura una situazione di
tipo deterministico.
In tutti gli altri casi, si procederà a ripartire la classe A in k sotto-
classi (A · Ck) omogenee, tali che p (B | A · Ci) ≠ p (B | A · Cj), per i ≠ j.
Questo modo di procedere è imposto da quella che Salmon chiama re-
gola di omogeneità multipla, che esprime la condizione fondamentale di
adeguatezza per la spiegazione di eventi, e «funge da base per la ca-
ratterizzazione generale della spiegazione» [ibid., 59]. Il soddisfaci-
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 22

22 Capitolo 2

mento di questa condizione, cui devono ubbidire tanto le spiegazioni


deterministiche quanto quelle probabilistiche, evita che venga presa in
considerazione informazione irrilevante sotto il profilo esplicativo.
Un esempio, tratto da Salmon, aiuterà a comprendere meglio la que-
stione. Supponiamo che si voglia spiegare perché Giuseppe, un ragaz-
zo di diciannove anni, ha rubato una macchina. Le statistiche ci da-
ranno la probabilità che in Italia un ragazzo di diciannove anni rubi
una macchina. Specificando meglio la classe di riferimento attraverso
l’inserimento di proprietà rilevanti, come la città o il quartiere di pro-
venienza, l’occupazione, il tenore di vita, lo stato civile, e così via, si ot-
terranno partizioni sempre più particolareggiate, fino ad ottenere la
classe migliore possibile, ossia quella che raccoglie tutta l’informazio-
ne che si suppone sia rilevante. Nel corso di questo processo il valore
di probabilità da assegnare al caso in esame muta finché non si giunge
alla partizione omogenea, a cui corrisponde un valore che può essere
più alto, ma anche più basso di quello riferito alla partizione iniziale
non omogenea. Il valore più o meno alto della probabilità assegnata al-
l’evento da spiegare non ha alcuna importanza, ciò che conta è che la
spiegazione ne riferisca l’accadimento alle proprietà rilevanti.
L’omogeneità della classe di riferimento è al tempo stesso un requi-
sito e un ideale: un requisito nel senso che basare la spiegazione sulla
classe di riferimento omogenea significa escluderne le proprietà irrile-
vanti; un ideale spesso irraggiungibile, perché saranno ben pochi i casi
nei quali si può essere certi di aver individuato tutte le proprietà rile-
vanti, e soltanto quelle. Rendendosi conto delle difficoltà sollevate dal-
la nozione di omogeneità, Salmon ammette la possibilità di fare uso di
classi di riferimento omogenee in senso “pratico”, o “epistemico”, li-
mitatamente a quelle situazioni nelle quali si ha ragione di credere che
una certa classe non sia omogenea, ma non si sa come operare su di es-
sa alcuna partizione statisticamente rilevante. L’ideale dell’autore è quel-
lo di elaborare una nozione oggettiva di spiegazione, nella convinzione
che la relativizzazione epistemica della spiegazione operata da Hempel
comporti una tacita adesione al determinismo. Con le parole di Salmon:
a mio modo di vedere, la tesi deterministica è quella secondo la qua-
le, in parole povere, la ricorrenza di un evento assume probabilità 0 o
1 in presenza di un insieme completo di condizioni statisticamente ri-
levanti. L’indeterminismo, al contrario, si ha quando si abbiano insie-
mi completi di condizioni statisticamente rilevanti (ossia classi di ri-
ferimento omogenee) rispetto alle quali l’evento può accadere o no –
la probabilità della sua ricorrenza assume un valore intermedio fra 0
e 1 [Salmon 1975, 133].
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 23

La teoria della spiegazione di Salmon 23

Questa posizione è dettata dall’esigenza di rendere conto dei fe-


nomeni “irriducibilmente statistici”, ossia quei fenomeni – come il de-
cadimento radioattivo spontaneo – che, alla luce delle conoscenze di-
sponibili, possono essere spiegati soltanto in termini probabilistici. In
considerazione di questi fenomeni, Salmon ritiene che una buona teo-
ria della spiegazione scientifica debba ammettere la possibilità del-
l’indeterminismo. Secondo l’autore, infatti:
gli sviluppi della scienza nel ventesimo secolo dovrebbero averci pre-
parato all’eventualità che alcune delle nostre spiegazioni scientifiche
dovranno essere statistiche, non solo perché la nostra conoscenza è in-
completa (come avrebbe pensato Laplace), ma piuttosto perché la na-
tura stessa è intrinsecamente statistica [Salmon 1978, ed. it. 1992, 36].

Vediamo ora la struttura del modello di spiegazione S-R. Suppo-


nendo che si voglia spiegare perché un dato evento x, membro della
classe di riferimento A, possieda la proprietà B, si procederà anzitut-
to a ripartire la classe A in sottoclassi omogenee rispetto a B, relativa-
mente a ciascuna delle quali B verrà ad assumere un diverso valore di
probabilità. Gli enunciati che descrivono la distribuzione di probabi-
lità risultante dalla partizione compongono, nel loro complesso, l’ex-
planans. Oltre ad essi, la spiegazione deve comprendere un altro enun-
ciato, che dica a quale delle sottoclassi ricavate mediante la partizio-
ne operata appartiene x, ossia l’evento explanandum. In termini più
formali, la spiegazione del fatto che x, membro di A, presenta la pro-
prietà B, si compone di una serie di enunciati del tipo:
p (B | A· C1) = p1
p (B | A · C2) = p2
p (B | A · C3) = p3
.
.
.
p (B | A · Cn) = pn
dove (A · C1), (A · C2), ... , (A · Cn) costituisce una partizione di A omo-
genea rispetto a B, e pi = pj se e solo se i = j. Oltre a questi enunciati,
che nel loro insieme costituiscono l’explanans, la spiegazione ne in-
cluderà un altro del tipo:
x ∈ (A · Ck)
che costituisce l’explanandum. Pertanto, secondo il modello S-R la
spiegazione non è un argomento, ma un insieme di enunciati che spe-
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 24

24 Capitolo 2

cificano quali fattori risultino statisticamente rilevanti rispetto al-


l’evento da spiegare, unitamente alla loro distribuzione di probabilità
nella classe massimamente omogenea.
È importante osservare come dalla nozione di rilevanza “pura”
adottata da Salmon segua che la probabilità di un explanandum, rela-
tivamente a una classe di riferimento alla quale sia stata applicata la
“regola di omogeneità multipla” non deve necessariamente essere più
alta della probabilità che caratterizza l’explanandum nella classe di ri-
ferimento iniziale, precedentemente all’operazione di partizione. In
altri termini, l’omogeneizzazione della classe di riferimento può por-
tare a un incremento, ma anche a un decremento della probabilità del-
l’explanandum. Ciò risponde all’idea che la spiegazione sia
un tentativo di mettere assieme i fattori rilevanti rispetto all’accadi-
mento di un evento. Non vi è maggior ragione di supporre che un pro-
cedimento di questo tipo accresca il peso da attribuirsi a tale accadi-
mento, di quanta non ve ne sia per supporre che esso lo diminuisca.
Il fatto che il peso dell’explanandum sia a posteriori più alto o più bas-
so di quello calcolato a priori è insignificante [Salmon 1971, 65]2.

In questa prospettiva, quindi, il potere esplicativo riposa sulla di-


stribuzione di probabilità relativa alla classe di riferimento omogenea,
comprensiva di tutti i fattori rilevanti rispetto all’explanandum. Con le
parole di Salmon:
la bontà, o il valore epistemico di una spiegazione si misura in base al-
l’incremento d’informazione fornito dalla distribuzione di probabili-
tà sulla partizione. Se una distribuzione di probabilità su una deter-
minata partizione di una classe di riferimento spiega due eventi di-
versi, uno con alta e uno con bassa probabilità, le due spiegazioni so-
no ugualmente pregevoli [Salmon 1977b, 154].

La bontà di una spiegazione viene così a dipendere dalla bontà del-


la partizione operata sulla classe di riferimento. Una volta che si sia in
grado di individuare la classe di riferimento omogenea rispetto a un
dato evento, esso è spiegabile indipendentemente dal suo valore di
probabilità:
nel caso di eventi improbabili, la spiegazione corretta affermerà che es-
si rappresentano ricorrenze altamente improbabili, che pure si verifi-

2
Per “peso” deve intendersi il valore della probabilità relativa a un evento (caso)
singolo.
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 25

La teoria della spiegazione di Salmon 25

cano con una frequenza definita. Se la classe di riferimento è effetti-


vamente omogenea, non vi sono altre circostanze rispetto alle quali
tali eventi risultano probabili [Salmon 1971, 63]3.

Il divario fra la posizione di Salmon e quella di Hempel appare evi-


dente. Un punto di contatto consiste invece nel fatto che entrambe le
teorie sono nomologiche, poiché anche per Salmon l’explanans di una
spiegazione contiene delle generalizzazioni, che possono essere di ti-
po statistico, oppure deterministico. Già si è visto come il caso deter-
ministico sia compreso nel modello S-R, configurandosi come la si-
tuazione in cui la partizione di una classe A mediante un attributo C
dia luogo a due sottoclassi (A · C) e (A · ~C) entrambe omogenee ri-
spetto a una certa proprietà B.
Non appare fuori luogo ricordare come riguardo all’interpretazio-
ne degli enunciati probabilistici Salmon si appelli alla teoria frequen-
tista della probabilità. In particolare, egli è favorevole alla versione
della teoria frequentista elaborata da Hans Reichenbach, dal quale –
come vedremo – egli mutua anche alcuni concetti che svolgono un
ruolo cruciale nella sua teoria della causalità probabilistica4.

2.2 La spiegazione causale

2.2.a Il carattere causale della spiegazione


Come già si è detto, quello fin qui delineato rappresenta per Sal-
mon un primo livello di spiegazione, cui deve aggiungersi un secondo
livello avente carattere causale. Infatti, per l’autore possediamo «una
spiegazione bona fide di un evento se abbiamo un insieme completo
di fattori statisticamente rilevanti, i valori di probabilità associati, e le
spiegazioni causali delle relazioni di rilevanza» [Salmon 1978, ed. it.
1992, 51]. A differenza di Hempel, egli ritiene che generalizzazioni
esprimenti correlazioni di tipo non causale, pur consentendo di trar-
re inferenze circa l’accadimento di eventi, come previsioni o retrodi-
zioni, non possano fungere da base per spiegazioni propriamente det-
te, non trasmettendo informazione atta a far comprendere i meccani-
smi che generano gli eventi. Scrive Salmon:

3
Vedi anche Salmon [1977c].
4
Chi volesse approfondire il frequentismo di Reichenbach potrà avvalersi di Ga-
lavotti [2000], [2005] e [2011].
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 26

26 Capitolo 2

la spiegazione scientifica ha lo scopo di fornire comprensione, e la


comprensione deriva, a mio parere, dal comprendere come funziona-
no le cose [...] la comprensione, io ritengo, comporta la conoscenza
dei meccanismi. Tali meccanismi sono, in gran parte, causali; pertan-
to alle considerazioni causali spetta un ruolo di cruciale importanza
per una corretta caratterizzazione della spiegazione scientifica [Sal-
mon 1982b, 261].

Questa concezione della spiegazione viene definita “ontica”, e


contrapposta alla concezione “epistemica” patrocinata da Hempel.
Il tratto distintivo della visione ontica è individuabile proprio nel-
l’importanza attribuita alla causalità, che gioca un ruolo fondamen-
tale tanto nel caso deduttivo quanto in quello induttivo. Ciò com-
porta ovviamente una visione della causalità allargata al caso di cor-
relazioni statistiche. La dicotomia di tradizione laplaciana fra rela-
zioni causali intese in senso deterministico e relazioni probabilisti-
che, in quanto tali non interpretabili in senso causale, deve per Sal-
mon essere abbandonata a favore di una prospettiva in cui trovino
posto «influenze probabilistiche, o stocastiche, che – con un’espres-
sione presa a prestito da Leibniz – danno luogo a delle tendenze, non
necessitano. Io non vedo alcuna ragione di astenersi dal chiamare
queste influenze “causali” anche se non sono deterministiche» [Sal-
mon 1982a, 166]. La spiegazione, quindi, deve identificare le cause
dei fenomeni, e queste possono essere tanto deterministiche quanto
indeterministiche:
gli eventi sono spiegati mostrando come si collocano entro le struttu-
re fisiche individuate nel mondo. Nel contesto laplaciano della fisica
classica, tali modelli apparivano strettamente deterministici; alla luce
della fisica contemporanea sembra che per lo meno alcuni modelli sia-
no intrinsecamente statistici. Questo fatto, però, non costituisce un
ostacolo alla costruzione di spiegazioni scientifiche [ibid., 173].

È importante osservare che una simile concezione della spiegazio-


ne conduce all’abbandono della tesi della simmetria fra spiegazione e
previsione. Mentre in un primo tempo, più precisamente nel saggio
Statistical Explanation, Salmon tenta di salvaguardare lo stretto rap-
porto instaurato da Hempel fra spiegazione e previsione, nelle sue
opere successive è costretto ad ammettere un sostanziale divario fra
queste due operazioni concettuali. Esso nasce dal fatto che mentre la
spiegazione genuina deve fondarsi su generalizzazioni a carattere cau-
sale, in generale risulta possibile fare previsioni anche sulla scorta di
correlazioni puramente statistiche. In altri termini, la conoscenza for-
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 27

La teoria della spiegazione di Salmon 27

nita dalla base S-R è sufficiente per la previsione, ma non per la spie-
gazione, che deve includere conoscenza causale.
Per inciso, vale la pena di richiamare l’affermazione di Ernest Na-
gel che «la conoscenza delle cause non è coestensiva con la capacità di
prevedere» [Nagel 1965, 24]. Pur avanzando una visione della spiega-
zione vicina, nelle sue linee essenziali, a quella di Hempel, Nagel appare
assai più propenso a coniugare l’idea di generalizzazione statistica a
quella di causalità quando sostiene che «esistono leggi statistiche che
sarebbero comunemente classificate come causali» [ibid., 22]. Egli inol-
tre osserva che vi è anche un altro senso in cui spiegazione causale e
previsione non sono coestensive: si tratta di quei casi nei quali l’acca-
dimento di eventi particolari è dovuto a cause sorprendenti, di per sé
imprevedibili sulla scorta delle conoscenze nomologiche rilevanti. Men-
tre su questo punto torneremo in seguito, ricordiamo qui la conclu-
sione cui giunge Salmon agli inizi degli anni Ottanta a proposito della
tesi della simmetria, quando afferma che essa
instaura un nesso troppo forte fra spiegazione e previsione. Io non ne-
go che vi sia un’importante relazione fra questi due grandi scopi della
scienza: entrambi, a mio parere, comportano un richiamo alle leggi del-
la natura [...]. La previsione [...] è un’attività inferenziale, che richiede
la costruzione di argomenti logici in modo ovvio ed esplicito. La spie-
gazione è qualcosa di completamente diverso [Salmon 1982b, 261].

Come già rilevato più volte, per Salmon la spiegazione deve avere
carattere causale. Per ottenere ciò, si deve passare a un secondo livel-
lo di spiegazione propriamente causale, secondo cui spiegare signifi-
ca identificare i meccanismi responsabili dell’accadimento dei feno-
meni. Viene così riproposto un ideale esplicativo di tipo meccanici-
stico, calato però in una prospettiva probabilistica. La più estesa for-
mulazione di questo ideale è affidata al volume del 1984 Scientific Ex-
planation and the Causal Structure of the World, ma Salmon continuò
a lavorare alla spiegazione fino alla sua morte, modificando la propria
teoria sotto vari aspetti.
Rispetto alla spiegazione causale, il concetto di rilevanza statistica
mantiene un’importanza fondamentale, poiché le relazioni di rilevanza
statistica fungono da “indicatori” di relazioni di rilevanza causale. Un
ruolo cruciale nella ricerca di relazioni causali viene assegnato alla rela-
zione di adombramento (screening-off), definita come segue. Data una
classe di riferimento A su cui è possibile operare una partizione rile-
vante rispetto a un dato attributo B per mezzo di due attributi C e D, si
dirà che D mette in ombra C rispetto a B nella classe A se, e solo se
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 28

28 Capitolo 2

p (B | A · C · D) = p (B | A · D) ≠ p (B | A · C).
La relazione di adombramento è caratterizzata da una peculiare
asimmetria: infatti se C e D sono entrambe statisticamente rilevanti ri-
spetto a B nella classe di riferimento A, ma D mette in ombra C, que-
st’ultima non mette a sua volta in ombra D rispetto a B in A.
Riprendiamo l’esempio del barometro e del temporale, già men-
zionato nel primo capitolo, e poniamo T = scoppio di un temporale,
A = frequenza dei temporali in estate a Bologna, B = brusco sposta-
mento della lancetta del barometro, P = abbassamento della pressio-
ne atmosferica nell’area interessata. Tanto B quanto P sono statistica-
mente rilevanti rispetto a T, ossia
p (T | B · A) > p (T | A) e p (T | P · A) > p (T | A).
Tuttavia, P, ossia l’abbassamento della pressione atmosferica nel-
l’area interessata, mette in ombra B rispetto a T, in altre parole B di-
venta irrilevante per T in presenza di P mentre B non mette in ombra
P rispetto a T:
p (T | P · B · A) = p (T | P · A) ≠ p (T | B · A).
Prendiamo ora l’esempio della paresi e della sifilide, e poniamo A
= classe dei maschi americani, B = avere relazioni sessuali con prosti-
tute, C = contrarre la sifilide, e D = contrarre la paresi. Anche in que-
sto caso, notiamo che tanto B quanto C sono statisticamente rilevanti
rispetto a D:
p (D | B · A) > p (D | A) e p (D | C · A) > p (D | A).
Tuttavia, per un qualsiasi A, C mette in ombra B rispetto a D:
p (D | C · B · A) = p (D | C · A) ≠ p (D | B · A).
Poiché in effetti sappiamo che la probabilità di D (come quella di
T, nell’esempio precedente) aumenta in presenza dell’attributo C (P
nell’esempio precedente), potremmo anche descrivere la situazione
nel modo seguente:
p (D | A) < p (D | A · B) < p (D | A · B · C) = p (D | A · C).
Ossia: la probabilità di D dato A è minore della probabilità di D
condizionata ad A e B, e questa probabilità è minore della probabili-
tà di D condizionata ad A, B e C; ma quella probabilità è uguale alla
probabilità di D condizionata ad A e C.
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 29

La teoria della spiegazione di Salmon 29

La relazione di adombramento riveste fondamentale importanza


nella visione di Salmon, il quale formula una regola di adombramento,
che impone di eliminare dalla classe di riferimento tutti gli attributi
messi in ombra da altri. L’applicazione ripetuta di questa regola ga-
rantisce l’affinamento, attraverso passaggi successivi, della classe di ri-
ferimento, nel senso di un crescente grado di omogeneità. Al tempo
stesso, la relazione di adombramento, e con essa la regola corrispon-
dente, offrono uno strumento per distinguere le pseudo-spiegazioni,
basate su correlazioni di tipo sintomatico fra fenomeni, dalle spiega-
zioni genuine, basate su correlazioni di tipo causale. Nella ricerca di
spiegazioni genuine, ogniqualvolta ci si trovi in presenza di “sintomi”,
ossia di correlazioni che non si ha motivo di giudicare causali, si dovrà
andare alla ricerca delle cause che ne sono responsabili, e, laddove ciò
risulti possibile, si dovrà rimpiazzare una spiegazione sintomatica con
una causale. Le spiegazioni di tipo sintomatico, ossia le spiegazioni “di
primo livello”, basate su relazioni di rilevanza statistica, sono accetta-
bili solo fino a che non sia possibile ottenere alcuna conoscenza circa
le cause, e non si sia quindi in grado di formulare una spiegazione cau-
sale “di secondo livello”, che renda conto di tali relazioni.
Lo strumento chiave per andare alla ricerca delle cause che si ce-
lano dietro le regolarità accidentali è individuato da Salmon nel prin-
cipio di causa comune, mutuato da Reichenbach. Esso afferma che se
due o più eventi accadono (magari in luoghi diversi) congiuntamente
con maggiore frequenza di quanto non ci si aspetterebbe se fossero
indipendenti, questa apparente coincidenza va spiegata nei termini di
un comune antecedente causale. Fra i molti esempi che Salmon men-
ziona in proposito ricordiamo il caso del daltonismo: la correlazione
statistica fra la presenza di daltonismo in una coppia di fratelli è spie-
gabile in base al daltonismo della madre, che ha trasmesso ai figli il
fattore genetico responsabile del difetto visivo. La portata esplicativa
del principio di causa comune risiede nell’asimmetria che lo caratte-
rizza, e che fa sì che esso spieghi effetti comuni riportandoli alle cau-
se. Questa asimmetria non pertiene in alcun modo all’esistenza di ef-
fetti comuni; in altri termini, non è possibile formulare un “principio
dell’effetto comune” che possa svolgere una funzione analoga a quel-
la del principio di causa comune. «Questo fatto – afferma Salmon –
conferisce una fondamentale asimmetria temporale alla spiegazione,
che è difficile incorporare nella teoria nomologico-deduttiva della
spiegazione» [Salmon 1975, 126].
Il principio di causa comune è definito in base alle seguenti rela-
zioni:
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 30

30 Capitolo 2

(1) p (A · B | C) = p (A | C) × p (B | C)
(2) p (A · B | ~C) = p (A | ~C) × p (B | ~C)
(3) p (A | C) > p (A | ~C)
(4) p (B | C) > p (B | ~C)
Da queste relazioni segue
(5) p (A · B) > p (A) × p (B)
ossia l’affermazione che A e B accadono in congiunzione più fre-
quentemente di quanto non accadrebbe se fossero indipendenti. La
causa comune C “assorbe” questa dipendenza, come descritto dal-
le relazioni (1) e (2). In effetti, il principio di causa comune equivale
a due relazioni di adombramento, poiché ci dice che la causa co-
mune C adombra A rispetto a B, e B rispetto ad A. Ciò è facilmen-
te dimostrabile. Dalla proprietà moltiplicativa della probabilità –
in virtù della quale p (A · B) = p (A) × p (B | A) = p (B) × p (A | B)
– si ricava:
(6) p (A · B | C) = p (A | C) × p (B | A · C)
Dalla (1) e dalla (6) si ottiene:
(7) p (A | C) × p (B | C) = p (A | C) × p (B | A · C)
Posto p (A | C) > 0, dividendo per questo fattore entrambi i termi-
ni dell’uguaglianza si ha
(8) p (B | C) = p (B | A · C).
La (8) dice precisamente che C adombra A rispetto a B. Con un ra-
gionamento analogo si dimostra che C adombra B rispetto ad A. Inol-
tre, partendo dalla formula (2) è possibile dimostrare con lo stesso
procedimento che ~C adombra A rispetto a B e B rispetto ad A.
Nella teoria della spiegazione di Salmon, il principio di causa co-
mune funge in qualche modo da ponte fra i due livelli di spiegazione,
consentendo di riportare dipendenze statistiche a dipendenze causa-
li. Esso tuttavia non fa riferimento a eventi particolari, evidenziando
piuttosto «una comune struttura soggiacente e costante che si mani-
festa in una varietà di situazioni differenti» [Salmon 1978, ed. it. 1992,
50]. Dapprima convinto, come già Reichenbach, che la relazione di
adombramento e il principio di causa comune potessero offrire una
solida base per la spiegazione causale, Salmon fu costretto nel corso
degli anni Settanta a rivedere la sua posizione.
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 31

La teoria della spiegazione di Salmon 31

Un primo passo in tal senso è costituito da una modifica del prin-


cipio di causa comune, resa necessaria dal fatto che nella versione mu-
tuata da Reichenbach esso non rende conto di un’importante gamma
di fenomeni. Fra questi l’effetto Compton, in cui (in estrema sintesi)
un fotone di elevata energia entra in collisione con un elettrone, e c’è
una certa probabilità che ne emerga un fotone con una data energia
minore, e una certa probabilità che l’elettrone sia spinto via con una
data energia cinetica. Poiché, in virtù della legge di conservazione del-
l’energia, l’energia uscente, chiamiamola E, deve essere approssimati-
vamente uguale alla somma di quelle iniziali, la probabilità dell’effet-
to congiunto è maggiore del prodotto delle probabilità di ciascun ef-
fetto condizionatamente alla causa comune – in questo caso identifi-
cabile con la collisione. In altri termini, la probabilità di avere un fo-
tone con energia E1 e un elettrone con energia E2, dove E1 + E2 ≈ E,
ossia la somma delle energie di ingresso, è molto più alta del prodot-
to delle probabilità che ciascuna energia si ottenga separatamente. Ciò
significa che i due effetti, lungi dall’essere indipendenti, data la causa
comune, sono fortemente correlati, tanto che ciascuno di essi si veri-
fica se e solo se si verifica l’altro. In situazioni di questo genere dati due
eventi statisticamente correlati, A e B, una volta individuata la causa
comune C questa non “assorbe” la dipendenza fra essi, ossia non vi è
messa in ombra di un effetto rispetto all’altro da parte della causa co-
mune. Per rendere conto di questi casi, Salmon elabora una versione
alternativa del principio di causa comune, caratterizzata dal fatto che
la relazione di uguaglianza (1) è sostituita dalla disuguaglianza:
(1*) p (A · B | C) > p (A | C) × p (B | C)
restando le relazioni (2), (3) e (4) ancora valide. La struttura causale
così definita viene denominata biforcazione (o anche forcella) interat-
tiva, mentre quella descritta dalle formule (1) – (4) è chiamata bifor-
cazione (o anche forcella) congiuntiva. Non comportando relazioni di
adombramento, la biforcazione interattiva non presenta l’asimmetria
della biforcazione congiuntiva. Il principio di causa comune, nella for-
mulazione di Salmon, abbraccia entrambe queste strutture, a ciascu-
na delle quali viene assegnato un ruolo diverso, che verrà chiarito nel
prossimo paragrafo.

2.2.b La causalità probabilistica


Alla spiegazione di secondo livello Salmon assegna il compito di
specificare il meccanismo responsabile dell’accadimento del fenome-
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 32

32 Capitolo 2

no explanandum, inglobandovi a tale scopo una teoria della causalità


probabilistica. Nella prospettiva dell’autore i due livelli di spiegazio-
ne sono entrambi necessari e svolgono ruoli complementari: il primo
fornisce l’informazione circa le correlazioni (leggi) che descrivono il
comportamento dei fenomeni, il secondo spiega l’accadimento dei
(singoli) fenomeni in termini causali e meccanicistici.
Il concetto fondamentale attorno a cui ruota il meccanicismo di
Salmon è quello di processo causale. I processi sono definiti come en-
tità spazio-temporalmente continue, aventi la «capacità di trasmette-
re informazione, struttura e influenza causale» [Salmon 1994, 303].
Puntando sulla nozione di processo continuo Salmon si pone in con-
trasto con una tradizione consolidata, che fonda la causalità sul con-
cetto di “catena causale”:
c’è una forte tendenza da parte dei filosofi a considerare le connes-
sioni causali come composte da catene di eventi intermedi [...] anzi-
ché da entità spazio-temporalmente continue di natura fondamental-
mente fisica. [...] Sono fortemente propenso a rovesciare la posizione
e a suggerire di assegnare uno status fondamentale ai processi. Se so-
lo un tipo di cose può avere tale status, suggerisco di trattare gli even-
ti come derivati [Salmon 1980a, ed. it. 2012, 73].

Nell’attribuire uno status fondamentale ai processi continui Sal-


mon si discosta dalle principali teorie della causalità probabilistica,
ossia quelle di Patrick Suppes, Irving John Good, e Hans Reichen-
bach5. Da Reichenbach viene invece ripreso il metodo dei marchi, che
rientra nella definizione di processo causale data da Salmon. Caratte-
ristica basilare del processo causale è infatti la “capacità di trasmette-
re un marchio”, cioè una modificazione strutturale risultante da un’in-
terazione fra due processi, i quali sono poi in grado di propagarla. La
capacità di propagare dei marchi è ciò che distingue i processi causali
dagli pseudo-processi. Una volta che a un processo sia stato impresso
un marchio, in assenza di ulteriori interazioni esso è in grado di pro-
pagarlo lungo il suo percorso successivo.
La “trasmissione di marchi”, cui è affidata la propagazione causa-
le, è contraddistinta dalla medesima continuità spazio-temporale che
Salmon considera un tratto fondamentale del processo causale. Va no-
tato come secondo l’autore tale proprietà non contravvenga alla criti-

5
Si veda Salmon [1980a, ed. it 2012] per una discussione critica delle teorie di
questi autori. Alcune osservazioni in proposito sono reperibili anche in Galavotti
[2001].
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 33

La teoria della spiegazione di Salmon 33

ca humiana della causalità perché, lungi dal configurarsi come un “po-


tere occulto”, rappresenta «un genere particolarmente importante di
congiunzione costante – il tipo di cosa che Hume considerava osser-
vabile e ammissibile» [Salmon 1977d, 220]. La sua ammissibilità ri-
posa sul fatto di essere passibile di controllo sperimentale. L’osserva-
bilità del marchio trasmesso da un processo causale offre la base em-
pirica su cui si fonda il concetto stesso di processo causale, che es-
sendo spazio-temporalmente continuo – e quindi non osservabile di-
rettamente – si configura come un’entità teorica. Va sottolineato che
ciò che caratterizza i processi causali è la loro capacità di propagare
marchi, non il fatto che un marchio venga effettivamente trasmesso. A
questo proposito, Salmon afferma che la capacità di trasmettere un
marchio propria del processo causale «è solo un sintomo del fatto che
sta effettivamente trasmettendo qualcosa d’altro» [Salmon 1994, 303],
ossia informazione, struttura e influenza causale6.
Per definire il modo in cui un processo trasmette influenza causa-
le, Salmon riprende dalla teoria delle “linee causali” di Bertrand Rus-
sell la concezione del moto in-in (at-at), consistente in una descrizione
matematica del moto basata su una funzione che accoppia punti spa-
ziali a istanti temporali7. Muoversi da A a B significa occupare i punti
intermedi in momenti successivi, e tale movimento può venire descrit-
to come trovarsi in certi punti spaziali negli istanti corrispondenti. Con
riferimento alla trasmissione di marchi, la tesi di Salmon è che una vol-
ta che un marchio sia stato introdotto in un processo in un certo pun-
to A, esso viene trasmesso al punto B se ricorre in B e in tutti gli stadi
del processo intermedi fra A e B, a meno che non si registrino ulterio-
ri interventi sul processo dopo quello responsabile del marchio. La de-
finizione di Salmon della trasmissione causale ha sollevato alcune cri-
tiche, che verranno richiamate nel corso del paragrafo 3.
Oltre a quella di propagazione, la teoria di Salmon include la no-
zione di produzione causale. La produzione causale ha origine dall’in-
terazione fra processi. Con le parole dell’autore:
se due processi intersecandosi subiscono entrambi delle modifiche
che perdurano oltre il punto d’intersezione, e che sono fra loro cor-
relate secondo modalità specifiche, si può dire che si è verificata un’in-
terazione causale, e che i due processi intersecantisi sono entrambi cau-

6
Rimandiamo a Salmon [1984, 154-157] per una descrizione dettagliata della na-
tura del processo causale.
7
Russell elabora la teoria delle linee causali in Russell [1948].
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 34

34 Capitolo 2

sali. [...] Nell’interazione, ciascun processo produce una modificazio-


ne nell’altro, e le modificazioni vengono propagate dai processi [Sal-
mon 1982b, 264].

Le interazioni fra processi hanno la struttura delle biforcazioni inte-


rattive. Un raggio di luce costituisce un esempio tipico di processo cau-
sale, mentre un’ombra su un muro rappresenta un caso di pseudo-pro-
cesso. L’inserimento di una lente colorata lungo il percorso di un raggio
di luce produce un’interazione: il colore della luce ne viene modificato,
e questa modificazione – questo marchio – in assenza di ulteriori inte-
razioni perdura lungo il percorso successivo del raggio. Le interazioni,
come i processi, si riferiscono a caratteristiche fisiche della realtà.
Non tutti i processi intersecandosi danno luogo a interazioni. Per
esempio, due raggi di luce che s’incrociano non vengono modificati,
e continuano il loro percorso immutati. In questo caso, l’intersezione
ha la struttura della biforcazione congiuntiva. In altri termini, le bifor-
cazioni congiuntive descrivono intersezioni senza interazioni, ossia in-
tersezioni fra processi fisici indipendenti che emergono da particola-
ri condizioni di sfondo; mentre le biforcazioni interattive descrivono
interazioni fisiche dirette, governate dalle leggi di natura fondamentali.
Le biforcazioni congiuntive presentano un’asimmetria temporale che
le biforcazioni interattive non possiedono, e non potrebbe essere al-
trimenti, visto che le interazioni comportano simultaneità, mentre la
propagazione si svolge lungo l’arco temporale. In virtù dell’asimmetria
che le contraddistingue, le cause comuni descritte dalle biforcazioni
congiuntive giocano un ruolo fondamentale nell’individuazione dei
meccanismi, consentendo di individuare ordine e struttura nell’ambi-
to dei legami causali.
Salmon sottolinea con forza la distinzione fra biforcazione con-
giuntiva e adombramento, che sono definibili in termini puramente
statistici, da un lato, e processi e interazioni, la cui definizione non è
statistica, ma fa riferimento a entità fisiche, dall’altro. Nel primo caso
parla di causalità statistica, nel secondo di causalità aleatoria8. Mentre
la causalità statistica riguarda correlazioni fra tipi di eventi (o pro-
prietà di una popolazione), la causalità aleatoria consente di trattare
nessi causali fra eventi singoli, collocandoli entro meccanismi causali.
A questi due modi d’intendere la causalità corrispondono diversi mo-
di di spiegare, l’uno riguardante correlazioni fra tipi di eventi, e l’al-
tro riguardante eventi.

8
Si veda Salmon [1990a] e [1990b].
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 35

La teoria della spiegazione di Salmon 35

La spiegazione che fa leva sui meccanismi causali, dunque, non si


ferma al livello delle correlazioni statistiche, giungendo a rendere con-
to dell’accadimento degli eventi particolari. Non deve sfuggire il fat-
to che mentre la spiegazione di primo livello, fondata su correlazioni
statistiche, costituisce una buona base per fare previsioni (ovviamen-
te a carattere probabilistico), la spiegazione basata sulla causalità alea-
toria consente di ricostruire la storia degli eventi, e quindi di spiegar-
li, solo dopo che sono accaduti. I due tipi di spiegazione sono co-
munque complementari: se infatti la specificazione dei meccanismi
consente di spiegare i fenomeni singoli, l’informazione di sfondo sul-
la rete di relazioni di rilevanza statistica fra tipi di eventi, entro la qua-
le si collocano i meccanismi, guida la scelta delle proprietà aventi po-
tere esplicativo. I meccanismi, in altri termini, vanno inseriti in una
rete di correlazioni che legano le proprietà rilevanti rispetto agli even-
ti da spiegare.
Appare evidente che le leggi svolgono un ruolo cruciale nella con-
cezione di Salmon. Tuttavia, la causalità aleatoria e quella statistica
stanno in un diverso rapporto con le leggi scientifiche. Mentre i pro-
cessi e le interazioni causali «sono governati da leggi di natura fonda-
mentali» [Salmon 1980b, ed. it. 2012, 123], le cause comuni non so-
no così strettamente legate alle leggi di natura e dipendono stretta-
mente dalle condizioni di contorno. L’individuazione dei casi in cui si
verifica “produzione causale” verrebbe così limitata alle situazioni in
cui si può fare appello alle leggi più fondamentali di cui la scienza di-
spone, come la legge di conservazione dell’energia e del momento
d’inerzia. Come vedremo nel prossimo paragrafo, nell’ultimo periodo
della sua produzione Salmon ha ammorbidito la sua posizione, rico-
noscendo che l’analisi causale possa essere condotta a vari livelli di
dettaglio, a seconda del contesto in cui si opera. Nei casi più favore-
voli si farà appello alle teorie scientifiche per analizzare i fatti in mo-
do molto particolareggiato, facendo riferimento a processi le cui ca-
ratteristiche sono determinate dalle teorie stesse. In tutti gli altri casi,
la specificazione dei processi dipenderà dal tipo di analisi che si con-
duce in un dato contesto. Come vedremo meglio nel corso del prossi-
mo paragrafo, Salmon ha così ammesso esplicitamente che conside-
razioni di carattere pragmatico possano influenzare l’analisi causale.
La teoria di Salmon è l’espressione più avanzata di un’epistemolo-
gia che trae ispirazione dal realismo scientifico, che considera la spie-
gazione come una “virtù cardinale” delle teorie scientifiche e instau-
ra uno stretto legame fra teorie e spiegazione. Essa rende conto in mo-
do naturale di cosa s’intenda per “spiegare” entro importanti settori
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 36

36 Capitolo 2

delle scienze naturali, come la meccanica classica e statistica, e alcuni


autori, come Merrilee Salmon, sostengono che si presti bene a venire
applicata anche ad alcuni settori delle scienze umane, come l’archeo-
logia. Al contrario, la sua applicabilità ad altri campi di indagine è sta-
ta messa in discussione da più parti.

2.3 Obiezioni e risposte

L’opera di Salmon ha destato l’interesse dei filosofi della scienza


richiamandone l’attenzione sull’ideale meccanicistico di spiegazione,
che ormai da tempo appariva sostanzialmente superato. Come vedre-
mo nel capitolo 6, sulla scia di Salmon molti autori si sono accinti a rie-
laborare questo ideale, e a vagliarne l’utilità in diversi settori della ri-
cerca scientifica. Dal canto suo Salmon, stimolato dalle critiche di di-
versi autori, ha modificato le sue posizioni sotto vari aspetti. In que-
sto paragrafo verranno riassunte le principali critiche mosse alla sua
teoria, insieme con le risposte dell’autore.
Un primo punto sul quale si sono appuntate varie critiche riguar-
da la caratterizzazione del processo causale in base alla capacità di tra-
smettere dei marchi, che comporta l’uso di controfattuali. Salmon af-
ferma di essere stato indotto ad adottare la formulazione controfat-
tuale della trasmissione di marchi da una critica mossagli da Nancy
Cartwright attraverso un esempio9. S’immagini una sorgente lumino-
sa che genera un fascio di luce, collocata su un supporto rotante al
centro di una stanza di forma circolare, cosicché ruotando la sorgen-
te proietta una macchia di luce sulla parete. Se si applica un pezzo di
cellofan rosso alla parete in un punto particolare, lungo la traiettoria
del raggio, la macchia di luce sul muro diverrà rossa solamente in quel
punto, tornando poi ad assumere le caratteristiche che aveva prima.
Nella situazione descritta non vi è interazione, non essendoci produ-
zione di marchio: il raggio luminoso non viene modificato dall’inseri-
mento del cellofan sul muro, per questo Salmon si serve di questo
esempio per illustrare la differenza fra processo e pseudo-processo.
Vediamo ora l’argomento di Cartwright: immaginiamo che pochi na-
nosecondi prima che la macchia luminosa raggiunga il cellofan rosso
qualcuno apponga una lente rossa sulla sorgente luminosa. Ciò fa sì

9
L’esempio è discusso in Salmon [1984], capitolo 5, e ripreso in altri articoli fra
i quali Salmon [1994].
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 37

La teoria della spiegazione di Salmon 37

che la macchia di luce diventi rossa, e resti tale anche dopo essersi al-
lontanata dal cellofan sulla parete. In un caso simile, sembrerebbe che
il marchio fosse stato prodotto dall’interazione col cellofan, anziché
dalla lente, e risulterebbe problematico distinguere il processo causa-
le dallo pseudo-processo. Per evitare la possibile confusione fra pro-
cessi causali e pseudo-processi, Salmon si è visto costretto a porre il
criterio di trasmissione dei marchi in termini controfattuali. Come già
ricordato, secondo la definizione adottata da Salmon un processo
avente determinate caratteristiche viene modificato dall’introduzione
di un marchio in modo tale che da quel punto in poi, in assenza di ul-
teriori interazioni, esso manifesta il marchio impressogli lungo tutto il
suo percorso successivo. La definizione è controfattuale, poiché af-
ferma che un processo sarebbe rimasto invariato, se non fosse stato
impresso un marchio su di esso. La formulazione controfattuale bloc-
ca contro-esempi come quello proposto da Cartwright, poiché se-
guendo l’impostazione di Salmon si può dire che «la macchia di luce
sarebbe diventata rossa grazie all’inserimento della lente rossa, anche
se non avesse avuto luogo il mutamento di colore sul muro» [Salmon
1984, 149].
L’appello di Salmon ai controfattuali non è piaciuto a vari autori,
primo fra tutti Philip Kitcher il quale afferma che il ruolo attribuito ad
essi nella visione di Salmon è tale da farne una «teoria controfattuale
della causalità» [Kitcher 1989, 472] piuttosto che una teoria dei pro-
cessi e delle interazioni causali. L’insoddisfazione circa l’uso di con-
trofattuali è dettata dalla riluttanza ad assumere la semantica a mon-
di possibili – che viene abitualmente associata ad essi, specie in segui-
to all’opera di David Lewis – ritenuta sostanzialmente in contrasto
con un’impostazione rigorosamente empiristica. Per evitare l’appello
ai mondi possibili Salmon adotta un’interpretazione sperimentale dei
controfattuali, la cui idea di fondo è che in un esperimento spetta al-
lo scienziato decidere quali condizioni restano immutate e quali pos-
sono variare, ed è quindi il risultato dell’esperimento a stabilire quali
asserzioni controfattuali sono vere e quali false, entro date condizio-
ni. Sulla scorta di un elevato numero di esperimenti rigorosi risulte-
rebbe così possibile fondare i condizionali controfattuali sull’osserva-
zione e sul controllo sperimentale, ottenendo una base puramente em-
pirica per accertarne le condizioni di verità. In altri termini, secondo
questa impostazione i valori di verità dei condizionali controfattuali
vengono stabiliti induttivamente in base ai risultati degli esperimenti.
Questo approccio, tuttavia, non soddisfa i critici di Salmon, in par-
ticolare Phil Dowe il quale obietta che l’impostazione “sperimentali-
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 38

38 Capitolo 2

sta” può fornire «una base solo epistemica, non ontica, alle condizio-
ni di verità dei controfattuali» [Dowe 1992, ed. it. 2012, 139]. Unita-
mente all’ammissione, fatta da Salmon, che le condizioni di verità dei
controfattuali sono pragmatiche, ciò costituisce «una minaccia all’as-
serzione che la causalità sia oggettiva» [ibidem]. Per di più, Dowe ac-
cusa la teoria di Salmon di circolarità, in quanto definisce il concetto
di “imposizione di marchio” – cioè la caratteristica peculiare del pro-
cesso causale – nei termini di “produzione di una modifica struttura-
le”: nozione che è essa stessa causale. La critica di Dowe non si ferma
qui, affermando che il criterio di trasmissione di marchi è del tutto
inadeguato allo scopo, poiché esclude casi di processi genuinamente
causali, mentre qualifica causali casi di pseudo-processi10.
Dowe contrappone a quella di Salmon una teoria dei processi cau-
sali basata sul concetto di “quantità conservata”. Ciò che caratterizza
un processo, secondo Dowe, è «il fatto di possedere una quantità con-
servata, piuttosto che non la capacità di trasmettere marchi» [Dowe
2000, 89], dove per “quantità conservata” s’intende qualsiasi quanti-
tà governata da una legge di conservazione, come l’energia, la massa,
il momento e la carica elettrica. In questa prospettiva, un’interazione
causale è un’intersezione fra due o più processi, in cui avviene uno
scambio di quantità conservate. La teoria delle quantità conservate
non fa alcun riferimento a condizionali controfattuali. Dowe ritiene
che la sua teoria permetta di distinguere in modo scientificamente pre-
ciso e non ambiguo tra processi genuinamente causali e pseudo-pro-
cessi, fornendo una caratterizzazione convincente della causalità sul-
la base di nozioni fisiche ben definite. Ad esempio, un raggio di luce
presenta energia e momento, mentre una macchia di luce non ha al-
cuna quantità conservata ad essa associata, e pertanto è uno pseudo-
processo. Poiché tutte le informazioni riguardanti le quantità conser-
vate e le leggi che le governano ci vengono fornite dalle teorie fisiche,
la nozione di causalità sviluppata da Dowe è sostanzialmente ristretta
alla fisica.
Salmon ha accolto con favore la proposta di Dowe, intravveden-
dovi un modo per evitare l’uso dei controfattuali. In un articolo del
1994: Causality without Counterfactuals, egli ha però sostituito la no-
zione di “quantità conservata” con quella di “quantità invariante”. La
differenza sostanziale fra queste due nozioni è che una quantità è con-

10
Per alcuni esempi in proposito rimandiamo a Dowe [1992, ed. it. 2012] e Do-
we [2009].
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 39

La teoria della spiegazione di Salmon 39

servata se si mantiene costante lungo l’arco temporale, mentre una


quantità è invariante se il suo valore non cambia all’interno di sistemi
di riferimento diversi. L’invarianza è una proprietà più forte della con-
servazione, ad esempio il momento lineare è una quantità conservata,
ma non invariante. La carica elettrica, invece, possiede entrambe le
caratteristiche. Nella convinzione che la causalità sia una nozione in-
variante, Salmon ridefinisce il processo causale in base alla capacità
di trasmettere una quantità invariante da un punto a un altro della sua
traiettoria, e in ogni stadio intermedio. A seguito di nuove critiche
mossegli da Dowe, tuttavia, dopo pochi anni Salmon è tornato alla de-
finizione in termini di quantità conservate11.
La visione della spiegazione di Salmon è stata criticata anche da
Christopher Hitchcock, il quale si concentra sul nesso fra rilevanza
esplicativa e meccanismo causale, affermando che la definizione di
meccanismo come insieme di processi e interazioni fornita da Salmon
è “troppo debole”, perché configura una rete di tipo geometrico,
astratto, ma non ci dà indicazioni precise circa quali proprietà giochi-
no un ruolo esplicativo. Aderendo a una visione della spiegazione so-
stenuta anche da James Woodward12, secondo cui spiegare significa
fornire risposte a domande del tipo: “cosa sarebbe accaduto se le co-
se fossero andate in modo diverso?”, Hitchcock afferma che «una no-
zione di spiegazione adeguata deve raffigurare la nozione di rilevanza
esplicativa in termini di dipendenza controfattuale» [Hitchcock 1995,
311]. In quest’ottica, chiedere che la spiegazione fornisca informa-
zione rilevante significa porre l’esigenza che essa consenta di indivi-
duare quali fattori risultino rilevanti rispetto al verificarsi degli eventi
da spiegare. Le definizioni di processo, marchio e trasmissione causa-
le di Salmon non sono in grado di soddisfare questa esigenza. Per
esempio – osserva Hitchcock – tali definizioni consentirebbero di an-
noverare come marchio causale trasmesso un segno blu lasciato su una
palla da biliardo da una stecca su cui sia stato passato del gesso blu, e
al contempo non sarebbero in grado di rendere conto del perché il
momento lineare della palla da biliardo vada incluso nella spiegazio-
ne del suo movimento, mentre il segno blu ne dovrebbe essere esclu-
so. In base a queste considerazioni Hitchcock critica la distinzione di
Salmon fra i due livelli di spiegazione, e più in particolare la sua con-

11
Le critiche di Dowe sono contenute in Dowe [1995], e la risposta di Salmon in
Salmon [1997].
12
Si veda Woodward [1979] e [1984].
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 40

40 Capitolo 2

vinzione che la spiegazione causale riposi sui processi e sulle intera-


zioni, sostenendo invece che vi sia una sostanziale «coincidenza fra i
nostri giudizi di rilevanza esplicativa e quelli di dipendenza contro-
fattuale o rilevanza statistica» [ibid., 312].
Dopo aver a lungo sostenuto che il modello basato sulla rilevanza
statistica rappresentasse solo un primo passo nella direzione della spie-
gazione genuinamente causale, Salmon, stimolato dai rilievi di Hit-
chcock, ha rivisto le sue posizioni giungendo ad ammettere che «(1)
le relazioni di rilevanza statistica, in mancanza di processi causali, non
hanno potere esplicativo, e (2) i processi causali, in mancanza di rela-
zioni di rilevanza statistica, sono anch’essi privi di potere esplicativo
[...]. Entrambe le cose sono indispensabili» [Salmon 1997, 476]. Il
modello causale in termini di processi è paragonato da Salmon a una
rete telefonica di cui sono note le linee e le relative connessioni, ma
nulla si sa dei messaggi che vengono inviati. Questo modello geome-
trico deve essere completato con l’informazione circa le relazioni di ri-
levanza statistica perché sia possibile individuare le proprietà perti-
nenti in rapporto a determinati esiti. Da sola, la teoria delle quantità
conservate non consente un simile riconoscimento, che è il frutto di un
procedimento complesso nel corso del quale l’informazione causale
interagisce con l’informazione in termini di rilevanza statistica.
In risposta alle critiche di Hitchcock, Salmon ha anche ricono-
sciuto che l’uso di controfattuali possa essere utile alla spiegazione,
riaffermando nel contempo una stretta relazione fra rilevanza statisti-
ca e controfattuali. Così, riprendendo l’esempio di Salmon, si può di-
re che quando si dice che il vetro di una finestra si è rotto perché è sta-
to colpito da una palla da baseball che viaggiava a velocità considere-
vole, s’intende anche dire che la finestra non si sarebbe rotta, se non
fosse stata colpita. Simili asserzioni controfattuali sono
relativamente non problematiche, perché sostenute da consolidate re-
lazioni di rilevanza statistica. [...] Nel momento in cui il vetro si è rot-
to, un gran numero di molecole atmosferiche urtavano contro di es-
so, ma ben difficilmente i vetri si rompono in tali circostanze [...] lun-
gi dall’essere frutto di speculazioni, queste affermazioni sono il risul-
tato di frequenze osservate [ibid., 475].

Tanto le relazioni di rilevanza statistica quanto i controfattuali uti-


li alla spiegazione sono espressioni di frequenze osservate, e sono per-
tanto passibili di controllo sperimentale.
Contestualmente con queste modifiche alle sue posizioni iniziali,
negli anni Novanta Salmon ammette l’importanza di considerazioni a
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 41

La teoria della spiegazione di Salmon 41

carattere pragmatico. È infatti in base a considerazioni pragmatiche


che «si determina se un dato “processo” deve essere considerato co-
me un processo singolo, oppure come rete complessa di processi e in-
terazioni» [Salmon 1994, 309]. Quando esaminiamo la traiettoria di
un proiettile che ha causato la morte di qualcuno, non siamo interes-
sati alle interazioni fra gli atomi che lo compongono e le molecole del-
l’aria circostante, mentre quando l’oggetto di studio sono le radiazio-
ni, saranno proprio elettroni, fotoni e altre particelle ciò a cui si è in-
teressati. L’analisi causale può essere condotta a vari livelli, a seconda
del contesto, e saranno ancora considerazioni a carattere contestuale
a guidare la ricerca delle proprietà che risultano rilevanti alla spiega-
zione di un dato fenomeno. Nel saggio A Realistic Account of Causa-
tion, pubblicato postumo nel 2002, Salmon è molto esplicito al ri-
guardo, quando afferma:
il maggior ostacolo che si frappone a una teoria assolutamente ogget-
tiva e realista delle relazioni di causa e effetto è dato dal fatto che i ca-
si che selezioniamo sono fortemente dipendenti dal contesto [...]. Ap-
pare ovvio che la selezione dei campi causali è guidata da considera-
zioni pragmatiche, e pertanto dipende dal contesto. [...] Ne concludo
che le asserzioni causali sono quasi sempre – se non sempre – dipen-
denti dal contesto [Salmon 2002, 125].

Va tuttavia notato come nello stesso articolo Salmon introduca il


concetto, che non compare nelle sue opere precedenti, di struttura
causale completa, intesa come la rete causale che copre il mondo inte-
ro. La struttura causale completa è oggettiva «perché esiste indipen-
dentemente dalle nostre conoscenze e interessi» [ibid., 126], anche se
non la si potrà mai conoscere in ogni dettaglio. Tuttavia, ci si potrà
avvicinare ad essa per successive approssimazioni, adottando una stra-
tegia di ricerca che suggerisce di «analizzare i fenomeni su scala mi-
nore, allorché l’analisi su più vasta scala si rivela infruttuosa» [ibid.,
129]. In sostanza, quindi, Salmon non ha mai rinunciato a un ideale
di spiegazione causale di stampo oggettivo, pur ammettendo che nel-
la pratica è il contesto a guidare l’analisi causale.
Al termine del proprio percorso di ricerca, Salmon ha anche ri-
conosciuto che la sua teoria ontica della spiegazione non gode di ap-
plicabilità generale, come egli aveva inizialmente sperato. Egli indi-
vidua nelle scienze naturali, ivi inclusa la biologia, ma non la mecca-
nica quantistica, il campo di applicazione possibile, aggiungendo di
ritenerla inadeguata alla psicologia e alle scienze sociali, e conclude:
«il mio scopo è stato esaminare la causalità a quello che può essere ca-
02Capitolo_2.qxp:Layout 1 5-02-2013 9:18 Pagina 42

42 Capitolo 2

ratterizzato come “il più profondo livello metafisico”. Il resoconto


che ne è emerso rimuove questo concetto dal campo della metafisica
per trasportarlo in quello della fisica» [ibid., 131]. La ristretta appli-
cabilità della teoria di Salmon è dovuta soprattutto alle difficoltà in-
contrate dalla nozione di processo causale continuo in settori come
l’economia, la psicologia, e più in generale le scienze umane. Non
meno problematica appare poi l’individuazione della classe di riferi-
mento omogenea, come abbiamo già accennato nel primo paragrafo
di questo capitolo13.

13
Ulteriori osservazioni sulla teoria di Salmon sono reperibili in Galavotti [1999]
con commenti di Salmon in Galavotti e Pagnini [1999].
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 43

Capitolo 3

La teoria pragmatica della spiegazione

La visione pragmatica sostiene la necessità di inserire la spiegazio-


ne nel contesto entro il quale ricorre. Dal contesto dipende infatti l’in-
sieme delle conoscenze e degli interessi condivisi da chi pone una do-
manda sul perché e da chi risponde. Dopo aver introdotto i tratti prin-
cipali dell’impostazione pragmatica, il capitolo si sofferma sulla teoria
della spiegazione di Bas van Fraassen, per poi prendere in esame la
critica mossagli da Kitcher e Salmon.

3.1 Caratteristiche generali

L’idea di fondo cui si ispira la pragmatica della spiegazione è che


l’atto dello spiegare non va considerato in astratto, ma inserito nella
particolare situazione entro cui si collocano tanto coloro i quali pon-
gono richieste di spiegazione, quanto coloro che vi danno risposta. Si
ritiene infatti che una domanda di spiegazione venga riempita di con-
tenuto solo una volta che sia stata messa in relazione con i fattori che
determinano il contesto nel quale è situata. La spiegazione, vista co-
me risposta a una domanda sul perché, verrà pertanto ad essere essa
stessa inserita in un contesto. Dalla situazione al contorno dipende
non solo l’insieme delle conoscenze condivise da chi domanda e chi
risponde, ma anche fattori quali gli interessi specifici di chi pone la
domanda, e le competenze di chi risponde. In considerazione di ciò,
l’approccio pragmatico parte dall’assunto che la spiegazione sia un’at-
tività irriducibilmente legata al contesto, nel senso che la scelta del-
l’informazione addotta ai fini esplicativi dipende da un insieme di fat-
tori contestuali legati alla situazione in cui ha luogo l’atto dello spie-
gare.
La visione pragmatica della spiegazione si avvale dei risultati of-
ferti dalla logica erotetica, o logica delle domande e delle risposte, cui
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 44

44 Capitolo 3

hanno dato contributi notevoli in particolare Nuel Belnap e Thomas


Steel1. Secondo quanto afferma Paolo Vidali, autore del capitolo 6 del
volume, scritto con Giovanni Boniolo, Filosofia della scienza:
il pioniere dell’approccio pragmatico nella spiegazione scientifica può
essere considerato M. Scriven che, a partire dal 1958, sollevò alcune
critiche al modello N-D [...] legate in particolare al fatto che il ricor-
so a una legge avviene solo per giustificare una spiegazione, non per
fornirla. L’attenzione si sposta così sulla situazione argomentativa in
cui si danno e si chiedono spiegazioni [Boniolo e Vidali 1999, 438].

Il passo appena citato fa riferimento a due scritti dell’autore au-


straliano2, del quale nel primo capitolo abbiamo citato alcuni contro-
esempi alla teoria hempeliana della spiegazione.
Altri antesignani dell’impostazione pragmatica sono Sylvain Brom-
berger e Peter Achinstein, mentre la versione più ampia, e al tempo
stesso più dibattuta, è stata elaborata da Bas van Fraassen. Bromber-
ger3 sottolinea come il verbo “spiegare” esprima un’azione che si svol-
ge nel passato, e giunge a compimento. Più specificamente, spiegare
significa fornire una risposta corretta a una domanda sul perché.
Bromberger analizza l’atto dello spiegare in rapporto a una serie di
elementi contestuali, come le aspettative di chi pone la domanda e le
conoscenze di chi domanda e di chi risponde. Egli sottolinea poi che
qualunque domanda contiene una serie di presupposizioni, e lascia
implicitamente aperto un ventaglio di risposte possibili, escludendo-
ne altre. A sua volta, la spiegazione che viene data in risposta deve
soddisfare la richiesta, rispondendo alle aspettative del richiedente, e
fornendo informazione rilevante rispetto alle presupposizioni della
domanda.
Il concetto di presupposizione gioca un ruolo fondamentale entro
l’approccio pragmatico. Una domanda di spiegazione, avente in ge-
nerale la forma: “Perché A?”, dove “A” è un enunciato, è ammissibi-
le solo se in effetti l’evento descritto da A è effettivamente accaduto.
La domanda: “Perché il giorno di Natale del 2006 è scoppiato un in-
cendio in via Caruso 2 a Bologna?” richiede una spiegazione solo se
effettivamente il fatto è accaduto. In caso contrario, sarà naturale op-
porre un netto rifiuto a una simile richiesta di spiegazione negandone

1
Si veda Belnap e Steel [1976].
2
Si veda Scriven [1958] e [1962].
3 Si veda Bromberger [1962] e [1966].
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 45

La teoria pragmatica della spiegazione 45

la presupposizione, ossia l’affermazione che in via Caruso 2 a Bolo-


gna il 25 dicembre 2006 è scoppiato un incendio.
Uno dei cardini attorno a cui ruota la pragmatica della spiegazio-
ne è la consapevolezza che ogni domanda contenga in sé una serie di
alternative implicite che ne delimitano l’ambito delle risposte possibili.
Questo insieme di alternative dipende dall’interpretazione che la do-
manda stessa viene ad assumere all’interno del contesto. Così, ad
esempio, la domanda: “Perché Adamo mangiò la mela?” è passibile di
tre interpretazioni diverse, a seconda che l’una o l’altra delle sue com-
ponenti venga accentuata. Essa ammette le seguenti varianti: (1) “Per-
ché fu Adamo (e non Eva) a mangiare la mela?”, “Perché Adamo man-
giò la mela (e non la pera o qualche altro frutto)?”, “Perché Adamo
mangiò la mela (anziché lasciarla dov’era)?”4. Chiaramente, ciascuna
di queste tre alternative pone una diversa richiesta di spiegazione. So-
lo il contesto può chiarire quale di tali alternative si ponga, e ciò a sua
volta delimiterà il ventaglio delle risposte ammissibili. Come vedremo
nel prossimo paragrafo, questi concetti vengono ulteriormente svi-
luppati da van Fraassen.
Altro esponente dell’approccio pragmatico, Peter Achinstein sot-
tolinea come in certi contesti spiegazioni corrette di un fenomeno pos-
sano non essere giudicate soddisfacenti. Ciò dipende dal fatto che la
bontà di una spiegazione è relativa alle conoscenze e agli interessi di
chi avanza una domanda sul perché e di chi risponde5. Nell’articolo
Can there Be a Model of Explanation? l’autore, dopo una dettagliata di-
scussione dei principali modelli di spiegazione avanzati in letteratura
– inclusi quelli di Hempel e Salmon, nonché quello di Woodward che
verrà esaminato nel capitolo 7 – assume una posizione scettica ri-
guardo alla domanda contenuta nel titolo. Secondo Achinstein i con-
cetti chiave delle varie teorie della spiegazione: «fattori causali, leggi,
disposizioni, desideri e credenze, fattori statisticamente rilevanti, o
proprietà essenziali non possono spiegare correttamente un expla-
nandum» [Achinstein 1981, 1993, 159], in quanto non offrono con-
dizioni sufficienti per un’adeguata caratterizzazione della spiegazio-
ne. Tali concetti possono nondimeno risultare utili alla spiegazione
degli eventi, entro determinati contesti.

4
L’esempio è tratto da van Fraassen [1980, ed. it. 1985, 164], il quale dichiara di
riprenderlo da un dattiloscritto di Bengt Hansson, il quale a sua volta riprese idee di
Jon Dorling e Alan Garfinkel.
5
Si veda Achinstein [1977], [1981] e [1983].
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 46

46 Capitolo 3

3.2 La pragmatica della spiegazione di van Fraassen

Come già accennato, la versione più articolata della pragmatica del-


la spiegazione è stata elaborata da van Fraassen, dapprima in un arti-
colo del 1977 dal titolo The Pragmatics of Explanation, e poi nel for-
tunato volume The Scientific Image, uscito nel 1980. Muovendosi in
una prospettiva filosofica di stampo anti-realista, l’autore guarda alla
spiegazione come a un’attività squisitamente informativa, volta a for-
nire descrizioni adeguate dei fenomeni. L’adeguatezza di una descri-
zione, e il suo successo sul piano informativo, dipendono strettamen-
te dal contesto, poiché è il contesto a determinare sia quale richiesta
venga posta da una domanda sul perché, sia la valutazione della ri-
sposta, che dovrà risultare soddisfacente rispetto alla richiesta. La ri-
levanza esplicativa viene vista da van Fraassen come una relazione che
non si esaurisce nel connettere teorie e fatti, ma si snoda nel legame fra
tre termini: teoria, fatti e contesto. A quest’ultimo spetta un ruolo fon-
damentale, poiché soltanto a partire dal contesto è possibile indivi-
duare quali fattori scientificamente rilevanti rispetto a un fatto da spie-
gare risultino rilevanti sotto il profilo esplicativo, entro una data si-
tuazione. È ancora a partire dal contesto che secondo l’autore risulta
possibile rendere conto dell’asimmetria della spiegazione con riferi-
mento agli interessi e alle conoscenze di chi pone la domanda sul per-
ché, e di coloro ai quali è indirizzata la risposta.
Secondo l’analisi che ne fa van Fraassen, una domanda sul perché
è determinata, in un dato contesto, da tre fattori: (1) il tema (topic) Pk
che rappresenta ciò di cui si chiede spiegazione, ovvero l’explanan-
dum; (2) la classe-antitesi X = {P1, ... , Pk} che comprende, oltre al te-
ma della spiegazione, le possibili alternative ad esso, e (3) la relazione
di rilevanza R che mette in relazione una proposizione – chiamiamo-
la A – con la coppia ‹ Pk, X ›. Una domanda sul perché – chiamiamo-
la Q – viene quindi identificata con la tripla che comprende i tre ele-
menti appena richiamati: Q = ‹ Pk, X, R ›. Prendiamo, per esempio, la
domanda: “Perché Alice si è iscritta alla Facoltà di Farmacia?”. Il fat-
to che Alice si è effettivamente iscritta alla Facoltà di Farmacia rap-
presenta il tema della domanda, Pk , e la classe-antitesi riflette il fatto
che Alice si è iscritta alla Facoltà di Farmacia piuttosto che non a quel-
la di Medicina, di Lettere, e così via. R mette in relazione una propo-
sizione quale “Il padre di Alice possiede una farmacia” con X e Pk
dando luogo alla risposta: “Alice si è iscritta alla Facoltà di Farmacia,
invece che a una delle altre che avrebbe potuto scegliere, perché suo
padre possiede una farmacia”. La classe-antitesi, che include tanto il
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 47

La teoria pragmatica della spiegazione 47

tema della domanda quanto le alternative individuabili rispetto ad es-


so nella situazione data, fornisce lo sfondo entro il quale si colloca la
risposta alla domanda di spiegazione. La relazione di rilevanza svolge
la funzione, determinante, di collegare il contenuto informativo della
risposta con le componenti della domanda.
Una volta chiarito che una risposta a una domanda sul perché è di-
retta quando fornisce informazione sufficiente a rispondere alla do-
manda in modo completo, e che una presupposizione di una domanda
Q è qualsiasi proposizione implicata da tutte le risposte dirette a Q,
van Fraassen passa a definire come si configuri una risposta a una do-
manda sul perché. Con le parole dell’autore:
B è una risposta diretta a una domanda Q = ‹ Pk, X, R › esattamente
se vi è qualche proposizione A tale che A si trova nella relazione R
con ‹ Pk, X › e B è la proposizione che è vera esattamente se (Pk e per
tutti gli i ≠ k, non Pi; e A) è vera [van Fraassen 1980, ed. it. 1985, 182].

In altri termini, una domanda sul perché presuppone che il tema


cui si riferisce sia vero, che questo sia l’unico elemento vero della clas-
se-antitesi, e, infine, che almeno una delle proposizioni che stanno in
relazione di rilevanza con il tema e la classe-antitesi sia vera. Van Fra-
assen chiama la proposizione A nucleo (core) della risposta B, e la pro-
posizione “Pk e per tutti gli i ≠ k, non Pi” presupposizione centrale del-
la domanda Q, stabilendo inoltre che qualora una proposizione A sia
rilevante rispetto alla coppia ‹ Pk, X › si potrà dire che è rilevante ri-
spetto a Q.
La relazione di rilevanza, che in questa prospettiva viene ad essere
il cardine della spiegazione, si colloca nell’ambito del sapere di sfon-
do condiviso da chi pone la domanda e da chi risponde:
Nel contesto nel quale viene posta la domanda, vi è un certo corpus
K che comprende la teoria di sfondo accettata e le informazioni fat-
tuali. Questo è un fattore appartenente al contesto, dal momento che
dipende da colui che ha posto la domanda e dall’uditorio. È questo
sfondo a determinare se la domanda si ponga oppure no; quindi una
domanda può porsi (o viceversa, venire rifiutata) in un contesto e non
in un altro [ibid., 183].

Perché una domanda possa porsi è necessario che K implichi la sua


presupposizione centrale. Infatti, il contenuto della presupposizione
centrale deve essere parte del contesto. Inoltre, Q presuppone che al-
meno una delle proposizioni rilevanti rispetto al tema e alla classe-an-
titesi sia vera. Può tuttavia darsi il caso che K non implichi questo;
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 48

48 Capitolo 3

nondimeno la domanda si può porre, a patto che K non implichi che


tutte le proposizioni rilevanti rispetto al tema e alla classe-antitesi sia-
no false. In considerazione di tutto ciò, van Fraassen propone di
usare l’espressione “la domanda si pone in questo contesto” per espri-
mere esattamente questo: K implica la presupposizione centrale, e K
non implica la negazione di alcuna presupposizione. Si osservi che
questo è molto diverso da “tutte le presupposizioni sono vere”, e pos-
siamo sottolineare questa differenza dicendo “si pone nel contesto”.
La ragione per cui dobbiamo tracciare questa distinzione è che K può
non dirci quale delle possibili risposte sia vera, ma questa lacuna in K
chiaramente non elimina la domanda [ibid., 184].

Uno dei vantaggi che van Fraassen attribuisce alla propria visione,
rispetto alle altre teorie della spiegazione avanzate in precedenza, è
che, relativizzando la spiegazione alle conoscenze di sfondo, essa ren-
de conto in modo semplice e diretto del fatto che vi sono domande di
spiegazione che in determinati contesti sono considerate non ammis-
sibili. Rifacendosi alla teoria dei paradigmi scientifici elaborata da
Thomas Kuhn, van Fraassen afferma che le opere di questo autore ab-
bondano di esempi di richieste di spiegazione che furono considera-
te legittime in alcuni periodi e rifiutate in altri. Così
Clerk Maxwell accettò come legittima la richiesta di spiegare i fenome-
ni elettromagnetici nel quadro della meccanica. Non appena la sua teo-
ria ebbe maggior successo e fu più largamente accettata, gli scienziati
smisero di vedere la mancanza di questa spiegazione come un’imperfe-
zione. Lo stesso era accaduto con la teoria della gravitazione di Newton,
la quale non conteneva (a giudizio di Newton o dei suoi contempora-
nei) una spiegazione dei fenomeni gravitazionali, ma soltanto una de-
scrizione. In entrambi i casi si arrivò ad un punto in cui tali problemi fu-
rono classificati come intrinsecamente illegittimi [...] il fatto importan-
te per la teoria della spiegazione è che non tutto ciò che appartiene al
dominio di una teoria è un argomento legittimo per domande-perché;
e che ciò che lo è non può venire determinato a priori [ibid., 148-149].

Altra questione alla quale secondo van Fraassen l’impostazione


pragmatica è in grado di rispondere in modo soddisfacente riguarda
l’asimmetria della spiegazione. Anche in questo caso è fondamentale
il richiamo al contesto, poiché l’asimmetria della spiegazione viene fat-
ta dipendere dalla relazione di rilevanza che collega la risposta alla
classe-antitesi, e in quanto tale è contestualmente determinata. Per
convincerci della totale dipendenza dal contesto della rilevanza espli-
cativa, van Fraassen si serve di una storiella che, riecheggiando il ben
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 49

La teoria pragmatica della spiegazione 49

noto esempio dell’asta e dell’ombra, intende illustrare l’idea che cam-


biando il contesto le asimmetrie esplicative possano addirittura risul-
tare invertite. Riportiamo qui la storia della “torre e l’ombra”:
L’anno scorso, durante i miei viaggi lungo il corso della Saona e del Ro-
dano, trascorsi un giorno ed una notte nella casa avita del Cavaliere di
St. X..., un vecchio amico di mio padre. Il cavaliere era stato, infatti,
l’ufficiale di collegamento francese assegnato alla brigata di mio padre
nella prima guerra mondiale, il quale aveva – se si deve prestar fede ai
loro ricordi – svolto una parte non insignificante nelle battaglie della
Somme e della Marna.
Il vecchio gentiluomo prendeva sempre thé à l’Anglaise sulla terrazza
alle cinque di sera, così mi disse. Fu durante questo pasto che accad-
de uno strano episodio; sebbene le sue implicazioni non fossero an-
cora riconoscibili mentre ascoltavo il Cavaliere che forniva la sua sem-
plice spiegazione dell’ombra che avanzava sopra di noi là sulla terraz-
za. Avevo appena mangiato il mio quinto pezzo di pane imburrato ed
avevo cominciato la mia terza tazza di tè quando mi accadde di alza-
re gli occhi. Nella luce morente di quel fine pomeriggio, il suo profi-
lo si stagliava nettamente contro lo sfondo di granito del muro dietro
di lui, il grande naso aquilino proteso in avanti e lo sguardo fisso su
qualche punto dietro la mia spalla sinistra. Non comprendendo, di
primo acchito, la situazione, debbo ammettere che, all’inizio, fui sem-
plicemente affascinato dalla vista di quel grande naso adunco, che mi
ricordava l’affermazione di mio padre per cui esso sarebbe stato uti-
lizzato come una vera e propria arma in un combattimento ravvicina-
to con un granatiere tedesco. Ma fui destato da questa meditazione
dalla voce del Cavaliere.
“L’ombra della torre presto ci raggiungerà, e la terrazza diverrà fred-
da, suggerisco di finire il nostro tè e di andare dentro”.
Mi guardai attorno, e l’ombra della torre piuttosto strana, che avevo
precedentemente notato sullo sfondo, si era effettivamente avvicina-
ta a meno di un metro dalla mia seggiola. La novità m’infastidì un po-
co, poiché era una bella sera desideravo protestare, ma non sapevo
bene come farlo senza oltrepassare i limiti dell’ospitalità. Esclamai:
“Perché quella torre deve avere un’ombra così lunga? Questa terraz-
za è così gradevole!”
I suoi occhi si volsero a posarsi su di me. La mia domanda era stata re-
torica, ma egli non la considerò in questo modo.
“Come forse già sapete, uno dei miei antenati salì sul patibolo duran-
te il regno di Luigi XVI e di Maria Antonietta. Ho fatto erigere quel-
la torre nel 1930 per indicare l’esatto punto dove, a quanto si dice,
egli salutò la Regina quando per la prima volta visitò questa casa, e le
si presentò con un pavone fatto di sapone, a quel tempo una sostanza
rara. Dal momento che la Regina avrebbe avuto 175 anni nel 1930, se
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 50

50 Capitolo 3

essa fosse vissuta, ho fatto in modo che la torre fosse alta esattamente
quello stesso numero di piedi”.
Mi ci volle un momento per comprendere la rilevanza di tutto questo.
Non essendo mai stato veloce a far le somme, dapprima mi chiesi sem-
plicemente perché la misura avrebbe dovuto venire presa in piedi; ma
naturalmente già sapevo che lui era un anglofilo. Aggiunse alquanto
ironicamente: “Non essendo modificabile il corso del sole, viaggian-
do la luce in linea retta, ed essendo le leggi della trigonometria im-
mutabili, voi capirete che la lunghezza dell’ombra viene determinata
dall’altezza della torre”. Ci alzammo ed entrammo.
Stavo ancora leggendo alle 11 di quella sera quando sentii bussare alla
porta. Aprendola trovai, vestita con un abito nero e un cappellino bian-
co di foggia piuttosto antiquata, la cameriera che quel giorno avevo vi-
sto in diverse occasioni gironzolare sullo sfondo. Molto cortesemente el-
la chiese: “Il signore vorrebbe che gli rifacessi il letto per la notte?”
Mi feci da parte, non volendo rifiutare, ma osservai che era molto tar-
di – era ancora in servizio a quell’ora? No, in realtà, rispose, mentre
voltava abilmente le coperte del mio letto, ma si dava il caso che alcuni
doveri potessero essere nello stesso tempo dei piaceri. Immersi in que-
sta e in consimili riflessioni filosofiche trascorremmo assieme qualche
ora gradevole, fino a che, alla fine, accennai casualmente a quanto mi
sembrasse sciocco il fatto che l’ombra della torre rendesse inservibile
la terrazza per chi volesse prendervi, con tutto comodo, un tè.
A questo punto, il suo viso si rannuvolò. Si mise prontamente a sede-
re. “Cosa le ha detto esattamente su questo?” Risposi allegramente, ri-
petendo la storia di Maria Antonietta, che suonava ora un po’ stirac-
chiata anche alle mie credule orecchie.
“I domestici hanno una spiegazione diversa”, disse con un sorriso bef-
fardo per niente adatto, così mi sembrava, ad un viso tanto giovane e
grazioso. “La verità è del tutto diversa, e non ha nulla a che fare con
gli antenati. Quella torre segna il punto in cui egli uccise la domesti-
ca della quale era innamorato fino alla follia. E l’altezza della torre?
Egli espresse il desiderio che l’ombra coprisse la terrazza ad ogni tra-
monto nel luogo in cui per la prima volta proclamò il suo amore – ed
è per questo che la torre dovette essere così alta”.
Ci misi un po’ prima di credere a questa storia. Non è mai facile assi-
milare verità inattese su gente che pensiamo di conoscere – ed avevo
avuto un’altra occasione per constatare ancora una volta questo fatto.
“Perché la uccise?” chiesi alla fine.
“Perché, signore, essa si trastullò con un brigadiere inglese, ospite per
una notte in questa casa”. Con queste parole si alzò, raccolse il corsetto
e il copricapo, e scomparve attraverso il muro oltre l’arco della porta.
Me ne andai di buon’ora il mattino successivo, facendo le mie scuse
come meglio mi riuscì [ibid., 169-171].
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 51

La teoria pragmatica della spiegazione 51

La caratterizzazione data da van Fraassen della relazione di rile-


vanza è stata oggetto di critiche che verranno esaminate nel prossimo
paragrafo. Prima, però, va ricordato come l’autore affronti anche il
problema della valutazione delle risposte alle domande di spiegazio-
ne. Una prima osservazione avanzata in proposito riguarda il fatto che
abitualmente una spiegazione non fa riferimento a tutta l’informazio-
ne contenuta nella situazione conoscitiva K, ma a una sua porzione ri-
stretta, K(Q), che in pratica rappresenta la classe di riferimento della
spiegazione stessa, e che costituisce un ulteriore elemento contestua-
le. Ponendo che in un contesto caratterizzato dalla situazione cono-
scitiva K sorga la domanda Q avente come tema e come classe-antite-
si X = {B, C, ... , N} ci si può chiedere qual è il grado di bontà della ri-
sposta “perché A”. Nel caso in cui K(Q) insieme con A implichi B, e
inoltre implichi la falsità di C, ... , N si potrà senz’altro affermare che
A conferisce al tema B il più alto grado di favore possibile. Laddove
invece ciò non si verifichi, van Fraassen propone un criterio inteso a
valutare il grado in cui A favorisce B rispetto alle alternative facenti
parte della classe-antitesi. Esso tiene conto, da un lato, del grado di at-
tendibilità di B rispetto alle alternative, e dall’altro del numero di al-
ternative alle quali viene prescelto. Mettendo a confronto la probabi-
lità a priori di B, valutata unicamente alla luce di K(Q), con la sua pro-
babilità a posteriori valutata in base a K(Q) e A, si dirà che la proba-
bilità a posteriori favorisce B rispetto a quella a priori se fa aumentare
il grado di attendibilità di B, riducendo il numero delle sue alternati-
ve. Questo criterio è di tipo comparativo, ed è compatibile col fatto
che un aumento del grado di “favore” attribuito a B rispetto alle al-
ternative si accompagni a una riduzione della sua probabilità.
Il criterio richiamato sopra, tuttavia, non rende conto di tutti quei
casi che ricadono nell’ambito del cosiddetto “paradosso di Simpson”.
In breve, questo afferma che relazioni di rilevanza positiva possono
generalmente essere invertite qualora si considerino fattori aggiuntivi.
In altri termini, esso dice che affinando l’analisi dei dati che portano
a stabilire delle correlazioni, è molto spesso possibile trasformare cau-
se prima facie in cause spurie. Un esempio ampiamente discusso in let-
teratura riguarda un’azione legale che venne intentata nel 1973 nei
confronti dell’università di Berkeley, accusata di discriminazione ses-
suale in base ai dati relativi alle ammissioni, che sembravano favorire
notevolmente i maschi rispetto alle femmine. Da un esame più accu-
rato, che prendeva in esame i dati relativi ai vari dipartimenti, emerse
però che nessun dipartimento favoriva significativamente i maschi ai
danni delle femmine, e anzi alcuni ammettevano più femmine che ma-
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 52

52 Capitolo 3

schi. La ragione di questi risultati apparentemente contraddittori sta-


va nel fatto che le studentesse tendevano a fare domanda di ammis-
sione ai dipartimenti con tassi di rigetto più alti, mentre gli studenti
maschi tendevano a chiedere l’ammissione a dipartimenti meno com-
petitivi6. In casi come questo, di fronte a una domanda come “Perché
Jane Jones non è stata ammessa all’università di Berkeley nel 1973?”
la risposta “Jane aveva chiesto l’ammissione a Medicina” sarà preferi-
bile a “Jane era una donna” perché la prima mette in ombra la secon-
da, ossia rende l’informazione contenuta nella seconda irrilevante ri-
spetto al tema “Jane non è stata ammessa”. La “messa in ombra” – da
intendersi nel senso di Salmon, che abbiamo esaminato nel corso del
capitolo 2 – configura un criterio di preferibilità fra risposte esplica-
tive diverso da quello visto in precedenza.
Pur risultando in molti casi utile, nell’ambito dell’approccio prag-
matico la portata del criterio di adombramento non è generalizzabile.
Come osserva van Fraassen:
non è importante se qualche proposizione P “mette in ombra” A ri-
spetto a B, qualora P non sia il nucleo di una risposta alla domanda.
Pertanto se la domanda-perché è una richiesta di informazioni circa il
processo meccanico che ha condotto all’evento, la risposta non è peg-
giore se è statisticamente “messa in ombra” da altri tipi di informa-
zioni. Consideriamo la domanda “Perché Peter è morto?”, a cui si ri-
sponde con “Egli ha ricevuto un pesante colpo in testa”, già sapendo
che Paul ha appena ucciso Peter in qualche modo [ibid., 189].

Anziché irrilevanti, risposte messe in ombra possono essere par-


ziali, ma nondimeno informative.
Van Fraassen ammette che sotto il profilo della valutazione delle ri-
sposte la teoria da lui proposta «non è né completa né precisa come
si potrebbe desiderare» [ibid., 189]. Bisogna però aggiungere che l’au-
tore non attribuisce al momento valutativo soverchia importanza. Nel-
la prospettiva anti-realista e pragmatista che caratterizza il suo “em-
pirismo costruttivo”, la spiegazione scientifica è sostanzialmente un’at-
tività informativa, e il fatto che una teoria offra delle buone spiega-
zioni costituisce un motivo per accettarla, ma non per ritenerla vera.
In base all’affermazione che la credibilità di una teoria è inversamen-
te proporzionale al suo potenziale informativo, van Fraassen sostiene
che le “virtù informative” di una teoria, ossia quelle in forza delle qua-

6
Si vedano Cartwright [1979] e Suppes [1984, ed. it. 2012].
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 53

La teoria pragmatica della spiegazione 53

li una teoria ci informa sul mondo meglio di quanto non faccia un’al-
tra, non coincidono con le “virtù confermative”, che danno motivo di
credere nella sua verità7. Essendo informativa e non confermativa, la
spiegazione può fornire ragioni per accettare una teoria, ma queste
non rappresentano ragioni per crederla vera. Così come quello di “po-
tere esplicativo” non è un concetto assoluto, «non ci può essere nep-
pure alcuna richiesta di potere esplicativo inteso come qualcosa che
fornisca dell’evidenza per la verità di una teoria, la quale vada oltre
qualunque evidenza in nostro possesso circa la capacità della teoria di
fornire un’adeguata descrizione dei fenomeni» [ibid., 195].

3.3 La critica di Kitcher e Salmon

In un articolo del 1987 dal titolo Van Fraassen on Explanation


Philip Kitcher e Wesley Salmon avanzano alcune obiezioni alla vi-
sione elaborata da van Fraassen, che sarebbe sì in grado di gettar lu-
ce sugli aspetti pragmatici della spiegazione, ma non di rappresen-
tare adeguatamente la nozione di spiegazione scientifica perché mi-
nata da difficoltà di vario genere. Queste sorgono, a parere dei due
autori, soprattutto in relazione alle asimmetrie della spiegazione, che
come abbiamo visto van Fraassen fa dipendere dalla relazione di ri-
levanza R, la cui funzione è di connettere la proposizione A (il nu-
cleo della risposta) alla coppia ‹ Pk, X › (il tema della domanda e la
classe-antitesi). È proprio la definizione della relazione di rilevanza
a essere giudicata insoddisfacente da Kitcher e Salmon, i quali so-
stengono che
a meno di imporre qualche condizione sulle relazioni di rilevanza, la
sua teoria [di van Fraassen] porta al risultato che qualunque cosa può
spiegare qualunque cosa. Alcuni tipi di relazioni R sono futili, e le do-
mande-perché che le comportano sono anch’esse futili. Se poniamo
domande futili, non ci dovremmo stupire di ottenere risposte futili
[Kitcher e Salmon 1987, 322].

Per esemplificare queste affermazioni, i due autori fanno il se-


guente esempio, ripreso da Salmon nel volume 40 anni di spiegazione
scientifica:

7
Per un approfondimento di queste idee rimandiamo a van Fraassen [1983a],
[1983b] e [1985].
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 54

54 Capitolo 3

Supponiamo che qualcuno domandi perché John F. Kennedy morì il


22 novembre 1963. Questa è la domanda Q = ‹ Pk, X, R ›, dove
Pk = J.F.K. morì il 22-11-63 (Tema)
X = {J.F.K. morì il 2-1-63,
.
.
.
J.F.K. morì il 22-11-63,
.
.
.
J.F.K. morì il 31-12-63,
J.F.K. sopravvisse al 63} (classe-antitesi)
R = l’influenza degli astri (relazione di rilevanza)
Supponiamo che la risposta diretta sia
Pk in antitesi al resto di X perché A,
dove A (la parte centrale della risposta) è una descrizione vera della
configurazione dei pianeti, del sole, della luna e delle stelle al tempo
della nascita di Kennedy. Inoltre, supponiamo che la persona che of-
fre questa risposta abbia una teoria astrologica da cui segue che, dato
A, era certo, o molto probabile, che la data della morte di Kennedy sa-
rebbe stata il giorno in cui di fatto morì [Salmon 1989, ed. it. 1992,
237-238].

Appare ovvio che nessuno sarebbe disposto ad accettare questa


come una buona spiegazione della morte di Kennedy, semplicemente
perché alla luce delle conoscenze condivise l’influenza degli astri non
può fungere da supporto per la rilevanza esplicativa. La conseguenza
che ne traggono Kitcher e Salmon è che «va tracciata una distinzione
fra le relazioni che possono fungere, in un qualche contesto, da rela-
zioni di rilevanza [...] e quelle che non sono in grado di farlo» [Kitcher
e Salmon 1987, 325].

Entrambi gli autori appaiono convinti che la rilevanza esplicativa


debba essere definita in base a criteri oggettivi. Nel prossimo capito-
lo verrà esaminata la teoria della spiegazione proposta da Kitcher; dal
canto suo Salmon, convinto assertore del carattere causale della spie-
gazione, è propenso ad associare la rilevanza esplicativa alla rilevanza
causale.
Quantomeno, Salmon ritiene essenziale alla spiegazione l’asimme-
tria temporale, e reagisce alla storia della “torre e l’ombra” afferman-
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 55

La teoria pragmatica della spiegazione 55

do che l’altezza della torre si spiega in base alla «precedente intenzio-


ne di qualcuno di ottenere un’ombra di una certa lunghezza» [Salmon
1984, 95].
Salmon rileva aspetti di problematicità anche riguardo all’indivi-
duazione dell’insieme informativo K(Q) cui nella visione di van Fra-
assen è affidato il compito di fare da sfondo alla spiegazione. Con le
parole dell’autore:
il problema che incontriamo quando cerchiamo di decidere quali in-
formazioni debbano essere contenute in K(Q) è esattamente lo stesso
problema incontrato da Hempel in relazione al requisito di specifici-
tà massimale, ed è anche lo stesso problema che mi si era presentato
quando cercavo di definire l’omogeneità oggettiva [Salmon 1989, ed.
it. 1992, 243].

La conclusione tratta da Salmon è che van Fraassen «non è riusci-


to a mostrare che tutti i problemi tradizionali legati alla spiegazione so-
no risolvibili mediante un approccio pragmatico» [ibid., 244]. Al tem-
po stesso, Salmon riconosce a van Fraassen il merito di aver richia-
mato l’attenzione sugli aspetti pragmatici e contestuali inerenti alla
spiegazione.
03Capitolo_3.qxp:Layout 1 5-02-2013 9:19 Pagina 56
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 57

Capitolo 4

La concezione unificazionista

Nella seconda metà degli anni Ottanta il dibattito filosofico sulla


spiegazione scientifica si è arricchito anche della cosiddetta concezio-
ne “unificazionista”, inizialmente proposta da Michael Friedman a
metà degli anni Settanta, e poi ripresa e sviluppata da Philip Kitcher
alcuni anni più tardi. L’unificazionismo sostiene che scopo della scien-
za sia spiegare il maggior numero possibile di fenomeni mediante il
minor numero possibile di principi generali, e che l’insieme di cono-
scenze di base che accettiamo sia pertanto determinato dall’esigenza
di sistematizzare le nostre esperienze. Alle spiegazioni scientifiche vie-
ne dunque richiesto di indicare come ciò che è più specifico derivi da
ciò che è più generale, in modo che l’insieme di conoscenze fonda-
mentali di cui dobbiamo disporre diventi il più ristretto possibile. Il-
lustreremo in questo capitolo i tratti salienti delle proposte di Fried-
man e Kitcher, per poi esaminare come queste si siano confrontate
con la teoria di Salmon e, più in generale, quali problemi e critiche
abbiano sollevato.

4.1 La teoria unificazionista di Kitcher

In Explanation and Scientific Understanding [1974], Friedman


muove dalla considerazione che raramente le scienze sono volte a spie-
gare fatti particolari. Ciò avviene in discipline come la geologia e
l’astronomia, mentre la maggioranza delle altre discipline sono solita-
mente impegnate nella spiegazione di regolarità attraverso l’unifica-
zione, ovvero riconducendo «una molteplicità di fenomeni indipen-
denti ad un solo fenomeno» [Friedman 1974, 15]. Per “fenomeno”
Friedman intende un’uniformità generale, che può essere espressa da
un enunciato legisimile. Nella sua proposta un ruolo chiave è svolto
dalla nozione di accettazione: si assume che «in ogni momento esista
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 58

58 Capitolo 4

un insieme K di enunciati che esprimono relazioni legisimili e che so-


no accettati, cioè un insieme K di leggi accettate dalla comunità scien-
tifica. […] L’insieme K è chiuso deduttivamente […] e contiene tutte
le conseguenze legisimili dei suoi membri» [ibidem]. Un esempio di
come la scienza progredisca unificando è fornito dalla teoria cinetico-
molecolare dei gas, che ci permette di spiegare vari fenomeni concer-
nenti il comportamento dei gas – ovvero il fatto che seguano la legge
di Boyle-Charles e quella di Graham, e che sviluppino un certo calo-
re – nei termini del comportamento delle molecole di cui sono com-
posti.
Friedman riconosce il problema di stabilire se si possa considera-
re un’unificazione di fenomeni la deduzione, ad esempio, della legge
di Graham dalla congiunzione della legge di Boyle-Charles con la stes-
sa legge di Graham. Come si distingue ciò che può essere considera-
to una legge da ciò che invece conta come due o più leggi? La sua pro-
posta unificazionista cerca di risolvere questo problema introducendo
la nozione di “enunciato legisimile accettabile indipendentemente”,
dove un enunciato è accettabile indipendentemente da un altro se esi-
stono motivi sufficienti a farci accettare uno dei due enunciati che non
sono invece sufficienti a farci accettare l’altro. «La nozione di accet-
tabilità indipendente soddisfa le seguenti condizioni: a) Se S→Q, S
non è accettabile indipendentemente da Q; b) Se S è accettabile indi-
pendentemente da P, e se Q→P, S è accettabile indipendentemente
da Q» [ibid., 16-17]. Scopo del programma di Friedman è rappre-
sentare la spiegazione scientifica come una riduzione del numero di
leggi accettate indipendentemente1. Egli afferma:
per sapere se S è una possibile spiegazione di un certo enunciato S’ in
K è necessario sapere se S consente una riduzione del numero di enun-
ciati indipendenti. Credo che l’insieme che vorremmo S riducesse sia
l’insieme delle conseguenze di S accettabili indipendentemente
(conK(S)). Per esempio, le leggi di Newton sono dei buoni candidati
per spiegare la legge di Boyle perché riducono l’insieme delle loro con-
seguenze accettabili indipendentemente, l’insieme della legge di Boy-
le, la legge di Graham, ecc. La congiunzione della legge di Boyle con
la legge di Graham, invece, non è un buon candidato perché non ri-
duce l’insieme delle sue conseguenze che sono accettabili indipen-
dentemente [ibid., 17].

1 Per alcune critiche alla teoria di Friedman si vedano, ad esempio, Salmon [1989,

ed. it. 1992, 164-173] e Kitcher [1976].


04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 59

La concezione unificazionista 59

Nonostante alcuni limiti e difficoltà formali, alla proposta di Fried-


man è stato riconosciuto il merito di avere introdotto con forza nel di-
battito sulla spiegazione scientifica il tema dell’unificazione, presentata
come uno degli obiettivi principali della scienza e fondamentale per un
effettivo aumento della comprensione scientifica. Friedman insiste sul
carattere globale, piuttosto che locale, della spiegazione scientifica.
Anziché ritenere che spiegare i fenomeni equivalga a esibirli come ne-
cessari, familiari o attendibili, l’unificazionismo li pone in relazione
con la totalità dei fenomeni accettati dalla comunità scientifica; anzi-
ché attribuire uno status epistemologico particolare e privilegiato ad
una qualche forma di explanans, l’unificazionismo evidenzia la rete di
rapporti sussistente tra i fenomeni noti. «Purché si raggiunga una ri-
duzione del numero totale dei fenomeni indipendenti, i fenomeni fon-
damentali ai quali tutti gli altri sono ridotti possono essere strani, non
familiari e innaturali quanto si vuole» [ibidem].
La posizione unificazionista più articolata e che ha riscosso mag-
giore successo è quella elaborata nel corso degli anni Ottanta da Kit-
cher, secondo il quale l’attività scientifica mira a fornire il maggior nu-
mero possibile di conclusioni ricorrendo al minor numero possibile
di modelli generali. La convinzione che l’unificazione delle conoscenze
accettate sia uno degli scopi primari della scienza è stata condivisa −
secondo Kitcher − da uomini di tutti i tempi: i nostri più lontani an-
tenati «disponevano di un insieme di conoscenze elementari e scon-
nesse tra loro. Nel tentativo di sistematizzare il loro sapere, essi giun-
sero a elaborare il primo resoconto dell’ordine naturale, cominciando
a concepire alcuni fenomeni come dipendenti da altri» [Kitcher 1989,
476]. La scienza è dunque progredita mettendo in relazione un nu-
mero crescente di fenomeni diversi con un numero limitato di gran-
dezze e proprietà fondamentali. La comprensione scientifica autenti-
ca si ottiene solamente quando si cessa di considerare le spiegazioni
una per volta e si punta, piuttosto, a fornire porzioni sempre più am-
pie di un quadro sistematico in cui inserire i fenomeni naturali. A so-
stegno di questa visione Kitcher porta due esempi che ritiene parti-
colarmente rilevanti. Il primo è costituito dal programma seguito dai
successori di Newton, che hanno cercato di individuare un piccolo
numero di leggi fondamentali concernenti le forze presenti in natura,
di forma simile a quella della legge di gravitazione universale; il loro
intento era di applicare queste leggi alle componenti ultime dei corpi
e di spiegare così nei termini del moto delle particelle e delle forze di
coesione e repulsione i comportamenti di tutti i fenomeni naturali.
L’altro esempio illustre è fornito dalla teoria dell’evoluzione di Darwin:
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 60

60 Capitolo 4

adottando il principio della selezione naturale e considerando le for-


me di vita ancestrali, le condizioni ambientali, la variazione e trasmis-
sione dei caratteri, diventava possibile fornire un unico modello per
spiegare le caratteristiche di ogni specie vivente. Con lo stesso model-
lo si potevano spiegare, inoltre, un gran numero di fenomeni biologi-
ci differenti, come la distribuzione geografica delle specie o la con-
formazione degli organi degli animali. «Darwin mira a mostrare che la
sua teoria dovrebbe essere accettata perché unifica e spiega» [Kitcher
1981, 515, corsivo aggiunto]. Usando dei modelli di spiegazione – sot-
tolinea Kitcher – Newton e Darwin hanno compiuto due sistematiz-
zazioni degli insiemi di conoscenze allora accettate.
La teoria unificazionista di Kitcher, esposta nei termini più detta-
gliati ed estesi in Explanatory Unification [1981] e Explanatory Unifica-
tion and the Causal Structure of the World [1989], è costruita attraverso
l’uso di alcuni concetti-chiave. La convinzione fondamentale da cui l’au-
tore muove è che il potere esplicativo di una presunta spiegazione non
possa essere valutato isolando tale spiegazione. Una spiegazione viene
definita come una coppia ordinata costituita da una proposizione e da
un atto; ciò che rende la coppia ordinata (p, spiega q) una spiegazione
è il fatto che la proposizione p sia in una certa relazione con un parti-
colare argomento. Gli atti esplicativi poggiano su argomenti forniti dal-
la scienza e le domande di spiegazione devono essere intese come do-
mande del tipo: “Quali caratteristiche deve avere un argomento scien-
tifico per fungere da base all’elaborazione di una spiegazione?”. La va-
lidità di una spiegazione dipende anzitutto dal fatto che essa appartie-
ne a un insieme di spiegazioni, a una sorta di “deposito esplicativo” (ex-
planatory store) formato dalle teorie che la scienza via via elabora per si-
stematizzare le nostre conoscenze e organizzarle in un quadro organico.
È in questo modo che la scienza ci mette a disposizione una riserva di
argomenti esplicativi a cui attingere, modificabile con il progredire del-
le ricerche scientifiche. Detto K l’insieme delle conoscenze accettate
dalla comunità scientifica in un certo momento storico ed E(K) il nostro
deposito esplicativo, E(K) deve essere l’insieme degli argomenti che me-
glio unificano K. Chiamato un insieme di argomenti che derivano alcu-
ni membri dell’insieme K da altri suoi membri una “sistematizzazione”
di K, definiremo E(K) come la “migliore sistematizzazione” di K. Una
teoria unifica le nostre credenze quando fornisce un modello argomen-
tativo (argument pattern) – o un ristretto numero di modelli argomen-
tativi – che ci consente di derivare un alto numero delle asserzioni che
accettiamo. Secondo Kitcher, avremo raggiunto un’unificazione quan-
do ci sarà possibile derivare dal medesimo argomento – o dal medesi-
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 61

La concezione unificazionista 61

mo insieme di argomenti – numerose descrizioni di fenomeni che pre-


sentano caratteristiche comuni. «Per comprendere il concetto di spie-
gazione bisogna comprendere che accettare un argomento come espli-
cativo significa accettare come esplicativi anche altri argomenti che esi-
biscono le medesime caratteristiche» [ibid., 516].
Per articolare la sua proposta, Kitcher introduce una serie di ulte-
riori nozioni. Un “argomento schematico” è dato da una sequenza di
“proposizioni schematiche”, e «una proposizione schematica è
un’espressione ottenuta sostituendo con delle lettere alcune – non ne-
cessariamente tutte – delle espressioni non-logiche presenti in una pro-
posizione» [ibidem]. Usiamo poi un insieme di “istruzioni”, che indi-
cano come tale sostituzione debba essere compiuta. Parliamo, infine,
di “classificazione” dell’argomento schematico quando ci riferiamo «al-
l’insieme di proposizioni che descrivono le caratteristiche inferenziali
dell’argomento schematico: la sua funzione è dirci quali termini nella
successione devono essere considerati come premesse, quali devono
essere inferiti, quali regole di inferenza devono essere usate, e così via»
[ibidem]. Queste nozioni vengono usate per definire il concetto di “mo-
dello argomentativo generale” (general argument pattern). Quest’ulti-
mo è costituito da una tripla formata da: 1. un argomento schematico;
2. un insieme di istruzioni per ciascun termine dell’argomento sche-
matico; 3. una classificazione per l’argomento schematico. Una suc-
cessione di proposizioni è un modello argomentativo generale se sod-
disfa le seguenti condizioni:
(i) la successione ha il medesimo numero di termini dell’argomento
schematico del modello generale;
(ii) ciascuna proposizione della successione è ottenuta dalla proposi-
zione schematica corrispondente, secondo l’insieme appropriato di
istruzioni;
(iii) è possibile costruire un ragionamento che assegni a ciascuna pro-
posizione lo status accordato dalla classificazione alla proposizione
schematica corrispondente [ibid., 517].

Per chiarire tutto questo, Kitcher porta un esempio riferito alla


meccanica newtoniana, e a sistemi semplificati costituiti da un solo
corpo (ad esempio, da un pendolo o da un proiettile). L’argomento
schematico è dato da:
(1) La forza su α è β
(2) L’accelerazione di α è γ
(3) Forza = massa · accelerazione
(4) (Massa di α) · (γ) = β
(5) δ = θ
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 62

62 Capitolo 4

Le istruzioni ci dicono che: tutti gli “α” devono essere sostituti da


espressioni concernenti il corpo in esame; tutti i “β” devono essere sosti-
tuti da una funzione algebrica che metta in relazione coordinate spaziali
e temporali; “γ” dev’essere sostituito da un asserto che esprima l’accele-
razione del corpo come funzione delle sue coordinate e delle loro deriva-
te temporali2; “δ” dev’essere sostituito da un’espressione relativa alle co-
ordinate del corpo; “θ” dev’essere sostituita da una funzione del tempo3.
Nel confrontare le diverse possibili sistematizzazioni di K ci focaliz-
zeremo, secondo Kitcher, sui modelli che sono impiegati in ciascuna si-
stematizzazione; la sfida sarà quella di definire quali fattori determinano
il potere unificante di un insieme di modelli argomentativi. Casi come
quelli di Newton e di Darwin ci insegnano che una teoria acquista pote-
re unificante nella misura in cui è in grado di esibire un alto numero di
proposizioni accettate come conclusioni di argomenti raggruppabili in
pochi modelli stringenti (stringent patterns). Kitcher è disposto a ricono-
scere che, rispetto ad un certo corpus K di conoscenze, ci possa essere
un’autentica difficoltà nel determinare come soppesare la stringenza re-
lativa degli argomenti, il numero dei modelli e la gamma di conclusio-
ni che questi ammettono, e quindi una difficoltà a determinare con pre-
cisione E(K). Ma per quanto concerne i nostri effettivi sistemi di cre-
denze (presenti o passati) è possibile usare alcuni criteri per giudicare
quali vantaggi abbiano sistematizzazioni rivali [Kitcher 1989, 435].

Gli argomenti in uso nella scienza possono risultare simili per


quanto concerne la struttura logica e/o per quanto concerne il voca-
bolario non logico impiegato. Kitcher suggerisce di pensare alla scien-
za come ad un’attività volta all’individuazione di modelli argomenta-
tivi stringenti. La stringenza di un modello viene stabilita bilanciando
queste due caratteristiche: due modelli stringenti devono essere esem-
plificati da casi con simile struttura logica e simile vocabolario non lo-
gico4. È possibile valutare il peso di ciascuna di queste due forme di

2 Ad esempio, «nel caso di un moto lungo l’asse delle x in un sistema di riferi-

mento cartesiano, “γ” verrebbe sostituita dall’espressione “d2x/d2t”» [ibidem].


3 Altri esempi di come tutto questo funzioni sono forniti in Kitcher [1989, 439-

447], dove vengono illustrate in termini unificazionisti le teorie di Mendel, Darwin e


Watson e Crick.
4 Per un tentativo di specificare meglio la nozione di “stringenza”, che tuttavia

non arriva a darne una definizione precisa, si veda Kitcher [1981, 518-519]. Nei casi
di derivazione di una proposizione dalla congiunzione della proposizione stessa con
un’altra (casi – come abbiamo visto – già problematici per Friedman, e qui definiti co-
me casi di “auto-derivazione”), siamo in presenza di “unificazioni spurie”. Su come
evitare tali casi, si veda Kitcher [ibid., 526-529].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 63

La concezione unificazionista 63

stringenza, e stabilire come possono compensarsi vicendevolmente?


Anziché tentare di introdurre ulteriori analisi ed eventuali formalismi
aggiuntivi, Kitcher propone di attenersi alla pratica scientifica, nella
quale la stringenza sarebbe una proprietà considerata di grande rilie-
vo, ma non oggetto di assunzioni esplicite. Gli scienziati, piuttosto,
«valutano la capacità che una teoria ha di spiegare e di unificare. Il
percorso per pervenire a una visione soddisfacente della stringenza
passa attraverso le nozioni di spiegazione e di unificazione» [Kitcher
1981, 519]. Il rischio che una posizione di questo tipo corre è quello
di cadere in un’ineliminabile circolarità, non essendo in grado di espli-
citare in termini davvero chiari e univoci in che cosa consista il pote-
re esplicativo di una teoria. Kitcher è stato accusato, fra l’altro, di non
aver fatto corrispondere a un formalismo molto elaborato una nozio-
ne precisa di rilevanza esplicativa. Le istruzioni che dovrebbero con-
durci a costruire gli argomenti esplicativi non appaiono corredate del-
le necessarie restrizioni, e le elaborazioni che compiamo finiscono per
l’essere dettate – è stato osservato da Franz Peter Griesmeier – solo da
ciò che noi intuitivamente valutiamo come esplicativamente rilevante.
Un modello di argomento esplicativo dovrebbe essere costituito da
una quadrupla formata da: argomento schematico, istruzioni, classifi-
cazione e specificazione delle sostituzioni ammissibili dal punto di vi-
sta esplicativo. L’accusa che viene mossa alla teoria di Kitcher è di non
essere in grado di fornire un resoconto della rilevanza esplicativa, e
dunque, in ultima istanza, della capacità di spiegare:
la rilevanza esplicativa dev’essere analizzata nei termini del potenzia-
le potere unificante di ipotesi o intere teorie. Risulta, però, che il po-
tere unificante non può essere definito senza fare riferimento a una
qualche nozione di rilevanza esplicativa precedentemente disponibi-
le. La circolarità è evidente [Griesmeier 2005, 45].

In ogni caso, la nozione fondamentale nella teoria di Kitcher è quel-


la di “deposito esplicativo”, costituito dall’insieme più ristretto di mo-
delli di derivazione che possono essere ripetutamente usati per gene-
rare la più grande porzione di conoscenza dei fenomeni.
Il sistema formale elaborato da Kitcher è molto articolato e com-
plesso e presenta alcune difficoltà. Alcuni suoi aspetti, relativi in par-
ticolare alla nozione di stringenza e alle modalità di confronto di ar-
gomenti esplicativi diversi, rischiano di rendere meno convincente la
proposta unificazionista – il cui nucleo fondamentale è intuitivamen-
te plausibile – e prestano il fianco, come vedremo nel paragrafo 4.4, a
obiezioni di vario genere.
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 64

64 Capitolo 4

4.2 Unificazionismo, visione ricevuta e deduttivismo

L’unificazionismo viene visto da Salmon come il principale erede


della visione ricevuta hempeliana. La convinzione che spiegazione e
unificazione siano strettamente connesse è emersa già nell’ambito del-
l’empirismo logico, ma non è poi divenuta la componente di maggior
peso della visione ufficiale della spiegazione scientifica. Hempel stes-
so sottolinea il potere unificante delle leggi:
Alla domanda “Perché le leggi di Galileo e di Keplero sono valide?”
si risponde mostrando che queste leggi sono solo delle conseguenze
delle leggi newtoniane del moto e della gravitazione; e queste, a loro
volta, possono essere spiegate sussumendole sotto la più ampia teoria
della relatività generale. La sussunzione sotto leggi o teorie di più va-
sta portata solitamente aumenta l’ampiezza e la profondità della no-
stra conoscenza scientifica. Tale approfondimento è dovuto al fatto
che i nuovi principi esplicativi coprono una gamma maggiore di fe-
nomeni [Hempel 1962b, ed. it. 2004, 30-31].

Anche Herbert Feigl sostiene che «lo scopo della spiegazione scien-
tifica attraverso le varie epoche è stato l’unificazione, ovvero la com-
prensione del maggior numero di fatti e regolarità nei termini del mi-
nor numero di concetti e assunzioni teorici» [Feigl 1970, 12]. Secon-
do Kitcher questo aspetto della prospettiva neoempirista sulla spie-
gazione scientifica è stato il tema-guida della concezione della spiega-
zione radicata nell’empirisimo logico e, pur non essendo entrato a far
parte a pieno titolo della cosiddetta “visione standard” della spiega-
zione, ne costituisce lo spunto più interessante e fecondo. Kitcher si
richiama dunque ad alcune delle posizioni prese da Hempel, pur sen-
za condividerne appieno gli esiti. L’ambizione dei modelli hempelia-
ni di costituire dei modelli di spiegazione validi per tutti i fenomeni e
in tutte le discipline risulta eccessiva, e va facilmente a infrangersi con-
tro i numerosi casi presenti nella storia della scienza in cui si sono ap-
portate significative variazioni nei metodi esplicativi. Al tempo stesso,
tuttavia, Kitcher ritiene ragionevole sostenere che «esistano alcuni
principi metodologici globali che valgono per tutte le scienze, sempre.
Man mano che un certo settore scientifico evolve, i principi metodo-
logici globali vengono soddisfatti in modi diversi, così da risultare in
modifiche autentiche a livello della metodologia locale» [Kitcher 1989,
418]. Dei cambiamenti rilevanti nelle caratterizzazioni delle domande
di spiegazione, ad esempio, possono verificarsi sullo sfondo di una
metodologia generale che resta indirizzata all’individuazione di pochi
principi esplicativi fondamentali.
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 65

La concezione unificazionista 65

Kitcher ritiene che proprio l’unificazionismo fornisca una buona ri-


sposta ad alcuni dei problemi lasciati irrisolti dalla “visione ricevuta”.
In particolare, accettare una concezione della spiegazione scientifica
che non renda conto dell’asimmetria tra explanans ed explanandum, o
che consenta di includere nelle permesse informazione irrilevante,
equivale a scegliere come esplicativi argomenti dotati di minore pote-
re unificante. Riprendiamo l’esempio dell’asta e dell’ombra descritto
nel capitolo 1. Come abbiamo visto, attenendoci ai modelli hempelia-
ni potremmo inferire l’altezza dell’asta dalla lunghezza dell’ombra che
essa, ad una certa ora del giorno, proietta a terra, nonostante sia, piut-
tosto, la prima a spiegare la seconda. Adottare un argomento esplica-
tivo che non tenga debitamente conto del carattere asimmetrico del-
la spiegazione significa, però, unificare meno. Poniamo infatti – sug-
gerisce Kitcher – di avere un modello esplicativo generale secondo il
quale le dimensioni degli oggetti devono essere ricondotte alle condi-
zioni nelle quali sono stati generati e alle modifiche che hanno, even-
tualmente, successivamente subito. Aggiungere un altro modello che
spieghi le dimensioni degli oggetti sulla base delle dimensioni delle
ombre che proiettano equivarrebbe ad aumentare il numero di mo-
delli esplicativi adoperati, senza aumentare il numero di conclusioni
che da questi si possono trarre; adottare, d’altra parte, solo il model-
lo esplicativo concernente le ombre ci permetterebbe di derivare me-
no conclusioni del precedente, poiché in molti casi gli oggetti non pro-
iettano ombre tali da permetterci di derivare le loro dimensioni. Pren-
diamo un altro esempio: immaginiamo di avere un bicchiere d’acqua
e di sciogliervi del sale mentre pronunciamo una formula magica.
Questo esempio – analogamente all’esempio della pillola anticonce-
zionale assunta da un uomo, presentato nel capitolo 1 – è stato elabo-
rato per far emergere i limiti del modello N-D: benché, infatti, la for-
mula magica sia del tutto irrilevante rispetto al fatto che il sale si scio-
glie, essa può figurare nell’explanans di un argomento N-D che sod-
disfa tutti i requisiti hempeliani. In una prospettiva unificazionista
possiamo facilmente sostenere che l’aver pronunciato una formula ma-
gica è irrilevante ai fini della spiegazione, perché non posso fare rife-
rimento ad essa per unificare un ampio numero di fenomeni simili; vi-
ceversa attraverso le proprietà chimiche del sale posso spiegare un al-
to numero di fenomeni dello stesso tipo. Spiegare facendo appello al-
la formula magica significa fare appello a una caratteristica del tutto
accidentale e circoscritta; spiegare nei termini delle proprietà chimi-
che significa adottare un modello esplicativo con portata generale.
L’unificazionismo suggerirebbe infine un modo di intendere la nozio-
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 66

66 Capitolo 4

ne di legge scientifica: «le proposizioni accettate come leggi ad un cer-


to stadio di sviluppo della scienza […] sono le premesse universali
che figurano in derivazioni esplicative» [Kitcher 1989, 447].
Pur riprendendo l’ispirazione di fondo della posizione di Fried-
man, Kitcher pensa che quest’ultimo abbia mancato di porre l’accen-
to sull’aspetto che più propriamente deve caratterizzare la concezio-
ne unificazionista: non si tratta semplicemente di ridurre il numero di
fenomeni che risultano incomprensibili, ma di individuare connessio-
ni e rapporti tra situazioni che inizialmente appaiono slegate. Da que-
sto punto di vista, secondo Kitcher un passo fondamentale viene com-
piuto assumendo come centrale il concetto di “derivazione”: la scien-
za incrementa il nostro sapere indicandoci come derivare le descri-
zioni di molti fenomeni usando più e più volte i medesimi modelli di
derivazione.
Una particolare derivazione – ad esempio, la successione di proposi-
zioni e formule che si trova in un’opera scientifica – costituisce un mo-
dello solo nel caso in cui: (i) la derivazione abbia il medesimo nume-
ro di termini dell’argomento schematico del modello generale; (ii) cia-
scuna proposizione o formula nella derivazione possa essere ottenuta
dalla proposizione schematica corrispondente, conformemente alle
sue istruzioni; (iii) i termini della derivazione abbiano le proprietà as-
segnate dalla classificazione ai membri corrispondenti dell’argomen-
to schematico [Kitcher 1989, 432-433].

Ponendo l’accento sulla nozione di derivazione, Kitcher lega il suo


approccio a una visione deduttivistica della spiegazione, tanto da so-
stenere che «il deposito esplicativo contiene solo argomenti dedutti-
vi. In un certo senso, tutta la spiegazione è deduttiva» [Kitcher 1989,
448, corsivo nel testo]5. Kitcher si riferisce a questa tesi come alla te-
si dello “sciovinismo deduttivo”, ritenendolo una posizione non solo
ragionevole, ma altresì in grado di aggirare importanti problemi rela-
tivi anche alla spiegazione statistica di eventi singoli. Un primo tipo di
casi è quello analizzato da Hempel nel modello S-I, caratterizzato dal
requisito di alta probabilità induttiva. Se stiamo spiegando, ad esem-
pio, la guarigione di un paziente affetto da una specifica patologia e
curato con un farmaco che presenta una certa probabilità di succes-

5
Kitcher ritiene che non ci sia in linea di principio alcuna proibizione ad usare ar-
gomenti non deduttivi nella sistematizzazione delle nostre conoscenze, ma che usare
argomenti non deduttivi renda tale sistematizzazione, nonché il confronto di possibili
sistematizzazioni alternative l’una all’altra, più difficile.
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 67

La concezione unificazionista 67

so, oppure un atto criminoso compiuto da un individuo appartenen-


te a un certo contesto socio-economico,
consideriamo l’approccio probabilistico alla spiegazione come il so-
stituto della spiegazione sottesa, deduttiva, non ancora nota. […] L’ar-
gomento probabilistico ha successo pragmatico perché abbiamo ra-
gione di pensare che esibisca parte di una base deduttiva per la spie-
gazione del fenomeno, dove una base deduttiva consiste in quelle pro-
prietà che sarebbero attribuite, nelle premesse di una spiegazione de-
duttiva completa, all’oggetto menzionato nell’explanandum [ibid., 449,
corsivo nel testo].

Questo tipo di approccio non può però valere in rapporto ai fe-


nomeni di carattere irriducibilmente indeterministico, come nel caso
della meccanica quantistica. Lo sciovinismo deduttivo dovrebbe al-
lora portare a distinguere tra due sensi in cui un resoconto di carat-
tere esplicativo può essere ideale: in una prima accezione, un reso-
conto massimamente soddisfacente è una derivazione deduttiva che
rappresenta un modello incluso nel deposito esplicativo; in una se-
conda accezione, un resoconto esplicativo ideale è il migliore che il fe-
nomeno in questione consente. Gli sciovinisti deduttivi dovrebbero
dunque ammettere che la meccanica quantistica, o altre teorie inde-
terministiche,
potrebbero essere le migliori tra quelle disponibili, che potrebbero for-
nire resoconti esplicativi ideali nel secondo senso, mentre dovrebbe-
ro negare che forniscano resoconti esplicativi ideali nel primo senso.
[…] Le nostre spiegazioni macroscopiche di eventi individuali com-
portano delle idealizzazioni dei fenomeni, delle derivazioni deduttive
che sono vere se riferite ai sistemi ideali, e delle asserzioni concernenti
le probabili differenze sussistenti tra i sistemi ideali e quelli reali. Que-
ste asserzioni giustificano le nostre idealizzazioni [Kitcher 1989, 450
e 454, corsivo aggiunto].

Secondo Kitcher, ogniqualvolta vogliamo elaborare la spiegazione


di un evento o di un fenomeno singolo, il primo passo che compiamo
è l’elaborazione di una descrizione idealizzata dell’evento o fenomeno
in questione, trasformando la domanda “perché questo evento si ve-
rifica?”, o “perché questo fenomeno si comporta in questo modo?”,
nella domanda “perché gli eventi/fenomeni ideali di questo tipo ma-
nifestano queste proprietà?”. Siamo soliti giustificare questo modo di
procedere sostenendo che il passaggio dalla descrizione dell’even-
to/fenomeno effettivo alla sua idealizzazione non comporta variazio-
ni di rilievo:
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 68

68 Capitolo 4

«giochiamo a “facciamo finta che …”, e forniamo un resoconto de-


duttivo di come le cose funzionerebbero in un mondo più semplice,
più ordinato. […] Riteniamo che le derivazioni fornite spieghino i fe-
nomeni reali perché siamo in grado di argomentare che è improbabi-
le che il mondo reale presenti differenze significative con il mondo
ideale» [ibid., 453].

La spiegazione includerà delle proposizioni che descrivono in che


misura i fattori effettivamente presenti siano in grado di allontanarci
dalle conclusioni ideali del nostro ragionamento. In conclusione, «l’ac-
cettazione dello sciovinismo deduttivo facilita lo sviluppo dell’idea che
la spiegazione sia unificazione» [ibid., 459].

4.3 Spiegazione, unificazione e causalità

L’elaborazione della prospettiva di Kitcher è stata accompagnata da


un dibattito tra unificazionismo e approccio meccanicistico-causale
alla spiegazione. Come abbiamo visto, per l’unificazionismo spiegare
equivale a ricondurre caratteristiche non fondamentali dei fenomeni
a caratteristiche basilari, descrivibili attraverso pochi principi genera-
li. Questo modo di procedere segue una direzione “dall’alto verso il
basso” (top-down) e fa dipendere il potere esplicativo di un modello
unicamente dalla sua capacità di unificare. L’unificazionista si prefig-
ge anzitutto di individuare schemi esplicativi il più possibile ampi; so-
lo in un secondo tempo scende, per così dire, da tale livello al piano
delle relazioni specifiche e dei fatti particolari, attribuendo una fun-
zione esplicativa a proprietà e processi causali solo se è possibile ri-
correre ad essi per fornire un resoconto unificato di un certo insieme
di fenomeni.
Il “perché” della causalità deriva sempre dal “perché” della spiega-
zione; […] la nozione di rilevanza causale non ha alcun significato in-
dipendente da quello della nozione di rilevanza esplicativa, e que-
st’ultima non ha altro significato che quello di [...] compiere una si-
stematizzazione delle conoscenze scientifiche, guidata dalla ricerca di
unificare i fenomeni [ibid., 477 e 499].

I sostenitori della visione meccanicistico-causale seguono invece


l’indirizzo opposto, “dal basso verso l’alto” (bottom-up), muovendo
dall’analisi di fatti particolari all’individuazione di meccanismi genera-
li, e attribuiscono ai meccanismi valore esplicativo solo in quanto essi
sono dotati di carattere causale. Kitcher riconosce che nessuno ha an-
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 69

La concezione unificazionista 69

cora sviluppato una visione top-down dotata di profondità e comple-


tezza pari a quelle che caratterizzano la visione bottom-up di Salmon,
ma ritiene scorretto assegnare, come fa Salmon, la capacità esplicativa
alle relazioni causali piuttosto che all’attività di unificazione. Mentre
per Salmon la relazione di rilevanza esplicativa deriva dalla rilevanza
causale, per Kitcher le priorità devono essere invertite: «notiamo la ca-
pacità esplicativa di proprietà e di processi [...] apprezzando la possi-
bilità di usarli per fornire un resoconto unificato dei fenomeni [...]. Il
nostro riconoscere un ordine esplicativo precede, e rende possibile, la
nostra identificazione di relazioni causali» [Kitcher 1985, 638-639].
Come abbiamo visto nel capitolo 2, Kitcher fa proprie alcune preoc-
cupazioni di carattere empirista, di matrice humiana, relative all’ac-
cessibilità epistemica dei nessi causali e alla possibilità di definirli in
modo non problematico6. L’unificazionismo evita accuratamente que-
sti problemi, poiché non postula l’esistenza di alcun ordine causale tra
i fenomeni al di sopra e al di là dell’ordine evidenziato dalle derivazio-
ni unificanti: le proposizioni causali che accettiamo derivano sempre e
solo dai nostri sforzi di unificazione. Facendo appello alle interazioni
causali si ottiene − secondo Kitcher − un modello di spiegazione ap-
plicabile ad un campo di fenomeni più ristretto rispetto a quello spie-
gato seguendo i canoni unificazionisti, e non si raggiungere il vero com-
pito della spiegazione scientifica, che è quello di individuare le regola-
rità di vasta portata che governano la natura. L’unificazione non è una
caratteristica contingente, bensì il carattere costitutivo della spiegazio-
ne scientifica: le spiegazioni hanno valore non prese separatamente, ma
in quanto forniscono un quadro sistematico dell’ordine naturale. Men-
tre secondo Salmon giungiamo a comprendere un fenomeno quando
possiamo spiegare perché si è verificato, a detta degli unificazionisti
comprendere un fenomeno equivale a individuare la sua collocazione
in una visione globale del mondo. Viene richiesto, in altri termini, non
di illustrare come un certo fenomeno funzioni, bensì di esibire i princi-
pi generali che lo governano, realizzando il miglior compromesso pos-
sibile tra la minimizzazione del numero di premesse e la massimizza-
zione del numero di conclusioni degli argomenti esplicativi utilizzati.
Alla posizione di Kitcher Salmon risponde notando che, così come
la concezione hempeliana, anche quella unificazionista manca di di-

6
Le critiche di Kitcher alle nozioni di processo causale e interazione causale pro-
poste da Salmon, e al suo uso di controfattuali nella definizione del criterio di tra-
smissione dei marchi, sono contenute in Kitcher [1989, 462-475].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 70

70 Capitolo 4

stinguere adeguatamente tra conoscenze descrittive ed esplicative, poi-


ché equipara queste ultime unicamente ad una sistematizzazione ge-
nerale e coerente dei fenomeni. Anziché enfatizzare le differenze tra
le due posizioni, Salmon cerca però di proporne un confronto che,
per quanto possibile, le accosti e ne riveli la complementarietà. Egli ri-
tiene che la nozione di unificazione rivesta grande importanza e che
l’unificazionismo possa risultare in ultima istanza compatibile con il
suo meccanicismo probabilistico: «le due prospettive sono ugualmente
legate alla nozione di “legge di copertura” e all’idea che la nostra com-
prensione del mondo compia dei passi avanti grazie all’unificazione
di fenomeni diversi sotto principi generali» [Salmon 1985, 651]. Que-
sto fine si persegue anche attraverso l’individuazione di meccanismi,
giacché molti di questi sono responsabili del verificarsi di un alto nu-
mero di fenomeni, che collegano in una sorta di grande rete: «nella
misura in cui scopriamo l’esistenza di meccanismi fondamentali di
portata estremamente ampia, riveliamo anche i principi unificanti che
governano la natura» [Salmon 1998, 90]. È inoltre nei casi in cui un
modello meccanicistico-causale configurato come quello di Salmon
risulta di difficile applicazione – come, ad esempio, la meccanica quan-
tistica – che quello unificazionista può rivelarsi come un modello par-
ticolarmente utile7. Vedremo nel prossimo capitolo come per avvici-
nare le due visioni della spiegazione Salmon proponga di ricorrere ad
alcune nozioni elaborate da Peter Railton, quali quelle di “testo espli-
cativo ideale” e di “informazione esplicativa”, e come il dibattito più
recente abbia elaborato varie posizioni in merito alle possibili relazio-
ni tra unificazionismo e concezione causale della spiegazione. Se è so-
prattutto Salmon ad indicare le linee per un riavvicinamento dei due
approcci, anche Kitcher lascia, infine, uno spiraglio in tale direzione.
Il suo saggio Explanatory Unification and the Causal Structure of the
World si conclude con l’affermazione che «la crescita della scienza è
in parte guidata dal desiderio di spiegare, e spiegare significa inserire
i fenomeni in una visione il più unificata possibile. Ciò che emerge al
limite di questo processo non è niente di meno che la struttura causa-
le del mondo» [Kitcher 1989, 500].

7
Kitcher annovera la meccanica quantistica, la linguistica formale e la matemati-
ca tra i settori in cui l’unificazionismo può riscuotere maggiore successo [si veda Kit-
cher 1985, 637].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 71

La concezione unificazionista 71

4.4 Critiche e proposte

La concezione unificazionista ha continuato ad essere oggetto tan-


to di critiche quanto di approfondimenti, intrecciati a riflessioni su te-
mi filosofici di ampia portata, quali il riduzionismo e la natura della
comprensione scientifica. La plausibilità dell’intuizione che la spiega-
zione abbia il potere di unificare fenomeni inizialmente ritenuti sepa-
rati viene pressoché unanimemente riconosciuta, mentre il suo ruolo
nella definizione della spiegazione scientifica viene a volte enfatizza-
to, a volte ridimensionato.
Prendiamo in esame alcune delle affermazioni di Friedman e Kit-
cher:
la scienza aumenta la nostra comprensione del mondo riducendo il
numero dei fatti indipendenti che dobbiamo accettare come bruti
[Friedman 1974, 15];
usando pochi modelli argomentativi per derivare molte conoscenze
portiamo al minimo il numero di tipi di premesse che dobbiamo as-
sumere come non-derivate. In altri termini, riduciamo, per quanto
possibile, il numero di tipi di fatti che dobbiamo accettare some bru-
ti [Kitcher 1981, 529];
la scienza ci permette di far progredire la nostra comprensione della
natura mostrandoci come si possano derivare descrizioni di numero-
si fenomeni dall’adozione ripetuta dello stesso modello e, nel dimo-
strare questo, ci insegna a ridurre il numero di fatti che dobbiamo ac-
cettare come primitivi [Kitcher 1989, 423].

Sorge dunque il problema di definire cosa s’intenda per fatto “pri-


mitivo” o “bruto”. Con questa espressione sembra si possa indicare un
fatto per il quale non esiste un’ulteriore spiegazione. Si presenta però
subito un’ambiguità: stiamo parlando di un fatto la cui spiegazione ci
è ignota per ora, ma che riteniamo potrà essere un giorno elaborata,
o di un fatto fondamentale che non risulterà mai ulteriormente espli-
cabile? Si tratta, in altri termini, di fatti epistemologicamente bruti o on-
tologicamente bruti? Nel caso in cui scegliamo la seconda opzione,
stiamo pensando a fatti fisici fondamentali, da cui derivano in qualche
modo tutti gli altri fatti di natura? E se uno dei problemi fondamen-
tali è chiarire che cosa si intenda per “fatto fondamentale”, aderire al-
l’unificazionismo comporta anche un’adesione, più o meno esplicita,
a qualche forma di riduzionismo? Illustriamo qui di seguito median-
te degli esempi alcuni dei modi in cui il dibattito sull’unificazionismo
si è intrecciato con quello sul riduzionismo.
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 72

72 Capitolo 4

Che rapporto sussiste tra la presenza di “fatti bruti” e la nostra


comprensione del mondo? Secondo Eric Barnes [1994] avremo una
carenza di comprensione scientifica solo nel caso in cui gli scienziati
non sappiano di essere in presenza di fatti bruti, e si ostinino a cer-
carne una spiegazione, senza comprendere che costituiscono solo i co-
stituenti basilari della realtà. «Un mondo che contenga solamente fat-
ti ontologicamente bruti è perfettamente compreso una volta che sia
noto che tali fatti sono effettivamente bruti da un punto di vista on-
tologico» [Barnes 1994, 64]. A suo avviso, un limite dell’approccio
unificazionista è proprio la mancanza di chiarezza su questo aspetto.
Nella misura in cui aderisce alla convinzione che maggiore è il nume-
ro di “fenomeni indipendenti” esistenti, minore è la nostra compren-
sione del mondo, l’unificazionista sposa chiaramente l’idea che un
mondo con molti fatti ontologicamente bruti sia meno comprensibile
di uno con meno. Secondo Barnes, non distinguendo tra fatti “epi-
stemologicamente” e “ontologicamente” bruti e non specificando ade-
guatamente cosa intendano per fatti bruti o primitivi, Friedman e Kit-
cher rischiano di fornire una teoria della spiegazione che convince non
grazie ad un forte impianto concettuale, ma solo in virtù dei partico-
lari esempi che porta (la genetica mendeliana, la teoria di Darwin o
quella di Dalton sui legami chimici)8.
Il rapporto tra unificazionismo e riduzionismo chiama in causa an-
che il rapporto tra scienze naturali e scienze sociali. Nella letteratura
epistemologica sono numerose le posizioni ancorate all’idea che l’og-
getto di studio delle scienze sociali siano sistemi e processi dotati di
grande variabilità e complessità. È dunque possibile adottare l’unifica-
zionismo come concezione della spiegazione nell’ambito delle scienze
sociali? La validità dell’unificazionismo come approccio alla spiegazio-
ne può variare a seconda delle discipline a cui si cerca di applicarlo?
Uskali Mäki sostiene che per rispondere a tale interrogativo sia anzi-
tutto necessario distinguere due diversi tipi di unificazione: l’unifica-
zione può essere intesa come una procedura di derivazione formale di
alcune proposizioni da altre, oppure come unificazione in senso onto-
logico, e dipendere così dal grado di effettiva uniformità del mondo.
L’idea che l’unificazione sia una procedura inferenziale che permette
di ridurre il numero di proposizioni da accettare indipendentemente
l’una dall’altra viene battezzata da Mäki “unificazione derivazionale”
(derivational unification) o logica; l’idea invece che unificare significhi
impegnarsi ontologicamente in merito alla capacità rappresentativa del-

8
Si veda Barnes [1994, 65-66].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 73

La concezione unificazionista 73

le teorie è alla base dell’“unificazione ontologica” (ontological unifica-


tion). Mentre la prima si focalizza sul rapporto sussistente tra modelli
di spiegazione e loro conclusioni, la seconda evidenzia le relazioni tra i
tipi di fenomeni a cui fanno riferimento le teorie e il numero di entità
fondamentali a cui tali fenomeni possono essere ricondotti. Le due for-
me di unificazione possono essere abbracciate insieme, oppure l’una
indipendentemente dall’altra9. Mäki prende in considerazione un caso
specifico, quello dell’economia, dove ritiene che l’ideale unificazionista
costituisca una spinta di grande rilievo: molti risultati teorici vengono
salutati con entusiasmo in quanto unificanti, e, viceversa, la mancata
capacità di unificare di una teoria viene spesso citata dagli economisti
come una delle migliori ragioni per respingerla. Teorie economiche do-
tate di un forte potere di unificazione sono la teoria della domanda e
dell’offerta e la teoria della massimizzazione dell’utilità attesa, che pos-
sono suggerire l’utilizzo ripetuto dei medesimi argomenti esplicativi in
un elevatissimo numero di situazioni, senza alcuna implicazione onto-
logica. È in questo stesso senso che va inteso – secondo Mäki – l’unifi-
cazionismo di Kitcher, come si evince anche dalla sua trattazione della
causalità, priva di uno statuto non epistemico. L’opzione di Kitcher non
è, in ogni caso, l’unica possibile. Una prospettiva diversa è offerta dal-
l’unificazione ontologica, che
ri-descrive fenomeni apparentemente indipendenti e diversi come ma-
nifestazioni (esiti, fasi, forme, aspetti) di un unico, ristretto insieme di
entità, forze e processi. […] La nozione di unificazione ontologica, a
differenza di quella solo derivazionale, dovrebbe pertanto includere
una qualche concezione più profonda del perché l’unificazione vada
perseguita [Mäki 2001, 498].

Nelle opere di alcuni autori della Scuola Austriaca, ad esempio, le en-


tità fondamentali assunte ai fini esplicativi sono le valutazioni soggetti-
ve, le azioni intenzionali individuali e le loro conseguenze inattese:
le istituzioni e i fenomeni economici vengono spiegati descrivendoli
teoricamente come forme o manifestazioni di tali realtà. Queste rap-
presentazioni teoriche possono essere elaborate nei termini di identi-
ficazioni ontologiche analoghe a quelle frequenti nella fisica e nella
chimica, del tipo “l’acqua è H2O” e “la temperatura di un gas è l’ener-
gia cinetica media delle molecole che lo compongono” [ibid., 500].

9
«La mia intuizione è che questa sia una questione contingente; non è necessario
che i due tipi di unificazione siano legati in un modo o nell’altro» [Mäki 2001, 499].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 74

74 Capitolo 4

Identificazioni di questo genere forniscono una base ontologica


per l’utilizzo di un numero ristretto di modelli esplicativi nelle spie-
gazioni di una vasta gamma di fenomeni. «Il progresso esplicativo può
dunque essere definito nei termini di un aumento di unificazione on-
tologica» [ibid., 502]10.
Tutto questo non comporta il mancato riconoscimento della gran-
de variabilità dei fenomeni economici, ma rispecchia semplicemente
il proposito di leggere tale varietà come manifestazione contingente
di una omogeneità situata a un livello più profondo. Mentre nella ver-
sione derivazionale l’unificazionismo figura dunque come un requisi-
to formale, nella sua versione ontologica svolge un’importante fun-
zione nell’ambito della scoperta dei fenomeni e dev’essere perseguito
– conclude Mäki – come approccio alla spiegazione nelle scienze so-
ciali, nonostante la grande varietà dei fenomeni che queste esamina-
no. La diversità dei fenomeni analizzati e l’unificazione degli stessi nei
termini di realtà comuni sottese sono infatti compatibili, e l’unifica-
zione ontologica dev’essere assunta quanto meno come ideale nor-
mativo nella nostra costruzione di teorie economiche.
Il rapporto tra la concezione unificazionista e varie possibili versio-
ni di riduzionismo resta controverso e passibile di diverse interpreta-
zioni. In generale ci sembra possibile concludere che, sebbene la ri-
chiesta di diminuire quanto più possibile il numero di principi o modelli
adottati come esplicativi segnali un possibile indirizzo riduzionista, la
proposta unificazionista resta ben lontana dal suggerire che il nostro
corpus di conoscenze esplicative debba contenere solamente principi o
modelli riferiti a entità o relazioni fondamentali. L’unificazionismo non
comporta necessariamente l’adesione a una concezione rigidamente ed
esclusivamente riduzionista, che potrebbe risultare incompatibile con
molte delle spiegazioni avanzate nelle scienze. Su questa linea, Todd Jo-
nes giunge a sostenere che uno dei capisaldi della teoria di Kitcher spin-
ge proprio in una direzione anti-riduzionista.
Mentre la richiesta di derivare conclusioni dal numero minore possi-
bile di argomenti tende a rendere le nostre spiegazioni riduzioniste, il
requisito secondo il quale il numero delle conclusioni tratte va massi-
mizzato ci impedisce di avere nel nostro deposito esplicativo solo ar-
gomenti che includano entità fondamentali [Jones 1995, 29],

poiché molte delle conclusioni che la scienza trae sono derivate da ge-
neralizzazioni che descrivono entità non fondamentali, bensì di alto li-

10
Si veda anche Mäki [1990].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 75

La concezione unificazionista 75

vello. Jones propone, in ogni caso, di considerare le spiegazioni non ri-


duzionistiche effettivamente prodotte nella pratica scientifica come
spiegazioni “parziali” o “porzioni” di spiegazioni riduzionistiche, che
sono quelle a cui la scienza idealmente tende. Siamo disposti a ritene-
re spiegazioni molti resoconti di carattere non-riduzionistico «solo nel-
la misura in cui – sostiene Jones – si trovano nel giusto rapporto con
il resoconto ideale. […] La teoria unificazionista è pensata per iden-
tificare spiegazioni ideali» [1997, 81], riduzionistiche11. Vedremo nei
prossimi capitoli come, più in generale, il tema del rapporto tra spie-
gazioni ideali e spiegazioni effettivamente elaborate nelle scienze sia
stato affrontato anche da autori quali Railton, Machamer, Darden e
Craver.
Terminiamo questo paragrafo con alcune considerazioni sulle re-
lazioni tra spiegazione, unificazione e comprensione scientifica. Se-
condo Friedman, non è possibile definire la comprensione scientifi-
ca sulla scorta di una teoria della spiegazione fornita in precedenza,
né è possibile pretendere che l’elaborazione di una teoria della spie-
gazione scientifica si radichi in una definizione di comprensione
scientifica preconfezionata: «possiamo scoprire in che cosa consiste
la comprensione scientifica solamente scoprendo che cos’è la spiega-
zione scientifica, e viceversa» [Friedman 1974, 6]. È di fatto proprio
l’incapacità di fornire un quadro convincente di che cos’è la com-
prensione scientifica a costituire – secondo Friedman – il punto de-
bole di diverse visioni della spiegazione, quali quelle di Hempel, Wil-
liam Dray, Michael Scriven, Stephen Toulmin. Kitcher, dal canto suo,
afferma:
Secondo molte visioni della scienza, la ricerca di comprensione è un
obiettivo fondamentale della ricerca scientifica. I tentativi di raggiun-
gere questo obiettivo assumono forme differenti nei vari contesti sto-
rici e disciplinari, ma ci piace pensare che abbiano qualcosa in comu-
ne, qualcosa che ci permette di considerarli tutti come sforzi di rag-
giungere il medesimo scopo [Kitcher 1989, 419].

Qual è il rapporto tra unificazione e comprensione scientifica? An-


che su questo tema la critica filosofica si è divisa. Ilpo Halonen e Jaak-
ko Hintikka [1999] sostengono che la capacità di unificare può essere
una proprietà di rilievo delle teorie scientifiche, mentre non costituisce

11
Per l’esplicitazione di quali requisiti minimi un resoconto debba soddisfare per
essere esplicativo, in quanto “versione” o “porzione” della spiegazione ideale, si ve-
da Jones [1997, 84-92].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 76

76 Capitolo 4

una caratteristica tipica delle spiegazioni. Il procedimento esplicativo


consiste, a loro avviso, nell’individuare le premesse ausiliarie – ad hoc
o, meglio, “ad explanandum” – che consentono di mostrare come una
certa teoria implichi l’explanandum e sono quindi inscindibilmente le-
gate a quest’ultimo. In un approccio di questo tipo l’unificazione non
svolge un ruolo cruciale in rapporto alla spiegazione, riguardando piut-
tosto la formulazione di teorie e la scelta tra teorie rivali.
Una spiegazione non è resa né migliore né peggiore dal successo che
ottiene nel trattare anche altri explananda. È tuttavia plausibile sug-
gerire che una certa teoria è tanto migliore quanti più fenomeni è in
grado di spiegare nello stesso modo, o in modo simile, e quanto più di-
versi sono i fenomeni che riesce a spiegare. […] L’unificazione è un
importante desideratum nella formazione di teorie, mentre non svol-
ge alcun ruolo nel processo esplicativo effettivo di un certo explanan-
dum [ibid., 28, corsivo aggiunto].

Le teorie, non le spiegazioni di eventi particolari, sono volte all’ela-


borazione di un’immagine sistematica e unificata della natura. In quan-
to ricerca di evidenza in grado di indicare come un certo explanandum
derivi da una data teoria, la spiegazione comporta invece essenzialmen-
te l’acquisizione di nuova informazione, e non può essere quindi ridotta
alla semplice adozione di teorie, più o meno unificanti, già esistenti.
Una posizione diversa è stata assunta da Gerhard Schurz, il quale
ha elaborato una visione volta a sottolineare l’importanza dell’unifi-
cazione come aspetto centrale della spiegazione scientifica, unico
aspetto in grado di superare i limiti della concezione hempeliana e di
quella causale. Schurz ritiene che spiegare e comprendere siano se-
manticamente legati, poiché una spiegazione di un certo fenomeno P
risulta soddisfacente se e solo se ci permette di comprendere P. Il bi-
sogno di spiegare P in un certo contesto conoscitivo dipende da come
P si colloca entro un corpus C di conoscenze, e, più precisamente, da
quanto coerente risulta rispetto a queste. «La risposta a una doman-
da di spiegazione è dotata di potere esplicativo solo se porta ad un au-
mento della coerenza totale del corpus di conoscenze» [Schurz 1999,
98]. La nozione di unificazione viene invocata da Schurz poiché con-
sente di «ridurre quanti più fenomeni possibile a quanti meno princi-
pi e fenomeni elementari possibile» [ibidem]12. Secondo Schurz, ogni

12
Schurz sviluppa la sua proposta unificazionista sulla base di un approccio alla
spiegazione del tipo “inferenza alla miglior spiegazione”, che tratteremo nell’ultimo
paragrafo di questo capitolo.
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 77

La concezione unificazionista 77

procedura esplicativa ha quattro elementi: una domanda-perché


(“Perché P?”); lo stato conoscitivo C in cui si trova chi solleva la do-
manda; la risposta A alla domanda; lo stato conoscitivo aggiornato C
+ A. Quando si elabora una spiegazione, lo stato conoscitivo C + A che
ne risulta dev’essere più unificato di C. Parte delle perplessità che l’ap-
proccio unificazionista può suscitare sono legate al riconoscimento
dell’unificazione come l’unico autentico beneficio intellettuale che le
spiegazioni scientifiche sarebbero in grado di produrre13.
È possibile, invece, attestarsi su una posizione intermedia, che, pur
ammettendo il valore dei procedimenti di unificazione, sostenga che
siano gli specifici fenomeni in esame a dover suggerire di volta in vol-
ta se adottare spiegazioni di stampo unificazionista oppure di altro ge-
nere. Erik Weber e Marteen van Dyck, ad esempio, proprio in rispo-
sta alle posizioni assunte da Halonen e Hintikka e da Schurz, riten-
gono che solo alcune spiegazioni consistono in processi di unificazio-
ne, ovvero «nell’esibire come fatti diversi siano casi particolari […]
delle medesime leggi di natura» [Weber e van Dyck 2002, 152].

4.5 L’unificazionismo “vince tutto”?

Pur riconoscendo che l’unificazionismo coglie un aspetto impor-


tante dei resoconti che ambiscono ad avere valore esplicativo, giacché
«in molte aree della scienza la richiesta di unificazione [è] la richiesta
fondamentale, e […] alla luce di questa si determina quali siano i mec-
canismi rilevanti» [Woodward 1989, 365]14, anche James Woodward
ha indicato alcune difficoltà che questo indirizzo può incontrare. In
primis, l’approccio unificazionista, nelle versioni fin qui elaborate, non
tiene conto del fatto che nella scienza il processo di unificazione può

13 Si veda, ad es., Weber [1999].


14 I principi generali dell’unificazionismo possono risultare molto utili per elabo-
rare spiegazioni di comportamenti umani. La teoria evolutiva, per esempio, spiega
l’attività di difesa del territorio o gli atteggiamenti dei genitori verso la prole median-
te pochi principi generali. Poiché gli “antecedenti causali” dello stesso comporta-
mento possono essere molto diversi in organismi diversi, le spiegazioni causali dei
medesimi fenomeni, se mai fossero elaborate in modo completo, risulterebbero varie
ed estremamente complesse. Analogamente, branche della psicologia sono in grado
di fornire resoconti esplicativi generali delle capacità cognitive anche senza «descri-
vere in dettaglio le operazioni di meccanismi neurofisiologici e biochimici, e anche se
le strategie di elaborazione delle informazioni possono avere realizzazioni neurofi-
siologiche molto diverse nei diversi soggetti» [ibid., 366].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 78

78 Capitolo 4

assumere caratteri molto diversi, configurandosi in almeno tre tipolo-


gie. Un primo tipo di unificazione è ottenuta mediante la creazione di
uno schema classificatorio, solitamente corredato di un suo lessico
specifico, come nel caso della classificazione compiuta da Linneo; un
secondo tipo di unificazione comporta la creazione di un formalismo
matematico ampiamente applicabile, come nel caso dei sistemi di
equazioni elaborati da Lagrange e Hamilton, riferiti dapprima alla
meccanica e poi estesi a settori quali l’elettromagnetismo e la termo-
dinamica; un terzo tipo di unificazione concerne il carattere fisico dei
fenomeni, riconducendoli alle medesime cause o meccanismi sottesi,
come nel caso dell’unificazione compiuta da Newton. Di questi tre ti-
pi solo l’ultimo pare avere davvero a che fare con la spiegazione. Wo-
odward nota però come tutti e tre possano essere fatti valere come ca-
si di spiegazione scientifica, secondo la teoria di Kitcher. La sua teo-
ria non è dunque elaborata in maniera abbastanza precisa da distin-
guere unificazioni autenticamente esplicative da unificazioni di natu-
ra descrittiva, che hanno come unico scopo una compressione e or-
ganizzazione formale dell’informazione disponibile.
Un ulteriore rischio che la teoria di Kitcher corre è quello di adot-
tare criteri soggettivi o arbitrari per valutare il potere unificante di una
spiegazione, nonché per confrontare diverse spiegazioni alternative
del medesimo fenomeno dal punto di vista del loro potere unificante.
A parere di Woodward, Kitcher non presenta un resoconto preciso di
come vari elementi da lui introdotti come cruciali in rapporto alla spie-
gazione – il numero di conclusioni ammesse dagli argomenti esplica-
tivi accettati, il numero di modelli accettati e la stringenza di tali mo-
delli – si bilancino e/o compensino l’un l’altro, ritenendo che la mag-
gior parte delle volte risulti chiaro come valutare la bontà di una cer-
ta spiegazione. In questo modo in realtà – sottolinea Woodward – re-
stiamo privi di criteri oggettivi e ci esponiamo al rischio di giudizi ar-
bitrari se chiamati a paragonare il potere unificante, e quindi esplica-
tivo, di teorie diverse15.
Infine, implicazioni problematiche per la teoria unificazionista de-
rivano dalla possibilità che nel medesimo ambito conoscitivo siano
presenti teorie alternative. Da un lato, infatti, sembra plausibile che al-
cune teorie siano esplicative anche se sono note teorie maggiormente

15 Woodward ritiene anche che Kitcher non chiarisca a sufficienza come i sistemi

di conoscenze che singoli individui posseggono si traducano nell’elaborazione di una


sistematizzazione delle conoscenze a livello di comunità scientifica. Si veda Wood-
ward [2003, 369-371].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 79

La concezione unificazionista 79

unificanti; dall’altro lato, la teoria di Kitcher pare comportare che so-


lamente la teoria più unificante abbia carattere esplicativo. Ad esem-
pio,
la legge di Galileo può essere usata per spiegare alcuni aspetti della ca-
duta dei gravi, sebbene fornisca una spiegazione meno unificante di
quella offerta dalle leggi della meccanica e dalla teoria gravitazionale
newtoniane; queste ultime sono a loro volta esplicative, sebbene dota-
te di minor potere unificante rispetto alla relatività generale; le teorie
di Coulomb e Ampère sono esplicative anche se le spiegazioni che for-
niscono sono meno unificanti delle spiegazioni fornite dalla teoria di
Maxwell, e così via. […] Sembriamo [però] indotti [dalla teoria di Kit-
cher] a concludere che in qualunque campo solamente la teoria nota
dotata di maggiore potere unificante sia esplicativa, e che qualunque al-
tra sia priva di un ruolo esplicativo. Chiamo questa concezione unifi-
cazionista della spiegazione “concezione chi-vince-prende-tutto” (win-
ner-take-all conception) [Woodward 2003, 367].

Essa porta ad abbandonare la ragionevole convinzione che una


spiegazione meno unificante di un’altra sia sì meno profonda o in un
certo senso peggiore, ma pur sempre dotata in una qualche misura di
potere esplicativo. Se abbracciamo la convinzione che le teorie forni-
te di minore capacità di unificazione rispetto alle teorie note più uni-
ficanti non siano esplicative, finiremo poi per dover concludere che le
sole teorie ad essere esplicative sono le più unificanti che saranno mai
elaborate.
Dire che T1 è esplicativa ora, in virtù dell’unificazione che raggiunge,
ma che diventa non-esplicativa una volta che diventi nota una teoria
T2 maggiormente unificante, significa relativizzare il successo esplica-
tivo alla nostra situazione conoscitiva in un modo molto radicale (e, sa-
remo propensi a credere, non auspicabile). D’altro canto, pensare che
T1 sia non-esplicativa ora, indipendentemente da quale unificazione
raggiunga, fintanto che esista o possa essere un giorno scoperta un’al-
tra teoria maggiormente unificante, sembra altrettanto insoddisfacen-
te [ibid., 368].

Ciononostante, secondo Woodward è proprio un’assunzione del


tipo “chi-vince-prende-tutto” ad essere sottesa al ragionamento di Kit-
cher. Anche la sua soluzione a problemi quali quelli dell’asimmetria o
dell’irrilevanza suggerisce di relegare nell’ambito delle non-spiegazio-
ni gli argomenti che si appellano, ad esempio, alla lunghezza dell’om-
bra o alla formula magica in quanto meno unificanti di argomenti al-
ternativi, quali quelli che fanno riferimento all’altezza dell’asta e alle
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 80

80 Capitolo 4

proprietà chimiche del sale. Come vedremo nel capitolo 7, Woodward


è stato uno dei principali autori impegnati a partire dagli anni No-
vanta nel tentativo di elaborare una concezione della spiegazione cau-
sale valida per numerose discipline, con presupposti diversi rispetto al
meccanicismo di Salmon e con motivazioni differenti da quelle unifi-
cazioniste. Come vedremo, il potere esplicativo viene fatto dipendere
unicamente dalla capacità di rappresentare un ordine causale del tut-
to indipendente dall’unificazione, e rivelato dall’esito di possibili in-
terventi.

4.6 L’inferenza alla miglior spiegazione

Ci occupiamo infine in questo paragrafo di un modo di intendere


la spiegazione che, benché del tutto autonomo, può essere messo in re-
lazione con l’unificazionismo. Secondo la cosiddetta “inferenza alla
miglior spiegazione”, «quando abbiamo di fronte una serie di ipotesi
in competizione, e ciascuna è empiricamente adeguata rispetto ai fe-
nomeni di un qualche dominio, dovremmo concludere che quella ve-
ra sia l’ipotesi che fornisce la miglior spiegazione» [Ladyman 2002,
ed. it. 2007, 216]. L’espressione “inferenza alla miglior spiegazione” è
stata introdotta da Gilbert Harman [1965], ma questa regola d’infe-
renza era già stata presentata come “abduzione” nel pensiero di Char-
les Peirce. L’idea generale è che questa forma di ragionamento venga
adottato nei casi in cui, di fronte a una gamma di ipotesi tutte in gra-
do di spiegare un certo fenomeno, scegliamo quella che riteniamo es-
sere la miglior spiegazione del fenomeno. La scelta può essere dovu-
ta al fatto che l’ipotesi in questione viene individuata come la più co-
moda, la più semplice, la più coerente con ciò che crediamo, o – e da
qui il possibile legame con l’unificazionismo – come l’ipotesi che con-
sente una visione globale del fenomeno, dotata di maggiore potere
unificante rispetto alle ipotesi alternative. In altri termini, l’inferenza
alla miglior spiegazione può essere messa in rapporto alla ricerca di
poche strutture generali alle quali ricondurre i fenomeni da spiegare.
L’inferenza alla miglior spiegazione ha la forma: se p allora q, q,
quindi p. Prendiamo un esempio di van Fraassen, utilizzato anche in
Okasha [2002, ed. it. 2006] e Ladyman [2002, ed. it. 2007]. Suppo-
niamo di sentire dei rumori graffianti in casa, di trovare delle briciole
accanto alla dispensa e di accorgerci che il formaggio è sparito. Da
questi indizi posso inferire che in casa c’è un topo che ha rubato il for-
maggio. Non si tratta però di un’inferenza deduttiva, giacché le pre-
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 81

La concezione unificazionista 81

messe potrebbero essere vere e la conclusione che ne traggo falsa: è


possibile che, nonostante ciò che sento e la sparizione del formaggio,
in casa non ci sia alcun topo e che sia stata la cameriera a far sparire il
formaggio. La cameriera avrebbe potuto lasciare le briciole per farci
pensare all’opera di un topolino, mentre i rumori raschianti potreb-
bero essere dovuti ad altro, ad esempio al surriscaldamento del boiler.
Ciononostante, l’ipotesi che sia stato il topo a rubare il formaggio re-
sta la più semplice e la più plausibile, e tenderemo così ad assumerla
quale miglior spiegazione dell’accaduto. Inoltre, essa svolge anche una
funzione unificante poiché ci permette di rendere conto contempora-
neamente di tutti i vari indizi raccolti.
Questa forma di inferenza non ha, come è evidente, carattere de-
duttivo. Il rapporto tra inferenza alla miglior spiegazione e induzione
è controverso. Secondo Harman, ad esempio, è l’inferenza alla miglior
spiegazione, tra le due, a svolgere il ruolo fondamentale, poiché ogni-
qualvolta compiamo un’inferenza induttiva passando da numerosi ca-
si osservati a un’asserzione di carattere generale di fatto facciamo im-
plicitamente appello a considerazioni esplicative: l’esistenza di una
certa regolarità generale viene vista come la migliore spiegazione del-
le proprietà che abbiamo osservato nei singoli casi esaminati. Sareb-
be quindi l’induzione a dipendere dall’inferenza alla migliore spiega-
zione. Altri sostengono invece la posizione opposta: è l’inferenza alla
miglior spiegazione a dipendere dall’induzione, dal momento che una
certa ipotesi viene considerata come la migliore spiegazione di un cer-
to fenomeno sulla scorta di informazioni raccolte induttivamente in
passato; è alla luce di conoscenza già accumulata attraverso il ragio-
namento induttivo che siamo in grado di fare appello a una certa ipo-
tesi e di valutarla come quella maggiormente esplicativa. Da questo
secondo punto di vista è, dunque, l’induzione a costituire la forma di
inferenza più fondamentale.
Le riflessioni concernenti l’inferenza alla miglior spiegazione coin-
volgono, più in generale, il nostro modo di soppesare l’evidenza e le
nostre procedure inferenziali. Secondo questo approccio,
le nostre pratiche esplicative guidano le nostre inferenze. Partendo
dall’evidenza disponibile, inferiamo ciò che, se fosse vero, fornirebbe
la migliore spiegazione di tale evidenza. […] [Ad esempio,] di fronte
a impronte sulla neve di un certo tipo, inferisco che una persona con
scarponi da neve è appena passata di lì. Ci sono altre possibilità, ma
compio quest’inferenza perché fornisce la migliore spiegazione di ciò
che vedo [Lipton 1991, 1].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 82

82 Capitolo 4

La presenza di una persona con le scarpe da neve spiega la pre-


senza delle impronte, e al tempo stesso la presenza delle impronte co-
stituisce la mia evidenza esplicativa, ciò su cui fondo la spiegazione.
Comprendiamo che cosa l’evidenza ci indica chiedendoci che cosa
spiegherebbe quell’evidenza. C’è quindi una sorta di circolarità in que-
sto tipo di spiegazioni – B spiega A e A costituisce evidenza per B – che
viene però considerata dai sostenitori dell’approccio come di fatto
molto diffusa nelle procedure esplicative e del tutto innocua: l’evi-
denza è ciò che spieghiamo, e le spiegazioni sono ciò che inferiamo
dall’evidenza proprio perché sono resoconti soddisfacenti dalla stes-
sa [si veda Lipton 2008].
In termini generali, la prospettiva che si richiama all’inferenza alla
miglior spiegazione fa riferimento alla nostra esigenza di stabilire quale
tra un certo numero di teorie in competizione porterebbe, se aggiunta
al nostro insieme di credenze, ad un insieme complessivo di credenze
dotato del maggiore potere esplicativo. Elliott Sober [2003] sottolinea
come sotto certi aspetti questa prospettiva possa essere ritenuta oppo-
sta rispetto a quella suggerita da Hempel. I modelli hempeliani mirano
a stabilire se un certo resoconto è esplicativo o meno: alla domanda “X
spiega Y?”, si risponderà semplicemente “sì” o “no”. Nell’inferenza al-
la miglior spiegazione, invece, l’atteggiamento è di stampo comparati-
vo, poiché ci si chiede: “X spiega Y meglio di Z?”. Inoltre, Hempel in-
tende esplicare il concetto di spiegazione scientifica idealmente comple-
ta, mentre chi procede secondo il ragionamento abduttivo ritiene un
dato di fatto che le ipotesi alternative da valutare raramente forniscono
spiegazioni complete. Anche il rapporto tra queste due posizioni e l’uni-
ficazionismo è diverso secondo Sober, che considera come esse si pon-
gano rispetto alla spiegazione di due osservazioni “simili”16. Assumen-
do che due proposizioni osservative siano simili se applicano i medesi-
mi predicati a individui differenti, Sober riassume così i due approcci:
(1) in una prospettiva abduttiva, dovendo valutare se l’ipotesi U
oppure l’ipotesi D è più plausibile alla luce delle osservazioni O1 e O2,
il fatto che U fornisca un resoconto unificato di O1 e O2, mentre D
non lo fa, viene considerato evidenza a favore di U;
(2) in un’ottica hempeliana, se U e D sono entrambe vere, e U for-
nisce una descrizione unificata di O1 e O2 mentre D non lo fa, U può
costituire una spiegazione di O1 e O2, e D no.

16
Sono simili, ad esempio, l’osservazione che a è verde e quella che b è verde, e
l’osservazione che c corre più veloce di d e quella che e corre più veloce di f [Sober
2003, 206].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 83

La concezione unificazionista 83

In (1) l’unificazione svolge un ruolo di conferma, senza escludere


la possibilità che le uniche spiegazioni vere delle due osservazioni non
abbiano carattere unificante. L’inferenza alla miglior spiegazione ri-
tiene che, una volta chiamati a decidere a quale resoconto esplicativo
credere, consideriamo il potere unificante di U come un punto a suo
favore. Nella prospettiva hempeliana, invece, vogliamo che fenomeni
simili ricevano una spiegazione unificata. «Lo scopo di (1) è aiutarci
a decidere se credere in U o in D; lo scopo di (2), invece, è aiutarci a
decidere quale delle proposizioni nelle quali già crediamo fornisca la
spiegazione delle due osservazioni in questione» [Sober 2003, 206].
Numerose e diverse sono le obiezioni sollevate in merito all’infe-
renza alla miglior spiegazione. Ricordiamo qui brevemente alcune del-
le principali. Nel momento in cui riteniamo di individuare la miglior
spiegazione del nostro corpus di evidenza, come facciamo ad essere si-
curi che si tratti davvero, in modo definitivo e incontrovertibile, del-
la miglior spiegazione, e non piuttosto della spiegazione più adegua-
ta finora, per quello che possiamo sapere ad oggi? Inoltre, non po-
trebbe trattarsi semplicemente della spiegazione migliore all’interno di
un gruppo di spiegazioni tutte scorrette?17 E ancora: qual è il ruolo di
componenti pragmatiche, contestuali o anche totalmente soggettive,
nella scelta di una data spiegazione come la migliore per rendere con-
to di certa evidenza18? Ed è lecito inferire dall’adeguatezza di un cer-
to resoconto esplicativo, in un dato contesto, che tale resoconto è ve-
ro, o approssimativamente vero, o che costituisce una guida affidabi-
le per il raggiungimento di una spiegazione vera? Se non lo è, qual è
la portata conoscitiva dell’inferenza alla miglior spiegazione?
Essa è uno strumento per la formulazione di ipotesi, che richiede at-
tenzione per il contesto, le teorie e lo sfondo utilizzabile per spiegare
i fenomeni, ma che contemporaneamente appare tutta rivolta alla si-
tuazione individuale e al caso particolare. L’abduzione è ibrida per de-
finizione: anche per questo […] [è] difficile descriverne tutte le ca-
ratteristiche [Boniolo e Vidali 1999, 284].

17
Potrebbe essere “the best of a bad lot”. Queste tematiche si intrecciano con il
dibattito tra realismo scientifico e antirealismo. L’inferenza alla miglior spiegazione è
stata infatti invocata dai realisti: l’esistenza delle entità inosservabili costituirebbe la
miglior spiegazione del successo empirico e predittivo delle teorie scientifiche che a
tali entità ricorrono. Si vedano, ad esempio, van Fraassen [1980, ed. it. 1985]; Lipton
[1991, soprattutto cap. 9]; Psillos [1999].
18
Su questo si veda Day e Kincaid [1994].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 84

84 Capitolo 4

Come ricordato, una delle possibili giustificazioni addotte nella


scelta di un dato resoconto come il più esplicativo fa appello al fatto
che esso sia il più semplice e maggiormente unificante. La soluzione
che fa riferimento alla semplicità e alla parsimonia come criteri di scel-
ta della migliore spiegazione solleva, però, obiezioni analoghe a quel-
le che abbiamo già presentato nel corso di questo capitolo:
se gli scienziati usano la semplicità come una guida all’inferenza, que-
sto solleva un problema ulteriore: come sappiamo che l’universo è
semplice invece che complesso? Preferire una teoria che spiega i dati
nei termini del più piccolo numero possibile di cause sembra plausi-
bile. Ma ci sono ragioni oggettive per pensare che una simile teoria
abbia più probabilità di essere vera di una meno semplice? [Okasha
2002, ed. it. 2006, 35].

Su queste ed altre questioni si è acceso un ampio dibattito nel cor-


so degli anni Ottanta e Novanta19. Se torniamo all’esempio delle im-
pronte sulla neve, è pur sempre possibile che esse siano state lasciate
da una scimmia ammaestrata a cui sono state fatte indossare delle scar-
pe da neve, o che siano state eseguite da un artista che crea le sue ope-
re con fenomeni ambientali. È quasi sempre possibile inferire più di
una spiegazione e diventa pertanto cruciale – e controverso – indivi-
duare dei criteri per stabilire qual è la migliore tra le varie spiegazio-
ni in competizione tra loro. In ogni caso, processi inferenziali del tipo
indicato dall’inferenza alla miglior spiegazione sono molto diffusi –
argomentano i difensori di quest’approccio – tanto nella vita di tutti i
giorni quanto nell’attività scientifica: il medico inferisce che il pazien-
te ha il morbillo perché è la migliore spiegazione dei sintomi che pre-
senta; l’astronomo inferisce l’esistenza e il moto di Nettuno in quan-
to migliore spiegazione delle perturbazioni di Urano che ha osserva-
to; Chomsky inferisce che le nostre capacità linguistiche hanno una
certa struttura perché questa fornisce la migliore spiegazione del mo-
do in cui impariamo a parlare [si veda Lipton 1991, 57].
Concludiamo con le parole di Peter Lipton:
è diffusa la convinzione che l’inferenza alla miglior spiegazione forni-
sca una descrizione accurata di un meccanismo fondamentale che re-
gola le nostre pratiche inferenziali, nonché un modo per mostrare per-
ché queste pratiche sono affidabili. Ciononostante, questo modello di

19
Si vedano, ad esempio, Barnes [1995]; Psillos [1996]; Ladyman et al. [1997];
Niiniluoto [1999].
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 85

La concezione unificazionista 85

spiegazione non è stato molto sviluppato. È più uno slogan che una
teoria filosofica articolata [Lipton 1991, 2].

Una delle difficoltà maggiori è dovuta al fatto che il modello si pre-


senta come un tentativo di rendere conto di alcune nostre procedure
inferenziali nei termini della ricerca della miglior spiegazione, ma –
come emerge chiaramente in questo volume – i modi di intendere la
spiegazione sono numerosi e a volte anche piuttosto distanti tra loro.
Il rischio è quindi che l’inferenza alla miglior spiegazione voglia, in ul-
tima analisi,
rendere conto di qualcosa di oscuro nei termini di qualcosa di altret-
tanto oscuro. Potrebbe essere un approccio corretto, ma chiarisce ben
poco. Non permette un’adeguata demarcazione tra ciò che spiega un
fenomeno e ciò che non lo spiega, ed è ancora più lontano dall’aiutarci
a comprendere che cosa renda una certa spiegazione migliore di un’al-
tra [ibidem].

Nel prossimo capitolo presenteremo alcune riflessioni volte a inte-


grare diversi approcci alla spiegazione, per poi passare a trattare, nei
capitoli successivi, le principali concezioni della spiegazione protago-
niste del dibattito dagli anni Novanta ad oggi, tutte di carattere non in-
ferenziale.
04Capitolo_4.qxp:Layout 1 5-02-2013 9:20 Pagina 86
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 87

Capitolo 5

Verso un nuovo consenso?

Verso la fine degli anni Ottanta il dibattito sulle diverse concezio-


ni della spiegazione è stato caratterizzato da una parziale riconcilia-
zione di alcune posizioni, e dalla proposta che fosse possibile costrui-
re una sorta di “nuovo consenso” sul tema della spiegazione. In que-
sto capitolo presenteremo la teoria di Peter Railton, considerata da
Salmon la base su cui costruire il suddetto consenso, ed esamineremo
in che misura essa ha suggerito il riavvicinamento degli approcci mec-
canicistico, unificazionista e pragmatico.

5.1 Railton e il modello D-N-P

All’incirca negli stessi anni in cui Salmon e Kitcher elaboravano le


loro concezioni della spiegazione, Peter Railton ha proposto il mo-
dello “nomologico-deduttivo per la spiegazione probabilistica” (D-N-
P), inteso a superare alcuni limiti della visione ricevuta, pur senza re-
spingerla del tutto. In particolare, è il requisito di alta probabilità in-
duttiva ad essere considerato il principale limite dell’approccio hem-
peliano, nella misura in cui rende inesplicabili tutti gli eventi con bas-
sa probabilità di verificarsi. La spiegazione probabilistica, secondo
Railton, non deve avere carattere induttivo, né rendere l’evento no-
micamente attendibile, bensì indicare i meccanismi stocastici respon-
sabili dell’evento in esame.
Per illustrare il modello D-N-P seguiamo l’esempio portato dallo
stesso Railton. Consideriamo il decadimento alfa di un nucleo di U238:
essendo la vita media di un atomo di questo tipo pari a 6,5 × 109 an-
ni, la probabilità, p, che esso decada in un breve intervallo di tempo
(∆t) è estremamente bassa. Chiamiamo u un certo nucleo di U238 e
supponiamo che esso abbia emesso una particella alfa in un dato in-
tervallo di tempo. Secondo Railton, per spiegare che u aveva, in quel-
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 88

88 Capitolo 5

l’intervallo di tempo, la probabilità p di decadere, possiamo formula-


re il seguente argomento deduttivo [Railton 1978, 214]:
(a) Tutti i nuclei U238 hanno probabilità p di emettere una particel-
la alfa in qualsiasi intervallo di durata ∆t, a meno che essi non siano
soggetti a radiazioni ambientali.
(b) Il nucleo u era un nucleo di U238 nell’istante t, e non è stato sog-
getto ad alcuna radiazione ambientale nell’intervallo di tempo (t, t +∆t).
(c) Il nucleo u ha una probabilità p di emettere una particella alfa
nell’intervallo (t, t +∆t).

(a) è una legge «irriducibilmente probabilistica, che incorpora tut-


ti i fattori rilevanti per l’evento dal punto di vista probabilistico» [Sal-
mon 1989, ed. it. 1992, 258], e l’argomento deduttivo risponde ai re-
quisiti di una spiegazione N-D hempeliana. L’argomento specifica che
u aveva, in quell’intervallo di tempo, una probabilità di decadimento
pari a p, ma non è sufficiente a spiegare il verificarsi del decadimento.
A questo scopo è necessario individuare, secondo Railton, la teoria
che rende conto dei meccanismi responsabili dell’evento da spiegare.
La legge probabilistica verrà derivata dalla teoria meccanicistica. Nel
caso in esame, ad esempio, ricorriamo alla teoria meccanico-quanti-
stica sull’effetto tunnel, e da essa deriviamo (a). Nella teoria di Railton
spiegare significa quindi chiarire il funzionamento dei meccanismi da
cui l’evento viene prodotto. È questo uno degli aspetti della sua posi-
zione che Salmon più apprezza, e che lo porta a includere Railton tra
i sostenitori della concezione ontica della spiegazione scientifica.
L’obiettivo di comprendere il mondo è un obiettivo teorico, e se il
mondo è una macchina – un vasto sistema di connessioni nomiche –
allora la nostra teoria ci deve dare qualche indicazione in merito alla
struttura e al funzionamento di tale macchina, al di sopra e aldilà del-
la capacità di prevedere e controllare i suoi prodotti. […] Conoscere
abbastanza da poter sussumere un evento sotto il giusto tipo di leggi
non equivale a conoscere il come o il perché di quell’evento. […] Le
spiegazioni devono essere più di inferenze potenzialmente predittive
o di indicazioni basate su leggi [Railton 1978, 208].

Includere una teoria meccanicistica è un’operazione fondamenta-


le se si vuole elaborare una spiegazione, e permette di rispecchiare la
pratica scientifica molto meglio di quanto non sia in grado di fare la
visione standard hempeliana, ma non è ancora sufficiente. Per avere
un resoconto esplicativo completo dobbiamo inserire anche una “nota
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 89

Verso un nuovo consenso? 89

parentetica”, che ci informa che il particolare evento in questione non


solo aveva una certa probabilità di verificarsi, ma si è di fatto verifica-
to. La nota parentetica «ci informa, ad esempio, che u ha subito un de-
cadimento alfa in quel certo intervallo di tempo» [ibid., 214]. Una
spiegazione D-N-P del decadimento ha, dunque, in ultima analisi, tre
componenti:
1) la derivazione della legge probabilistica da una teoria meccani-
cistica;
2) l’inferenza di tipo N-D;
3) la nota parentetica.

Una volta completata da 1) e 3), l’inferenza N-D 2) è la spiegazio-


ne probabilistica del decadimento alfa di u. Le spiegazioni D-N-P
danno un resoconto di tipo N-D del meccanismo probabilistico re-
sponsabile del verificarsi dell’evento, e riescono a mostrare che la teo-
ria a cui facciamo riferimento implica l’esistenza di una possibilità fi-
sica, anche estremamente piccola, che il meccanismo produca l’ex-
planandum, in determinate circostanze [ibid., 209]1.

Sebbene una delle componenti della spiegazione D-N-P sia un ar-


gomento inferenziale, la forma della spiegazione non viene identifica-
ta con quella di un argomento logico; la spiegazione viene considera-
ta un “resoconto” più complesso e ampio, formato da varie parti. La
validità di una spiegazione D-N-P viene fatta dipendere dai valori di
verità delle sue premesse e dalla nota parentetica, insieme alla corret-
tezza del procedimento logico. Non si richiede che l’evento abbia al-
ta probabilità di verificarsi, né che la spiegazione individui dei fattori
che aumentano la sua probabilità di accadere. A chi dovesse obietta-
re che allora le spiegazioni D-N-P non spiegano perché un certo even-
to – ad esempio, il decadimento radioattivo di una particella – si veri-
fica, anziché non verificarsi, Railton risponde: «le spiegazioni D-N-P
non lo spiegano, né dovrebbero farlo. Se ci fosse una ragione per la
quale un certo risultato di un processo casuale si presenta, non avrem-
mo a che fare con un processo autenticamente casuale» [1981, 238].

1
Per quanto concerne i valori di probabilità, Railton ritiene che l’interpretazione
filosofica della probabilità più promettente sia quella propensionista. Si veda, ad esem-
pio, Railton [1978, 222]. Per l’interpretazione propensionista della probabilità si ve-
da Galavotti [2000] e [2005].
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 90

90 Capitolo 5

5.2 Testo esplicativo ideale e informazione esplicativa

Una volta proposto il modello D-N-P, Railton nota come nella mag-
gior parte dei casi le informazioni di cui disponiamo non siano così
dettagliate da permetterci di costruire una spiegazione di questo tipo,
ed elabora alcune riflessioni generali sul rapporto tra i modelli espli-
cativi ideali e le conoscenze a cui di solito possiamo effettivamente at-
tingere. Egli muove dalla constatazione che spesso le spiegazioni pro-
babilistiche prodotte dalla ricerca scientifica sono incomplete: pur es-
sendo valide, esse non includono tutti gli elementi che dovrebbero
contenere secondo i modelli ideali che le rappresentano. Questo può
avvenire per diverse ragioni: «in certi contesti, una spiegazione più
elaborata può risultare fuori luogo [...], alcune leggi e fatti rilevanti
possono non essere noti, o possono essere noti solo alcuni loro aspet-
ti qualitativi; chi è chiamato a fornire la spiegazione può semplice-
mente non saperne abbastanza; e così via» [ibid., 239]. Secondo Rail-
ton, sostenere che in circostanze come queste non siamo in grado di
elaborare autentiche spiegazioni significa assumere una posizione ec-
cessivamente rigida. Un attento esame delle molteplici situazioni in
cui di fatto ci si trova ad esporre delle spiegazioni non deve portare a
segnare confini troppo netti tra “spiegazioni”, da un lato, e “non-spie-
gazioni”, dall’altro. È opportuno evitare di tracciare confini rigidi, e
concepire, invece, ciò che ha potere esplicativo come un continuum.
Ad un’estremità di tale continuum, Railton suggerisce si trovi il
“testo esplicativo ideale”. Viene battezzato in questo modo l’insieme
di tutte le conoscenze dettagliate in merito ad un certo fenomeno, tut-
te le connessioni nomiche e causali che lo riguardano. Railton ritiene
che ad ogni explanandum corrisponda un testo esplicativo ideale, con-
tenente tutte le informazioni necessarie per comprendere perfetta-
mente perché l’explanandum si sia verificato. Il testo esplicativo idea-
le risulterà il più delle volte estremamente lungo e complicato, e solo
raramente, o forse mai, saremo in grado di descriverlo completamen-
te. Dovremmo, infatti, aver accumulato innumerevoli informazioni:
«se consideriamo le miriadi di molecole, atomi, particelle subatomiche
ed interazioni coinvolte negli eventi [...], è facile capire che il testo
esplicativo è un obiettivo che forse non verrà mai raggiunto» [Salmon
1989, ed. it. 1992, 265], e che resta tuttavia l’ideale da perseguire.
Il livello di conoscenza cui normalmente ed effettivamente perve-
niamo è quello dell’“informazione esplicativa”. Disponiamo, cioè, di
insiemi di asserzioni dotate di forza esplicativa che non rispondono
perfettamente ai requisiti formali delle spiegazioni, ma che ci permet-
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 91

Verso un nuovo consenso? 91

tono di raggiungere una certa dimestichezza con l’explanandum e di ri-


spondere almeno ad alcune domande sul suo conto. Railton ritiene
che tali insiemi di asserzioni veicolino informazione esplicativa se sve-
lano alcune caratteristiche del testo esplicativo ideale e permettono di
ricostruirne alcune porzioni. Le asserzioni vengono considerate espli-
cative se forniscono informazioni in merito al testo esplicativo ideale,
e corrette se ciò che dicono di tale testo è vero. È importante sottoli-
neare che l’informazione esplicativa deve riguardare il contenuto del
testo esplicativo ideale, e non solamente la sua forma. Nel continuum
di potere esplicativo cui Railton fa riferimento, le asserzioni che non
contengono informazione esplicativa si situano all’estremità opposta
rispetto al testo esplicativo ideale.
L’informazione esplicativa fornisce una parte del testo esplicativo
ideale, mantenendosi spesso ad un livello informale di esposizione e
restando legata al conteso conoscitivo nel quale viene espressa. Per
chiarire la natura del rapporto tra testo esplicativo ideale e informa-
zione esplicativa, Railton lo paragona al rapporto esistente tra un te-
sto scritto, ad esempio un romanzo, e il suo riassunto. Esempi di in-
siemi di conoscenze che si situano al livello di informazione esplicati-
va sono dati dai manuali scolastici e dai testi scientifici divulgativi, che
consentono un primo approccio a questioni di grande complessità, ri-
correndo, ad esempio, ad analogie con fenomeni già noti al lettore. In
generale, l’informazione esplicativa viene espressa in un linguaggio
non troppo specifico e tralascia gli aspetti tecnici di più difficile com-
prensione. Essa non basta a
ricostruire un pezzo di notevoli dimensioni del testo esplicativo idea-
le; è sufficiente solo ad illuminare qualche caratteristica essenziale del-
l’intero testo. Ma delucidare una caratteristica cruciale significa tra-
smettere una quantità d’informazione tutt’altro che insignificante, ed
essere, così, ben lontani dal punto zero del nostro continuum [Railton
1981, 240].

L’informazione esplicativa ci permette di dare così delle risposte


nei casi in cui – e sono la maggioranza – fornire un resoconto di tipo
ideale risulterebbe impossibile.
La ricerca scientifica ha il compito di fornire informazioni accura-
te in merito alle porzioni di testo esplicativo ideale rilevanti rispetto a
ciò che è di volta in volta oggetto di studio. Gli scienziati si dividono
le sfere d’indagine e sviluppano la loro capacità di fornire spiegazioni
pertinenti ad un certo settore. Ciò che conta «non è produrre testi
esplicativi ideali, ma essere in grado, almeno in linea di principio, di
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 92

92 Capitolo 5

produrre parti di tali testi», concentrandosi su aspetti che possono es-


sere, per esempio, «macroscopici o microscopici, fondamentali o fe-
nomenici, storici o geologici o cosmologici» [ibid., 247]. L’obiettivo ul-
timo, la comprensione completa del mondo, viene perseguito attra-
verso sguardi successivi alla struttura e al funzionamento dei fenome-
ni, senza la pretesa che alcuna di queste singole “occhiate” fornisca
un quadro esaustivo. In questa prospettiva una spiegazione fornisce in-
formazione autenticamente esplicativa – sia che ce ne rendiamo con-
to sia che non ne siamo consapevoli – unicamente se è in grado di ri-
spondere correttamente ad alcuni quesiti concernenti il testo esplica-
tivo ideale. Stabilire se in un dato contesto epistemico noi riteniamo un
certo corpus di informazioni esplicative è un compito che va invece ri-
servato, conclude Railton, alla pragmatica della spiegazione.
Il testo esplicativo ideale contiene tutti gli aspetti oggettivi della spie-
gazione, e le considerazioni di carattere pragmatico non lo interessa-
no. Esso contiene tutte le considerazioni rilevanti. Quando invece ci
spostiamo nel campo delle informazioni esplicative, le considerazioni
di carattere pragmatico diventano le più importanti. Quale parte del
testo esplicativo ideale dobbiamo chiarificare? Tutte quelle caratteri-
stiche che risultano salienti nel contesto in questione. […] La rile-
vanza è qualcosa di oggettivo, la salienza dipende invece da fattori per-
sonali o sociali [Salmon 1989, ed. it. 1992, 268].

Sebbene molto apprezzata da Salmon, l’idea di testo esplicativo


ideale non è stata immune da critiche. Ricordiamo qui, in particolare,
come James Woodward (si veda cap. 7) ritenga che la strategia sugge-
rita da Railton – e da lui ribattezzata “strategia della struttura nasco-
sta” – sia per certi versi troppo permissiva. Pur concordando che la
spiegazione identifica tratti oggettivi del mondo, secondo Woodward
se sosteniamo che alcune proposizioni causali hanno portata esplica-
tiva perché convogliano una certa porzione di informazione rilevante
in merito alla struttura ideale sottostante rischiamo poi di dover ac-
cettare come esplicative proposizioni che non lo sono affatto. Ad
esempio, la proposizione “la porzione rilevante di testo esplicativo
ideale è di più di 102 parole”2 è una proposizione che trasmette infor-
mazione parziale sul testo esplicativo ideale, ma non è affatto esplica-
tiva. «Per comprendere come le spiegazioni […] funzionano, è ne-
cessario vederle come strutture esplicative di per sé, e non come sem-
plici veicoli per comunicare informazioni relative a spiegazioni sotte-

2
Questo esempio è portato dallo stesso Railton [1981, 246].
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 93

Verso un nuovo consenso? 93

se di forma differente» [Woodward 2003, 181]. Railton ritiene che in


casi come questi si tratti semplicemente di indicazioni che hanno una
portata esplicativa molto ridotta, ovvero che si trovano in un punto del
nostro continuum di esplicatività piuttosto vicino al punto zero, giac-
ché permettono di gettare luce su componenti davvero molto limita-
te del testo esplicativo ideale.

5.3 Salmon e la possibilità di un nuovo consenso

Salmon ritiene che la distinzione tra testo esplicativo ideale e in-


formazione esplicativa possa essere vista come il fondamento su cui
costruire un nuovo consenso, ovvero un nuovo modo condiviso di
concepire la spiegazione scientifica che prenda il posto del “vecchio
consenso” costituitosi attorno ai modelli hempeliani, e disgregatosi
nel corso degli anni Ottanta. L’introduzione della nozione di testo
ideale permette, infatti, di ipotizzare il convergere di posizioni diver-
se: «viene spontaneo chiedersi se il testo esplicativo ideale faccia par-
te della concezione unificazionista, o, piuttosto, della concezione mec-
canicistico-causale. A me sembra che appartenga ad entrambe le con-
cezioni» [Salmon 1989, ed. it. 1992, 305]. L’approccio unificazionista
e quello ontico possono essere infatti concepiti, suggerisce Salmon,
come due modi, diversi ma compatibili, di trattare il medesimo testo
esplicativo ideale: uno stesso fenomeno può essere spiegato tanto il-
lustrando quali sono i meccanismi causali che ne costituiscono la strut-
tura più profonda quanto invocando qualche legge generale. I soste-
nitori dell’approccio meccanicistico-causale e quelli dell’approccio
unificazionista si confrontano col medesimo testo esplicativo ideale,
ma sono mossi da interessi diversi. Scelgono, pertanto, di leggere in
maniera differente tale testo, dal “basso verso l’alto” (bottom-up) o
dall’“alto verso il basso” (top-down), mirando a raggiungere un di-
verso grado di dettaglio.
Riportiamo uno degli esempi adottati da Salmon [1990c] per illu-
strare come visione ontica e visione unificazionista possano essere ri-
tenute complementari. Esiste una particolare specie di farfalla diffusa
nella zona di Liverpool che trascorre la maggior parte della sua vita sui
tronchi dei platani, la cui corteccia è, in condizioni naturali, piuttosto
chiara. Il colore chiaro delle loro ali permette alle farfalle di mimetiz-
zarsi e di sfuggire agli attacchi degli animali di cui sono prede. Nel
corso dell’industrializzazione dell’area, a causa dell’inquinamento del-
l’aria il colore della corteccia dei platani è diventato molto più scuro
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 94

94 Capitolo 5

e, di conseguenza, si è osservata nella zona una prevalenza di farfalle


dalle ali più scure. Nel periodo successivo alla rivoluzione industriale
il tasso di inquinamento attorno a Liverpool si è notevolmente ridot-
to, le cortecce dei platani hanno assunto nuovamente il loro colore na-
turale chiaro, e le farfalle con le ali chiare sono tornate ad essere do-
minanti. I cambiamenti subiti dagli insetti in questione possono esse-
re spiegati in due modi diversi, ma perfettamente compatibili: chi so-
stiene una posizione unificazionista propenderà per una spiegazione
nei termini dei principi fondamentali della biologia evoluzionistica, e
farà riferimento a considerazioni di carattere generale sulla selezione
naturale, le mutazioni genetiche e l’ereditarietà dei caratteri; la spie-
gazione di chi è favorevole all’approccio meccanicistico-causale, in-
vece, esibirà in modo dettagliato l’intreccio di processi ed interazioni
causali dato dal comportamento delle molecole di DNA e RNA coin-
volte nel fenomeno e dalla sintesi delle proteine responsabile della co-
lorazione delle ali delle farfalle. Per essere completa, la spiegazione
causale dovrà tenere conto della nascita, della riproduzione e della
morte delle singole farfalle in esame. Com’è ovvio, una spiegazione di
questo genere, per quanto possibile in linea di principio, risulta estre-
mamente complessa. La bontà di una spiegazione può essere valutata
con parametri diversi, in rapporto alla capacità di unificare, o di esi-
bire nessi causali; tanto la spiegazione causale quanto quella unifica-
zionista sono perfettamente legittime, e nessuna delle due può essere
considerata migliore. Un approccio verrà preferito all’altro perché ri-
tenuto più adeguato in rapporto alla specifica situazione in cui ricor-
re la spiegazione.
La distinzione tra una dimensione causale e una dimensione unifi-
cazionista della spiegazione scientifica potrebbe permettere anche di
superare alcune difficoltà legate al tema della spiegazione scientifica in
settori particolarmente critici per la concezione meccanicistico-cau-
sale: «sembra che la teoria quantistica fornisca spiegazioni di tipo uni-
ficazionista, ma non ne fornisca di tipo meccanicistico-causale. [...]
Lo stesso sembra verificarsi per quanto riguarda le spiegazioni antro-
pologiche o sociologiche di alcune istituzioni umane» [Salmon 1990c,
18]. Nell’ambito delle scienze sociali – suggerisce Salmon – vari fe-
nomeni potrebbero essere adeguatamente analizzati nei termini pro-
posti dalla teoria unificazionista. Consideriamo alcune ricerche com-
piute su popolazioni preistoriche insediate in Arizona e sull’evolversi
delle loro abitudini alimentari. È stato accertato che il mais veniva col-
tivato in Arizona già nel 2000 a.C., ma che non costituì una coltura do-
minante nell’agricoltura della zona fino al 500 a.C., e che divenne un
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 95

Verso un nuovo consenso? 95

prodotto importante in concomitanza con la produzione di fagioli nel-


la stessa area. Ciò è spiegato dal fatto che il mais non contiene uno de-
gli amminoacidi più importanti, la lisina, di cui sono invece ricchi i fa-
gioli: solo se combinate, le due colture potevano costituire la base del-
l’alimentazione per la popolazione locale. Questo esempio viene im-
piegato per mostrare che la spiegazione delle abitudini alimentari di un
popolo si basa su principi molto generali della nutrizione e della bio-
chimica, e che non è necessario cercare di individuare i dettagli della
storia causale dell’introduzione dei fagioli in quella zona, o dei primi
tentativi di coltivare il mais su larga scala.
Dal momento che Salmon non sostiene ci debba essere un solo mo-
dello di spiegazione universalmente valido, è possibile compiere un
ulteriore passo, e supporre che «si possano applicare principi esplica-
tivi diversi in fisica, psicologia, sociologia, che tengano conto delle ca-
ratteristiche contingenti degli oggetti di queste discipline» [Wood-
ward 1989, 372]. Raccogliendo le indicazioni sul nuovo consenso, si
potrebbe dunque riconoscere l’adeguatezza del modello meccanici-
stico-causale in rapporto, ad esempio, alla meccanica statistica e op-
tare, invece, per l’unificazionismo in discipline quali la sociologia, la
psicologia, l’antropologia, l’archeologia, ritenendolo il modo più adat-
to di leggere il testo esplicativo ideale in questi settori. La proposta di
Salmon va pertanto in una direzione pluralista, ammettendo la possi-
bilità che i medesimi fenomeni siano indagati con strumenti conosci-
tivi diversi: varie concezioni della spiegazione scientifica verranno
adottate nell’ambito di settori disciplinari differenti, per poter meglio
rendere conto degli specifici oggetti di studio. Questo non significhe-
rebbe, comunque, escludere la possibilità che in futuro si sia in grado
di individuare spiegazioni causali dettagliate anche, in particolare, nel-
l’ambito delle scienze umane.
La proposta di considerare compatibili e complementari approccio
meccanicistico-causale e approccio unificazionista passa attraverso il
riconoscimento da parte di Salmon della validità di alcuni suggerimenti
della concezione pragmatica: sono considerazioni di carattere conte-
stuale a determinare quale tra i due metodi di lettura, quello ontico o
quello unificazionista, sia più opportuno adottare in particolari circo-
stanze. Nella scelta del modello esplicativo giocano un ruolo fonda-
mentale gli interessi di chi si interroga, il livello di conoscenza cui si è
già pervenuti e, soprattutto, la parte del testo ideale che si è interessa-
ti a chiarire. Salmon ritiene «utile concepire la diatriba tra oggettivisti
e pragmatisti partendo dal presupposto che gli oggettivisti – i sosteni-
tori della concezione ontica – hanno come punto di riferimento il te-
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 96

96 Capitolo 5

sto esplicativo ideale» [Salmon 1989, ed. it. 1992, 267]. I pragmatisti
si sono occupati, invece, di informazione esplicativa. Questa differen-
za non necessariamente sfocia in un conflitto: grazie alle nozioni di Rail-
ton, le varie prospettive possono coesistere pacificamente.
L’ultimo Salmon riconosce un ruolo al contesto e ammette – pur
senza modificare sostanzialmente la sua posizione – alcune compo-
nenti pragmatiche anche nella sua riflessione concernente, nello spe-
cifico, la spiegazione causale. Di fronte alla domanda, ad esempio,
“quanto estesi o specifici e dettagliati devono essere i processi causa-
li invocati per spiegare un certo fenomeno?”, la risposta risulterà
fortemente pragmatica – dipenderà dalla natura delle nostre indagini.
Per un ingegnere che si occupa di mobilità e trasporti, ad esempio,
un’automobile in corsa sarà un singolo processo. Per un ingegnere che
si occupa di motori d’auto, invece, un’automobile in corsa sarà un si-
stema complesso di processi e interazioni. Per un astronomo, un pia-
neta come la terra, in orbita attorno al sole, può costituire un singolo
processo. Per un geofisico si tratterà di un sistema estremamente com-
plesso di processi e interazioni [Salmon 2002, 113].

Pur restando fedele ad un approccio realistico alla causalità, Sal-


mon ammette così che i risultati delle nostre analisi causali siano for-
temente contestualizzati:
la struttura causale completa è qualcosa di appartenente alla natura,
che esiste indipendentemente dalla nostra conoscenza o dai nostri in-
teressi; non è epistemicamente relativizzata. Si tratta di un’entità estre-
mamente complessa, ma lo è perché è il mondo ad essere estrema-
mente complesso. Le proposizioni che riguardano le relazioni tra cau-
se ed effetti sono solitamente fortemente selettive, e risultano tipica-
mente dipendenti dal contesto [ibid., 126].

È il contesto a suggerirci quali nessi causali – nella miriade di nes-


si presenti – è davvero rilevante individuare ai fini esplicativi in un da-
to contesto. Salmon è consapevole che l’auspicato consenso sulla spie-
gazione scientifica non sarà raggiunto in tempi brevi, ma è anche con-
vinto che si sia imparato moltissimo su questo tema negli anni suc-
cessivi alla pubblicazione di Aspects of Scientific Explanation di Hem-
pel, e che le nuove conoscenze vadano nella direzione della creazione
di un nuovo consenso. Questa prospettiva deriva dalla maturata con-
vinzione che sia vano cercare di esplicare la nozione di spiegazione
scientifica in un’unica maniera onnicomprensiva. Di volta in volta, al-
cune teorie saranno valutate molto positivamente sotto certi aspetti e
negativamente sotto altri.
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 97

Verso un nuovo consenso? 97

Alla fine degli anni Ottanta Salmon, pur presentando un riavvici-


namento di posizioni diverse solo come un’ipotesi su cui lavorare, sot-
tolinea l’accordo raggiunto da tutti coloro che si occupano di spiega-
zione scientifica su alcuni temi fondamentali. Giunti alla fine della
“quarta decade”, a suo avviso tutti ritengono ormai che:
(1) la scienza può dire non solo che i fenomeni hanno certe carat-
teristiche, ma anche perché le hanno e può, così, fornire comprensio-
ne del mondo; le spiegazioni sono il risultato della ricerca scientifica:
«non c’è bisogno di travalicare i limiti della scienza (ricorrendo alla
teologia e alla metafisica) per ottenere spiegazioni riguardanti il mon-
do» [Salmon 1989, ed. it. 1992, 298];
(2) l’opinione ricevuta è inaccettabile e gli strumenti formali usati da
Hempel e da Oppenheim sono inadeguati per trattare della spiega-
zione scientifica;
(3) gli aspetti pragmatici – trascurati dall’opinione ricevuta – rive-
stono ampia importanza.
Questi punti costituiscono secondo Salmon il terreno comune sul
quale auspica che diverse concezioni potranno conciliarsi. A diffe-
renza di quello precedente, il nuovo consenso non verrà a formarsi at-
torno ad un’unica posizione, ma dovrà tenere conto della molteplici-
tà delle prospettive elaborate negli ultimi decenni.

5.4 Sulla scia del nuovo consenso

La prospettiva suggerita a Salmon alla fine degli anni Ottanta è sta-


ta oggetto di ulteriori riflessioni, intese in parte a valutarne la preci-
sione e la plausibilità, in parte a proporre altri modi di integrare, in
particolare, l’approccio meccanicistico-causale e quello unificazionista.

5.4.a La tesi della complementarietà


Secondo Salmon, la concezione meccanicistico-causale e quella uni-
ficazionista possono essere viste come due approcci complementari, in
grado di coesistere pacificamente, in quanto chiarirebbero aspetti di-
versi della comprensione scientifica. Ma che cosa comporta esatta-
mente sostenere che le due visioni sono “complementari”? Rilevando
anzitutto una certa imprecisione e vaghezza in quella che battezza la
“teoria della complementarietà” di Salmon, Henk de Regt propone
una posizione alternativa in merito alla possibile compresenza di teo-
rie differenti. Secondo de Regt, parlare di complementarietà significa
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 98

98 Capitolo 5

intendere anzitutto che la spiegazione causale e la spiegazione unifica-


zionista «non sono solamente due diverse attività conoscitive che per
pura coincidenza sono chiamate entrambe “spiegazione”, ma costitui-
scono due parti o due aspetti di un insieme più ampio» [de Regt 2006,
130]. La definizione di questo insieme più esteso diviene allora la que-
stione principale; se non siamo più autorizzati a definire la spiegazio-
ne in termini unicamente causali, né in termini esclusivamente unifi-
cazionisti, ci troviamo costretti a cercare una caratterizzazione indi-
pendente di cosa significhi spiegare e, più in generale, di cosa signifi-
chi comprendere un fenomeno da un punto di vista scientifico.
Attenendoci alla tesi della complementarietà, dovremmo credere
che l’approccio causale e quello unificazionista sono due strade mu-
tuamente esclusive e congiuntamente esaustive per raggiungere una
comprensione completa, una sorta di “super-comprensione” (supe-
runderstanding, ibidem). In prima battuta, la natura di questa “super-
comprensione” di un certo fenomeno p pare coincidere – nei termini
di Railton – con il testo esplicativo ideale, contenente tutte le connes-
sioni nomiche e causali rilevanti rispetto al presentarsi di p. Più nello
specifico, l’unificazionismo suggerirebbe l’identificazione degli argo-
menti inferenziali che consentono di sussumere l’evento sotto leggi, e
l’approccio meccanicistico permetterebbe di derivare tali leggi da teo-
rie di carattere meccanicistico. Alcune difficoltà però sorgono – nota
de Regt – se abbracciamo l’idea che quella meccanicistico-causale e
quella unificazionista siano le due visioni congiuntamente esaustive
della spiegazione scientifica, e inoltre crediamo, come sembra sugge-
rire Salmon, che la spiegazione causale, di tipo bottom-up, sia sempre
possibile poiché un testo esplicativo ideale avrà sempre dei legami cau-
sali da evidenziare. Sembrano esserci, infatti, dei casi nei quali la scien-
za fa del tutto a meno della spiegazione causale. Situazioni come quel-
la descritta, ad esempio, dal famoso paradosso EPR non risultano per
così dire “in attesa” di una spiegazione causale, bensì paiono sfuggire
a un’interpretazione in termini di causalità locale. Mentre per Salmon
si tratta di un fatto temporaneo, che non esclude l’identificazione, in
futuro, di un testo esplicativo ideale sotteso a questo tipo di fenome-
ni descrivibile causalmente, «la maggior parte dei fisici è soddisfatta
anche senza spiegazioni meccanicistico-causali di alcuni fenomeni
quantistici» [ibid., 140]. Un altro caso è fornito dall’uso in alcune
scienze, come la biologia, la geologia, l’ecologia, di spiegazioni basate
su modelli dinamici non lineari, adottate per rendere conto di feno-
meni complessi la cui descrizione causale sarebbe in linea di principio
possibile, ma risulterebbe, alla prova dei fatti, del tutto inutile. Ruth
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 99

Verso un nuovo consenso? 99

Berger [1998] ha notato che se ci occupiamo, ad esempio, del com-


portamento di colonie di particolari specie di granchi in certe zone
atlantiche con gli strumenti teorici della biologia delle popolazioni,
elaboreremo dei modelli dinamici non lineari, poiché tracciare le sto-
rie causali dei singoli granchi, o anche di loro gruppi, risulterebbe del
tutto irrilevante per una comprensione delle fluttuazioni in quelle co-
lonie. A differenza di quanto suggerito da Salmon e da Railton, in ca-
si di questo genere gli scienziati, in altri termini, non ritengono che le
spiegazioni causali forniscano un contributo necessario e imprescin-
dibile per l’acquisizione di conoscenza scientifica. Ciò contraddice la
teoria della complementarietà, secondo la quale «deve sempre esiste-
re un testo esplicativo causale rilevante che aumenta la nostra com-
prensione» [ibid., 141, corsivo aggiunto] di un certo fenomeno. Non
possiamo risolvere il problema – sostiene de Regt – immaginando che
Salmon abbia equiparato la “supercomprensione” alla porzione di co-
noscenza esplicativa che siamo effettivamente in grado di cogliere, poi-
ché finiremmo per equiparare il testo esplicativo ideale a qualunque
porzione di informazione esplicativa dovessimo ritenere la migliore
disponibile in un certo momento, cosa che ci porta ben lontani dalle
posizioni di Salmon. Pur suggerendo la realizzazione di un nuovo con-
senso mediante la conciliazione di prospettive diverse, Salmon «asse-
gna uno status superiore alla spiegazione meccanicistico-causale, rite-
nendo che una spiegazione di quel tipo – se possibile – resta la mi-
gliore spiegazione. […] [Salmon] resta legato all’idea che l’analisi cau-
sale è la via privilegiata per raggiungere la conoscenza scientifica» [de
Regt e Dieks 2005, 145].
Secondo de Regt e Dennis Dieks, i criteri che dettano il raggiungi-
mento di conoscenza scientifica non sono oggettivi, universali e im-
mutabili come le nozioni di testo esplicativo ideale e di “supercom-
prensione” di Railton e la tesi della complementarietà di Salmon ci in-
durrebbero a credere. Ciò che viene precisamente indicato come “ac-
quisizione di comprensione scientifica” varia nel tempo. La tesi della
complementarietà dev’essere rifiutata perché l’indagine scientifica non
mira invariabilmente al raggiungimento di una “supercomprensione”
con caratteri fortemente causali. Anziché credere nella complemen-
tarietà di due soli approcci, quello meccanicistico-causale e quello uni-
ficazionista, esiste una pluralità di strategie esplicative, e gli scienziati
scelgono di volta in volta gli strumenti esplicativi che preferiscono, se-
guendo criteri variabili.
L’intuizione di Salmon che ci sia una pluralità di strategie esplicati-
ve è corretta; è solo la sua elaborazione di questa intuizione nei ter-
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 100

100 Capitolo 5

mini della tesi della complementarietà ad essere errata. Strategie


esplicative diverse non sono complementari tra loro (nel senso let-
terale di sommarsi per giungere a un intero più esteso), bensì figu-
rano come strumenti alternativi per raggiungere il medesimo scopo
[de Regt 2006, 145].

5.4.b Altre proposte per un nuovo consenso


Sulla scia del suggerimento con cui Salmon chiude 40 anni di spie-
gazione scientifica, anche altri autori hanno valutato negli ultimi anni
la possibilità di conciliare in modi differenti approccio causale e ap-
proccio unificazionista alla spiegazione. Gerhard Schurz e Karel Lam-
bert [1994], ad esempio, riconoscono l’importanza di entrambi gli ap-
procci, ma sostengono che quello causale possa essere ricondotto a
quello unificazionista. Pur sostenendo che la causalità svolge un ruo-
lo fondamentale, ritengono che quella di causa sia una nozione relati-
va alla teoria entro la quale viene impiegata: «ogni corpus scientifico
C contiene alcuni principi generali concernenti la causalità, ovvero
concernenti le caratteristiche strutturali delle connessioni reali tra i fe-
nomeni reali» [Schurz e Lambert 1994, 74]. Altri autori si sono atte-
stati, viceversa, su posizioni che, mentre a prima vista paiono conci-
liare anch’esse unificazionismo e approccio causale, in ultima analisi
esprimono una netta adesione alla visione meccanicistico-causale co-
me approccio fondamentale alla spiegazione. Robert Skipper [1999],
ad esempio, ritiene che l’unificazione possa sì essere perseguita, ma
nei termini dell’individuazione di meccanismi causali di portata par-
ticolarmente ampia. Skipper vuole dimostrare che la concezione uni-
ficazionista nella forma presentata da Kitcher non è adeguata, e che so-
lo una sua rilettura che sottolinei il ruolo primario dei meccanismi
causali può salvare – in una forma rivisitata – anche l’unificazionismo.
Skipper sostiene che in discipline quali la biologia evoluzionistica,
l’immunologia e la neurobiologia i processi di selezione naturale ven-
gono descritti attraverso degli “schemi meccanicistici” (mechanism
schemata)3, ovvero modelli meccanicistici con un certo grado di astra-
zione, ed è solo attraverso questi che i fenomeni in esame possono es-
sere unificati. La specificità dei fenomeni studiati da settori disciplinari
come questi fa sì che siano richiesti modelli meccanicistici che faccia-
no riferimento in modo preciso alle entità coinvolte (es. cellule, neu-
roni, …), alle loro proprietà peculiari e ai processi produttivi che atti-

3
Questa nozione è illustrata nel cap. 6.
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 101

Verso un nuovo consenso? 101

vano. Riferimenti generici a processi selettivi, riproduzione, popola-


zioni discendenti, e così via, come suggerito dalla ricostruzione unifi-
cazionista della selezione naturale proposta da Kitcher, non permet-
terebbero – sostiene Skipper – di rendere ragione dei procedimenti
esplicativi elaborati realmente in queste scienze. Al tempo stesso, la
biologia evoluzionistica, l’immunologia e la neurobiologia presenta-
no degli importanti legami, nella misura in cui tutte e tre studiano fe-
nomeni soggetti a selezione:
questi fenomeni sono simili perché le teorie che li governano sono teo-
rie della selezione, e la loro costruzione è basata sul fatto che si ritie-
ne che un meccanismo di selezione governi i fenomeni in ciascuno di
questi settori. […] Mentre Kitcher ritiene che l’unificazione esplica-
tiva proceda attraverso modelli di argomenti, e che le spiegazioni uni-
ficazioniste siano argomenti deduttivi schematizzati, io credo che l’uni-
ficazione esplicativa proceda attraverso schemi di meccanismi, e che
le spiegazioni unificazioniste siano meccanismi causali unificanti
[Skipper 1999, S204].

L’unificazione si può dunque raggiungere solo attraverso l’indagi-


ne di meccanismi causali pervasivi, identificandone le fasi temporali,
le interazioni tra le componenti e tra i livelli coinvolti.
Gli schemi meccanicistici […] forniscono una connessione unifican-
te sia tra diversi domini in cui agisce la selezione sia tra diversi feno-
meni entro il medesimo dominio. Chiamo questi due tipi di unifica-
zione, rispettivamente, “unificazione inter-dominio” e “unificazione
intra-dominio” [ibid., S205].

Dove possibile, l’unificazione sarà dunque perseguita sempre e so-


lo attraverso la riduzione dei modelli meccanicistici da utilizzare. La
linea argomentativa di Skipper sembra pertanto, in questo senso, vi-
cina a quella di Salmon, ma giocata proprio su uno dei terreni – quel-
lo della biologia – scelto da Kitcher per difendere la sua teoria unifi-
cazionista.
Anche Michael Strevens intende riavvicinare i due approcci, ma
entro una posizione che è fondamentalmente di carattere causale: spie-
gare equivale essenzialmente a specificare le cause responsabili dei fe-
nomeni in esame, mentre l’unificazione entra in gioco solo «per risol-
vere un problema dell’approccio causale, ovvero per determinare qua-
li parti della rete causale sono rilevanti dal punto di vista esplicativo»
[Strevens 2004, 154]. Strevens ritiene che la nozione di testo esplica-
tivo ideale possa avere come indesiderata conseguenza la considera-
zione di ogni singolo fattore causale come rilevante dal punto di vista
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 102

102 Capitolo 5

esplicativo. Tutta l’informazione esplicativa è informazione concer-


nente cause, ma non tutta l’informazione causale è rilevante per la
spiegazione, ed è necessario ricorrere all’idea di “fare una qualche dif-
ferenza rispetto a …” (difference making) per distinguere tra infor-
mazione causale rilevante e informazione causale irrilevante. Solo l’in-
formazione che “fa una qualche differenza” rispetto al verificarsi o
meno dell’explanandum è rilevante dal punto di vista esplicativo4.
L’approccio causale, in generale, individua i processi responsabili de-
gli eventi da spiegare; non tutta la storia causale di un evento risulta,
però, rilevante dal punto di vista esplicativo. Mentre la concezione
causale non sembra in grado di rendere conto delle omissioni e delle
semplificazioni che vengono comunemente compiute ai fini esplicati-
vi, l’approccio unificazionista è capace di rappresentare al meglio pro-
prio questi casi, poiché ha come obiettivo una ricostruzione non mas-
simamente precisa, bensì generale. A differenza di quanto avviene nel-
la concezione unificazionista, nell’approccio di Strevens spiegare si-
gnifica individuare fattori coinvolti nella produzione causale degli even-
ti; d’altro canto, Strevens ritiene che sia la ricerca di modelli generali,
e la possibilità quindi di omettere vari dettagli, a costituire il pregio
dell’unificazionismo, e la via da seguire per identificare ciò che va dav-
vero incluso in una spiegazione scientifica. La “conciliazione” propo-
sta da Strevens assume così caratteri particolari: «mi schiero contro
l’approccio unificazionista e a favore di quello causale, lodando l’ap-
proccio unificazionista, e mostrando come i suoi pregi risiedano nel ta-
cito soddisfacimento dei nostri bisogni causali» [ibid., 173].
Analizzando i diversi modi in cui approccio causale e approccio
unificazionista possono essere combinati, Erik Weber e Jeroen Van
Bouwel, infine, ritengono che la tesi più ragionevole sia la seguente:
«alcune spiegazioni singolari sono miste, ovvero sono sia unificazio-
niste che causali; altre sono puramente causali (non unificazioniste).
Spiegazioni unificazioniste che non siano causali non esistono» [2009,
301]. Richiamandosi a quanto sostengono de Regt e Dieks in merito
alla variabilità nel corso della storia della scienza di ciò che si ritiene
fornisca comprensione scientifica, e quindi alla variabilità dei criteri
mediante i quali un certo contenuto viene definito esplicativo, Weber
e Van Bouwel ritengono che una trattazione adeguata della spiegazio-

4
La proposta di Strevens, di carattere più ampio di quanto non si possa qui rap-
presentare e battezzata “teoria cairetica” della spiegazione, concerne esclusivamente
la spiegazione di eventi singoli.
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 103

Verso un nuovo consenso? 103

ne scientifica non possa prescindere dalla specifica situazione in cui la


spiegazione stessa viene elaborata. «Ci sono contesti nei quali il tipo
di conoscenza che gli scienziati cercano di ottenere richiede che la
spiegazione sia causale, mentre non richiede che abbia potere unifi-
cante» [ibid., 306]. Immaginiamo – esemplificano – che due città vi-
cine, chiamiamole A e B, siano state ripetutamente e simultaneamen-
te colpite nel corso della storia da epidemie di colera; ad un certo pun-
to, in un dato anno X, dopo un’estate di piogge torrenziali, A viene
nuovamente colpita dall’epidemia, mentre B no. La spiegazione è da-
ta dal fatto che in B, a differenza che in A, è stato costruito un effi-
ciente sistema di fognature e scoli delle acque: un intervento mirato
sulla causa ha permesso di prevenire l’effetto. «La manipolabilità e la
rilevanza causale sono condizioni minime di adeguatezza delle spie-
gazioni in contesti come questo» [ibid., 307], nei quali non sembra es-
serci una ricerca di unificazione5. Weber e Van Bouwel vogliono così
illustrare come l’unificazione risulti irrilevante in alcuni tipi di spie-
gazione. Se indicare l’esistenza di casi in cui vengono di fatto elabora-
te spiegazioni di carattere causale e non unificante possa equivalere a
dimostrare che non si possano mai elaborare spiegazioni unificanti
prive di carattere causale ci sembra possa essere oggetto di ulteriore di-
battito. In ogni caso, l’esempio portato da Weber e Van Bouwel muo-
vendo dai temi del “nuovo consenso” introduce come aspetto crucia-
le della spiegazione scientifica una componente manipolativo-contro-
fattuale che, come vedremo nel capitolo 7, costituisce il cardine su cui
è stata costruita nell’ultimo decennio un’ulteriore concezione della
spiegazione scientifica che sta riscuotendo grande successo.

5
Weber e Van Bouwel fanno anche riferimento ad alcuni esempi portati in Kit-
cher [1989, 422-428] e in Berger [1998, 313-314] di spiegazioni unificazioniste non
causali, che loro ritengono, viceversa, essere spiegazioni di carattere causale. Si veda
Weber e Van Bouwel [2009, 312-313].
05Capitolo_5.qxp:Layout 1 5-02-2013 9:20 Pagina 104
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 105

Capitolo 6

Le teorie neo-meccanicistiche

Il meccanicismo probabilistico di Wesley Salmon ha costituito il


punto di partenza per la formulazione di varie teorie meccanicistiche,
volte a superarne alcuni limiti e, soprattutto, a proporre una visione
della causalità e della spiegazione più ampiamente applicabile. In que-
sto capitolo analizzeremo le principali posizioni meccanicistiche for-
mulate a partire dalla metà degli anni Novanta e rilevanti per il tema
della spiegazione scientifica, note anche come “neo-meccanicistiche”.
Inizialmente elaborate rivolgendo una particolare attenzione alle scien-
ze biologiche e biomediche, esse sono state via via proposte per una
gamma sempre più vasta di discipline scientifiche.

6.1 Glennan e la teoria dei sistemi complessi

A metà degli anni Novanta Stuart Glennan ha suggerito di assu-


mere come nozione-chiave nell’analisi della causalità meccanicistica
non la nozione di processo causale, bensì quella di “sistema comples-
so”. Il nocciolo della sua teoria, avanzata appunto come complex-sy-
stem account, è espresso nella seguente definizione: «un meccanismo
sotteso a un comportamento è un sistema complesso che produce ta-
le comportamento mediante l’interazione di un certo numero di par-
ti, in conformità a certe leggi causali dirette» [Glennan 1996, 52]. La
definizione è stata poi modificata, alcuni anni più tardi, in: «un mec-
canismo di un comportamento è un sistema complesso che produce
quel comportamento mediante l’interazione di un certo numero di
parti, dove le interazioni tra le parti possono essere caratterizzate da
generalizzazioni dirette, invarianti, legate a cambiamenti» [Glennan
2002, S344]. Se nella prima esposizione della teoria si sostiene che il
comportamento dei meccanismi è governato da leggi causali, intese,
seguendo Goodman, come proposizioni universali che supportano
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 106

106 Capitolo 6

controfattuali, Glennan ha poi esplicitamente tratto da James Wood-


ward la nozione di generalizzazione invariante (vedi questo volume,
cap. 7). Le interazioni tra le parti di un meccanismo che danno origi-
ne al suo comportamento sono governate da generalizzazioni inva-
rianti, ovvero da generalizzazioni che continuerebbero a valere se fos-
se compiuta una certa gamma di interventi sulle variabili identificate
quali cause. Secondo Glennan, le generalizzazioni invarianti in que-
stione devono essere dirette, per escludere la possibilità che il cam-
biamento di una parte produca il cambiamento di un’altra attraverso
l’intervento di ulteriori elementi del meccanismo. Come avremo mo-
do di vedere meglio nel capitolo 7, l’adozione della nozione di gene-
ralizzazione invariante nel caso di intervento permette, inoltre, di evi-
tare i problemi epistemologici tradizionalmente legati al concetto di
legge scientifica, e di includere generalizzazioni che presentano ecce-
zioni, frequenti soprattutto nelle cosiddette “scienze speciali”.
Mentre la nozione di meccanismo elaborata da Glennan in [1996]
non presenta criteri abbastanza precisi e specifici per distinguere in
modo netto tra nessi causali e non, l’introduzione in [2002] del con-
cetto di generalizzazione invariante nel caso di intervento è intesa pro-
prio come lo strumento per compiere tale distinzione. Gli interventi
ammessi possono essere effettivi ma anche soltanto ipotetici, e in que-
sto modo la rilevanza causale viene definita come una nozione essen-
zialmente controfattuale [si veda Glennan 2010b, 365]: dire che una
certa proprietà è causalmente rilevante rispetto ad un’altra significa
affermare che, qualora la prima fosse stata diversa, anche la seconda
lo sarebbe stata. Le generalizzazioni che descrivono il comportamen-
to dei meccanismi sostengono controfattuali relativi a possibili inter-
venti, e questo non introduce – secondo Glennan – alcun elemento
problematico nella sua trattazione. Egli afferma che siamo giustifica-
ti nell’asserire, ad esempio, che “se girassi la chiave di accensione del-
l’auto, l’auto si metterebbe in moto” semplicemente perché sappiamo
che c’è un meccanismo che connette la suddetta azione a quel certo ef-
fetto, così come sappiamo quali sono le circostanze in cui il contro-
fattuale sarebbe falso, ovvero in quali condizioni il meccanismo può
non attivarsi. «Le generalizzazioni controfattuali possono essere com-
prese in questo modo senza fare appello a una qualche nozione non
analizzata di causalità, propensità, mondo possibile, e simili» [Glen-
nan 1996, 64]. Le argomentazioni di Glennan non fugano il dubbio
che le generalizzazioni così presentate non siano effettivamente in gra-
do di chiarire la nozione di meccanismo, poiché prigioniere di un’ine-
liminabile circolarità. In ogni caso, è importante sottolineare come i
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 107

Le teorie neo-meccanicistiche 107

meccanismi rivestano qui un ruolo primario rispetto alle regolarità:


non sono le generalizzazioni causali a fondare le nostre asserzioni cau-
sali, bensì le strutture dei meccanismi e i rapporti tra le parti che li co-
stituiscono.
L’approccio di Glennan lega strettamente la nozione di meccani-
smo a quella di comportamento, poiché l’individuazione di ogni mec-
canismo procede necessariamente attraverso l’identificazione di ciò
che il meccanismo fa. I comportamenti possono avere forme diverse:
i meccanismi più comuni sono quelli che rispondono a degli input con
degli output, ma vi sono anche meccanismi che mantengono l’equili-
brio del sistema e meccanismi che producono comportamenti perio-
dici. Il medesimo comportamento può essere prodotto da meccani-
smi diversi. La nozione di “comportamento del meccanismo” pre-
suppone una qualche idea di “funzionamento normale”; descrivere il
comportamento del meccanismo significa quindi descrivere ciò che il
meccanismo fa se i legami che lo costituiscono non vengono spezzati.
Da un lato, non è necessario conoscere lo specifico meccanismo ope-
rante per asserire che c’è un legame causale tra due o più variabili;
dall’altro, sostenere che X e Y sono causalmente legati significa cre-
dere che ci sia un meccanismo attraverso il quale X esercita un’in-
fluenza causale su Y.
Così come avviene nella teoria di Salmon, un ruolo importante è
qui giocato dalla nozione di interazione, che non viene però definita
in modo altrettanto preciso. Glennan non pone infatti particolari re-
strizioni sui tipi di interazioni che possono avere luogo tra le parti co-
stitutive di un meccanismo, affermando semplicemente che «le parti
interne [dei meccanismi] interagiscono per produrre il comporta-
mento esterno del sistema» [ibid., 49]. Sia i concetti di “interno” ed
“esterno” che quello di “parti” risultano molto ampi, e quindi appli-
cabili ad un alto numero di situazioni e fenomeni differenti, di carat-
tere non solo fisico, ma anche, ad esempio, chimico, biologico e psi-
cologico.
Le parti possono essere semplici o avere una struttura interna com-
plessa, non è necessario che siano localizzabili spazialmente, né che
siano descrivibili in un linguaggio puramente fisico. In certi contesti,
ad esempio, si possono voler considerare meccanismi genetici le cui
parti sono geni, oppure meccanismi di processori le cui parti sono mo-
duli di software o dati. […] Le parti dei meccanismi devono avere una
certa robustezza e realtà indipendenti dal loro posto entro il mecca-
nismo. Dev’essere possibile, in linea di principio, estrarre la parte dal
meccanismo e analizzare le sue proprietà in un altro contesto. Bisogna
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 108

108 Capitolo 6

prestare attenzione a che le parti non siano né mere proprietà del si-
stema nel suo complesso né solo artefatti del linguaggio descrittivo.
In sintesi, le parti devono essere oggetti [ibid., 53]1.

Le parti di cui i meccanismi sono composti devono esibire un cer-


to grado di robustezza; le loro proprietà, in assenza di interventi, de-
vono restare piuttosto stabili. Dalla stabilità delle parti e delle loro
configurazioni deriva anche una certa stabilità nei comportamenti
dei meccanismi, che conferisce al meccanismo carattere generale. Ri-
sulta così possibile sviluppare modelli meccanicistici applicabili a un
gran numero di fenomeni del medesimo tipo. «Un modello mecca-
nicistico è una descrizione di un meccanismo che include (i) una de-
scrizione del comportamento del meccanismo; e (ii) una descrizione
del meccanismo che rende conto di quel comportamento» [Glen-
nan 2002, S347. Si veda anche Glennan 2005]. Si tratta quindi di
due descrizioni: l’una, concernente il comportamento complessivo e
per come figura all’esterno, riguarda ciò che il meccanismo fa; l’altra,
concernente la struttura interna del meccanismo, riguarda come il
meccanismo agisce.
Quella di Glennan è una teoria meccanicistica della causalità e, in-
sieme, della spiegazione scientifica: una buona descrizione di un mec-
canismo costituisce una spiegazione causale adeguata. Non importa
quanta evidenza statistica abbiamo raccolto in merito alla correlazio-
ne tra due eventi: finché non siamo in grado di delineare il meccani-
smo che li connette, non abbiamo spiegato il verificarsi dell’effetto in
conseguenza del verificarsi della causa. In una spiegazione meccani-
cistica la descrizione di un certo comportamento figura come expla-
nandum, la descrizione della struttura interna meccanicistica che lo
produce come explanans. La spiegazione stessa non è data dalla rela-
zione logica tra explanans ed explanandum, bensì dai nessi meccanici-
stici che producono il comportamento in esame. Ricollegandosi al di-
battito sulla spiegazione scientifica svoltosi tra Salmon, Kitcher e Rail-
ton, Glennan sottolinea come la concezione meccanicistica riconosca
altresì ai meccanismi la capacità di unificare fenomeni diversi. «L’uni-
ficazione esplicativa che viene ammessa dall’approccio meccanicistico
deriva non solo dalla diffusione di leggi fondamentali, ma dall’esi-

1 Più recentemente Glennan ha suggerito che la causalità sia in primo luogo una

relazione tra eventi, dove gli eventi sono intesi come esemplificazioni di proprietà che
comportano l’azione di uno o più oggetti [si veda Glennan 2010b].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 109

Le teorie neo-meccanicistiche 109

stenza di meccanismi che hanno una struttura di alto livello comune,


benché differiscano nella microstruttura» [ibid., S352].
Essendo strutture complesse, i meccanismi possono essere scom-
posti in sotto-sistemi più semplici; ogni meccanismo può essere
scomposto in modi diversi, a seconda di ciò che si vuole spiegare.
Un sistema complesso può esibire molti comportamenti diversi e
avere sottesi molteplici meccanismi, parzialmente sovrapposti in più
modi. Il corpo umano, ad esempio, ha tra i suoi sotto-sistemi il si-
stema respiratorio e quello cardiovascolare. Ciascuno di essi svolge
certe funzioni (inspirare ossigeno ed espirare anidride carbonica,
pompare sangue), in parte interagendo direttamente, così da costi-
tuire un sistema composito preposto all’ossigenazione del sangue. I
due sotto-sistemi sono scomponibili (il primo in polmoni, diafram-
ma, bronchi, bocca, …; il secondo in cuore, vene, arterie, capillari,
…) e in parte sovrapposti (ad es., vene ed arterie percorrono le va-
rie parti del sistema respiratorio). Quali parti, combinazioni, fun-
zioni considereremo nella nostra indagine meccanicistica dipenderà
dalle circostanze e dagli obiettivi dell’analisi stessa. Ammettere che
le composizioni, scomposizioni e ricostruzioni meccanicistiche so-
no relative al contesto non significa, in ogni caso, assumere una po-
sizione antirealista o relativista in tema di meccanismi: questi ultimi
esistono e sono oggettivi. In altre parole, quale porzione di mecca-
nismo consideriamo dipenderà dal contesto entro il quale elaboria-
mo la spiegazione, mentre il contenuto della spiegazione stessa resta
del tutto oggettivo.
Glennan propone la sua teoria meccanicistica come applicabile in
tutte le discipline, ad eccezione della fisica elementare, in cui abbiamo
una serie di leggi fondamentali – quali la legge della gravitazione uni-
versale e le equazioni di Maxwell e di Schrödinger – che non sono ul-
teriormente esplicabili in termini meccanicistici. Glennan istituisce
così una sorta di “dicotomia”, nella nostra comprensione causale, tra
la fisica elementare e tutte le altre scienze, incluso il resto della fisica2.
In alcuni suoi lavori molto recenti, egli si concentra sulla possibilità di
estendere la sua prospettiva ad alcuni settori di studio specifici, quali
la biologia e la storia. Per quanto concerne la prima, Glennan [2009a]
suggerisce di affrontare alcune questioni concettuali relative alla sele-
zione naturale attraverso una distinzione tra produzione causale e ri-

2
Secondo Glennan, «al livello della fisica fondamentale il problema di Hume ri-
mane» [Glennan 1996, 69. Si veda anche ibid., 50 e 68].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 110

110 Capitolo 6

levanza causale3. La prima è una relazione che lega tra loro eventi, in-
tesi come oggetti che di fatto si comportano in un certo modo, e li
connette tramite processi causali continui, mentre la seconda traccia
rapporti di dipendenza controfattuale tra tipi di eventi. La produtti-
vità causale è locale e transitiva; la rilevanza causale viene concepita –
come abbiamo ricordato – in una prospettiva controfattuale. Se vo-
gliamo giungere alla comprensione causale completa, di carattere mec-
canicistico, di un evento dobbiamo conoscere sia gli eventi antece-
denti e i processi che hanno condotto fino a quell’evento, sia i fattori
rilevanti. In che senso è possibile, dunque, affermare che la selezione
naturale è un processo causale? Glennan sostiene che, da un lato, il ca-
rattere produttivo della selezione naturale deriva dall’aggregazione di
processi individuali attraverso i quali singoli organismi vivono, si ri-
producono e muoiono; dall’altro, una spiegazione causale della di-
stribuzione dei tratti dovrà fare riferimento alle proprietà causalmen-
te rilevanti sia dei singoli individui che delle popolazioni più vaste a cui
questi appartengono. La caratterizzazione della selezione naturale, «e
in verità quella di ogni altro fenomeno naturale complesso» [Glennan
2009a, 327], richiede dunque entrambe queste nozioni di causa, con-
nesse tra loro ma concettualmente distinte.
Glennan ritiene che anche nell’ambito della storia sia possibile
adottare modelli meccanicistici: trattandosi, in questo caso, di feno-
meni che presentano un notevole grado di variabilità, parleremo di
meccanismi “effimeri” (ephemeral mechanisms). Una spiegazione sto-
rica spiega il verificarsi di un particolare evento o di una certa situa-
zione spiegando in che modo essi si sono prodotti. Poiché l’approccio
meccanicistico è focalizzato su tipi di sistemi, che esibiscono un com-
portamento regolare e ripetibile, esso dev’essere modificato per po-
ter fornire un modello esplicativo adeguato alle connessioni causali
particolari che caratterizzano le ricostruzioni storiche. Un meccani-
smo effimero viene pertanto definito da Glennan come un insieme di
parti che interagiscono tra di loro in cui:
1) le interazioni tra le parti possono essere caratterizzate da genera-
lizzazioni dirette, invarianti, legate al cambiamento;

3
Glennan ricorda come questa distinzione sia vicina a quelle tracciate in Hall
[2004] tra produttività e dipendenza, e in Jackson e Pettit [1990] tra efficacia e rile-
vanza, e come tali posizioni si possano trovare in parte riflesse e discusse in alcuni la-
vori recenti sul pluralismo causale [Campaner e Galavotti 2007 e 2012; Hitchcock
2007; Godfrey-Smith 2009].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 111

Le teorie neo-meccanicistiche 111

2) la configurazione delle parti può essere il prodotto di fattori casuali


o esogeni;
3) la configurazione della parti è poco duratura e poco stabile, e non
è un caso singolo di un tipo che può avere realizzazioni multiple
[Glennan 2010a, 260].

Essendo caratterizzati dalle condizioni 2) e 3), quelli oggetto della


spiegazione storica non sono sistemi meccanicistici in senso stretto;
ciononostante, è possibile – secondo Glennan – caratterizzarli come
meccanismi in virtù della condizione 1): sebbene il perché le parti dei
meccanismi effimeri giungano a interagire sia casuale e imprevedibile,
il modo in cui interagiscono è correttamente rappresentato da genera-
lizzazioni invarianti nel caso di intervento. Le spiegazioni storiche so-
no spiegazioni causali di eventi singoli, «sono spiegazioni narrative, e
le narrazioni in questione possono essere costruite come descrizioni di
meccanismi effimeri» [ibid., 262]4. Benché siano le più frequenti, que-
ste non sono le uniche spiegazioni presenti in storia. Vi sono anche
spiegazioni volte a rintracciare regolarità e modelli ricorrenti. Ad
esempio, una spiegazione del funzionamento dei mercati, pur mante-
nendo secondo Glennan una struttura narrativa5, ha carattere generale
ed è più vicina al tipo di spiegazioni fornite nelle scienze naturali, poi-
ché cerca di esibire come un certo fenomeno sia ripetibile in quanto
prodotto di un meccanismo che agisce analogamente in circostanze e
momenti differenti.
In che rapporto stanno i due tipi di spiegazione? Sono semplice-
mente due diversi tipi di spiegazione del medesimo explanandum:
possiamo, ad esempio, spiegare lo scoppio di una guerra in quanto
conflitto che è iniziato in un particolare momento e luogo, e avremo
così una spiegazione del singolo evento specifico in termini di un
meccanismo effimero, oppure in quanto evento di un certo tipo (ad
es., conflitto tra potenze), e avremo allora una spiegazione in termi-
ni di un meccanismo generale con un certo grado di stabilità. In una
certa misura,

4
Il fatto che i meccanismi oggetto delle spiegazioni storiche abbiano come costi-
tuenti intenzioni, ragioni e credenze umane non rappresenta, secondo Glennan, un
problema per la sua visione. Egli abbraccia una posizione naturalista, ma ritiene che
anche gli anti-naturalisti non dovrebbero avere difficoltà ad ammettere una spiega-
zione delle azioni umane di carattere meccanicistico, fatti salvi i distinguo qui espo-
sti [si veda Glennan 2010a, 265-266].
5
Si tratta in questo caso di «narrazioni generalizzate» [ibid., 263].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 112

112 Capitolo 6

quanto il meccanismo sia effimero è una funzione di quanto detta-


gliata è la descrizione del suo esito. E anche a parità di livello di det-
taglio nella descrizione del fenomeno, alcuni eventi risulteranno il pro-
dotto di meccanismi più effimeri di altri. È in parte il compito di chi
è interessato alle spiegazioni storiche – di fenomeni naturali o umani
– dibattere proprio su quanto siano effimeri i meccanismi [ibid., 265].

6.2 La teoria “dualista” di Machamer, Darden e Craver

Un’altra posizione meccanicistica che ha riscosso molto successo è


stata elaborata – in parte congiuntamente, in parte separatamente – da
Peter Machamer, Lindley Darden e Carl Craver. Muovendo da un in-
teresse specifico per la biologia e le neuroscienze, in Thinking about
Mechanisms i tre autori hanno definito un meccanismo come un in-
sieme «di entità e di attività organizzate in modo tale da produrre cam-
biamenti regolari, a partire da certe condizioni iniziali fino a giunge-
re a certe condizioni finali» [Machamer, Darden e Craver 2000, 1].
Le due nozioni cruciali sono quelle di entità e di attività, dove le atti-
vità vengono definite come ciò che produce i cambiamenti, mentre le
entità sono presentate come ciò che viene coinvolto nelle attività. «Le
attività sono le diverse operazioni in cui le entità sono coinvolte, […]
sono ciò che le entità fanno; sono le componenti produttive dei mec-
canismi, e costituiscono i vari stadi degli stessi» [Craver 2002, S84].
Una delucidazione corretta della causalità deve tenere conto di en-
trambe le nozioni di entità e di attività, al fine di evitare i limiti tanto
delle posizioni cosiddette “processualiste” (process theories), che si fo-
calizzano su aspetti dinamici (ad es., la trasmissione dell’influenza cau-
sale), quanto di quelle definite “sostanzialiste” (substantivalist theo-
ries), che concentrano la loro attenzione sulle entità e sulle loro di-
sposizioni o “capacità” di comportarsi in un certo modo.
Uno degli elementi distintivi della visione di Machamer, Darden e
Craver vuole essere l’idea che le attività svolgano un ruolo fonda-
mentale: entità e gruppi di entità si comportano come cause allorché
sono coinvolte in un’attività di tipo produttivo. Ad esempio, non è la
penicillina in sé a causare la scomparsa della polmonite, bensì quello
che la penicillina fa. Sono le proprietà specifiche delle entità ad atti-
vare i loro comportamenti e, così facendo, ad innescare nessi causali.
Secondo i tre autori, questa insistenza sui concetti di attività e produ-
zione avvicina la loro concezione meccanicistica a quella di Salmon.
Quest’ultima ha però – a loro avviso – il limite di non rendere conto
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 113

Le teorie neo-meccanicistiche 113

dei diversi tipi di produzione e dei diversi modi in cui essa si verifica,
poiché «parlare solo di trasmissione dei marchi o di scambio di quan-
tità conservate non esaurisce ciò che gli scienziati sanno delle attività
produttive e dei modi in cui esse risulteranno responsabili di cambia-
menti regolari nei meccanismi» [Machamer, Darden e Craver 2000,
7]6. Sebbene il rapporto tra causalità e probabilità non venga affron-
tato in modo approfondito né problematizzato, anche il meccanici-
smo di Machamer, Darden e Craver si configura come un meccanici-
smo di tipo probabilistico.
In questa posizione, i meccanismi sono caratterizzati da continui-
tà produttiva e da modularità. La prima viene rappresentata schema-
ticamente come: A → B → C → D → E, dove A indica le condizioni
di partenza; E quelle finali; B, C, e D gli stadi intermedi, e le frecce
raffigurano un rapporto di dipendenza tra le varie fasi. Nella loro in-
dividuazione è possibile procedere tanto “in avanti” (forward chai-
ning), inferendo da un punto di partenza opportunamente scelto le
fasi future di produzione causale sulla base di quelle presenti e/o pas-
sate, quanto “all’indietro” (backward chaining), dal punto di arrivo ul-
timo, o da un qualche stadio intermedio, verso quelli che l’hanno pre-
ceduto [si veda Darden 2002, S355]. Queste operazioni sono possibili
in virtù della continuità produttiva dei meccanismi. Se nei casi più
semplici e comuni essi possono essere raffigurati da una sequenza li-
neare, i casi più complessi possono includere forcelle o rapporti cir-
colari. Data la continuità produttiva delle fasi in cui si articola un mec-
canismo, la mancanza di una freccia o di una fase segnala l’incapacità
di specificare una delle attività di cui il meccanismo si compone, e
quindi rivela una nostra lacuna conoscitiva in merito al funzionamen-
to del meccanismo.
Le entità e le attività che compongono i meccanismi […] sono orga-
nizzate in modo da fare qualcosa, da portare a termine qualche com-
pito o processo, da svolgere qualche funzione o produrre qualche esi-
to finale. Ci si riferirà a questa attività o comportamento del mecca-

6 In merito alla necessità di mantenere, in una concezione meccanicistica, tanto il

concetto di interazione proposto da Salmon e ripresto da Glennan, quanto quello di


attività avanzato da Craver, Darden e Machamer, si veda Tabery [2004]. Tabery ritie-
ne che possa essere utile introdurre un altro concetto, quello di “interattività”, al fi-
ne di sintetizzare entrambi gli aspetti su cui si concentrano i due approcci: bisogna te-
nere presente che nelle entità componenti di un meccanismo si verificano dei cam-
biamenti di proprietà e, al tempo stesso, che la produzione di tali cambiamenti è un
processo dinamico.
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 114

114 Capitolo 6

nismo nel suo insieme come al ruolo del meccanismo, che deve esse-
re spiegato dalla sua descrizione [Craver 2002, S84].

Il comportamento attivo di un meccanismo, ovvero ciò che un mec-


canismo fa, dipende in modo cruciale da come è strutturato, dal suo
essere organizzato su molteplici livelli, e quindi dalle reciproche col-
locazioni spazio-temporali delle parti che lo compongono e dalle loro
interazioni. Viene riconosciuta così un’importanza fondamentale a ele-
menti quali, ad esempio, la durata, il ritmo, l’ordine, la velocità di ese-
cuzione delle attività, le posizioni e gli orientamenti relativi delle en-
tità coinvolte, le condizioni al contorno necessarie perché una certa
attività possa essere compiuta (ad es. energia disponibile, pH, distri-
buzioni di carica elettrica, …), e così via. Tutti questi elementi sono es-
senziali affinché le attività stesse possano svolgersi correttamente, e
tra le componenti del meccanismo si possano trasmettere, ad esem-
pio, forze, moto ed energia.
Le entità e le attività che compongono un meccanismo hanno un’or-
ganizzazione spaziale e temporale che è cruciale ai fini della loro pro-
duttività. […] Dal punto di vista dell’organizzazione nello spazio, le
entità che compongono il meccanismo devono essere opportunamente
collocate, connesse, strutturate ed orientate l’una rispetto all’altra af-
finché il meccanismo funzioni [ibidem. Si veda anche ibid., S87-S88].

La scoperta di questi aspetti spaziali e temporali dell’organizza-


zione di un meccanismo è un passo fondamentale anche nella costru-
zione delle teorie meccanicistiche. Solamente tenendo conto di tutto
ciò si passa da una raffigurazione di un sistema meccanicistico molto
semplificata, simile a una rete bidimensionale, alla rappresentazione
fedele di ciò che accade in un sistema complesso. Ancora più di Glen-
nan, Machamer, Darden e Craver insistono infatti sul carattere com-
plesso dei meccanismi. Descrivere un meccanismo significa descrive-
re come le entità che lo compongono e le relative attività sono gerar-
chicamente organizzate nello spazio e nel tempo: i fenomeni devono
«essere concepiti come organizzazioni gerarchiche tra le parti e il tut-
to, in cui le entità dei livelli più bassi, le loro proprietà e le attività che
svolgono costituiscono i meccanismi che producono i fenomeni di più
alto livello» [Machamer, Darden e Craver 2000, 13]7. Esattamente

7
Ad esempio, «l’attivazione dei canali-sodio è una componente del meccanismo
della depolarizzazione, il quale è una componente del meccanismo della neurotran-
smissione chimica, il quale a sua volta è una componente dei meccanismi di più alto
livello del sistema nervoso centrale» [ibidem].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 115

Le teorie neo-meccanicistiche 115

quanti e quali livelli ci siano è una questione che viene affrontata em-
piricamente, di volta in volta, a seconda del fenomeno indagato e del-
le caratteristiche dell’indagine. Si tratta, in altri termini, non di pre-
sunti “livelli di natura” reificati, bensì di diverse possibili prospettive
descrittive, dettate da ciò che si vuole spiegare, prevedere e/o con-
trollare [si veda Craver 2001, 65-67].
I molteplici livelli di cui un meccanismo si compone possono esse-
re individuati procedendo sia dai livelli inferiori a quelli superiori (bot-
tom-up), sia da quelli superiori a quelli inferiori (top-down), attraverso
procedimenti sperimentali. Gli esperimenti vengono eseguiti grazie al-
l’uso di modelli sperimentali (ad es., una cavia o un embrione), tecni-
che di intervento (ad es., stimolazione elettrica) e tecniche di raccolta
dei dati [si veda Craver 2002]. Le tecniche di intervento previste e gli
strumenti di raccolta dei dati vengono adattati ai vari livelli ipotizzati
nella gerarchia interna del meccanismo in esame: si possono così pre-
sentare situazioni in cui ad un intervento pensato per interferire con un
livello alto è associata una rilevazione di attività (o caratteristiche del-
le componenti) ad un livello inferiore (è il caso dei top-down experi-
ments), oppure, viceversa, si danno situazioni in cui si interviene ad un
livello basso e se ne osservano le conseguenze ad un livello superiore (è
il caso dei bottom-up experiments)8. Esperimenti di tipo diverso pos-
sono essere adottati nell’analisi del medesimo meccanismo; il vantag-
gio nell’utilizzo di strategie sperimentali differenti è costituito dalla pos-
sibilità di sopperire, a seconda dei casi, ai limiti di un determinato ap-
proccio mediante l’adozione di un altro. «L’integrazione dei vari livel-
li di costituzione di un meccanismo, compiuta attraverso l’utilizzo di
esperimenti tra livelli diversi, può fornire un metodo per […] colloca-
re un fenomeno nel repertorio ontico» [Craver 2002, S95] di una cer-
ta scienza. Questi autori non sostengono né che la lista delle strategie
sperimentali che forniscono sia esaustiva, né che l’adozione di tali stra-
tegie sia necessaria ai fini della scoperta di tutti i meccanismi: ciò che
conta, affermano, è che esse sono state di fatto usate nelle scienze, con-
tinuano ad essere impiegate in molti casi, e potrebbero esserlo in linea
di principio in molti altri [si veda Darden 1991 e 2002].
Sottolineare l’importanza della sperimentazione nell’individuazio-
ne dei nessi causali meccanicistici ha comportato anche da parte di

8
Craver indica come esistano, ad esempio, esperimenti di tipo bottom-up che è
possibile definire “di interferenza” (interference strategies), in cui si interviene dan-
neggiando alcune cellule, e si osservano poi gli effetti che tali danni hanno su un li-
vello superiore di funzionamento degli organi o dei tessuti coinvolti.
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 116

116 Capitolo 6

Machamer, Darden e Craver delle concessioni alla prospettiva mani-


polativo-controfattuale, di cui ci occuperemo nel prossimo capitolo.
Come avviene l’identificazione delle relazioni autenticamente causali?
Per chiarire questo aspetto, nei lavori dei tre autori è stato ricono-
sciuto in misura crescente il ruolo degli interventi, effettivi ed ipoteti-
ci. La funzione di manipolazioni, fattuali e controfattuali, è venuta as-
sumendo un ruolo di maggior rilievo, così come è avvenuto nella teo-
ria di Glennan, pur senza nessuna rinuncia al carattere genuinamen-
te meccanicistico della prospettiva in questione. L’individuazione pre-
cisa della sequenza di attività ed entità entro i meccanismi avviene in
larga misura attraverso l’attivazione di strategie di intervento sugli stes-
si: negli esperimenti che “interferiscono” con i meccanismi, «si inter-
viene per diminuire, ritardare, eliminare, disattivare o distruggere
qualche componente del meccanismo o qualche attività che esso com-
pie, e si osservano poi i risultati che tale intervento ha ad un qualche
livello superiore» [Craver 2002, S93]. È così che si determina il ruolo
causale o meno di una certa componente entro il meccanismo. Ma-
chamer afferma: «l’intervento è una buona strategia per scoprire i
meccanismi o per trovare connessioni causali»; l’intervento viene in-
teso come un’operazione «mediante la quale qualcuno interrompe o
modifica una presunta attività per scoprire cosa succede» [2004, 28].
Gli interventi possono essere anche solo ipotetici. In Craver [2007]
viene esplicitamente abbracciata una “teoria manipolativa della rile-
vanza causale”, intesa in senso controfattuale come suggerito da Wo-
odward9. Nell’ambito dell’approccio meccanicistico il ruolo degli in-
terventi e dei controfattuali che li esprimono è, in ogni caso, soltanto
euristico: le manipolazioni, fattuali o controfattuali, non sono costitu-
tive della causalità, ma permettono di individuare i nessi causali.
Tra i molteplici livelli nei quali si struttura un meccanismo esisto-
no complesse intersezioni e interazioni, e un’indagine meccanicistica
corretta dovrà tenere conto tanto dei rapporti intra-livello (intralevel)
quanto di quelli trans-livello (interlevel) tra le parti e le attività che
compongono i meccanismi. Secondo Craver, è possibile individuare
tre tipi generali di livelli: “livelli di aggregati”, “livelli funzionali”, “li-
velli meccanicistici”. Quando parliamo di “livelli di aggregati” ci con-
centriamo sul fatto che alcune entità possono essere scomposte in uni-
tà più piccole di materia, e poniamo così l’attenzione sulla loro posi-

9
Un rimando al concetto di intervento usato da Woodward è presente già in Cra-
ver [2002, S91].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 117

Le teorie neo-meccanicistiche 117

zione nello spazio e sulle dimensioni delle parti in cui possono essere
suddivise. Quando, invece, ci interessano i ruoli che le entità svolgo-
no, ci occupiamo di “livelli funzionali”: scomporre dal punto di vista
funzionale un livello in altri significa isolare un certo compito o una
certa capacità dell’entità e dividerla in “sotto-funzioni” o “sotto-ca-
pacità”. Il terzo livello, quello identificato come propriamente mec-
canicistico, permette di illustrare i contributi delle singole entità e at-
tività al funzionamento corretto dell’insieme. Analisi di questo tipo
permettono altresì di elaborare scomposizioni e ricomposizioni del
meccanismo. Le scomposizioni di entità e attività organizzate nello
svolgimento di un ruolo ad un certo livello in entità e attività appar-
tenenti a livelli via via inferiori contribuiscono alla comprensione del
meccanismo. Tipicamente, è possibile distinguere i diversi livelli sul-
la base delle diverse entità e attività che li popolano, e dei diversi me-
todi con cui nelle scienze si indagano tali entità e attività.
Quanti livelli ci siano e quanti tipi di entità si trovino a ciascun li-
vello sono interrogativi di carattere empirico, a cui si può rispondere
solo all’interno di un particolare programma di ricerca10. Diversi li-
velli (ad es., genetico, biomolecolare, ambientale, sociale, economico,
…) possono essere oggetto di settori disciplinari, e quindi strumenti
metodologici e concettuali, differenti. Le analisi meccanicistiche sa-
ranno dunque sia intracampo che intercampo (intrafield e interfield),
dove un “campo” può essere definito come
un’area della scienza costituita dai seguenti elementi: un problema
centrale; un dominio composto da elementi che si assume siano fatti
correlati al problema; fattori e scopi esplicativi generali che produco-
no aspettative riguardo al modo in cui si dovrebbe risolvere il pro-
blema; tecniche, metodi e, talvolta ma non sempre, concetti, leggi e
teorie che sono correlati al problema e tentano di raggiungere gli sco-
pi esplicativi [Darden e Maull 1977, 44].

L’idea delle teorie intercampo risponde all’esigenza di rendere con-


to di quella vasta parte dell’attività scientifica che si occupa di feno-
meni studiati da più discipline, e di concentrarsi sulle possibili rela-
zioni sussistenti tra analisi compiute in discipline diverse, senza «alcun
bisogno di derivare una teoria di uno dei due [o più] campi da una
teoria dell’altro» [Bechtel 1988, 134].

10 I livelli che Craver [2002] individua nel meccanismo della memoria spaziale, ad

esempio, sono quattro: organismo-comportamentale, ippocampo-computazionale,


elettro-sinaptico, cinetico-molecolare. Per alcune riflessioni sui livelli esplicativi nel-
le neuroscienze, si veda ad es. Revonsuo [2001].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 118

118 Capitolo 6

Sostenere che sono i livelli più bassi a costituire quelli più alti – co-
me compare anche in una citazione sopra riportata – non equivale dun-
que ad abbracciare necessariamente una prospettiva riduzionistica.
Sebbene non ci si possa soffermare in questa sede su questo ampio pro-
blema, ricordiamo come l’approccio meccanicistico, benché tradizio-
nalmente associato alla prospettiva riduzionistica, non sia necessaria-
mente legato a qualche forma di riduzionismo teorico. Craver [2005]
ha sottolineato, ad esempio, come sia possibile assumere una posizio-
ne anti-riduzionistica optando per un modello meccanicistico di inte-
grazione intersettoriale (mechanistic model of interfield integration).
Portando come esempio le neuroscienze e, più in particolare, le ricer-
che su alcuni processi elettrofisiologici connessi alla memoria e all’ap-
prendimento, Craver illustra come la costruzione di modelli meccani-
cistici possa avvenire attraverso le interazioni di settori disciplinari,
punti di vista, tecniche e lessici differenti, permettendo così anche una
ricostruzione corretta dei rapporti tra livelli diversi, da quello moleco-
lare a quello comportamentale. Discipline diverse individuano diversi
requisiti e forniscono diverse indicazioni relative alla struttura dei mec-
canismi in esame; rinunciare ad una visione riduzionistica permette di
integrarli in un modello meccanicistico su più livelli11.
Così come i concetti di “parte”, “interazione” “interno” ed “ester-
no” nella teoria di Glennan, anche i concetti di “entità” ed “attività”
su cui è costruita la teoria di Machamer, Darden e Craver risultano
estremamente comprensivi. Le definizioni presentate, a differenza di
quelle elaborate da Salmon e poi da Dowe, sono espresse in termini in-
formali, tanto da apparire a volte quasi intuitive o di senso comune, e
da risultare molto ampie, quasi vaghe: «entità aventi certi tipi di pro-
prietà sono necessarie perché sia possibile agire in certi modi specifi-
ci, e certi tipi di attività sono possibili solo quando ci sono entità do-
tate di certi tipi di proprietà» [Craver 2002, S93, corsivo aggiunto].
L’ontologia fondamentale sulla base della quale costruire una teoria
meccanicistica viene dettata di volta in volta dalla disciplina entro la
quale si sta lavorando e dal tipo di fenomeno che si sta considerando.
Benché siano caratterizzati da un andamento regolare in circo-
stanze simili, i meccanismi presentano spesso anche variazioni ed
eccezioni. Le generalizzazioni che li governano hanno base empiri-
ca, ma non sono semplici generalizzazioni empiriche accidentali. Al

11 Quello che viene qui escluso è un riduzionismo teorico, mentre vengono lasciati

aperti gli interrogativi relativi al riduzionismo esplicativo e metafisico. Per ulteriori rifles-
sioni su questi temi si vedano anche Craver e Bechtel [2007] e Craver e Piccinini [2011].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 119

Le teorie neo-meccanicistiche 119

tempo stesso, secondo Machamer, Darden e Craver non si tratta di


leggi in senso stretto. Date le possibili eccezioni a cui sono sogget-
te e il loro campo di applicazione variabile, e vista la problematici-
tà del concetto di legge, i tre autori preferiscono parlare di genera-
lizzazioni che governano il comportamento regolare dei sistemi mec-
canicistici.
La nozione di legge di natura ha poche applicazioni – se mai ne ha al-
cuna – in neurobiologia o nella biologia molecolare. A volte le rego-
larità delle attività possono essere descritte da leggi, a volte no. Ad es.,
[…] non c’è legge che descriva il comportamento regolare delle pro-
teine che si legano al DNA.

Le generalizzazioni descrivono il comportamento di attività che


agiscono nel medesimo modo nelle stesse condizioni.
Queste regolarità non sono accidentali, e sostengono controfattuali
che descrivono le attività. [In questa teoria] non viene compiuta al-
cuna ulteriore operazione filosofica che assuma qualcosa di più, che
assuma l’esistenza di una qualche legge sottesa alla produttività delle
attività [Machamer, Darden e Craver 2000, 7]12.

La posizione di Machamer, Darden e Craver si propone come una


teoria dotata di potere esplicativo. Una spiegazione di stampo mecca-
nicistico adeguata viene elaborata qualora si indichino non solo le re-
golarità causali che governano il comportamento del meccanismo, ma
anche le entità che lo compongono e le loro attività produttive, fon-
damentali per un resoconto con autentico potere esplicativo13. La
maggior parte dei meccanismi presenta una complessità tale da ren-
dere estremamente difficile tracciarne una descrizione completa: le
entità e le attività in gioco sono spesso moltissime e tra i livelli esisto-
no numerose intersezioni e interazioni, che riusciamo a chiarire solo
in minima misura. Solitamente arriviamo ad avere uno “schema del
meccanismo” (mechanism schema), ovvero una rappresentazione che
presenta un certo grado di astrazione dai dettagli, oppure un “abboz-

12
«Non è che le cause e gli effetti non esemplifichino mai delle regolarità natura-
li; il punto è che la causalità è una cosa, la regolarità un’altra» [Bogen 2005, 399]. Sul
rapporto tra meccanismi, regolarità e leggi, si vedano, ad es., Glennan [2009b], Leu-
ridan [2010] e Andersen [2011].
13
Per alcune riflessioni sul potere esplicativo dei modelli meccanicistici, con-
trapposti ai modelli non meccanicistici, si vedano anche Craver [2006] e Darden
[2007].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 120

120 Capitolo 6

zo del meccanismo” (mechanism sketch), ovvero una rappresentazio-


ne parziale e, auspicabilmente, completabile in futuro.
Uno schema di un meccanismo è una descrizione astratta e troncata
di un meccanismo che può essere completata con le descrizioni delle
parti componenti e delle attività note […]. Gli schemi esibiscono va-
ri gradi di astrazione, a seconda di quanti dettagli vengano inclusi.
[…] Un abbozzo di un meccanismo [invece] è un’astrazione per la
quale non possono essere (ancora) fornite le entità fondamentali e le
attività, o che contiene delle lacune. […] La continuità produttiva da
una fase all’altra del meccanismo presenta dei vuoti, delle scatole ne-
re che non sappiamo ancora come riempire. Un abbozzo serve per-
tanto ad indicare che dev’essere compiuto un ulteriore lavoro per po-
ter giungere ad uno schema. Talvolta un abbozzo dev’essere abban-
donato alla luce di nuove scoperte. In altri casi può diventare uno
schema, utilizzabile come un’astrazione che si può adottare a secon-
da degli scopi che ci prefiggiamo, ad esempio per spiegare, prevede-
re o realizzare degli esperimenti [Machamer, Darden e Craver 2000,
15-16; 18].

Sono considerazioni di carattere pragmatico, dettate dalla specifi-


ca indagine di volta in volta in corso, a suggerirci quali porzioni di
meccanismo possiamo/vogliamo considerare, e/o a quale livello di det-
taglio possiamo/vogliamo spingerci. Gli scienziati si concentrano so-
litamente solo su alcuni particolari livelli o componenti del meccani-
smo in esame, per ragioni legate, ad esempio, all’oggetto specifico del
loro studio, allo scopo dell’indagine che compiono, al tipo di attività
conoscitiva a cui sono interessati. Anche all’interno della medesima
disciplina, interessi differenti portano a concentrarsi su componenti ed
attività meccanicistiche diverse. Ad esempio, «alcuni neurobiologi so-
no interessati soprattutto al comportamento degli organismi, alcuni
soprattutto all’attività delle molecole che compongono le cellule ner-
vose, e altri ancora concentrano la loro attenzione su quanto si verifi-
ca tra questi due livelli» [ibid., 13], mentre quasi mai i biologi e i neu-
rologi scendono fino al livello delle particelle e dei legami quantistici.
Le rappresentazioni schematiche di meccanismi sono individuate, va-
lutate, e poi corrette in concomitanza con il progredire della scienza.
Come efficacemente illustrato da un altro autore che ha abbracciato
la prospettiva meccanicistica, Jim Bogen,
a quali domande una spiegazione causale deve rispondere, e a quale
livello di dettaglio, è una questione che varia da contesto a contesto,
a seconda degli interessi, della conoscenza di sfondo, dei fattori cul-
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 121

Le teorie neo-meccanicistiche 121

turali, e dell’ambiente sociale. Tuttavia, quali componenti apparten-


gano al meccanismo, che cosa facciano, come lo facciano, e come le lo-
ro attività contribuiscano alla produzione di un effetto sono questio-
ni che non dipendono da, né variano con, i fattori contestuali che de-
terminano che cosa debba essere incluso in una spiegazione [Bogen
2005, 398, nota 2].

Riprendendo in parte quanto già indicato da Salmon [1984, 275],


Craver [2001; 2007] ha altresì tracciato una distinzione tra due aspet-
ti della causalità meccanicistica: quello costitutivo e quello eziologi-
co. Il primo aspetto concerne la struttura causale interna dell’expla-
nandum, ciò che fa sì che il fenomeno in questione si comporti in un
certo modo in virtù dell’organizzazione delle sue parti e delle attività
presenti. Le spiegazioni costitutive sono rivolte alla struttura più pro-
fonda del fenomeno (inward looking e downward looking), mirando a
svelarne i livelli inferiori e le componenti fondamentali14. La spiega-
zione eziologica, invece, è rivolta al passato (backward looking), e in-
dica quali porzioni della storia del fenomeno sono state rilevanti per
il suo verificarsi.
Come avremo modo di notare nel capitolo ottavo, la teoria neo-
meccanicistica può risultare perfettamente compatibile con un ap-
proccio funzionalistico, nella misura in cui il comportamento di un
meccanismo e le operazioni delle sue parti rispondono a una o più
funzioni all’interno di un organismo o di un sistema più ampio. Ad
esempio, comprendere i meccanismi che regolano il comportamento
delle malattie o delle attività cognitive significa anche comprendere
quali ruoli sono svolti da vari geni, tipi di cellule, regioni cerebrali, e
così via. In questo contesto – è importante sottolineare – le funzioni
vengono intese rigorosamente come funzioni di componenti di un
meccanismo, o funzioni di un meccanismo nella sua interezza, svolte
nell’ambito delle attività di sistemi complessi e specificabili solo con-
giuntamente alla nozione di “organizzazione” dei sistemi stessi. Pur
mantenendo l’oggettività dei meccanismi, all’individuazione delle fun-

14 Questa distinzione viene integrata da Craver mediante l’introduzione di una

terza varietà di spiegazione meccanicistico-causale, quella contestuale: «una spiega-


zione contestuale spiega un’entità o un’attività mostrando a cosa serve, ovvero dove
si colloca entro l’organizzazione di un meccanismo di livello superiore» [Craver 2001,
70]. Quest’ultimo tipo di spiegazione non contrasta quelle costitutive ed eziologiche;
si tratta di spiegazioni tipicamente rivolte verso l’esterno (outward looking) e verso l’al-
to (upward looking), nella misura in cui fanno riferimento a componenti esterne al fe-
nomeno e lo mettono in relazione ad un meccanismo di livello superiore.
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 122

122 Capitolo 6

zioni che un meccanismo svolge viene riconosciuto un carattere “pro-


spettivista” (perspectival): «quelle che assumiamo come descrizioni
funzionali possono essere permeate in modo molto diretto dai nostri
interessi e condizionamenti» [Craver 2001, 73]. Come abbiamo ri-
cordato, sono rintracciabili anche altri aspetti “prospettivisti” del-
l’approccio neo-meccanicistico: quali fenomeni analizzare meccanici-
sticamente, come tracciare i confini del sistema meccanicistico ed iso-
larlo, a che punto dello sviluppo del sistema iniziare e a che punto ter-
minare l’indagine del sistema, a quale livello del meccanismo fermar-
si sono tutti aspetti della ricerca che vengono condizionati dalle ca-
ratteristiche della specifica ricerca in corso. Non tutto, però, può di-
pendere in ugual misura da colui che compie l’indagine meccanicisti-
ca, e ciò risulta particolarmente chiaro proprio qualora si ascrivano
funzioni ai comportamenti di meccanismi. Alcuni meccanismi non
possono se non agire entro certi confini naturali (ad es., la membrana
cellulare), e non possono non avere particolari forme, ritmi ed entità
componenti. Vari fattori, dunque, «mitigano il prospettivismo ram-
pante» [Darden 2008, 960], e garantiscono che l’individuazione dei
meccanismi, e delle funzioni che svolgono, non sia arbitraria.
Come sottolineato all’inizio di questo paragrafo, la teoria di Ma-
chamer, Darden e Craver è stata inizialmente proposta con particola-
re riferimento alla biologia molecolare, alla genetica e alle neuro-
scienze. Tra i fenomeni da analizzare nei termini meccanicistici da lo-
ro presentati vi sono la replicazione del materiale genetico, l’attività si-
naptica, la sintesi delle proteine. Secondo i tre autori, una parte rile-
vante della storia della scienza è stata scritta facendo uso della nozio-
ne di meccanismo15, ed è necessario individuare strumenti concettua-
li che permettano di rendere conto della varietà dei meccanismi stu-
diati dalle scienze e dei loro comportamenti. Machamer, Darden e
Craver non sostengono che tutte le discipline elaborino spiegazioni
meccanicistico-causali, né che tutte debbano farlo; suggeriscono, pe-
rò, la possibilità di estendere questa concezione, ad esempio, all’eco-
nomia e alla psicologia. È stato proprio in rapporto a queste due scien-
ze, insieme alle scienze biomediche, che si sono sviluppate alcune del-
le più ampie riflessioni relative alle possibili applicazioni delle teorie
neomeccanicistiche.

15
Viene portata come esempio particolarmente significativo la scoperta del DNA
e della sua replicazione.
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 123

Le teorie neo-meccanicistiche 123

6.3 Scomposizione e localizzazione

Ulteriori ricerche sulle nozioni di meccanismo e di spiegazione


meccanicistica sono state compiute, sia in collaborazione sia indipen-
dentemente, da William Bechtel, Robert Richardson e Adele Abra-
hamsen. Così come Machamer, Darden e Craver, anche secondo Be-
chtel e Abrahamsen nelle cosiddette “scienze della vita” i modelli
esplicativi hempeliani risultano largamente insoddisfacenti e devono
essere sostituiti da una concezione della spiegazione scientifica alter-
nativa, di carattere meccanicistico. Dalla letteratura elaborata nel-
l’ambito delle scienze biomediche emerge con chiarezza – sottolinea-
no questi autori – come il termine a cui i biologi più frequentemente
si rifanno in contesti esplicativi sia “meccanismo”. Questo può essere
definito come «una struttura che adempie a una funzione in virtù del-
le parti che la compongono, delle operazioni delle sue parti, e della
loro organizzazione» [Bechtel e Abrahamsen 2005, 423]. Il funziona-
mento di un dato meccanismo può essere responsabile del manife-
starsi in uno o più fenomeni, e le parti di un meccanismo possono
svolgere molteplici ruoli. Bechtel e Abrahamsen preferiscono parlare
di “funzioni” ed “operazioni” dei meccanismi, anziché di “attività”,
perché ritengono che questa terminologia aiuti a enfatizzare come il
comportamento del meccanismo dipenda in primo luogo dall’orga-
nizzazione delle molteplici parti che lo costituiscono.
Solitamente le operazioni di un meccanismo sono caratterizzate da
almeno una parte che dà il via all’operazione, o ne garantisce la conti-
nuazione, e da almeno una parte che svolge invece un ruolo passivo, e
che viene modificata dall’operazione stessa. La modifica può riguar-
dare la collocazione spaziale della parte o qualche altra sua proprietà.
Il cuore, ad esempio, è un meccanismo la cui funzione è pompare san-
gue. Le operazioni compiute dalle parti del cuore includono la loro
contrazione e rilassamento, e la regolazione dello scorrere del sangue.
Il cuore è a sua volta parte di un meccanismo più esteso, il sistema cir-
colatorio, che include parti quali le vene, le arterie e lo stesso sangue.
Tutte le parti devono essere organizzate temporalmente e spazialmen-
te in modo adeguato, così da agire in modo orchestrato e da adempie-
re alla funzione cui sono preposte. La scoperta dei meccanismi, e quin-
di l’elaborazione di spiegazioni, è strettamente intrecciata a svariate
procedure sperimentali e osservative, e risulta dunque ben più com-
plessa – sottolineano Bechtel e Abrahamsen in fondamentale sintonia
con Machamer, Darden e Craver – della semplice individuazione di
leggi richiesta dai modelli hempeliani. Posto che il ruolo esplicativo
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 124

124 Capitolo 6

viene assegnato ai modelli meccanicistici e non alle leggi scientifiche, in


che misura è possibile generalizzare una certa spiegazione meccanici-
stica? Meccanismi differenti possono esibire relazioni di somiglianza
gli uni con gli altri, ad esempio presentandosi come meccanismi simili
operanti in organismi diversi o in diverse specie. È proprio dalla capa-
cità di estendere certi meccanismi a casi simili che deriva la capacità di
elaborare leggi di carattere generale, e non viceversa.
I meccanismi sono sistemi reali, esistenti in natura del tutto indi-
pendentemente dalla nostra conoscenza di essi. Ciò che spiega sono i
modelli meccanicistici che li descrivono. La formulazione di una spie-
gazione, che è un’attività epistemica, procede attraverso l’elaborazio-
ne di rappresentazioni di meccanismi. L’analisi meccanicistica richiede
anzitutto che vengano definiti i “confini” del sistema meccanicistico da
esaminare, e ciò può costituire un’operazione controversa, fortemen-
te condizionata dalla teoria generale a cui si fa riferimento. Bechtel e
Abrahamsen sottolineano non solo come la spiegazione meccanicisti-
ca non assuma le caratteristiche di un’inferenza logica, ma anche co-
me faccia uso sia di rappresentazioni “interne”, ovvero rappresenta-
zioni mentali, che di rappresentazioni “esterne”, ovvero diagrammi, fi-
gure, grafici, schematizzazioni, e così via. Rappresentazioni grafiche
di vario tipo consentono al tempo stesso di avere a disposizione da-
vanti a sé tutto il meccanismo considerato, e di potersi concentrare li-
beramente su una parte di esso piuttosto che su un’altra, a seconda
delle esigenze dell’indagine in corso. Un modello meccanicistico «de-
scrive o ritrae quelle che vengono considerate le parti e le operazioni
rilevanti, l’organizzazione delle parti e delle operazioni entro il siste-
ma, e i modi in cui quelle operazioni sono orchestrate in modo da pro-
durre il fenomeno» [ibidem]. Quando sono rappresentazioni corret-
te, i modelli meccanicistici descrivono in modo accurato gli aspetti ri-
levanti di meccanismi che agiscono nel mondo. I modelli meccanici-
stici richiedono inoltre l’assunzione di criteri volti a valutare sia gli
aspetti di somiglianza che le possibili differenze e variazioni tra i mo-
delli stessi e i singoli casi esaminati di volta in volta. Trattandosi di
rappresentazioni dei meccanismi, ricordiamo che quelle che figurano
come componenti di un certo meccanismo possono essere analizzate,
a loro volta, come meccanismi costituiti da parti, ed essere così og-
getto di un’altra spiegazione. «Gli scienziati possono costruire una ca-
scata di spiegazioni, ciascuna appropriata per un certo livello, e non
sostituibile da quelle di livello inferiore» [ibid., 426]16.

16
Si veda anche Bechtel [1994], [1995], [2001a] e [2001b].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 125

Le teorie neo-meccanicistiche 125

In un precedente lavoro su meccanismi e complessità [1993] Be-


chtel e Richardson hanno concentrato la loro attenzione sul tema del-
la scoperta dei meccanismi e, più in particolare, sul ruolo che la loca-
lizzazione e la scomposizione e ricomposizione degli stessi svolgono in
tal senso. Come abbiamo visto, al fine di elaborare una spiegazione
meccanicistica, lo scienziato deve individuare quali sono le parti che
costituiscono il meccanismo, stabilire quali operazioni tali parti – e il
meccanismo nel suo complesso – svolgono, e comprendere in che mo-
do le une e le altre sono organizzate in modo da dare origine a un cer-
to fenomeno. Questo processo – attraverso il quale per così dire si
“smonta” il meccanismo – viene chiamato “scomposizione”. La scom-
posizione può essere di carattere strutturale, se si focalizza sulle parti
di cui il meccanismo è composto, o funzionale, se concerne le opera-
zioni delle parti del meccanismo da cui dipende lo svolgimento della
sua funzione globale. Solitamente viene compiuta in un primo mo-
mento solo una delle due scomposizioni, che viene poi seguita dalla se-
conda. A quale delle due scomposizioni, strutturale o funzionale, ven-
ga data la priorità dipende, ancora una volta, dal contesto in cui vie-
ne compiuta l’indagine; alla ricerca in corso spetterà anche – qualora
necessaria – l’elaborazione di reciproci aggiustamenti dei due tipi di
scomposizione, per produrre un quadro complessivo coerente. Una
buona scomposizione funzionale di un sistema identifica ogni opera-
zione del sistema e ogni suo risultato; una buona scomposizione strut-
turale individua tutte le componenti coinvolte nelle operazioni del si-
stema di cui si occupa la scomposizione funzionale.
La scomposizione consente di suddividere l’indagine esplicativa in mo-
do che essa possa essere affrontata più facilmente, e che il sistema in
oggetto possa essere intellegibile. La scomposizione assume che un’at-
tività di un certo sistema sia il prodotto di un insieme di funzioni su-
bordinate compiute dal sistema. Essa assume che ci sia solo un piccolo
numero di funzioni di questo tipo che, insieme, hanno come esito il
comportamento che stiamo spiegando, e ritiene che siano minima-
mente interattive. Partiamo dall’assunzione che le interazioni possano
essere trattate in modo additivo, o magari lineare. Resta una doman-
da aperta se queste assunzioni siano realistiche o meno; in verità, al-
l’inizio dell’indagine semplicemente non lo sappiamo. In che misura
l’assunzione di scomponibilità sia realistica può essere stabilito solo a
posteriori [Bechtel e Richardson 1993, 24].

La capacità di mettere in relazione parti del sistema con le rispet-


tive operazioni fornisce conferme alle scomposizioni; viceversa, i casi
in cui non si riescono a collegare parti ed operazioni sollevano dubbi
06Capitolo_6.qxp:Layout 1 5-02-2013 9:22 Pagina 126

126 Capitolo 6

sull’esistenza effettiva delle une o delle altre. La scomposizione del


meccanismo, infine, può avvenire attraverso varie procedure – ad
esempio, attraverso l’inibizione di una componente per osservarne
l’impatto complessivo sul sistema, oppure attraverso la registrazione
di dati relativi al comportamento del meccanismo in diverse condi-
zioni, come avviene del caso della risonanza magnetica.
Benché possa accadere che i ricercatori individuino le componenti
quando ancora ignorano quali operazioni compiano, il fine ultimo è col-
legare operazioni e parti. Ciò avviene attraverso le localizzazioni: le di-
verse attività proposte attraverso la scomposizione vengono messe in
rapporto con il comportamento o le capacità di specifiche componenti.
In alcuni casi possiamo essere in grado di identificare (in modo piut-
tosto diretto) le parti fisiche del sistema in cui localizzare le diverse
funzioni delle componenti. In altri casi possiamo essere costretti ad
affidarci a vari strumenti funzionali per determinare che tali compo-
nenti ci sono, senza riuscire a identificarle. […] Un’unità funzionale
può essere spazialmente distribuita nel sistema [ibidem].

Ad esempio, agli inizi del diciannovesimo secolo si riconobbe che


la cellula è la struttura fisiologica preposta alla respirazione cellulare.
Il livello successivo della spiegazione meccanicistica di questo sistema
– un traguardo raggiunto dalla biologia cellulare a metà del ventesimo
secolo – differenzia tre principali operazioni della respirazione cellu-
lare e ne localizza ognuna in una diversa parte della cellula: la glicoli-
si nel citoplasma, il ciclo dell’acido citrico nella parte interna (matri-
ce) del mitocondrio, e le due operazioni del trasporto di elettroni e
della fosforilazione ossidativa nelle creste (pieghe della membrana in-
terna del mitocondrio) [si veda Bechtel e Abrahamsen 2005, 434].
Che risultino o meno strategie affidabili nei casi specifici in cui ven-
gono applicate, scomposizione e localizzazione sono importanti stru-
menti euristici, nella misura in cui consentono di rispondere a do-
mande di spiegazione concernenti sistemi complessi.
Anche Bechtel abbraccia la nozione di teoria intercampo (inter-
field), in opposizione al riduzionismo teorico. Compiere le proprie in-
dagini in termini di teorie intercampo consente di compiere più age-
volmente localizzazioni e scomposizioni. Una teoria intercampo può,
ad esempio, permettere di localizzare in un certo campo un’entità coin-
volta in un processo che viene indagato in un altro campo, facendo co-
sì venire alla luce relazioni di tipo parte/tutto tra le entità studiate in
campi differenti. O, ancora, una teoria intercampo può «stabilire
un’identità tra un’entità caratterizzata fisicamente in un campo e un’en-
06Capitolo_6.qxp:Layout 1 5-02-2013 9:23 Pagina 127

Le teorie neo-meccanicistiche 127

tità caratterizzata funzionalmente in un altro», o «individuare in un


campo la causa di un effetto constatato in un altro» [Bechtel 1988,
134]17. In quest’ottica, le teorie intercampo non soltanto rappresenta-
no un prodotto della ricerca interdisciplinare, ma costituiscono anche
un imprescindibile strumento adottato per fini esplicativi. Spiegazioni
di carattere meccanicistico basate sulla scomposizione e sulla localiz-
zazione vengono proposte per varie discipline, dalla fisiologia (ad es.,
per spiegare la fermentazione alcolica a partire dal lievito) alla psico-
logia (ad es., per spiegare la memoria spaziale) e alle scienze cognitive18.

6.4 Considerazioni conclusive

L’approccio neomeccanicistico ha suscitato un ampio e sfaccettato


dibattito, in parte rivolto ad aspetti specifici delle singole teorie, in par-
te interessato ad aspetti generali di questa prospettiva. Quella di mec-
canismo è senza dubbio una nozione che viene essa stessa definita at-
traverso concetti di carattere causale, come quelli di interazione o di at-
tività. Il meccanicismo non promette dunque di ridurre la causalità ad
una o più nozioni primitive non causali, ma vuole fornirne un’analisi
della causalità che permetta, in ogni caso, di esplicitarne la natura e di
chiarirne alcuni aspetti fondamentali. Ciò che accomuna le teorie neo-
meccanicistiche è la concezione della causalità come produttività. È su
questa nozione che si impernia un modo diverso di intendere la spiega-
zione scientifica, che viene contrapposto a quello hempeliano. Parte del-
le obiezioni presentate nella letteratura più recente si sono così con-
centrate sulla possibilità di individuare dei criteri adeguati per l’indivi-
duazione di nessi meccanicistici. Come abbiamo avuto modo di indica-
re nei precedenti paragrafi, agli interventi – effettivi o solo possibili, e
quindi espressi controfattualmente – è stato riconosciuto con crescen-
te forza un ruolo fondamentale. C’è però chi ritiene che il ricorso ai con-
trofattuali sia in forte contrasto con il nucleo concettuale del meccani-
cismo: la spiegazione meccanicistica, in particolare, identifica i fatti che
sono stati causalmente rilevanti per il verificarsi dell’explanandum, e i
controfattuali – sostiene ad esempio Jim Bogen [2004] – sono l’esatto
opposto del fattuale. Ciò che vale come attività produttiva, inoltre, non
può essere definito attraverso un unico criterio, ma solo essere indivi-

17
Per alcuni esempi, si veda Bechtel [1988, cap. 6, in particolare 134-136].
18
Si vedano, rispettivamente, Bechtel e Richardson [1993, cap. 2], Bechtel [2009]
e Bechtel e Abrahamsen [2006].
06Capitolo_6.qxp:Layout 1 5-02-2013 9:23 Pagina 128

128 Capitolo 6

duato di volta in volta, sulla base di caratteristiche specifiche e contin-


genti dei casi in esame [si veda Bogen 2008].
Quale funzione conoscitiva hanno i meccanismi? E in quali setto-
ri disciplinari possono svolgere il loro ruolo conoscitivo? Da quanto
illustrato nel capitolo è emerso come le teorie meccanicistiche siano
state proposte perlopiù come teorie della spiegazione scientifica: spie-
gare – si è da più parti sostenuto – significa essere in grado di indivi-
duare le cause degli eventi in esame e descrivere come queste siano
responsabili di tali eventi: per spiegare non basta indicare quali sono
i fattori causalmente responsabili, è necessario esplicitare in che modo
essi producono l’effetto. Analisi della nozione di meccanismo volte a
discuterne l’applicabilità nelle scienze sono state elaborate, ad esem-
pio, in Broadbent [2011]; Campaner [2011a]; Clarke [2012]; Gerring
[2007]; Little [2011]; Reiss [2007]; Steel [2004], e molti altri.
Per concludere, ricordiamo come una possibile conciliazione tra
meccanicismo e uso della nozione di generalizzazione invariante sia sta-
ta proposta da James Tabery attraverso l’introduzione del concetto di
difference mechanism. Secondo Tabery, è possible pensare ai meccanismi
come a strutture costituite da molteplici variabili, che possono assume-
re diversi valori e che possono fare, così, una qualche differenza rispet-
to al comportamento complessivo del sistema. Le idee di meccanismo
e, insieme, di difference-making variables permettono secondo Tabery di
rendere conto tanto della causalità generale, riferita a gruppi o popola-
zioni, quanto di quella singolare, riferita a casi individuali, e di rappre-
sentare correttamente l’uso effettivo della nozione di causa nelle varie di-
scipline scientifiche. Le variabili causali di cui sono composti i sistemi
meccanicistici sono responsabili, in generale, di un loro “comporta-
mento produttivo regolare”, che si manifesta a livello di popolazione, e
sono spesso ricostruibili solo in modo schematico, sotto forma di ab-
bozzi – sketch mechanisms, come suggerito da Machamer, Darden e Cra-
ver. Le variabili da cui sono formati possono assumere diversi valori, ed
è da questo che dipendono le variazioni fenotipiche: «le differenze in-
dividuali sono gli effetti prodotti dalle variabili sullo sviluppo indivi-
duale nei casi in cui le suddette variabili assumono in modo naturale
valori diversi» [Tabery 2007, 134]. Vedremo nel prossimo capitolo co-
me il rapporto tra meccanismi, manipolazione, e spiegazione scientifi-
ca venga affrontato dalla concezione manipolativo-controfattuale della
spiegazione. Nonostante gli approcci neo-meccanicistici abbiano rico-
nosciuto in maniera crescente il ruolo degli interventi nella scoperta e
definizione dei meccanismi, il meccanicismo e l’approccio manipolati-
vo continuano a supportare visioni diverse della spiegazione scientifica.
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 129

Capitolo 7

La spiegazione manipolativo-controfattuale

Nel secondo e nel sesto capitolo di questo volume sono state pre-
sentate alcune teorie della spiegazione scientifica associate all’ap-
proccio meccanicistico alla causalità. Nell’ultimo decennio circa ha ri-
scosso notevole successo anche un approccio alla spiegazione causale
legato ad un diverso filone di studi filosofici sulla causalità, noto co-
me “prospettiva manipolativa”. Tale approccio alla causalità è incen-
trato sulla nozione di intervento. La causalità riscuote, infatti, un gran-
de interesse per ragioni non solo teoriche, ma anche pratiche: l’indi-
viduazione dei legami causali non porta unicamente alla comprensio-
ne dei fenomeni, ma ci consente altresì di interferire con il loro corso.
Ci poniamo così di fronte alle relazioni causali sia come osservatori, sia
come soggetti in grado di intervenire attivamente. È questo l’aspetto
che funge da fulcro dell’approccio manipolativo alla causalità, il qua-
le «radica il contenuto delle asserzioni causali in ciò che sappiamo in
merito alla possibilità di modificare […] la natura» [Woodward 2003,
173], sostenendo che siamo in presenza di una relazione causale al-
lorquando intervenendo sulla causa siamo in grado di produrre un
cambiamento nell’effetto. Questo approccio – che si è sviluppato al-
l’interno di una tradizione di studi molto ampia1 – è stato recente-
mente declinato anche in stretto rapporto con il tema della spiegazio-
ne principalmente da Jim Woodward, in parte in collaborazione con
Christopher Hitchcock. In questo capitolo prenderemo in esame la
loro teoria e alcuni aspetti del dibattito attualmente in corso in meri-
to alla sua formulazione e applicabilità.

1
Si vedano in particolare Collingwood [1938]; Gasking [1955]; von Wright
[1973]; Hausman [1986]; [1998]; Menzies e Price [1993]; Price [1992], [2001]. Per
alcune riflessioni su questa prospettiva, si vedano anche Galavotti [2001] e Campa-
ner [2003].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 130

130 Capitolo 7

7.1 Causalità, invarianza e interventi

In termini molto generali, secondo la concezione manipolativa del-


la causalità possiamo affermare di essere in presenza di un nesso cau-
sale tra C ed E nel caso in cui una qualche forma di azione su C pro-
duca delle modifiche in E. Questa posizione ha avuto ampio successo,
ma è stata anche oggetto di numerose obiezioni. Tra le principali criti-
che ricordiamo qui quella di antropocentrismo: secondo i suoi detrat-
tori, l’approccio manipolativo traccia una relazione troppo stretta tra
causalità e azione umana, risultando così, tra l’altro, incapace di rendere
conto dei legami causali presenti in natura su cui l’uomo non è in gra-
do di agire direttamente (ad esempio, eruzioni vulcaniche o terremo-
ti). A partire dalla seconda metà degli anni Novanta, James Woodward
ha presentato una teoria della causalità e, insieme, della spiegazione
scientifica di carattere manipolativo e controfattuale. Woodward si pre-
figge anzitutto di disancorare l’approccio manipolativo dal concetto di
azione umana, e di preservarlo così dall’accusa di antropocentrismo.
Egli sceglie di adoperare una nozione ampia di intervento, e propone
una teoria definita, appunto, interventionist, secondo la quale una re-
lazione tra due variabili X e Y è causale nel caso in cui se qualcuno in-
tervenisse su X accadrebbe quanto segue: a) verrebbe prodotta una
modifica del valore di Y, e b) la relazione tra X e Y verrebbe mantenuta
invariata. In questo modo non viene fatto alcun riferimento specifico
all’azione umana, ed è possibile pensare ad un intervento anche come
a qualcosa che si verifica autonomamente nel mondo.
Entriamo ora più nei dettagli di questa teoria, esposta in numerosi
saggi e, nella forma più completa, in un volume dal titolo Making
Things Happen (2003). La nozione-cardine sulla quale viene costruita
è quella di “invarianza nel caso di intervento” (invariance under inter-
vention), dove «un intervento su X che coinvolge Y è un cambiamen-
to del valore di X che produce una modifica di Y […] solo mediante
un percorso che passa attraverso X» [Woodward 2002a, S370]. Si ri-
chiede che il cambiamento del valore di X sia dovuto esclusivamente
all’intervento I su X, e che il cambiamento di Y non abbia altre cause
che i cambiamenti di X. Gli interventi vengono concepiti come mani-
polazioni impiegate per individuare i legami esistenti tra X e Y. Tali
manipolazioni possono essere tanto reali quanto, più spesso, ipoteti-
che: non è necessario che la manipolazione venga effettivamente com-
piuta, ma solo che essa possa essere effettuata in linea di principio. Nel-
la teoria di Woodward un ruolo cruciale viene pertanto svolto dai con-
trofattuali, utilizzati per descrivere possibili situazioni sperimentali. I
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 131

La spiegazione manipolativo-controfattuale 131

controfattuali che si riferiscono ad interventi manipolativi vengono bat-


tezzati da Woodward interventionist counterfactuals o active counter-
factuals, e sono concepiti come uno strumento efficace per distingue-
re legami genuinamente causali da relazioni non-causali. Essi permet-
tono – a suo avviso – di esprimere con chiarezza come ciò che conta ai
fini dell’individuazione di legami causali manipolabili sia stabilire che
cosa sarebbe accaduto ad una certa relazione se questa fosse stata sot-
toposta a degli interventi. «La caratteristica distintiva di una genera-
lizzazione [causale] è il fatto che essa sostiene controfattuali di un tipo
particolare – controfattuali che descrivono cambiamenti che si verifi-
cano nel caso di interventi» [ibid., S371]. In altri termini, perché una
generalizzazione che indica la relazione tra X e Y esprima un rappor-
to causale tra le due variabili, essa deve risultare invariante qualora ven-
gano compiuti interventi manipolativi su di essa: a cambiamenti di X
devono risultare associati cambiamenti di Y, mentre la relazione tra le
due variabili deve sussistere immutata. Woodward ritiene possibile in-
terpretare i controfattuali in senso esclusivamente sperimentale, trat-
tandoli in modo non problematico e senza incorrere in questioni me-
tafisiche. Essi vengono introdotti senza alcun riferimento a mondi pos-
sibili, e vengono pensati semplicemente come proposizioni concernenti
ciò che accadrebbe se venisse compiuto un certo tipo di esperimenti.
Una generalizzazione causale G che metta in relazione X e Y deve ri-
sultare invariante nel caso di almeno alcuni interventi su X, ovvero G
deve continuare a valere anche in presenza di tali interventi. Una rela-
zione invariante è potenzialmente sfruttabile ai fini della manipolazio-
ne e del controllo dei fenomeni che descrive2.
Nella teoria di Woodward l’intervento – reale o solo ipotetico – vie-
ne impiegato per determinare i legami esistenti tra i cambiamenti ap-
portati in X e quelli che manifesta un’altra variabile, Y, ed è cruciale per
l’individuazione dei nessi autenticamente causali. Si richiede che l’in-
tervento che provoca le modifiche nell’effetto non sia correlato con
cause di Y diverse da X, tranne quelle – qualora ce ne fossero – inter-
medie tra X e Y. Come accennato sopra, le generalizzazioni causali de-
vono essere invarianti almeno nel caso di alcuni interventi, non neces-
sariamente di tutti gli interventi possibili. Per esempio, la forza eserci-
tata su una corda elastica causa un cambiamento della sua lunghezza
perché se un intervento modificasse la forza esercitata anche la lun-
ghezza della corda elastica muterebbe, mentre la relazione tra le due
grandezze, espressa dalla legge di Hooke, resta invariante per una cer-

2
Si veda anche Woodward [1990], [2001b], [2002b], [2004].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 132

132 Capitolo 7

ta gamma di interventi. La relazione non è invariante nel caso di tutti


gli interventi possibili; la legge di Hooke non varrà più se la forza vie-
ne applicata oltre il punto di rottura del materiale elastico.
La scelta della nozione di generalizzazione invariante permette di
evitare l’ampio e intricato dibattito sul tema delle leggi, della loro na-
tura e del loro ruolo:
l’invarianza ha la virtù di afferrare l’idea che ciò che conta veramente
rispetto al fatto che una generalizzazione descriva o meno una rela-
zione causale è stabilire se essa indica una relazione che è potenzial-
mente sfruttabile ai fini manipolativi, anche se non ha le altre caratte-
ristiche […] tradizionalmente associate alle leggi [ibidem].

L’invarianza è associata alla ripetibilità e alla regolarità (almeno in una


certa misura) di un comportamento; non si tratta però di una regolarità
universale e priva di eccezioni. Nonostante Woodward preferisca parla-
re di generalizzazioni invarianti anziché di leggi causali, la sua teoria
non esclude la possibilità che, di fatto, tali leggi esistano per gran par-
te, o tutte, le asserzioni causali. Sebbene non ci sia nulla in un ap-
proccio manipolativo che implichi che ad ogni asserzione causale ve-
ra debba essere sottesa una legge, non c’è neppure nulla in tale ap-
proccio che implichi che un simile sfondo nomologico debba essere
falso [Woodward 2003, 172].

In ogni caso, Woodward pensa che l’approccio manipolativo abbia


il merito di non richiedere che si comprenda la nozione di legge per
comprendere quella di causa, né che si facciano impegnative asser-
zioni in merito all’esistenza di leggi per dotare le asserzioni causali di
un contenuto3.
In questa prospettiva i controfattuali costituiscono uno strumento
fondamentale per catturare l’idea di causa come difference-maker: le
cause sono rilevanti, ovvero “fanno-una-certa-differenza” rispetto al
verificarsi di ciò che si ritiene il loro effetto. La posizione manipolati-
va di Woodward presenta una concezione causale-controfattuale del-
la spiegazione, secondo la quale una variabile C deve figurare nella

3 «Varie condizioni cono state proposte [per definire una legge scientifica]: le leg-

gi devono contenere solo predicati qualitativi, sostenere controfattuali, essere con-


fermate da casi positivi, e così via» [Woodward e Hitchcock 2003, 1]. Stathis Psillos
ha sostenuto che la stessa interpretazione sperimentale dei controfattuali, però, ri-
chiede che una nozione di legge scientifica più forte di quella di generalizzazione in-
variante [si veda Psillos 2007, 104-105].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 133

La spiegazione manipolativo-controfattuale 133

spiegazione di E se e solo se un intervento su C, date certe condizio-


ni, sarebbe in grado di modificare il valore di E, o la distribuzione di
probabilità di E. La spiegazione permette allora di collocare l’expla-
nandum all’interno di uno spazio di possibili alternative, e ci mostra
come l’explanandum dipende dall’explanans, indicando come esso va-
rierebbe qualora variassero i fattori inclusi nell’explanans. Tale legame
ci permette di fare riferimento alla manipolazione di C per risponde-
re ad una serie di domande sulle caratteristiche che E potrebbe assu-
mere, ed è questo che ci fa includere C in una spiegazione di E. Al-
l’interno di questo approccio spiegare significa dunque esibire dei rap-
porti di dipendenza controfattuale, i quali descrivono come il com-
portamento del sistema in esame muterebbe al mutare dei valori del-
le variabili causali coinvolte. Gli interventionist counterfactuals con-
sentono, secondo Woodward, di superare agevolmente tutti i contro-
esempi e le obiezioni mosse contro i modelli hempeliani, nonché al-
cune delle critiche rivolte al modello meccanicistico di Salmon, giac-
ché consentono di individuare in modo univoco i fattori rilevanti dal
punto di vista esplicativo: l’explanans deve includere tutte e solo le va-
riabili la cui manipolazione, qualora fosse compiuta, produrrebbe dei
cambiamenti nell’explanandum.
La teoria manipolativo-controfattuale rende inoltre conto della na-
tura asimmetrica della spiegazione: le cause spiegano gli effetti, men-
tre gli effetti non spiegano le cause, né, dati gli effetti di una causa co-
mune, uno spiega gli altri. È chiaro che è possibile usare le cause per
manipolare gli effetti, mentre non è possibile usare gli effetti per ma-
nipolare le cause, né è possibile, dati gli effetti di una causa comune,
usarne uno per manipolare gli altri. L’approccio manipolativo-con-
trofattuale trova una risposta anche al problema della rilevanza: i fat-
tori esplicativamente rilevanti sono quelli che, qualora fossero muta-
ti, produrrebbero un mutamento nell’explanandum, mentre si man-
terrebbe invariante la relazione che li lega. Spiegare perché un certo
fenomeno si verifica significa mostrare da che cosa esso dipende.
«Questo obiettivo è raggiunto fornendo le risorse per rispondere ad
una gamma di domande del tipo “cosa sarebbe successo se le cose fos-
sero andate diversamente”: come sarebbe variato l’esito se le condi-
zioni iniziali avessero subito vari mutamenti?» [Woodward e Hit-
chcock 2003, 21].
Le spiegazioni «forniscono conoscenza esibendo delle relazioni di
dipendenza controfattuale […] di quel particolare tipo associato a re-
lazioni che sono potenzialmente sfruttabili ai fini della manipolazione
e del controllo» [Woodward 2003, 13]. Legando strettamente causa-
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 134

134 Capitolo 7

lità e manipolazione, Woodward lega altresì la spiegazione alla capa-


cità di intervenire sui fenomeni e controllarne il comportamento. Co-
me abbiamo ricordato sopra, non si richiede a una generalizzazione,
per essere causale e svolgere un ruolo esplicativo, di essere invariante
nel caso di tutti i possibili interventi, ma solo di alcuni. Una genera-
lizzazione causale ammette gradazioni: essa sarà più o meno invarian-
te di un’altra a seconda che valga rispetto a un numero maggiore o
minore di interventi (effettuati o solo possibili). La posizione di Wo-
odward, elaborata prima in collaborazione con Daniel Hausman e poi
con Christopher Hitchcock, prevede che sia possibile identificare in
questo modo anche un grado di profondità della spiegazione (expla-
natory depth), consentendo di valutare alcune spiegazioni come più
profonde di altre. Più invariante risulta la generalizzazione inclusa nel-
la spiegazione causale, più profonda è la spiegazione stessa. Ad esem-
pio, la legge di van der Waals è invariante nel caso di una gamma di
interventi più ampia rispetto alla legge dei gas ideali, ed è quindi mag-
giormente esplicativa. “Una spiegazione è più profonda nella misura
in cui utilizza una relazione invariante che è più generale” [Hitchcock
e Woodward 2003, 181], dove la generalità va intesa in rapporto alla
gamma di ipotetici cambiamenti del sistema in esame. Nella teoria di
Woodward l’applicabilità e il grado di invarianza di una generalizza-
zione sono proprietà distinte. Mentre la prima riguarda il numero di
casi per i quali la generalizzazione può valere, la seconda ha a che ve-
dere con la gamma di variazioni rispetto alle quali la generalizzazione
continua a valere. Una generalizzazione molto stabile può avere un
campo di applicazione limitato, e, viceversa, una generalizzazione di
portata molto ampia può risultare invariante nel caso di un numero ri-
dotto di interventi. La stabilità di una generalizzazione dato un certo
insieme di possibili interventi è ciò che conta ai fini della spiegazione
scientifica. «In generale, entro un approccio interventionist chiarire il
contenuto di proposizioni causali dettagliate e specifiche vorrà dire
specificare esattamente quali interventi sulla variabile causa saranno
associati a quali cambiamenti sulla variabile effetto e in quali circo-
stanze di sfondo» [Woodward 2009, 252]4.
Benché i due approcci siano stati talora contrapposti (cfr. ad es.
Bogen 2004 e Waskan 2011), meccanicismo e approccio manipolati-
vo-controfattuale non sono incompatibili. La posizione di Woodward
presenta una forte anima manipolativa, che si coniuga soprattutto con

4
Su questo si veda anche Weslake [2010].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 135

La spiegazione manipolativo-controfattuale 135

alcuni aspetti dell’approccio controfattuale alla causalità, senza tutta-


via opporsi a quello meccanicistico. Partendo dall’idea di generaliz-
zazione invariante, Woodward richiama anche quella di meccanismo
causale. Egli ritiene che i meccanismi causali, costituiti da parti, go-
dano di due fondamentali proprietà: (i) il loro comportamento è go-
vernato da generalizzazioni che sono invarianti in caso di intervento,
e (ii) i meccanismi sono modulari, ovvero è possibile in linea di prin-
cipio modificare il comportamento di una parte del meccanismo sen-
za che vengano modificate le altre. Il requisito della modularità, am-
piamente dibattuto5, prevede che in un meccanismo si possa compie-
re un intervento su di una variabile coinvolta in una generalizzazione
causale senza che vengano mutate le altre regolarità causali che go-
vernano il sistema. Gli esperimenti compiuti su meccanismi causali,
in altri termini, devono essere tali che se in un sistema composto da
parti, C1, C2, … , Cn, si interviene su – ad esempio – C1, le altre com-
ponenti modulari e le generalizzazioni che le governano restano im-
mutate: «dev’essere possibile aggiungere un nuovo modulo […] o so-
stituire un modulo con un altro, senza modificare o distruggere i ri-
manenti moduli della struttura» [Woodward 2002a, S375]6.
I meccanismi causali sono dunque quei meccanismi il cui compor-
tamento è conforme a regolarità invarianti nel caso di intervento; il
nucleo della visione di Woodward resta comunque tutto incentrato
sulle nozioni di intervento e di controfattuale. Entro questa concezio-
ne manipolativa, all’individuazione e alla descrizione dei meccanismi
viene lasciata solo la funzione, non autonoma, di fornire ulteriore in-
formazione, più dettagliata, in merito alle relazioni di dipendenza con-
trofattuale e ai possibili interventi manipolativi che essi descrivono.
Che siano i rapporti di dipendenza controfattuale a rivestire un ruolo
di primaria importanza nell’analisi causale è testimoniato anche dal
fatto – insiste Woodward – che in moltissime occasioni ricorriamo ai
controfattuali anche senza avere raggiunto una conoscenza precisa dei
meccanismi loro associati. Sebbene ritenga che gli approcci che fan-
no appello unicamente ai meccanismi e quelli che fanno appello agli
interventionist counterfactuals siano complementari, Woodward non

5
Si vedano, ad esempio, Cartwright [2001] e [2007] e Hausman e Woodward
[2004].
6
A questo proposito Woodward nota come ci siano dei punti di contatto tra la sua
posizione e quella di Darden, Machamer e Craver su cui ci siamo soffermati nel ca-
pitolo precedente. In particolare, egli ritiene che la sua nozione di modularità sia stret-
tamente connessa a quello che Darden chiama “sotto-assemblamento modulare”.
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 136

136 Capitolo 7

manca di sottolineare come siano i secondi a permetterci di fare luce


sul funzionamento dei meccanismi, e non viceversa. Il rapporto tra
analisi controfattuale, manipolazione e meccanismi resta comunque
problematico, ed è all’origine di alcune obiezioni alla teoria di Wo-
odward di cui ci occuperemo nel prossimo paragrafo.

7.2 Manipolabilità e ruolo dei controfattuali

La teoria di Woodward e Hitchcock, pur riscuotendo un certo suc-


cesso, è stata fatta oggetto di varie critiche, alcune delle quali più le-
gate alla sua componente manipolativa, altre all’aspetto controfattua-
le. Abbiamo già menzionato all’inizio di questo capitolo come la con-
cezione manipolativa della causalità sia stata, in generale, tacciata di
antropocentrismo: se l’individuazione di nessi causali passa attraver-
so la manipolazione delle presunte cause, allora – è stato obiettato –
l’azione umana svolge un ruolo fondamentale, e i fenomeni naturali sui
quali non è possibile compiere un intervento umano diretto non sono
analizzabili in termini causali. Questa obiezione non colpisce la teoria
di Woodward, che è incentrata su una nozione di intervento che in-
clude le azioni umane, ma non si limita a queste: anche la natura può
compiere interventi7. Nella teoria manipolativo-controfattuale, le cau-
se vengono concepite come fattori che “fanno una certa differenza”
(difference-makers) rispetto al verificarsi dell’effetto, indipendente-
mente dal fatto che i nessi causali possano essere innescati o meno dal-
l’azione dell’uomo.
L’approccio manipolativo è stato altresì accusato di essere irrime-
diabilmente circolare. Usando le parole di un altro autore che si è oc-
cupato di causalità, Daniel Hausman, nell’approccio manipolativo «la
circolarità è evidente: avere un impatto su una variabile significa ave-
re un’influenza causale su di essa. Se non si sa già che cos’è la causa-
lità, e se non si sa già che gli interventi causano le alterazioni, e non so-
no causati da queste, la teoria manipolativa non dirà nulla» [Hausman
1986, 145]. Questo aspetto può risultare non problematico qualora –
come avviene nel caso della teoria di Woodward – l’intento non sia
quello di ridurre la nozione di causa a nozioni non causali. La pro-

7
Come efficacemente indicato da James Tabery, la cui teoria vuole coniugare
aspetti meccanicistici con aspetti dell’interventionist theory, «nature is the interven-
tionist» [Tabery 2009, 654].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 137

La spiegazione manipolativo-controfattuale 137

spettiva manipolativa e la teoria della spiegazione che si rifà ad essa


non hanno questa ambizione, ma solo quella di analizzare la causalità
nei termini di alcuni suoi aspetti fondamentali. Se vi è circolarità, que-
sta non viene quindi vista come viziosa: nella misura in cui l’approc-
cio chiarisce la causalità facendo emergere alcuni dei suoi aspetti più
importanti, l’eventuale ricorso a nozioni esse stesse causali per defi-
nirla può non essere giudicato un limite.
Nel panorama filosofico contemporaneo la teoria avanzata da Wo-
odward si situa nell’ambito di un ampio dibattito tra concezioni che
danno un’interpretazione controfattuale del legame esplicativo, e ap-
procci che, al contrario, ritengono che la spiegazione non debba ipo-
tizzare i valori che certe variabili potrebbero assumere e i legami che
esse potrebbero manifestare, bensì riguardare solo dati di fatto. Si trat-
ta del dibatto tra approcci alla spiegazione cosiddetti actualist e coun-
terfactualist8. Secondo i sostenitori della prima prospettiva, la spiega-
zione deve esibire solo ciò che si è effettivamente verificato antece-
dentemente all’evento e che ha portato alla sua realizzazione, non ciò
che avrebbe potuto farlo. Inoltre, è importante sottolineare che, men-
tre per chi abbraccia la teoria manipolativo-controfattuale l’indivi-
duazione dei difference-makers e delle generalizzazioni invarianti nel
caso di intervento è sufficiente a fini esplicativi, per chi opta per un ap-
proccio di tipo meccanicistico non basta identificare che cosa causa
l’explanandum, ma è necessario anche comprendere come lo fa, e trac-
ciare così i processi che vanno dalle cause agli effetti. In altre parole,
per i sostenitori di un approccio di tipo interventionist si è spiegato so-
lo una volta che si siano identificate le variabili le cui eventuali modi-
fiche si ripercuotono sull’explanandum; per i sostenitori di un ap-
proccio strettamente meccanicistico, invece, spiegare significa espli-
citare attraverso quali attività i fattori causali hanno effettivamente
prodotto l’evento da spiegare.
Uno degli aspetti più controversi della teoria interventionist è – co-
me è facile immaginare – il ruolo svolto al suo interno dai controfattua-
li. L’uso dei controfattuali nella teoria di Woodward, il loro valore di
verità e la possibilità di individuare generalizzazioni invarianti nel caso
di intervento senza fare ricorso al concetto di legge scientifica sono sta-
ti oggetto di dibattito. Nella posizione elaborata da Woodward – e, co-
me vedremo nel prossimo paragrafo, abbracciata in numerosi contesti
– «un intervento è un processo causale esogeno che produce l’antece-

8
Cfr. ad es. Bogen [2004]; Waskan [2011]; Woodward [2011].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 138

138 Capitolo 7

dente del controfattuale in questione. Dal punto di vista euristico, pos-


siamo pensare agli interventi come a manipolazioni compiute da un es-
sere umano in un esperimento ideale”» [Woodward e Hitchcock 2003,
9]. L’intervento, quindi, non costituisce il nesso causale, ma permette
semplicemente di individuarlo: compiere l’esperimento che corrispon-
de agli antecedenti delle proposizioni controfattuali in questione non le
porta ad avere un certo valore di verità. «Ciò che conta per stabilire se
X causi […] Y è il carattere “intrinseco” della relazione tra X e Y, ma
l’attrattiva di un intervento è proprio che fornisce un mezzo estrinseco
per cogliere o specificare questa caratteristica intrinseca» [Woodward
2000, 204]. Pertanto «sarebbe un errore credere che la possibilità fisi-
ca di un intervento su C sia in qualche modo costitutiva della connes-
sione causale tra C ed E. […] Quando un intervento muta C e in que-
sto modo cambia E, ciò sfrutta un legame causale esistente indipen-
dentemente tra C ed E» [Woodward 2003, 132]. Le parole di Wood-
ward sottolineano il valore euristico dei controfattuali: il suo approccio
vuole esplicitare la connessione tra i controfattuali e le manipolazioni
sperimentali compiute per controllare asserzioni causali ed esplicative.
I relata causali vengono intesi come variabili, o insiemi di variabili, che
possono assumere diversi valori, e gli interventi hanno la funzione di
evidenziare le relazioni esistenti tra le variabili in gioco. Resta però da
chiarire quale sia la portata effettiva della posizione di Woodward, ac-
cusato di portare alla luce unicamente i sintomi di una buona spiega-
zione causale, senza tuttavia chiarire davvero in che cosa consista la spie-
gazione causale. Inoltre, il ricorso ai controfattuali non sembra possibi-
le – è stato obiettato – senza un’adeguata posizione in merito alle leggi
scientifiche, e al rapporto tra queste e gli stessi controfattuali.
Senza un resoconto indipendente di che cosa siano le leggi, non è chia-
ro in che modo possiamo ritenere alcuni controfattuali (interpretati
sperimentalmente) veri o falsi. Quali interventi siano fisicamente pos-
sibili e quali interventi lascino alcune relazioni invariate dipende da
quali leggi ci sono. Queste ultime non possono essere comprese come
relazioni che restano invarianti nel caso di certi interventi poiché spe-
cificano quali interventi sono possibili [Psillos 2007, 105. Cfr. anche
Psillos 2004; Bogen 2004; Humphreys 2006; Woodward 2006].

Sembra, in altri termini, sussistere nella teoria di Woodward quel


“cortocircuito” tra controfattuali e leggi scientifiche che ne rende par-
ticolarmente problematico l’uso nella spiegazione, come già sottoli-
neato anche da Salmon [cfr. Salmon 1989, ed. it. 1992]. Psillos con-
clude che
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 139

La spiegazione manipolativo-controfattuale 139

l’invarianza nel caso di intervento è un sintomo delle relazioni causali


e delle leggi. Non è ciò che costituisce l’essere una causa o l’essere una
legge. È una grande virtù dell’approccio di Woodward il suo ricorrere
a questi sintomi per mostrare come funzionano le spiegazioni causali.
Ma questa innegabile virtù non deve oscurare il fatto che la spiegazio-
ne causale è più di relazioni stabili di dipendenza controfattuale (in
termini di intervento), poiché l’essere una causa e l’essere una legge so-
no più di questo [Psillos 2007, 106]9.

7.3 L’approccio manipolativo e le scienze speciali

La teoria di Woodward nasce con riferimento prevalente alla lette-


ratura elaborata in ambito statistico, economico ed econometrico10, ma
è stata poi sviluppata in rapporto ad un certo numero di discipline di-
verse. Nonostante i limiti e le questioni aperte, il ricorso alla nozione
di invarianza nel caso di intervento ha dettato il grande successo della
teoria manipolativo-controfattuale tanto nell’ambito generale della fi-
losofia della scienza quanto specificamente nel dibattito sulla spiega-
zione nelle cosiddette “scienze speciali”. Come abbiamo visto, l’ado-
zione dell’approccio manipolativo-controfattuale permette, grazie al
concetto-chiave di generalizzazione invariante, di evitare i problemi
tradizionalmente connessi alla nozione di legge scientifica, problemi
che si presentano con notevole forza in rapporto a discipline quali le
scienze biologiche e biomediche e le scienze sociali. In queste discipli-
ne, infatti, i fenomeni indagati presentano notevoli variazioni indivi-
duali, si fa un ampio uso di generalizzazioni soggette a eccezioni, e gli
eventi da spiegare sono spesso il risultato di numerose cause intera-
genti di diverso tipo. Senza pretendere di fornire un resoconto esau-
stivo di un dibattito molto ampio e tuttora in corso, presenteremo in
questo paragrafo alcune delle proposte di applicazione della teoria in-
terventionist della spiegazione in specifiche discipline scientifiche.
Nell’ambito delle scienze naturali, l’approccio manipolativo è stato
discusso anzitutto in rapporto alla biologia. Woodward ha sottolinea-
to come le spiegazioni biologiche debbano fare appello a generalizza-
zioni invarianti alle quali non si richiede di avere un campo di applica-
zione vastissimo, di essere prive di eccezioni o supportate da qualche
teoria di ampio raggio [Woodward 2001a]. Nel contesto di indagini

9
Si vedano anche Campaner [2006] e Campaner e Galavotti [2010].
10
Si vedano, ad esempio, Haavelmo [1944]; Holland [1986]; Hoover [1988].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 140

140 Capitolo 7

biologiche le caratteristiche delle relazioni causali che risultano davve-


ro importanti sono: la stabilità, che ha a che fare con la capacità della
relazione causale di continuare a valere in presenza di cambiamenti
nelle condizioni di sfondo; la proporzionalità, che ha a che vedere con
il fatto che a cambiamenti nello stato della causa corrispondano cor-
rettamente cambiamenti nello stato dell’effetto, con il fatto che causa
ed effetto siano caratterizzati o meno anche mediante dettagli irrile-
vanti e con la scelta del livello più appropriato a cui condurre l’indagi-
ne causale; la specificità, che concerne la misura in cui la relazione cau-
sale rilevata si avvicina alla relazione ideale “una causa – un effetto”.
Mentre Woodward [2010] propone di utilizzare il suo approccio
alla causalità basato sul concetto di intervento per chiarire proprio que-
sti aspetti, alcuni aggiustamenti della sua visione per una trattazione
adeguata di fenomeni biologici sono suggeriti da Kenneth Waters
[2007]. Il nocciolo della teoria manipolativa si adatta in modo natura-
le – sottolinea Waters – alla biologia, nella quale, come risulta con par-
ticolare chiarezza nel caso della biologia sperimentale e, soprattutto,
della genetica, l’interesse per l’intervento sui fenomeni e il loro con-
trollo è molto forte. Secondo l’autore, la teoria di Woodward – benché
non sia di per sé risolutiva – fornisce la strumentazione concettuale ne-
cessaria a chiarire due nozioni fondamentali nell’ambito del ragiona-
mento causale in biologia: potential difference maker e actual differen-
ce maker. In biologia ciò che viene indicato dagli studiosi come la cau-
sa di un dato processo è tipicamente solo una delle sue numerose cau-
se. È inevitabile rendere conto di ciò su basi esclusivamente pragmati-
che, oppure è possibile tracciare una qualche differenza ontologica tra
l’essere un fattore causale e l’essere la causa che ha fatto realmente una
certa differenza rispetto al verificarsi dell’evento? Per affrontare que-
sta questione, partendo dalla teoria di Woodward, Waters definisce il
concetto di actual difference maker come segue:
X è l’actual difference maker di Y in una popolazione p se e solo se
i. X causa Y (nell’accezione indicata dalla teoria manipolativa di Wo-
odward).
ii. Il valore di Y varia effettivamente tra gli individui della popolazio-
ne p.
iii. La relazione “X causa Y” è invariante rispetto alle variabili che ef-
fettivamente variano in p (nello spazio dei valori che quelle varia-
bili effettivamente assumono in p).
iv. La variazione effettiva nel valore di X rende completamente conto
della variazione dei valori di Y nella popolazione p (attraverso la re-
lazione di causalità tra X e Y) [Waters 2007, 567, corsivo aggiunto].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 141

La spiegazione manipolativo-controfattuale 141

Ciò su cui si insiste è che questo concetto è riferibile solo a fattori


causali che si manifestano in popolazioni reali, e che si può parlare di
effetto reale non come di una certa proprietà in un individuo, bensì so-
lo come una certa differenza nel valore di una proprietà all’interno di
una popolazione. Secondo Waters, mentre la teoria manipolativa di
Woodward basta per specificare, attraverso l’uso dei controfattuali,
quali sono i potential difference makers, la definizione riportata sopra
permette di individuare le cause effettivamente responsabili delle dif-
ferenze che si osservano entro popolazioni11. «Il fatto che i valori di al-
cune variabili effettivamente varino e i valori di altre non varino è una
caratteristica della struttura causale di una popolazione realmente esi-
stente» [ibid., 570]. Secondo Waters un approccio di questo tipo ben
rispecchia l’interesse dei biologi nella manipolazione dei processi e
dei meccanismi in atto negli organismi, attraverso la comprensione di
come essi effettivamente funzionano.
Anche in ambito medico la teoria manipolativo-controfattuale può
risultare di notevole interesse, e in grado di cogliere in modo naturale
i risvolti pratici e applicativi legati al contesto clinico. Anche in questo
caso, è lo stesso Woodward il primo a sottolineare come la sua teoria
possa trovare una pronta applicazione in medicina: «in un approccio
manipolativo l’asserzione – ad esempio – che il fumo causa il tumore
ai polmoni rimanda a una generalizzazione secondo la quale esiste un
insieme di interventi e di circostanze di contorno tali che, quando que-
sti interventi producono delle modifiche sull’abitudine di fumare de-
gli individui che si trovano nelle suddette circostanze di contorno, a
ciò è associata una variazione della loro probabilità di sviluppare un
tumore ai polmoni» [Woodward 2003, 172]. In questo senso, i van-
taggi della teoria manipolativa sono duplici: da un lato essa coglie l’in-
teresse eminentemente pratico del medico, che guarda ai nessi causali
per poter controllare le patologie e intervenire sui pazienti mediante
terapie o strategie preventive12; dall’altro lato, la ricerca di nessi causa-

11
Waters poi, sottolineando come in biologia si diano perlopiù casi in cui molti
fattori causali interagiscono, distingue ulteriormente tra the actual difference maker e
an actual difference maker.
12
Se in generale l’approccio manipolativo alla causalità insiste soprattutto sulla de-
finizione della causa come fattore manipolando il quale l’effetto viene prodotto, la me-
desima prospettiva può essere adottata nel caso delle azioni preventive: la causa può
essere definita come il fattore manipolando il quale si previene il verificarsi dell’effetto.
Si tratta in questo caso non di azioni produttive, bensì preventive (avoidance actions).
Questo aspetto è stato sottolineato in particolare da Donald Gillies che nella sua “teo-
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 142

142 Capitolo 7

li nei termini di ipotetiche situazioni sperimentali richiama da vicino i


trials e le indagini epidemiologiche13. L’uso dei controfattuali come
strumento per l’identificazione di nessi causali è particolarmente dif-
fuso in epidemiologia14, dove i fattori causali vengono identificati co-
me fattori di rischio, ovvero fattori che potrebbero fare una qualche
differenza rispetto all’insorgere di una patologia, e «un’esposizione ad
una certa sostanza è una causa [di una data malattia] se le persone espo-
ste alla sostanza che hanno sviluppato la malattia non l’avrebbero svi-
luppata in assenza dell’esposizione» [Schwartz e Susser 2006, 38].
L’adozione di controfattuali per descrivere interventi solo ipoteti-
ci permette di fare riferimento tanto a situazioni di carattere speri-
mentale quanto a contesti nei quali l’attività sperimentale è proble-
matica. Questo è visto come un vantaggio nell’analisi di casi partico-
larmente complessi in settori quali, ad esempio, la psichiatria, dove
l’attività sperimentale è fortemente limitata da numerosi fattori di ca-
rattere pratico ed etico. Tra i primi, Kenneth Schaffner [2002] ha sot-
tolineato i meriti di un approccio manipolativo-controfattuale, che
permetterebbe in psichiatria di isolare alcuni fattori causali, mante-
nendone altri come fissi, e di operare semplificazioni concettuali nel-
l’analisi di patologie non ancora del tutto decifrate (ad esempio, il
morbo di Alzheimer). Alcuni fattori, quelli che esercitano effetti di
maggior peso, verranno assunti come dominanti; i fattori dominanti
«sono le principali leve che permettono interventi, così come sem-
plici spiegazioni eziologiche» [Schaffner 2002, 286]. Lo stesso Wo-
odward [2008] e autori quali John Campbell e Kenneth Kendler
[Campbell 2008; Kendler e Campbell 2009] ritengono che una teo-
ria manipolativa della causalità e della spiegazione consenta di esa-
minare facilmente i fenomeni articolati su più livelli, quali le patolo-
gie in generale e, più specificamente, i disturbi mentali. Le interazio-

ria della causalità legata-all’azione” (action-related theory of causality) [2005] ne ha


sottolineato l’importanza proprio in un contesto medico.
13 Sul ricorso all’approccio manipolativo nelle scienze biomediche, si veda Cam-

paner [2011b] e [2011c]. Per delle posizioni che riconoscono i meriti della spiega-
zione manipolativo-controfattuale, ma, insieme, anche quelli della posizione mecca-
nicistica, si vedano, ad es., Galavotti [2001], [2008], [2010] e Campaner e Galavotti
[2007] e [2012]. Un ulteriore contributo recente che fa emergere la compatibilità di
approcci differenti è quello di Pâslaru [2009]. Vi si discute il caso delle spiegazioni
ecologiche, le quali comportano sia l’identificazione di relazioni causali invarianti sia
le descrizioni delle componenti meccanicistiche che rendono tali relazioni possibili.
14 Si vedano contributi quali Kaufman e Poole [2000]; Maldonado e Greenland

[2002]; Rothman e Greenland [1998].


07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 143

La spiegazione manipolativo-controfattuale 143

ni tra variabili di carattere, ad esempio, economico, sociale, ambien-


tale, psicologico, e variabili genetiche, neurologiche e fisiologiche
vengono considerate in modo non problematico, poiché tutto ciò che
si richiede è solo che le diverse variabili siano legate da relazioni in-
varianti. Non vengono imposte limitazioni di sorta relative al tipo di
variabili che possono comparire in un resoconto esplicativo: purché
si individuino generalizzazioni invarianti nel caso di intervento, le va-
riabili coinvolte possono appartenere a qualunque livello (ad es., al li-
vello della microbiologia o al macrolivello dei fattori socioeconomi-
ci), e le loro interazioni reciproche possono essere trattate senza dif-
ficoltà. Inoltre – ed è questo un aspetto su cui soprattutto Campbell
e Kendler insistono – non essendo interessato all’individuazione dei
meccanismi sottesi ai legami causali, l’approccio manipolativo-con-
trofattuale permette di non impegnarsi ontologicamente su alcun
fronte, e di restare così neutrali su questioni spinose quali il proble-
ma mente-cervello, che rischiano di condizionare, se non di ostaco-
lare, l’indagine psichiatrica. Questo approccio alla spiegazione per-
metterebbe, in altri termini, di fornire spiegazioni multilivello della
malattia mentale evitando «la scomoda e obsoleta zavorra lasciatoci
dal dualismo cartesiano» [Kendler 2005, 439].
Campbell [2007] ha indagato la possibilità di utilizzare l’approccio
interventionist anche nello studio della causalità in psicologia, nella
convinzione che molti aspetti dell’indagine empirica compiuta in que-
sta disciplina siano adeguatamente rappresentati dal suddetto ap-
proccio. Tre sono le questioni sulle quali Campbell focalizza la sua at-
tenzione:
1. Che cosa rende una relazione causale genuinamente psicologica,
anziché biologica
2. In che senso le ragioni possono essere cause
3. Quali possono essere le implicazioni dell’approccio interventio-
nist per l’idea che la ricerca di cause psicologiche debba essere
un’indagine di cause.
Per esemplificare il primo tipo di problema, Campbell prende il
caso del rapporto tra preoccupazione e insonnia: in una prospettiva di
tipo manipolativo, la preoccupazione è una causa dell’insonnia nel ca-
so in cui, se fosse compiuto un intervento sul livello di preoccupazio-
ne dell’individuo, ne seguirebbe una qualche differenza nel livello di
insonnia. In una situazione di questo genere si potrebbe affermare che
qualunque intervento sul livello di preoccupazione è inevitabilmente
un intervento su qualche insieme sotteso di variabili biologiche. Non
si potrebbe allora sospettare che non sia la preoccupazione in quanto
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 144

144 Capitolo 7

tale la causa dell’insonnia, ma che una qualche variabile biologica sot-


tesa alla preoccupazione sia causalmente legata a una qualche variabile
biologica sottesa all’insonnia, e che quindi siamo in presenza di una ca-
so di causalità biologica, e non psicologica? Un esempio analogo –
suggerisce Campbell – è dato dal rapporto tra fumo e tumore ai pol-
moni. Si può argomentare che il fumo e il tumore sono semplicemen-
te degli epifenomeni rispetto a una realtà microfisica sottesa, al livel-
lo della quale vanno cercate le relazioni causali autentiche. Tuttavia
saremo propensi ad affermare – ad esempio, di fronte a un portavoce
dell’industria del tabacco – che il fumo è una variabile di controllo
(control variable) del tumore, poiché interventi mirati sul tabagismo
portano a variazioni nell’incidenza del tumore ai polmoni. Questo ci
permette di sostenere che le relazioni causali tra fumo e tumore de-
vono essere individuate a livello macrofisico15. In che senso, allora,
l’approccio interventionist può aiutare a cogliere i nessi causali in psi-
cologia? Dire che la preoccupazione causa insonnia e che non si trat-
ta di meri epifenomeni significa dire che interventi sul grado di pre-
occupazione sono correlati ad ampie, specifiche e sistematiche varia-
zioni dell’insonnia.
La seconda, spinosa, questione affrontata concerne il rapporto tra
cause e ragioni, e pertanto i casi in cui la spiegazione causale fa riferi-
mento alle intenzioni del soggetto nel compiere una certa azione. Nel-
la prospettiva in oggetto, in che senso è possibile “intervenire” sull’in-
tenzione di qualcuno di compiere, o non compiere, una certa azione?
È possibile compiere un intervento specifico su un’intenzione, isolan-
dola dagli altri fattori che contribuiscono al comportamento razionale
del soggetto, incluso ciò che fa sì che il soggetto abbia quella certa in-
tenzione? Un intervento mirato su un’intenzione dovrebbe essere ester-
no e stabilire una forma di controllo sul fatto che il soggetto abbia quel-
l’intenzione, sospendendo quindi l’influenza delle ragioni che solita-
mente portano il soggetto ad avere una certa intenzione. Ovviamente,
non accade spesso – se mai accade – che la razionalità personale di un
individuo venga sospesa e che qualche forza esterna controlli se l’indi-
viduo sviluppa una data intenzione. Il vero problema per lo scenario in-
terventionist – secondo Campbell – è che non è credibile che il nostro
interesse per la causalità in psicologia sia un interesse per ciò che ac-

15
Campbell ammette che il riconoscimento di una variabile come variabile di con-
trollo rispetto ad un’altra è relativo al contesto, ma non ritiene questo aspetto pro-
blematico, poiché proprio di qualunque attribuzione di un ruolo causale.
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 145

La spiegazione manipolativo-controfattuale 145

cadrebbe in simili circostanze idealizzate, in cui si ha una sorta di “con-


trollo alieno” e in cui le stesse idee di intenzione e revisione delle in-
tenzioni risultano stravolte. Campbell suggerisce allora di non pensa-
re a uno scenario in cui l’autonomia razionale dell’agente è sospesa da
un controllo esterno, ma piuttosto di considerare casi in cui le cause più
comuni che portano alla formazione delle intenzioni dell’agente ope-
rano come al solito. Si deve valutare se in questo tipo di casi gli inter-
venti esterni che fanno una qualche differenza rispetto al fatto che
l’agente formi una certa intenzione, dato un certo insieme di valori per
gli altri stati psicologici dell’agente, sarebbero correlati a una qualche
differenza rispetto al fatto che l’agente compia/non compia una certa
azione. Infine, come sostenuto nell’ambito della psichiatria, anche in
psicologia l’approccio manipolativo-controfattuale presenta il vantag-
gio di non necessitare di un riferimento a meccanismi. Tutto ciò che si
richiede è la presenza di generalizzazioni invarianti, mentre si può re-
stare scettici o agnostici rispetto alla presenza di meccanismi, e non
ipotizzare forme specifiche di interazione e attività congiunta di varia-
bili psicologiche e di altro genere, ad esempio biologico.
Aspetti diversi dell’applicabilità della teoria manipolativo-contro-
fattuale in psicologia vengono affrontati dallo stesso Woodward
[2007], che analizza le forme del ragionamento causale e i modi in cui
esso viene elaborato. L’autore si richiama, in particolare, a vari studi
compiuti nella psicologia sperimentale, relativi al riconoscimento di
rapporti causali e all’uso di controfattuali da parte di bambini picco-
li16. Gli studi considerati dimostrerebbero che le risposte dei bambi-
ni connettono correttamente asserzioni causali e proposizioni contro-
fattuali concernenti il rapporto tra la variazione di un certo scenario e
le conseguenti variazioni dell’effetto. Questo confermerebbe che esi-
ste una comprensione implicita del ragionamento controfattuale e un
riconoscimento intuitivo del legame tra causalità e manipolazione.
L’esistenza di quest’ultimo legame viene supportata anche da esperi-
menti volti a dimostrare che le persone apprendono l’esistenza di nes-
si causali in modo più corretto e più veloce nei casi in cui possono
compiere interventi sui nessi in questione, anziché essere solo osser-
vatori passivi17. Questi e altri studi vengono presentati da Woodward
per ribadire che in modo naturale gli individui distinguono effettiva-
mente tra l’osservazione e l’intervento nel modo indicato dalla teoria

16
Si veda Harris [2000].
17
Si veda Lagnado e Sloman [2004].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 146

146 Capitolo 7

interventionist e che associano controfattuali non a ritroso ad asser-


zioni causali, impiegandoli in contesti in cui è ragionevole dare un’in-
terpretazione causale alle relazioni esaminate.
La teoria manipolativo-controfatuale di Woodward viene ritenuta
valida per cogliere le caratteristiche essenziali dell’elaborazione di spie-
gazioni causali anche in ulteriori branche della ricerca biomedica ri-
spetto a quelle sopra citate, in situazioni in cui la ricerca procede at-
traverso l’interazione tra sperimentazioni compiute in laboratorio e stu-
di puramente osservativi. È questo il caso dell’epigenetica, un ambito
di studi che, in termini molto generali, si occupa dei fenomeni ereditari
di carattere non genetico18. Per rapportarsi in modo efficace con la bio-
logia evoluzionistica, l’epigenetica deve essere in grado di mettere in re-
lazione le spiegazioni causali della biologia molecolare con le spiega-
zioni statistiche dell’ecologia. L’approccio di Woodward costituirebbe
proprio un utile candidato per la soluzione di questo problema, in
quanto fornirebbe un quadro esplicativo essenziale per legare le spie-
gazioni ecologiche basate su dati osservativi con le spiegazioni causali
manipolative della biologia molecolare. Si trovano infatti
parecchi lavori di epigenetica sperimentale contenenti (ipotetiche)
spiegazioni controfattuali di forma “se il valore di una variabile am-
bientale/epigenetica/genetica X fosse modificata, il valore del fenoti-
po (trans generazionale) Y muterebbe di conseguenza”. Ciò indica
che gli interventi compiuti in epigenetica sperimentale sono suppor-
tati da un approccio alla spiegazione di carattere controfattuale, che
guida lo sviluppo dell’elaborazione degli esperimenti e che è ricolle-
gabile a riposte a domande-perché del tipo descritto da Woodward
[Baedke 2012, 160].

L’approccio di quest’ultimo può costituire un ottimo strumento


euristico nel coordinamento di indagini causali che si collocano al-
l’incrocio di discipline e metodologie diverse, nella misura in cui for-
nisce un quadro esplicativo in cui dati osservativi e manipolazioni ven-
gono integrati e suggerisce nuove strategie di ricerca mediante inter-
venti sperimentali. In questo senso, la dimostrazione che si è in pre-
senza di una dipendenza sistematica del tipo suggerito da Woodward
permette – sottolinea Baedke – di pervenire a una sorta di consenso
esplicativo minimale, cosicché «anche nei casi in cui una spiegazione

18
«Il termine “epigenetica” definisce tutti i cambiamenti nell’espressione geneti-
ca ereditabili tramite meiosi e mitosi che non sono codificati nella sequenza stessa del
DNA» [Egger et al. 2004, 457, citato in Baedke 2012, 154].
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 147

La spiegazione manipolativo-controfattuale 147

meccanicistica non è ancora disponibile, una spiegazione interventio-


nist che la preceda fornisce uno strumento cruciale per coordinare ul-
teriori indagini in settori disciplinari diversi concernenti i (meccanismi
dei) fenomeni in esame» [ibid., 171].
Altri tentativi di applicazione della teoria di Woodward fanno rife-
rimento alle scienze sociali. Se le riflessioni di Woodward stesso han-
no preso spunto in larga misura dall’economia e dall’econometria, Da-
vid Henderson [2005] sostiene che esse possano riferirsi, più in gene-
rale, alle spiegazioni di comportamenti sociali. Le spiegazioni di azio-
ni individuali o collettive devono essere fornite nei termini delle nor-
me sociali che le governano, norme che vanno intese come generaliz-
zazioni concernenti disposizioni coordinate a comportarsi in un certo
modo. Ma qual è la caratteristica delle norme sociali che le rende più
propriamente esplicative? Secondo Henderson è proprio il grado di
invarianza che esibiscono: nonostante il loro alto grado di contingen-
za e variabilità, le norme sociali restano invariate rispetto ad alcuni si-
gnificativi cambiamenti nelle circostanze di sfondo, ed esprimono co-
sì il grado di stabilità del sistema sociale a cui appartengono. «Le de-
scrizioni di norme forniscono ciò che è – di fatto – una generalizzazio-
ne concernente un certo tipo di sistema storicamente contingente – un
gruppo o una società. Tale generalizzazione presenta un significativo e
interessante grado di invarianza» [Henderson 2005, 324].
La teoria manipolativa identifica la ricerca dei nessi causali con
l’identificazione della possibilità di modificare la presunta causa per
poter produrre cambiamenti nell’effetto. «Questa è presumibilmente
una delle ragioni per le quali gli approcci che sottolineano la connes-
sione tre manipolazione e causalità hanno successo nelle scienze orien-
tate alla sperimentazione, come la psicologia e la biologia molecolare,
e nelle scienze che forniscono indicazioni di carattere politico, come
l’economia» [Woodward 2009, 235]. Resta oggetto di discussione se
tutto ciò sia sufficiente a rappresentare in modo adeguato ed efficace
non solo questi aspetti, ma anche l’elaborazione di resoconti autenti-
camente esplicativi.
07Capitolo_7.qxp:Layout 1 5-02-2013 9:23 Pagina 148
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 149

Capitolo 8

La spiegazione funzionale

Nella spiegazione funzionale l’explanandum viene spiegato nei ter-


mini della funzione (o delle funzioni) che svolge all’interno del siste-
ma in cui è inserito. Il dibattito su questo modo di intendere la spie-
gazione scientifica è stato per certi versi trasversale al dibattito pre-
sentato nei precedenti capitoli. Anziché essere oggetto di un approc-
cio temporalmente collocabile e circoscritto, infatti, la spiegazione fun-
zionale è stata variamente discussa nel corso degli ultimi decenni, ve-
nendo così ad affiancare i dibattiti sui modelli a legge di copertura e
causali, e in parte intrecciandosi con essi. Tracceremo in questo capi-
tolo le principali posizioni espresse in merito alla spiegazione funzio-
nale, che ha suscitato un notevole interesse soprattutto in biologia e in
alcune scienze sociali e che continua ad essere oggetto di un vivace
confronto soprattutto con l’approccio causale.

8.1 Spiegazioni teleologiche e funzionali. La critica hempeliana

Il dibattito sulla spiegazione funzionale che ha avuto luogo in fi-


losofia della scienza negli anni Sessanta si è largamente richiamato al-
l’adozione di spiegazioni funzionali in antropologia per rendere ra-
gione di particolari usanze, costumi, abitudini sociali, forme artisti-
che e manifestazioni religiose. Il cosiddetto “funzionalismo” pro-
mosso e discusso da studiosi quali Bronislaw Malinowski, Robert
Merton e Alfred R. Radcliffe-Brown muove da una considerazione
della società quale sistema complesso e stabile, presupponendo l’esi-
stenza di una fondamentale analogia tra antropologia e biologia: co-
sì come la biologia si occupa di organismi animali, l’antropologia ha
per oggetto il funzionamento e il mantenimento dell’equilibrio in
quei particolari organismi che sono le società. La danza della piog-
gia presso una tribù indiana, ad esempio, ha la funzione di rafforza-
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 150

150 Capitolo 8

re la coesione del gruppo, e quindi la sua sopravvivenza; la famiglia


svolge la funzione di garantire il sostentamento della prole – e, quin-
di, dei membri più giovani di una certa società – proprio come de-
terminati colori sulle ali di certe farfalle hanno la funzione di mime-
tizzarle e aumentare le loro possibilità di sfuggire ai predatori. In
questa prospettiva, la cultura viene concepita come un sistema le cui
norme, attività e istituzioni sono interdipendenti e integrate, ciascu-
na come mezzo imprescindibile per l’adempimento di una funzione
specifica e necessaria per il buon mantenimento del sistema stesso
nel suo insieme. Sono le funzioni che certe pratiche, norme, usanze
sociali svolgono a spiegarne l’esistenza, così come nelle scienze bio-
logiche sono le funzioni di certi tratti organici a spiegarne la pre-
senza. In questo senso, il fine di un comportamento umano e socia-
le e l’equilibrio futuro di un sistema svolgono un ruolo primario nel-
le spiegazioni funzionali.
I caratteri peculiari e la validità delle spiegazioni funzionali sono
stati ampiamente dibattuti nell’ambito della filosofia della scienza, a
partire da riflessioni radicate nel contesto filosofico maturato in se-
guito all’empirismo logico. Come abbiamo già avuto modo di vede-
re, filosofi come Hempel, Nagel e Braithwaite intendevano rappre-
sentare le spiegazioni scientifiche come dotate di contenuto empiri-
co e del tutto prive di qualunque riferimento a elementi quali entele-
chie o cause finali. Braithwaite [1953, cap. 10] prende in considera-
zione, più propriamente, le spiegazioni teleologiche, ritenendole non
problematiche nel caso di azioni prodotte da intenzioni consapevoli.
Ci sono svariati tipi di azioni, però, che, pur essendo dirette ad uno
scopo, non sono il risultato di intenzioni consapevoli. È questo il ca-
so, ad esempio, del comportamento delle cavie nei labirinti e delle
torpedini, capaci di individuare il proprio bersaglio. Le azioni diret-
te a uno scopo sono caratterizzate – afferma Braithwaite – da plasti-
cità e varianza. La prima si riferisce al fatto che in molti casi l’agente
ha più di un mezzo per raggiungere il proprio scopo, e, qualora un
mezzo non sia sfruttabile per il fine prefisso, ne mette in atto un al-
tro: la cavia che deve raggiungere il cibo sceglierà, se bloccata, un al-
tro percorso. La varianza si riferisce invece al fatto che il medesimo
scopo può essere raggiunto in diversi contesti e a partire da diverse
condizioni iniziali: una torpedine è in grado di trovare il suo bersaglio
indipendentemente dal luogo specifico nel quale si trova. Le rifles-
sioni concernenti le spiegazioni funzionali si concentrano sulle azio-
ni dirette a uno scopo o sulle azioni auto-regolate – ad esempio, il
funzionamento di una caldaia regolata da un termostato o il mante-
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 151

La spiegazione funzionale 151

nimento della temperatura corporea nell’uomo e in altri animali. Brai-


thwaite ritiene che le spiegazioni teleologiche di fenomeni quali il
comportamento delle torpedini o di un sistema di riscaldamento sia-
no semplicemente delle abbreviazioni di spiegazioni causali più com-
plesse, e non siano dotate di caratteri specifici di particolare interes-
se. In altre situazioni, ad esempio nel caso di cavie in un labirinto, il
cui comportamento è chiaramente diretto a uno scopo, sembra in pri-
ma battuta più problematico elaborare spiegazioni esclusivamente
causali. In questi casi le spiegazioni teleologiche risultano adeguate e
filosoficamente interessanti, sebbene non si escluda la possibilità di
giungere comunque, ad un certo punto, a formulare spiegazioni cau-
sali in termini fisico-chimici.
La possibilità di elaborare o meno spiegazioni causali delle azioni
dirette a uno scopo è stata discussa anche da Nagel, interessato so-
prattutto alle spiegazioni fisiologiche dei sistemi omeostatici o auto-
regolatori [1956a; 1961]. A suo avviso, il modo in cui dei sistemi or-
ganici si auto-regolano per mantenere la temperatura è esplicabile in
termini causali nel medesimo modo in cui è possibile spiegare il fun-
zionamento di una caldaia, ovvero specificando precisamente le con-
dizioni in cui il sistema opera. Secondo Nagel, non solo disponiamo
già di spiegazioni causali di molti fenomeni fisiologici, ma in linea di
principio è possibile sostituire tutte le spiegazioni teleologiche con
spiegazioni causali. In questo modo vengono a cadere le difficoltà le-
gate all’idea che le azioni dirette a uno scopo si possano spiegare solo
facendo appello a fatti futuri.
Nel 1959, in un articolo intitolato significativamente The Logic of
Functional Analysis – anziché The Logic of Functional Explanation –
Hempel si concentra sulla forma logica di questo tipo di spiegazione,
valutandola in rapporto ai propri modelli. L’oggetto dell’analisi fun-
zionale è secondo Hempel
qualsiasi “elemento” i, un tratto o una disposizione relativamente per-
sistente (ad esempio, la pulsazione del cuore) in un certo sistema s (ad
esempio, il corpo di un vertebrato vivente); l’analisi funzionale mira a
mostrare che s è i uno stato o condizione interna ci e in un ambiente
contraddistinto da certe condizioni esterne ce tali che, nelle condizio-
ni ci e ce (indicabili congiuntamente come c) il tratto i ha effetti che
soddisfano qualche “bisogno” o “requisito funzionale” [Hempel
1959, ed. it. 1967, 44-45],

ossia che contribuiscono in modo imprescindibile al mantenimento


del sistema s in un appropriato assetto funzionale. Hempel sottolinea
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 152

152 Capitolo 8

come le spiegazioni funzionali siano strutturate in modo opposto ri-


spetto ai modelli della visione ricevuta: mentre in un argomento espli-
cativo hempeliano dall’explanans viene fatto derivare l’explanandum,
in una tipica spiegazione funzionale è l’explanandum che, insieme al-
le condizioni di contorno, porta ad asserire l’explanans, a causa del
cosiddetto “problema degli equivalenti funzionali”. Infatti, poiché so-
litamente la funzione in questione potrebbe essere svolta da una gam-
ma di caratteri biologici, istituzioni sociali, norme e riti diversi, le spie-
gazioni funzionali non rendono l’oggetto della spiegazione nomica-
mente attendibile né con certezza né con alta probabilità. Portiamo
un esempio. Prendiamo il caso di certe specie di lepri che vivono in zo-
ne particolarmente calde e hanno sviluppato delle orecchie molto
grandi per disperdere calore corporeo: quando la temperatura cor-
porea sale eccessivamente, l’animale cerca l’ombra, dilata i numerosi
vasi sanguigni presenti nelle orecchie, richiama il calore dalle altre par-
ti del corpo e lo irradia nell’ambiente, abbassando così la temperatu-
ra corporea. Benché le orecchie grandi siano uno strumento efficace
per svolgere questa funzione, esse non sono l’unico strumento possi-
bile, come testimoniato dal fatto che altri animali hanno adottato me-
todi diversi di controllo della temperatura corporea (ad esempio, gli
uomini sudano e i cani ansimano). Non è dunque possibile spiegare la
presenza delle orecchie grandi attraverso delle premesse che includa-
no le condizioni in cui le lepri vivono (il trovarsi in una zona molto cal-
da) e il fatto che tutti gli animali che vivono in zone calde devono ave-
re un meccanismo di riduzione della temperatura corporea. Da tali
premesse, infatti, non segue né deduttivamente né con alta probabili-
tà induttiva che quel tipo di lepri abbia grandi orecchie, poiché le le-
pri avrebbero potuto sviluppare un meccanismo differente di regola-
zione della temperatura. Ritenendo che tutte le spiegazioni scientifiche
adeguate debbano rispondere ai requisiti previsti dai modelli N-D o
S-I, Hempel conclude che le spiegazioni funzionali non possono essere
ritenute spiegazioni scientifiche autentiche. Quella funzionale è dun-
que per Hempel una forma di analisi dei fenomeni, ma non di spie-
gazione scientifica.
Guidato da un’attenzione più specifica per la fisiologia e la biolo-
gia, Nagel [1953; 1961, ed. it. 1968; 1977] cerca di superare il pro-
blema degli equivalenti funzionali notando come, una volta identifi-
cato in modo molto accurato l’organismo in esame, ci sia in realtà un
solo mezzo in grado di svolgere efficacemente la funzione in que-
stione. Ad esempio, se è vero che, in linea di principio, sono possibi-
li meccanismi per far circolare il sangue diversi da quello regolato
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 153

La spiegazione funzionale 153

dalla pulsazione del cuore, data l’effettiva storia evolutiva dell’homo


sapiens, questo è l’unico meccanismo realmente a disposizione. Ana-
logamente, nelle condizioni effettive nelle quali si sono evolute le
orecchie delle lepri non erano biologicamente disponibili tratti bio-
logici diversi (ad esempio, tanto la sudorazione quanto l’affanno
avrebbero privato le lepri di riserve corporee d’acqua, fondamentali
in un clima molto caldo e secco quale quello in cui quella specie di le-
pri vive). Sulla scorta di considerazioni di questo tipo, Nagel cerca
di superare le critiche hempeliane alla spiegazione funzionale, affer-
mando che questo tipo di spiegazione rientra in realtà nei modelli
della visione ricevuta. Se questo sembra argomentabile per quanto
concerne le spiegazioni fisiologiche, lo stesso Nagel [1961, ed. it.
1968] manifesta delle perplessità in merito alla possibilità di supera-
re completamente il problema degli equivalenti funzionali nell’ambi-
to delle scienze sociali.

8.2 Funzioni e cause. L’eziologia della conseguenza

Anche dopo il tramonto della visione ricevuta, l’analisi funzionale


ha dato luogo ad un ampio dibattito, dettato da preoccupazioni epi-
stemologiche di vario genere. Se qualcosa viene spiegato in base alla
funzione che svolge, di fatto viene spiegato dal risultato ultimo che
produce all’interno di un organismo, naturale o sociale. È possibile
che qualcosa venga spiegato dalle proprie conseguenze, da ciò che pro-
duce nel futuro? È opportuno assegnare alle spiegazioni funzionali un
ruolo autenticamente esplicativo, o non è forse più corretto ricono-
scere loro solamente un ruolo euristico?
Negli anni Settanta, in concomitanza con un impulso alla filosofia
della biologia, Larry Wright [1973; 1976] ha proposto un’analisi in
termini causali dei resoconti funzionali, sotto forma di quella che bat-
tezza “eziologia delle conseguenze”. In questa prospettiva si vuole al
tempo stesso esplicitare il carattere causale delle spiegazioni teleolo-
giche e ammettere che esse trattano di comportamenti diretti a degli
scopi, e rivolti, quindi, verso il futuro. Il fulcro della teoria di Wright
è l’idea che un certo comportamento B viene attivato perché in passato
B si è dimostrato causalmente efficace per ottenere un determinato
scopo G. In altri termini, il comportamento viene messo in atto per-
ché l’azione B è un mezzo adeguato al raggiungimento di G. Le con-
seguenze del comportamento B sono una parte fondamentale della
sua eziologia, ed elementi collocati nel passato entrano nella spiega-
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 154

154 Capitolo 8

zione di un effetto futuro. Nel caso di comportamenti umani, gli agen-


ti compiono B perché hanno buone ragioni per credere che, nelle cir-
costanze in cui si trovano, B sia un metodo appropriato per raggiun-
gere l’obiettivo G; nel caso di spiegazioni di comportamenti animali,
questi si ritengono messi in atto perché conferiscono a un certa spe-
cie un vantaggio a livello di sopravvivenza e riproduzione. Nella teo-
ria di Wright vengono considerati comportamenti teleologici i com-
portamenti umani risultanti da intenzioni consce, i comportamenti di
artefatti progettati per determinati scopi, e i comportamenti animali
dettati da vantaggi evoluzionistici. Nella definizione proposta da
Wright,
S fa B per ottenere G se e solo se:
i. B tende a condurre al verificarsi di G;
ii. B si verifica perché (cioè, a causa del fatto che) tende a condurre al
verificarsi di G [Wright 1976, 39].

Nelle opportune condizioni, B ha una certa tendenza a produrre


G, il che non significa che sia sempre in grado di portare al risulta-
to G.
Il comportamento che ha un’eziologia della conseguenza è un com-
portamento che si verifica o perché fa sì che si raggiunga un certo
obiettivo, o perché è il tipo di cosa che conduce al raggiungimento di
quell’obiettivo, o perché tende a far sì che quell’obiettivo sia raggiun-
to, o perché è una condizione necessaria al raggiungimento di quel-
l’obiettivo, o perché è, in un qualche senso, appropriato a far sì che
quell’obiettivo sia raggiunto [ibid., 38-39].

Ciò che può propriamente essere oggetto di spiegazioni teleologiche


sono per Wright solo i comportamenti, in quanto volti a uno scopo; le
spiegazioni funzionali, invece, si occupano spesso anche di oggetti che
svolgono una certa funzione esclusivamente perché si trovano in de-
terminate condizioni. Spiegazioni teleologiche e funzionali vengono
comunque trattate da Wright in maniera analoga.
L’attribuzione di una funzione non è altro che la risposta a una do-
manda-perché, una risposta che abbia forza eziologica […]. Non so-
lo le spiegazioni funzionali ci forniscono eziologie della conseguenza
(come le spiegazioni che fanno riferimento a scopi), ma è sufficiente
ascrivere una funzione a una certa entità e questa ascrizione ci forni-
sce di per sé una spiegazione [ibid., 81].

Secondo Wright pertanto la funzione di X è Z se e solo se:


08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 155

La spiegazione funzionale 155

i. Z è una conseguenza (un risultato) della presenza di X;


ii. X è presente perché fa (o fa sì che si verifichi) Z [ibidem]1.

In questa teoria le spiegazioni teleologiche e funzionali non sono in-


compatibili con spiegazioni di carattere meccanicistico: comporta-
menti diretti a uno scopo possono essere esplicati in termini mecca-
nicistici, e spiegazioni esclusivamente meccanicistiche del comporta-
mento di un certo sistema non escludono il riferimento a scopi e fun-
zioni. In ogni caso, secondo Wright anche qualora dovessimo giunge-
re un giorno a spiegare tutti i comportamenti in termini causali fisico-
chimici, la componente teleologica della spiegazione resterà inelimi-
nabile e le spiegazioni teleologiche e funzionali saranno riconosciute
spiegazioni scientifiche a tutti gli effetti.
Wesley Salmon ha ritenuto corretta la direzione presa dalle rifles-
sioni di Wright. Opponendosi, anche in questo caso, alla posizione
hempeliana, Salmon sostiene che le spiegazioni funzionali abbiano pie-
na validità scientifica e che sia la visione ricevuta a dover essere ab-
bandonata. Secondo Salmon è opportuno partire dalla constatazione
che le spiegazioni funzionali sono di fatto usate in vari settori della ri-
cerca scientifica. Esse sono compatibili con l’idea che sia possibile spie-
gare fatti non altamente probabili mediante partizioni rilevanti, e indi-
rizzano poi verso uno studio più approfondito delle relazioni causali.
Le spiegazioni della storia umana, come le spiegazioni usate dalle al-
tre scienze del comportamento umano […] fanno frequente ricorso a
scopi e fini consci. […] Nella biologia evoluzionistica, considerazioni
di carattere funzionale hanno un ruolo importantissimo […]. La pre-
supposizione su cui si basano le spiegazioni usate nella biologia evo-
luzionistica è che le cause efficienti, insieme ad eventuali avvenimen-
ti casuali, riescono a farci capire i meccanismi evolutivi. Quindi la bio-
logia evoluzionistica richiede un’esplicazione del concetto di funzio-
ne basata sul concetto di causa [Salmon 1989, ed. it. 1992, 60-61].

Salmon si dichiara quindi in fondamentale sintonia con l’imposta-


zione di Wright secondo cui le spiegazioni funzionali sono riformula-

1
Le ascrizioni di funzioni sono frequenti – come abbiamo già ricordato – in fi-
siologia e biologia evoluzionistica. Nella prospettiva di Wright, nei primi casi in cui,
nel corso dell’evoluzione, alcuni tratti emergono come risultato di un certo muta-
mento, a tali tratti non viene attribuita propriamente una funzione, poiché essi non
hanno un’eziologia della conseguenza. La funzione verrà riconosciuta solo dopo che
il persistere di quei tratti sarà stato determinato dalle conseguenze passate della loro
presenza.
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 156

156 Capitolo 8

bili in termini causali, ma ritiene che essa debba essere accompagnata


da una chiarificazione del concetto di causalità. Se per Wright quella
di causa è una nozione pre-teorica, Salmon, come abbiamo visto, pro-
pone un’articolata teoria dei processi, della produzione e della propa-
gazione causale. È attraverso queste nozioni che, a suo avviso, anche le
spiegazioni di stampo funzionale si possono esaminare e chiarire.

8.3 Funzioni, capacità e disposizioni

Negli stessi anni in cui Wright presentava la sua teoria, Robert


Cummins [1975] avanzava un’interpretazione delle funzioni basata
sulla nozione di “capacità”. Secondo Peter McLaughlin, si tratta al
tempo stesso di una posizione fortissima e ristrettissima: «è forte nel
senso che non ci sono molti contro-esempi all’analisi che fornisce, ed
è ristretta nel senso che copre un solo tipo di attribuzione funzionale:
il ruolo causale di un’entità di qualche particolare processo» [McLau-
ghlin 2001, 119-120]. L’idea su cui si incardina la teoria di Cummins
è che un’entità ha una funzione se contribuisce alla realizzazione di
qualche particolare capacità di un sistema più ampio, capacità alla
quale siamo interessati; la funzione dell’entità è data dal suo contri-
buto alla realizzazione della capacità del sistema. Moltissime relazio-
ni strumentali al funzionamento di un sistema vengono così definite
come funzioni. Pur non ponendo nessuna restrizione sul tipo di siste-
mi soggetti all’analisi funzionale, Cummins pare particolarmente in-
teressato a capacità cosiddette “emergenti” dei sistemi, ovvero a ca-
pacità che non sono semplicemente concatenazioni di capacità delle
componenti del sistema. Nella sua prospettiva, l’analisi funzionale non
è tanto l’analisi di una singola funzione espletata, ma piuttosto l’ana-
lisi di un’intera struttura, considerata nel suo complesso da un punto
di vista funzionale; le funzioni delle parti del sistema non sono sem-
plicemente parti addizionabili della sua funzione globale, ma contri-
buiscono in modo decisivo al suo realizzarsi.
Ciò che interessa Cummins non è la chiarificazione del concetto di
funzione, bensì l’analisi della spiegazione di capacità o disposizioni at-
traverso le proprietà di un sistema. Le funzioni vengono individuate
in rapporto a capacità del sistema. Queste devono essere, a loro vol-
ta, identificate in base alle circostanze e ai nostri interessi: le riflessio-
ni di Cummins fanno riferimento indifferentemente a sistemi biologi-
ci e sociali, e le capacità non sono pensate come proprietà naturali in-
trinseche al sistema e gerarchicamente organizzate al suo interno. In
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 157

La spiegazione funzionale 157

questa teoria, la componente X è un mezzo per la realizzazione della


funzione Y, la quale a sua volta è un mezzo per la realizzazione della
capacità C del sistema che la include. Per la teoria di Cummins – che
presenta una significativa componente soggettiva – ciò che individua
un certo aspetto di un sistema
come un fine è il nostro interesse analitico per questa specifica capa-
cità del sistema. Per Nagel si trattava di qualunque fine verso il quale
il sistema sembrasse diretto; per Hempel si trattava del buon funzio-
namento del sistema. [Nella teoria di Cummins], se astraiamo dai no-
stri interessi analitici, un’entità ha una funzione solo relativamente al-
l’attività di qualche altra entità, ovvero solo nella misura in cui con-
tribuisce a qualche funzione del sistema che la contiene; e quest’atti-
vità del sistema che la include conta, a sua volta, come attività avente
una funzione rispetto ad un altro sistema che include il primo, e così
via. Questo ci porta ad un regresso senza un punto d’arresto natura-
le. Il regresso ha termine solo quando diciamo: “Questo è il livello al-
la cui attività siamo interessati” [ibid., 122].

Verso la fine degli anni Ottanta John Bigelow e Robert Pargetter


[1987] hanno presentato «una teoria sulle spiegazioni funzionali che
è forse migliore di quella di Wright, ma […] non è fondamentalmen-
te diversa2» [Salmon 1989, ed. it. 1992, 190, corsivo nel testo]. Essa si
basa sull’idea che un oggetto possa essere dotato di una certa disposi-
zione o tendenza a svolgere una data funzione. Bigelow e Pargetter si
appellano, più precisamente, alla nozione di propensità, e intendono
evitare di concepire le funzioni come puramente relative a qualche ca-
pacità di un sistema arbitrariamente individuata, rischio che affiora in
posizioni come quella di Cummins. A differenza di posizioni eziolo-
giche quali quella di Wright, in cui si richiede che ci sia una storia di
conseguenze efficaci nel passato per poter attribuire a un’entità una
data funzione, la teoria di Bigelow e Pargetter ritiene che una certa
entità possa svolgere una certa funzione fin dai primi istanti della sua
esistenza. Bigelow e Pargetter concentrano la loro attenzione sui si-
stemi biologici, e si riferiscono a uno specifico scopo a cui questi ten-
dono, ovvero il loro livello di adattamento o fitness. Le propensità ven-
gono qui intese come proprietà che incrementano la probabilità di

2
Per alcune osservazioni critiche sul rapporto tra la teoria di Wright e quella di
Bigelow e Pargetter si veda Salmon [1989, ed. it. 1992, 194-195]. Per un giudizio sul-
la teoria di Bigelow e Pargetter che intende opporsi a quello di Salmon, si veda Mit-
chell [1993].
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 158

158 Capitolo 8

pervenire a un certo esito: «qualcosa ha una funzione (biologica) so-


lo nel caso in cui conferisca alla creatura che la possiede la propensi-
tà ad estendere la sua sopravvivenza» [Bigelow e Pargetter 1987,
192]3. Gli organismi dotati di tratti che esibiscono tali propensità han-
no una maggiore probabilità di sopravvivere rispetto ad organismi che
ne sono privi. «Ciò che determina lo status di funzione non è la mera
sopravvivenza-in-virtù-di-un-certo-carattere, ma, piuttosto, la soprav-
vivenza grazie alla propensità che il carattere conferisce alla creatura
che lo possiede» [ibidem]. Per escludere da questo tipo di considera-
zioni i tratti che possono svolgere una funzione benefica solo acci-
dentalmente, i due autori richiedono che i tratti debbano conferire in
modo stabile una propensità all’organismo che li include. Solo l’aspet-
to del tratto che contribuisce all’aumento della probabilità di soprav-
vivenza dell’organismo si può dire svolga una certa funzione.
Nella teoria di Bigelow e Pargetter le propensità conferite agli or-
ganismi, da un lato, sono dovute ai tratti degli organismi che sono pre-
posti a certe funzioni e, dall’altro lato, sono relative all’ambiente na-
turale o all’ambiente effettivo in cui gli organismi vivono. Un caratte-
re può contribuire alla migliore sopravvivenza in un certo ambiente,
e non in un altro.
C’è spazio per un certo disaccordo in merito a cosa valga come “am-
biente naturale”, ma questo genere di parametri variabili sono comu-
ni in molti concetti scientifici utili. […] In ogni caso, l’habitat naturale
dell’entità in questione sarà un sistema funzionante, sano, costituito da
organi e parti interconnessi, del tipo abituale per la specie in esame
[ibidem]4.

Bigelow e Pargetter vogliono scongiurare il rischio di fare appello,


in un’analisi funzionale, ai nostri interessi o alle nostre intenzioni. Le
funzioni vengono specificate in termini ipotetici, considerando cosa ac-
cadrebbe se certi tratti conferissero una certa propensità alla sopravvi-
venza di un dato essere vivente nel suo ambiente naturale. Le attribu-
zioni di funzioni vengono dunque fatte valere anche nel caso in cui l’es-

3
Bigelow e Pargetter ammettono anche la possibilità che la loro teoria venga este-
sa all’analisi delle funzioni di artefatti. Anche in quest’ultimo caso, si considereranno
le funzioni degli artefatti rispetto a un certo “processo di selezione” delle rappresen-
tazioni che essi consentono.
4
Bigelow e Pargetter riconoscono altresì che uno sviluppo della loro teoria ri-
chiederebbe l’adozione del calcolo delle probabilità per chiarire il concetto di pro-
pensità in termini formali [si veda ibid., 194].
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 159

La spiegazione funzionale 159

sere vivente di fatto non sopravviva, o non si trovi mai nel suo ambiente
naturale. Le funzioni svolgono un ruolo esplicativo poiché, nei casi in
cui effettivamente l’organismo sopravvive, la sua sopravvivenza viene
appunto spiegata nei termini dell’esistenza dei caratteri o strutture che
gli hanno conferito una certa propensità alla sopravvivenza. Concepi-
re le funzioni come disposizioni o propensità al successo entro un pro-
cesso di selezione naturale significa rivolgere l’attenzione al percorso fu-
turo del sistema5. Un possibile esito di questa teoria – è stato osserva-
to – è però che ad ogni tratto venga riconosciuta una qualche funzio-
ne, e che alla maggior parte dei tratti ne vengano riconosciute molte.
Poiché gli effetti benefici di un certo tratto potrebbero manifestarsi,
ad esempio, in un ambiente naturale futuro, o potrebbero aumentare
in misura anche minima la probabilità di sopravvivenza del sistema, o
potrebbero essere effetti solo potenziali e non effettivamente attuati, la
teoria di Bigelow e Pargetter ha «moltiplicato ulteriormente ciò che si
era ripromessa di ridurre» [McLaughlin 2001, 127]6.
Le teorie di Cummins, Bigelow e Pargetter, etichettabili some “teo-
rie disposizionali”, non hanno interesse a spiegare perché una certa en-
tità si è inizialmente presentata, o in quale modo è venuta affermando-
si rispetto ad altre entità possibili, ma solo quale funzione svolge. Giac-
ché si limitano a spiegare il comportamento dell’entità preposta a una
certa funzione, le visioni disposizionali sono state accusate di poter in-
terpretare, in linea di principio, pressoché qualunque relazione di tipo
mezzo-fine come funzionale. Secondo alcuni critici, sarebbe infatti suf-
ficiente individuare attentamente un opportuno sistema di riferimento
per poter affermare che in rapporto ad esso una certa entità svolge un
qualche ruolo strumentale. Inoltre, entro una simile prospettiva cosa re-
sta della differenza tra effetti e funzioni? Se tutti gli effetti risultanti da
un tratto strutturale o comportamentale sono anche l’esito di funzioni
svolte, potremmo giungere ad abbandonare completamente la termi-
nologia funzionale e limitarci a parlare di cause ed effetti? La peculiari-
tà dell’approccio funzionale risiede nel fatto che essa rileva un fine a cui
il sistema tende, e indaga in che modo questo fine può essere persegui-
to dall’attività di alcune parti del sistema. In quest’ottica, le attività di
parti del sistema che non partecipano a quel fine non valgono come
espletamento di funzioni, ma solo come produzione di effetti collatera-

5
Per un confronto critico della prospettiva eziologica e di quella disposizionale –
e una difesa della prima – si veda ad esempio Godfrey-Smith [1994].
6
Per una discussione di questi aspetti, si veda McLaughlin [2001, 126-128].
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 160

160 Capitolo 8

li. Sembra allora esserci – è la risposta dei difensori di quest’approccio


– una reale differenza tra gli effetti di entità che rispondono allo svolgi-
mento di una funzione ed effetti che non lo fanno.

8.4 Vantaggi e limiti delle spiegazioni funzionali

Il dibattito sulla spiegazione funzionale riveste un certo rilievo non


solo per la filosofia della scienza in generale (in che cosa consiste una
spiegazione funzionale?; quali implicazioni può avere l’individuazione
di funzioni per il nostro approccio globale alla spiegazione scientifica?),
ma anche per la filosofia delle scienze sociali, per la filosofia della bio-
logia e della medicina. Il dibattito vede coinvolte anche la filosofia del-
la tecnologia e, in parte, la filosofia della mente e del linguaggio: da un
lato, ci si interroga su quale possa essere il ruolo dell’analisi funzionale
nella definizione di un artefatto tecnologico e nella spiegazione del suo
utilizzo; dall’altro lato, sono stati proposti alcuni approcci esplicativi ai
contenuti mentali e linguistici che fanno appello a funzioni biologiche.
Data la molteplicità di temi e settori coinvolti, è facile comprendere co-
me il dibattito si presenti come non solo molto ampio, ma per certi ver-
si anche frammentato. Uno dei nodi cruciali è dato dall’idea che «una
funzione non sia necessariamente qualcosa che un’entità fa, ma piutto-
sto qualcosa che dovrebbe fare» [Wouters 2005, 124, corsivo aggiunto].
È possibile distinguere tra sistemi le cui parti hanno delle funzioni, e si-
stemi le cui parti non ne hanno? Qual è la struttura del ragionamento
funzionale, e in che misura può contribuire ad un accrescimento della
conoscenza scientifica? Tutte le analisi funzionali hanno le medesime
caratteristiche, oppure le spiegazioni funzionali di comportamenti uma-
ni, istituzioni sociali e artefatti differiscono in modo sostanziale dalle
spiegazioni funzionali riferite a organismi biologici? Le risposte a que-
sti quesiti sono varie. Nei due paragrafi che seguono ricordiamo alcune
questioni problematiche e alcune possibili soluzioni che riteniamo esem-
plificative del dibattito sulla spiegazione funzionale nelle scienze socia-
li e nelle scienze biologiche e biomediche.

8.4.a La spiegazione funzionale e i sistemi sociali


La spiegazione funzionale tratta del comportamento di sistemi, in-
tendendo con ciò insiemi di elementi organizzati attraverso una serie di
mutue relazioni, la cui organizzazione risulta essenziale al manteni-
mento dell’equilibrio e del corretto funzionamento del sistema. Uno
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 161

La spiegazione funzionale 161

degli aspetti problematici della spiegazione funzionale concerne la pos-


sibilità di analizzare un sistema sociale con i medesimi strumenti con-
cettuali con i quali si analizza un sistema biologico. È giustificato l’uti-
lizzo di spiegazioni funzionali a partire dal presupposto che esse pos-
sano essere ugualmente adottate nelle scienze biologiche e in quelle so-
ciali? È corretto parlare di equilibrio di un sistema sociale – e di fun-
zioni svolte per il mantenimento di tale equilibrio – nel caso dei siste-
mi sociali? L’analogia tra sistemi sociali e organismi biologici, spesso
assunta nelle spiegazioni funzionali, è stata messa in discussione. Sem-
bra infatti quanto meno problematico sostenere che i sistemi sociali
nascano e muoiano nel medesimo senso in cui nascono e muoiono i
singoli organismi biologici, e che quindi l’esistenza di un sistema so-
ciale sia circoscrivibile con esattezza. Né i sistemi sociali sono soggetti
alla medesima legge dell’evoluzione naturale, legge che costituisce una
parte significativa di molti approcci alla spiegazione funzionale7.
Un altro aspetto controverso è legato alla neutralità valutativa del-
le spiegazioni funzionali. Secondo alcuni critici, infatti, parlare di “fun-
zionamento normale” o di “equilibrio” di un sistema equivarrebbe
inevitabilmente a introdurre nella spiegazione elementi di giudizio e/o
normativi, che ne minerebbero l’oggettività. Se questo può essere un
problema per tutte le spiegazioni funzionali, esso sembra particolar-
mente spinoso in rapporto alle scienze sociali. Mentre infatti in ambi-
to biologico è possibile giungere a definizioni abbastanza condivise
del comportamento “standard” o “sano” di un organismo, cosa pos-
sa valere come “stato normale” di un sistema sociale risulta più diffi-
cilmente definibile, maggiormente minato da componenti valutative,
nonché soggetto al rischio di avallare semplicemente lo status quo.
Inoltre, a quale livello di osservazione ci situeremo nell’identifica-
re le funzioni svolte da componenti del sistema? Discutendo proble-
mi e limiti della spiegazione funzionale, Giovanni Boniolo e Paolo Vi-
dali hanno sottolineato come la spiegazione di un sistema sia sempre
«frutto di una scelta operata dall’osservatore, che ritaglia in un am-
biente processi specifici, cioè un sistema con la sua organizzazione e
le sue possibili dinamiche, e nel far ciò riduce a rumore di sfondo ogni
altra relazione che pure interviene nell’interazione tra sistemi» [1999,
484]. Queste preoccupazioni sembrano analoghe ad altre emerse in
rapporto alla spiegazione meccanicistica (si veda cap. 6) ed affronta-
bili nel medesimo modo: saranno – riteniamo – considerazioni prag-

7
Si veda, ad esempio, Hallpike [1986].
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 162

162 Capitolo 8

matiche e contestuali a suggerire a quale livello è opportuno che si at-


testi l’analisi funzionale.
Come abbiamo già ricordato, un aspetto problematico sottolineato
dal dibattito sulla spiegazione funzionale – e in parte già presente nel-
le riflessioni di Hempel e Nagel – concerne l’attenzione specifica alla
presenza di certe entità e lo svolgimento delle relative funzioni, a sca-
pito dell’interesse per l’origine di tali entità e funzioni. Secondo i criti-
ci, le spiegazioni funzionali si limitano a rendere ragione dell’esistenza
di tratti biologici, norme sociali, e così via, nei termini delle funzioni che
svolgono, in un’ottica statica e atemporale, senza interrogarsi sul come
e sul perché tali entità si siano inizialmente affermate. La critica ha dun-
que sottolineato come un’analisi di questo tipo possa essere partico-
larmente fuorviante nel caso di sistemi sociali, il cui sviluppo è sempre
fortemente condizionato dalla dimensione storica.
Una valutazione positiva delle spiegazioni funzionali è stata invece
data da Harold Kincaid [1990], il quale, pur riconoscendo il valore
delle analisi causali, ha ribadito l’autonomia delle spiegazioni funzio-
nali e sottolineato la loro importanza all’interno della pratica effettiva
delle scienze sociali. Affinché queste spiegazioni rappresentino in ma-
niera fedele l’attività scientifica è tuttavia necessaria, a suo avviso, una
maggiore attenzione alle possibili varianti dei modelli di spiegazione
funzionale e alle difficoltà che essi presentano. Le spiegazioni funzio-
nali rischiano, infatti, di rappresentare solo casi estremamente sem-
plificati e, quindi, lontani dalla realtà. Resoconti esplicativi adeguati –
sottolinea Kincaid – dovrebbero includere non solo i fattori funzionali,
ma anche quelli a-funzionali e dis-funzionali che le varie discipline ri-
levano nei casi in esame. Inoltre, è sufficiente specificare tutti i suddetti
fattori per avere una spiegazione valida, oppure perché un resoconto
funzionale risulti esplicativo dev’essere completato da una descrizio-
ne dei meccanismi attraverso i quali le funzioni vengono espletate?
Secondo Kincaid, mentre è plausibile che in molti casi si riesca ad in-
dividuare i meccanismi causali che legano un certo tratto biologico al-
l’organismo in cui esso svolge un certo ruolo, è discutibile se ciò pos-
sa avvenire con altrettanta facilità in discipline quali l’antropologia e
la sociologia. In un articolo più recente [2002], Kincaid ha così pre-
sentato la spiegazione funzionale come un tipo di spiegazione causa-
le, continuando in ogni caso a sostenerne l’importanza per la com-
prensione delle relazioni studiate nelle scienze sociali. Esempi illustri
del larghissimo uso di spiegazioni funzionali in questa gamma di di-
scipline sarebbero forniti dal pensiero di Marx, secondo il quale lo
stato esiste per promuovere gli interessi della classe dominante; dalla
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 163

La spiegazione funzionale 163

convinzione di Durkheim che la divisione del lavoro esista per pro-


muovere la solidarietà sociale; dall’idea di Parsons che i modelli di in-
terazione esistano per promuovere bisogni sociali. La diffusione del-
le analisi funzionali nell’ambito delle scienze sociali è dovuta – secon-
do Kincaid – a due loro assunzioni: l’assunzione di intenzionalità e l’as-
sunzione di scarsità. Secondo la prima, la vita sociale è caratterizzata
dalla lotta per il raggiungimento di certi fini attraverso comportamenti
intenzionali; i fini in questione non sono sempre – e neppure nella
maggior parte dei casi – fini di cui i singoli individui sono consapevo-
li (si pensi, ad esempio, alla creazione degli stati o alla divisione del la-
voro). Secondo l’assunzione di scarsità, la lotta per il raggiungimento
di fini sociali è l’inevitabile prodotto delle limitate risorse di cui la so-
cietà dispone. Sono questi aspetti – sostiene Kincaid – a rendere ine-
liminabile l’analisi funzionale nello studio della società e del suo fun-
zionamento: pur potendo essere riscritte, in linea di principio, in ter-
mini interamente causali, in pratica le spiegazioni funzionali conti-
nuano ad essere usate nelle scienze sociali, e i casi in cui falliscono non
giustificano certo una loro complessiva eliminazione.

8.4.b La spiegazione funzionale nelle scienze biologiche e biomediche


Il dibattito sulla spiegazione funzionale continua ad essere partico-
larmente ricco e vivace in filosofia della biologia e della medicina. Al-
l’interno di questo dibattito si possono identificare, in prima battuta,
tre principali approcci alla nozione di funzione: l’approccio eziologi-
co […], il quale definisce le funzioni nei termini di selezione natura-
le avvenuta nel passato; l’approccio […] che definisce le funzioni co-
me effetti che aumentano le probabilità di sopravvivenza delle entità
in questione; e l’approccio sistemico […], che definisce le funzioni
come finalizzate alla realizzazione di una capacità o attività comples-
sa [Wouters 2003, 634].

Tra i sostenitori del primo approccio si collocano Karen Neander,


Ruth Garrett Millikan, Sandra Mitchell e Robert Brandon; tra quelli
del secondo Michael Ruse, William Wimsatt e gli stessi Bigelow e Par-
getter; tra i sostenitori del terzo Cummins e Craver8. Non potendo
soffermarci in questa sede sulle posizioni dei singoli autori, ci limite-

8
Si vedano, ad esempio, Neander [1991a], [1991b]; Millikan [1984], [1989]; Mit-
chell [1993], [1995]; Brandon [1981], [1996]; Wimsatt [1972], [1976].
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 164

164 Capitolo 8

remo in quest’ultimo paragrafo a ricordare alcuni dei temi e nodi pro-


blematici che risultano significativi per il dibattito sull’uso della no-
zione di funzione in un contesto biologico e biomedico.
Se la presenza in almeno alcune discipline di spiegazioni che fan-
no appello a funzioni è ampiamente riconosciuta, è sull’autonomia del-
le spiegazioni funzionali rispetto a spiegazioni di altro tipo che conti-
nuano ad esserci punti di dissenso. Per alcuni difensori della spiega-
zione funzionale in ambito biologico e biomedico, «le scienze fisiche
rispondono solo alle domande del come mentre invece le scienze bio-
logiche, le quali oltre alla dimensione fisica hanno anche quella stori-
ca, si pongono altre due domande, quella dell’a che scopo e del come
mai» [Azzone 1991, 41]. La medicina ha un notevole, naturale inte-
resse per la capacità di ogni organismo e di varie sue componenti di
autoregolarsi, così da preservare lo stato d’equilibrio. La funzione di
organi e processi è, a diversi livelli, quella di mantenere costante l’am-
biente interno dell’organismo (omeostasi), malgrado le variazioni am-
bientali; i centri ipotalamici svolgono la funzione di presiedere la ter-
moregolazione; i reni hanno la funzione di regolare la composizione
del sangue; gli ormoni quella di regolare il metabolismo di cellule e
organi. Sebbene le spiegazioni funzionali trovino quindi uno spazio
nelle scienze biomediche, resta forte la convinzione che esse possano
essere riformulate in termini di spiegazione causale. «La differenza tra
la spiegazione teleologica e quella causale è di enfasi e non di conte-
nuto. Nella prima si pone l’accento sulle conseguenze, nella seconda
sulle condizioni di un processo» [ibid., 93]. Alla spiegazione funzio-
nale può comunque venire riconosciuto un ruolo specifico, inteso a
sottolineare come l’esistenza di un sistema (un organo, una struttura,
l’intero organismo) sia indirizzata ad uno scopo, e come lo svolgi-
mento di una certa funzione possa valere come spiegazione dell’esi-
stenza del sistema o di una sua parte. Per alcuni dei suoi sostenitori,
la spiegazione teleologica introduce un concetto aggiuntivo che è as-
sente nella spiegazione puramente causale: quello del fine per cui si so-
no sviluppati certi sistemi nei viventi e del vantaggio selettivo legato al-
lo sviluppo di questi sistemi. Un sistema è teleologico se esso ha con-
tribuito all’efficienza riproduttiva dell’organismo e se questo contri-
buto giustifica l’esistenza del sistema [ibid., 96].

La stessa definizione di malattia può rimandare al concetto di fun-


zione: muovendo dall’osservazione che un organismo sopravvive gra-
zie al funzionamento di una serie di processi che hanno appunto lo
scopo di garantirne la sopravvivenza, si può affermare che «la malat-
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 165

La spiegazione funzionale 165

tia si presenta come un processo in cui la realizzazione della finalità es-


senziale dell’organismo viene nel suo complesso ostacolata o impedita»
[Federspil, Sicolo, Vettor 1995, 46, corsivo nel testo].
Se vogliamo analizzare la nozione di funzione in rapporto all’uso ef-
fettivo che ne viene fatto nelle scienze biologiche, non possiamo non
constatare – ha sottolineato Arno Wouters [2003] – che a tale nozio-
ne vengono però attribuiti significati differenti. Nello studio di orga-
nismi viventi sono infatti riscontrabili le seguenti accezioni del con-
cetto:
(1) funzione come semplice attività: ci si riferisce a ciò che un’en-
tità compie di per sé. Questa accezione contrappone la nozio-
ne di funzione a quella di forma: la funzione è un’attività os-
servabile e misurabile compiuta da una certa entità;
(2) funzione come ruolo biologico: ci si riferisce al contributo che
un’entità o un’attività danno a un’attività complessa o a una
certa capacità di un organismo;
(3) funzione come vantaggio biologico: ci si riferisce al valore che
per un certo organismo ha il possedere un tratto dotato di un
determinato carattere piuttosto che di un altro;
(4) funzione come un effetto frutto di selezione: ci si riferisce al mo-
do in cui un certo tratto si è affermato e permane entro una cer-
ta popolazione.
Le differenze tra queste accezioni affondano le radici – afferma
Wouters – nel loro diverso ruolo esplicativo. In particolare, secondo
Wouters è fondamentale riconoscere come separata dalle altre l’acce-
zione (3), che riconduce la funzione a vantaggio biologico e conferi-
sce alle spiegazioni funzionali in biologia un carattere controfattuale
solitamente trascurato. Articolare quali sono i vantaggi che la presen-
za di un certo tratto, carattere o comportamento conferisce a un or-
ganismo equivale a paragonare l’organismo effettivo a un organismo
ipotetico nel quale quel tratto, carattere o comportamento è assente o
diverso, e specificare quali capacità, in virtù di tale presenza, sono più
spiccate nell’organismo reale di quanto non sarebbero nell’organismo
ipotetico. La quarta accezione, invece, riguarda il modo in cui un cer-
to effetto di un tratto è stato importante nella storia di quel tratto, por-
tando così alla sua selezione e alla sua presenza attuale entro la popo-
lazione. Queste distinzioni aiutano a gettar luce sulle teorie filosofi-
che sulla spiegazione funzionale. Le spiegazioni funzionali «rendono
conto della presenza di un carattere di un certo tratto facendo appel-
lo ai vantaggi biologici di quel tratto se paragonato ad altri tratti pos-
sibili. Le funzioni intese come effetti selezionati non hanno spazio in
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 166

166 Capitolo 8

queste spiegazioni». Tutto ciò starebbe a dimostrare l’inadeguatezza


degli approcci eziologici alla spiegazione funzionale: «la principale sfi-
da per una teoria filosofica della spiegazione funzionale è spiegare co-
me dei confronti tra organismi ipotetici, non esistenti, possano aiuta-
re a comprendere l’organismo esistente. L’approccio eziologico non
ha nulla da dire a tal proposito» [Wouters 2003, 666-667], né ce
l’hanno – secondo Wouters – gli approcci che fanno appello agli ef-
fettivi processi di adattamento all’ambiente e selezione naturale.
Lo scopo dell’attribuzione di funzioni in biologia non è né quello di
distinguere tra effetti funzionali e effetti collaterali […], né quello di
distinguere tra effetti al cui raggiungimento si mirava ed effetti del tut-
to accidentali […]. Lo scopo è, piuttosto, quello di collocare un’enti-
tà o un comportamento nell’ambito di un organismo considerato nel
suo insieme. In questo senso, l’ascrizione di funzioni fornisce lo stru-
mento per comprendere l’organizzazione biologica [Wouters 2005, 148,
corsivo aggiunto].

Una posizione particolare sul ruolo delle spiegazioni funzionali nel-


le scienze biologiche e biomediche è stata sostenuta da Kenneth
Schaffner [1993], il quale ritiene che indicare dei fini nei fenomeni
naturali non significhi individuare proprietà dei sistemi in esame, ma
equivalga piuttosto ad attribuire loro un nostro modo di concepirli,
in analogia con le situazioni umane in cui agiamo perché mossi da in-
tenzioni e desideri ben precisi. Secondo Schaffner, nei casi in cui par-
liamo di proprietà finali di un sistema, in quanto componenti di
un’analisi funzionale, siamo noi ad individuare certe conseguenze del
comportamento del sistema e ad indicarle quali fini. Inoltre, «ad una
particolare proprietà finale, dobbiamo aggiungere un’asserzione cau-
sale che riguarda un aspetto A dell’entità o processo i che la/lo pro-
muove, in termini universali o probabilistici» [Schaffner 1993, 404].
In questa prospettiva, l’analisi funzionale è dotata di un potere espli-
cativo alquanto debole nell’ambito delle scienze biomediche, ma ri-
sulta pur sempre dotata di notevole valore euristico. In linea di prin-
cipio, se non in pratica, le analisi teleologiche e funzionali sarebbero
destinate – sostiene Schaffner – a scomparire con il progredire della
scienza e a essere via via sostituite con spiegazioni che individuano
cause efficienti. Il largo uso del linguaggio funzionale resta, in ogni
caso, anche per Schaffner una delle caratteristiche della biologia e del-
la medicina, nella misura in cui le differenzia da altre discipline, qua-
li la fisica e la chimica. Quando si tratta delle funzioni immunologiche
del timo, o di quelle dell’RNA messaggero nella sintesi delle proteine,
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 167

La spiegazione funzionale 167

della regolazione del glucosio nel sangue o della capacità di rimargi-


narsi di una ferita, «le spiegazioni funzionali convogliano una qualche
forza esplicativa» e si può riconoscere che «le attribuzioni funzionali
sembrano quanto meno delle “protospiegazioni”» [ibid., 362]. Come
nota Salmon, la possibilità di ridurre la spiegazione funzionale a quel-
la causale non può allora se non rimandare al problema di definire in
modo preciso le relazioni causali: se si vuole convertire una spiega-
zione in termini di funzioni in una in termini di cause, sarà opportu-
no chiarire la natura dei nessi causali a cui si vuole fare riferimento: se
«spiegazione e causalità vanno mano nella mano» [ibid., 275], la no-
zione di causa richiederà poi di essere a sua volta approfondita, come
ampiamente illustrato nei precedenti capitoli di questo volume.
08Capitolo_8.qxp:Layout 1 5-02-2013 9:24 Pagina 168
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 169

Riferimenti bibliografici

Achinstein P. 1977, What is an Explanation?, «American Philosophical Quar-


terly», 14, 1-15
– 1981, Can there Be a Model of Explanation?, «Theory and Decision», 13,
201-227. Ristampato in Ruben D.-H. 1993 (cfr.), 136-159
– 1983, The Nature of Explanation, Oxford: Oxford University Press
Andersen H. 2011, Mechanisms, Laws, and Regularities, «Philosophy of
Science», 78, 325-331
Asquith P.D. e Giere R. 1980 (cur.), PSA 1980, vol. 2, East Lansing, MI: Phi-
losophy of Science Association, 49-69
Azzone G.F. 1991, Biologia e medicina tra molecole, informazione e storia. Lo-
gica delle spiegazioni e struttura del pensiero, Bari: Laterza

Baedke J. 2012, Causal Explanation Beyond the Gene: Manipulation and Cau-
sality in Epigenetics, «Theoria», 74, 153-174
Barnes E. 1994, Explaining Brute Facts, «Proceedings of the Philosophy of
Science Association», 1, 61-68
– 1995, Inference to the Loveliest Explanation, «Synthese», 103, 251-277
Baumrin B.H. 1963 (cur.), Philosophy of Science: The Delaware Seminar, voll.
I e II, New York: Wiley
Bechtel W. 1986, Teleological Functional Analyses and the Hierarchical Or-
ganization of Nature, in Rescher N. 1986 (cfr.), 26-48
– 1988, Philosophy of Science. An Overview for Cognitive Science, Hillsdale,
NJ: Lawrence Erlbaum Associates (ed. it. 1995, Filosofia della scienza e
scienza cognitiva, Bari: Laterza, seconda ed. 2001)
– 1994, Levels of Description and Explanation in Cognitive Science, «Minds
and Machines», 4, 1-25
– 1995, Biological and Social Constraints on Cognitive Processes: The Need for
Dynamical Interactions between Levels of Inquiry, «Canadian Journal of
Philosophy», Supplement, 20, 133-164
– 2001a, The Compatibility of Complex Systems and Reduction: A Case Ana-
lysis of Memory Research, «Minds and Machines», 11, 483-502
– 2001b, Cognitive Neuroscience: Relating Neural Mechanisms and Cognition,
in Machamer P., Grush R. e McLaughlin P. 2001 (cfr.), 81-111
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 170

170 Riferimenti bibliografici

– 2009, Generalization and Discovery by Assuming Conserved Mechanisms:


Cross-Species Research on Circadian Oscillators, «Philosophy of Science»,
76, 762-773
Bechtel W. e Abrahamsen A. 2005, Explanation: A Mechanist Alternative,
«Studies in History and Philosophy of Biological and Biomedical Scien-
ces», 36, 421-441
– 2006, Phenomena and Mechanisms: Putting the Symbolic, Connectionist,
and Dynamical Systems Debate in Broader Perspective, in Stainton R. 2006
(cfr.), 159-185
Bechtel W. e Richardson R.C. 1993, Discovering Complexity: Decomposition
and Localization as Strategies in Scientific Research, Princeton, NJ: Prin-
ceton University Press
Beebee H., Hitchcock C.R. e Menzies P. 2009 (cur.), The Oxford Handbook
of Causation, Oxford: Oxford University Press
Bell A., Swenson-Wright J. e Tybierg K. 2008 (cur.), Evidence, Cambridge:
Cambridge University Press
Belnap N.D. e Steel T.B. 1976, The Logic of Questions and Answers, New
Haven, CT: Yale University Press
Berger R. 1998, Understanding Science: Why Causes Are Not Enough, «Phi-
losophy of Science», 65, 306-332
Bigelow J. e Pargetter R. 1987, Functions, «Journal of Philosophy», 84, 181-
196
Bogen J. 2004, Analyzing Causality: The Opposite of Counterfactual is Fac-
tual, «International Studies in the Philosophy of Science», 18, 3-26
– 2005, Regularities and Causality: Generalizations and Causal Explanations,
«Studies in the History and Philosophy of the Biological and Biomedical
Sciences», 36, 397-420
– 2008, Causally Productive Activities, «Studies in the History and Philoso-
phy of Science», 39, 112-123
Boniolo G. e Vidali P. 1999, Filosofia della scienza, Milano: Bruno Mondadori
Braithwaite R.B. 1953, Scientific Explanation, Cambridge: Cambridge Uni-
versity Press (ed. it. 1966, La spiegazione scientifica, Milano: Feltrinelli)
Brandon R. 1981, Biological Teleology: Questions and Explanations, «Studies
in the History and Philosophy of Science», 12, 91-105
– 1996, Concepts and Methods in Evolutionary Biology, Cambridge: Cam-
bridge University Press
Broadbent A. 2011, Inferring Causation in Epidemiology: Mechanisms, Black
Boxes, and Contrasts, in Illari P., Russo F. e Williamson J. 2011 (cfr.), 45-
69
Bromberger S. 1962, An Approach to Explanation, in Butler R.S. 1962 (cfr.),
72-105
– 1966, Why Questions, in Colodny R.G. 1966 (cfr.), 86-111
Butler R.S. 1962 (cur.), Analytical Philosophy - Second Series, Oxford: Black-
well
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 171

Riferimenti bibliografici 171

Butts R.E. e Hintikka J. 1977 (cur.), Basic Problems in Methodology and Lin-
guistics, Dordrecht: Reidel

Campaner R. 2003, Sulle teorie manipolative della causalità, «Rivista di filo-


sofia», XCIV, 89-106
– 2004 (cur.), La spiegazione nelle scienze umane, Roma: Carocci
– 2006, Mechanisms and Counterfactuals: A Different Glimpse of the (Secret?)
Connexion, «Philosophica», 8, 15-44
– 2011a, Understanding Mechanisms in the Health Sciences, «Theoretical Me-
dicine & Bioethics», 32, 5-17
– 2011b, Causality and Explanation: Issues from Epidemiology, in Dieks D. et
al. 2011 (cfr.), 125-136
– 2011c, Mechanistic Causality and Manipulative-Counterfactual Causality:
Recent Insights from Philosophy of Science, «Journal of Epidemiology and
Community Health», 65, 1070-1074
– 2012, La causalità tra filosofia e scienza, Bologna: CLUEB (Prima ed.
2007)
Campaner R. e Galavotti M.C. 2007, Plurality in Causality, in Wolters G. e
Machamer P. 2007 (cfr.), 178-199
– 2010, Some Remarks on Causality and Invariance, in Carsetti A. 2010 (cfr.),
211-230
– 2012, Evidence and the Assessment of Causal Relations in the Health Scien-
ces, «International Studies in the Philosophy of Science», 26, 27-45
Campbell J. 2007, An Interventionism Approach to Causation in Psychology,
in Gopnik A. e Schulz L. 2007 (cfr.), 258-266
– 2008, Causation in Psychiatry, in Kendler K.S. e Parnas J. 2008 (cfr.), 196-
216
Carnap R. 1950, Logical Foundations of Probability, Chicago: Chicago Uni-
versity Press (Seconda ed. 1962)
Carsetti A. 2010 (cur.), Causality, Meaningful Complexity and Embodied Co-
gnition, Dordrecht: Springer
Cartwright N. 1979, Causal Laws and Effective Strategies, «Noûs», 13, 419-
437
– 2001, Modularity: It Can – and Generally Does – Fail, in Galavotti M.C.,
Suppes P. e Costantini D. 2001 (cfr.), 65-84
– 2007, Hunting Causes and Using Them: Approaches in Philosophy and Eco-
nomics, Cambridge: Cambridge University Press
Churchland P.M. e Hooker C.A. 1985 (cur.), Images of Science. Essays on
Realism and Empiricism, Chicago, IL: The University of Chicago Press
Clarke B. 2012, Causation in Medicine, in Gonzalez W.J. 2012 (cfr.), 181-195
Coffa A. 1974, Hempel’s Ambiguity, «Synthese», 28, 141-163. Ristampato in
Ruben D.-H. 1993 (cfr.), 56-77
– 1977, Probabilities: Reasonable or True?, «Philosophy of Science», 44, 186-
198
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 172

172 Riferimenti bibliografici

Cohen R.S. et al. 1976 (cur.), PSA 1974, Dordrecht-Boston: Reidel


Collingwood R. 1938, On the So-called Idea of Causation, «Aristotelian So-
ciety Proceedings», 38, 85-112
Collins J., Hall N. e Paul L.A. 2004 (cur.), Causation and Counterfactuals,
Cambridge, MA: The MIT Press, 225-276
Colodny R.G. 1962 (cur.), Frontiers of Science and History, London and Pitt-
sburgh: Allen & Unwin and University of Pittsburgh Press
– 1966 (cur.), Mind and Cosmos, Pittsburgh, PA: University of Pittsburgh
Press
– 1970 (cur.), The Nature and Function of Scientific Theories, Pittsburgh, PA:
Pittsburgh University Press
Craver C. 2001, Role Functions, Mechanisms and Hierarchy, «Philosophy of
Science», 68, 53-74
– 2002, Interlevel Experiments and Multilevel Mechanisms in the Neuroscience
of Memory, «Philosophy of Science», 69, S83-S97
– 2005, Beyond Reduction: Mechanisms, Multifield Integration and the Unity
of Neuroscience, «Studies in History and Philosophy of Biological and
Biomedical Sciences», 36, 373-395
– 2006, When Mechanistic Models Explain, «Synthese», 153, 355-376
– 2007, Explaining the Brain, Oxford: Oxford University Press
– e Bechtel W. 2007, Top-Down Causation without Top-Down Causes, «Bio-
logy and Philosophy», 22, 547-563
– e Piccinini G. 2011, Integrating Psychology and Neuroscience: Functional
Analyses as Mechanism Sketches, «Synthese», 183, 283-311
Cummins R. 1975, Functional Analysis, «Journal of Philosophy», 72, 741-764

Darden L. 1991, Theory Change in Science: Strategies from Mendelian Gene-


tics, New York: Oxford University Press
– 2002, Strategies for Discovering Mechanisms: Schema Instantiation, Modu-
lar Subassembly, Forward/Backward Chaining, «Philosophy of Science»,
69, S354-S365
– 2007, Mechanisms and Models, in Hull D. e Ruse M. 2007 (cfr.), 139-159
– 2008, Thinking again about Biological Mechanisms, «Philosophy of Scien-
ce», 75, 958-969
– e Maull N. 1977, Interfield Theories, «Philosophy of Science», 4, 44-64
Day T. e Kincaid H. 1994, Putting Inference to the Best Explanation in Its
Place, «Synthese», 98, 271-295
de Regt H. 2006, Wesley Salmon’s Complementarity Thesis: Causalism and
Unificationism Reconciled?, «International Studies in the Philosophy of
Science», 20, 129-147
– e Dieks D. 2005, A Contextual Approach to Scientific Understanding, «Syn-
these», 144, 137-170
Dieks D. et al. 2011 (cur.), Explanation, Prediction, and Confirmation, Dor-
drecht: Springer
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 173

Riferimenti bibliografici 173

Dowe P. 1992, Wesley Salmon’s Process Theory of Causality and the Conser-
ved Quantity Theory, «Philosophy of Science», 59, 195-216 (ed. it., La
teoria processualista di Salmon e la teoria delle quantità conservate, in Cam-
paner R. 2012 (cfr.), 127-144)
– 1995, Causality and Conserved Quantities: A Reply to Salmon, «Philosophy
of Science», 62, 321-333
– 2000, Physical Causation, Cambridge-New York: Cambridge University
Press
– 2009, Causal Process Theories, in Beebee H., Hitchcock C.R. e Menzies P.
2009 (cfr.), 213-233

Earman J. 1983 (cur.), Testing Scientific Theories, Minnesota Studies in the


Philosophy of Science, X, Minneapolis: University of Minnesota Press
Egger G. et al. 2004, Epigenetics in Human Disease and Prospects for Epige-
netic Therapy, «Nature», 429, 457-463

Federspil G., Sicolo N. e Vettor R. 1995, L’esistenza delle malattie: un’inda-


gine epistemologica, «La Nuova Civiltà delle Macchine», XII, 39-47
Feigl H. 1970, The ‘Orthodox’ View of Theories: Remarks in Defense as well
as Critique, in Radner M. e Winokur S. 1970 (cfr.), 3-16
– e Maxwell G. 1962 (cur.), Scientific Explanation, Space and Time, Minnesota
Studies in the Philosophy of Science, III, Minneapolis: University of Min-
nesota Press
Feigl H., Maxwell G. e Scriven M. 1958 (cur.), Concepts, Theories, and the
Mind-Body Problem, Minnesota Studies in the Philosophy of Science, II,
Minneapolis: University of Minnesota Press
Fine A., Forbes M. e Wessels L. 1990 (cur.), PSA 1990, vol. 1, East Lansing,
MI: Philosophy of Science Association
Friedman M. 1974, Explanation and Scientific Understanding, «Journal of
Philosophy», 71, 5-19

Galavotti M.C. 1999, Wesley Salmon on Explanation, Probability and Ratio-


nality, in Galavotti M.C. e Pagnini A. 1999 (cfr.), 39-54
– 2000, Probabilità, Firenze: La Nuova Italia
– 2001, Causality, Mechanisms and Manipulation, in Galavotti M.C., Suppes
P. e Costantini D. 2001 (cfr.), 1-15
– 2005, Philosophical Introduction to Probability, Stanford, CA: CSLI
– 2008, Causal Pluralism and Context, in Galavotti M.C., Scazzieri R. e Sup-
pes P. 2008 (cfr.), 233-252
– 2010, Probabilistic Causality, Observation and Experimentation, in Gonza-
lez W.J. 2010 (cfr.), 139-155
– 2011, On Hans Reichenbach’s Inductivism, «Synthese», 181, 95-111
Galavotti M.C. e Pagnini A. 1999 (cur.), Experience, Reality, and Scientific
Explanation, Dordrecht: Kluwer
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 174

174 Riferimenti bibliografici

Galavotti M.C., Scazzieri R. e Suppes P. 2008 (cur.), Reasoning, Rationality


and Probability, Stanford, CA: CSLI
Galavotti M.C., Suppes P. e Costantini D. 2001 (cur.), Stochastic Causality,
Stanford, CA: CSLI
Gasking D. 1955, Causation and Recipes, «Mind», 64, 479-487
Gerring J. 2007, The Mechanismic Worldview: Thinking Inside the Box, «The
British Journal of Political Science», 38, 161-179
Gillies D. 2005, An Action-Related Theory of Causation, «The British Jour-
nal for the Philosophy of Science», 56, 823-842
Glennan S. 1996, Mechanisms and the Nature of Causation, «Erkenntnis»,
44, 49-71
– 2002, Rethinking Mechanistic Explanation, «Philosophy of Science», 69,
S342-S353
– 2005, Modelling Mechanisms, «Studies in History and Philosophy of Bio-
logical and Biomedical Sciences», 36, 443-464
– 2009a, Productivity, Relevance and Natural Selection, «Biology and Philo-
sophy», 24, 325-339
– 2009b, Mechanisms, in Beebee H., Hitchcock C.R. e Menzies P. 2009 (cfr.),
315-325
– 2010a, Ephemeral Mechanisms and Historical Explanation, «Erkenntnis»,
72, 251-266
– 2010b, Mechanisms, Causes and the Layered Model of the World, «Philoso-
phy and Phenomenological Research», 81, 362-381
Godfrey-Smith P. 1994, A Modern Theory of Functions, «Noûs», 28, 344-362
– 2009, Causal Pluralism, in Beebee H., Hitchcock C.R. e Menzies P. 2009
(cfr.), 326-337
Gonzalez W.J. 2010 (cur.), New Methodological Perspectives on Observation
and Experimentation in Science, A Coruña: Netbiblo
– 2012 (cur.), Conceptual Revolutions: From Cognitive Science to Medicine, A
Coruña: Netbiblo
Gopnik A. e Schulz L. 2007 (cur.), Causal Learning: Psychology, Philosophy,
and Computation, New York: Oxford University Press
Griesmeier F.P. 2005, Kitcher-Style Unificationism and Explanatory Relevan-
ce, «Dialectica», 59, 37-50
Gross L. 1959 (cur.), Symposium on Sociological Theory, New York: Harper
and Row

Haavelmo T. 1944, The Probability Approach in Econometrics, «Econometri-


ca», Supplement, 12, 1-118
Hahn H., Neurath O. e Carnap R. 1929, Wissenschaftliche Weltauffassung.
Der Wiener Kreis, Vienna: Artur Wolf (ed. it. 1979, La concezione scien-
tifica del mondo, Bari: Laterza)
Hall N. 2004, Two Concepts of Causation, in Collins J., Hall N. e Paul L.A.
2004 (cfr.), 225-276
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 175

Riferimenti bibliografici 175

Hallpike C.R. 1986, Principles of Social Evolution, New York: Oxford Uni-
versity Press
Halonen I. e Hintikka J. 1999, Unification – It’s Magnificent but Is It Expla-
nation?, «Synthese», 120, 27-47
Harman G. 1965, Inference to the Best Explanation, «Philosophical Review»,
74, 88-95
Harris P. 2000, The Work of Imagination, Oxford: Blackwell
Hausman D. 1986, Causation and Experimentation, «American Philosophi-
cal Quarterly», 23, 143-154
– 1998, Causal Asymmetries, New York: Cambridge University Press
– e Woodward J. 2004, Modularity and the Causal Markov Condition: A Re-
statement, «The British Journal for the Philosophy of Science», 55, 147-
161
Hempel C.G. 1942, The Function of General Laws in History, «Journal of
Philosophy», 39, 35-48. Ristampato in Hempel C.G. 1965a (cfr.), 231-
243
– 1959, The Logic of Functional Analysis, in Gross L. 1959 (cfr.), 271-307.
Ristampato in Hempel C.G. 1965a (cfr.), 297-330 (ed. it. 1967, La logica
dell’analisi funzionale, Trento: Arti Grafiche Saturnia)
– 1962a, Deductive Nomological versus Statistical Explanation, in Feigl H. e
Maxwell G. 1962 (cfr.), 98-169
– 1962b, Explanation in Science and in History, in Colodny R.G 1962 (cfr.),
7-33 (ed. it. La spiegazione nella scienza e in storia, in Campaner R. 2004
(cfr.), 30-39)
– 1965a, Aspects of Scientific Explanation and Other Essays in the Philosophy
of Science, New York: The Free Press (ed. it. 1986, Aspetti della spiega-
zione scientifica, Milano: Il Saggiatore)
– 1965b, Aspects of Scientific Explanation, in Hempel C.G. 1965a (cfr.), 331-
496
– 1968, Maximal Specificity and Lawlikeness in Probabilistic Explanation,
«Philosophy of Science», 35, 116-133
– 1976, Dispositional Explanation and the Covering-Law Model: Response to
Laird Addis, in Cohen R.S. et al. 1976 (cfr.), 369-376
– 1996, Philosophy of the Natural Science, Englewood Cliffs: Prentice-Hall
– e Oppenheim P. 1948, Studies in the Logic of Explanation, «Philosophy of
Science», 15, 135-175. Ristampato in Hempel C.G. 1965a (cfr.), 245-290
Henderson D. 2005, Norms, Invariance and Explanatory Relevance, «Philo-
sophy of the Social Sciences», 35, 324-338
Hitchcock C.R. 1995, Discussion: Salmon on Explanatory Relevance, «Philo-
sophy of Science», 62, 304-320
– 2007, How to Be a Causal Pluralist, in Wolters G. e Machamer P. 2007 (cfr.)
200-221
– e Woodward J. 2003, Explanatory Generalizations, Part II: Plumbing Ex-
planatory Depth, «Noûs», 37, 181-199
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 176

176 Riferimenti bibliografici

Holland P. 1986, Statistics and Causal Inference, «Journal of the American


Statistical Association», 81, 945-960
Hoover K. 1988, The New Classical Macroeconomics, Oxford: Blackwell
Hull D. e Ruse M. 2007 (cur.), Cambridge Companion to the Philosophy of
Biology, New York: Cambridge University Press
Humphreys P. 2006, Review Symposium. Invariance, Explanation and Un-
derstanding, «Metascience», 15, 39-44

Illari P., Russo F. e Williamson J. 2011 (cur.), Causality in the Sciences, Ox-
ford: Oxford University Press

Jackson F. e Pettit P. (1990), Program Explanation: A General Perspective,


«Analysis», 50, 107-117
Jeffrey R.C. 1969, Statistical Explanation versus Statistical Inference, in Re-
scher N. 1969 (cfr.), 104-113. Ristampato in Salmon W.C., Jeffrey R.C. e
Greeno J.G. 1971 (cfr.), 19-28
Jones T. 1995, Reductionism and the Unification Theory of Explanation, «Phi-
losophy of Science», 62, 21-30
– 1997, Unification, Reduction, and Non-ideal Explanations, «Synthese», 112,
75-96

Kaufman J.S. e Poole C. 2000, Looking Back on ‘Causal Thinking in the He-
alth Sciences’, «Annual Review of Public Health», 21, 101-119
Kendler K.S. 2005, Toward a Philosophical Structure for Psychiatry, «Ameri-
can Journal of Psychiatry», 162, 433-440
– e Campbell J. 2009, Interventionist Causal Models in Psychiatry: Repositio-
ning the Mind-Body Problem, «Psychological Medicine», 39, 881-887
– e Parnas J. 2008 (cur.), Philosophical Issues in Psychiatry. Explanation, Phe-
nomenology, and Nosology, Baltimore, MD: The Johns Hopkins Univer-
sity Press
Kincaid H. 1990, Assessing Functional Explanations in the Social Sciences, in
Fine A., Forbes M. e Wessels L. 1990 (cfr.), 341-354 (ed. it. Le spiegazio-
ni funzionali nelle scienze sociali, in Campaner R. 2004 (cfr.), 113-125)
– 2002, Functionalist Successes and Excesses in the Social Sciences, «Analyse
& Kritik», 24, 60-71
Kitcher P. 1976, Explanation, Conjunction and Unification, «Journal of Phi-
losophy», 73, 207-212
– 1981, Explanatory Unification, «Philosophy of Science», 48, 507-531
– 1985, Two Approaches to Explanation, «Journal of Philosophy», 82, 632-
639
– 1989, Explanatory Unification and the Causal Structure of the World, in Kit-
cher P. e Salmon W.C. 1989 (cfr.), 410-505
Kitcher P. e Salmon W.C. 1987, Van Fraassen on Explanation, «Journal of Phi-
losophy», 84, 315-330. Ristampato in Ruben D.-H. 1993 (cfr.), 310-325
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 177

Riferimenti bibliografici 177

– 1989 (cur.), Scientific Explanation, Minnesota Studies in the Philosophy of


Science, XII, Minneapolis: University of Minnesota Press
Knowles D. 1990 (cur.), Explanation and Its Limits, Cambridge: Cambridge
University Press
Körner S. 1975 (cur.), Explanation, Oxford: Blackwell
Krüger L. 1976, Are Statistical Explanations Possible?, «Philosophy of Scien-
ce», 43, 129-146

Ladyman J. 2002, Understanding Philosophy of Science, London: Routledge


(ed. it. 2007, Filosofia della scienza. Un’introduzione, Roma: Carocci)
Ladyman J. et al. 1997, A Defence of van Fraassen’s Critique of Abductive In-
ference: Reply to Psillos, «The Philosophical Quarterly», 47, 305-321
Lagnado D. e Sloman S. 2004, The Advantage of Timely Intervention, «Jour-
nal of Experimental Psychology: Learning, Memory and Cognition», 30,
856-876
Lerner D. 1965 (cur.), Cause and Effect, New York-London: The Free
Press
Leuridan B. 2010, Can Mechanisms Really Replace Laws of Nature?, «Philo-
sophy of Science», 77, 317-340
Lipton P. 1991, Inference to the Best Explanation, London: Routledge
– 2008, Evidence and Explanation, in Bell A., Swenson-Wright J. e Tybierg K.
2008 (cfr.), 10-28
Little D. 2011, Causal Mechanisms in the Social Realm, in Illari P., Russo F. e
Williamson J. 2011 (cfr.), 273-295

Machamer P. 2004, Activities and Causation: The Metaphysics and Epistemo-


logy of Mechanisms, «International Studies in the Philosophy of Scien-
ce», 18, 27-39
Machamer P., Darden L. e Craver C. 2000, Thinking about Mechanisms, «Phi-
losophy of Science», 67, 1-25
Machamer P., Grush R. e McLaughlin P. 2001 (cur.), Theory and Method in
the Neurosciences, Pittsburgh, PA: Pittsburgh University Press
Machamer P. e Silberstein M. 2002 (cur.), The Blackwell Guide to the Philo-
sophy of Science, Oxford: Blackwell
Mäki U. 1990, Scientific Realism and Austrian Explanation, «Review of Poli-
tical Economy», 2, 310-344
– 2001, Explanatory Unification: Double and Doubtful, «Philosophy of the
Social Sciences», 31, 488-506
Maldonado G. e Greenland S. 2002, Estimating Causal Effects, «Internatio-
nal Journal of Epidemiology», 21, 422-429
Malinowski B. 1944, A Scientific Theory of Culture and Other Essays, Chapel
Hill, NC: The University of North Carolina Press (ed. it. 1981, Teoria
scientifica della cultura e altri saggi filosofici, Milano: Feltrinelli)
Marsonet M. 2002 (cur.), The Problem of Realism, Aldershot: Ashgate
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 178

178 Riferimenti bibliografici

McLaughlin P. 2001, What Functions Explain, Cambridge: Cambridge Uni-


versity Press
McLaughlin R. 1982 (cur.), What? Where? When? Why? Essays on Induction,
Space and Time, Explanation, Dordrecht-Boston: Reidel
Menzies P. e Price H. 1993, Causation as a Secondary Quality, «The British
Journal for the Philosophy of Science», 44, 187-203
Merton R. 1949, Social Theory and Social Structure, Glencoe, IL: The Free
Press (ed. it. 1959, Teoria e struttura sociale, Bologna: Il Mulino)
Michalos A.C. et al. 1976 (cur.), PSA 1974, Dordrecht: Reidel
Millikan R.G. 1984, Language, Thought, and Other Biological Categories,
Cambridge, MA: Bradford Books, The MIT Press
– 1989, In Defence of Proper Functions, «Philosophy of Science», 56, 288-
302
Mitchell S. 1993, Dispositions or Etiologies? A Comment on Bigelow and Par-
getter, «Journal of Philosophy», 90, 249-259
– 1995, Function, Fitness and Dispositions, «Biology and Philosophy», 10,
39-54

Nagel E. 1953, Teleological Explanation and Teleological Systems, in Ratner S.


1953 (cfr.), 192-223
– 1956a (cur.), Logic without Metaphysics, Glencoe, IL: The Free Press, 247-
283
– 1956b, A Formalization of Functionalism (With Special Reference to Its Ap-
plication in the Social Sciences), in Nagel E. 1956a (cur.), 247-283
– 1960, Determinism in History, «Philosophy and Phenomenological Rese-
arch», 20, 291-317
– 1961, The Structure of Science: Problems in the Logic of Scientific Explana-
tion, New York: Harcourt, Brace & World Inc. (ed. it. 1968, La struttura
della scienza, Milano: Feltrinelli)
– 1965, Types of Causal Explanation in Science, in Lerner D. 1965 (cfr.), 11-32
– 1977, Teleology Revisited, «Journal of Philosophy», 74, 261-301. Ristam-
pato in Nagel E. 1979 (cfr.), 275-316
– 1979, Teleology Revisited and Other Essays in the Philosophy and History of
Science, New York: Columbia University Press
Neander K. 1991a, The Teleological Notion of ‘Function’, «Australasian Jour-
nal of Philosophy», 69, 454-468
– 1991b, Functions as Selected Effects: The Conceptual Analyst’s Defense,
«Philosophy of Science», 58, 168-184
Niiniluoto I. 1999, Defending Abduction, «Philosophy of Science», Procee-
dings, 66, S436-S451

Okasha S. 2002, Philosophy of Science. A Very Short Introduction, Oxford:


Oxford University Press (ed. it. 2006, Il primo libro di filosofia della scien-
za, Torino: Einaudi)
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 179

Riferimenti bibliografici 179

Pâslaru V. 2009, Ecological Explanation between Manipulation and Mecha-


nism Description, «Philosophy of Science», 76, 821-837
Persson J. e Ylikoski P. 2007 (cur.), Rethinking Explanation, Dordrecht:
Springer
Pizzi C. 1978 (cur.), Leggi di natura, modalità, ipotesi, Milano: Feltrinelli
Popper K. 1934, Logik der Forschung, Vienna: Springer (ed. inglese amplia-
ta 1959, Logic of Scientific Discovery, London: Hutchinson; terza ed. 1968,
London: Routledge; ed. it. 1970, tratta dalla terza ed. inglese, Logica del-
la scoperta scientifica, Torino: Einaudi)
Price H. 1992, Agency and Causal Asymmetry, «Mind», 101, 501-519
– 2001, Causation in the Special Sciences: The Case for Pragmatism, in Gala-
votti M.C., Suppes P. e Costantini D. 2001 (cfr.), 49-69
Psillos S. 1996, On van Fraassen’s Critique of Abductive Reasoning, «The Phi-
losophical Quarterly», 446, 31-47
– 1999, Scientific Realism. How Science Tracks Truth, London: Routledge
– 2002, Causation and Explanation, Chesham: Acumen
– 2004, A Glimpse of the Secret Connexion: Harmonizing Mechanisms with
Counterfactuals, «Perspectives on Science», 12, 288-319
– 2007, Causal Explanation and Manipulation, in Persson J. e Ylikoski P. 2007
(cfr.), 93-107

Radcliffe-Brown A. 1965, Structure and Function in Primitive Society, New


York: The Free Press (ed. it. 1972, Struttura e funzione nella società pri-
mitiva, Milano: Jaca Book)
Radner M. e Winokur S. 1970 (cur.), Analyses of Theories and Methods of
Physics and Psychology, Minnesota Studies in the Philosophy of Science,
IV, Minneapolis: University of Minnesota Press
Railton P. 1978, A Deductive-Nomological Model of Probabilistic Explanation,
«Philosophy of Science», 45, 206-226
– 1981, Probability, Explanation and Information, «Synthese», 48, 233-256
Ratner S. 1953 (cur.), Vision and Action, New Brunswick, NJ: Rutgers Uni-
versity Press
Reichenbach H. 1949, The Theory of Probability, Berkeley-Los Angeles: Uni-
versity of California Press (Seconda ed. 1971)
Reiss J. 2007, Do We Need Mechanisms in the Social Sciences?, «Philosophy
of the Social Sciences», 37, 163-184
Rescher N. 1969 (cur.), Essays in Honour of Carl G. Hempel, Dordrecht: Rei-
del
– 1986 (cur.), Current Issues in Teleology, Lanham, MD: University Press of
America
Revonsuo A. 2001, On the Nature of Explanation in the Neurosciences, in Ma-
chamer P., Grush R. e McLaughlin P. 2001 (cfr.), 45-69
Robbins P. e Aydede M. 2009 (cur.), Cambridge Handbook of Situated Co-
gnition, Cambridge: Cambridge University Press
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 180

180 Riferimenti bibliografici

Rothman K. e Greenland S. 1998, Modern Epidemiology, Philadelphia, PA:


Lippincott Williams & Wilkins (Seconda ed.)
Ruben D.-H. 1993 (cur.), Explanation, Oxford: Oxford University Press
Russell B. 1948, Human Knowledge, Its Scope and Limits, New York: Simon
and Shuster (ed. it. 1963, La conoscenza umana, Milano: Longanesi)

Sadler J. 2002 (cur.), Descriptions and Prescriptions: Values, Mental Disorders


and the DSMs, Baltimore, MD: The Johns Hopkins University Press
Salmon M.H. et al. 1992 (cur.), Introduction to the Philosophy of Science, En-
glewood Cliffs, NJ: Prentice Hall
Salmon W.C. 1971, Statistical Explanation, in Salmon W.C., Jeffrey R.C. e Gree-
no J.G. 1971 (cfr.), 29-87 (Prima ed. in Colodny R. 1970 (cfr.), 173-231)
– 1974, Comments on ‘Hempel’s Ambiguity’ by J.A. Coffa, «Synthese», 28,
165-169
– 1975, Theoretical Explanation, in Körner S. 1975 (cfr.), 118-145
– 1977a, Indeterminism and Epistemic Relativization, «Philosophy of Scien-
ce», 44, 99-202
– 1977b, A Third Dogma of Empiricism, in Butts R.E. e Hintikka J. 1977 (cfr.),
149-166. Ristampato in Salmon W.C. 1998 (cfr.), 95-107
– 1977c, Objectively Homogeneous Reference Classes, «Synthese», 36, 399-
414
– 1977d, An At-At Theory of Causal Influence, «Philosophy of Science», 44,
215-224
– 1978, Why Ask ‘Why?’? An Inquiry Concerning Scientific Explanation,
«Proceedings and Addresses of the American Philosophical Association»,
51, 683-705. Ristampato in Salmon W.C. 1998 (cfr.), 125-141 (ed. it. Per-
ché chiedere ‘Perché?’?, in Zorzato L. 1992 (cfr.), 29-58)
– 1980a, Probabilistic Causality, «Pacific Philosophical Quarterly», 61, 50-
74. Ristampato in Salmon W.C. 1998 (cfr.), 208-232 (ed. it., Causalità pro-
babilistica, in Campaner R. 2012 (cfr.), 57-78)
– 1980b, Causality: Production and Propagation, in Asquith P.D. e Giere R.
1980 (cfr.), 49-69. Ristampato in Salmon W.C. 1998 (cfr.), 285-301 (ed. it.,
Causalità: produzione e propagazione, in Campaner R. 2012 (cfr.), 111-126)
– 1982a, Comets, Pollen and Dreams. Some Reflections on Scientific Explana-
tion, in McLaughlin R. 1982 (cfr.), 155-178. Ristampato in Salmon W.C.
1998 (cfr.), 50-67
– 1982b, Further Reflections, in McLaughlin R. 1982 (cfr.), 231-280
– 1984, Scientific Explanation and the Causal Structure of the World, Prince-
ton, NJ: Princeton University Press
– 1985, Conflicting Conceptions of Scientific Explanation, «Journal of Philo-
sophy», 82, 651-654
– 1989, Four Decades of Scientific Explanation, in Kitcher P. e Salmon W.C.
1989 (cfr.), 3-219 (ed. it. 1992, 40 anni di spiegazione scientifica, Padova:
Franco Muzzio editore)
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 181

Riferimenti bibliografici 181

– 1990a, Causal Propensities: Statistical Causality vs. Aleatory Causality, «To-


poi», 9, 95-100
– 1990b, Propensioni causali: causalità statistica e causalità aleatoria, «Rivista
di filosofia», 81, 167-180
– 1990c, Scientific Explanation: Causation and Unification, «Critica», 22, 3-
21
– 1992, Scientific Explanation, in Salmon M.H. et al. 1992 (cfr.), 7-41
– 1994, Causality without Counterfactuals, «Philosophy of Science», 61, 297-
312. Ristampato in Salmon W.C. 1998 (cfr.), 248-260
– 1995, La causalità, «Iride», 14,187-196
– 1997, A Reply to Two Critiques, «Philosophy of Science», 64, 461-477
– 1998, Causality and Explanation, New York-Oxford: Oxford University
Press
– 2002, A Realistic Account of Causation, in Marsonet M. 2002 (cfr.), 106-
134
Salmon W.C., Jeffrey R.C. e Greeno J.G. 1971, Statistical Explanation and
Statistical Relevance, Pittsburgh, PA: Pittsburgh University Press
Schaffner K. 1993, Discovery and Explanation in Biology and Medicine, Chi-
cago, IL: The University of Chicago Press
– 2002, Clinical and Etiological Psychiatric Diagnoses: Do Causes Count?, in
Sadler J. 2002 (cfr.), 271-290
Schurz G. 1999, Explanation as Unification, «Synthese», 120, 90-114
– e Lambert K. 1994, Outline of a Theory of Scientific Understanding, «Syn-
these», 101, 65-120
Schwartz S. e Susser E. 2006, What Is a Cause?, in Susser E. et al. 2006 (cfr.),
33-42
Scriven M. 1958, Definitions, Explanations, and Theories, in Feigl H., Max-
well G. e Scriven M. 1958 (cfr.), 99-195
– 1959, Explanation and Prediction in Evolutionary Theory, «Science», 30,
477-482
– 1962, Explanations, Predictions, and Laws, in Feigl H. e Maxwell G. 1962
(cfr.), 170-230
– 1963, The Temporal Asymmetry between Explanations and Predictions, in
Baumrin B.H. 1963 (cfr.), vol. I, 97-105
Skipper R. 1999, Selection and the Extent of Explanatory Unification, «Phi-
losophy of Science», Proceedings, 68, S196-S209
Skyrms B. 1966, Choice and Chance, Belmont, CA: Dickenson (quarta ed.
ampliata 2000, Belmont, CA: Wadsworth; ed. it. 1974, tratta dalla prima
ed. inglese, Introduzione alla logica induttiva, Bologna: Il Mulino)
Sober E. 1984 (cur.), Conceptual Issues in Evolutionary Biology: An Antho-
logy, Cambridge, MA: The MIT Press (Prima ed.)
– 2003, Two Uses of Unification, in Stadler F. 2003 (cfr.), 205-215
Stadler F. 1997, Studien zum Wiener Kreis. Ursprung, Entwicklung und Wir-
kung des Logischen Empirismus im Kontext, Berlino: Suhrkamp (ed. in-
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 182

182 Riferimenti bibliografici

glese 2001, The Vienna Circle. Studies in the Origins, Development, and In-
fluence of Logical Empiricism, Vienna-New York: Springer)
– 2003 (cur.), The Vienna Circle and Logical Empiricism. Re-evaluation and
Future Perspectives, Dordrecht: Kluwer
Stainton R. 2006 (cur.), Contemporary Debates in Cognitive Science, Oxford:
Blackwell
Steel D. 2004, Social Mechanisms and Causal Inference in the Social Sciences,
«Philosophy of the Social Sciences», 34, 55-78
Stegmüller W. 1973, Personnelle und statistische Wahrscheinlichkeit, Berlin-
Heibelberg-New York: Springer
Strevens M. 2004, The Causal and Unification Approaches to Explanation Uni-
fied – Causally, «Noûs», 38, 154-176
Suppes P. 1984, Conflicting Intuitions about Causality, «Midwest Studies in
Philosophy» IX, 151-168 (ed. it. Intuizioni contrastanti sulla causalità, in
Campaner R. 2012 (cfr.), 79-91)
Suppes P. et al. 1973 (cur.), Logic, Methodology and Philosophy of Science,
Amsterdam: North-Holland
Susser E. et al. 2006 (cur.), Psychiatric Epidemiology, Oxford: Oxford Uni-
versity Press

Tabery J. 2004, Synthesizing Activities and Interactions in the Concept of a


Mechanism, «Philosophy of Science», 71, 1-15
– 2007, Causation in the Nature-Nurture Debate: The Case of Genotype-En-
vironment Interaction. Doctoral Dissertation, University of Pittsburgh,
http://etd.library.pitt.edu/ETD/available/etd-07232007-121636/
– 2009, Difference Mechanisms: Explaining Variation with Mechanisms, «Bio-
logy and Philosophy», 24, 645-664

van Fraassen B. 1977, The Pragmatics of Explanation, «American Philoso-


phical Quarterly», 14, 143-150 (ed. it. Pragmatica della spiegazione, in
Zorzato L. 1992 (cfr.), 119-141)
– 1980, The Scientific Image, Oxford: Oxford University Press (ed. it. 1985,
L’immagine scientifica, Bologna: CLUEB)
– 1983a, Theory Confirmation: Tension and Conflict, in Weingartner P. e Czer-
mak M. 1983 (cfr.), 319-329
– 1983b, Glymour on Evidence and Explanation, in Earman J. 1983 (cfr.),
165-176
– 1985, Empiricism in the Philosophy of Science, in Churchland P.M. e Hoo-
ker C.A. 1985 (cfr.), 245-308
von Wright, G.H. 1971, Explanation and Understanding, New York: Cornell
University Press (ed. it. 1977, Spiegazione e comprensione, Bologna: Il Mu-
lino)
– 1973, On the Logic and Epistemology of the Causal Relation, in Suppes P.
et al. 1973 (cfr.), 293-312
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 183

Riferimenti bibliografici 183

Waskan J. 2011, Mechanistic Explanation at the Limit, «Synthese», 183, 389-


408
Waters K. 2007, Causes that Make a Difference, «Journal of Philosophy», 104,
551-579
Weber E. 1999, Unification: What Is It, How Do We Reach It and Why Do We
Want It?, «Synthese», 118, 479-499
– e Van Bouwel J. 2009, Causation, Unification, and the Adequacy of Expla-
nations of Facts, «Theoria», 66, 301-320
– e van Dyck M. 2002, Unification and Explanation, «Synthese», 131, 145-154
Weingartner P. e Czermak M. 1983 (cur.), Epistemology and Philosophy of
Science (Proceedings of the 7th International Wittgenstein Symposium),
Vienna: Hölder-Pichler-Tempsky
Weslake B. 2010, Explanatory Depth, «Philosophy of Science», 77, 273-294
Wimsatt W. 1972, Teleology and the Logical Structure of Function Statements,
«Studies in History and Philosophy of Science», 3, 1-80
– 1976, Reductive Explanation: A Functional Account, in Michalos A.C. et al.
1976 (cfr.), 671-710. Ristampato in Sober E. 1984 (cfr.), 477-508
Wolters G. e Machamer P. 2007 (cur.), Thinking about Causes, Pittsburgh,
PA: University of Pittsburgh Press
Woodward J. 1979, Scientific Explanation, «The British Journal for the Phi-
losophy of Science», 30, 41-67
– 1984, A Theory of Singular Causal Explanation, «Erkenntnis», 21, 231-262
– 1989, The Causal Mechanical Model of Explanation, in Kitcher P. e Salmon
W.C. 1989 (cfr.), 357-383
– 1990, Supervenience and Singular Causal Claims, in Knowles D. 1990 (cfr.),
211-246
– 2000, Explanation and Invariance in the Special Sciences, «The British Jour-
nal for the Philosophy of Science», 51, 197-254
– 2001a, Law and Explanation in Biology: Invariance is the Kind of Stability
that Matters, «Philosophy of Science», 68, 1-20
– 2001b, Probabilistic Causality, Direct Causes and Counterfactual Dependen-
ce, in Galavotti M.C., Suppes P. e Costantini D. 2001 (cfr.), 39-63
– 2002a, What is a Mechanism. A Counterfactual Account, «Philosophy of
Science», Proceedings, 69, S366-S377
– 2002b, Explanation, in Machamer P. e Silberstein M. 2002 (cfr.), 37-54
– 2003, Making Things Happen, Oxford: Oxford University Press
– 2004, Counterfactuals and Causal Explanation, «International Studies in the
Philosophy of Science», 18, 41-72
– 2006, Review Symposium. Invariance, Explanation and Understanding. Au-
thor’s Response, «Metascience», 15, 53-66
– 2007, Interventionist Theories of Causation in Psychological Perspective, in
Gopnik A. e Schulz L. 2007 (cfr.), 19-36
– 2008, Cause and Explanation in Psychiatry, in Kendler K.S. and Parnas J.
2008 (cfr.), 132-184
09Rif_Bibliografici.qxp:Layout 1 5-02-2013 9:24 Pagina 184

184 Riferimenti bibliografici

– 2009, Agency and Interventionist Theories, in Beebee H., Hitchcock C.R. e


Menzies P. 2009 (cfr.), 234-262
– 2010, Causation in Biology: Stability, Specificity, and the Choice of Levels of
Explanation, «Biology and Philosophy», 25, 287-318
– 2011, Mechanisms Revisited, «Synthese», 183, 409-427
– e Hitchcock C.R. 2003, Explanatory Generalizations, Part I: A Counterfac-
tual Account, «Noûs», 37, 1-24
Wouters A. 2003, Four Notions of Biological Functions, «Studies in the Hi-
story and Philosophy of Biological and Biomedical Sciences», 34, 633-
668
– 2005, The Function Debate in Philosophy, «Acta Biotheoretica», 53, 123-
151
Wright L. 1973, Functions, «Philosophical Review», 82, 139-168
– 1976, Teleological Explanations, Berkeley, CA: University California Press

Zorzato L. 1992 (cur.), Spiegare e comprendere, Ferrara: Spazio Libri Editore


10Indice dei nomi.qxp:Layout 1 5-02-2013 9:25 Pagina 185

Indice dei nomi

Abrahamsen Adele 123, 124, 126, 127 Day Timothy 83


Achinstein Peter 44, 45 de Regt Henk 97-100, 102
Andersen Holly 119 Dieks Dennis 99, 102
Azzone Giovanni Felice 164 Dorling John 45
Dowe Phil 37-39, 118
Baedke Jan 146 Dray William 75
Barnes Eric 72, 84
Bechtel William 117, 118, 123-127 Egger Gerda 146
Belnap Nuel D. 44
Berger Ruth 99, 103 Federspil Giovanni 165
Bigelow John 157-159, 163 Feigl Herbert 64
Bogen Jim 119-121, 127, 128, 134, Friedman Michael 57-59, 62, 66, 71,
137, 138 72, 75
Boniolo Giovanni 44, 83, 161
Braithwaite Richard Bevan 1, 150, Galavotti Maria Carla 7, 25, 32, 42,
151 89, 110, 129, 139, 142
Brandon Robert 163 Garfinkel Alan 45
Broadbent Alex 128 Gasking Douglas 129
Bromberger Sylvain 13, 44 Gerring John 128
Gillies Donald 141
Campaner Raffaella 110, 128, 129, Glennan Stuart 105-114, 116, 118,
139, 142 119
Campbell John 142-145 Godfrey-Smith Peter 110, 159
Carnap Rudolf VII, 1, 7, 10 Good Irving John 32
Cartwright Nancy 36, 37, 52, 135 Goodman Nelson 5, 105
Clarke Brendan 128 Greenland Sander 142
Coffa Alberto 11 Greeno James G. 19
Collingwood Robin 129 Griesmeier Franz Peter 63
Craver Carl 75, 112-123, 128, 135, 163
Cummins Robert 156, 157, 159, 163 Haavelmo Tygre 139
Hall Ned 110
Darden Lindley 75, 112-120, 122, Hallpike Christopher R. 161
123, 128, 135 Halonen Ilpo 75, 77
10Indice dei nomi.qxp:Layout 1 5-02-2013 9:25 Pagina 186

186 Indice dei nomi

Hansson Bengt 45 Menzies Peter 129


Harman Gilbert 80, 81 Merton Robert 149
Harris Paul 145 Millikan Ruth Garrett 163
Hausman Daniel 129, 134-136 Mitchell Sandra 157, 163
Hempel Carl Gustav VII, VIII, 1-7,
9-19, 22, 25-27, 45, 55, 64, 66, Nagel Ernest 1, 12, 27, 150-153, 157,
75, 82, 96, 97, 150-152, 157, 162 162
Henderson David 147 Neander Karen 163
Hintikka Jaakko 75, 77 Niiniluoto Ilkka 84
Hitchcock Christopher R. 39, 40,
110, 129, 132-134, 136, 138 Okasha Samir 80, 84
Holland Paul 139 Oppenheim Paul 2, 3, 97
Hoover Kevin 139
Hume David 33, 109 Pargetter Robert 157-159, 163
Humphreys Paul 138 Pâslaru Viorel 142
Peirce Charles 80
Jackson Frank 110 Pettit Philip 110
Jeffrey Richard C. 16, 19, 20 Piccinini Gualtiero 118
Jones Todd 74, 75 Poole Charles 142
Popper Karl 2
Kaufman Jay S. 142 Price Huw 129
Kendler Kenneth S. 142, 143 Psillos Stathis 5, 83, 84, 132, 138,
Keynes John Maynard 7 139
Kincaid Harold 83, 162, 163
Kitcher Philip 37, 43, 53, 54, 57-75, Radcliffe-Brown Alfred 149
78, 79, 87, 100, 101, 103, 108 Railton Peter 70, 75, 87-93, 96, 98,
Krüger Lorenz 17 99, 108
Kuhn Thomas 48 Reichenbach Hans 7, 10, 25, 29-32
Reiss Julian 128
Ladyman James 80, 84 Revonsuo Antti 117
Lagnado David 145 Richardson Robert C. 123, 125, 127
Lambert Karel 100 Rothman Kenneth 142
Leuridan Bert 119 Ruse Michael 163
Lewis David 37 Russell Bertrand 33
Lipton Peter 81-85
Little Daniel 128 Salmon Merrilee 36
Salmon Wesley C. VII, VIII, 9, 11,
Machamer Peter 75, 112-114, 116, 13-17, 19-27, 29-43, 45, 52-55,
118-120, 122, 123, 128, 135 57, 58, 64, 69, 70, 80, 87, 88, 90,
Mäki Uskali 72-74 92-101, 105, 107, 108, 112, 113,
Maldonado George 142 118, 121, 133, 138, 155-157,
Malinowski Bronislaw 149 167
Maull Nancy 117 Schaffner Kenneth 142, 166
McLaughlin Peter 156, 159 Schurz Gerhard 76, 77, 100
10Indice dei nomi.qxp:Layout 1 5-02-2013 9:25 Pagina 187

Indice dei nomi 187

Schwartz Sharon 142 van Dyck Maarten 77


Scriven Michael 14, 15, 44, 75 van Fraassen Bas VIII, 17, 43-48, 51-
Sicolo Nicola 165 53, 55, 80, 83
Skipper Robert 100, 101 Vettor Roberto 165
Skyrms Brian 6 Vidali Paolo 44, 83, 161
Sloman Steven 145 von Mises Richard 7
Sober Elliott 82, 83 von Wright Georg Henrik 11, 129
Steel Daniel 128
Steel Thomas B. 44 Waskan Jonathan 134, 137
Stegmüller Wolfgang 17 Waters Kenneth 140, 141
Strevens Michael 101, 102 Weber Erik 77, 102, 103
Suppes Patrick 32, 52 Weslake Brad 134
Susser Ezra 142 Wimsatt William 163
Woodward James 39, 45, 77-80, 92,
Tabery James 113, 128, 136 93, 95, 106, 116, 129-142, 145-
Toulmin Stephan 75 147
Wouters Arno 160, 163, 165, 166
Van Bouwel Jeroen 102, 103 Wright Larry 153-157
10Indice dei nomi.qxp:Layout 1 5-02-2013 9:25 Pagina 188
10Indice dei nomi.qxp:Layout 1 5-02-2013 9:25 Pagina 189
10Indice dei nomi.qxp:Layout 1 5-02-2013 9:25 Pagina 190

Potrebbero piacerti anche