Sei sulla pagina 1di 166

Università degli Studi di Parma

Dipartimento di Antichistica, Lingue, Educazione,


Filosofia – A.L.E.F.
Corso di Laurea Magistrale in Filosofia
Classe LM-78

NATURA E LIBERO ARBITRIO


Il dibattito contemporaneo tra scienza
ed etica

Relatore:
Chiar.ma Prof.ssa MARA MELETTI

Correlatori:
Chiar.mo Prof. ITALO TESTA
Chiar.mo Prof. FAUSTO CARUANA
Laureando:
GIUSEPPE TURCHI
N. Mat.
253711

Anno Accademico 2014 / 2015

1
Indice

Introduzione.....................................................................................................................5
Capitolo 1. Naturalismo scientifico: nascita e questioni.............................................11
1.1 Il portato della rivoluzione scientifica..............................................................11

2
1.2 L’empirismo logico e la filosofia fondazionale................................................12
1.3 Quine: l’attacco al neopositivismo...................................................................14
1.4 Il naturalismo scientifico contemporaneo........................................................17
Capitolo 2. Il concetto di “natura”...............................................................................21
2.1 Dupré e Stroud: le contraddizioni del fisicalismo............................................23
2.2 Atteggiamenti di larghe vedute.........................................................................25
2.3 Etica naturalizzata e normatività.....................................................................28
Capitolo 3. Atteggiamenti lombrosiani e crisi disciplinari.........................................35
3.1 La frenologia tra scienza e pseudoscienza............................................................36
3.2 Il criminale nato....................................................................................................40
3.3 La crisi della psichiatria e l’autorità delle neuroscienze......................................43
3.4 Brain Overclaim Syndrome...................................................................................47
3.5 Libet e Soon: esperimenti e conclusioni affrettate................................................49
3.6 L’influenza delle scoperte neuroscientifiche sulla deliberazione giuridica..........53
3.7 Il caso dello psicopatico: un dilemma scientifico e giuridico...............................56
3.8 Alcune conclusioni.................................................................................................59
Capitolo 4. Teorie contemporanee del libero arbitrio................................................61
4.1 Quale libertà? Quale determinismo?....................................................................63
4.2 Forme di incompatibilismo libertario...................................................................67
4.3 Il compatibilismo...................................................................................................71
4.4 Incompatibilismo e scetticismo..............................................................................76
Capitolo 5. Incompatibilismo duro: un prodotto del naturalismo scientifico..........79
5.1 L’incoerenza dell’indeterminismo causale (o event-causation)............................80
5.2 L’incoerenza del libertarismo non causale...........................................................82
5.3 L’incoerenza del compatibilismo...........................................................................84
5.4 La coerenza dell’agent-causation..........................................................................88
5.5 L’agente come causa e la scienza: un divario insanabile?...................................90
5.6 Vivere senza libero arbitrio...................................................................................93
5.7 Etica e crimine: un approccio revisionista............................................................98
5.8 Smilansky: la necessità dell’illusione..................................................................103
Capitolo 6. La filosofia sperimentale e l’intuizione della libertà.............................109
6.1 La dialettica tra intuizioni compatibiliste e incompatibiliste..............................111
6.2 Io non sono libero, quindi posso essere egoista..................................................120
Capitolo 7. Responsabilità e libero arbitrio: una correlazione necessaria?............125
7.1 Quale responsabilità?..........................................................................................125
7.2 P. Strawson e H. Frankfurt: argomenti a favore del compatibilismo e critiche. 127
7.3 La responsabilità morale secondo il costruttivismo contemporaneo..................133
7.4 L’approccio fenomenologico contro le forme di compatibilismo........................137
Conclusioni...................................................................................................................143
Il rapporto tra filosofia e scienza: le problematiche in conflitto...............................143
Evoluzionismo, pragmatismo, strumentalismo..........................................................146
Il problema della libertà in chiave pragmatista........................................................151
La scienza e il moral enhancement: una possibile linea di ricerca..........................157
Bibliografia...................................................................................................................163

3
Introduzione

Questo elaborato chiude un percorso di studi che da sempre ha avuto come


oggetti privilegiati il naturalismo e l’etica. La passione per queste tematiche
è nata dall’urgenza, da tempo percepita nel mondo filosofico, di ridefinire i
contorni del rapporto tra filosofia e scienza, cioè tra discipline che
concepiscono i fenomeni dell’umano in modi radicalmente differenti.
Dimentiche del tempo in cui l’indagine del reale era condotta dalla figura
del filosofo, che si distingueva più dall’artigiano che dallo scienziato, oggi
due ontologie esclusive si fronteggiano per la supremazia epistemica e
persino metafisica: da un lato una visione pluralistica che conferisce pari
dignità a leggi naturali, stati intenzionali, valori morali, esperienza estetica;
dall’altro una visione riduzionistica che concepisce ogni fenomeno sulla
base della triade fisica-chimica-biologia.
Complice un progresso tecnologico senza precedenti, la filosofia
pare costretta in una posizione di difesa. Nella società postmoderna dove
tutto ciò che conta sono i risultati in tempi brevi, le metodiche filosofiche
risultano ai più come qualcosa di astruso e disconnesso dalla realtà
quotidiana. Non che certe argomentazioni non abbiano dato adito a
concezioni del genere: per troppo tempo la filosofia è rimasta isolata nella
sua famosa torre d’avorio, tutta impegnata a catalogare differenti livelli di
realtà senza poi riuscire a riconnetterli in modo soddisfacente. Ma abbattere
questa torre d’avorio non equivale a eliminare la disciplina, o almeno non
dovrebbe. Vi è una categoria di filosofi invece, i cosiddetti naturalisti

4
scientifici, che mirano alla dissoluzione della filosofia nella scienza. Eredi
del positivismo ottocentesco, questi studiosi professano un realismo
scientifico secondo cui persona, mente, volontà e moralità o si mostrano
traducibili in un linguaggio scientificamente accettabile, o scompaiono
dall’orizzonte dell’esistenza. I naturalisti scientifici rigettano qualunque
tipo di entità o spiegazione soprannaturale, diffidano di tutto ciò che è
trascendentale, professano il monismo ontologico e si rimettono fedelmente
al principio di chiusura causale dell’universo. In risposta, alcuni pensatori
hanno ricomposto i cocci della torre d’avorio trovandovi nuovamente
riparo (gli antinaturalisti), altri hanno deciso di prendere sul serio la sfida
della scienza e adottare prospettive di più larghe vedute (naturalisti liberali,
naturalisti pluralisti). Ne è seguito un acceso dibattito in merito all’etichetta
“naturalismo”, la quale ha assunto una grande quantità di significati a
seconda della risposta offerta alla domanda “che cos’è la natura?”.
In questo libro, la riflessione teoretica è condotta al servizio della
teoria etica. Il mio intento è quello di mostrare le ricadute dello scientismo
in etica, cioè di come un’immagine naturalizzata dell’uomo possa influire
sulla condotta e sulla riflessione morale. Molti studiosi dell’età
contemporanea hanno utilizzato le scienze naturali per giustificare, ad
esempio, l’utilitarismo radicale, le teorie del contenimento preventivo e
l’abbandono del retributivismo. D’altronde, se l’uomo non è che il prodotto
delle particelle che lo compongono, o del suo cervello, come può dirsi
libero? E senza libero arbitrio, come può essere ritenuto responsabile delle
sue azioni? E se la responsabilità morale non esiste, quali provvedimenti
dovrebbero adottare le istituzioni? Cercherò di affrontare queste domande
da più punti di vista, sviluppando il discorso nel seguente modo.
Nel primo capitolo offrirò una ricostruzione del contesto storico in
cui ha preso piede il naturalismo scientifico, partendo dalla Rivoluzione
Scientifica, passando per il Neopositivismo e la critica di Quine, fino ad
arrivare al riduzionismo contemporaneo. Il mio obiettivo qui sarà mostrare
come la scienza abbia assunto, nel corso del tempo, un ruolo privilegiato
nel determinare l’unica ontologia legittima, e di come la filosofia abbia
perso il suo antico carattere fondazionale.
Nel secondo capitolo prenderò in considerazione la critica allo
scientismo dei cosiddetti ‘naturalisti liberali’, capeggiati da De Caro e
Macarthur. Un argomento in particolare, ovvero quello della normatività
insita nella scienza, si rivelerà una delle armi migliori contro il
riduzionismo. Solleverò tuttavia alcuni dubbi in merito alle modalità con
cui questo movimento estende il concetto di “natura”. Inoltre, introdurrò il
problema etico del naturalismo – ricordando l’argomento di Moore contro
la fallacia naturalistica – e alcuni studi di neuroetica per mostrare, da un

5
lato, le complessità che accompagnano il tentativo di definire il bene
attraverso categorie naturali e, dall’altro, la stretta connessione tra le nostre
facoltà morali e i loro prerequisiti cerebrali.
Nel terzo capitolo parlerò del dibattito sulle implicazioni delle
neuroscienze in etica e nel diritto, partendo dalla riflessione della
frenologia per poi passare a quelle di Lombroso e della neuropsicologia
contemporanea. L’ideale di una riduzione completa della mente al cervello,
nata alla fine del Settecento e sviluppatasi fino a oggi, si trova spesso
associata a concezioni deterministiche che mettono in questione la libertà
di scelta degli individui. Le figure di Gall, Lombroso, Alimena e Delgado
sono state le prime a concepire il discorso della criminalità a prescindere
dalla responsabilità morale, pensando il reato come uno sfortunato
fenomeno naturale da affrontare, piuttosto che col biasimo e la semplice
punizione retributiva, con controllo, cure mediche e interventi sul cervello.
Il dibattito in merito a un possibile neurodiritto è tuttora in corso, fomentato
da esperimenti pionieristici come quelli di Libet e Haynes che si
propongono di dimostrare l’inesistenza del libero arbitrio. Sosterrò tuttavia
che tali esperimenti non possono dire alcunché in merito a cosa sia una
scelta libera e che, come dimostra il caso della psicopatia, è molto difficile
individuare delle basi biologiche del crimine.
L’analisi del quarto capitolo prende avvio dalla sezione precedente e
tematizza il problema della libertà per come è affrontato oggi nella
tradizione anglosassone. Esporrò dunque le teorie compatibiliste e
incompatibiliste nei loro nodi essenziali, fornendo un background
concettuale funzionale al successivo studio, nel quinto capitolo,
dell’eliminativismo. Qui prenderò in considerazione le riflessioni di Derk
Pereboom, filosofo statunitense che vede nel libero arbitrio qualcosa di
incompatibile sia col determinismo che con l’indeterminismo. A mio
avviso l’analisi di Pereboom si rivela convincente nel mostrare come una
concezione scientifico-naturalistica del mondo non possa conciliarsi con la
metafisica del libero arbitrio. Meno convincente è la speculazione sugli
effetti che una tale consapevolezza potrebbe avere sull’uomo comune.
Secondo Pereboom, infatti, abbandonare l’idea della libertà avrebbe effetti
terapeutici sulle nostre vite e non cambierebbe il nostro modo di rapportarci
con le sfide, il valore personale e la dignità umana. A tale visione il filosofo
israeliano Saul Smilansky obietta che l’illusione del libero arbitrio è
necessaria per mantenere un senso morale e che senza di essa sarebbe
impossibile educare i bambini del futuro.
Nel sesto capitolo le intuizioni di Pereboom e Smilansky saranno
messe alla prova in numerosi esperimenti di psicologia morale
appositamente configurati per comprendere se l’idea di libertà giochi o

6
meno un ruolo di primo piano nella pratica morale. I suddetti esperimenti,
tuttavia, mostreranno grandi discordanze nei risultati tali da rendere dubbia
la loro effettiva utilità nell’indagine filosofica. In particolare, non si riesce a
capire se l’uomo comune sia per natura compatibilista o incompatibilista,
giacché i suoi giudizi sulla responsabilità morale fluttuano in modo
imprevedibile rispetto alla credenza nel libero arbitrio. Alcuni ritengono
che la pratica di attribuzione della responsabilità sia radicata nel desiderio
di punizione e non nella credenza nella libertà. Altri pensano che i soggetti
sperimentali non comprendano appieno le implicazioni del determinismo e
per questo ritengano le persone libere, quindi responsabili, anche in
contesti antilibertari.
Il settimo e ultimo capitolo sarà la sintesi dei precedenti poiché
affronterà la questione fondamentale del free-will problem non su base
sperimentale, ma concettuale: può darsi responsabilità morale senza
libertà? De Caro e i libertari offrono una risposta negativa a questa
domanda, mentre eliminativisti e compatibilisti tendono a preservare una
pratica di attribuzione della responsabilità nonostante l’inesistenza del
libero arbitrio. Particolarmente innovativi sono gli argomenti di P.F.
Strawson e Carla Bagnoli, che mettono in primo piano il fatto che l’uomo
associato, per natura, si trova in un contesto governato da norme: per loro
la responsabilità è una relazione che si instaura tra individui e non una
proprietà metafisica. Entrambi gli autori sono convinti che la razionalità
pratica sia tutto ciò che serve per mantenere un ordine morale e sociale, e
che il funzionamento di tale razionalità non dipenda dal libero arbitrio.
Questa, che può essere vista come una forma di compatibilismo, trova una
interessante obiezione nell’analisi fenomenologica di Roberta De
Monticelli, la quale cerca di mostrare come una qualche forma di libertà sia
necessaria tanto per avere un linguaggio quanto per possedere un grado di
razionalità pratica.
Nelle Conclusioni, infine, sosterrò che le concettualizzazioni del
rapporto tra filosofia e scienza sono viziate da un problema di fondo nelle
strategie di argomentazione metafisica. Come il problema della libertà
dimostra, se si assume che la fisica abbia valenza metafisica, diventa
impossibile preservare l’idea di un agente libero: quando i concetti di
“determinismo” e “indeterminismo” arrivano a descrivere la struttura
ultima della realtà, nessun individuo può essere ritenuto moralmente
responsabile per le proprie azioni. Almeno per lo stato attuale della
conoscenza. Il naturalista scientifico dunque dovrebbe sempre essere un
incompatibilista radicale. Invece naturalisti si dicono pure i compatibilisti –
che formulano le loro teorie proprio perché siano in accordo con le scienze
– e persino certi libertari (p.e. i naturalisti liberali). Alla fine, la nozione di

7
“naturalismo” risulta comprendere sotto di sé le teorie più disparate, ma al
prezzo di numerose incongruenze: il compatibilismo infatti risulta
artificioso, mentre il naturalismo liberalizzato adotta un pluralismo
ontologico con esiti tendenzialmente antiscientifici. Per questa serie di
motivi io richiamo una diversa forma di naturalismo pluralistico, cioè un
naturalismo che conferisce pari dignità ontologica ai molteplici oggetti
dell’esperienza senza ricadere nel riduzionismo e nel soprannaturalismo: il
pragmatismo di John Dewey. Credo infatti che il grande pregio di Dewey
sia stato quello di ricordare che la scienza è uno strumento evolutosi per far
fronte alle esigenze dell’ambiente, così come lo sono la mente umana, il
linguaggio e la morale. Assumere come dato fondamentale l’atomo,
l’elettrone o il quark non sarebbe pertanto una mossa legittima: il dato
fondamentale è l’orizzonte dell’esperienza, ovvero lo sfondo delle cose
‘interagibili’ che comprende sia gli oggetti della fisica che quelli della
cultura. Questo sfondo né fisso né immutabile, ma sempre in divenire,
esaurisce ciò che è reale e naturale. Adottare una prospettiva pragmatista
significa dunque abbandonare i problemi morali del determinismo e
dell’indeterminismo, evitare di cercare una proprietà essenziale come il
libero arbitrio e focalizzarsi piuttosto sul funzionamento dell’uomo che
valuta, ragiona e sceglie. In etica, significa sperimentare modalità
d’intervento che tengano conto dell’uomo come corpo, come ragione e
come membro di una società.

Nella presente ricerca ho cercato di fare tesoro dei vari corsi seguiti nel
quinquennio 2010/2015 all’Università degli Studi di Parma. Posso dire
quindi che ogni insegnamento, in misura più o meno marcata, è stato fonte
d’ispirazione e trova qui un piccolo spazio. Ringrazio pertanto la prof.ssa
Mara Meletti che, oltre a darmi la possibilità di presentare questo lavoro, è
riuscita a stemperare il mio ingenuo scientismo permettendomi di acquisire
più larghe vedute. Ringrazio i correlatori prof. Fausto Caruana e prof. Italo
Testa che mi hanno introdotto, guidato e appassionato rispettivamente alle
neuroscienze e al pragmatismo di John Dewey. Ringrazio i prof. Wolfgang
Huemer e Andrea Bianchi, che molto pazientemente hanno discusso con
me di naturalismo e libertà offrendomi di volta in volta preziosi
suggerimenti. Se le mie tesi di laurea trattano di naturalismo, è in buona
parte merito loro. Un grazie anche alla prof.ssa Beatrice Centi per le
indicazioni riguardo la fenomenologia e il concetto di “persona”, e alla
prof.ssa Rita Messori, che per prima mi ha presentato le nozioni di “natura
organica” e “conoscenza preriflessiva”. Un ringraziamento poi ad
Alessandro Bosi, i cui corsi mi hanno portato a comprendere l’urgenza di

8
certe problematiche sociali, fomentando il mio interesse per l’educazione
del cittadino e la riforma sociale. Ringrazio inoltre il prof. Mario De Caro
per avermi consigliato la lettura dei saggi di Pereboom e per avermi aiutato
a sciogliere alcune perplessità circa il rapporto tra libertà e responsabilità, e
il prof. Roberto Frega, che con grande gentilezza mi ha fornito ulteriori
articoli su Dewey e il pragmatismo contemporaneo.

Capitolo 1. Naturalismo scientifico:


nascita e questioni

9
1.1 Il portato della rivoluzione scientifica

La forte opposizione che oggi contrappone filosofi e scienziati non ebbe


precedenti nell’antica Grecia. Che si parlasse dei quattro elementi, di semi
o dell’apeiron, la problematica dell’archè fu la madre del pensiero
filosofico e coinvolse indistintamente tutti i presocratici. Di fatto, la
filosofia nacque nel tentativo di spiegare la struttura del mondo e per molto
tempo nessuno le avrebbe assegnato un compito diverso. Filosofi erano i
Pitagorici, che sul numero e la matematica fondarono la loro scuola; i
medici, che per secoli esercitarono con l’obiettivo di ristabilire l’equilibrio
degli elementi o degli umori; i redattori delle prime classificazioni
zoologiche e botaniche (Aristotele e Teofrasto). Insomma, tra fare scienza e
fare filosofia non v’era una distinzione netta, complice la carenza di mezzi
e metodi che rallentava la specializzazione delle varie discipline.
La grande svolta avvenne tra il XVI e XVII secolo, quando alcuni
grandi pensatori si opposero alla Scolastica. Copernico diede per primo una
dimostrazione matematica della teoria eliocentrica (1534), mentre Galileo e
Cartesio elaborarono, nella prima metà del Seicento, il metodo fondato
sull’esperimento e l’analisi matematica. Il loro desiderio di svincolarsi
dall’oscurantismo clericale permise alla scienza di farsi indipendente dalla
teologia ma, per un verso, anche dalla filosofia. Il mondo, infatti, veniva
ora studiato attraverso modelli astratti, strutture ideali dei fenomeni su cui
la matematica poteva esercitare tutta la propria potenza formale, e il
processo sperimentale si configurava in modo tale che suoi i risultati
fossero comparabili e valutabili rispetto a tali modelli.1 Da quel momento,
il nuovo metodo venne progressivamente applicato a una sempre più ampia
gamma di fenomeni e rubò terreno alla filosofia. In virtù dei suoi successi,
la scienza arrogò a sé il diritto di decretare i confini dell’ontologia e si
contrappose alle altre discipline, dando vita a dialettiche del tipo natura vs
cultura o scienze naturali vs scienze umane.
Il progresso scientifico degli ultimi anni ha esasperato questa
tendenza. Il naturalismo odierno – o almeno quello che domina nel
pensiero anglosassone – non ha più il tratto pluralistico dell’antichità, ma è
diventato un vero e proprio scientismo che affida la spiegazione del mondo
unicamente alle ‘scienze dure’ quali sono fisica, chimica e biologia.
Tuttavia il suo attacco non si è ancora rivelato decisivo, poiché persistono
domande alle quali le scienze naturali devono ancora una risposta
1
F. Laudisa, Naturalismo, filosofia, scienza, mitologia, Edizioni Laterza, Roma-Bari, 2014, p. 9-11.

10
soddisfacente, del tipo: come si caratterizza il concetto di “natura”? Esso è
interamente esaurito dalle spiegazioni scientifiche, oppure vi sono
fenomeni che si sottraggono al loro dominio? Date le conoscenze attuali,
naturalizzare la sfera dell’umano (mente, libero arbitrio, morale) è
un’operazione legittima? Se sì, offre dei vantaggi evidenti? In mezzo a tali
questioni la filosofia ha cercato e cerca una propria specificità.

1.2 L’empirismo logico e la filosofia fondazionale

L’epistemologia novecentesca si sviluppò in un clima culturale dove la


contrapposizione tra filosofia e scienza influì pesantemente sul dibattito
concernente il problema della conoscenza. In particolare, i progressi della
psicologia empirica e sperimentale tra il XVII e XX secolo indussero molti
studiosi a pensare che i contenuti di pensiero dipendessero dalla struttura
psicologica umana; tuttavia alcuni filosofi si opposero con forza allo
psicologismo e, partendo da ciò, arrivarono a caratterizzare la filosofia
come analisi concettuale. Tale caratterizzazione aveva l’obiettivo di
preservare un campo di indagine indipendente dagli aspetti empirici della
conoscenza, un campo in cui si potesse indagare, mediante la sola analisi
concettuale, la struttura ‘pura’ del pensiero.
Fu questo lo spirito col quale Carnap tentò la fondazione logico-
concettuale della conoscenza naturale, distinguendo le due componenti
degli enunciati, quella logico-linguistica e quella fattuale, in modo da
demarcare i domini di studio rispettivamente di filosofia e scienza.2 La
netta separazione che si venne a creare fu promossa in articoli come Il
superamento della metafisica mediante l’analisi logica del linguaggio,3 nel
quale si ribadiva la tesi caratteristica dell’empirismo logico: il significato di
un enunciato è il metodo della sua verificazione.4 Sulla base di ciò, Carnap
distinse le proposizioni (allora intese come enunciati) in due classi: le
proposizioni sensate e le pseudoproposizioni. Facevano parte della prima
classe le tautologie, le contraddizioni e le proposizioni empiriche, mentre
rientravano nella seconda gli asserti della metafisica. In particolare, la
metafisica aveva il difetto di utilizzare parole prive di senso (ad es. “Dio”,
2
Cfr. Ivi pp. 30-31.
3
R. Carnap, Überwindung der Metaphysik durch logische Analyse der Sprache, in Erkenntnis, 2. Bd.,
1931, trad. it. Il superamento della metafisica mediante l’analisi logica del linguaggio, in A. Pasquinelli
(a cura di), Il neoempirismo, UTET, Torino, pp. 504–532. Va ricordato che Carnap subì l’influenza del
Tractatus Logico-Philosophicus di Wittgenstein, una delle prime opere a caratterizzare la filosofia come
analisi del linguaggio.
4
Detto altrimenti, un enunciato ha significato se vi è, in linea di principio, almeno un’esperienza che
possa comprovarlo o falsificarlo.

11
termine che non ha alcun riferimento empirico) e\o di combinare parole
sensate violandone la sintassi logica (ad es. sostantivando “nulla”, un
quantificatore, per comporre enunciati come “il nulla nullifica”).
Quest’ultimo caso rappresentava, secondo Carnap, uno degli errori tipici
della filosofia e offriva l’occasione per mostrare l’efficacia dell’attività di
analisi: ricorrendo alla logica, la (buona) filosofia era in grado di
evidenziare come la sintassi grammaticale consentisse di formulare
proposizioni insensate e correggere tale inconveniente.5
Carnap spiegò poi come ogni parola avesse una proposizione
elementare che ne definisse la sintassi logica (p.e. “x è scapolo” nel caso di
“scapolo”). Il significato delle parole dipendeva dalla verificabilità
empirica della sua proposizione elementare o dalla possibilità di
quest’ultima di essere inferita a partire da proposizioni protocollari.6 Le
proposizioni protocollari, in quanto direttamente connesse a un dato di
esperienza, scongiuravano il rischio di circolarità (cioè che un termine, p.e.
“pari”, potesse essere definito solo come il contrario di “dispari”, e
viceversa) e fungevano da base per la costruzione delle espressioni sensate.
Con ciò si rendeva conto della sinonimia e della possibilità di avere
enunciati veri in virtù del solo significato delle parole.7
Nel complesso, il progetto neoempirista poneva una netta distinzione
tra costrutti teorici e contenuti osservativi e mirava alla riduzione –
attraverso gli strumenti della logica matematica – delle espressioni sensate
a costrutti logici di dati sensoriali, in modo che fossero sempre stabilite
tutte le condizioni di verificazione.8 La filosofia, ristretta alla sola analisi
del linguaggio, stabiliva ciò di cui aveva senso parlare, dopodiché spettava
alle scienze naturali decretare la verità\falsità delle proposizioni empiriche
(il monopolio sulla conoscenza del mondo). Detto in altri termini, la
filosofia neopositivista aveva un ruolo fondazionale e lavorava su un piano
normativo indipendente: offriva una struttura logica e metodologica
comune a tutte le scienze, ottenendo il duplice effetto di legittimarne la
ricerca e unificarle.

1.3 Quine: l’attacco al neopositivismo

5
Ivi, p. 510.
6
Ivi, p. 507.
7
Un enunciato come “tutti gli scapoli sono uomini adulti non sposati” era analitico perché riducibile alla
verità logica “ogni F è F”. Le verità logiche sono verificate indipendentemente da qualunque contesto
empirico.
8
Cfr. Laudisa, Naturalismo, filosofia, scienza, mitologia, pp. 13-14.

12
Quine contestò la prospettiva dei neoempiristi evidenziando come questa
inducesse il filosofo a ritirarsi in un ‘esilio cosmico’ dal quale giustificare il
proprio sistema di credenze e metodi. Ma nei fatti il filosofo, prima di
essere tale, è una persona che ha acquisito un linguaggio e che ha fatto
esperienza, pertanto opera già all’interno di una teoria. Nel saggio Due
dogmi dell’empirismo,9 Quine sferrò così il suo attacco contro le tesi
centrali dell’empirismo logico negando 1) che si potesse tracciare una
distinzione netta tra “analitico” e “sintetico” e 2) che gli asserti dotati di
significato fossero traducibili in asserti sull’esperienza immediata.
Per confutare la distinzione tra “analitico” e “sintetico”, Quine partì
dall’assunto che un concetto è pienamente intellegibile solo se ammette una
definizione esplicita e non circolare. Così non sarebbe per l’analiticità, e per
dimostrarlo Quine chiamò in causa la sinonimia, la quale però rimandava al
concetto di “necessità”, che a sua volta andava spiegata ricorrendo
all’analiticità e cadeva dunque in un circolo vizioso.10
Il secondo dogma, quello del riduzionismo, fu invece confutato
dimostrando l’impossibilità di tradurre gli asserti dotati di significato in
asserti (veri o falsi) sull’esperienza immediata. Quine considerava la
scienza come «una struttura linguistica poderosa, un tessuto di termini
teorici legati da ipotesi, un tessuto connesso qua e là agli eventi
osservabili»,11 ma la connessione non poteva sussistere secondo il modello
di Carnap. Quando un parlante comprende un enunciato osservativo
acquisisce l’abitudine ad assentire se interrogato su tale enunciato in
circostanze intersoggettivamente osservabili. Più si procede
nell’acquisizione della lingua, più il bambino comincia a collegare gli
enunciati osservativi (es. “questo qui è giallo”) a quelli la cui verità non
dipende dall’occasione di enunciazione (es. “le mele del Trentino sono
gialle”). Tale collegamento avviene in modo «tenue e congetturale» e si
configura attraverso salti di analogia basati sui comportamenti di assenso.12
Ma se i salti di analogia sono congetturali, allora manca una regola che ci
9
W.V.O. Quine, Two dogmas of empiricism, in The Philosophical Review, 60 (1951), pp.20-43, trad. it.
di P. Valore, Due dogmi dell’empirismo, in A. Iacona e E. Paganini (a cura di), Filosofia del linguaggio,
Raffaello Cortina Editore, Milano, 2003, pp. 107-135.
10
Per la strategia argomentativa, si veda ivi, pp. 107-111.
11
Ivi, p. 116.
12
W.V.O. Quine, The nature of natural knowledge, in S. Guttenplan, ed., Mind and language: Wolfson
College lectures, Oxford University Press, Oxford, 1975, pp. 67-81, trad. it. La teoria e l’osservazione, in
M. Leonelli (a cura di), Saggi filosofici 1970-1981, Armando Editore, Roma, 1982, pp. 121-122. Ritengo
sufficiente riportare l’esempio di Quine circa il salto dai termini osservativi “cane” e “animale” alla
costruzione categoriale universale. Supponiamo di avere un bambino che, posto di fronte a dei cani,
impara a rispondere affermativamente a queste due domande: “Questo è un cane?” e “Questo è un
animale?”. Se il bambino non verrà ripreso o corretto da qualcun altro, imparerà a rispondere
affermativamente anche a “Il cane è animale?”. Giunto a questo punto il bambino può compiere
un’astrazione notando che “Un S è un P” è simile a “Il cane è un animale”. Tale somiglianza è acquisita e
dipendente dal linguaggio, non più dal contesto osservativo.

13
permetta di partire dal linguaggio corrente per ritornare al livello basilare
degli enunciati osservativi: l’apprendimento del linguaggio collega
osservazione e teoria attraverso un «legame labirintico» caratterizzato da
alcuni tratti arbitrari.13
La critica dei due dogmi dell’empirismo ebbe effetti rovinosi per il
neopositivismo e portò a un ripensamento dell’epistemologia come
disciplina. Innanzitutto, negare la fondatezza della distinzione tra analitico
e sintetico rendeva impossibile distinguere negli enunciati la componente
logico-linguistica da quella fattuale. Questo, unito all’impossibilità di
risalire con precisione al dato sensoriale, faceva sì che non vi fosse alcun
fatto che permettesse di stabilire il significato di un qualsiasi enunciato o
espressione linguistica presi singolarmente. Secondo Quine, quelle che
Carnap chiamava ‘proposizioni sensate’ dovevano confrontarsi col
tribunale dell’esperienza non individualmente, ma collettivamente, perché
un qualunque parlante che proferisce un enunciato ne sta già
presupponendo molti altri. In breve: «l’unità di significato empirico è la
scienza nella sua interezza».14 Solo un’intera batteria di enunciati può
essere confermata empiricamente (olismo della conferma), ed è sempre
questa batteria ad avere un contenuto empirico e un significato (olismo
semantico).
Per quello che riguarda l’epistemologia, Quine la ripensò a partire dal
paradigma evoluzionistico. Secondo il filosofo, la scienza moderna era uno
strumento raffinato con cui esercitare un potere predittivo sull’ambiente,
quindi la bontà di una teoria (intesa come un insieme coerente delle
discipline che descrivono il mondo) andava valutata unicamente in base
all’efficacia predittiva. Tutto il sistema era sempre passibile di revisione,
qualora si fosse presentata un’esperienza non prevista. Il contraccolpo
sull’epistemologia tradizionale fu notevole: data l’impossibilità di ridurre la
teoria all’evidenza sensoriale, non v’era più alcun fondamento per la
giustificazione della conoscenza. Come fa notare Laudisa, l’epistemologia
quineiana «non [poteva] assolvere in linea di principio al proprio compito
di giustificazione. Se vale questa conclusione, tanto vale […] abolire del
tutto l’epistemologia e sostituirla con l’analisi dei processi psicologici che
presiedono alla formazione delle credenze».15
L’epistemologia naturalizzata proposta da Quine intendeva occuparsi
proprio di questo: del processo che da uno stimolo sensoriale in input porta
a una descrizione del mondo in output; il come si produce la conoscenza in
13
Ivi, pp. 124-125. Il bambino si ritrova con un’eredità culturale che non ha scelto e spesso non è conscio
dei salti d’analogia compiuti nell’apprendere il linguaggio. Tali salti risentono perciò della contingenza
storica e possono variare da persona a persona a seconda del contesto sociale.
14
Quine, Due dogmi dell’empirismo, p. 131.
15
Laudisa, Naturalismo, filosofia, scienza, mitologia, p. 38.

14
un soggetto umano. Venuta meno la validità dell’analisi a priori,
l’epistemologo non poteva far altro che ricorrere alla psicologia empirica16
e porsi in continuità con lo scienziato naturale, evitando con cura domini di
verità sovra-naturali e concentrandosi su quelle stimolazioni sensoriali che,
per l’uomo, sono l’unico canale d’informazione circa il mondo esterno.17
Ora, non è sempre chiaro se le considerazioni di Quine avessero come
fine ultimo la totale dissoluzione della filosofia nella scienza. Certo è che la
riduzione dell’epistemologia alla psicologia empirica – o a una «branca
dell’ingegneria» – e lo scarso interesse per la normatività hanno di fatto
portato a concezioni estreme di naturalismo secondo una catena
argomentativa particolare: se non dobbiamo occuparci dell’aspetto
normativo, possiamo limitarci al descrittivo; se ci limitiamo all’aspetto
descrittivo, non serve ricorrere a due discipline come la psicologia e
l’epistemologia, ma possiamo accontentarci della prima; lo studio della
psicologia deve appoggiarsi sulla neurobiologia, che in ultima istanza si
fonda sulla fisica. Conclusione: un completo dominio della neurobiologia e
della fisica porterà in linea di principio a risolvere tutti i misteri
rispettivamente dell’umano e dell’universo. La ‘filosofia prima’ cede il
posto alla ‘scienza prima’ e diventa sua ancella.

1.4 Il naturalismo scientifico contemporaneo

Secondo De Caro, il naturalismo contemporaneo si distingue per due tesi:


una tesi costitutiva per cui la filosofia non può far ricorso a entità,
proprietà, eventi o spiegazioni soprannaturali;18 e una tesi antifondazionale,
per cui la filosofia non è prioritaria rispetto alle scienze naturali e non può
permettersi di giudicare le loro teorie.19 Da queste due tesi, i naturalisti
16
W.V.O. Quine, Epistemology Naturalized, in Ontological relativity and other essays, 1968, trad. it. a
cura di M. Leonelli, L’epistemologia naturalizzata, in La relatività ontologica e altri saggi, Armando
Editore, Roma, 1986, p. 106.
17
Ivi, p. 107.
18
Leggendo i saggi raccolti in La mente e la natura (M. De Caro, D. Macarthur, (a cura di), Naturalism in
Question, Harvard University Press, Cambridge (MA) 2004, trad. it. La mente e la natura, Fazi, Roma,
2005), sembra sia dato abbastanza per scontato che le entità da rifiutare siano quelle religiose, la res
cogitans cartesiana, il mondo noumenico e il cielo platonico; tuttavia questo rifiuto non pare una
conquista della filosofia recente, quanto un dato ormai acquisito (Cfr. De Caro, Macarthur, La mente e la
natura, p. XXIV). Il vero problema è quello di collocare cose come le idee morali, le norme epistemiche e
in genere tutto ciò che, pur essendo immateriale, influisce sulla nostra vita e non può essere oggetto di
studio di fisica, chimica e biologia.
19
Cfr. M. De Caro, Naturalismo e normatività: prospettiva scientifica e prospettiva agentiva, in S. Bacin
(a cura di), Etiche antiche, etiche moderne, Il Mulino, Bologna, 2010, pp. 101-118. Si veda inoltre M. De
Caro, Il naturalismo scientifico contemporaneo, consultabile al link:
http://www.rescogitans.it/main.php?articleid=144.

15
radicali derivano altrettanti corollari: 1) le scienze naturali offrono l’unica
concezione vera di “natura” e 2) la ricerca filosofica deve porsi in
continuità con la scienza. Detto in altri termini, se un filosofo accetta la tesi
antifondazionale, accetta l’idea che la filosofia può parlare del mondo, a
patto che svolga la sua indagine procedendo a posteriori come la scienza.20
Ma come opera, nei fatti, un naturalista scientifico?
Bisogna innanzitutto notare che se l’unica concezione vera di “natura”
è quella delle scienze naturali, cose come valori e numeri possono mettere
in difficoltà il naturalista, in quanto sono entità immateriali esterne al
dominio di fisica e biologia. Uno scientista, tuttavia, non può ammettere
che vi siano parti del reale che la scienza non è in grado di trattare, poiché
la scienza naturale, per definizione, studia la totalità degli esseri viventi e
delle cose inanimate. Quando difficoltà di questo tipo si presentano, il
naturalista scientifico tende ad adottare un metodo preciso: riduzione, e se
la riduzione non riesce, eliminazione. Un certo tipo di filosofia della mente
offre esempi di riduzione quando prova a identificare gli stati mentali con
l’attivazione delle aree cerebrali osservate in fMRI, o ancora quando prova
a spiegare senso morale, emozioni e sentimenti nei termini di una maggiore
o minore concentrazione di ormoni.21 La riduzione però non si ferma alla
neurofisiologia e può procedere fino ad arrivare alle unità che compongono
la materia stessa: particelle, onde, forze – questa è la versione più estrema
di naturalismo e prende il nome di ‘fisicalismo’. Infine, se l’entità
problematica ha resistito a tutti i tentativi di riduzione, il naturalista la
elimina dal vocabolario delle cose realmente esistenti, ritenendola al
massimo «un’utile finzione».22
Questo metodo d’indagine rivela le concezioni di “natura” e “scienza”
che ne stanno alla base: a) l’universo è un insieme di particelle le quali si
organizzano secondo leggi e raggiungono gradi di complessità crescenti; b)
a ogni grado di complessità corrisponde una scienza che, in linea di
principio, è riducibile al livello inferiore; c) le scienze nel loro complesso
mirano a dare una descrizione esaustiva di tutti i fenomeni.23 È data così
20
Secondo filosofie come il neopositivismo lo scopo della filosofia era l’analisi logica del linguaggio e
per questo la si poneva alla base di ogni scienza. Nonostante non potesse dire alcunché sul mondo, la
filosofia godeva di una propria autonomia e di un metodo che la caratterizzava rispetto alla scienza. Con
l’avvento del naturalismo la filosofia sembra perdere tale autonomia e caratterizzazione diventando
piuttosto «la scienza nelle sue estensioni più generali e astratte» (De Caro, Macarthur, La mente e la
natura, p. XXVIII).
21
Si veda per esempio P.S. Churchland, Braintrust, What Neuroscience tells us about morality, Princeton
University Press 2011, trad. it. a cura di Silvano Zipoli, Neurobiologia della Morale, Raffaello Cortina
Editore, Milano 2012.
22
Cfr. De Caro, Naturalismo e normatività, p. 115.
23
Studiosi come Dupré fanno però notare che decidere quali scienze inserire in questa gerarchia
piramidale, se si fa eccezione per le scienze dure che formano i primi gradini, non è questione priva di
problemi. Per esempio, secondo i naturalisti ortodossi le scienze del linguaggio, dell’educazione e
politiche, alcuni rami della psicologia e della sociologia si limiterebbero a un livello di studio che non può

16
una netta separazione tra la descrizione dei fenomeni e la loro valutazione:
l’attivazione dei neuroni, le reazioni chimiche, il moto dei corpi e
quant’altro non sono giusti o sbagliati, veri o falsi, ma accadono
semplicemente, e la missione umana è capire come funzionano. Se si
accetta questa concezione, è impossibile pensare che in natura esistano
norme e valori sui generis, cioè svincolati dalle leggi causali e dotati di
caratteristiche peculiari.
Il rapido progresso che le scienze hanno conosciuto negli ultimi anni
ha grandemente favorito un atteggiamento di riduzionismo radicale. Grazie
alle continue scoperte e a strumenti d’indagine sempre più sofisticati,
l’umanità ha ampliato la base di spiegazioni scientifiche a cui pensa di
poter ridurre tutto lo scibile. Gli esaltanti sviluppi nei campi di fisica,
chimica e biologia hanno dato vita a svariate branche dell’ingegneria, le
quali a loro volta hanno prodotto risultati pubblicamente riconosciuti. E
proprio l’entusiasmo per questi risultati è, secondo De Caro, il motivo
principale per cui lo scientismo si è diffuso oggi in filosofia.

fornire una conoscenza universalmente valida, e quindi non possono dirsi propriamente scientifiche. Cfr.
J. Dupré, Il miracolo del monismo, in De Caro, Macarthur (a cura di), La mente e la natura, pp. 26-27.

17
Capitolo 2. Il concetto di “natura”

Secondo quanto riportato nell’enciclopedia Treccani, per “natura” s’intende


il «sistema totale degli esseri viventi, animali e vegetali, e delle cose
inanimate che presentano un ordine, realizzano dei tipi e si formano
secondo leggi».24 Coerentemente con ciò, la “scienza” viene intesa come
l’insieme delle discipline che studiano le leggi del mondo organico e
inorganico secondo un metodo matematico-sperimentale.25 Ad essi si
oppone il concetto di “soprannaturale”, il quale denota tutto quello «che
24
Enciclopedia Traccani, voce Natura: http://www.treccani.it/enciclopedia/natura/#filosofia-1.
25
Cfr. ivi, voce Scienza: http://www.treccani.it/enciclopedia/scienza/.

18
supera il corso ordinario della natura […]; o che trascende i limiti
dell’esperienza e della conoscenza umana».26 Rientrano in quest’ultima
categoria gli asserti di quella metafisica alla quale si opposero tanto i
neopositivisti quanto Quine, mentre è forte la tendenza a far coincidere il
dominio del naturale con quello delle cosiddette ‘scienze dure’. Tuttavia,
determinare l’estensione del concetto di natura si è rivelata un’impresa
assai difficile e resta una delle questioni filosofiche più pressanti.
La varietà di posizioni in merito rispecchia la complessità di una
problematica che di fatto si scompone in due domande: a) quali entità
esistono? e b) quali, tra le entità esistenti, sono da considerare naturali? Per
esempio, ammessa l’esistenza dei valori, non tutti sono disposti a
considerarli naturali quanto piuttosto delle entità sui generis. O ancora,
dicotomie come natura vs cultura o naturale vs artificiale ben evidenziano
la varietà di domini che possono opporsi a quello del naturale.
A fronte di uno scientismo sempre più diffuso, in tempi recenti ha
preso piede una concezione di naturalismo ‘liberalizzato’27 che si propone
di ‘riportare in natura’ quelle entità che paiono sfuggire ai vincoli degli
scienziati. Ciò che i naturalisti liberali rifiutano è l’idea che l’unica
ontologia ammissibile sia quella delle scienze dure, e per questo offrono
una concezione di “natura” più ampia e accettano forme di pluralismo sia
metodologico che ontologico. Al di là delle differenze tra le singole
posizioni, le critiche mosse contro atteggiamenti riduzionistici ed
eliminativisti si sono concentrate nel mostrare rispettivamente che a) molte
riduzioni derivano da interpretazioni distorte degli esperimenti scientifici e
b) l’eliminazione di certi concetti porta a un eccessivo impoverimento
dell’ontologia. Infatti, se la scienza elimina i problemi (es. la normatività)
anziché risolverli, dimostra di non avere i mezzi adeguati per analizzarli. Il
che, detto in altri termini, significa non saper rendere conto di certi
fenomeni.
La soluzione del naturalismo liberalizzato, dicevo, è quella di rendere
più inclusivo il concetto di “natura” senza preoccuparsi della discontinuità
presupposta al suo interno. Anzi, tale discontinuità sarebbe un’esigenza che
ci si impone. Si consideri per esempio la necessità delle scienze umane e
delle loro categorie: essa si mostra dal fatto che le scienze naturali non
riescono a essere informative in tutti i campi. Abbiamo bisogno della
politica e della sociologia, ma non riusciamo a fare politica con la fisica
nucleare, come non siamo in gradi di fare sociologia con la neurobiologia.
Nella formulazione di De Caro, il naturalismo liberalizzato:

26
Ivi, voce Soprannaturale: http://www.treccani.it/vocabolario/soprannaturale/.
27
Vedi infra.

19
1. Condivide la tesi antifondazionale
2. Rifiuta il ricorso a entità soprannaturali
3. Rifiuta la tesi per cui la filosofia deve adottare il metodo e
l’ontologia delle scienze naturali, imponendo però alla filosofia di
non contraddire le migliori teorie scientifiche

Alcuni critici hanno fatto notare che il naturalismo liberalizzato non


sarebbe un vero e proprio naturalismo e non offrirebbe, di fatto, nuove
soluzioni. La sensazione è che questa corrente si rapporti in modo ambiguo
con le scienze naturali, proponendo un accordo formale per poi svincolarsi
qualora l’accordo richieda un prezzo troppo alto. Per esempio, Nannini fa
notare che se il naturalista liberale rifiuta il fisicalismo e ammette una
retroazione causale del mentale sul fisico, allora difficilmente accetterà il
principio di chiusura causale, e ciò equivarrebbe a rifiutare la
termodinamica,28 cioè una delle teorie scientifiche oggi più consolidate.
Inoltre il naturalismo liberalizzato accetta il realismo scientifico (esiste solo
ciò che è oggetto di una conoscenza empirica metodologicamente seria) ma
in una forma che può portare al relativismo, giacché il pluralismo
epistemologico imporrebbe l’esistenza di «tanti ‘mondi reali’ quanti sono i
livelli d’analisi empiricamente fondati».29 Calisi ritiene invece che
includere nella natura i concetti eliminati dagli scientisti non sia che una
manipolazione ad hoc, utile solo per «occupare un posto sotto l’ombrello
protettivo del naturalismo».30 Secondo questi autori, dunque, il naturalismo
liberalizzato non offrirebbe nuove soluzioni agli antichi problemi poiché
presuppone, anziché dimostrare, l’esistenza e il carattere naturale di valori,
norme, libertà, etc. Io ritengo che queste critiche siano in buona parte
fondate ma, nonostante ciò, resto convinto del fatto che vi siano ottimi
argomenti per criticare lo scientismo, e li esporrò nelle pagine seguenti.

2.1Dupré e Stroud: le contraddizioni del fisicalismo.

La Mente e la Natura. Per un naturalismo liberalizzato è una recente


curatela che offre un’analisi critica del naturalismo contemporaneo.
Sebbene i contributi dei vari autori mostrino posizioni diversificate,
l’intenzione dei curatori è proporre una via di mezzo tra lo scientismo e
28
L’idea è che una mente capace di agire causalmente sul fisico immetterebbe nell’universo più energia
rispetto all’inizio, violando il principio di conservazione. Questa critica è comunque oggetto di dibattito.
29
S. Nannini, Naturalismo cognitivo. Per una teoria materialistica della mente, Quodlibet, Macerata,
2007, p.88.
30
A. Calisi, Sul naturalismo liberalizzato, in Rescogitans, 04/07/2008, consultabile al link:
http://www.rescogitans.it/main.php?articleid=301.

20
l’antinaturalismo. Uno dei bersagli polemici privilegiati è il naturalismo
scientifico, spesso declinato nella versione estrema del fisicalismo e
assunto a paradigma del naturalismo in generale. Non è un caso dunque che
tra i primi saggi compaiano Stroud e Dupré, due tra i maggiori critici del
fisicalismo.
Ne Il fascino del naturalismo31 Barry Stroud cerca di mostrare come
un’ontologia ristretta come quella dei naturalisti scientifici non sia in grado
di sostenere le loro stesse teorie. La sua argomentazione poggia su una
dimostrazione per assurdo e procede come segue:

a. Il fisicalismo sostiene che esistono solo fatti fisici nel mondo


b. Ciò che non è fisico non è naturale
c. Non possiamo fare appello a entità che esulano dal naturale,
siano esse stati psicologici, numeri o valori di verità
d. Gli scienziati acquisiscono conoscenza dagli esperimenti,
formulano teorie in un linguaggio logico-matematico e offrono
dimostrazioni

Conclusione: un fisicalista pretende che ciò che dice sia vero


nonostante non dovrebbero esistere per lui né gli stati psicologici
né uno spazio normativo; inoltre svolge le sue ricerche con
l’ausilio di mezzi non naturali come i numeri e le regole logiche.
Dunque il fisicalismo non ha i mezzi per giustificare la pratica
scientifica.32

Il paradosso, qui, è che la prima cosa a non essere naturalizzabile è la


scienza stessa, proprio perché fa uso di quello che (almeno in linea di
principio) elimina. Da ciò la contraddizione del naturalista il quale,
trovandosi stretto in un mondo ridotto ai minimi termini, prova a far
rientrare nel suo dominio le entità sfuggenti producendo però, secondo
Stroud, una distorsione dei fatti che non risolve il problema.
Come Stroud, John Dupré adotta una posizione molto critica nei
confronti del fisicalismo, arrivando persino a bollarlo come mito
soprannaturale. Infatti, se il naturalismo contemporaneo si contraddistingue
per l’antisoprannaturalismo, cioè per la «negazione dell’esistenza di entità
che stanno al di là del corso normale della natura»,33 allora il fisicalismo
viola questo impegno. Lo viola in quanto sostiene la tesi del monismo
ontologico, cioè ritiene che il mondo sia interamente composto da un’unica
sostanza: le particelle che funzionano secondo leggi causali. Poiché le
31
B. Stroud, Il fascino del naturalismo, in De Caro, Macarthur, (a cura di) La mente e la natura, pp. 5-20.
32
Ivi, pp. 11-12, 17.
33
Dupré, Il miracolo del monismo, p. 21.

21
particelle compongono ogni cosa, il monismo fisicalista dà per scontato che
le proprietà di tutti i fenomeni possano essere ridotte alle proprietà delle
particelle elementari, e quindi che le scienze studino tutte la stessa cosa
(unità di contenuto) attraverso un unico metodo (unità di metodo).
Dupré è però convinto che ricercare certe proprietà nella materia
equivalga ad attribuirle poteri magici.34 Innanzitutto i tentativi di riduzione
nel campo della filosofia della mente sono falliti, quindi non si è riusciti a
spiegare i fenomeni mentali in termini neurofisiologici. Lo stesso vale per
matematica, logica, normatività morale, sociologia e alcune patologie
psicologiche (p.e. il disturbo dell’apprendimento). Questo significa che ci
sono cose immateriali come gli atteggiamenti proposizionali, i valori e i
concetti che non sono stati ricondotti nell’ambito delle leggi naturali.
Tuttavia, siccome tali entità condizionano a livello pratico tanto la vita di
tutti i giorni quanto la ricerca scientifica, l’uomo è costretto ad ammetterle
nel suo inventario ontologico. In secondo luogo, l’esperienza dimostra che
anche le scienze naturali trattano vari tipi di oggetti e vi si approcciano con
metodi differenti. Il pluralismo ontologico e metodologico risulta un
percorso obbligato, scrive Dupré, perché il livello organizzativo
dell’oggetto di studio determina gli schemi di classificazione per tale
oggetto: i modelli scientifici sono strumenti su misura per la porzione di
reale in esame. Ciò implica che non è necessario che gli schemi dei livelli
organizzativi più alti (es. biologia cellulare) debbano essere correlati a
quelli dei livelli più bassi (es. fisica quantistica).35
Alla luce di tutto questo, Dupré conclude che il monismo e l’unità
della scienza sono ideali privi di base empirica. Mancano infatti prove
affidabili per la riduzione dei concetti del vocabolario normativo, come
mancano prove dirette dell’applicabilità delle leggi di una teoria di ordine
inferiore alle teorie di ordine superiore. Tutti i fallimenti e le problematiche
evidenziate suggeriscono che sebbene l’uomo sia un soggetto fisico, ciò
non significa che lo studio delle proprietà delle particelle (parte) di cui è
composto possa spiegare l’insieme dei suoi atteggiamenti (tutto). Credere
una cosa del genere significa attribuire illegittimamente poteri
soprannaturali a ciò che è fisico.36

2.2Atteggiamenti di larghe vedute

34
Ivi, p. 24. Un esempio di questi poteri sarebbero quelli dei neuroni, che dallo scaricare energia
arriverebbero a pensare, decidere, percepire ecc.
35
Cfr. ivi, p. 33.
36
Ivi, p. 41.

22
L’argomento forte delle critiche sopra esposte è che una concezione di
“natura” ristretta si rivela rovinosa per lo stesso naturalista scientifico.
Nell’ottica di Stroud e Dupré, un fisicalista non sarebbe legittimato a
ritenere vere le sue affermazioni, non potrebbe utilizzare il linguaggio
logico-matematico e non potrebbe portare alcuna prova empirica a favore
delle sue tesi. Anzi, le tesi del monismo fisicalista contraddirebbero
l’esperienza: le prove empiriche che abbiamo mostrano il fallimento delle
riduzioni e il bisogno di quei concetti che, fallita la riduzione, vorrebbero
essere eliminati.
A questo punto ci si potrebbe chiedere se con il rifiuto del monismo
Dupré non abbia riaperto la strada a una qualche forma di dualismo,37 un
dualismo che si esplicita nella distinzione sellarsiana tra ‘spazio logico
delle ragioni’ e ‘spazio logico della natura’. Con il primo concetto Sellars
intendeva il piano in cui «si giustifica e si è in grado di giustificare ciò che
si dice»,38 mentre con il secondo denotava il regno delle leggi scientifiche.
Sellars pensava inoltre che i fatti epistemici non fossero riducibili a fatti
fisiologici: sussumere i primi sotto le leggi dei secondi è una fallacia
naturalistica.39
McDowell, intuendo la problematicità di questa dualità, la riprende
per sviluppare alcune considerazioni sul concetto di “natura”:

Se concepiamo la natura in maniera tale che delineare il carattere naturale di


qualcosa sia in contrapposizione con il collocarlo nello spazio logico delle
ragioni, non possiamo più accettare tranquillamente l’idea che le facoltà
impiegate nell’acquisizione della conoscenza facciano parte delle nostre
dotazioni naturali. Conoscere, in quanto è un caso del trovarsi in una
condizione normativa, non si può più concepire come fenomeno naturale.40

Secondo McDowell, la formulazione di Sellars consente di interpretare la


conoscenza come un fenomeno soprannaturale, quindi uno studioso che
volesse ancora dirsi naturalista dovrebbe offrire degli argomenti per non
ricadere nell’insanabile contrapposizione tra razionalità e natura.
McDowell supera questa aporia tramite uno ‘slittamento concettuale’ per
cui tutto ciò che è studiato dalle scienze naturali è solo una parte della
natura, e non la sua totalità: «[…] la moderna rivoluzione scientifica ha
fatto chiarezza a proposito del regno della legge, [ma] il risultato di
37
Più che di dualismo, per Dupré si tratta proprio di pluralismo.
38
W. Sellars, Empiricism and the Philosophy of Mind, 1956, trad. it. a cura di E. Sacchi, Empirismo e
filosofia della mente, Torino, Einaudi, 2004, p. 54.
39
Una fallacia naturalistica consiste nel trarre proposizioni prescrittive, cioè attinenti al dover essere, da
proposizioni descrittive, relative a ciò che è (cfr. Enciclopedia Treccani, voce Dover essere, consultabile
al link: http://www.treccani.it/enciclopedia/dover-essere_%28Dizionario-di-filosofia%29/).
40
J. McDowell, Il naturalismo in filosofia della mente, in De Caro, Macarthur, La mente e la natura, p.
82.

23
quest’opera non coincide con la chiarezza a proposito della natura».41
L’apparato culturale, per esempio, è il prodotto acquisito dall’uomo in virtù
della sua razionalità: l’espressione di una seconda natura che si muove
nello spazio logico delle ragioni senza per questo confliggere con il regno
della legge. L’uno non nega l’altro, ma vi coesiste. Ciò che si ricerca è
piuttosto una pluralità di mezzi e metodi che permetta di descrivere la
grande varietà intrinseca di quell’unico insieme che è la natura: che i
pianeti orbitino secondo la legge di gravitazione universale e che l’uomo
abbia eventi mentali è l’espressione di questa varietà; che la fisica non
riesca a studiare i valori mentre la filosofia sì non è un punto a sfavore della
filosofia, ma piuttosto la prova che le due discipline hanno sviluppato
strumenti diversi per oggetti diversi.
In generale, il naturalismo liberalizzato desidera contraddistinguersi
per un atteggiamento di larghe vedute per cui «dobbiamo accettare come
vero tutto ciò che dobbiamo accettare affinché si possa dare un senso a
tutto quello che sia parte del mondo».42 Quello che mi chiedo però è quanto
questa mossa possa dirsi ‘naturalista’ e lo stesso Stroud non sembra
preoccuparsi molto di questo termine. Per lui essere naturalisti non è altro
che un’etichetta alla moda per ostentare il rifiuto di divinità, anime, fluidi
vitali e geni maligni. Nannini, che su questa posizione è molto critico, non
esita a dire che il principio citato sia insoddisfacente: «se anche tutto ciò
che è oggetto delle scienze umane e sociali, della storia e persino dell’arte è
natura, incluso ad esempio il libero arbitrio, le norme e i valori, allora tutto
è natura!».43
Se da un lato abbiamo un problema concettuale di fondo (tracciare i
contorni della “natura”), dall’altro persiste il fatto della molteplicità del
reale non ancora ricondotta a unità (e per alcuni mai riconducibile). Da un
lato il naturalismo liberalizzato non può limitarsi ad ammettere cose come
norme, valori o stati intenzionali, poiché deve dimostrare la verità della
loro esistenza e l’impossibilità della loro riduzione. Dall’altro lato il
naturalismo scientifico non sarà legittimato fintanto che mancherà di una
riduzione completa delle entità problematiche.

2.3Etica naturalizzata e normatività

41
Ivi, p. 85.
42
Stroud, Il fascino del naturalismo, pp. 19-20.
43
Nannini, Naturalismo cognitivo, p. 90.

24
In virtù della sua tendenza totalizzante, lo scientismo ha avuto modo di
infiltrarsi in un altro dei campi ritenuti dominio privilegiato della filosofia,
ovvero l’etica. Alla nuova concezione della natura (offerta dalla teoria
darwiniana prima, dalla biologia e dalle neuroscienze poi) è seguito un tipo
di naturalismo controverso che molto si discosta dalle concezioni antiche e
medievali.
Ben lungi dall’essere un’invenzione della modernità, infatti, l’appello
alla natura ha da sempre rappresentato uno dei maggiori criteri su cui
impostare la riflessione etica e si è presentato sotto svariate forme.44
Aristotele, per esempio, innestava la sua etica della virtù su una concezione
teleologica dell’universo per la quale tutte le cose tendevano al Bene.45 Ma
anche l’edonismo epicureo rientrava nel novero delle etiche naturalistiche,
in quanto fondato sul perseguimento dei bisogni naturali e necessari
dell’uomo, ovvero quei bisogni limitati la cui completa soddisfazione
condurrebbe verso l’assenza di dolore. O ancora, la concezione cattolico-
tomista faceva appello alla natura creata per spiegare come l’uomo, parte
del progetto divino, fosse in grado di cogliere la legge divina in vista della
beatitudine eterna.
In generale, le etiche che si appellano alla natura ricercano in
quest’ultima la fonte della normatività. Concepita come principio dato
indipendentemente dalla cultura umana, la natura assume infatti un
carattere di universalità e oggettività che ben si accorda con le pretese di
universalità e oggettività delle teorie morali, o almeno di buona parte di
esse.46 Il primo problema però è quello di comprendere se davvero la natura
possa essere fonte di normatività. In altre parole, il dilemma è se da una
descrizione del mondo – un fatto – si possa derivare un valore che orienti
l’azione dell’agente morale. Prima che Moore tacciasse questa pretesa
come una fallacia naturalistica, già Hume aveva notato come il collegare
l’essere al dover essere fosse un nuovo tipo di relazione, e non una
deduzione.47 Il XX secolo vide poi nell’open-question argument uno degli
scogli più duri per il naturalismo: dato X, e data la proprietà fattuale Y, le
domande “X ha Y, ma ha Y?” e “X ha Y, ma è buono?” sono radicalmente
differenti. La prima è una tautologia, la seconda una domanda aperta e non
banale che impedisce la deduzione di prescrizioni da premesse di carattere
descrittivo.
44
Si veda S. Pollo, La morale della natura, Editore Laterza, Bari, 2008.
45
Vedi Aristotele, Etica Nicomachea, Bompiani, Milano, 2011. Il Bene in riferimento alla natura umana
era la felicità, la quale poteva essere raggiunta coltivando in modo appropriato certe disposizioni
dell’anima, e la vita etica era la vita virtuosa, cioè la realizzazione del nostro essere animali razionali e
sociali rivolti a quel fine.
46
Pollo, La morale della natura, pp. 32-40.
47
D. Hume, A Treatise on Human Nature, 1739-1740; trad. it. a cura di E. Lecaldano, Trattato sulla
natura umana, in Id., Opere filosofiche, vol. 1, Laterza, Roma-Bari, 1992, pp. 496-497.

25
Ora, bisogna precisare che l’obiettivo polemico di Moore era il
naturalismo nella forma per cui esistevano fatti morali (realismo) che non
godevano di alcuna proprietà particolare rispetto ai fatti naturali
(naturalismo). Vi rientravano evoluzionismo, edonismo, egoismo e
utilitarismo,48 i quali commettevano tutti l’errore di equiparare il bene a un
oggetto naturale. Per Moore invece il predicato “buono” era una nozione
semplice, pertanto indefinibile, e il bene poteva essere colto solo attraverso
un’intuizione (realismo anti-naturalistico). Diversa era la posizione di
Hume, il quale non intendeva proporre un’etica anti-naturalistica, ma
caratterizzare attraverso lo studio della psicologia e del comportamento
umano quell’«insieme di passioni, di desideri e di istinti, attraverso i quali
si esprimono la conoscenza e l’esperienza morale».49 Secondo lo Scozzese
erano infatti le emozioni a stabilire cosa fosse buono (non-cognitivismo),
mentre i sentimenti simpatetici facevano sì che gli uomini s’interessassero
emotivamente della sorte altrui.
Ma cosa c’entra questa digressione con lo scientismo a cui accennavo
all’inizio? C’entra, perché per quanto le descrizioni del mondo e dell’uomo
si siano raffinate, le etiche naturalistiche mantengono tuttora un rapporto
assai problematico con la normatività. Infatti, se da un lato le nuove
scoperte hanno fornito numerosi spunti a livello di metaetica, dall’altro
continuano a faticare nel dare una giustificazione al nostro agire morale.
Detto altrimenti, il naturalismo può forse spiegare come funzionano
emozioni e ragionamenti morali, come si sono sviluppati, ma non offre una
guida per l’azione. Eccone alcuni esempi.

(I) Evoluzionismo. L’avvento della teoria della selezione naturale ha


portato a un cambio di paradigma con importanti ripercussioni sulla
caratterizzazione della moralità. Il duplice rifiuto della concezione
teleologica e della fissità della natura umana condusse Darwin, e molti
dei suoi allievi, a ritenere che il fenomeno della moralità fosse stato
selezionato nella specie uomo per migliorarne la sopravvivenza. Con
ciò era dato anche il ‘moralmente buono’, in qualche modo già presente
nei meccanismi di selezione. La teoria evoluzionistica è oggi un punto
saldo per chiunque si approcci allo studio naturalistico dell’uomo,
sebbene la scarsità di fonti riguardanti la nostra preistoria impedisca di
ricostruire una genealogia della morale a partire dai primi ominidi.
Oggi la nuova immagine della natura umana ha reso imprescindibile lo
48
A. Da Re, Filosofia morale. Storia, teorie, argomenti, Mondadori, Milano, 2008, p. 220.
49
Ivi, p. 148. Si possono pensare numerosi esempi per cui da un fatto naturale non possono derivarsi
prescrizioni morali. Si pensi alla differenza di genere: da essa non è lecito dedurre che le relazioni
moralmente accettabili siano solo quelle eterosessuali, né che la maggior prestanza fisica dell’uomo lo
legittimi a imporsi sulla donna.

26
studio dei cosiddetti precursori della morale: l’agente morale non è più
visto come partecipe di un progetto divino né di una legge noumenica,
quanto piuttosto come un essere che innesta le sue abilità su dotazioni
biologiche reattive all’ambiente. Tale fatto può essere interpretato più o
meno radicalmente. Il naturalismo estremo ha gioco facile
nell’utilizzare la teoria evolutiva per sostenere la riduzione o
l’eliminazione dei valori, appiattendo tutto su un comportamento
determinato da leggi naturali per cui non esiste un bene in sé da
perseguire. Un naturalismo moderato invece accetta che la costituzione
biologica sia condizione di possibilità delle nostre capacità morali e
ponga loro alcuni vincoli, senza per questo negare dignità alla
riflessione filosofica in etica. Infatti, anche se si identificasse il bene
con ciò che verrebbe premiato dalla selezione naturale, non si darebbe
affatto una risposta alla domanda aperta di Moore. Anzi, stando a Pollo
si commetterebbe una fallacia naturalistica dai risvolti inquietanti:
tenendo conto solo di ciò che è funzionale alla sopravvivenza,
«cadrebbero l’affermazione del valore morale dell’uguaglianza, la
proclamazione di diritti umani basilari, la protezione degli esseri umani
disabili, e si rivaluterebbero pratiche come la violenza sessuale sulle
donne o la guerra».50

(II) Grammatiche morali e marcatori somatici. Una volta impostosi il


paradigma evoluzionistico, è stato inevitabile che gli studiosi
cercassero di localizzare le sedi dei precursori morali. Già il padre della
frenologia classica, F.J. Gall (1758-1828), aveva tentato la
localizzazione delle funzioni psichiche a seconda della conformazione
del cranio, individuando nell’area 24 il ricettacolo di bontà, senso di
giustizia, senso morale e coscienza. All’inattendibilità scientifica di tali
ricerche è sopravvissuto lo spirito che vorrebbe sancire l’identità tra
aree cerebrali e funzioni, nonostante l’attività altamente distribuita del
cervello renda ostica una localizzazione precisa. Nel suo Menti
Morali,51 M.D. Hauser parte dalla filosofia e dalla psicologia dello
sviluppo per delineare quella che chiama ‘grammatica morale
universale’. Essa consisterebbe in un set di principi morali selezionati
dall’evoluzione che fondano e vincolano i sistemi morali umani. Tali
principi sarebbero 1) il principio del doppio effetto, 2) il principio della
proibizione del contatto intenzionale, 3) la maggior gravità dell’azione
50
Pollo, La morale della natura, p. 103.
51
M.D. Hauser, Moral Minds. How Nature Designed Our Universal sense of Right and Wrong, 2006,
trad. it. di Andrea Pedeferri, Menti Morali. Le origini naturali del bene e del male, Il Saggiatore, Milano,
2010.

27
dannosa rispetto all’omissione e 4) il desiderio di punire chi inganna o
non aiuta il gruppo. Il cervello applicherebbe queste regole in
automatico ogni volta che compiamo un calcolo morale, precedendo
tanto il ragionamento quanto le emozioni. Essendo un sistema innato,
esso è comune a tutta l’umanità e vincola i fondamenti dell’etica,
sebbene presenti dei margini di flessibilità su cui ogni cultura formula
poi il proprio modello. Usufruendo delle neuroimmagini e dei dati della
neuropsicologia,52 Hauser ipotizza inoltre che l’organo morale risieda
approssimativamente nella connessione tra lobi frontali e amigdala.53 In
relazione a ciò, Greene e Damasio hanno mostrato come pazienti con
danni alla corteccia prefrontale ventromediale e al circuito
orbitofrontale presentino un’alterazione nella capacità di giudicare e
agire moralmente. Un danno alla vmPFC comprometterebbe
l’elaborazione emotiva e con essa i giudizi deontologici, inclinando il
paziente verso un utilitarismo radicale. L’orbitofrontale in particolare
sarebbe la sede del famoso ‘marcatore somatico’,54 cioè di quel
meccanismo che connette i processi fisiologici scatenati da
un’emozione (attivazione del sistema vegetativo) in relazione a
un’esperienza. Per esempio, i pazienti orbitofrontali non presentano un
aumento della sudorazione alla vista di immagini raccapriccianti;
presentano invece una normale capacità di ragionamento morale ma
non sono in grado di agire coerentemente con essa. Presi nel
complesso, questi studi confermano la stretta interrelazione mente-
corpo e offrono rivoluzionarie spiegazioni circa le nostre capacità di
giudizio morale. Si rimane sempre però in un ambito descrittivo dal
quale pare difficile ricavare qualche indicazione normativa. Greene ci
prova sancendo la superiorità del consequenzialismo sulle etiche
deontologiche in base a una distinzione di meccanismi: quello
governato dalla corteccia prefrontale dorsolaterale – collegato ai giudizi
utilitaristici – sarebbe infatti più affidabile di quello della vmPFC –
residuo vestigiale obsoleto e viziato dall’instabilità emotiva. Tuttavia,
come fa notare Marraffa, 55 questo ragionamento incorre in una grave
fallacia naturalistica, senza considerare che gli studi di neuroanatomia
sembrano indebolire il modello antagonistico di emozione e
cognizione, in favore di una concezione integrazionista.56
52
La neurospicologia studia l’impatto delle lesioni cerebrali sulle funzioni cognitive.
53
Vedi Hauser, Menti morali, p. 225-235.
54
A. Damasio, L’errore di Cartesio. Emozione, ragione e cervello umano, Adelphi, Milano, 1995.
55
M. Marraffa, Emozioni e razionalità: oltre il modello «antagonistico», in Sistemi Intelligenti, no. 1, Il
Mulino, Bologna, 2014, p. 156.
56
Questa non è l’unica critica mossa al modello di Greene. Uno studio condotto da Koenings e Tranel
infatti mostra come i pazienti con lesioni alla vmPFC abbiano forti reazioni emotive nel test
dell’Ultimatum Game. In questo gioco infatti i pazienti tendono a rifiutare le offerte troppo basse (si

28
(III) Ormoni e cura degli altri. A partire dalla critica dei modelli innatisti e
geneticamente determinati, Patricia Churchland sviluppa in
Neurobiologia della Morale57 un teoria più dinamica rispetto a Hauser.
Secondo Churchland infatti non esiste una grammatica morale
indipendente dall’ambiente e dall’educazione, perché le regole morali
sono la risposta a certe condizioni ambientali e sociali. Più che i geni, la
cui mutazione naturale richiede tempi lunghi, sono invece
apprendimento e cultura i veri veicoli della moralità. Precisato ciò,
Churchland ritiene che gli studi scientifici possano dire molto circa le
condizioni di possibilità della moralità, la quale è fondata su processi
cerebrali e può essere schematizzata in quattro punti: 1) cura del sé e
della prole estesa oltre i consanguinei, 2) teoria della mente con valenza
predittiva, 3) capacità di risolvere problemi sociali e 4) apprendimento
delle pratiche tramite imitazione, rinforzo positivo, condizionamento,
etc.58 La tesi, insomma, è che la moralità si fondi sulla neurobiologia
della socialità: il cervello umano si sarebbe evoluto in maniera tale da
estendere il valore – se così si può chiamare – dell’autoconservazione
agli altri. A partire dalla sofferenza per il distacco dalla prole,
l’emozione del dolore si sarebbe trasformata affinché comprendessimo
e ci interessassimo del dolore altrui. Questo fenomeno sarebbe mediato,
a livello neurobiologico, dal rilascio di particolari ormoni
neurotrasmettitori (ossitocina e vasopressina), i quali sono in grado di
modulare la risposta empatica, il comportamento altruistico e i
meccanismi punizione/ricompensa. L’ossitocina, per esempio, inibisce i
comportamenti di difesa e rilascia oppiacei endogeni che rendono
piacevole la cooperazione. Collaborazione, affabilità, prevedibilità si
connettono così a emozioni positive perché funzionali
all’autoconservazione; viceversa bellicosità, volubilità ed egoismo
generano sentimenti negativi. Sono poi la storia di vita e i
condizionamenti dell’ambiente sociale a imporre sistemi di regole che
si trasmettono per apprendimento e imitazione. L’impatto che una
mutazione genetica può avere non riguarda tanto la presenza o meno di
precetti innati, quanto le disfunzioni nel controllo ormonale tali da
alterare il comportamento sociale e la personalità. Ad ogni modo, anche
nel caso di Churchland non si possono trovare indicazioni utili per

sentono ‘offesi’) ancor più che i soggetti di controllo; rifiutano cioè un seppur minimo guadagno per
punire l’offerente disonesto, il che è irrazionale da un punto di vista utilitaristico. Vedi M. Koenings, D.
Tranel, Irrational economic decision-making after ventromedia prefrontal damage: evidence from the
ultimatum game, in The Journal of Neuroscience, 27, 2007, pp. 951-956.
57
Churchland, Neurobiologia della Morale, op. cit.
58
Ivi, p.22.

29
l’etica normativa, ma è l’autrice stessa a precisare che la sua analisi si
limita allo studio delle condizioni di possibilità della morale.

Il quadro che emerge dai casi riportati rappresenta l’uomo come un animale
(più o meno) ‘programmato’ dalle circostanze, dai geni e dalle reti
cerebrali. La domanda da porre è se l’esistenza di una tale programmazione
possa essere utilizzata per naturalizzare l’etica e la normatività.
L’obiezione di Moore sembra avere qui ancora molta forza, poiché dal fatto
che abbiamo certe inclinazioni non segue che queste siano necessariamente
buone, né avrebbero l’autorità per indirizzare le nostre azioni. In una
parola, la normatività che vige nel mondo naturale (le leggi causali) ha uno
statuto ben diverso dalla normatività morale e non pare contenerla al suo
interno. D’altronde, come si potrebbero applicare i concetti di “corretto” e
“scorretto” a qualcosa come la legge di gravitazione universale? E come
potremmo derivare valori morali dalla struttura nomologica della natura, se
questa non fa alcun riferimento a giusto e sbagliato? Anche in questo caso
il naturalismo può offrire due soluzioni: dimostrare l’esistenza di una
normatività morale naturale o eliminare in toto i concetti normativi. La
seconda via è percorsa da coloro i quali ritengono che cose come mente,
libero arbitrio e coscienza non siano altro che illusioni, e la normatività non
farebbe eccezione. Una visione di questo tipo però, oltre a essere
controintuitiva, presta il fianco alle precedenti obiezioni di Dupré e Stroud.

30
Capitolo 3. Atteggiamenti lombrosiani e
crisi disciplinari

Ridurre la mente al cervello è la grande sfida della scienza contemporanea,


una sfida che mette in questione tutte le nostre credenze sulla natura
umana. Come si è visto nelle pagine precedenti, incastonare la struttura
poliedrica dell’umano nelle rigide leggi delle scienze naturali porta a
problemi concettuali di difficile soluzione. Tuttavia, ben lungi dall’essere
relegati alla disputa filosofica, questi problemi hanno importanti
ripercussioni anche nel mondo scientifico e in quello giuridico-politico,
perché l'ideologia scientista pare si stia rivelando un ostacolo per la ricerca
stessa. Il problema di fondo resta quello evidenziato da Stroud e Dupré:
un’ontologia povera porta a una eccessiva semplificazione dei fenomeni, e
la semplificazione dei fenomeni complica la gestione dei fenomeni stessi.
Lo scontro che fino a pochi anni fa opponeva psicologia e psichiatria sulle
modalità di cura delle patologie mentali ne è un esempio. Ancora oggi v’è

31
forte disaccordo sul come definire stati patologici come il disturbo
dell’apprendimento, la schizofrenia o la psicopatia, se considerarle o meno
malattie dovute al malfunzionamento degli organi e curarle di conseguenza.
Attualmente, nemmeno i dati delle neuroscienze si sono rilevati
determinanti per chiudere questo tipo di questioni e numerose ipotesi sono
al vaglio nei laboratori sperimentali. Al problema medico si associa poi
quello giuridico, poiché il diritto contempla l’infermità mentale (parziale o
totale) nello stabilire la condannabilità dell’imputato e l’entità della pena.
Qui il problema è quello di una definizione, il “vizio di mente”, che pur
nella sua semplice formulazione risente delle continue e contrastanti
interpretazioni della natura delle facoltà cognitive. È chiaro allora che una
disputa non risolta a monte (es. se la psicopatia sia determinata da anomalie
fisiologiche) rischia di ripercuotersi sulla giustizia delle sentenze e, in
ultima istanza, sulla vita del cittadino.
Il recente ingresso delle neuroscienze nelle aule dei tribunali ha
suscitato una grande preoccupazione: quella che si moltiplichino i casi di
assoluzione invocando alterazioni anatomiche e funzionali del cervello. Si
teme cioè un uso deresponsabilizzante delle neuroscienze, il quale rimanda
a una concezione deterministica dell’agire umano. Come mostrerò più
avanti, è di fondamentale importanza distinguere i dati acquisiti dalla
neuropsicologia dagli studi ancora a uno stadio congetturale. Nelle pagine
che seguono focalizzerò l’attenzione sul modo in cui il pensiero
naturalistico ha influenzato la ricerca scientifica e sul dibattito attuale circa
l’utilizzo giuridico delle neuroscienze. D’ora in avanti la mia analisi del
naturalismo sarà sempre più concentrata sulle sue implicazioni in etica:
ripercorrere i tentativi di riduzione della mente al cervello mi sarà utile per
introdurre il concetto di responsabilità e la successiva analisi del libero
arbitrio, due nozioni che il naturalismo scientifico tende a bandire dal
proprio vocabolario.

3.1 La frenologia tra scienza e pseudoscienza

L’abiura di Galileo e la mancata pubblicazione del Le Monde di Cartesio


sono alcuni esempi che dimostrano come la Rivoluzione Scientifica sia
avvenuta in un ambiente dominato dall’autorità religiosa. Strette nelle
maglie della Scolastica, tanto la ricerca sperimentale quanto la
speculazione filosofica furono ostacolate nel loro sviluppo e nessuno
avrebbe mai pensato, almeno non pubblicamente, di materializzare
qualcosa come l’anima. Ma agli inizi dell’800 molto era cambiato: la

32
Rivoluzione Industriale aveva dimostrato la potenza della tecnica e la
metafisica aveva subito la critica degli illuministi. Qui il Positivismo trovò
il suo humus e si cominciò a diffondere l’idea che la scienza fosse l’unica
fonte di certezza assoluta – l’ideale del naturalismo scientifico.
La nascita della frenologia (dal greco “phren” = “mente”) inaugurò lo
studio empirico di ciò che fino a pochi decenni prima era considerato il
dominio indiscusso di religione e filosofia.59 Il suo fondatore, F.J. Gall,
nacque a Vienna nel 1758 e si laureò in medicina nel 1785, ma dedicò la
maggior parte del tempo alla ricerca. A condizionare il suo interesse per la
neuroanatomia furono soprattutto due fattori: l’intuizione giovanile di una
possibile correlazione tra occhi sporgenti e capacità mnemoniche, e la
lettura dei testi di von Herder. Sin da bambino Gall aveva infatti notato che
le persone con una migliore memoria presentavano una caratteristica
fisionomica particolare, pertanto pensò che vi fosse una correlazione
materiale tra organo e facoltà. Un’idea di questo tipo però si scontrava con
il pensiero tradizionale e non avrebbe trovato seguito se non fosse stato per
von Herder che, nei suoi testi, già paventava la possibilità di una scienza
empirica dell’anima a partire dalle sue manifestazioni materiali. Una volta
conclusi gli studi, Gall ebbe modo di frequentare prigioni e manicomi, fece
dissezioni post mortem e cominciò a collezionare teschi. Egli fondò una
nuova disciplina, l’organologia, e la strutturò secondo questi criteri: 1) la
scienza naturale gode di autorità epistemologica su religione e tradizione;
2) ogni facoltà ha un organo dedicato, il cervello non lavora in maniera
olistica;60 3) la forza dell’organo dipende dalla sua dimensione, quindi il
cranio viene modellato a seconda della forza delle aree cerebrali; 4) lo
studio della neuroanatomia si integra con quello scientifico di psicologia e
dimostra che il criminale è in realtà un malato.
Ripreso dall’imperatore con l’accusa di compiere studi a favore
dell’ateismo e del materialismo, nel 1801 Gall dovette espatriare e proseguire le
sue ricerche in Francia. Qui, assieme al suo allievo Spurzheim pubblicò nel 1810
Anatomie et physiologie du système nerveux en general, et du cerveau en
particulier, avec des observations sur la possibilite de reconnautre
plusieurs dispositions intellectuelles et morales de l’homme el des animaux
par la configuration de leurs têtes, nel quale individuava le 27 aree sede
delle relative funzioni innate (fig.1):

59
Il recente saggio di Ben Ford studioso della Salem State University, ben descrive la nascita e
l’accoglienza che questa disciplina ebbe prima nell’Europa continentale, poi in Gran Bretagna e infine
negli U.S.A. Vedi B. Ford, From Science to Pseudoscience, Salem State University, Massachusetts,
consultabile al link:
https://www.academia.edu/15656328/From_Science_to_Pseudoscience_The_Evolution_of_Phrenology_t
he_First_Science_of_the_Mind
60
Paradigma dominante all’epoca.

33
Figura 161

Per quanto questa localizzazione si sarebbe rivelata scorretta, essa


rappresentava un primo tentativo di rendere conto delle funzioni del
cervello, individuando in esso il medium materiale dell’anima. Inoltre la
ricerca, anziché conformarsi ai dettami della Bibbia o della tradizione
filosofica, era stata condotta su base empirica (dissezioni, collezioni di
teschi, analisi del comportamento) e per questo si presentava come
autorevole. Le conclusioni ampiamente congetturali e la mancanza di
strumenti adeguati avrebbero portato alla decadenza di questo modello solo
alla fine del secolo.
Nel mentre la disciplina prese piede in tutto il mondo occidentale per
opera di Spurzheim il quale, animato dal desiderio di fama e denaro,
riadattò il sistema del maestro e lo presentò in numerose conferenze sia in
Gran Bretagna che in America. Al contrario di Gall, Spurzheim riteneva
che ogni organo avesse più funzioni e che non esistessero funzioni
intrinsecamente cattive (es. l’omicidio): ogni funzione era utile per
qualcosa e il male rappresentava solo una devianza. Inoltre, mentre Gall
pensava che le attitudini individuali fossero rigidamente determinate,
l’allievo tendeva ancora a subordinare gli organi alla volontà, negando
dunque la necessitazione biologica del comportamento. Divergenze a parte,
61
Imagine recuperata al link: http://industriacriativa.espm.br/ic/wp-content/uploads/2013/08/phren-
588x479.jpg.

34
la frenologia si fece largo nelle comunità scientifiche e furono fondate
numerose società frenologiche. Nel contempo però la disciplina stava
caratterizzandosi sempre più come una pseudoscienza, poiché molti dei
suoi promulgatori non avevano il retroterra medico di Gall. Per esempio
George Combe,62 fondatore nel 1820 della Phrenological Society a
Edimburgo, era un giurista che pensava la frenologia come disciplina atta a
eliminare la sofferenza umana. Ma non erano medici nemmeno i fratelli
Fowler, grandi promulgatori della frenologia negli USA ed editori di un
manuale grazie a cui il lettore poteva studiare la propria mente per
scoprirne talenti e difetti.63
Stando a Ford, il successo della frenologia negli ambienti anglosassoni
rispecchiò alcuni cambiamenti politici e culturali dell’epoca. Innanzitutto
l’espansione degli istituti penitenziari poneva l’urgenza di stabilire cosa
fosse il crimine e quali punizioni infliggere: se il crimine era una malattia
biologica, il reo non poteva essere ritenuto responsabile e quindi non
avrebbe avuto senso punirlo. Nell’ambiente americano, invece,
l’individualismo liberale accolse di buon grado l’idea che tramite la
frenologia l’uomo potesse perfezionare se stesso e raggiungere la felicità.
Inoltre gli studi frenologici, indipendentemente dalla loro validità,
rappresentavano un utile strumento per conferire ulteriore ‘scientificità’
alle teorie della razza superiore, già molto in voga nell’800.
Va detto comunque che la frenologia non ebbe solo effetti negativi.
Essa infatti fu il preludio alla moderna neuropsicologia, cioè quella
disciplina che, grazie alle nuove tecnologie, ha permesso realmente di
localizzare alcune funzioni cerebrali. Nella seconda metà dell’800 Broca e
Wernicke scoprirono delle lesioni che portavano afasia, mentre tramite
stimolazione elettrica corticale Ferrier fu in grado di tracciare le prime
mappe corticali (1873-1875). Negli anni ’50 del ‘900, Penfield64 e
Woosley65 scoprirono i famosi homuncoli, cioè le rappresentazioni
sensorimotorie del corpo nelle aree motoria primaria, somatica primaria e
motoria supplementare. Questo per dire che, una volta diventata scientifica,
la frenologia ha davvero visto la conferma di alcuni dei suoi assunti. Quello
che ancora manca, ammesso che sia possibile farlo, è una localizzazione
completa ed esaustiva delle facoltà umane, complicata dal fatto che più la
62
G. Combe, The Constitution of Man, Edimburgo, 1828, consultabile gratuitamente nelle varie edizioni
al link: http://www.historyofphrenology.org.uk/constindex.html.
63
O. Fowler, L. Fowler, The Illustrated Self-instructor in Phrenology and Physiology : With One
Hundred Engravings, and a Chart of the Character, New York, Fowler & Well, 1859.
64
W. Penfield & T. Rasmussen, The Cerebral Cortex of Man (1950), Redrawn by M.H. Schieber, J.
Neurophysiol., 2001.
65
C.N. Woolsey, Organization of Somatic Sensory and Motor Areas of the Cerebral Cortex, in Biological
and Biochemical Bases of Behavior, H.F. Harlow and C.N. Woolsey eds., University of Wisconsin Press,
Madison, 1958.

35
funzione è di ordine superiore, più è distribuita e non circoscrivibile a una
sola area.

3.2 Il criminale nato

Nonostante le feroci opposizioni della Chiesa, a partire dalla metà dell'800


lo spirito naturalistico si consolidò nel movimento del Positivismo. Le
scienze naturali godevano ormai di una forte autorità e promettevano un
completo dominio della natura umana. La seconda metà dell’800 fu inoltre
l’epoca in cui emerse il problema dell’imputabilità come istituzione del
diritto, cioè della responsabilità personale di un atto criminoso in aggiunta
alla valutazione della sua materialità.66 In Italia, il Codice Zanardelli del
1889 istituì le due nozioni cardine del diritto moderno, ovvero quelle di
“libertà dei propri atti” e “infermità mentale”. Col primo si dava il criterio
della responsabilità penale secondo cui l’individuo rispondeva solo dei
crimini commessi volontariamente; col secondo si segnava l’ingresso della
psichiatria nel diritto e si definiva la figura del perito come strumento
garante di oggettività scientifica. All’interno di questo clima, Lombroso
fondò l’antropologia criminale e, sebbene non fosse un giurista, diede vita
alla Scuola Positiva del diritto penale. In questo paragrafo riassumerò
brevemente lo sviluppo delle sue ricerche e l’acceso dibattito attorno al
tema del libero arbitrio.
Una prima cosa da precisare è che Lombroso non fu un frenologo,
sebbene avesse letto Gall, ma un medico criminologo. I suoi studi si
proposero come un’analisi sperimentale del crimine che non considerava
solo la conformazione del cranio del delinquente, ma anche le
caratteristiche del gergo, dei manufatti e delle abitudini (p.e. il tatuarsi).
L’obiettivo era quello di classificare la devianza in tutte le sue forme,
affinché da un quadro completo dell’anormale si potesse approssimare un
concetto di “norma”. Lombroso arrivò così a una spiegazione
multifattoriale del crimine che, nella sua forma finale, includeva tre
elementi: atavismo, follia morale ed epilessia.67
Il modello lombrosiano conobbe numerose modifiche e integrazioni
nel corso della carriera, dovute anche alla singolarità dei casi che di volta in
volta si presentavano. Il primo fu quello del Villella, contadino calabrese
66
Cfr. E. Musumeci, Cesare Lombroso e le Neuroscienze: un Parricidio Mancato, Franco Angeli,
Milano, 2012, p. 12. Prima dell’istituto dell’imputabilità, il soggetto era ritenuto responsabile solo per il
fatto di aver compiuto materialmente un atto dalle cattive conseguenze.
67
Vedi C. Lombroso, L’uomo delinquente (rist. anast. quinta edizione, Torino, 1897), Bompiani, Milano,
2013, volume I, parte II - volume II, parte IV-V.

36
sospettato di brigantaggio, nel quale Lombroso scoprì la famosa fossetta
occipitale, cioè la ‘prova’ scientifica che alle aberrazioni del senso morale
e della psiche corrispondevano anomalie del corpo e del cranio.68 Tale
malformazione era dovuta, secondo Lombroso, a un processo involutivo
che si poteva riscontrare anche in altri tratti del corpo (es. prognatismo,
zigomi pronunciati, microcefalia, naso torto, sproporzioni nella lunghezza
degli arti etc.) e spiegava l’incapacità dell’individuo di adattarsi alla
società. L'atavismo non era altro che questo: la provata correlazione tra i
crimini più efferati e le sembianze primitive dei colpevoli.
Tuttavia il caso Verzeni, contadino bergamasco che tra il 1870 e il
1871 violentò e squartò il corpo di due donne, rappresentò un
controfattuale importante. Verzeni infatti non presentava anomalie fisiche
che potessero giustificare la ferocia dei suoi omicidi e l’insania delle sue
pulsioni. In quel frangente Lombroso si vide costretto a integrare
l’atavismo con la follia morale, cioè con un supposto malfunzionamento
nella conduzione nervosa che si esprimeva in istinti animaleschi. Questa
nuova ‘scoperta’ fu ulteriormente sviluppata a partire dal caso Misdea del
1884, nel quale la causa della follia venne fatta coincidere con un tipo
particolare di epilessia priva dei tratti che comunemente le si associano (es.
convulsioni). Il criminale epilettico poteva presentare semplici mal di testa,
vertigini, prontezza di riflessi, fugaci perdite di memoria e coscienza,
poteva cioè passare inosservato anche per lungo tempo prima che la
patologia si manifestasse in un reato.69 Tuttavia la comunità scientifica
dell’epoca contestò aspramente questa tesi la quale, in realtà, minava
l’atavismo anziché confermarlo. Già di per sé il caso Verzeni dimostrava
che la correlazione tra crimine e anomalie anatomiche non era necessaria;
ma nemmeno la correlazione tra follia morale ed epilessia pareva
scientificamente fondata. Lombroso riscontrò somiglianze nei crani degli
epilettici, più alcune somiglianze della loro corteccia con quella di
vertebrati inferiori, ma al Congresso Internazionale di Antropologia
Criminale del 1889 ricevette critiche pressoché unanimi.
Sul versante giuridico invece, nel 1902 i periti Morselli e De Sanctis
sostennero, in merito al caso Musolino,70 che «l’essere epilettico non
comporta automaticamente l’impossibilità di rispondere dei propri reati di
fronte alla legge poiché non ogni atto abnorme contrario alle leggi sociali è

68
Musumeci, Cesare Lombroso e le neuroscienze, p. 63.
69
Ivi, p. 81.
70
Musolino era un taglialegna calabrese condannato per tentato omicidio nel 1897. Evaso due anni dopo,
si macchiò di svariati delitti prima di essere di nuovo arrestato e condannato all’ergastolo. Il caso suscitò
scalpore e Lombroso ebbe modo di studiarlo, notando sia la straordinaria agilità di Musolino (riflessi
esagerati) che la sua gestualità anomala, e concludendo che l’imputato soffrisse di epilessia e meritasse
uno sconto di pena.

37
necessariamente un “prodotto della nevrosi”».71 Ciò andava contro il
determinismo della Scuola Positiva secondo cui il crimine e il criminale
erano una sventurata produzione naturale. Stando a Lombroso, non aveva
senso infliggere punizioni severe ai condannati, perché sarebbero state nel
contempo inutili e ingiuste:72 ripensare il diritto su base empirica implicava
piuttosto una mitigazione delle pene e il miglioramento delle condizioni
carcerarie, riservando la pena di morte ai criminali più pericolosi e
irrecuperabili. Detto in sintesi, l’antropologia criminale voleva imporsi sul
diritto e dimostrare che siccome a) l’uomo non può decidere della propria
dotazione biologica, b) la quale predetermina il comportamento, c) i
soggetti vittima di anomalie (i criminali nati) non possono essere ritenuti
responsabili: vendetta e retributivismo dovevano cedere il posto a «cura e
sequestro».
La questione divise il panorama accademico, e le critiche furono
sempre aspre. Alla Scuola Positiva si oppose la cosiddetta Scuola Classica
del diritto penale, che definì il suo bersaglio come una «“scuola
d’immoralità”, la quale grazie alla dicotomia normale/anormale annulla
ogni valore e rende impossibile una concezione etica della pena […]».73 Le
obiezioni si concentrarono soprattutto su quell’empirismo semplicista che,
privo di prove incontrovertibili, mirava a creare una nuova metafisica sotto
l’insegna del Positivismo. Per uscire da questa impasse nacque, a inizio
'900, la Terza Scuola di Bernardino Alimena,74 il quale si sforzò di
conciliare determinismo e imputabilità distinguendo tra libertà di fare
(assenza di ostacoli all’azione) e libertà di volere. Da determinista qual era,
Alimena pensava che l'uomo non avesse libertà di volere ma esercitasse
comunque un controllo sulle proprie azioni (la libertà di fare) per il quale
poteva essere imputabile. In un quadro del genere lo scopo principale della
punizione non poteva essere che quello di modificare il comportamento
degli individui, cioè di avere un potere deterrente efficace sulla libertà di
fare. Nei casi in cui tale potere risultava inefficace (p.e. per colpa di
malattie che inducevano comportamenti stereotipati e irrefrenabili) la
punizione non aveva diritto di essere applicata se non nella forma del
contenimento cautelativo. La parte critica di questo naturalismo stava
quindi nel rifiuto dei tipi criminali antropologici, che veniva invece
sostituito dall’indagine sociopsicologica dell’efficacia della pena.
71
Ivi, p. 86.
72
Sul tema si veda anche I.M. Merzagora Betsos, Colpevoli si nasce? Criminologia, determinismo,
neuroscienze, Raffaello Cortina Editore, Milano, 2012.
73
Vedi Musumeci, Cesare Lombroso e le neuroscienze, p. 158.
74
Ferri tentò di sganciare il diritto penale dalla nozione di libero arbitrio. Questa posizione venne poi
sviluppata da Alimena, membro della cosiddetta Terza Scuola che intendeva essere «positivista nel
metodo e critica nel contenuto». Il pensiero di Alimena assomiglia molto alle moderne teorie
compatibiliste. Ivi p. 164-169.

38
Ciò comunque non risparmiò numerose obiezioni alla Terza Scuola, la
quale dovette fronteggiare un panorama dominato dal neoidealismo e fu
pertanto incapace d'imporsi. Negli anni seguenti, tuttavia, con
l’introduzione delle le nozioni di “infermità mentale”, prima, e “vizio di
mente”, poi, avrebbe preso piede la convinzione che l’istituto
dell’imputabilità non potesse prescindere dallo studio delle sue condizioni
materiali, come dimostrava la sempre più frequente convocazione dei periti
in sede giudiziaria.

3.3 La crisi della psichiatria e l’autorità delle neuroscienze

Tra la fine del XIX e l’inizio del XX secolo l’interesse per la correlazione
comportamento/cervello segnò un primo scisma tra neurologia e
psichiatria. Con la nascita della psicoanalisi, infatti, mutò il tipo di
approccio alle patologie mentali e, almeno fino alla metà degli anni ’50, gli
psichiatri dettero scarsa rilevanza ai determinanti biologici dei disturbi
psichici. Sull’altro versante, invece, neurologi e neurochirurghi non
avevano abbandonato l’idea di localizzare le funzioni cerebrali e stavano
sperimentando tecniche sempre più invasive per curare i disturbi mentali.
Nel 1888 lo svizzero Burckhardt eseguì il primo intervento di
psicochirurgia sottoponendo a topectomia (l’escissione di una limitata
porzione di corteccia) sei pazienti affetti da schizofrenia.75 Il decorso
postoperatorio contò tre successi e un decesso, ma tanto la pratica quanto la
valutazione dei suoi effetti fu assai approssimativa. Nonostante ciò, la
tecnica parve promettente e la sperimentazione continuò. Nel 1935 i
portoghesi E. Moniz e A. Lima misero a punto la leucotomia prefrontale,
che consisteva nel trapanare il cranio in vari punti per poi distruggere le
fibre nervose con iniezioni di etanolo, precisamente tra talamo e lobi
frontali. A ispirarli era stato uno studio di Jacobsen e Fulton che mostrava
come l’ablazione dei lobi frontali negli scimpanzé rendesse l’animale molto
docile, ma anche in questo caso i risultati furono più propagandati che reali,
con pazienti che spesso manifestavano modificazioni abnormi della
personalità e alti livelli di recidiva. Nel 1949, questa tecnica fu ritenuta
talmente rivoluzionaria da conferire a Moniz il premio Nobel per la
Medicina.
Nel mentre, gli americani Freeman e Watts avevano trasformato la
leucotomia in lobotomia nel tentativo di ottenere migliori risultati (e
75
Vedi G.A. Mashour, E.E. Walker, R.L. Martuza, Psychosurgery: past, present, and future, in Brain
Research Review, 48, 2005, pp. 409-419, consultabile al link:
http://med.stanford.edu/dura/Articles/Psychosurgery.pdf.

39
commercializzare la pratica). La nuova tecnica non si limitava a recidere le
connessioni nella materia bianca, ma andava a distruggere anche una
piccola porzione di cellule nei lobi frontali. La vera rivoluzione avvenne
però nel 1946, quando i due studiosi capirono come arrivare ai lobi frontali
senza perforare il cranio: il paziente veniva anestetizzato con un
trattamento elettroconvulsivante, dopodiché il chirurgo distruggeva le fibre
nervose con il cosiddetto rompighiaccio (tecnicamente orbitoclasto), un
punteruolo che passava per la zona dei dotti lacrimali. Questa era la
lobotomia transorbitale: una tecnica ‘semplice’, veloce, economica, che
poteva essere eseguita ambulatorialmente, tanto che ben presto si cominciò
ad abusarne. Persino Freeman, che non era un chirurgo, l’applicò svariate
volte, incurante dei protocolli igienico-sanitari.
I motivi per cui tecniche così rozze riscossero grande successo sono
sostanzialmente due: un fattore economico, per cui il costo dei manicomi
era esorbitante e la lobotomia permetteva di abbatterlo; e un fattore tecnico,
per cui mancavano gli psicofarmaci e si guardava con sospetto alla
psicoanalisi.76 Non a caso con l’ingresso della clorpromazina nel 1954, la
lobotomia cominciò a essere considerata una pratica barbarica e cadde
progressivamente in disuso. Nel mentre però, in particolare negli anni
’60-’70, alcune personalità entusiaste paventarono la possibilità di
‘psicocivilizzare la società’ intervenendo sul cervello. Questa era per
esempio la concezione di Delgado,77 il famoso neuroscienziato che nel
1963 innestò un elettrodo in un toro e ne manipolò i movimenti tramite un
radiocomando. Su questa scia, nel 1970 Mark e Ervin pubblicarono un
articolo in cui proponevano di intervenire chirurgicamente sul sistema
limbico per eliminare la violenza dalla società.78 In entrambi i casi, la
speranza era quella di utilizzare le metodiche per la cura delle patologie
anche sugli individui sani, così da eliminare i mali della vita associata.
L’idea però si scontrava con enormi problemi tecnici, tanto che nessun
comitato di bioetica avrebbe mai accettato una psicochirurgia di massa
sulla semplice base di benefici più presunti che reali.
Per quanto riguarda l’altro versante disciplinare, ovvero quello
psichiatrico a indirizzo psicanalitico, va detto che le tecniche di supporto al
paziente erano anch’esse primitive e richiedevano tempi di cura
estremamente lunghi. Inoltre vi era il problema di stabilire quali disturbi
fossero gestibili dalla psicoterapia e quali richiedessero un intervento
76
Ivi, p. 411.
77
Sul tema della stimolazione intracranica e i suoi risvolti etici si veda V.A. Sironi, M. Porta (a cura di), Il
controllo della mente. Scienza ed etica della neuromodulazione cerebrale, Laterza, Bari, 2011, e in
particolare i saggi ivi contenuti di A. Oliviero, Neurotecnologia tra mito e realtà, pp. 11-20; V.A. Sironi,
La neuromodulazione e l’origine della stimolazione elettrica cerebrale profonda, pp. 22-34; E.
Colombetti, Etica delle neuroscienze, pp. 209-222.
78
Vedi, Mashour et al., Psychosurgery: past, present, and future, pp. 412-413.

40
farmacologico o chirurgico. L’entusiasmo naturalistico dei neurologi infatti
pretendeva che ogni malattia mentale potesse essere curata intervenendo
sul cervello, senza il bisogno di un’analisi del vissuto individuale. Ma se
questo poteva essere vero per casi come l’epilessia o le lesioni acquisite,
più difficile era caratterizzare patologie come la depressione, la psicopatia,
i disturbi ossessivo-compulsivi, etc. Si venne così a creare una certa ostilità
tra le neuroscienze e la psichiatria, cioè tra un paradigma totalmente
riduzionistico e uno che pensava di poter trattare la sfera psicologica a
livello cognitivo-comportamentale. A partire dagli anni ’50 la psichiatria
stessa adottò un approccio materialistico e il bersaglio polemico divennero
la psicologia e le discipline psicoterapeutiche. Il recente film di Martin
Scorsese, Shutter Island (2010), rappresenta in modo esemplare questo
scontro.79
Sebbene oggi la situazione sia molto diversa, lo scontro tra paradigmi
vede ancora opposti gli studiosi delle varie discipline. Da un lato neurologi
e neuropsichiatri che hanno perfezionato le tecniche d’intervento e fornito
numerosi farmaci mirati, dall’altro gli psicoterapeuti che condannano
l’abuso di psicofarmaci e il disinteresse per l’individualità del paziente.
Come scrive Giacomo Giacomini, presidente della Società Italiana dei
Medici Psicopatologici e Psicoterapeuti, ancora oggi:

[…] nelle nostre facoltà di medicina la psicopatologia personologica non ha


mai trovato (né tuttora trova, grazie alla dominanza della manualistica
operazionistica DSM e ICD) un qualsiasi riconoscimento didattico, così che
la psicoterapia non ha mai potuto acquisire una sua dignità come disciplina
autonoma. Ai giorni nostri non è possibile ignorare che questo
inammissibile “buco nero” didattico è stato deleterio tanto per la
psicoterapia, quanto per la psichiatria, dal momento che non solo ha portato
ad una rovinosa riduzione del profilo culturale e professionale del medico
[…] ma è anche ora responsabile del declassamento dei servizi di assistenza
psichiatrica, oltre che del degrado dell’assistenza psicoterapeutica, dove la
latitanza culturale e professionale del medico in materia di diagnostica
psicopatologica differenziale ha favorito l’intrusione di figure
pseudoprofessionali ambigue, prive di qualsiasi competenza clinica e
diagnostica ( si pensi che incarichi apicali, nell’assistenza psicoterapeutica,
pubblica e privata, possono attualmente essere assegnati anche a persone
non laureate in medicina).80
79
La pellicola, ambientata nel 1954, vede Di Caprio nei panni di uno psicotico delirante che, dopo aver
ucciso la moglie, rimuove l’evento inventando una storia di fantasia. Laeddis (Di Caprio) è da due anni
sotto la cura del dottor Cawley (Ben Kingsley) il quale cerca di curarlo con un metodo innovativo:
assecondare la sua fantasia, per poi portarlo alla consapevolezza dell’accaduto e alla sua accettazione.
Tuttavia dopo ogni sessione Laeddis arriva a ricordare, ma quando sembra sul punto di guarire, regredisce
di nuovo nei suoi deliri. Di fronte alla recidività del paziente, Cawley approva suo malgrado la lobotomia,
e nelle ultime scene del film si vedono chiaramente un rompighiaccio e un martelletto.
80
Dall’articolo di G. Giacomini, Psicoterapia e psichiatria, due discipline in crisi, consultabile al link:
http://www.ordinemedicifc.it/index.php?view=article&catid=70:news&id=99:psicoterapia-e-psichiatria-

41
La critica di Giacomini è rivolta sostanzialmente a due obiettivi: le pratiche
parapsicologiche (counseling, coaching) per cui chiunque abbia seguito i
relativi corsi o master può esercitare (la laurea in medicina o psicologia non
è ancora obbligatoria); e la divisione degli studiosi per scuole di pensiero,
quando invece lo stato della ricerca suggerisce un approccio
integrazionista. Musumeci aggiunge un altro effetto deleterio di questa crisi
disciplinare che si ripercuote in ambito giuridico: «[…] di fronte alla
disgregazione del potere degli psichiatri e alle loro perizie, ritenute ormai
sempre meno oggettive e meno certe, nei tribunali i giudici scelgono
sempre più di affidarsi a tecniche che appaiono invece “certe” e
“infallibili”».81 Queste tecniche sono quelle delle moderne neuroscienze, le
quali mirano a illuminare le ampie zone d’ombra lasciate dalla psichiatria e
dalla psicologia.
La questione oggi è se le neuroscienze siano davvero in grado di
offrire una spiegazione completa del mentale e se non ci sia il rischio che
un eccessivo entusiasmo possa portare al ripetersi dei vecchi errori.
Sebbene la comunità scientifica abbia fatto ammenda degli sbagli
commessi da frenologia, antropologia criminale e psicochirurgia,82 il
radicalizzarsi del suo spirito naturalistico ha rimodellato (ed esasperato) lo
scontro che divideva Positivisti e Scuola Classica.

3.4 Brain Overclaim Syndrome

I tre articoli fondamentali del codice penale che definiscono i concetti di


“imputabilità” e “vizio di mente” sono i seguenti:83

Art. 85: Nessuno può essere punito per un fatto preveduto dalla
legge come reato, se, al momento in cui lo ha commesso, non era
imputabile. È imputabile chi ha la capacità d'intendere e di
volere.
due-discipline-in-crisi&format=pdf.
81
Musumeci, Cesare Lombroso e le neuroscienze, p. 15.
82
Va precisato che contrariamente a frenologia e antropologia criminale, la psicochirurgia non è una
pseudoscienza. Essa è nata come pratica rozza, poco efficace e del tutto priva di regolamentazione, ma col
migliorare delle conoscenze si è rivelata uno strumento indispensabile per curare le patologie
farmacoresistenti. Oggi si tiene in altissima considerazione la salute del paziente e per questo
l’applicazione di tecniche sperimentali deve seguire un rigido protocollo. Vedi Mashour et al.,
Psychosurgery: past, present, and future, pp. 413-418.
83
Gli articoli sono tratti da L. Alibradi, P. Corso (a cura di), Codice penale e di procedura penale e leggi
complementari, La Tribuna, Piacenza, 2015, LIBRO PRIMO - Dei reati in generale → Titolo IV - Del reo
e della persona offesa dal reato (artt. 85-131) → Capo I - Della imputabilità.

42
Art. 88: Non è imputabile chi, nel momento in cui ha commesso
il fatto, era, per infermità, in tale stato di mente da escludere la
capacità d'intendere o di volere.

Art. 89: Chi, nel momento in cui ha commesso il fatto, era, per
infermità, in tale stato di mente da scemare grandemente, senza
escluderla, la capacità d'intendere o di volere, risponde del reato
commesso; ma la pena è diminuita.

La nozione di “infermità” richiamata negli articoli caratterizza una


condizione deviante rispetto alla norma secondo cui ogni individuo maturo
si ritiene dotato di libero arbitrio (declinato nei termini della capacità
d’intendere e di volere). Il codice inoltre contempla i diversi gradi con cui
questa capacità può venire meno istituendo la possibilità di ridurre la pena
in proporzione. Ancora, dagli articoli emerge chiaramente come l’eventuale
destituzione del libero arbitrio, anche solo inteso come autodeterminazione
del proprio volere, porterebbe a una generalizzata depenalizzazione dei
reati, e questo è il motivo per cui la Scuola Positiva trovò tante resistenze.
Oggi come allora lo spettro del determinismo è temuto per le sue
possibili ripercussioni in ambito giudiziario e, sebbene gli argomenti non
siano molto cambiati rispetto a Lombroso o ai frenologi (si parla ancora di
contenimento preventivo, mitigazione delle pene, abbandono del
retributivismo, etc.), pare aver acquisito maggior forza. La differenza
rispetto a centocinquant’anni fa sta nel progresso esplosivo delle
neuroscienze, le quali si sono inserite nel vuoto lasciato dalla crisi della
psichiatria offrendo nuovi strumenti per la verifica dell’imputabilità. Fino a
pochissimo tempo fa infatti erano solo le perizie di psichiatri e criminologi
a fornire indizi sulla capacità d’intendere di volere, mentre oggi anche le
neuroimmagini e i test di predisposizione genetica vengono addotti come
prove. La sensazione che sta cominciando a diffondersi è che le scienze
comportamentali non siano sufficientemente oggettive e lascino troppo
spazio alla valutazione soggettiva.
Una questione molto importante però è se le neuroscienze siano
effettivamente in grado di offrire certezze superiori rispetto alle altre
discipline, cioè se siano davvero in grado di dominare la complessità della
mente umana. Nessuno nega che rilevare lesioni cerebrali, disfunzioni o
stati alterati di coscienza possa dimostrare come un imputato
apparentemente responsabile abbia in realtà agito in condizioni di scarsa, se
non nulla, lucidità. Il punto critico sta nel fatto che anche i dati sperimentali
devono essere interpretati. Per esempio, la risonanza magnetica funzionale

43
e l’elettroencefalogramma84 misurano rispettivamente l’ossigenazione del
sangue e le variazioni di potenziale, cioè eventi fisici la cui correlazione
con eventi mentali specifici non è automatica né diretta. Ciò impedisce di
stabilire con esattezza se l’attivazione di una certa area cerebrale sia la
causa, l’effetto o la concausa delle nostre scelte, credenze o emozioni;
siamo cioè di fronte a un limite tecnico che anche il riduzionista più
convinto non può ignorare.
Nonostante ciò, molti studiosi hanno usufruito delle recenti scoperte
per dimostrare la verità del determinismo e riproporre il revisionismo della
Scuola Positiva. Gazzaniga, uno dei neuroscienziati più attivi sul fronte
della neuroetica, scrive a chiare lettere qualcosa che ricorda molto
Lombroso e Alimena: «Some legal scholars hold that determinism
undermines legal responsibility and that the law cannot ignore the threat of
determinism. Other scholars directly assert that human beings are not
responsible for any of our actions. […] If determinism is correct, retributive
punishment is not only nonsensical, it is immoral».85 Ma davvero le
neuroscienze hanno offerto prove a favore del determinismo? E soprattutto:
è lecito che queste prove siano utilizzate nelle aule di tribunale?
S. Morse chiama Brain overclaim syndrome86 (BOS) la tendenza a
inferire dagli esperimenti di neuroscienze più di quanto sia logicamente
concesso. Un problema, questo, che pare sempre più diffuso e per il quale
si temono ripercussioni negative sul versante sociopolitico. Il pubblico
inesperto infatti si mostra incline ad accogliere con spirito acritico le nuove
scoperte e a prendere come verità assolute le conclusioni dei loro autori. La
posta in gioco è se considerare i criminali come persone o se pensarli
piuttosto come cervelli difettosi da ricondurre alla normalità attraverso
l’opportuna terapia.

3.5 Libet e Soon: esperimenti e conclusioni affrettate

La possibilità di offrire una prova scientifica a favore del determinismo si


concretizzò tra gli anni ’70 e ’80, quando Libet e il suo team progettarono
un esperimento per studiare i processi decisionali. Il setting sperimentale
prevedeva che i soggetti, una volta collegati a un elettroencefalografo e a
84
La risonanza magnetica ha una pessima risoluzione temporale, cioè rileva l’attivazione delle aree
cerebrali con 1 secondo di latenza. L’elettroencefalogramma invece ha una buona risoluzione temporale,
ma una cattiva risoluzione spaziale, ovvero può monitorare l’attività solo di grandi aree. Vedi L. Boella,
Neuroetica, Raffaello Cortina Editore, Milano, 2008, Cap. 3.
85
M. Gazzaniga, The Law and Neuroscience, in Neuron, 60, 2008, pp. 412-413.
86
S. Morse, Brain overclaim syndrome and criminal responsibility: a diagnostic note, in Ohio State
Journal of Criminal Law, vol. 3:397, 2006, pp. 397-412.

44
un elettromiografo, premessero un pulsante con l’indice ogni volta che ne
avessero sentito l’impulso (‘urge to’).87 L’elettromiografo forniva un
riferimento temporale per la contrazione muscolare, mentre per l’impulso
cosciente i soggetti dovevano guardare un orologio e comunicare il
momento della decisione. Dai dati ottenuti emerse un incremento di
potenziale nell’area motoria supplementare (SMA) 350 millisecondi prima
che i soggetti diventassero coscienti della propria scelta, mentre altri 200
ms intercorrevano dalla presa di coscienza all’esecuzione materiale
dell’azione. Il potenziale registrato in SMA fu rinominato ‘potenziale di
prontezza’ e dimostrò come la preparazione di un movimento volontario
avvenisse in realtà a livello inconscio. Tuttavia, Libet concesse che nei 200
millisecondi prima del compimento della flessione vi fosse una libertà di
veto, cioè la possibilità d’impedire l’esecuzione. Ecco un semplice
diagramma che esplicita i risultati:

Figura 2

Circa vent’anni dopo, il team condotto da Soon e Haynes88 affinò i test di


Libet sottoponendo i soggetti a fMRI e chiedendo loro non di compiere una
semplice flessione del dito, ma di operare una scelta premendo a propria
discrezione il pulsante destro o sinistro. Nel mentre, delle lettere
scorrevano su di uno schermo e il soggetto doveva ricordare la lettera
presente al momento dell’impulso. Soon e colleghi individuarono così nella
87
B. Libet, E.W.W. Wright, B. Feinstein Jr, D.K. Pearl, Subjective referral of the timing for a conscious
sensory experience: a functional role for the somatosensory specific projection system in man, in Brain
102, 1979, pp. 193–224.

88
C.S. Soon, M. Brass, H. Heinze, J. Haynes, Unconscious determinants of free decisions in human
brain, in Nature Neuroscience, 11, 2008, 543-545.

45
corteccia frontopolare e in alcune zone della parietale (precuneo e cingolo
posteriore) i luoghi nei quali la decisione veniva in essere con 10 secondi
d’anticipo sulla scelta cosciente. Ciò permise loro di predire con un
accuratezza del 60% quale bottone avrebbe premuto il soggetto e di
precisare che i primissimi precursori della decisione motoria non si
collocano, come sosteneva Libet, nella SMA. La figura 3, tratta
dall’articolo in questione, riporta un’immagine della risonanza e il
diagramma dell’affidabilità predittiva:

Figura 3
Sottoposti a un pubblico inesperto, questi esperimenti sembrano
comprovare un quadro piuttosto chiaro: le decisioni sono determinate a
livello inconscio, quindi la libertà di scelta è un’illusione. Tuttavia, De
Caro in Libero arbitrio e neuroscienze89 enumera svariate critiche a
dimostrazione del fatto che l’interpretazione deterministica di questi
esperimenti non è affatto pacifica. Anzitutto, bisogna fare chiarezza su cosa
sia una decisione libera: una decisione libera è quella che ha un senso e un
valore per noi, che si connota emotivamente e si basa su delle preferenze;
altrimenti si tratta di un automatismo insignificante. Nel caso degli
esperimenti citati, è plausibile pensare che l’adesione all’esperimento, più
che l’esecuzione del movimento, sia la decisione genuina. Decisione che
89
M. De Caro, Libero arbitrio e neuroscienze, in Sartori G., Lavazza, A. (a cura di), Neuroetica, il
Mulino, Bologna, 2011, pp. 69-83.

46
non è mai sottoposta a monitoraggio. Si può inoltre obiettare che la libertà
di un’azione non implichi sempre la coscienza della stessa o un impulso.
Per esempio, un oratore che non si accorge di aver bevuto un bicchiere
d’acqua perché concentrato sul rispondere a una contestazione ha
comunque compiuto un’azione libera. Come libera è la scelta di iscriversi a
una facoltà universitaria, anche se questa si distende nel tempo e non è
possibile ricondurla a un ipotetico impulso o momento “zero” – il che
rimanda al problema più generale di come mettere in relazione causale
degli eventi puntiformi (le variazioni di potenziale) con eventi che hanno
una durata come le scelte ponderate. Ancora, ulteriori dubbi si possono
porre per quanto riguarda la tempistica, perché non è detto che «la
decisione di premere uno dei due pulsanti, la consapevolezza di tale
decisione e la percezione di quale sia la specifica immagine che appare
sullo schermo del computer siano veramente simultanee […]».90 A tutto ciò
va aggiunto infine che la comunità scientifica non è concorde sul definire
cosa sia il potenziale di prontezza, così come non è chiaro per quale motivo
la libertà di veto non dovrebbe essere vincolata a sua volta a determinanti
inconsci.
Sul versante più strettamente filosofico, la critica principale degli
antiriduzionisti è quella contro la teoria dell’identità nella formula per cui
determinati eventi cerebrali causerebbero e corrisponderebbero a
determinati stati mentali. In termini tecnici, la teoria dell’identità prevede
che le occorrenze dei fenomeni neurobiologici siano condizioni necessarie
e sufficienti per l’occorrere di fenomeni mentali.91 Ora, per quanto sia
plausibile e largamente accettato che un evento fisico debba accadere
affinché vi sia un evento mentale, non è altrettanto scontato che il secondo
sia esaurito dal primo senza scarto. I limiti tecnici richiamati in precedenza
non ci permettono di asserire che “X decide Y” perché nel cervello si sono
attivate le aree corrispondenti a “decidere-Y”, in quanto l’attivazione di
suddette aree suggerisce solo il loro coinvolgimento in “decidere-Y”, non
la descrizione completa del fenomeno.
Nel caso degli esperimenti di Libet e Soon, i dati non proverebbero
dunque l’assenza del libero arbitrio, ma semmai l’operatività, nei processi
decisionali, di una componente inconscia che coinvolge le aree del sistema
motorio e la corteccia frontopolare – sempre ammesso che premere un
bottone senza uno scopo possa essere considerato il frutto di un processo
decisionale ‘genuino’. Inoltre, fa sapere De Caro, i risultati dei due
90
Ivi, p. 77. Per una critica ai metodi di temporizzazione dei movimenti volontari, si veda F. Tempia,
Decisioni libere e giudizi morali: la mente conta, in M. De Caro, A. Lavazza, G. Sartori (a cura di),
Siamo davvero liberi?, Codice Edizioni, Torino, 2010, pp. 88-108.
91
M. Di Francesco, Neurofilosofia, naturalismo e statuto dei giudizi morali, in Etica & Politica/Ethics &
Politics, IX, 2, 2007, pp. 135-141.

47
esperimenti sono di fatto conciliabili con le teorie del compatibilismo e del
libertarismo.92 Infatti, chi crede che la libertà s’innesti su un universo
deterministico non avrà problemi ad accettare il ruolo di certi eventi
neurobiologici nei processi decisionali: se non vi fosse qualcosa che
funziona in modo determinato, il mondo sarebbe caos, e la libertà non può
sussistere nel caos. I libertari invece troveranno nel 40% di predizioni
fallite l’occasione per ipotizzare momenti indeterministici non prevedibili
dalle leggi di natura.93

3.6 L’influenza delle scoperte neuroscientifiche sulla deliberazione


giuridica

Appurato che la terza antinomia kantiana resta irrisolta, le scoperte


neuroscientifiche lasciano comunque aperti importanti interrogativi sul
versante giuridico. Una vasta letteratura dimostra che lesioni nei lobi
frontali possono compromettere tanto la capacità di azione quanto la
capacità di giudizio. Per esempio un’inibizione delle aree prefrontali
dorsolaterali rende inclini ad accettare offerte disoneste,94 mentre i pazienti
con danni alla corteccia prefrontale ventromediale non riescono a gestire le
proprie emozioni sociali (es. rabbia, frustrazione, compassione) e
rispondono ai dilemmi morali secondo un utilitarismo radicale.95 Ancora,
alterazioni alle strutture limbiche (corteccia cingolata, amigdala e
ippocampo), della corteccia temporale (giro superiore e giro superiore
posteriore) e parietale (giro angolare) costituiscono fattori di rischio per un
comportamento antisociale.96 Tuttavia, la correlazione tra deficit cerebrali e
comportamenti anomali non sempre si basa su prove solide e spesso
assume il carattere di ipotesi. Ad esempio, vi è un dibattito molto acceso
circa una possibile anomalia nel cervello degli psicopatici e dei bambini
cresciuti in ambienti disagiati. I primi presenterebbero una disfunzione
nelle aree connesse alle capacità empatiche, mentre i secondi un’attività
cerebrale simile a chi ha subito danni ai lobi frontali.97
92
Cfr. De Caro, Libero arbitrio e neuroscienze, pp. 80-81. Rimando al prossimo capitolo la presentazione
delle varie teorie sul libero arbitrio.
93
Cfr. Tempia, Decisioni libere e giudizi morali, pp. 91-92.
94
Gazzaniga, The Law and Neuroscience, p. 414.
95
Di Francesco, Neurofilosofia, naturalismo e statuto dei giudizi morali, pp. 134-135.
96
Sartori e Gnoato riportano una tabella che esplicita la correlazione tra danni neurologici, fattori di
rischio e comportamento in G. Sartori, F. Gnoato, Come quantificare il libero arbitrio, in M. De Caro, A.
Lavazza, G. Sartori (a cura di), Siamo davvero liberi?, p. 176.
97
Cfr. Gazzaniga, p. 414. Un’analisi dettagliata di come le condizioni dello sviluppo influenzino i
processi cerebrali la si può trovare in F. Cirulli, Neurobiologia dello sviluppo, 2010, consultabile al link:
http://www.treccani.it/enciclopedia/neurobiologia-dello-sviluppo-emotivo_%28XXI_Secolo%29/.

48
Le divisioni che queste ipotesi hanno creato all’interno della comunità
scientifica dimostrano la necessità di verificare l’attendibilità del sapere
neuroscientifico in rapporto alle altre fonti da sempre utilizzate nei
tribunali. Un conto infatti sono le prove che può offrire uno psichiatra o un
criminologo, un conto sono quelle che può offrire un ricercatore che si
approccia agli psicopatici con spirito lombrosiano: per quanto si ricerchi
nelle neuroscienze un grado di certezza superiore alle discipline
tradizionali, le prove comportamentali appaiono attualmente più esplicative
delle interpretazioni del neuroimaging.98
Vien da sé che giudici e avvocati affetti da BOS siano esposti al
rischio di condannare o scagionare gli imputati sulla base di dati dalla
scarsa validità scientifica. I killer psicopatici potrebbero essere considerati
unicamente come malati anziché criminali, così come i giovani delinquenti
sarebbero scusabili per via del loro cervello instabile. Quest’ultimo
esempio rappresenta un caso controverso per il quale può essere utile
richiamare la sentenza Roper v. Simmons del 2005, nella quale la Corte
Suprema degli U.S.A. ha dichiarato l’incostituzionalità della pena di morte
per i minorenni. Qui gli avvocati a favore dell’abolizione fecero appello
alle neuroscienze per confermare ciò che le scienze del comportamento – e
il senso comune – già sapevano da tempo, cioè che gli adolescenti sono
impulsivi, suscettibili allo stress, con una scarsa capacità di valutare i rischi
ed emotivamente instabili. Il fondamento neurobiologico di ciò starebbe
nella mancanza di una completa mielinizzazione dei neuroni corticali, la
quale equivarrebbe alla mancanza di un completo sviluppo delle capacità
razionali rispetto agli adulti. Ne seguirebbe che i giovani assassini non
meritano di morire perché non del tutto responsabili dei loro atti.99 La cosa
curiosa, fa notare Morse, è che tale scoperta non è stata menzionata nella
sentenza di incostituzionalità, che invece cita solo studi comportamentali.
Infatti, per quanto i dati neuroscientifici abbiano avuto un peso nella
sentenza, quella delle differenze di mielinizzazione tra il cervello dei
sedicenni e quello degli adulti è ancora una speculazione.100 E comunque,
fosse dato un assassino sedicenne con un cervello mielinizzato come un
diciottenne, il primo dovrebbe essere condannabile alla pena di morte al
pari dei maggiorenni? E se, viceversa, il cervello di un maggiorenne fosse
indistinguibile da quello di un sedicenne, la sentenza dovrebbe escluderlo
98
O almeno così pensa Morse. Vedi Morse, Brain overclaim syndrome and criminal responsibility, pp.
404-405.
99
Ivi, pp. 406-410.
100
Morse, per esempio, contesta i neuroscienziati che sostengono di poter distinguere con precisione le
differenze cerebrali una volta dato il sesso e la lateralizzazione: tra i sedici e i diciotto anni il cervello è
ancora in una fase di sviluppo tale per cui non è possibile riscontrare le differenze che presumibilmente si
troverebbero tra un tredicenne e un venticinquenne. Questo significa che far combaciare la soglia dei
diciott’anni con la maturità psicologica sulla base di immagini della mielinizzazione è un azzardo.

49
dalla sua giurisdizione? A questo punto, anziché una legge che stabilisce i
diciott’anni come soglia, non sarebbe più giusto sottoporre a risonanza tutti
i giovani imputati per verificarne la condizione individuale? Dilemmi di
questo tipo rendono bene l’idea di quanto possa essere controverso l’uso
delle neuroscienze in ambito giuridico. E se l’applicabilità della pena di
morte ai minori può apparire un caso estremo, le situazioni limite sono
comunque all’ordine del giorno. Dato un uomo adulto apparentemente
razionale, egli è da ritenere responsabile per i delitti che il suo cervello gli
impedisce di respingere per via di una lesione comprovata ai lobi frontali,
magari dovuta a un trauma cranico? Se no, come considerare la razionalità
in relazione al libero arbitrio?
In Italia, il primo caso che ha suscitato scalpore è stata una sentenza
della Corte d’Assise d’Appello di Trieste del 2009, la quale ha accordato
uno sconto di pena sulla base di una perizia neurologica e genetica. La
vicenda riguarda AB, algerino da anni residente in Italia, che nel 2007 era
stato schernito per via delle sue usanze religiose. Per vendicarsi degli
insulti e delle percosse ricevute, AB aveva comprato un coltello ed era
tornato sul luogo dello scontro per uccidere chi l’aveva offeso, pugnalando
tuttavia una persona diversa. Condannato in primo grado, i periti Sartori e
Petrini furono chiamati in appello per verificare la capacità di intendere e di
volere dell’imputato. I due studiosi sottoposero AB a una batteria di test
neuropsicologici, a un test genetico e a risonanza magnetica funzionale,
rilevando una capacità d’intendere grandemente scemata e l’incapacità di
trattenersi dal compiere azioni impulsive: una disfunzione frontale e la
presenza dell’allele MAOA-L motivavano scientificamente la riduzione del
libero arbitrio.101 Rispetto alla sentenza di primo grado, che si era ‘limitata’
al colloquio clinico tradizionale e aveva già riscontrato una semi-infermità,
la pena venne ridotta di alcuni mesi.
L’uso massiccio delle neuroscienze e della genetica del
comportamento ha fatto sì che il caso AB acquisisse rilevanza a livello
mondiale. Nonostante i periti avessero da subito frenato gli entusiasmi
sostenendo che i loro studi offrivano solo una conferma più precisa della
perizia degli psicologi, i media rinominarono il gene MAO-A ‘gene del
male’ e diffusero una ricostruzione deterministica del crimine. Petrini
rilasciò allora un’intervista nella quale spiegò come non vi fosse alcuna
variazione genica che determinasse in modo assoluto il comportamento
antisociale: lo studio combinato del cervello e dei geni indicava solo che a
certe varianti geniche si associa un rischio statisticamente maggiore di
101
Cfr. A. Lavazza, L. Sammicheli, Se non siamo liberi, possiamo essere puniti?, in M. De Caro, A.
Lavazza, G. Sartori (a cura di), Siamo davvero liberi?, pp. 156-157. Per altre analisi del caso di veda
Musumeci, Cesare Lombroso e le neuroscienze, pp. 102-109, e Merzagora Betsos, Colpevoli si nasce?,
pp. 163-165.

50
manifestare un comportamento aggressivo.102 Tuttavia, per quanto siano
stati cauti giudici e periti, non si può certo dire che ciò non abbia avuto
ripercussioni sulla nostra concezione del libero arbitrio. Il rischio statistico
infatti rappresenta pur sempre una spada di Damocle che pende sulla nostra
capacità di scelta e azione. Ma soprattutto, il rischio statistico è la base su
cui poggiano le teorie del contenimento preventivo. Diventa allora di
fondamentale importanza verificare cosa sia effettivamente un fattore di
rischio biologico-comportamentale, stabilirne con precisione l’incidenza e
la rilevanza in sede giudiziaria. La preoccupazione, come sempre, è che
un’analisi riduttiva e semplicistica del comportamento umano possa portare
a grandi ingiustizie. Nonostante gli anni, sembra che il problema sia
rimasto lo stesso di Lombroso: la sua eredità è ciò di cui le attuali
neuroscienze si sono fatte carico.

3.7 Il caso dello psicopatico: un dilemma scientifico e giuridico

Ho accennato precedentemente alla psicopatia come a una di quelle


questioni che infiamma il dibattito giuridico e scientifico odierno. Il motivo
di tanta attenzione è dovuto sostanzialmente alla difficoltà nell’inquadrare
la patologia e i suoi effetti sulla libera volontà. Per molto tempo si è
ritenuto che le anomalie comportamentali dello psicopatico non fossero da
considerare come sintomi di una malattia mentale, quanto piuttosto come
espressioni di una personalità maligna. Lo psicopatico infatti non è
semplicemente un soggetto anti-sociale e anaffettivo, ma un criminale che
mantiene sempre una chiara consapevolezza razionale delle proprie azioni,
che manipola gli altri, mente, e premedita i suoi delitti con cinica
lucidità.103 Questo ha fatto sì che i sistemi giuridici vedessero in questa
condizione un’aggravante e che l’istituto dell’imputabilità si applicasse
come di consueto. Solo negli ultimi anni le neuroscienze hanno permesso
di sostanziare l’ipotesi (sebbene ancora in fase di verifica) che la psicopatia
sia correlata a una disfunzione cerebrale.104
102
Cfr. Merzagora Betsos, Colpevoli si nasce?, p. 164.
103
Cfr. A. Lavazza, L. Sammicheli, Il nuovo rapporto tra diritto e neuroscienze: il caso dello psicopatico,
in F. Caruana (a cura di), Sistemi Intelligenti, no. 2, Il Mulino, Bologna, 2010, p. 244.
104
Nel mentre, psicologi e psichiatri si sono divisi sull’eziologia del disturbo, tanto da assimilarlo al
disturbo antisociale di personalità nel DSM-IV (Diagnostic and Statistical Manual for Mental Disorders,
creato dall’American Psychiatric Association, presenta nelle sue varie edizioni una classificazione dei
disturbi mentali e rappresenta lo standard per gli esperti del settore). Caretti e Craparo specificano che
questa assimilazione non è del tutto corretta. A differenza della psicopatia, il disturbo antisociale della
personalità rappresenta una reazione istintiva e aggressiva all’ambiente esterno, spesso percepito come
ostile. Il sociopatico mantiene un senso di responsabilità verso i famigliari, utilizza il crimine come mezzo
di sopravvivenza e non ha le tendenze manipolatorie tipiche del narcisista. Lo psicopatico invece è un

51
La ricerca in questo senso procede tra non poche fatiche poiché
disfunzioni di questo tipo sono più difficili da studiare rispetto a quelle
derivate da una lesione (p.e. afasia, aprassia, neglect, comportamenti
antisociali conseguenti a traumi della corteccia prefrontale). Lo strumento
attualmente utilizzato per la diagnosi della psicopatia è stato elaborato da
R. Hare nel 1991 e si chiama Psychopaty Cheklist-Revised: un test che
analizza i caratteri affettivi e comportamentali del soggetto e che, su una
scala da 0 a 40, definisce un punteggio di 30 come soglia della patologia.
La diagnosi del test di Hare è quindi diretta (“se rispondi in un certo modo
sei psicopatico”), cosa che le neuroscienze non sono in grado di offrire (“se
hai queste disfunzioni sei psicopatico”). Le neuroscienze cercano piuttosto
di dare un maggiore supporto empirico all’indagine psicologica, ed è così
facendo che sono arrivate a circoscrivere un’area d’interesse nella
corteccia, o meglio un circuito composto da corteccia prefrontale mediale
(mPFC), cingolo posteriore, giro angolare e amigdala.105 Tale circuito è
implicato nelle seguenti disfunzioni: reazioni aggressive, difficoltà nel
distinguere regole morali da regole convenzionali, mancanza di empatia e
di rimorso. Sapolsky, per esempio, fa notare che nei soggetti normali la
PFC è molto attiva nelle condizioni che richiedono autocontrollo – cioè in
quei casi in cui è utile inibire una risposta automatica e istintiva – e che i
comandi inibitori vengono proiettati soprattutto nel sistema limbico, una
regione sottocorticale fortemente coinvolta nel comportamento aggressivo.
Il dato interessante è che un danno in questo circuito può compromettere la
capacità di comportarsi in modo morale e nel contempo permettere di
operare la distinzione tra giusto o sbagliato. Uno dei fattori alla base di
questa discordanza sarebbe l’incapacità di dare la giusta connotazione
emotiva alla conoscenza razionale/morale e, in generale, al contesto.106 In
accordo con ciò, Lavazza e Sammicheli informano che studi condotti
direttamente sugli psicopatici hanno mostrato una riduzione dell’attività
della PFC durante la presa di decisioni morali e un funzionamento alterato
dell’amigdala. Detto in altri termini, la bassa attivazione di PFC e amigdala
non permette di inibire la risposta istintivo-egoistica in favore di un
comportamento prosociale. Stessa cosa accade per la capacità di
distinguere le trasgressioni morali (p.e. “non uccidere”) dalle trasgressioni
convenzionali (p.e. “non mangiare coi gomiti sul tavolo”), come evidenzia

predatore privo di qualunque senso di responsabilità e incapace di provare empatia, un soggetto che
utilizza la propria razionalità per scopi egoistici e per sottrarsi alla presa della legge. Cfr. V. Caretti, G.
Craparo, La personalità psicopatica, in F. Caruana (a cura di), Sistemi Intelligenti, 2/2010, p. 237.
105
Cfr. Lavazza, Sammicheli, Il nuovo rapporto tra diritto e neuroscienze, p. 246.
106
Cfr. R.M. Sapolsky, The frontal cortex and the criminal justice system, in Phil. Trans. R. Soc. Lond.,
B, 359, 2004, pp. 1787-1796.

52
p.e. lo studio di Blair e colleghi,107 stando ai quali la disfunzione
dell’amigdala sarebbe il fulcro dell’incapacità di interpretare gli stati
emotivi altrui (empatia) e di comprendere l’entità del danno arrecato
(rimorso).
Guardando a tutti questi indizi, verrebbe da chiedersi come mai il
sistema giuridico opponga resistenza alla deresponsabilizzazione di quello
che, per le neuroscienze, è da considerarsi un malato. Un primo motivo è
che i dati sono ancora troppo grezzi e non sappiamo se la disfunzione
dell’amigdala spieghi in modo esaustivo il fenomeno. Un secondo motivo è
che non si conoscono le cause dell’insorgenza del disturbo: senza la
presenza di una lesione verificabile, la disfunzione è dovuta principalmente
ai geni, a problemi nello sviluppo fisiologico, oppure all’impatto violento
di un trauma emotivo?108 Terzo motivo è la capacità razionale non solo
intatta, ma spesso sopra la media, dei soggetti. Contrariamente al resoconto
delle disfunzioni della PFC di Sapolsky, lo psicopatico è infatti in grado di
scegliere “la strada più difficile”, cioè di esercitare un autocontrollo che gli
permette di dissimularsi con la vittima e con le forze dell’ordine.109 Questo
spiega perché il criminale psicopatico appaia spesso ai giudici come una
persona pienamente responsabile delle sue azioni, un sadico capace di
trattenersi e quindi consapevole di poter fare altrimenti. Questa tendenza
giudiziaria potrà forse cambiare una volta che le neuroscienze avranno
capito nel dettaglio cos’è a non funzionare e perché. Nel frattempo, sembra
che i dati scientifici possano fungere da utile integrazione all’indagine
tradizionale, ma non da elementi probatori.

3.8 Alcune conclusioni

Per quello che riguarda il mind-body problem, l’attuale stato della


conoscenza neuroscientifica vige nell’incertezza. Lo statuto ontologico del
libero arbitrio non è stato specificato e non sono state date prove che si
siano dimostrate risolutive in questo senso. Sul versante giuridico e morale,
quello di fondare la nozione di responsabilità su processi neurobiologici
107
Lo psicopatico non è in grado di capire l’impatto del danno che provoca agli altri, e per questo è
portato a vedere tutte le trasgressioni come violazioni di semplici norme convenzionali. Blair, R.J.R.,
Mitchell, D., Blair, K., The Psychopath: Emotion and the Brain, Blackwell, Malden (MA)-Oxford, 2005.
108
Sapolsky distingue tra i danni alla PFC dovuti a ictus, con diversi effetti a seconda dell’età d’incidenza,
e le anomalie funzionali del cervello dei sociopatici, limitandosi per questi ultimi a sottolineare la
correlazione tra un minor volume della PFC e i comportamenti antisociali (cfr. Sapolsky, The frontal
cortex and criminal justice, pp. 1793-1794). Per la correlazione tra psicopatia e traumi in età precoce, con
una spiegazione prevalentemente psicologica, si veda Caretti, Craparo, La personalità psicopatica, pp.
229-235.
109
Cfr. Caretti, Craparo, La personalità psicopatica, p. 236.

53
pare un errore categoriale. La responsabilità giuridica, dice Gazzaniga, non
si localizza nel cervello, ma emerge solo quando uno o più agenti
interagiscono in un contesto sociale e producono delle regole.110 Di
Francesco specifica inoltre che «presupporre la convergenza (riduttiva o
eliminativa) tra i livelli [biologico e sociopsicologico] è un’ipotesi che non
fotografa certamente lo stato attuale della ricerca, e che può essere avanzata
solo assumendo la prospettiva metafisica riduzionistica che si vuole
dimostrare».111 Ciò che si sta dicendo, insomma, è che la responsabilità si
potrebbe ricercare nei processi cerebrali solo se fosse compiuta una
completa riduzione del livello fenomenologico (e sociologico) al livello
biologico, il che è ben lungi dall’essere realizzato. Ne segue che attribuire
alle neuroscienze un – indiscriminato – ruolo deresponsabilizzante è
un’operazione quantomeno prematura ed estrema. Le prove sperimentali
suggeriscono forse che non si può incolpare uno psicopatico per i suoi
delitti, tuttavia questo non vuol dire che vada lasciato libero di nuocere agli
altri; oppure che lesioni cerebrali e difetti genetici favoriscono condotte
antisociali, ma questo non significa che l’individuo sia irrecuperabile a
priori, né che debba essere contenuto preventivamente; o ancora, che le
nostre azioni sono da inquadrare in un contesto deterministico, il che però
non implica che violenza e crudeltà vadano descritte nei termini di malattia
e devianza.
Chi è affetto da BOS non prende in considerazione questi fatti e si
lascia ammaliare dalle teorie, magari un po’ naïve, che si presentano con
l’abito della scientificità. Va precisato però che la denuncia di questo
problema non equivale a una demonizzazione delle ricerche sul cervello,
perché solo mettendo alla prova le varie ipotesi può esserci un incremento
di conoscenza. Oggi è chiaro come le neuroscienze abbiano aperto una via
senza ritorno: se vogliamo capire meglio la natura umana, dobbiamo
integrare le scienze del comportamento con gli studi sui meccanismi
cerebrali. La vera sfida è prendere consapevolezza dello stato della ricerca
e non commettere errori logici. Troppi “forse” e troppe poche certezze sono
il motivo, secondo Morse, per cui attualmente «the neuroscientific evidence
provides a partial causal explanation of why the observed behavioral
differences exist and thus some further evidence of the validity of the
behavioral differences»,112 e ciò non può avere che una rilevanza limitata e
indiretta nell’accertare la responsabilità dell’imputato.

110
Gazzaniga è ambiguo su questo punto, perché sostiene l’emergentismo degli stati mentali e nello stesso
tempo l’impossibilità degli stessi di retroagire sul cervello, il quale invece funziona in maniera
deterministica. Vedi M. Gazzaniga, Who’s in Charge?, 2012, trad. it. a cura di S. Inglese, Chi comanda?
Scienza, mente e libero arbitrio, Codice Edizioni, Torino, 2013, cap. 6.
111
Di Francesco, Neurofilosofia, naturalismo e statuto dei giudizi morali, p. 140.
112
Morse, Brain overclaim syndrome and criminal responsibility, p. 409.

54
Se una parte della critica accademica si è fatta agguerrita nei confronti
del naturalismo estremo non è pertanto per una petizione di principio,
quanto per evitare che ideologie fuorvianti compromettano il già complesso
universo giuridico. Quando si deve decidere della vita di una persona e, più
in generale, della gestione della società, è preferibile affidarsi al grado di
evidenza massimo disponibile, pena il rischio di moltiplicare le ingiustizie:
dallo stato attuale del dibattito, emerge che l’indagine forense non può
sostituire le spiegazioni storiche e soggettive con le neuroscienze, perché la
complessità della vita mentale non si ritrova nelle immagini di risonanza o
nei tracciati degli elettrodi. O almeno, non ancora.
Capitolo 4. Teorie contemporanee del
libero arbitrio

Finora ho cercato di ricostruire la questione del naturalismo partendo dalla


Rivoluzione Scientifica per arrivare agli studi che, in età contemporanea,
hanno messo in discussione i paradigmi delle discipline etiche e giuridiche.
Nel capitolo precedente il tema del libero arbitrio si è gradualmente rivelato
una delle tematiche più importanti da affrontare per un naturalista, e gli
esiti di alcune teorie si sono mostrati controversi. Contenimento preventivo,
deresponsabilizzazione dei reati, illusione della volontà cosciente: tutti
elementi in grado di minare nel profondo l’immagine propria dell’uomo
comune.
Poiché a essere messi in questione sono la nostra vita sociale e la
dimensione esistenziale del singolo, e poiché il problema è stato percepito
sin dall’antichità, non sorprende che lo sforzo degli studiosi di ogni tempo
si sia concentrato nell’integrare, rifiutare o modellare la nozione di libero
arbitrio in coerenza con il proprio sistema di teorie. In poche parole,
l’obiettivo è e fu quello di costruire un’argomentazione logicamente valida
a partire da certe premesse, alcune delle quali assunte in modo assiomatico,
affinché certi fenomeni potessero essere giustificati. Si pensi per esempio
alla dottrina del clinamen113 con cui Epicuro si oppose al determinismo
democriteo: essa non era che la postulazione di un movimento non
determinato degli atomi (la declinazione) in aggiunta agli altri due moti che
procedevano secondo necessità (caduta in linea retta e urto). Ma perché
postulare un movimento indeterministico? Per spiegare lo sviluppo morale
dell’essere umano e legittimare i suoi sforzi per ottenere l’imperturbabilità,
113
Vedi E. Spinelli, F. Verde, Alle radici del libero arbitrio, in M. De Caro, M. Mori ed E. Spinelli (a
cura di), Libero arbitrio, storia di una controversia filosofica, Carrocci Editore, Roma, 2014, pp. 61-71.

55
elementi inconciliabili col determinismo democriteo. O ancora, si pensi alla
distinzione tra necessità condizionale e necessità assoluta con cui i
medievali libertari tentarono di salvaguardare il libero arbitrio
dall’onniscienza divina: essi teorizzarono che Dio, in quanto entità
atemporale, assistesse contemporaneamente a passato, presente e futuro del
mondo, senza però determinare le scelte degli uomini, così come il mio
sguardo non costringe una persona a camminare se la vedo passeggiare.114
Oggi come allora l’analisi concettuale svolge un ruolo di primo piano
nel definire il problema della libertà e le sue categorie, sebbene i progressi
non siano stato molti.115 Le critiche mosse da De Caro agli esperimenti di
Libet e il dibattito sul tema dell’imputabilità evidenziano il bisogno di
stabilire cosa sia un’azione libera; quale correlazione sussista tra i dati del
neuroimaging e termini come “coscienza”, “desiderio”, “impulso”,
“scelta”, “causa”; quanto e quali concezioni di responsabilità siano
compatibili con il determinismo; quali tipi di causalità vadano presi in
esame, e via dicendo. Analisi di questo tipo sono, per l’appunto, concettuali
e qualunque ricerca, sia filosofica che empirica, deve in qualche modo
presupporle, anche solo per sapere cosa si sta cercando. Secondo alcuni, ciò
è possibile senza dover attribuire alla filosofia un carattere fondazionale di
stampo neopositivista:

Così, ad esempio, se l’analisi concettuale provasse che la libertà è


impossibile sia in un ambiente deterministico sia in uno indeterministico,
nessun risultato empirico potrebbe mutare questa diagnosi. Oppure, se
l’indagine scientifica dimostrasse che tutti i nostri comportamenti sono
determinati, questo risultato in sé non proverebbe nulla rispetto alla libertà,
se non fosse già stato preliminarmente chiarito – a livello di indagine
concettuale – quale relazione la libertà abbia col determinismo. D’altra
parte, è vero anche che non si può condurre l’analisi filosofica in completa
indipendenza dai risultati della ricerca scientifica. […] Una concezione della
libertà che, al fine di spiegare il nesso tra gli agenti e il mondo fisico,
contraddicesse le migliori teorie scientifiche di cui disponiamo, si
dimostrerebbe ipso facto inadeguata.116

114
Cfr. P. Porro, Trasformazioni medievali della libertà/2. Libertà e determinismo nei dibattiti scolastici,
in M. De Caro, M. Mori ed E. Spinelli (a cura di), Libero arbitrio, storia di una controversia filosofica,
pp. 195-202.
115
In merito agli scarsi progressi della ricerca sul libero arbitrio, De Caro scrive «A mio giudizio […] è
ragionevole ritenere che il paradigma libertario e quello compatibilistico, così come sono stati sino ad
oggi sviluppati, abbiano ormai perduto la loro vitalità teorica e siano, per così dire, chiusi
irrimediabilmente in sé stessi. La prova di una tale involuzione è che oggi, in molti casi, i contributi al
dibattito sulla libertà si presentano come mere esercitazioni scolastiche incentrate su microproblemi,
interni all’uno o all’altro dei paradigmi in competizione, ma ignorano le formidabili difficoltà, aporie e
contraddizioni che minano alla base la credibilità generale di quei paradigmi». M. De Caro, Il libero
arbitrio, un’introduzione, Editori Laterza, Bari, 2004, p.89.
116
Ivi, pp. 20-21.

56
De Caro, coerentemente con i principi del suo naturalismo liberalizzato,
opta per la compatibilità della filosofia con la scienza, nel senso di un
equilibrio riflessivo tra l’analisi concettuale e la conoscenza empirica del
mondo.117
In questo capitolo proporrò le varie teorie del libero arbitrio nei loro
nodi essenziali, ma tratterò solo marginalmente le critiche a esse rivolte.
Rimando tali critiche al prossimo capitolo, nel quale presenterò l’attacco di
Derk Pereboom contro la nozione di libero arbitrio in tutte le sue
declinazioni.118 Il mio concentrarmi su questo autore è direttamente
connesso con la precedente citazione di De Caro, poiché Pereboom,
attraverso gli strumenti dell’analisi concettuale e della fisica, vorrebbe
dimostrare come il libero arbitrio non possa esistere tanto in un contesto
deterministico quanto in uno indeterministico. Il mio obiettivo finale è
quello di analizzare non solo la solidità teoretica delle teorie naturalistiche,
ma anche le loro conseguenze a livello pratico.

4.1 Quale libertà? Quale determinismo?

Prima di esporre le tesi di libertari e compatibilisti è bene definire quale


tipo di libertà è in esame e cosa può minacciarla.119 Solitamente si
distinguono tre sensi di libertà:

 Libertà sociale – è una relazione triadica tra due agenti e un’azione


compiuta. R [un agente] è libero rispetto a P [detentore di potere] di
fare X, se P non può punire R per il suo compiere o non compiere X.
Detto in altro modo, se R è sanzionabile per un’azione o per
l’omissione della stessa, allora non è libero rispetto a P. Se P è lo
Stato, la libertà sociale corrisponde alla libertà politica.

 Libertà di agire – è una relazione diadica tra un agente e un’azione


potenziale. P è libero di fare X se niente ne ostacola la realizzazione.
117
Questa posizione non è sottoscritta all’unanimità dai cosiddetti naturalisti liberali. Per Stroud, per
esempio, pensare che si possa ottenere un equilibrio riflessivo di questo genere è un errore categoriale: la
varietà del reale presuppone quadri concettuali e linguistici completamente diversi, se non del tutto
incommensurabili. Questo non implica contraddizione tra scienza e filosofia, ma solo che discipline con
diverse modalità parlano di diversi oggetti. Cfr. De Caro, Naturalismo e normatività: prospettiva
scientifica e prospettiva agentiva, pp. 110-111.
118
Ringrazio il prof. Mario De Caro per avermi suggerito la lettura di questo autore e per avermi
gentilmente offerto delle delucidazioni in merito.
119
Per un’analisi più dettagliata, rimando alle ottime introduzioni sul tema di De Caro, Libero arbitrio;
Nannini, Naturalismo cognitivo, cap. III; e S. Magni, Teorie della libertà. La discussione contemporanea,
Carocci, Roma, 2005.

57
Gli ostacoli consistono sostanzialmente nell’incapacità di fare
qualcosa (p.e. camminare per un paralitico) e nella mancanza di
opportunità (p.e. evadere da una cella perfettamente sorvegliata).
L’incapacità rispecchia un ostacolo interno all’agente, quali possono
essere le malattie, mentre la mancanza di opportunità è un ostacolo
posto dall’esterno. La libertà di agire si distingue dalla libertà
sociale, perché un agente che ne abbia la capacità e l’opportunità può
comunque compiere un’azione socialmente sanzionabile.

 Libertà di volere – questo tipo di libertà riguarda la capacità del


soggetto di autodeterminare la propria volontà e le proprie scelte. È il
tipo di libertà che manca agli agenti completamente determinati, i
quali possono ancora godere della libertà di fare (p.e. anche i robot
sono progettati con certe capacità espletabili in certe condizioni) e
della libertà sociale (le azioni di un agente determinato possono
essere libere nel senso di non sanzionabili), ma non hanno potere
sulla propria volontà.

Il terzo tipo di libertà è quello che Gall, Lombroso e Alimena negavano.


Come si ricorderà, l’assenza di libero arbitrio incide sull’imputabilità dei
criminali, nel senso che può portare a una mitigazione della pena, ma non
sulla libertà sociale. Un agente determinato infatti non sarà mai libero di
uccidere secondo un sistema giuridico che lo vieta. Egli sarà comunque
libero di farlo, a patto che ne sia fisicamente in grado e ne abbia
l’opportunità, ma non potrà liberamente decidere di non volerlo.
In generale, il tema del libero arbitrio si connette a quello della
responsabilità per tutti gli atti, non solo i crimini. La socialità umana si
modella su concetti come quelli di merito, lode, biasimo, indignazione, i
quali sembrano perdere di significato in un universo deterministico. Questo
è il motivo per cui il dibattito sulla libertà è tanto pressante: esso coinvolge
non soltanto i reati, ma le azioni di tutti i giorni, dal prendere un bel voto a
scuola al non mantenere una promessa, dall’agire egoistico a quello
altruistico.
De Caro ci insegna che affinché si dia la libertà richiesta per la
responsabilità morale, devono darsi due condizioni:120

 Possibilità di fare altrimenti – il futuro deve essere


aperto e offrire la possibilità di corsi d’azione
120
Cfr. De Caro, Il libero arbitrio, pp. 9-10.

58
alternativi. Se le cose sono destinate ad andare in un
unico modo, la mia volontà e le mie scelte sono
ininfluenti.
 Autodeterminazione o controllo delle azioni – le azioni
di un agente devono discendere dai suoi desideri,
credenze e intenzioni. L’agente non deve essere
determinato nella sua volontà, ma è egli stesso a
determinarsi, così da avere il controllo sulle proprie
azioni.

Come mostrerò tra poco, le teorie del libero arbitrio cercano di dare conto
di entrambe le condizioni le quali, almeno a prima vista, non possono darsi
in un contesto deterministico. Si tratta di condizioni ontologiche, insieme
necessarie e sufficienti, che assorbono al loro interno la condizione
necessaria, ma non sufficiente, del sentimento di libertà che accompagna le
nostre azioni. Infatti è impossibile non sentirsi padroni delle proprie azioni
volontarie, tuttavia questo non ci garantisce che vi siano possibilità
alternative né che la nostra facoltà di autodeterminarci non sia totalmente
illusoria.
Siccome il determinismo minaccia entrambe le condizioni della
libertà, ne riporto qui alcune versioni, tutte fortemente influenzate dalla
concezione del mondo nelle rispettive epoche:

 Fatalismo – forma di determinismo non causale, fa la


sua prima apparizione nella tragedia greca, dove il fato è
spesso visto come un potere che sottomette persino gli
dei. Non vengono prese qui in considerazione le catene
causali di eventi, perché gli eventi fatidici accadono
indipendentemente da ciò che li precede. Il futuro è
pertanto necessitato, sebbene possa essere preceduto da
qualunque cosa, persino da momenti indeterministici.121
Questa versione prende il nome di inevitabilismo.
Magni indica inoltre il determinismo logico come
variante del fatalismo. Infatti, poiché le proposizioni sul
futuro possono essere vere o false, se oggi è vero che
“domani accadrà una battaglia navale”, allora non ha
senso deliberare su futuri corsi d’azione, perché la
battaglia avverrà comunque.122
121
Si vedano i saggi di F. Trabattoni, Libertà, libero arbitrio e destino in Platone, e Libertà e destino da
Platone al neoplatonismo, in M. De Caro, M. Mori ed E. Spinelli (a cura di), Libero arbitrio, storia di
una controversia filosofica, pp. 15-38; 99-114.
122
Cfr. Magni, Teorie della libertà, pp. 43-44.

59
 Determinismo teologico – concezione tipica
dell’antichità e soprattutto del Medioevo. Ci si chiede
come il libero arbitrio possa sussistere date la prescienza
e la provvidenza divine. Nel primo caso, infatti, le
nostre scelte sono previste con largo anticipo e dunque
siamo necessitati a compierle. Nel secondo caso, il
disegno divino mira a una sua realizzazione in chiave
escatologica, pertanto vi è un fine predeterminato.
Poiché ciò che Dio dispone non può non verificarsi, è
chiaro che le scelte degli uomini devono accordarsi con
il progetto originario e sono, pertanto, vincolate.123
Alcune versioni del determinismo teologico, come
l’occasionalismo, rientrano nella più grande famiglia del
determinismo causale.

 Determinismo causale – un evento e è causalmente


determinato se è l’effetto di eventi antecedenti a che lo
necessitano in quanto cause sufficienti. Gli antecedenti
non sono cause necessarie per il fatto che un evento può
essere esito di cause diverse, quindi sarebbe scorretto
imporre una relazione biunivoca tra l’evento-effetto e
l’evento-antecedente (per esempio una casa può crollare
a causa di un terremoto, ma non ogni volta che una casa
crolla è per colpa di un terremoto). Questa è la
concezione a cui fanno di solito riferimento i pensatori
contemporanei.

 Determinismo fisico o scientifico universale – variante


del determinismo causale. Secondo la formulazione di
Laplace, se fosse possibile descrivere lo stato del mondo
(P) in un certo istante (t0), tale descrizione (P0) più le
leggi di natura (L) permetterebbero di descrivere il
mondo in ogni istante successivo (t1). Nella
formulazione logica: “Nec (P0 + L) → P1”. Il
determinismo fisico presuppone che i nessi causali tra
eventi esemplifichino delle leggi universali e che non
esistano cause finali (cioè che nessun evento possa
essere causa di un evento precedente). Il futuro pertanto

123
Vedi Porro, Trasformazioni medievali della libertà/2, pp. 195-202.

60
procede solo in un verso senza la possibilità di corsi
d’azione alternativi.

Dato il clima ostile al soprannaturalismo, le ultime due concezioni sono


quelle oggi maggiormente dibattute. Il determinismo fisico, però, è la
concezione più radicale e riduzionistica e fa parte dei cosiddetti
‘determinismi causali universali’. Il determinismo fisico infatti ritiene che
la nozione di causalità abbia carattere prioritariamente fisico, per cui
bandisce dal suo terreno non solo le cause soprannaturali, ma tutte quelle
che non fanno riferimento al modello fisicalista. Assumendo il ‘principio di
chiusura causale’ – secondo cui l’universo è un sistema causale chiuso che
non ammette l’esistenza di cause esterne non fisiche (p.e. l’intervento
divino) –, questo tipo di determinismo uniforma sotto la stessa legge la
materia inorganica e l’agente umano, opponendosi così a ogni forma di
pluralismo ontologico. Differentemente da ciò, il determinismo causale
nelle sue forme ‘locali’ contempla la possibilità di applicarsi solo a una
determinata categoria di fenomeni senza dire nulla sugli altri (p.e. il
determinismo genetico predetermina alcuni tratti fenotipici, ma non le
attitudini comportamentali, né offre alcuna informazione circa il libero
arbitrio).
Nell’ultimo secolo, il determinismo causale e il determinismo fisico
sono stati messi in questione a partire dal concetto di “causa”. Per esempio,
un tema molto dibattuto è quello della cosiddetta causalità indeterministica,
ovvero di una causa che, nel produrre l’effetto, non è necessitata dagli
eventi antecedenti. L’indeterminismo ha inoltre trovato una veste
scientifica nella meccanica quantistica, i cui modelli evidenziano come in
certe condizioni il comportamento delle particelle subatomiche risulti
imprevedibile. Ritornerò su questi argomenti nell’esporre le teorie della
libertà e le relative critiche.

4.2 Forme di incompatibilismo libertario

Dati i concetti di “libertà” e “determinismo”, le teorie filosofiche del libero


arbitrio si dividono in due grandi famiglie: il compatibilismo e
l’incompatibilismo. I compatibilisti ritengono che la libertà sia compatibile
col determinismo, mentre gli incompatibilisti lo negano. Questi ultimi
raccolgono al loro interno posizioni molto eterogenee: una soluzione infatti
è negare la compatibilità di libertà e determinismo mostrando l’illusorietà
della prima (incompatibilismo antilibertario); un’altra è quella di preservare

61
il libero arbitrio svincolandolo dalle leggi della fisica, o negando
direttamente la verità del determinismo (incompatibilismo libertario).
Coloro che non si ritengono soddisfatti da nessuna delle soluzioni proposte
sono infine gli scettici, i quali vedono negli scarsi progressi della
discussione il sintomo di una problematica insolubile e misteriosa.
In questo paragrafo descriverò le tesi del libertarismo, le quali si
dividono anch’esse in tre tipologie:124

 Libertarismo radicale – anche detto 'indeterminismo


non-causale', questa teoria prevede che le azioni siano
eventi senza cause. L'assunto di base è che le
spiegazioni razionali delle azioni sono di tipo diverso
rispetto alle spiegazioni causali. L'uomo infatti inferisce
nessi causali per induzione, cioè verificando la costante
associazione di fenomeni indipendenti tra loro, mentre
quando spiega un'azione fa riferimento a stati
intenzionali, configurando la connessione ragione-
azione come logico-concettuale. Posto che una ragione
non è causata e non può essere causa di alcunché, le
azioni sono allora svincolate dai meccanismi causali
naturali e nulla le necessita. Ogni azione compiuta, non
essendo necessitata, avrebbe potuto non essere
compiuta. I fautori di questa teoria integrano la non-
causalità dell'azione con l'indeterminismo, in quanto
deve esserci un'interruzione nella catena causale
naturale che permetta l'agire umano. Il libertarismo non-
causale riesce a rendere conto del primo requisito della
libertà, ovvero delle possibilità alternative, poiché
l'agente indeterminato ha sempre un futuro aperto di
fronte a sé. Più problematica è la questione del
controllo, perché non si capisce come un evento
indeterminato possa essere controllato da qualcosa. Una
possibile risposta è che la relazione intenzionale sia
sufficiente a mettere in rapporto l'azione e il suo agente,
il quale la compie (e chi compie ne controlla per
definizione l'esecuzione) ma non la causa. Questa tesi
appare tuttavia astrusa, perché un evento completamente
indeterminato scaturisce dal nulla ed è indipendente
dall'agente, persino dai suoi stati intenzionali. In
124
Anche in questo caso, per un’analisi più dettagliata, rimando a De Caro, Il libero arbitrio, pp. 38-55 e
Magni, Teorie della libertà, pp. 55-62.

62
generale, la rinuncia al principio di causalità pare essere
un requisito metafisicamente troppo impegnativo.

 Indeterminismo causale o dottrine della event-causation


– a differenza della teoria precedente, questa posizione
non rompe il nesso causale tra azione e agente, ma
considera le ragioni (eventi mentali) come cause delle
azioni. Il punto cruciale sta nel concetto di "causazione
indeterministica", per cui la decisione dell'agente ha
come effetto l'azione, pur restando indeterminata. Il
momento indeterministico si situerebbe nel processo
deliberativo, in cui l'agente prima valuta le ragioni, poi
attribuisce loro un peso e infine realizza una delle
opzioni alternative disponibili.125 Nel fare ciò l'agente
non è determinato perché non lo è il processo di
pesatura: anche ritornando nella stessa identica
situazione, egli può dare ogni volta un peso diverso alle
varie ragioni. Poiché tuttavia non sembra che tutte le
scelte dipendano da un processo di questo tipo (le
decisioni istintive sono forse involontarie?), alcuni
autori126 si limitano a dire che le ragioni inclinano a
favore di certe scelte senza necessitarle, collocando il
momento indeterministico al tempo stesso della scelta, e
non prima. Detto in una parola, eventi del tipo “A ha
attualmente certe ragioni, credenze e desideri” causano
eventi del tipo “A decide di fare B” senza che il nesso
sia deterministico. Come per la teoria precedente, il fatto
che si contempli un momento indeterministico permette
di rendere conto delle possibilità alternative. A
differenza del libertarismo radicale, però, le azioni non
si sconnettono completamente dall'agente, ma
discendono realmente dai suoi stati intenzionali.
Tuttavia, anche in questo caso, l'obiezione della
mancanza di controllo si ripropone con particolare
forza: il processo di pesatura terrà pur conto degli stati
intenzionali dell'agente, ma se l'attribuzione di peso alle
ragioni è indeterminata, allora nulla la controlla. Detto
in altro modo, gli stati interni che precedono la scelta
dell'agente non fanno la differenza nello scegliere un
125
Questa è la posizione di Nozick in R. Nozick, Philosophical Explanations, 1981, trad. it. a cura di G.
Rigamonti, Spiegazioni flosofiche, Il Saggiatore, Milano, 1988, pp. 291-362.
126
Vedi R. Kane, The Significance of Free Will, Oxford University Press, Oxford, 1996.

63
corso d'azione piuttosto che un altro. Per esempio,
ipotizziamo che io debba decidere se mangiare la torta
di mele, e che debba valutare due ragioni esprimibili con
gli enunciati "desidero mangiare la torta di mele perché
è il mio dolce preferito" e "la dieta m'impone di limitare
di dolci". Poniamo anche il caso dell’inclinazione non
necessitante, e perciò che il primo desiderio abbia un
peso iniziale di 0.7 e il secondo 0.3. Queste due ragioni
sono gli eventi mentali antecedenti. Segue quindi un
altro evento, la pesatura indeterministica, dove queste
preferenze iniziali diventano ininfluenti e possono
essere completamente sovvertite. Dunque, la mia
inclinazione iniziale a mangiare la torta il 70% delle
volte non avrà più alcun valore, e l'esito della
deliberazione sarà ancora in mano al caso.

 Teorie dell’agent-causation – poiché nelle forme finora


presentate l'indeterminismo pare compromettere il
controllo dell'agente sulle proprie azioni, una possibile
soluzione consiste nell'attribuire un particolare potere
causale agli agenti, cioè trovare il posto per una
causalità irriducibile a quella che intercorre tra eventi.
Nella causalità indeterministica infatti l’agente è
coinvolto nell’evento, ma non è chiaro se questo basti
per garantirne il controllo. La teoria dell’agent-
causation, solitamente associata a filosofi come
Aristotele e Kant, prevede che il soggetto sia in grado di
determinare la propria volontà diventando iniziatore di
nuove catene causali, le quali poi si integrano nel corso
deterministico degli eventi. Affinché ciò sia possibile, è
necessario considerare gli agenti come sostanze che, al
pari dei motori immobili, sono cause prime. Anche in
questo contesto l'agente si ritiene inclinato ma non
necessitato nelle sue scelte, con la capitale differenza,
rispetto alla event-causation, che il processo
deliberativo è pienamente sotto il suo controllo.
Secondo Chisholm, che è stato il continuatore
contemporaneo di questa linea, l'azione libera deriva dal
potere creativo della volontà dell'agente, e sarebbe
proprio la nostra esperienza di produttori di effetti a
fornirci il concetto di causalità che poi applichiamo ai

64
fenomeni che regolarmente si presentano congiunti.127
Tuttavia, il principale problema della dottrina
dell’agent-causation è quello di essere metafisicamente
oscura. Infatti, a livello teorico, il potere che i libertari
postulano può sembrare una formulazione ad hoc per
aggirare il problema connesso all’indeterminismo. A
livello empirico, invece, rappresenta un’anomalia
nell’ordine naturale per come oggi ce lo descrivono le
scienze. Il problema allora, come spiega De Caro, è far
sì che questa teoria possa essere antiriduzionistica, ma
non antiscientifica.128 Il principale pregio però resta la
buona integrazione delle due condizioni della libertà che
qui, differentemente dal libertarismo radicale e
dall’indeterminismo causale, non sembrano finire in
cortocircuito.

A livello di analisi concettuale, l’indeterminismo pare dimostrarsi uno


scoglio importante per il libertarismo: per quanto necessario affinché sia
data la reale possibilità di corsi alternativi, il sostantivo stesso si oppone a
ogni determinazione, quindi anche all’auto-determinazione. Un elemento di
casualità, anche se inserito nella catena deterministica naturale, impedisce
non tanto l’attribuzione dell’azione a un agente (come esecutore), ma che
l’agente abbia un qualche tipo di controllo sulla sua volontà e sulle sue
decisioni (come autore).
Il secondo grande scoglio concettuale è comprendere se
un’interruzione della catena causale naturale sia davvero possibile.
L’agent-causation tenta di fornire un senso per cui “indeterminato” non
significa “casuale” ponendo a monte un potere autodeterminante e libero.
Le soluzioni per connettere questo potere alla natura possono essere di due
tipi: a) sostenere qualche sorta di dualismo per cui l’agente-sostanza e il
mondo interagiscono, il che però ricade nel sovrannaturalismo, o b) offrire
una spiegazione compatibile con la struttura nomologica della natura. Un
esempio di quest’ultimo tipo di ipotesi è l’emergentismo in filosofia della
mente, che rifiuta allo stesso tempo i dualismi e i riduzionismi. L’idea di
base è che gli stati mentali ‘sorgano’ da stati cerebrali, ponendosi però su
un livello di complessità superiore nel quale acquisiscono nuove proprietà.
Tali proprietà apparirebbero solo a quel livello e sarebbero irriducibili
rispetto alla base. In questo modo la mente e i suoi stati avrebbero un
127
Si tratta di una risposta alla critica di Hume al concetto metafisico di “causalità”. Vedi R. Chisholm,
Human freedom and the self: The Lindley Lecture, 1964, trad. it. a cura di A. Perri, La libertà umana e il
sé, in M. De Caro (a cura di), La logica della libertà, Maltemi Editore, Roma, 2002, pp. 55-76.
128
Cfr. De Caro, Il libero arbitrio, pp. 54-55.

65
fondamento scientificamente ammissibile (neuroni, molecole, atomi) e la
libertà si potrebbe configurare come una proprietà emergente del cervello
umano. Pereboom, tuttavia, pone forti obiezioni a questa concezione, e
rimando al prossimo capitolo per una discussione più approfondita in
merito.
Ora, invece, esporrò le teorie del compatibilismo.

4.3 Il compatibilismo

Il problema dell’indeterminismo e la non scientificità di certe teorie


libertarie sono i motivi per cui alcuni autori hanno cercato di far convivere
libertà e causalità fisica. Nella sua versione ‘classica’, il compatibilismo
trova tra i suoi primi fautori Hobbes e Hume e si struttura su tre tesi:

 Le azioni libere discendono dalla volontà non impedita né costretta


dell’agente
 Il determinismo è condizione necessaria della libertà, perché il suo
opposto è il caso, e la libertà non è casualità
 Il determinismo è vero

La terza tesi è il motivo per cui il compatibilismo classico viene anche


definito ‘soft determinism’, cioè una forma di determinismo che, pur in
assenza del libero arbitrio, rifiuta esiti radicali come la depenalizzazione
dei reati, l’anarchia socio-politica, la perdita di senso e valore della vita
umana, e così via.
La seconda tesi precisa che l’opposto della libertà non è il
determinismo, ma il caos a cui l’indeterminismo conduce. Che poi il
determinismo sia anche condizione necessaria della libertà, questo è un
requisito che solo le versioni ‘supercompatibiliste’ richiedono.129
La prima tesi è la base fondamentale di ogni tipo di compatibilismo e
risale alla distinzione humeana tra ‘libertà d’indifferenza’ e ‘libertà di
spontaneità’. Secondo lo Scozzese, infatti, era impossibile per l’uomo
scegliere tra due alternative ugualmente attrattive (libertà d’indifferenza),
mentre gli era possibile agire in accordo con la propria volontà (libertà di
spontaneità).130 In questa nuova accezione, l’azione libera è il prodotto di
una volontà non costretta da fattori esterni: io sono libero se niente
m’impedisce di realizzare i miei desideri e le mie inclinazioni. Non importa
129
Vedi per esempio A. Ayer, Freedom and Necessity, 1954; trad. it. a cura di A. Perri, Libertà e
necessità, in M. De Caro (a cura di), La logica della libertà, pp. 41-54.
130
Cfr. D. Hume, Trattato sulla natura umana, in Id., Opere filosofiche, p. 428 sgg.

66
– e qui sta la peculiarità – che i miei desideri e le mie inclinazioni siano
completamente determinati; l’importante è che la catena causale che
procederebbe dalla mia volontà all’azione non subisca interferenze
esterne. In questo modo si può rendere conto di un senso di libertà che 1)
non incorre in oscuri stratagemmi metafisici e 2) garantisce il controllo
dell’azione, poiché agente, volontà e azione sono tutti connessi in una
catena causale.
Nel corso dei secoli, e in particolare nel ‘900, questa accezione di
libertà è stata affinata in modo che fossero contemplati anche dei requisiti
interni all’agente. Un conto infatti è che io non sia libero di fuggire dalla
prigione perché la guardia mi ha incatenato; un altro è la mia impossibilità
di fuggire perché una rara patologia neurologica mi compromette la
corretta percezione dello spazio circostante. La libertà di spontaneità,
insomma, non contempla la circostanza, come può essere quella di un
animale o di un neonato, per cui non vi è alcun impedimento esterno, pur
mancando la libertà.
Il primo passo in questa direzione fu compiuto da Moore,131 che con la
sua analisi condizionale del verbo “potere” cercò di analizzare la libertà di
scelta in termini di controfattuali per rendere conto delle possibilità
alternative anche in un contesto deterministico. Infatti, se la mia volontà è
completamente determinata, come posso scegliere diversamente da come
scelgo? Moore ritenne che l’enunciato:

a. “Avrei potuto agire altrimenti”

andasse parafrasato in:

b. “Se lo avessi scelto avrei potuto agire diversamente”

Ma a cosa serve parafrasare l’enunciato a in questo modo? Nell’ottica di


Moore, l’intento era quello di dimostrare che un controfattuale riguardante
un’azione poteva essere vero anche in un contesto deterministico: se la mia
azione attuale può essere descritta con l’enunciato “Ho mangiato la pizza”,
l’enunciato “Avrei potuto mangiare qualcos’altro” risulterebbe vero, a patto
che nulla me l’abbia impedito.
Ai giorni nostri, l’analisi condizionale la si specifica in riferimento
alle nozioni di “capacità” e “opportunità” e assume questa forma:

131
Cfr. G.E. Moore, Ethics, Oxford University Press, Oxford, 1912, trad. it. a cura di Predeval Magrini
M.V., Etica, Franco Angeli, Milano, 1986, cap. 6.

67
c. “Se lo avessi preferito, avrei potuto scegliere di agire
diversamente, e se lo avessi scelto, avrei potuto agire
diversamente”132

Ora, poiché i tre enunciati hanno le stesse condizioni di verità, a è falso


quando lo è c: io non posso fare altrimenti quando qualcosa mi impedisce
di seguire le mie preferenze. E quando non sono libero di agire e scegliere
secondo preferenza? Quando mi manca l’opportunità, cioè quando dei
fattori esterni mi ostacolano nell’agire e nello scegliere (p.e. la coercizione,
o la mancanza di mezzi e risorse), e quando non ne ho la capacità, cioè
quando l’ostacolo è rappresentato da possibili fattori interni (p.e. disturbi
psichici, stati alterati di coscienza, ecc.). Allora capacità e opportunità sono
i requisiti categorici per avere possibilità alternative e, notare bene, si
danno anche in un universo deterministico. Magni spiega: «anche se le
azioni (o le scelte) che faccio fossero causalmente determinate, rimarrebbe
vero che, in un determinato momento e in relazione a una determinata
azione (o a una determinata scelta), “avrei potuto agire (o scegliere)
diversamente”, possedendo sia l’opportunità sia la capacità [di farlo…]».133
Questa analisi ha due pregi: 1) supera il problema di Moore che,
contemplando solo la possibilità di agire, faceva coincidere il libero arbitrio
con la libertà di fare.134 L’enunciato c invece tiene conto del poter volere
diversamente, quindi dei requisiti interni all’agente, e dunque offre le
condizioni necessarie e sufficienti della libertà; 2) connette la libertà
dell’agente al contesto in cui opera e non dà spazio a forme di libertà
assoluta come può essere quella esposta ne L’essere e il nulla135 di Sartre.
L’essere umano è pur sempre un organismo materiale, dotato di corpo,
quindi è logico che alcune capacità gli siano precluse. Discorso analogo
vale per le opportunità, che cambiano a seconda dell’epoca e dell’ambiente,
che in alcuni momenti si danno e in altri no. Tutto questo si integra
perfettamente con una visione evoluzionistica della libertà, intesa come
capacità acquisita per migliorare le chances di sopravvivenza.
Data la sua visione in accordo tanto con l’evoluzionismo quanto col
determinismo fisico, il compatibilismo si è mostrato un’alternativa
appetibile rispetto i problemi delle teorie libertarie, fino a imporsi come
paradigma dominante in ambito anglosassone. Questo primato è andato in
crisi a partire dalla seconda metà del ‘900, quando una serie di argomenti
hanno messo in discussione la validità dell’analisi condizionale del verbo
132
Magni, Teorie della libertà, p. 74.
133
Ivi, p. 76.
134
Il che, per Hume, sarebbe stato più che sufficiente.
135
Cfr. J.P. Sartre, L’Être et le Néant. Essai d’ontologie phénoménologique, Gallimard, Paris 1943, trad.
it. L’essere e il nulla, Il Saggiatore, Milano, 1997, pp. 514 ss.

68
“potere”. Infatti, per quanto Magni si sforzi nel sostenere che la possibilità
di fare altrimenti sia categorica e non ipotetica, l’analisi condizionale lascia
trasparire tutto il contrario: la possibilità alternativa dei compatibilisti è
relegata a mondi possibili, cioè non si realizzerà mai nel mondo corrente.
Ma allora come può una possibilità che non si esplicherà mai nel contesto
d’azione rendere conto del libero arbitrio? Se io ho mangiato la torta,
perché così era determinata la mia volontà, era davvero aperta la
possibilità, per me, di mangiare il budino, solo perché il mio alter-ego su
terra gemella ha mangiato il budino? Se è lo stato del mondo a determinare
le mie scelte e le mie azioni, e per scegliere altrimenti servirebbe un mondo
diverso in alcuni punti, che possibilità alternative può mai avere l’agente
nel mondo attuale?136 Sembra nessuna. Ma ciò si rivela disastroso anche per
la seconda condizione della libertà, l’autodeterminazione. Infatti, se si parte
dal presupposto che la volontà è determinata, l’agire non ostacolato che
discende da essa non può certo dirsi libero: se sono determinato, io non
sono causa di nulla, sono solo un tassello di una catena causale nella quale
mi trovo immerso e trascinato.
Due ultime osservazioni. Innanzitutto, credo ci sia un senso per cui
l’analisi condizionale effettivamente colga la possibilità di fare altrimenti.
Magni scrive: «Il determinismo morbido è una forma di determinismo: […]
esso si muove quindi su un terreno direttamente ontologico. Il
compatibilismo rimane invece agnostico riguardo alle questioni della
libertà e della determinazione […] esso si muove quindi su un terreno
esclusivamente filosofico-concettuale e non entra in questioni
ontologiche».137 Il compatibilismo dunque avrebbe una certa presa a livello
epistemico, dove un agente determinato può ancora avere delle possibilità
alternative, nel senso che non può prevedere il futuro né sapere cosa
sceglierà: per quanto vincolato, il suo processo deliberativo ha veramente
di fronte delle possibilità, anche se poi solo quella determinata verrà
percorsa. Questo comunque non aiuta a spiegare la libertà, perché il libero
arbitrio di cui si discute richiede uno statuto ontologico e metafisico: non
solo che le alternative si conoscano, ma che davvero si diano.

136
La domanda rispecchia quello che in gergo si chiama Consequence argument, il cui autore è P. van
Inwagen. Molto sinteticamente, se il determinismo fisico è esplicato dall’enunciato ‘Nec (P 0 + L) → P1’,
affinché l’agente avesse potuto fare altrimenti all’istante t 1, bisogna che egli sia in grado di modificare il
passato (P0) o le leggi di natura (L). Poiché l’uomo non può fare né l’uno né l’altro, egli sottomesso alla
ferrea legge della necessità. Per vedere lo sviluppo dell’argomentazione sul piano logico, si veda P. van
Inwagen, The Incompatibility of Free Will and Determinism, 1975, trad. it. a cura di A. Perri,
L’incompatibilità fra libero arbitrio e determinismo, in M. De Caro (a cura di), La logica della libertà,
pp. 135-156. Dubbi sono stati sollevati anche sulla correttezza della parafrasi dell’enunciato a, nel senso
che le condizioni di verità di a, b e c non paiono esattamente le stesse. Vedi De Caro, Libero arbitrio, pp.
72-74.
137
Magni, Teorie della libertà, p. 71.

69
Un secondo punto interessante del compatibilismo è il modo in cui
riesce a spiegare, in un eventuale universo deterministico, i diversi gradi di
controllo locale che un agente può esercitare sull’azione. Si pensi per
esempio a un cleptomane il cui comportamento è stereotipato per via di un
istinto irrefrenabile: la patologia fa sì che in tutti i mondi possibili il
cleptomane sia portato a rubare qualcosa. Nessuna ragione può farlo
desistere. Questo segna una differenza rispetto a una persona sana che,
differentemente da un paraplegico, decide di restare a letto pur avendo la
capacità di fare una passeggiata. Il compatibilismo, insomma, pare rendere
conto di due necessitazioni di tipo diverso, il che può essere utile in sede
giuridica per stabilire chi è punibile e chi no: l’agente non ostacolato né
incapacitato è in qualche modo reattivo agli incentivi del mondo esterno, il
malato no. Rimproverare l’uomo sano per la propria pigrizia può fargli
cambiare atteggiamento (almeno in qualche mondo possibile);
rimproverare il cleptomane no.138
Tuttavia, sono convinto che l’utilizzo della logica e di una nozione di
libertà formulata ad hoc non elude il fatto che in un universo determinato
non si danno né alternative né autocontrollo. Che questo non abbia
conseguenze nella vita di tutti i giorni, così come a livello sociopolitico, è
attualmente tema di grande dibattito.

4.4 Incompatibilismo e scetticismo

Rileggendo le teorie esposte finora e le relative critiche, può sembrare che


non ci sia alcuna argomentazione capace di rendere conto della libertà in
maniera soddisfacente. Non solo il determinismo pare in contraddizione
con la libertà, ma anche l’indeterminismo, e i vari tentativi per garantire
all’agente la ‘signoria’ sulle proprie azioni sembrano innestarsi tutti su
alterazioni di significato, postulati indimostrabili o stratagemmi logici ad
hoc. Per questo motivo, negli ultimi anni, un numero crescente di autori ha
aderito a posizioni di carattere scettico. Esse si possono dividere a seconda
della prospettiva da cui partono: lo scetticismo epistemico vede nel libero
arbitrio un mistero insolubile, un limite che la conoscenza umana non può
superare; lo scetticismo ontologico invece ritiene che l’agire libero non sia

138
Non so quanto si possa parlare di ‘controllo’ anche nel caso in cui una persona abbia capacità e
opportunità. In un universo deterministico, una persona reattiva agli stimoli sociali e ambientali è
determinata anche nella propria reattività, nel cambiare il proprio comportamento e le proprie abitudini.
La reazione, insomma, non sarebbe una questione di scelta razionale libera, ma di determinazione, come
tutto il resto.

70
possibile e, di conseguenza, che il nostro sentimento di libertà sia solo
un’illusione.
Il primo tipo di posizioni ricalca in qualche modo la lezione di Sesto
Empirico e lascia aperta la questione sul versante ontologico: l’uomo non
potrà mai sapere qualcosa circa l’esistenza del libero arbitrio perché non
ha, né avrà mai, i mezzi adeguati per ottenere tale conoscenza. A
dimostrarlo è l’insieme di oscurità e incongruenze in cui le varie teorie
incorrono nel voler risolvere l’antinomia che si pone tra l’evidenza
fenomenologica dell’agenzialità e l’incompatibilismo sotteso alle scienze
naturali. Due estremi, questi, non solo contraddittori, ma che si pongono
addirittura su piani categoriali differenti e intraducibili, stabilendo un limite
invalicabile per la razionalità umana. Lo scetticismo epistemico però si
distingue nel dare pari dignità ai due estremi della dicotomia: una mossa
che permette la sospensione del giudizio senza degenerare
nell’eliminativismo.
Non sono di questo parere i fautori dello scetticismo ontologico, il cui
assunto scettico sta nel disinteresse (e non nell’epoché!) per la verità o
falsità del determinismo: che l’universo sia vincolato o meno alla causalità
tra eventi, semplicemente non importa, perché la libertà non può darsi in
ogni caso. Non v’è alcun mistero impenetrabile: il nostro senso di libertà è
un’illusione – secondo alcuni un’emozione – necessaria per il benessere
mentale e sociale dell’essere umano.139 La radicalità di tale tesi è il motivo
per cui essa viene denominata ‘incompatibilismo duro’ (hard
incompatibilism)140 ed è ritenuta la naturale erede del ‘determinismo duro’.
Qui l’antinomia non si pone, ma si dissolve con la caduta dell’evidenza
fenomenologica di fronte alla visione scientifica del mondo. D’altronde, se
la sensazione soggettiva di libertà è condizione solo necessaria, non
sufficiente, del libero arbitrio, allora, per un discorso di economia
ontologica, è inutile postulare speciali causazioni mentali o sostanze con
particolari poteri. Ecco perché gli incompatibilisti duri s’impegnano a
sconfessare tanto il libertarismo quanto il compatibilismo, ritenendoli
rispettivamente un retaggio della metafisica cristiana (e cartesiana)141 o un
esercizio di logica mal applicato.
Lungi dall’essere una petitio principii, quella dello scetticismo è
piuttosto l’espressione della criticità di un problema per cui i vecchi mezzi
concettuali non sembrano più avere molto da offrire. Questo lo rende una
139
A tal proposito si vedano D.M. Wegner, Précis of The Illusion of Conscious Will, in Behavioral and
Brain Sciences, 27, 2004, pp. 649-659, trad. it. a cura di A. Lavazza, L’illusione della volontà cosciente,
in M. De Caro, A. Lavazza, G. Sartori (a cura di), Siamo davvero liberi?, pp. 21-50, e S. Smilansky, Free
Will, Fundamental Dualism, and the Centrality of Illusion, in R. Kane (edited by), The Oxford Handbook
of Free Will, 2nd edition, Oxford University Press, Oxford-New York, 2011, pp. 425-441.
140
Cfr. D. Pereboom, Living Without Free Will, Cambridge University Press, Cambridge, 2001.
141
Questa è l’idea per esempio di Nannini, cfr. Nannini, Naturalismo cognitivo, pp. 141-143.

71
posizione piuttosto forte, anche per via dei numerosi argomenti a cui può
appellarsi. È necessario però fare due precisazioni. La prima è che gli esiti
delle varie teorie scettiche non sono uniformi. Ritroviamo infatti autori
ottimisti, che pensano che dalla presa di coscienza dell’illusorietà della
libertà l’uomo trarrà benefici per la sua vita etica e sociale; mentre altri, più
pessimisti, temono che una consapevolezza di questo tipo porterà a scenari
di anarchia e violenza. La seconda precisazione è che l’ascesa del
compatibilismo prima, e dello scetticismo poi, è stata direttamente
proporzionale a quella del naturalismo scientifico: il compatibilismo ha
dominato fintanto che i suoi oppositori non hanno fornito un argomento per
mostrarne l’incoerenza, mentre l’incompatibilismo duro s’è ancorato ai
dettami delle scienze naturali evitando il ricorso a nozioni di libertà
formulate ad hoc. Ciò rende lo scetticismo ontologico piuttosto coerente al
suo interno, ma nel contempo lo espone alle critiche menzionate nel
Capitolo 2. Infatti, se davvero la spiegazione scientifica del mondo non è
esaustiva né completa, e se davvero la normatività epistemica sfugge alla
categorizzazione scientifica (in quanto suo presupposto), allora è sbagliato
eliminare il libero arbitrio solo sulla base del fisicalismo. Le spiegazioni
delle scienze umane, necessarie per quella porzione di realtà che è la vita
dell’agente razionale, fanno inevitabilmente riferimento ai vocaboli della
prospettiva agentiva (scelta, ragione, deliberazione, ecc.), il cui senso è
intrinsecamente connesso alla nozione di libertà. Il che non dimostra certo
l’esistenza del libero arbitrio, ma ci assicura che è razionale credere in esso,
almeno finché il riduzionismo non avrà raggiunto il proprio obiettivo.142
L’onere della prova, dunque, spetta ai naturalisti scientifici.

Capitolo 5. Incompatibilismo duro: un


prodotto del naturalismo scientifico

142
Questo argomento è offerto da De Caro che lo nomina ‘argomento dell’abduzione’ (De Caro, Il libero
arbitrio, pp. 128-142).

72
In questo capitolo approfondirò le critiche che sono state rivolte al
compatibilismo e al libertarismo. Nel farlo mi aiuterò con le opere di Derk
Pereboom, filosofo statunitense e coniatore dell’etichetta ‘incompatibilismo
duro’.
Sono sostanzialmente tre i motivi che mi spingono a fare affidamento
su questo autore. Il primo è che nelle opere Living Without Free Will e Free
Will, Agency, and Meaning in Life143 è raccolta ed esposta con chiarezza
un’enorme mole di argomenti contro il libero arbitrio, con tanto di critiche
e controcritiche. Il secondo è che l’attacco alla nozione di libertà si conduce
su una direttiva in parte concettuale e in parte empirica: indeterminismo
causale e compatibilismo infatti sarebbero incoerenti a livello teorico,
mentre l’agent-causation non sarebbe in se stessa incoerente, ma non
troverebbe spazio tra le descrizioni scientifiche del mondo. Il terzo motivo
è che, oltre alla decostruzione dell’idea di libero arbitrio e,
conseguentemente, di responsabilità morale, Pereboom offre una visione
ottimistica della vita senza l’illusione della libertà. Stando al filosofo,
arrendersi all’impossibilità del libero arbitrio porterebbe seri vantaggi sul
lato pratico, poiché le persone diventerebbero meno inclini ad arrabbiarsi
per i torti subiti. In più, la destituzione della responsabilità morale
consentirebbe di revisionare il concetto giuridico di pena, abolendo l’inutile
accanimento punitivo sui criminali.
Contro l’ottimismo di Pereboom, l’analisi di Smilansky, che pure
condivide la decostruzione dell’idea di libero arbitrio, mira a mostrare la
necessità dell’illusione della libertà. Il filosofo israeliano è infatti convinto
che la civiltà stessa si fondi su questa illusione e che una sua caduta
comporterebbe effetti devastanti per l’umanità. La sua ricerca può essere
considerata una sorta di autocritica dell'eliminativismo, un segnale
d'allarme rivolto a quegli autori che non sembrerebbero del tutto consci
delle implicazioni delle proprie teorie. Tuttavia anche Smilansky incorre in
serie difficoltà, io credo, poiché non tiene conto di quelle necessità pratiche
della forma di vita umana che potrebbero resistere alla destituzione del
libero arbitrio.
Il confronto tra questi due autori mi sarà utile per mostrare come il
vincolo imposto dall’ontologia scientista conduca a teorie estreme che, pur
condividendo un assunto di base, arrivano a esiti diametralmente opposti.
La mia idea è che buona parte delle correnti eliminativiste abbiano una
grossa lacuna al loro interno, perché gli effetti delle eliminazioni si
rivelerebbero, all’atto pratico, assai selettivi – per non dire nulli. Detto in
una parola, l’eliminazione del libero arbitrio cambierebbe tutto e niente.
Più insidioso, invece, è l’impatto delle critiche di Pereboom sull’apparato
143
D. Pereboom, Free Will, Agency, and Meaning in Life, Oxford University Press, Oxford, 2014.

73
teorico. A mio avviso, il filosofo statunitense mostra, con argomenti
abbastanza solidi, come libertà e scienza naturale siano del tutto
incompatibili, e continueranno a esserlo fintanto che la seconda verrà
utilizzata come base per l’impostazione del free-will problem.

5.1 L’incoerenza dell’indeterminismo causale (o event-causation)

Le teorie dell’indeterminismo causale contemplano un tipo di causa non


determinata dagli eventi antecedenti e che ha per effetto l’azione.
Pereboom prende a esempio la versione di Kane, secondo cui la sequenza
che produce l’azione comincia con le ragioni dell’agente (eventi-
antecedenti), il quale poi compie uno sforzo di volontà (evento-causa
indeterminato) per decidere tra le alternative e compiere l’azione (evento-
effetto). Siccome il potenziale causale di tale sforzo resta indeterminato
fino al momento stesso della scelta, l’agente ha sempre di fronte a sé la
possibilità di fare altrimenti, anche nel caso in cui una ragione abbia un
peso preponderante sulle altre.144
Ora, la critica che di solito si rivolge a questo tipo di libertarismo è
che non è in grado di assicurare il controllo dell’agente sulle proprie
decisioni. Come aveva intuito per primo Hume, sostenere l’indeterminismo
equivale a inserisce nella catena causale un elemento di pura aleatorietà del
tutto incompatibile con il libero arbitrio. Kane risponde in due modi a
questa obiezione: primo, la decisione libera, per quanto indeterminata, è
pur sempre compiuta volontariamente e intenzionalmente, non è il prodotto
di un errore o di una costrizione; secondo, l’azione libera s’accompagna
sempre con l’esperienza della volontarietà. Viceversa, l’agente non è libero
quando la sua scelta non è percepita come volontaria, non deriva da un suo
sforzo di volontà o è totalmente sconnessa dal carattere e dalle ragioni.
Uno dei nodi problematici però è proprio il tipo di connessione che
intercorre tra l’agente, il carattere, le ragioni e lo sforzo di volontà in un
mondo in cui vige unicamente una causalità tra eventi: provare un senso di
agency ed essere il soggetto dell’evento-scelta non garantisce un controllo
sulla deliberazione. Di fatto anche il compatibilista assume queste due
condizioni, ma accettando il determinismo finisce per definire la scelta
come un prodotto della causalità naturale (alien-deterministic event),
mentre nell’indeterminismo la suddetta scelta si riduce a un prodotto del
144
Lo sforzo di volontà è un evento che, una volta occorso, ha per effetto l’azione. Tuttavia, siccome il
momento indeterministico si inserisce prima, o forse nel momento stesso (la localizzazione è una
questione controversa) dello sforzo, esso non è determinato dai suoi antecedenti, ma solo inclinato in
modo probabilistico.

74
caso (truly random event). In entrambi i contesti manca una connessione
dell’agente con i suoi stati mentali tale per cui si possa dare una forma di
controllo libero.
Tra questi estremi – compatibilismo/determinismo e libertarismo
radicale – Pereboom inserisce i ‘partially random events’, ossia eventi i cui
antecedenti determinano le probabilità che si realizzino, ma non
l’occorrenza. In questo spazio, che sarebbe quello delle scelte libere degli
agenti inclinati ma non necessitati, il libertario coglie l’occasione per
rispondere alle accuse. Si potrebbe pensare infatti che l’agente contribuisca
in parte, attraverso le sue libere scelte, alla formazione del proprio
carattere, il quale poi lo inclina a optare per un’azione piuttosto che
un’altra. Quindi, se il carattere spiega gli sforzi di volontà dai quali poi
discendono le azioni, allora si può dire che l’agente non è in totale balia di
fattori oltre il suo controllo: egli ha contribuito a modellare le proprie
disposizioni!
Il problema, purtroppo, persiste: se le scelte dell’agente sono casuali,
egli non è responsabile per il proprio carattere, esattamente come non lo
sarebbe il soggetto determinato. Per dimostrarlo, Pereboom chiede di
pensare alla prima scelta compiuta da un agente. Poiché il carattere deve
ancora formarsi, questa prima scelta sarà o casuale o determinata. Ora, nel
caso che questa prima scelta non sia ‘character-forming’, l’agente non avrà
contribuito in alcun modo al carattere che renderà conto dello sforzo di
volontà per la scelta successiva. Nel caso invece che la prima scelta sia
character-forming, il carattere prodotto sarà comunque figlio della sorte o
della determinazione naturale. Conclusione: i partially random events,
quali sono i prodotti delle cause indeterministiche, non garantiscono alcuna
autodeterminazione dell’agente.145
A questa critica si associa una famiglia di obiezioni che prende il
nome di luck objections (obiezioni della sorte) e che Pereboom riformula
nulla più generale disappearing agent objection: supponiamo che una
persona debba risolvere una grande indecisione, e che, dato il suo carattere,
le ragioni in favore dell’una o dell’altra scelta abbiano lo stesso peso (il
50%). Ora, siccome lo sforzo di volontà è equamente influenzato da queste
ragioni, e da nient’altro, il suo esito sarà totalmente casuale.146 In risposta, il
libertario specifica che indeterminismo non equivale a casualità, perché gli
eventi che causano la scelta hanno un soggetto, e questo soggetto è colui
che controlla la scelta. Tuttavia, risponde Pereboom, l’indeterminismo
causale prevede solo una causalità tra eventi, non una particolare relazione
145
Cfr. Pereboom, Living Without Free Will, pp. 41-50. Non essendo postulato un potere causale
dell’agente come motore immobile, il momento di pesatura dovrebbe essere influenzato solo dagli eventi
antecedenti.
146
Pereboom, Free Will, Agency, and Meaning in Life, p. 32.

75
causale tra l’agente e la decisione.147 Questa, infatti, è la tesi dell’agent-
causation, i cui presupposti ontologici sono ritenuti troppo impegnativi
dagli indeterministi causali.

5.2 L’incoerenza del libertarismo non causale

L’obiezione della scomparsa dell’agente coinvolge direttamente i libertari


non causali, i quali devono anch’essi sviluppare i propri argomenti affinché
l’agente abbia un peso nella produzione delle proprie decisioni: come si è
visto nel paragrafo 4.2, gli eventi mentali non sono considerati come
cause, e il potere decisionale dell’agente avrebbe esso stesso un carattere
non causale. Per rendere conto dell’autodeterminazione, dunque, il
libertario radicale sostiene che l’agente ha il controllo sui propri eventi
mentali perché, al tempo t, fa in modo che essi occorrano o meno. Detto in
una parola, l’agente produce le sue decisioni perché dipende da lui se
scegliere o evitare di scegliere. In più, l’azione libera prevede sempre un
‘actish phenomenological feel’ che, unito alla capacità prima descritta, è
sufficiente per rendere conto dell’autodeterminazione senza il bisogno di
appellarsi a processi causali.
Pereboom obietta che, messa in questi termini, non vi è reale
differenza tra l’indeterminismo non causale e le versioni causali dello
stesso. La disputa sarebbe solo verbale. Infatti i maggiori fautori del
libertarismo non causale sostengono che il seguente assunto sia falso:

“Per ogni evento e, S ha fatto in modo che e occorresse solo se


S ha causato l’occorrenza di e”.

Tuttavia, quando il libertario cerca di rendere conto


dell’autodeterminazione, si richiama sempre alla nozione di intenzionalità,
e a espressioni del tipo “fare in modo che accada”, “evitare che accada”,
“eseguire l’azione” o “l’azione è un’impresa spontanea e creativa”. Queste
espressioni, secondo Pereboom, rimandano intrinsecamente a un controllo
di tipo causale. È possibile infatti che un agente esegua un’azione senza
causarla? È possibile creare qualcosa senza esserne la causa? È possibile
separare l’intenzionalità dell’agire da un’appropriata catena causale?
Sembra di no.148 Anzi, ricorrere a questo tipo di vocabolario implica

147
Cfr. ivi, p. 36.
148
Cfr. ivi, pp. 39-41.

76
ammettere ciò che le teorie non causali rifiutano, e segnala la loro
incoerenza di fondo.149
All’incoerenza del libertarismo radicale, Pereboom aggiunge poi la
caratteristica dell’inconcludenza. Date le leggi che governano gli universi
deterministici e probabilistici, il libertarismo non causale cerca di
caratterizzare un potere sui generis in grado di svincolarsi dai problemi che
tali leggi sollevano per l’autodeterminazione. Il risultato, tuttavia, è
particolarmente oscuro e sembra aggiungere solo complicazioni.
Complicazioni facilmente aggirabili dall’agent-causation, teoria che già
offre un tipo di relazione causale anch’essa potenzialmente svincolata dalle
suddette leggi e molto più intuitiva delle controparti a-causali.

5.3 L’incoerenza del compatibilismo

Il maggiore problema del compatibilismo sta nel fatto di non riuscire a


rendere conto delle possibilità alternative. In risposta a questa critica,
Frankfurt e i suoi seguaci hanno proposto il famoso argomento della
manipolazione per dimostrare come la questione della responsabilità sia, in
realtà, sganciata dal requisito del poter fare altrimenti e connessa
esclusivamente all’autodeterminazione.150 Ne segue che se la disponibilità
di possibilità alternative è irrilevante per il tipo di libero arbitrio richiesto
per la responsabilità morale, persino il Consequence Argument può essere
aggirato.
Pereboom ritiene che gli esperimenti mentali a là Frankfurt siano
convincenti,151 e che il compatibilismo debba essere combattuto sul
requisito del controllo. Per fare questo, il filosofo sviluppa un nuovo
argomento in cui si manipola un agente libero secondo gli standard del
compatibilismo. Tali standard sono:

1. L’azione proviene dal carattere dell’agente


2. Il desiderio che lo spinge ad agire non è dovuto a un impulso
irresistibile, quindi niente lo costringe (a differenza, p.e., del
cleptomane)
3. I desideri di secondo ordine sono conformi a quelli di primo
ordine152

149
Cfr. ivi, pp. 42-43.
150
Vedi infra, paragrafo 7.2.
151
Vedi Pereboom, Living Without Free Will, cap. 1, e Pereboom, Free Will, Agency, and Meaning in
Life, cap. 1.

77
4. L’agente è in grado di rispondere a ragioni, per cui può
modificare i suoi desideri.153

L’argomento di Pereboom si compone di quattro casi che vedono


protagonista il professor Plum il quale, per interessi egoistici, vuole e riesce
a uccidere la signora White. L’atto criminoso discende dalla volontà di
Plum (condizione 1) e non è frutto di un istinto irrefrenabile (condizione 2).
Inoltre il desiderio omicida di primo ordine è conforme al suo desiderio di
secondo ordine (condizione 3), ma Plum può comunque evitare di uccidere
nel caso si aspetti di incorrere in conseguenze per lui troppo negative
(condizione 4). Gli standard del compatibilismo sono dunque soddisfatti.
Tuttavia, sostiene Pereboom, è ancora intuitivamente possibile che Plum
non sia responsabile del misfatto.

Caso 1: dei neuroscienziati sono in grado di manipolare in


qualsiasi momento gli stati mentali di Plum grazie a un
radiocomando. Quando Plum si appresta a ragionare sul da farsi,
i manipolatori intervengono e potenziano le sue disposizioni
egoistiche, portandole oltre una soglia per cui è sicuro che
compirà l’omicidio. Plum è solito ragionare in modo egoistico,
ma se le condizioni fossero state troppo sfavorevoli, lo stesso
ragionamento lo avrebbe portato a non uccidere. Inoltre i
neuroscienziati non intervengono sul desiderio di primo ordine e
non lo rendono irresistibile. Nessun desiderio di secondo ordine è
contrario al voler uccidere White.154
152
Questa condizione è stata stabilita da Frankfurt nel tentativo di spiegare come l’agente sia in grado di
determinare anche il proprio volere. Vi sarebbero dunque desideri di primo ordine, eterodiretti e
determinati, e desideri di secondo ordine, che hanno per oggetto altri desideri. Anche fosse vero il
determinismo, dice Frankfurt, il desiderio di second’ordine è autodeterminato, esprime ciò che l’individuo
vuole veramente e offre la possibilità di agire contro il desiderio di primo ordine. Il cleptomane, per
esempio, ha, al primo ordine, l’impulso irrefrenabile di rubare, mentre, al secondo ordine, il desiderio di
non farlo. Siccome il meta-desiderio non riesce mai a imporsi sull’impulso patologico, si spiega come mai
il cleptomane non può essere ritenuto responsabile per le proprie azioni. Questo argomento tuttavia
incorre in serie difficoltà, la più insidiosa delle quali è rappresentata dalla domanda: cosa fa sì che i
desideri di secondo ordine siano autodeterminati? In un universo deterministico, infatti, non può esserci
una tale differenza tra primo e secondo ordine, ma tutto sarebbe eterodiretto e fuori dal controllo
dell’agente. Vedi De Caro, Il libero arbitrio, pp. 65-66.
153
Le condizioni 2 e 4 altro non sono che una precisazione dell’analisi condizionale del verbo “potere”.
Senza un impulso irresistibile una persona mantiene la capacità di cambiare idea, ovvero è sensibile a
ragioni.
154
Pereboom ha riformulato negli anni i quattro casi in risposta alle critiche ricevute di volta in volta. Io
riporto l’argomento nella sua formulazione più recente, che si trova in D. Pereboom, Optimistic
Skepticism about Free Will, 2013, trad. it. parziale a cura di A. Lavazza, Lo scetticismo ottimistico su
libertà e responsabilità, in M. De Caro, A. Lavazza, G. Sartori (a cura di), Quanto siamo responsabili?
Filosofia, neuroscienze e società, Codice Edizioni, Torino, 2013, pp. 132-136. Per semplicità non riporto
la quinta condizione richiesta dai compatibilisti, cioè che l’agente sia sensibile a ragioni morali e che tale
capacità gli consenta di rivedere il suo carattere morale, ma la accorpo alla più generale ‘reason-

78
La sottile costruzione di questo caso mira a rendere conto di a) una
manipolazione che non comprometta la capacità di agire e nel contempo b)
impedisca a Plum di essere responsabile. Ora, i neuroscienziati sanno che
potenziando le inclinazioni egoistiche oltre una certa soglia Plum deciderà
necessariamente di uccidere a patto che, nel mentre, non intervenga
qualcosa che gli faccia cambiare idea. Infatti, siccome la manipolazione
non comporta un desiderio irrefrenabile, se Plum sapesse che l’omicidio
avrebbe conseguenze terribili per lui, desisterebbe dal compierlo
(condizione 4). In questo modo è salvaguardata la capacità di agire
altrimenti secondo i canoni dei compatibilisti155 ma, nel caso l’omicidio
avvenisse, non si potrà dire che Plum ne sia responsabile, perché
l’intervento dei neuroscienziati è stato determinante. Questo dimostra che
le condizioni del compatibilista, anche se prese tutte insieme, non sono
sufficienti per la responsabilità morale. Pereboom passa quindi a un caso
più vicino alla situazione ordinaria.

Caso 2. Plum è stato programmato alla nascita da alcuni


neuroscienziati affinché ragioni spesso, ma non sempre, in modo
egoistico. In particolari circostanze, questa programmazione fa sì
che Plum sia causalmente determinato a compiere certe scelte,
come nel caso dell’omicidio di White. Le condizioni del
compatibilismo soddisfatte al Caso 1 sono ancora tutte valide.
L’unica differenza è che sono diverse le cause esterne del
ragionamento egoistico e, di conseguenza, della decisione presa.

Questo esempio mostra che non c’è differenza tra una manipolazione locale
e una manipolazione che, una volta implementata, condiziona i processi
decisionali futuri. Che i neuroscienziati ci comandino momento per
momento, o che il Dio leibniziano ci programmi all’inizio dei tempi, la
differenza nell’intervallo di tempo non può essere addotta come prova a
favore della responsabilità di Plum: nel Caso 2, Plum non può impiegare il
tempo che intercorre dalla programmazione all’omicidio per cambiare
schema di ragionamento. Egli è impotente su questo aspetto, proprio come
quando viene manipolato sul momento dai neuroscienziati.

responsiveness’.
155
Nella forma ipotetica “nel caso le cose fossero state in un altro modo, Plum avrebbe scelto di fare
diversamente”. Per meglio comprendere come la manipolazione possa soddisfare i requisiti del
compatibilista, basta pensare che il suo effetto non è una costrizione cieca e irrazionale. Così fosse, Plum
ucciderebbe White indipendentemente da ogni contesto e ragione, anche nel caso in cui l’omicidio
comportasse la sua stessa dipartita.

79
Caso 3. Plum è stato educato dalla sua comunità a ragionare
spesso, ma non sempre, in modo egoistico. Tale condizionamento
è avvenuto quando Plum era troppo piccolo per potersi opporre, e
fa sì che, date certe condizioni, sia determinato causalmente a
uccidere White. Le condizioni del compatibilismo sono ancora
tutte valide. Il tipo di ragionamento e la sua realizzazione
cerebrale sono identici a quelli dei Casi 1 e 2.

Il Caso 3 non porta differenze significative rispetto ai precedenti, se non


per il fatto che rende sempre meno diretta la manipolazione intenzionale da
parte degli esterni. Questa però non può essere una differenza sufficiente
per il compatibilista che voglia ritenere Plum responsabile. Infatti, se Plum
non ha colpa nei Casi 1 e 2, allora non l’avrà nemmeno nel 3. Qui
Pereboom ha alleggerito il peso dell’intervento esterno, nel senso che un
plagio mentale sembra intuitivamente più contrastabile rispetto a una
programmazione o a una manipolazione locale.

Caso 4. Il determinismo fisicalistico è vero, dunque si dà “Nec


(P0 + L) → P1”. Plum è un uomo normale che ragiona spesso, ma
non sempre, in modo egoistico. La sua decisione di uccidere
White è l’effetto dei suoi processi deliberativi che, in determinate
circostanze, necessitano l’omicidio. In generale, soddisfa le
quattro condizioni dei compatibilisti sulla responsabilità morale.

Con il quarto caso, Pereboom completa la sua strategia. Siccome Plum non
sembra responsabile tanto nel Caso 4 quanto nel Caso 3, allora non c’è
differenza tra una manipolazione intenzionale e una volontà determinata: la
decisione di Plum è sempre causata da fattori oltre il suo controllo. Stando
così le cose, il compatibilismo non riesce a soddisfare le seguenti
condizioni per la responsabilità morale:

(5) An action is free in the sense required for moral responsibility only if the
decision to perform it is not an alien-deterministic event, nor a truly random
event, nor a partially random event.

(O) If an agent is morally responsible for her deciding to perform an action,


then the production of this decision must be something over which the agent
has control, and an agent is not morally responsible for the decision if it is
produced by a source over which she has no control156

156
Pereboom, Living Without Free Will, p. 126. Bisogna precisare che la condizione 5 non contempla le
possibilità alternative perché Pereboom accetta la validità dell’esperimento mentale di Frankfurt.

80
I casi di Pereboom hanno suscitato un grande dibattito e lo stesso autore
riporta nei suoi libri critiche e controcritiche. Tuttavia, per quanto i
compatibilisti si siano sforzati di spiegare come il determinismo non
implichi di per sé l’assenza di libertà e responsabilità, le loro
argomentazioni non hanno tuttora risolto le difficoltà emerse nel paragrafo
4.3: una teoria che non riesce a rendere conto di nessuna delle due
condizioni della libertà non permette di attribuire colpe, meriti, lodi o
biasimi agli agenti.

5.4 La coerenza dell’agent-causation

Pereboom ritiene che tra le varie teorie del libero arbitrio, l’unica che non
presenti incoerenze di fondo sia quella dell’agent-causation. Essa, infatti,
riesce a rispondere alle maggiori obiezioni contro il libertarismo: la
disappearing agent objection, il regresso all’infinito e il ‘postulato vuoto’.

- Disappearing agent objection: siccome il potere causale


dell’agente è indeterminato, gli stessi antecedenti alla presa di
decisione in diverse istanze possono condurre a esiti differenti: se
nel mondo attuale io causo la mia decisione di mangiare la torta,
in un mondo possibile con gli stessi antecedenti posso causare
esattamente il contrario. Quindi, come per l’indeterminismo
causale, che io compia l’una o l’altra scelta è questione di sorte
(o di probabilità). I teorici dell’agent-causation rispondono
mettendo in evidenza la peculiarità dell’agente-sostanza: la
differenza nei due mondi possibili non è che gli eventi
antecedenti sfocino in scelte diverse senza l’intervento
dell’agente, ma che proprio l’agente abbia fatto sì che tali eventi
antecedenti si risolvessero in una maniera piuttosto che in
un’altra. Detto più semplicemente, il potere dell’agente-sostanza
fa sì che la sua scelta non sia un truly random event, né un
partially random event. Si immagini questo caso: un amico mi
chiede di mantenere un segreto, ma io so che ho il 57% di
probabilità di non rivelarlo e il 43% di spifferarlo. Nel contesto
dell’indeterminismo causale, io non sono nella posizione di
promettere il mio silenzio. Tuttavia, grazie al potere di agente-
sostanza, io posso superare le mie inclinazioni e, in ultima
istanza, assicurare il mio silenzio.157 Conclusione: l’agent-
157
Cfr. Pereboom, Free Will, Agency, and Meaning in Life, pp. 52-53.

81
causation è in grado di eludere l’obiezione della sorte e garantire
il controllo definitivo dell’azione, poiché contempla un tipo di
causalità ulteriore rispetto a quella tra eventi.

- Il regresso all’infinito: si tratta di una riformulazione della


disappearing agent objection. Quanto l’agente-sostanza A
decide, occorre un evento G di questo tipo: “A causa D al tempo
t”. Ora, sarebbe assurdo pensare che A causi di causare D, quindi
se l’agente non può essere causa di eventi di tipo G, allora non
può essere responsabile per le sue scelte. I teorici dell’agent-
causation rispondono che quando io causo una decisione, per
conseguenza logica, occorre un evento G. Questa relazione fa sì
che la responsabilità per la propria decisione si applichi anche
all’evento per cui causo tale decisione. L’obiezione però
continua: concesso che A possa essere causa dell’occorrere di G,
questo innesca un regresso all’infinito. Ogni scelta di un agente
finito e non determinato implica una metascelta libera
precedente, a sua volta da spiegare con un’ulteriore metascelta, e
così via.158 Pereboom risolve la questione mostrando come essa
sia meramente logica. L’interazione fondamentale è infatti quella
tra l’agente e la propria scelta: io causo la mia decisione, quindi
un evento G occorre, e il fatto che io causi G «is just a trivial
logical consequence of the more fundamental and explanatorily
prior interaction».159 Insomma, se l’agente è dotato del potere
causale di un motore immobile, egli, nel momento della
decisione, mette in atto una nuova catena causale la cui origine si
esaurisce nell’atto stesso, senza incorrere in regressi all’infinito.

- Il postulato vuoto: se la caratterizzazione della causalità data da


Hume è corretta, l’unico tipo di causalità possibile è quella tra
eventi (la regolarità con cui due eventi si presentano congiunti). I
teorici dell’agent-causation invece postulano un tipo di causalità
diversa, irriducibile a quella tra eventi, senza spiegarne i
meccanismi né le condizioni di possibilità. Questa causalità
dell’agente risulta assai misteriosa, assiomatica, impossibile da
caratterizzare: insomma, un concetto vuoto. La replica di
Pereboom provvede a fornire uno spazio logico per l’esistenza di

158
Cfr. De Caro, Il libero arbitrio, pp. 36-37.
159
Cfr. Perebom, Living Without Free Will, pp. 58-59.

82
tale causalità.160 Primo, numerosi filosofi hanno contrastato
l’analisi di Hume, caratterizzando la relazione di causalità come
metafisicamente basilare. Questo è possibile perché l’enunciato
“la causalità sussiste solo tra eventi” non è una verità analitica, di
conseguenza l’enunciato “le scelte sono causate dagli agenti” non
è una contraddizione. Secondo, non è vero che dell’agent-
causation non si può dare nessuna caratterizzazione. Alcuni
ritengono che il potere causale dell’agente sia costituito da più
basilari poteri causali (è il caso degli emergentisti) come per
esempio quelli dei processi neurofisiologici. Altri ancora pensano
all’agent-causation come a un potere fondamentale e semplice,
come lo sono gli invarianti fisici (p.e. la carica dell’elettrone e la
velocità della luce). Quindi non implica alcuna contraddizione
che l’agente possa avere un potere causale costitutivo e non
costituito.

Quello che Pereboom intende qui dimostrare è che la causazione


dell’agente non è una nozione intrinsecamente contraddittoria. Il ricorso
all’idea di sostanza sopperisce ai difetti delle altre teorie libertarie e, a
differenza del compatibilismo, evita di far ricorso a distorsioni linguistiche
per rendere conto della libertà. Pertanto, a livello concettuale, il libero
arbitrio rappresenta una possibilità effettiva, e non un mito. Il vero
problema sarebbe un altro: l’agent-causation si scontra con le attuali teorie
scientifiche. Il potere concettualmente legittimo è fisicamente
irrealizzabile. L’autore si allinea così ai fautori del naturalismo scientifico e
dell’eliminativismo.

5.5 L’agente come causa e la scienza: un divario insanabile?

Pereboom passa dunque sul piano empirico e mostra come le teorie


dell’agent-causation siano inconciliabili con la fisica. Nel corso degli anni
infatti si è tentato di dare una veste scientificamente accettabile al potere
dell’agente, ma tali tentativi, secondo il filosofo, sono incorsi in difficoltà
insormontabili. Il bersaglio polemico principale è l’emergentismo nelle sue
concezioni materialistiche, secondo cui la libertà è un potere di ordine
superiore che scaturisce dall’organizzazione della materia nei suoi vari
stadi.

160
Cfr. Pereboom, Free Will, Agency, and Meaning in Life, pp. 61-63.

83
Secondo il materialismo non riduzionistico, il potere causale
dell’agente è interamente costituito da componenti microfisiche, le quali
sottostanno alle leggi della fisica. La complessa organizzazione della
materia genera nuove proprietà che non esistono, e non possono essere
spiegate, al livello inferiore.161 Pereboom chiede ora di immaginare che il
mondo microfisico sia governato da leggi deterministiche: se così fosse, gli
stati dell’universo microfisico seguirebbero la nota legge “Nec (P0 + L) →
P1”. Ma se ogni stato microfisico fosse determinato, e il potere causale
dell’agente fosse interamente costituito da stati microfisici, allora anche le
scelte sarebbero determinate. Il fatto che le proprietà emergenti non siano
riducibili allo stadio inferiore non le svincola dal determinismo che domina
le loro componenti! E le cose non migliorano se le leggi di riferimento sono
quelle probabilistiche della meccanica quantistica. Se le componenti
microfisiche fossero governate dalla statistica, e i livelli superiori fossero
interamente costituiti da quelli inferiori, allora anche i livelli superiori
seguirebbero le leggi della statistica. Tuttavia, come si è visto nel
paragrafo 5.1, i partially random events non permettono di garantire un
controllo dell’agente sulle proprie azioni.
Per risolvere i problemi sopra esposti, la dottrina dell’emergentismo
forte sostiene che il potere causale dell’agente sia interamente costituito
dall’organizzazione del livello microfisico, ma aggiunge che, una volta
emerso, questo potere sia in grado di retroagire sulla propria base. Detto
più semplicemente, il mentale nasce dal fisico e, successivamente, regola il
fisico. Si pensi per esempio alla mia decisione di fare una passeggiata: dal
mio cervello emergono tutti gli stati mentali inerenti la deliberazione,
dopodiché, in virtù della mia libertà, la scelta si inserisce nei processi
neuronali e li modula affinché io possa compiere l’azione. Così facendo
però, il potere emerso svincola i propri costituenti dalle leggi che li
governano,162 e questo segna una divergenza rispetto al mondo della fisica.
Nelle parole di Pereboom: «If, as on the strong emergentist proposal, the
arrangement of the constituents can give rise to causal powers due to which
these constituents are no longer governed by these laws, then it is not clear
what sort of possibility for constitutional explanation remains».163 Quello
che l’autore sta dicendo, in sostanza, è che il potere emergente vorrebbe
161
Si consideri un esempio molto in voga tra Ottocento e inizio Novecento: gli atomi che compongono
l’acqua. Questi atomi non hanno di per sé uno stato liquido o gassoso, ma quando si legano in molecole di
H2O, ottengono tali nuove proprietà a seconda della temperatura. L’acqua dunque è composta interamente
da atomi, ma la composizione porta a qualcosa di nuovo e irriducibile.
162
Si tratta di una violazione del principio di chiusura causale dell’universo. La capacità di retroazione
volontaria del mentale sul fisico, per quanto la si faccia emergere dalle particelle elementari, finisce per
rappresentare un misterioso potere che produce qualcosa di nuovo, qualcosa che la sola causalità non
avrebbe contemplato, e che a quest’ultima viene aggiunto.
163
Pereboom, Living Without Free Will, p. 78.

84
fondarsi nella fisica, ma di fatto la sovverte rendendo misteriosa la propria
costituzione.
A questo punto Pereboom lascia spazio anche alle teorie non
fisicaliste dell’agent-causation e muove una critica di portata più generale.
La questione può essere riassunta in questo modo: può un agente libero,
poniamo, sul piano trascendentale, rendere effettive le proprie scelte nel
mondo fisico senza violarne le leggi? Si consideri un universo
deterministico, e si consideri un agente che prende le sue decisioni in
assenza di determinazione. Una scelta indeterminata sarebbe un evento
nuovo e senza antecedenti, mentre nell’universo ogni evento ha una o più
cause precedenti. Dunque, affinché la scelta libera possa integrarsi col
mondo fisico senza violarne la chiusura causale, sarebbe necessario che
questo mondo offrisse le componenti per la realizzazione materiale di tale
scelta. Queste componenti, supponiamo eventi neurali, possono darsi o non
darsi secondo la solita legge “Nec (P0 + L) → P1”. Supponiamo che si
diano. Ora, poiché la mia decisione non può violare la catena causale fisica,
io sono costretto a cogliere l’opportunità che l’universo mi offre: non posso
far comparire gli eventi neurali necessari a mio piacimento. Questo
significa che, in un universo deterministico, ogni scelta libera sarebbe il
frutto di una fortunata coincidenza, di un tempismo perfetto tra la mia
decisione trascendentale e la componente materiale necessaria per
realizzarla.
Le cose non migliorano se si considera il mondo quantistico. Qui la
probabilità che le componenti fisiche delle azioni si realizzino copre
l’intervallo da 1 a 0. Si supponga che io abbia una tazza di thè e che, per
esempio, la probabilità degli antecedenti fisici della scelta “bere il thè” sia
0.32. La statistica impone che, dato un grande numero di casi, è lecito
aspettarsi che io beva il thè circa il 32% delle volte. Questo tipo di vincolo,
però, non tocca l’agente causale perché egli, in virtù del suo potere
trascendentale, può optare per bere il thè quando vuole, o non berlo affatto.
Niente lo limita, su 100 volte, di dissetarsi circa 32. Di conseguenza, che io
di fatto realizzi la scelta nel mondo fisico il 32% delle volte non sarebbe
altro che una grande coincidenza. In tutti gli altri casi, la percentuale non
verrebbe rispettata e il mio comportamento divergerebbe da ciò che le leggi
probabilistiche prevedono. Pereboom riassume così il nodo centrale del
discorso:

Whether such laws are deterministic or statistical, the antecedent


probabilities of the physical components of human action would be fixed. If
the laws are deterministic, the antecedent probability of any such component
is either 1 or 0. If the laws are those of quantum mechanics on the standard
interpretation, such probabilities may span the range from 1 to 0. But

85
regardless of which views is true, the agent-causal libertarian’s proposal that
the frequencies of agent-caused free choices dovetail [combaciano, n.d.t.]
with determinate physical probabilities involves coincidences so wild as to
make it incredible.164

Come emerge dagli argomenti appena esposti, non sarebbe solo il


determinismo a minacciare il libero arbitrio, ma anche la sua unica
alternativa concettuale, l’indeterminismo, in ogni sua forma. Una dopo
l’altra, le teorie della libertà sono così cadute sotto i colpi dell’analisi
concettuale ed empirica della realtà, lasciando a galla un’unica teoria:
l’incompatibilismo duro.165 Tuttavia Pereboom non è preoccupato di questa
conclusione. Anzi, egli è convinto che sapere come stanno davvero le cose
possa essere utile per ripensare la nostra vita, le relazioni, la gestione del
crimine. Insomma, senza libero arbitrio si potrebbe vivere meglio e in un
mondo più giusto.

5.6 Vivere senza libero arbitrio

Il problema del libero arbitrio è fondamentale per due questioni. La prima è


che senza libero arbitrio non sembra che l’uomo possa essere ritenuto
responsabile per ciò che fa, quindi non sarebbero giustificate tutta una serie
di nozioni morali come quelle di “colpa”, “biasimo”, “indignazione”,
“retribuzione”, “dovere” eccetera. La seconda, più generale, è che senza
164
Ivi, p. 85.
165
Bisogna precisare che le tesi di Pereboom sono tutt’ora dibattute e hanno attirato numerose obiezioni.
L’argomento della manipolazione, per esempio, è attaccato dai compatibilisti i quali sostengono che tra i
Casi 3 e 4 vi sia un’importante differenza. L’errore sarebbe nella strategia di generalizzazione, la quale
non può passare le implicazioni dei Casi 1,2 e 3 al 4, perché nei primi vi è una manipolazione, e
nell’ultimo no. Pereboom risponde chiedendo di immaginare che nel quarto caso il ragionamento di Plum
sia manipolato da una macchina generatasi spontaneamente (l’attuale universo non considerato come
‘disegno intelligente’) e di domandarsi se ancora vi sarebbe responsabilità per l’omicidio di White.
L’esempio è tanto inverosimile che non ha prodotto un particolare avanzamento nel dibattito. Tuttavia,
per quanto l’argomentazione possa apparire dubbia, l’assunto per cui una volontà (completamente)
determinata non è nel controllo dell’agente mantiene un forte mordente. Per quello che riguarda l’agent-
causation e la sua conciliazione con la fisica, in particolare con l’universo probabilistico della meccanica
quantistica, alcuni filosofi non pluralisti hanno offerto una diversa analisi della probabilità
dell’occorrenza degli eventi. La questione è molto delicata, perché richiede di entrare in un dominio che
nemmeno la fisica comprende appieno. Qui posso solo limitarmi a segnalare un articolo che contesta
l’argomento di Pereboom facendo uso delle regole della statistica: B. Lundgren, Undermining Derk
Pereboom’s Hard Incompatibilist Position Against Agent-causation: A Metatheoretical Work on the
Topic of Metaphysics and Metaethics, Linköping Universitet Institutionen för kommunikation och kultur,
2013, integralmente consultabile all’indirizzo:
http://www.diva-portal.org/smash/get/diva2:605212/FULLTEXT02.pdf. Per vedere nel dettaglio il
dibattito in ambito analitico e il dialogo tra alcuni autori, consiglio J.M. Fisher, R. Kane, D. Pereboom,
M. Vargas, Four Views on Free Will, Blackwell Publishing, 2007.

86
libero arbitrio molto del vocabolario delle scienze umane perderebbe di
senso, perché non esisterebbero più deliberazioni, scelte, azioni, obiettivi,
realizzazioni e via dicendo. Senza il controllo del proprio agire, l’uomo non
sarebbe più considerato come persona, ma come uno dei tanti elementi
naturali soggiogati all’eterno divenire.
Pereboom ritiene che l’incompatibilismo duro elimini completamente
la nozione di “responsabilità morale” fondata sul merito, ma non il senso
dell’etica e della vita. Per dimostrarlo, il filosofo analizza le nozioni della
prospettiva etico-agenziale e ne testa la tenuta con l’incompatibilismo duro
il quale, in fondo, non sarebbe contrario:

 alla possibilità epistemica delle opzioni alternative.


Tipicamente si ritiene che la nozione di “deliberazione”
implichi un futuro metafisicamente aperto, perché senza
possibilità alternative non si avrebbe materiale su cui
deliberare. L’indeterminismo non ha particolari problemi a
giustificare questo requisito, mentre il determinismo
sembra impossibilitato a farlo. Pereboom però fa notare che
anche in un contesto deterministico l’uomo avrebbe la
possibilità di valutare corsi d’azione alternativi, perché non
può prevedere il futuro. Detto in altri termini, sapere che il
determinismo è vero non avrebbe conseguenze sul versante
epistemico, perché l’uomo non può sapere in anticipo
com’è determinata la sua esistenza, quali dilemmi gli si
presenteranno e come li risolverà. Pereboom quindi può
scrivere: «For deliberation does not require that more than
one option be causally possible, but rather only that more
than one option be epistemically possible […]».166

 all’efficacia causale di deliberazione e scelte. In risposta a


quanto appena detto, si potrebbe obiettare che, senza un
futuro metafisicamente aperto, deliberazioni e scelte
sarebbero completamente inutili: se il corso degli eventi è
stabilito e fisso, a cosa serve che io mi impegni per
conseguire degli obiettivi? Pereboom risponde che anche se
il futuro fosse fissato, le nostre deliberazioni
contribuirebbero alla sua produzione: «[…] the
determination of our deliberation, choiches, actions, and
166
Pereboom, Living Without Free Will, p. 137.

87
their consequences does not undermine their causal
efficacy».167 Pereboom dunque rifiuta l’epifenomenismo,
poiché secondo lui la mente non è un’emozione che, al pari
di una bussola, si limita a indicare il corso degli eventi,168
ma qualcosa che produce cambiamenti nel mondo, benché
determinati. Faccio un esempio: supponiamo che un
affermato pittore abbia il desiderio di dipingere la migliore
opera d’arte del mondo, che completi una tela al giorno, ma
non sia ancora soddisfatto. Una sera, questo pittore
apprende al telegiornale che il determinismo è stato provato
nei laboratori del CERN. L’artista subito si deprime,
convinto che i suoi sforzi siano inutili, e smette di pitturare,
pur avendo ancora il desiderio di creare l’opera più bella.
Ora, è chiaro che se il pittore si rassegna e diventa
inoperoso, non potrà mai raggiungere il suo obiettivo; ma è
anche vero che la sua rassegnazione avrebbe senso solo se
sapesse a priori dell’inutilità dei suoi sforzi. La morale
quindi è che, data l’ignoranza costitutiva dell’essere
umano, il famoso motto “no pain, no gain” varrebbe anche
in un mondo deterministico. O almeno, sarebbe razionale
perseguirlo.

 al nostro essere sensibili a ragioni. Se è vero che


deliberazioni e scelte hanno efficacia causale sul mondo,
allora è vero anche che le ragioni hanno efficacia causale su
deliberazioni e scelte. Scrive Pereboom: «Determinism
allows our action to be different had the causes of those
actions been different from what they actually were. Given
that reason can be causes of action, determinism allows that
if the reason had been otherwise, our action could be
different as well».169 Pereboom fa appello all’analisi
condizionale del verbo potere per rendere conto di come il
nostro comportamento possa variare col variare delle
ragioni. Ciò è essenziale dal punto di vista morale, perché è
condizione di possibilità della deterrenza e dell’educazione.
Infatti se tutti gli uomini non fossero sensibili a ragioni
morali, come per esempio il cleptomane, allora non avrebbe
senso istituire un sistema di doveri e obblighi. Però, anche
in questo caso, non bisogna dimenticare che Pereboom sta
167
Ivi, p. 138.
168
Questa è la versione che Wegner offre in Wegner, L’illusione della volontà cosciente, pp. 46-48.
169
Pereboom, Living Without Free Will, p. 138.

88
lavorando sul piano epistemico. Dato per vero il
determinismo, è già stabilito se una persona, poniamo un
minorenne delinquente, la smetterà di rubare motorini
(comportamento) una volta sgridato dai genitori (ragioni).
Ma noi uomini, nella nostra ignoranza del futuro, non
possiamo sapere se la ramanzina sarà efficace, e speriamo
che regole, rimproveri e discussioni abbiano effetto sul
comportamento.

È interessante notare come qui trovino spazio alcuni importanti assunti del
compatibilismo. Pereboom, forse non a caso, tende infatti a occuparsi
principalmente di un versante dell’incompatibilismo duro, cioè quello
dell’ipotesi deterministica. In questo frangente è particolarmente
importante rendere conto delle possibilità alternative affinché siano istituiti
un senso di “deliberazione” e “sensibilità alle ragioni” compatibili con
l’assenza di libertà. La chiave di volta è che noi umani potremmo anche
sapere che il libero arbitrio non esiste, ma continueremmo a ignorare il
futuro, e ciò darebbe ancora un senso al nostro agire.
A questo punto però, Pereboom necessita ancora di un elemento per
poter asserire che la credenza nell’incompatibilismo duro porterà benefici
all’esistenza umana: che la consapevolezza dell’inesistenza del libero
arbitrio influisca sui nostri atteggiamenti reattivi. In questo l’autore si
oppone alla tesi di P.F. Strawson, il quale aveva sganciato la questione
della responsabilità da quella del determinismo.170 Secondo Strawson,
infatti, che il determinismo sia vero o no, l’uomo interagente è per sua
natura portato ad attribuire la responsabilità morale in un certo modo.
Pereboom obietta: «I believe Strawson is wrong to maintain that a
theoretical challenge to the reactive attitudes based on the thesis of
universal determinism is external to the practice of holding people morally
responsible, and therefore illegitimate».171 I quattro casi di manipolazione
di Plum lo dimostrerebbero: se nei Casi 1 e 2 la nostra intuizione è che
Plum non sia responsabile, allora mitigheremo il nostro giudizio nei suoi
confronti; ma se le implicazioni dei primi casi possono essere generalizzate
fino al quarto, allora mitigheremo le nostre reazioni anche in un universo
deterministico. Detto in sintesi, credere – o non credere – nel determinismo
(e in generale all’assenza del libero arbitrio) non è qualcosa di esterno alla
nostra pratica di attribuzione della responsabilità, ma è un suo presupposto.
Di conseguenza, quando l’intuizione di libertà si scontra con la conoscenza

170
Vedi infra, paragrafo 7.2.
171
Pereboom, Living Without Free Will, p. 95.

89
opposta (la dimostrazione dell’inesistenza del libero arbitrio), le nostre
pratiche di attribuzione di responsabilità non possono che uscirne
trasformate.172
L’agente secondo Pereboom si delinea in questo modo: è un uomo che
delibera su un futuro epistemologicamente aperto, i cui stati mentali hanno
efficacia causale sul mondo; che è sensibile a ragioni e, in particolare, alla
conoscenza di non essere libero. Un uomo che non attribuisce più
responsabilità morale a se stesso e agli altri, e che quindi mitiga i suoi
atteggiamenti reattivi. Un uomo che non è condannato ai tragici scenari dei
fautori di visioni pessimistiche, perché l’incompatibilismo duro non
implica per sé l’anarchia sociale, la destrutturazione delle relazioni,
l’annichilimento della morale o la svalutazione della vita. Anzi, l’esistenza
umana, arricchita dalla consapevolezza di non poter incolpare gli altri per
le loro azioni e dai benefici che tale consapevolezza porterebbe in tanti
aspetti della vita sociale, procederebbe come sempre, solo con minor rabbia
e minor accanimento verso offensori e criminali.
Vorrei soffermarmi brevemente sul significato che questa teoria
attribuisce all’esistenza. Il ruolo della sorte infatti pervade l’opera di
Pereboom e conduce a un forte ridimensionamento della percezione di noi
stessi, forse più forte di quanto lo stesso autore voglia ammettere.
Innanzitutto, il fatto che l’atto del deliberare abbia senso solo per via
dell’ignoranza del futuro, unito al fatto che noi non avremmo il controllo su
tale deliberare, ci lascia in completa balia degli eventi. Come per il
compatibilismo, non si può dire che l’agente deliberi solo perché un
processo di questo tipo avviene all’interno di un corpo e di una mente.
Sono quei ‘factors beyond the agent’s control’, che Pereboom rievoca
continuamente, a deliberare per noi, uomini ridotti a meri ricettacoli della
forza causale dell’universo, sia essa deterministica o indeterministica. Che
una consapevolezza del genere non abbia effetti deleteri sulla psiche umana
è questione tutta da dimostrare, e i paventati effetti positivi sarebbero
apprezzabili solo da quella popolazione filosofica capace di ridare un senso
al concetto di deliberazione.
In secondo luogo, bisognerebbe capire come sia possibile dare
significato a un’esistenza determinata in ogni aspetto dalla sorte. Si è già
detto di come i nostri sforzi avrebbero senso solo perché vi sarebbe la
possibilità di un esito positivo. Ma anche il nostro carattere e le nostre
relazioni sentimentali sarebbero una pura questione di fortuna. Pereboom
non ne fa un problema, perché ritiene che nella vita di tutti i giorni siamo
portati a dare molto peso alla fortuna. Queste citazioni lo esprimono
chiaramente:
172
Cfr. ivi, pp. 124-126.

90
Si noti come prima cosa che il senso del valore di se stessi […] è legato in
misura non trascurabile a caratteristiche che possediamo e che non sono
prodotte dalla nostra volontà, e tanto meno dal libero arbitrio. Le persone
danno grande valore alla bellezza naturale, alle capacità atletiche innate e
all’intelligenza, e nessuna di queste caratteristiche è il frutto dei nostri sforzi
di volontà. Diamo valore anche agli sforzi che sono volontari, nel senso che
risultano voluti da noi […] Ma quanto importa che questi sforzi volontari
siano anche liberamente voluti? […] Le persone di solito non si
demoralizzano dopo essersi convinte che il loro buon carattere morale non è
una propria creazione e che non meritano particolare apprezzamento o
rispetto a motivo di esso. Al contrario, finiscono spesso con il sentirsi
fortunate e grate alla sorte.173

Leaving aside free will for a moment, in which sort of cases does the will
intuitively play a role in generating love for another at all? […] we would
typically prefer the situation in which the love was not mediated by a
decision. This is true not only for romantic attachments, but also for
friendship and for relationships between parents and children. […] If we
indeed desire free willed love, then we desire a kind of love whose
possibility hard compatibilism denies. Still, the possibilities for love that
remain are surely sufficient for good interpersonal relationship. If we can
aspire to the sort of love parents typically have toward children, or the kind
of romantic lovers ideally have toward one another, or the type shared by
friends who are immediately attracted to one another, and whose
relationship is deepened by their interactions, then the possibility of
fulfillment in interpersonal relationship is far from undermined.174

La sorte è onnipervasiva: dal raggiungimento dei nostri scopi, alle nostre


abilità, all’impegnarci con chi amiamo, al mantenere bello il nostro corpo e
attiva la nostra intelligenza.
Tuttavia, secondo l’incompatibilismo duro, questa condizione
ontologica dovrebbe avere solo un effetto deresponsabilizzante, e non
minare la prospettiva agentiva che, invece, sarebbe preservata sul piano
epistemico. La domanda è: sapere dell’inesistenza del libero arbitrio può
davvero avere effetti così selettivi? Oppure, per mantenere un senso della
vita in un contesto del genere, il soggetto andrebbe forse educato a credere
di poter deliberare e a non abbandonarsi alla rassegnazione? Perché se il
soggetto deve compiere uno sforzo cognitivo per riformulare i suoi
concetti, e non è in suo potere decidere se sforzarsi in questo senso, allora
gli effetti benefici dell’incompatibilismo duro non sarebbero tanto scontati
né automatici.

173
Pereboom, Lo scetticismo ottimistico su libertà e responsabilità, pp. 152-153.
174
Pereboom, Living Without Free Will, pp. 203-204.

91
5.7 Etica e crimine: un approccio revisionista

L’analisi di Pereboom giunge così ad affrontare i problemi che abbiamo


incontrato nel Capitolo 3: come bisogna trattare il criminale (determi)nato?
Il determinismo mina la possibilità stessa di un’etica? Innanzitutto, lo
studioso americano sostiene la compatibilità delle intuizioni morali del
senso comune e l’incompatibilismo duro:

Anche se arrivassimo a credere che l’autore di un genocidio non sia


biasimabile a causa di una malattia degenerativa cerebrale, continueremmo a
ritenere che le sue azioni siano state moralmente sbagliate, o almeno che è
male che abbia agito in quel modo. Perciò, in generale, negare l’attribuzione
di biasimo non sembrerebbe minacciare i giudizi che qualificano qualcuno o
qualcosa cattivo o sbagliato e, ugualmente, negare l’attribuzione di lode non
sembrerebbe indebolire le valutazioni che qualificano qualcuno o qualcosa
come buono o giusto.175

Questo estratto sembra in contrasto con quanto Pereboom scrive in Living


Without Free Will, dove assimila il comportamento immorale a eventi
naturali spiacevoli come terremoti ed epidemie.176 Infatti, terremoti ed
epidemie non sono eventi a cui si possono applicare le categorie di giusto e
sbagliato, perché non fanno riferimento alla normatività. Tuttavia, con una
nuova definizione del valore morale è forse possibile conciliare le due
citazioni. Scrive Pereboom: «Hard incompatibilist moral worth is indeed
moral, but is more similar to the value we might assign to an automobile or
a work of art».177
Secondo questa curiosa caratterizzazione, l’azione immorale avrebbe
un valore negativo per via delle conseguenze e delle emozioni che suscita
nelle persone. L’omicidio, come il terremoto, provoca danno, dispiacere,
orrore. Quindi, anche in un universo deterministico, etica e istituzioni
giuridiche manterrebbero un fondamento solido e indipendente dalla
libertà: il vero e unico obiettivo è che le persone non si comportino (o la
smettano di comportarsi) in modo immorale, e questa speranza è legittima
in un universo dove i soggetti sono sensibili a ragioni e ignorano il futuro.
L’unico obiettivo è, in poche parole, contenere danni e sofferenze.
Ma, posto che il valore morale sia ancora un valore, che dire della
nozione di “dovere morale”? Di solito, un dovere morale implica che una
persona sia in grado di adempierlo e che vi aderisca di propria volontà. Che
175
Pereboom, Lo scetticismo ottimistico su libertà e responsabilità, p. 148.
176
Pereboom, Living Without Free Will, p. 154.
177
Ivi, p. 153.

92
senso avrebbe imporre doveri all’uomo senza libertà? Soprattutto quando è
la sorte a stabilire quando e su chi la norma sarà efficace? La risposta a
queste domande la si trova nel più recente Free Will, Agency, and Meaning
in Life, dove Pereboom ristabilisce un senso di responsabilità e biasimo
rivolti al futuro. Tale risposta, però, consiste in una riconcettualizzazione
dell’obbligo morale:

[…] the ‘ought’ of axiological recommendation necessarily concerns agents


and actions they might perform. But as for all claims about what ought to be
[dover essere, n.d.t.], this use of ‘ought’ should not be understood as
presupposing a route accessible to an agent, via reason for action, to her
acting in some relevant way. One might be unsure about whether such a
route is accessible, while the use of ‘ought’ is nevertheless legitimate. […]
‘ought’ has the sense of axiological recommendation, which in turn requires
that it be epistemically open for the respondent that agent will comply
[rispetterà n.d.t.] this recommendation.178

Ancora una volta, Pereboom si richiama alle possibilità alternative


epistemiche per garantire un senso alle prescrizioni morali. Infatti non
serve che le alternative siano metafisicamente accessibili, non serve
nemmeno la libertà: basta che sia data una gerarchia di valori e che il
comportamento possa conformarsi ai migliori di essi. L’obbligo, e il
biasimo per non averlo rispettato, diventano quindi una raccomandazione
per il futuro:

I propose, in harmony with free will skepticism, to ground this model for
blame not in basic desert, but in three non-desert invoking moral desiderata:
protection of potential victims, reconciliation to relationships both personal
and with the moral community more generally, and moral formation.
Immoral actions are often harmful, and we have a right to protect ourselves
and others to who are disposed to behave harmfully. Immoral action can
also impair relationships, and we have moral interest undoing such
impairment through reconciliation. And because we value morally good
character and resulting action, we have a stake in the formation of moral
character when it is plagued by disposition to misconduct.179

L’oggetto immediato di biasimo è spesso un’azione passata, ma la


punizione per tale azione deve essere vista come un mezzo per correggere
le disposizioni persistenti al comportamento immorale. Nel caso invece il
soggetto compia una cattiva azione senza essere un recidivo, il biasimo può
ancora giocare un ruolo nella futura riconciliazione tra il colpevole e
178
Pereboom, Free Will, Agency, and Meaning in Life, pp. 141-143.
179
Ivi, p. 134.

93
l’offeso. La prospettiva di Pereboom, insomma, non lascia spazio
all’impunità e all’anarchia, ma ricerca ciò che i sistemi di diritto
normalmente perseguono: protezione, riparazione e deterrenza. Quello che
viene a mancare è solo l’impianto del retributivismo che, secondo il
filosofo, si fonda sulla vendetta e opera nell’ottica di riparare ai dolori
inflitti infliggendo nuovi dolori.180
Pereboom approda così alla tematica della giustificazione della pena e
pensa a un nuovo sistema non fondato sull’afflizione del reo. Nella
prospettiva scettica, infatti, la punizione afflittiva non può essere
giustificata nemmeno dalle teorie tradizionali della deterrenza e
dell’educazione morale.181 Piuttosto, il criminale andrebbe ripensato come
un portatore di malattie pericolose, incolpevole della propria patologia e
legittimamente isolabile nel caso rappresentasse un pericolo per gli altri:
così come nessuno si sognerebbe di infliggere punizioni severe ai poveri
malati, allo stesso modo non si dovrebbero rendere più dure del necessario
le condizioni dei carcerati. Inoltre, una volta mitigato il desiderio di
vendetta, la riabilitazione diventerebbe finalmente l’obiettivo finale delle
istituzioni giuridiche, che attualmente sembrano più interessate a infliggere
punizioni fini a se stesse. Solo nei casi più estremi, e cioè quelli in cui
sussiste una patologia ad alto rischio di comportamenti criminosi, o dove la
riabilitazione si dimostra impossibile, il reo deve essere contenuto
preventivamente o detenuto a tempo indeterminato, anche se comunque
«non vi sarebbe giustificazione per rendere la sua vita più miserevole di
quanto è necessario per tenere sotto controllo i pericoli che egli pone».182
In ultima analisi, l’obiettivo dello scetticismo ottimistico è quello di
mitigare un’emozione direttamente connessa alle nostre intuizioni sulla
responsabilità morale: la rabbia morale. Infatti, quando noi riteniamo le
persone responsabili, automaticamente siamo portati a crederle meritevoli
di subire un danno per i torti arrecati. La rabbia morale lascia spazio e
fomenta i desideri di vendetta, rende accettabili punizioni esageratamente
severe e ostacola ogni tentativo di riconciliazione. Essere consapevoli
180
Ivi, pp. 157-160.
181
Cfr. ivi, pp. 161-174. Innanzitutto, mancando prove robuste a favore del fatto che infliggere danno al
criminale possa correggerne il comportamento, sarebbe ingiusto imporre dolore senza la sicurezza
dell’effetto. Inoltre, anche fossero date prove di questo tipo, sarebbe sempre meglio preferire metodi non
afflittivi per conseguire la rieducazione. Secondariamente, nemmeno la teoria utilitaristica della
deterrenza sarebbe giustificabile, perché permette di punire gli innocenti o di infliggere condanne
oltremodo severe per massimizzare l’utile (come per il motto cinese, poi utilizzato da Mao, «colpirne uno
per educarne cento».), ma ciò non sarebbe accettato dalla società. Infine, anche le teorie che fondano la
punizione sul diritto di autodifesa hanno valenza fintanto che il criminale non viene reso inoffensivo.
Pereboom lo spiega chiedendo di immaginare che un uomo ostile ci aggredisca e che noi, dopo una breve
colluttazione, riusciamo a immobilizzarlo fino all’arrivo della polizia. Nel mentre lo teniamo fermo,
sarebbe ingiusto sfogare la nostra rabbia colpendolo alla testa, perché l’aggressore non è più in grado di
nuocerci. Allo stesso modo, sarebbe ingiusto far soffrire dei carcerati già in custodia della legge.
182
Pereboom, Lo scetticismo ottimistico su libertà e responsabilità, p. 151.

94
dell’inesistenza del libero arbitrio porterebbe alla rinuncia dell’idea di
responsabilità morale (retrospettiva) e quindi a quella rabbia che tanto
abbruttisce la vita umana:

[…] l’espressione della rabbia morale ha spesso effetti negativi per coloro
verso i quali è diretta, e anche per coloro che esprimono la rabbia stessa.
Frequentemente, la sua manifestazione è volta a provocare quasi null’altro
che dolore fisico ed emotivo. Come conseguenza, la rabbia morale tende a
danneggiare le relazioni, a ostacolare il funzionamento delle organizzazioni
e a distruggere le società. In casi estremi, può indurre le persone a torturare
e a uccidere. […] La richiesta di giustificare moralmente un comportamento
dannoso è in generale molto forte, e la manifestazione della rabbia morale
spesso risulta dannosa. […] Spesso giustifichiamo la manifestazione della
rabbia sostenendo che chi commette illeciti è moralmente responsabile nel
senso che implica il puro merito per quello che quella persona ha
commesso. Se ci convincessimo che non si ha il tipo di libero arbitrio
necessario per la responsabilità morale, considereremmo illegittime tali
giustificazioni.183

Ciò non equivale a rendere ingiustificata ogni espressione di rabbia, poiché


essa ha un valore comunicativo e offre una motivazione per difenderci
dagli abusi e dall’oppressione. Quello che Pereboom vuole evitare sono
piuttosto l’accanimento e il sadismo. Anche sul lato delle normali relazioni
interpersonali, il filosofo vorrebbe sostituire la rabbia morale con
espressioni di disappunto e manifestazioni di tristezza, in modo da poter
indurre un cambio di comportamento in chi ci offende. In poche parole, la
convinzione scettica «can serve to calm attitudes such as anger and
dissatisfaction, thereby making one’s emotional life less turbulent and more
serene».184
A mio avviso la proposta di Pereboom è molto interessante, ma
rimangono dubbie alcune questioni. In primo luogo, bisogna capire come si
possono mantenere dei concetti normativi come “giusto” e “sbagliato” se si
equipara l’agire morale a un evento fisico naturale. Secondariamente,
andrebbe spiegato come può l’incompatibilismo duro dare tanto rilievo alla
dignità della persona la quale, in ultima istanza, si rimette completamente
alla sorte. Quello che sembra mancare è un solido fondamento che permetta
di giustificare il fatto che gli ergastolani andrebbero trattati con riguardo e
non eliminati. L’uomo forse non debella i virus che scatenano le epidemie?
Non elimina gli animali che minacciano le sue produzioni? Non cerca di
abbattere ogni ostacolo naturale non appena gli si presenta la possibilità?
Ebbene, Pereboom rifiuta l’utilitarismo radicale e con esso ogni possibile

183
Ivi, pp. 154-155.
184
Pereboom, Free Will, Agency, and Meaning in Life, p. 175.

95
giustificazione dell’eliminazione dei criminali irrecuperabili, ma su che
base?
Un ultimo dubbio, infine, è se smettere di credere nel libero arbitrio
produrrà davvero dei benefici nelle relazioni interpersonali.

5.8 Smilansky: la necessità dell’illusione

La pars construens di Living Without Free Will è in buona parte una


risposta allo scetticismo pessimistico presentato un anno prima da
Smilansky in Free Will and Illusion.185 In questo testo il filosofo israeliano
contesta duramente l’idea che un ordine morale e sociale sia possibile senza
le nozioni di responsabilità e merito. Egli ritiene piuttosto che l’illusione
della libertà giochi un ruolo fondamentale nel preservarci dai disastrosi
effetti che produrrebbe l’adesione al determinismo duro e, in genere, a tutte
quelle visioni che rifiutano il libero arbitrio. A mio avviso le
preoccupazioni di Smilansky non sono del tutto infondate e l’opzione di
Pereboom non offre una risposta soddisfacente ai tragici scenari prospettati.
Smilansky inizia la sua trattazione sottolineando come il nodo centrale
del problema del libero arbitrio sia la questione del controllo – cioè se e
quanto le nostre azioni e scelte dipendano da noi (up to usness) – perché è
alla nostra capacità di autodeterminazione che rimandano i sistemi morali,
gli atteggiamenti reattivi e la concezione di sé. Delle varie teorie che si
approcciano al problema, il libertarismo si è dimostrato incoerente o
empiricamente infondato, quindi le uniche prospettive analizzabili restano
quelle del compatibilismo e del determinismo duro.186 Il primo contempla
la possibilità di un controllo locale dell’azione, esercitabile dalla persona
sana ma non, per esempio, dal cleptomane. Il secondo spiega che questo
controllo non è in potere dell’agente, ma si riduce a una produzione
naturale non diversa da un tornado, un terremoto, o un’epidemia.
Premesso questo, Smilansky adotta una posizione che lui stesso
chiama ‘Fundamental Dualism’, ovvero riconosce che entrambe le visioni
hanno parzialmente ragione e che quindi andrebbero tenute assieme. Da un
lato, il compatibilismo ha ragione nel parlare di libertà di fare, perché
anche in un universo deterministico possono darsi desideri, deliberazioni,

185
S. Smilansky, Free Will and Illusion, Clarendon Press, Oxford, 2000 (per la presente ricerca ho
consultato la versione e-book del testo).
186
Smilansky parla principalmente di hard determinism, ma siccome è convinto che nemmeno
l’indeterminismo possa offrire un fondamento per il libero arbitrio, le sue considerazioni si avvicinano
alla visione di Pereboom. Cfr. S. Smilansky, Free Will, Fundamental Dualism, and the Centrality of
Illusion, 2011, in R. Kane (edited by), The Oxford Handbook of Free Will, pp. 426-427.

96
azioni che discendono da tali desideri e deliberazioni, e tutto ciò è
sufficiente per rendere conto della responsabilità degli agenti e delle
intuizioni in materia di giustizia. Dall’altro lato, il determinismo duro dice
il vero quando nega ogni possibilità di autodeterminazione: la libertà di
volere non esiste.
La prima cosa che emerge è che la verità del determinismo mina in
profondità la posizione concorrente, e Smilansky lo sa bene. Infatti, dice il
filosofo, se l’agente non ha controllo su nulla, allora ogni cosa che
facciamo o ci accade è dovuta alla sorte. E se tutto si riduce alla sorte,
allora punire quelli che i compatibilisti ritengono responsabili non è altro
che una tremenda ingiustizia (ultimate injustice): «Matters of luck, by their
very character, are the opposite of the moral […]».187 Ma come è possibile
tenere assieme due posizioni così agli antipodi e le relative intuizioni?188
Smilansky ritiene che sia l’illusione dell’agency a impedire che il lato
deterministico prevalga: «Illusion is crucial in pragmatically safeguarding
the compatibilistically defensible elements of the “common form of life”.
[…] Illusion is, by and large, a condition for the actual creation and
maintenance of adequate moral reality».189 L’illusione sarebbe una
necessità pragmatica che crea una realtà mentale dove l’uomo è padrone
delle sue azioni, una realtà da cui discende tutto ciò che è funzionale al
vivere associato. Senza di essa, la verità del determinismo tenderebbe a
dominare e i danni, con buona pace di Pereboom, sarebbero gravissimi. Il
motivo di tanto pessimismo risiede in quella che Smilansky chiama
‘superficialità’ (shallowness) del compatibilismo, una debolezza che si
manifesta sui versanti etico, personale-esistenziale e pragmatico.
Sul piano etico, si può pensare al caso di un criminale che sia stato
punito secondo la ‘Compatibilist Justice’: egli viene punito perché niente
187
S. Smilansky, Compatibilism: The Argument from Shallowness, in Philosophical Studies 115, Kluwer
Academic Publishers, 2003, pp. 257-282, consultabile al link:
https://www.academia.edu/1426789/Compatibilism_The_argument_from_shallowness.
188
Prima di procedere oltre, si deve notare che questo è il problema che Pereboom cerca di risolvere nei
suoi testi. Il filosofo americano infatti rifiuta l’utilitarismo radicale, da molti considerato come l’unica
teoria etica compatibile col determinismo, e cerca di mantenere un senso alle nozioni di deliberazione,
giustizia, realizzazione personale, punizione, etc. sfruttando alcuni assunti del compatibilismo. Il punto di
rottura sta nel rifiuto di un senso di responsabilità fondato sul merito, cosa che Smilansky ritiene
fondamentale per preservare le nozioni appena elencate. Il prezzo pagato da Pereboom, tuttavia, è alto: il
senso della vita si riduce alla gratitudine per quanto di buono ci capita e questo ‘buono’, insieme ai valori
morali, si avvicina molto a una proprietà pseudo-estetica. Smilansky accenna a questa proprietà pseudo-
estetica della morale in S. Smilansky, The Ethical Advantages of Hard Determinism, in Philosophy and
Phenomenological Research, Vol. LIV, No. 2, Giugno, 1994, pp. 360-361, consultabile interamente al
link: http://www.jstor.org/stable/2108494?seq=1#page_scan_tab_contents.
189
Smilansky, Free Will, Fundamental Dualism and Centrality of Illusion, p. 438. La ‘common form of
life’ è l’essere umano con le sue intuizioni morali e di agency che gli permettono di creare un ordine
morale stabile.

97
l’ha costretto ad agire secondo la sua volontà immorale o, detto in altro
modo, perché aveva la capacità e l’opportunità di non commettere il reato.
Il determinismo ci dice però che il criminale non ha avuto la possibilità di
decidere cosa diventare e cosa scegliere, e che punirlo sarebbe ingiusto:
l’esistenza di differenti gradi di controllo perde completamente di rilevanza
una volta che si sia considerata l’assenza di autodeterminazione.
Sul versante personale-esistenziale, invece, senza la convinzione che
le azioni siano in nostro potere verrebbe meno il rispetto per se stessi e per
gli altri. Dove il compatibilismo permette di lodare una persona per essere
riuscita in una grande impresa e non, per esempio, per un fattore casuale
come il semplice colore della pelle, il determinismo livella entrambe le
cose riducendole a prodotti della sorte. Nella prospettiva finale non
esisterebbero la realizzazione personale, l'orgoglio per tale realizzazione,
un senso del valore, la stima reciproca. Cose come l'impegno del partner,
l'empatia di un amico e l'onestà di un fratello sarebbero apprezzate come
eventi piacevoli, ma non come azioni lodevoli di buona volontà. Pensieri
del tipo "Tu mi ami, ed è bello, ma non sei veramente tu che vuoi amarmi"
oppure "La tua generosità mi fa molto piacere, ma siccome non dipende da
te, non devo esserti grato", diventerebbero la norma.
Infine, sul versante pragmatico, non potersi appellare all’idea di
merito avrebbe importanti conseguenze sulle generazioni future. Oltre a
una generalizzata degradazione del sé per cui gli uomini comincerebbero a
non vedersi più come agenti,190 oltre alla caduta di ogni genuino sentimento
di rispetto reciproco, sarebbe impossibile educare moralmente i bambini.
La prospettiva deterministica fornirebbe infatti la scusante definitiva:
nessuno è, in ultima istanza, colpevole, e un bambino a cui fosse
accessibile questa scusante non potrebbe sviluppare un senso di
responsabilità né provare rimorso (compunction). Non provare rimorso gli
impedirebbe di considerare le cattive azioni passate come qualcosa da non
ripetere, compromettendo lo sviluppo morale e disincentivando qualunque
desiderio di migliorarsi.191 Insomma, non avere un senso di responsabilità
retrospettivo minerebbe la possibilità di averne uno rivolto al futuro.
Quello che Smilansky sta dicendo è che l'intuizione della libertà – e il
senso di responsabilità che ne deriva – sono condizioni di possibilità della
vita etica e del rispetto di sé. Senza l'illusione del libero arbitrio, noi non
riusciremmo a 'funzionare' bene, né psicologicamente né moralmente,
190
Cfr. Smilansky, Free Will and Illusion.
191
Ciò, a mio avviso, comporta un grande problema per il sistema di Pereboom, nel quale le persone
dovrebbero accettare di essere responsabili per il futuro senza provare un genuino sentimento di
responsabilità. Per il filosofo americano, un futuro epistemologicamente aperto e una non meglio
precisata capacità di distinguere il bene dal male consentono il mantenimento dell'ordine sociale e della
vita morale. Smilansky invece sostiene che senza l'illusione dell'autodeterminazione, nulla di tutto questo
sarebbe sufficiente per vincere la deriva eliminativista.

98
perché l’idea basilare di merito è fusa con i concetti dell’agentività e della
moralità. Se il primo cade, cadono anche i secondi, e viceversa. Non è un
caso allora che i tentativi di formulare sistemi etici compatibili col
determinismo non riescano a trovare un sostituto adeguato all'idea basilare
di merito. Un esempio diretto lo fornisce la nozione di “innocenza”
nell’utilitarismo e nel contrattualismo, cioè in dottrine virtualmente
compatibili con l’assenza di libertà metafisica: per l'utilitarista, punire
l'innocente sarebbe ingiusto perché contro quelle regole stabilite per
massimizzare l'utile, mentre per il contrattualista sarebbe ingiusto punire
l'innocente perché contrario a quelle regole costruite da agenti liberi (di
fare), informati e interessati alla regolazione delle proprie vite. Nessuna
delle due prospettive, però, dà un valore all'innocenza in sé: «Neither, it
seems natural to say, is really concerned with true morality or justice, in the
free will context. Only the desert-based account is unwilling to accept
social arrangements whereby some innocent individual will pay the price of
the social good, and makes innocence in itself an inherently superior moral
concern».192
Riassumendo, Smilansky ritiene che 1) il libero arbitrio non esista e
che la questione dell'autodeterminazione sia il problema centrale; 2) che
compatibilismo e determinismo duro sono posizioni che rendono conto di
una parte della verità, pur offrendo soluzioni opposte al problema del
controllo; 3) che la consapevolezza che non vi sia autodeterminazione
avrebbe effetti nefasti sulla psicologia e sulla vita sociale dell'individuo e 4)
che l'illusione del libero arbitrio sia fondamentale affinché il rispetto di sé e
la moralità non perdano di senso. Tale illusione si pone come una barriera
contro i pericoli del determinismo duro, sostenendo e potenziando quella
porzione di verità in mano al compatibilismo.193 Se la teoria di Smilansky è
corretta, 'living without free will' rischia di essere ben più spiacevole di
quanto Pereboom non pensi.

192
Smilansky, Compatibilism, The Argument from Shallowness, p. 277.
193
Per Smilansky l’illusione della libertà non è immune dalla consapevolezza del determinismo, per
questo serve uno sforzo attivo affinché i suoi effetti positivi siano mantenuti. Il rischio è che la tendenza
deresponsabilizzante soverchi completamente il senso di agentività: interiorizzare il determinismo ci
porterebbe a dare scarsa importanza al nostro sentimento di libertà. Ciò rende paradossale il ruolo del
filosofo, che da una lato cerca la verità, ma dall’altro si rende conto che non può vivere aderendo
completamente ad essa. (Cfr. Smilansky, Free Will and Illusion). Nannini, che si dice eliminativista
moderato, è invece convinto che la credenza che non siamo liberi e l’evidenza fenomenologica
dell’agency possano convivere tranquillamente. Così come noi percepiamo le linee di Müller-Layer come
due segmenti di diversa lunghezza, anche se sappiamo che sono uguali, allo stesso modo continueremmo
a sentirci liberi nonostante sapessimo che non esiste il libero arbitrio: l’illusione è sempre operativa. Per
Nannini, «il neo-eliminativista si comporta come se il libertarismo fosse vero, ma con il grande vantaggio
che la sua teoria, mentre preserva ai fini pratici il nesso tra l’agire sentendosi liberi e l’essere responsabili
di ciò che si fa, non entra tuttavia in conflitto con una concezione scientifica del mondo» (Nannini,
Naturalismo cognitivo, pp. 157).

99
Va segnalato che l’analisi del filosofo israeliano non è comunque
immune da critiche, soprattutto per la radicalità con cui connette l’apparato
della civiltà al libero arbitrio. Egli non considera l’ipotesi per cui la pratica
può includere la libertà tra i suoi oggetti senza ridursi a essa. P.F. Strawson
e Bagnoli argomentano persino a favore del fatto che la razionalità pratica
svolge la propria funzione a partire da un contesto interattivo e normativo
indipendente dalla questione del libero arbitrio. De Monticelli, invece,
sostiene che la libertà sia condizione di possibilità della razionalità pratica,
e che pertanto è impossibile che sia un’illusione a fondare moralità e
civiltà.194 Testerò questi argomenti nell’ultimo capito ma, prima di ciò,
intendo occuparmi degli esperimenti di psicologia morale, i quali hanno
cercato di sostanziare le speculazion