Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Relatore:
Chiar.ma Prof.ssa MARA MELETTI
Correlatori:
Chiar.mo Prof. ITALO TESTA
Chiar.mo Prof. FAUSTO CARUANA
Laureando:
GIUSEPPE TURCHI
N. Mat.
253711
1
Indice
Introduzione.....................................................................................................................5
Capitolo 1. Naturalismo scientifico: nascita e questioni.............................................11
1.1 Il portato della rivoluzione scientifica..............................................................11
2
1.2 L’empirismo logico e la filosofia fondazionale................................................12
1.3 Quine: l’attacco al neopositivismo...................................................................14
1.4 Il naturalismo scientifico contemporaneo........................................................17
Capitolo 2. Il concetto di “natura”...............................................................................21
2.1 Dupré e Stroud: le contraddizioni del fisicalismo............................................23
2.2 Atteggiamenti di larghe vedute.........................................................................25
2.3 Etica naturalizzata e normatività.....................................................................28
Capitolo 3. Atteggiamenti lombrosiani e crisi disciplinari.........................................35
3.1 La frenologia tra scienza e pseudoscienza............................................................36
3.2 Il criminale nato....................................................................................................40
3.3 La crisi della psichiatria e l’autorità delle neuroscienze......................................43
3.4 Brain Overclaim Syndrome...................................................................................47
3.5 Libet e Soon: esperimenti e conclusioni affrettate................................................49
3.6 L’influenza delle scoperte neuroscientifiche sulla deliberazione giuridica..........53
3.7 Il caso dello psicopatico: un dilemma scientifico e giuridico...............................56
3.8 Alcune conclusioni.................................................................................................59
Capitolo 4. Teorie contemporanee del libero arbitrio................................................61
4.1 Quale libertà? Quale determinismo?....................................................................63
4.2 Forme di incompatibilismo libertario...................................................................67
4.3 Il compatibilismo...................................................................................................71
4.4 Incompatibilismo e scetticismo..............................................................................76
Capitolo 5. Incompatibilismo duro: un prodotto del naturalismo scientifico..........79
5.1 L’incoerenza dell’indeterminismo causale (o event-causation)............................80
5.2 L’incoerenza del libertarismo non causale...........................................................82
5.3 L’incoerenza del compatibilismo...........................................................................84
5.4 La coerenza dell’agent-causation..........................................................................88
5.5 L’agente come causa e la scienza: un divario insanabile?...................................90
5.6 Vivere senza libero arbitrio...................................................................................93
5.7 Etica e crimine: un approccio revisionista............................................................98
5.8 Smilansky: la necessità dell’illusione..................................................................103
Capitolo 6. La filosofia sperimentale e l’intuizione della libertà.............................109
6.1 La dialettica tra intuizioni compatibiliste e incompatibiliste..............................111
6.2 Io non sono libero, quindi posso essere egoista..................................................120
Capitolo 7. Responsabilità e libero arbitrio: una correlazione necessaria?............125
7.1 Quale responsabilità?..........................................................................................125
7.2 P. Strawson e H. Frankfurt: argomenti a favore del compatibilismo e critiche. 127
7.3 La responsabilità morale secondo il costruttivismo contemporaneo..................133
7.4 L’approccio fenomenologico contro le forme di compatibilismo........................137
Conclusioni...................................................................................................................143
Il rapporto tra filosofia e scienza: le problematiche in conflitto...............................143
Evoluzionismo, pragmatismo, strumentalismo..........................................................146
Il problema della libertà in chiave pragmatista........................................................151
La scienza e il moral enhancement: una possibile linea di ricerca..........................157
Bibliografia...................................................................................................................163
3
Introduzione
4
scientifici, che mirano alla dissoluzione della filosofia nella scienza. Eredi
del positivismo ottocentesco, questi studiosi professano un realismo
scientifico secondo cui persona, mente, volontà e moralità o si mostrano
traducibili in un linguaggio scientificamente accettabile, o scompaiono
dall’orizzonte dell’esistenza. I naturalisti scientifici rigettano qualunque
tipo di entità o spiegazione soprannaturale, diffidano di tutto ciò che è
trascendentale, professano il monismo ontologico e si rimettono fedelmente
al principio di chiusura causale dell’universo. In risposta, alcuni pensatori
hanno ricomposto i cocci della torre d’avorio trovandovi nuovamente
riparo (gli antinaturalisti), altri hanno deciso di prendere sul serio la sfida
della scienza e adottare prospettive di più larghe vedute (naturalisti liberali,
naturalisti pluralisti). Ne è seguito un acceso dibattito in merito all’etichetta
“naturalismo”, la quale ha assunto una grande quantità di significati a
seconda della risposta offerta alla domanda “che cos’è la natura?”.
In questo libro, la riflessione teoretica è condotta al servizio della
teoria etica. Il mio intento è quello di mostrare le ricadute dello scientismo
in etica, cioè di come un’immagine naturalizzata dell’uomo possa influire
sulla condotta e sulla riflessione morale. Molti studiosi dell’età
contemporanea hanno utilizzato le scienze naturali per giustificare, ad
esempio, l’utilitarismo radicale, le teorie del contenimento preventivo e
l’abbandono del retributivismo. D’altronde, se l’uomo non è che il prodotto
delle particelle che lo compongono, o del suo cervello, come può dirsi
libero? E senza libero arbitrio, come può essere ritenuto responsabile delle
sue azioni? E se la responsabilità morale non esiste, quali provvedimenti
dovrebbero adottare le istituzioni? Cercherò di affrontare queste domande
da più punti di vista, sviluppando il discorso nel seguente modo.
Nel primo capitolo offrirò una ricostruzione del contesto storico in
cui ha preso piede il naturalismo scientifico, partendo dalla Rivoluzione
Scientifica, passando per il Neopositivismo e la critica di Quine, fino ad
arrivare al riduzionismo contemporaneo. Il mio obiettivo qui sarà mostrare
come la scienza abbia assunto, nel corso del tempo, un ruolo privilegiato
nel determinare l’unica ontologia legittima, e di come la filosofia abbia
perso il suo antico carattere fondazionale.
Nel secondo capitolo prenderò in considerazione la critica allo
scientismo dei cosiddetti ‘naturalisti liberali’, capeggiati da De Caro e
Macarthur. Un argomento in particolare, ovvero quello della normatività
insita nella scienza, si rivelerà una delle armi migliori contro il
riduzionismo. Solleverò tuttavia alcuni dubbi in merito alle modalità con
cui questo movimento estende il concetto di “natura”. Inoltre, introdurrò il
problema etico del naturalismo – ricordando l’argomento di Moore contro
la fallacia naturalistica – e alcuni studi di neuroetica per mostrare, da un
5
lato, le complessità che accompagnano il tentativo di definire il bene
attraverso categorie naturali e, dall’altro, la stretta connessione tra le nostre
facoltà morali e i loro prerequisiti cerebrali.
Nel terzo capitolo parlerò del dibattito sulle implicazioni delle
neuroscienze in etica e nel diritto, partendo dalla riflessione della
frenologia per poi passare a quelle di Lombroso e della neuropsicologia
contemporanea. L’ideale di una riduzione completa della mente al cervello,
nata alla fine del Settecento e sviluppatasi fino a oggi, si trova spesso
associata a concezioni deterministiche che mettono in questione la libertà
di scelta degli individui. Le figure di Gall, Lombroso, Alimena e Delgado
sono state le prime a concepire il discorso della criminalità a prescindere
dalla responsabilità morale, pensando il reato come uno sfortunato
fenomeno naturale da affrontare, piuttosto che col biasimo e la semplice
punizione retributiva, con controllo, cure mediche e interventi sul cervello.
Il dibattito in merito a un possibile neurodiritto è tuttora in corso, fomentato
da esperimenti pionieristici come quelli di Libet e Haynes che si
propongono di dimostrare l’inesistenza del libero arbitrio. Sosterrò tuttavia
che tali esperimenti non possono dire alcunché in merito a cosa sia una
scelta libera e che, come dimostra il caso della psicopatia, è molto difficile
individuare delle basi biologiche del crimine.
L’analisi del quarto capitolo prende avvio dalla sezione precedente e
tematizza il problema della libertà per come è affrontato oggi nella
tradizione anglosassone. Esporrò dunque le teorie compatibiliste e
incompatibiliste nei loro nodi essenziali, fornendo un background
concettuale funzionale al successivo studio, nel quinto capitolo,
dell’eliminativismo. Qui prenderò in considerazione le riflessioni di Derk
Pereboom, filosofo statunitense che vede nel libero arbitrio qualcosa di
incompatibile sia col determinismo che con l’indeterminismo. A mio
avviso l’analisi di Pereboom si rivela convincente nel mostrare come una
concezione scientifico-naturalistica del mondo non possa conciliarsi con la
metafisica del libero arbitrio. Meno convincente è la speculazione sugli
effetti che una tale consapevolezza potrebbe avere sull’uomo comune.
Secondo Pereboom, infatti, abbandonare l’idea della libertà avrebbe effetti
terapeutici sulle nostre vite e non cambierebbe il nostro modo di rapportarci
con le sfide, il valore personale e la dignità umana. A tale visione il filosofo
israeliano Saul Smilansky obietta che l’illusione del libero arbitrio è
necessaria per mantenere un senso morale e che senza di essa sarebbe
impossibile educare i bambini del futuro.
Nel sesto capitolo le intuizioni di Pereboom e Smilansky saranno
messe alla prova in numerosi esperimenti di psicologia morale
appositamente configurati per comprendere se l’idea di libertà giochi o
6
meno un ruolo di primo piano nella pratica morale. I suddetti esperimenti,
tuttavia, mostreranno grandi discordanze nei risultati tali da rendere dubbia
la loro effettiva utilità nell’indagine filosofica. In particolare, non si riesce a
capire se l’uomo comune sia per natura compatibilista o incompatibilista,
giacché i suoi giudizi sulla responsabilità morale fluttuano in modo
imprevedibile rispetto alla credenza nel libero arbitrio. Alcuni ritengono
che la pratica di attribuzione della responsabilità sia radicata nel desiderio
di punizione e non nella credenza nella libertà. Altri pensano che i soggetti
sperimentali non comprendano appieno le implicazioni del determinismo e
per questo ritengano le persone libere, quindi responsabili, anche in
contesti antilibertari.
Il settimo e ultimo capitolo sarà la sintesi dei precedenti poiché
affronterà la questione fondamentale del free-will problem non su base
sperimentale, ma concettuale: può darsi responsabilità morale senza
libertà? De Caro e i libertari offrono una risposta negativa a questa
domanda, mentre eliminativisti e compatibilisti tendono a preservare una
pratica di attribuzione della responsabilità nonostante l’inesistenza del
libero arbitrio. Particolarmente innovativi sono gli argomenti di P.F.
Strawson e Carla Bagnoli, che mettono in primo piano il fatto che l’uomo
associato, per natura, si trova in un contesto governato da norme: per loro
la responsabilità è una relazione che si instaura tra individui e non una
proprietà metafisica. Entrambi gli autori sono convinti che la razionalità
pratica sia tutto ciò che serve per mantenere un ordine morale e sociale, e
che il funzionamento di tale razionalità non dipenda dal libero arbitrio.
Questa, che può essere vista come una forma di compatibilismo, trova una
interessante obiezione nell’analisi fenomenologica di Roberta De
Monticelli, la quale cerca di mostrare come una qualche forma di libertà sia
necessaria tanto per avere un linguaggio quanto per possedere un grado di
razionalità pratica.
Nelle Conclusioni, infine, sosterrò che le concettualizzazioni del
rapporto tra filosofia e scienza sono viziate da un problema di fondo nelle
strategie di argomentazione metafisica. Come il problema della libertà
dimostra, se si assume che la fisica abbia valenza metafisica, diventa
impossibile preservare l’idea di un agente libero: quando i concetti di
“determinismo” e “indeterminismo” arrivano a descrivere la struttura
ultima della realtà, nessun individuo può essere ritenuto moralmente
responsabile per le proprie azioni. Almeno per lo stato attuale della
conoscenza. Il naturalista scientifico dunque dovrebbe sempre essere un
incompatibilista radicale. Invece naturalisti si dicono pure i compatibilisti –
che formulano le loro teorie proprio perché siano in accordo con le scienze
– e persino certi libertari (p.e. i naturalisti liberali). Alla fine, la nozione di
7
“naturalismo” risulta comprendere sotto di sé le teorie più disparate, ma al
prezzo di numerose incongruenze: il compatibilismo infatti risulta
artificioso, mentre il naturalismo liberalizzato adotta un pluralismo
ontologico con esiti tendenzialmente antiscientifici. Per questa serie di
motivi io richiamo una diversa forma di naturalismo pluralistico, cioè un
naturalismo che conferisce pari dignità ontologica ai molteplici oggetti
dell’esperienza senza ricadere nel riduzionismo e nel soprannaturalismo: il
pragmatismo di John Dewey. Credo infatti che il grande pregio di Dewey
sia stato quello di ricordare che la scienza è uno strumento evolutosi per far
fronte alle esigenze dell’ambiente, così come lo sono la mente umana, il
linguaggio e la morale. Assumere come dato fondamentale l’atomo,
l’elettrone o il quark non sarebbe pertanto una mossa legittima: il dato
fondamentale è l’orizzonte dell’esperienza, ovvero lo sfondo delle cose
‘interagibili’ che comprende sia gli oggetti della fisica che quelli della
cultura. Questo sfondo né fisso né immutabile, ma sempre in divenire,
esaurisce ciò che è reale e naturale. Adottare una prospettiva pragmatista
significa dunque abbandonare i problemi morali del determinismo e
dell’indeterminismo, evitare di cercare una proprietà essenziale come il
libero arbitrio e focalizzarsi piuttosto sul funzionamento dell’uomo che
valuta, ragiona e sceglie. In etica, significa sperimentare modalità
d’intervento che tengano conto dell’uomo come corpo, come ragione e
come membro di una società.
Nella presente ricerca ho cercato di fare tesoro dei vari corsi seguiti nel
quinquennio 2010/2015 all’Università degli Studi di Parma. Posso dire
quindi che ogni insegnamento, in misura più o meno marcata, è stato fonte
d’ispirazione e trova qui un piccolo spazio. Ringrazio pertanto la prof.ssa
Mara Meletti che, oltre a darmi la possibilità di presentare questo lavoro, è
riuscita a stemperare il mio ingenuo scientismo permettendomi di acquisire
più larghe vedute. Ringrazio i correlatori prof. Fausto Caruana e prof. Italo
Testa che mi hanno introdotto, guidato e appassionato rispettivamente alle
neuroscienze e al pragmatismo di John Dewey. Ringrazio i prof. Wolfgang
Huemer e Andrea Bianchi, che molto pazientemente hanno discusso con
me di naturalismo e libertà offrendomi di volta in volta preziosi
suggerimenti. Se le mie tesi di laurea trattano di naturalismo, è in buona
parte merito loro. Un grazie anche alla prof.ssa Beatrice Centi per le
indicazioni riguardo la fenomenologia e il concetto di “persona”, e alla
prof.ssa Rita Messori, che per prima mi ha presentato le nozioni di “natura
organica” e “conoscenza preriflessiva”. Un ringraziamento poi ad
Alessandro Bosi, i cui corsi mi hanno portato a comprendere l’urgenza di
8
certe problematiche sociali, fomentando il mio interesse per l’educazione
del cittadino e la riforma sociale. Ringrazio inoltre il prof. Mario De Caro
per avermi consigliato la lettura dei saggi di Pereboom e per avermi aiutato
a sciogliere alcune perplessità circa il rapporto tra libertà e responsabilità, e
il prof. Roberto Frega, che con grande gentilezza mi ha fornito ulteriori
articoli su Dewey e il pragmatismo contemporaneo.
9
1.1 Il portato della rivoluzione scientifica
10
soddisfacente, del tipo: come si caratterizza il concetto di “natura”? Esso è
interamente esaurito dalle spiegazioni scientifiche, oppure vi sono
fenomeni che si sottraggono al loro dominio? Date le conoscenze attuali,
naturalizzare la sfera dell’umano (mente, libero arbitrio, morale) è
un’operazione legittima? Se sì, offre dei vantaggi evidenti? In mezzo a tali
questioni la filosofia ha cercato e cerca una propria specificità.
11
termine che non ha alcun riferimento empirico) e\o di combinare parole
sensate violandone la sintassi logica (ad es. sostantivando “nulla”, un
quantificatore, per comporre enunciati come “il nulla nullifica”).
Quest’ultimo caso rappresentava, secondo Carnap, uno degli errori tipici
della filosofia e offriva l’occasione per mostrare l’efficacia dell’attività di
analisi: ricorrendo alla logica, la (buona) filosofia era in grado di
evidenziare come la sintassi grammaticale consentisse di formulare
proposizioni insensate e correggere tale inconveniente.5
Carnap spiegò poi come ogni parola avesse una proposizione
elementare che ne definisse la sintassi logica (p.e. “x è scapolo” nel caso di
“scapolo”). Il significato delle parole dipendeva dalla verificabilità
empirica della sua proposizione elementare o dalla possibilità di
quest’ultima di essere inferita a partire da proposizioni protocollari.6 Le
proposizioni protocollari, in quanto direttamente connesse a un dato di
esperienza, scongiuravano il rischio di circolarità (cioè che un termine, p.e.
“pari”, potesse essere definito solo come il contrario di “dispari”, e
viceversa) e fungevano da base per la costruzione delle espressioni sensate.
Con ciò si rendeva conto della sinonimia e della possibilità di avere
enunciati veri in virtù del solo significato delle parole.7
Nel complesso, il progetto neoempirista poneva una netta distinzione
tra costrutti teorici e contenuti osservativi e mirava alla riduzione –
attraverso gli strumenti della logica matematica – delle espressioni sensate
a costrutti logici di dati sensoriali, in modo che fossero sempre stabilite
tutte le condizioni di verificazione.8 La filosofia, ristretta alla sola analisi
del linguaggio, stabiliva ciò di cui aveva senso parlare, dopodiché spettava
alle scienze naturali decretare la verità\falsità delle proposizioni empiriche
(il monopolio sulla conoscenza del mondo). Detto in altri termini, la
filosofia neopositivista aveva un ruolo fondazionale e lavorava su un piano
normativo indipendente: offriva una struttura logica e metodologica
comune a tutte le scienze, ottenendo il duplice effetto di legittimarne la
ricerca e unificarle.
5
Ivi, p. 510.
6
Ivi, p. 507.
7
Un enunciato come “tutti gli scapoli sono uomini adulti non sposati” era analitico perché riducibile alla
verità logica “ogni F è F”. Le verità logiche sono verificate indipendentemente da qualunque contesto
empirico.
8
Cfr. Laudisa, Naturalismo, filosofia, scienza, mitologia, pp. 13-14.
12
Quine contestò la prospettiva dei neoempiristi evidenziando come questa
inducesse il filosofo a ritirarsi in un ‘esilio cosmico’ dal quale giustificare il
proprio sistema di credenze e metodi. Ma nei fatti il filosofo, prima di
essere tale, è una persona che ha acquisito un linguaggio e che ha fatto
esperienza, pertanto opera già all’interno di una teoria. Nel saggio Due
dogmi dell’empirismo,9 Quine sferrò così il suo attacco contro le tesi
centrali dell’empirismo logico negando 1) che si potesse tracciare una
distinzione netta tra “analitico” e “sintetico” e 2) che gli asserti dotati di
significato fossero traducibili in asserti sull’esperienza immediata.
Per confutare la distinzione tra “analitico” e “sintetico”, Quine partì
dall’assunto che un concetto è pienamente intellegibile solo se ammette una
definizione esplicita e non circolare. Così non sarebbe per l’analiticità, e per
dimostrarlo Quine chiamò in causa la sinonimia, la quale però rimandava al
concetto di “necessità”, che a sua volta andava spiegata ricorrendo
all’analiticità e cadeva dunque in un circolo vizioso.10
Il secondo dogma, quello del riduzionismo, fu invece confutato
dimostrando l’impossibilità di tradurre gli asserti dotati di significato in
asserti (veri o falsi) sull’esperienza immediata. Quine considerava la
scienza come «una struttura linguistica poderosa, un tessuto di termini
teorici legati da ipotesi, un tessuto connesso qua e là agli eventi
osservabili»,11 ma la connessione non poteva sussistere secondo il modello
di Carnap. Quando un parlante comprende un enunciato osservativo
acquisisce l’abitudine ad assentire se interrogato su tale enunciato in
circostanze intersoggettivamente osservabili. Più si procede
nell’acquisizione della lingua, più il bambino comincia a collegare gli
enunciati osservativi (es. “questo qui è giallo”) a quelli la cui verità non
dipende dall’occasione di enunciazione (es. “le mele del Trentino sono
gialle”). Tale collegamento avviene in modo «tenue e congetturale» e si
configura attraverso salti di analogia basati sui comportamenti di assenso.12
Ma se i salti di analogia sono congetturali, allora manca una regola che ci
9
W.V.O. Quine, Two dogmas of empiricism, in The Philosophical Review, 60 (1951), pp.20-43, trad. it.
di P. Valore, Due dogmi dell’empirismo, in A. Iacona e E. Paganini (a cura di), Filosofia del linguaggio,
Raffaello Cortina Editore, Milano, 2003, pp. 107-135.
10
Per la strategia argomentativa, si veda ivi, pp. 107-111.
11
Ivi, p. 116.
12
W.V.O. Quine, The nature of natural knowledge, in S. Guttenplan, ed., Mind and language: Wolfson
College lectures, Oxford University Press, Oxford, 1975, pp. 67-81, trad. it. La teoria e l’osservazione, in
M. Leonelli (a cura di), Saggi filosofici 1970-1981, Armando Editore, Roma, 1982, pp. 121-122. Ritengo
sufficiente riportare l’esempio di Quine circa il salto dai termini osservativi “cane” e “animale” alla
costruzione categoriale universale. Supponiamo di avere un bambino che, posto di fronte a dei cani,
impara a rispondere affermativamente a queste due domande: “Questo è un cane?” e “Questo è un
animale?”. Se il bambino non verrà ripreso o corretto da qualcun altro, imparerà a rispondere
affermativamente anche a “Il cane è animale?”. Giunto a questo punto il bambino può compiere
un’astrazione notando che “Un S è un P” è simile a “Il cane è un animale”. Tale somiglianza è acquisita e
dipendente dal linguaggio, non più dal contesto osservativo.
13
permetta di partire dal linguaggio corrente per ritornare al livello basilare
degli enunciati osservativi: l’apprendimento del linguaggio collega
osservazione e teoria attraverso un «legame labirintico» caratterizzato da
alcuni tratti arbitrari.13
La critica dei due dogmi dell’empirismo ebbe effetti rovinosi per il
neopositivismo e portò a un ripensamento dell’epistemologia come
disciplina. Innanzitutto, negare la fondatezza della distinzione tra analitico
e sintetico rendeva impossibile distinguere negli enunciati la componente
logico-linguistica da quella fattuale. Questo, unito all’impossibilità di
risalire con precisione al dato sensoriale, faceva sì che non vi fosse alcun
fatto che permettesse di stabilire il significato di un qualsiasi enunciato o
espressione linguistica presi singolarmente. Secondo Quine, quelle che
Carnap chiamava ‘proposizioni sensate’ dovevano confrontarsi col
tribunale dell’esperienza non individualmente, ma collettivamente, perché
un qualunque parlante che proferisce un enunciato ne sta già
presupponendo molti altri. In breve: «l’unità di significato empirico è la
scienza nella sua interezza».14 Solo un’intera batteria di enunciati può
essere confermata empiricamente (olismo della conferma), ed è sempre
questa batteria ad avere un contenuto empirico e un significato (olismo
semantico).
Per quello che riguarda l’epistemologia, Quine la ripensò a partire dal
paradigma evoluzionistico. Secondo il filosofo, la scienza moderna era uno
strumento raffinato con cui esercitare un potere predittivo sull’ambiente,
quindi la bontà di una teoria (intesa come un insieme coerente delle
discipline che descrivono il mondo) andava valutata unicamente in base
all’efficacia predittiva. Tutto il sistema era sempre passibile di revisione,
qualora si fosse presentata un’esperienza non prevista. Il contraccolpo
sull’epistemologia tradizionale fu notevole: data l’impossibilità di ridurre la
teoria all’evidenza sensoriale, non v’era più alcun fondamento per la
giustificazione della conoscenza. Come fa notare Laudisa, l’epistemologia
quineiana «non [poteva] assolvere in linea di principio al proprio compito
di giustificazione. Se vale questa conclusione, tanto vale […] abolire del
tutto l’epistemologia e sostituirla con l’analisi dei processi psicologici che
presiedono alla formazione delle credenze».15
L’epistemologia naturalizzata proposta da Quine intendeva occuparsi
proprio di questo: del processo che da uno stimolo sensoriale in input porta
a una descrizione del mondo in output; il come si produce la conoscenza in
13
Ivi, pp. 124-125. Il bambino si ritrova con un’eredità culturale che non ha scelto e spesso non è conscio
dei salti d’analogia compiuti nell’apprendere il linguaggio. Tali salti risentono perciò della contingenza
storica e possono variare da persona a persona a seconda del contesto sociale.
14
Quine, Due dogmi dell’empirismo, p. 131.
15
Laudisa, Naturalismo, filosofia, scienza, mitologia, p. 38.
14
un soggetto umano. Venuta meno la validità dell’analisi a priori,
l’epistemologo non poteva far altro che ricorrere alla psicologia empirica16
e porsi in continuità con lo scienziato naturale, evitando con cura domini di
verità sovra-naturali e concentrandosi su quelle stimolazioni sensoriali che,
per l’uomo, sono l’unico canale d’informazione circa il mondo esterno.17
Ora, non è sempre chiaro se le considerazioni di Quine avessero come
fine ultimo la totale dissoluzione della filosofia nella scienza. Certo è che la
riduzione dell’epistemologia alla psicologia empirica – o a una «branca
dell’ingegneria» – e lo scarso interesse per la normatività hanno di fatto
portato a concezioni estreme di naturalismo secondo una catena
argomentativa particolare: se non dobbiamo occuparci dell’aspetto
normativo, possiamo limitarci al descrittivo; se ci limitiamo all’aspetto
descrittivo, non serve ricorrere a due discipline come la psicologia e
l’epistemologia, ma possiamo accontentarci della prima; lo studio della
psicologia deve appoggiarsi sulla neurobiologia, che in ultima istanza si
fonda sulla fisica. Conclusione: un completo dominio della neurobiologia e
della fisica porterà in linea di principio a risolvere tutti i misteri
rispettivamente dell’umano e dell’universo. La ‘filosofia prima’ cede il
posto alla ‘scienza prima’ e diventa sua ancella.
15
radicali derivano altrettanti corollari: 1) le scienze naturali offrono l’unica
concezione vera di “natura” e 2) la ricerca filosofica deve porsi in
continuità con la scienza. Detto in altri termini, se un filosofo accetta la tesi
antifondazionale, accetta l’idea che la filosofia può parlare del mondo, a
patto che svolga la sua indagine procedendo a posteriori come la scienza.20
Ma come opera, nei fatti, un naturalista scientifico?
Bisogna innanzitutto notare che se l’unica concezione vera di “natura”
è quella delle scienze naturali, cose come valori e numeri possono mettere
in difficoltà il naturalista, in quanto sono entità immateriali esterne al
dominio di fisica e biologia. Uno scientista, tuttavia, non può ammettere
che vi siano parti del reale che la scienza non è in grado di trattare, poiché
la scienza naturale, per definizione, studia la totalità degli esseri viventi e
delle cose inanimate. Quando difficoltà di questo tipo si presentano, il
naturalista scientifico tende ad adottare un metodo preciso: riduzione, e se
la riduzione non riesce, eliminazione. Un certo tipo di filosofia della mente
offre esempi di riduzione quando prova a identificare gli stati mentali con
l’attivazione delle aree cerebrali osservate in fMRI, o ancora quando prova
a spiegare senso morale, emozioni e sentimenti nei termini di una maggiore
o minore concentrazione di ormoni.21 La riduzione però non si ferma alla
neurofisiologia e può procedere fino ad arrivare alle unità che compongono
la materia stessa: particelle, onde, forze – questa è la versione più estrema
di naturalismo e prende il nome di ‘fisicalismo’. Infine, se l’entità
problematica ha resistito a tutti i tentativi di riduzione, il naturalista la
elimina dal vocabolario delle cose realmente esistenti, ritenendola al
massimo «un’utile finzione».22
Questo metodo d’indagine rivela le concezioni di “natura” e “scienza”
che ne stanno alla base: a) l’universo è un insieme di particelle le quali si
organizzano secondo leggi e raggiungono gradi di complessità crescenti; b)
a ogni grado di complessità corrisponde una scienza che, in linea di
principio, è riducibile al livello inferiore; c) le scienze nel loro complesso
mirano a dare una descrizione esaustiva di tutti i fenomeni.23 È data così
20
Secondo filosofie come il neopositivismo lo scopo della filosofia era l’analisi logica del linguaggio e
per questo la si poneva alla base di ogni scienza. Nonostante non potesse dire alcunché sul mondo, la
filosofia godeva di una propria autonomia e di un metodo che la caratterizzava rispetto alla scienza. Con
l’avvento del naturalismo la filosofia sembra perdere tale autonomia e caratterizzazione diventando
piuttosto «la scienza nelle sue estensioni più generali e astratte» (De Caro, Macarthur, La mente e la
natura, p. XXVIII).
21
Si veda per esempio P.S. Churchland, Braintrust, What Neuroscience tells us about morality, Princeton
University Press 2011, trad. it. a cura di Silvano Zipoli, Neurobiologia della Morale, Raffaello Cortina
Editore, Milano 2012.
22
Cfr. De Caro, Naturalismo e normatività, p. 115.
23
Studiosi come Dupré fanno però notare che decidere quali scienze inserire in questa gerarchia
piramidale, se si fa eccezione per le scienze dure che formano i primi gradini, non è questione priva di
problemi. Per esempio, secondo i naturalisti ortodossi le scienze del linguaggio, dell’educazione e
politiche, alcuni rami della psicologia e della sociologia si limiterebbero a un livello di studio che non può
16
una netta separazione tra la descrizione dei fenomeni e la loro valutazione:
l’attivazione dei neuroni, le reazioni chimiche, il moto dei corpi e
quant’altro non sono giusti o sbagliati, veri o falsi, ma accadono
semplicemente, e la missione umana è capire come funzionano. Se si
accetta questa concezione, è impossibile pensare che in natura esistano
norme e valori sui generis, cioè svincolati dalle leggi causali e dotati di
caratteristiche peculiari.
Il rapido progresso che le scienze hanno conosciuto negli ultimi anni
ha grandemente favorito un atteggiamento di riduzionismo radicale. Grazie
alle continue scoperte e a strumenti d’indagine sempre più sofisticati,
l’umanità ha ampliato la base di spiegazioni scientifiche a cui pensa di
poter ridurre tutto lo scibile. Gli esaltanti sviluppi nei campi di fisica,
chimica e biologia hanno dato vita a svariate branche dell’ingegneria, le
quali a loro volta hanno prodotto risultati pubblicamente riconosciuti. E
proprio l’entusiasmo per questi risultati è, secondo De Caro, il motivo
principale per cui lo scientismo si è diffuso oggi in filosofia.
fornire una conoscenza universalmente valida, e quindi non possono dirsi propriamente scientifiche. Cfr.
J. Dupré, Il miracolo del monismo, in De Caro, Macarthur (a cura di), La mente e la natura, pp. 26-27.
17
Capitolo 2. Il concetto di “natura”
18
supera il corso ordinario della natura […]; o che trascende i limiti
dell’esperienza e della conoscenza umana».26 Rientrano in quest’ultima
categoria gli asserti di quella metafisica alla quale si opposero tanto i
neopositivisti quanto Quine, mentre è forte la tendenza a far coincidere il
dominio del naturale con quello delle cosiddette ‘scienze dure’. Tuttavia,
determinare l’estensione del concetto di natura si è rivelata un’impresa
assai difficile e resta una delle questioni filosofiche più pressanti.
La varietà di posizioni in merito rispecchia la complessità di una
problematica che di fatto si scompone in due domande: a) quali entità
esistono? e b) quali, tra le entità esistenti, sono da considerare naturali? Per
esempio, ammessa l’esistenza dei valori, non tutti sono disposti a
considerarli naturali quanto piuttosto delle entità sui generis. O ancora,
dicotomie come natura vs cultura o naturale vs artificiale ben evidenziano
la varietà di domini che possono opporsi a quello del naturale.
A fronte di uno scientismo sempre più diffuso, in tempi recenti ha
preso piede una concezione di naturalismo ‘liberalizzato’27 che si propone
di ‘riportare in natura’ quelle entità che paiono sfuggire ai vincoli degli
scienziati. Ciò che i naturalisti liberali rifiutano è l’idea che l’unica
ontologia ammissibile sia quella delle scienze dure, e per questo offrono
una concezione di “natura” più ampia e accettano forme di pluralismo sia
metodologico che ontologico. Al di là delle differenze tra le singole
posizioni, le critiche mosse contro atteggiamenti riduzionistici ed
eliminativisti si sono concentrate nel mostrare rispettivamente che a) molte
riduzioni derivano da interpretazioni distorte degli esperimenti scientifici e
b) l’eliminazione di certi concetti porta a un eccessivo impoverimento
dell’ontologia. Infatti, se la scienza elimina i problemi (es. la normatività)
anziché risolverli, dimostra di non avere i mezzi adeguati per analizzarli. Il
che, detto in altri termini, significa non saper rendere conto di certi
fenomeni.
La soluzione del naturalismo liberalizzato, dicevo, è quella di rendere
più inclusivo il concetto di “natura” senza preoccuparsi della discontinuità
presupposta al suo interno. Anzi, tale discontinuità sarebbe un’esigenza che
ci si impone. Si consideri per esempio la necessità delle scienze umane e
delle loro categorie: essa si mostra dal fatto che le scienze naturali non
riescono a essere informative in tutti i campi. Abbiamo bisogno della
politica e della sociologia, ma non riusciamo a fare politica con la fisica
nucleare, come non siamo in gradi di fare sociologia con la neurobiologia.
Nella formulazione di De Caro, il naturalismo liberalizzato:
26
Ivi, voce Soprannaturale: http://www.treccani.it/vocabolario/soprannaturale/.
27
Vedi infra.
19
1. Condivide la tesi antifondazionale
2. Rifiuta il ricorso a entità soprannaturali
3. Rifiuta la tesi per cui la filosofia deve adottare il metodo e
l’ontologia delle scienze naturali, imponendo però alla filosofia di
non contraddire le migliori teorie scientifiche
20
l’antinaturalismo. Uno dei bersagli polemici privilegiati è il naturalismo
scientifico, spesso declinato nella versione estrema del fisicalismo e
assunto a paradigma del naturalismo in generale. Non è un caso dunque che
tra i primi saggi compaiano Stroud e Dupré, due tra i maggiori critici del
fisicalismo.
Ne Il fascino del naturalismo31 Barry Stroud cerca di mostrare come
un’ontologia ristretta come quella dei naturalisti scientifici non sia in grado
di sostenere le loro stesse teorie. La sua argomentazione poggia su una
dimostrazione per assurdo e procede come segue:
21
particelle compongono ogni cosa, il monismo fisicalista dà per scontato che
le proprietà di tutti i fenomeni possano essere ridotte alle proprietà delle
particelle elementari, e quindi che le scienze studino tutte la stessa cosa
(unità di contenuto) attraverso un unico metodo (unità di metodo).
Dupré è però convinto che ricercare certe proprietà nella materia
equivalga ad attribuirle poteri magici.34 Innanzitutto i tentativi di riduzione
nel campo della filosofia della mente sono falliti, quindi non si è riusciti a
spiegare i fenomeni mentali in termini neurofisiologici. Lo stesso vale per
matematica, logica, normatività morale, sociologia e alcune patologie
psicologiche (p.e. il disturbo dell’apprendimento). Questo significa che ci
sono cose immateriali come gli atteggiamenti proposizionali, i valori e i
concetti che non sono stati ricondotti nell’ambito delle leggi naturali.
Tuttavia, siccome tali entità condizionano a livello pratico tanto la vita di
tutti i giorni quanto la ricerca scientifica, l’uomo è costretto ad ammetterle
nel suo inventario ontologico. In secondo luogo, l’esperienza dimostra che
anche le scienze naturali trattano vari tipi di oggetti e vi si approcciano con
metodi differenti. Il pluralismo ontologico e metodologico risulta un
percorso obbligato, scrive Dupré, perché il livello organizzativo
dell’oggetto di studio determina gli schemi di classificazione per tale
oggetto: i modelli scientifici sono strumenti su misura per la porzione di
reale in esame. Ciò implica che non è necessario che gli schemi dei livelli
organizzativi più alti (es. biologia cellulare) debbano essere correlati a
quelli dei livelli più bassi (es. fisica quantistica).35
Alla luce di tutto questo, Dupré conclude che il monismo e l’unità
della scienza sono ideali privi di base empirica. Mancano infatti prove
affidabili per la riduzione dei concetti del vocabolario normativo, come
mancano prove dirette dell’applicabilità delle leggi di una teoria di ordine
inferiore alle teorie di ordine superiore. Tutti i fallimenti e le problematiche
evidenziate suggeriscono che sebbene l’uomo sia un soggetto fisico, ciò
non significa che lo studio delle proprietà delle particelle (parte) di cui è
composto possa spiegare l’insieme dei suoi atteggiamenti (tutto). Credere
una cosa del genere significa attribuire illegittimamente poteri
soprannaturali a ciò che è fisico.36
34
Ivi, p. 24. Un esempio di questi poteri sarebbero quelli dei neuroni, che dallo scaricare energia
arriverebbero a pensare, decidere, percepire ecc.
35
Cfr. ivi, p. 33.
36
Ivi, p. 41.
22
L’argomento forte delle critiche sopra esposte è che una concezione di
“natura” ristretta si rivela rovinosa per lo stesso naturalista scientifico.
Nell’ottica di Stroud e Dupré, un fisicalista non sarebbe legittimato a
ritenere vere le sue affermazioni, non potrebbe utilizzare il linguaggio
logico-matematico e non potrebbe portare alcuna prova empirica a favore
delle sue tesi. Anzi, le tesi del monismo fisicalista contraddirebbero
l’esperienza: le prove empiriche che abbiamo mostrano il fallimento delle
riduzioni e il bisogno di quei concetti che, fallita la riduzione, vorrebbero
essere eliminati.
A questo punto ci si potrebbe chiedere se con il rifiuto del monismo
Dupré non abbia riaperto la strada a una qualche forma di dualismo,37 un
dualismo che si esplicita nella distinzione sellarsiana tra ‘spazio logico
delle ragioni’ e ‘spazio logico della natura’. Con il primo concetto Sellars
intendeva il piano in cui «si giustifica e si è in grado di giustificare ciò che
si dice»,38 mentre con il secondo denotava il regno delle leggi scientifiche.
Sellars pensava inoltre che i fatti epistemici non fossero riducibili a fatti
fisiologici: sussumere i primi sotto le leggi dei secondi è una fallacia
naturalistica.39
McDowell, intuendo la problematicità di questa dualità, la riprende
per sviluppare alcune considerazioni sul concetto di “natura”:
23
quest’opera non coincide con la chiarezza a proposito della natura».41
L’apparato culturale, per esempio, è il prodotto acquisito dall’uomo in virtù
della sua razionalità: l’espressione di una seconda natura che si muove
nello spazio logico delle ragioni senza per questo confliggere con il regno
della legge. L’uno non nega l’altro, ma vi coesiste. Ciò che si ricerca è
piuttosto una pluralità di mezzi e metodi che permetta di descrivere la
grande varietà intrinseca di quell’unico insieme che è la natura: che i
pianeti orbitino secondo la legge di gravitazione universale e che l’uomo
abbia eventi mentali è l’espressione di questa varietà; che la fisica non
riesca a studiare i valori mentre la filosofia sì non è un punto a sfavore della
filosofia, ma piuttosto la prova che le due discipline hanno sviluppato
strumenti diversi per oggetti diversi.
In generale, il naturalismo liberalizzato desidera contraddistinguersi
per un atteggiamento di larghe vedute per cui «dobbiamo accettare come
vero tutto ciò che dobbiamo accettare affinché si possa dare un senso a
tutto quello che sia parte del mondo».42 Quello che mi chiedo però è quanto
questa mossa possa dirsi ‘naturalista’ e lo stesso Stroud non sembra
preoccuparsi molto di questo termine. Per lui essere naturalisti non è altro
che un’etichetta alla moda per ostentare il rifiuto di divinità, anime, fluidi
vitali e geni maligni. Nannini, che su questa posizione è molto critico, non
esita a dire che il principio citato sia insoddisfacente: «se anche tutto ciò
che è oggetto delle scienze umane e sociali, della storia e persino dell’arte è
natura, incluso ad esempio il libero arbitrio, le norme e i valori, allora tutto
è natura!».43
Se da un lato abbiamo un problema concettuale di fondo (tracciare i
contorni della “natura”), dall’altro persiste il fatto della molteplicità del
reale non ancora ricondotta a unità (e per alcuni mai riconducibile). Da un
lato il naturalismo liberalizzato non può limitarsi ad ammettere cose come
norme, valori o stati intenzionali, poiché deve dimostrare la verità della
loro esistenza e l’impossibilità della loro riduzione. Dall’altro lato il
naturalismo scientifico non sarà legittimato fintanto che mancherà di una
riduzione completa delle entità problematiche.
41
Ivi, p. 85.
42
Stroud, Il fascino del naturalismo, pp. 19-20.
43
Nannini, Naturalismo cognitivo, p. 90.
24
In virtù della sua tendenza totalizzante, lo scientismo ha avuto modo di
infiltrarsi in un altro dei campi ritenuti dominio privilegiato della filosofia,
ovvero l’etica. Alla nuova concezione della natura (offerta dalla teoria
darwiniana prima, dalla biologia e dalle neuroscienze poi) è seguito un tipo
di naturalismo controverso che molto si discosta dalle concezioni antiche e
medievali.
Ben lungi dall’essere un’invenzione della modernità, infatti, l’appello
alla natura ha da sempre rappresentato uno dei maggiori criteri su cui
impostare la riflessione etica e si è presentato sotto svariate forme.44
Aristotele, per esempio, innestava la sua etica della virtù su una concezione
teleologica dell’universo per la quale tutte le cose tendevano al Bene.45 Ma
anche l’edonismo epicureo rientrava nel novero delle etiche naturalistiche,
in quanto fondato sul perseguimento dei bisogni naturali e necessari
dell’uomo, ovvero quei bisogni limitati la cui completa soddisfazione
condurrebbe verso l’assenza di dolore. O ancora, la concezione cattolico-
tomista faceva appello alla natura creata per spiegare come l’uomo, parte
del progetto divino, fosse in grado di cogliere la legge divina in vista della
beatitudine eterna.
In generale, le etiche che si appellano alla natura ricercano in
quest’ultima la fonte della normatività. Concepita come principio dato
indipendentemente dalla cultura umana, la natura assume infatti un
carattere di universalità e oggettività che ben si accorda con le pretese di
universalità e oggettività delle teorie morali, o almeno di buona parte di
esse.46 Il primo problema però è quello di comprendere se davvero la natura
possa essere fonte di normatività. In altre parole, il dilemma è se da una
descrizione del mondo – un fatto – si possa derivare un valore che orienti
l’azione dell’agente morale. Prima che Moore tacciasse questa pretesa
come una fallacia naturalistica, già Hume aveva notato come il collegare
l’essere al dover essere fosse un nuovo tipo di relazione, e non una
deduzione.47 Il XX secolo vide poi nell’open-question argument uno degli
scogli più duri per il naturalismo: dato X, e data la proprietà fattuale Y, le
domande “X ha Y, ma ha Y?” e “X ha Y, ma è buono?” sono radicalmente
differenti. La prima è una tautologia, la seconda una domanda aperta e non
banale che impedisce la deduzione di prescrizioni da premesse di carattere
descrittivo.
44
Si veda S. Pollo, La morale della natura, Editore Laterza, Bari, 2008.
45
Vedi Aristotele, Etica Nicomachea, Bompiani, Milano, 2011. Il Bene in riferimento alla natura umana
era la felicità, la quale poteva essere raggiunta coltivando in modo appropriato certe disposizioni
dell’anima, e la vita etica era la vita virtuosa, cioè la realizzazione del nostro essere animali razionali e
sociali rivolti a quel fine.
46
Pollo, La morale della natura, pp. 32-40.
47
D. Hume, A Treatise on Human Nature, 1739-1740; trad. it. a cura di E. Lecaldano, Trattato sulla
natura umana, in Id., Opere filosofiche, vol. 1, Laterza, Roma-Bari, 1992, pp. 496-497.
25
Ora, bisogna precisare che l’obiettivo polemico di Moore era il
naturalismo nella forma per cui esistevano fatti morali (realismo) che non
godevano di alcuna proprietà particolare rispetto ai fatti naturali
(naturalismo). Vi rientravano evoluzionismo, edonismo, egoismo e
utilitarismo,48 i quali commettevano tutti l’errore di equiparare il bene a un
oggetto naturale. Per Moore invece il predicato “buono” era una nozione
semplice, pertanto indefinibile, e il bene poteva essere colto solo attraverso
un’intuizione (realismo anti-naturalistico). Diversa era la posizione di
Hume, il quale non intendeva proporre un’etica anti-naturalistica, ma
caratterizzare attraverso lo studio della psicologia e del comportamento
umano quell’«insieme di passioni, di desideri e di istinti, attraverso i quali
si esprimono la conoscenza e l’esperienza morale».49 Secondo lo Scozzese
erano infatti le emozioni a stabilire cosa fosse buono (non-cognitivismo),
mentre i sentimenti simpatetici facevano sì che gli uomini s’interessassero
emotivamente della sorte altrui.
Ma cosa c’entra questa digressione con lo scientismo a cui accennavo
all’inizio? C’entra, perché per quanto le descrizioni del mondo e dell’uomo
si siano raffinate, le etiche naturalistiche mantengono tuttora un rapporto
assai problematico con la normatività. Infatti, se da un lato le nuove
scoperte hanno fornito numerosi spunti a livello di metaetica, dall’altro
continuano a faticare nel dare una giustificazione al nostro agire morale.
Detto altrimenti, il naturalismo può forse spiegare come funzionano
emozioni e ragionamenti morali, come si sono sviluppati, ma non offre una
guida per l’azione. Eccone alcuni esempi.
26
studio dei cosiddetti precursori della morale: l’agente morale non è più
visto come partecipe di un progetto divino né di una legge noumenica,
quanto piuttosto come un essere che innesta le sue abilità su dotazioni
biologiche reattive all’ambiente. Tale fatto può essere interpretato più o
meno radicalmente. Il naturalismo estremo ha gioco facile
nell’utilizzare la teoria evolutiva per sostenere la riduzione o
l’eliminazione dei valori, appiattendo tutto su un comportamento
determinato da leggi naturali per cui non esiste un bene in sé da
perseguire. Un naturalismo moderato invece accetta che la costituzione
biologica sia condizione di possibilità delle nostre capacità morali e
ponga loro alcuni vincoli, senza per questo negare dignità alla
riflessione filosofica in etica. Infatti, anche se si identificasse il bene
con ciò che verrebbe premiato dalla selezione naturale, non si darebbe
affatto una risposta alla domanda aperta di Moore. Anzi, stando a Pollo
si commetterebbe una fallacia naturalistica dai risvolti inquietanti:
tenendo conto solo di ciò che è funzionale alla sopravvivenza,
«cadrebbero l’affermazione del valore morale dell’uguaglianza, la
proclamazione di diritti umani basilari, la protezione degli esseri umani
disabili, e si rivaluterebbero pratiche come la violenza sessuale sulle
donne o la guerra».50
27
dannosa rispetto all’omissione e 4) il desiderio di punire chi inganna o
non aiuta il gruppo. Il cervello applicherebbe queste regole in
automatico ogni volta che compiamo un calcolo morale, precedendo
tanto il ragionamento quanto le emozioni. Essendo un sistema innato,
esso è comune a tutta l’umanità e vincola i fondamenti dell’etica,
sebbene presenti dei margini di flessibilità su cui ogni cultura formula
poi il proprio modello. Usufruendo delle neuroimmagini e dei dati della
neuropsicologia,52 Hauser ipotizza inoltre che l’organo morale risieda
approssimativamente nella connessione tra lobi frontali e amigdala.53 In
relazione a ciò, Greene e Damasio hanno mostrato come pazienti con
danni alla corteccia prefrontale ventromediale e al circuito
orbitofrontale presentino un’alterazione nella capacità di giudicare e
agire moralmente. Un danno alla vmPFC comprometterebbe
l’elaborazione emotiva e con essa i giudizi deontologici, inclinando il
paziente verso un utilitarismo radicale. L’orbitofrontale in particolare
sarebbe la sede del famoso ‘marcatore somatico’,54 cioè di quel
meccanismo che connette i processi fisiologici scatenati da
un’emozione (attivazione del sistema vegetativo) in relazione a
un’esperienza. Per esempio, i pazienti orbitofrontali non presentano un
aumento della sudorazione alla vista di immagini raccapriccianti;
presentano invece una normale capacità di ragionamento morale ma
non sono in grado di agire coerentemente con essa. Presi nel
complesso, questi studi confermano la stretta interrelazione mente-
corpo e offrono rivoluzionarie spiegazioni circa le nostre capacità di
giudizio morale. Si rimane sempre però in un ambito descrittivo dal
quale pare difficile ricavare qualche indicazione normativa. Greene ci
prova sancendo la superiorità del consequenzialismo sulle etiche
deontologiche in base a una distinzione di meccanismi: quello
governato dalla corteccia prefrontale dorsolaterale – collegato ai giudizi
utilitaristici – sarebbe infatti più affidabile di quello della vmPFC –
residuo vestigiale obsoleto e viziato dall’instabilità emotiva. Tuttavia,
come fa notare Marraffa, 55 questo ragionamento incorre in una grave
fallacia naturalistica, senza considerare che gli studi di neuroanatomia
sembrano indebolire il modello antagonistico di emozione e
cognizione, in favore di una concezione integrazionista.56
52
La neurospicologia studia l’impatto delle lesioni cerebrali sulle funzioni cognitive.
53
Vedi Hauser, Menti morali, p. 225-235.
54
A. Damasio, L’errore di Cartesio. Emozione, ragione e cervello umano, Adelphi, Milano, 1995.
55
M. Marraffa, Emozioni e razionalità: oltre il modello «antagonistico», in Sistemi Intelligenti, no. 1, Il
Mulino, Bologna, 2014, p. 156.
56
Questa non è l’unica critica mossa al modello di Greene. Uno studio condotto da Koenings e Tranel
infatti mostra come i pazienti con lesioni alla vmPFC abbiano forti reazioni emotive nel test
dell’Ultimatum Game. In questo gioco infatti i pazienti tendono a rifiutare le offerte troppo basse (si
28
(III) Ormoni e cura degli altri. A partire dalla critica dei modelli innatisti e
geneticamente determinati, Patricia Churchland sviluppa in
Neurobiologia della Morale57 un teoria più dinamica rispetto a Hauser.
Secondo Churchland infatti non esiste una grammatica morale
indipendente dall’ambiente e dall’educazione, perché le regole morali
sono la risposta a certe condizioni ambientali e sociali. Più che i geni, la
cui mutazione naturale richiede tempi lunghi, sono invece
apprendimento e cultura i veri veicoli della moralità. Precisato ciò,
Churchland ritiene che gli studi scientifici possano dire molto circa le
condizioni di possibilità della moralità, la quale è fondata su processi
cerebrali e può essere schematizzata in quattro punti: 1) cura del sé e
della prole estesa oltre i consanguinei, 2) teoria della mente con valenza
predittiva, 3) capacità di risolvere problemi sociali e 4) apprendimento
delle pratiche tramite imitazione, rinforzo positivo, condizionamento,
etc.58 La tesi, insomma, è che la moralità si fondi sulla neurobiologia
della socialità: il cervello umano si sarebbe evoluto in maniera tale da
estendere il valore – se così si può chiamare – dell’autoconservazione
agli altri. A partire dalla sofferenza per il distacco dalla prole,
l’emozione del dolore si sarebbe trasformata affinché comprendessimo
e ci interessassimo del dolore altrui. Questo fenomeno sarebbe mediato,
a livello neurobiologico, dal rilascio di particolari ormoni
neurotrasmettitori (ossitocina e vasopressina), i quali sono in grado di
modulare la risposta empatica, il comportamento altruistico e i
meccanismi punizione/ricompensa. L’ossitocina, per esempio, inibisce i
comportamenti di difesa e rilascia oppiacei endogeni che rendono
piacevole la cooperazione. Collaborazione, affabilità, prevedibilità si
connettono così a emozioni positive perché funzionali
all’autoconservazione; viceversa bellicosità, volubilità ed egoismo
generano sentimenti negativi. Sono poi la storia di vita e i
condizionamenti dell’ambiente sociale a imporre sistemi di regole che
si trasmettono per apprendimento e imitazione. L’impatto che una
mutazione genetica può avere non riguarda tanto la presenza o meno di
precetti innati, quanto le disfunzioni nel controllo ormonale tali da
alterare il comportamento sociale e la personalità. Ad ogni modo, anche
nel caso di Churchland non si possono trovare indicazioni utili per
sentono ‘offesi’) ancor più che i soggetti di controllo; rifiutano cioè un seppur minimo guadagno per
punire l’offerente disonesto, il che è irrazionale da un punto di vista utilitaristico. Vedi M. Koenings, D.
Tranel, Irrational economic decision-making after ventromedia prefrontal damage: evidence from the
ultimatum game, in The Journal of Neuroscience, 27, 2007, pp. 951-956.
57
Churchland, Neurobiologia della Morale, op. cit.
58
Ivi, p.22.
29
l’etica normativa, ma è l’autrice stessa a precisare che la sua analisi si
limita allo studio delle condizioni di possibilità della morale.
Il quadro che emerge dai casi riportati rappresenta l’uomo come un animale
(più o meno) ‘programmato’ dalle circostanze, dai geni e dalle reti
cerebrali. La domanda da porre è se l’esistenza di una tale programmazione
possa essere utilizzata per naturalizzare l’etica e la normatività.
L’obiezione di Moore sembra avere qui ancora molta forza, poiché dal fatto
che abbiamo certe inclinazioni non segue che queste siano necessariamente
buone, né avrebbero l’autorità per indirizzare le nostre azioni. In una
parola, la normatività che vige nel mondo naturale (le leggi causali) ha uno
statuto ben diverso dalla normatività morale e non pare contenerla al suo
interno. D’altronde, come si potrebbero applicare i concetti di “corretto” e
“scorretto” a qualcosa come la legge di gravitazione universale? E come
potremmo derivare valori morali dalla struttura nomologica della natura, se
questa non fa alcun riferimento a giusto e sbagliato? Anche in questo caso
il naturalismo può offrire due soluzioni: dimostrare l’esistenza di una
normatività morale naturale o eliminare in toto i concetti normativi. La
seconda via è percorsa da coloro i quali ritengono che cose come mente,
libero arbitrio e coscienza non siano altro che illusioni, e la normatività non
farebbe eccezione. Una visione di questo tipo però, oltre a essere
controintuitiva, presta il fianco alle precedenti obiezioni di Dupré e Stroud.
30
Capitolo 3. Atteggiamenti lombrosiani e
crisi disciplinari
31
forte disaccordo sul come definire stati patologici come il disturbo
dell’apprendimento, la schizofrenia o la psicopatia, se considerarle o meno
malattie dovute al malfunzionamento degli organi e curarle di conseguenza.
Attualmente, nemmeno i dati delle neuroscienze si sono rilevati
determinanti per chiudere questo tipo di questioni e numerose ipotesi sono
al vaglio nei laboratori sperimentali. Al problema medico si associa poi
quello giuridico, poiché il diritto contempla l’infermità mentale (parziale o
totale) nello stabilire la condannabilità dell’imputato e l’entità della pena.
Qui il problema è quello di una definizione, il “vizio di mente”, che pur
nella sua semplice formulazione risente delle continue e contrastanti
interpretazioni della natura delle facoltà cognitive. È chiaro allora che una
disputa non risolta a monte (es. se la psicopatia sia determinata da anomalie
fisiologiche) rischia di ripercuotersi sulla giustizia delle sentenze e, in
ultima istanza, sulla vita del cittadino.
Il recente ingresso delle neuroscienze nelle aule dei tribunali ha
suscitato una grande preoccupazione: quella che si moltiplichino i casi di
assoluzione invocando alterazioni anatomiche e funzionali del cervello. Si
teme cioè un uso deresponsabilizzante delle neuroscienze, il quale rimanda
a una concezione deterministica dell’agire umano. Come mostrerò più
avanti, è di fondamentale importanza distinguere i dati acquisiti dalla
neuropsicologia dagli studi ancora a uno stadio congetturale. Nelle pagine
che seguono focalizzerò l’attenzione sul modo in cui il pensiero
naturalistico ha influenzato la ricerca scientifica e sul dibattito attuale circa
l’utilizzo giuridico delle neuroscienze. D’ora in avanti la mia analisi del
naturalismo sarà sempre più concentrata sulle sue implicazioni in etica:
ripercorrere i tentativi di riduzione della mente al cervello mi sarà utile per
introdurre il concetto di responsabilità e la successiva analisi del libero
arbitrio, due nozioni che il naturalismo scientifico tende a bandire dal
proprio vocabolario.
32
Rivoluzione Industriale aveva dimostrato la potenza della tecnica e la
metafisica aveva subito la critica degli illuministi. Qui il Positivismo trovò
il suo humus e si cominciò a diffondere l’idea che la scienza fosse l’unica
fonte di certezza assoluta – l’ideale del naturalismo scientifico.
La nascita della frenologia (dal greco “phren” = “mente”) inaugurò lo
studio empirico di ciò che fino a pochi decenni prima era considerato il
dominio indiscusso di religione e filosofia.59 Il suo fondatore, F.J. Gall,
nacque a Vienna nel 1758 e si laureò in medicina nel 1785, ma dedicò la
maggior parte del tempo alla ricerca. A condizionare il suo interesse per la
neuroanatomia furono soprattutto due fattori: l’intuizione giovanile di una
possibile correlazione tra occhi sporgenti e capacità mnemoniche, e la
lettura dei testi di von Herder. Sin da bambino Gall aveva infatti notato che
le persone con una migliore memoria presentavano una caratteristica
fisionomica particolare, pertanto pensò che vi fosse una correlazione
materiale tra organo e facoltà. Un’idea di questo tipo però si scontrava con
il pensiero tradizionale e non avrebbe trovato seguito se non fosse stato per
von Herder che, nei suoi testi, già paventava la possibilità di una scienza
empirica dell’anima a partire dalle sue manifestazioni materiali. Una volta
conclusi gli studi, Gall ebbe modo di frequentare prigioni e manicomi, fece
dissezioni post mortem e cominciò a collezionare teschi. Egli fondò una
nuova disciplina, l’organologia, e la strutturò secondo questi criteri: 1) la
scienza naturale gode di autorità epistemologica su religione e tradizione;
2) ogni facoltà ha un organo dedicato, il cervello non lavora in maniera
olistica;60 3) la forza dell’organo dipende dalla sua dimensione, quindi il
cranio viene modellato a seconda della forza delle aree cerebrali; 4) lo
studio della neuroanatomia si integra con quello scientifico di psicologia e
dimostra che il criminale è in realtà un malato.
Ripreso dall’imperatore con l’accusa di compiere studi a favore
dell’ateismo e del materialismo, nel 1801 Gall dovette espatriare e proseguire le
sue ricerche in Francia. Qui, assieme al suo allievo Spurzheim pubblicò nel 1810
Anatomie et physiologie du système nerveux en general, et du cerveau en
particulier, avec des observations sur la possibilite de reconnautre
plusieurs dispositions intellectuelles et morales de l’homme el des animaux
par la configuration de leurs têtes, nel quale individuava le 27 aree sede
delle relative funzioni innate (fig.1):
59
Il recente saggio di Ben Ford studioso della Salem State University, ben descrive la nascita e
l’accoglienza che questa disciplina ebbe prima nell’Europa continentale, poi in Gran Bretagna e infine
negli U.S.A. Vedi B. Ford, From Science to Pseudoscience, Salem State University, Massachusetts,
consultabile al link:
https://www.academia.edu/15656328/From_Science_to_Pseudoscience_The_Evolution_of_Phrenology_t
he_First_Science_of_the_Mind
60
Paradigma dominante all’epoca.
33
Figura 161
34
la frenologia si fece largo nelle comunità scientifiche e furono fondate
numerose società frenologiche. Nel contempo però la disciplina stava
caratterizzandosi sempre più come una pseudoscienza, poiché molti dei
suoi promulgatori non avevano il retroterra medico di Gall. Per esempio
George Combe,62 fondatore nel 1820 della Phrenological Society a
Edimburgo, era un giurista che pensava la frenologia come disciplina atta a
eliminare la sofferenza umana. Ma non erano medici nemmeno i fratelli
Fowler, grandi promulgatori della frenologia negli USA ed editori di un
manuale grazie a cui il lettore poteva studiare la propria mente per
scoprirne talenti e difetti.63
Stando a Ford, il successo della frenologia negli ambienti anglosassoni
rispecchiò alcuni cambiamenti politici e culturali dell’epoca. Innanzitutto
l’espansione degli istituti penitenziari poneva l’urgenza di stabilire cosa
fosse il crimine e quali punizioni infliggere: se il crimine era una malattia
biologica, il reo non poteva essere ritenuto responsabile e quindi non
avrebbe avuto senso punirlo. Nell’ambiente americano, invece,
l’individualismo liberale accolse di buon grado l’idea che tramite la
frenologia l’uomo potesse perfezionare se stesso e raggiungere la felicità.
Inoltre gli studi frenologici, indipendentemente dalla loro validità,
rappresentavano un utile strumento per conferire ulteriore ‘scientificità’
alle teorie della razza superiore, già molto in voga nell’800.
Va detto comunque che la frenologia non ebbe solo effetti negativi.
Essa infatti fu il preludio alla moderna neuropsicologia, cioè quella
disciplina che, grazie alle nuove tecnologie, ha permesso realmente di
localizzare alcune funzioni cerebrali. Nella seconda metà dell’800 Broca e
Wernicke scoprirono delle lesioni che portavano afasia, mentre tramite
stimolazione elettrica corticale Ferrier fu in grado di tracciare le prime
mappe corticali (1873-1875). Negli anni ’50 del ‘900, Penfield64 e
Woosley65 scoprirono i famosi homuncoli, cioè le rappresentazioni
sensorimotorie del corpo nelle aree motoria primaria, somatica primaria e
motoria supplementare. Questo per dire che, una volta diventata scientifica,
la frenologia ha davvero visto la conferma di alcuni dei suoi assunti. Quello
che ancora manca, ammesso che sia possibile farlo, è una localizzazione
completa ed esaustiva delle facoltà umane, complicata dal fatto che più la
62
G. Combe, The Constitution of Man, Edimburgo, 1828, consultabile gratuitamente nelle varie edizioni
al link: http://www.historyofphrenology.org.uk/constindex.html.
63
O. Fowler, L. Fowler, The Illustrated Self-instructor in Phrenology and Physiology : With One
Hundred Engravings, and a Chart of the Character, New York, Fowler & Well, 1859.
64
W. Penfield & T. Rasmussen, The Cerebral Cortex of Man (1950), Redrawn by M.H. Schieber, J.
Neurophysiol., 2001.
65
C.N. Woolsey, Organization of Somatic Sensory and Motor Areas of the Cerebral Cortex, in Biological
and Biochemical Bases of Behavior, H.F. Harlow and C.N. Woolsey eds., University of Wisconsin Press,
Madison, 1958.
35
funzione è di ordine superiore, più è distribuita e non circoscrivibile a una
sola area.
36
sospettato di brigantaggio, nel quale Lombroso scoprì la famosa fossetta
occipitale, cioè la ‘prova’ scientifica che alle aberrazioni del senso morale
e della psiche corrispondevano anomalie del corpo e del cranio.68 Tale
malformazione era dovuta, secondo Lombroso, a un processo involutivo
che si poteva riscontrare anche in altri tratti del corpo (es. prognatismo,
zigomi pronunciati, microcefalia, naso torto, sproporzioni nella lunghezza
degli arti etc.) e spiegava l’incapacità dell’individuo di adattarsi alla
società. L'atavismo non era altro che questo: la provata correlazione tra i
crimini più efferati e le sembianze primitive dei colpevoli.
Tuttavia il caso Verzeni, contadino bergamasco che tra il 1870 e il
1871 violentò e squartò il corpo di due donne, rappresentò un
controfattuale importante. Verzeni infatti non presentava anomalie fisiche
che potessero giustificare la ferocia dei suoi omicidi e l’insania delle sue
pulsioni. In quel frangente Lombroso si vide costretto a integrare
l’atavismo con la follia morale, cioè con un supposto malfunzionamento
nella conduzione nervosa che si esprimeva in istinti animaleschi. Questa
nuova ‘scoperta’ fu ulteriormente sviluppata a partire dal caso Misdea del
1884, nel quale la causa della follia venne fatta coincidere con un tipo
particolare di epilessia priva dei tratti che comunemente le si associano (es.
convulsioni). Il criminale epilettico poteva presentare semplici mal di testa,
vertigini, prontezza di riflessi, fugaci perdite di memoria e coscienza,
poteva cioè passare inosservato anche per lungo tempo prima che la
patologia si manifestasse in un reato.69 Tuttavia la comunità scientifica
dell’epoca contestò aspramente questa tesi la quale, in realtà, minava
l’atavismo anziché confermarlo. Già di per sé il caso Verzeni dimostrava
che la correlazione tra crimine e anomalie anatomiche non era necessaria;
ma nemmeno la correlazione tra follia morale ed epilessia pareva
scientificamente fondata. Lombroso riscontrò somiglianze nei crani degli
epilettici, più alcune somiglianze della loro corteccia con quella di
vertebrati inferiori, ma al Congresso Internazionale di Antropologia
Criminale del 1889 ricevette critiche pressoché unanimi.
Sul versante giuridico invece, nel 1902 i periti Morselli e De Sanctis
sostennero, in merito al caso Musolino,70 che «l’essere epilettico non
comporta automaticamente l’impossibilità di rispondere dei propri reati di
fronte alla legge poiché non ogni atto abnorme contrario alle leggi sociali è
68
Musumeci, Cesare Lombroso e le neuroscienze, p. 63.
69
Ivi, p. 81.
70
Musolino era un taglialegna calabrese condannato per tentato omicidio nel 1897. Evaso due anni dopo,
si macchiò di svariati delitti prima di essere di nuovo arrestato e condannato all’ergastolo. Il caso suscitò
scalpore e Lombroso ebbe modo di studiarlo, notando sia la straordinaria agilità di Musolino (riflessi
esagerati) che la sua gestualità anomala, e concludendo che l’imputato soffrisse di epilessia e meritasse
uno sconto di pena.
37
necessariamente un “prodotto della nevrosi”».71 Ciò andava contro il
determinismo della Scuola Positiva secondo cui il crimine e il criminale
erano una sventurata produzione naturale. Stando a Lombroso, non aveva
senso infliggere punizioni severe ai condannati, perché sarebbero state nel
contempo inutili e ingiuste:72 ripensare il diritto su base empirica implicava
piuttosto una mitigazione delle pene e il miglioramento delle condizioni
carcerarie, riservando la pena di morte ai criminali più pericolosi e
irrecuperabili. Detto in sintesi, l’antropologia criminale voleva imporsi sul
diritto e dimostrare che siccome a) l’uomo non può decidere della propria
dotazione biologica, b) la quale predetermina il comportamento, c) i
soggetti vittima di anomalie (i criminali nati) non possono essere ritenuti
responsabili: vendetta e retributivismo dovevano cedere il posto a «cura e
sequestro».
La questione divise il panorama accademico, e le critiche furono
sempre aspre. Alla Scuola Positiva si oppose la cosiddetta Scuola Classica
del diritto penale, che definì il suo bersaglio come una «“scuola
d’immoralità”, la quale grazie alla dicotomia normale/anormale annulla
ogni valore e rende impossibile una concezione etica della pena […]».73 Le
obiezioni si concentrarono soprattutto su quell’empirismo semplicista che,
privo di prove incontrovertibili, mirava a creare una nuova metafisica sotto
l’insegna del Positivismo. Per uscire da questa impasse nacque, a inizio
'900, la Terza Scuola di Bernardino Alimena,74 il quale si sforzò di
conciliare determinismo e imputabilità distinguendo tra libertà di fare
(assenza di ostacoli all’azione) e libertà di volere. Da determinista qual era,
Alimena pensava che l'uomo non avesse libertà di volere ma esercitasse
comunque un controllo sulle proprie azioni (la libertà di fare) per il quale
poteva essere imputabile. In un quadro del genere lo scopo principale della
punizione non poteva essere che quello di modificare il comportamento
degli individui, cioè di avere un potere deterrente efficace sulla libertà di
fare. Nei casi in cui tale potere risultava inefficace (p.e. per colpa di
malattie che inducevano comportamenti stereotipati e irrefrenabili) la
punizione non aveva diritto di essere applicata se non nella forma del
contenimento cautelativo. La parte critica di questo naturalismo stava
quindi nel rifiuto dei tipi criminali antropologici, che veniva invece
sostituito dall’indagine sociopsicologica dell’efficacia della pena.
71
Ivi, p. 86.
72
Sul tema si veda anche I.M. Merzagora Betsos, Colpevoli si nasce? Criminologia, determinismo,
neuroscienze, Raffaello Cortina Editore, Milano, 2012.
73
Vedi Musumeci, Cesare Lombroso e le neuroscienze, p. 158.
74
Ferri tentò di sganciare il diritto penale dalla nozione di libero arbitrio. Questa posizione venne poi
sviluppata da Alimena, membro della cosiddetta Terza Scuola che intendeva essere «positivista nel
metodo e critica nel contenuto». Il pensiero di Alimena assomiglia molto alle moderne teorie
compatibiliste. Ivi p. 164-169.
38
Ciò comunque non risparmiò numerose obiezioni alla Terza Scuola, la
quale dovette fronteggiare un panorama dominato dal neoidealismo e fu
pertanto incapace d'imporsi. Negli anni seguenti, tuttavia, con
l’introduzione delle le nozioni di “infermità mentale”, prima, e “vizio di
mente”, poi, avrebbe preso piede la convinzione che l’istituto
dell’imputabilità non potesse prescindere dallo studio delle sue condizioni
materiali, come dimostrava la sempre più frequente convocazione dei periti
in sede giudiziaria.
Tra la fine del XIX e l’inizio del XX secolo l’interesse per la correlazione
comportamento/cervello segnò un primo scisma tra neurologia e
psichiatria. Con la nascita della psicoanalisi, infatti, mutò il tipo di
approccio alle patologie mentali e, almeno fino alla metà degli anni ’50, gli
psichiatri dettero scarsa rilevanza ai determinanti biologici dei disturbi
psichici. Sull’altro versante, invece, neurologi e neurochirurghi non
avevano abbandonato l’idea di localizzare le funzioni cerebrali e stavano
sperimentando tecniche sempre più invasive per curare i disturbi mentali.
Nel 1888 lo svizzero Burckhardt eseguì il primo intervento di
psicochirurgia sottoponendo a topectomia (l’escissione di una limitata
porzione di corteccia) sei pazienti affetti da schizofrenia.75 Il decorso
postoperatorio contò tre successi e un decesso, ma tanto la pratica quanto la
valutazione dei suoi effetti fu assai approssimativa. Nonostante ciò, la
tecnica parve promettente e la sperimentazione continuò. Nel 1935 i
portoghesi E. Moniz e A. Lima misero a punto la leucotomia prefrontale,
che consisteva nel trapanare il cranio in vari punti per poi distruggere le
fibre nervose con iniezioni di etanolo, precisamente tra talamo e lobi
frontali. A ispirarli era stato uno studio di Jacobsen e Fulton che mostrava
come l’ablazione dei lobi frontali negli scimpanzé rendesse l’animale molto
docile, ma anche in questo caso i risultati furono più propagandati che reali,
con pazienti che spesso manifestavano modificazioni abnormi della
personalità e alti livelli di recidiva. Nel 1949, questa tecnica fu ritenuta
talmente rivoluzionaria da conferire a Moniz il premio Nobel per la
Medicina.
Nel mentre, gli americani Freeman e Watts avevano trasformato la
leucotomia in lobotomia nel tentativo di ottenere migliori risultati (e
75
Vedi G.A. Mashour, E.E. Walker, R.L. Martuza, Psychosurgery: past, present, and future, in Brain
Research Review, 48, 2005, pp. 409-419, consultabile al link:
http://med.stanford.edu/dura/Articles/Psychosurgery.pdf.
39
commercializzare la pratica). La nuova tecnica non si limitava a recidere le
connessioni nella materia bianca, ma andava a distruggere anche una
piccola porzione di cellule nei lobi frontali. La vera rivoluzione avvenne
però nel 1946, quando i due studiosi capirono come arrivare ai lobi frontali
senza perforare il cranio: il paziente veniva anestetizzato con un
trattamento elettroconvulsivante, dopodiché il chirurgo distruggeva le fibre
nervose con il cosiddetto rompighiaccio (tecnicamente orbitoclasto), un
punteruolo che passava per la zona dei dotti lacrimali. Questa era la
lobotomia transorbitale: una tecnica ‘semplice’, veloce, economica, che
poteva essere eseguita ambulatorialmente, tanto che ben presto si cominciò
ad abusarne. Persino Freeman, che non era un chirurgo, l’applicò svariate
volte, incurante dei protocolli igienico-sanitari.
I motivi per cui tecniche così rozze riscossero grande successo sono
sostanzialmente due: un fattore economico, per cui il costo dei manicomi
era esorbitante e la lobotomia permetteva di abbatterlo; e un fattore tecnico,
per cui mancavano gli psicofarmaci e si guardava con sospetto alla
psicoanalisi.76 Non a caso con l’ingresso della clorpromazina nel 1954, la
lobotomia cominciò a essere considerata una pratica barbarica e cadde
progressivamente in disuso. Nel mentre però, in particolare negli anni
’60-’70, alcune personalità entusiaste paventarono la possibilità di
‘psicocivilizzare la società’ intervenendo sul cervello. Questa era per
esempio la concezione di Delgado,77 il famoso neuroscienziato che nel
1963 innestò un elettrodo in un toro e ne manipolò i movimenti tramite un
radiocomando. Su questa scia, nel 1970 Mark e Ervin pubblicarono un
articolo in cui proponevano di intervenire chirurgicamente sul sistema
limbico per eliminare la violenza dalla società.78 In entrambi i casi, la
speranza era quella di utilizzare le metodiche per la cura delle patologie
anche sugli individui sani, così da eliminare i mali della vita associata.
L’idea però si scontrava con enormi problemi tecnici, tanto che nessun
comitato di bioetica avrebbe mai accettato una psicochirurgia di massa
sulla semplice base di benefici più presunti che reali.
Per quanto riguarda l’altro versante disciplinare, ovvero quello
psichiatrico a indirizzo psicanalitico, va detto che le tecniche di supporto al
paziente erano anch’esse primitive e richiedevano tempi di cura
estremamente lunghi. Inoltre vi era il problema di stabilire quali disturbi
fossero gestibili dalla psicoterapia e quali richiedessero un intervento
76
Ivi, p. 411.
77
Sul tema della stimolazione intracranica e i suoi risvolti etici si veda V.A. Sironi, M. Porta (a cura di), Il
controllo della mente. Scienza ed etica della neuromodulazione cerebrale, Laterza, Bari, 2011, e in
particolare i saggi ivi contenuti di A. Oliviero, Neurotecnologia tra mito e realtà, pp. 11-20; V.A. Sironi,
La neuromodulazione e l’origine della stimolazione elettrica cerebrale profonda, pp. 22-34; E.
Colombetti, Etica delle neuroscienze, pp. 209-222.
78
Vedi, Mashour et al., Psychosurgery: past, present, and future, pp. 412-413.
40
farmacologico o chirurgico. L’entusiasmo naturalistico dei neurologi infatti
pretendeva che ogni malattia mentale potesse essere curata intervenendo
sul cervello, senza il bisogno di un’analisi del vissuto individuale. Ma se
questo poteva essere vero per casi come l’epilessia o le lesioni acquisite,
più difficile era caratterizzare patologie come la depressione, la psicopatia,
i disturbi ossessivo-compulsivi, etc. Si venne così a creare una certa ostilità
tra le neuroscienze e la psichiatria, cioè tra un paradigma totalmente
riduzionistico e uno che pensava di poter trattare la sfera psicologica a
livello cognitivo-comportamentale. A partire dagli anni ’50 la psichiatria
stessa adottò un approccio materialistico e il bersaglio polemico divennero
la psicologia e le discipline psicoterapeutiche. Il recente film di Martin
Scorsese, Shutter Island (2010), rappresenta in modo esemplare questo
scontro.79
Sebbene oggi la situazione sia molto diversa, lo scontro tra paradigmi
vede ancora opposti gli studiosi delle varie discipline. Da un lato neurologi
e neuropsichiatri che hanno perfezionato le tecniche d’intervento e fornito
numerosi farmaci mirati, dall’altro gli psicoterapeuti che condannano
l’abuso di psicofarmaci e il disinteresse per l’individualità del paziente.
Come scrive Giacomo Giacomini, presidente della Società Italiana dei
Medici Psicopatologici e Psicoterapeuti, ancora oggi:
41
La critica di Giacomini è rivolta sostanzialmente a due obiettivi: le pratiche
parapsicologiche (counseling, coaching) per cui chiunque abbia seguito i
relativi corsi o master può esercitare (la laurea in medicina o psicologia non
è ancora obbligatoria); e la divisione degli studiosi per scuole di pensiero,
quando invece lo stato della ricerca suggerisce un approccio
integrazionista. Musumeci aggiunge un altro effetto deleterio di questa crisi
disciplinare che si ripercuote in ambito giuridico: «[…] di fronte alla
disgregazione del potere degli psichiatri e alle loro perizie, ritenute ormai
sempre meno oggettive e meno certe, nei tribunali i giudici scelgono
sempre più di affidarsi a tecniche che appaiono invece “certe” e
“infallibili”».81 Queste tecniche sono quelle delle moderne neuroscienze, le
quali mirano a illuminare le ampie zone d’ombra lasciate dalla psichiatria e
dalla psicologia.
La questione oggi è se le neuroscienze siano davvero in grado di
offrire una spiegazione completa del mentale e se non ci sia il rischio che
un eccessivo entusiasmo possa portare al ripetersi dei vecchi errori.
Sebbene la comunità scientifica abbia fatto ammenda degli sbagli
commessi da frenologia, antropologia criminale e psicochirurgia,82 il
radicalizzarsi del suo spirito naturalistico ha rimodellato (ed esasperato) lo
scontro che divideva Positivisti e Scuola Classica.
Art. 85: Nessuno può essere punito per un fatto preveduto dalla
legge come reato, se, al momento in cui lo ha commesso, non era
imputabile. È imputabile chi ha la capacità d'intendere e di
volere.
due-discipline-in-crisi&format=pdf.
81
Musumeci, Cesare Lombroso e le neuroscienze, p. 15.
82
Va precisato che contrariamente a frenologia e antropologia criminale, la psicochirurgia non è una
pseudoscienza. Essa è nata come pratica rozza, poco efficace e del tutto priva di regolamentazione, ma col
migliorare delle conoscenze si è rivelata uno strumento indispensabile per curare le patologie
farmacoresistenti. Oggi si tiene in altissima considerazione la salute del paziente e per questo
l’applicazione di tecniche sperimentali deve seguire un rigido protocollo. Vedi Mashour et al.,
Psychosurgery: past, present, and future, pp. 413-418.
83
Gli articoli sono tratti da L. Alibradi, P. Corso (a cura di), Codice penale e di procedura penale e leggi
complementari, La Tribuna, Piacenza, 2015, LIBRO PRIMO - Dei reati in generale → Titolo IV - Del reo
e della persona offesa dal reato (artt. 85-131) → Capo I - Della imputabilità.
42
Art. 88: Non è imputabile chi, nel momento in cui ha commesso
il fatto, era, per infermità, in tale stato di mente da escludere la
capacità d'intendere o di volere.
Art. 89: Chi, nel momento in cui ha commesso il fatto, era, per
infermità, in tale stato di mente da scemare grandemente, senza
escluderla, la capacità d'intendere o di volere, risponde del reato
commesso; ma la pena è diminuita.
43
e l’elettroencefalogramma84 misurano rispettivamente l’ossigenazione del
sangue e le variazioni di potenziale, cioè eventi fisici la cui correlazione
con eventi mentali specifici non è automatica né diretta. Ciò impedisce di
stabilire con esattezza se l’attivazione di una certa area cerebrale sia la
causa, l’effetto o la concausa delle nostre scelte, credenze o emozioni;
siamo cioè di fronte a un limite tecnico che anche il riduzionista più
convinto non può ignorare.
Nonostante ciò, molti studiosi hanno usufruito delle recenti scoperte
per dimostrare la verità del determinismo e riproporre il revisionismo della
Scuola Positiva. Gazzaniga, uno dei neuroscienziati più attivi sul fronte
della neuroetica, scrive a chiare lettere qualcosa che ricorda molto
Lombroso e Alimena: «Some legal scholars hold that determinism
undermines legal responsibility and that the law cannot ignore the threat of
determinism. Other scholars directly assert that human beings are not
responsible for any of our actions. […] If determinism is correct, retributive
punishment is not only nonsensical, it is immoral».85 Ma davvero le
neuroscienze hanno offerto prove a favore del determinismo? E soprattutto:
è lecito che queste prove siano utilizzate nelle aule di tribunale?
S. Morse chiama Brain overclaim syndrome86 (BOS) la tendenza a
inferire dagli esperimenti di neuroscienze più di quanto sia logicamente
concesso. Un problema, questo, che pare sempre più diffuso e per il quale
si temono ripercussioni negative sul versante sociopolitico. Il pubblico
inesperto infatti si mostra incline ad accogliere con spirito acritico le nuove
scoperte e a prendere come verità assolute le conclusioni dei loro autori. La
posta in gioco è se considerare i criminali come persone o se pensarli
piuttosto come cervelli difettosi da ricondurre alla normalità attraverso
l’opportuna terapia.
44
un elettromiografo, premessero un pulsante con l’indice ogni volta che ne
avessero sentito l’impulso (‘urge to’).87 L’elettromiografo forniva un
riferimento temporale per la contrazione muscolare, mentre per l’impulso
cosciente i soggetti dovevano guardare un orologio e comunicare il
momento della decisione. Dai dati ottenuti emerse un incremento di
potenziale nell’area motoria supplementare (SMA) 350 millisecondi prima
che i soggetti diventassero coscienti della propria scelta, mentre altri 200
ms intercorrevano dalla presa di coscienza all’esecuzione materiale
dell’azione. Il potenziale registrato in SMA fu rinominato ‘potenziale di
prontezza’ e dimostrò come la preparazione di un movimento volontario
avvenisse in realtà a livello inconscio. Tuttavia, Libet concesse che nei 200
millisecondi prima del compimento della flessione vi fosse una libertà di
veto, cioè la possibilità d’impedire l’esecuzione. Ecco un semplice
diagramma che esplicita i risultati:
Figura 2
88
C.S. Soon, M. Brass, H. Heinze, J. Haynes, Unconscious determinants of free decisions in human
brain, in Nature Neuroscience, 11, 2008, 543-545.
45
corteccia frontopolare e in alcune zone della parietale (precuneo e cingolo
posteriore) i luoghi nei quali la decisione veniva in essere con 10 secondi
d’anticipo sulla scelta cosciente. Ciò permise loro di predire con un
accuratezza del 60% quale bottone avrebbe premuto il soggetto e di
precisare che i primissimi precursori della decisione motoria non si
collocano, come sosteneva Libet, nella SMA. La figura 3, tratta
dall’articolo in questione, riporta un’immagine della risonanza e il
diagramma dell’affidabilità predittiva:
Figura 3
Sottoposti a un pubblico inesperto, questi esperimenti sembrano
comprovare un quadro piuttosto chiaro: le decisioni sono determinate a
livello inconscio, quindi la libertà di scelta è un’illusione. Tuttavia, De
Caro in Libero arbitrio e neuroscienze89 enumera svariate critiche a
dimostrazione del fatto che l’interpretazione deterministica di questi
esperimenti non è affatto pacifica. Anzitutto, bisogna fare chiarezza su cosa
sia una decisione libera: una decisione libera è quella che ha un senso e un
valore per noi, che si connota emotivamente e si basa su delle preferenze;
altrimenti si tratta di un automatismo insignificante. Nel caso degli
esperimenti citati, è plausibile pensare che l’adesione all’esperimento, più
che l’esecuzione del movimento, sia la decisione genuina. Decisione che
89
M. De Caro, Libero arbitrio e neuroscienze, in Sartori G., Lavazza, A. (a cura di), Neuroetica, il
Mulino, Bologna, 2011, pp. 69-83.
46
non è mai sottoposta a monitoraggio. Si può inoltre obiettare che la libertà
di un’azione non implichi sempre la coscienza della stessa o un impulso.
Per esempio, un oratore che non si accorge di aver bevuto un bicchiere
d’acqua perché concentrato sul rispondere a una contestazione ha
comunque compiuto un’azione libera. Come libera è la scelta di iscriversi a
una facoltà universitaria, anche se questa si distende nel tempo e non è
possibile ricondurla a un ipotetico impulso o momento “zero” – il che
rimanda al problema più generale di come mettere in relazione causale
degli eventi puntiformi (le variazioni di potenziale) con eventi che hanno
una durata come le scelte ponderate. Ancora, ulteriori dubbi si possono
porre per quanto riguarda la tempistica, perché non è detto che «la
decisione di premere uno dei due pulsanti, la consapevolezza di tale
decisione e la percezione di quale sia la specifica immagine che appare
sullo schermo del computer siano veramente simultanee […]».90 A tutto ciò
va aggiunto infine che la comunità scientifica non è concorde sul definire
cosa sia il potenziale di prontezza, così come non è chiaro per quale motivo
la libertà di veto non dovrebbe essere vincolata a sua volta a determinanti
inconsci.
Sul versante più strettamente filosofico, la critica principale degli
antiriduzionisti è quella contro la teoria dell’identità nella formula per cui
determinati eventi cerebrali causerebbero e corrisponderebbero a
determinati stati mentali. In termini tecnici, la teoria dell’identità prevede
che le occorrenze dei fenomeni neurobiologici siano condizioni necessarie
e sufficienti per l’occorrere di fenomeni mentali.91 Ora, per quanto sia
plausibile e largamente accettato che un evento fisico debba accadere
affinché vi sia un evento mentale, non è altrettanto scontato che il secondo
sia esaurito dal primo senza scarto. I limiti tecnici richiamati in precedenza
non ci permettono di asserire che “X decide Y” perché nel cervello si sono
attivate le aree corrispondenti a “decidere-Y”, in quanto l’attivazione di
suddette aree suggerisce solo il loro coinvolgimento in “decidere-Y”, non
la descrizione completa del fenomeno.
Nel caso degli esperimenti di Libet e Soon, i dati non proverebbero
dunque l’assenza del libero arbitrio, ma semmai l’operatività, nei processi
decisionali, di una componente inconscia che coinvolge le aree del sistema
motorio e la corteccia frontopolare – sempre ammesso che premere un
bottone senza uno scopo possa essere considerato il frutto di un processo
decisionale ‘genuino’. Inoltre, fa sapere De Caro, i risultati dei due
90
Ivi, p. 77. Per una critica ai metodi di temporizzazione dei movimenti volontari, si veda F. Tempia,
Decisioni libere e giudizi morali: la mente conta, in M. De Caro, A. Lavazza, G. Sartori (a cura di),
Siamo davvero liberi?, Codice Edizioni, Torino, 2010, pp. 88-108.
91
M. Di Francesco, Neurofilosofia, naturalismo e statuto dei giudizi morali, in Etica & Politica/Ethics &
Politics, IX, 2, 2007, pp. 135-141.
47
esperimenti sono di fatto conciliabili con le teorie del compatibilismo e del
libertarismo.92 Infatti, chi crede che la libertà s’innesti su un universo
deterministico non avrà problemi ad accettare il ruolo di certi eventi
neurobiologici nei processi decisionali: se non vi fosse qualcosa che
funziona in modo determinato, il mondo sarebbe caos, e la libertà non può
sussistere nel caos. I libertari invece troveranno nel 40% di predizioni
fallite l’occasione per ipotizzare momenti indeterministici non prevedibili
dalle leggi di natura.93
48
Le divisioni che queste ipotesi hanno creato all’interno della comunità
scientifica dimostrano la necessità di verificare l’attendibilità del sapere
neuroscientifico in rapporto alle altre fonti da sempre utilizzate nei
tribunali. Un conto infatti sono le prove che può offrire uno psichiatra o un
criminologo, un conto sono quelle che può offrire un ricercatore che si
approccia agli psicopatici con spirito lombrosiano: per quanto si ricerchi
nelle neuroscienze un grado di certezza superiore alle discipline
tradizionali, le prove comportamentali appaiono attualmente più esplicative
delle interpretazioni del neuroimaging.98
Vien da sé che giudici e avvocati affetti da BOS siano esposti al
rischio di condannare o scagionare gli imputati sulla base di dati dalla
scarsa validità scientifica. I killer psicopatici potrebbero essere considerati
unicamente come malati anziché criminali, così come i giovani delinquenti
sarebbero scusabili per via del loro cervello instabile. Quest’ultimo
esempio rappresenta un caso controverso per il quale può essere utile
richiamare la sentenza Roper v. Simmons del 2005, nella quale la Corte
Suprema degli U.S.A. ha dichiarato l’incostituzionalità della pena di morte
per i minorenni. Qui gli avvocati a favore dell’abolizione fecero appello
alle neuroscienze per confermare ciò che le scienze del comportamento – e
il senso comune – già sapevano da tempo, cioè che gli adolescenti sono
impulsivi, suscettibili allo stress, con una scarsa capacità di valutare i rischi
ed emotivamente instabili. Il fondamento neurobiologico di ciò starebbe
nella mancanza di una completa mielinizzazione dei neuroni corticali, la
quale equivarrebbe alla mancanza di un completo sviluppo delle capacità
razionali rispetto agli adulti. Ne seguirebbe che i giovani assassini non
meritano di morire perché non del tutto responsabili dei loro atti.99 La cosa
curiosa, fa notare Morse, è che tale scoperta non è stata menzionata nella
sentenza di incostituzionalità, che invece cita solo studi comportamentali.
Infatti, per quanto i dati neuroscientifici abbiano avuto un peso nella
sentenza, quella delle differenze di mielinizzazione tra il cervello dei
sedicenni e quello degli adulti è ancora una speculazione.100 E comunque,
fosse dato un assassino sedicenne con un cervello mielinizzato come un
diciottenne, il primo dovrebbe essere condannabile alla pena di morte al
pari dei maggiorenni? E se, viceversa, il cervello di un maggiorenne fosse
indistinguibile da quello di un sedicenne, la sentenza dovrebbe escluderlo
98
O almeno così pensa Morse. Vedi Morse, Brain overclaim syndrome and criminal responsibility, pp.
404-405.
99
Ivi, pp. 406-410.
100
Morse, per esempio, contesta i neuroscienziati che sostengono di poter distinguere con precisione le
differenze cerebrali una volta dato il sesso e la lateralizzazione: tra i sedici e i diciotto anni il cervello è
ancora in una fase di sviluppo tale per cui non è possibile riscontrare le differenze che presumibilmente si
troverebbero tra un tredicenne e un venticinquenne. Questo significa che far combaciare la soglia dei
diciott’anni con la maturità psicologica sulla base di immagini della mielinizzazione è un azzardo.
49
dalla sua giurisdizione? A questo punto, anziché una legge che stabilisce i
diciott’anni come soglia, non sarebbe più giusto sottoporre a risonanza tutti
i giovani imputati per verificarne la condizione individuale? Dilemmi di
questo tipo rendono bene l’idea di quanto possa essere controverso l’uso
delle neuroscienze in ambito giuridico. E se l’applicabilità della pena di
morte ai minori può apparire un caso estremo, le situazioni limite sono
comunque all’ordine del giorno. Dato un uomo adulto apparentemente
razionale, egli è da ritenere responsabile per i delitti che il suo cervello gli
impedisce di respingere per via di una lesione comprovata ai lobi frontali,
magari dovuta a un trauma cranico? Se no, come considerare la razionalità
in relazione al libero arbitrio?
In Italia, il primo caso che ha suscitato scalpore è stata una sentenza
della Corte d’Assise d’Appello di Trieste del 2009, la quale ha accordato
uno sconto di pena sulla base di una perizia neurologica e genetica. La
vicenda riguarda AB, algerino da anni residente in Italia, che nel 2007 era
stato schernito per via delle sue usanze religiose. Per vendicarsi degli
insulti e delle percosse ricevute, AB aveva comprato un coltello ed era
tornato sul luogo dello scontro per uccidere chi l’aveva offeso, pugnalando
tuttavia una persona diversa. Condannato in primo grado, i periti Sartori e
Petrini furono chiamati in appello per verificare la capacità di intendere e di
volere dell’imputato. I due studiosi sottoposero AB a una batteria di test
neuropsicologici, a un test genetico e a risonanza magnetica funzionale,
rilevando una capacità d’intendere grandemente scemata e l’incapacità di
trattenersi dal compiere azioni impulsive: una disfunzione frontale e la
presenza dell’allele MAOA-L motivavano scientificamente la riduzione del
libero arbitrio.101 Rispetto alla sentenza di primo grado, che si era ‘limitata’
al colloquio clinico tradizionale e aveva già riscontrato una semi-infermità,
la pena venne ridotta di alcuni mesi.
L’uso massiccio delle neuroscienze e della genetica del
comportamento ha fatto sì che il caso AB acquisisse rilevanza a livello
mondiale. Nonostante i periti avessero da subito frenato gli entusiasmi
sostenendo che i loro studi offrivano solo una conferma più precisa della
perizia degli psicologi, i media rinominarono il gene MAO-A ‘gene del
male’ e diffusero una ricostruzione deterministica del crimine. Petrini
rilasciò allora un’intervista nella quale spiegò come non vi fosse alcuna
variazione genica che determinasse in modo assoluto il comportamento
antisociale: lo studio combinato del cervello e dei geni indicava solo che a
certe varianti geniche si associa un rischio statisticamente maggiore di
101
Cfr. A. Lavazza, L. Sammicheli, Se non siamo liberi, possiamo essere puniti?, in M. De Caro, A.
Lavazza, G. Sartori (a cura di), Siamo davvero liberi?, pp. 156-157. Per altre analisi del caso di veda
Musumeci, Cesare Lombroso e le neuroscienze, pp. 102-109, e Merzagora Betsos, Colpevoli si nasce?,
pp. 163-165.
50
manifestare un comportamento aggressivo.102 Tuttavia, per quanto siano
stati cauti giudici e periti, non si può certo dire che ciò non abbia avuto
ripercussioni sulla nostra concezione del libero arbitrio. Il rischio statistico
infatti rappresenta pur sempre una spada di Damocle che pende sulla nostra
capacità di scelta e azione. Ma soprattutto, il rischio statistico è la base su
cui poggiano le teorie del contenimento preventivo. Diventa allora di
fondamentale importanza verificare cosa sia effettivamente un fattore di
rischio biologico-comportamentale, stabilirne con precisione l’incidenza e
la rilevanza in sede giudiziaria. La preoccupazione, come sempre, è che
un’analisi riduttiva e semplicistica del comportamento umano possa portare
a grandi ingiustizie. Nonostante gli anni, sembra che il problema sia
rimasto lo stesso di Lombroso: la sua eredità è ciò di cui le attuali
neuroscienze si sono fatte carico.
51
La ricerca in questo senso procede tra non poche fatiche poiché
disfunzioni di questo tipo sono più difficili da studiare rispetto a quelle
derivate da una lesione (p.e. afasia, aprassia, neglect, comportamenti
antisociali conseguenti a traumi della corteccia prefrontale). Lo strumento
attualmente utilizzato per la diagnosi della psicopatia è stato elaborato da
R. Hare nel 1991 e si chiama Psychopaty Cheklist-Revised: un test che
analizza i caratteri affettivi e comportamentali del soggetto e che, su una
scala da 0 a 40, definisce un punteggio di 30 come soglia della patologia.
La diagnosi del test di Hare è quindi diretta (“se rispondi in un certo modo
sei psicopatico”), cosa che le neuroscienze non sono in grado di offrire (“se
hai queste disfunzioni sei psicopatico”). Le neuroscienze cercano piuttosto
di dare un maggiore supporto empirico all’indagine psicologica, ed è così
facendo che sono arrivate a circoscrivere un’area d’interesse nella
corteccia, o meglio un circuito composto da corteccia prefrontale mediale
(mPFC), cingolo posteriore, giro angolare e amigdala.105 Tale circuito è
implicato nelle seguenti disfunzioni: reazioni aggressive, difficoltà nel
distinguere regole morali da regole convenzionali, mancanza di empatia e
di rimorso. Sapolsky, per esempio, fa notare che nei soggetti normali la
PFC è molto attiva nelle condizioni che richiedono autocontrollo – cioè in
quei casi in cui è utile inibire una risposta automatica e istintiva – e che i
comandi inibitori vengono proiettati soprattutto nel sistema limbico, una
regione sottocorticale fortemente coinvolta nel comportamento aggressivo.
Il dato interessante è che un danno in questo circuito può compromettere la
capacità di comportarsi in modo morale e nel contempo permettere di
operare la distinzione tra giusto o sbagliato. Uno dei fattori alla base di
questa discordanza sarebbe l’incapacità di dare la giusta connotazione
emotiva alla conoscenza razionale/morale e, in generale, al contesto.106 In
accordo con ciò, Lavazza e Sammicheli informano che studi condotti
direttamente sugli psicopatici hanno mostrato una riduzione dell’attività
della PFC durante la presa di decisioni morali e un funzionamento alterato
dell’amigdala. Detto in altri termini, la bassa attivazione di PFC e amigdala
non permette di inibire la risposta istintivo-egoistica in favore di un
comportamento prosociale. Stessa cosa accade per la capacità di
distinguere le trasgressioni morali (p.e. “non uccidere”) dalle trasgressioni
convenzionali (p.e. “non mangiare coi gomiti sul tavolo”), come evidenzia
predatore privo di qualunque senso di responsabilità e incapace di provare empatia, un soggetto che
utilizza la propria razionalità per scopi egoistici e per sottrarsi alla presa della legge. Cfr. V. Caretti, G.
Craparo, La personalità psicopatica, in F. Caruana (a cura di), Sistemi Intelligenti, 2/2010, p. 237.
105
Cfr. Lavazza, Sammicheli, Il nuovo rapporto tra diritto e neuroscienze, p. 246.
106
Cfr. R.M. Sapolsky, The frontal cortex and the criminal justice system, in Phil. Trans. R. Soc. Lond.,
B, 359, 2004, pp. 1787-1796.
52
p.e. lo studio di Blair e colleghi,107 stando ai quali la disfunzione
dell’amigdala sarebbe il fulcro dell’incapacità di interpretare gli stati
emotivi altrui (empatia) e di comprendere l’entità del danno arrecato
(rimorso).
Guardando a tutti questi indizi, verrebbe da chiedersi come mai il
sistema giuridico opponga resistenza alla deresponsabilizzazione di quello
che, per le neuroscienze, è da considerarsi un malato. Un primo motivo è
che i dati sono ancora troppo grezzi e non sappiamo se la disfunzione
dell’amigdala spieghi in modo esaustivo il fenomeno. Un secondo motivo è
che non si conoscono le cause dell’insorgenza del disturbo: senza la
presenza di una lesione verificabile, la disfunzione è dovuta principalmente
ai geni, a problemi nello sviluppo fisiologico, oppure all’impatto violento
di un trauma emotivo?108 Terzo motivo è la capacità razionale non solo
intatta, ma spesso sopra la media, dei soggetti. Contrariamente al resoconto
delle disfunzioni della PFC di Sapolsky, lo psicopatico è infatti in grado di
scegliere “la strada più difficile”, cioè di esercitare un autocontrollo che gli
permette di dissimularsi con la vittima e con le forze dell’ordine.109 Questo
spiega perché il criminale psicopatico appaia spesso ai giudici come una
persona pienamente responsabile delle sue azioni, un sadico capace di
trattenersi e quindi consapevole di poter fare altrimenti. Questa tendenza
giudiziaria potrà forse cambiare una volta che le neuroscienze avranno
capito nel dettaglio cos’è a non funzionare e perché. Nel frattempo, sembra
che i dati scientifici possano fungere da utile integrazione all’indagine
tradizionale, ma non da elementi probatori.
53
pare un errore categoriale. La responsabilità giuridica, dice Gazzaniga, non
si localizza nel cervello, ma emerge solo quando uno o più agenti
interagiscono in un contesto sociale e producono delle regole.110 Di
Francesco specifica inoltre che «presupporre la convergenza (riduttiva o
eliminativa) tra i livelli [biologico e sociopsicologico] è un’ipotesi che non
fotografa certamente lo stato attuale della ricerca, e che può essere avanzata
solo assumendo la prospettiva metafisica riduzionistica che si vuole
dimostrare».111 Ciò che si sta dicendo, insomma, è che la responsabilità si
potrebbe ricercare nei processi cerebrali solo se fosse compiuta una
completa riduzione del livello fenomenologico (e sociologico) al livello
biologico, il che è ben lungi dall’essere realizzato. Ne segue che attribuire
alle neuroscienze un – indiscriminato – ruolo deresponsabilizzante è
un’operazione quantomeno prematura ed estrema. Le prove sperimentali
suggeriscono forse che non si può incolpare uno psicopatico per i suoi
delitti, tuttavia questo non vuol dire che vada lasciato libero di nuocere agli
altri; oppure che lesioni cerebrali e difetti genetici favoriscono condotte
antisociali, ma questo non significa che l’individuo sia irrecuperabile a
priori, né che debba essere contenuto preventivamente; o ancora, che le
nostre azioni sono da inquadrare in un contesto deterministico, il che però
non implica che violenza e crudeltà vadano descritte nei termini di malattia
e devianza.
Chi è affetto da BOS non prende in considerazione questi fatti e si
lascia ammaliare dalle teorie, magari un po’ naïve, che si presentano con
l’abito della scientificità. Va precisato però che la denuncia di questo
problema non equivale a una demonizzazione delle ricerche sul cervello,
perché solo mettendo alla prova le varie ipotesi può esserci un incremento
di conoscenza. Oggi è chiaro come le neuroscienze abbiano aperto una via
senza ritorno: se vogliamo capire meglio la natura umana, dobbiamo
integrare le scienze del comportamento con gli studi sui meccanismi
cerebrali. La vera sfida è prendere consapevolezza dello stato della ricerca
e non commettere errori logici. Troppi “forse” e troppe poche certezze sono
il motivo, secondo Morse, per cui attualmente «the neuroscientific evidence
provides a partial causal explanation of why the observed behavioral
differences exist and thus some further evidence of the validity of the
behavioral differences»,112 e ciò non può avere che una rilevanza limitata e
indiretta nell’accertare la responsabilità dell’imputato.
110
Gazzaniga è ambiguo su questo punto, perché sostiene l’emergentismo degli stati mentali e nello stesso
tempo l’impossibilità degli stessi di retroagire sul cervello, il quale invece funziona in maniera
deterministica. Vedi M. Gazzaniga, Who’s in Charge?, 2012, trad. it. a cura di S. Inglese, Chi comanda?
Scienza, mente e libero arbitrio, Codice Edizioni, Torino, 2013, cap. 6.
111
Di Francesco, Neurofilosofia, naturalismo e statuto dei giudizi morali, p. 140.
112
Morse, Brain overclaim syndrome and criminal responsibility, p. 409.
54
Se una parte della critica accademica si è fatta agguerrita nei confronti
del naturalismo estremo non è pertanto per una petizione di principio,
quanto per evitare che ideologie fuorvianti compromettano il già complesso
universo giuridico. Quando si deve decidere della vita di una persona e, più
in generale, della gestione della società, è preferibile affidarsi al grado di
evidenza massimo disponibile, pena il rischio di moltiplicare le ingiustizie:
dallo stato attuale del dibattito, emerge che l’indagine forense non può
sostituire le spiegazioni storiche e soggettive con le neuroscienze, perché la
complessità della vita mentale non si ritrova nelle immagini di risonanza o
nei tracciati degli elettrodi. O almeno, non ancora.
Capitolo 4. Teorie contemporanee del
libero arbitrio
55
elementi inconciliabili col determinismo democriteo. O ancora, si pensi alla
distinzione tra necessità condizionale e necessità assoluta con cui i
medievali libertari tentarono di salvaguardare il libero arbitrio
dall’onniscienza divina: essi teorizzarono che Dio, in quanto entità
atemporale, assistesse contemporaneamente a passato, presente e futuro del
mondo, senza però determinare le scelte degli uomini, così come il mio
sguardo non costringe una persona a camminare se la vedo passeggiare.114
Oggi come allora l’analisi concettuale svolge un ruolo di primo piano
nel definire il problema della libertà e le sue categorie, sebbene i progressi
non siano stato molti.115 Le critiche mosse da De Caro agli esperimenti di
Libet e il dibattito sul tema dell’imputabilità evidenziano il bisogno di
stabilire cosa sia un’azione libera; quale correlazione sussista tra i dati del
neuroimaging e termini come “coscienza”, “desiderio”, “impulso”,
“scelta”, “causa”; quanto e quali concezioni di responsabilità siano
compatibili con il determinismo; quali tipi di causalità vadano presi in
esame, e via dicendo. Analisi di questo tipo sono, per l’appunto, concettuali
e qualunque ricerca, sia filosofica che empirica, deve in qualche modo
presupporle, anche solo per sapere cosa si sta cercando. Secondo alcuni, ciò
è possibile senza dover attribuire alla filosofia un carattere fondazionale di
stampo neopositivista:
114
Cfr. P. Porro, Trasformazioni medievali della libertà/2. Libertà e determinismo nei dibattiti scolastici,
in M. De Caro, M. Mori ed E. Spinelli (a cura di), Libero arbitrio, storia di una controversia filosofica,
pp. 195-202.
115
In merito agli scarsi progressi della ricerca sul libero arbitrio, De Caro scrive «A mio giudizio […] è
ragionevole ritenere che il paradigma libertario e quello compatibilistico, così come sono stati sino ad
oggi sviluppati, abbiano ormai perduto la loro vitalità teorica e siano, per così dire, chiusi
irrimediabilmente in sé stessi. La prova di una tale involuzione è che oggi, in molti casi, i contributi al
dibattito sulla libertà si presentano come mere esercitazioni scolastiche incentrate su microproblemi,
interni all’uno o all’altro dei paradigmi in competizione, ma ignorano le formidabili difficoltà, aporie e
contraddizioni che minano alla base la credibilità generale di quei paradigmi». M. De Caro, Il libero
arbitrio, un’introduzione, Editori Laterza, Bari, 2004, p.89.
116
Ivi, pp. 20-21.
56
De Caro, coerentemente con i principi del suo naturalismo liberalizzato,
opta per la compatibilità della filosofia con la scienza, nel senso di un
equilibrio riflessivo tra l’analisi concettuale e la conoscenza empirica del
mondo.117
In questo capitolo proporrò le varie teorie del libero arbitrio nei loro
nodi essenziali, ma tratterò solo marginalmente le critiche a esse rivolte.
Rimando tali critiche al prossimo capitolo, nel quale presenterò l’attacco di
Derk Pereboom contro la nozione di libero arbitrio in tutte le sue
declinazioni.118 Il mio concentrarmi su questo autore è direttamente
connesso con la precedente citazione di De Caro, poiché Pereboom,
attraverso gli strumenti dell’analisi concettuale e della fisica, vorrebbe
dimostrare come il libero arbitrio non possa esistere tanto in un contesto
deterministico quanto in uno indeterministico. Il mio obiettivo finale è
quello di analizzare non solo la solidità teoretica delle teorie naturalistiche,
ma anche le loro conseguenze a livello pratico.
57
Gli ostacoli consistono sostanzialmente nell’incapacità di fare
qualcosa (p.e. camminare per un paralitico) e nella mancanza di
opportunità (p.e. evadere da una cella perfettamente sorvegliata).
L’incapacità rispecchia un ostacolo interno all’agente, quali possono
essere le malattie, mentre la mancanza di opportunità è un ostacolo
posto dall’esterno. La libertà di agire si distingue dalla libertà
sociale, perché un agente che ne abbia la capacità e l’opportunità può
comunque compiere un’azione socialmente sanzionabile.
58
alternativi. Se le cose sono destinate ad andare in un
unico modo, la mia volontà e le mie scelte sono
ininfluenti.
Autodeterminazione o controllo delle azioni – le azioni
di un agente devono discendere dai suoi desideri,
credenze e intenzioni. L’agente non deve essere
determinato nella sua volontà, ma è egli stesso a
determinarsi, così da avere il controllo sulle proprie
azioni.
Come mostrerò tra poco, le teorie del libero arbitrio cercano di dare conto
di entrambe le condizioni le quali, almeno a prima vista, non possono darsi
in un contesto deterministico. Si tratta di condizioni ontologiche, insieme
necessarie e sufficienti, che assorbono al loro interno la condizione
necessaria, ma non sufficiente, del sentimento di libertà che accompagna le
nostre azioni. Infatti è impossibile non sentirsi padroni delle proprie azioni
volontarie, tuttavia questo non ci garantisce che vi siano possibilità
alternative né che la nostra facoltà di autodeterminarci non sia totalmente
illusoria.
Siccome il determinismo minaccia entrambe le condizioni della
libertà, ne riporto qui alcune versioni, tutte fortemente influenzate dalla
concezione del mondo nelle rispettive epoche:
59
Determinismo teologico – concezione tipica
dell’antichità e soprattutto del Medioevo. Ci si chiede
come il libero arbitrio possa sussistere date la prescienza
e la provvidenza divine. Nel primo caso, infatti, le
nostre scelte sono previste con largo anticipo e dunque
siamo necessitati a compierle. Nel secondo caso, il
disegno divino mira a una sua realizzazione in chiave
escatologica, pertanto vi è un fine predeterminato.
Poiché ciò che Dio dispone non può non verificarsi, è
chiaro che le scelte degli uomini devono accordarsi con
il progetto originario e sono, pertanto, vincolate.123
Alcune versioni del determinismo teologico, come
l’occasionalismo, rientrano nella più grande famiglia del
determinismo causale.
123
Vedi Porro, Trasformazioni medievali della libertà/2, pp. 195-202.
60
procede solo in un verso senza la possibilità di corsi
d’azione alternativi.
61
il libero arbitrio svincolandolo dalle leggi della fisica, o negando
direttamente la verità del determinismo (incompatibilismo libertario).
Coloro che non si ritengono soddisfatti da nessuna delle soluzioni proposte
sono infine gli scettici, i quali vedono negli scarsi progressi della
discussione il sintomo di una problematica insolubile e misteriosa.
In questo paragrafo descriverò le tesi del libertarismo, le quali si
dividono anch’esse in tre tipologie:124
62
generale, la rinuncia al principio di causalità pare essere
un requisito metafisicamente troppo impegnativo.
63
corso d'azione piuttosto che un altro. Per esempio,
ipotizziamo che io debba decidere se mangiare la torta
di mele, e che debba valutare due ragioni esprimibili con
gli enunciati "desidero mangiare la torta di mele perché
è il mio dolce preferito" e "la dieta m'impone di limitare
di dolci". Poniamo anche il caso dell’inclinazione non
necessitante, e perciò che il primo desiderio abbia un
peso iniziale di 0.7 e il secondo 0.3. Queste due ragioni
sono gli eventi mentali antecedenti. Segue quindi un
altro evento, la pesatura indeterministica, dove queste
preferenze iniziali diventano ininfluenti e possono
essere completamente sovvertite. Dunque, la mia
inclinazione iniziale a mangiare la torta il 70% delle
volte non avrà più alcun valore, e l'esito della
deliberazione sarà ancora in mano al caso.
64
fenomeni che regolarmente si presentano congiunti.127
Tuttavia, il principale problema della dottrina
dell’agent-causation è quello di essere metafisicamente
oscura. Infatti, a livello teorico, il potere che i libertari
postulano può sembrare una formulazione ad hoc per
aggirare il problema connesso all’indeterminismo. A
livello empirico, invece, rappresenta un’anomalia
nell’ordine naturale per come oggi ce lo descrivono le
scienze. Il problema allora, come spiega De Caro, è far
sì che questa teoria possa essere antiriduzionistica, ma
non antiscientifica.128 Il principale pregio però resta la
buona integrazione delle due condizioni della libertà che
qui, differentemente dal libertarismo radicale e
dall’indeterminismo causale, non sembrano finire in
cortocircuito.
65
fondamento scientificamente ammissibile (neuroni, molecole, atomi) e la
libertà si potrebbe configurare come una proprietà emergente del cervello
umano. Pereboom, tuttavia, pone forti obiezioni a questa concezione, e
rimando al prossimo capitolo per una discussione più approfondita in
merito.
Ora, invece, esporrò le teorie del compatibilismo.
4.3 Il compatibilismo
66
– e qui sta la peculiarità – che i miei desideri e le mie inclinazioni siano
completamente determinati; l’importante è che la catena causale che
procederebbe dalla mia volontà all’azione non subisca interferenze
esterne. In questo modo si può rendere conto di un senso di libertà che 1)
non incorre in oscuri stratagemmi metafisici e 2) garantisce il controllo
dell’azione, poiché agente, volontà e azione sono tutti connessi in una
catena causale.
Nel corso dei secoli, e in particolare nel ‘900, questa accezione di
libertà è stata affinata in modo che fossero contemplati anche dei requisiti
interni all’agente. Un conto infatti è che io non sia libero di fuggire dalla
prigione perché la guardia mi ha incatenato; un altro è la mia impossibilità
di fuggire perché una rara patologia neurologica mi compromette la
corretta percezione dello spazio circostante. La libertà di spontaneità,
insomma, non contempla la circostanza, come può essere quella di un
animale o di un neonato, per cui non vi è alcun impedimento esterno, pur
mancando la libertà.
Il primo passo in questa direzione fu compiuto da Moore,131 che con la
sua analisi condizionale del verbo “potere” cercò di analizzare la libertà di
scelta in termini di controfattuali per rendere conto delle possibilità
alternative anche in un contesto deterministico. Infatti, se la mia volontà è
completamente determinata, come posso scegliere diversamente da come
scelgo? Moore ritenne che l’enunciato:
131
Cfr. G.E. Moore, Ethics, Oxford University Press, Oxford, 1912, trad. it. a cura di Predeval Magrini
M.V., Etica, Franco Angeli, Milano, 1986, cap. 6.
67
c. “Se lo avessi preferito, avrei potuto scegliere di agire
diversamente, e se lo avessi scelto, avrei potuto agire
diversamente”132
68
“potere”. Infatti, per quanto Magni si sforzi nel sostenere che la possibilità
di fare altrimenti sia categorica e non ipotetica, l’analisi condizionale lascia
trasparire tutto il contrario: la possibilità alternativa dei compatibilisti è
relegata a mondi possibili, cioè non si realizzerà mai nel mondo corrente.
Ma allora come può una possibilità che non si esplicherà mai nel contesto
d’azione rendere conto del libero arbitrio? Se io ho mangiato la torta,
perché così era determinata la mia volontà, era davvero aperta la
possibilità, per me, di mangiare il budino, solo perché il mio alter-ego su
terra gemella ha mangiato il budino? Se è lo stato del mondo a determinare
le mie scelte e le mie azioni, e per scegliere altrimenti servirebbe un mondo
diverso in alcuni punti, che possibilità alternative può mai avere l’agente
nel mondo attuale?136 Sembra nessuna. Ma ciò si rivela disastroso anche per
la seconda condizione della libertà, l’autodeterminazione. Infatti, se si parte
dal presupposto che la volontà è determinata, l’agire non ostacolato che
discende da essa non può certo dirsi libero: se sono determinato, io non
sono causa di nulla, sono solo un tassello di una catena causale nella quale
mi trovo immerso e trascinato.
Due ultime osservazioni. Innanzitutto, credo ci sia un senso per cui
l’analisi condizionale effettivamente colga la possibilità di fare altrimenti.
Magni scrive: «Il determinismo morbido è una forma di determinismo: […]
esso si muove quindi su un terreno direttamente ontologico. Il
compatibilismo rimane invece agnostico riguardo alle questioni della
libertà e della determinazione […] esso si muove quindi su un terreno
esclusivamente filosofico-concettuale e non entra in questioni
ontologiche».137 Il compatibilismo dunque avrebbe una certa presa a livello
epistemico, dove un agente determinato può ancora avere delle possibilità
alternative, nel senso che non può prevedere il futuro né sapere cosa
sceglierà: per quanto vincolato, il suo processo deliberativo ha veramente
di fronte delle possibilità, anche se poi solo quella determinata verrà
percorsa. Questo comunque non aiuta a spiegare la libertà, perché il libero
arbitrio di cui si discute richiede uno statuto ontologico e metafisico: non
solo che le alternative si conoscano, ma che davvero si diano.
136
La domanda rispecchia quello che in gergo si chiama Consequence argument, il cui autore è P. van
Inwagen. Molto sinteticamente, se il determinismo fisico è esplicato dall’enunciato ‘Nec (P 0 + L) → P1’,
affinché l’agente avesse potuto fare altrimenti all’istante t 1, bisogna che egli sia in grado di modificare il
passato (P0) o le leggi di natura (L). Poiché l’uomo non può fare né l’uno né l’altro, egli sottomesso alla
ferrea legge della necessità. Per vedere lo sviluppo dell’argomentazione sul piano logico, si veda P. van
Inwagen, The Incompatibility of Free Will and Determinism, 1975, trad. it. a cura di A. Perri,
L’incompatibilità fra libero arbitrio e determinismo, in M. De Caro (a cura di), La logica della libertà,
pp. 135-156. Dubbi sono stati sollevati anche sulla correttezza della parafrasi dell’enunciato a, nel senso
che le condizioni di verità di a, b e c non paiono esattamente le stesse. Vedi De Caro, Libero arbitrio, pp.
72-74.
137
Magni, Teorie della libertà, p. 71.
69
Un secondo punto interessante del compatibilismo è il modo in cui
riesce a spiegare, in un eventuale universo deterministico, i diversi gradi di
controllo locale che un agente può esercitare sull’azione. Si pensi per
esempio a un cleptomane il cui comportamento è stereotipato per via di un
istinto irrefrenabile: la patologia fa sì che in tutti i mondi possibili il
cleptomane sia portato a rubare qualcosa. Nessuna ragione può farlo
desistere. Questo segna una differenza rispetto a una persona sana che,
differentemente da un paraplegico, decide di restare a letto pur avendo la
capacità di fare una passeggiata. Il compatibilismo, insomma, pare rendere
conto di due necessitazioni di tipo diverso, il che può essere utile in sede
giuridica per stabilire chi è punibile e chi no: l’agente non ostacolato né
incapacitato è in qualche modo reattivo agli incentivi del mondo esterno, il
malato no. Rimproverare l’uomo sano per la propria pigrizia può fargli
cambiare atteggiamento (almeno in qualche mondo possibile);
rimproverare il cleptomane no.138
Tuttavia, sono convinto che l’utilizzo della logica e di una nozione di
libertà formulata ad hoc non elude il fatto che in un universo determinato
non si danno né alternative né autocontrollo. Che questo non abbia
conseguenze nella vita di tutti i giorni, così come a livello sociopolitico, è
attualmente tema di grande dibattito.
138
Non so quanto si possa parlare di ‘controllo’ anche nel caso in cui una persona abbia capacità e
opportunità. In un universo deterministico, una persona reattiva agli stimoli sociali e ambientali è
determinata anche nella propria reattività, nel cambiare il proprio comportamento e le proprie abitudini.
La reazione, insomma, non sarebbe una questione di scelta razionale libera, ma di determinazione, come
tutto il resto.
70
possibile e, di conseguenza, che il nostro sentimento di libertà sia solo
un’illusione.
Il primo tipo di posizioni ricalca in qualche modo la lezione di Sesto
Empirico e lascia aperta la questione sul versante ontologico: l’uomo non
potrà mai sapere qualcosa circa l’esistenza del libero arbitrio perché non
ha, né avrà mai, i mezzi adeguati per ottenere tale conoscenza. A
dimostrarlo è l’insieme di oscurità e incongruenze in cui le varie teorie
incorrono nel voler risolvere l’antinomia che si pone tra l’evidenza
fenomenologica dell’agenzialità e l’incompatibilismo sotteso alle scienze
naturali. Due estremi, questi, non solo contraddittori, ma che si pongono
addirittura su piani categoriali differenti e intraducibili, stabilendo un limite
invalicabile per la razionalità umana. Lo scetticismo epistemico però si
distingue nel dare pari dignità ai due estremi della dicotomia: una mossa
che permette la sospensione del giudizio senza degenerare
nell’eliminativismo.
Non sono di questo parere i fautori dello scetticismo ontologico, il cui
assunto scettico sta nel disinteresse (e non nell’epoché!) per la verità o
falsità del determinismo: che l’universo sia vincolato o meno alla causalità
tra eventi, semplicemente non importa, perché la libertà non può darsi in
ogni caso. Non v’è alcun mistero impenetrabile: il nostro senso di libertà è
un’illusione – secondo alcuni un’emozione – necessaria per il benessere
mentale e sociale dell’essere umano.139 La radicalità di tale tesi è il motivo
per cui essa viene denominata ‘incompatibilismo duro’ (hard
incompatibilism)140 ed è ritenuta la naturale erede del ‘determinismo duro’.
Qui l’antinomia non si pone, ma si dissolve con la caduta dell’evidenza
fenomenologica di fronte alla visione scientifica del mondo. D’altronde, se
la sensazione soggettiva di libertà è condizione solo necessaria, non
sufficiente, del libero arbitrio, allora, per un discorso di economia
ontologica, è inutile postulare speciali causazioni mentali o sostanze con
particolari poteri. Ecco perché gli incompatibilisti duri s’impegnano a
sconfessare tanto il libertarismo quanto il compatibilismo, ritenendoli
rispettivamente un retaggio della metafisica cristiana (e cartesiana)141 o un
esercizio di logica mal applicato.
Lungi dall’essere una petitio principii, quella dello scetticismo è
piuttosto l’espressione della criticità di un problema per cui i vecchi mezzi
concettuali non sembrano più avere molto da offrire. Questo lo rende una
139
A tal proposito si vedano D.M. Wegner, Précis of The Illusion of Conscious Will, in Behavioral and
Brain Sciences, 27, 2004, pp. 649-659, trad. it. a cura di A. Lavazza, L’illusione della volontà cosciente,
in M. De Caro, A. Lavazza, G. Sartori (a cura di), Siamo davvero liberi?, pp. 21-50, e S. Smilansky, Free
Will, Fundamental Dualism, and the Centrality of Illusion, in R. Kane (edited by), The Oxford Handbook
of Free Will, 2nd edition, Oxford University Press, Oxford-New York, 2011, pp. 425-441.
140
Cfr. D. Pereboom, Living Without Free Will, Cambridge University Press, Cambridge, 2001.
141
Questa è l’idea per esempio di Nannini, cfr. Nannini, Naturalismo cognitivo, pp. 141-143.
71
posizione piuttosto forte, anche per via dei numerosi argomenti a cui può
appellarsi. È necessario però fare due precisazioni. La prima è che gli esiti
delle varie teorie scettiche non sono uniformi. Ritroviamo infatti autori
ottimisti, che pensano che dalla presa di coscienza dell’illusorietà della
libertà l’uomo trarrà benefici per la sua vita etica e sociale; mentre altri, più
pessimisti, temono che una consapevolezza di questo tipo porterà a scenari
di anarchia e violenza. La seconda precisazione è che l’ascesa del
compatibilismo prima, e dello scetticismo poi, è stata direttamente
proporzionale a quella del naturalismo scientifico: il compatibilismo ha
dominato fintanto che i suoi oppositori non hanno fornito un argomento per
mostrarne l’incoerenza, mentre l’incompatibilismo duro s’è ancorato ai
dettami delle scienze naturali evitando il ricorso a nozioni di libertà
formulate ad hoc. Ciò rende lo scetticismo ontologico piuttosto coerente al
suo interno, ma nel contempo lo espone alle critiche menzionate nel
Capitolo 2. Infatti, se davvero la spiegazione scientifica del mondo non è
esaustiva né completa, e se davvero la normatività epistemica sfugge alla
categorizzazione scientifica (in quanto suo presupposto), allora è sbagliato
eliminare il libero arbitrio solo sulla base del fisicalismo. Le spiegazioni
delle scienze umane, necessarie per quella porzione di realtà che è la vita
dell’agente razionale, fanno inevitabilmente riferimento ai vocaboli della
prospettiva agentiva (scelta, ragione, deliberazione, ecc.), il cui senso è
intrinsecamente connesso alla nozione di libertà. Il che non dimostra certo
l’esistenza del libero arbitrio, ma ci assicura che è razionale credere in esso,
almeno finché il riduzionismo non avrà raggiunto il proprio obiettivo.142
L’onere della prova, dunque, spetta ai naturalisti scientifici.
142
Questo argomento è offerto da De Caro che lo nomina ‘argomento dell’abduzione’ (De Caro, Il libero
arbitrio, pp. 128-142).
72
In questo capitolo approfondirò le critiche che sono state rivolte al
compatibilismo e al libertarismo. Nel farlo mi aiuterò con le opere di Derk
Pereboom, filosofo statunitense e coniatore dell’etichetta ‘incompatibilismo
duro’.
Sono sostanzialmente tre i motivi che mi spingono a fare affidamento
su questo autore. Il primo è che nelle opere Living Without Free Will e Free
Will, Agency, and Meaning in Life143 è raccolta ed esposta con chiarezza
un’enorme mole di argomenti contro il libero arbitrio, con tanto di critiche
e controcritiche. Il secondo è che l’attacco alla nozione di libertà si conduce
su una direttiva in parte concettuale e in parte empirica: indeterminismo
causale e compatibilismo infatti sarebbero incoerenti a livello teorico,
mentre l’agent-causation non sarebbe in se stessa incoerente, ma non
troverebbe spazio tra le descrizioni scientifiche del mondo. Il terzo motivo
è che, oltre alla decostruzione dell’idea di libero arbitrio e,
conseguentemente, di responsabilità morale, Pereboom offre una visione
ottimistica della vita senza l’illusione della libertà. Stando al filosofo,
arrendersi all’impossibilità del libero arbitrio porterebbe seri vantaggi sul
lato pratico, poiché le persone diventerebbero meno inclini ad arrabbiarsi
per i torti subiti. In più, la destituzione della responsabilità morale
consentirebbe di revisionare il concetto giuridico di pena, abolendo l’inutile
accanimento punitivo sui criminali.
Contro l’ottimismo di Pereboom, l’analisi di Smilansky, che pure
condivide la decostruzione dell’idea di libero arbitrio, mira a mostrare la
necessità dell’illusione della libertà. Il filosofo israeliano è infatti convinto
che la civiltà stessa si fondi su questa illusione e che una sua caduta
comporterebbe effetti devastanti per l’umanità. La sua ricerca può essere
considerata una sorta di autocritica dell'eliminativismo, un segnale
d'allarme rivolto a quegli autori che non sembrerebbero del tutto consci
delle implicazioni delle proprie teorie. Tuttavia anche Smilansky incorre in
serie difficoltà, io credo, poiché non tiene conto di quelle necessità pratiche
della forma di vita umana che potrebbero resistere alla destituzione del
libero arbitrio.
Il confronto tra questi due autori mi sarà utile per mostrare come il
vincolo imposto dall’ontologia scientista conduca a teorie estreme che, pur
condividendo un assunto di base, arrivano a esiti diametralmente opposti.
La mia idea è che buona parte delle correnti eliminativiste abbiano una
grossa lacuna al loro interno, perché gli effetti delle eliminazioni si
rivelerebbero, all’atto pratico, assai selettivi – per non dire nulli. Detto in
una parola, l’eliminazione del libero arbitrio cambierebbe tutto e niente.
Più insidioso, invece, è l’impatto delle critiche di Pereboom sull’apparato
143
D. Pereboom, Free Will, Agency, and Meaning in Life, Oxford University Press, Oxford, 2014.
73
teorico. A mio avviso, il filosofo statunitense mostra, con argomenti
abbastanza solidi, come libertà e scienza naturale siano del tutto
incompatibili, e continueranno a esserlo fintanto che la seconda verrà
utilizzata come base per l’impostazione del free-will problem.
74
caso (truly random event). In entrambi i contesti manca una connessione
dell’agente con i suoi stati mentali tale per cui si possa dare una forma di
controllo libero.
Tra questi estremi – compatibilismo/determinismo e libertarismo
radicale – Pereboom inserisce i ‘partially random events’, ossia eventi i cui
antecedenti determinano le probabilità che si realizzino, ma non
l’occorrenza. In questo spazio, che sarebbe quello delle scelte libere degli
agenti inclinati ma non necessitati, il libertario coglie l’occasione per
rispondere alle accuse. Si potrebbe pensare infatti che l’agente contribuisca
in parte, attraverso le sue libere scelte, alla formazione del proprio
carattere, il quale poi lo inclina a optare per un’azione piuttosto che
un’altra. Quindi, se il carattere spiega gli sforzi di volontà dai quali poi
discendono le azioni, allora si può dire che l’agente non è in totale balia di
fattori oltre il suo controllo: egli ha contribuito a modellare le proprie
disposizioni!
Il problema, purtroppo, persiste: se le scelte dell’agente sono casuali,
egli non è responsabile per il proprio carattere, esattamente come non lo
sarebbe il soggetto determinato. Per dimostrarlo, Pereboom chiede di
pensare alla prima scelta compiuta da un agente. Poiché il carattere deve
ancora formarsi, questa prima scelta sarà o casuale o determinata. Ora, nel
caso che questa prima scelta non sia ‘character-forming’, l’agente non avrà
contribuito in alcun modo al carattere che renderà conto dello sforzo di
volontà per la scelta successiva. Nel caso invece che la prima scelta sia
character-forming, il carattere prodotto sarà comunque figlio della sorte o
della determinazione naturale. Conclusione: i partially random events,
quali sono i prodotti delle cause indeterministiche, non garantiscono alcuna
autodeterminazione dell’agente.145
A questa critica si associa una famiglia di obiezioni che prende il
nome di luck objections (obiezioni della sorte) e che Pereboom riformula
nulla più generale disappearing agent objection: supponiamo che una
persona debba risolvere una grande indecisione, e che, dato il suo carattere,
le ragioni in favore dell’una o dell’altra scelta abbiano lo stesso peso (il
50%). Ora, siccome lo sforzo di volontà è equamente influenzato da queste
ragioni, e da nient’altro, il suo esito sarà totalmente casuale.146 In risposta, il
libertario specifica che indeterminismo non equivale a casualità, perché gli
eventi che causano la scelta hanno un soggetto, e questo soggetto è colui
che controlla la scelta. Tuttavia, risponde Pereboom, l’indeterminismo
causale prevede solo una causalità tra eventi, non una particolare relazione
145
Cfr. Pereboom, Living Without Free Will, pp. 41-50. Non essendo postulato un potere causale
dell’agente come motore immobile, il momento di pesatura dovrebbe essere influenzato solo dagli eventi
antecedenti.
146
Pereboom, Free Will, Agency, and Meaning in Life, p. 32.
75
causale tra l’agente e la decisione.147 Questa, infatti, è la tesi dell’agent-
causation, i cui presupposti ontologici sono ritenuti troppo impegnativi
dagli indeterministi causali.
147
Cfr. ivi, p. 36.
148
Cfr. ivi, pp. 39-41.
76
ammettere ciò che le teorie non causali rifiutano, e segnala la loro
incoerenza di fondo.149
All’incoerenza del libertarismo radicale, Pereboom aggiunge poi la
caratteristica dell’inconcludenza. Date le leggi che governano gli universi
deterministici e probabilistici, il libertarismo non causale cerca di
caratterizzare un potere sui generis in grado di svincolarsi dai problemi che
tali leggi sollevano per l’autodeterminazione. Il risultato, tuttavia, è
particolarmente oscuro e sembra aggiungere solo complicazioni.
Complicazioni facilmente aggirabili dall’agent-causation, teoria che già
offre un tipo di relazione causale anch’essa potenzialmente svincolata dalle
suddette leggi e molto più intuitiva delle controparti a-causali.
149
Cfr. ivi, pp. 42-43.
150
Vedi infra, paragrafo 7.2.
151
Vedi Pereboom, Living Without Free Will, cap. 1, e Pereboom, Free Will, Agency, and Meaning in
Life, cap. 1.
77
4. L’agente è in grado di rispondere a ragioni, per cui può
modificare i suoi desideri.153
78
La sottile costruzione di questo caso mira a rendere conto di a) una
manipolazione che non comprometta la capacità di agire e nel contempo b)
impedisca a Plum di essere responsabile. Ora, i neuroscienziati sanno che
potenziando le inclinazioni egoistiche oltre una certa soglia Plum deciderà
necessariamente di uccidere a patto che, nel mentre, non intervenga
qualcosa che gli faccia cambiare idea. Infatti, siccome la manipolazione
non comporta un desiderio irrefrenabile, se Plum sapesse che l’omicidio
avrebbe conseguenze terribili per lui, desisterebbe dal compierlo
(condizione 4). In questo modo è salvaguardata la capacità di agire
altrimenti secondo i canoni dei compatibilisti155 ma, nel caso l’omicidio
avvenisse, non si potrà dire che Plum ne sia responsabile, perché
l’intervento dei neuroscienziati è stato determinante. Questo dimostra che
le condizioni del compatibilista, anche se prese tutte insieme, non sono
sufficienti per la responsabilità morale. Pereboom passa quindi a un caso
più vicino alla situazione ordinaria.
Questo esempio mostra che non c’è differenza tra una manipolazione locale
e una manipolazione che, una volta implementata, condiziona i processi
decisionali futuri. Che i neuroscienziati ci comandino momento per
momento, o che il Dio leibniziano ci programmi all’inizio dei tempi, la
differenza nell’intervallo di tempo non può essere addotta come prova a
favore della responsabilità di Plum: nel Caso 2, Plum non può impiegare il
tempo che intercorre dalla programmazione all’omicidio per cambiare
schema di ragionamento. Egli è impotente su questo aspetto, proprio come
quando viene manipolato sul momento dai neuroscienziati.
responsiveness’.
155
Nella forma ipotetica “nel caso le cose fossero state in un altro modo, Plum avrebbe scelto di fare
diversamente”. Per meglio comprendere come la manipolazione possa soddisfare i requisiti del
compatibilista, basta pensare che il suo effetto non è una costrizione cieca e irrazionale. Così fosse, Plum
ucciderebbe White indipendentemente da ogni contesto e ragione, anche nel caso in cui l’omicidio
comportasse la sua stessa dipartita.
79
Caso 3. Plum è stato educato dalla sua comunità a ragionare
spesso, ma non sempre, in modo egoistico. Tale condizionamento
è avvenuto quando Plum era troppo piccolo per potersi opporre, e
fa sì che, date certe condizioni, sia determinato causalmente a
uccidere White. Le condizioni del compatibilismo sono ancora
tutte valide. Il tipo di ragionamento e la sua realizzazione
cerebrale sono identici a quelli dei Casi 1 e 2.
Con il quarto caso, Pereboom completa la sua strategia. Siccome Plum non
sembra responsabile tanto nel Caso 4 quanto nel Caso 3, allora non c’è
differenza tra una manipolazione intenzionale e una volontà determinata: la
decisione di Plum è sempre causata da fattori oltre il suo controllo. Stando
così le cose, il compatibilismo non riesce a soddisfare le seguenti
condizioni per la responsabilità morale:
(5) An action is free in the sense required for moral responsibility only if the
decision to perform it is not an alien-deterministic event, nor a truly random
event, nor a partially random event.
156
Pereboom, Living Without Free Will, p. 126. Bisogna precisare che la condizione 5 non contempla le
possibilità alternative perché Pereboom accetta la validità dell’esperimento mentale di Frankfurt.
80
I casi di Pereboom hanno suscitato un grande dibattito e lo stesso autore
riporta nei suoi libri critiche e controcritiche. Tuttavia, per quanto i
compatibilisti si siano sforzati di spiegare come il determinismo non
implichi di per sé l’assenza di libertà e responsabilità, le loro
argomentazioni non hanno tuttora risolto le difficoltà emerse nel paragrafo
4.3: una teoria che non riesce a rendere conto di nessuna delle due
condizioni della libertà non permette di attribuire colpe, meriti, lodi o
biasimi agli agenti.
Pereboom ritiene che tra le varie teorie del libero arbitrio, l’unica che non
presenti incoerenze di fondo sia quella dell’agent-causation. Essa, infatti,
riesce a rispondere alle maggiori obiezioni contro il libertarismo: la
disappearing agent objection, il regresso all’infinito e il ‘postulato vuoto’.
81
causation è in grado di eludere l’obiezione della sorte e garantire
il controllo definitivo dell’azione, poiché contempla un tipo di
causalità ulteriore rispetto a quella tra eventi.
158
Cfr. De Caro, Il libero arbitrio, pp. 36-37.
159
Cfr. Perebom, Living Without Free Will, pp. 58-59.
82
tale causalità.160 Primo, numerosi filosofi hanno contrastato
l’analisi di Hume, caratterizzando la relazione di causalità come
metafisicamente basilare. Questo è possibile perché l’enunciato
“la causalità sussiste solo tra eventi” non è una verità analitica, di
conseguenza l’enunciato “le scelte sono causate dagli agenti” non
è una contraddizione. Secondo, non è vero che dell’agent-
causation non si può dare nessuna caratterizzazione. Alcuni
ritengono che il potere causale dell’agente sia costituito da più
basilari poteri causali (è il caso degli emergentisti) come per
esempio quelli dei processi neurofisiologici. Altri ancora pensano
all’agent-causation come a un potere fondamentale e semplice,
come lo sono gli invarianti fisici (p.e. la carica dell’elettrone e la
velocità della luce). Quindi non implica alcuna contraddizione
che l’agente possa avere un potere causale costitutivo e non
costituito.
160
Cfr. Pereboom, Free Will, Agency, and Meaning in Life, pp. 61-63.
83
Secondo il materialismo non riduzionistico, il potere causale
dell’agente è interamente costituito da componenti microfisiche, le quali
sottostanno alle leggi della fisica. La complessa organizzazione della
materia genera nuove proprietà che non esistono, e non possono essere
spiegate, al livello inferiore.161 Pereboom chiede ora di immaginare che il
mondo microfisico sia governato da leggi deterministiche: se così fosse, gli
stati dell’universo microfisico seguirebbero la nota legge “Nec (P0 + L) →
P1”. Ma se ogni stato microfisico fosse determinato, e il potere causale
dell’agente fosse interamente costituito da stati microfisici, allora anche le
scelte sarebbero determinate. Il fatto che le proprietà emergenti non siano
riducibili allo stadio inferiore non le svincola dal determinismo che domina
le loro componenti! E le cose non migliorano se le leggi di riferimento sono
quelle probabilistiche della meccanica quantistica. Se le componenti
microfisiche fossero governate dalla statistica, e i livelli superiori fossero
interamente costituiti da quelli inferiori, allora anche i livelli superiori
seguirebbero le leggi della statistica. Tuttavia, come si è visto nel
paragrafo 5.1, i partially random events non permettono di garantire un
controllo dell’agente sulle proprie azioni.
Per risolvere i problemi sopra esposti, la dottrina dell’emergentismo
forte sostiene che il potere causale dell’agente sia interamente costituito
dall’organizzazione del livello microfisico, ma aggiunge che, una volta
emerso, questo potere sia in grado di retroagire sulla propria base. Detto
più semplicemente, il mentale nasce dal fisico e, successivamente, regola il
fisico. Si pensi per esempio alla mia decisione di fare una passeggiata: dal
mio cervello emergono tutti gli stati mentali inerenti la deliberazione,
dopodiché, in virtù della mia libertà, la scelta si inserisce nei processi
neuronali e li modula affinché io possa compiere l’azione. Così facendo
però, il potere emerso svincola i propri costituenti dalle leggi che li
governano,162 e questo segna una divergenza rispetto al mondo della fisica.
Nelle parole di Pereboom: «If, as on the strong emergentist proposal, the
arrangement of the constituents can give rise to causal powers due to which
these constituents are no longer governed by these laws, then it is not clear
what sort of possibility for constitutional explanation remains».163 Quello
che l’autore sta dicendo, in sostanza, è che il potere emergente vorrebbe
161
Si consideri un esempio molto in voga tra Ottocento e inizio Novecento: gli atomi che compongono
l’acqua. Questi atomi non hanno di per sé uno stato liquido o gassoso, ma quando si legano in molecole di
H2O, ottengono tali nuove proprietà a seconda della temperatura. L’acqua dunque è composta interamente
da atomi, ma la composizione porta a qualcosa di nuovo e irriducibile.
162
Si tratta di una violazione del principio di chiusura causale dell’universo. La capacità di retroazione
volontaria del mentale sul fisico, per quanto la si faccia emergere dalle particelle elementari, finisce per
rappresentare un misterioso potere che produce qualcosa di nuovo, qualcosa che la sola causalità non
avrebbe contemplato, e che a quest’ultima viene aggiunto.
163
Pereboom, Living Without Free Will, p. 78.
84
fondarsi nella fisica, ma di fatto la sovverte rendendo misteriosa la propria
costituzione.
A questo punto Pereboom lascia spazio anche alle teorie non
fisicaliste dell’agent-causation e muove una critica di portata più generale.
La questione può essere riassunta in questo modo: può un agente libero,
poniamo, sul piano trascendentale, rendere effettive le proprie scelte nel
mondo fisico senza violarne le leggi? Si consideri un universo
deterministico, e si consideri un agente che prende le sue decisioni in
assenza di determinazione. Una scelta indeterminata sarebbe un evento
nuovo e senza antecedenti, mentre nell’universo ogni evento ha una o più
cause precedenti. Dunque, affinché la scelta libera possa integrarsi col
mondo fisico senza violarne la chiusura causale, sarebbe necessario che
questo mondo offrisse le componenti per la realizzazione materiale di tale
scelta. Queste componenti, supponiamo eventi neurali, possono darsi o non
darsi secondo la solita legge “Nec (P0 + L) → P1”. Supponiamo che si
diano. Ora, poiché la mia decisione non può violare la catena causale fisica,
io sono costretto a cogliere l’opportunità che l’universo mi offre: non posso
far comparire gli eventi neurali necessari a mio piacimento. Questo
significa che, in un universo deterministico, ogni scelta libera sarebbe il
frutto di una fortunata coincidenza, di un tempismo perfetto tra la mia
decisione trascendentale e la componente materiale necessaria per
realizzarla.
Le cose non migliorano se si considera il mondo quantistico. Qui la
probabilità che le componenti fisiche delle azioni si realizzino copre
l’intervallo da 1 a 0. Si supponga che io abbia una tazza di thè e che, per
esempio, la probabilità degli antecedenti fisici della scelta “bere il thè” sia
0.32. La statistica impone che, dato un grande numero di casi, è lecito
aspettarsi che io beva il thè circa il 32% delle volte. Questo tipo di vincolo,
però, non tocca l’agente causale perché egli, in virtù del suo potere
trascendentale, può optare per bere il thè quando vuole, o non berlo affatto.
Niente lo limita, su 100 volte, di dissetarsi circa 32. Di conseguenza, che io
di fatto realizzi la scelta nel mondo fisico il 32% delle volte non sarebbe
altro che una grande coincidenza. In tutti gli altri casi, la percentuale non
verrebbe rispettata e il mio comportamento divergerebbe da ciò che le leggi
probabilistiche prevedono. Pereboom riassume così il nodo centrale del
discorso:
85
regardless of which views is true, the agent-causal libertarian’s proposal that
the frequencies of agent-caused free choices dovetail [combaciano, n.d.t.]
with determinate physical probabilities involves coincidences so wild as to
make it incredible.164
86
libero arbitrio molto del vocabolario delle scienze umane perderebbe di
senso, perché non esisterebbero più deliberazioni, scelte, azioni, obiettivi,
realizzazioni e via dicendo. Senza il controllo del proprio agire, l’uomo non
sarebbe più considerato come persona, ma come uno dei tanti elementi
naturali soggiogati all’eterno divenire.
Pereboom ritiene che l’incompatibilismo duro elimini completamente
la nozione di “responsabilità morale” fondata sul merito, ma non il senso
dell’etica e della vita. Per dimostrarlo, il filosofo analizza le nozioni della
prospettiva etico-agenziale e ne testa la tenuta con l’incompatibilismo duro
il quale, in fondo, non sarebbe contrario:
87
their consequences does not undermine their causal
efficacy».167 Pereboom dunque rifiuta l’epifenomenismo,
poiché secondo lui la mente non è un’emozione che, al pari
di una bussola, si limita a indicare il corso degli eventi,168
ma qualcosa che produce cambiamenti nel mondo, benché
determinati. Faccio un esempio: supponiamo che un
affermato pittore abbia il desiderio di dipingere la migliore
opera d’arte del mondo, che completi una tela al giorno, ma
non sia ancora soddisfatto. Una sera, questo pittore
apprende al telegiornale che il determinismo è stato provato
nei laboratori del CERN. L’artista subito si deprime,
convinto che i suoi sforzi siano inutili, e smette di pitturare,
pur avendo ancora il desiderio di creare l’opera più bella.
Ora, è chiaro che se il pittore si rassegna e diventa
inoperoso, non potrà mai raggiungere il suo obiettivo; ma è
anche vero che la sua rassegnazione avrebbe senso solo se
sapesse a priori dell’inutilità dei suoi sforzi. La morale
quindi è che, data l’ignoranza costitutiva dell’essere
umano, il famoso motto “no pain, no gain” varrebbe anche
in un mondo deterministico. O almeno, sarebbe razionale
perseguirlo.
88
lavorando sul piano epistemico. Dato per vero il
determinismo, è già stabilito se una persona, poniamo un
minorenne delinquente, la smetterà di rubare motorini
(comportamento) una volta sgridato dai genitori (ragioni).
Ma noi uomini, nella nostra ignoranza del futuro, non
possiamo sapere se la ramanzina sarà efficace, e speriamo
che regole, rimproveri e discussioni abbiano effetto sul
comportamento.
È interessante notare come qui trovino spazio alcuni importanti assunti del
compatibilismo. Pereboom, forse non a caso, tende infatti a occuparsi
principalmente di un versante dell’incompatibilismo duro, cioè quello
dell’ipotesi deterministica. In questo frangente è particolarmente
importante rendere conto delle possibilità alternative affinché siano istituiti
un senso di “deliberazione” e “sensibilità alle ragioni” compatibili con
l’assenza di libertà. La chiave di volta è che noi umani potremmo anche
sapere che il libero arbitrio non esiste, ma continueremmo a ignorare il
futuro, e ciò darebbe ancora un senso al nostro agire.
A questo punto però, Pereboom necessita ancora di un elemento per
poter asserire che la credenza nell’incompatibilismo duro porterà benefici
all’esistenza umana: che la consapevolezza dell’inesistenza del libero
arbitrio influisca sui nostri atteggiamenti reattivi. In questo l’autore si
oppone alla tesi di P.F. Strawson, il quale aveva sganciato la questione
della responsabilità da quella del determinismo.170 Secondo Strawson,
infatti, che il determinismo sia vero o no, l’uomo interagente è per sua
natura portato ad attribuire la responsabilità morale in un certo modo.
Pereboom obietta: «I believe Strawson is wrong to maintain that a
theoretical challenge to the reactive attitudes based on the thesis of
universal determinism is external to the practice of holding people morally
responsible, and therefore illegitimate».171 I quattro casi di manipolazione
di Plum lo dimostrerebbero: se nei Casi 1 e 2 la nostra intuizione è che
Plum non sia responsabile, allora mitigheremo il nostro giudizio nei suoi
confronti; ma se le implicazioni dei primi casi possono essere generalizzate
fino al quarto, allora mitigheremo le nostre reazioni anche in un universo
deterministico. Detto in sintesi, credere – o non credere – nel determinismo
(e in generale all’assenza del libero arbitrio) non è qualcosa di esterno alla
nostra pratica di attribuzione della responsabilità, ma è un suo presupposto.
Di conseguenza, quando l’intuizione di libertà si scontra con la conoscenza
170
Vedi infra, paragrafo 7.2.
171
Pereboom, Living Without Free Will, p. 95.
89
opposta (la dimostrazione dell’inesistenza del libero arbitrio), le nostre
pratiche di attribuzione di responsabilità non possono che uscirne
trasformate.172
L’agente secondo Pereboom si delinea in questo modo: è un uomo che
delibera su un futuro epistemologicamente aperto, i cui stati mentali hanno
efficacia causale sul mondo; che è sensibile a ragioni e, in particolare, alla
conoscenza di non essere libero. Un uomo che non attribuisce più
responsabilità morale a se stesso e agli altri, e che quindi mitiga i suoi
atteggiamenti reattivi. Un uomo che non è condannato ai tragici scenari dei
fautori di visioni pessimistiche, perché l’incompatibilismo duro non
implica per sé l’anarchia sociale, la destrutturazione delle relazioni,
l’annichilimento della morale o la svalutazione della vita. Anzi, l’esistenza
umana, arricchita dalla consapevolezza di non poter incolpare gli altri per
le loro azioni e dai benefici che tale consapevolezza porterebbe in tanti
aspetti della vita sociale, procederebbe come sempre, solo con minor rabbia
e minor accanimento verso offensori e criminali.
Vorrei soffermarmi brevemente sul significato che questa teoria
attribuisce all’esistenza. Il ruolo della sorte infatti pervade l’opera di
Pereboom e conduce a un forte ridimensionamento della percezione di noi
stessi, forse più forte di quanto lo stesso autore voglia ammettere.
Innanzitutto, il fatto che l’atto del deliberare abbia senso solo per via
dell’ignoranza del futuro, unito al fatto che noi non avremmo il controllo su
tale deliberare, ci lascia in completa balia degli eventi. Come per il
compatibilismo, non si può dire che l’agente deliberi solo perché un
processo di questo tipo avviene all’interno di un corpo e di una mente.
Sono quei ‘factors beyond the agent’s control’, che Pereboom rievoca
continuamente, a deliberare per noi, uomini ridotti a meri ricettacoli della
forza causale dell’universo, sia essa deterministica o indeterministica. Che
una consapevolezza del genere non abbia effetti deleteri sulla psiche umana
è questione tutta da dimostrare, e i paventati effetti positivi sarebbero
apprezzabili solo da quella popolazione filosofica capace di ridare un senso
al concetto di deliberazione.
In secondo luogo, bisognerebbe capire come sia possibile dare
significato a un’esistenza determinata in ogni aspetto dalla sorte. Si è già
detto di come i nostri sforzi avrebbero senso solo perché vi sarebbe la
possibilità di un esito positivo. Ma anche il nostro carattere e le nostre
relazioni sentimentali sarebbero una pura questione di fortuna. Pereboom
non ne fa un problema, perché ritiene che nella vita di tutti i giorni siamo
portati a dare molto peso alla fortuna. Queste citazioni lo esprimono
chiaramente:
172
Cfr. ivi, pp. 124-126.
90
Si noti come prima cosa che il senso del valore di se stessi […] è legato in
misura non trascurabile a caratteristiche che possediamo e che non sono
prodotte dalla nostra volontà, e tanto meno dal libero arbitrio. Le persone
danno grande valore alla bellezza naturale, alle capacità atletiche innate e
all’intelligenza, e nessuna di queste caratteristiche è il frutto dei nostri sforzi
di volontà. Diamo valore anche agli sforzi che sono volontari, nel senso che
risultano voluti da noi […] Ma quanto importa che questi sforzi volontari
siano anche liberamente voluti? […] Le persone di solito non si
demoralizzano dopo essersi convinte che il loro buon carattere morale non è
una propria creazione e che non meritano particolare apprezzamento o
rispetto a motivo di esso. Al contrario, finiscono spesso con il sentirsi
fortunate e grate alla sorte.173
Leaving aside free will for a moment, in which sort of cases does the will
intuitively play a role in generating love for another at all? […] we would
typically prefer the situation in which the love was not mediated by a
decision. This is true not only for romantic attachments, but also for
friendship and for relationships between parents and children. […] If we
indeed desire free willed love, then we desire a kind of love whose
possibility hard compatibilism denies. Still, the possibilities for love that
remain are surely sufficient for good interpersonal relationship. If we can
aspire to the sort of love parents typically have toward children, or the kind
of romantic lovers ideally have toward one another, or the type shared by
friends who are immediately attracted to one another, and whose
relationship is deepened by their interactions, then the possibility of
fulfillment in interpersonal relationship is far from undermined.174
173
Pereboom, Lo scetticismo ottimistico su libertà e responsabilità, pp. 152-153.
174
Pereboom, Living Without Free Will, pp. 203-204.
91
5.7 Etica e crimine: un approccio revisionista
92
senso avrebbe imporre doveri all’uomo senza libertà? Soprattutto quando è
la sorte a stabilire quando e su chi la norma sarà efficace? La risposta a
queste domande la si trova nel più recente Free Will, Agency, and Meaning
in Life, dove Pereboom ristabilisce un senso di responsabilità e biasimo
rivolti al futuro. Tale risposta, però, consiste in una riconcettualizzazione
dell’obbligo morale:
I propose, in harmony with free will skepticism, to ground this model for
blame not in basic desert, but in three non-desert invoking moral desiderata:
protection of potential victims, reconciliation to relationships both personal
and with the moral community more generally, and moral formation.
Immoral actions are often harmful, and we have a right to protect ourselves
and others to who are disposed to behave harmfully. Immoral action can
also impair relationships, and we have moral interest undoing such
impairment through reconciliation. And because we value morally good
character and resulting action, we have a stake in the formation of moral
character when it is plagued by disposition to misconduct.179
93
l’offeso. La prospettiva di Pereboom, insomma, non lascia spazio
all’impunità e all’anarchia, ma ricerca ciò che i sistemi di diritto
normalmente perseguono: protezione, riparazione e deterrenza. Quello che
viene a mancare è solo l’impianto del retributivismo che, secondo il
filosofo, si fonda sulla vendetta e opera nell’ottica di riparare ai dolori
inflitti infliggendo nuovi dolori.180
Pereboom approda così alla tematica della giustificazione della pena e
pensa a un nuovo sistema non fondato sull’afflizione del reo. Nella
prospettiva scettica, infatti, la punizione afflittiva non può essere
giustificata nemmeno dalle teorie tradizionali della deterrenza e
dell’educazione morale.181 Piuttosto, il criminale andrebbe ripensato come
un portatore di malattie pericolose, incolpevole della propria patologia e
legittimamente isolabile nel caso rappresentasse un pericolo per gli altri:
così come nessuno si sognerebbe di infliggere punizioni severe ai poveri
malati, allo stesso modo non si dovrebbero rendere più dure del necessario
le condizioni dei carcerati. Inoltre, una volta mitigato il desiderio di
vendetta, la riabilitazione diventerebbe finalmente l’obiettivo finale delle
istituzioni giuridiche, che attualmente sembrano più interessate a infliggere
punizioni fini a se stesse. Solo nei casi più estremi, e cioè quelli in cui
sussiste una patologia ad alto rischio di comportamenti criminosi, o dove la
riabilitazione si dimostra impossibile, il reo deve essere contenuto
preventivamente o detenuto a tempo indeterminato, anche se comunque
«non vi sarebbe giustificazione per rendere la sua vita più miserevole di
quanto è necessario per tenere sotto controllo i pericoli che egli pone».182
In ultima analisi, l’obiettivo dello scetticismo ottimistico è quello di
mitigare un’emozione direttamente connessa alle nostre intuizioni sulla
responsabilità morale: la rabbia morale. Infatti, quando noi riteniamo le
persone responsabili, automaticamente siamo portati a crederle meritevoli
di subire un danno per i torti arrecati. La rabbia morale lascia spazio e
fomenta i desideri di vendetta, rende accettabili punizioni esageratamente
severe e ostacola ogni tentativo di riconciliazione. Essere consapevoli
180
Ivi, pp. 157-160.
181
Cfr. ivi, pp. 161-174. Innanzitutto, mancando prove robuste a favore del fatto che infliggere danno al
criminale possa correggerne il comportamento, sarebbe ingiusto imporre dolore senza la sicurezza
dell’effetto. Inoltre, anche fossero date prove di questo tipo, sarebbe sempre meglio preferire metodi non
afflittivi per conseguire la rieducazione. Secondariamente, nemmeno la teoria utilitaristica della
deterrenza sarebbe giustificabile, perché permette di punire gli innocenti o di infliggere condanne
oltremodo severe per massimizzare l’utile (come per il motto cinese, poi utilizzato da Mao, «colpirne uno
per educarne cento».), ma ciò non sarebbe accettato dalla società. Infine, anche le teorie che fondano la
punizione sul diritto di autodifesa hanno valenza fintanto che il criminale non viene reso inoffensivo.
Pereboom lo spiega chiedendo di immaginare che un uomo ostile ci aggredisca e che noi, dopo una breve
colluttazione, riusciamo a immobilizzarlo fino all’arrivo della polizia. Nel mentre lo teniamo fermo,
sarebbe ingiusto sfogare la nostra rabbia colpendolo alla testa, perché l’aggressore non è più in grado di
nuocerci. Allo stesso modo, sarebbe ingiusto far soffrire dei carcerati già in custodia della legge.
182
Pereboom, Lo scetticismo ottimistico su libertà e responsabilità, p. 151.
94
dell’inesistenza del libero arbitrio porterebbe alla rinuncia dell’idea di
responsabilità morale (retrospettiva) e quindi a quella rabbia che tanto
abbruttisce la vita umana:
[…] l’espressione della rabbia morale ha spesso effetti negativi per coloro
verso i quali è diretta, e anche per coloro che esprimono la rabbia stessa.
Frequentemente, la sua manifestazione è volta a provocare quasi null’altro
che dolore fisico ed emotivo. Come conseguenza, la rabbia morale tende a
danneggiare le relazioni, a ostacolare il funzionamento delle organizzazioni
e a distruggere le società. In casi estremi, può indurre le persone a torturare
e a uccidere. […] La richiesta di giustificare moralmente un comportamento
dannoso è in generale molto forte, e la manifestazione della rabbia morale
spesso risulta dannosa. […] Spesso giustifichiamo la manifestazione della
rabbia sostenendo che chi commette illeciti è moralmente responsabile nel
senso che implica il puro merito per quello che quella persona ha
commesso. Se ci convincessimo che non si ha il tipo di libero arbitrio
necessario per la responsabilità morale, considereremmo illegittime tali
giustificazioni.183
183
Ivi, pp. 154-155.
184
Pereboom, Free Will, Agency, and Meaning in Life, p. 175.
95
giustificazione dell’eliminazione dei criminali irrecuperabili, ma su che
base?
Un ultimo dubbio, infine, è se smettere di credere nel libero arbitrio
produrrà davvero dei benefici nelle relazioni interpersonali.
185
S. Smilansky, Free Will and Illusion, Clarendon Press, Oxford, 2000 (per la presente ricerca ho
consultato la versione e-book del testo).
186
Smilansky parla principalmente di hard determinism, ma siccome è convinto che nemmeno
l’indeterminismo possa offrire un fondamento per il libero arbitrio, le sue considerazioni si avvicinano
alla visione di Pereboom. Cfr. S. Smilansky, Free Will, Fundamental Dualism, and the Centrality of
Illusion, 2011, in R. Kane (edited by), The Oxford Handbook of Free Will, pp. 426-427.
96
azioni che discendono da tali desideri e deliberazioni, e tutto ciò è
sufficiente per rendere conto della responsabilità degli agenti e delle
intuizioni in materia di giustizia. Dall’altro lato, il determinismo duro dice
il vero quando nega ogni possibilità di autodeterminazione: la libertà di
volere non esiste.
La prima cosa che emerge è che la verità del determinismo mina in
profondità la posizione concorrente, e Smilansky lo sa bene. Infatti, dice il
filosofo, se l’agente non ha controllo su nulla, allora ogni cosa che
facciamo o ci accade è dovuta alla sorte. E se tutto si riduce alla sorte,
allora punire quelli che i compatibilisti ritengono responsabili non è altro
che una tremenda ingiustizia (ultimate injustice): «Matters of luck, by their
very character, are the opposite of the moral […]».187 Ma come è possibile
tenere assieme due posizioni così agli antipodi e le relative intuizioni?188
Smilansky ritiene che sia l’illusione dell’agency a impedire che il lato
deterministico prevalga: «Illusion is crucial in pragmatically safeguarding
the compatibilistically defensible elements of the “common form of life”.
[…] Illusion is, by and large, a condition for the actual creation and
maintenance of adequate moral reality».189 L’illusione sarebbe una
necessità pragmatica che crea una realtà mentale dove l’uomo è padrone
delle sue azioni, una realtà da cui discende tutto ciò che è funzionale al
vivere associato. Senza di essa, la verità del determinismo tenderebbe a
dominare e i danni, con buona pace di Pereboom, sarebbero gravissimi. Il
motivo di tanto pessimismo risiede in quella che Smilansky chiama
‘superficialità’ (shallowness) del compatibilismo, una debolezza che si
manifesta sui versanti etico, personale-esistenziale e pragmatico.
Sul piano etico, si può pensare al caso di un criminale che sia stato
punito secondo la ‘Compatibilist Justice’: egli viene punito perché niente
187
S. Smilansky, Compatibilism: The Argument from Shallowness, in Philosophical Studies 115, Kluwer
Academic Publishers, 2003, pp. 257-282, consultabile al link:
https://www.academia.edu/1426789/Compatibilism_The_argument_from_shallowness.
188
Prima di procedere oltre, si deve notare che questo è il problema che Pereboom cerca di risolvere nei
suoi testi. Il filosofo americano infatti rifiuta l’utilitarismo radicale, da molti considerato come l’unica
teoria etica compatibile col determinismo, e cerca di mantenere un senso alle nozioni di deliberazione,
giustizia, realizzazione personale, punizione, etc. sfruttando alcuni assunti del compatibilismo. Il punto di
rottura sta nel rifiuto di un senso di responsabilità fondato sul merito, cosa che Smilansky ritiene
fondamentale per preservare le nozioni appena elencate. Il prezzo pagato da Pereboom, tuttavia, è alto: il
senso della vita si riduce alla gratitudine per quanto di buono ci capita e questo ‘buono’, insieme ai valori
morali, si avvicina molto a una proprietà pseudo-estetica. Smilansky accenna a questa proprietà pseudo-
estetica della morale in S. Smilansky, The Ethical Advantages of Hard Determinism, in Philosophy and
Phenomenological Research, Vol. LIV, No. 2, Giugno, 1994, pp. 360-361, consultabile interamente al
link: http://www.jstor.org/stable/2108494?seq=1#page_scan_tab_contents.
189
Smilansky, Free Will, Fundamental Dualism and Centrality of Illusion, p. 438. La ‘common form of
life’ è l’essere umano con le sue intuizioni morali e di agency che gli permettono di creare un ordine
morale stabile.
97
l’ha costretto ad agire secondo la sua volontà immorale o, detto in altro
modo, perché aveva la capacità e l’opportunità di non commettere il reato.
Il determinismo ci dice però che il criminale non ha avuto la possibilità di
decidere cosa diventare e cosa scegliere, e che punirlo sarebbe ingiusto:
l’esistenza di differenti gradi di controllo perde completamente di rilevanza
una volta che si sia considerata l’assenza di autodeterminazione.
Sul versante personale-esistenziale, invece, senza la convinzione che
le azioni siano in nostro potere verrebbe meno il rispetto per se stessi e per
gli altri. Dove il compatibilismo permette di lodare una persona per essere
riuscita in una grande impresa e non, per esempio, per un fattore casuale
come il semplice colore della pelle, il determinismo livella entrambe le
cose riducendole a prodotti della sorte. Nella prospettiva finale non
esisterebbero la realizzazione personale, l'orgoglio per tale realizzazione,
un senso del valore, la stima reciproca. Cose come l'impegno del partner,
l'empatia di un amico e l'onestà di un fratello sarebbero apprezzate come
eventi piacevoli, ma non come azioni lodevoli di buona volontà. Pensieri
del tipo "Tu mi ami, ed è bello, ma non sei veramente tu che vuoi amarmi"
oppure "La tua generosità mi fa molto piacere, ma siccome non dipende da
te, non devo esserti grato", diventerebbero la norma.
Infine, sul versante pragmatico, non potersi appellare all’idea di
merito avrebbe importanti conseguenze sulle generazioni future. Oltre a
una generalizzata degradazione del sé per cui gli uomini comincerebbero a
non vedersi più come agenti,190 oltre alla caduta di ogni genuino sentimento
di rispetto reciproco, sarebbe impossibile educare moralmente i bambini.
La prospettiva deterministica fornirebbe infatti la scusante definitiva:
nessuno è, in ultima istanza, colpevole, e un bambino a cui fosse
accessibile questa scusante non potrebbe sviluppare un senso di
responsabilità né provare rimorso (compunction). Non provare rimorso gli
impedirebbe di considerare le cattive azioni passate come qualcosa da non
ripetere, compromettendo lo sviluppo morale e disincentivando qualunque
desiderio di migliorarsi.191 Insomma, non avere un senso di responsabilità
retrospettivo minerebbe la possibilità di averne uno rivolto al futuro.
Quello che Smilansky sta dicendo è che l'intuizione della libertà – e il
senso di responsabilità che ne deriva – sono condizioni di possibilità della
vita etica e del rispetto di sé. Senza l'illusione del libero arbitrio, noi non
riusciremmo a 'funzionare' bene, né psicologicamente né moralmente,
190
Cfr. Smilansky, Free Will and Illusion.
191
Ciò, a mio avviso, comporta un grande problema per il sistema di Pereboom, nel quale le persone
dovrebbero accettare di essere responsabili per il futuro senza provare un genuino sentimento di
responsabilità. Per il filosofo americano, un futuro epistemologicamente aperto e una non meglio
precisata capacità di distinguere il bene dal male consentono il mantenimento dell'ordine sociale e della
vita morale. Smilansky invece sostiene che senza l'illusione dell'autodeterminazione, nulla di tutto questo
sarebbe sufficiente per vincere la deriva eliminativista.
98
perché l’idea basilare di merito è fusa con i concetti dell’agentività e della
moralità. Se il primo cade, cadono anche i secondi, e viceversa. Non è un
caso allora che i tentativi di formulare sistemi etici compatibili col
determinismo non riescano a trovare un sostituto adeguato all'idea basilare
di merito. Un esempio diretto lo fornisce la nozione di “innocenza”
nell’utilitarismo e nel contrattualismo, cioè in dottrine virtualmente
compatibili con l’assenza di libertà metafisica: per l'utilitarista, punire
l'innocente sarebbe ingiusto perché contro quelle regole stabilite per
massimizzare l'utile, mentre per il contrattualista sarebbe ingiusto punire
l'innocente perché contrario a quelle regole costruite da agenti liberi (di
fare), informati e interessati alla regolazione delle proprie vite. Nessuna
delle due prospettive, però, dà un valore all'innocenza in sé: «Neither, it
seems natural to say, is really concerned with true morality or justice, in the
free will context. Only the desert-based account is unwilling to accept
social arrangements whereby some innocent individual will pay the price of
the social good, and makes innocence in itself an inherently superior moral
concern».192
Riassumendo, Smilansky ritiene che 1) il libero arbitrio non esista e
che la questione dell'autodeterminazione sia il problema centrale; 2) che
compatibilismo e determinismo duro sono posizioni che rendono conto di
una parte della verità, pur offrendo soluzioni opposte al problema del
controllo; 3) che la consapevolezza che non vi sia autodeterminazione
avrebbe effetti nefasti sulla psicologia e sulla vita sociale dell'individuo e 4)
che l'illusione del libero arbitrio sia fondamentale affinché il rispetto di sé e
la moralità non perdano di senso. Tale illusione si pone come una barriera
contro i pericoli del determinismo duro, sostenendo e potenziando quella
porzione di verità in mano al compatibilismo.193 Se la teoria di Smilansky è
corretta, 'living without free will' rischia di essere ben più spiacevole di
quanto Pereboom non pensi.
192
Smilansky, Compatibilism, The Argument from Shallowness, p. 277.
193
Per Smilansky l’illusione della libertà non è immune dalla consapevolezza del determinismo, per
questo serve uno sforzo attivo affinché i suoi effetti positivi siano mantenuti. Il rischio è che la tendenza
deresponsabilizzante soverchi completamente il senso di agentività: interiorizzare il determinismo ci
porterebbe a dare scarsa importanza al nostro sentimento di libertà. Ciò rende paradossale il ruolo del
filosofo, che da una lato cerca la verità, ma dall’altro si rende conto che non può vivere aderendo
completamente ad essa. (Cfr. Smilansky, Free Will and Illusion). Nannini, che si dice eliminativista
moderato, è invece convinto che la credenza che non siamo liberi e l’evidenza fenomenologica
dell’agency possano convivere tranquillamente. Così come noi percepiamo le linee di Müller-Layer come
due segmenti di diversa lunghezza, anche se sappiamo che sono uguali, allo stesso modo continueremmo
a sentirci liberi nonostante sapessimo che non esiste il libero arbitrio: l’illusione è sempre operativa. Per
Nannini, «il neo-eliminativista si comporta come se il libertarismo fosse vero, ma con il grande vantaggio
che la sua teoria, mentre preserva ai fini pratici il nesso tra l’agire sentendosi liberi e l’essere responsabili
di ciò che si fa, non entra tuttavia in conflitto con una concezione scientifica del mondo» (Nannini,
Naturalismo cognitivo, pp. 157).
99
Va segnalato che l’analisi del filosofo israeliano non è comunque
immune da critiche, soprattutto per la radicalità con cui connette l’apparato
della civiltà al libero arbitrio. Egli non considera l’ipotesi per cui la pratica
può includere la libertà tra i suoi oggetti senza ridursi a essa. P.F. Strawson
e Bagnoli argomentano persino a favore del fatto che la razionalità pratica
svolge la propria funzione a partire da un contesto interattivo e normativo
indipendente dalla questione del libero arbitrio. De Monticelli, invece,
sostiene che la libertà sia condizione di possibilità della razionalità pratica,
e che pertanto è impossibile che sia un’illusione a fondare moralità e
civiltà.194 Testerò questi argomenti nell’ultimo capito ma, prima di ciò,
intendo occuparmi degli esperimenti di psicologia morale, i quali hanno
cercato di sostanziare le speculazion