Sei sulla pagina 1di 20

Marcello D’Agostino

Marco Mondadori

La logica è davvero analitica?

1 Il carattere non-ampliativo dell’inferenza logica

La tesi del carattere analitico (o tautologico) della deduzione logica – in breve


TTDL − è una delle più influenti nell’intera storia della filosofia, ed è stata
sostenuta da filosofi diversi sotto ogni altro rispetto come Locke, Kant,
Wittgenstein, Mach, Popper e i neopositivisti. Secondo questa tesi la deduzione
logica si limiterebbe a rendere esplicite informazioni che sono già contenute nelle
premesse e, dunque, non produrrebbe alcuna conoscenza nuova in alcun senso
obiettivo, e non psicologico, del termine. Così l’informazione convogliata dalla
conclusione di una deduzione è sempre minore o uguale all’informazione
convogliata dalle premesse. Wittgenstein affidò la formulazione di questo
principio alla proposizione 5.14 del Tractatus: “se una proposizione segue da
un’altra, questa dice più di quella; quella meno di questa”. Ma, secondo una
concezione generalmente accettata, la dimostrazione matematica non è altro che
deduzione logica di teoremi da un dato sistema di assiomi. Così i sostenitori più
conseguenti della TTDL si trovano costretti a trarre l’imbarazzante conclusione
che la dimostrazione matematica non svolge alcun ruolo oggettivo nella crescita
della conoscenza. Fra questi vi è Carl Gustav Hempel:

Poiché tutte le dimostrazioni matematiche si basano esclusivamente su deduzioni logiche da certi


postulati, ne segue che un teorema matematico, come il teorema di Pitagora in geometria, non
asserisce nulla di nuovo, dal punto di vista teorico o oggettivo, rispetto ai postulati da cui è stato
derivato, benché il suo contenuto possa essere nuovo dal punto di vista psicologico, nel senso che
non ci rendevamo conto del fatto che tale teorema è contenuto implicitamente nei postulati.1

L’inferenza deduttiva si ridurrebbe così a una sorta di terapia psicoanalitica in


cui progressivamente diventiamo consapevoli di conoscenze che, in qualche modo
oscuro, possedevamo già prima, anche se non in forma esplicita. Non è difficile
rintracciare nell’ossessione giustificazionista di buona parte della filosofia della
matematica tradizionale l’origine della TTDL. Come osserva Michael Dummett:
“una volta che la giustificazione dell’inferenza deduttiva viene percepita come
filosoficamente problematica, la tentazione alla quale la maggior parte dei filosofi
soccombe è quella di offrire una giustificazione troppo forte”2. Se accettiamo l’idea
che l’inferenza deduttiva sia analitica o tautologica, il problema di giustificare la
2 Marcello D’Agostino e Marco Mondadori

deduzione svanisce: se la conclusione di un’inferenza non dice nulla che già non
fosse detto nelle premesse non è richiesta alcuna giustificazione. Ma, per
Dummett “questo approccio è insensato: il ragionamento deduttivo viene così
giustificato a spese del suo potere di estendere la conoscenza e, dunque, a spese
di qualunque autentica utilità”3

Recentemente Carlo Cellucci nel suo Le ragioni della logica4 ha riproposto la


TTDL − che potremmo ribattezzare la “Tesi dell’inutilità della deduzione logica” −
ma per uno scopo opposto a quello dei suoi sostenitori originari. L’idea che
l’inferenza deduttiva sia priva di qualunque autentico contenuto conoscitivo
svolge un ruolo cruciale nel contesto della sua critica appassionata alla
cosiddetta “concezione del mondo chiuso”, cioè la concezione secondo cui “ogni
campo della matematica e l’intera matematica possono essere visti come sistemi
concettuali chiusi” (i sistemi assiomatici studiati dalla logica matematica). Questi
ultimi, analogamente ai sistemi fisici chiusi, sono “sistemi il cui stato finale
[l’insieme delle conseguenze] è interamente determinato dalle condizioni iniziali
[gli assiomi]” e “la cui evoluzione comporta il verificarsi di fenomeni che
corrispondono in generale a una diminuzione di informazione”. Infatti, sostiene
Cellucci, “lo sviluppo del sistema consiste nella deduzione di conseguenze dagli
assiomi, dove la deduzione si limita ad esplicitare l’informazione contenuta in
essi” e “ciò non produce alcun aumento di informazione rispetto agli assiomi, anzi
in generale produce una diminuzione, perché le conseguenze logiche degli
assiomi non contengono tutta l’informazione contenuta negli assiomi”; vale
dunque un analogo del secondo principio della termodinamica, per cui “allo
sviluppo del sistema corrisponde un aumento dell’ignoranza sullo stato
microscopico del sistema”.

Tuttavia, diversamente da Hempel, Cellucci usa la TTDL non per sostenere il


carattere non-ampliativo delle dimostrazioni matematiche, ma per offrire una
reductio ad absurdum della tesi secondo cui la dimostrazione matematica
consisterebbe nella deduzione logica di teoremi da un insieme prefissato di
assiomi. Per lui la matematica, a differenza della logica deduttiva, è un’attività
altamente utile e informativa. Anzi, un limite evidente della concezione del
mondo chiuso è proprio “la sua incapacità di spiegare come una dimostrazione
matematica possa essere ampliativa, cioè possa dare nuova informazione” dal
momento che per essa dimostrare un teorema significa dedurlo logicamente dagli
assiomi e la deduzione logica non produce, rispetto agli assiomi, alcuna
informazione nuova. Ma questo contraddice l’esperienza matematica. Dunque,
conclude Cellucci, il metodo della matematica non può consistere nella deduzione
logica da assiomi dati e la concezione del mondo chiuso è insostenibile.
L’argomentazione di Cellucci è corretta ma la sua conclusione, e con essa una
parte importante delle argomentazioni critiche sviluppate nel suo libro, è
imperniata sull’accettazione della TTDL. Vale dunque la pena di discutere in
modo più approfondito la plausibilità di questa tesi. In primo luogo, anche se è
vero che essa “è condivisa dai sostenitori più conseguenti della concezione del
mondo chiuso”5, non è certo una sua conseguenza necessaria. Si può ben
accettare la concezione del mondo chiuso e non accettare la tesi in questione. Né
le citazioni da Kant, de Morgan e Lukasievicz possono servire a rafforzarla perché
esse sono tutte compatibili con la negazione della tesi stessa, a meno che non si
La logica è davvero analitica? 3

voglia pregiudicare l’intera questione fin dall’inizio. Quando si afferma − come


fanno de Morgan e Peirce nelle citazioni di Cellucci − che la conclusione è
implicitamente contenuta nei dati, non necessariamente si intende affermare
anche che l’inferenza logica non è ampliativa. Se non si ammette la possibilità di
sostenere simultaneamente la tesi secondo cui nella deduzione logica la
conclusione è implicitamente contenuta nei dati (ha una relazione interna con i
dati)6 ma che, nonostante questo, essa ci dà nuove informazioni, nel senso di
informazioni che di fatto non avevamo prima di svolgere la deduzione, la TTDL
resta certo l’unica possibilità, ma solo perché le altre sono state escluse da una
ridefinizione di comodo. Naturalmente, l’intera differenza è fatta da quel
“implicitamente” che tutti gli avversari della TTDL si affrettano ad introdurre dopo
“è contenuta”. Infatti, nel caso limite in cui la conclusione è esplicitamente
contenuta nei dati, assolutamente nessuno è disposto ad affermare che la
deduzione logica produca nuove informazioni (nemmeno chi nega la TTDL), ma in
tal caso essa si riduce al riconoscimento che la conclusione è uno dei dati,
riconoscimento che è basato su una semplice ispezione dei dati stessi. Il più
autorevole sostenitore della tesi secondo cui tutta la logica è, in un certo senso,
racchiusa in questo caso limite è stato Ludwig Wittgenstein.

2 Wittgenstein e la notazione perfetta

Non c’è dubbio che se la deduzione logica potesse ridursi in generale a un


semplice processo di ispezione dei dati, tutti ne riconoscerebbero il carattere
tautologico. Nel sostenere questa riducibilità Wittgenstein aveva il buon senso di
riferirla non al modo reale di operare della deduzione logica per esempio nei
sistemi di Frege e Russell, basati su regole di inferenza, o persino nel proprio,
basato sulle tavole di verità, ma al modo in cui essa opererebbe “in una notazione
adeguata” (entsprechenden): “in una notazione adeguata” – dice Wittgenstein –
“possiamo riconoscere le proprietà formali delle proposizioni per mera ispezione
delle proposizioni stesse” (proposizione 6.122); così “che la verità di una
proposizione segua dalla verità di altre proposizioni, noi lo vediamo dalla
struttura delle proposizioni” (5.13) e “ogni tautologia mostra da sé che è una
tautologia” (6.127(b)). Coerentemente, nella proposizione 5.132 Wittgenstein
afferma: “ ‘Leggi di inferenza’ che – come in Frege e Russell – giustifichino le
conclusioni, sono prive di senso e sarebbero superflue”. Notate: non “sono
superflue” ma “sarebbero superflue”: sarebbero superflue in una notazione
adeguata!

Insomma, Wittgenstein credeva nella possibilità di realizzare una parte


significativa del vecchio “sogno di Leibniz”, cioè di trovare una notazione − una
characteristica universalis − che riducesse ogni caso di implicazione logica al caso
banale in cui la conclusione è uno dei dati e, riferendosi alla deduzione logica
espressa in questa “notazione adeguata”, correttamente concludeva: “nella logica
non possono mai esservi sorprese” (6.1251) oppure “nella logica processo e
risultato sono equivalenti” (6.1261) Naturalmente, questo equivale a sostenere
che in una notazione adeguata la deduzione logica sarebbe del tutto superflua!
4 Marcello D’Agostino e Marco Mondadori

Questo è l’esito finale della TTDL nella forma sostenuta da Wittgenstein. Sarebbe
anche un esito piacevole. Sfortunatamente, né Wittgenstein né alcun altro dopo
di lui ha trovato questa “notazione perfetta”. In generale, l’impossibilità di una
tale notazione per la logica della quantificazione è una conseguenza immediata
dell’impossibilità di una procedura di decisione, stabilita da Turing e Church non
molti anni dopo la pubblicazione del Tractatus. Ma persino nel contesto della
logica proposizionale − in cui la nozione di tautologia ha avuto origine e
l’esistenza di procedure di decisione sembra garantire la sua applicabilità − è
estremamente improbabile che una notazione perfetta nel senso di Wittgenstein
possa mai essere trovata. Wittgenstein non poteva saperlo e avanzava alla fin fine
un’ipotesi con ogni probabilità falsa ma ardita. Nel prossimo paragrafo vedremo
come l’indecibilità della logica del primo ordine possa essere considerata una
confutazione non solo dell’ipotesi di Wittgenstein, ma anche di qualunque
versione filosoficamente interessante della TTDL. Nei paragrafi che seguono
esamineremo alcuni risultati teorici che hanno reso fortemente implausibile
l’ipotesi dell’esistenza di una notazione perfetta, e con essa qualunque versione
praticamente interessante della TTDL, persino nel dominio ristretto della logica
proposizionale.

3 La logica della quantificazione è davvero analitica?

Abbiamo visto che per Wittgenstein la deduzione logica è davvero analitica solo se
le proposizioni sono espresse in una notazione adeguata. Egli ammetteva che,
quando la notazione non è “chiara”, il ricorso a una procedura di calcolo può
essere indispensabile per portare alla luce la “struttura profonda” delle
proposizioni esaminate. In ogni caso, l’esistenza di quella che oggi chiamiamo
una procedura di decisione è indispensabile perché si possa affermare che
l’inferenza deduttiva è un procedimento tautologico. Cellucci, dal canto suo,
sembra sostenere una versione della TTDL molto più forte e cioè che la deduzione
logica in un sistema che ammette sia pure soltanto una procedura di semi-decisione
è analitica o non-ampliativa.

Chiaramente, da questa versione forte segue immediatamente che la


deduzione logica in generale è analitica o non ampliativa poiché segue dal
teorema di completezza di Goedel che ogni deduzione logica può essere formulata
in un calcolo che ammette una procedura di semidecisione (anche se per il
teorema di Turing-Church non in un calcolo che ammette una procedura di
decisione). Uno degli argomenti di Cellucci a favore della versione forte è il
seguente. Citiamo: “Dire che l’inferenza logica è ampliativa perché il fatto che le
conseguenze siano contenute nelle premesse non ci dispensa dalla fatica di
estrarle da esse trascura che esiste un procedimento, detto algoritmo del British
Museum7, che permette di estrarre tutte le conseguenze dalle premesse in modo
puramente meccanico, senza il minimo sforzo dell’intelligenza”.

Dunque, secondo Cellucci, l’esistenza di procedure meccaniche per


enumerare tutte le conseguenze del primo ordine di ogni insieme di formule del
primo ordine – che segue dal teorema di completezza di Goedel e di cui la
La logica è davvero analitica? 5

procedura del British Museum è l’esempio più primitivo – implicherebbe la TTDL


in quanto l’esecuzione di procedure di questo tipo non richiede “il minimo sforzo
dell’intelligenza”. E’ vero che non ci vuole sforzo dell’intelligenza per eseguire
procedure del genere ma non è chiaro perché debba esservi una relazione tra lo
sforzo dell’intelligenza richiesto per svolgere una certa attività e l’attitudine di
quella attività a produrre nuove informazioni: l’attività di cercare un numero su
un elenco telefonico non sembra richiedere più sforzo intellettuale dell’esecuzione
della procedura del British Museum, eppure tende a produrre nuove
informazioni. Nei normali affari umani, non in quelli divini, tendiamo a
riconoscere come nuova un’informazione se essa è prodotta da un processo che
consuma tempo o più in generale risorse, del tutto indipendentemente dalla
natura del processo. Ma quando il problema di determinare se un certo insieme Γ
di proposizioni implica una certa proposizione P ammette al massimo una
procedura del genere del British Museum, il tempo richiesto per scoprire che
esiste una deduzione logica di P da Γ (ammesso che esista) è completamente
imprevedibile a priori. Questo segue immediatamente dall’indecidibilità della
logica del primo ordine. Dunque anche se è vero che una qualunque conseguenza
P di un dato insieme Γ di proposizioni può essere estratta “senza fatica”
applicando il metodo del British Museum, in generale non siamo in grado di
stabilire quanto tempo richiederà la sua “estrazione”. Da questo punto di vista, il
fatto che P segua da Γ rimane “sorprendente”, dal momento che non siamo in
grado di prevedere neppure se vi sarà una risposta, fino al momento stesso in cui
la riposta arriva (se arriva). Dal punto di vista di ciò che un soggetto sa, ossia
dell’informazione che un soggetto possiede, non sembra vi sia una differenza
sostanziale fra questa situazione e quella in cui la risposta ci viene comunicata
dall’esterno. Risulta dunque difficile sostenere che nell’un caso non otteniamo
alcuna informazione e nell’altro sì. Ora, l’idea che l’informazione ottenuta da un
processo del genere sia in qualche senso “superflua” sembra del tutto
insostenibile. Inoltre, se vi fosse una stretta relazione, come Cellucci sembra
credere, fra l’esistenza di un procedimento meccanico per “estrarre” informazione
dai dati e il carattere non ampliativo di questa estrazione, dovremmo concludere
che mentre sapere che P segue da Γ non aumenta la nostra informazione, sapere
che P non segue da Γ invece la aumenta, dal momento che non esiste alcuna
procedura meccanica per enumerare le non-conseguenze di un determinato
insieme di proposizioni. Dunque mentre sarebbe banale sapere ciò che una
proposizione “dice”, non sarebbe affatto banale sapere ciò che essa “non dice”.
Sembra, dunque, che l’esistenza di una procedura di semidecisione per la logica
del primo ordine non possa costituire un argomento significativo a sostegno della
TTDL. Nel seguito di questo paragrafo sosterremo che la TTDL è in realtà
insostenibile e dunque la reductio ad absurdum di Cellucci poggia su
un’assunzione dogmatica che, con ogni probabilità, è falsa.

L’argomento classico a favore della TTDL è basato su una nozione di


informazione − detta a volte informazione semantica − che identifica il contenuto
informativo di una proposizione con l’insieme degli stati di cose che essa esclude.
Così una proposizione è tanto più informativa quante più possibilità esclude.
Questa nozione è stata formulata esplicitamente da Karl Popper8, ma può essere
fatta risalire al solito Wittgenstein (“la proposizione determina un luogo nello
6 Marcello D’Agostino e Marco Mondadori

spazio logico”, prop. 3.4 del Tractatus). Le proposizioni meno informative di tutte
sono naturalmente le verità logiche che, infatti, non dicono nulla (“non so nulla
sul tempo se so che o piove o non piove”, prop. 4.461(e)) e meritano perciò
l’appellativo di “tautologie”. Se ragioniamo in termini di informazione semantica è
ovvio che l’informazione convogliata dalla conclusione di una deduzione è inclusa
in quella convogliata dalle premesse. Ma si tratta di una nozione
epistemologicamente accettabile? Innanzitutto è chiaro che, nella logica del primo
ordine, questa non è una nozione effettiva. Abbiamo visto che, nei linguaggi del
primo ordine, vi è una fondamentale asimmetria epistemologica, se accettiamo la
nozione di informazione semantica come una misura del contenuto informativo
delle proposizioni, fra ciò che una proposizione dice e ciò che essa non dice.
Come ha osservato Jaakko Hintikka,

Ciò che un enunciato “dice” o “asserisce” deve avere un intimo rapporto con l’informazione che
esso convoglia […]9

Sono tuttavia non poco assurde misure di informazione che non siano computabili in modo
effettivo. Che usi pratici possono infatti avere misure di informazione che ci mettono nella
situazione di non poter sempre sapere in linea di principio quanta informazione possediamo e di
non poter avere in nessun modo un metodo effettivo per determinarla? E’ chiaro infatti che uno
degli scopi principali per i quali è stato costruito il concetto di informazione è proprio questo:
metterci in condizione di passare in rassegna ciò che sappiamo (di cui cioè abbiamo informazione)
e ciò che invece non sappiamo. Fare una rassegna di questo genere è tuttavia in linea di principio
impossibile se le nostre misure di informazione non sono ricorsive.10

Non si può dunque prendere, come contenuto informativo di una proposizione,


l’insieme degli stati di cose che essa esclude dal momento che non si tratta di un
insieme ricorsivo (computabile in modo effettivo). La soluzione proposta da
Hintikka consiste nel distinguere fra l’informazione di cui disponiamo di fatto
(“informazione di superficie”) e quella di cui disponiamo solo potenzialmente
(“informazione profonda”). La definizione tecnica delle due nozioni di informazione
non è qui importante quanto il fatto che la prima è una nozione effettiva, mentre
la seconda non lo è. Lo scopo della distinzione fra i due tipi di informazione è
proprio il tentativo di risolvere il problema che Cellucci ritiene insolubile
all’interno della concezione del mondo chiuso, ossia “scoprire in che senso
risultati matematici non-banali convogliano informazione anche quando possono
essere dimostrati entro la teoria della quantificazione”11. Mentre l’informazione di
profondità corrisponde grosso modo alla tradizionale nozione di informazione
semantica, e quindi non può essere accresciuta da inferenze deduttive,
l’informazione di superficie corrisponde a una parte computabile di tale
informazione semantica, e precisamente quella che può essere ottenuta senza
accrescere il numero degli individui considerati nelle loro relazioni reciproche.
Parlando rozzamente, Hintikka mostra che una caratteristica della logica del
primo ordine − che la distingue in modo essenziale dalla logica proposizionale ed
è strettamente connessa alla sua indecidibilità − consiste nel fatto che (a volte) la
relazione di conseguenza logica fra un certo insieme Γ e una certa proposizione P
non può essere stabilita senza introdurre nella deduzione individui nuovi rispetto
a quelli che è sufficiente assumere per comprendere il significato di Γ e P. Una
deduzione di questo genere non può dirsi “analitica” in quanto viola uno dei sensi
tradizionali del termine “analiticità”, ovvero quello secondo cui un argomento è
La logica è davvero analitica? 7

“analitico” se si limita ad utilizzare ciò che “è dato” immediatamente nelle


premesse. Per quanto vago, questo senso di analiticità sembra escludere che tutti
i passaggi deduttivi della logica della quantificazione possano dirsi “analitici”.
Infatti, per Hintikka, “sono sintetici quei passaggi nei quali vengono introdotti
nuovi individui; sono analitici quei passaggi in cui ci limitiamo a discutere gli
individui che sono già stati precedentemente introdotti”12. In una deduzione
formalizzata, i passaggi sintetici sono quelli in cui vengono applicate regole che
introducono individui nuovi nella discussione, come ad esempio la regola di
esemplificazione esistenziale che ci consente di passare da (?x)Fx a Fa, dove a è un
termine individuale nuovo. La necessità di considerare individui nuovi in certe
deduzioni del primo ordine corrisponde alla necessità, già intravista da Kant, di
introdurre costruzioni nella dimostrazione di certi teoremi geometrici. Ciò è
particolarmente evidente proprio nell’esempio preferito da Kant, ossia la
dimostrazione che la somma degli angoli interni di un triangolo è uguale a due
angoli retti. In tal caso, non vi è modo di “percepire” il teorema in base alla
semplice osservazione di un triangolo e alla definizione dei suoi elementi
costitutivi. D’altra parte, una volta eseguita un’opportuna (e in questo caso
semplice) costruzione il teorema diventa ovvio, e il fatto che prima non lo
percepivamo come tale non era dovuto a oscure circostanze psicologiche, ma a
circostanze assolutamente obiettive, ovvero alla mancanza della costruzione
richiesta.

L’esempio di Kant è particolarmente interessante ai fini della nostra critica


della posizione di Cellucci. Infatti, mentre da una parte si tratta di un esempio
indiscutibile di dimostrazione informativa (un argomentazione “ampliativa” nella
terminologia di Cellucci) dall’altra, come osserva Hintikka, “non si affaccia il
benché minimo dubbio intorno al fatto che le assunzioni di base del sistema
euclideo sono sufficienti per giustificare tutti i passaggi dell’argomento. Non c’è
poi alcun riferimento ad elementi cui non potrebbe ricorrere un geometra di
impostazione rigidamente assiomatica.” Dunque si tratta di una tipica
dimostrazione che può essere ottenuta all’interno della “concezione del mondo
chiuso” e che tuttavia accresce indubitabilmente le nostre conoscenze. Il fatto che
questa dimostrazione sia facilmente formalizzabile all’interno della logica del
primo ordine mostra (i) che la tesi della tautologicità della deduzione logica è
fortemente implausibile e (ii) che, come abbiamo osservato in precedenza, la sua
negazione è perfettamente compatibile con la concezione del mondo chiuso.

La distinzione fra informazione di superficie e informazione profonda,


proposta da Hintikka, mira a precisare la distinzione fra quei passaggi deduttivi
che richiedono l’introduzione di nuovi individui nella discussione e quelli che
non li richiedono. Possiamo considerare l’informazione profonda come
sostanzialmente equivalente all’informazione semantica definita in termini degli
stati esclusi da una proposizione, senza restrizioni sul numero di individui
considerati nella loro descrizione. Al contrario, l’informazione di superficie
consiste nel sottoinsieme (ricorsivo) di questi stati che possono essere descritti
considerando solo gli individui (e i predicati) già “dati” in precedenza. Al di là dei
dettagli tecnici di queste definizioni,13 la loro conseguenza più importante
consiste nel fatto che, a differenza dell’informazione profonda, “l’informazione di
superficie può essere aumentata mediante inferenze logiche (deduttive)”14 ed “è
8 Marcello D’Agostino e Marco Mondadori

dunque possibile, dopotutto, dare una qualche giustificazione all’opinione di quei


filosofi che sostenevano la non analiticità degli argomenti matematici, nel senso
che essi non sarebbero meramente ‘esplicativi’; in effetti, non tutti gli argomenti
matematici, formalizzabili nella teoria della quantificazione, sono tautologie nel
senso delle tautologie di superficie.”15

La teoria di Hintikka, inspiegabilmente trascurata da Cellucci, mentre confuta


la TTDL nel dominio della teoria della quantificazione, la salva completamente nel
dominio della logica proposizionale. Secondo le definizioni di Hintikka tutte le
verità logiche proposizionali (e anche quelle della teoria della quantificazione
monadica) sono tautologie di superficie e dunque l’inferenza deduttiva, in questo
dominio ristretto, è davvero analitica nel senso che non aumenta l’informazione.
Così sembrerebbe che, dopotutto, la tesi di Wittgenstein sia corretta nel contesto
primario in cui era stata formulata, pur non essendo esportabile al contesto più
ampio della logica del primo ordine. Questa conclusione di Hintikka è in armonia
con il nucleo filosofico della sua analisi, che abbiamo messo in evidenza all’inizio
di questo paragrafo, e cioè con l’idea secondo cui una nozione
epistemologicamente accettabile del contenuto informativo di una proposizione
(ciò che una proposizione “dice”) debba essere associata ad una procedura
effettiva per determinare tale contenuto, dal momento che “in generale un
individuo sa quanta informazione sta comunicando esplicitamente ad altri”16
(Ibid., p. 208) e “non è possibile pensare che un parlante ‘asserisca’ qualcosa che
consegue in modo solo assai mediato dall’enunciato pronunziato”.

Quando scriveva Hintikka la teoria della complessità computazionale era


ancora agli albori e, con essa, l’ulteriore distinzione all’interno delle procedure
effettive fra quelle che sono fattibili (ossia “eseguibili in pratica e non solo in linea
di principio”) e quelle che non lo sono. Questa distinzione è oggi al centro del
dibattito scientifico ed epistemologico, dunque è interessante esaminare il suo
impatto sul problema che stiamo discutendo.

4 Decidibilità e complessità

Consideriamo una arbitraria teoria decidibile T, per cui cioè esiste un algoritmo
capace di decidere in un tempo finito, per ogni enunciato E di T, se E è o meno un
teorema di T. Come ha osservato M. Rabin, "nello spirito del programma di
Hilbert e dell'analisi della computabilità di Turing, si assumeva tacitamente che
per teorie decidibili T la questione se un dato enunciato E è un teorema di T fosse
banale. [Sembrava] infatti che a questo scopo bastasse applicare meccanicamente
la procedura di decisione lasciando da parte ogni pensiero creativo o
intelligente"17. Consideriamo in particolare il caso forse più significativo da questo
punto di vista, quello della geometria euclidea elementare. Benché naturalmente
sia decisiva la qualificazione "elementare", si tratta di una teoria di un certo
interesse matematico dato che copre tutta l'algebra "scolastica". Come è noto, nel
1948 A. Tarski completava la monografia A Decision Method for Elementary
Algebra and Geometry18 che conteneva un algoritmo in grado di risolvere
La logica è davvero analitica? 9

meccanicamente ogni problema della geometria euclidea elementare: sembrava


questo il modo migliore per stabilire il carattere analitico della deduzione logica
nel campo della geometria euclidea elementare. Esistono tuttavia teoremi
limitativi che mettono in serio dubbio proprio questa posizione. Intorno al 1965,
motivati in parte dallo sviluppo della tecnologia dei calcolatori, ci si pose un
problema interamente nuovo. Non si trattava più del tradizionale problema della
decisione: data una teoria T, esiste un algoritmo AL capace di decidere in un
tempo finito, per ogni enunciato E di T, se E è o meno un teorema di T? Si
trattava invece del problema: dato un algoritmo AL di questo tipo per una teoria
T, quanto "tempo" impiega AL per decidere se un arbitrario enunciato E di T è un
teorema di T? Il "tempo" impiegato viene generalmente identificato con il numero
di "passi" richiesti da AL per decidere E espresso come funzione della lunghezza di
E (= numero di simboli ricorrenti in E). Il tempo "effettivo" dipenderà poi dalla
velocità (= numero di passi eseguiti per unità di tempo) del calcolatore su cui AL
viene fatto girare. Un algoritmo viene generalmente considerato "efficiente" − e il
problema corrispondente "trattabile" − quando esiste una funzione polinomiale P,
tale che per ogni enunciato E di T il numero di passi richiesti da AL per decidere
se E è o meno un teorema di T, è minore o uguale a P(n), dove n è la lunghezza di
E. I casi più interessanti sono quelli con P lineare (P(n) = n) e con P quadratico (P(n)
= n^2). Non ci soffermeremo qui sulle ragioni di questa scelta delle funzioni
polinomiali per delimitare la classe degli algoritmi "efficienti". Ci limitiamo a
osservare che essa è "robusta" nel senso che se un algoritmo è efficiente in questo
senso, resta tale comunque si scelga di precisare la nozione critica di "passo"19.
Torniamo ora all'algoritmo di Tarski per la geometria euclidea elementare. Fischer
e Rabin dimostrarono20 nel 1974 che esso è un algoritmo inefficiente, e cioè, che
per ogni polinomio P esistono infiniti enunciati E tali che il numero di passi
richiesti dall'algoritmo di Tarski per decidere se E è o meno un teorema, è
maggiore di P(n) (n = lunghezza di E). Fin qui, niente di grave. Peggio per
l'algoritmo di Tarski! Fischer e Rabin dimostrarono però qualcosa di molto più
forte e interessante, e cioè che dato un qualunque algoritmo AL per la geometria
euclidea elementare, esistono infiniti enunciati E tali che AL non è in grado di
decidere se E è o meno una verità della geometria euclidea elementare in meno di
2^cn passi, dove c è una costante maggiore di 1 che dipende dalla codificazione
utilizzata e n è la lunghezza di E. Conclusione: non esistono (in linea di principio)
algoritmi efficienti per questa teoria! Questo significa che senza "appello" all’
“intuizione” (qualunque cosa questo significhi!) vi sono verità geometriche
elementari per la cui scoperta persino il computer più veloce che possa mai
essere costruito prenderebbe un tempo pari alla "vita" dell'intero universo! Per
fissare le idee, poniamo c=1 e prendiamo un calcolatore che esegua 101 passi al
secondo (una eccellente velocità). Allora, è possibile trovare enunciati E, diciamo
di lunghezza 60, tali che il tempo che esso impiega per decidere se E è o meno
una verità geometrica, non è minore di 366 secoli. Come ha sottolineato Hilary
Putnam21, teorie decidibili solo in linea di principio, che ammettano cioè solo
algoritmi inefficienti, non differiscono essenzialmente, per noi esseri umani finiti,
da teorie indecidibili. Notava a questo proposito Larry Stockmeyer che "una
conseguenza di risultati come questo è quella di offuscare la distinzione classica
tra teorie decidibili e indecidibili".22 Così, alla luce di queste considerazioni
10 Marcello D’Agostino e Marco Mondadori

relative alla complessità computazionale, nemmeno risultati di decidibilità (come


quello di Tarski) sono in grado di per se stessi di stabilire l'eliminabilità dell'uso
dell'intuizione dal corrispondente ambito di ricerca. Ne segue che il solo tipo di
teorie per cui si possa ragionevolmente sostenere tale eliminabilità è quello delle
teorie che ammettono algoritmi efficienti. Sfortunatamente, nessuna teoria
matematica significativa è di questo tipo e con ogni probabilità nemmeno una
teoria "elementarissima" (nelle parole dello stesso Geymonat23 come la logica
proposizionale, ammette algoritmi efficienti. (Diciamo "con ogni probabilità",
poiché si tratta di un problema matematico ancora aperto.)24

5 Wittgenstein rivisitato

Se prendiamo sul serio Wittgenstein, la sua versione della TTDL non è quella
ingenua (e già al tempo manifestamente falsa) secondo cui la deduzione logica
così come è praticata realmente è analitica o non-ampliativa ma quella più
sofisticata (e al tempo non manifestamente falsa) che in termini attuali
esprimeremmo così:

1. la deduzione logica in un calcolo che ammette una procedura di decisione


in tempo lineare è analitica o non-ampliativa.

2. L’intera teoria della deduzione può essere formalizzata in un calcolo di


questo tipo.

Questa è una generalizzazione estremamente naturale del caso ovvio in cui la


relazione di implicazione sussiste perché la conclusione è uno dei dati: se ogni
deduzione può davvero, come sostiene Wittgenstein, essere ridotta a una semplice
ispezione diretta dei dati, allora il processo di riconoscimento della relazione di
implicazione deve essere lineare nella lunghezza dei dati. Sembra perciò
ragionevole sostenere più in generale che la possibilità di una qualunque
procedura di decisione lineare rende la classe di deduzioni corrispondenti
analitiche o non-ampliative. Tuttavia, Wittgenstein riteneva anche che fosse
possibile riformulare l’intera deduzione logica in un calcolo di questo tipo.
Sarebbe bello. Questo implicherebbe infatti immediatamente una soluzione
positiva del problema P = NP? ma, come è noto, praticamente nessuno crede
ormai che il problema ammetta una soluzione positiva e in ogni caso non certo in
una forma così forte (il dubbio è già forte con polinomi di grado arbitrario).

Tuttavia, va menzionata un’interpretazione alternativa della concezione di


Wittgenstein25 in virtù della quale certe sue affermazioni, come “ogni tautologia
mostra in sé stessa di essere una tautologia” (proposizione 6.127(b)), appaiono
più plausibili. Questa interpretazione prende sul serio l’osservazione, contenuta
nella proposizione 4.44, secondo cui le tavole di verità sono “segni proposizionali”.
Per esempio, se consideriamo fissata a priori la sequenza di possibili assegnazioni
di valori di verità alle variabili proposizionali, la tavola di verità per la
La logica è davvero analitica? 11

proposizione –-(P&Q) può essere rappresentata nella forma più concisa FVVV(p,q)
(si vedano a questo proposito le proposizioni 4.442 e 5.101) dove ciascun
elemento della successione FVVV rappresenta il valore di verità assunto dalla
proposizione in questione per la corrispondente assegnazione di valori di verità
alle variabili proposizionali. Wittgenstein sostiene che le espressioni costruite in
questo modo sono segni proposizionali che esprimono con la massima chiarezza il
senso delle proposizioni corrispondenti. Dunque è plausibile sostenere che il
metodo delle tavole di verità, o qualche sua variante, costituisse proprio un
tentativo di formulare quella “notazione logica adeguata” dalla quale dipendono
molte delle proprietà che Wittgenstein attribuiva alle nozioni di verità logica e di
inferenza logica, e in particolare la loro pretesa tautologicità. Se si adotta una
notazione del genere è del tutto ovvio che il carattere tautologico di una
proposizione può essere deciso immediatamente mediante ispezione diretta del
suo segno proposizionale. Basta controllare se la sequenza di valori di verità
contiene o meno il segno F, e questo è certamente un procedimento di
complessità lineare. Tuttavia, se questo tipo di notazione sembra realizzare il
miracolo di una procedura di decisione polinomiale (addirittura lineare!), si può
immediatamente constatare che ciò avviene al prezzo di un’esplosione
esponenziale del linguaggio stesso. Infatti la lunghezza dei segni proposizionali in
un linguaggio del genere è sempre di 2^n, dove n è il numero di variabili
proposizionali coinvolte, anche in molti casi in cui la notazione convenzionale
consente di rappresentare la stessa proposizione in forma molto più concisa,
mediante un segno di lunghezza lineare o comunque polinomiale rispetto al
numero di variabili. Se chiamiamo “grassa” una proposizione − rappresentata
nella notazione logica convenzionale − la cui lunghezza (il numero totale di
simboli che ricorrono in essa) è esponenziale rispetto al numero di variabili
proposizionali distinte che contiene, ne segue che la notazione di Wittgenstein è
confrontabile, dal punto di vista della complessità, a quella convenzionale solo nel
caso delle proposizioni “grasse”. Per tutte le altre proposizioni le due notazioni
non sono polinomialmente correlate. In altri termini non esiste una procedura di
traduzione di complessità polinomiale dalla notazione convenzionale alla
notazione “perfetta”. Questo esito è ovviamente altrettanto distruttivo per la TTDL
della mancanza di una procedura di decisione polinomiale per le proposizioni
espresse in notazione convenzionale. O non esiste una procedura di decisione
efficiente rispetto alla lunghezza delle espressioni del linguaggio, oppure il
linguaggio stesso, per quanto “logicamente perfetto”, è troppo complesso per
essere trattabile.

6 Le inferenze proposizionali sono davvero tautologiche?

La distinzione fra procedure fattibili e procedure non fattibili, insieme alla


congettura secondo cui non esistono procedure fattibili per la logica
proposizionale, suggeriscono di rivedere la posizione di Hintikka secondo cui la
deduzione nella logica proposizionale sarebbe un procedimento tautologico (a
informazione zero) e di affinare ulteriormente la sua analisi della nozione di
12 Marcello D’Agostino e Marco Mondadori

contenuto informativo. In fondo, tutti gli argomenti filosofici a favore di una


nozione di informazione computazionalmente effettiva, possono essere riutilizzati,
con variazioni marginali, a favore di una nozione computazionalmente trattabile. A
questo scopo, ad esempio, basta parafrasare come segue il passo di Hintikka che
abbiamo citato nel paragrafo 3 (le nostre modifiche sono in corsivo):

Che usi pratici possono infatti avere misure di informazione che ci mettono nella situazione di non poter sempre sapere
in pratica, e non solo in linea di principio, quanta informazione possediamo e di non poter avere in nessun modo un
metodo fattibile per determinarla? E’ chiaro infatti che uno degli scopi principali per i quali è stato costruito il concetto
di informazione è proprio questo: metterci in condizione di passare in rassegna ciò che sappiamo (di cui cioè abbiamo
informazione) e ciò che invece non sappiamo. Fare una rassegna di questo genere è tuttavia praticamente impossibile se
le nostre misure di informazione non sono trattabili.

Sembra dunque che, anche per quanto riguarda l’informazione di superficie, sia
opportuno distinguere fra quel tipo di informazione che può essere estratta
mediante una procedura fattibile e quello che invece richiede procedure
computazionalmente più complesse. Naturalmente il tentativo di operare una
distinzione del genere si imbatte immediatamente nel problema della
“robustezza”: diverse procedure fattibili possono caratterizzare come tautologiche
sottoclassi diverse e non confrontabili della classe delle inferenze proposizionali
corrette. Per esempio, per molte delle procedure di decisione note la classe di
inferenze deduttive che costituisce il cosiddetto “problema della piccionaia” (si
tratta della codificazione in logica proposizionale del semplice principio
combinatorio secondo cui n+1 piccioni non possono entrare in una piccionaia con
n cellette se si assume che ciascuna celletta possa contenere al massimo un
piccione e che ciascun piccione occupi almeno una celletta) è un problema
“intrattabile”. Tuttavia è possibile escogitare algoritmi efficienti per questa classe
di inferenze26 che però sono esponenziali, e dunque infattibili, per altri problemi
che vengono invece risolti in modo efficiente da procedure che fallivano sul
problema della piccionaia. Così sembra che una nozione di “tautologicità” basata
su una particolare procedura fattibile sia destinata a non essere robusta. Nel
seguito di questo paragrafo non ci addentreremo nel problema di formulare una
misura robusta e fattibile del contenuto informativo di un enunciato, ma ci
limiteremo a suggerire un metodo che non ci sembra affatto ad hoc, per
distinguere fra le inferenze proposizionali che sono davvero tautologiche e quelle
che non lo sono, mediante una procedura basata sull’analisi del significato
classico degli operatori logici.

Secondo una teoria del significato che risale almeno a Gentzen e alla sua
trattazione delle inferenze intuizioniste nel calcolo della deduzione naturale27, il
significato di un operatore logico viene fissato specificando opportune regole di
introduzione e di eliminazione per quell’operatore. La discussione del principio di
inversione da parte di Prawitz28 e altri ha messo in evidenza il ruolo “costitutivo”
svolto dalle regole di introduzione nella specificazione di tale significato,
sottolineando come le regole di eliminazione possano essere in qualche senso
“giustificate” sulla base delle regole di introduzione. Come hanno sottolineato sia
Prawitz29 sia Dummett30, le regole di introduzione e di eliminazione di Gentzen
rispecchiano bene il significato costruttivo degli operatori logici. Il potere deduttivo
della logica classica viene recuperato aggiungendo “dall’esterno” a questo sistema
armonico di regole l’assioma che esprime il principio del terzo escluso oppure una
La logica è davvero analitica? 13

regola di inferenza che esprime la reductio ad absurdum classica (“se da Γ,–-P


posso dedurre una contraddizione, ciò costituisce una dimostrazione di P a
partire da Γ). E’ possibile formulare un sistema analogo di regole che specifichino
il significato classico degli operatori logici tradizionali direttamente, e non
mediante un’estensione ad hoc del loro significato costruttivo? Se una risposta c’è
va cercata nel dispositivo che, proprio a partire da Wittgenstein, viene
tradizionalmente impiegato per illustrare questo significato, cioè le tavole di
verità. Se si considera la tavola per un operatore logico, per esempio, quella per la
disgiunzione:

P+Q P Q
______________________
1 1 1
1 1 0
1 0 1
0 0 0

è immediato osservare che questa tavola giustifica immediatamente le seguenti


regole di introduzione, dove utilizziamo i segni V e F come abbreviazioni per “è
vero che” ed “è falso che” rispettivamente:
FP
VP VQ FQ
−−−−- −−−−- −−−−-
VP+Q VP+Q FP+Q

E le regole di eliminazione? Mentre le regole di introduzione esprimono le


condizioni della verità o della falsità di un enunciato, le regole di eliminazione
esprimono le sue conseguenze. E’ ovvio che, invertendo la regola di introduzione
per FP+Q, otteniamo la seguente regola di eliminazione:

FP+Q
−−−−-
FP
FQ

Naturalmente è del tutto inessenziale che questa regola abbia due conclusioni,
dal momento che potremmo ottenere lo stesso risultato mediante due regole ad
una sola conclusione. Ma quali sono le conseguenze di VP+Q? Da una
proposizione segnata di questa forma non possiamo inferire né VP né VQ. Un
modo tipico di risolvere questo problema consiste nel trattare le regole di
eliminazione per proposizioni di questo tipo come regole con due conclusioni
asserite “disgiuntivamente”. Per esempio, nel metodo dei tableaux analitici, che
14 Marcello D’Agostino e Marco Mondadori

viene considerato come un’abbrevazione delle tavole di verità, la regola di


eliminazione per VP+Q è la seguente:

VP+Q
−−−−−−−−
VP | VQ

E’ chiaro che una regola di questo genere non è una regola di inferenza nello
stesso senso in cui lo sono le regole di introduzione oppure la regola di
eliminazione per FP+Q che abbiamo appena considerato. La differenza emerge
immediatamente non appena cerchiamo di parafrasarla: mentre nel caso delle
regole di introduzione e della regola di eliminazione per FP+Q possiamo dire “dalle
premesse della regola siamo autorizzati ad inferire la sua conclusione (o le sue
conclusioni)”, una descrizione del genere non è adeguata per una regola a due
conclusioni asserite “disgiuntivamente”, come la regola per VP+Q. Una descrizione
del tipo “da VP+Q possiamo inferire VP oppure possiamo inferire VQ” sarebbe del
tutto scorretta, dato che dalla verità di una disgiunzione, senza premesse
addizionali, non possiamo inferire la verità di nessuno dei due disgiunti.

Questo problema è stato messo in evidenza da Michael Dummett, in relazione


alla generalizzazione della nozione di sequente che è richiesta, nel calcolo dei
sequenti di Gentzen, per passare dalla logica intuizionista a quella classica:

La seconda generalizzazione compiuta dal calcolo classico dei sequenti, quella della nozione di
sequente, ci induce ad ammettere sequenti il cui succedente è un insieme, eventualmente vuoto,
di proposizioni piuttosto che una singola proposizione. […] Sequenti con due o più enunciati nel
succedente […] non hanno un significato immediatamente intelligibile, che possa essere spiegato
senza fare ricorso ad alcuna costante logica. Asserire A ed asserire B è lo stesso che asserire A&B;
così, sebbene gli enunciati nell’antecedente di un sequente sono, in un certo senso, connessi
congiuntivamente, possiamo comprendere il significato di un sequente con più di un enunciato
nell’antecedente senza essere costretti a conoscere il significato di ‘e’. Ma, in un succedente che
contiene più di un enunciato, gli enunciati sono connessi disgiuntivamente; e non è possibile
afferrare il senso di una tale connessione se non apprendendo il significato della costante
“oppure”. Un sequente della forma A : B,C non può essere spiegato dicendo: ‘Se avete asserito A,
potete con eguale diritto asserire B oppure C’, poiché ciò comporterebbe che potete asserire una
delle due proposizioni a vostra scelta.31

Da questo punto di vista le regole di inferenza accettabili devono essere espresse


nella forma di sequenti il cui succedente consiste di una sola proposizione, come
avviene nel calcolo dei sequenti per la logica intuizionista. Se si accetta questa
restrizione sia le regole del calcolo classico dei sequenti, sia le regole “ramificate”
del metodo dei tableaux analitici risultano inaccettabili come regole di inferenza.

Altrove32, abbiamo sostenuto che è opportuno sostituire le regole ramificate


dei tableaux con regole lineari a due premesse. Per esempio, nel caso della
disgiunzione VP+Q, in presenza di una premessa addizionale della forma FP
(oppure FQ) possiamo senz’altro inferire la conclusione VQ (o VP). Una regola di
questa forma non è altro che il tradizionale principio di inferenza (già noto a
La logica è davvero analitica? 15

Crisippo) chiamato “sillogismo disgiuntivo” e che possiamo rappresentare per


mezzo delle due regole seguenti:

VP+Q VP+Q
FP FQ
−−−−− −−−−−
VQ VP

che sono regole di inferenza vere e proprie, nel senso che ci autorizzano ad
asserire la conclusione ogniqualvolta siamo in grado ad asserire le premesse.

Si possono formulare, in modo analogo a partire dalle tavole di verità, regole


di introduzione e di eliminazione per tutti gli operatori logici. Queste regole, che
chiamiamo regole intelim, sono elencate nelle due tavole qui di seguito.

REGOLE DI INTRODUZIONE

FP
VP VQ FQ
−−−−− −−−−− −−−−-
VP+Q VP+Q FP+Q

VP
FP FQ VQ
−−−−− −−−−− −−−−−
FP&Q FP&Q VP&Q

VP
FP VQ FQ
−−−−- −−−−- −−−−-
VP>Q VP>Q FP>Q

VP FP
−−− −−−
F-P V-P
16 Marcello D’Agostino e Marco Mondadori

REGOLE DI ELIMINAZIONE

VP+Q VP+Q FP+Q


FP FQ −−−−-
−−−−− −−−−− FP
VQ VP FQ

FP&Q FP&Q VP&Q


VP VQ −−−−-
−−−−− −−−−− VP
FQ FP VQ

VP>Q VP>Q FP>Q


VP FQ −−−−−
−−−−- −−−−- VP
VQ FP FQ

V-P F-P
−−− −−−
FP VP

Si noti che tutte le nostre regole a due premesse, che sostituiscono le regole
ramificate dei tableaux, corrispondono a principi di inferenza tradizionali (ed
erano tutte già note a Crisippo!). In particolare le due regole per il condizionale
corrispondono rispettivamente al modus ponens e al modus tollens. Le regole che
abbiamo elencato possono a buon diritto essere considerate come le regole di
inferenza che esprimono il significato classico degli operatori logici. Si osservi che
esse sono tutte giustificate dalle tavole di verità. Inoltre, se chiamiamo semplice
una regola di inferenza della forma “dalle premesse X1,…... ,Xn si può inferire la
conclusione Y”, dove X1,…... ,Xn e Y sono proposizioni (eventualmente segnate) del
linguaggio oggetto, si può mostrare che le regole intelim che abbiamo elencato
sopra sono le sole regole “semplici” di introduzione e di eliminazione che possono
essere ricavate direttamente dalle tavole di verità per gli operatori logici.
Possiamo concludere che questo sistema armonico di introduzioni ed
eliminazioni è sufficiente a caratterizzare l’intera logica classica? La risposta è
negativa, poiché è facile constatare che il sistema intelim non è completo.
Innanzitutto è chiaro che da esso non possiamo “dimostrare” niente a partire
dall’insieme vuoto, e dunque non siamo in grado di dimostrare alcuna tautologia.
Possiamo, tuttavia dimostrare che una proposizione (o un insieme di proposizioni)
è incoerente, a patto di aggiungere alle regole, in accordo con il principio di non-
contraddizione una opportuna regola di chiusura che ci autorizzi a concludere,
dalla presenza di una contraddizione esplicita nella nostra catena inferenziale
(ossia di due proposizioni della forma VP e FP), che l’insieme dei dati è incoerente.
La logica è davvero analitica? 17

Tuttavia, neppure questo è sufficiente a rendere il sistema completo, neppure


come sistema di refutazione. Quello che manca è un principio fondamentale della
semantica classica che svolge un ruolo cruciale nelle tavole di verità, ossia il
principio di bivalenza. Si tratta dell’assunzione secondo cui ciascuna proposizione
che può essere costruita nel linguaggio considerato è determinatamente vera o
determinatamente falsa, del tutto indipendentemente dai mezzi a nostra
disposizione per accertare la sua verità o falsità. Il principio di bivalenza è
incorporato nelle tavole di verità sotto forma dell’assunzione che le proposizioni
debbano assumere uno dei due valori 1 e 0, ma non vi è nulla nelle nostre regole
intelim che corrisponda a questa assunzione. Per ottenere la completezza classica
il principio di bivalenza deve essere aggiunta esplicitamente, dall’ “esterno” al
nostro sistema intelim nella forma di una regola “ramificata” come la seguente:

−−−−−−−−-
VP | FP

Tale regola, che chiameremo regola di bivalenza, ci autorizza a introdurre in


qualunque punto della nostra argomentazione due possibilità alternative in
relazione a qualsiasi proposizione P. Si può mostrare che la completezza è
conservata se si restringono le applicazioni di questa regola a quelle che
soddisfano il principio della sottoformula secondo cui non si devono introdurre
nella deduzione proposizioni (segnate) che non siano costituenti di qualcuna delle
premesse oppure della conclusione. Anzi, si può mostrare che il sistema è
completo anche quando l’applicazione della regola è ristretta alle proposizioni
atomiche.
Dovrebbe essere chiaro, a questo punto, che questa regola non può essere
considerata una regola di inferenza. Essa esprime invece la “metafisica influente”
della logica classica nella forma di una tesi molto forte che sembra plausibile
considerare di tipo ontologico e che non ha nulla a che vedere con la teoria
classica del significato.33 Essa introduce una ramificazione che corrisponde a
due diversi tipi di mondo possibile: quello in cui P è vera e quello in cui P è falsa.
Così ogni applicazione di questa regola accresce il numero di tipi di mondo
possibile che devono essere considerati simultaneamente. Sembra perciò
abbastanza naturale considerarla come un “passaggio sintetico” in una deduzione
proposizionale34 e correlare, in qualche modo, l’informazione addizionale
convogliata dalla conclusione al numero minimo di tipi di mondo possibile che è
necessario considerare per ottenerla. Questo numero caratterizza anche il
numero di proposizioni atomiche, fra quelle considerate nella deduzione, di cui è
necessario assumere il carattere bivalente, ossia di cui è necessario assumere
una proprietà che riguarda la loro relazione con il mondo, e dunque una
proprietà non-linguistica, “quasi-fattuale”. Sebbene siamo in grado di predire il
numero massimo di tipi di mondo alternativi che è sufficiente introdurre per
determinare la validità di una data inferenza proposizionale, l’informazione
convogliata dalla deduzione potrebbe benissimo crescere in modo intrattabile. Il
punto importante è che il sistema delle regole intelim , ossia delle regole di
inferenza che fissano il significato classico degli operatori logici, è sufficiente a
risolvere un’ampia classe di problemi deduttivi (nella forma “l’insieme Γ è
18 Marcello D’Agostino e Marco Mondadori

refutabile?”) senza mai fare appello alla “tesi ontologica” espressa dal principio di
bivalenza, e dunque in modo puramente analitico, solo in virtù del significato
degli operatori. Questa classe di deduzioni possono a buon diritto considerarsi
come “tautologiche” (a informazione zero). Infatti, la classe delle inferenze intelim
corrette ammette una procedura di decisione fattibile (di complessità quadratica) e
dunque soddisfa il nostro criterio di trattabilità relativo alla nozione di
informazione. Non solo: indichiamo con UNSAT(k) la classe delle proposizioni
booleane la cui insoddisfacibilità può essere dimostrata mediante le regole intelim
più al massimo k applicazioni della regola di bivalenza. Chiamiamo questo
sistema KIE(k).35 Si può mostrare che ciascuna classe UNSAT(k) con k finito,
corrispondente al sistema KIE(k), ammette una procedura di decisione polinomiale
(sebbene di complessità crescente al crescere di k).

Abbiamo così inferenze il cui “grado di sinteticità” è uguale a 0, e


precisamente quelle di KIE(0), che non richiedono alcuna applicazione del
principio di bivalenza. Questo tipo di argomentazioni logiche non accresce
l’informazione, dal momento che la conclusione può essere ottenuta dalle
premesse in modo completamente analitico, senza considerare davvero nulla di
“esterno” al significato degli operatori. Le inferenze puramente intelim possono
dunque considerarsi come quelle inferenze proposizionali la cui correttezza può,
in un certo senso, essere stabilita “immediatamente”, proprio come voleva
Wittgenstein, se non per mera “ispezione” delle proposizioni coinvolte, per
qualcosa che vi si avvicina molto, ossia mediante una procedura meccanica
efficiente.

Il “grado di sintenticità” di una deduzione cresce al crescere del numero delle


applicazioni della regola di bivalenza che sono utilizzate per ottenere la
conclusione a partire dalle premesse. Il grado di sinteticità dell’inferenza da Γ a P
è dato dal grado di sinteticità minimo di una deduzione di P da Γ, che è a sua
volta correlato al più piccolo k tale che l’inferenza in questione può essere
formalizzata in KIE(k). Segue dall’analisi della procedura di decisione canonica
per le deduzioni in KIE(k), che il grado massimo di sinteticità di un inferenza
proposizionale è dato da una funzione esponenziale della complessità dell’input. Il
sistema più semplice in cui possono essere formalizzate tutte le inferenze della
logica proposizionale classica è quello in cui non vi è alcuna restrizione sul
numero di applicazioni della regola di bivalenza, che potremmo indicare con
KIE(∞). Questo sistema, in accordo con la congettura secondo cui P ≠ NP, non
ammette una procedura di decisione polinomiale. Tuttavia il potere deduttivo di
KIE(∞) può essere approssimato a piacere mediante una serie sistemi, e cioè i vari
KIE(k), che ammettono una procedura di decisione polinomiale (sebbene di
complessità crescente).

Una linea di ricerca interessante consiste nel cercare di combinare questa


nozione di sinteticità delle inferenze proposizionali con l’analoga nozione di
sinteticità delle inferenze quantificazionali delineata da Hintikka e che abbiamo
discusso per sommi capi nel paragrafo 3. L’ovvia differenza fra queste due nozioni
è che, mentre il grado di sinteticità proposizionale di un’inferenza ha un limite
superiore che dipende dalla complessità dell’input, il grado di sinteticità
La logica è davvero analitica? 19

quantificazionale di un inferenza non può essere in alcun modo limitato


superiormente.

Marcello D’Agostino
Marco Mondadori
Dipartimento di Scienze Umane, Università di Ferrara
Via Savonarola 38, 44100 Ferrara
e-mail: dgm@dns.unife.it mon@dns.unife.it

1
C. G. Hempel, “Geometry and Emprical Science”, American Mathematical Monthly, vol. 52, 1946, pp. 7-17.
2
M. Dummett , The logical basis of metaphysics, Duckworth, London 1991, p. 195.
3
Ibid.
4
C. Cellucci, Le Ragioni della Logica, Laterza, Bari 1998.
5
Ibid., p. 327
6
Se “ampliativo” deve significare che la conclusione non ha una relazione “interna” con i dati, allora è meglio che la
deduzione logica non sia ampliativa.
7
Si vedano E. Beth, Formal methods, Reidel, Dordrecht 1962, p.114 e M. Mondadori e M. D’Agostino, Logica, Bruno
Mondadori, 1997, p.204.
8
Karl Popper, The logic of scientific discovery, Hutchinson, London 1959. Trad. it. La logica della scoperta scientifica,
Einaudi, Torino 1970, par. 35.
9
J. Hintikka, Logic, language games and information, Oxford University Press, Oxford 1973. Trad. it. Logica, giochi
linguistici e informazione, il Saggiatore, Milano 1975, p. 207.
10
Ibid., p. 251.
11
Ibid., p. 165.
12
Ibid., p. 232.
13
Per i quali rinviamo a J. Hintikka, Logic, language games and information, cit.
14
Ibid., p. 207.
15
Ibid., p. 209.
16
Ibid., p. 208.
17
"Decidable Theories", p. 599, in Handbook of Mathematical Logic, a cura di J. Barwise, North-Holland, Amsterdam,
1977, pp. 595-629.
18
University of Calfornia Press, Rand Corporation, Santa Monica, California, 1948 (II ed. riveduta, Berkeley, 1951).
19
Si veda per esempio M.R. Garey e D.S. Johnson, Computers and Intractability, W.H. Freeman, New York, 1979; L.
Stockmeyer, "Classifying the computational complexity of problems", Journal of Symbolic Logic, 52, 1987, pp. 1-43 e
S.A. Cook, "An overview of computational complexity", Communications of the ACM, vol. 26, n. 6, giugno 1983.
20
Il riferimento all'articolo di Fischer e Rabin si trova in Rabin, "Decidable Theories", citato nella nota 17.
21
Meaning and the Moral Sciences, Routledge and Kegan Paul, Londra, 1978 (tr. it. Verità e etica, Il Saggiatore,
Milano, 1982).
22
Si veda Stockmeyer, op. cit., p. 3.
23
Si veda "La matematica dopo Hilbert", 1965, ristampato in L. Geymonat, Filosofia e Scienza nel '900, a cura di M.
Quaranta, Edizioni GB, Padova, 1991, p. 19.
24
Esso è equivalente al famoso problema di P = NP per cui si vedano i lavori citati nella nota 19.
25
Per questa interpretazione si veda G. Piana, Interpretazione del “Tractatus” di Wittgenstein, il Saggiatore, Milano
1973.
26
Si vedano, per esempio, B. Dunham e H. Wang, “Towards a Feasible Solution of the Tautology Problem”, Annals of
Mathematical Logic, vol. 10 (1976), pp. 117-154 e H. Wang, Popular lectures in mathematical logic, Dover
Publications, New York, pp. 101-107.
27
G. Gentzen, “Untersuchungen über das logische Schliessen”, Mathematische Zeitschrift, IXL, pp. 176-210. Trad. it.
parziale in D. Cagnoni (a cura di), Teoria della dimostrazione, Boringhieri, Torino 1978.
28
D. Prawitz, Natural deduction. A proof-theoretical study, Almqvist & Wilksell, Uppsala 1965.
20 Marcello D’Agostino e Marco Mondadori

29
D. Prawitz, “Ideas and Results in Proof-Theory”, in J.E. Fenstad (a cura di) Proceedings of the Second Scandinavian
Logic Symposium, North-Holland, Amsterdam; trad. it. in D. Cagnoni (a dura di), Teoria della dimostrazione, cit., pp.
127-204.
30
M. Dummett, The logical basis of metaphysics, cit., cap. 11.
31
Ibid., p. 187.
32
M. D’Agostino e M. Mondadori, “The Taming of the Cut. Classical Refutations with Analytic Cut”, Journal of Logic
and Computation, vol. 4, n. 3, 1994, pp. 285-319.
33
Su questo punto si veda M. Mondadori, “Due sistemi di logica”, Epistemologia, XII, 1989, fascicolo
speciale “Logica e Ontologia”, pp. 165-172.
34
Il lettore può constatare che si tratta di un criterio di sinteticità del tutto analogo a quello utilizzato da Hintikka per
caratterizzare i passaggi sintetici delle deduzioni quantificazionali. Anche per Hintikka l’informazione (di superficie)
aumenta con i tipi di mondo possibile che è necessario considerare nello sviluppo in forma normale distributiva di
una proposizione data. Si veda J. Hintikka, Logic, language games and information, cit.
35
Questa denominazione nasce dal fatto che altrove, per esempio in M. Mondadori e M. D’Agostino, Logica, cit.,
abbiamo chiamato KE il sistema costituito dalle regole di eliminazione più la regola di bivalenza e KI
quello costituito dalle regole di introduzione più la regola di bivalenza. Entrambi questi sistemi
sono completi per la logica classica. Il sistema intelim più la regola di bivalenza (senza restrizioni
sul numero di applicazioni) è stato a volte denominato KIE.