Marco Mondadori
deduzione svanisce: se la conclusione di un’inferenza non dice nulla che già non
fosse detto nelle premesse non è richiesta alcuna giustificazione. Ma, per
Dummett “questo approccio è insensato: il ragionamento deduttivo viene così
giustificato a spese del suo potere di estendere la conoscenza e, dunque, a spese
di qualunque autentica utilità”3
Questo è l’esito finale della TTDL nella forma sostenuta da Wittgenstein. Sarebbe
anche un esito piacevole. Sfortunatamente, né Wittgenstein né alcun altro dopo
di lui ha trovato questa “notazione perfetta”. In generale, l’impossibilità di una
tale notazione per la logica della quantificazione è una conseguenza immediata
dell’impossibilità di una procedura di decisione, stabilita da Turing e Church non
molti anni dopo la pubblicazione del Tractatus. Ma persino nel contesto della
logica proposizionale − in cui la nozione di tautologia ha avuto origine e
l’esistenza di procedure di decisione sembra garantire la sua applicabilità − è
estremamente improbabile che una notazione perfetta nel senso di Wittgenstein
possa mai essere trovata. Wittgenstein non poteva saperlo e avanzava alla fin fine
un’ipotesi con ogni probabilità falsa ma ardita. Nel prossimo paragrafo vedremo
come l’indecibilità della logica del primo ordine possa essere considerata una
confutazione non solo dell’ipotesi di Wittgenstein, ma anche di qualunque
versione filosoficamente interessante della TTDL. Nei paragrafi che seguono
esamineremo alcuni risultati teorici che hanno reso fortemente implausibile
l’ipotesi dell’esistenza di una notazione perfetta, e con essa qualunque versione
praticamente interessante della TTDL, persino nel dominio ristretto della logica
proposizionale.
Abbiamo visto che per Wittgenstein la deduzione logica è davvero analitica solo se
le proposizioni sono espresse in una notazione adeguata. Egli ammetteva che,
quando la notazione non è “chiara”, il ricorso a una procedura di calcolo può
essere indispensabile per portare alla luce la “struttura profonda” delle
proposizioni esaminate. In ogni caso, l’esistenza di quella che oggi chiamiamo
una procedura di decisione è indispensabile perché si possa affermare che
l’inferenza deduttiva è un procedimento tautologico. Cellucci, dal canto suo,
sembra sostenere una versione della TTDL molto più forte e cioè che la deduzione
logica in un sistema che ammette sia pure soltanto una procedura di semi-decisione
è analitica o non-ampliativa.
spazio logico”, prop. 3.4 del Tractatus). Le proposizioni meno informative di tutte
sono naturalmente le verità logiche che, infatti, non dicono nulla (“non so nulla
sul tempo se so che o piove o non piove”, prop. 4.461(e)) e meritano perciò
l’appellativo di “tautologie”. Se ragioniamo in termini di informazione semantica è
ovvio che l’informazione convogliata dalla conclusione di una deduzione è inclusa
in quella convogliata dalle premesse. Ma si tratta di una nozione
epistemologicamente accettabile? Innanzitutto è chiaro che, nella logica del primo
ordine, questa non è una nozione effettiva. Abbiamo visto che, nei linguaggi del
primo ordine, vi è una fondamentale asimmetria epistemologica, se accettiamo la
nozione di informazione semantica come una misura del contenuto informativo
delle proposizioni, fra ciò che una proposizione dice e ciò che essa non dice.
Come ha osservato Jaakko Hintikka,
Ciò che un enunciato “dice” o “asserisce” deve avere un intimo rapporto con l’informazione che
esso convoglia […]9
Sono tuttavia non poco assurde misure di informazione che non siano computabili in modo
effettivo. Che usi pratici possono infatti avere misure di informazione che ci mettono nella
situazione di non poter sempre sapere in linea di principio quanta informazione possediamo e di
non poter avere in nessun modo un metodo effettivo per determinarla? E’ chiaro infatti che uno
degli scopi principali per i quali è stato costruito il concetto di informazione è proprio questo:
metterci in condizione di passare in rassegna ciò che sappiamo (di cui cioè abbiamo informazione)
e ciò che invece non sappiamo. Fare una rassegna di questo genere è tuttavia in linea di principio
impossibile se le nostre misure di informazione non sono ricorsive.10
4 Decidibilità e complessità
Consideriamo una arbitraria teoria decidibile T, per cui cioè esiste un algoritmo
capace di decidere in un tempo finito, per ogni enunciato E di T, se E è o meno un
teorema di T. Come ha osservato M. Rabin, "nello spirito del programma di
Hilbert e dell'analisi della computabilità di Turing, si assumeva tacitamente che
per teorie decidibili T la questione se un dato enunciato E è un teorema di T fosse
banale. [Sembrava] infatti che a questo scopo bastasse applicare meccanicamente
la procedura di decisione lasciando da parte ogni pensiero creativo o
intelligente"17. Consideriamo in particolare il caso forse più significativo da questo
punto di vista, quello della geometria euclidea elementare. Benché naturalmente
sia decisiva la qualificazione "elementare", si tratta di una teoria di un certo
interesse matematico dato che copre tutta l'algebra "scolastica". Come è noto, nel
1948 A. Tarski completava la monografia A Decision Method for Elementary
Algebra and Geometry18 che conteneva un algoritmo in grado di risolvere
La logica è davvero analitica? 9
5 Wittgenstein rivisitato
Se prendiamo sul serio Wittgenstein, la sua versione della TTDL non è quella
ingenua (e già al tempo manifestamente falsa) secondo cui la deduzione logica
così come è praticata realmente è analitica o non-ampliativa ma quella più
sofisticata (e al tempo non manifestamente falsa) che in termini attuali
esprimeremmo così:
proposizione –-(P&Q) può essere rappresentata nella forma più concisa FVVV(p,q)
(si vedano a questo proposito le proposizioni 4.442 e 5.101) dove ciascun
elemento della successione FVVV rappresenta il valore di verità assunto dalla
proposizione in questione per la corrispondente assegnazione di valori di verità
alle variabili proposizionali. Wittgenstein sostiene che le espressioni costruite in
questo modo sono segni proposizionali che esprimono con la massima chiarezza il
senso delle proposizioni corrispondenti. Dunque è plausibile sostenere che il
metodo delle tavole di verità, o qualche sua variante, costituisse proprio un
tentativo di formulare quella “notazione logica adeguata” dalla quale dipendono
molte delle proprietà che Wittgenstein attribuiva alle nozioni di verità logica e di
inferenza logica, e in particolare la loro pretesa tautologicità. Se si adotta una
notazione del genere è del tutto ovvio che il carattere tautologico di una
proposizione può essere deciso immediatamente mediante ispezione diretta del
suo segno proposizionale. Basta controllare se la sequenza di valori di verità
contiene o meno il segno F, e questo è certamente un procedimento di
complessità lineare. Tuttavia, se questo tipo di notazione sembra realizzare il
miracolo di una procedura di decisione polinomiale (addirittura lineare!), si può
immediatamente constatare che ciò avviene al prezzo di un’esplosione
esponenziale del linguaggio stesso. Infatti la lunghezza dei segni proposizionali in
un linguaggio del genere è sempre di 2^n, dove n è il numero di variabili
proposizionali coinvolte, anche in molti casi in cui la notazione convenzionale
consente di rappresentare la stessa proposizione in forma molto più concisa,
mediante un segno di lunghezza lineare o comunque polinomiale rispetto al
numero di variabili. Se chiamiamo “grassa” una proposizione − rappresentata
nella notazione logica convenzionale − la cui lunghezza (il numero totale di
simboli che ricorrono in essa) è esponenziale rispetto al numero di variabili
proposizionali distinte che contiene, ne segue che la notazione di Wittgenstein è
confrontabile, dal punto di vista della complessità, a quella convenzionale solo nel
caso delle proposizioni “grasse”. Per tutte le altre proposizioni le due notazioni
non sono polinomialmente correlate. In altri termini non esiste una procedura di
traduzione di complessità polinomiale dalla notazione convenzionale alla
notazione “perfetta”. Questo esito è ovviamente altrettanto distruttivo per la TTDL
della mancanza di una procedura di decisione polinomiale per le proposizioni
espresse in notazione convenzionale. O non esiste una procedura di decisione
efficiente rispetto alla lunghezza delle espressioni del linguaggio, oppure il
linguaggio stesso, per quanto “logicamente perfetto”, è troppo complesso per
essere trattabile.
Che usi pratici possono infatti avere misure di informazione che ci mettono nella situazione di non poter sempre sapere
in pratica, e non solo in linea di principio, quanta informazione possediamo e di non poter avere in nessun modo un
metodo fattibile per determinarla? E’ chiaro infatti che uno degli scopi principali per i quali è stato costruito il concetto
di informazione è proprio questo: metterci in condizione di passare in rassegna ciò che sappiamo (di cui cioè abbiamo
informazione) e ciò che invece non sappiamo. Fare una rassegna di questo genere è tuttavia praticamente impossibile se
le nostre misure di informazione non sono trattabili.
Sembra dunque che, anche per quanto riguarda l’informazione di superficie, sia
opportuno distinguere fra quel tipo di informazione che può essere estratta
mediante una procedura fattibile e quello che invece richiede procedure
computazionalmente più complesse. Naturalmente il tentativo di operare una
distinzione del genere si imbatte immediatamente nel problema della
“robustezza”: diverse procedure fattibili possono caratterizzare come tautologiche
sottoclassi diverse e non confrontabili della classe delle inferenze proposizionali
corrette. Per esempio, per molte delle procedure di decisione note la classe di
inferenze deduttive che costituisce il cosiddetto “problema della piccionaia” (si
tratta della codificazione in logica proposizionale del semplice principio
combinatorio secondo cui n+1 piccioni non possono entrare in una piccionaia con
n cellette se si assume che ciascuna celletta possa contenere al massimo un
piccione e che ciascun piccione occupi almeno una celletta) è un problema
“intrattabile”. Tuttavia è possibile escogitare algoritmi efficienti per questa classe
di inferenze26 che però sono esponenziali, e dunque infattibili, per altri problemi
che vengono invece risolti in modo efficiente da procedure che fallivano sul
problema della piccionaia. Così sembra che una nozione di “tautologicità” basata
su una particolare procedura fattibile sia destinata a non essere robusta. Nel
seguito di questo paragrafo non ci addentreremo nel problema di formulare una
misura robusta e fattibile del contenuto informativo di un enunciato, ma ci
limiteremo a suggerire un metodo che non ci sembra affatto ad hoc, per
distinguere fra le inferenze proposizionali che sono davvero tautologiche e quelle
che non lo sono, mediante una procedura basata sull’analisi del significato
classico degli operatori logici.
Secondo una teoria del significato che risale almeno a Gentzen e alla sua
trattazione delle inferenze intuizioniste nel calcolo della deduzione naturale27, il
significato di un operatore logico viene fissato specificando opportune regole di
introduzione e di eliminazione per quell’operatore. La discussione del principio di
inversione da parte di Prawitz28 e altri ha messo in evidenza il ruolo “costitutivo”
svolto dalle regole di introduzione nella specificazione di tale significato,
sottolineando come le regole di eliminazione possano essere in qualche senso
“giustificate” sulla base delle regole di introduzione. Come hanno sottolineato sia
Prawitz29 sia Dummett30, le regole di introduzione e di eliminazione di Gentzen
rispecchiano bene il significato costruttivo degli operatori logici. Il potere deduttivo
della logica classica viene recuperato aggiungendo “dall’esterno” a questo sistema
armonico di regole l’assioma che esprime il principio del terzo escluso oppure una
La logica è davvero analitica? 13
P+Q P Q
______________________
1 1 1
1 1 0
1 0 1
0 0 0
FP+Q
−−−−-
FP
FQ
Naturalmente è del tutto inessenziale che questa regola abbia due conclusioni,
dal momento che potremmo ottenere lo stesso risultato mediante due regole ad
una sola conclusione. Ma quali sono le conseguenze di VP+Q? Da una
proposizione segnata di questa forma non possiamo inferire né VP né VQ. Un
modo tipico di risolvere questo problema consiste nel trattare le regole di
eliminazione per proposizioni di questo tipo come regole con due conclusioni
asserite “disgiuntivamente”. Per esempio, nel metodo dei tableaux analitici, che
14 Marcello D’Agostino e Marco Mondadori
VP+Q
−−−−−−−−
VP | VQ
E’ chiaro che una regola di questo genere non è una regola di inferenza nello
stesso senso in cui lo sono le regole di introduzione oppure la regola di
eliminazione per FP+Q che abbiamo appena considerato. La differenza emerge
immediatamente non appena cerchiamo di parafrasarla: mentre nel caso delle
regole di introduzione e della regola di eliminazione per FP+Q possiamo dire “dalle
premesse della regola siamo autorizzati ad inferire la sua conclusione (o le sue
conclusioni)”, una descrizione del genere non è adeguata per una regola a due
conclusioni asserite “disgiuntivamente”, come la regola per VP+Q. Una descrizione
del tipo “da VP+Q possiamo inferire VP oppure possiamo inferire VQ” sarebbe del
tutto scorretta, dato che dalla verità di una disgiunzione, senza premesse
addizionali, non possiamo inferire la verità di nessuno dei due disgiunti.
La seconda generalizzazione compiuta dal calcolo classico dei sequenti, quella della nozione di
sequente, ci induce ad ammettere sequenti il cui succedente è un insieme, eventualmente vuoto,
di proposizioni piuttosto che una singola proposizione. […] Sequenti con due o più enunciati nel
succedente […] non hanno un significato immediatamente intelligibile, che possa essere spiegato
senza fare ricorso ad alcuna costante logica. Asserire A ed asserire B è lo stesso che asserire A&B;
così, sebbene gli enunciati nell’antecedente di un sequente sono, in un certo senso, connessi
congiuntivamente, possiamo comprendere il significato di un sequente con più di un enunciato
nell’antecedente senza essere costretti a conoscere il significato di ‘e’. Ma, in un succedente che
contiene più di un enunciato, gli enunciati sono connessi disgiuntivamente; e non è possibile
afferrare il senso di una tale connessione se non apprendendo il significato della costante
“oppure”. Un sequente della forma A : B,C non può essere spiegato dicendo: ‘Se avete asserito A,
potete con eguale diritto asserire B oppure C’, poiché ciò comporterebbe che potete asserire una
delle due proposizioni a vostra scelta.31
VP+Q VP+Q
FP FQ
−−−−− −−−−−
VQ VP
che sono regole di inferenza vere e proprie, nel senso che ci autorizzano ad
asserire la conclusione ogniqualvolta siamo in grado ad asserire le premesse.
REGOLE DI INTRODUZIONE
FP
VP VQ FQ
−−−−− −−−−− −−−−-
VP+Q VP+Q FP+Q
VP
FP FQ VQ
−−−−− −−−−− −−−−−
FP&Q FP&Q VP&Q
VP
FP VQ FQ
−−−−- −−−−- −−−−-
VP>Q VP>Q FP>Q
VP FP
−−− −−−
F-P V-P
16 Marcello D’Agostino e Marco Mondadori
REGOLE DI ELIMINAZIONE
V-P F-P
−−− −−−
FP VP
Si noti che tutte le nostre regole a due premesse, che sostituiscono le regole
ramificate dei tableaux, corrispondono a principi di inferenza tradizionali (ed
erano tutte già note a Crisippo!). In particolare le due regole per il condizionale
corrispondono rispettivamente al modus ponens e al modus tollens. Le regole che
abbiamo elencato possono a buon diritto essere considerate come le regole di
inferenza che esprimono il significato classico degli operatori logici. Si osservi che
esse sono tutte giustificate dalle tavole di verità. Inoltre, se chiamiamo semplice
una regola di inferenza della forma “dalle premesse X1,…... ,Xn si può inferire la
conclusione Y”, dove X1,…... ,Xn e Y sono proposizioni (eventualmente segnate) del
linguaggio oggetto, si può mostrare che le regole intelim che abbiamo elencato
sopra sono le sole regole “semplici” di introduzione e di eliminazione che possono
essere ricavate direttamente dalle tavole di verità per gli operatori logici.
Possiamo concludere che questo sistema armonico di introduzioni ed
eliminazioni è sufficiente a caratterizzare l’intera logica classica? La risposta è
negativa, poiché è facile constatare che il sistema intelim non è completo.
Innanzitutto è chiaro che da esso non possiamo “dimostrare” niente a partire
dall’insieme vuoto, e dunque non siamo in grado di dimostrare alcuna tautologia.
Possiamo, tuttavia dimostrare che una proposizione (o un insieme di proposizioni)
è incoerente, a patto di aggiungere alle regole, in accordo con il principio di non-
contraddizione una opportuna regola di chiusura che ci autorizzi a concludere,
dalla presenza di una contraddizione esplicita nella nostra catena inferenziale
(ossia di due proposizioni della forma VP e FP), che l’insieme dei dati è incoerente.
La logica è davvero analitica? 17
−−−−−−−−-
VP | FP
refutabile?”) senza mai fare appello alla “tesi ontologica” espressa dal principio di
bivalenza, e dunque in modo puramente analitico, solo in virtù del significato
degli operatori. Questa classe di deduzioni possono a buon diritto considerarsi
come “tautologiche” (a informazione zero). Infatti, la classe delle inferenze intelim
corrette ammette una procedura di decisione fattibile (di complessità quadratica) e
dunque soddisfa il nostro criterio di trattabilità relativo alla nozione di
informazione. Non solo: indichiamo con UNSAT(k) la classe delle proposizioni
booleane la cui insoddisfacibilità può essere dimostrata mediante le regole intelim
più al massimo k applicazioni della regola di bivalenza. Chiamiamo questo
sistema KIE(k).35 Si può mostrare che ciascuna classe UNSAT(k) con k finito,
corrispondente al sistema KIE(k), ammette una procedura di decisione polinomiale
(sebbene di complessità crescente al crescere di k).
Marcello D’Agostino
Marco Mondadori
Dipartimento di Scienze Umane, Università di Ferrara
Via Savonarola 38, 44100 Ferrara
e-mail: dgm@dns.unife.it mon@dns.unife.it
1
C. G. Hempel, “Geometry and Emprical Science”, American Mathematical Monthly, vol. 52, 1946, pp. 7-17.
2
M. Dummett , The logical basis of metaphysics, Duckworth, London 1991, p. 195.
3
Ibid.
4
C. Cellucci, Le Ragioni della Logica, Laterza, Bari 1998.
5
Ibid., p. 327
6
Se “ampliativo” deve significare che la conclusione non ha una relazione “interna” con i dati, allora è meglio che la
deduzione logica non sia ampliativa.
7
Si vedano E. Beth, Formal methods, Reidel, Dordrecht 1962, p.114 e M. Mondadori e M. D’Agostino, Logica, Bruno
Mondadori, 1997, p.204.
8
Karl Popper, The logic of scientific discovery, Hutchinson, London 1959. Trad. it. La logica della scoperta scientifica,
Einaudi, Torino 1970, par. 35.
9
J. Hintikka, Logic, language games and information, Oxford University Press, Oxford 1973. Trad. it. Logica, giochi
linguistici e informazione, il Saggiatore, Milano 1975, p. 207.
10
Ibid., p. 251.
11
Ibid., p. 165.
12
Ibid., p. 232.
13
Per i quali rinviamo a J. Hintikka, Logic, language games and information, cit.
14
Ibid., p. 207.
15
Ibid., p. 209.
16
Ibid., p. 208.
17
"Decidable Theories", p. 599, in Handbook of Mathematical Logic, a cura di J. Barwise, North-Holland, Amsterdam,
1977, pp. 595-629.
18
University of Calfornia Press, Rand Corporation, Santa Monica, California, 1948 (II ed. riveduta, Berkeley, 1951).
19
Si veda per esempio M.R. Garey e D.S. Johnson, Computers and Intractability, W.H. Freeman, New York, 1979; L.
Stockmeyer, "Classifying the computational complexity of problems", Journal of Symbolic Logic, 52, 1987, pp. 1-43 e
S.A. Cook, "An overview of computational complexity", Communications of the ACM, vol. 26, n. 6, giugno 1983.
20
Il riferimento all'articolo di Fischer e Rabin si trova in Rabin, "Decidable Theories", citato nella nota 17.
21
Meaning and the Moral Sciences, Routledge and Kegan Paul, Londra, 1978 (tr. it. Verità e etica, Il Saggiatore,
Milano, 1982).
22
Si veda Stockmeyer, op. cit., p. 3.
23
Si veda "La matematica dopo Hilbert", 1965, ristampato in L. Geymonat, Filosofia e Scienza nel '900, a cura di M.
Quaranta, Edizioni GB, Padova, 1991, p. 19.
24
Esso è equivalente al famoso problema di P = NP per cui si vedano i lavori citati nella nota 19.
25
Per questa interpretazione si veda G. Piana, Interpretazione del “Tractatus” di Wittgenstein, il Saggiatore, Milano
1973.
26
Si vedano, per esempio, B. Dunham e H. Wang, “Towards a Feasible Solution of the Tautology Problem”, Annals of
Mathematical Logic, vol. 10 (1976), pp. 117-154 e H. Wang, Popular lectures in mathematical logic, Dover
Publications, New York, pp. 101-107.
27
G. Gentzen, “Untersuchungen über das logische Schliessen”, Mathematische Zeitschrift, IXL, pp. 176-210. Trad. it.
parziale in D. Cagnoni (a cura di), Teoria della dimostrazione, Boringhieri, Torino 1978.
28
D. Prawitz, Natural deduction. A proof-theoretical study, Almqvist & Wilksell, Uppsala 1965.
20 Marcello D’Agostino e Marco Mondadori
29
D. Prawitz, “Ideas and Results in Proof-Theory”, in J.E. Fenstad (a cura di) Proceedings of the Second Scandinavian
Logic Symposium, North-Holland, Amsterdam; trad. it. in D. Cagnoni (a dura di), Teoria della dimostrazione, cit., pp.
127-204.
30
M. Dummett, The logical basis of metaphysics, cit., cap. 11.
31
Ibid., p. 187.
32
M. D’Agostino e M. Mondadori, “The Taming of the Cut. Classical Refutations with Analytic Cut”, Journal of Logic
and Computation, vol. 4, n. 3, 1994, pp. 285-319.
33
Su questo punto si veda M. Mondadori, “Due sistemi di logica”, Epistemologia, XII, 1989, fascicolo
speciale “Logica e Ontologia”, pp. 165-172.
34
Il lettore può constatare che si tratta di un criterio di sinteticità del tutto analogo a quello utilizzato da Hintikka per
caratterizzare i passaggi sintetici delle deduzioni quantificazionali. Anche per Hintikka l’informazione (di superficie)
aumenta con i tipi di mondo possibile che è necessario considerare nello sviluppo in forma normale distributiva di
una proposizione data. Si veda J. Hintikka, Logic, language games and information, cit.
35
Questa denominazione nasce dal fatto che altrove, per esempio in M. Mondadori e M. D’Agostino, Logica, cit.,
abbiamo chiamato KE il sistema costituito dalle regole di eliminazione più la regola di bivalenza e KI
quello costituito dalle regole di introduzione più la regola di bivalenza. Entrambi questi sistemi
sono completi per la logica classica. Il sistema intelim più la regola di bivalenza (senza restrizioni
sul numero di applicazioni) è stato a volte denominato KIE.