Sei sulla pagina 1di 320

SAGGI

23

Filosofia
sezione a cura di Luigi Alici
Sergio Galvan
Marchio scuola:Layout 1 04/10/2011 16.32 Pagina 1

Logica

E D IT R I C E
LA SCUOLA
In copertina: immagine da Archivi ICPonline

La collana è peer reviewed

Curatela redazionale di Ciro De Florio

I diritti di traduzione, di memorizzazione elettronica, di riproduzione e di adatta-


mento totale o parziale, con qualsiasi mezzo (compresi i microfilm), sono riservati
per tutti i Paesi.
Le fotocopie per uso personale del lettore possono essere effettuate nei limiti del
15% di ciascun volume/fascicolo di periodico dietro pagamento alla SIAE del com-
penso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile 1941, n. 633.
Le fotocopie effettuate per finalità di carattere professionale, economico o commer-
ciale o comunque per uso diverso da quello personale possono essere effettuate a
seguito di specifica autorizzazione rilasciata da CLEARedi, Centro Licenze e Auto-
rizzazioni per le Riproduzioni Editoriali, Corso di Porta Romana n. 108, 20122 Mi-
lano, e-mail autorizzazioni@clearedi.org e sito web www.clearedi.org

© Copyright by Editrice La Scuola, 2012


–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
Stampa Officine Grafiche «La Scuola», Brescia ISBN 978 - 88 - 350 - 3061 - 4
Alla mia famiglia
Introduzione

Nel corso del secolo passato la logica ha avuto uno sviluppo


imponente, che tuttora continua, sia per la mole degli studi innova-
tivi compiuti all’interno del suo ambito, sia per l’attivo dei risultati
conseguiti, sia per l’ampiezza dei campi di applicazione. Le ragioni
di questo fenomeno sono molte e complesse così da non poterle
trattare compiutamente in questa sede. Tuttavia ci si può fare
un’idea abbastanza precisa dello stato attuale della ricerca in logica
e di quali siano le sue prospettive nel futuro se si pensa alle vicende
da essa vissute nel corso dell’epoca moderna in parallelo con lo
sviluppo della nuova scienza. Questa analisi, ancorché sommaria,
sarà utile per dire qualcosa sugli obiettivi che la logica si è posta fin
dalla sua nascita e per interrogarsi sul modo con cui questi sono
stati interpretati nel corso del periodo moderno fino alla rinascita
contemporanea.
Innanzitutto, nel corso del periodo moderno la logica ha guada-
gnato una posizione di forte e stabile autonomia sia nei confronti
della filosofia sia delle discipline scientifiche particolari, venendo
ad acquisire essa stessa la connotazione di una disciplina scientifica
specifica, dotata di un campo d’applicazione vastissimo e variegato,
che va dalla logica della matematica in senso stretto alla logica dei
sistemi ontologico-metafisici, dalla logica della probabilità alla logi-
ca della scelta razionale, dalla semantica dei linguaggi naturali alla
semantica astratta. In questo senso la vocazione all’universalità che
caratterizza la logica fin dalla sua nascita rimane una costante ideale
anche del sistema in espansione della logica contemporanea. Tut-
tavia non si comprende a fondo il carattere innovativo della logica

7
Introduzione

contemporanea se non si riflette sul fatto che essa è l’esito di un


lungo processo di autonomizzazione del sapere scientifico rispetto
al sapere filosofico e il risultato della grandiosa dialettica che si è
venuta a creare tra queste due forze della razionalità occidentale nel
corso dell’epoca moderna. La cosiddetta rinascita della logica verso
la seconda metà dell’Ottocento è, infatti, dovuta in massima parte
a questo processo di autonomizzazione che se, da una parte, porta
la scienza ad un grado di maturità e di sviluppo tali da evidenziare
al suo interno aspetti teorici e di metodo non facilmente inquadra-
bili nell’immagine tradizionale del sapere, dall’altra, è accompagna-
to da un profondo rivolgimento dello stesso metodo filosofico che
diventa sempre più distante da quello della scienza proprio per la
diversità di logica impiegata.
Un approfondimento, per quanto sommario, di entrambi questi
aspetti storico-teoretici del rapporto tra progresso della scienza e
riflessione filosofica ci sarà molto utile per rispondere alla doman-
da sul ruolo attuale della logica. Ma per vedere quali sorti toccano
alla logica nello sviluppo di tale rapporto, dobbiamo fare qualche
passo indietro e rivolgere la nostra attenzione al passaggio dal mo-
dello di conoscenza antico a quello moderno che ha luogo con la
nascita della scienza moderna. Ora, sono sufficienti poche cono-
scenze storiche per rendersi conto che con l’invenzione del nuovo
metodo la scienza moderna aveva cambiato un modo di pensare
millenario e costretto a ripensare il concetto stesso di sapere. Che
la logica fosse implicata in questo processo di cambiamento risultò
subito chiaramente anche solo per il fatto scontato che la logica ha
sempre avuto a che fare con le forme di ragionamento e il sapere
ha costitutivamente, fino dai tempi dei greci, una struttura inferen-
ziale. Ma la logica risentì subito dell’impatto che il nuovo metodo
veniva ad avere sulla struttura del sapere anche per altri motivi. Da
una parte la logica perse il suo ruolo di organo del sapere. Dall’al-
tra la logica venne forzata ad acquisire un ruolo diverso da quello
che aveva.
La logica perse il ruolo di organo del sapere in quanto il metodo
scientifico nacque se non in opposizione con la logica tradizionale
certamente in un contesto di indipendenza da questa. La ragione

8
Introduzione

centrale di ciò sta nel fatto che la nuova scienza elesse quale stru-
mento atto alla descrizione dei fenomeni non più il linguaggio sil-
logistico fondato su una visione classificatoria della natura ma
quello matematico fondato su una concezione relazionale delle
strutture del mondo. Come è noto, le leggi scientifiche scoperte nei
primi tempi dell'era scientifica, quali la legge di gravità, le leggi di
accelerazione, le leggi concernenti la pressione dei fluidi, in genera-
le tutte le leggi della meccanica sono leggi espresse attraverso
equazioni matematiche. Le equazioni matematiche sono però delle
particolari espressioni algebriche e l’algebra è un linguaggio fun-
zionale. Non esisteva pertanto la possibilità di tradurre nel lin-
guaggio sillogistico il linguaggio della nuova scienza, perché il lin-
guaggio sillogistico era un linguaggio di proprietà e non di relazio-
ni. Ma l’insufficienza del linguaggio riflette anche una divaricazio-
ne, allo stesso tempo, epistemica ed ontologica. È famosa la di-
sgiunzione con cui esordisce la III lettera di Galileo a Marco Velse-
ri sulle macchie solari: «O noi vogliamo specolando tentar di pene-
trar l’essenza vera ed intrinseca delle sustanze naturali; o noi vo-
gliamo contentarci di venir in notizia d’alcune loro affezioni». Gali-
leo risponde chiaramente: «Il tentar l’essenza, l’ho per impresa non
meno impossibile e per fatica non men vana nelle prossime su-
stanze elementari che nelle remotissime e celesti», optando per la
rinuncia all’intuizione delle essenze. Ora il modello di conoscenza
antico era al contrario fondato proprio sulla deduzione dei fatti da
leggi o principi che scaturivano dall’intuizione dell’essenza delle
cose. Valgano ad esempio emblematico gli elementi di Euclide, nei
quali i fatti geometrici sono dedotti attraverso specifiche regole
inferenziali dai famosi postulati. Ebbene i postulati, secondo il
modello di conoscenza del sapere antico, sono considerati veri a
proposito degli enti geometrici fondamentali (punti, linee, rette,
curve regolari, figure ...), perché ci dicono quali proprietà appar-
tengono loro per essenza. E perché possiamo dire che sono veri?
Possiamo dire che sono veri perché ci appare che sia così, ovvero
perché ne abbiamo evidenza immediata. Ma affermare che ci appa-
re con evidenza che questa o quest’altra proprietà è posseduta dal-
l’essenza di questo o quest’altro ente geometrico non è nient’altro

9
Introduzione

che affermare che di tali enti noi abbiamo intuizione essenziale. Il


metodo euclideo, dunque, presupponeva la capacità di afferrare le
essenze, anche se poi non andava a fondo nell’esplicitare la logica
che presiede all'individuazione delle forme inferenziali giudicate
corrette. La dimostrazione dei teoremi avveniva, infatti, secondo
un metodo assiomatico non totalmente formale che ha avuto una
vita più che bimillenaria e che si usa tuttora nella scuola media
quando si insegna la geometria elementare. Tale metodo poggiava
su tecniche costruttive (con riga e compasso, ad esempio) fondate
sull’intuizione dello spazio e degli enti geometrici, mentre un me-
todo totalmente formalizzato non era a disposizione proprio per il
fatto che una logica adeguata non era conosciuta. Bisogna in effetti
arrivare fino all’opera di Hilbert per avere della geometria una as-
siomatizzazione completamente formale. La logica formale cono-
sciuta nell’antichità era in realtà solo la sillogistica, ossia la logica
contenuta negli Analitici Primi e successivamente elaborata nel cor-
so della tradizione aristotelica fino alla seconda scolastica. Ma la
sillogistica, come si mostrerà nel capitolo introduttivo del presente
lavoro, è una logica che si basa su un linguaggio di proprietà e non
di relazioni, un linguaggio cioè che parla solo di oggetti, delle loro
proprietà e delle relazioni insiemistiche che sussistono tra di esse,
ma non può parlare di relazioni tra oggetti. Dunque, se da una par-
te il linguaggio sillogistico è per intrinseca vocazione il linguaggio
adatto a descrivere la struttura essenziale degli oggetti (le sostanze,
nella terminologia aristotelica) e a caratterizzarne le relazioni in-
siemistiche sopra menzionate attraverso le regole delle varie figure
(inferenziali) sillogistiche, dall’altra, tuttavia, è insufficiente a de-
scrivere adeguatamente universi oggettuali in cui l’essenza degli
oggetti è caratterizzata non solo da proprietà ma anche dalle rela-
zioni strutturali che essi intrattengono con altri oggetti e, conse-
guentemente, a fornirne una logica relativa. Ebbene questo limite
logico (relativo al linguaggio e alla macchina inferenziale sillogisti-
ca) del modello epistemologico antico nei confronti soprattutto del
sapere matematico si accentua e diventa uno iato insuperabile con
l’avvento della scienza moderna in generale.

10
Introduzione

Con la nascita del nuovo metodo la logica tradizionale perde il


suo ruolo sia di analisi del linguaggio sia di calcolo deduttivo in
relazione al sapere in generale. Innanzitutto, perde la prima fun-
zione perché la descrizione scientifica del mondo naturale è fatta
nel linguaggio della matematica e il linguaggio della matematica è,
come già si è detto, un linguaggio relazionale e non di sole proprie-
tà. A ciò si aggiunge la concezione che il mondo non è costituito
da sostanze conoscibili attraverso le rispettive proprietà essenziali
per genere e differenza specifica, ma da relazioni nomiche struttu-
rali che coinvolgono sistemi di oggetti. Perde, in secondo luogo, la
funzione di calcolo per due ragioni fondamentali. La prima è costi-
tuita dal fatto d’essere soppiantata dal calcolo matematico. La se-
conda dall'esigenza di una logica induttiva di natura probabilistica
posta dal nuovo metodo.
La ragione per la quale la logica viene soppiantata nella sua fun-
zione deduttiva dalla matematica è sempre la stessa. Sia secondo il
metodo galileiano sia secondo quello cartesiano, il linguaggio della
scienza era il linguaggio matematico, vale a dire un linguaggio che
ambiva a descrivere la complessa rete di rapporti strutturali tra gli
oggetti materiali senza presuppore una loro conoscenza in termini
di essenza. Le proprietà di tali corpi erano trasformate in una serie
di rapporti funzionali (variabili dipendenti da altre variabili secon-
do leggi di corrispondenza funzionali rappresentabili anche geo-
metricamente secondo il metodo analitico cartesiano, ma appunto
per questo, sciolte dal vincolo di una conoscenza essenziale degli
oggetti) i cui nessi di conseguenza non potevano essere descritti
attraverso le regole della sillogistica. È conosciuto lo scetticismo
cartesiano nei confronti della logica scolastica, che secondo il
grande filosofo non rivestiva importanza alcuna nel processo di
costruzione della scienza. Chiaramente non poteva avere particola-
re importanza dal punto di vista della scoperta delle leggi scientifi-
che, dal momento che queste non sono né per Cartesio né, men
che meno per Galileo, leggi logiche, ma essa non poteva avere nes-
suna importanza neppure dal punto di vista deduttivo, essendo ben
poca cosa rispetto alla ricchezza informativa contenuta nella dedu-
zione matematica intuitiva.

11
Introduzione

Ma con il metodo della nuova scienza, soprattutto nella versio-


ne galileiana, il ruolo della logica risultò diminuito anche per un
altro motivo. Venne alla luce la consapevolezza che la deduzione
non era tutto nella scienza, di modo che, essendo la sillogistica es-
senzialmente logica deduttiva, fu la logica in generale a farne le
spese. L’insufficienza della logica deduttiva nella costruzione della
scienza fu una conseguenza della trasformazione del concetto stes-
so di spiegazione scientifica. Come è noto, spiegare un fatto (o un
fenomeno) significa mostrare, tanto per gli antichi quanto per i
moderni, che tra il fatto e le leggi o i principi capaci di spiegarlo
sussiste una relazione di conseguenza logica, ove tale rapporto è
regolato dalla logica deduttiva. Significa assumere che le leggi o i
principi descrivono qualcosa di vero nel mondo e che se tali leggi o
principi sono veri allora sono vere anche tutte le loro conseguenze
e, quindi, in particolare la proposizione descrivente il fatto (o fe-
nomeno) da spiegare. Il modello di spiegazione antico, tuttavia, si
differenzia da quello moderno (che viene alla luce proprio con l’in-
venzione del metodo galileiano) per il fatto che secondo gli antichi
i principi si giustificano in forza della loro evidenza e sono evidenti
perché, sempre secondo gli antichi, a noi è dato l’accesso all’essen-
za delle cose. La logica poi, che, come si vedrà nel corso del pre-
sente volume, è corretta (cioè preserva la verità), garantiva la verità
delle conseguenze. Insomma, si considerava il fatto spiegato per-
ché la verità delle leggi implicava la verità del fatto e la verità delle
leggi era fondata sull'evidenza. Nel modello antico, dunque, la rela-
zione esplicativa (di spiegazione) andava dai principi al fatto spie-
gato (il fatto era spiegato perché di esso si era trovato il perché,
consistente nella regolarità espressa nel principio che implica il
darsi del fatto stesso). Consideriamo, a questo punto, la direzione
che nel medesimo modello è posseduta dalla relazione di giustifi-
cazione (e non di spiegazione) tra la credenza nella verità dei prin-
cipi e la credenza nella verità spiegata. La credenza nella verità
spiegata era giustificata dalla credenza dei principi, che erano giu-
dicati veri per evidenza. La direzione della relazione di giustifica-
zione era allora la stessa della relazione esplicativa. Ciò che spiega-
va (i principi) era anche ciò che giustificava. In sintesi il modello

12
Introduzione

esplicativo antico è caratterizzato da una perfetta simmetria tra


momento esplicativo e momento giustificativo. Con il metodo gali-
leiano, tale simmetria si rompe e, conseguentemente, nasce una
teoria della giustificazione distinta dalla teoria della spiegazione.
Naturalmente, anche di questo cambiamento esiste la ragione. Essa
è radicata nella mutazione di prospettiva secondo la quale sono
considerati i principi o le leggi. Di questi (o queste) non si conside-
ra più possibile un accesso diretto per intuizione essenziale. Galileo
non considera possibile il tentar le essenze, men che meno in una
forma di accesso diretta. Come è allora possibile giustificare la cre-
denza nella verità di essi (o di esse)? Non esiste altra possibilità che
giustificarne indirettamente l’accettazione in base al nuovo metodo
ipotetico-deduttivo, consistente nel ritenere probabile che le leggi
siano vere se esse sono confermate dal verificarsi delle rispettive
conseguenze. La rottura della simmetria del modello antico è per-
tanto una scelta obbligata. Mentre nel modello antico la legge che
spiega il dato è anche il contenuto della credenza che si autogiusti-
fica per evidenza, secondo il nuovo metodo ipotetico-deduttivo la
legge che spiega il dato è essa stessa oggetto di giustificazione a
partire dal dato che spiega. Naturalmente nel nuovo metodo il
rapporto esplicativo tra la legge da una parte e il dato da spiegare
dall’altra rimane sempre di natura deduttiva. Tra le leggi e l’expla-
nandum ha luogo, cioè, sempre un rapporto di conseguenza logica.
Ma non è così invece per quanto concerne la relazione giustificati-
va. Il dato conferma la legge (ovvero l'attestazione del dato giusti-
fica la credenza nella legge), ma tra dato e legge non sussiste rap-
porto di conseguenza logica. Che cosa esiste al suo posto? Esiste
un rapporto di implicazione probabilistica. Il dato conferisce una
certa probabilità alla legge, nel senso che l’osservazione del dato
rende giustificati a ritenere con una certa probabilità che la legge
sia vera. Con il nuovo metodo ipotetico-deduttivo viene dunque
ridotto al minimo il ruolo della logica deduttiva, che – come sap-
piamo – nell’epoca della nascita della scienza coincideva con la sil-
logistica, ma nasce in compenso un nuovo capitolo della logica, la
logica del ragionamento incerto o probabilistico. Possiamo dunque
concludere questa prima parte della premessa introduttiva con l’os-

13
Introduzione

servazione che la rivoluzione scientifica ha inciso sullo sviluppo


della logica nel senso di aver generato nuovi settori di ricerca logi-
ca, di cui il filone della probabilità è uno dei più importanti. Si noti,
ad esempio, che l’intero settore dell’inferenza statistica ha le sue
radici proprio in questo nuovo capitolo dell’indagine logica.
L’abdicazione della logica nel processo di costruzione della
scienza nell’arco dei primi due secoli dell’era moderna non era tut-
tavia destinata a durare a lungo. Lo sviluppo della scienza non av-
venne, infatti, soltanto nell’ambito delle scienze empiriche. Anche
le scienze matematiche si svilupparono, spesso sotto lo stimolo
delle scienze empiriche che esigevano un linguaggio matematico
nuovo, capace di descrivere con maggiore potenza e precisione il
decorso dei fenomeni fisici. Valga ad esempio generale lo sviluppo
dell’analisi (teoria dei numeri reali) e del calcolo (delle derivate e
degli integrali) che avvenne ad opera di due studiosi, Newton, il
fondatore della meccanica classica, e Leibniz, il precursore della
rifondazione della logica moderna, proprio allo scopo di descrivere
la struttura infinitesimale del movimento dei corpi fisici. L’evento
che segnò l’avvio alla rinascita della logica e al suo sviluppo travol-
gente dell'ultimo secolo si ha tuttavia solo con la scoperta delle
geometrie non euclidee, che avvenne nei primi decenni del XIX
secolo. Questa scoperta ebbe un’importanza difficilmente soprav-
valutabile per le conseguenze epistemologiche da essa determinate.
Volendo fare un paragone, si può dire che l’impatto esercitato sul-
l’immagine della scienza dalla scoperta delle geometrie non eucli-
dee sia pari solo all’impatto che la nascita della scienza moderna
viene ad avere sull’immagine della scienza che aveva il mondo anti-
co. Come la scienza moderna entra in urto con il modello episte-
mologico antico riguardo alle scienze empiriche, così la scoperta
delle geometrie non euclidee pone in discussione il modello epi-
stemologico antico riguardo alle scienze matematiche. Come infatti
si evince da quanto detto sopra, il modello assiomatico euclideo
del sapere matematico non venne intaccato dal nuovo metodo
scientifico. La simmetria tra momento esplicativo e momento giu-
stificativo si perdette solo in riferimento alle scienze empiriche,
mentre rimase nella sostanza invariata per quanto riguardava le

14
Introduzione

scienze matematiche e in particolare per la geometria. Gli assiomi


erano considerati in linea di massima veri in forza della loro evi-
denza. I teoremi, poi, erano considerati veri in forza della corret-
tezza della logica che assicurava il trasferimento della verità dagli
assiomi ai teoremi stessi. La direzione della giustificazione rimane-
va, pertanto, sempre dagli assiomi ai teoremi. Ebbene, il modello
assiomatico degli Elementi di Euclide, vale a dire il modello episte-
mologico antico ristretto alle scienze matematico-deduttive e con-
siderato valido rispetto a queste, riceve un colpo mortale dalla sco-
perta delle geometrie non euclidee. Le conseguenze epistemologi-
che di questo fatto per la logica e la teoria della scienza in generale
furono tali da condizionare l'intero sviluppo della cultura scientifi-
ca e filosofica successiva. Per questo vale la pena di soffermarsi un
poco su tale scoperta.
Come è noto, tra i famosi cinque postulati della geometria eu-
clidea (che noi modernamente possiamo chiamare semplicemente
assiomi) il V fu oggetto di una millenaria riflessione critica. Il po-
stulato (nella formulazione originaria) recitava: «Se due rette taglia-
te da una trasversale formano dalla stessa parte due angoli interni
inferiori a due retti, allora le due rette prolungate illimitatamente
verranno ad incontrarsi da quella parte in cui sono gli angoli mino-
ri di due retti». Ora già gli antichi avevano il sospetto che tale prin-
cipio non fosse totalmente evidente. Infatti essi erano perfettamen-
te a conoscenza del fenomeno della asintoticità, ovvero dell’esi-
stenza di linee che sono convergenti ma che non si incontrano mai,
nel senso che proseguendo quanto si vuole non si raggiunge mai
un punto in cui si intersecano, anche se esse si avvicinano sempre
di più. Tali linee, cioè, tendono ad incontrarsi ma non si incontra-
no mai nel finito. Ebbene, il dubbio veniva esteso anche alle rette
del V postulato. È chiarissimo il passo ove Proclo (il famoso
commentatore neoplatonico degli Elementi di Euclide) manifesta
questo dubbio: «Che esistano effettivamente delle linee convergen-
ti all’infinito, ma asintote, per quanto il fatto sembri incredibile o
paradossale tuttavia è vero, ed è stato constatato in altre specie di
linee. Non sarà dunque mai possibile per le linee rette ciò che lo è
per quelle linee?» Il fatto che il V postulato fosse percepito come

15
Introduzione

un assioma non del tutto evidente induceva ad intenderlo come un


teorema da dimostrare e, in realtà, i numerosi tentativi intrapresi
per dimostrare il teorema fino alla fine del XVIII secolo ne sono la
riprova più evidente. Ma perché si sentiva la necessità di ottenerlo
come teorema? La ragione discende in maniera cogente dalla strut-
tura del modello antico di scienza. Come già sappiamo, il sapere
era inteso come sapere assiomatico secondo il quale le proposizio-
ni vere rispetto ad un certo dominio oggettuale sono accessibili alla
nostra conoscenza o perché sono assiomi (e in tal caso l’accesso è
garantito dalla loro evidenza) o perché sono teoremi (e in tal caso
l’accesso è garantito dalla correttezza della logica che consente di
dimostrarli). Il V postulato non essendo percepito a tutti gli effetti
evidente ed essendo ritenuto ciononostante vero doveva essere
dimostrato. La rivoluzione non euclidea arriva a compimento
quando ci si rende conto in base alla costruzione di modelli non
euclidei (come il modello di Poincarè o il modello sferico di Rie-
mann) che il V postulato non può essere dimostrato. Infatti tali
modelli mostrano che il V postulato non può essere conseguenza
logica degli altri assiomi (geometria assoluta) e perciò in forza della
correttezza della logica neppure un teorema. Essi sono tali, cioè, da
soddisfare tutti gli assiomi della geometria assoluta e, al contempo,
una o l’altra forma di negazione del V postulato. In conclusione, il
V postulato non è evidente e non può essere dimostrato, pur es-
sendo percepito come vero. È così il modello epistemologico anti-
co a farne le spese. La nascita delle geometrie non eulidee segna
dunque il momento della falsificazione completa di quel modello.
L’influenza che la rivoluzione non euclidea ebbe sulla logica è
enorme. La ricerca logica venne rimessa in moto proprio allo sco-
po di trovare strumenti atti a trattare la nuova problematica fonda-
zionale posta dalle nuove geometrie. Con la loro scoperta iniziò,
così, il periodo di rinascita della logica che arriva fino ai nostri
giorni. Dedichiamo la terza parte di questa breve introduzione ad
illustrare le linee di fondo di questo sviluppo soffermandoci su
quegli aspetti teorici che possono essere utili per comprendere le
linee di sviluppo anche attuali. Il periodo conseguente alla rivolu-
zione non euclidea è caratterizzato da due spinte fondamentali. Da

16
Introduzione

una parte la spinta alla creazione della nuova logica, dall’altra, la


spinta allo studio delle proprietà metateoriche di tale logica e delle
teorie che si possono costruire (o ricostruire se si tratta di vecchie
teorie) entro il nuovo linguaggio e secondo il nuovo metodo. La
prima spinta è strettamente conseguente al terremoto determinato
dalla scoperta delle geometrie non euclidee. Questa portò in primo
piano la struttura formale delle teorie, riducendo di molto la porta-
ta dei relativi contenuti in forza del fatto che la loro evidenza non
era più una condizione necessaria per l’accettazione degli assiomi
stessi. Importante non era più la verità degli assiomi, tanto è vero
che si potevano costruire teorie con assiomi giudicabili falsi alla
luce dell’intuizione comune, quanto la loro consistenza, vale a dire
l’impossibilità di derivare da essi delle contraddizioni. Il ruolo della
nuova logica come strumento di costruzione e di legittimazione
delle teorie matematiche divenne così fondamentale.
La seconda spinta fece fare alla logica un salto di qualità nella
direzione dell'indagine metateorica. Da allora la logica non fu inte-
sa solo come ricerca delle forme corrette di deduzione, ma anche e
soprattutto come indagine metateorica, vale a dire come studio
delle proprietà formali che caratterizzano i sistemi logici e le teorie
scientifiche in generale. Decisiva divenne, ad esempio, la ricerca
della consistenza delle teorie. In effetti, come si è già visto, l’accen-
tuazione della natura formale delle teorie matematiche, determina-
ta dalla perdita del carattere di necessità degli assiomi, obbligava ad
affrontare il problema della loro consistenza o non contraddittorie-
tà. Quando gli assiomi erano intesi come proposizioni immediata-
mente vere, era giocoforza accettarne anche la consistenza, dal
momento che un insieme di proposizioni vere non può dar luogo
alla contraddizione. Se la contraddizione vi fosse derivabile, in for-
za della correttezza della logica la stessa contraddizione sarebbe
vera, il che è impossibile. Con la scoperta delle geometrie non eu-
clidee, però, tutto cambia, dal momento che non è possibile assu-
mere che i postulati siano veri per assicurare che essi non condu-
cano alla contraddizione. È necessaria una prova di consistenza
indipendente, ossia che non faccia ricorso alla stessa verità degli
assiomi. La ricerca di una prova di consistenza delle teorie mate-

17
Introduzione

matiche caratterizza buona parte della cosiddetta crisi dei fonda-


menti della matematica dalla fine del XIX secolo ai primi decenni
del XX. A dire il vero tale crisi non deriva soltanto dalla rivoluzio-
ne non euclidea, ma anche dai nuovi indirizzi della matematica
astratta che verso la fine del XIX secolo si concentrano intorno
alla neonata teoria degli insiemi e allo sviluppo delle parti infinita-
rie di questa e di altre teorie. È noto il fenomeno delle antinomie e
dei paradossi generato dall'uso impropriamente esteso di alcuni
principi impiegati nella teoria degli insiemi e nella semantica astrat-
ta. Come ci si può facilmente rendere conto anche solo da questi
brevi cenni, a partire dalla seconda metà del XIX secolo la logica
era fortemente chiamata in causa sia come strumento d’analisi dei
nuovi linguaggi matematici e delle condizioni di correttezza del
loro uso, ma anche come studio della struttura delle teorie scienti-
fiche e delle loro proprietà. È questo il motivo che spiega, innanzi-
tutto, la fase di rifondazione di una logica improntata alla ripresa
degli obiettivi tradizionali come l’analisi del linguaggio e la produ-
zione di regole corrette di inferenza, ma allargata ai molteplici lin-
guaggi della matematica e allo studio delle proprietà metateoriche,
e, poi, l’espansione della logica così rifondata lungo direzioni sem-
pre nuove, feconde di risultati e ricche di sviluppi imprevedibili.
Due di tali sviluppi sono particolarmente importanti. Lo svi-
luppo nella direzione dell'informatica computazionale e quello nel-
la direzione della logica filosofica. Sono entrambi importanti e di
essi è presente qualche traccia anche nel presente manuale. In ogni
caso l’illustrazione del ruolo che la logica riveste anche in questi
ambiti è utile per mettere in luce aspetti essenziali della ricerca lo-
gica contemporanea.
Perché la logica è stata importante per la nascita dell’informati-
ca? E perché la logica è in generale importante per l’informatica e
per i suoi sviluppi computazionali? Come è noto, l’informatica è la
scienza che studia le tecniche atte a conservare e a elaborare (tra-
sformare) l’informazione mediante strumenti fisici (non mentali).
Nelle finalità che si prefigge, conservazione e trasformazione del-
l’informazione, l’informatica non è dunque una disciplina nuova; lo
è però in quanto si prefigge di realizzare tali finalità attraverso

18
Introduzione

strumenti puramente fisici, proponendosi di far svolgere alle mac-


chine quei compiti che tradizionalmente erano affidati alle capacità
dell’uomo, per quanto sorretti da supporti anche fisici. L’obbligo di
utilizzare strumenti di natura solamente fisica pone in effetti una
seria ipoteca sul modo in cui l’informazione deve essere trattata,
sia per quanto concerne l’obiettivo della conservazione sia per
quello della trasformazione. Questa ipoteca consiste nella richiesta
di formalità o, come si è soliti anche dire, nel fatto che l’informa-
zione deve essere trattata in modo formale, deve essere cioè for-
malizzata. Ebbene che cosa significhi formalizzare l'informazione
e perché sia necessaria tale formalizzazione per realizzare i due
obiettivi della conservazione e trasformazione informazionale l’in-
formatica lo ha imparato dalla logica. In che cosa consista la for-
malità della logica è un problema ampiamente dibattuto che può
essere affrontato seriamente solo se si parte dalla constatazione
che il termine «formale» è dotato di una molteplicità di significati.
Il significato del termine che qui ci interessa è strettamente con-
nesso con le caratteristiche della logica come strumento deduttivo
finitario. Di tale caratteristica della logica si parlerà in modo ampio
nel corso dell’intero volume, ove è trattata sia la dimensione sintat-
tica (linguaggio più calcolo) sia quella semantica (interpretazione
del linguaggio più teoria della verità) e sono indagati anche i rap-
porti tra entrambe le dimensioni (correttezza e completezza della
logica). Nell’ultimo capitolo, poi, viene trattato, per l’appunto, il
tema specifico della finitizzazione delle teorie. Ma perché l’infor-
matica è beneficiaria di questa nozione tipicamente logica di for-
malità? Per comprendere ciò occorre prestare un minimo d’atten-
zione al significato immediato di informazione. In termini un po’
sommari, ma sufficienti ai nostri fini, l’informazione è il contenuto
della rappresentazione di qualcosa, ove la rappresentazione può
essere sia di natura mentale sia fisica. Ora, le rappresentazioni
mentali sono caratterizzate da due elementi, che mancano alle rap-
presentazioni non mentali. Esse hanno contenuti, per un verso
impliciti e per un altro, astratti. Per quanto riguarda il primo ele-
mento è scontato che le nostre rappresentazioni mentali contenga-
no molti aspetti impliciti, vale a dire non espressi e tuttavia presen-

19
Introduzione

ti, così da poter essere portati ad evidenza senza modificare nella


sostanza il significato originario della rappresentazione. Questi
aspetti sottintesi sono, per così dire, già pre-contenuti, anche se
non manifestamente, nella rappresentazione mentale immediata ed
è perciò che essi, una volta resi espliciti, non si aggiungono al si-
gnificato iniziale come qualcosa di nuovo, ma semplicemente con-
tribuiscono a renderlo apertamente completo. Altrettanto scontata
è, in secondo luogo, la presenza nelle rappresentazioni di aspetti
astratti, generali, ideali. Nelle nostre rappresentazioni mentali c’è
sempre qualcosa di non riferibile immediatamente a dati empirici
concreti, o perché in esse sono presenti aspetti ideali non empirici,
che non hanno un corrispettivo immediato nel dato d’esperienza, o
perché contengono concetti (o costrutti mentali) attribuibili ad una
infinità di casi o di esempi concreti, che non possono essere passati
in rassegna esaustivamente uno ad uno. Tali aspetti astratti ed ideali
sono essenziali alle nostre rappresentazioni mentali, allo stesso
modo con cui lo sono gli aspetti impliciti e sottintesi illustrati sopra.
Al contrario, le rappresentazioni fisiche della realtà sono carat-
terizzate dalla esplicitezza e concretezza dei contenuti. Nel caso di
tali rappresentazioni, infatti, l’informazione è direttamente suppor-
tata da elementi fisici. Per questo, o tali elementi fisici ci sono ed
allora l’informazione c’è ed è esplicita, o non ci sono ed allora l’in-
formazione non c’è; non si dà il caso dell’esistenza di informazione
implicita. In secondo luogo e per lo stesso motivo, non ci può es-
sere rappresentazione fisica di contenuti astratti. Questi, infatti, se
non sono previamente trasformati in contenuti concreti, non pos-
sono essere supportati fisicamente e quindi trattati attraverso mez-
zi di rappresentazione puramente fisici. È questo il motivo, per il
quale, se si vuole rendere suscettibile di trattazione informatica
l’informazione racchiusa nelle rappresentazioni mentali, non è pos-
sibile mantenere queste ad un livello di significatività implicita;
come si è visto, infatti, l’implicito non è fisicamente supportato ed
esso diventa fisicamente esprimibile solo se portato a livello di
completa esplicitezza. In secondo luogo, è necessario eliminare gli
aspetti astratti. Questi, infatti, a meno di essere trasformati in segni
fisici concreti, non possono essere recepiti da un elaboratore in-

20
Introduzione

formatico. La formalizzazione consiste, dunque, nella totale espli-


citazione dei contenuti di informazione e nella eliminazione degli
aspetti astratti. Ebbene, la logica è formale in questo senso. Essa è
tale fin dalla sua nascita (basti pensare alla formalità delle regole
sillogistiche), ma lo diventa esplicitamente solo con l'opera dei
formalisti della scuola hilbertiana. La formalità della logica secon-
do questa accezione è infatti all'origine della tradizione di teoria
della dimostrazione iniziata dallo stesso Hilbert e continuata poi da
Gödel e da Gentzen. Secondo questa tradizione un sistema di lo-
gica è essenzialmente un calcolo, vale a dire un insieme di regole
deduttive capaci di di trasformare una teoria intuitiva in una teoria
puramente formale. Ma in che cosa consiste il carattere formale del
calcolo logico? Tale carattere gli deriva dal fatto d’essere capace di
derivare in modo effettivo (cioè in un contesto di totale esplicitez-
za e concretezza) le conseguenze logiche degli assiomi della teoria.
Infatti la nozione di conseguenza logica, come sarà anticipato tra
poco e largamente spiegato nel terzo capitolo del volume, è una
nozione semantica infinitaria, mentre le regole deduttive, consen-
tendo di operare effettivamente, sono strumenti inferenziali finita-
ri. In conclusione, dunque, come il requisito di formalità (totale
esplicitezza e concretezza) è richiesto per la gestione di contenuti
informazionali attraverso supporti fisici, così lo stesso carattere di
formalità è richiesto allo strumento logico per formalizzare le teo-
rie intuitive.
La logica filosofica rappresenta l’altro grande capitolo entro il
quale la ricerca logica si è sviluppata negli ultimi decenni. Tuttavia,
mentre la logica ha influito sugli sviluppi dell’informatica in virtù
della sua matrice formale nel senso sopra illustrato, essa ha matura-
to uno sviluppo anche filosofico in forza del suo essere formale in
un altro senso. Si tratta del fatto che le leggi logiche sono invarianti
rispetto al contenuto, ovvero sono vere esclusivamente in forza
della loro struttura formale. Anche questa accezione di formalità è
caratteristica della logica fin dall’inizio. Essa venne tuttavia tema-
tizzata esplicitamente solo in seguito alla elaborazione esplicita da
parte di Tarski di una teoria semantica della verità e messa a fuoco
proprio dal lavoro pionieristico di tale autore. Dal punto di vista

21
Introduzione

della teoria semantica della verità la logica studia il nesso di conse-


guenza logica. Che cosa sia precisamente il nesso di conseguenza
logica sarà oggetto di studio nel terzo capitolo, la parte del volume
dedicata alla semantica, nel corso del quale sarà presentato il con-
cetto tarskiano di conseguenza logica. Sulla definizione tarskiana
di conseguenza logica è ancora aperta una discussione assai vivace
originata dalla pubblicazione da parte di Etchemendy di un lavoro
fortemente critico nei confronti della concezione tarskiana. Noi
non terremo conto di questa critica (e del dibattito seguito). Essa,
pur non avendo sortito un grande effetto, ha tuttavia consentito di
apprezzare taluni aspetti storiografici del pensiero di Tarski che,
lungi dall’intaccare la sua concezione di fondo, la consolidano. Su
questa si basa l’apparato semantico che noi presentiamo. Esso de-
riva essenzialmente dalla trattazione che lo stesso Tarski ne fa nel
volume Undecidable Theories e che è recepito dalla stragrande mag-
gioranza dei manuali contemporanei. Il concetto fondamentale è
quello di universo oggettuale (L-struttura, come si preciserà in se-
guito) caratterizzato da un dominio di oggetti e da un insieme di
proprietà o relazioni su di esso definito. Le proposizioni vere (in
base ad una opportuna interpretazione dei segni del linguaggio sul-
l’universo oggettuale) sono quelle che enunciano proprietà o rela-
zioni che valgono per questi oggetti. Le proposizioni logicamente
vere (leggi logiche) sono quelle che risultano vere in tutti i domini e
in tutte le interpretazioni diverse dei termini non logici. Una pro-
posizione è conseguenza logica di un insieme di proposizioni se
essa risulta vera in tutte le interpretazioni su un qualsiasi dominio
oggettuale che rendono vere le proposizioni di quell’insieme. Eb-
bene, proprio in virtù della variabilità del dominio e della generalità
delle interpretazioni la semantica tarskiana si è mostrata partico-
larmente adatta nell’essere applicata ad ambiti teorici molto diffe-
renziati. Questa plasticità interpretativa è poi aumentata ulterior-
mente allorquando la stessa semantica tarskiana è stata estesa alla
cosiddetta semantica dei mondi possibili. Questo tipo di semantica
non sarà trattata specificamente in questo testo. Tuttavia se ne par-
lerà nel capitolo iniziale ove il lettore è avviato alla costruzione dei
vari linguaggi formali. Vedremo che tra questi esiste anche il lin-

22
Introduzione

guaggio intensionale, ovvero quel linguaggio in cui svolgono un


ruolo essenziali i cosiddetti operatori intensionali, tra i quali gli
operatori modali ontici (necessario, possibile...), quelli deontici
(obbligatorio, permesso...) e altri ancora. La necessità di allargare la
semantica tarskiana nasce proprio dal tipo di queste proposizioni.
Se una proposizione presenta, ad esempio, la forma «È necessario
che p», non è possibile definire la sua verità se non si introduce il
concetto di mondo possibile. Per dire che «Gli oggetti rossi sono
necessariamente colorati» non basta dire che nel mondo attuale
essi sono tali, ma occorre aggiungere che ciò vale in forza del signi-
ficato dei termini «rosso» e «colorato» e dunque in tutti i mondi
possibili in cui sono istanziati oggetti rossi. Così, generalizzando
non solo sui domini e sulle interpretazioni ma anche sui mondi, lo
sviluppo della semantica dei linguaggi intensionali ha fatto compie-
re alla semantica tarskiana un balzo in avanti nell’ampliamento del
suo orizzonte applicativo. Questo si è dilatato fino a comprendere
l’ambito dell’argomentazione filosofica nelle sue espressioni più
tipiche, dalla teoria della conoscenza (logica epistemica), all’onto-
logia e metafisica (logica modale e deontica), alla filosofia pratica e
teoria dell’azione (logica del volere). È immaginabile che il settore
filosofico, accanto a quello informatico e matematico-fondaziona-
le, saranno i campi di maggior impatto culturale e sviluppo dei
prossimi anni.

Il presente volume si articola in cinque capitoli. Il primo con-


tiene una introduzione al linguaggio formale, che può essere og-
getto a se stante di un corso semestrale di avviamento alla logica.
Nel capitolo si presenta una panoramica generale dei linguaggi
formali, comprensiva anche dei linguaggi intensionali (modale,
deontico, epistemico e intenzionale) che non sono tema specifico
di approfondimento tecnico nei capitolo successivi. Nella pratica
didattica il primo capitolo si è rivelato particolarmente utile e sti-
molante per gli studenti interessati all’utilizzo della logica nell’am-
bito filosofico. Il secondo e il terzo capitolo presentano rispettiva-
mente la sintassi e la semantica del calcolo dei predicati del primo
ordine. Il calcolo è presentato nella formulazione della deduzione

23
Introduzione

naturale per sequenze. Nel terzo capitolo, dedicato alla semantica


della logica dei predicati, sono dimostrati in dettaglio i teoremi di
correttezza e di completezza secondo lo stile henkiniano. Il quarto
capitolo introduce l’idea di teoria del primo ordine, esemplificata
attraverso il sistema PA dell’aritmetica di Peano del primo ordine.
La seconda parte del quarto capitolo è invece dedicata alla presen-
tazione dell’aritmetica di Peano del secondo ordine SA, rispetto
alla quale si dimostra in dettaglio il famoso teorema di categoricità
di Dedekind. Infine l’ultimo capitolo è dedicato ad un esame delle
principali proprietà metateoriche delle teorie. Nel contesto di que-
sto esame si affronta il tema della finitizzazione delle teorie, della
loro assiomatizzabilità e dei limiti di questa. In questo contesto
sono enunciati e commentati i principali metateoremi della logica
contemporanea, dalla incompletezza alla non categoricità.
Ringrazio gli studenti, i collaboratori e i colleghi per aver di-
scusso molte delle tematiche trattate nel volume ed aver contribui-
to al loro sviluppo ed approfondimento. Ringrazio in particolare il
Dott. Ciro De Florio per la lettura della stesura finale del testo e il
prezioso contributo per la composizione grafica del lavoro.

24
Capitolo primo

Introduzione al linguaggio formale

1. La logica come analisi del linguaggio

Come si è già anticipato nella Introduzione, gli scopi dell’inda-


gine logica – da Aristotele fino alla moderna logica matematica –
sono sostanzialmente due: (i) rendere totalmente esplicito il lin-
guaggio (delle teorie, ivi comprese le teorie filosofiche) attraverso il
quale si intende parlare di qualcosa ed (ii) individuare delle regole
che consentano di stabilire rapporti di conseguenza logica tra le
proposizioni di tale linguaggio. Queste due funzioni della logica si
possono esprimere anche dicendo che la logica persegue lo scopo
di (i) formalizzare il linguaggio delle teorie (in breve di elaborare
linguaggi formali) e di (ii) fornire insiemi di regole formali (in bre-
ve un calcolo) per determinare la relazione di conseguenza logica
tra le proposizioni dei linguaggi formali in oggetto.
La prima funzione è, innanzitutto, connessa con la seconda. La
totale esplicitezza (vale a dire la condizione di formalità) è un pre-
requisito alla stessa possibilità di caratterizzazione del concetto di
conseguenza logica, dal momento che l’individuazione di tale rela-
zione non può dipendere da qualche significato riposto dei segni
linguistici, ma solo dalle caratteristiche formali delle proposizioni; e
questo non può accadere se non in un contesto di totale esplicitez-
za (ovvero di formalità).
Ma la prima funzione ha un significato anche autonomo. Attra-
verso il perseguimento della totale esplicitezza si persegue l’ideale

25
Capitolo primo

del rigore nella costruzione delle teorie, assicurando al linguaggio


la necessaria univocità dei significati trasmessi, che altrimenti non
potrebbe mai essere completamente garantita. L’esplicitazione del
linguaggio (del linguaggio naturale e dei vari linguaggi delle teorie),
è, dunque, il primo passo da compiere quando ci si accinge ad ad-
dentrarsi nell’universo della logica, a comprenderne la problemati-
ca e ad acquisirne i metodi. Ebbene, allo scopo di svolgere l’analisi
che l’esplicitazione del linguaggio richiede, conviene partire dal-
l’analisi grammaticale del linguaggio naturale LN. Usualmente tale
forma di analisi è detta analisi logica, ma noi la chiameremo
grammaticale, non solo perché essa tiene conto di aspetti in senso
stretto grammaticali, ma anche e soprattutto allo scopo di distin-
guerla dall’analisi, che abbiamo intenzione di realizzare noi e che è
logica in senso proprio, essendo impostata dal punto di vista dell’in-
dagine logica e non linguistica.
Che cosa, poi, significhi impostare l’analisi dal punto di vista
logico dovrebbe discendere chiaramente da quanto si è detto sopra
a proposito delle due funzioni della logica. Da una parte, in tale
analisi si dovrà tener conto solo delle espressioni del linguaggio
che rivestono una funzione assertiva (o semantico-referenziale). Signi-
ficativo per la logica è, infatti, l’uso che del linguaggio (o dei lin-
guaggi scientifici) viene fatto quando con esso (o con essi) si vuole
parlare di qualcosa e non, ad esempio, quando sono attivate altre
funzioni linguistiche di natura non conoscitiva, ma pragmatica. Dal-
l’altra, allo scopo di perseguire l’ideale del rigore e dunque quello
dell’univocità semantica, si assumerà il principio dell’invarianza se-
mantica, secondo il quale, una volta fissato il dominio oggettuale del
quale si intende parlare, un termine viene ad avere un significato co-
stante, non soggetto, cioè, al fenomeno della varianza contestuale.
Per questo, fin dall’inizio, adotteremo una tecnica di analisi ba-
sata sull’isolamento di quelle componenti del linguaggio che hanno
rilevanza logica, sul loro disambiguamento e sulla corrispondente loro
traduzione in espressioni strutturate formalmente e dotate di significa-
to univoco; infine, procederemo alla loro simbolizzazione attraverso
un linguaggio simbolico convenzionale LS. L’intero processo sarà
svolto alla luce dell’analisi grammaticale delle espressioni, la quale,

26
Introduzione al linguaggio formale

oltre a contribuire alla chiarificazione dei significati, costituirà il


punto di avvio dell’analisi logica in senso proprio.
Metteremo in luce la componente non solo proposizionale dei
contesti linguistici (per accenni anche quella modale, deontica ed
epistemica) ma anche la loro componente predicativa. È questa,
del resto, la componente che sarà tematicamente sviluppata – in-
sieme a quella proposizionale – anche dal punto di vista stretta-
mente formale, quando si tratterà di trasformare il linguaggio sim-
bolico LS in un linguaggio formale LF (che sarà il linguaggio dei
predicati L) con l’elaborazione delle relativa logica (calcolo dei
predicati C). In secondo luogo, il linguaggio predicativo (con il re-
lativo calcolo usato in modo semiformale) sarà impiegato in tutte
le argomentazioni metateoriche – cioè, come sarà illustrato detta-
gliatamente più avanti, nelle argomentazioni che si collocano al
livello di riflessione sulle teorie e non interne alle teorie stesse – ed,
in particolare, nelle dimostrazioni dei metateoremi di correttezza e
di completezza.
A livello metateorico saranno naturalmente usati anche i con-
nettivi proposizionali nel loro significato standard precisato nel
corso della elaborazione di LS. Di qui la duplice funzione di LS:
come punto di partenza per la elaborazione del linguaggio formale
L del calcolo dei predicati, che è lo specifico oggetto di studio di
questo volume, ed anche come base per le riflessioni metateoriche.
E di qui, inoltre, il rapporto sia di somiglianza sia di differenza tra
LS, da una parte, e L, dall’altra: mentre LS rappresenta, per così
dire, uno stadio intermedio tra LN e L, essendo come LN un lin-
guaggio interpretato (ovvero dotato di significato) ma già formal-
mente irreggimentato alla stregua di L, L è un linguaggio pura-
mente formale, cioè ridotto alla pura dimensione sintattica, anche
se suscettibile di successiva interpretazione semantica.
La ragione per la quale un linguaggio puramente formale è dotato
solo di dimensione sintattica apparirà chiaramente in seguito, allor-
quando sarà sufficientemente analizzato il legame tra forma e as-
senza di significato. In seguito ci sarà l’occasione di approfondire
debitamente anche la distinzione tra sintassi e semantica. Per ora è
sufficiente tenere presente che un linguaggio formale è un linguag-

27
Capitolo primo

gio privo di significato, perché non è interpretato, mentre un lin-


guaggio dotato di dimensione semantica è tale in virtù del fatto
d’essere interpretato.

2. Dal linguaggio naturale al linguaggio formale


2.1. Proposizioni semplici
Il nostro punto d’avvio sia costituito dal confronto tra le cate-
gorie tipiche dell’analisi grammaticale del linguaggio naturale LN e
quelle emergenti dall’analisi logica e dunque tipiche del linguaggio
simbolico LS.
L’analisi grammaticale distingue usualmente tra periodo e proposi-
zione (di qualche tipo), da una parte, e tra soggetto, predicato e comple-
menti – quali componenti della proposizione –, dall’altra.
Ora, in LS per proposizione si intende, più precisamente, una
espressione linguistica suscettibile di essere vera o falsa. In tal modo sono
escluse da LS tutte quelle proposizioni che appartengono alla
componente pragmatica di LN, come, ad esempio, tutte le propo-
sizioni esclamative ed interrogative. La motivazione di questa
esclusione è già stata anticipata sopra: la logica si interessa solo del-
le dimensioni sintattica e semantica del linguaggio, ma non di quella
pragmatica, ossia quella legata alle funzioni che il linguaggio riveste
in rapporto ai suoi vari utenti. In altre parole, mentre la semiotica,
come teoria generale dei sistemi simbolici, si interessa di tutti gli usi di
cui il linguaggio è suscettibile e, pertanto, non può trascurare nes-
suna delle dimensioni ad esso inerenti, la logica è legittimata a con-
siderare solo le prime due, perché la sua analisi è rivolta alla sola
funzione assertiva del linguaggio.
In secondo luogo in LS non si fa distinzione tra proposizione e
periodo. Le proposizioni di LS si distinguono, infatti, in proposi-
zioni semplici e complesse e quest’ultime (di cui si parlerà tra poco)
corrispondono al concetto grammaticale di periodo.
Ma che cosa si intende per proposizione semplice? Per proposizione
semplice si intende una espressione linguistica minima suscettibile
di essere vera o falsa. In LS una proposizione semplice si indica

28
Introduzione al linguaggio formale

con lettere latine minuscole p,q,r (provviste di eventuali indici) e


tali lettere stanno per, ossia descrivono, uno stato di cose (Sachverhalt). Se
tali proposizioni sono vere allora esse stanno per uno stato di cose
realizzato (attuale), ossia un fatto (Tatsache). Una proposizione, invece,
è falsa quando sta per uno stato di cose non realizzato (non attuale).
I sostenitori di una teoria corrispondentista della verità basata
sul concetto di verità come raffigurazione – come il Wittgenstein
del Tractatus – sono, poi, inclini a ritenere che la semplicità delle
proposizioni semplici implichi che ad esse corrispondano stati di
cose semplici. Similmente, pensatori d’impostazione empiristica so-
no propensi a ritenere cha tali stati siano esclusivamente stati di
cose empirici. Bisogna dire, però, che tali interpretazioni riduttive
non sono obbligate dalla distinzione formale tra proposizioni
semplici e proposizioni complesse, ma che esse dipendono da una
precomprensione di natura filosofica del linguaggio, che niente ha
a che vedere con la formalità dell’analisi logica. Qualunque stato di
cose può, dal punto di vista logico, essere assunto quale designato
dalle lettere proposizionali, sia uno ulteriormente scomponibile – e
quindi descrivibile, a piacere, anche attraverso proposizioni com-
plesse – sia uno non avente alcun significato empirico, come l’esi-
stenza di entità metempiriche.
In conclusione, per quanto riguarda i concetti di proposizione,
periodo, proposizione semplice e proposizione complessa, il rap-
porto tra analisi grammaticale ed analisi logica si può illustrare at-
traverso il seguente schema:

Analisi grammaticale
Linguaggio naturale Periodo Proposizione
LN
Analisi logica Proposizione Proposizione
Linguaggio simbolico complessa semplice
LS

29
Capitolo primo

2.2. Struttura soggetto/predicato


Come si è detto sopra, le proposizioni semplici non sono, in
quanto semplici, ulteriormente scomponibili in sottoproposizioni.
Ciò non significa, però, che, nei loro confronti, non si possa pro-
cedere ad una analisi linguistica che scenda al di sotto del livello
puramente proposizionale. Si tratta dell’analisi linguistica che si
pone al livello della struttura soggetto/predicato delle proposizioni.
Gli elementi logici di base in cui una proposizione semplice può
essere scomposta sono i soggetti e i predicati. I soggetti sono nomi di
individui. I predicati, invece, sono nomi di attributi. Per i soggetti sa-
ranno usate, in generale, lettere latine minuscole, per i predicati
lettere latine maiuscole.
Già in queste prime battute sono contenute informazioni impor-
tanti su alcune caratteristiche centrali della moderna teoria della pre-
dicazione, teoria dovuta nei suoi caratteri salienti ed espliciti al pen-
siero di Gottlob Frege, in particolare alle opere Funktion und Begriff
del 1891, Über Begriff und Gegenstand del 1892 e Grundgesetze der Arith-
metik I del 1893.
Innanzitutto, è facile avvedersi del fatto che la moderna teoria
della predicazione elimina la copula e, in secondo luogo, non fa pro-
pria la distinzione, tipica dell’analisi grammaticale, tra predicato no-
minale e verbale. La ragione di ciò è complessa e non è affatto ri-
conducibile ad esigenze di pura semplificazione, anche se l’analisi
freghiana del rapporto di predicazione consente l’assunzione di un
punto di vista superiore che tra i suoi effetti ha anche quello di ren-
dere più semplici le cose.
In realtà – sostiene Frege – le proposizioni assertive si possono
dividere in due parti di cui una è semanticamente completa (abge-
schlossen, vollständig) e l’altra è semanticamente incompleta (ungesät-
tigt, ergänzungsbedürftig). Il soggetto come nome di un individuo co-
stituisce la prima parte. Il predicato come nome di un attributo la
seconda. Si considerino, ad esempio, le due proposizioni:

(1) «Socrate è un uomo»


(2) «Socrate mangia»

30
Introduzione al linguaggio formale

In queste, la parte semanticamente completa è costituita dal


nome «Socrate»: attraverso questo termine, infatti, si allude ad un
individuo, vale a dire a qualcosa che è determinato in se stesso e
che non ha la funzione d’essere determinazione d’altro e perciò
stesso è completo. Naturalmente, nel caso specifico, Socrate è in-
dividuo anche in senso ontologico – oltre che logico – in quanto
non è semplicemente completo nel senso di significare per sé e
non per essere attribuito ad altro, ma è completo anche nel senso
di essere determinato rispetto a tutte le proprietà possibili. In ogni
caso, l’essere individuo in senso ontologico presuppone d’esserlo
in senso logico ed essere un individuo in senso logico è quanto
basta per essere nominato da un termine in posizione di soggetto.
Le parti incomplete delle proposizioni precedenti sono, invece, i
predicati, ossia rispettivamente «è un uomo» e «mangia». La ragio-
ne della loro incompletezza dovrebbe essere, a questo punto, chia-
ra. Esse sono incomplete perché stanno per un attributo (nel caso
presente una proprietà), ossia per qualcosa che non significa per sé
ma in quanto determinazione d’altro. La loro funzione non è quel-
la di designare un individuo ma di caratterizzarlo, ovvero di desi-
gnare qualcosa la cui funzione essenziale è d’essere attribuito – ec-
co la ragione del termine attributo, che non è usato, perciò, nel
senso grammaticale contrapposto a predicato – ad altro come sua
determinazione. In termini freghiani, si può anche dire che, mentre
la caratteristica essenziale di un soggetto è quella di denotare un
individuo, la caratteristica essenziale di un predicato è quella di es-
sere detto di un individuo.
Ora, la teoria freghiana della predicazione comporta alcune
conseguenze di fondamentale importanza. A questo punto ne vo-
gliamo prendere in considerazione quattro.
a) La copula è espressione della connessione tra le due parti del-
la proposizione, del fatto cioè che la parte incompleta conviene a
quella completa. Per questo, non essendo a sua volta una parte ma
solo la relazione d’appartenenza tra le due parti, può essere legitti-
mamente tralasciata nell’analisi della proposizione. Così, indicando
«Socrate» con s e «uomo» con U, la proposizione (1) sopra intro-
dotta diventerà:

31
Capitolo primo

(1°) Us

b) Anche della seconda conseguenza abbiamo già accennato. Si


tratta del fatto che la moderna analisi logica non è tenuta a fare
distinzione tra predicato verbale e predicato nominale. La motiva-
zione è ovvia: l’analisi moderna dà del soggetto logico una lettura
univoca, che non consente di interpretare il soggetto talvolta come
«soggetto di attribuzione» e talvolta come «soggetto dell’azione»,
ma sempre e solo come nome di un individuo. La conseguenza di
tale lettura è allora immediata: il predicato verbale è trattato alla
stessa stregua del predicato nominale, di modo che «Socrate man-
gia» è letto come «Socrate è mangiante», ove «mangiante» svolge il
ruolo di un qualsiasi predicato nominale. Così, indicando con M
«la proprietà che Socrate è mangiante», la proposizione (2) già so-
pra introdotta verrà tradotta in:

(2°) Ms

espressione avente la stessa struttura formale della formula (1°) Us.


c) Nel punto precedente abbiamo mostrato come la nuova no-
zione di predicazione consenta di assorbire i due predicati gram-
maticali in una unica forma di predicato. Naturalmente, l’analisi
non è così semplice quando il predicato verbale è di natura più
complessa, come, ad esempio, nel caso in cui l’azione espressa dal
predicato è transitiva. L’analisi di questo caso ci è, però, molto utile
perché essa ci consente di entrare nel vivo della terza conseguenza
della teoria freghiana della predicazione. Tale conseguenza consiste
nella complessità della nuova nozione di predicato, complessità che
gli deriva dalle due seguenti caratteristiche: la possibilità di essere
nome non solo di proprietà ma anche di relazioni e la conseguente
capacità di esprimere il contenuto dei complementi, in modo tale da
consentire la riduzione della tripla tradizionale soggetto/predica-
to/complementi alla coppia moderna soggetto/predicato.
Si consideri la proposizione:

(3) «Giovanni mangia la mela»

32
Introduzione al linguaggio formale

Attenendosi ad una lettura immediata del metodo di assorbi-


mento del predicato verbale in quello nominale, la proposizione in
oggetto dovrebbe essere trasformata in «Giovanni è mangiante la
mela», ove il predicato dovrebbe essere l’intera espressione «man-
giante la mela». Ora, non esistono obiezioni di principio a che
l’analisi della proposizione sia svolta in questo modo. E questo
perché l’espressione «mangiante la mela» è incompleta alla stessa
stregua del semplice aggettivo «mangiante», essendo significativa
non di un oggetto ma di una proprietà da attribuire ad un oggetto.
Naturalmente «essere mangiante la mela» è più determinato rispet-
to ad «essere mangiante», ma si tratta sempre di proprietà e non di
oggetto.
Pur essendo lecita, questa analisi non è tuttavia obbligata e ad
essa va decisamente preferita un’altra che al pregio della legittimità
unisca anche quello dell’utilità. Tale nuova analisi è resa possibile
dalla nuova concezione di soggetto e dal fatto che un attributo può
essere inteso, oltre che come proprietà, anche come relazione.
Si consideri nuovamente l’esempio precedente. Abbiamo detto
che in essa «Giovanni» è soggetto. Ma chiediamoci il perché. La ri-
sposta non può essere: «Perché Giovanni è colui che compie l’azio-
ne», come, seguendo l’analisi tradizionale, si è tentati di dire. No,
perché secondo la nuova teoria della predicazione il soggetto è sem-
plicemente il nome di un individuo. Dunque, «Giovanni» è soggetto
perché è il nome di un individuo. Nella medesima frase, nome di
individuo è però anche l’espressione «la mela». Per quale motivo si
dovrebbe allora escludere che anche «la mela» sia soggetto? In effet-
ti, la risposta negativa a questa domanda segna il passaggio tra il
modo tradizionale d’intendere il rapporto di predicazione e quello
moderno. Infatti, se un soggetto è semplicemente il nome di un in-
dividuo non si può escludere che nella medesima proposizione ci
siano più soggetti e che sia soggetto anche ciò che nell’analisi tradi-
zionale svolge il ruolo di qualche complemento.
Naturalmente, rimane da risolvere ancora un problema. Se nella
medesima proposizione compaiono più soggetti – ci si chiederà –
va a rotoli il nesso strutturale tra soggetto e predicato. Se il predi-
cato, infatti, ha la funzione di esprimere una determinazione ogget-

33
Capitolo primo

tuale (una proprietà), a quale dei soggetti questa verrà attribuita? E,


una volta scelta tale attribuzione, come sarà possibile coinvolgere
nel rapporto predicativo gli altri soggetti? Ebbene, anche la rispo-
sta a questo interrogativo è del tutto congeniale con la nuova teoria
della predicazione. La tesi freghiana della composizione in due par-
ti della proposizione non pregiudica, infatti, di considerare la parte
incompleta come significativa di una determinazione relazionale tra
vari individui. È del tutto naturale intendere una determinazione in
senso relazionale, tanto è vero che, quando ciò accade, si dice del
tutto tranquillamente che un individuo è determinato dal rapporto
con altri individui. Dunque, se il soggetto è inteso come segno per
un individuo e il predicato come segno di una determinazione in
cui sono coinvolti più individui, non si forza assolutamente nulla
nell’intendere l’attributo designato dal predicato come relazione e
non solo come proprietà. Naturalmente il cambiamento del punto
di vista logico non avviene senza un corrispettivo cambiamento del
punto di vista ontologico, cambiamento che, del resto, ha avuto luo-
go storicamente proprio sul finire del XIX secolo, quando ad una
ontologia dell’oggetto è subentrata una ontologia dello stato di cose.
In conclusione, ponendo g per «Giovanni», m per «la mela» e M
per la relazione «essere mangiante di», la proposizione (3) è tradu-
cibile in LS nella maniera seguente:

(3°) M( g , m )

Infine è da notare che le considerazioni precedenti sono di ca-


rattere assolutamente generale e non valgono, perciò, solo per il
caso del predicato nominale contenente un complemento di speci-
ficazione – ad esempio, il predicato «essere mangiante di». Dalle
riflessioni svolte si ricava, piuttosto, che, dal punto di vista logico, è
trascurabile la distinzione qua talis tra predicato e complementi. La
struttura logica soggetto/predicato è da sola capace di esprimere
sia la funzione dei due tipi di predicato sia quella dei complementi.
Ciò consegue dalla medesima ragione, cioè del fatto che, in logica,
il predicato è il nome di un attributo e l’attributo può essere sia una
proprietà che una relazione. Per questo, i vari complementi di una

34
Introduzione al linguaggio formale

proposizione possono diventare in LS soggetti particolari, che


stanno nella relazione espressa dal predicato con il soggetto corri-
spondente al soggetto grammaticale in LN.
Si consideri, ad esempio, la proposizione:

(4) «Giovanni ama Maria»

Si indichi con g «Giovanni», con m «Maria» e con A la relazione


di «amare». Allora in LS la proposizione diventa:

(4°) A( g , m )

d) Sopra si è detto che in base alla moderna teoria della predica-


zione la copula può essere cancellata, dal momento che, data l’in-
terpretazione del predicato in termini di elemento incompleto, la
sua funzione di legame è inutile. In realtà c’è un significato della
copula che non può essere annullato; si tratta del significato che la
copula assume quando essa significa la relazione di identità. Si con-
siderino i seguenti esempi:

(5) Aristotele è un filosofo


(6) Aristotele è filosofo
(7) Aristotele è il Filosofo

Si tratta di proposizioni in ciascuna delle quali la copula è pre-


sente. Eppure solo negli esempi (5) e (6) la copula ha lo stesso si-
gnificato e può essere cancellata. Dire, infatti, che Aristotele è un
filosofo oppure che è filosofo è dire la stessa cosa, per la semplice
ragione che tanto «filosofo» quanto «un filosofo» sono ambedue
espressioni incomplete. Al contrario, nella (7) l’espressione «il Filo-
sofo» svolge la medesima funzione del nome proprio «Aristotele».
Si tratta, in altre parole, di un nome comune che essendo accom-
pagnato dall’articolo determinativo è usato quale secondo nome
proprio per Aristotele. Si noti, del resto, che tale uso del termine
Philosophus era invalso durante il Medioevo proprio per designare la
persona di Aristotele, di modo che, nel Medioevo, il nome Philoso-

35
Capitolo primo

phus era realmente un nome alternativo per Aristotele. Così, nella


(7) soggetto non è solo «Aristotele», ma anche «il Filosofo».
L’analisi della (7) non può pertanto essere che la seguente: «Ari-
stotele è identico a il Filosofo», il che non vuol dire altro che «‘Ari-
stotele’ sta per lo stesso individuo per il quale sta ‘il Filosofo’».
Ebbene, la relazione di identità è normalmente simbolizzata dal
segno dell’uguale «=», posto tra i due soggetti. Per questo, ponen-
do a per «Aristotele» e f per «il filosofo», la (7) ha in LS la forma
seguente:

(7°) a= f

L’esame della copula come relazione di identità è molto impor-


tante non solo per la profonda differenza che sussiste tra questo si-
gnificato della copula e l’altro (quello di semplice relazione d’appar-
tenenza), ma anche per il fatto che esso ci dà l’occasione di confron-
tare la teoria freghiana della predicazione con la cosiddetta teoria del-
l’identità, teoria che tanta importanza ha avuto soprattutto nel me-
dioevo e che, presumibilmente, è legata ad un forte senso – di tipo
parmenideo o neoplatonico – delle categorie ontologiche implicate
nella predicazione.
Diversamente dalla teoria freghiana, la teoria medioevale del-
l’identità interpreta universalmente il rapporto tra soggetto e
predicato come una identità, in modo tale che, quando il sogget-
to grammaticale è un nome proprio, il predicato è a sua volta in-
terpretato come nome, mentre, secondo l’analisi moderna, ciò ha
senso solo quando il predicato è espressamente il nome di un
individuo.
È da notare, in realtà, che l’analisi freghiana si colloca nettamen-
te nel solco della teoria aristotelica della predicazione. La teoria
aristotelica è, infatti, una teoria dell’appartenenza – cioè una teoria
secondo la quale attribuire il predicato al soggetto significa dichia-
rare che quello gli appartiene, comunque poi venga inteso tale rap-
porto di appartenenza – e non una teoria che ponga l’identità tra
soggetto e predicato.

36
Introduzione al linguaggio formale

2.3. Proposizioni complesse


2.3.1. Quantificatori
Finora abbiamo preso in considerazione proposizioni semplici
contenenti simboli descrittivi. Questi simboli, proprio perché stan-
no al posto di enti determinati (individui o attributi) sono detti ol-
tre che segni descrittivi anche costanti descrittive (rispettivamente costan-
ti soggettive o individuali e costanti predicative). Le espressioni che ne
risultano sono, per l’appunto, proposizioni semplici (del linguaggio
predicativo). In LN ci sono però anche frasi del seguente tipo:

(8) «Qualcuno è un oratore»

oppure:

(9) «Tutti sono oratori»

Per tradurre tali frasi in LS occorre introdurre il concetto di


operatore logico di quantificazione (o quantificatore). Consideriamo la pri-
ma proposizione. Essa può essere trasformata nella seguente, aven-
te il medesimo senso: «Esiste almeno un ente tale che esso è un
oratore». A questo punto mettiamo al posto del termine generalis-
simo «ente» la variabile x, ossia un segno che sta proprio per un
«ente qualsiasi». Si ottiene: «Esiste almeno un x tale che x è un ora-
tore». Ora, la sottoespressione «x è un oratore» può essere trattata
come una qualsiasi proposizione semplice. Essa, infatti, pur non
essendo una proposizione, in quanto non suscettibile di essere vera
o falsa, presenta una struttura identica a quella delle proposizioni
semplici precedentemente descritte. Essa è, in altri termini, una
forma proposizionale, ossia una espressione che ha la struttura di
una proposizione, ma che contiene delle variabili – ovvero dei po-
sti vuoti – e perciò – finché questi rimangono tali – non può essere
né vera né falsa. In conclusione, della espressione «x è un oratore»
si può dare la versione simbolica Ox , la quale, inserita al posto do-
vuto, dà luogo alla espressione, suscettibile ora di essere vera o fal-

37
Capitolo primo

sa e quindi proposizione a tutti gli effetti, «Esiste almeno un x tale


che Ox ». Mettendo, a questo punto, il simbolo «∃x», detto quanti-
ficatore esistenziale, al posto di «Esiste almeno un x tale che», si
ottiene la proposizione di LS:

(8°) ∃xOx

La frase « Tutti sono oratori» si può trattare in maniera del tutto


analoga. Sfruttando, in questo caso, il quantificatore universale
«∀x», al posto della sottoespressione «Per tutti gli x vale che», si ha:

(9°) ∀xOx

Naturalmente, l’uso dei quantificatori non è limitato al caso in


cui l’espressione quantificata ha la struttura di una forma proposi-
zionale costituita da un predicato monadico unito a una variabile
individuale. È possibile che il predicato sia a più di un posto e che
tali posti siano occupati sia da costanti sia da variabili individuali
(come si vedrà negli esempi 10-12); inoltre è possibile un uso itera-
to dei quantificatori, nel senso che una proposizione può sorgere
dalla quantificazione di una forma proposizionale contenente a sua
volta dei quantificatori (come si vedrà negli esempi 13-15). Consi-
deriamo alcuni esempi che illustrino ciascuno di questi casi. Sia
data l’espressione:

(10) «Qualcuno è assassino di Cesare»

Essa può essere parafrasata nella proposizione «Esiste almeno


un x tale che x è assassino di Cesare». Questa presenta, come le
due proposizioni precedenti (precisamente la 8 e la 9), due parti:
la prima, «Esiste almeno un x tale che», è traducibile mediante la
quantificazione esistenziale della x «∃x»; la seconda, «x è assassi-
no di Cesare», è, al contrario, la forma proposizionale quantifica-
ta. Quest’ultima, però, non è costituita da un predicato monadico
seguito dalla variabile x, ma dal predicato a due posti A( , ) – che
sta per la relazione «essere assassino di» –, seguito dalla variabile

38
Introduzione al linguaggio formale

x e dalla costante c – che sta per «Cesare» –. Importante è co-


munque il fatto che la forma A(x ,c ) contenga una sola variabile,
di modo che basta la sola quantificazione della x per ottenere da
essa la formula corrispondente alla proposizione (10):

(10°) ∃xA(x ,c )

L’ espressione:

(11) «Tutti sono discendenti di Adamo»

– ovvero «Ognuno è discendente di Adamo – si può trattare in


maniera analoga. È sufficiente mettere il quantificatore universale
al posto di quello esistenziale. Così, ponendo « D(x ,a ) » per la
forma proposizionale «x è discendente di Adamo», si può scrivere:

(11°) ∀xD(x ,a )

Naturalmente l’ordine di occorrenza dei termini all’interno di


un predicato a più posti non è indifferente. Come già sappiamo,
scrivere « A(b,c ) » – «Bruto è assassino di Cesare» – non è lo stesso
che scrivere « A(c ,b ) » – «Cesare è assassino di Bruto». Similmente,
viene mutato il significato della proposizione se nella (10°), ad
esempio, viene scambiata la x con la c. Si otterrebbe la formula:

(12°) ∃xA(c , x )

che avrebbe il significato di:

(12) «Cesare è assassino di qualcuno»

Supponiamo, a questo punto, di non voler dire che Cesare è


assassino di qualcuno e neppure che qualcuno è assassino di Cesa-
re, ma semplicemente che:

(13) «Qualcuno è assassino di qualcuno»

39
Capitolo primo

Come è possibile formalizzare tale espressione? La risposta al


problema viene se si riflette che ambedue i posti del predicato
A( , ) possono essere occupati da variabili, in modo tale che non
solo A(x , y ) – cioè «x è assassino di y» – ma anche ∃yA(x , y ) –
cioè «x è assassino di qualcuno» – è una forma proposizionale. È
sufficiente, però, quantificare anche la x e la forma è trasformata in
una proposizione. In particolare, se la x è quantificata esistenzial-
mente, si ottiene la proposizione:

(13°) ∃x∃yA(x , y )

la quale, significando «Esiste almeno un x ed esiste almeno un y tali


che x è assassino di y», è la formalizzazione della (13).
Chiaramente, poi, l’espressione:

(14) «Qualcuno uccide tutti»

significa «Esiste almeno un x tale che per ogni y, x è assassino di y»


e sarà pertanto traducibile nella formula:

(14°) ∃x∀yA(x , y )

Quest’ultima formula, infine non va confusa con:

(15°) ∀x∃yA(x , y )

la quale ha ben altro significato della (14°). Mentre la (14°) significa


che qualcuno è uccisore di tutti, la (15°) ha lo stesso significato
della:

(15) «Ognuno è uccisore di qualcuno»

Anche in questa occasione si tratta di cogliere l’importanza del-


l’ordine con cui sono quantificate le variabili. Si noti: non si tratta
dell’ordine con cui tali variabili compaiono all’interno del predicato
A( , ) , ma dell’ordine nel quale si susseguono i quantificatori di di-

40
Introduzione al linguaggio formale

versa specie – cioè universale ed esistenziale – che quantificano que-


ste variabili. Mentre sono sinonimi rispettivamente ∀x∀yA(x , y )
con ∀y∀xA(x , y ) e ∃x∃yA(x , y ) con ∃y∃xA(x , y ), non hanno lo
stesso significato la (14°) e la (15°).

2.3.2. Connettivi proposizionali


L’uso dei quantificatori costituisce un metodo per ottenere pro-
posizioni complesse. Un altro metodo è costituito dall’uso dei co-
siddetti connettivi proposizionali. Si consideri la proposizione:

(16) «Cesare non è un condottiero»

Essa è la negazione della proposizione «Cesare è un condottie-


ro». Se, a questo punto introduciamo l’operatore di negazione ¬ e
indichiamo la prima proposizione con p, la seconda può essere tra-
dotta in LS con:

(16°) ¬p

Analogamente, se ∧ è assunto quale segno della congiunzione e


con q indichiamo la proposizione «Cesare è romano», allora con:

(17°) p∧q

traduciamo esattamente in LS la proposizione complessa:

(17) «Cesare è un condottiero e Cesare è romano»

Certamente l’analisi delle proposizioni precedenti poteva essere


condotta più a fondo, mettendo in luce, cioè, la struttura predicati-
va delle proposizioni corrispondenti a p e a q. Essenziale è, però, il
fatto che per costruire proposizioni complesse attraverso i connet-
tivi non è necessario scendere al di sotto del livello puramente
proposizionale. Sono le proposizioni (o le forme proposizionali,
trattabili da questo punto di vista come proposizioni) le unità lin-

41
Capitolo primo

guistiche fondamentali che vengono negate, congiunte, in generale


connesse da qualche connettivo proposizionale.
Ma i due esempi precedenti consentono di ricavare qualche altra
informazione sulla natura dei connettivi. Nel caso della negazione
si è ottenuta una proposizione complessa a partire da un’unica
proposizione più semplice. Nel caso della congiunzione, invece, le
proposizioni componenti erano due. In secondo luogo, mentre nel
secondo caso a partire da due proposizioni vere si poteva sperare
di ottenere una proposizione complessa altrettanto vera, nel primo,
se p è vera allora è da attendersi che ¬p sia falsa. Eppure, in am-
bedue i casi il valore di verità della proposizione risultante (vale a dire
la sua verità o falsità, che, rispettivamente, si indicano attraverso le
sigle V e F) è determinato dal valore di verità (V o F) delle proposi-
zioni componenti (o proposizione componente nel caso della nega-
zione). Dunque siamo giunti ai due seguenti risultati:
(a) I connettivi si differenziano per il numero delle proposizioni
componenti a cui si applicano: per esempio, nel caso della nega-
zione ¬ si applica a un’unica proposizione più semplice; nel caso
della congiunzione ∧ si applica a due proposizioni componenti. Il
numero delle proposizioni a cui si applicano i connettivi è detto
numero dei posti del connettivo: così il numero dei posti della nega-
zione è «uno», mentre il numero dei posti della congiunzione è
«due». Nel punto (b) successivo il numero dei posti è chiamato an-
che numero degli argomenti e si dirà, ad esempio, che ¬ è un connetti-
vo monoargomentale, mentre ∧ è un connettivo biargomentale. La
spiegazione di questa terminologia sta nella natura funzionale dei
connettivi, di cui si parlerà proprio in (b).
(b) I connettivi si possono considerare come funzioni che per-
mettono di determinare il valore di verità (V o F) di una proposi-
zione complessa a partire dai valori di verità (V o F) delle proposi-
zioni componenti.
Il concetto di funzione, di cui qui si fa uso, è una nozione ma-
tematica. Essa richiede, pertanto, d’essere introdotta con un po’ di
precisione e di pazienza. Che cosa sono, dunque, le funzioni? Una
funzione è un segno attraverso il quale si indica una particolare
legge di corrispondenza tra gli elementi di due insiemi. Il primo

42
Introduzione al linguaggio formale

insieme è detto insieme degli argomenti della funzione (o suo dominio);


il secondo è detto insieme dei suoi valori (o suo codominio). La corri-
spondenza tra gli elementi del primo e gli elementi del secondo è
univoca, nel senso che ad ogni argomento la funzione fa corrisponde-
re uno e uno solo dei valori.
Ebbene, i connettivi sono particolari funzioni, dotate di specifi-
co dominio e codominio. Il codominio è generale per tutti i connetti-
vi e si tratta dell’insieme dei valori di verità {V , F } . Il dominio è diverso
in dipendenza dal numero dei posti del connettivo: se si tratta di
un connettivo a un posto (ovvero, usando ora il linguaggio funzio-
nale, monoargomentale), come è la negazione, l’insieme degli argo-
menti è dato dall’insieme dei valori di verità {V , F } (vale a dire, coinci-
de col codominio); se si tratta, invece, di connettivi a due posti
(ovvero, usando ora il linguaggio funzionale, biargomentale), come è
la congiunzione, allora l’insieme degli argomenti è dato dall’insieme
di tutte le coppie di valori di verità {〈VV 〉, 〈VF 〉, 〈FV 〉, 〈FF 〉} .
Le funzioni corrispondenti ai connettivi che si vogliono definire
sono introdotte attraverso il metodo delle tabelle (o tavole) di verità.
Vediamo, innanzitutto, di caratterizzare la tabella di verità di ¬ e
di ∧. Poi passeremo alla definizione delle tabelle di verità per gli
altri connettivi. La presentazione di queste due prime tabelle ci
fornirà anche l’occasione di precisare lo stesso concetto di tabella e
di introdurre gli elementi che la compongono. V e F siano rispetti-
vamente i valori di verità del vero e del falso. Allora la tabella di
verità di ¬ è:

p ¬ p

V F V

F V F

43
Capitolo primo

Nella tabella appena presentata si possono distinguere le colonne


e le righe: le colonne sono le successioni (di valori V e F) viste in
verticale, mentre le righe sono le successioni (di valori V e F) viste
in orizzontale. Per ora ci interessano solo le colonne. La prima co-
lonna – quella che sta sotto la lettera proposizionale p – è costituita
dai valori di verità che la lettera proposizionale p può assumere –
che sono, per l’appunto V e F, non essendoci altre possibilità –. La
prima colonna costituisce, in altre parole, l’entrata della tabella. La
terza colonna è la ripetizione della prima; i valori da conferire alla
lettera p come componente della formula ¬p sono, infatti, quelli
stabiliti in entrata. La colonna di mezzo – quella ombreggiata che
sta sotto ¬ – rappresenta, invece, chiaramente i valori di uscita del-
la funzione: F come risultato della negazione di V e V come risul-
tato della negazione di F.
La tabella di verità di ∧ è più complessa:

p q p ∧ q

V V V V V

V F V F F

F V F F V

F F F F F

Come si è detto sopra, la congiunzione è un connettivo biar-


gomentale. Tale caratteristica si riflette anche sulla tabella di verità
relativa. In essa, infatti, ci sono due colonne in entrata: la colonna
sotto p e quella sotto q, che sono riportate, rispettivamente, in terza
e quinta posizione. La colonna ombreggiata posta sotto ∧ è, inve-
ce, la colonna delle uscite. Ci si può chiedere per quale motivo nel-
la presente tabella ci sono quattro righe e non solo due come nella

44
Introduzione al linguaggio formale

tabella precedente. La ragione è semplice. Essa dipende dal fatto


che, nel caso della congiunzione, la funzione è biargomentale, il
che vuol dire che l’insieme degli argomenti non è {V , F } ma
{〈VV 〉, 〈VF 〉, 〈FV 〉, 〈FF 〉} , ove gli elementi sono esattamente quat-
tro. In altre parole, nel definire un connettivo biargomentale come
la congiunzione occorre prendere in considerazione tutte le possibili
combinazioni (o assegnazioni) di valori di verità attribuibili ad ambedue
le proposizioni connesse. E queste sono, per ragioni combinatorie,
22 = 4: la base è 2 perché i valori di verità sono due, V e F; l’espo-
nente è 2 perché la funzione è biargomentale.
Passiamo, ora, agli altri connettivi, tutti biargomentali. Si consi-
derino le tre seguenti proposizioni in cui compare sempre la con-
giunzione «o»:

(18) «O mangi questa minestra, o salti dalla finestra»

(19) «Giovanni quest’oggi va al cinema oppure va in discoteca»


(Si suppone che questa frase sia pronunciata da un genitore
che non acconsente a che il figlio Giovanni fruisca di due
divertimenti nel medesimo giorno)

(20) «Giovanni ha la laurea in legge o in scienze politiche»


(Si suppone di essere a conoscenza che per accedere al con-
corso cui ha partecipato anche Giovanni occorra la laurea in
legge o in scienze politiche)

È chiaro che il significato delle tre o (o1, o2, o3, rispettivamente


nei tre casi) non è il medesimo. Nella (18) si vuole escludere che
colui al quale è rivolta la frase (i) non mangi questa minestra e non
salti dalla finestra, (ii) mangi la minestra e salti anche dalla finestra.
Si tratta cioè della disgiunzione esclusiva (corrispondente all’aut latino)
e la tabella ad essa corrispondente è:

45
Capitolo primo

p q p o1 q

V V V F V

V F V V F

F V F V V

F F F F F

Con la (19), invece, si vuole esprimere la incompatibilità tra l’an-


dare al cinema e in discoteca (si esclude che possano accadere en-
trambe le cose nello stesso giorno) ma non si vuole escludere una
scelta diversa dalle altre due (ossia consistente nel non andare al
cinema e nel non andare in discoteca). La tabella di verità corri-
spondente sarà, pertanto:

p q p o2 q

V V V F V

V F V V F

F V F V V

F F F V F

Nella (20), infine, con o3 si vuole escludere soltanto che Gio-


vanni abbia partecipato al concorso senza almeno una delle lauree
prescritte dal concorso. Si tratta, dunque, della disgiunzione non
esclusiva (detta anche alternativa e corrispondente al vel latino), l’uni-

46
Introduzione al linguaggio formale

ca in uso nella logica classica contemporanea (e da noi assunta nel


seguito di questo lavoro). Per questo, quando in logica classica si
parla di disgiunzione, si intende la disgiunzione non esclusiva ed esi-
ste un connettivo specifico per essa, precisamente ∨. La tabella di
verità per ∨ è dunque:

p q p ∨ q

V V V V V

V F V V F

F V F V V

F F F F F

Il lettore, naturalmente, si aspetterà che l’identificazione della


disgiunzione con la disgiunzione non esclusiva implichi un indebo-
limento espressivo del linguaggio logico rispetto a quello naturale.
Ciò non è vero. Infatti attraverso ∨ e gli altri due connettivi già in-
trodotti è possibile definire anche o1 e o2. In altre parole, p o1 q si
può concepire come accorciamento di ( p ∨ q ) ∧ ¬( p ∧ q ) mentre
p o2 q di ¬( p ∧ q ). Della possibilità di definire certi connettivi at-
traverso altri si parlerà, però, in modo approfondito più avanti.
E veniamo ora al connettivo della implicazione (o condizionale) →.
Contesto della nostra analisi sia la formulazione di una precisa
clausola salariale tra di me, in qualità di datore di lavoro, e un lavo-
ratore che ho intenzione di assumere. Sullo sfondo di tale contesto
si consideri il significato delle tre seguenti proposizioni:

(21) «Se lavori allora ti pago»


(22) «Il fatto che tu lavori è condizione sufficiente del fatto che io ti
paghi»: cioè «Al lavoro seguirà necessariamente il pagamento»

47
Capitolo primo

(23) «Il fatto che io ti paghi è condizione necessaria del fatto che
tu lavori»: cioè «Se non sarai pagato allora vuol dire che non
avrai lavorato»

Ebbene, tutte e tre le proposizioni esprimono lo stesso con-


tenuto: che tra il fatto che tu lavori (antecedente del condizionale) e il
fatto che io ti pago (conseguente del condizionale) sussista un rappor-
to di implicazione. Ci sono, però, difficoltà, quando si cerca di de-
finire tale nesso di implicazione mediante il metodo delle tabelle di
verità. In tal caso, infatti, si deve essere disposti ad accettare due
condizioni essenziali.
La prima condizione consiste nel fatto che, allo scopo di stabili-
re la verità o meno dell’implicazione, sia necessario prescindere dai
contenuti espressi da antecedente e conseguente ed occorra, al
contrario, attenersi esclusivamente al loro valore di verità. Come è
noto, infatti, la tabella deve avere in entrata ed in uscita solo i valori
di verità V e F e non può tener conto di altri elementi.
La seconda condizione è imposta dalla natura completa della
tabella. La tabella deve essere definita, infatti, per tutte le assegna-
zioni dei valori di verità. Ora, questo requisito non pone alcun
problema nel caso in cui l’antecedente è vero e il conseguente è
falso; in tal caso è giocoforza dichiarare che l’implicazione è falsa,
perché il conseguente è condizione necessaria dell’antecedente –
ovvero, equivalentemente, l’antecedente è condizione sufficiente
del conseguente –. Ma che dire degli altri casi? A proposito di que-
sti non si può certamente affermare che essi falsificano l’implica-
zione, ma neppure che la verificano. Il fatto che antecedente e con-
seguente siano ambedue veri non è una prova che tra di essi sussi-
sta la relazione di implicazione; analogamente, non è una prova
della verità dell’implicazione la loro falsità; a maggior ragione, poi,
tale prova non è fornita dalla circostanza che l’antecedente sia falso
e il conseguente vero. Che cosa si può dire, allora, con certezza?
Con certezza si può dire solo che il sussistere della relazione di im-
plicazione è compatibile con ognuno di questi casi, che essi cioè non
escludono la verità dell’implicazione. A questo punto si aprono due
possibilità: o si dice che il condizionale è definito solo per il caso in

48
Introduzione al linguaggio formale

cui l’antecedente è vero e il conseguente è falso – ossia per il caso


che lo falsifica –, mentre negli altri casi se ne accetta la indetermi-
natezza, oppure si fissa che esso è definito anche per gli altri casi,
ponendo stipulativamente che ciò che non lo falsifica lo rende vero.
Ebbene, la completezza delle funzioni definibili attraverso il
metodo delle tabelle ci obbliga a scegliere la seconda alternativa. In
ciò consiste la seconda condizione richiesta dalla definizione del-
l’implicazione attraverso il metodo delle tabelle. Si tratta di una as-
sunzione legittima? La risposta è del tutto positiva, se si conviene
che attraverso di essa anche il significato dell’implicazione usuale è
modificato nel senso di un suo forte indebolimento.
In sintesi conclusiva, se l’antecedente è vero allora il condizio-
nale è falso solo nel caso in cui il conseguente è falso e il condizio-
nale è comunque vero quando l’antecedente è falso. Ne segue che
la tabella di verità del connettivo della implicazione (o condiziona-
le) → assume la seguente forma:

p q p → q

V V V V V

V F V F F

F V F V V

F F F V F

In breve porre p → q significa escludere che p sia vero e q falso,


ovvero significa porre ¬( p ∧ ¬q ).
Si consideri, a questo punto, la proposizione:

(24) «Ti pago soltanto se lavori»

49
Capitolo primo

Qual è il rapporto tra la (21) e la (24)? Di certo i loro contenuti


non coincidono. Infatti, mentre con la (21) si vuol dire che se lavo-
ri allora ti pago, ma non si esclude il fatto che io ti possa pagare
gratuitamente, con la (24) si viene ad escludere proprio questo.
Con la (24) si afferma che il lavoro è condizione necessaria del pa-
gamento e non come nella (21) che il lavoro è condizione suffi-
ciente a che io ti paghi. Se, dunque, con l si indica il fatto che tu
lavori e con p il fatto che io ti pago, la (21) è traducibile in LS nella
espressione l → p (così pure la (22) e la (23)), mentre la (24) è tra-
ducibile in LS con p → l. Se poi si afferma che l è condizione non
solo sufficiente ma anche necessaria di p allora si dovrà affermare
sia l → p che p → l. D’altra parte, qual è la congiunzione che in
LN si usa per indicare che qualcosa è condizione necessaria e suf-
ficiente per qualcosa d’altro? È la congiunzione «se e soltanto se».
Infatti, se uno vuol dire (21) e (24) al contempo, affermerà:

(25) «Ti pago se e soltanto se lavori»

Siamo così giunti al connettivo della doppia implicazione (o bicon-


dizionale) ↔. La sua tabella è:

p q p ↔ q

V V V V V

V F V F F

F V F F V

F F F V F

50
Introduzione al linguaggio formale

Riassumendo. Il segno della negazione ¬ ha lo stesso significato


della voce linguistica «non», quando il «non» serve a negare il con-
tenuto di una certa proposizione. Naturalmente la negazione di
una proposizione vera è falsa e viceversa.
Il segno della congiunzione ∧ ha lo stesso significato della con-
giunzione «e», quando la «e» serve a congiungere due proposizioni
e formarne una sola. La proposizione complessiva risultante sarà
vera solo se ambedue le proposizioni congiunte sono vere.
Il segno della disgiunzione ∨ ha lo stesso significato della parti-
cella linguistica «o», quando questa viene usata, in conformità alla
locuzione latina «vel», per disgiungere due proposizioni. Per questo
è sufficiente che una sola delle proposizioni disgiunte sia vera per-
ché l’intera disgiunzione sia vera.
Il segno della implicazione → serve a stabilire tra due proposi-
zioni una connessione esprimibile attraverso la locuzione linguisti-
ca «se ... allora». Di tali proposizioni la prima (antecedente) esprime
la condizione, la seconda (conseguente) il condizionato. Equivalen-
temente si può anche dire che l’antecedente esprime la condizione
sufficiente (del conseguente), mentre il conseguente esprime
la condizione necessaria (dell’antecedente).
Intuitivamente mediante il segno → si vuole semplicemente
escludere che sia vero l’antecedente e falso il conseguente.
Il segno della doppia implicazione (bicondizionale o equivalen-
za) ↔ ha il significato della locuzione linguistica «se e solo se». Per
questo scrivere A ↔ B significa dichiarare che A è al contempo
condizione necessaria e sufficiente di B e viceversa, di modo che
A ↔ B risulta equivalente a ( A → B) ∧ (B → A). Inoltre, il rap-
porto di equivalenza comporta che il valore di verità di A sia iden-
tico a quello di B.
Il quadro riassuntivo delle tabelle di verità è, infine, il seguente:

51
Capitolo primo

p ¬ p q ∧ ∨ → ↔

V F V V V V V V

F V V F F V F F

F V F V V F

F F F F V V

2.3.3. Quantificatori più connettivi

Esiste un terzo metodo per costruire proposizioni complesse.


Si tratta del metodo dei quantificatori combinato con quello dei
connettivi.
Si consideri la proposizione:

(26) «Tutti gli uomini corrono»

Ponendo U per «essere uomo» e C per «essere corrente», essa


può essere trasformata successivamente in:

Per ogni x, se x è uomo allora x corre

∀x(se Ux allora Cx)

∀x(Ux → Cx )

52
Introduzione al linguaggio formale

Struttura analoga possiede, poi, la proposizione:

(27) «Tutti gli uomini non corrono»

la quale presenta come unica variante, rispetto alla (26), il fatto che
il conseguente del condizionale interno alla quantificazione è una
negazione. Così, la (27) è formalizzabile passo per passo nella ma-
niera seguente:

Per ogni x, se x è uomo allora x non corre

∀x(se Ux allora ¬Cx)

∀x(Ux → ¬Cx )

La proposizione:

(28) «Qualche uomo corre»

presenta, invece, una struttura diversa dalle precedenti. Essa ha la


forma di quantificazione esistenziale di una congiunzione, come
risulta dalla seguente analisi:

Esiste almeno un x tale che, x è uomo e x corre

∃x(Ux e Cx )

∃x(Ux ∧ Cx )

53
Capitolo primo

Simile – con la sola variante che il secondo congiunto della


congiunzione quantificata esistenzialmente è ora negato – è la
struttura della proposizione:

(29) «Qualche uomo non corre»

Infatti, la sua analisi è:

Esiste almeno un x tale che, x è uomo e x non corre

∃x(Ux e ¬Cx )

∃x(Ux ∧ ¬Cx )

Il contenuto espresso dalle precedenti quattro proposizioni può


essere formulato anche in forma diversa. La diversità dipende dal
fatto che il medesimo contenuto può essere espresso anche negan-
do la negazione delle proposizioni originarie. Naturalmente ciò è
facilitato sul piano del linguaggio naturale dalla presenza dell’ope-
ratore «nessuno», che è equivalente a «tutti non» o a «non alcuno».
In effetti le proposizioni (26)-(29) sono rispettivamente equiva-
lenti alle seguenti (30)-(33), ove, per ognuna di esse, accanto alla for-
mulazione in LN è presente anche la relativa analisi formale in LS:

(30) «Nessun uomo non corre»

Non esiste alcun x tale che, x è uomo e x non corre

54
Introduzione al linguaggio formale

¬∃x(Ux e ¬Cx )

¬∃x(Ux ∧ ¬Cx )

(31) «Nessun uomo corre»

Non esiste alcun x tale che, x è uomo e x corre

¬∃x(Ux e Cx )

¬∃x(Ux ∧ Cx )

(32) «Non tutti gli uomini non corrono»

Non per tutti gli x, se x è uomo x non corre

¬∀x(se Ux allora ¬Cx )

¬∀x(Ux → ¬Cx )

55
Capitolo primo

(33) «Non tutti gli uomini corrono»

Non per tutti gli x, se x è uomo x corre

¬∀x(se Ux allora Cx )

¬∀x(Ux → Cx )

La formulazione alternativa data alle quattro proposizioni ini-


ziali è interessante, tra il resto, anche per il fatto che essa mette in
evidenza i rapporti che sussistono tra di esse. Come è facile avve-
dersi, infatti, le proposizioni di cui qui si tratta sono le proposizioni
tipiche del linguaggio sillogistico, il quale comprende – come è no-
to – le proposizioni universali affermative (tipo A = (26)), le uni-
versali negative (tipo E = (27)), le particolari affermative (tipo I =
(28)) e quelle particolari negative (tipo O = (29)). Ora è risaputo
che i rapporti sussistenti tra queste proposizioni sono quelli illu-
strati nel seguente schema:

(A) ∀x(Ux → Cx ) contrarie (E) ∀x(Ux → ¬Cx )

subalterne contraddittorie subalterne

(I) ∃x(Ux ∧ Cx ) subcontrarie (O) ∃x(Ux ∧ ¬Cx )

56
Introduzione al linguaggio formale

Ebbene, le formulazioni alternative delle proposizioni consen-


tono, ad esempio, di evidenziare in modo immediato il rapporto di
opposizione per contraddizione di A con O e di I con E. Infatti,
sostituendo le formule delle caselle superiori con le equivalenti, si ha:

¬∃x(Ux ∧ ¬Cx ) contrarie ¬∃x(Ux ∧ Cx )

subalterne contraddittorie subalterne

(I) ∃x(Ux ∧ Cx ) subcontrarie (O) ∃x(Ux ∧ ¬Cx )

E analogamente, sostituendo, invece, le formule delle caselle


inferiori:

(A) ∀x(Ux → Cx ) contrarie (E) ∀x(Ux → ¬Cx )

subalterne contraddittorie subalterne

¬∀x(Ux → ¬Cx ) subcontrarie ¬∀x(Ux → Cx )

Il linguaggio sillogistico è indubbiamente un linguaggio espres-


sivo ed importante. Non si deve dimenticare, però, che esso pre-
senta limitazioni molto serie nei confronti del linguaggio generale
che stiamo elaborando. Le limitazioni sono nella sostanza due: da
una parte il linguaggio sillogistico è un linguaggio per soli predicati
monadici – non ci sono cioè in esso segni per relazioni –; in secondo
luogo non si prevede in esso la possibilità di un uso iterato dei
quantificatori, dunque di quantificatori posti (in linguaggio tecnico,
nidificati) nell’ambito d’azione di altri. La possibilità di formalizzare,

57
Capitolo primo

secondo il metodo suggerito, espressioni come le seguenti dipende


proprio dal superamento da parte di LS di ambedue queste limita-
zioni.

(34) «Giovanni scrive una lettera»

Esiste un x tale che, x è lettera e Giovanni scrive x

∃x(Lx ∧ S( g , x ))

(35) «Qualcuno scrive una lettera»

Esiste un x ed esiste un y tali che, x è lettera e y scrive x

∃x∃y(Lx ∧ S( y, x ))

Naturalmente, l’analisi può essere anche:

Esiste un y ed esiste un x tali che, x è lettera e y scrive x

∃y∃x(Lx ∧ S( y, x ))

58
Introduzione al linguaggio formale

oppure:

Esiste un x ed esiste un y tali che, y è lettera e x scrive y

∃x∃y(Ly ∧ S(x , y ))

(36) «Qualche uomo scrive una lettera»

Esiste un x ed esiste un y tali che, x è uomo e y è lettera e x scrive y

∃x∃y(Ux ∧ Ly ∧ S(x , y ))

oppure:

Esiste un x tale che, x è uomo ed esiste un y tale che,


y è lettera e x scrive y

∃x(Ux ∧ ∃y(Ly ∧ S(x , y )))

(37) «Tutti scrivono una lettera»

59
Capitolo primo

Per tutti gli x esiste un y tale che, y è lettera e x scrive y

∀x∃y(Ly ∧ S(x , y ))

(38) «Tutti gli uomini scrivono una lettera»

Per tutti gli x, se x è uomo allora esiste un y tale che,


y è lettera e x scrive y

∀x(Ux → ∃y(Ly ∧ S(x , y )))

(39) «Qualcuno scrive tutte le lettere»

Esiste un x tale che per ogni y, se y è lettera allora x scrive y

∃x∀y(Ly → S(x , y ))

(40) «Qualche uomo scrive tutte le lettere»

Esiste un x tale che, x è uomo e per ogni y,


se y è lettera allora x scrive y

60
Introduzione al linguaggio formale

∃x(Ux ∧ ∀y(Ly → S(x , y ))

(41) «Tutti gli uomini scrivono tutte le lettere»

Per ogni x, se x è uomo allora per ogni y,


se y è lettera allora x scrive y

∀x(Ux ∧ ∀y(Ly → S(x , y )))

oppure:

Per ogni x e per ogni y, se x è uomo e y è lettera allora x scrive y

∀x∀y(Ux ∧ Ly → S(x , y ))

2.4. Ruoli del metodo delle tabelle di verità


2.4.1. Calcolo del valore di verità delle proposizioni complesse
Ritorniamo alle proposizioni complesse appartenenti al lin-
guaggio puramente proposizionale, vale a dire sprovviste di quanti-
ficatori. Il metodo delle tabelle di verità ci è servito, fin qui, per la
definizione dei connettivi proposizionali che occorrono in esse. Lo
stesso metodo consente, però, di svolgere anche altre funzioni, ad
esempio, trovare il valore di verità di qualsiasi proposizione com-

61
Capitolo primo

plessa, priva di quantificatori, una volta posti i valori di verità delle


proposizioni semplici che la compongono.
Consideriamo il seguente esempio. Sia data la proposizione
( p ∨ q ) → p e si supponga che p sia vera e q falsa. Allora, in base
alla tabella di verità per ∨ si può ottenere innanzitutto il valore di
p ∨ q : p ∨ q sarà vera. A questo punto, la tabella per → ci dice
che il valore di verità dell’intera proposizione è il vero, dato che
antecedente e conseguente del condizionale sono ambedue veri.
Se, al contrario, p fosse falsa e q vera, allora p ∨ q sarebbe vera men-
tre p falsa. Per questo il condizionale risulterebbe in definitiva falso.
In generale, dunque, per trovare il valore di verità di un’intera
proposizione, sprovvista di quantificatori, basta conoscere i valori
delle proposizioni semplici, quindi calcolare i valori delle proposi-
zioni immediatamente più complesse, procedere alla determina-
zione delle proposizioni ancora più complesse, fino ad arrivare al-
l’intera proposizione in oggetto. Si parte, per così dire, dall’interno
e ci si sposta gradualmente verso l’esterno sino ad arrivare all’intera
proposizione.

ESEMPIO 1:

p q (p ∧ q) → (p ∨ q)

V F V F V F

62
Introduzione al linguaggio formale

ESEMPIO 2:

p q (p ∧ q) → (p ∨ q)

F F F F F F

ESEMPIO 3:

p q (p → q) → ((¬ p) → (¬ q))

V V V V V V

V F F

63
Capitolo primo

ESEMPIO 4:

p q (p → q) → ((¬ p) → (¬ q))

F V F V F V

V V F

Il calcolo del valore di verità di un’intera formula, a partire da


un’unica assegnazione di valori, può essere, naturalmente, appiatti-
to su un’unica riga. Così la tabella precedente diventa:

p q (p → q) → ((¬ p) → (¬ q))

F V F V V F V F F F V

In questo modo, è possibile calcolare entro la cornice di un’uni-


ca tabella i valori della formula per tutte le assegnazioni di verità.
Ad esempio, nel caso della formula precedente si ha:

64
Introduzione al linguaggio formale

p q (p → q) → ((¬ p) → (¬ q))

V V V V V V F V V F V

V F V F F V F V V V F

F V F V V F V F F F V

F F F V F V V F V V F

La formula in questione risulta perciò vera per certe assegna-


zioni e falsa per altre (precisamente una). Naturalmente, si danno
anche gli altri casi combinatoriamente possibili. L’uso del metodo
delle tabelle consente, così, di distinguere tre tipi fondamentali di
proposizioni appartenenti al livello puramente enunciativo:

(a) Le proposizioni valide (dette anche tautologie)


(b) Le proposizioni soddisfacibili (in senso stretto)
(c) Le proposizioni contravvalide (o contraddittorie)

Le prime sono quelle che risultano vere per ogni assegnazione


di valori di verità alle proposizioni semplici che esse contengono.
Le seconde sono quelle che risultano vere solo per alcune assegna-
zioni di valori di verità. Le ultime risultano in ogni caso false.
Per esempio, ¬( p ∧ (¬p)) è una proposizione valida, dato che
risulta vera per p vera e anche per p falsa (e non si danno altri casi).
p → (q ∧ p) è soddisfacibile in quanto risulta falsa per p vera e q
falsa e vera in tutti gli altri casi. p ∧ (¬p) è, invece, contravvalida,
in quanto risulta in ogni caso falsa. Vediamone, infatti, le tabelle
complete:

65
Capitolo primo

ESEMPIO 1:

p ¬ (p ∧ (¬ p))

V V V F F V

F V F F V F

ESEMPIO 2:

p q p → (q ∧ p)

V V V V V V V

V F V F F F V

F V F V V F F

F F F V F F F

ESEMPIO 3:

p p ∧ (¬ p)

V V F F V

F F F V F

66
Introduzione al linguaggio formale

Un altro esempio leggermente più complesso è il seguente:

ESEMPIO 4:

p q (p → q) → ((¬ q) → (¬ p))

V V V V V V F V V F V

V F V F F V V F F F V

F V F V V V F V V V F

F F F V F V V F V V F

La complessità può, infine, aumentare sensibilmente se cresce il


numero delle variabili in gioco. In questi casi, infatti, il numero del-
le assegnazioni di valori di verità da prendere in considerazione
aumenta in modo considerevole: precisamente, se le lettere propo-
sizionali presenti nella formula sono, ad esempio, 3, allora il nume-
ro delle assegnazioni è 23 = 8; in generale, se le lettere sono n, allo-
ra il numero delle assegnazioni è 2n. Vediamone un esempio che
illustreremo, per motivi di spazio, nella pagina seguente.

67
Capitolo primo

Esempio 5:

p q r ( p → q) → ((q → r) → ( p → r))

V V V V V V V V V V V V V V

V V F V V V V V F F V V F F

V F V V F F V F V V V V V V

V F F V F F V F V F F V F F

F V V F V V V V V V V F V V

F V F F V V V V F F V F V F

F F V F V F V F V V V F V V

F F F F V F V F V F V F V F

A causa della complessità del calcolo, nel caso in cui il numero


delle righe e delle colonne della tabella è particolarmente alto, si è
soliti stabilire la validità di certe formule proposizionali mediante
una sorta di argomentazione per assurdo. Si tratta del cosiddetto
metodo indiretto delle tabelle di verità. Tale metodo è praticabile, in
particolare, quando le proposizioni da analizzare sono implicazio-
ni, come accade nell’esempio precedente. In sostanza si ragiona
nella maniera seguente: supponiamo che l’implicazione sia falsa;
ciò significa che l’antecedente è vero e il conseguente è falso; da
tali risultati si argomenta, poi, fino a trovare qualche conclusione
impossibile; se tale conclusione è ottenuta si può dire che l’impli-
cazione in gioco è valida, senza dover procedere ad ulteriori analisi.

68
Introduzione al linguaggio formale

Vediamo, come esempio, tale forma di analisi applicata alla propo-


sizione precedente:

ESEMPIO 6:

p q r ( p → q) → ((q → r) → ( p → r))

V F

V F

V F

V F

V V V

Da quanto si è detto è facile ricavare, in conclusione, che il me-


todo delle tabelle costituisce un metodo rigoroso di decisione per le
proposizioni complesse: esso consente di calcolare effettivamente
(cioè mediante un metodo meccanico e in un numero finito di passi )
il valore di verità di ogni proposizione complessa (senza quantifica-
tori) a partire dal valore di verità delle proposizioni semplici che la
costituiscono. In altre parole, il metodo delle tabelle costituisce un
preciso algoritmo per calcolare il valore di verità di tali proposizioni
complesse.

2.4.2. Interdefinibilità dei connettivi


Una ulteriore funzione del metodo delle tabelle di verità la si
può cogliere nel fatto che esso fornisce uno strumento per verifi-

69
Capitolo primo

care la definibilità di certi connettivi in termini di altri. Già sopra si


è visto come i connettivi o1 e o2 possano essere definiti in termini
di ∨, ∧ e ¬. La relazione di interdefinibilità tra tali connettivi si
può, a questo punto, illustrare anche in modo più approfondito. Si
indichi attraverso l’espressione « ... =def +++ » la relazione che sus-
siste tra il definiens «+++» e il definiendum «...». Scrivendo, cioè, « ...
=def +++ » si voglia dire che «+++» definisce «...», ovvero – trattan-
dosi in tale caso di definizione nominale – che «...» è un modo per
accorciare la proposizione complessa «+++». Allora la definibilità di
o1 e o2 in termini di ∨, ∧ e ¬ si può esprimere nella maniera se-
guente: p o1 q =def ( p ∨ q ) ∧ ¬( p ∧ q ), mentre p o2 q =def ¬( p ∧ q ).
Ebbene, la definibilità di certi connettivi in termini di altri non
vale solo per connettivi non usuali come o1 e o2; essa vale anche
per i connettivi finora introdotti quali segni primitivi. Per esempio,
si può porre p ↔ q =def ( p → q ) ∧ (q → p); p → q =def ¬( p ∧ ¬q );
p ∨ q =def ¬(¬p ∧ ¬q ). Il metodo delle tabelle fornisce la verifica
della sensatezza di tali definizioni. Infatti, calcolando i valori di ve-
rità della proposizione definiente per ogni assegnazione di verità a
p e a q si ottengono gli stessi valori che contraddistinguono le ta-
belle di verità rispettivamente di ↔, di → e di ∨. Infine, di ulteriori
possibilità di interdefinizione dei connettivi qui non ci si occupa.

2.5. Ampliamento del linguaggio proposizionale

2.5.1. Connettivi intensionali


Tutti i connettivi trattati nelle pagine precedenti sono stati in-
trodotti quali funzioni (mono- o biargomentali) definite su valori di
verità. Per questo si dice che questi connettivi sono definiti in ma-
niera vero-funzionale (e si dicono, accettando il punto di vista di Fre-
ge, secondo il quale l’estensione di una proposizione è il suo valore
di verità, anche connettivi estensionali). In altre parole, tutti i connet-
tivi occorrenti in una proposizione complessa sono vero-funzionali
quando il valore di verità di quella proposizione può essere deter-
minato attraverso la semplice conoscenza dei valori di verità delle
proposizioni semplici che in essa compaiono.

70
Introduzione al linguaggio formale

Però, non tutte le congiunzioni proposizionali di LN hanno una


struttura vero-funzionale. Si considerino i due seguenti esempi:

(42) «Cesare scrisse il De Bello Gallico, mentre combatteva con-


tro i Galli»
(43) «Cesare scrisse il De Bello Gallico, mentre Dante scrisse la
Divina Commedia»

Ora, il «mentre» di (42) ha un significato tale che, conoscendo il


semplice valore di verità delle due proposizioni componenti (prin-
cipale e temporale), non è possibile determinare il valore dell’intera
frase. Al contrario, il «mentre» di (43) ha un significato logico per-
fettamente assimilabile a quello della congiunzione «e», per cui il
valore di verità dell’intera espressione è funzione del solo valore di
verità delle proposizioni componenti. Nel secondo caso, dunque, si
tratta di un connettivo vero-funzionale, nel primo no. In (42), per
determinare il valore di verità dell’intera proposizione, occorre co-
noscere, oltre al valore di verità, anche qualcosa del significato del-
le due proposizioni componenti. Per questo motivo si dice che il
«mentre» di (42) è un connettivo non vero-funzionale (o, seguendo
sempre Frege, secondo il quale il contenuto di una proposizione è
la sua intensione, connettivo intensionale).
L’importanza di questi connettivi è decisiva nei contesti modali,
deontici, epistemici ed intenzionali. Qui essi sono da concepire più co-
me operatori che come connettivi, dato che servono a costruire,
come i quantificatori, proposizioni a partire da un’unica proposi-
zione, ma hanno in comune con il connettivo temporale del-
l’esempio precedente una chiara struttura non vero-funzionale.
Consideriamo in successione i quattro contesti. Prima di iniziare, è
opportuno, però, chiarire che la loro trattazione ha un valore in-
troduttivo a sé stante e non è finalizzata ad un approfondimento
formale come quello riservato alla logica dei predicati nei capitoli
centrali del volume. Essa serve solo a dare l’idea dei linguaggi in-
tensionali (e delle logiche intensionali corrispondenti) e a mostrar-
ne l’importanza per l’argomentazione filosofica, in coerenza con
quanto si è detto nella introduzione storico-tematica del volume.

71
Capitolo primo

Una trattazione formale delle logiche intensionali e della loro ap-


plicazione nella logica filosofica si può trovare in altri manuali.

1) Contesti modali
Si consideri la proposizione:

(44) «È necessario che i viventi muoiano»

Nella proposizione si possono distinguere nettamente due parti:


la prima è costituita dall’operatore «È necessario che», la seconda
dalla proposizione retta dall’operatore ed esprimente «Il fatto che i
viventi muoiono». Convenendo di indicare l’operatore modale della
necessità con ❑ (simbolo detto per ovvi motivi «scatola») e con p
la seconda parte della proposizione, la (45) può essere formalizzata
nella formula seguente:

(44°) !p

Si noti la somiglianza strutturale con la negazione di p, ¬p. Ep-


pure ❑ e ¬ sono operatori diversi. Mentre il valore di verità della
negazione di p è funzione del valore di verità di p, non è sufficiente
sapere che è vero che i viventi muoiono per dire che la loro morte
è necessaria. È indispensabile sapere qualcosa di più. È indispen-
sabile sapere che la morte è legata costitutivamente alla natura dei
viventi, è, cioè, una proprietà dei viventi in tutti i mondi possibili in
cui questi vengano a trovarsi. Il fatto che la verità di una proposi-
zione avente la forma di una necessitazione come la (44) dipenda
non solo dalla verità di p nel mondo attuale, ma anche dalla verità
di p in tutti i mondi possibili è alla base, del resto, della seguente –
naturale – definizione di verità delle proposizioni aventi la forma di
necessitazione:

! p = V se e solo se p = V in tutti i mondi possibili

72
Introduzione al linguaggio formale

Dati i rapporti tra l’operatore modale della necessità ed altri


operatori modali come, ad esempio, quello della possibilità, è pos-
sibile dare una definizione corrispondente della verità di proposi-
zioni aventi la forma di possibilitazione. Dal momento che la pos-
sibilità di p coincide con la non necessità della negazione di p, la
verità di «È possibile che p» (in simboli ! p ) si può definire nella
maniera seguente:

! p = V se e solo se p = V in qualche mondo possibile

La definizione sopra data di verità di una formula necessitata è


utile anche per un’altra ragione. Da essa risulta la validità del se-
guente principio modale di riflessività della necessità:

!p → p

All’insieme di tutti i mondi possibili, infatti, appartiene anche il


mondo attuale. Perciò, se ! p è vera nel mondo attuale – ossia p è
vera in tutti mondi possibili – p sarà vera anche nel mondo attuale,
il che equivale a dire che la verità di p è condizione necessaria della
verità di ! p, cioè ! p → p.
È da notare, infine, che gli operatori modali appena presi in
considerazione sono detti anche operatori modali aletici (o ontici).
Essi, infatti, come tutti gli operatori che vedremo tra poco, sono
espressivi delle modalità dell’essere vero delle proposizioni relative.
In questo caso, però, si tratta di modalità concernenti l’ordine dell’es-
sere e, perciò, sono opportunamente denominati aletici (o ontici).

2) Contesti deontici
Si consideri la proposizione:

(45) «È obbligatorio che i cittadini paghino le tasse»

Analogamente a sopra, anche nella (45) si possono distinguere


nettamente due parti: la prima è costituita dall’operatore «È obbli-

73
Capitolo primo

gatorio che», la seconda dalla proposizione retta dall’operatore ed


esprimente il contenuto dell’obbligo. Convenendo di indicare
l’operatore deontico dell’obbligo con O e con p il suo contenuto, la
(45) può essere formalizzata – del tutto similmente a sopra – nella
formula:

(45°) Op

Ebbene, anche nel caso della (45) non basta sapere che i cittadi-
ni pagano le tasse per inferire che allora è obbligatorio pagarle.
Non sempre ciò che gli uomini fanno è indicativo di ciò che devo-
no fare. La verità di proposizioni aventi, come la (45), la forma di
obbligazione dipende, in effetti, da qualcosa di diverso o di aggiun-
tivo rispetto alla mera verità di p. Essa non dipende dalla verità di p
in tutti i mondi possibili – come nel caso della necessità –, ma dalla
verità di p in tutti i mondi possibili che si possono considerare
idealmente buoni (rispetto a qualche ordinamento assiologico).
Così che la definizione di verità di una obbligazione risulta essere
la seguente:

Op = V se e solo se p = V in tutti i mondi possibili idealmente


buoni (rispetto a qualche ordinamento assiologico)

Naturalmente, molti sono gli operatori deontici diversi dal-


l’obbligo e molti di questi sono interdefinibili – come l’operatore
del permesso P che sta all’operatore dell’obbligo come la possibili-
tà sta alla necessità. Essi sono tutti caratterizzati dal fatto di con-
cernere modalità afferenti all’ordine ideale del dover essere, così come
gli operatori modali riguardavano le varie modalità aletiche relative
all’ordine dell’essere. L’ambito dei contesti deontici, per quanto
meno studiato di quello modale, è forse anche più ricco e vario.
Ciò dipende dal fatto che il concetto di ordinamento assiologico –
che sta alla base della costituzione dei cosiddetti mondi buoni – è
multivoco. Non solo ci sono ordinamenti diversi per contenuto ma
anche per tipologia. Per esempio, un conto sono gli ordinamenti
soggettivi (vale a dire gli ordinamenti costituiti dalle preferenze del

74
Introduzione al linguaggio formale

soggetto) ed un altro gli ordinamenti oggettivi (vale a dire gli ordi-


namenti dei valori a cui il soggetto è tenuto ad attenersi).
La nozione di ordinamento assiologico – e la conseguente no-
zione di mondo buono – è talmente plastica, da prestarsi ad espri-
mere anche l’ordinamento delle preferenze di un soggetto in situazio-
ne, ossia quell’ordine delle preferenze del soggetto che – indipen-
dentemente dalla conformità all’ordinamento assiologico oggettivo
o ad ordini preferenziali del soggetto in altre situazioni – è capace
di muoverlo all’azione e, se non ci sono impedimenti esterni, con-
duce effettivamente alla realizzazione di questa. In tale interpreta-
zione – cioè se l’ordinamento che stabilisce la bontà dei mondi
ideali nella definizione della verità di un obbligo è di quest’ultimo
tipo –, l’obbligo definito cessa, addirittura, d’avere il significato
normativo «È obbligatorio che», che normalmente gli compete.
Esso, piuttosto, acquista il significato di «È ottimale che». Data
l’importanza per il seguito di questa accezione dell’operatore d’ob-
bligo, conviene fin d’ora indicarla attraverso un segno specifico
(l’operatore di ottimalità Ot a due posti – uno per soggetti agenti e
l’altra per lettere proposizionali –) e formularne la relativa clausola
di verità:

Ot (x , p) = V se e solo se p = V in tutti i mondi buoni (rispetto


all’ordinamento preferenziale in situazione del soggetto x)

Come si è appena detto, la formulazione esplicita dell’operatore


di ottimalità ci tornerà utile più avanti. Essa è utile però anche nel
contesto della presente riflessione, perché suggerisce di mettere a
fuoco il tema della validità o meno del principio di riflessività rela-
tivamente all’operatore d’obbligo. Chiediamoci, infatti, se è sensato
ritenere che valga il principio Op → p. Secondo le usuali interpre-
tazioni dell’operatore deontico – interpretazioni di natura ideale –,
è del tutto scontata la non validità del principio. Esso non vale per
il fatto che, data la natura ideale dei mondi buoni, non è per niente
garantito che di essi faccia parte proprio il mondo attuale. Non
solo non è necessario che il meglio esista, ma non esiste neppure
nessuna propensione che esso abbia luogo. Al contrario – ma que-

75
Capitolo primo

sto consegue dalla specificità di significato dell’ordinamento prefe-


renziale soggettivo in situazione –, se un’azione appare ottimale ad
un certo agente e non ci sono cause impedienti a che egli la realiz-
zi, allora l’azione è prodotta. Per l’operatore di ottimalità vale, cioè,
il seguente principio di riflessività condizionata (ove le costanti ca e
cni stanno per l’appunto a significare rispettivamente la condizione
di accettazione dell’ordinamento preferenziale in questione e la
condizione di non impedimento):

(Ot (x , p) ∧ ca ∧ cni ) → p

3) Contesti epistemici
Consideriamo la proposizione:

(46) «Giovanni crede che il libro sia suo»

Anche la (46) si può dividere in due parti: la prima – «Giovanni


crede che» – svolge la funzione di un particolare operatore nei
confronti della seconda – «Il libro è suo» –. Tale funzione è parti-
colare per due motivi. Innanzitutto, per il fatto che il verbo di cre-
dere che compare nell’espressione denota una modalità che non
riguarda il pensato (ciò che è oggetto del pensiero e perciò concerne
l’essere, il dover essere, l’essere ideale, l’immaginario e così via), ma
il pensiero stesso. È questa la ragione per la quale si tratta di opera-
tore epistemico, di operatore, cioè, che riguarda l’ordine del conoscere.
La funzione della prima parte è, inoltre, singolare per il fatto di
contenere il soggetto «Giovanni» come argomento. In altri termini,
la (46) si può interpretare come una particolare relazione a due po-
sti tra persone e proposizioni. Il posto delle proposizioni è occupa-
to nella (46) dalla seconda parte dell’intera proposizione. La prima
parte è occupata, invece, dal soggetto «Giovanni». In tal modo la
(46) diventa:

(46°) C( g , p)

76
Introduzione al linguaggio formale

Se, a questo punto, al posto di g si mette il segno per un generico


soggetto conoscente x, si ottiene una formula del tutto simile a
quella contenente l’operatore di ottimalità introdotta sopra. In en-
trambe le formule la variabile x svolge la funzione di un parametro
eliminabile.
Ebbene, è facile vedere che anche l’operatore di credenza è un
operatore intensionale. La verità della (47) è, in effetti, del tutto
indipendente dal fatto che il libro di cui parla Giovanni sia effetti-
vamente suo o meno. Inoltre, anche gli operatori epistemici sono
molteplici e diversi per significato. Ad esempio, l’operatore episte-
mico per eccellenza è l’operatore del sapere, il quale presenta so-
stanziali differenze rispetto all’operatore di credenza; esistono, poi,
operatori della credenza di diversa forza. Si danno forme molto
deboli di credenza, come «il presumere», «l’opinare» e si dà anche
la forma forte del credere come «tener per vero», vale a dire del-
l’«essere convinto». Particolarmente importante – in sé e per noi –
è quest’ultima forma di credenza. Essa si può caratterizzare attra-
verso la semantica dei mondi possibili, a cui si è fatto ricorso anche
sopra. Ora, però, i mondi si devono interpretare come rappresenta-
zioni diverse della medesima realtà da parte di un generico soggetto
conoscitivo, di modo che si può dire che x tenga per vero p quan-
do p compare in tutte le rappresentazioni del mondo ammesse da
x. Vale a dire:

C(x , p) = V se e solo se p = V
in tutte le rappresentazioni del mondo ammesse da x

Si rifletta, un po’, su questa definizione. Essa implica che tra le


rappresentazioni del modo da parte di x ci sia anche la rappresen-
tazione fedele, veritiera del mondo? La risposta alla domanda è
negativa, in quanto non è posta alcuna condizione sull’insieme del-
le rappresentazioni che x si fa del mondo. Quindi non è detto che
tra di esse ci sia la rappresentazione fedele. È questa la ragione del
fatto che l’operatore di credenza non soddisfa il principio di rifles-
sività relativo: C(x , p) → p. È del resto altamente intuitivo che il

77
Capitolo primo

principio non valga, dal momento che l’esser convinti di qualcosa


non assicura di trovarsi effettivamente nel vero.
Invece, il principio di riflessività vale per l’operatore del sapere:
S(x , p) → p. Sapere qualcosa, infatti, implica che il contenuto del
sapere sia anche vero. Il principio è giustificabile anche a partire
dalla definizione formale di verità per un enunciato epistemico (in
senso stretto). La definizione della verità di S(x , p) si ottiene, infat-
ti, da quella per espressioni di credenza, ponendo la condizione
che all’insieme delle rappresentazioni del mondo appartenga anche
la rappresentazione veritiera. Ponendo cioè:

S(x , p) = V se e solo se p = V in tutte le rappresentazioni del


mondo ammesse da x (sotto la condizione che all’insieme di tali
rappresentazioni appartenga anche quella veritiera)

Lo studio dei principi di riflessività per gli operatori epistemici


è molto utile alla luce del significato che questi rivestono nella
formalizzazione del problema gnoseologico della affidabilità delle
procedure conoscitive. Il tema della affidabilità è, infatti, stretta-
mente connesso con quello della fallibilità o meno del sapere e con
il problema della possibilità dell’errore. In questa prospettiva ci si
può, ad esempio, sensatamente chiedere come sia possibile il fe-
nomeno dell’errore se, come si è visto sopra, l’operatore del sapere
è per definizione riflessivo e sembri denotare pertanto, almeno
prima facie, una forma di conoscenza infallibile. È chiaro, infatti, che
mentre per le forme di credenza l’errore è definibile come una si-
tuazione in cui è vero C(x , p) ∧ ¬p, lo stesso non può accadere
con il sapere, dal momento che S è riflessivo e, pertanto, una situa-
zione come S(x , p) ∧ ¬p è logicamente esclusa. Il fatto che il sa-
pere implichi definitoriamente la verità non impedisce tuttavia che
la fallibilità - esclusa nella forma sopra dichiarata - compaia ad altro
livello. Se è vero, infatti, che non è possibile trovarsi nella situazio-
ne descritta dalla congiunzione S(x , p) ∧ ¬p, è comunque possibile
credere erroneamente di trovarsi in una situazione di sapere. Usan-
do il linguaggio formale, mentre è escluso S(x , p) ∧ ¬p, è possibile
C(x , S(x , p)) ∧ ¬S(x , p).

78
Introduzione al linguaggio formale

4) Contesti intenzionali
Si dicono contesti intenzionali i contesti linguistici caratterizzati
da operatori come «x vuole» (operatore del volere) o «x intende».
Gli operatori del secondo tipo sono meno forti del primo, nel sen-
so che essi rappresentano atteggiamenti intenzionali meno deter-
minati. Nel seguito noi faremo essenzialmente uso dell’operatore
di volontà, il che ci esime da ulteriori dettagli espositivi altrimenti
necessari per evidenziare le differenze.
L’operatore di volontà presenta una struttura analoga a quella
degli operatori epistemici. L’espressione:

(47) x vuole che p

diventa:

(47°) V(x , p)

ove V è chiaramente un operatore biargomentale con primo


argomento costituito dal soggetto di volizione e con secondo co-
stituito dal contenuto della volizione.
A questo punto, si potrebbe introdurre una definizione della
verità di espressioni come la (47) analoga a quelle introdotte sopra,
ad esempio, per le proposizioni epistemiche. Noi, tuttavia, segui-
remo un altro metodo. Definiremo l’operatore del volere attraverso
l’operatore di ottimalità posto entro il raggio d’azione di un opera-
tore di credenza. Noi partiamo, infatti, dall’idea che un contesto
intenzionale nasca dall’inserimento di un particolare contesto
deontico – quello stabilito dall’operatore di ottimalità – entro il
contesto delle credenze del soggetto. Si richiami il significato del-
l’operatore di ottimalità. Ot (x , p) significa che p è ottimale rispet-
to all’ordinamento preferenziale in situazione (cioè completo ri-
spetto a tutto ciò che è rilevante per la valutazione concreta di p) di
x. Ma, allora, volere p da parte di x non vuol dire altro che accettare
tale ottimalità, lasciarla apparire, in una parola tenerla per vera, esse-

79
Capitolo primo

re convinti che l’ordinamento che ne sta alla base sia quello da se-
guire concretamente. Formalmente:

V(x , p) se e solo se C(x ,Ot (x , p))

Si noti la peculiarità del rapporto che attraverso tale equivalenza


si istituisce tra volizione e convinzione di ottimalità. La volizione è
convinzione di ottimalità: non è possibile volere qualcosa che alla
fin fine – «tutto sommato» – non si giudica ottimale rispetto alle
proprie preferenze. D’altro lato non è possibile giudicare ottimale
rispetto alle proprie preferenze concrete qualcosa che non si vuole.
Entro il contesto di tale teoria del volere è, infine, naturale
chiedersi, qual è il rapporto diretto tra V(x , p) e Ot (x , p). A tale
domanda si risponde ponendo a confronto Ot (x , p) direttamente
con C(x ,Ot (x , p)). Si tratta allora di riflettere sul fatto se Ot (x , p)
è opaco rispetto alla credenza di x (È possibile che p sia ottimale per
x senza che ciò appaia al soggetto?) e se la credenza di ottimalità
possa essere ingannevole (È possibile che al soggetto appaia ottimale
ciò che non lo è?). Ci pare, innanzitutto, che sia impossibile l’ulti-
mo caso: se il soggetto è convinto che p sia ottimale per lui, allora è
effettivamente tale. Infatti, C(x ,Ot (x , p)) – ovvero V(x , p) – con-
siste nell’accettare – ovvero nel lasciar apparire – da parte di x quel
particolare ordinamento preferenziale in base al quale p è ottimale
per x, il che presuppone che effettivamente p sia tale. Si può dare il
caso, però, che p sia effettivamente ottimale per x, senza che di ciò
sia consapevole x. È possibile, cioè, che dall’ordinamento prefe-
renziale condiviso da x più qualche condizione di ordine aletico c
segua l’ottimalità di p e che, tuttavia, tale ottimalità non sia consa-
puta da x perchè x è all’oscuro di c. Per questo, non si può esclude-
re che Ot (x , p) sia opaco rispetto alla credenza di x.
Un’ultima osservazione. Il rapporto tra Ot (x , p) e V(x , p) è la
ragione del fatto che anche per l’operatore di volontà valga un
principio di riflessività condizionata isomorfo a quello sopra in-
trodotto per l’operatore Ot (x , p). Vale per l’appunto il principio:
V(x , p) ∧ cni → p (ove la costante cni sta a significare la condi-

80
Introduzione al linguaggio formale

zione, sopra introdotta, di non impedimento, mentre la condizione


di accettazione ca è, ora, assorbita dall’operatore di credenza).

2.5.2. Per una classificazione dei linguaggi


Come i contesti linguistici sono caratterizzati dagli operatori
logici che in essi occorrono, così anche in generale i linguaggi. Ma
gli operatori logici hanno la funzione di fissare le modalità del dire
(conoscere) e del detto (realtà di cui si parla). Anche i linguaggi,
dunque, possono essere classificati in base agli operatori logici che
li contraddistinguono, ovvero in base alle modalità che a questi
corrispondono. La classificazione che ne risulta segue con rigore
l’intima logica della teoria delle modalità condivisa nell’analisi degli
operatori e dei contesti linguistici relativi. Nella pagina seguente è
presentato uno schema classificatorio dei linguaggi che si ispira
all’analisi, condotta nel paragrafo precedente, dei vari contesti in-
tensionali. Oltre alle distinzioni fatte, lo schema che segue tiene
conto anche di una distinzione che ha tutto l’aspetto di una oppo-
sizione. Si tratta della distinzione/opposizione tra i linguaggi de-
scrittivi (o aletici in senso lato (i.s.l.)) e i linguaggi prescrittivi (o
normativi) legittimata dalla cosiddetta legge della dicotomia tra fat-
ti e valori o legge di Hume. In questa prospettiva, tra i linguaggi
descrittivi sono naturalmente da annoverare non solo i linguaggi
aletici in senso stretto (i.s.s.) – i quali riguardano le modalità del-
l’essere in senso stretto, ovvero il non-io –, ma anche le modalità
epistemiche ed intenzionali – le quali si riferiscono a quelle partico-
lari forme d’essere che sono gli stati dell’io. Complessivamente,
dunque, le modalità dell’essere in senso lato si contrappongono alle
modalità normative (o deontiche in senso lato) del dover essere.

81
Capitolo primo

Compo-
nenti lin-
Linguaggio Modalità
guistiche
tipiche

Aletiche o ontiche
Aletico (essere i.s.s. = realtà =
❑p, p
(i.s.s.) pensato ≠
pensiero

Descrit-
C(x, p),
tivo epistemiche
Epistemico S(x, p),
(Aletico (conoscere = pensiero)
...
i.s.l.)

V(x, p), intenzionali


Intenzionale ... (volontà)

Assiologico P(x, p) (p è positivo per x)

Prescrit-
tivo normative
(Norma- (dover essere)
tivo)

Deontico Op, Ot p

82
Introduzione al linguaggio formale

3. Preliminari al linguaggio e calcolo formali

3.1. Da LS al linguaggio dei predicati L


Giunti a questo punto, possiamo dire di aver preso in conside-
razione tutti gli elementi di LS che presentano un interesse tipico
in vista della costruzione del calcolo dei predicati di cui ci occupe-
remo nel corso di questo volume. Siamo, cioè, pronti per passare
da LS allo specifico linguaggio formale L dei predicati e alla suc-
cessiva costruzione del calcolo relativo.
In particolare, l’introduzione è sufficiente per quanto concerne
il fenomeno della quantificazione. Infatti, il calcolo che affronte-
remo tematicamente nel corso dei capitoli seguenti è il calcolo dei
predicati del primo ordine, vale a dire il calcolo caratterizzato dalla
quantificazione delle sole variabili individuali. Soltanto in linguaggi
d’ordine superiore è prevista l’esistenza di variabili d’ordine più
alto e la relativa quantificazione. Per esempio, la proposizione:

(48) «Se due individui sono caratterizzati dalle stesse proprietà,


allora sono identici»

è una espressione del linguaggio del secondo ordine, in quanto in


essa si quantifica sull’insieme delle proprietà. Formalizzando si ot-
tiene, infatti:

(48°) ∀x∀y(∀P(Px ↔ Py ) → x = y )

da cui è facile rendersi conto che il terzo quantificatore opera su


una variabile predicativa e non su una individuale. Ebbene, propo-
sizioni del tipo di (48) non sono state trattate in LS, dal momento
che L sarà un linguaggio dei predicati del primo ordine.
In realtà, gli elementi toccati in LS sono in numero maggiore
rispetto a quelli di cui avremo effettivamente bisogno nella costru-
zione di L. In L, infatti, giocano un ruolo solo i connettivi esten-
sionali e i quantificatori. Non ci si occupa dell’identità e non è pre-

83
Capitolo primo

vista la trattazione di altri operatori, come, ad esempio, quelli in-


tensionali presi in considerazione appena sopra. Ciò è essenzial-
mente motivato da ragioni di semplicità, anche se è bene essere
consapevoli della perdita di espressività e di capacità di calcolo che
la restrizione a sole determinate categorie di segni logici necessa-
riamente comporta.
D’altro lato, nella elaborazione di L non si terrà conto, neppure,
dei nomi propri (costanti individuali) e ci si limiterà esclusivamente
all’uso delle variabili individuali. A fortiori, poi, non si terrà conto di
elementi linguistici – che normalmente figurano nella costruzione
del linguaggio dei predicati –, ma che non sono stati trattati esplici-
tamente nel corso della elaborazione di LS. In questo senso, è da
notare che sia il linguaggio naturale sia quelli formali contengono
usualmente termini di complessità maggiore rispetto a quelli presi
in considerazione nel presente lavoro. Ci sono, ad esempio, termini
che, pur svolgendo al pari dei soggetti la funzione di designare in-
dividui, sono più complessi di questi, in quanto il rapporto di desi-
gnazione oggettuale da loro istituito non è tale in quanto nomi del-
l’oggetto relativo ma in quanto descrizioni definite dello stesso. Tra
questi ci sono ad, esempio, termini funzionali come «il maestro di
Aristotele» o «il prodotto di 3 con 4». Anche di termini cosiffatti
non abbiamo tenuto conto per ragioni di semplicità. Tuttavia, an-
che se un linguaggio dotato di termini funzionali (numerici) sarà
introdotto nel capitolo 4, vale la pena di mostrare che l’omissione
di tali termini – così come delle costanti individuali – non costituisce
una reale perdita. Il linguaggio formale che ci accingiamo a costrui-
re – semplicemente allargato all’uso dell’identità – consente, infatti,
in ogni caso la traduzione delle espressioni contenenti nomi propri
o termini complessi in espressioni contenenti solo variabili oppor-
tunamente quantificate. In altre parole, tali termini risultano elimi-
nabili attraverso un uso appropriato della teoria della quantifica-
zione. Cerchiamo di illustrare in dettaglio la tecnica di eliminazione
dei nomi propri e delle descrizioni definite.
Definiamo, innanzitutto, l’operatore esistenziale unico: ∃!x
Supponiamo di voler dire che:

84
Introduzione al linguaggio formale

(49) «Esiste un unico filosofo»

A tale scopo è sufficiente dichiarare che:

(50) «Esiste almeno un x che è filosofo e


per ogni y che è filosofo y è identico a x»

La formalizzazione di (50) è, perciò:

(50°) ∃x(Fx ∧ ∀y(Fy → y = x ))

Ma allora, ponendo ∃!xFx come accorciamento di ∃x(Fx ∧


∀y(Fy → y = x )), la (49) risulta tradotta in:

(49°) ∃!xFx

Una volta introdotto l’operatore di esistenzializzazione unico è


possibile eliminare qualsiasi nome proprio. Sia data, ad esempio, la
proposizione:

(51) Socrate è filosofo

Essa può essere tradotta nella seguente: «Esiste un unico indivi-


duo caratterizzato dalla proprietà d’essere Socrate e tale individuo
è filosofo», che, formalizzata, assume la forma seguente:

(51°) ∃!x(Sx ∧ Fx )

A questo punto, però, la tecnica può essere generalizzata anche


al caso delle descrizioni definite. Sia data, infatti, la proposizione:

(52) Platone è il maestro di Aristotele

Essa diventa: «Esiste un unico x caratterizzato dalla proprietà


d’essere Platone ed esiste un unico y caratterizzato dalla proprietà

85
Capitolo primo

d’essere Aristotele tali che x è maestro di y e ogni z che sia maestro


di y è identico a x», che formalizzata assume la forma seguente:

(52°) ∃!x(Px ∧ ∃! y( Ay ∧ M(x , y ) ∧ ∀z( M(z , y ) → z = x )))

Come è facile vedere, la tecnica è del tutto generale, sì da poter


concludere che, allo scopo di esprimere termini di complessità ar-
bitraria, nel linguaggio dei predicati sono essenziali solo le variabili,
i quantificatori e il segno dell’identità.
Dal momento che, nel passaggio da LS a L, i segni appartenenti
ad alcune categorie logiche sono messi tra parentesi e ci si limita
alla costruzione di un linguaggio più ristretto di LS, ci si può chie-
dere per quale ragione nell’introduzione ci si è attenuti ad un livello
di analisi più ampio e ricco. La risposta è, però, scontata. In primo
luogo, LS costituisce il passo preliminare a un linguaggio formale
qualsiasi e, come è noto, i linguaggi si differenziano proprio per il
tipo di segni in essi contenuti. In secondo luogo, anche se deter-
minate categorie di segni sono eliminabili, è bene mostrare come
esse risultino tali. Infine, esiste un terzo motivo, legato al piano del
nostro lavoro. LS contiene molti elementi utili per farne uso anche
a livello «metalinguistico», vale a dire, come si vedrà nel prossimo
paragrafo, in quel linguaggio in cui «si lavora» alla costruzione dei
singoli calcoli logici e alla dimostrazione dei teoremi che valgono
per essi. Ora, tra questi elementi ci sono non solo i connettivi e i
quantificatori, ma, ad esempio, anche segni per termini particolari e
il simbolo dell’identità. Naturalmente, è importante tener conto
con chiarezza dei diversi usi di LS e ciò, in particolare, rispetto al-
l’uso dei segni che compaiono sia a livello metalinguistico sia a
quello linguistico. A tale scopo, quando LS viene usato a livello
metalinguistico, i simboli non, et, vel, ⇒, ⇔, (ex x) e (om x) rim-
piazzeranno rispettivamente i segni ¬, ∧, ∨, →, ↔, ∃x e ∀x, in
modo tale che sia sempre possibile distinguere il livello – e quindi il
rispettivo ruolo – in cui sono impiegati. Altri eventuali segni del lin-
guaggio metateorico (in ispecie simboli del linguaggio insiemistico)
saranno introdotti e definiti mano a mano che ce ne sarà bisogno.

86
Introduzione al linguaggio formale

Quanto, però, si è appena affermato sia sul fatto che da LS si


può muovere per costruire il calcolo dei predicati sia circa la distin-
zione tra piano metateorico e quello teorico, ci obbliga a dire qual-
cosa su ambedue le questioni.

3.2 Distinzione tra teoria e metateoria e tra sintassi e semantica


In breve, come si è già anticipato nella introduzione storico-
tematica, una teoria si può considerare un linguaggio che parla di
un universo di oggetti: T = 〈L ,U 〉. Di una teoria, però, non si par-
la normalmente nella teoria stessa. Nella teoria, infatti, si parla de-
gli oggetti appartenenti ad U e non di L o del rapporto tra L ed U.
Il luogo linguistico in cui si parla di quest’ultime cose è la metateo-
ria di T, ossia quella teoria in cui il linguaggio L ' (o metalinguag-
gio, mentre L è il linguaggio-oggetto) parla di T stessa
( MT = 〈L ',T 〉) . Ma nel parlare di T si possono assumere due
punti di vista: uno consistente nel considerare le caratteristiche di
L a prescindere dai significati che le varie componenti assumono
rispetto a U; l’altro consistente nello studiare proprio il rapporto
tra L ed U. Se si assume il primo punto di vista si fa sintassi; se si
assume il secondo si fa semantica. Che tale distinzione sia fonda-
mentale in logica risulta anche dal solo fatto che essa fornisce uno
strumento essenziale per approfondire ulteriormente il concetto di
teoria. Richiamando anche qui quanto già anticipato nell’introdu-
zione storico-critica, una teoria, infatti, non è, di norma, un lin-
guaggio qualsiasi, ma è un linguaggio organizzato. Più precisamen-
te, le proposizioni di una teoria sono normalmente divise in due
gruppi: da una parte stanno le proposizioni fondamentali della teo-
ria, ossia gli assiomi; dall’altra stanno tutte le proposizioni che si
possono ottenere a partire dagli assiomi, ossia i teoremi. In tal modo
la teoria si presenta come un insieme sistematico di proposizioni cor-
relate tra di loro da un preciso nesso di natura logica. Ebbene, la
distinzione tra piano semantico e sintattico è rilevante proprio in
riferimento alla determinazione di tale nesso. Che cosa vuol dire,
infatti, proposizione ottenibile dagli assiomi? Se ci si pone dal pun-

87
Capitolo primo

to di vista semantico il nesso in questione può essere letto come


nesso di conseguenza logica (tutte le volte che gli assiomi sono veri
allora anche i teoremi lo sono); se invece ci si pone dal punto di
vista sintattico quel nesso diventa il nesso di derivabilità logica. Se fin
d’ora conveniamo di indicare il primo nesso con il segno «  » e il
secondo con «  », allora la nozione di teoria può essere riproposta
nelle due forme seguenti: T = 〈 Assiomi, 〉 e T = 〈 Assiomi, 〉.
Non possiamo però dichiararci soddisfatti di queste definizioni,
fino a che non è rigorosamente chiarito il significato di  e di  .
Se da una parte, infatti, la definizione data sopra di conseguenza
logica è oscura e sicuramente non fruibile così come è stata propo-
sta, ancora peggiore è la situazione per il nesso di derivabilità. Non
si può avere un’idea precisa di quel nesso se non si fornisce un cal-
colo che permetta di ricavare in maniera puramente sintattica i teo-
remi dagli assiomi. Di qui la domanda: che cosa è un calcolo o si-
stema logico? Le pagine seguenti sono dedicate alla presentazione
del calcolo dei predicati C. C è costituito da un linguaggio L e da
un insieme di regole deduttive D. Cioè C = 〈L , D〉. L, d’altra par-
te, è dato da un alfabeto A e dalle regole di formazione delle for-
mule F. Cioè L = 〈 A, F 〉. Il linguaggio in cui si costruisce C e si
dimostrano i teoremi che esprimono le proprietà di C è il metalin-
guaggio di cui si parlava sopra.

88
Capitolo secondo

Logica dei predicati (sintassi)

1. Linguaggio dei predicati


Formalmente un linguaggio è dato da un alfabeto (A) e dalle re-
gole di formazione (F) delle formule (o proposizioni): L = 〈 A, F 〉 .

1.1. Alfabeto
Quattro sono le categorie di segni.

a) Variabili individuali: x 1 , x 2 , x 3 ,...


Usiamo i segni x , y, z (ed eventuali altre lettere dell’alfabeto
latino) come segni metateorici per indicare variabili individuali. Es-
si svolgono la stessa funzione dei segni teorici primitivi che rappre-
sentano. Essi vengono usati al loro posto perché consentono di
fare a meno degli indici numerici.

b) Costanti predicative

P11 , P21 , P31 ,...


P12 , P22 , P32 ,...
P13 , P23 , P33 ,...
...

89
Capitolo secondo

Si tratta dei segni per proprietà o relazioni. In generale, Pkn è la


k-esima costante predicativa ad n posti (costante predicativa n-adi-
ca) ed indica una relazione tra n individui. L’espressione P n , o an-
cora più semplicemente P, sta per una costante predicativa ad n
posti (per qualche n) generica.

c) Segni logici
1) Connettivi proposizionali: ¬ (negatore), ∧ (congiuntore),
∨ (disgiuntore), → (implicatore)
2) Quantificatori: ∀ (quantificatore universale),
∃ (quantificatore esistenziale)

d) Segni ausiliari: Parentesi ( , )

1.2. Regole di formazione


Ci sono due categorie di regole di formazione: regole di forma-
zione per termini FT e regole di formazione per formule FF.

a) FT: regole di formazione dei termini


Le regole di formazione dei termini coincidono con le clausole
che definiscono la nozione di termine. Ora i termini sono segni
per individui (costanti individuali o termini funzionali) o segni che
stanno al posto di questi (posti vuoti per segni di individui), cioè le
variabili individuali. Ma, in conformità alle osservazioni del para-
grafo 3 del primo capitolo, nel nostro linguaggio sono presenti so-
lo quest’ultime. Perciò FT è costituita dalla sola clausola seguente:
le variabili individuali x , y,z ,... sono termini.

b) FF: regole di formazione delle formule


Le regole di formazione delle formule coincidono con le clau-
sole della definizione di formula. La definizione di formula è una
definizione induttiva. In generale, le definizioni induttive sono for-

90
Logica dei predicati (sintassi)

mate di due parti, la base e il passo dell’induzione. La base è quella


parte dell’induzione in cui si definiscono gli elementi base (quelli
più semplici) della categoria (nozione) che si vuole definire. Il pas-
so è, invece, quella parte dell’induzione in cui sono definiti gli ele-
menti più complessi della medesima categoria (nozione). La defini-
zione degli elementi complessi avviene nella maniera seguente: si
suppone che siano già definiti gli oggetti di complessità minore
rispetto a quella degli oggetti da definire (tale assunzione è detta
ipotesi induttiva definitoria) e si dichiara il modo in cui a partire da
quelli si possono costruire (ossia si definiscono) gli oggetti da defi-
nire. Naturalmente questi ultimi sono di complessità superiore ri-
spetto ai primi. Vediamo, dunque, la definizione induttiva di for-
mula:

Base: Pkn x 1 ,..., x n è una formula elementare.

Passo: a) formule molecolari e b) formule quantificate


α e β siano segni per formule. Allora:
a) ¬α è una formula; α ∧ β è una formula; α ∨ β è una formula;
α → β è una formula; nient’altro è una formula molecolare.
¬α è una negazione; α ∧ β è una congiunzione; α ∨ β è una
disgiunzione; α → β è una implicazione.
b) ∀xα è una formula; ∃xα è una formula; nient’altro è una for-
mula quantificata.
∀xα è una generalizzazione o universalizzazione di α , mentre
∃xα è una esistenzializzazione o particolarizzazione di α .

Nel seguito, quali segni standard per formule saranno usate le


lettere minuscole dell’alfabeto greco con eventuali indici: α , β , γ ,...
È importante notare che i segni α , β , γ ,... sono segni metalinguisti-
ci per formule del linguaggio e che essi hanno un valore schemati-
co. Ciò significa che, ad esempio, α sta per una formula generica
di cui non è dato sapere la struttura concreta. Anche l’espressione
linguistica α ∧ β ha un significato schematico, tuttavia la formula

91
Capitolo secondo

non è totalmente generica per il fatto che esibisce la struttura di


una congiunzione anche se tra due congiunti generici. Nel seguito
sarà spesso utile esibire la struttura di una proposizione, afferman-
do, ad esempio, che α è una congiunzione. In questo caso si scri-
verà α ≡ β ∧ γ , ove il segno metalinguistico «≡» sta ad indicare la
coincidenza di un segno (o espressione) del metalinguaggio con un
segno (o espressione) del linguaggio-oggetto o del metalinguaggio
stesso. Per esempio, se con s si vuole indicare il simbolo del lin-
guaggio x1, allora posso scrivere s ≡ x 1 . Similmente, se con s si
vuole indicare il simbolo x1 e con s2 la coppia di simboli Px1, allora
si può scrivere s 2 ≡ Ps.
Esempi di formule si possono ricavare da ognuna delle proposi-
zioni formali costruite nel corso del capitolo precedente.
A questo punto, sono da introdurre alcune importanti definizioni.
1) Quando un segno si trova in una certa α , allora si dice che vi
occorre e si parla di occorrenza in α di quel segno. In particolare,
l’occorrenza di una variabile si distingue in:
(i) occorrenza vincolata: si ha quando x occorre in α e vi
si trova vincolata, vale a dire sotto l’azione di un quan-
tificatore (universale o esistenziale). Per esempio, in
∃xPx x occorre vincolata, perché x compare nella
formula sotto l’azione di un quantificatore;
(ii) occorrenza libera: si ha quando x occorre in α e non vi
si trova vincolata; per esempio, in Px x occorre libe-
ramente, perché non vi si trova sotto l’azione di un
quantificatore né universale né esistenziale.
Naturalmente in una stessa formula si può avere un’occorrenza
della stessa variabile sia libera sia vincolata. Per esempio nella for-
mula ∃xPx ∧ Px. In ∃xPx , infatti, x occorre vincolata; in Px oc-
corre però libera. Si dice, in tal caso, che nella formula c’è un’oc-
correnza vincolata e una non vincolata della stessa variabile.
2) Si dice sottoformula di una formula una parte di essa che è a
sua volta una formula. In senso improprio si dice, talvolta, che una
formula è sottoformula di se stessa.

92
Logica dei predicati (sintassi)

3) Un quantificatore occorra in una certa formula α . Allora si


dice raggio (o ambito) d’azione di quel quantificatore la più piccola
sottoformula di α , in cui si trova quel quantificatore, privata del
quantificatore con relativa variabile (o, equivalentemente, la più
piccola sottoformula che segue quantificatore e variabile relativa).
Consideriamo alcuni esempi:
a) ∃xPx ∧ Py : qual è il raggio d’azione del quantificatore
esistenziale? ∃xPx è la più piccola formula in cui si
trova il quantificatore ∃x. Infatti ∃x non è una for-
mula e neppure ∃xP. Allora ∃xPx è la sottoformula
minima che contiene il quantificatore. Per trovare il
raggio d’azione è quindi sufficiente sottrarre da essa
∃ e la relativa variabile x: si ottiene Px. Pertanto, Px è il
raggio d’azione del quantificatore esistenziale che vin-
cola la x.
b) ∀xP 2 xy : qual è il raggio d’azione del quantificatore
universale? P 2 xy. Infatti la più piccola formula in cui si
trova il quantificatore è la formula stessa e da essa ba-
sta sottrarre quantificatore e variabile relativa.
c) ∀xPx ∧ Px : qui la seconda occorrenza di Px non ap-
partiene al raggio d’azione del quantificatore universale
dato che questo agisce solo fino alla congiunzione.
d) ∀x∃yP 2 xy : il raggio d’azione del quantificatore uni-
versale è ∃yP 2 xy. Infatti ∀x∃yP 2 xy è la più piccola
formula in cui si trova il quantificatore universale (nel-
le altre formule più piccole ∃yP 2 xy e P 2 xy il quantifi-
catore universale non compare). Trovata la formula
più piccola in cui compare ∀x, il raggio d’azione si
ottiene sottraendo ∀x, di modo che, come raggio
d’azione, rimane ∃yP 2 xy. Qual è invece il raggio
d’azione del quantificatore esistenziale? Ovviamente
P 2 xy.
e) ∃y(Px → ∀zP 3 xyz ) : qual è il raggio d’azione del
quantificatore esistenziale che quantifica y? È tutta la

93
Capitolo secondo

formula posta tra parentesi. Infatti, date le parentesi, il


quantificatore non può far corpo con nessuna parte
della formula prima della chiusura della formula stessa,
dal momento che nessuna stringa di segni iniziante
con (... , senza parentesi di chiusura, può essere una
formula e quindi neppure la più piccola sottoformula
che segue il quantificatore. Il raggio d’azione del quan-
tificatore universale che quantifica z è, invece, P 3 xyz.
4) Talvolta è opportuno esplicitare l’occorrenza libera di una
variabile in una formula. Ad esempio x occorra liberamente in α .
Allora si può porre α ≡ α (x ) , cioè si può dire che α coincide con
α (x ). Così α (x ) ≡ Px ∧ ∃yP 2 xy è un’espressione sensata perché in
∃yP 2 xy x occorre liberamente. Invece, non avrebbe senso scrivere
α (x , y ) ≡ Px ∧ ∃yP 2 xy, perché la y occorre nella formula solo vin-
colata. Si potrebbe scrivere α (x , y ) ≡ Px ∧ ∃xP 2 xy, dal momento
che in quest’ultima formula la x compare almeno una volta libera e
la y sempre. Avrebbe anche senso scrivere α (x ) ≡ Px ∧ ∃xP 2 xy,
dal momento che non è necessario esibire tutte le variabili che
hanno nella formula un’occorrenza libera. È sufficiente esibire
quelle che interessano.
5) Le parentesi sono a volte indispensabili per dare un senso
univoco alle formule. Esse si usano secondo le tre seguenti con-
venzioni.
I Convenzione: È sempre legittimo chiudere le sottoformule di una
formula tra parentesi, ove chiudere vuol dire mettere la parentesi
d’apertura e quella di chiusura.
II Convenzione: Si devono usare le parentesi quando esse sono ne-
cessarie per una lettura univoca della formula e ciò avviene quando
i seguenti criteri non sono sufficienti da sé a garantire l’univocità
della lettura:
(1) ∧ e ∨ legano più fortemente di →.
(2) I connettivi biargomentali appartenenti al medesimo
livello di legatura, legano da più a meno a seconda del-
l’ordine di occorrenza.

94
Logica dei predicati (sintassi)

(3) ¬ e i quantificatori fanno blocco con la sottoformula


minima che li segue.
III Convenzione: Si usano comunque le parentesi quando ciò è utile
per rendere la formula più trasparente nel suo significato sintattico.
Consideriamo a questo punto alcuni esempi:
a) Qual è il significato sintattico della formula ¬α ∧ β ? È
(¬α ) ∧ β oppure ¬(α ∧ β ) ? È il primo, perché ¬ fa blocco con
la più piccola formula che lo segue.
b) Similmente, ¬α ∧ ¬β significa (¬α ) ∧ (¬β ), dal momento
che la congiunzione agisce sui blocchi costituiti dalle due negazioni.
c) Similmente, ¬α → β significa (¬α ) → β .
d) Il significato univoco di α ∧ β → γ è (α ∧ β ) → γ , perché ∧
lega più fortemente di →; se uno volesse scrivere al contrario
α ∧ ( β → γ ), allora le parentesi scritte sarebbero necessarie.
e) Il significato di ∃xα → β è (∃xα ) → β , perché il quantifica-
tore fa corpo con la più piccola sottoformula che lo segue; se, al
contrario, si scrive ∃x(α → β ), si vuol significare che il quantifica-
tore agisce sull’intera formula; infatti, date le parentesi, il quantifi-
catore non può far corpo con α da sola, dal momento che (α
non è una formula e quindi neppure la più piccola sottoformula
che segue il quantificatore; quest’ultima in effetti è α → β .
f) ∀x∃yα (x , y ) significa ∀x(∃yα (x , y )) e, in maniera analoga,
¬∃yP 2 xy sta per ¬(∃y(P 2 xy )).
g) Si supponga infine di avere la formula α ∧ β ∧ γ . Quale è il
suo significato sintattico: (α ∧ β ) ∧ γ , oppure α ∧ ( β ∧ γ ) ? Per la
seconda clausola della prima convenzione il significato della for-
mula senza parentesi è (α ∧ β ) ∧ γ . Così, α ∧ β ∧ γ ∧ δ significa
[(α ∧ β ) ∧ γ ] ∧ δ ; così α ∨ β ∧ γ ∧ δ significa [(α ∨ β ) ∧ γ ] ∧ δ ;
α → β → γ → δ significa [(α → β ) → γ ] → δ ; α ∧ β ∧ γ → δ si-
gnifica [(α ∧ β ) ∧ γ ] → δ e α → β ∧ γ ∧ δ è α → [( β ∧ γ ) ∧ δ ].

95
Capitolo secondo

1.3. Teoria della sostituzione


Per avere un’idea di che cosa sia la teoria della sostituzione, è
opportuno partire da qualche esempio di sostituzione: α ( y ) si ot-
tiene, ad esempio, da α (x ) per sostituzione di x con y. Ma da
α (x , y ) è possibile ottenere anche α (z ,z ) sostituendo tanto x
quanto y con z. Quali di queste sostituzioni sono legittime e quali
no? La teoria della sostituzione, oltre a fornire la definizione rigo-
rosa degli operatori di sostituzione, si occupa dei requisiti che le
sostituzioni devono possedere per essere legittime, allo scopo di
consentire la formulazione, attraverso di essi, di regole riguardanti
la sostituzione corrette.
Partiamo da alcune definizioni preliminari.

I) Operatore di sostituzione per termini Δ yx z

Con Δ yx z si intende il risultato della sostituzione di x con y nel


termine coincidente con la variabile z. Naturalmente, se z coincide
con x, il risultato è y; se, al contrario, z è diversa da x, allora la so-
stituzione è nulla e come risultato rimane z. La definizione formale
dell’operatore è perciò la seguente:

⎧⎪ y se z ≡ x
Δ xy z ≡ ⎨
z se z ≡/ x
⎩⎪

II) Operatore di sostituzione per formule α xy

Qui la definizione è induttiva.

Base: α è atomica, vale a dire α ≡ Px 1 ,..., x n . Allora:

( Px ,..., x )
y
1 n x
≡ PΔ xy x 1 ,..., Δ xy x n

Passo: α è molecolare o quantificata

96
Logica dei predicati (sintassi)

a) α molecolare

Se α ≡ ¬α 1 allora (¬α 1 )xy ≡ ¬(α 1 xy )

La definizione è giustificata dalla presenza dell’ipotesi induttiva


definitoria per la quale si può supporre che l’operatore di sostitu-
zione sia già stato definito per α 1 . Sostanzialmente non si è fatto
altro che esportare ¬ e sfruttare il fatto che l’operatore di sostitu-
zione è già definito per α 1 . Similmente:

Se α ≡ α 1 ∧ α 2 allora (α 1 ∧ α 2 )xy ≡ α 1 xy ∧ α 2 xy
Se α ≡ α 1 ∨ α 2 allora (α 1 ∨ α 2 )xy ≡ α 1 xy ∨ α 2 xy
Se α ≡ α 1 → α 2 allora (α 1 → α 2 )xy ≡ α 1 xy → α 2 y
x

b) α è quantificata

1) α ≡ ∀z α 1 . Allora:

⎧⎪ ∀z(α y ) se x ≡/ z
(∀z α ) ≡ ⎨
y
1 x
1 x

⎪⎩ ∀z α 1 se x ≡ z

È da notare che nel secondo caso l’operatore di sostituzione


funziona a vuoto o, come anche si dice, la sostituzione è nulla. In-
fatti se x ≡ z , la variabile da sostituire è vincolata, ossia non più
suscettibile di sostituzione. In altre parole, una variabile libera indi-
ca un posto vuoto; se la variabile è vincolata, quel posto vuoto non
c’é più e la variabile non può essere più sostituita.

2) α ≡ ∃z α 1 . Allora, analogamente a sopra:

97
Capitolo secondo

⎧⎪ ∃z(α y ) se x ≡/ z
(∃z α 1 )xy ≡ ⎨ 1 x

⎪⎩ ∃z α 1 se x ≡ z

Tutte le sostituzioni sono legittime? La risposta è negativa. La


definizione data di operatore di sostituzione dà luogo, infatti, an-
che a sostituzioni illegittime. Per evitare i casi di illegittimità si è
introdotto il seguente criterio:

III) Criterio di sostituzione legittima

La sostituzione di x con y in α è legittima (in simboli Leg α xy )


quando y non viene a trovarsi vincolata a sostituzione avvenuta.
Con l’espressione Leg α xy si intende, cioè, dichiarare che y non si
trova sotto vincolo dopo la sostituzione di x con y.
Vediamo alcuni esempi di sostituzioni:

a) (∀xP n x 1 ,..., x n−1 , x )xy1 ≡ ∀x(P n y, x 2 ,..., x n−1 , x )

La sostituzione è anche legittima. Vale cioè:

Leg (∀xP n x 1 ,..., x n −1 , x )xy1

b) (∀xP n x 1 ,..., x n −1 , x )xy ≡ ∀x(P n x 1 ,..., x n −1 , x )

Qui la sostituzione è nulla. Per questo la condizione per la legit-


timità è automaticamente soddisfatta. Infatti, per essere illegittima
una sostituzione deve aver luogo. Ma nell’esempio la sostituzione
non avviene, quindi non c’è illegittimità. Quando la sostituzione è
nulla è comunque legittima:

Leg (∀xP n x 1 ,..., x n −1 , x )xy

c) (∀xP n x 1 ,..., x n −1 , x )xx1 ≡ ∀x(P n x , x 2 ,..., x n −1 , x )

98
Logica dei predicati (sintassi)

Nel presente caso:

non Leg (∀xP n x 1 ,..., x n −1 , x )xx1

in quanto la x, dopo la sostituzione, viene a trovarsi vincolata dal


quantificatore universale presente nella formula.

2. Calcolo C dei predicati

2.1. Preliminari
Con il precedente paragrafo si è conclusa la presentazione di L.
Ora passiamo alla costruzione del calcolo costituito da L e dall’in-
sieme D delle regole deduttive: C = 〈L , D〉. La prima nozione che
dobbiamo introdurre è quella di sequenza di formule. Innanzitutto,
per sequenza si intende una riga costituita da una formula sulla
destra e da un insieme di formule (possibilmente anche infinito)
sulla sinistra, per cui, se gli insiemi di formule si indicano con lette-
re latine maiuscole X, Y, Z, ..., una sequenza ha la seguente confi-
gurazione: X α , ove X è detto antecedente o insieme delle assun-
zioni della sequenza mentre α è detta conseguente della stessa. Una
sequenza, poi, è detta derivabile, e si scrive X  α , quando quella
sequenza è ottenibile in base alle regole del calcolo. In C ci sono
regole che permettono di scrivere sequenze senza richiedere la de-
rivazione di altre. Queste regole si dicono a zero premesse. Ce ne
sono, poi, a una o due premesse. Sono quelle che permettono di
derivare sequenze solo se sono state già derivate rispettivamente
una o due sequenze appropriate. Le regole si indicheranno scri-
vendo sopra le premesse e sotto, staccata da una linea, la sequenza
da derivare (conclusione).
Prima di passare alla presentazione delle regole di C è bene pre-
cisare quanto segue:
1. Dato che l’antecedente è un insieme (non ordinato) di for-
mule, nelle sequenze non è essenziale l’ordine con cui le assunzioni

99
Capitolo secondo

occorrono nell’antecedente. Per questo motivo la permutazione


dell’ordine delle singole assunzioni non toglie alla sequenza l’even-
tuale carattere di derivabilità che essa possiede.
2. Similmente una sequenza in cui le assunzioni compaiono nel-
l’antecedente con ripetizione, ha lo stesso valore della sequenza
con stesso conseguente e stesse assunzioni senza ripetizioni.
3. Gli antecedenti di certe sequenze possono essere costruiti
attraverso operazioni insiemistiche come l’operazione di unione
( X ∪ Y ) ; in particolare l’antecedente X α sta convenzional-
mente per X ∪{α } , così come l’antecedente α sta per {α }.
4. Il calcolo che verrà introdotto è una variante del calcolo pre-
sentato da G. Gentzen nella sua memoria sulla consistenza del-
l’aritmetica del 1936. Si tratta di un calcolo di deduzione naturale
formulato per sequenze, di cui si trovano versioni simili in H.
Hermes [1969], G. Sundholm [1983] e H.D. Ebbinghaus et alii
[1984]. Esso è costituito da un gruppo di regole di cui le prime due
sono regole non operazionali (regola di assunzione e regola di so-
stituzione), mentre le altre sono regole operazionali. Queste ultime
sono regole di introduzione o di eliminazione dei segni logici e,
pertanto, si suddividono in regole tipiche della componente propo-
sizionale del calcolo e di quella predicativa.
5. È da notare, infine, che si tratta del calcolo predicativo classico.
Come si vedrà tra poco, nel contesto della presentazione della re-
gola classica della negazione (¬k), i calcoli predicativi intuizionistico
e minimale – che saranno nel seguito indicati rispettivamente attra-
verso le lettere I e J – sono sottosistemi di C.

2.2. Regole di deduzione del calcolo C


1. Regola di assunzione A

X  α (se α ∈X )

100
Logica dei predicati (sintassi)

Se si ha un insieme di formule tra le quali c’è anche α , allora,


assumendo tale insieme, si pone anche α . È una maniera tecnica-
mente elaborata per dire che dall’assunzione di α si ottiene α . Si
noti, infatti, che un caso particolare di A è proprio α  α .

2. Regola di sostituzione Sxy


X α
( X )xy  α xy
(sotto la condizione che Leg α xy e Leg ( X )xy )

La regola dichiara la possibilità della sostituzione uniforme delle


variabili nell’antecedente e nel conseguente di una sequenza. Natu-
ralmente tutte le sostituzioni devono essere legittime, sia la sostitu-
zione da operare in α (requisito indicato attraverso l’espressione
Leg α xy ) sia le sostituzioni da operare in tutte le assunzioni (requi-
sito indicato attraverso l’espressione Leg ( X )xy ). Si noti che con
l’espressione ( X )xy si indica l’insieme di tutte le formule che si ot-
tengono per sostituzione di x con y dalle formule di X. Se, per
esempio, X = {β1 ,..., βn } allora ( X )xy = {β1xy ,..., βn xy }.

Regole della parte proposizionale di C

3. Regola di introduzione della congiunzione nel conseguente I∧

X α
Y β
X ∪Y α ∧ β

Se α si ottiene dalle assunzioni appartenenti a X e β da quelle


appartenenti a Y, allora α ∧ β si ottiene dall’unione X ∪ Y, ossia
dall’insieme delle formule che si ottengono mettendo insieme quel-
le di X con quelle di Y.

101
Capitolo secondo

4. Regola di eliminazione della congiunzione nel conseguente E∧

X α ∧ β
X α /β

Se α ∧ β si ottiene a partire da X, allora dalle stesse assunzioni


si ottiene anche α o β prese separatamente. La barra posta tra α
e β sta, appunto, ad indicare che la regola presenta due varianti,
quella secondo la quale da X si ottiene α e l’altra secondo la quale
da X si ottiene β .

5. Regola di introduzione della disgiunzione nel conseguente I∨

X α
X α ∨ β /β ∨α

Se da X si ottiene α , allora da X si ottiene anche la disgiunzio-


ne di α con una qualsiasi formula β o la disgiunzione di una qual-
siasi formula β con α . È da notare che anche questa regola è la
sintesi di due varianti, aventi rispettivamente come conclusioni
X α ∨ β e X  β ∨α .

6. Regola di introduzione della disgiunzione nell’antecedente ∨I

X α γ
Y β γ
X ∪Y α ∨ β γ

Se γ si ottiene a partire da X e da α ed anche a partire da Y


e da β , allora γ si può ottenere dalla unione di X con Y più la

102
Logica dei predicati (sintassi)

disgiunzione di α con β . La regola traduce formalmente il nucleo


centrale dell’argomentazione per casi.

7. Regola di introduzione dell’implicazione nel conseguente I→

X αβ
X α → β

Se β si ricava dalle formule appartenenti ad X più α , allora


dalle sole formule di X si ricava che α implica β . In altri termini,
la regola consente di scaricare una (qualsiasi) delle assunzioni da
cui è derivabile β , di modo che il segno → diventa significativo del
fatto che esiste una derivazione di β a partire, tra le altre, dalla as-
sunzione scaricata.

8. Regola del modus ponens MP

X α
Y α → β
X ∪Y  β

Se da X si ricava α e da Y si ricava α → β , allora dall’unione


di X con Y si può ricavare β .

9. Regola della negazione classica (¬k)

X ¬α  β
Y ¬α  ¬β
X ∪Y α

103
Capitolo secondo

Questa regola è la codificazione formale dell’argomentazione


classica per assurdo. Si supponga, infatti, di voler dimostrare α a
partire da un certo insieme di assunzioni (sia esso X ∪ Y , ove si
può immaginare che X ∪ Y sia ad esempio l’insieme degli assiomi
della geometria). Allora basta assumere ¬α e mostrare che da essa
e da un certo sottoinsieme di X ∪ Y (sia esso X) si ottiene β ,
mentre da un altro sottoinsieme di X ∪ Y (sia esso Y, che può
anche coincidere con X) si ottiene ¬β . Ricavando, di conseguen-
za, la contraddizione, si ottiene che non vale ¬α ossia che vale α .
È da notare che (¬k) è una regola che ingloba in sé sia il principio
di refutazione delle ipotesi contraddittorie (principio a cui corri-
sponde la regola della negazione minimale (¬j) che sarà enunciata
tra poco), valido anche intuizionisticamente, sia quello della doppia
negazione classica (cui corrisponde la regola derivabile della nega-
zione classica DNc, anch’essa enunciata più avanti), intuizionisti-
camente problematico. Per questa ragione (¬k) è la regola tipica
del calcolo classico C.

Regole della parte predicativa di C

10. Regola di introduzione del quantificatore universale I∀

X α
X  ∀xα
(sotto la condizione critica che x non occorra liberamente in X ed
è rilevante, anche se non sintatticamente necessario, che x occorra
liberamente in α )

Si supponga che al posto di X ci siano gli assiomi della geome-


tria G e che a partire da G si sia ottenuto per un determinato trian-
golo che la somma dei suoi angoli interni sia pari a 180° (α ). Si
supponga, inoltre, che nella dimostrazione non si sia fatta nessuna
ipotesi particolare su tale triangolo, vale a dire che nella dimostra-

104
Logica dei predicati (sintassi)

zione si sia tenuto conto solo delle proprietà che definiscono un


triangolo in generale, in maniera tale che la dimostrazione possa
essere svolta altrettanto bene per un qualsiasi altro triangolo. Allora
si può concludere che α vale per tutti i triangoli. Di qui diventa del
tutto comprensibile anche la ragione della condizione critica pre-
scritta dalla regola. Perché è necessario che la x non occorra libe-
ramente in X? Perché consentire che la x occorra liberamente in X
significa consentire che su x vengano fatte ipotesi particolari, il che è
da escludere se si vuole ottenere un risultato generale per tutti gli x.
È naturale avvedersi del carattere creativo e originariamente in-
finitario della regola. La regola è creativa in quanto consente di
aumentare effettivamente le nostre conoscenze. È originariamente
infinitaria in quanto rappresenta la traduzione sintattica finitaria
dell’argomentazione seguente, che, basandosi sull’uso infinitario
della regola I∧, muove dalla premessa della regola in oggetto e ne
ottiene la conclusione.
Sia data la premessa della regola X  α . Per sostituzione della
variabile libera in α e in forza della condizione critica è allora pos-
sibile ottenere la seguente successione infinita di sequenze:

X  α (x 1 ) X  α (x 2 ) X  α (x 3 )...

Si ammetta, a questo punto, una estensione infinitaria del lin-


guaggio, vale a dire si consenta la formazione di formule infinite.
Allora, la conclusione della regola, vale a dire X  ∀xα (x ), po-
trebbe essere derivata a partire dalla sola regola I∧, ovviamente
estesa alle formule infinitarie, più la definizione seguente:

∀xα (x ) = def α (x 1 ) ∧ α (x 2 ) ∧ ...

Del resto, se x 1 , x 2 , x 3 ,... sono i nomi di tutti gli oggetti – come


è implicito nella definizione precedente – dell’universo di discorso
e si è dimostrato α (x i ) per ogni variabile x i , allora è plausibile
inferire che α valga per ogni oggetto.

105
Capitolo secondo

11. Regola di eliminazione del quantificatore universale E∀

X  ∀xα
X α

Per questa regola se, ad esempio, si è dimostrato che una pro-


prietà vale per tutti i triangoli, allora si può dire che essa vale anche
per un triangolo determinato. È la traduzione sintattica del proces-
so di esemplificazione. Chiaramente non è una regola creativa, in
quanto la conclusione è meno informativa della premessa, e ciò ha
un riscontro formale nel fatto che non si tratta di una regola critica.

12. Regola di introduzione del quantificatore esistenziale I∃

X α
X  ∃xα

Per questa regola, se da certe assunzioni si ottiene che un de-


terminato triangolo gode di una certa proprietà, allora si può dire
che esiste almeno un triangolo con quella proprietà. Anche questa
regola non è creativa, in quanto consente di passare da una infor-
mazione più complessa ad una meno complessa: dalla esibizione
dell’esempio si passa alla mera affermazione d’esistenza.

13. Regola di introduzione del quantificatore esistenziale nell’ante-


cedente ∃I
X αβ
X ∃xα  β
(sotto la condizione critica che x non sia libera in X e in β ed è
rilevante, anche se non sintatticamente necessario, che x occorra
liberamente in α )

106
Logica dei predicati (sintassi)

Qual è il significato di questa regola? Supponiamo di voler di-


mostrare la proposizione geometrica che se, esiste una coppia di
rette passanti per un punto, allora infinite sono le rette che passano
per il medesimo punto. Come è possibile argomentare? Si parte
dalla considerazione di un esempio determinato di coppie di rette
passanti per il punto in questione e si dimostra, sfruttando gli as-
siomi della geometria, che per quel punto passano infinite rette. La
medesima conclusione si sarebbe potuta ottenere, però, partendo
da qualche altra coppia di rette, dal momento che nell’argomenta-
zione non si fanno ipotesi particolari sulla coppia da cui si muove
nella dimostrazione. Di essa, infatti, non si dice niente di aggiunti-
vo nelle altre assunzioni – il che tecnicamente è espresso nella
condizione critica secondo la quale la variabile da quantificare non
deve occorrere liberamente in tali assunzioni –, in modo tale da ri-
sultare una coppia generica, scelta a piacere. Ebbene, allora è possi-
bile derivare la conclusione a partire dalla semplice ipotesi che una
tale coppia esista, senza doverla esibire, come si doveva dimostrare.
Il contenuto della regola si può cogliere anche da un’altro punto
di vista. Si supponga di aver ottenuto, nel corso di una certa dimo-
strazione, la proposizione ∃xα , ma di voler ottenere come risulta-
to finale la proposizione β . Come è allora possibile procedere allo
scopo di ottenere il risultato voluto? Normalmente si procede ipo-
tizzando che un certo x stia per l’individuo cui si riferisce la propo-
sizione esistenziale ∃xα e mostrando che, comunque tale x sia
scelto – vale a dire non ponendo ipotesi specifiche su di esso, le
quali potrebbero aver luogo solo se fosse consentita l’occorrenza
libera di x tra le assunzioni –, si ottiene sempre β .
È chiara anche qui la natura originariamente infinitaria e quindi
creativa della regola. Essa, infatti, nasce per finitizzazione del se-
guente argomento infinitario, argomento basato sulla applicazione
della regola ∨I estesa infinitariamente.
Sia data la premessa della regola in oggetto. In forza della con-
dizione critica – nella quale si riflette il fatto che sulla x della as-

107
Capitolo secondo

sunzione α non si fanno ipotesi particolari – si può allora ottenere


la seguente successione infinita di sequenze:

X α (x 1 )  β X α (x 2 )  β X α (x 3 )  β ...

da cui per applicazione di ∨I estesa infinitariamente si ha:

X α (x 1 ) ∨ α (x 2 ) ∨ α (x 3 ) ∨ ...  β

Se a questo punto si pone, ipotizzando che x 1 , x 2 , x 3 ,... desi-


gnino tutti gli elementi dell’universo oggettuale,

∃xα (x ) = def α (x 1 ) ∨ α (x 2 ) ∨ α (x 3 )...

si può facilmente ottenere:

X ∃xα  β

Perché inoltre la regola è creativa? È creativa perché permette di


indebolire una assunzione. La dichiarazione d’esistenza di un og-
getto è meno informativa della esibizione dell’esempio relativo e la
regola consente di mettere come assunzione la dichiarazione d’esi-
stenza al posto dell’esempio. In sintesi si passa da una relazione tra
conseguente ed antecedente meno complessa ad una più complessa.

2.3. Derivazioni e sequenze derivabili


Abbiamo visto che le regole consentono di scrivere sequenze.
Per comodità indicheremo in questo paragrafo le sequenze con il
simbolo sigma minuscolo ( σ ) provvisto di eventuali indici.

108
Logica dei predicati (sintassi)

σ1
σ2

σk

è quindi un incolonnamento finito di sequenze. Tale incolonna-


mento è una derivazione quando per ogni σ i vale uno dei due se-
guenti casi: o la sequenza è scritta in base ad una regola a zero
premesse (A), oppure ad una regola a una o più premesse a partire
da sequenze che sono scritte precedentemente nell’ordine dell’in-
colonnamento. Si supponga di prendere in esame σ 2 ; sia essa scrit-
ta in base ad una regola a una premessa; allora tale premessa deve
essere σ 1 . È necessario, quindi, che la sequenza iniziale sia posta in
base ad una regola a zero premesse.
Si dice, inoltre, che l’ultima sequenza di una derivazione è una
sequenza derivabile; nel nostro caso essa è σ k ; tuttavia, è una se-
quenza derivabile anche, ad esempio, σ 2 nella misura in cui non si
considera l’intero incolonnamento, ma solo le prime due sequenze.
Tutte le sequenze di una derivazione sono, dunque, sequenze deri-
vabili, ed è questo il motivo per cui sono tutte caratterizzate dal
segno  di derivabilità.

Esempi di derivazioni:

a) α ∧ β  β ∧ α (commutatività della congiunzione)

Derivazione:

α ∧ β α ∧ β A
α ∧ββ E∧
α ∧ β α E∧
α ∧ β  β ∧α + I∧

109
Capitolo secondo

b) α ∨ β  β ∨ α (commutatività della disgiunzione)

Derivazione:

α α A
α α ∨ β I∨
ββ A
β  β ∨α I∨
α ∨ β  β ∨α + ∨I

c)  α → (α ∨ β )

Derivazione:

α α A
α α ∨ β I∨
 α → (α ∨ β ) I→

d) α → β α  β

Derivazione:

α → β α → β A
α α A
α→β αβ MP

e) ∀x(α ∧ β )  ∀xα ∧ ∀x β (proprietà distributiva


di ∀ rispetto a ∧)
Derivazione:

∀x(α ∧ β )  ∀x(α ∧ β ) A
∀x(α ∧ β )  α ∧ β E∀
∀x(α ∧ β )  α + E∧

110
Logica dei predicati (sintassi)

∀x(α ∧ β )  ∀xα + I∀
∀x(α ∧ β )  β + E∧
∀x(α ∧ β )  ∀x β + I∀
∀x(α ∧ β )  ∀xα ∧ ∀x β + I∧

f) ∃x(α ∨ β )  ∃xα ∨ ∃x β (proprietà distributiva


di ∃ rispetto a ∨)
Derivazione:

α α A
α  ∃xα I∃
α  ∃xα ∨ ∃x β I∨
ββ+ A
β  ∃x β I∃
β  ∃xα ∨ ∃x β I∨
α ∨ β  ∃xα ∨ ∃x β + ∨I
∃x(α ∨ β )  ∃xα ∨ ∃x β ∃I

g) ∀xα (x )  α ( y ) (sotto la condizione che Leg α (x )xy )

Derivazione:

∀xα (x )  ∀xα (x ) A
∀xα (x )  α (x ) E∀
∀xα (x )  α (x )xy S xy
∀xα (x )  α ( y ) def. di α (x )xy

Per ovvie ragioni di brevità, nel seguito saranno presentate an-


che derivazioni con righe che sono il risultato dell’applicazione di
più d’una regola. In questo caso si scriveranno a destra tutte le re-
gole applicate oppure si espliciteranno solo le regole principali,
facendole precedere da «da», se sono regole o principi da cui si
parte nella derivazione, oppure da «per», se sono regole di cui ci si
serve nella derivazione a partire da premesse già poste.

111
Capitolo secondo

2.4. Regole derivabili


Si supponga che la derivazione:

σ1
σ2

σk

sia una parte standard all’interno di derivazioni più lunghe. Allora


ci si può esimere dall’eseguirla ogni volta nei singoli casi di deriva-
zione, dal momento che è possibile derivare σ k dalle premesse σ 1
e σ 2 una volta per tutte. In altre parole è possibile usare la regola
che dice: se sono date le premesse σ 1 e σ 2 , allora è derivabile an-
che σ k . Questa nuova regola è detta derivabile, perché si può otte-
nere a partire dalle regole primitive del calcolo, essendo il risultato
di un uso, per così dire, compatto di queste. Per lo stesso motivo
essa è detta anche eliminabile (a dispetto della sua alta utilità pratica).
La sua conclusione si può ottenere infatti anche servendosi delle sole
regole primitive. Vediamone alcune e la loro derivazione. La deriva-
zione consisterà nell’assumere le premesse della regola (una o due in
dipendenza dal tipo di regola) e nel ricavare mediante le regole pri-
mitive del calcolo la sequenza conclusiva. Nella derivazione l’assun-
zione delle premesse sarà indicata attraverso la sigla H (ipotesi).

2.5. Regole derivabili della parte proposizionale di C


1. Regola del rafforzamento delle premesse (RP)

X β
X αβ

Derivazione:

112
Logica dei predicati (sintassi)

X β H
α α A
X α  β ∧α I∧
X αβ E∧

È da notare che la presente regola comprende come caso parti-


colare quello in cui come premessa della regola si ha una sequenza
derivabile per A. Infatti, se X  β per β ∈X , è allora immediato
porre X α  β dato che, appartenendo a X, β apparterrà anche a
X ∪{α }. La regola in più dichiara che il rafforzamento può essere
effettuato con qualsiasi sequenza derivabile.

2. Regola della concatenazione (KS )

X α
Y αβ
X ∪Y  β

Derivazione:

Y αβ H
Y α → β I→
X α H
X ∪Y  β MP

3. Regola della negazione intuizionistica ((¬i))

X α
Y  ¬α
X ∪Y  β
Derivazione:

113
Capitolo secondo

X α H
X ¬β  α RP
Y  ¬α H
Y ¬β  ¬α RP
X ∪Y  β (¬k)

Data la denominazione della presente regola, vale la pena di


precisare che (¬i) costituisce la regola tipica della logica proposi-
zionale intuizionistica. Il calcolo intuizionistico I, infatti, si ottiene
da quello classico C, sopprimendo la regola (¬k) e ponendo al suo
posto la regola (¬i) insieme con la regola, che sarà presentata più
sotto, (¬j). D’altra parte, aggiungendo alla base comune dei calcoli
classico e intuizionistico (cioè tutte le regole di C meno (¬k)) solo
(¬j), si ottiene il cosiddetto calcolo minimale J. Per questo la regola
(¬i) è la regola caratteristica del calcolo proposizionale intuizioni-
stico I, mentre (¬j) da sola è tipica del calcolo minimale J. (¬i) è
detta anche regola dello Pseudo Scoto, essendo conosciuta già a
partire dalla tradizione scolastica nella formulazione «ex contradictio-
ne sequitur quodlibet». L’importanza della sua presenza nel calcolo è
immediata: dichiarando che se è derivabile α e ¬α allora è deri-
vabile una formula qualsiasi, essa ha il potere di banalizzare, in
quanto consente di inferire dalla contraddizione tutte le formule,
ogni teoria incoerente. È facilmente comprensibile, di conseguen-
za, il motivo per il quale quelle logiche che, come le logiche dialet-
tiche, ammettono esplicitamente la possibilità di contraddizioni,
debbano rifiutare, pena la loro piena banalizzazione, la regola (¬i);
debbono essere, in altre parole, logiche non scotiane.

4. Regola classica della doppia negazione (DNc)

X  ¬¬α
X α

114
Logica dei predicati (sintassi)

Derivazione:

X  ¬¬α H
X ¬α  ¬¬α RP
¬α  ¬α A
X α (¬k)

La regola classica della doppia negazione dichiara che dalla ne-


gazione di una formula negata è derivabile la formula non negata.
Che si tratti di una regola classica è desumibile dal fatto che nella
derivazione di DNc si fa un uso essenziale di (¬k). Del resto, solo
ammettendo il principio del terzo escluso è possibile passare dalla
negazione della negazione alla affermazione ed è proprio il rifiuto
di tale principio che non consente intuizionisticamente di intende-
re la negazione della negazione come condizione sufficiente per
passare all’affermazione.

5. Regola minimale della negazione ((¬j))

X αβ
Y α  ¬β
X ∪ Y  ¬α

Derivazione:

X αβ H
¬¬α  ¬¬α A
¬¬α  α DNc
X ¬¬α  β KS
Y α  ¬β H
¬¬α  ¬¬α A
¬¬α  α DNc
Y ¬¬α  ¬β KS

115
Capitolo secondo

X ∪ Y  ¬α (¬k)

Come sopra si è già anticipato, (¬j) è la regola tipica del calcolo


minimale J ed essa è assunta quale regola primitiva anche nel calco-
lo intuizionistico I. In tal senso il calcolo intuizionistico è una
estensione del calcolo minimale. Esso si ottiene aggiungendo a J la
regola della negazione intuizionistica (¬i). D’altra parte, il calcolo
classico C include sia quello intuizionistico che quello minimale
essendo derivabile in C sia (¬i) che (¬j). Con la derivazione in C di
(¬j) e della regola classica della doppia negazione DNc trova, dun-
que, espressione formale il fatto che la regola di negazione classica
(¬k) ingloba in se stessa sia il principio logico della refutazione
delle ipotesi che implicano contraddizione, sia quello classico della
doppia negazione. Mentre, infatti, (¬j) è espressione formale del
principio in base al quale, assunta una proposizione che porta alla
contraddizione, tale proposizione va refutata (ossia va posta la sua
negazione), (¬k) include l’ulteriore principio che, se la proposizio-
ne assunta ed implicante la contraddizione è una formula negata,
allora, non solo la formula negata va refutata, ma ciò è condizione
sufficiente per affermare la formula senza alcuna negazione. È
questo il motivo per il quale in I vale (¬j) mentre non vi vale (¬k).
La logica intuizionistica, infatti, contempla il principio di refuta-
zione delle proposizioni che conducono a contraddizioni ma non
quello della doppia negazione classica.
A questo punto possiamo tirare le fila sui rapporti tra calcolo
classico C, calcolo intuizionistico I e calcolo minimale J. Il calcolo
classico C è costituito da base comune più (¬k)), il calcolo intui-
zionistico I da base comune più (¬j) e (¬i), il calcolo minimale J da
base comune più (¬j). In conseguenza di ciò è sempre possibile
stabilire entro quale di questi calcoli una derivazione è condotta.
In conformità a questo, nel seguito accanto alla voce «derivazione»
sarà sempre dichiarato il calcolo – C, I o J – nel quale la derivazio-
ne è condotta. Naturalmente, dati i rapporti tra i tre sistemi, se una
regola è derivabile in J, allora è derivabile anche in I; se poi è deri-

116
Logica dei predicati (sintassi)

vabile in I, allora è derivabile anche in C. È sufficiente poi una


rapida ispezione per stabilire che le derivazioni delle regole RP e
KS sono state condotte entro J. Le derivazioni di (¬i), DNc e (¬j)
sono naturalmente derivazioni in C.

6. Regola intuizionistica della doppia negazione (DNi)

X α
X  ¬¬α
Derivazione (in J):

X α H
X ¬α  α RP
¬α  ¬α A
X  ¬¬α (¬j)

Mentre DNc dichiara che da ¬¬α si può passare ad α , DNi


dichiara che da α si può passare a ¬¬α . DNi è valida anche intui-
zionisticamente, dal momento che per gli intuizionisti l’afferma-
zione di una formula non negata è qualcosa di più forte rispetto
alla negazione della sua negazione. Anzi, che DNi valga intuizioni-
sticamente è una conseguenza del fatto che DNi vale addirittura,
come si può ricavare da una semplice ispezione della derivazione
data, in J. È da notare infine, che anche DNi ha un profondo signi-
ficato. Ne è prova il fatto che in alcune logiche dialettiche DNi è
rifiutata, in conformità al principio hegeliano secondo il quale il
toglimento della negazione, esprimendo il momento della Aufhe-
bung, contiene qualcosa in più rispetto alla semplice affermazione.

7. Regola di autofondazione (AF)

X ¬α  α
X α

117
Capitolo secondo

Derivazione (in C):

X ¬α  α H
¬α  ¬α A
X α (¬k)

Se una formula è derivabile dalla sua negazione e da eventuali


altre assunzioni allora è derivabile da queste ultime soltanto. Que-
sto è il significato della regola di autofondazione. La sua derivazio-
ne presuppone l’uso della regola (¬k), il che attesta il fatto (di no-
tevole rilevanza filosofica) che l’autofondazione di un principio è
ottenibile solo nel quadro della logica classica. Se nella derivazione
di AF si fosse usata (¬j) invece di (¬k) si sarebbe ottenuto
X  ¬¬α e non X  α . In altre parole, si sarebbe ottenuto il
torto dell’avversario, ma non la fondazione della propria posizione.
Ciò significa che esiste una profonda differenza tra il ricavare una
tesi dal fatto che la sua negazione implica la tesi stessa, e ricavare la
negazione di una tesi dal fatto che la tesi implica la propria nega-
zione. Quest’ultima argomentazione è formalizzabile nella seguen-
te regola, dalla cui derivazione (in cui si usa (¬j) al posto di (¬k))
risulta che essa è valida anche nel quadro della logica intuizionista e
minimale.

8. Regola di autocontraddizione (AC)

X α  ¬α
X  ¬α

Derivazione (in J):

X α  ¬α H
α α A
X  ¬α (¬j)

118
Logica dei predicati (sintassi)

9. Regole di contrapposizione (C)

X αβ
a)
X ¬β  ¬α

Derivazione (in J):

X αβ H
¬β  ¬β A
¬β α  ¬β RP
X ¬β  ¬α (¬j)

X α  ¬β
b)
X β  ¬α

Derivazione (in J):

X α  ¬β H
ββ A
β αβ RP
X β  ¬α (¬j)

X ¬α  β
c)
X ¬β  α
Derivazione (in C):

X ¬α  β H
¬β  ¬β A
¬β ¬α  ¬β RP
X ¬β  α (¬k)

119
Capitolo secondo

X ¬α  ¬β
d)
X β α

Derivazione (in C):

X ¬α  ¬β H
ββ A
β ¬α  β RP
X β α (¬k)

Ognuna delle quattro regole dice, in modo diverso dipendente


dalla struttura delle formule negate o meno, che se una formula è
condizione necessaria di un’altra, allora il non valere della condi-
zione necessaria implica il non valere della seconda. È da notare,
poi, che delle quattro regole di contrapposizione solo le prime due
valgono anche nel contesto delle logiche intuizionistica e minimale.

10. Paradossi dell’implicazione (PI)

a) α  ¬α → β

Derivazione (in I):

α α A
¬α  ¬α A
α ¬α  β (¬i)
α  ¬α → β I→

b) β  α → β

Derivazione (in J):

ββ A

120
Logica dei predicati (sintassi)

β αβ RP
β α → β I→

Il primo paradosso dell’implicazione è una conseguenza imme-


diata del principio dello Pseudo Scoto. Nella derivazione, infatti, si
fa un uso essenziale di (¬i). In effetti, è sufficiente rifiutare (¬i),
come ad esempio accade in tutte le logiche non scotiane, per evita-
re il primo paradosso dell’implicazione. Il secondo paradosso
esprime una caratteristica ancora più profonda della logica classica.
Esso dipende dal principio di rafforzamento delle premesse, se-
condo il quale, se una proposizione deriva da certe proposizioni,
allora deriva da queste più qualcun’altra. Se alle proposizioni si
conferisce il significato classico di formule descriventi stati di cose
determinati, non v’è motivo di rigettare il principio del rafforza-
mento della premesse, anche se la formula introdotta per raffor-
zamento non presenta alcuna rilevanza per la derivazione della
formula implicata. D’altra parte, questo è proprio il motivo per il
quale sono sorte le cosiddette logiche rilevanti, un tipo speciale di
logiche devianti (rispetto alla logica classica), secondo le quali non
si possono assumere ipotesi irrilevanti alla derivazione del conse-
guente. In queste logiche il secondo paradosso dell’implicazione è,
di conseguenza, evitato.

11. Regola di esaustione (E)

X αβ
Y ¬α  β
X ∪Y  β

Derivazione (in C):

X αβ H
X ¬β  ¬α C

121
Capitolo secondo

Y ¬α  β H
Y ¬β  ¬¬α C
X ∪Y  β (¬k)

12. Principio del terzo escluso (TND)

 α ∨ ¬α

Derivazione (in C):

α α A
α  α ∨ ¬α I∨
¬α  ¬α A
¬α  α ∨ ¬α I∨
 α ∨ ¬α E

Come è facile vedere, il principio del TND vale solo nella logi-
ca classica. Per derivarlo, infatti, si è fatto un uso essenziale della
regola di esaustione E che, a sua volta, è derivabile solo classica-
mente.

13. Principio di non contraddizione (NC)

 ¬(α ∧ ¬α )

Derivazione (in J):

α ∧ ¬α  α ∧ ¬α A
α ∧ ¬α  α E∧
α ∧ ¬α  ¬α E∧
 ¬(α ∧ ¬α ) (¬j)

Il fatto che NC sia stato ottenuto mediante la regola (¬j) ci vie-


ne a dire che il principio di non contraddizione vale non solo in C

122
Logica dei predicati (sintassi)

ma anche in I e in J. Ciò è una prova del fatto che NC e TND non


sono deduttivamente equivalenti.

14. Regola di commutatività della congiunzione (Comm∧)

α ∧ β  β ∧α

La dimostrazione (in J) è immediata.

15. Regole di associatività della congiunzione (Ass∧)

a) (α ∧ β ) ∧ γ  α ∧ ( β ∧ γ )

Derivazione (in J):

(α ∧ β ) ∧ γ  (α ∧ β ) ∧ γ A
(α ∧ β ) ∧ γ α ∧ β E∧
(α ∧ β ) ∧ γ α E∧
(α ∧ β ) ∧ γ β E∧
(α ∧ β ) ∧ γ γ E∧
(α ∧ β ) ∧ γ  β ∧γ I∧
(α ∧ β ) ∧ γ  α ∧ (β ∧ γ ) I∧

b) α ∧ ( β ∧ γ )  (α ∧ β ) ∧ γ

La derivazione (in J) è analoga alla precedente.

16. Regola di eliminazione della congiunzione nell’antecedente (∧E)

X α ∧β γ
X α β γ

123
Capitolo secondo

Derivazione (in J):

α α A
ββ A
α β α ∧ β I∧
X α ∧β γ H
X α β γ KS

17. Regola di introduzione della congiunzione nell’antecedente (∧I)

X α β γ
X α ∧β γ

Derivazione (in J):

α ∧ β α ∧ β A
α ∧ β α E∧
α ∧ββ E∧
X α β γ H
X α ∧β γ KS (bis)

18. Regola di commutatività della disgiunzione (Comm∨)

α ∨ β  β ∨α

La dimostrazione (in J) è immediata.

19. Regole di associatività della disgiunzione (Ass∨)

a) α ∨ ( β ∨ γ )  (α ∨ β ) ∨ γ

124
Logica dei predicati (sintassi)

Derivazione (in J):

α α A
α α ∨ β I∨
α  (α ∨ β ) ∨ γ I∨
ββ A
β α ∨ β I∨
β  (α ∨ β ) ∨ γ I∨
γ γ A
γ  (α ∨ β ) ∨ γ I∨
β ∨ γ  (α ∨ β ) ∨ γ ∨I
α ∨ ( β ∨ γ )  (α ∨ β ) ∨ γ ∨I

b) (α ∨ β ) ∨ γ  α ∨ ( β ∨ γ )

La derivazione (in J) è analoga alla precedente.

20. Regole di distributività della congiunzione rispetto alla disgiun-


zione (Distr∧∨). Tali regole sono costituite dalla regola di distribu-
zione in senso stretto (caso a)) e dalla sua inversa (caso b)), chia-
mata anche regola di esportazione.

a) α ∧ ( β ∨ γ )  (α ∧ β ) ∨ (α ∧ γ )

Derivazione (in J):

α α A
ββ A
γ γ A
α β α ∧ β I∧
α β  (α ∧ β ) ∨ (α ∧ γ ) I∨
α γ α ∧γ I∧
α γ  (α ∧ β ) ∨ (α ∧ γ ) I∨
α β ∨ γ  (α ∧ β ) ∨ (α ∧ γ ) ∨I

125
Capitolo secondo

α ∧ ( β ∨ γ )  (α ∧ β ) ∨ (α ∧ γ ) ∧I

b) (α ∧ β ) ∨ (α ∧ γ )  α ∧ ( β ∨ γ )

Derivazione (in J):

α ∧ β α ∧ β A
α ∧ β α E∧
α ∧ββ E∧
α ∧β  β ∨γ I∨
α ∧ β  α ∧ (β ∨ γ ) I∧
α ∧γ α ∧γ A
α ∧γ α E∧
α ∧γ γ E∧
α ∧γ  β ∨γ I∨
α ∧ γ  α ∧ (β ∨ γ ) I∧
(α ∧ β ) ∨ (α ∧ γ )  α ∧ ( β ∨ γ ) ∨I

21. Regole di distributività della disgiunzione rispetto alla con-


giunzione (Distr∨∧). Anche qui si ha il caso della regola di distri-
buzione in senso stretto e della sua inversa.

a) α ∨ ( β ∧ γ )  (α ∨ β ) ∧ (α ∨ γ )

Derivazione (in J):

α α A
α α ∨ β I∨
α α ∨γ I∨
α  (α ∨ β ) ∧ (α ∨ γ ) I∧
ββ A
β α ∨ β I∨
γ γ A
γ α ∨γ I∨

126
Logica dei predicati (sintassi)

β γ  (α ∨ β ) ∧ (α ∨ γ ) I∧
β ∧ γ  (α ∨ β ) ∧ (α ∨ γ ) ∧I
α ∨ ( β ∧ γ )  (α ∨ β ) ∧ (α ∨ γ ) ∨I

b) (α ∨ β ) ∧ (α ∨ γ )  α ∨ ( β ∧ γ )

Derivazione (in J):

α α A
α  α ∨ (β ∧ γ ) I∨
ββ A
γ γ A
β γ  β ∧γ I∧
β γ  α ∨ (β ∧ γ ) I∨
α ∨ β γ  α ∨ (β ∧ γ ) ∨I
α ∨ β α ∨ γ  α ∨ (β ∧ γ ) ∨I
(α ∨ β ) ∧ (α ∨ γ )  α ∨ ( β ∧ γ ) ∧I

22. Regole di distributività iterata della congiunzione rispetto alla


disgiunzione (Distrr∧∨)

a) (α ∨ β ) ∧ ( γ ∨ δ )  (α ∧ γ ) ∨ (α ∧ δ ) ∨ ( β ∧ γ ) ∨ ( β ∧ δ )

La derivazione (in J) si articola in due parti più la conclusione.

1. Parte:

γ ∨δ γ ∨δ A
α α A
γ ∨ δ α  α ∧ (γ ∨ δ ) I∧
γ ∨ δ α  (α ∧ ( γ ∨ δ )) ∨ ( β ∧ ( γ ∨ δ )) I∨
ββ A
γ ∨ δ β  β ∧ (γ ∨ δ ) I∧
γ ∨ δ β  (α ∧ ( γ ∨ δ )) ∨ ( β ∧ ( γ ∨ δ )) I∨

127
Capitolo secondo

γ ∨ δ α ∨ β  (α ∧ ( γ ∨ δ )) ∨ ( β ∧ ( γ ∨ δ )) ∨I
(α ∨ β ) ∧ ( γ ∨ δ )  (α ∧ ( γ ∨ δ )) ∨ ( β ∧ ( γ ∨ δ )) ∧I

2. Parte:

α ∧ ( γ ∨ δ )  (α ∧ γ ) ∨ (α ∧ δ ) Distr∧∨
β ∧ (γ ∨ δ )  ( β ∧ γ ) ∨ ( β ∧ δ ) Distr∧∨
α ∧ ( γ ∨ δ )  (α ∧ γ ) ∨ (α ∧ δ ) ∨ ( β ∧ γ ) ∨ ( β ∧ δ ) I∨, Ass∨
β ∧ ( γ ∨ δ )  (α ∧ γ ) ∨ (α ∧ δ ) ∨ ( β ∧ γ ) ∨ ( β ∧ δ ) I∨, Ass∨
(α ∧ ( γ ∨ δ )) ∨ ( β ∧ ( γ ∨ δ ))  (α ∧ γ ) ∨ (α ∧ δ ) ∨
∨( β ∧ γ ) ∨ ( β ∧ δ ) ∨I

Conclusione:

(α ∨ β ) ∧ ( γ ∨ δ )  (α ∧ γ ) ∨ (α ∧ δ ) ∨ ( β ∧ γ ) ∨ ( β ∧ δ )
KS (con-
clusioni
due parti)

b) (α ∧ γ ) ∨ (α ∧ δ ) ∨ ( β ∧ γ ) ∨ ( β ∧ δ )  (α ∨ β ) ∧ ( γ ∨ δ )

La dimostrazione (in J) non presenta difficoltà in quanto si ha:

α α ∨ β A, I∨
γ γ ∨δ A, I∨
α ∧ γ  (α ∨ β ) ∧ ( γ ∨ δ ) I∧, ∧I

Così si prosegue con gli altri casi della disgiunzione. Quindi si


applica ∨I.

23. Regole di distributività iterata della disgiunzione rispetto alla


congiunzione (Distrr∨∧)

128
Logica dei predicati (sintassi)

a) (α ∧ β ) ∨ ( γ ∧ δ )  (α ∨ γ ) ∧ (α ∨ δ ) ∧ ( β ∨ γ ) ∧ ( β ∨ δ )

Derivazione (in J):

α α ∨γ A, I∨
α α ∨δ A, I∨
α  (α ∨ γ ) ∧ (α ∨ δ ) I∧
β  (β ∨ γ ) ∧ (β ∨ δ ) A, I∨, I∧
α ∧ β  (α ∨ γ ) ∧ (α ∨ δ ) ∧ ( β ∨ γ ) ∧ ( β ∨ δ ) I∧, ∧I, Ass∧

Similmente per γ ∧ δ . Quindi si applica ∨I.

b) (α ∨ γ ) ∧ (α ∨ δ ) ∧ ( β ∨ γ ) ∧ ( β ∨ δ )  (α ∧ β ) ∨ ( γ ∧ δ )

La derivazione (in J) si articola in due parti più la conclusione.

1. Parte:

α β  (α ∧ β ) ∨ ( γ ∧ δ ) A (bis), I∧, I∨
γ ∧ δ  (α ∧ β ) ∨ ( γ ∧ δ ) A, I∨
α β ∨ ( γ ∧ δ )  (α ∧ β ) ∨ ( γ ∧ δ ) ∨I
α ∨ ( γ ∧ δ ) β ∨ ( γ ∧ δ )  (α ∧ β ) ∨ ( γ ∧ δ ) ∨I

2. Parte:

(α ∨ γ ) ∧ (α ∨ δ )  α ∨ ( γ ∧ δ ) Distr∨∧
( β ∨ γ ) ∧ ( β ∨ δ )  β ∨ (γ ∧ δ ) Distr∨∧

Conclusione:

(α ∨ γ ) ∧ (α ∨ δ ) ∧ ( β ∨ γ ) ∧ ( β ∨ δ )  (α ∧ β ) ∨ ( γ ∧ δ )
KS (conclusioni due
parti), ∧I, per Ass∧

129
Capitolo secondo

24. Regola di introduzione dell’implicatore nell’antecedente (→I)

X ¬α  γ
Y β γ
X ∪Y α → β γ

Derivazione (in C):

α α→ββ A(bis), MP
Y β γ H
Y  α α → β  γ KS
X ¬α  γ H
X ∪ Y  α → β  γ E

25. Regola di eliminazione dell’implicatore nel conseguente (E→)

Xα → β
X  α  β

Derivazione (in J):

X α → β H
α α A
X  α  β MP

26. Regole di trasformazione dell’implicazione nella disgiunzione


(Tr→∨)

a) α → β  ¬α ∨ β

Derivazione (in C):

130
Logica dei predicati (sintassi)

¬α  ¬α A
¬α  ¬α ∨ β I∨
ββ A
β  ¬α ∨ β I∨
α → β  ¬α ∨ β →I

b) ¬α → β  α ∨ β

Derivazione (in C):

¬¬α  ¬¬α A
¬¬α  α DNc
¬¬α  α ∨ β I∨
ββ A
β α ∨ β I∨
¬α → β  α ∨ β →I

c) α → ¬β  ¬α ∨ ¬β

La derivazione (in C) risulta immediatamente da a).

d) ¬α → ¬β  α ∨ ¬β

La derivazione (in C) risulta immediatamente da b).

e) Le contrapposte delle regole Tr∨→ a) b) c) d)

27. Regole di trasformazione della disgiunzione nella implicazione


(Tr∨→)

131
Capitolo secondo

a) α ∨ β  ¬α → β "
Derivazione (in I):

α  ¬α → β " PIa)
β  ¬α → β " PIb)
α ∨ β  ¬α → β " ∨I

b) ¬α ∨ β  α → β "

Derivazione (in I):

¬α  α → β " da PIa)
β  α → β" PIb)
¬α ∨ β  α → β " ∨I

c) α ∨ ¬β  ¬α → ¬β "

La derivazione (in I) risulta immediatamente da a).

d) ¬α ∨ ¬β  α → ¬β "

La derivazione (in I) risulta immediatamente da b).

e) Le contrapposte delle regole Tr→∨ a) b) c) d)

28. Regole di trasformazione dell’implicazione nella congiunzione


(Tr→∧)

132
Logica dei predicati (sintassi)

a) α → β  ¬(α ∧ ¬β )

Derivazione (in J):

α α→ββ A(bis), MP
α  ¬β  ¬(α → β ) C a)
α ∧ ¬β  ¬(α → β ) ∧I
α → β  ¬(α ∧ ¬β ) Cb)

b) ¬α → β  ¬(¬α ∧ ¬β )

La derivazione (in J) risulta immediatamente da a).

c) α → ¬β  ¬(α ∧ β )

Derivazione (in J):

α → ¬β  α  ¬β A(bis), MP
α   β   ¬(α → ¬β ) C
α ∧ β   ¬(α → ¬β ) ∧I
α → ¬β  ¬(α ∧ β ) Cb)

d) ¬α → ¬β  ¬(¬α ∧ β )

La derivazione (in J) risulta immediatamente da c).

e) Le contrapposte delle regole Tr∧→ a) b) c) d)

29. Regole di trasformazione della congiunzione nella implicazione


(Tr∧→)

133
Capitolo secondo

a) ¬(α ∧ ¬β )  α → β

Derivazione (in C):

α α A
¬β  ¬β A
α  ¬β  α ∧ ¬β I∧
¬(α ∧ ¬β ) α  β Cc)
¬(α ∧ ¬β )  α → β I→

b) ¬(¬α ∧ ¬β )  ¬α → β

La derivazione (in C) risulta immediatamente da a).

c) ¬(α ∧ β )  α → ¬β

Derivazione (in J):

α α A
ββ A
α  β  α ∧ β I∧
¬(α ∧ β ) α  ¬β Ca)
¬(α ∧ β )  α → ¬β I→

d) ¬(¬α ∧ β )  ¬α → ¬β

La derivazione (in J) risulta immediatamente da c).

e) Le contrapposte delle regole Tr→∧ a) b) c) d)

30. Regole di trasformazione della disgiunzione nella congiunzione


(Tr∨∧). Tali regole, insieme con quelle del numero successivo, so-
no dette anche leggi di De Morgan.

134
Logica dei predicati (sintassi)

a) α ∨ β  ¬(¬α ∧ ¬β )

Derivazione (in J):

α  ¬α ∧ ¬β  α A, RP
¬α  ¬α ∧ ¬β  ¬α A, RP
α  ¬α  ¬(¬α ∧ ¬β ) (¬j)
β  ¬α ∧ ¬β  β A, RP
¬β  ¬α ∧ ¬β  ¬β A, RP
β  ¬β  ¬(¬α ∧ ¬β ) (¬j)
α ∨ β  ¬α  ¬β  ¬(¬α ∧ ¬β ) ∨I
α ∨ β  ¬α ∧ ¬β  ¬(¬α ∧ ¬β ) ∧I
α ∨ β   ¬(¬α ∧ ¬β ) AC

b) ¬α ∨ β  ¬(α ∧ ¬β )

c) α ∨ ¬β  ¬(¬α ∧ β )

d) ¬α ∨ ¬β  ¬(α ∧ β )

La derivazione (in J) delle regole b) c) d) è analoga a quella per a).

e) Le contrapposte delle regole Tr∧∨ a) b) c) d)

31. Regole di trasformazione della congiunzione nella disgiunzione


(Tr∧∨).

a) ¬(¬α ∧ ¬β )  α ∨ β

Derivazione (in C):

¬α  ¬β  ¬α ∧ ¬β A(bis), I∧
¬(¬α ∧ ¬β ) ¬β  α Cc)

135
Capitolo secondo

¬(¬α ∧ ¬β ) ¬β  α ∨ β I∨
β α ∨ β A, I∨
¬(¬α ∧ ¬β )  α ∨ β E

b) ¬(α ∧ ¬β )  ¬α ∨ β

c) ¬(¬α ∧ β )  α ∨ ¬β

d) ¬(α ∧ β )  ¬α ∨ ¬β

La derivazione (in C) di b) c) e d) è analoga a quella di a).

e) Le contrapposte delle regole Tr∨∧ a) b) c) d)

2.6 Regole derivabili della parte predicativa di C

32. Regola di eliminazione del quantificatore esistenziale E∃

X  ∃xα
Y  α  β
X ∪Y  β
(sotto la condizione critica che x non sia libera né in Y né in β )

Derivazione (in J):

Y  α  β H
Y  ∃xα  β ∃I
X  ∃xα H
X ∪Y  β KS

136
Logica dei predicati (sintassi)

33. Regola del cambio alfabetico CA∀

∀xα  ∀y(α xy )
(sotto le condizioni critiche che Leg α xy
e y non occorra liberamente in α )

Derivazione (in J):

∀xα  ∀xα A
∀xα  α E∀

Ora, Leg (∀xα )xy , ( ∀xα )xy ≡ ∀xα e Leg α xy . Pertanto:

∀xα  α xy S xy
∀xα  ∀y(α xy ) I∀, perché
non Lib y in α .

34. Regola del cambio alfabetico CA∃

∃xα  ∃y(α xy )
(sotto le condizioni critiche che Leg α xy
e y non occorra liberamente in α )

Derivazione (in J):

α xy  α xy A
α xy  ∃y(α xy ) I∃

Ora Leg (α xy )xy . Infatti, essendo non Lib y in α , le eventuali oc-


correnze libere di y in α xy sono il risultato di sostituzioni di occor-
renze libere di x e perciò x non può trovarsi vincolata a sostituzio-
ne avvenuta di y. Si noti che qui non si presuppone che Leg α xy ma

137
Capitolo secondo

solo non Lib y in α . Inoltre Leg (∃y(α xy ))xy e (∃y(α xy ))xy ≡ ∃y(α xy ).
Pertanto:

(α xy )xy  ∃y(α xy ) S xy

D’altra parte, Leg α xy e pertanto le occorrenze di y che vengono


dalla sostituzione di occorrenze di x possono sempre essere ricon-
vertite in occorrenze di x. Inoltre non Lib y in α e pertanto le y da
convertire in x sono solo quelle che provengono da precedenti oc-
correnze libere di x. Per questi due motivi:

α  ∃y(α xy ) per def. di (α xy )xy


∃xα  ∃y(α xy ) ∃I

35. Regole di trasformazione TR∀∃

a) ¬∀xα  ∃x¬α

Derivazione (in C):

¬α  ∃x¬α I∃
¬∃x¬α  α Cc)
¬∃x¬α  ∀xα I∀
¬∀xα  ∃x¬α Cc)

b) ∀x¬α  ¬∃xα

Derivazione (in J):

∀x¬α  ¬α A, E∀
α  ¬∀x¬α Cb)
∃xα  ¬∀x¬α ∃I
∀x¬α  ¬∃xα Cb)

138
Logica dei predicati (sintassi)

c) Le contrapposte delle forme originarie di TR∃∀

a) (in C) ¬∀x¬α  ∃xα b) (in J) ∀xα  ¬∃x¬α

36. Regole di trasformazione TR∃∀

a) ¬∃xα  ∀x¬α

Derivazione (in J):

α α A
α  ∃xα I∃
¬∃xα  ¬α Ca)
¬∃xα  ∀x¬α I∀

b) ∃x¬α  ¬∀xα

Derivazione (in J):

∀xα  α A, E∀
¬α  ¬∀xα Ca)
∃x¬α  ¬∀xα I∃

c) Le contrapposte delle forme originarie di TR∀∃

a) (in C) ¬∃x¬α  ∀xα b) (in J) ∃xα  ¬∀x¬α

37. Regole della distributività completa

Le regole della distributività di questo numero e dei due imme-


diatamente successivi sono presentate secondo uno schema avente
la forma di una tabella a doppia entrata (le due colonne corrispon-
dono ai due quantificatori, mentre le tre righe corrispondono ai tre

139
Capitolo secondo

diversi connettivi ∧ , ∨ e →), in cui ogni riquadro prevede la pre-


senza di una regola e della sua inversa. Quando una delle due non
vale, manca ed è segnata al suo posto la parola «no».

Distr ∀ ∃

a. ∀x(α ∧ β )  ∀xα ∧ ∀x β ∃x(α ∧ β )  ∃xα ∧ ∃x β



b. ∀xα ∧ ∀x β  ∀x(α ∧ β ) no

a. no ∃x(α ∨ β )  ∃xα ∨ ∃x β

b. ∀xα ∨ ∀x β  ∀x(α ∨ β ) ∃xα ∨ ∃x β  ∃x(α ∨ β )

a. ∀x(α → β )  ∀xα → ∀x β no

b. no ∃xα → ∃x β  ∃x(α → β )

I. Distr∀...

1. Distr∀∧

a) ∀x(α ∧ β )  ∀xα ∧ ∀x β

Derivazione (in J):

∀x(α ∧ β )  α A, E∀, E∧
∀x(α ∧ β )  ∀xα I∀
∀x(α ∧ β )  β A, E∀, E∧
∀x(α ∧ β )  ∀x β I∀
∀x(α ∧ β )  ∀xα ∧ ∀x β I∧

b) ∀xα ∧ ∀x β  ∀x(α ∧ β )

140
Logica dei predicati (sintassi)

La derivazione è inversa a quella precedente.

2. Distr∀∨
a) no

b) ∀xα ∨ ∀x β  ∀x(α ∨ β )

Derivazione (in J):

∀xα  α A, E∀
∀xα  α ∨ β I∨
∀xα  ∀x(α ∨ β ) I∀
∀x β  ∀x(α ∨ β ) idem
∀xα ∨ ∀x β  ∀x(α ∨ β ) ∨I

3. Distr∀→

a) ∀x(α → β )  ∀xα → ∀x β

Derivazione (in J):

∀x(α → β )  α → β A, E∀
∀x(α → β ) α  β E→
∀xα  α A, E∀
∀x(α → β ) ∀xα  β KS
∀x(α → β )  ∀xα → ∀x β I∀, I→

b) no

II. Distr∃...

1. Distr∃∧

141
Capitolo secondo

a) ∃x(α ∧ β )  ∃xα ∧ ∃x β

Derivazione (in J):

α  ∃xα A, I∃
β  ∃x β A, I∃
∃x(α ∧ β )  ∃xα ∧ ∃x β I∧, ∧I, ∃I

b) no

2. Distr∃∨

a) ∃x(α ∨ β )  ∃xα ∨ ∃x β

Derivazione (in J):

α  ∃xα ∨ ∃x β A, I∃, I∨
β  ∃xα ∨ ∃x β A, I∃, I∨
α ∨ β  ∃xα ∨ ∃x β ∨I
∃x(α ∨ β )  ∃xα ∨ ∃x β ∃I

b) ∃xα ∨ ∃x β  ∃x(α ∨ β )

Derivazione (in J):

α  ∃x(α ∨ β ) A, I∨, I∃
∃xα  ∃x(α ∨ β ) ∃I
∃x β  ∃x(α ∨ β ) idem
∃xα ∨ ∃x β  ∃x(α ∨ β ) ∨I

3. Distr∃→

a) no

142
Logica dei predicati (sintassi)

b) ∃xα → ∃x β  ∃x(α → β )

Derivazione (in C):

¬α  α → β PIa)
¬(α → β )  α Cc)
¬(α → β )  ∃xα I∃
¬∃xα  α → β Cc)
¬∃xα  ∃x(α → β ) I∃
β α → β PIb)
β  ∃x(α → β ) I∃
∃x β  ∃x(α → β ) ∃I
∃xα → ∃x β  ∃x(α → β ) →I

38. Regole della distributività non completa (con la restrizione che


la x non occorra liberamente in α)

Distr ∀ ∃
a. ∀x(α ∧ β )  α ∧ ∀x β ∃x(α ∧ β )  α ∧ ∃x β

b. α ∧ ∀x β  ∀x(α ∧ β ) α ∧ ∃x β  ∃x(α ∧ β )
a. ∀x(α ∨ β )  α ∨ ∀x β ∃x(α ∨ β )  α ∨ ∃x β

b. α ∨ ∀x β  ∀x(α ∨ β ) α ∨ ∃x β  ∃x(α ∨ β )
a. ∀x(α → β )  α → ∀x β ∃x(α → β )  α → ∃x β

b. α → ∀x β  ∀x(α → β ) α → ∃x β  ∃x(α → β )
I. Distr∀...
1. Distr∀∧

a) ∀x(α ∧ β )  α ∧ ∀x β

143
Capitolo secondo

Per la derivazione vedi sopra il numero corrispondente.

b) α ∧ ∀x β  ∀x(α ∧ β )

Per la derivazione vedi sopra.

2. Distr∀∨

a) ∀x(α ∨ β )  α ∨ ∀x β

Derivazione (in C):

α  α ∨ ∀x β A, I∨
¬α  ¬α → β  β A, E→
α ∨ β  ¬α → β Tr∨→
¬α  α ∨ β  β KS
∀x(α ∨ β )  α ∨ β A, E∀
¬α  ∀x(α ∨ β )  β KS
¬α  ∀x(α ∨ β )  ∀x β I∀
¬α  ∀x(α ∨ β )  α ∨ ∀x β I∨
∀x(α ∨ β )  α ∨ ∀x β E

b) α ∨ ∀x β  ∀x(α ∨ β )

Per la derivazione vedi sopra.

3. Distr∀→

a) ∀x(α → β )  α → ∀x β

Per la derivazione vedi sopra.

b) α → ∀x β  ∀x(α → β )

144
Logica dei predicati (sintassi)

Derivazione (in J):

α → ∀x β  α  ∀x β A, E→
α → ∀x β  α  β E∀
α → ∀x β  ∀x(α → β ) I→, I∀

II. Distr∃...

1. Distr∃∧

a) ∃x(α ∧ β )  α ∧ ∃x β

Per la derivazione vedi sopra.

b) α ∧ ∃x β  ∃x(α ∧ β )

Derivazione (in J):

α  β  α ∧ β per I∧ da A
α   β  ∃x(α ∧ β ) I∃
α  ∃x β  ∃x(α ∧ β ) ∃I
α ∧ ∃x β  ∃x(α ∧ β ) ∧I

2. Distr∃∨

a) ∃x(α ∨ β )  α ∨ ∃x β

Per la derivazione vedi sopra.

b) α ∨ ∃x β  ∃x(α ∨ β )

Per la derivazione vedi sopra.

145
Capitolo secondo

3. Distr∃→

a) ∃x(α → β )  α → ∃x β

Derivazione (in J):

α  α → β  β A, E→
α  α → β  ∃x β I∃
α → β  α → ∃x β I→
∃x(α → β )  α → ∃x β ∃I

b) α → ∃x β  ∃x(α → β )

Per la derivazione vedi sopra.

39. Regole della distributività non completa (con la restrizione che


la x non occorra liberamente in β )

Distr ∀ ∃
a. ∀x(α ∧ β )  ∀xα ∧ β ∃x(α ∧ β )  ∃xα ∧ β

b. ∀xα ∧ β  ∀x(α ∧ β ) ∃xα ∧ β  ∃x(α ∧ β )

a. ∀x(α ∨ β )  ∀xα ∨ β ∃x(α ∨ β )  ∃xα ∨ β



b. ∀xα ∨ β  ∀x(α ∨ β ) ∃xα ∨ β  ∃x(α ∨ β )
a. ∀x(α → β )  ∀xα → β no

b. no ∃xα → β  ∃x(α → β )
a. ∀x(α → β )  ∃xα → β ∃x(α → β )  ∀xα → β
→*
b. ∃xα → β  ∀x(α → β ) ∀xα → β  ∃x(α → β )

146
Logica dei predicati (sintassi)

Si noti che il precedente quadro riassuntivo presenta un gruppo


di regole (il gruppo →*) eccedenti rispetto a quelle che compaiono
negli altri due schemi. Esse esibiscono un tipo di distribuzione,
per così dire, incrociata, del quantificatore universale con quello
esistenziale.

I. Distr∀...

1. Distr∀∧

a) ∀x(α ∧ β )  ∀xα ∧ β

Per la derivazione vedi sopra.

b) ∀xα ∧ β  ∀x(α ∧ β )

Per la derivazione vedi sopra.

2. Distr∀∨

a) ∀x(α ∨ β )  ∀xα ∨ β

Derivazione (in C):

¬α → β  ¬α  β A, E→
¬α → β  ¬α  ∀xα ∨ β I∨
α ∨ β   ¬α → β Tr∨→
α ∨ β  ¬α  ∀xα ∨ β KS
∀x(α ∨ β )  α ∨ β   A, E∀
∀x(α ∨ β ) ¬α  ∀xα ∨ β KS
∀x(α ∨ β ) ∃x¬α  ∀xα ∨ β ∃I
∀xα   ∀xα ∨ β A, I∨
¬∃x¬α  ∀xα   Tr∃∀

147
Capitolo secondo

¬∃x¬α  ∀xα ∨ β KS
∀x(α ∨ β )  ∀xα ∨ β E

b) ∀xα ∨ β  ∀x(α ∨ β )

Per la derivazione vedi sopra.

3. Distr∀→

a) ∀x(α → β )  ∀xα → β

Per la derivazione vedi sopra.

b) no.

3*. Distr(∀∃)→

a) ∀x(α → β )  ∃xα → β

Derivazione (in J):

∀x(α → β )  ∀x(α → β ) A
∀x(α → β ) α  β E∀, E→
∀x(α → β ) ∃xα  β ∃I
∀x(α → β )  ∃xα → β I→

b) ∃xα → β  ∀x(α → β )

Derivazione (in J):

∃xα → β  ∃xα  β A, E→
α  ∃xα A, I∃
∃xα → β  α  β KS
∃xα → β  ∀x(α → β ) I→, I∀

148
Logica dei predicati (sintassi)

II. Distr∃...

1. Distr∃∧

a) ∃x(α ∧ β )  ∃xα ∧ β

Per la derivazione vedi sopra.

b) ∃xα ∧ β  ∃x(α ∧ β ) 

Derivazione (in J):

α α A
ββ A
α    β  α ∧ β I∧
α    β  ∃x(α ∧ β ) I∃
∃xα    β  ∃x(α ∧ β ) ∃I
∃xα ∧ β  ∃x(α ∧ β )  ∧I

2. Distr∃∨

a) ∃x(α ∨ β )  ∃xα ∨ β

Per la derivazione vedi sopra.

b) ∃xα ∨ β  ∃x(α ∨ β )

Per la derivazione vedi sopra.

3. Distr∃→

a) no

b) ∃xα → β  ∃x(α → β )

149
Capitolo secondo

Per la derivazione vedi sopra.

3*. Distr(∃∀)→

a) ∃x(α → β )  ∀xα → β

Derivazione (in J):

α  α → β  β A, E→
∀xα  α A, E∀
∀xα  α → β  β KS
α → β   ∀xα → β I→
∃x(α → β )  ∀xα → β ∃I

b) ∀xα → β  ∃x(α → β )

Derivazione (in C):

∀xα → β  ∀xα  β A, E→
β α → β PIb)
∀xα → β  ∀xα  α → β KS
∀xα → β  ∀xα  ∃x(α → β ) I∃
¬α  α → β PIa)
∃x¬α  ∃x(α → β ) I∃, ∃I
¬∀xα  ∃x¬α Tr∀∃
¬∀xα  ∃x(α → β ) KS
∀xα → β  ∃x(α → β ) E

40. Regole della distributività non completa (senza alcuna restrizione)

Sono soltanto:

a) ∀x(α ∧ β )  α ∧ ∀x β

150
Logica dei predicati (sintassi)

Per la derivazione vedi sopra.

b) α ∨ ∃x β  ∃x(α ∨ β )

Per la derivazione vedi sopra.

c) α → ∃x β  ∃x(α → β )

Per la derivazione vedi sopra.

41. Regole della trasformazione iterata del quantificatore universale


in quello esistenziale e viceversa (TrrQ)

Verrà dato solo il caso di una coppia di quantificatori. La gene-


ralizzazione è semplice.

a) ¬∀x∀yα  ∃x∃y¬α

Derivazione (in C):

¬∀x∀yα  ∃x¬∀yα Tr∀∃


¬∀yα  ∃y¬α Tr∀∃
¬∀yα  ∃x∃y¬α I∃
∃x¬∀yα  ∃x∃y¬α ∃I
¬∀x∀yα  ∃x∃y¬α KS

b) ¬∀x∃yα  ∃x∀y¬α

Derivazione (in C):

¬∀x∃yα  ∃x¬∃yα Tr∀∃


¬∃yα  ∀y¬α Tr∃∀
¬∃yα  ∃x∀y¬α I∃
∃x¬∃yα  ∃x∀y¬α ∃I

151
Capitolo secondo

¬∀x∃yα  ∃x∀y¬α KS

c) ¬∃x∀yα  ∀x∃y¬α

Derivazione (in C):

¬∃x∀yα  ∀x¬∀yα Tr∃∀


¬∃x∀yα  ¬∀yα E∀
¬∀yα  ∃y¬α Tr∀∃
¬∃x∀yα  ∃y¬α KS
¬∃x∀yα  ∀x∃y¬α I∀

d) ¬∃x∃yα  ∀x∀y¬α

Derivazione (in J):

¬∃x∃yα  ∀x¬∃yα Tr∃∀


¬∃yα  ∀y¬α Tr∃∀
∀x¬∃yα  ¬∃yα A, E∀
∀x¬∃yα  ∀y¬α KS
∀x¬∃yα  ∀x∀y¬α I∀
¬∃x∃yα  ∀x∀y¬α KS

e) Tutte le inverse delle precedenti

La derivazione è analoga.

42. Regole di trasformazione combinate (TrQC)

a) ¬∀x(α → β )  ∃x(α ∧ ¬β )

b) ¬∃x(α ∧ ¬β )  ∀x(α → β )

c) altre combinazioni

152
Capitolo terzo

Logica dei predicati (semantica)

1. Preliminari
1.1. Nozioni semantiche fondamentali
Per prima cosa introduciamo il concetto di struttura.

Def. 1: Struttura A

A sia un insieme non vuoto di oggetti. Allora

Struttura A =def 〈 A,{P |P è un attributo definito su A}〉


=def un insieme non vuoto di oggetti sui quali
è definito l’insieme delle proprietà e rela-
zioni.

Una struttura viene indicata normalmente anche nella maniera


seguente: 〈 A, P ,..., Q,..., R,...〉. In essa A è il dominio oggettuale,
detto anche supporto della struttura. Gli elementi appartenenti ad
A si indicano in maniera tipica oppure ponendo una barra oriz-
zontale sopra le variabili individuali: x , y,z ,...; P , Q, R,... designa,
invece, l’insieme degli attributi definiti su A. C’è una analogia tra
P e x ben visibile anche dalla loro struttura grafica: sono segni
metateorici per componenti della struttura. La definizione seguente
precisa il significato di attributo.

153
Capitolo terzo

Def. 2: Attributo relativo ad una determinata struttura A

Per definire il concetto di attributo occorre introdurre il concet-


to di n-esima potenza cartesiana relativa ad un dominio oggettuale
A.

- n-esima potenza cartesiana di A

Dato un insieme A di oggetti, si dice n-esima potenza cartesiana


di A e si indica con l’espressione An l’insieme di tutte le n-ple ordi-
nate di elementi appartenenti ad A, ossia l’insieme di tutte le com-
binazioni ottenibili anche attraverso ripetizioni mettendo assieme
in modo ordinato elementi di A.

ESEMPIO: A = {a,b} . Allora:

A1 = A = {a,b}
A 2 = insieme di tutte le coppie ordinate ottenibili combinando
due a due anche con ripetizioni tutti gli elementi di A
= {〈a,a〉, 〈a,b〉, 〈b,a〉, 〈b,b〉}

Ora si può definire il concetto di attributo n-adico su A.

- attributo n-adico su A

Dato il dominio oggettuale A, si dice attributo n-adico su A un


sottoinsieme qualsiasi di A n .

ESEMPIO: A = {1, 2,3, 4,5} . Allora:

A1 = A = {1, 2,3, 4,5}


P11 = dispari = {1,3,5}⊆ {1, 2,3, 4,5}
P21 = pari = {2, 4,6}⊆ {1, 2,3, 4,5}

154
Logica dei predicati (semantica)

A 2 = {〈1, 2〉, 〈1,3〉, 〈1, 4〉,...}


P12 = maggiore di = {〈2,1〉, 〈3,1〉,...}⊆ {〈1, 2〉, 〈1,3〉,...}
P22 = minore di = {〈1, 2〉, 〈1,3〉,...}⊆ {〈1, 2〉, 〈1,3〉,...}

NOTA 1. La definizione introdotta di attributo può apparire


strana, se si tiene conto di quello che si è detto degli attributi nella
parte introduttiva del presente lavoro. Là si era detto che gli attri-
buti sono ciò di cui i predicati sono nomi e che i predicati sono
nomi di proprietà o relazione. Gli attributi erano, pertanto, presen-
tati come proprietà (l’essere qualcosa di qualcosa) o come relazioni
(l’essere in relazione di qualcosa con qualcosa). Esiste un rapporto
tra quella definizione e la presente? Esiste un rapporto di perfetta
corrispondenza. Con la prima definizione il termine attributo è
inteso intensionalmente, mentre con la presente il termine è inteso
estensionalmente. Entrambe le interpretazioni sono legittime, an-
che se la prima è maggiormente radicata nella pratica linguistica
usuale e nella tradizione dell’ontologia filosofica, mentre la seconda
è più vicina all’ontologia astratta della teoria degli insiemi. Così, il
significato di un predicato monadico può essere, indifferentemen-
te, una proprietà (intensione) oppure l’insieme degli oggetti dotati
di quella proprietà (estensione corrispondente). In modo analogo,
il significato di un predicato n-adico può essere, indifferentemente,
una relazione n-adica (intensione) oppure l’insieme delle n-ple di
individui che stanno in quella relazione (estensione corrispondente).

NOTA 2. Data l’importanza per il seguito della trattazione, la


nozione estensionale di attributo introdotta richiede d’essere ulte-
riormente approfondita. I punti seguenti servono a questo.

1. La definizione di attributo soddisfa la condizione di estensionalità:

(om x 1 ,..., x n )(Pkn (x 1 ,..., x n ) ⇔ Phn (x 1 ,..., x n )) ⇒ Pkn = Phn

155
Capitolo terzo

cioè, se due attributi valgono dei medesimi individui sono da con-


siderare identici.

2. La definizione di attributo soddisfa la condizione di massimalità:

(om S )(S ⊆ A n ⇒ (ex  P n )(S = P n ))

cioè qualsiasi sottoinsieme di An è un attributo n-adico.


Ciò significa che A è una struttura piena, dal momento che in
essa sono presenti tutti gli attributi combinatoriamente possibili.
Infatti, dato il supporto A della struttura, sono determinate tutte le
potenze cartesiane di A e, di conseguenza, anche l’insieme potenza
di ciascuna di esse. È così determinato l’insieme di tutti gli attributi
definiti su A.

3. La cardinalità dell’insieme degli attributi presenti in A è supe-


riore a quella di A. In particolare se la cardinalità di A è ‫א‬, la cardi-
nalità dell’insieme degli attributi definiti su A è 2‫א‬. È questo il mo-
tivo per il quale nella illustrazione precedente della struttura A gli
attributi non compaiono indicizzati da numeri naturali. La indiciz-
zabilità attraverso numeri naturali corrisponde, infatti, alla loro
numerabilità, mentre la cardinalità dell’insieme degli attributi è più
che numerabile.

4. Il carattere di pienezza rappresenta l’aspetto positivo di una


struttura. In essa, infatti, sono presenti tutti gli attributi da cui di-
pende la determinatezza degli individui che appartengono al suo
supporto. Tuttavia tale carattere presenta anche un aspetto negati-
vo. La ricchezza di determinazioni della struttura è tale da non
consentire che il linguaggio disponibile sia capace, in ogni circo-
stanza, di parlare di ognuna di esse. In realtà può capitare che il
linguaggio sia capace di parlare solo di alcuni attributi presenti nel-
la struttura e sia, conseguentemente, capace di dichiarare la deter-
minatezza degli elementi del dominio solo rispetto a questi. Anzi

156
Logica dei predicati (semantica)

questa è la situazione normale. La nozione di L-struttura, che verrà


presentata tra poco, è stata, in realtà, introdotta allo scopo di adat-
tare la nozione piena di struttura a situazioni simili di lacunosità
linguistica. Come risulta dalla definizione seguente, una L-struttura
è, infatti, quella parte di una struttura che risulta descrivibile attra-
verso i segni di un determinato linguaggio L. Una L-struttura si
può intendere, in altri termini, come un modello possibile per una
teoria e perché la struttura sia tale non occorre che essa contenga
tutti gli attributi di una struttura piena, ma solo quelli che sono
nominabili nel linguaggio L della teoria. In tale senso una L-strut-
tura è il risultato della interpretazione dei segni specifici di L su
una struttura piena A, ovvero di una interpretazione che trasceglie
tra gli attributi della struttura piena quelli da far corrispondere alle
costanti descrittive di L.

Def. 3: L-struttura AI C ( L ) = Interpretazione ristretta alle costanti


di L su A
(in simboli: AI C ( L ) = 〈 A, I CA (L )〉 )

Sia data una particolare esemplificazione del linguaggio dei pre-


dicati. Indichiamo con L tale esemplificazione. Assumiamo, ad
esempio, che L sia provvista di n costanti predicative P1 ,..., Pn .
P1 ,..., Pn siano n attributi definiti sull’insieme di oggetti A; vale a
dire P1 ,..., Pn siano n attributi trascelti dalla struttura piena A. Sia
data, infine, anche la seguente funzione di interpretazione I:

I CA (L ) :{Pi | i = 1,...,n}→{P1 ,..., Pn }

ovvero, per esempio:

I CA (P1 ) = P1 ,..., I CA (Pn ) = Pn

Allora:

157
Capitolo terzo

AI C ( L ) è detta L-struttura (o struttura per L o, ancora, struttura


ristretta a L) se e solo se:

AI C ( L ) = 〈 A, P1 ,..., Pn 〉

In altre parole, con AI C ( L ) si indica la struttura che si ottiene da


A attraverso la restrizione degli attributi a quelli nominabili in L.
A è detto, analogamente al caso della struttura piena, dominio og-
gettuale di AI C ( L ) o suo supporto. Gli individui di A si designano
sempre attraverso i segni x , y,z ,... Anziché

I CA (P1 ),..., I CA (Pn )

si scrive spesso anche


AC AC
P1 I (L)
,..., Pn I (L)

ESEMPIO: L-struttura dell’ordinamento dei numeri naturali (ove


M designa la relazione di minoranza ed è l’unico predicato caratte-
rizzante il linguaggio L)

N I M ( L ) = 〈,<〉

NOTA: Considerando il fatto che una L-struttura AI C ( L ) è defi-


nita come particolare interpretazione di L su A, cioè come
〈A, I CA (L )〉 , essa è spesso chiamata anche modello definito da L
su A.

Chiaramente non tutte le espressioni linguistiche di L hanno un


significato immediato nella L-struttura AI C ( L ) . Nel caso illustrato,
ad esempio, solo la costante descrittiva M ha la sua immagine im-
mediata in N I M ( L ) . Come è dunque possibile fare in modo che
tutti i segni – o sequenze di segni come le formule di L – vengano
a parlare di AI C ( L ) ? Per fare questo occorre estendere la funzione

158
Logica dei predicati (semantica)

di interpretazione anche alle variabili individuali. Ciò si può fare in


due modi del tutto equivalenti.
Accanto alla funzione di interpretazione definita per l’insieme
delle costanti descrittive di L, viene introdotta una nuova funzione
di interpretazione I VA (relativa alla medesima struttura, ovvero alla
stesso dominio oggettuale), che associa elementi di A ad ognuna
delle variabili individuali. Formalmente essa è definibile nella ma-
niera seguente:

I VA :{x i |i ∈}→ A

Data la strutturazione ordinata, secondo la sequenza dei numeri


naturali, dell’insieme delle variabili individuali, tale funzione genera
una successione potenzialmente infinita di elementi di A. Per que-
sto essa è spesso indicata attraverso il segno S, che richiama quello
di successione. L’altro metodo consiste semplicemente nell’aggiun-
gere alla clausola definitoria di I CA l’ulteriore clausola definitoria di
I VA . In conclusione si ottiene una definizione di interpretazione
completa, per costanti e per variabili. Noi preferiamo questo se-
condo metodo all’altro. Per questo introduciamo esplicitamente la
nozione di interpretazione appena richiamata. La sua definizione ci
consentirà di fare il punto su tutte le definizioni precedentemente
introdotte e raccordarle le une alle altre.

Def. 4: I A (L ) = Interpretazione di L su una struttura A


(in simboli: I A (L ) = 〈 A, I CA (L ), I VA (L )〉 )

Una interpretazione I di L su A è una funzione che associa ad


ogni variabile individuale di L uno e un solo elemento appartenen-
te ad A e ad ogni costante predicativa del medesimo linguaggio
uno ed un solo attributo definito su A. In simboli:

a) I CA (L ) :{P n |P n è costante predicativa}→{P n } ove P n ⊆ A n

159
Capitolo terzo

b) I VA (L ) :{x i |i ∈}→ {x i } ove x i è un elemento di A

Per indicare una interpretazione I di L su A si usa l’espressione


I A (L ) .

ESEMPIO: A sia, come sopra, N, cioè la struttura ordinata dei


numeri naturali. L sia, poi, un linguaggio aritmetico contenente
solo il predicato relazionale M. Le cifre 1, 2, 3 ... siano segni meta-
teorici per indicare gli elementi di N, cioè i numeri naturali. Allora
I N (L ) è una interpretazione I di L su N se vale:

I N ( M ) = <

e, inoltre,

I N (x ) = 1
I N ( y ) = 2
I N (z ) = 3
...

NOTA 1: Chiaramente vale

I A (L ) = 〈AI C ( L ) , I VA (L )〉 = 〈 A, I CA (L ), I VA (L )〉

da cui AI C ( L ) = 〈 A, I CA (L )〉 . Il simbolismo consente di vedere in


modo immediato come una interpretazione di L su una struttura
A sia una estensione della nozione di interpretazione su A ristretta
alle costanti di L. Si tratta, in altri termini, di una particolare inter-
pretazione di un modello di L sulla struttura A, determinata dai
valori associati a tutti i segni di L compreso l'insieme delle variabili.

NOTA 2: Sia fissata la struttura A, o, il che è lo stesso, il suo


supporto A. Ci si può chiedere, allora, se ci sono diverse interpre-

160
Logica dei predicati (semantica)

tazioni sulla struttura. La risposta è ovviamente positiva: ce ne pos-


sono essere diverse. Tuttavia le ragioni della diversità sono varie.

(a) Le interpretazioni possono essere diverse perché varia il lin-


guaggio. In tal caso, l’unico caso rilevante consiste nel variare il
numero delle costanti predicative a cui assegnare un attributo di A.
Allora:
L ≠ L ' , perché varia il numero delle costanti predicative ; per-
tanto abbiamo I CA (L ) ≠ I CA (L '). Ma allora 〈 A, I CA (L ), I VA (L )〉 ≠
〈 A, I CA (L '), I VA (L ')〉, anche se I VA (L ) = I VA (L '). Di conseguenza,
I A (L ') ≠ I A (L ) .

(b) Supponiamo che L rimanga invariato, ma che cambi l’asse-


gnazione degli attributi alle costanti predicative. Allora:
L = L ', perché non esistono differenze di linguaggio. Tuttavia
I ' AC (L ) ≠ I CA (L ). Pertanto, anche se I ' VA (L ) = I VA (L ), abbiamo che
〈 A, I ' AC (L ), I VA (L )〉 ≠ 〈 A, I CA (L ), I VA (L )〉 e, di conseguenza,
I 'A (L ) ≠ I A (L ).

(c) Supponiamo che rimanga inalterata l’assegnazione di signifi-


cato per ognuna delle costanti predicative, ma che vari l’interpreta-
zione delle variabili individuali. Allora:
L = L ', perché non esistono differenze di linguaggio. Inoltre
I ' AC (L ) = I CA (L ). Tuttavia, I ' VA (L ) ≠ I VA (L ). Pertanto, anche se
I ' CA(L ) = I CA (L ), 〈 A, I CA (L ), I ' VA(L )〉 ≠ 〈 A, I CA (L ), I VA (L )〉 e, quin-
di, I 'A (L ) ≠ I A (L ).

In seguito, noi faremo spesso variare le interpretazioni su una


struttura relative a un linguaggio L esclusivamente per la assegna-
zione delle variabili individuali. Per questo, a meno di dichiarazione
contraria, la diversità tra due interpretazioni relative al medesimo
linguaggio L, espressa dalla affermazione I A ≠ I 'A , dipenderà
esclusivamente dalla assegnazione dei valori alle variabili individuali

161
Capitolo terzo

I ' AV (L ). Così, mentre per convenzione implicita, I A (Pi ) = I 'A (Pi ),


sarà invece, per esempio:

I 'A (x ) = y I 'A ( y ) = x I 'A (z ) = z ...

mentre:

I A (x ) = x IA( y ) = y I A (z ) = z ...

ESEMPIO: Sia data l’interpretazione I N relativa all’esempio arit-


metico precedente e si ponga:

I ' N (x ) = 2 I ' N ( y ) = 1 I ' N (z ) = 3 ...

Allora I N ≠ I ' N , perchè è vero che I ' N coincide con I N per


quanto riguarda le costanti predicative:

I ' N ( M ) = < = I N ( M )

ma I ' N si differenzia da I N per il calore associato alle variabili:

I ' N (x ) = 2 I ' N ( y ) = 1 I ' N (z ) = 3 ...


contro

I N (x ) = 1 I N ( y ) = 2 I N (z ) = 3 ...

A questo punto, possiamo prepararci ad introdurre la definizio-


ne di verità di una formula α ∈L in I A , vale a dire in una inter-
pretazione di L su una struttura A. Tuttavia, prima di dare una
definizione rigorosa del concetto di verità di una formula rispetto
ad una interpretazione, occorre introdurre il concetto di reinter-
pretazione.

162
Logica dei predicati (semantica)

Def. 5: Reinterpretazione di I A rispetto a x su x


(in simboli: I A xx )

I A xx =def interpretazione su A che (i) differisce da I al massimo per


il valore associato a x e (ii) tale che I A xx (x ) = x.

ESEMPIO: Come sopra, A sia N, cioè la struttura ordinata dei


numeri naturali. L sia un linguaggio aritmetico contenente solo il
predicato relazionale M e l’interpretazione sia definita in modo tale
che:

I N (x ) = 1
I N ( y ) = 2
...
I N ( M ) = <

Allora I N 4x è caratterizzata dal fatto che:

I N 4x (x ) = 4

mentre tutto il resto è come sopra.

NOTA: Una reinterpretazione I A xx si differenzia dall’interpreta-


zione originaria I A solo per l’interpretazione delle variabili. Essa,
pertanto, rientra nel caso sopra esposto di interpretazione

I 'A = 〈 A, I CA (L ), I ' AV (L )〉

che si differenzia da

I A = 〈 A, I CA (L ), I VA (L )〉

solo per la seconda componente, I ' AV (L ) , della interpretazione.

163
Capitolo terzo

Sono infine importanti i seguenti risultati concernenti le pro-


prietà delle reinterpretazioni.

Teoremi sulle reinterpretazioni

a) I A xx (Pi ) = I A (Pi ) (per qualsiasi i)

Ciò dipende dal fatto che la reinterpretazione riguarda variabili


individuali e non tocca le costanti predicative.

b) I A xx ( y ) = I A ( y ) se x ≡/ y

Ciò dipende dal fatto che la reinterpretazione riguarda x e non y.

c) I A xx (x ) = x = I 'A xx (x )

Infatti, per quanto I 'A e I A siano interpretazioni diverse sulla


struttura A, rispetto alla interpretazione di x coincidono in forza
della reinterpretazione sullo stesso valore x.

d) (I A xx )xy = I A xy

Infatti, la seconda reinterpretazione annulla la prima.

e) (I A xx ) yy = (I A yy )xx se x ≡/ y

Infatti, in questo caso si opera una doppia reinterpretazione


riguardante due variabili diverse. L’ordine con cui avviene la rein-
terpretazione è, pertanto, indifferente.

= IA
I (x )
f) I A xA

164
Logica dei predicati (semantica)

In questo caso la reinterpretazione è fatta proprio sul valore


assegnato alla x dalla interpretazione originaria. La reinterpretazio-
ne opera, pertanto, a vuoto.

Giunti a questo punto, possiamo introdurre la definizione di


formula vera.

Def. 4: Formula di L vera in una interpretazione di L sulla struttura A

La verità della formula α di L nella interpretazione I A si indica


con l’espressione I A  α , che si legge: I A è modello di α .

NOTA: Si deve distinguere la relazione modello appena introdot-


ta con il costrutto modello richiamato in una delle note precedenti.
In quest’ultimo senso, il concetto di modello coincide con quello
di L-struttura: data, cioè, una struttura A e il linguaggio L, la L-
struttura relativa AI C ( L ) , vale a dire 〈 A, I CA (L )〉 , è detta anche mo-
dello di L su A. Diversamente, I A  α sta ad indicare quella parti-
colare relazione esistente tra I A e α , per cui α risulta vera nella
interpretazione I A , ovvero I A rende vera α . Esiste, naturalmente,
un rapporto tra le due nozioni. Infatti, rendendo esplicito il signifi-
cato di I A come 〈 A, I CA (L ), I VA (L )〉 , anziché dire che I A rende
vera α si può equivalentemente dire che I VA (L ) rende vera α nel
modello 〈 A, I CA (L )〉. Questo modo di scrivere viene espressamente
usato nei manuali che si attengono scrupolosamente al modo
tarskiano di introdurre il concetto di modello. In questi, I A  α ,
che è, per definizione di I A , 〈 A, I CA (L ), I VA (L )〉  α , diventa
〈〈 A, I CA (L )〉, I VA (L )〉  α ovvero la successione I VA (L ) rende vera
α , nel modello 〈 A, I CA (L )〉.

La relazione modello I A  α è definita induttivamente nella


maniera seguente:

Base: α ≡ P n x 1 ,..., x n

165
Capitolo terzo

I A  P n x 1 ,..., x n ⇔ I A (P n ) vale di I A (x 1 ),..., I A (x n )


⇔ P n vale di x 1 ,..., x n

Passo:

α ≡ β ∧γ
IA  β ∧ γ ⇔ I A  β  et  I A  γ

α ≡ β ∨γ
IA  β ∨ γ ⇔ I A  β  vel  I A  γ

α ≡ β →γ
IA  β → γ ⇔ IA  β ⇒ IA  γ

α ≡ ¬β
I A  ¬β ⇔ IA  β

α ≡ ∀x β
I A  ∀x β ⇔ (om x ∈ A) (I A xx  β )

α ≡ ∃x β
I A  ∃x β ⇔ (ex x ∈ A) (I A xx  β )

Chiediamoci, a questo punto, qual è il significato dell’espressio-


ne (om I A )(I A  α ) . Essa può avere tre significati diversi:

I° Significato: Tutte le interpretazioni sulla L-struttura (o sul mo-


dello) 〈 A, I CA (L )〉, rendono vera la formula α ∈L.

Ciò significa: tutte le interpretazioni di L su A che si differen-


ziano esclusivamente per il valore assegnato alle variabili e che as-

166
Logica dei predicati (semantica)

segnano alle costanti predicative lo stesso valore, stabilito da


I CA (L ), rendono vera la formula α di L, ovvero:

(om I V
A )(
(L ) 〈 A, I CA (L ), I VA (L )〉  α )
ESEMPIO: Legge aritmetica: x + y = y + x (vera in un determi-
nato modello, ma per tutte le interpretazioni delle variabili, cioè per
tutti i numeri).

NOTA: Per riassumere il tratto essenziale di questa interpreta-


zione, possiamo dire che si tratta di verità in tutte le interpretazioni
di un modello di una struttura.

II° Significato: Tutte le interpretazioni di L sulla struttura A ren-


dono vera la formula α .
Ciò significa: tutte le interpretazioni di L su A che si differen-
ziano per il valore assegnato alle variabili e per quello assegnato alle
costanti predicative, mantenendo costante la struttura A, rendono
vera la formula α di L. Formalmente:

(om I C
A )( )(
(L ) om I VA (L ) 〈 A, I CA (L ), I VA (L )〉  α )
NOTA: Per riassumere il tratto essenziale del caso, si tratta di
verità in tutte le interpretazioni di tutti i modelli di una struttura.

III° Significato: Tutte le interpretazioni di L rendono vera la for-


mula α di L.
Ciò significa: tutte le interpretazioni di L su una qualsiasi strut-
tura A rendono vera α , vale a dire tutte le interpretazioni di L che
si differenziano per il valore assegnato alle variabili e per quello
assegnato alle costanti predicative su una qualsiasi struttura A ren-
dono vera α . Formalmente:

(om A )(om 〈 A, I C
A )(
(L ), I VA (L )〉 〈 A, I CA (L ), I VA (L )〉  α )

167
Capitolo terzo

che è equivalente a

(om A )(om I C
A )( )(
(L ) om I VA (L ) 〈 A, I CA (L ), I VA (L )〉  α )
ESEMPIO: Legge logica

NOTA: Si tratta di verità in tutte le interpretazioni di tutti i mo-


delli di tutte le strutture.

Nel seguito, a meno di indicazione in senso contrario, l’espres-


sione (om I A )(I A  α ) avrà sempre il significato più generale, vale
a dire il terzo. Nell’eventualità, l’indicazione avverrà attraverso la
posizione di qualche condizione su A.
In secondo luogo, a scopo di semplificare la scrittura, il riferi-
mento alla struttura A su cui è definito il concetto di interpreta-
zione I A verrà tralasciato tutte le volte in cui la sua presenza non
sarà essenziale. Il segno I starà dunque, spesso, per il simbolo
complesso I A . Naturalmente il riferimento alla struttura e al mo-
dello in essa ritagliato (L-struttura) è implicito.

1.2. Preliminari alla dimostrazione dei metateoremi semantici


Scopo delle pagine seguenti è di enunciare e dimostrare alcuni
teoremi, di cui i più importanti sono quelli di correttezza e di
completezza per il calcolo C. Naturalmente questi teoremi non
sono teoremi di C ma teoremi su C. Essi riguardano la metateoria
di C ed appunto per questo sono da chiamare più appropriatamen-
te metateoremi. A parte la questione terminologica della loro de-
nominazione, il fatto che riguardino fatti concernenti la metateoria
semantica e sintattica di C pone il problema di quale logica viene
usata per condurre la loro dimostrazione. La risposta più chiara
viene dalla esplicitazione (almeno parziale) di tale logica (che in
seguito sarà usata anche per altri teoremi appartenenti allo stesso
livello metateorico). Ci si renderà conto, da un lato, che si tratta di

168
Logica dei predicati (semantica)

una versione intuitiva (cioè interpretata sulla metateoria logica)


dello stesso calcolo. In tal senso, dunque, nella dimostrazione della
correttezza e completezza di C è presupposta a livello metateorico
la stessa logica classica. D’altro lato, però, la logica classica presup-
posta non riguarda i nessi tra proposizioni concernenti direttamen-
te la realtà (come avviene, nel quadro di una interpretazione reali-
stica della logica, per le proposizioni del linguaggio-oggetto) ma
quelli tra espressioni che parlano a loro volta delle proposizioni del
linguaggio-oggetto e delle loro proprietà. In questo senso l’uso
metateorico della logica allo scopo di fondare la correttezza e la
completezza di C non comporta alcun tipo di circolo e, in secondo
luogo, non coinvolge in un impegno ontologico così forte come
quello richiesto dall’uso pieno della logica classica a livello di lin-
guaggio-oggetto.
Useremo come metalinguaggio in cui formulare le argomenta-
zioni metateoriche un linguaggio semiformale comprendente
espressioni metateoriche primitive da introdurre volta per volta ed
espressioni composte mediante gli operatori metateorici et, vel, ⇒,
⇔, non, om, ex, già introdotti. Le regole di deduzione sono sempre
intese quali prescrizioni intorno alla possibilità di scrivere espres-
sioni. Indicheremo in generale tali espressioni con le sigle A, B, C.
Se sarà necessario evidenziare il fatto che in qualcuna di esse è pre-
sente qualche variabile libera, lo si indicherà mettendo la variabile
tra parentesi dopo la sigla designante l’espressione. Per esempio
A(x) denota una espressione metateorica contenente la variabile
libera x; A(y) denota la stessa espressione con y al posto di x. Pre-
messo questo, le regole sono le seguenti.

1. Regola d’assunzione metateorica (a)

Essa consente di porre qualche espressione come ipotesi.

Per esempio si può scrivere A, in dipendenza da A.

169
Capitolo terzo

2. Regola di introduzione di et (Iet)

A B
A et  B

Se si è scritto già A e B, allora si può scrivere anche A et B.

3. Regola di eliminazione di et (Eet)

A et  B
A/B

Se si è scritto A et B, allora si può scrivere anche A o B.

4. Regola di introduzione di vel (Ivel)

A/B
A vel  B

Se si è già scritto A o B, allora si può scrivere anche A vel B.

5. Regola di introduzione di vel nell’antecedente (velI)

A⇒C
B⇒C
A vel  B ⇒ C

Se si sono scritti i condizionali A ⇒ C e B ⇒ C, allora si può


scrivere anche A vel B ⇒ C.

170
Logica dei predicati (semantica)

6. Regola metateorica del modus ponens (mp)

A
A⇒B
 B

Se si è scritto A e il condizionale A ⇒ B, allora si può scrivere


anche B.

7. Regola di scaricamento delle premesse (s)

A

B
 A ⇒ B

Se a partire dall’ipotesi A si è ottenuto B, allora si può cancella-


re A e scrivere il condizionale A ⇒ B.

8. Regola di introduzione di om (Iom)

A( y )
 (om x )(A(x ))
(sotto la condizione critica che y sia una variabile generica)

Se si è scritto l’espressione A(y) e y sta per un esempio qualsiasi


di un certo tipo di oggetti metateorici, allora si può scrivere anche
(om x)(A(x)).
È da notare l’importanza della condizione critica. Non si può
generalizzare una certa proprietà se non nel caso in cui l’argomen-
tazione concludente alla attribuzione di quella proprietà ad un ele-

171
Capitolo terzo

mento di una determinata classe di oggetti metateorici sia ripetibile


per un rappresentante qualsiasi della stessa classe, ossia quando
quella proprietà non dipende dalla specificità dell’esempio. Tecni-
camente, poi, ciò significa richiedere che la variabile y non occorra
liberamente in nessuna delle assunzioni da cui dipende A(y).

9. Regola di eliminazione di om (Eom)

(om x )(A(x ))
 A( y )

Se si è scritto (om x)(A(x)), ossia che la proprietà espressa da A


vale per tutti gli elementi di una certa classe di oggetti metateorici,
allora si può scrivere anche A(y), ovvero che quella proprietà vale
per un qualsiasi rappresentante della medesima classe.

10. Regola di introduzione di ex (Iex)

A( y )
 (ex  x )(A(x ))

Se si è scritto A(y), ossia si è trovato che un certo oggetto go-


de della proprietà espressa da A, allora si può scrivere anche (ex
x)(A(x)), ovvero che esiste un certo oggetto che gode di quella
proprietà.

11. Regola critica di eliminazione di ex (Eex)

(ex  x )(A(x ))
 A( y )

172
Logica dei predicati (semantica)

(sotto la condizione che y sia considerata variabile non generica e


non possa, perciò, essere confusa nel seguito della argomentazione
con variabili generiche)

Se si è scritto (ex x)(A(x)), ossia si è trovato che esiste un certo


oggetto che gode della proprietà espressa da A, allora si può scri-
vere anche A(y), ovvero si può usare la variabile y per designare
proprio quell’oggetto. È facile avvedersi perché la y non possa es-
sere trattata quale variabile generica. Essa non sta per un oggetto
qualsiasi (appartenente a qualche classe) ma per un oggetto deter-
minato (di quella classe).
È da notare che la condizione critica d’applicazione della regola
Eex è soddisfatta formalmente solo se l’argomentazione, che pren-
de le mosse dalla conclusione della regola, termina con una espres-
sione in cui la y non compare libera e che non dipende da eventuali
altre assunzioni su y. Per questo motivo Eex rappresenta un modo
contratto ed intuitivo d’esprimere la regola, formalmente rigorosa,
avente la seguente forma: sia dato (ex x)(A(x)) e dall’ipotesi che y
sia un oggetto generico fornito della proprietà espressa da A si
ottenga l’espressione B, ossia B si ottenga a partire da A(y) senza
far uso di assunzioni in cui y è libera e B non contenga a sua volta
occorrenze libere di y. Allora B segue direttamente da (ex x)(A(x))
ed eventuali altre assunzioni fatte nel corso dell’argomentazione,
mentre l’ipotesi A(y) può essere scaricata. Schematicamente:

[A( y )]

(ex  x )(A(x ) B
 B

12. Regola metateorica classica di riduzione all’assurdo ((non k))

173
Capitolo terzo

[non A]

B et  non B 
 A

Se dalla negazione di A (ipotesi per assurdo) si ottiene una con-


traddizione, allora si può scrivere A e cancellare l’ipotesi per assur-
do non A.

Prima di passare alla dimostrazione dei metateoremi annunciati


è utile fare ancora qualche osservazione sull’uso del calcolo meta-
teorico appena presentato.

1. In primo luogo, molte delle ipotesi che nel corso delle pros-
sime argomentazioni si assumeranno in base alla regola d’assun-
zione metateorica a, saranno contrassegnate attraverso sigle speci-
fiche. In particolare:
a. H sta ad indicare, in conformità all’uso già fatto, l’assunzione
della (o delle) ipotesi fondamentale, da cui si muove per ottenere la
tesi da dimostrare (Dem);
b. l’eventuale trasformazione dell’ipotesi iniziale e della tesi da di-
mostrare si indica con freccia verticale (↓) posta tra prima e secon-
da formulazione di H e Dem;
c. Hi sta ad indicare l’assunzione di una ipotesi induttiva;
d. Ha sta ad indicare l’assunzione dell’ipotesi per assurdo tipica di
(non k).
2. In secondo luogo, è da notare che le regole presentate, per
quanto siano più ispirate al metodo di deduzione naturale per
espressioni che per sequenze, corrispondono esattamente alle re-
gole del calcolo-oggetto costruito secondo l’impostazione sequen-
ziale. Ciò non vale solo per la parte proposizionale ma anche per
quella predicativa. Ne scaturiscono due conseguenze.

174
Logica dei predicati (semantica)

A. Come a livello di calcolo-oggetto sono fruibili le regole deriva-


bili di C, così anche nella metateoria si può far uso di regole rica-
vabili da quelle presentate, ad esempio:

1. Regole di contrapposizione metateorica (c)

A⇒B A ⇒ non B
non B ⇒ non A B ⇒ non A

non A ⇒ B non A ⇒ non B


non B ⇒ A B⇒A

2. Regola di introduzione di ⇒ (I⇒)

A et  B ⇒ C
 A ⇒ (B ⇒ C )

3. Regola di eliminazione di ⇒ (E⇒)

A ⇒ (B ⇒ C )
 A et  B ⇒ C

4. Regola di introduzione di ⇔ (Ι⇔)

A⇒B
B⇒A
A⇔B

175
Capitolo terzo

5. Regola di eliminazione di ⇔ (Ε⇔)

A⇔B
A⇒B/B ⇒A

6. Regola metateorica di concatenazione (ks)

A⇒B
B⇒C
A⇒C

7. Regola metateorica di esaustione (e)

A⇒B
non A ⇒ B
B

8. Regola metateorica della negazione intuizionistica ((non i))

B non B
A

9. Regola metateorica della negazione minimale ((non j))

[A]

B et  non B 
 non A

176
Logica dei predicati (semantica)

10. Regole di trasformazione per connettivi e quantificatori come


ad esempio le seguenti (Tr ⇒ et e Tr om ex):

A⇒B (om x )A(x )


non(A et  nonB ) non(ex  x ) nonA(x )

11. Regole di distributività per connettivi e quantificatori (Distr):

A et  (B vel  C ) (om x )(A(x ) ⇒ B(x ))


(A et  B ) vel  (A et  C ) (om x )A(x ) ⇒ (om x )B(x )

12. Regola di introduzione di ex nell’antecedente (exI)

A( y ) ⇒ B
 (ex  x )A(x ) ⇒ B
(sotto l’assunzione critica che y sia una variabile generica)

B. Anche il calcolo metateorico potrebbe essere formulato come


calcolo sequenziale. In tal caso, assumendo che il segno ⇒ possa
servire anche come segno di derivabilità (da un insieme di espres-
sioni a una espressione), tra regole di C e regole della parte propo-
sizionale del calcolo metateorico ci sarebbe anche una identità
strutturale. Indicando, poi, con l’insieme delle assunzioni da cui
dipende la premessa relativa, le regole predicative del calcolo meta-
teorico sarebbero rimpiazzabili attraverso le seguenti:

1. Regola di introduzione di om

Σ ⇒ A( y )
 Σ ⇒ (om x )A(x )

177
Capitolo terzo

(sotto l’assunzione che y non sia libera


in nessuna delle espressioni di )

2. Regola di eliminazione di om

Σ ⇒ (om x )A(x )
 Σ ⇒ A( y )

3. Regola di introduzione di ex nel conseguente

Σ ⇒ A( y )
 Σ ⇒ (ex  x )A(x )

4. Regola di introduzione di ex nell’antecedente

Σ  A( y ) ⇒ B
 Σ  (ex  x )A(x ) ⇒ B

(sotto l’assunzione critica che y non sia libera in B


e in nessuna delle espressioni di )

3. In terzo luogo, l’uso delle regole del calcolo metateorico non


verrà sempre esplicitamente richiamato. Talvolta le argomentazioni
saranno di proposito lasciate ad un livello informale basato sul lin-
guaggio naturale. Ciò ha una duplice motivazione. Da una parte, il
calcolo esposto non comprende alcuni principi basilari della meta-
teoria, tra cui i principi che regolano l’uso della relazione di identità
e il principio di induzione, fondamentale per condurre argomenta-
zioni di tipo induttivo. Di essi si farà un uso intuitivo non comple-
tamente formalizzato. D’altro lato, lavorare col linguaggio naturale
è talvolta più conveniente per mantenere viva la forza dell’intuizio-

178
Logica dei predicati (semantica)

ne. Il riferimento alle regole del calcolo metateorico è però essen-


ziale per rendersi conto del fatto che anche la metateoria semantica
e sintattica è, come una qualsiasi teoria, formalizzabile nel contesto
di una specifica logica.

2. Teoremi di coincidenza e di conversione


2.1. Preliminari al teorema di coincidenza
Poniamoci a questo punto il seguente interrogativo: il valore di
verità che una certa formula riceve nella interpretazione I A , cam-
bia al mutare di I A in I 'A ? Naturalmente, per definizione di I 'A ,
nella trasformazione di I A in I 'A non può mutare la L-struttura
(o modello) sottesa alla interpretazione e, pertanto, non è in que-
stione l’eventuale mutamento del valore di verità della formula di-
pendente dal cambiamento del dominio oggettuale o dei valori as-
segnati alle costanti predicative di L. Ciò che può mutare è solo
l’interpretazione delle variabili. Ebbene, la risposta è data dal teo-
rema di coincidenza, il quale afferma che il valore può cambiare
solo se varia l’interpretazione di almeno una variabile tra quelle che
occorrono liberamente nella formula in questione.
Alla dimostrazione del teorema premettiamo la definizione di
coincidenza tra due interpretazioni – riguardo alle quali si sottin-
tende sempre il fatto che si tratta di interpretazioni sulla stessa L-
struttura (o modello) ritagliata sulla struttura A – coincidenti ri-
spetto alle variabili libere occorrenti in una formula. Tralasciamo il
riferimento alla struttura A per le ragioni sopra esposte.
α
Def.: I = I ' : I coincide con I ' rispetto alle variabili libere in α
α
I = I ' ⇔ (om x )(Lib x  in α ⇒ I(x ) = I '(x ))

In altri termini, I coincide con I ' rispetto alle variabili libere in


α se e solo se le due interpretazioni conferiscono lo stesso valore a
tali variabili.

179
Capitolo terzo

NOTA: È importante il requisito che le due interpretazioni coinci-


dano già rispetto al medesimo modello 〈 A, I CA (L )〉, basato sulla stessa
struttura A. I può dunque differenziarsi da I ' solo per l’interpre-
tazione delle variabili. Formalmente: può essere I ≠ I ' solo perché

I = 〈 A, I CA (L ), I VA (L )〉 e I ' = 〈 A, I CA (L ), I ' AV (L )〉 .
α
Conseguentemente, porre I = I ' non significa escludere che I VA (L )
possa differenziarsi da I ' AV (L ) per l’interpretazione di variabili che
non occorrono liberamente in α .

A questo punto si può formulare il teorema di coincidenza.


α
2.2. Teorema di coincidenza: I = I ' ⇒ (I  α ⇔ I '  α )
La dimostrazione è per induzione sulla costruzione di α . Essa
viene svolta per una I generica e una I ' altrettanto generica la qua-
le soggiace alla sola condizione di coincidere con I in riferimento
alle variabili libere di α . Dunque i dati del teorema sono:
α
H: I = I ' Dem: I  α ⇔ I '  α

Base: α ≡ P n x 1 ,..., x n

I  P n x 1 ,..., x n ⇔ I(P n ) vale di I(x 1 ),..., I(x n ) def. 


⇔ I '(P n ) vale di I '(x 1 ),..., I '(x n ) per H
⇔ I '  P n x 1 ,..., x n def. 

Passo: α ≡ ¬β
β β
Hi: I = I ' ⇒ (I  β ⇔ I '  β ), ma I = I ' da H per cui
I β ⇔ I'β

I  ¬β ⇔ I β def. 
I  ¬β ⇔ I' β Hi

180
Logica dei predicati (semantica)

I  ¬β ⇔ I '  ¬β def. 

α ≡ β ∧ γ ,α ≡ β ∨ γ ,α ≡ β → γ

Le dimostrazioni sono analoghe a quella precedente.

α ≡ ∀x β
β
Hi: I xx = I 'xx ⇒ (I xx  β ⇔ I 'xx  β )

β ∀x β β−x
Ora vale I xx = I ' xx . Infatti, per ipotesi, I = I ' e perciò I = I '.
Cosa si può fare, allora, per ottenere che le due interpretazioni co-
incidano pure rispetto a x? Basta operare la reinterpretazione in I e
in I ' di x su x . Infatti si sa che I xx (x ) = x = I ' xx (x ). I, d’altra parte,
coincide con I ', rispetto a tutte le altre variabili libere in β . Quindi:
β
I xx = I ' xx .

Come conclusione, la Hi si può trasformare nella seguente:

Hi: I xx  β ⇔ I ' xx  β

Ma allora:

I  ∀x β ⇔ (om x )(I xx  β ) def. 


⇔ (om x )(I ' xx  β ) Hi
⇔ I '  ∀x β def. 

Passo: α ≡ ∃x β

Hi: I xx  β ⇔ I ' xx  β (per argomentazione analoga)

I  ∃x β ⇔ (ex  x )(I xx  β ) def. 

181
Capitolo terzo

⇔ (ex  x )(I ' xx  β ) Hi


⇔ I '  ∃x β def. 

Corollario: α sia una formula chiusa, vale a dire, non contenga nes-
suna variabile libera. Si prendano poi in considerazione solo le in-
terpretazioni basate sullo stesso modello (o L-struttura) della me-
desima struttura. Allora, che α sia soddisfatta da una interpreta-
zione di tale classe è equivalente al fatto che sia soddisfatta da tutte
le interpretazioni della stessa classe. Formalmente:

Ch α ⇒ (om I )[I  α ⇔ (om I ')(I ' ∈{I xx |x ∈ A}⇒ I '  α )]

Dimostrazione:

1. Parte: verso ⇒

I ' ∈{I xx |x ∈ A} a1
Ch α a2
α α
I =I ' def. =
I α a3
I'α per Coincidenza
I ' ∈{I xx |x ∈ A}⇒ I '  α s (a1)
(om I ')(I ' ∈{I xx |x ∈ A}⇒ I '  α ) Iom
I  α ⇒ (om I ')(I ' ∈{I xx |x ∈ A}⇒ I '  α ) s (a3)

2. Parte: verso ⇐

(om I ')(I ' ∈{I xx |x ∈ A}⇒ I '  α ) a4


I xI( x ) ∈{I xx |x ∈ A}⇒ I xI( x )  α Eom
I xI( x ) ∈{I xx |x ∈ A} per def. di I xI( x )
I xI( x )  α mp
I α per def. di I xI( x )
(om I ')(I ' ∈{I xx |x ∈ A}⇒ I '  α ) ⇒ I  α s (a4)

182
Logica dei predicati (semantica)

Conclusione:

I  α ⇔ (om I ')(I ' ∈{I xx |x ∈ A}⇒ I '  α ) I⇔ (1. e 2.


Parte)
(om I )[I  α ⇔ (om I ')(I ' ∈{I xx |x ∈ A}⇒ I '  α )]
Iom
Ch α ⇒ (om I )[I  α ⇔ (om I ')(I ' ∈{I x |x ∈ A}⇒ I '  α )]
x

s (a2)

NOTA: Il corollario appena dimostrato chiarisce in modo illumi-


nante la tesi tarskiana, secondo la quale una formula chiusa appar-
tenente al linguaggio L è vera nella I A (ovvero nel modello
〈 A, I CA (L )〉 ) sse è soddisfatta da tutte le successioni S = I VA (L ) .
Infatti, nella memoria originale di Tarski sulla verità (Wahrheitsbegriff
in den formalisierten Sprachen), l’autore introduce induttivamente la
nozione di soddisfazione per formule aperte e solo in un secondo
momento quella di verità per formule chiuse. Ebbene, la verità vi è
definita come soddisfazione per tutte le successioni nel modello. Il
corollario del teorema di coincidenza mostra l’equivalenza dei due
modi di introdurre il concetto di verità. Si tratta di una pura diffe-
renza tecnica.

2.3. Teorema di conversione


È possibile trasformare una interpretazione I modello di α xy , in
cui la sostituzione sia legittima, in una interpretazione modello di
α ? La risposta è affermativa: tale interpretazione è I xI( y ) . Ciò risul-
ta dal seguente teorema, detto di conversione.

Leg  α xy ⇒ (I xI( y )  α ⇔ I  α xy )

Dimostrazione per induzione sulla costruzione di α :

H: Leg  α xy Dem: I xI( y )  α ⇔ I  α xy

183
Capitolo terzo

Base: α ≡ Px (consideriamo solo il caso rilevante più semplice)

I xI( y )  Px ⇔ I xI( y )(P ) vale di I xI( y )(x ) def. di 


⇔ I(P ) vale di I( y ) def. reinter.
e teorema a)
su reinterpr.
⇔ I  Py def. 
⇔ I  Px xy def. α xy

Passo: α ≡ ¬β

Hi: Leg   β xy ⇒ (I xI( y )  β ⇔ I  β xy ), ma Leg   β xy da H, quindi


I xI( y )  β ⇔ I  β xy

I xI( y )  ¬β ⇔ I xI( y )  β def. 


⇔ I  β xy Hi
⇔ I  ¬( β xy ) def. 
⇔ I  (¬β )xy def. α xy

Per gli altri casi proposizionali la dimostrazione è analoga. Si


usano due Hi anziché una sola.

α ≡ ∀z β

Qui si devono prendere in considerazioni due casi:

I° Caso: x non occorre liberamente in ∀z β

Allora (∀z β )xy ≡ ∀z β . Pertanto, quanto si deve dimostrare


consiste nella seguente equivalenza: I xI( y )  ∀z β ⇔ I  ∀z β . Ma
l’equivalenza vale già in virtù del teorema di coincidenza. Infatti I e
I xI( y ) differiscono al massimo per l’interpretazione di x. Ma x non
occorre liberamente in ∀z β . Pertanto si ha immediatamente
I xI( y )  ∀z β ⇔ I  ∀z β .

184
Logica dei predicati (semantica)

II° Caso: x occorre liberamente in ∀z β


z  Iz ( y )
Hi: Leg   β xy ⇒ (I z   xz  β ⇔ I zz  β xy )

Ora vale, innanzitutto, x ≡/ z (1. condizione), dato che x occor-


re liberamente in ∀z β . Ma allora, essendo Leg(∀z β )xy , sarà pure
Leg   β xy , per cui l’Hi diventa:
z  Iz ( y )
Hi: I z   xz  β ⇔ I zz  β xy

Inoltre y ≡/ z (2. condizione), in quanto si presuppone per H


che il risultato della sostituzione di y al posto di x in ∀z β sia legit-
timo. Ne segue pertanto:

I xI( y )  ∀z β ⇔ (om z )(I xI( y ) zz  β ) def. 


⇔ (om z )(I z I( y )
z x
 β) per teorema (e)
e 1. condizione
I zz ( y )
⇔ (om z )(I zz x
 β) perché I zz ( y )
= I( y ) per
teorema b) e
2. condizione
⇔ (om z )(I zz  β xy ) per Hi
⇔ I  ∀z( β xy ) def. 
⇔ I  (∀z β )xy 1. condizione
e def. α xy

α ≡ ∃z β

La dimostrazione è analoga a quella precedente.

185
Capitolo terzo

3. Preliminari alla correttezza e completezza di C


A questo punto possiamo incominciare a porre le basi per stabi-
lire i rapporti tra i concetti sintattici e quelli semantici. Si ricordi
che durante l’esposizione della sintassi di C si era giunti alla defini-
zione di tesi logica quale proposizione dimostrabile (cioè derivabile
dall’insieme vuoto di assunzioni). Ora vedremo che il concetto di
dimostrabilità corrisponde a quello semantico di validità. Parlavamo,
inoltre, di sequenza derivabile. In modo del tutto analogo vedremo
che anche a tale concetto sintattico corrisponde uno semantico:
quello di conseguenza logica (o sequenza corretta).
Ma che cosa significa formula valida e che cosa conseguenza
logica? Incominciamo col concetto di conseguenza logica che
comprende, quale caso limite, anche quello di formula valida.

Def. 1: Conseguenza logica ( X  α )

Sia innanzitutto:

I A  X ⇔ (om α )(α ∈X ⇒ I A  α )
Allora:

X  α ⇔ (om A)(om I A )(I A  X ⇒ I A  α )

in forma abbreviata:

X  α ⇔ (om I )(I  X ⇒ I  α )

Si dice, cioè, che α è conseguenza logica dell’insieme X di for-


mule se e solo se tutte le interpretazioni che sono modello di tutte
le formule di X sono anche modello di α .

Def. 2: Formula valida ( α )


 α ⇔ (om A)(om I A )(I A  α )

186
Logica dei predicati (semantica)

in forma abbreviata:
(om I )(I  α )

NOTA: In entrambe le definizioni precedenti si quantifica uni-


versalmente su tutte le interpretazioni di tutte le strutture. Ci tro-
viamo, pertanto, nel caso della quantificazione sulle interpretazioni
preso in esame per ultimo, dopo la definizione di formula vera, ove
si parla di verità in tutte le interpretazioni di tutti i modelli di tutte
le strutture. Del resto, si era detto che questa era l’interpretazione
scelta, proprio in vista della definizione di conseguenza logica e di
validità che qui viene formalizzata. Sulla questione riguardante la
caratterizzazione della nozione di conseguenza logica e di validità
logica attraverso le definizioni tarskiane precedenti, si dirà qualcosa
alla fine del volume, ove si cercherà di tirare le somme sul significa-
to della logica e delle sue funzioni.

A questo punto è possibile dare una definizione rigorosa della


correttezza e della completezza di C. Dire che C è corretto signifi-
ca dire che:

X α ⇒ X α

Dire che C è (semanticamente) completo significa dire che:

X α ⇒ X α

In questo paragrafo si tratterà solo l’argomento della correttezza.

4. Teorema di correttezza per C


Dimostrazione:

X α ⇒ X α

187
Capitolo terzo

Per mostrare che le sequenze derivabili sono corrette (ovvero


sono conseguenze logiche) occorre fare un passo indietro e pensa-
re che cosa significa sequenza derivabile. Sequenza derivabile signi-
fica sequenza di cui si può fornire una derivazione. Ora, per deri-
vazione si intende una colonna finita di sequenze tutte derivabili, di
cui l’ultima è quella in questione. Se si riuscisse, allora, a dimostrare
che la proprietà d’essere corretta è ereditaria, cioè che tutte le se-
quenze della prova sono corrette una volta posto che lo siano le
sequenze iniziali, potremmo dichiarare che è corretta anche la se-
quenza finale. Ma come è possibile dimostrare la ereditarietà della
correttezza delle sequenze? È sufficiente far vedere che le sequen-
ze iniziali lo sono originariamente e che le sequenze che si otten-
gono per applicazione a regole a più di zero premesse fanno passa-
re da sequenze corrette a una nuova sequenza corretta. In pratica,
per dimostrare il teorema si deve procedere per induzione sulla
lunghezza della derivazione, vale a dire: nella base si mostra che le
sequenze poste per assunzione (sequenze iniziali) sono corrette.
Nel passo si mostra caso per caso che ogni regola porta da se-
quenze corrette a una nuova sequenza corretta. Si parte, cioè, dal-
l’ipotesi (Hi) induttiva che le premesse della regola siano già corret-
te e si dimostra che pure la conclusione lo è.
Vediamo, dunque, la dimostrazione di correttezza di tutte le re-
gole di C. Incominciamo con le regole della parte proposizionale
del calcolo, poi con quelle tipiche del calcolo dei predicati; la dimo-
strazione di correttezza della regola di assunzione costituisce la
base della dimostrazione.

Base:

-A X  α (se α ∈X )

Per ipotesi iniziale H vale α ∈X . È da mostrare X  α e, a tal


fine, è sufficiente ovviamente mostrare, per una I generica, che
I  X ⇒ I  α . Ora, che questo valga è immediato, dato che

188
Logica dei predicati (semantica)

α ∈X e dunque se I è modello di tutte le formule appartenenti a


X sarà tale anche nei confronti di α che per ipotesi vi appartiene.
Formalmente:

IX a
(om  β )( β ∈X ⇒ I  β ) def. I  X
α ∈X ⇒ I  α Eom
I α per mp da H
I  X ⇒ I α s
(om I )(I  X ⇒ I  α ) Iom
X α def. 

Passo:
X α
- I∧ Y β
X ∪Y α ∧ β

Valgano le Hi X  α e Y  β . Occorre far vedere che vale


anche X ∪ Y  α ∧ β . A tale scopo basta mostrare per una I ge-
nerica che I  X ∪ Y ⇒ I  α ∧ β . Pertanto:

H: I  X ∪ Y Dem: I  α ∧ β

Ora da H si ha per definizione di interpretazione soddisfacente


un insieme di formule che I  X e I  Y . Ma allora, in forza delle
due Hi, si ha rispettivamente I  α  et  I  β . Di conseguenza, per
definizione di  si ottiene I  α ∧ β .
Formalmente:

IX da H, per def. I  X ∪ Y


(om I )(I  X ⇒ I  α ) da Hi per def. 
I  X ⇒ I α Eom
I α mp

189
Capitolo terzo

I β idem da altra Hi
I  α  et  I  β Iet
I α ∧ β def. 

- E∧
X α ∧ β
X α /β

Valga l’Hi X  α ∧ β . Si deve dimostrare che X  α / β . A


tal fine va dimostrato che I  X ⇒ I  α / β . Pertanto:

H: I  X Dem: I  α / β

Ora per H e Hi si ha I  α ∧ β . Ma allora, per def. di  , si ha


anche I  α / β .
Formalmente:

IX da H, per def. I  X ∪ Y


(om I )(I  X ⇒ I  α ∧ β ) da Hi per def. 
I  X ⇒ I α ∧ β Eom
I α ∧ β mp
I  α  et  I  β def. 
I α /β Eet

– I∨
X α /β
X α ∨ β

Valga l’Hi X  α / β . È da dimostrare che X  α ∨ β . Pertanto:

190
Logica dei predicati (semantica)

H: I  X Dem: I  α ∨ β

Ora per H e Hi si ha I  α / β . Ma allora si ha pure


I  α  vel  I  β e quindi, per def. di  , I  α ∨ β .
Formalmente:

IX H
(om I )(I  X ⇒ I  α ) da Hi per def. 
I  X ⇒ I α Eom
I α mp
I  α  vel  I  β Ivel
I α ∨ β def. 

– ∨I

X  α  γ
Y  β  γ
X ∪ Y  α ∨ β  γ

Si parte dalle Hi X  α  γ e Y   β  γ . Si deve dimostrare che


vale X ∪ Y  α ∨ β  γ . Per questo occorre mostrare che per una
I generica I  X ∪ Y ∪{α ∨ β }⇒ I  γ . Pertanto:

H: I  X ∪ Y ∪{α ∨ β } Dem: I  γ

Ora da H segue I  X , I  Y e I  α ∨ β . Quindi, per def. di


 , pure I  α  vel  I  β . Sia I  α . Allora vale anche I  X ∪{α }
e quindi per Hi I  γ . Sia invece I  β . Allora vale I  X ∪{β } e
quindi, per Hi, I  γ . In ogni caso si ha I  γ .
Formalmente:

IX da H

191
Capitolo terzo

I α a
I  X ∪{α } def. I  X
(om I )(I  X ∪{α }⇒ I  γ ) da Hi
I γ Eom, mp
I α ⇒ I γ s
I Y da H
I β a
I  Y ∪{β } def. I  X
(om I )(I  Y ∪{β }⇒ I  γ ) da Hi
I γ Eom, mp
I β ⇒I γ s
I  α vel I  β ⇒ I  γ velI
I α ∨ β da H
I  α  vel  I  β def. 
I γ mp

– I→
X  α  β
X α → β

Si parte dalla Hi X  α  β . Si deve dimostrare che vale


X  α → β . Per questo occorre mostrare che per una I generica
I  X ⇒ I  α → β . Pertanto:

H: I  X Dem: I  α → β

Si assuma che I  α . Quindi, per H, si ha I  X ∪{α }. Ma,


allora, in base alla Hi si ottiene I  β . A questo punto basta scari-
care l’assunzione per ottenere I  α ⇒ I  β e quindi, per defini-
zione di  , il demonstrandum I  α → β .
Formalmente:

192
Logica dei predicati (semantica)

I α a
I  X ∪{α } per def. di ∪ da H
(om I )(I  X ∪{α }⇒ I  β ) da Hi per def. di 
I β Eom e mp
I α ⇒ I  β s
I α → β def. di 

– MP
X α → β
Y α
X ∪Y  β

Siano date le Hi X  α → β e Y  α . Si tratta di mostrare che


vale anche X ∪ Y  β , ossia che, per una I generica,
I  X ∪ Y ⇒ I  β . Pertanto:

H: I  X ∪ Y Dem: I  β

Ora da H segue I  X e I  Y . Ma allora, a partire dalle Hi si


ha anche che I  α → β e I  α . D’altra parte, I  α → β è
equivalente a I  α ⇒ I  β , da cui per modus ponens si ottiene
I  β.
Formalmente:

IX da H
(om I )(I  X ⇒ I  α → β ) da Hi per def. di 
I α → β Eom e mp
I α ⇒ I  β def. di 
I Y da H
(om I )(I  Y ⇒ I  α ) da Hi per def. di 
I α Eom e mp
I β mp

193
Capitolo terzo

– (¬k)
X  ¬α  β
Y  ¬α  ¬β
X ∪Y α

Anche qui si tratta di ottenere X ∪ Y  α a partire dalle Hi


X ∪{¬α } β e Y ∪{¬α } ¬β . A tale scopo è sufficiente mo-
strare per una I generica che I  X ∪ Y ⇒ I  α . Pertanto:

H: I  X ∪ Y Dem: I  α

Sia per assurdo I  α , cioè per def. di  , I  ¬α . Ma allora, a


partire da H, è pure I  X ∪{¬α } (1) e I  Y ∪{¬α } (2). Ora in
base a (1) e prima Hi si ha I  β e in base a (2) e seconda Hi si ha
invece I  ¬β , ovvero per def. di  , I  β , il che è impossibile.
Formalmente:

I α Ha
I  ¬α def. di 
I X da H
I  X ∪{¬α } def. di I  X ∪{¬α }
I β per Hi, Eom, mp
I Y da H
I  Y ∪{¬α } def. di I  Y ∪{¬α }
I  ¬β per Hi, Eom, mp
I β def. di 
I  β et I  β Iet
I α per (non k)

– S xy
X α
( X )xy  α xy

194
Logica dei predicati (semantica)

(sotto le condizioni critiche che Leg  ( X )xy e Leg  α xy )

Si suppone che le sostituzioni siano legittime. Si parte dalla Hi


X  α . Occorre dimostrare che ( X )xy  α xy , per cui è sufficiente
far vedere che per una I generica I  ( X )xy ⇒ I  α xy . Pertanto:

H: I  ( X )xy Dem: I  α xy

Da H si ha per ogni β appartenente a X I  β xy , ovvero per il


teorema di conversione I xI( y )  β . Ma allora I xI( y )  X e quindi, per
Hi, I xI( y )  α , da cui, sempre per il teorema di conversione,
I  α xy . Formalmente:

(om  β )( β ∈X ⇒ I  β xy ) da H
β ∈X ⇒ I  β xy Eom
β ∈X a
I  β xy mp

Ora, in base a Leg  ( X )xy si ha:

I xI( y )  β per teorema di conversione


β ∈X ⇒ I xI( y )  β s
(om  β )( β ∈X ⇒ I xI( y )  β ) Iom
I xI( y )  X def. di I  X
(om I )(I  X ⇒ I  α ) Hi
I xI( y )  X ⇒ I xI( y )  α Eom
I xI( y )  α mp

Ma anche Leg  α xy , per cui

I  α xy per teorema di conversione

195
Capitolo terzo

– I∀
X α
X  ∀xα
(sotto la condizione critica: non Lib x in X)

Occorre dimostrare che X  ∀xα a partire dalla Hi X  α .


Pertanto per una I generica:

H: I  X Dem: I  ∀xα

Da H si ha, per ogni β ∈X , I  β . Ora, per il teorema di coin-


cidenza applicato a I e I xx – interpretazioni coincidenti in riferi-
mento alle variabili occorrenti liberamente in β – si ha, per x ge-
nerica, I xx  β . Quindi, data la genericità di β , I xx  X . Ma allora,
in forza di Hi, I xx  X ⇒ I xx  α e, di conseguenza, per mp meta-
teorico I xx  α . D’altra parte anche x è generica, per cui generaliz-
zando si ha (om x )(I xx  α ), ovvero, per def. di , I  ∀xα .
Formalmente:

(om  β )( β ∈X ⇒ I  β ) da H
β ∈X ⇒ I  β Eom
β ∈X a
I β mp

Ora, in base alla condizione critica della regola non Lib x in X e


quindi non Lib x neppure in β . Ma allora
β
I = I xx , dal momento che I e I xx differiscono al massimo per il
valore assegnato alla x, ma x non occorre liberamente in β . È
quindi soddisfatta la condizione iniziale del teorema di coinciden-
za. Pertanto

I xx  β per teorema di coincidenza


β ∈X ⇒ I xx  β s

196
Logica dei predicati (semantica)

(om  β )( β ∈X ⇒ I xx  β ) Iom
I xx  X def. di I  X
(om I )(I  X ⇒ I  α ) Hi
I xx  X ⇒ I xx  α Eom
I xx  α mp
(om x )(I xx  α ) Iom
I  ∀xα def. di 

– E∀
X  ∀xα
X α

Si parte dalla Hi X  ∀xα . Si deve mostrare che vale pure


X  α . Pertanto:

H: I  X Dem: I  α

Da H e Hi si ha I  ∀xα , ovvero (om x )(I xx  α ). Ora, tra tutti


gli elementi appartenenti ad A ci sarà pure I(x). Pertanto I xI( x )  α .
Ma allora, in forza del teorema f) sulle reinterpretazioni, I  α .
Formalmente:

IX da H
I  ∀xα per Hi
(om x )(I xx  α ) def. di 
I xI( x )  α Eom e particolarizz. a I(x)
I α teorema f) su reinterpretaz.

– I∃
X α
X  ∃xα

197
Capitolo terzo

A partire dalla Hi occorre dimostrare che X  ∃xα . Pertanto,


posta la genericità di I:

H: I  X Dem: I  ∃xα

Da H e Hi segue I  α . Ora per il teorema f) sulle reinterpreta-


zioni si ha I = I xI( x ) e quindi I xI( x )  α . Perciò (ex  x )(I xx  α ) e
quindi, per def. di , I  ∃xα .
Formalmente:

IX H
I α per Hi
I xI( x )  α teorema f) su reinterpretaz.
(ex  x )(I xx  α ) Iex
I  ∃xα def. 

– I∃
X  α  β
X  ∃xα  β
(sotto la condizione critica che x non sia Lib in X né in β )

Anche qui occorre dimostrare, partendo dalla Hi X  α  β ,


che, per una I generica, I  X ∪{∃xα }⇒ I  β . Pertanto:

H: I  X ∪{∃xα } Dem: I  β

Da H si ha che I  ∃xα , ossia per def. di  (ex  x )(I xx  α ). x


sia proprio l’elemento che soddisfa α . Vale pertanto I xx  α . Inol-
tre da H si ha anche I  X . Ora, per il teorema di coincidenza ap-
plicato a I e I xx , interpretazioni coincidenti rispetto alle variabili
libere in ciascuna delle γ ∈X , si ha, per ogni γ ∈X , I xx  γ . Unifi-
cando quest’ultimo risultato col precedente si ha pertanto
I xx  X ∪{α }. Ma allora per Hi vale anche I xx  β . D’altra parte I

198
Logica dei predicati (semantica)

e I xx sono interpretazioni coincidenti anche rispetto alle variabili


libere occorrenti nel conseguente β , per cui, per il teorema di co-
incidenza, si ha infine I  β . Formalmente:

I  ∃xα H
(ex  x )(I xx  α ) def. 
I xx  α Eex
(om γ )(γ ∈X ⇒ I  γ ) da H
γ ∈X ⇒ I  γ Eom
γ ∈X a
I γ mp

Ora, in base alla condizione critica della regola non Lib x in X e


quindi non Lib x neppure in γ . Ma allora
γ
I = I xx , dal momento che I e I xx differiscono al massimo per il
valore assegnato alla x, ma x non occorre liberamente in γ . È
quindi soddisfatta la condizione iniziale del teorema di coinciden-
za. Pertanto

I xx  γ per teorema di coincidenza


γ ∈X ⇒ I xx  γ s
(om γ )(γ ∈X ⇒ I xx  γ ) Iom
I xx  X def. di I  X
I xx  X ∪{α } def. di I  X ∪{α }
I xx  β per Hi

A questo punto, l’argomentazione fatta sopra per gli elementi di X


si può ripetere a proposito di β , dal momento che x non è libera
neppure in β . Pertanto si può alla fine ottenere

I β per teorema di coincidenza

199
Capitolo terzo

5. Conseguenze del teorema di correttezza


Il teorema di correttezza presenta un interesse non solo di per
se stesso, in quanto mette in luce la correttezza di C, ma anche per
le conseguenze a cui porta. Noi ci soffermeremo ad illustrare due
di tali conseguenze, la prima di carattere generale e la seconda fina-
lizzata alla dimostrazione del teorema di completezza.
Per formulare il contenuto della prima conseguenza occorre
introdurre le nozioni di soddisfacibilità e di consistenza di un in-
sieme di formule.

Def. 1: Soddisfacibilità di X (Sod X)

Sod  X ⇔ (ex  A)(ex  I A )(I A  X )

in breve:

Sod  X ⇔ (ex  I )(I  X )

Def. 2: Consistenza (non contraddittorietà, coerenza) di X (Cons X)

Cons  X ⇔ X  α ∧ ¬α (per qualche α )

Ebbene la correttezza di C comporta il seguente corollario.

5.1. Teorema di consistenza degli insiemi soddisfacibili:


Sod  X ⇒ Cons  X

La dimostrazione segue dalla correttezza di C più il seguente


lemma di riduzione. In altre parole, con questo lemma si riconduce
il teorema di consistenza a quello di correttezza.

200
Logica dei predicati (semantica)

Lemma di riduzione:

(om X )( X  α ⇒ X  α ) ⇒ (om X )(Sod  X ⇒ Cons  X )

Sia dato un X generico soddisfacente le condizioni poste dal


lemma. Si tratta di dimostrare che è consistente.

H: (om X )( X  α ⇒ X  α ), Sod  X Dem: Cons  X

Supponiamo per assurdo che X sia inconsistente. Allora:

non Cons  X Ha
X  α ∧ ¬α def. Cons
X α E∧
X  ¬α E∧
X α * per H
X  ¬α ** per H

Ma allora X non può essere soddisfacibile contro H. Infatti:

(ex  I )(I  X ) da H per def. Sod


IX Eex
I α per *
I  ¬α per **
I α def. 
I  α et I  α Iet

Pertanto:

Cons  X (non k)

201
Capitolo terzo

5.2. Preliminari al teorema di conversione generalizzato


La seconda conseguenza del teorema di correttezza consiste
nella generalizzazione del teorema di conversione. Questo risultato
è funzionale alla dimostrazione del teorema di completezza.
Si rammenti, innanzitutto, che il teorema di conversione, di-
mostrato quale preliminare alla prova di correttezza, era soggetto
alla condizione di legittimità della sostituzione α xy . Ebbene, è pos-
sibile dare del teorema una formulazione generalizzata, che non
richieda, cioè, il soddisfacimento di quella condizione? La risposta
è positiva, a patto, però, che si faccia in modo di rendere la sostitu-
zione sempre legittima. Ciò si può ottenere modificando opportu-
namente l’operatore di sostituzione: esso deve essere trasformato
in un operatore di sostituzione universale α |xy|, capace, cioè, d’in-
trodurre sostituzioni definitoriamente sempre legittime.
A tale scopo, inizieremo con l’introduzione per via induttiva
dell’operatore intermedio α |xy e, poi, per via esplicita dell’operatore
di sostituzione universale α |xy|. Quindi, saranno studiate le pro-
prietà sintattiche del primo, le quali – unite al teorema di correttez-
za e alla definizione del secondo – consentiranno di ricavare dal
vecchio teorema di conversione la nuova formulazione generalizza-
ta. L’idea di fondo sottostante all’intero procedimento consiste nel-
lo sfruttare la regola del cambio alfabetico, allo scopo di evitare le
collisioni tra variabili libere e variabili vincolate che altrimenti
avrebbero luogo.

Def. 1: Operatore intermedio α |xy

Si tratta dell’operatore che ha la funzione di rendere legittima,


mediante l’applicazione di CA, la sostituzione di x con y in α xy .
L’operatore è introdotto, come al solito, in maniera induttiva.

Base: α ≡ Px (presentiamo solo il caso più semplice)

Px |xy ≡ Px

202
Logica dei predicati (semantica)

Passo:

– α ≡ ¬β (¬β )|xy ≡ ¬( β |xy )


– α ≡ β ∧γ ( β ∧ γ )|xy ≡ β |xy ∧γ |xy

Per gli altri casi proposizionali la definizione è analoga.

– α ≡ ∀z β
∀z β se x ≡ z
(∀z β )|xy    ≡ ∀z( β |xy ) se x ≡/ z e z ≡/ y
∀u(( βzu )|xy ) se x ≡/ z e z ≡ y
(ove, in questo caso, u è una variabile non occorrente
in α e diversa da y)

Si noti che in base alle condizioni poste su u si ha:

1. u ≡/ z
2. la sostituzione βzu è legittima.

– α ≡ ∃z β

La definizione è analoga a quella fornita per il quantificatore


universale.

È da notare che l’operatore intermedio α |xy non ha la funzione


di operare la sostituzione di x con y , ma solo di preparare la for-
mula α perchè tale sostituzione sia sempre legittima. La sostitu-
zione viene completata attraverso l’operatore seguente.

Def. 2: Operatore di sostituzione universale ( α |xy|)

α |xy|≡ (α |xy )xy

203
Capitolo terzo

Passiamo ora a dimostrare una delle proprietà sintattiche più


importanti dell’operatore intermedio.

Lemma sull’operatore intermedio: α |zy   α

La dimostrazione è per induzione sulla costruzione di α .

a. Base: α ≡ Px (consideriamo solo il caso più semplice)

È immediato vedere che Px |xy   Px

b. Passo:

– α ≡ ¬β

Hi: β |xy  β Dem: ¬β  (¬β )|xy

Dimostrazione:

β |xy  β Hi
¬β  ¬( β |xy ) C
¬β  (¬β )|xy def. di α |xy

Inoltre:

Hi: β  β |xy Dem: (¬β )|xy  ¬β

Dimostrazione:

β  β |xy Hi
¬( β |xy )  ¬β C
(¬β )|xy  ¬β def. di α |xy

– α ≡ β ∧γ

204
Logica dei predicati (semantica)

La dimostrazione è analoga alla precedente. Sfrutta le regole per


la congiunzione anziché quelle per la negazione.

Hi: β |xy  β , γ |xy  γ Dem: ( β ∧ γ )|xy  β ∧ γ

Dimostrazione:

β |xy  β 1. Hi
γ |xy  γ 2. Hi
β |xy ∧ γ |xy  β ∧ γ I∧, ∧I
( β ∧ γ )|xy  β ∧ γ def. di α |xy

L’altra metà della dimostrazione è analoga alla precedente.

– α ≡ β ∨γ

La dimostrazione segue lo schema delle dimostrazioni prece-


denti. Cambiano solo le regole da usare.

Hi: β |xy  β , γ |xy  γ Dem: ( β ∨ γ )|xy  β ∨ γ

Dimostrazione:

β |xy  β 1. Hi
β |xy  β ∨ γ I∨
γ |xy  γ 2. Hi
γ |xy  β ∨ γ I∨
β |xy ∨ γ |xy  β ∨ γ ∨I
( β ∨ γ )|xy  β ∨ γ def. di α |xy

L’altra metà della dimostrazione è analoga alla precedente.

205
Capitolo terzo

– α ≡ β →γ

Anche qui valgono le osservazioni fatte per i casi precedenti.

Hi: β  β |xy , γ |xy  γ Dem: ( β → γ )|xy  β → γ

Dimostrazione:

¬β  β → γ PIa)
β  β |xy 1. Hi
¬( β |xy ) ¬β C
¬( β |xy ) β → γ KS
γ β →γ PIb)
γ |xy  γ 2. Hi
γ |xy  β → γ KS
β |xy → γ |xy  β → γ →I
( β → γ )|xy  β → γ def. di α |xy

L’altra metà della dimostrazione è analoga.

– α ≡ ∀z β

Ci sono tre casi da considerare:

1. Caso: x ≡ z

Allora (∀z β )|xy ≡ ∀z β . Ne segue immediatamente:

(∀z β )|xy   ∀z β A

206
Logica dei predicati (semantica)

∀z β  (∀z β )|xy A

2. Caso: x ≡/ z e z ≡/ y

Allora (∀z β )|xy ≡ ∀z( β |xy ). Per cui:

Hi: β |xy   β Dem: (∀z β )|xy   ∀z β

Dimostrazione:

β |xy   β Hi
∀z( β |xy )  β |xy A, E∀
∀z( β |xy )  β KS
∀z( β |xy )  ∀z β I∀
(∀z β )|xy   ∀z β def. di α |xy

L’altra metà della dimostrazione è analoga.

3. Caso: x ≡/ z e z ≡ y

Allora, (∀z β )|xy   ∀u(( βzu )|xy ) (ove u è una variabile non occor-
rente in ∀z β e diversa da y).

Hi: βzu   ( βzu )|xy Dem: ∀z β  (∀z β )|xy

Dimostrazione:

∀z β  β A, E∀
∀z β  βzu Szu applicabile perché Leg   βzu
βzu   ( βzu )|xy Hi
∀z β  ( βzu )|xy KS
∀z β  ∀u(( βzu )|xy ) I∀, u non occorre in β
∀z β  (∀z β )|xy def. di α |xy

207
Capitolo terzo

Inoltre:

Hi: ( βzu )|xy   βzu Dem: (∀z β )|xy  ∀z β

Dimostrazione:

∀u(( βzu )|xy )  ( βzu )|xy A, E∀


( βzu )|xy  βzu Hi
∀u(( βzu )|xy )  βzu KS

Ora, Leg  ( βzu )zu . Infatti u è una variabile che, non trovandosi in
α , a maggior ragione non si trova in β e quindi, se si trova in βzu
deve essere al posto di una z libera. Pertanto, reinserendo z al po-
sto di u, z non può mai trovarsi vincolata. In conseguenza di ciò
possiamo scrivere:

∀u(( βzu )|xy )  ( βzu )zu Suz

D’altra parte, in ( βzu )zu , per l’argomentazione appena svolta, z


va a finire esattamente in quei posti in cui u si trova libera e u si
trova libera là dove prima c’era libera z. Pertanto:

∀u(( βzu )|xy )  β def. di α xy

e quindi, dal momento che ogni occorrenza libera di z è stata tolta


in βzu ,

∀u(( βzu )|xy )  ∀z β I∀


(∀z β )|xy   ∀z β def. di α |xy

α ≡ ∃z β

208
Logica dei predicati (semantica)

La dimostrazione è del tutto analoga a quella per il quantificatore


universale.

Giunti alla fine della dimostrazione del lemma sull’operatore


intermedio, possiamo procedere alla dimostrazione della versione
generalizzata del teorema di conversione.

5.3. Teorema di conversione generalizzato: I xI( y )  α ⇔ I  α |xy|


Dimostrazione:

Per il lemma sull’operatore intermedio vale α |zy   α . Pertan-


to, in virtù della correttezza:

I xI( y )  α ⇔ I xI( y )  α |xy *

D’altra parte, per il teorema di conversione vale:

Leg(α |xy )xy ⇒ (I xI( y )  α |xy ⇔ I  (α |xy )xy )

L’antecedente è comunque senz’altro vero per definizione di


α |xy . Inoltre (α |xy )xy ≡ α |xy|. Pertanto si ha:

I xI( y )  α |xy ⇔ I  α |xy| **

Unendo le due equivalenze * e ** si ha la nuova formulazione


generalizzata del teorema di conversione

I xI( y )  α ⇔ I  α |xy|

6. Teorema di completezza per C


Come già sappiamo, il calcolo C è semanticamente completo se
e soltanto se X  α ⇒ X  α . Riprendiamo questa definizione

209
Capitolo terzo

per porre l’obiettivo della dimostrazione che ci accingiamo ad in-


traprendere. Si tratta di mostrare che se α è conseguenza logica di
X allora α è anche derivabile da X. Ragioni di opportunità tecnica
nella dimostrazione del teorema in oggetto consigliano, però, di
evitare la dimostrazione diretta dell’enunciato. Conviene dimostra-
re un enunciato diverso che lo implica. In effetti ciò che noi dimo-
striamo è il teorema di soddisfacibilità degli insiemi consistenti, vale
a dire il teorema inverso rispetto a quello di consistenza per insiemi
soddisfacibili, che seguiva quale corollario della correttezza di C.

6.1. Teorema di soddisfacibilità degli insiemi consistenti:


Cons  X ⇒ Sod  X

Infatti vale il seguente lemma di riduzione che riconduce la


completezza al teorema di soddisfacibilità.

Lemma di riduzione:

(om X )(Cons  X ⇒ Sod  X ) ⇒ (om X )( X  α ⇒ X  α )

Valga la condizione del lemma e α sia conseguenza logica di X.


Allora si tratta di dimostrare che α è anche derivabile da X.

H: (om X )(Cons  X ⇒ Sod  X ), X  α Dem: X  α

Dimostrazione:

(om I )(I  X ⇒ I  α ) da H
non(ex  I )non(I  X ⇒ I  α ) Tr om ex
non(ex  I )(I  X  et  I  α ) Tr ⇒ et
non(ex  I )(I  X  et  I  ¬α ) def. di 
non(ex  I )(I  X  ∪{¬α }) def. di I  X
non Sod  X ∪{¬α } def. di Sod

210
Logica dei predicati (semantica)

non Sod X ∪{¬α }⇒ non Cons  X ∪{¬α } da H per c


non Cons  X ∪{¬α } mp
X  ¬α  β ∧ ¬β per def. Cons
X α per (¬k)

Dunque, nostro scopo, al fine di ottenere la completezza di C, è


mostrare che dato un qualsiasi insieme consistente X esso è anche
soddisfacibile e per realizzare l’obiettivo dobbiamo fare un lungo
giro. Innanzitutto, dobbiamo trovare il metodo per passare da X
alla sua estensione henkiniana Xh; quindi, data una certa enumera-
zione delle formule appartenenti al linguaggio di Xh, alla rispettiva
estensione henkiniana completa Xh*. Di Xh* sarà, infine, possibile
costruire un modello, di modo che risulterà Sod Xh* e quindi, dato
che Xh* ⊇ X, Sod X.
Incominciamo con alcune definizioni preliminari.

Def. 1: Estensione di un insieme X

X ' e X siano due insiemi di formule tali che L( X ') ⊇ L( X )


(ossia i segni descrittivi del linguaggio di X siano compresi tra i
segni descrittivi del linguaggio di X ' ). Allora:

X ' est  X ⇔ (om α ∈L( X ))( X  α ⇒ X '  α )

X'
α ∈L( X ) α ∈L( X ) α ∈L( X ')

X α X α X α
X 'α X 'α X 'α

211
Capitolo terzo

I tratti sovrapposti caratterizzati da una sola linea indicano lo


stesso insieme di formule, precisamente l’insieme delle formule di
L( X ) che sono derivabili sia da X che da X '. Il tratto caratteriz-
zato da due linee indica l’insieme delle formule di L( X ) che sono
derivabili da X ' ma non da X. Il tratto caratterizzato da tre linee
indica l’insieme delle formule tipiche di L( X ') che sono derivabili
in X ', ma non lo possono essere in X in quanto debordano dalle
sue capacità espressive.

Def. 2: Estensione conservativa

X ' est  Cons  X ⇔ (i) X ' est  X


(ii) (om α ∈L( X ))( X '  α ⇒ X  α )

X

X'
α ∈L( X ) α ∈L( X ')

X α X α
X 'α X 'α

I tratti sovrapposti caratterizzati da una sola linea indicano lo


stesso insieme di formule, precisamente l’insieme delle formule di
L( X ) che sono derivabili sia da X che da X '. Il tratto caratteriz-
zato da due linee indica l’insieme delle formule tipiche di L( X ')
che sono derivabili in X ', ma non lo possono essere in X in quan-
to debordano dalle sue capacità espressive. La parte tratteggiata sta
ad indicare che non esistono formule di L( X ) derivabili da X '
ma non da X.

212
Logica dei predicati (semantica)

Schematicamente, le estensioni proprie si suddividono in esten-


sioni non conservative e conservative,

⎡ non conservative
estensioni ⎢

⎢⎣ conservative

ove le prime sono caratterizzate da maggiore potenza deduttiva e


(eventualmente) espressiva, mentre le seconde solo da maggiore po-
tenza espressiva.

6.2. Piano e tappe della trasformazione di X


Dal lemma di riduzione segue che per ottenere la completezza
di C è sufficiente mostrare che, se X è un insieme qualsiasi di for-
mule consistente, allora X è soddisfacibile. Il problema è allora
quello di trovare, dato un insieme consistente qualsiasi X di formu-
le, un modello che soddisfi tutte le formule che gli appartengono.
La difficoltà consiste proprio nel fatto che si tratta di insieme qual-
siasi di formule consistenti. Di esso non sappiamo niente se non
che è consistente. Non è possibile, quindi, trovare un modello in
maniera immediata. È necessario procedere ad allargare gradual-
mente X fino ad ottenere una sua estensione soddisfacibile. Tale
estensione è Xh*. Infatti, essendo Xh* un insieme di formule strut-
turato in maniera particolare, di esso è possibile fornire un modello
che, data l’inclusione di X in Xh*, sarà a sua volta modello anche di
X. Nel presente paragrafo ci si preoccuperà di mostrare le ragioni
delle difficoltà che stanno alla base dei successivi allargamenti cui si
dovrà sottoporre l’insieme originario X per raggiungere l’estensio-
ne Xh*. Queste difficoltà sono contestuali con il punto di partenza
costituito dall’idea henkiniana (dal nome del logico Leon Henkin)
di ricercare un modello di natura linguistica dell’insieme X.

213
Capitolo terzo

1. Idea di interpretazione canonica

Data la definizione di soddisfacibilità di un insieme X di formule,


ciò che si deve costruire è una interpretazione I A (interpretazione
su una certa L-struttura A) tale che:

(1) (om α ) (α ∈X ⇒ I A  α )

La (1) è così da considerare la prima formulazione dello scopo


da raggiungere e, in questa prospettiva, se X contenesse solo pro-
posizioni atomiche, sarebbe facile trovare il modello dichiarato di
X. A tale scopo, infatti, basterebbe applicare in modo immediato
l’idea fondamentale di Henkin (l’ideatore del metodo che stiamo
illustrando). Henkin propone di interpretare le variabili individuali
su se stesse e le costanti predicative su particolari proprietà o rela-
zioni di precedenza tipografica. Più precisamente, si assuma che il
pezzo di realtà, da cui ricavare il modello per X, sia proprio la realtà
linguistica costituita da X stesso, che nel passo attuale è per ipotesi
costituito da sole formule atomiche. Ebbene, nella realtà X esiste-
rebbero, allora, solo segni del tipo P n seguiti da sequenze di segni
x 1 ,…, x n , di modo che sarebbe del tutto legittimo dire che in X è
vero che il segno P n è seguito dai segni x 1 ,…, x n , ovvero che i
segni x 1 ,…, x n sono preceduti dal segno P n . Ma allora, si potreb-
be introdurre la seguente L-struttura, in cui L è L( X ) :

A = 〈{x i },... P nA ...〉

ove {x i } è l’insieme delle variabili e ...P nA ... è l’insieme di tutti gli


attributi corrispondenti ad ogni costante predicativa P n di L( X )
(per ogni n) così definita:

P nA = «essere preceduto tipograficamente in X dal segno P n »

Su questo modello potrebbe essere quindi definita una interpre-

214
Logica dei predicati (semantica)

tazione I A tale che:

I(P n ) = P nA (per ogni costante predicativa P n ) e I(x i ) = x i (per


ogni variabile x i ), in modo tale che per ogni formula atomica
P n x 1 …x n si avrebbe:

I A  P n x 1 …x n ⇔+ I A (P n ) vale di I(x 1 )…I(x n )


⇔+ la proprietà d’essere preceduti tipografica-
mente in X dal segno P n vale dei segni
x 1 …x n
⇔+ il segno P n precede tipograficamente in X i
segni x 1 …x n nell’ordine dato
⇔+ P n x 1 …x n ∈X

e quindi:

P n x 1 …x n ∈X ⇒ I  P n x 1 …x n

In altri termini, ogni α atomica sarebbe soddisfatta da tale I A .


È da notare però subito che questa impostazione non rappresenta
un punto di partenza realistico. Infatti essa poggia sul presupposto
che in X ci siano solo proposizioni atomiche. Ora, nessuno ci assi-
cura che X non contenga anche proposizioni complesse. Pertanto
deve essere affrontato il problema della presenza in X di proposi-
zioni anche molecolari o quantificate. Ed è qui che sorgono le
prime difficoltà.

2. Complessità di X e prime difficoltà

L’interpretazione I A sopra presentata costituisce il nucleo ini-


ziale della cosiddetta interpretazione canonica I C , che sarà il fulcro
del Lemma di Henkin, lemma centrale della dimostrazione di
completezza. Essa non è però ancora l’interpretazione canonica
fino a quando non si mostra che essa fornisce il modello per tutte

215
Capitolo terzo

le formule α di X. Ora, α è una proposizione qualsiasi. Dunque,


al fine di mostrare che l’interpretazione I A è modello di tutto X
occorre mostrare che essa è tale rispetto a formule di complessità
qualsiasi. Come potrà svolgersi tale dimostrazione? Dovendosi di-
mostrare una proprietà (l’essere vero rispetto all’interpretazione
canonica I A ) di un oggetto costruito induttivamente, la dimostra-
zione dovrà essere per induzione sulla complessità di α . La base è
già stata svolta nel punto precedente. Il passo si svolge, nel modo
solito, fondato sulle ipotesi induttive Hi. Chiediamoci, dunque, in
che cosa possano consistere tali Hi. Come in tutte le dimostrazioni
induttive, la Hi consiste nell’assunzione che l’enunciato del teore-
ma da dimostrare valga per formule meno complesse rispetto a
quella in oggetto. Il nostro teorema è (om α ) (α ∈X ⇒ I A  α ).
Così se la formula α rispetto alla quale si vuole dimostrare il teo-
rema è, ad esempio, la congiunzione α 1 ∧ α 2 , allora le Hi corri-
spondenti sono α 1 ∈X ⇒ I A  α 1 e α 2 ∈X ⇒ I A  α 2 . Qui, tut-
tavia, abbiamo subito due ordini di difficoltà.

Ia difficoltà

La prima difficoltà consiste nel fatto che le Hi hanno una strut-


tura condizionale. Noi, infatti, dobbiamo dimostrare che
I A  α 1 ∧ α 2 sotto l’ipotesi che α 1 ∧ α 2 ∈X . Ma come è possibile
sfruttare le Hi α 1 ∈X ⇒ I A  α 1 e α 2 ∈X ⇒ I A  α 2 e avere
I A  α 1 ∧ α 2 ? Occorre avere a disposizione i due conseguenti del-
le Hi I A  α 1 e I A  α 2 , sciolti dalle condizioni antecedenti, così
da ottenere il risultato finale per definizione della relazione model-
lo. Ma questo non è possibile se dall’ipotesi iniziale α ∈X non si
possono staccare i due antecedenti α 1 ∈X e α 2 ∈X . Un’argomen-
tazione analoga vale per tutti i casi proposizionali e, in un contesto
ancora più articolato, anche per le proposizioni quantificate. La
soluzione di questo tipo di difficoltà si trova nell’estendere X ad un
insieme completo per il quale valgano le cosiddette condizioni di
completezza rispetto ai connettivi proposizionali e, per le cosiddet-

216
Logica dei predicati (semantica)

te estensioni complete henkiniane, anche le condizioni di comple-


tezza rispetto ai quantificatori. In una estensione completa di X
vale, infatti, ad esempio, la seguente condizione di completezza
rispetto alla congiunzione [c∧]: α 1 ∧ α 2 ∈X ⇔ α 1 ∈X  et  α 2 ∈X ,
il che consente di scaricare gli antecedenti delle Hi.

IIa difficoltà

C’è tuttavia una difficoltà che viene addirittura prima della pre-
cedente. Essa sta nel fatto che l’enunciato del teorema come for-
mulato nella (1) è sufficiente solo per i primi due casi proposizio-
nali (congiunzione, disgiunzione), mentre deve essere rafforzato, se
si vuole procedere con la dimostrazione induttiva anche nei casi
della negazione e della implicazione. Per comprendere la radice
della difficoltà – e la soluzione consistente nel rafforzamento del-
l’enunciato – conviene esaminare in dettaglio i passaggi del passo
induttivo aventi a che fare con la congiunzione, la disgiunzione, la
implicazione e la negazione. Nel corso di queste dimostrazioni as-
sumiamo esplicitamente le ipotesi che consentono di liberare il
conseguente delle Hi e il cui scaricamento costituisce la ragione
delle difficoltà di I tipo.

a) α ≡ α 1 ∧ α 2

Sia per ipotesi α 1 ∧ α 2 ∈X . Occorre dimostrare I A  α 1 ∧ α 2 .


Supponiamo ora che valga α 1 ∧ α 2 ∈X ⇒ α 1 ∈X  et  α 2 ∈X .
Avremo allora α 1 ∈X e α 2 ∈X . Quindi, date le ipotesi induttive
α 1 ∈X ⇒ I A  α 1 e α 2 ∈X ⇒ I A  α 2 , si avrà anche I A  α 1 et
I A  α 2 , da cui, per definizione della relazione modello
I A = α1 ∧ α 2 .

b) α ≡ α 1 ∨ α 2

Sia α 1 ∨ α 2 ∈X , dobbiamo mostrare che I A  α 1 ∨ α 2 . Suppo-

217
Capitolo terzo

niamo anche qui che α 1 ∨ α 2 ∈X ⇒ α 1 ∈X  vel  α 2 ∈X . Avremo


allora α 1 ∈X  vel  α 2 ∈X . Quindi, dalle ipotesi induttive
α 1 ∈X ⇒ I A  α 1 e α 2 ∈X ⇒ I A  α 2 si ha I A  α 1 vel I A  α 2
e per definizione della relazione modello I A  α 1 ∨ α 2 .

Vediamo, ora, il caso della negazione.

c) α ≡ ¬α 1

Sia ¬α 1 ∈X ; dobbiamo dimostrare che I A  ¬α 1 . Data la


consistenza di X, la nostra assunzione non può essere ovviamente
¬α 1 ∈X ⇒ α 1 ∈X quanto piuttosto, ¬α 1 ∈X ⇒ α 1 ∉X . Ne
segue allora α 1 ∉X . D’altra parte, l’ipotesi induttiva a disposizio-
ne è α 1  ∈X ⇒ I A  α 1 . Come facciamo a derivare  I A  α 1 , da
cui seguirebbe immediatamente I A  ¬α 1 ? Ciò non si può ottene-
re dalla ipotesi induttiva soprascritta ma solo da una inversa alla pre-
cedente, vale a dire da I A  α 1 ⇒ α 1 ∈X .

Questo è il passaggio critico, che nasconde il primo caso della


difficoltà: se lo scopo da raggiungere attraverso la dimostrazione
induttiva in atto è quello formulato nella (1), allora nel corso della
dimostrazione relativa al caso della negazione si incorre nella stra-
na situazione di aver bisogno di una ipotesi induttiva inversa a
quella che si ha effettivamente a disposizione. Una difficoltà simile
si ha anche nel caso della implicazione. Vediamo anche qui lo
schema della relativa dimostrazione:

d) α ≡ α 1 → α 2

Sia α 1 → α 2 ∈X . Dobbiamo dimostrare che I A  α 1 → α 2 . Si


supponga come sopra che α 1 → α 2 ∈X ⇒ (α 1 ∈X ⇒ α 2 ∈X ).
Avremo, di conseguenza, α 1 ∈X ⇒ α 2 ∈X . Ma, le ipotesi indutti-
ve a disposizione sono α 1  ∈X ⇒ I A  α 1 e α 2  ∈X ⇒ I A  α 2 e
da esse non è possibile ricavare I A  α 1 ⇒ I A  α 2 . Infatti si dà

218
Logica dei predicati (semantica)

sempre il caso che possa valer I A  α 1 et I A  α 2 , ossia la negazio-


ne di I A  α 1 ⇒ I A  α 2 , pur valendo le ipotesi induttive e la pro-
posizione α 1 ∈X ⇒ α 2 ∈X . Ciò significa che I A  α 1 ⇒ I A  α 2
non è derivabile da esse. In realtà la soluzione sarebbe a portata di
mano anche qui, ma solo a patto di avere a disposizione al posto
della prima ipotesi induttiva la sua inversa, ossia I A  α 1 ⇒ α 1 ∈X .
Facili passaggi fanno vedere, infatti, come dopo questa sostituzione
sia possibile dimostrare I A  α 1 ⇒ I A  α 2 .

Questo è un passaggio altrettanto critico quanto quello visto


sopra: anche qui si incorre nella strana situazione di aver bisogno
di una ipotesi induttiva inversa a quella che si ha effettivamente a
disposizione. Come si dovrà agire per superare questa difficoltà?
L’unica possibilità è data dal rafforzamento delle ipotesi induttive,
il che implica un rafforzamento dell’enunciato stesso del teorema.
Finora l’enunciato era costituito dalla formulazione (1), ossia da

(1) (om α ) (α ∈X ⇒ I A  α )

Ora, la formulazione dovrà essere

(2) (om α ) (I A  α ⇔ α ∈X )

Rafforzato così l’enunciato, la dimostrazione funziona a mag-


gior ragione per i casi iniziali (compresa la base). Vediamo solo
come le cose si raddrizzano nel caso della negazione.

c) α ≡ ¬α 1

H sia ¬α 1 ∈X ⇔ α 1 ∉X mentre Hi sia l’ipotesi induttiva


I A  α 1  ⇔ α 1 ∈X . Allora si ha:

I A  ¬α 1 ⇔ I A  α1 def. 
⇔ α 1 ∉X per Hi

219
Capitolo terzo

⇔ ¬α 1 ∈X per H

IIIa difficoltà

La terza difficoltà è connessa con il caso della quantificazione. Si


ipotizzi che il nostro X originario sia costituito dalla proposizione
∃xPx e dalla serie infinita di formule seguenti: ¬Px 1 , ¬Px 2 , ¬Px 3 ,...
Possiamo dire che l’insieme di formule è consistente? La risposta è
sì. Infatti, se fosse inconsistente, per la finitezza della relazione di
derivabilità, esisterebbe un sottoinsieme finito di formule di X esso
stesso inconsistente. Ma ciò è impossibile. Dato un sottoinsieme
finito di X è sempre possibile, infatti, trovare un modello che lo
soddisfa. Si pensi ad un modello aritmetico. Se questo sottoinsieme
non contiene ∃xPx , la cosa è immediata. Se del sottoinsieme fa
parte anche ∃xPx è sempre possibile ipotizzare che l’esempio che
soddisfa la formula esistenziale sia un numero che, nell’interpreta-
zione posta, non è il valore di una variabile che compare nelle
istanze negative che fanno parte del sottoinsieme. Data la consi-
stenza di X, diventa, però, un problema l’interpretazione canonica
nel caso dell’esistenziale. Sia, infatti, α ≡ ∃xPx.

Allora:

I A  ∃xPx ⇔ (ex  x i )(I A xx i  Px ) def. 


⇔ (ex  x i )(I A xA i  Px )
I (x )
def. I A (x i )
⇔ (ex  x i )(I A  Px i ) conversione
⇔ (ex x i )(Px i ∈X ) Hi

Questo però rende impossibile la verità di I A  ∃xPx , dal mo-


mento che non(ex x i )(Px i ∈X ) .
Come si può risolvere questa difficoltà? La soluzione sta nell’al-
largare X alla sua estensione henkiniana X h . Nella estensiome hen-
kiniana di X esiste, infatti, per ogni proposizione esistenziale una
variabile speciale che svolge la funzione di testimone della propo-

220
Logica dei predicati (semantica)

sizione stessa. In altri termini vale che (ex v i )(Pv i ∈X ) anche se


non(ex x i )(Px i ∈X ) e ciò è sufficiente per garantire la verità di
I A  ∃xPx. La complessa procedura della costruzione della esten-
sione henkiniana di X, che studieremo tra poco, assicura la possibi-
lità di una situazione come quella descritta.

6.3. Enumerabilità delle formule di un linguaggio


La trattazione delle estensioni henkiniane presuppone la possi-
bilità di disporre le formule di un linguaggio secondo l’ordine di
una successione. In effetti, ci sono molti metodi che consentono di
generare effettivamente una dopo l’altra le singole formule del lin-
guaggio, ovvero, come si dice tecnicamente, di enumerarle. Noi
daremo per scontata l’esistenza di qualcuna di queste tecniche,
senza sentirci in obbligo di esibirla. Basti semplicemente dire che
ad ogni espressione costituita da segni appartenenti all’alfabeto di
un linguaggio può essere associato un certo numero naturale (detto
gödeliano dalla tecnica escogitata da Gödel). Inoltre per ogni nu-
mero naturale che sia un gödeliano di qualche espressione esiste
esattamente una sola espressione di cui quel numero è gödeliano.
Ne segue che l’insieme di tutte le espressioni è enumerabile secon-
do l’ordine dei gödeliani ad esse associati. Se poi dall’insieme delle
espressioni si trascelgono solo le formule è possibile ottenere una
enumerazione delle sole formule appartenenti al linguaggio.

6.4. Estensione henkiniana di X (Xh)


Sia dato un insieme X di formule appartenenti ad un certo lin-
guaggio che chiamiamo L( X ). Sia a disposizione un insieme
enumerabile di variabili s 1 , s 2 ,... che non appartengono a L( X ).
Esse sono dette variabili nuove. Il linguaggio L( X ) più tale insie-
me di variabili nuove sarà indicato con Lh . L’insieme r1 ,r2 ,... sia un
insieme di segni metateorici per indicare variabili nuove. L’insieme
v 1 ,v 2 ,... sia, invece, un insieme di segni metateorici per indicare
indistintamente variabili appartenenti a Lh , ossia quelle nuove e
quelle vecchie.

221
Capitolo terzo

Lo schema seguente ha lo scopo di mettere in luce le diverse


funzioni dei vari tipi di segni introdotti. Da esso si evince, innanzi-
tutto, una similarità tra le nuove e le vecchie variabili e i rispettivi
segni. I simboli s i sono variabili teoriche, mentre i simboli ri sono
segni metateorici, allo stesso modo in cui i segni x i sono segni teo-
rici, mentre i segni x , y,z ,... sono metateorici. Lo schema mette,
però, in evidenza anche una diversità tra variabili vecchie e variabili
nuove: sia le variabili nuove sia i segni metateorici relativi sono in-
dicizzati, mentre ciò non è essenziale per i segni metateorici delle
vecchie variabili. La ragione si vedrà tra poco.

x 1 , x 2 , x 3 ,... s 1 , s 2 , s 3 ,...

x , y,z , ... r1 ,r2 ,r3 ,...

v ,v 1 ,v 2 ,v 3 ,...

Si pensi ora alla enumerazione delle formule di Lh che sono


generalizzazioni esistenziali. Essa sia:

∃v 1α 1 , ∃v 2α 2v 2 , ∃v 3α 3 ,...

Si costruisca allora una successione r1 ,r2 ,r3 ,... di variabili nuove


nella seguente maniera:

222
Logica dei predicati (semantica)

– si prenda la variabile nuova con indice più piccolo che sia di-
versa da tutte le variabili nuove occorrenti in α 1 ; essa sia r1 ;
– si prenda poi la variabile nuova con indice più piccolo che
non occorra né in α 1 né in α 2 e sia diversa da r1 ; essa sia r2 ;
– quindi la variabile nuova con indice più piccolo che non occor-
ra né in α 1 né in α 2 né in α 3 e sia diversa da r1 e r2 ; essa sia r3 ;
– e così di seguito.

Ebbene, a questo punto è possibile costruire l’insieme dei co-


siddetti assiomi henkiniani (o speciali) relativi al linguaggio Lh
( A h ). Esso è costituito dalla successione delle seguenti formule
condizionali:

∃v 1α 1 → α 1vr11
∃v 2α 2 → α 2rv22
...

ove ogni variabile ri è detta variabile speciale (o henkiniana) dell’as-


sioma henkiniano corrispondente, ossia ∃v iα i → α i vii .
r

È chiaro innanzitutto che la successione r1 ,r2 ,r3 ,... è tale che

(om m < n )(rn ≠ rm e rn non occorre né in α n né in α m )

Infatti, preso l’indice della variabile teorica che corrisponde a


rn , tale indice sarà sempre più grande degli indici di ogni rm (per
m < n ) (variabili nuove speciali) e più grande degli indici di ogni
variabile nuova occorrente in α n o in α m ( p e r m < n ) ( va r i a b i l i
nuove non speciali). Considerando, poi, che rn , essendo una varia-
bile nuova, è diversa da tutte le variabili vecchie appartenenti a
L( X ) , si può caratterizzare l’identità di rn anche dicendo che:

(i) rn non occorre in nessuno degli assiomi henkiniani appar-

223
Capitolo terzo

tenenti al rettangolo delimitato inferiormente dall’assioma


speciale per rn ;

(ii) rn non occorre in α n .

Quindi rn sarà diversa da ogni variabile, sia essa vecchia o nuo-


va, speciale o non, che occorra nel rettangolo, la cui base è delimi-
tata dall’assioma speciale per rn , o in α n . Si noti, tra il resto, che è
per questo motivo che le sostituzioni di ogni v i con ri sono sem-
pre legittime (ossia vale α i vii ≡ α i |vii |).
r r

A questo punto, il passo per definire il concetto di estensione


henkiniana di X è immediato. Infatti:

X h = def X ∪ A h

È chiaro allora che L( X h ) = Lh ed è altrettanto immediato


comprendere perché X h è detta estensione henkiniana di X. X h è
detta estensione henkiniana di X proprio perché a X vengono ag-
giunti gli assiomi di Henkin A h . La cosa interessante è che si tratta
di una estensione conservativa, come risulta dal prossimo teorema.

6.5. Teorema di conservatività: X h  est  Cons  X


Occorre dimostrare che (om α ∈L( X ))( X h  α ⇒ X  α ).
Quindi:

H: α ∈L( X ), X h  α Dem: X  α

Per il teorema di finitezza sintattica da H segue che α è deriva-


bile da un sottoinsieme finito di X h . Tale sottoinsieme si può divi-
dere in due parti: la parte inclusa in X e la parte inclusa in A h .
Indichiamo con A1 la prima parte, mentre disponiamo gli assiomi
di Henkin, appartenenti all’altra parte, secondo l’indice delle varia-
bili henkiniane che in essi compaiono (dal più grande al più picco-

224
Logica dei predicati (semantica)

lo). Tali assiomi arrangiati secondo la grandezza degli indici siano


β1 ,..., βk . Possiamo allora scrivere:

A1 β1 ... βk  α

Lo scopo da raggiungere è, a questo punto, quello di eliminare


dalle assunzioni gli assiomi henkiniani β1 ,..., βk . La dimostrazione
consiste nell’eliminare uno dopo l’altro i singoli assiomi incomin-
ciando dal primo, ossia da quello che contiene come sua variabile
speciale la variabile speciale con indice più alto. La dimostrazione
procede allora nella maniera seguente. β1 ha la forma:

∃v mα m → α mrmv m

Ora, rm , essendo la variabile di indice più alto, non occorre in


nessuno degli assiomi henkiniani appartenenti al rettangolo delimi-
tato inferiormente proprio da β1 e neppure in α m . Quindi non
occorrerà in nessuno dei rimanenti assiomi henkiniani β 2 ,..., βk . È
chiaro, inoltre, che rm non occorre neppure in A1 né in α (si tratta
infatti di una variabile nuova). Per questo è lecito applicare la rego-
la ∃I, ottenendo:

A1 ∃rm (∃v mα m → α mrmv m ) β 2 ... βk  α

D’altra parte, vale il seguente schema di distributività:

α → ∃x β  ∃x(α → β )

Infatti, come del resto si è già dimostrato:

¬α  α → β PIa)
¬α  ∃x(α → β ) I∃
β α → β PIb)
β  ∃x(α → β ) I∃

225
Capitolo terzo

∃x β  ∃x(α → β ) ∃I
α → ∃x β  ∃x(α → β ) →I

Pertanto, applicando lo schema di distributività al nostro caso:

∃v mα m → ∃rmα mrmv m  ∃rm (∃v mα m → α mrmv m )

da cui, per KS:

A1 ∃v mα m → ∃rmα mrmv m β 2 ... βk  α

D’altra parte, Leg  α m vmm e rm non occorre in α m , quindi non vi


r

occorre neppure liberamente. Pertanto:

 ∃v mα m → ∃rmα mrmv m da CA

ma allora:

A1 β 2 ... βk  α KS

Proseguendo in maniera simile per tutti gli altri assiomi hen-


kiniani β 2 ... βk si arriva al risultato desiderato:

A1  α

da cui:
X α

Il seguente teorema è un importante corollario del teorema di


conservatività.

6.6. Corollario: Cons  X ⇒ Cons  X h


La dimostrazione segue da teorema precedente. Infatti, sia, per
ipotesi, Cons X e, per assurdo, non Cons  X h . Allora X h  α ∧ ¬α

226
Logica dei predicati (semantica)

(per qualche α ∈L( X )) . Ma allora per il teorema di conservatività


X  α ∧ ¬α contro l’ipotesi.

6.7. Metodo di Lindenbaum per il completamento di X


Incominciamo con alcune definizioni.

Def. 1: Completamento di X (estensione completa, estensione


massimale di X) X*

Sia dato l’insieme consistente X e un’enumerazione di tutte le


formule ∈L( X ) :

α 0 , α 1 , α 2 ,...

Presupposta questa enumerazione si può procedere alla costru-


zione, per definizione induttiva prima, e, per definizione esplicita
poi, di X*.

a) Definizione induttiva di X i

a. X0 = X

⎡ X se non Cons  X ∪{α }
b. X i +1 = ⎢ i i i

⎢⎣ X i ∪{α i } se Cons  X i ∪{α i }

b) Definizione esplicita di X*

X * =  Xi
i =0

Def. 2: Completezza di X (Cpl X)

227
Capitolo terzo

Cpl  X ⇔ (om α ∈L( X ))(α ∈X  vel  ¬α ∈X )


⇔ (om α ∈L( X ))(α ∉X ⇒ ¬α ∈X )

Def. 3: Chiusura di X (Ch X)

Ch X ⇔ (om α ∈L( X ))( X  α ⇔ α ∈X )

Def. 4: Completezza rispetto ai segni logici

a) [c∧]: α ∧ β ∈X ⇔ α ∈X  et   β ∈X
b) [c∨]: α ∨ β ∈X ⇔ α ∈X  vel   β ∈X
c) [c→]: α → β ∈X ⇔ (α ∈X ⇒ β ∈X )
d) [c¬]: ¬α ∈X ⇔ α ∉X

Ebbene, se X è consistente, allora valgono i seguenti teoremi.

6.8. Teoremi su X*
Teorema 1: Cons X*

La dimostrazione segue dal fatto che ogni Xi è coerente.

Teorema 2: Cpl X*

Si deve mostrare che (om α ∈L( X ))(α ∉X * ⇒ ¬α ∈X *). Sia


dunque α ∉X *. È chiaro che α compare con un certo indice
nella enumerazione di tutte le formule. Sia dunque α ≡ α i . Ma
allora che α ∉X * dipende dal fatto che nel processo di costruzio-
ne di X i +1 , α i non è stato aggiunto a X i . E ciò a sua volta dipen-
de dal fatto che non Cons  X i ∪{α i }. Ma allora:

X i  α i  α ∧ ¬α def. di Cons
X i  ¬α i per (¬j)

228
Logica dei predicati (semantica)

D’altra parte nella costruzione di X* viene il momento in cui si


deve decidere di includere o meno ¬α i . Ora, tale momento può
essere prima della formazione di X i o dopo, a seconda del metodo
di enumerazione delle formule usato. Ma noi possiamo tranquilla-
mente assumere che tale momento sia dopo la formazione X i . In-
fatti, il metodo da noi menzionato ai fini dell’enumerazione delle
formule si basa sulla loro complessità (numero di segni logici in
essa occorrenti) e ¬α i è più complessa di α i . Pertanto l’ordine con
cui viene passata in rassegna ¬α i è successivo a quello con cui è
presa in considerazione α i al momento della generazione dell’in-
sieme X i +1 . Supponiamo, dunque, per assurdo, che al momento di
costruire un certo insieme X j +1 , successivo alla costruzione di X i
e dunque tale che X j ⊇ X i , ¬α i non si possa aggiungere perché
inconsistente con X j . Ma allora:

X j  ¬α i  α ∧ ¬α def. di Cons


X j  αi per (¬k)

il che è incompatibile con la consistenza di X j . Da X j sarebbe,


infatti, derivabile al contempo sia α i sia ¬α i , in forza dell’ultimo
risultato e di X j ⊇ X i e X i  ¬α i . Nella formazione di X * ci
sarà dunque, in ogni caso, il momento della inclusione di ¬α , ov-
vero, in conclusione, ¬α ∈X *.

Teorema 3: Ch X *

Sia infatti X *  α . Assumiamo per assurdo che α ∉X *.


Quindi per la completezza di X *, ¬α ∈X *. Ma allora, per A, si
avrebbe X *  ¬α e, quindi, non Cons  X *. Ma questo contrasta
con il Teorema 1. Dunque, per (non k), α ∈X *. L’altro verso
è immediato.

Teorema 4: X * gode di tutte le quattro proprietà di completezza


rispetto ai segni logici.

229
Capitolo terzo

Nella dimostrazione le regole di trasformazione dei connettivi,


teoriche e metateoriche, sono usate in entrambi i sensi.

ad [c¬]:
¬α ∈X * ⇔ α ∉X * Cons e Cpl

ad [c∧]:
α ∧ β ∈X * ⇔ X*α ∧ β chiusura
⇔ X *  α  et  X *  β per E∧ e I∧
⇔ α ∈X * et   β ∈X * chiusura

ad [c∨]:
α ∨ β ∈X * ⇔ X*α ∨ β chiusura
⇔ X *  ¬(¬α ∧ ¬β ) Tr∨∧
⇔ ¬(¬α ∧ ¬β ) ∈X * chiusura
⇔ ¬α ∧ ¬β ∉X * [c¬]
⇔ non(¬α ∈X * et  ¬β ∈X *) per [c∧]
⇔ non(α ∉X * et   β ∉X *) per [c¬]
⇔ α ∈X * vel   β ∈X * Tr et vel

ad [c→]:
α → β ∈X * ⇔ X*α → β chiusura
⇔ X *  ¬(α ∧ ¬β ) Tr→∧
⇔ ¬(α ∧ ¬β ) ∈X * chiusura
⇔ α ∧ ¬β ∉X * [c¬]
⇔ non(α ∈ X * et  ¬β ∈X *) [c∧]
⇔ non(α ∈X * et   β ∉X *) [c¬]
⇔ (α ∈ X * ⇒ β ∈X *) Tr et ⇒

6.9. Estensioni henkiniane e complete di insiemi consistenti


Sopra sono state studiate le proprietà di X h e di X * (per X
consistente) prese separatamente. Non è escluso però che il com-
pletamento sia effettuato non nei confronti di X ma di X h . X h ,
infatti, è anch’esso un insieme consistente di formule, una volta

230
Logica dei predicati (semantica)

presupposto che X lo sia, e pertanto si presta anch’esso ad essere


completato secondo il metodo di Lindenbaum. Naturalmente le
formule da passare in rassegna per la costruzione di X h * non sa-
ranno solo le formule di L(X) ma le formule di Lh. In ogni caso
dentro X h * ci saranno tutti gli assiomi henkiniani appartenenti ad
Ah , di modo che X h * non sarà semplicemente una estensione
completa di X ma anche una sua estensione henkiniana. Ebbene
X h * , oltre a godere di tutte le proprietà pertinenti a X h e a X * ,
gode delle due ulteriori seguenti importanti proprietà:

[c∀]: ∀xα ∈X h* ⇔ (om v )(α |xv| ∈X h* )


[c∃]: ∃xα ∈X h* ⇔ (ex  v )(α |xv| ∈X h* )

ad [c∀]:

I° verso: ∀xα ∈X h* ⇒ (om v )(α |xv| ∈X h* )

H: ∀xα ∈X h * Dem: (om v )(α |xv| ∈X h* )

∀xα  α A, E∀
α  α |xv (per v generica) lemma su operatore
intermedio
∀xα  α |xv   KS
∀xα  (α |xv )xv   S xv
∀xα  α |xv|  def. α |vx| 
X h*  α |vx|  per H
α |vx|∈X h*   chiusura
(om v )(α |vx|∈X h* ) Iom

II° verso: (om v )(α |xv| ∈X h* ) ⇒ ∀xα ∈X h*

H: (om v )(α |xv| ∈X h* ) Dem: ∀xα ∈X h *

231
Capitolo terzo

Sia per assurdo ∀xα ∉X h * . Allora:

X h *  ∃x¬α per Cpl e Tr∀∃

D’altra parte, X h * è anche estensione henkiniana di X, per cui:

X h*  ∃x¬α → (¬α )|xv| ove v è la variabile


speciale propria
dell’assioma
e quindi:

X h*  (¬α )|xv| MP
X h*  ¬(α |xv|) def. di α |xv|

Ma allora, per la consistenza di X h * , X h*  α |xv| e quindi


α |xv| ∉X h* per chiusura, il che contraddice H. Pertanto
∀xα ∈X h * .

ad [c∃]:

I° verso: ∃xα ∈X h * ⇒ (ex  v )(α |vx| ∈X h * )

H: ∃xα ∈X h * Dem: (ex  v )(α |xv| ∈X h* )

X h * è henkiniana. Per cui:

X h*  ∃xα → α |xv| ove v è la variabile


propria dell’assioma
X h*  α |xv| per H
α |xv| ∈X h* chiusura
(ex  v )(α |xv| ∈X h* ) Iex

II° verso: (ex  v )(α |xv| ∈X h* ) ⇒ ∃xα ∈X h*

232
Logica dei predicati (semantica)

H: (ex  v )(α |xv| ∈X h* ) Dem: ∃xα ∈X h *

X h*  α |xv| da H per Eex


α |vx  α lemma su operatore
intermedio
α |vx  ∃xα I∃
(α |vx )xv  ∃xα S xv
α |xv| ∃xα def. α |xv|
X h *  ∃xα KS
∃xα ∈X h * chiusura

6.10. Modello canonico di X h *


A questo punto abbiamo tutti gli elementi per definire una Lh -
struttura (o modello) e costruire una interpretazione su di essa che
sia modello di X h * (e quindi anche di X). Tale Lh - struttura è det-
ta modello canonico e la indichiamo con Ac. Essa è costituita (i) da
un supporto o dominio di oggetti e (ii) dalla interpretazione di tutti
i predicati del linguaggio Lh su tale dominio (formalmente,
Ac = 〈 Ac , I CAc (Lh )〉 ). Vediamo, dunque, i singoli elementi del mo-
dello, uno dopo l’altro.

Ac = {v i }

Il dominio del modello è costituito dall’insieme di tutte le varia-


bili del linguaggio Lh . Si presti attenzione all’ontologia del model-
lo: gli oggetti sono segni.
Ora dobbiamo fissare I CAc (Lh ), vale a dire l’insieme degli attri-
buti su cui si interpretano i predicati del linguaggio Lh . Chiedia-
moci dunque per prima cosa: Quali sono i predicati del linguaggio
Lh ? I predicati di Lh sono esattamente tutti i predicati che com-
paiono nelle formule dell’insieme iniziale X. E, per seconda: Quali
sono gli attributi su cui essi possono essere interpretati? Per ri-
spondere a questa domanda ci può essere d’aiuto riflettere sulla

233
Capitolo terzo

natura del dominio del modello. Infatti la natura ontologica degli


oggetti si trasmette anche ai valori dell’interpretazione dei predica-
ti. Essi devono essere degli attributi su quegli oggetti. Ma gli ogget-
ti del dominio Ac sono segni linguistici. Dunque, i valori dell’inter-
pretazione I CAc dei predicati di Lh devono essere degli attributi di
oggetti linguistici. La definizione seguente ci viene a dire qual è
questa interpretazione per un predicato generico Pi n :

I CAc (Pi n ) = I c (Pi n ) = I Ac (Pi n ) = Pi n Ac =

= la relazione che sussiste tra le variabili v 1 ,...,v n rispetto al


segno Pi n quando in X h * compare la formula Pi nv 1 ,...,v n
= costituire in X h * una formula atomica iniziante con Pi n
= la relazione d’essere ordinatamente precedute in X h * dal
predicato Pi n

In altre parole, in linea con quanto illustrato nel paragrafo 6.2.,


i predicati sono interpretati sulla relazione d’essere precedute, da
parte delle variabili v 1 ,...,v n , dal predicato Pi n in X h * .
nA
Ora, {Pi c } sia l'insieme di tutti gli attributi del modello cano-
nico. Di conseguenza il modello canonico si può esprimere anche
nella forma seguente:

Ac = 〈{v i },{Pi n Ac }〉

A questo punto l’interpretazione canonica globale (per predicati


e variabili) I c si ottiene aggiungendo al modello canonico l’inter-
pretazione delle variabili I VAc (Lh ) definita come segue:

I c (v i ) = v i , il che significa che il dominio oggettuale del modello


è costituito dall’insieme {v i } e che le variabili sono interpretate
proprio su se stesse.

234
Logica dei predicati (semantica)

In breve: I c = I Ac = 〈 Ac , I CAc (Lh ), I VAc (Lh )〉 = 〈{v i },{Pi c }, I c (v i )〉


nA

Una volta definito il concetto di interpretazione canonica I c si


tratta di mostrare che I c  X h * e per fare ciò sarebbe sufficiente
mostrare che:
(om α )(α ∈X h * ⇒ I c  α )

Per le ragioni esposte nel paragrafo 6.2., noi dimostreremo in-


vece l’enunciato più forte:

(om α )(I c  α ⇔ α ∈X h * )

6.11. Lemma di appartenenza (Henkin):


I c  α ⇔ α ∈X h *

Dimostrazione induttiva:

Base: α ≡ P nv 1 ,...,v n

I c  α ≡ P nv 1 ,...,v n ⇔ I c (P n ) vale di I c (v 1 ),..., I c (v n )


⇔ v 1 ,...,v n costituiscono in X h * una
formula atomica iniziante con P n
⇔ P nv 1 ,...,v n ∈X h *
Passo:

α ≡ β ∧γ
Ic  β ∧ γ ⇔ I c  β  et  I c  γ def. 
⇔ β ∈X h *  et  γ ∈X h * Hi
⇔ β ∧ γ ∈X h * [c∧]

α ≡ β ∨γ
Ic  β ∨ γ ⇔ I c  β  vel  I c  γ def. 

235
Capitolo terzo

⇔ β ∈X h *  vel  γ ∈X h * Hi
⇔ β ∨ γ ∈X h * [c∨]

α ≡ β →γ
Ic  β → γ ⇔ (I c  β ⇒ I c  γ ) def. 
⇔ β ∈X h * ⇒ γ ∈X h * Hi
⇔ β → γ ∈X h* [c→]

α ≡ ¬β
I c  ¬β ⇔ Ic  β def. 
⇔ β ∉ X h* Hi
⇔ ¬ β ∈X h * [c¬]
α ≡ ∀x β
I c  ∀x β ⇔ (om v )(I c vx  β ) def. 
⇔ (om v )(I c I c x(v )  β ) def. di I c (v )
⇔ (om v )(I c  β |xv|) conversione
⇔ (om v )( β |xv| ∈X h* ) Hi
⇔ ∀x β ∈X h * [c∀]

α ≡ ∃x β
I c  ∃x β ⇔ (ex  v )(I c vx  β ) def. 
⇔ (ex  v )(I c I c x(v )  β ) def. di I c (v )
⇔ (ex  v )(I c  β |xv|) conversione
⇔ (ex  v )( β |xv| ∈X h* ) Hi
⇔ ∃x β ∈X h * [c∃]

6.12. Corollari della completezza

Teorema 1: di Löwenheim-Skolem:

Sod  X ⇒ (ex  A)(ex  I A )(I A  X  et   A è numerabile)

236
Logica dei predicati (semantica)

Dimostrazione:

H: Sod  X Dem: (ex  A)(ex  I A )(I A  X  et   A è numerabile)

Cons  X Teorema di Consistenza da H


I c  X ove Ac è numerabile Teorema di Soddisfacibilità
(ex  A)(ex  I A )(I A  X  et   A è numerabile) per Iex

Teorema 2: di non categoricità delle teorie con modello più che numerabile:

Nessuna teoria, ovvero nessun insieme di formule, che abbia un


modello non numerabile è categorica, ovvero ammette solo model-
li strutturalmente identici. Infatti, per il teorema precedente la teo-
ria possiede anche un modello con dominio numerabile. I domini
non numerabili non sono, però, isomorfi a nessun dominio nume-
rabile.

Teorema 3: di finitezza semantica (compattezza):

Il teorema presenta due formulazioni. Con F(Z ) si intenda


esprimere la finitezza dell’insieme Z. Allora:

a) X  α ⇔ (ex  Z )(Z ⊆ X  et  F(Z ) et  Z  α )

Dimostrazione:

X α ⇔ X α Corrett. e Compl.
⇔ (ex  Z )(Z ⊆ X  et  F(Z ) et  Z  α ) Finitezza sintattica
⇔ (ex  Z )(Z ⊆ X  et  F(Z ) et  Z  α ) Corrett. e Compl.

b) Sod  X ⇔ (om Z )(Z ⊆ X  et  F(Z ) ⇒ Sod  Z )

237
Capitolo terzo

Dimostrazione ⇐:

H: (om Z )(Z ⊆ X  et  F(Z ) ⇒ Sod  Z ) Dem: Sod  X

non Sod  X Ha
non Cons  X Teorema Soddisfacibilità
(ex  Z )(Z ⊆ X  et  F(Z ) et  Z  α ∧ ¬α ) per definizione di Cons. e
finitezza sintattica
Z ⊆ X  et  F(Z ) * per Eex
Z  α ∧ ¬α per Eex e Correttezza
(om I )(I  Z ⇒ I  α ∧ ¬α ) def. di 
I  Z ⇒ I  α ∧ ¬α Eom
Sod  Z ⇒ Sod  (α ∧ ¬α ) per Iex e exI
Sod  (α ∧ ¬α ) mp da * e da H
non Sod  (α ∧ ¬α ) per def. di Sod
Sod  X (non k)

Teorema 4: di non caratterizzabilità dell’aritmetica elementare di Skolem

Nessun insieme consistente di formule è capace di caratterizza-


re la struttura standard N dei numeri naturali. Nel presente conte-
sto N sia dato nella forma seguente: N = 〈N ,...〉 , ove non interes-
sa esibire l’insieme degli attributi (funzioni fondamentali).

Dimostrazione:

X sia un insieme consistente di formule aritmetiche. I N sia


una interpretazione sulla struttura aritmetica N tale che:

IN  X

238
Logica dei predicati (semantica)

Si costruisca a questo punto il seguente insieme di formule arit-


metiche, ove ≠ è il segno della non identità e 0,1, 2,... rappresenta
l’insieme delle cifre numeriche (una per ogni numero naturale):

Y = X ∪{x ≠ 0, x ≠ 1, x ≠ 2,...}

Y è soddisfacibile. Infatti Z sia un qualsiasi sottoinsieme finito


di Y. Quindi, Sod  Z perché I N  Z. Ma allora Sod  Y per compat-
tezza.
Quale sarà il modello per Y? Esso sarà un modello basato sulla
seguente struttura non standard:

N ' = {{0,1, 2,..., α ,...},...}

ove α è il numero denotato nel nuovo modello dalla variabile x e,


perciò, diverso da tutti i numeri naturali e anche maggiore rispetto
a ciascuno di essi. Si tratta cioè di un numero naturale non stan-
dard infinito. Risultato della presenza nel nuovo modello di numeri
non standard infiniti è, infine, la non isomorfia – vale a dire la non
identità strutturale – di N ' rispetto a N. Tale non isomorfia di-
pende esclusivamente dalla presenza nel dominio dell’elemento
diverso da tutti gli elementi standard e non dal fatto che i due mo-
delli non soddisfino le stesse proposizioni appartenenti a L(X). Per
questo motivo si tratta di modelli non isomorfi elementarmente
equivalenti.
In generale possiamo, dunque, concludere che X ammette mo-
delli non isomorfi e che, di conseguenza, X non riesce a caratterizza-
re la struttura N dei numeri naturali. Data la genericità di X, ciò vale,
infine, per ogni insieme di formule del linguaggio dei predicati.
Il tema della non categoricità delle teorie aritmetiche sarà ripre-
so dal punto di vista filosofico nel quarto e quinto capitolo, ove
sarà, in particolare, discusso nel contesto più ampio della categori-
cità dell’aritmetica al secondo ordine (che sarà dimostrata nel capi-
tolo quarto) e di altre proprietà delle teorie aritmetiche. In quel

239
Capitolo terzo

contesto si mostrerà che la non categoricità è conseguenza anche


del primo teorema di Gödel e che, in conseguenza di tale teorema,
le teorie aritmetiche ammettono modelli non isomorfi anche non
elementarmente equivalenti.

240
Capitolo quarto

Logica dei predicati e teorie aritmetiche

Questo capitolo è dedicato alla presentazione della nozione ge-


nerale di teoria formale e di alcune sue proprietà formali. La rifini-
tura del concetto di teoria e l’esame di altre proprietà fondamentali
saranno oggetto di studio nel capitolo successivo. In questo ci sof-
fermeremo ad illustrare i tratti e le proprietà generali di una teoria
formale e a fornirne qualche esemplificazione. A tal fine dovremo
introdurre un linguaggio allargato rispetto a quello che abbiamo
impiegato fino a questo momento. Ci sarà utile parlare, da un lato,
di teorie formalizzate in una logica dei predicati con identità. dal-
l’altra di teorie formalizzate in una logica del secondo ordine. Ci
servirà, di conseguenza l’estensione del calcolo dei predicati a cal-
colo dei predicati con identità e l’elaborazione, almeno nelle linee
fondamentali, di un linguaggio del secondo ordine. Entrambi i tipi
di estensione del calcolo sono funzionali alla introduzione di due
formulazioni dell’aritmetica di Peano: la teoria dell’aritmetica pea-
niana al primo ordine PA e la teoria della medesima aritmetica al
secondo ordine SA. Per questo vogliamo dedicare il primo para-
grafo del capitolo alle integrazioni da apportare al calcolo dei pre-
dicati per trasformarlo in calcolo dei predicati con identità. Appro-
fitteremo dell’occasione per estendere anche il linguaggio alle co-
stanti funzionali e quindi a termini più complessi delle variabili in-
dividuali. Come è noto, nella elaborazione delle teorie, questo al-

241
Capitolo quarto

largamento del linguaggio non rafforza essenzialmente le possibi-


lità insite nel linguaggio del primo ordine senza costanti funzionali
(a patto naturalmente di introdurre opportuni assiomi definitori
compensativi, ovvero di rafforzare la componente assiomatica spe-
cifica della teoria), ma è particolarmente utile nell’uso del linguag-
gio aritmetico, che è essenzialmente un linguaggio funzionale.
Contestualmente presenteremo la teoria PA (con alcuni teoremi)
come esempio emblematico di teoria del primo ordine (teoria ele-
mentare). La seconda parte, dedicata alla aritmetica di Peano del
secondo ordine (sistema SA) è la più impegnativa, dal momento
che in essa si dimostra l’importante teorema di Dedekind.

1. Concetto di teoria
Come già anticipato, tre sono gli elementi costitutivi di una teo-
ria formale: il linguaggio nel quale essa è formalizzata, il calcolo
logico in essa usato per derivare i teoremi, l’insieme degli assiomi.
Più precisamente, una teoria T è data dall’insieme degli assiomi
A(T ) più il calcolo C in cui è formalizzata la teoria; il calcolo C,
poi, è dato dal linguaggio L più le regole deduttive D; infine il lin-
guaggio L è dato dall’alfabeto A e dalle regole di formazione F. In
sintesi:

T = 〈A(T ),C 〉   C = 〈L , D〉   L = 〈 A, F 〉

Provvediamo, innanzitutto, ad estendere L e C attraverso l’in-


troduzione dei termini funzionali e della identità.
1.1. Linguaggio
1.1.1. Alfabeto
L’alfabeto è il complesso di segni che costituiscono il linguaggio
di una teoria formale. Quattro sono le categorie di segni. Di questi

242
Logica dei predicati e teorie aritmetiche

introduciamo esplicitamente solo i nuovi segni funzionali. Per gli


altri tipi di segni si rinvia al capitolo 2.

a) Variabili individuali: come sopra (v. cap. 2)

b) Costanti

1) Costanti funzionali (segni per funzioni)

f 10 f 20 f 30 ...
f 11 f 21 f 31 ...
f 12 f 22 f 32 ...

L’esponente indica il numero dei posti della funzione, l’indice il


suo numero ordinale. In generale, dunque, f kn è la k-esima costan-
te funzionale ad n posti (costante funzionale n-adica). Vediamo
qualche esempio. Consideriamo la funzione di successione x ' = y .
In essa x è l’argomento e y il valore. Così «'» è una funzione mo-
noargomentale o a un posto. Nella funzione somma x + y = z ,
invece, sono due gli argomenti, x e y, mentre z è il valore. Per que-
sto «+» è una funzione biargomentale, ovvero a due posti. Ci sono,
naturalmente, funzioni anche a tre o più posti. Questo spiega per-
ché nel nostro alfabeto sia presente una quantità potenzialmente
infinita di righe di segni funzionali. Caso limite delle costanti fun-
zionali sono, poi, le funzioni a zero posti. Esse coincidono con le
costanti individuali. Ad esempio, nella teoria dei numeri, 0 sta per
un individuo, anche se lo si può considerare una funzione che dà
sempre 0, a partire da un insieme vuoto di argomenti. A livello
formale, dunque, le costanti individuali si possono considerare co-
stanti funzionali a zero posti. Spesso le costanti individuali sono
indicate con le lettere c 1 ,c 2 ,... al posto di f 10 , f 20 ,... . L’espressione

243
Capitolo quarto

f n , o ancora più semplicemente f, sta per una costante funzionale


ad n posti generica.

2) Costanti predicative: come sopra (v. cap. 2)

Le costanti funzionali e quelle predicative sono chiamate, talvol-


ta, anche costanti descrittive, proprio per il fatto che descrivono ri-
spettivamente funzioni o proprietà e relazioni, in contrapposizione
con i segni logici che non descrivono nulla, ma hanno un significa-
to meramente sintattico-strutturale. Un’ulteriore osservazione ri-
guarda il rapporto tra costanti funzionali e costanti predicative. La
differenza tra costanti funzionali e costanti predicative sta nel fatto
che le prime instaurano una corrispondenza univoca tra determina-
ti argomenti e un determinato valore, mentre le seconde descrivo-
no una relazione esistente tra gli oggetti considerati. Ad esempio,
x / y è un predicato a due posti perché significa che x divide esat-
tamente y, mentre x ⋅ y è una funzione perché sta ad indicare il
prodotto di x per y.

c) Segni logici

1) Segno dell’identità (=)

Il segno dell’identità «=» è qui introdotto come segno dell’iden-


tità estensionale, nozione secondo la quale affermare che a = b si-
gnifica affermare che che a e b sono due nomi diversi per lo stesso
individuo. Infine non va dimenticato che il segno « = » è un segno
del linguaggio L e non va confuso con il segno « ≡ » che sta ad in-
dicare l’identità notazionale.

2) Connettivi proposizionali: come sopra (v. cap. 2)

3) Quantificatori: come sopra (v. cap. 2)

244
Logica dei predicati e teorie aritmetiche

d) Segni ausiliari: come sopra (v. cap. 2)

1.2. Regole di formazione


Ci sono due categorie di regole di formazione: regole di forma-
zione per termini FT e regole di formazione per formule FF.

a) FT: regole di formazione dei termini


Le regole di formazione dei termini coincidono nella sostanza
con le clausole che definiscono la nozione di termine. La defini-
zione di termine è una definizione induttiva. Come è noto, le defi-
nizioni induttive sono formate di due parti, la base e il passo del-
l’induzione:

Base: a) Le variabili individuali x 1 , x 2 , x 3 ,... sono termini; b) Le


costanti individuali f 10 ,..., f k0 ... sono termini.
Passo: t 1 ,...,t n siano segni metateorici per termini. Allora
f kn (t 1 ,...,t n ) è un termine; nient’altro è un termine.

In generale, come segni metateorici per termini si useranno i


segni t ,r , s (con eventuali indici). È da ricordare che si tratta di se-
gni variabili o costanti a seconda del contesto.

b) FF: regole di formazione delle formule.


Anche la nozione di formula è introdotta induttivamente:

Base: formule atomiche: a) t 1 = t 2 è una formula; b) Pkn (t 1 ,...,t n )


è una formula. Supponiamo, ad esempio, che t 1 ≡ 3 e t 2 ≡ 2 + 1 ;
allora 3 = 2 + 1 è una formula. Le formule costruibili in base alla
clausola a) della base sono dette, per ovvie ragioni, identità. La
clausola b) è una generalizzazione di a), perché il segno dell’identità
corrisponde, come sopra si è visto, ad una costante predicativa a
due posti. In b) si dichiara la possibilità di costruire una formula
atomica a partire dalla sequenza t 1 ,...,t n di termini e da una qualsia-

245
Capitolo quarto

si costante predicativa ad n posti. Supponiamo, ad esempio, che


Pkn ≡ < (costante predicativa a due posti), allora t 1 < t 2 è una for-
mula; mentre t 1 < t 2t 3 non è una formula.

Passo: come sopra (v. cap. 2)


1.3. Teoria della sostituzione
Viene introdotto un nuovo operatore di sostituzione per termini.

I) Operatore di sostituzione per termini Δ xt r

Con Δ xt r si intende intuitivamente il risultato della sostituzione,


in r, della x con t. La definizione formale di tale operatore è, come
al solito, induttiva.

Base: r è una variabile o una costante individuale. Allora:

⎧ t se r ≡ x

Δ r ≡⎨
t
x
⎪ r se r ≡/ x

Si noti che nella base l’operatore di sostituzione per termini è
stato definito relativamente ai casi più semplici, cioè per i casi in
cui i termini sono o variabili o costanti.

Passo: r ≡ f (t 1 ,...,t n ) Allora:

Δ xt f (t 1 ,...,t n ) ≡ f Δ xt (t 1 ),..., Δ xt (t n )

Qui si sfrutta naturalmente l’ipotesi induttiva definitoria. Nel


passo, infatti, si suppone che la definizione sia già data per termini
meno complessi e si dà la definizione per il termine più complesso.
Intuitivamente Δ xt f (t 1 ,...,t n ) denota il risultato della sostituzione
all’interno di f (t 1 ,...,t n ) di x con t. Ma x può occorrere solo in

246
Logica dei predicati e teorie aritmetiche

t 1 ,...,t n . Per questo la sostituzione di x con t all’interno di


f (t 1 ,...,t n ) viene a coincidere con f applicata ai risultati della sosti-
tuzione di x con t in ognuno dei termini componenti t 1 ,...,t n , ossia
con f Δ xt (t 1 ),..., Δ xt (t n ) .

Vediamo qualche esempio:

a) Δ tx f 2 xy ≡ f 2ty b) Δ tx f 3ryx ≡ f 3 Δ tx ryt

Infatti, quanto a b), r è un termine di cui non si conosce la for-


ma e pertanto si deve indicare il risultato della sostituzione attra-
verso l’operatore stesso.

II) Operatore di sostituzione per formule α xy

Anche qui la definizione è induttiva.

Base: α è atomica, vale a dire α ≡ t 1 = t 2 o α ≡ P n t 1 ,...,t n .


Allora:
(t 1 = t 2 )tx ≡ Δ xt t 1 = Δ xt t 2
(P n t 1 ,...,t n )tx ≡ P n Δ xt t 1 ,..., Δ xt t n

Passo: α è molecolare o quantificata: come sopra (v. cap 2)

III) Criterio di sostituzione legittima: come sopra (v. cap 2)

2. Calcolo C dei predicati del primo ordine con identità


Il calcolo si ottiene da C attraverso la semplice aggiunta delle
regole per l’identità, primitive e derivabili.

Regole primitive dell’identità

247
Capitolo quarto

1. Regola di identità I

t =t
È una regola a zero premesse e a zero assunzioni. Con essa si
vuol dichiarare che col medesimo termine si designa lo stesso indi-
viduo.

2. Regola di identità con sostituzione I xt

X α
X  x = t  α xt
(sotto la condizione critica che Leg  α xt )

Questo principio è la codificazione formale del principio leibni-


ziano di indiscernibilità degli identici: se due individui sono identici
allora sono caratterizzati dalle stesse proprietà.

Regole dell’identità derivabili

1. Regola della simmetria SR

t =r r =t

Derivazione:

x = yx = y A
x = y  x = z  z = y I xz
y = y  y = z  z = y S xy
 y= y I
y =z z = y KS
t =r r =t S ty zr

248
Logica dei predicati e teorie aritmetiche

2. Regola della transitività TR

t = r  r = s  t = s

Derivazione:

x = yx = y A
x = y  y = z  x = z I zy
t = r  r = s  t = s S xt r s
yz

3. Regola di eliminazione della assunzione EA

X  x = t  α
X α
(sotto le condizioni che x non sia libera in X e in α
e non occorra in t)

Derivazione:

X  x = t  α H
X  t = t  α S xt
t =t I
X α KS

4. Regola di sostituzione Er

r = s  f (r ) = f (s )

Derivazione:

f (r ) = f (x )  f (r ) = f (x ) A (x non occorra
nè in r nè in s)

249
Capitolo quarto

f (r ) = f (x ) x = s  f (r ) = f (s ) I xs
f (r ) = f (r ) r = s  f (r ) = f (s ) S xr
 f (r ) = f (r ) I
r = s  f (r ) = f (s ) KS

NOTA: La regola può essere generalizzata al caso di funzioni n-


adiche. Per le funzioni a due posti diventa:

r1 = r2 s 1 = s 2  f (r1 , s 1 ) = f (r2 , s 2 )

I teoremi di correttezza e di completezza, con i relativi corollari,


valgono, naturalmente, anche per il calcolo allargato.

3. Concetto di teoria formale del primo ordine con identità


L(T ) sia un linguaggio del primo ordine con identità, ossia un
linguaggio formalizzato costruito come in 1. con un determinato
numero di costanti funzionali e costanti predicative. A(T ) sia un
determinato insieme di formule chiuse appartenenti a L(T ) dette
assiomi della teoria T. Allora:
3.1. Definizione di teoria:
La teoria T è l’insieme di tutte le formule α ∈L(T ) tali che
A(T )  α , vale a dire T = {α |A(T )  α }.

Dalla definizione di teoria risulta chiaramente che a T apparten-


gono anche le formule di A(T ), in quanto per ognuna delle
α i ∈A(T ) vale banalmente A(T )  α i . Ma la definizione non dice
niente sulla natura di A(T ). Di questo e delle proprietà fondamen-
tali di una teoria T si parlerà nel prossimo capitolo. Ora sarà intro-
dotta la teoria PA.

250
Logica dei predicati e teorie aritmetiche

3.2. Teoria PA (Aritmetica di Peano del primo ordine)


Alfabeto di PA = costante individuale «0», costante funzionale
unaria «'» (il successore), costanti funzionali binarie «+» e «·»
(somma e prodotto). Nel linguaggio di PA non serve avere un no-
me (costante individuale) per ogni numero. I numeri si possono
denotare attraverso i termini numerali. Questi sono i termini che si
ottengono per successiva applicazione della funzione successore «'»
a partire dallo 0. Così, al numero 1 corrisponde il termine 0' (in
breve 1 ), al 2 corrisponde il numerale 0'' (in breve 2 ), al 3 corri-
sponde il numerale 0''' (in breve 3 ). In generale al numero k corri-
sponde il numerale k , che sta per il termine 0'...' ove «'» occorre k
volte. Come si dirà esplicitamente nel capitolo quinto, ogni teoria
in cui si possono denotare i numeri naturali in questa maniera è
detta teoria numerica.

Assiomi (di cui il terzo è uno schema d’assiomi):

A1. ∀x¬(0 = x ')


A2. ∀x∀y(x ' = y ' → x = y )
A3. α (0) ∧ ∀x(α (x ) → α (x ')) → ∀xα (x )
A4. ∀x(x + 0 = x )
A5. ∀x∀y(x + y ' = (x + y )')
A6. ∀x(x ⋅ 0 = 0)
A7. ∀x∀y(x ⋅ y ' = x ⋅ y + x )

Al posto di A3 si può usare la regola seguente:

Regola d’induzione RI:

 α (0)
 α (x ) → α (x ')
 ∀xα (x )

251
Capitolo quarto

Teoremi di PA: qualche esempio.

1.  x = y → x + z = y + z (legge dell’addizione
del medesimo termine)

Dimostrazione:

x = y  z = z  x + z = y + z Er
z =z I
x = y  x +z = y +z) KS
 x = y → x +z = y +z I→

2.  x = 0 + x

Dimostrazione per induzione su x

Base:  0 = 0 + 0

0+0=0 da A4
0=0+0 per SR

Passo:  x = 0 + x → x ' = 0 + x '

x = 0 + x  x ' = (0 + x )' Er
 0 + x ' = (0 + x )' da A5
 (0 + x )' = 0 + x ' per SR
x =0+x x'=0+x' per TR
x =0+x → x'=0+x' I→

3.  x '+ y = (x + y )'

Dimostrazione per induzione su y

252
Logica dei predicati e teorie aritmetiche

Base:  x '+ 0 = (x + 0)'

x + 0 = x  (x + 0)' = x ' Er
x +0= x da A4
 (x + 0)' = x ' KS
 x '+ 0 = x ' da A4
 x '+ 0 = (x + 0)' per TR

Passo:  x '+ y = (x + y )' → x '+ y ' = (x + y ' )'

x '+ y = (x + y )'  (x '+ y )' = (x + y )'' Er *


x + y ' = (x + y )'  (x + y ' )' = (x + y )'' Er
 x + y ' = (x + y )' da A5
 (x + y ')' = (x + y )'' KS **
x '+ y = (x + y )'  (x '+ y )' = (x + y ')' per TR(*, **)
 x '+ y ' = (x '+ y )' da A5
x '+ y = (x + y )'  x '+ y ' = (x + y ')' per TR
 x '+ y = (x + y )' → x '+ y ' = (x + y ' )' I→

4.  x + y = y + x (commutatività della somma)

Dimostrazione per induzione su y

Base:  x + 0 = 0 + x

x +0= x da A4
x =0+x Teor. 2
x +0=0+x per TR

Passo:  x + y = y + x → x + y ' = y '+ x

! x + y = y + x  (x + y )' = ( y + x )' Er
! x + y ' = (x + y )' da A5

253
Capitolo quarto

! x + y = y + x  x + y ' = ( y + x )' per TR


! y '+ x = ( y + x )' Teor. 3
x + y = y + x  x + y ' = y '+ x per TR
 x + y = y + x → x + y ' = y '+ x I→

5.  ¬(x = 0) → ∃y(x = y ') (legge del predecessore)

Dimostrazione per induzione su x

Base:  ¬(0 = 0) → ∃y(0 = y ')

0=0 I
¬(0 = 0)  ¬(0 = 0)) A
¬(0 = 0)  ∃y(0 = y ') (¬i)
 ¬(0 = 0) → ∃y(0 = y ') I→

Passo:  (¬(x = 0) → ∃y(x = y ')) → (¬(x ' = 0) → ∃y(x ' = y '))

x = y  x' = y' Er
x = y  ∃y(x ' = y ') I∃
x = x  ∃y(x ' = y ') S xy
x =x I
 ∃y(x ' = y ') KS
 (¬(x = 0) → ∃y(x = y ')) → (¬(x ' = 0) → ∃y(x ' = y '))
RP2, I2→

Definizione preliminare

z sia una variabile qualsiasi diversa da a e da b. Allora

a / b = def ∃z(b = a ⋅ z )

254
Logica dei predicati e teorie aritmetiche

(Intuitivamente, a / b significa: a divide esattamente b, ovvero b


è multiplo di a)

6.  x / x ⋅ y (ogni numero divide un qualsiasi suo multiplo)

Dimostrazione:

x⋅ y=x⋅ y I
y = z  x ⋅ y = x ⋅z I zy
y = z  ∃z(x ⋅ y = x ⋅ z ) I∃
 ∃z(x ⋅ y = x ⋅ z ) EA
x/x⋅ y def. di /

3.3. Alcuni risultati su PA


PA è una delle teorie matematiche più studiate all’interno della
logica contemporanea. I risultati su PA sono numerosi e importan-
ti e di alcuni di essi si parlerà nel prossimo capitolo nell’ambito del-
la trattazione della assiomatizzabilità delle teorie. In questo capito-
lo vogliamo tuttavia riprendere un risultato ottenuto alla fine del
capitolo precedente per applicarlo a PA. Si tratta del teorema di
non caratterizzabilità dell’aritmetica elementare di Skolem. Il teo-
rema dichiarava l’impossibilità di caratterizzare la struttura N dei
numeri naturali attraverso un qualsiasi insieme consistente di pro-
posizioni. In altri termini, un qualsiasi insieme di formule che sia
soddisfatto da un modello su N ammette anche modelli non iso-
morfi al primo. Ora anche gli assiomi di PA sono soddisfatti dal
modello standard sulla struttura N dei numeri naturali. Dunque
anche PA ammette modelli non isomorfi al modello standard.
Usualmente questo risultato è conosciuto come teorema di non
categoricità di PA. La tematica della categoricità delle teorie sarà
trattata ulteriormente nel paragrafo successivo; ci sarà l’occasione
per mostrare come il sistema SA dell’aritmetica di Peano sia, al
contrario di PA, categorica e anche di illustrare la ragione di que-

255
Capitolo quarto

sto. Ora vale la pena di dire qualcosa sulla struttura formale del
modello standard di PA e di quelli non standard.
Come è naturale aspettarsi, il modello di una teoria è una L-
struttura su cui risultano veri gli assiomi della teoria. In tal senso, il
modello standard di PA è dato dalla coppia 〈N , I NC (L(PA))〉 , ove
N è l’insieme dei numeri naturali e I NC (L(PA)) sta a denotare il
valore dell’interpretazione dei segni tipici del linguaggio aritmetico
di PA. Questi sono 0,',+,·, per cui il modello standard di PA sarà
〈N , I N (0), I N ( ' ), I N (+), I N (⋅)〉, che usualmente si indica nella forma
graficamente semplificata 〈N ,0,', +,⋅〉. Indichiamo tale modello
con l’espressione I N . Il modello standard soddisfa naturalmente gli
assiomi di PA. Ma PA, ammette, in base al teorema di Skolem an-
che modelli non standard. Qual è la struttura di tali modelli? Essi,
come sappiamo già, si differenziano dal modello standard esclusi-
vamente per la presenza nel dominio di un elemento diverso da
tutti i numeri naturali standard (che rispetto al linguaggio di PA si
possono concepire come le immagini dei termini numerali). Tutta-
via, un modello non standard di PA non potrebbe soddisfare la
totalità degli assiomi di PA se gli elementi non standard non fosse-
ro essi stessi infiniti. Sia, ad esempio, α l’elemento infinito presen-
te nel dominio in forza del teorema di Skolem. Questo elemento è
innanzitutto maggiore di tutti gli altri elementi standard. Per questo
non può essere identico a 0. Ma, in forza degli assiomi di PA, lo 0
è l’unico elemento che non abbia un predecessore. Pertanto α de-
ve avere un predecessore ' α e questo a sua volta un altro prede-
cessore '' α e così via di seguito. Inoltre α è seguito, come tutti gli
elementi del dominio da un successore α ' e questo a sua volta da
un altro successore α '' e così via. L’insieme di tutti i predecessori e
di tutti i successori di α è detto orbita di α . Dunque il dominio non
standard contiene non solo α ma anche l’orbita di α . Ma la storia
non finisce qui. Ci sono altri elementi ancora. Infatti α + α è più
grande di ogni elemento presente nell’orbita di α e lo stesso vale
per α + α + α + ... Inoltre α ⋅ α sarà maggiore di un qualsiasi nu-
mero ottenuto attraverso somme finite di elementi non standard. Il

256
Logica dei predicati e teorie aritmetiche

processo, poi, prosegue indefinitamente con le altre operazioni


aritmetiche. Guardando all’indietro il percorso fatto, è facile, in
conclusione, rendersi conto di come il dominio di un modello non
standard sia costituito da una parte iniziale di elementi standard e
un insieme infinito numerabile di orbite, ciascuna delle quali è iso-
morfa all’insieme degli interi (naturali positivi e naturali negativi).
L’ordinamento delle orbite è poi isomorfo all’insieme dei razionali.
Esso è un ordinamento denso, dal momento che tra un’orbita e
un’altra ne esiste sempre una terza. Schematicamente il dominio di
un modello non standard presenta la seguente struttura:

0,1, 2,...           ...'' α ,' α , α , α ', α '',...           ...' β , β , β ',...

Infine vale la pena di sottolineare che il tipo di modello non


standard illustrato fornisce la possibilità di definire il concetto di
«grandezza infinitesima» ε = 1 / α , quantità cioè tale che ε ≠ 0 e
per ogni numero reale a ≠ 0   ε < a. È questa la base della cosiddet-
ta analisi non standard.

4. Teorie del secondo ordine, teoria SA e teorema di Dedekind


4.1. Concetto di teoria formale del secondo ordine
Le teorie del secondo ordine sono caratterizzate da un linguag-
gio del secondo ordine. Ciò che distingue un linguaggio del secon-
do ordine da un linguaggio del primo è il fatto che nel linguaggio
del secondo ordine esistono accanto alle variabili individuali anche
le variabili predicative e che queste sono suscettibili di quantifica-
zione. Nei linguaggi del primo ordine sono quantificabili solo le
variabili individuali e i predicati sono costanti. Il calcolo del secon-
do ordine contiene delle regole specifiche, che presiedono, natu-
ralmente, al modo di trattare tali variabili. Nel seguito faremo un
uso molto limitato di tali regole, che non sono niente altro che
l’estensione delle normali regole quantificazionali alle nuove varia-
bili predicative. Del resto, come vedremo nel prossimo capitolo,

257
Capitolo quarto

non esiste un insieme completo di regole della logica del secondo


ordine, per cui nella trattazione delle teorie del secondo ordine di-
venta spesso molto più importante argomentare sul piano dei mo-
delli (del secondo ordine) di tali teorie. È quello che in effetti noi
faremo con il sistema dell'aritmetica di Peano al secondo ordine
SA.
4.2. Teoria SA (Aritmetica di Peano del secondo ordine)
La teoria SA è caratterizzata dai seguenti tre assiomi:

P1. ∀x(x ' ≠ 0)


P2. ∀x∀y(x ' = y ' → x = y )
P3. ∀F(F 0 ∧ ∀x(Fx → Fx ') → ∀xFx )

È degna di nota la coincidenza dei primi due assiomi P1 e P2


con A1 e A2 della teoria PA. Anche P3 corrisponde all’assioma di
induzione A3. Tuttavia esiste una differenza essenziale. Mentre A3
è uno schema d’assiomi che racchiude una infinità di istanze (una
per ogni formula induttiva), P3 è una formula tipica del linguaggio
del secondo ordine. In essa, infatti, si quantifica sulla totalità delle
variabili predicative. Gli assiomi definitori della somma A4 e A5 e
quelli del prodotto A6 e A7 non hanno corrispettivo nel sistema
SA, per la ragione che le maggiori risorse logiche e linguistiche di
SA consentono di definire sia la somma sia il prodotto e, poi, di
derivarne le equazioni.
Detto questo, a noi non interessa dire molto di più sulla struttu-
ra sintattica di SA e del suo calcolo. Ci serve piuttosto approfondi-
re il suo apparato semantico, precisando il concetto di modello del
secondo ordine, che costituisce la chiave di volta dell’intera dimo-
strazione del teorema di Dedekind che inizieremo tra poco. A tal
fine cominciamo dalla nozione di struttura piena, già introdotta
all’inizio del cap. 3.
Sia data la nozione di n-esima potenza cartesiana. Dato un in-
sieme A, chiamiamo n-esima potenza cartesiana di A (e la indi-

258
Logica dei predicati e teorie aritmetiche

chiamo con An) l’insieme di tutte le n-ple ordinate che siano ele-
menti di A. Così, A1 = A per convenzione; A2 = insieme delle
coppie ordinate degli elementi di A, A3 = insieme delle triple ordi-
nate degli elementi di A,… Per esempio, sia A = {a}, ovvero il so-
lo elemento di A sia a, allora: A1 = {a}, A 2 = {〈a,a〉},
A = {〈a,a,a〉},... Ora, invece, sia A = {ab}, allora: A1 = {〈a,b〉},
3

A 2 = {〈a,a〉, 〈a,b〉, 〈b,a〉, 〈b,b〉}, A 3 = {〈a,a,a〉, 〈a,a,b〉, 〈a,b,a〉, 〈a,b,


b〉, 〈b,a,a〉, 〈b,a,b〉, 〈b,b,a〉, 〈b,b,b〉}..
Con la nozione di n-esima potenza cartesiana di un insieme ap-
pena introdotta siamo in grado di definire il primo dei concetti
semantici fondamentali: il concetto di struttura piena. Una struttu-
ra piena è una coppia del seguente tipo:

A = 〈 A,{X |(ex n )(n > 0 et X ∈℘( A n )}〉

Ove {X |(ex n )(n > 0 et X ∈℘( A n )} è l’insieme di tutti gli at-


tributi combinatoriamente possibili a partire dal dominio A. Più
precisamente {X |(ex n )(n > 0 et X ∈℘( A n )} è costituito da tutti
gli elementi che appartengono a P 1 (℘( A1 ) , insieme di tutti i sot-
toinsiemi di A), da tutti gli elementi che appartengono a P 2 (
℘( A 2 ) , insieme di tutti i sottoinsiemi di A2), e così via per ogni n.
In ciò che segue, l’insieme {X |(ex n )(n > 0 et X ∈℘( A n )} verrà
indicato mediante l’espressione abbreviata {℘( A n )}.
È da ricordare che la cardinalità di An è data da C(A)n dove
C(A) è la cardinalità di A. Pertanto, dato che C(A) è al massimo
infinita numerabile, la cardinalità di An è al massimo infinita nume-
rabile. Tuttavia, se A è infinito, la cardinalità di ℘( A n ) è più che
C ( An )
numerabile, in quanto, C(℘( A )) = 2
n
>ℵ0 .
Si ricordino, a questo punto, le ragioni che ci avevano portato
alla definizione di L-struttura, ovvero di modello di un certo lin-
guaggio. Il linguaggio è un sistema finito (al massimo numerabile)
di segni, mentre l’insieme degli attributi di una struttura piena con
dominio numerabile è più che numerabile. Per questo, mancano in
un sistema formale le risorse per nominare ogni attributo e, in

259
Capitolo quarto

conseguenza di ciò, è possibile nominare solo una parte di essi.


Normalmente un linguaggio ritaglia nella totalità degli attributi so-
lo una quantità finita. Sono questi gli attributi specifici della L-
struttura ritagliata nella struttura piena di partenza proprio dal lin-
guaggio L. Tale L-struttura è detta anche modello di L sul dominio
oggettuale A. Tale modello è dato dalla coppia 〈 A, I CA (L )〉 ove C
sta a denotare l’insieme delle costanti descrittive di L e I CA (L ) sta a
significare, per l’appunto il valore della interpretazione I CA per ogni
costante appartenente a C. Nel caso del modello standard dei nu-
meri naturali, ad esempio, il modello ritagliato dal linguaggio arit-
metico del primo ordine è 〈N , I N (0), I N ( ' ), I N (+), I N (⋅)〉, cioè
〈N ,zero, successore, somma, prodotto〉 , che brevemente si indica nella
forma 〈N ,0,', +,⋅〉 . Ebbene, anche un modello di un linguaggio
del secondo ordine è soggetto allo stesso limite. Anch’esso non ha
le risorse per nominare tutti gli attributi di una struttura piena. Tut-
tavia è dotato di una risorsa in più rispetto ad un linguaggio del
primo ordine. Esso può parlare di tutti gli attributi (anche se non li può
nominare), in quanto può quantificare sulle variabili predicative. La diffe-
renza tra una L-struttura del primo ordine e una del secondo sta
per l’appunto nel fatto che quest’ultima ha due domini di quantifi-
cazione: il primo è il solito dominio oggettuale A, il secondo è l’in-
sieme di tutti gli attributi relativi {X |(ex n )(n > 0 et X ∈℘( A n )} .
Poi compare anche I CA (L ), esattamente come compariva in un
modello del primo ordine.
A questo punto, possiamo procedere nella costruzione di un
modello per SA. Esso sarà:

〈N ,{℘(N n )}, I N (0), I N ( ' )〉

Nel seguito ci conviene, tuttavia, semplificare tale simbologia,


dal momento che, una volta fissato N è fissato anche {℘(N n )} .
Un modello per SA avrà dunque la forma

〈N , I N (0), I N ( ' )〉

260
Logica dei predicati e teorie aritmetiche

venendo così ad apparire come un modello di un linguaggio del


primo ordine. Ma occorre non dimenticare che l’insieme di tutti gli
attributi è implicito.
A questo punto possiamo accingerci a dimostrare il teorema di
Dedekind, secondo il quale SA è una teoria categorica. L’impor-
tanza del teorema sarà messa a fuoco nel prossimo capitolo.
4.3. Teorema di Dedekind: I  A(SA)  et   I '  A(SA) ⇒ I  I '
(ove l’espressione I  I ' sta a significare la relazione di isomor-
fismo tra le interpretazioni I e I ' )
Dimostrazione:

Premessa
La dimostrazione di categoricità per SA consiste nel mostrare
che due modelli qualsiasi di SA sono isomorfi. A questo fine dob-
biamo precisare in sede preliminare ancora due elementi: (1) trovare
un modo per esibire tali modelli che esprima opportunamente la lo-
ro struttura, onde condurre più agevolmente la dimostrazione di
isomorfismo; (2) definire il concetto di isomorfismo e mostrare che
cosa si deve dimostrare perché tale isomorfismo sussista.
Ad (1). Si tratta, naturalmente, di due modelli (o L-strutture) del
medesimo linguaggio del secondo ordine L, linguaggio cioè in cui
sono presenti come costanti non logiche solo lo «0» e il segno del
successore «'». Essi si possono, pertanto, indicare attraverso le
espressioni 〈D1 , I D1 (0), I D1 (')〉 e 〈D2 , I D2 (0), I D2 (')〉, ove D1 e D2 so-
no i rispettivi domini, I D1 (0) e I D2 (0) sono le rispettive interpreta-
zioni dello «0», mentre I D1 (') e I D2 (') sono le rispettive interpreta-
zioni del segno di successione «'». Ponendo, poi, I D1 (0) = o1 , rispet-
tivamente I D2 (0) = o 2 , e I D1 (') = s1 , rispettivamente I D2 (') = s2 , essi
si possono indicare equivalentemente anche con 〈D1 ,o1 ,s1 〉 e
〈D2 ,o 2 ,s2 〉 . Infine, per motivi di economia grafica, si possono usa-
re le espressioni contratte I1 e I2 sia come segni per i due modelli,

261
Capitolo quarto

sia come abbreviazioni rispettivamente di I D1 e di I D2 . Pertanto si


avrà:
I 1 (0) = o1 I 1 ( ' ) = s1
I 2 (0) = o 2 I 2 ( ' ) = s2

Ad (2). Definiamo, innanzitutto, il concetto di isomorfismo.


Normalmente si dice che tra due modelli esiste isomorfismo quan-
do tra i rispettivi domini esiste una corrispondenza biunivoca che
mantiene le relazioni tra gli elementi dei rispettivi domini. Restrin-
giamo tale definizione al caso in cui è presente un solo predicato
relazionale. Siano, dunque, dati due domini oggettuali D1 e D2, ove
gli elementi di D1 siano da indicare con la variabile x e quelli di D2
con y. Assumiamo, poi, che il linguaggio nel quale sono definiti i
modelli contenga una sola costante predicativa monadica P. Allora
i due modelli sono isomorfi se e solo se esiste una funzione biuni-
voca f tra i due domini tale che (om x )(ex  y )(f (x ) = y ) e
(om x )(I DP1 (P )(x ) ⇔ I DP 2 (P )( f (x )). Ora, nel nostro caso, il linguag-
gio contiene come costanti non logiche solo lo «0», e il segno del
successore «'». Ciò significa che deve esistere una funzione biunivoca
f tra i due domini D1 e D2 che preserva quella particolare relazione
che è la funzione di successione. Così, perché i nostri due modelli I1
e I2 siano isomorfi deve esistere una funzione biunivoca f tale che
(om x )(ex  y )(f (x ) = y ) , f (o1 ) = o 2 e f (s 1 (x )) = s 2 ( f (x )) . Natu-
ralmente, trattandosi di isomorfismo, deve anche valere che la fun-
zione f − , inversa di f, soddisfi analoghe condizioni inverse:
(om y)(ex  x )(f − ( y ) = x ), f − (o 2 ) = o1 e f − (s 2 ( y )) = s 1 ( f − ( y )). Ri-
assumendo le condizioni per la funzione f, deve valere:

D1 f − ( y1 ) = x 1 x2 x3 x4 x 5 ...
D2 f (x 1 ) = y 1 y2 y3 y4 y 5 ...

262
Logica dei predicati e teorie aritmetiche

D1 o1 x s 1(x ) ...
D2 f (o1 ) = o 2 f (x ) s 2 ( f (x )) = f (s 1(x )) ...

In conclusione, si tratta, dunque, di dimostrare che esiste una f


biunivoca da D1 (elementi x) su D2 (elementi f (x ) = y ) tale che:
f (o1 ) = o 2 (*) e f (s 1 (x )) = s2 ( f (x )) (**). La dimostrazione si arti-
cola in quattro parti: nella prima è introdotta la nozione di relazio-
ne di Peano tra gli elementi di D1 e gli elementi di D2; sono dimo-
strati alcuni teoremi importanti su di essa, tra cui l’esistenza di una
particolare relazione di Peano che ha carattere funzionale. Dall’esi-
stenza di questa discende l’esistenza di una particolare funzione f
tale che f (x ) = y. Nella seconda si dimostra che f soddisfa sia (*)
sia (**). Nella terza si dimostra che f è iniettiva e nella quarta suriet-
tiva. In tal modo risulta che f è una funzione biunivoca, il che assi-
cura la similarità dei due modelli.

1. PARTE: Relazioni di Peano ed esistenza di f

Introduciamo, innanzitutto, il concetto di relazione di Peano.


Esso serve per costruire la funzione di isomorfismo f.

Definizione di Relazione di Peano:


Una relazione Rxy (ove x ∈D1 e y ∈D2 ) è una Relazione di
Peano ⇔ (i) Ro1o 2 e (ii) Rxy ⇒ Rs 1 (x )s 2 ( y ). Si tratta, cioè, di una
relazione che vale, innanzitutto, tra o1 e o 2 e che, inoltre, è chiusa
rispetto all’operazione di successione, vale a dire, se per un certo
x ∈D1 e un certo y ∈D2 vale Rxy allora vale anche Rs 1 (x )s 2 ( y ).
Usando il linguaggio insiemistico, si può anche dire che R è un in-
sieme di coppie ordinate 〈x , y〉 (ove x ∈D1 e y ∈D2 ) che contie-
ne la coppia 〈o1 ,o 2 〉 e che è chiuso rispetto all’operazione di suc-
cessione, vale a dire tale che se contiene la coppia ordinata 〈x , y〉
(ove x ∈D1 e y ∈D2 ) allora esso contiene anche la coppia

263
Capitolo quarto

〈s 1 (x ), s 2 ( y )〉.

ESEMPIO 1: i due domini sono entrambi standard: R = def x = y

D2 0 1 2 3 4 . . . . . .

D1 0 1 2 3 4 . . . . . .

Ci sono le seguenti coppie:

〈0,0〉, 〈1,1〉, 〈2, 2〉, 〈3,3〉,...

ESEMPIO 2: i domini sono non standard: R = def x > y ∨ x = y

D2 0 1 2 3 . .

D1 0 1 2 3 . . α ' α ' α '' . . . . β β ' β '' . .

ove gli elementi α e β sono elementi infiniti del modello non


standard.
Ci sono le seguenti coppie:

〈0,0〉, 〈1,0〉, 〈2,0〉, 〈3,0〉,..., 〈α ,0〉, 〈α ',0〉, 〈α '',0〉,..., 〈β ,0〉, 〈β ',0〉, 〈β '',0〉...
〈1,1〉, 〈2,1〉, 〈3,1〉, 〈4,1〉,..., 〈α ',1〉, 〈α '',1〉,..., 〈β ',1〉, 〈β '',1〉,...
〈2, 2〉, 〈3, 2〉, 〈4, 2〉,..., 〈α '', 2〉, 〈α ''', 2〉,..., 〈β '', 2〉, 〈β '', 2〉,...

Definizione di R 0 :

264
Logica dei predicati e teorie aritmetiche

R 0 è l’intersezione di tutte le relazioni di Peano con dominio D1 e


D2, cioè:

R 0 xy ⇔ (∀R )(R è una relazione di Peano ⇒ Rxy )

Considerando i due esempi precedenti R 0 è data dalle coppie


che caratterizzano la prima relazione: 〈0,0〉, 〈1,1〉, 〈2, 2〉, 〈3,3〉,...

Risultati su R 0 :

1) R 0 xy et R è una relazione di Peano ⇒ Rxy


La dimostrazione è immediata.

2) R 0 è anch’essa una relazione di Peano


Qui si tratta di mostrare che valgono entrambe le condizioni
definienti il concetto di relazione di Peano sopra introdotto.
Ad (i) R 0o1o 2 : Ogni relazione di Peano vale di o1 e di o2. Per-
tanto la coppia 〈o1 ,o 2 〉 appartiene anche all’intersezione.
Ad (ii) R 0 xy ⇒ R 0 s 1 (x )s 2 ( y ) : con P si indichi la proprietà d’es-
sere una Relazione di Peano. Allora:

H: R 0 xy Dem: R 0 s 1 (x )s 2 ( y )

(om R )(PR ⇒ R s 1 (x )s 2 ( y ))
Ora:

PR a
Rxy per 1) Risultato su R 0 da H
Rs 1 (x )s 2 ( y ) per def. Relazione di Peano
(om R )(PR ⇒ R 0 s 1 (x )s 2 ( y )) s, Iom

265
Capitolo quarto

3) R 0 è una funzione, vale a dire ∀x∃! y(R 0 xy ) .


Per dimostrare che R 0 è una funzione occorre mostrare l’esi-
stenza e l’unicità del secondo argomento per ogni scelta del primo
argomento, vale a dire ∀x∃! y(R 0 xy ). L’obiettivo si ottiene per in-
duzione sulla formula ∃! y(R 0 xy ). Si tratta di formula del secondo
ordine, dal momento che R 0 è definita attraverso un quantificatore
universale predicativo. Per questo nella dimostrazione si fa uso es-
senziale dell’assioma d’induzione P3, che qui viene applicato sotto
forma di regola, analogamente a come abbiamo fatto entro il con-
testo di PA. Come primo obiettivo della 1. parte, dunque, dobbia-
mo mostrare:

Base dell’induzione al II ordine: ∃! y(R 0o1 y ).

Distinguiamo l’obiettivo relativo all’esistenza da quello relativo


all’unicità.

(a) Esistenza: R 0 è per il risultato (2) una relazione di Peano, per


cui R 0o1o 2 . L’esistenza segue allora immediatamente.

(b) Unicità:

H: R 0o1v Dem: v = o 2

Dimostrazione per assurdo. Sia, allora:

v ≠ o2 Ha

e introduciamo la nuova relazione R 0 ' così definita:

R 0 ' xy ⇔ R 0 xy  et  (x ≠ o1  vel   y ≠ v )

Di R 0 ' vale allora:

266
Logica dei predicati e teorie aritmetiche

(A) non R 0 'o1v : immediato.


(B) R 0 ' è una relazione di Peano. Infatti, valgono entrambe le con-
dizioni definienti il concetto di relazione di Peano sopra introdotte.

Ad (i): R 0 'o1o 2 , il che vale poiché R 0o1o 2 e o 2 ≠ v

Ad (ii): R 0 ' xy ⇒ R 0 's 1 (x )s 2 ( y ), il che vale perché:

H: R 0 ' xy Dem: R 0 's 1 (x )s 2 ( y )

Dimostrazione:
R 0 xy da H per def. R 0 '
R 0 s 1 (x )s 2 ( y ) per def. Relazione di Peano
s 1 (x ) ≠ o1 I1 soddisfa P1
R 0 's 1 (x )s 2 ( y ) per def. R 0 '
A questo punto possiamo continuare con la dimostrazione per
assurdo dell’unicità:

R 0o1v H
R 0 'o1v perché R 0 ' è una Relazione
di Peano e (1) risultato su R 0
non R 0 'o1v risultato (A) su R 0 '

Ma questa è una contraddizione. Otteniamo pertanto la tesi:

v = o2 (non k)

Siamo così arrivati al secondo obiettivo della 1. Parte.

Passo dell’induzione al II ordine): ∃! y(R 0 xy ) ⇒ ∃!z(R 0 s 1 (x )z ))

Dimostrazione:
H: ∃! y(R 0 xy ) Dem: ∃!z(R 0 s 1 (x )z ))

267
Capitolo quarto

H: R 0 xy, y esiste ed è unico Dem: R 0 s 1 (x )z ,


z esiste ed è unico

Anche qui dobbiamo distinguere l’obiettivo dell’esistenza da


quello dell’unicità.

(a) Esistenza: R 0 è una Relazione di Peano. Per questo da H segue


R 0 s 1 (x )s 2 ( y ), da cui il risultato.

(b) Unicità:

H: R 0 s 1 (x )s 2 ( y ), R 0 s 1 (x )z Dem: z = s 2 ( y )

Dimostrazione per assurdo. Sia allora:

z ≠ s2( y ) Ha

e definiamo una relazione R 0 ' tale che:

R 0 'uv ⇔ R 0uv  et  (s 1 (x ) ≠ u  vel  v ≠ z )

Di R 0 ' vale allora:

(A) non R 0 's 1 (x )z : Immediato

(B) R 0 ' è una relazione di Peano. Infatti, valgono entrambe le con-


dizioni definienti il concetto di relazione di Peano sopra introdotte.

ad (i): R 0 'o1o 2

R 0o1o 2 da def. R 0

268
Logica dei predicati e teorie aritmetiche

Ora,

s 1 (x ) ≠ o1 I1 soddisfa P1
R 0 'o1o 2 per def. di R 0 '

Ad (ii): R 0 'uv ⇒ R 0 's 1 (u )s 2 (v )

H: R 0 'uv Dem: R 0 's 1 (u )s 2 (v )

Dimostrazione:

R 0uv per def. R 0 ' da H


R 0 s 1 (u )s 2 (v ) R 0 è Relazione di Peano ♠

Ora abbiamo bisogno di mostrare che vale la proposizione se-


guente (che indichiamo per motivi ovvi con Disg):

s 1 (x ) ≠ s 1 (u ) vel  s 2 (v ) ≠ z

La dimostrazione consiste nell’assumere il primo disgiunto ne-


gato e nel mostrare che vale il secondo disgiunto. Assumiamo
dunque: s 1 (x ) = s 1 (u ) . Occorre dimostrare: s 2 (v ) ≠ z . Dalla assun-
zione si ha:

x =u per P2, assioma soddisfatto da I1

Quindi, operando sulla prima formula della dimostrazione in


corso R 0uv , si ottiene:

R 0 xv Sux

Ma allora:

v= y da H generale (del passo)

269
Capitolo quarto

( R 0 xy e y è unico)
per cui:

z ≠ s2( y ) Ha (Unicità)
s 2 (v ) ≠ z per S vy

A questo punto si può chiudere la dimostrazione di (ii) e quindi


concludere che R 0 ' è una relazione di Peano. Infatti si ha:

R 0 s 1 (u )s 2 (v ) ♠
s 1 (x ) ≠ s 1 (u ) vel  s 2 (v ) ≠ z Disg
R 0 s 1(u )s 2 (v ) et  (s 1(x ) ≠ s 1(u ) vel  s 2 (v ) ≠ z ) Iet

e quindi:

R 0 's 1 (u )s 2 (v ) per def. di R’0

Il risultato ottenuto ci serve, a questo punto, per poter prose-


guire con la dimostrazione per assurdo della unicità.

R 0 s 1 (x )z da H (Unicità)

Ma abbiamo appena dimostrato che R 0 ' è una Peano-relazione.


Per questo, in base al risultato (1) su R 0 , deve valere:

R 0 's 1 (x )z

Ma

non R 0 's 1 (x )z risultato (A) su R 0 '

Si ha pertanto una contraddizione, il che consente di refutare


l’ipotesi per assurdo Ha e guadagnare la tesi:
z = s2( y ) (non k)

270
Logica dei predicati e teorie aritmetiche

In conclusione possiamo dire che R 0 ha il carattere di una fun-


zione, in quanto stabilisce una corrispondenza univoca. Esiste per-
tanto una certa funzione f tale che:

R 0 xf (x ) #

2. PARTE: f soddisfa * e **

ad *) f (o1 ) = o 2

Dimostrazione:

R 0o1 f (o1 ) per #


R 0o1o 2 R 0 è una Relazione
di Peano

Ma o 2 è unico, per cui:

f (o1 ) = o 2

ad **) f (s 1 (x )) = s 2 ( f (x ))

Dimostrazione:

R 0 xf (x ) per #
R 0 s 1 (x ) f (s 1 (x )) S xs1 ( x )
R 0 s 1 (x )s 2 ( f (x )) R 0 è Rel di Peano
f (s 1 (x )) = s 2 ( f (x )) s 2 ( y ) è unico

3. PARTE: f è iniettiva

Questa parte è divisa in tre passi.

271
Capitolo quarto

1. Passo: Esiste una corrispondenza univoca da D2 a D1, vale a dire


esiste una funzione g da D2 a D1 tale che:

g(o 2 ) = o1 *'
g(s 2 ( y )) = s 1( g( y )) **'

La dimostrazione è analoga alla dimostrazione precedente rela-


tiva all’esistenza della funzione f.

2. Passo: g è l’inversa di f, cioè:

g( f (x )) = x ♣

Dimostrazione per induzione sulla proprietà g( f (x )) = x

Base: g( f (o1 )) = o1

g( y ) = g( y ) Rifl. identità
g( f (o1 )) = g(o 2 ) per *
g( f (o1 )) = o1 per *'

Passo:

H: g( f (x )) = x Dem: g( f (s 1 (x ))) = s 1 (x )

g( y ) = g( y ) Rifl. identità
g( f (s 1 (x ))) = g(s 2 ( f (x ))) per **
g(s 2 ( f (x ))) = s 1 ( g( f (x ))) da **' per S yf ( x )
g( f (s 1 (x ))) = s 1 ( g( f (x ))) Trans. identità
g( f (s 1 (x ))) = s 1 (x ) per H

3. Passo: da ♣ segue la iniettività di f: f (x ) = f (u ) ⇒ x = u


H: f (x ) = f (u ) Dem: x = u

272
Logica dei predicati e teorie aritmetiche

Dimostrazione:

g( y ) = g( y ) Rifl. identità
g( f (x )) = g( f (u )) per H
x =u per ♣

4. PARTE: f è suriettiva: ogni elemento di D2 è una f-immagine

Per ragioni di simmetria si ottiene anche l’analogo di ♣ per tutti


gli elementi di D2. Vale cioè: f ( g( y )) = y. Ma ciò significa che
l’elemento y di D2 è una f-immagine dell’elemento g( y ) di D1.

4.4. Riflessioni sulla categoricità di SA e la non categoricità di PA


SA è categorica per il teorema di Dedekind, mentre PA è non
categorica per il teorema di Skolem. Non è dunque possibile adat-
tare a PA il metodo usato da Dedekind allo scopo di ottenere la
categoricità anche per PA. Quel metodo non può funzionare, per-
ché altrimenti ci si troverebbe in contrasto con il teorema di Sko-
lem. Ma perché il metodo di Dedekind non funziona? Riflettere
sulle ragioni che impediscono l’estensione del metodo a PA è illu-
minante per rendersi conto della differenza tra teorie del primo
ordine e quelle del secondo ordine (o ordini superiori). Il nucleo
centrale della dimostrazione di Dedekind sta nell’induzione sulla
formula ∃!(R 0 xy ). Ora questa formula contiene un quantificatore
di secondo ordine. La relazione R 0 vi è infatti definita come inter-
sezione di tutte le relazioni di Peano tra i domini D1 e D2. Ma
quantificare su tutte le relazioni di Peano significa quantificare su
tutte quelle combinatoriamente possibili, anche se queste sono più
che numerabili. Se si passa invece ai modelli di PA, questi non pos-
sono contenere più proprietà di quelle che sono esprimibili attra-
verso formule aperte del linguaggio del primo ordine. Ma le for-

273
Capitolo quarto

mule di un linguaggio non possono essere più che numerabili. Per


questo non è possibile, usando gli strumenti disponibili in PA, os-
sia l’induzione sulla totalità delle formule, compiere l’induzione
sulla formula ∃!(R 0 xy ). In breve, ∃!(R 0 xy ) è una formula del se-
condo ordine non traducibile nel linguaggio del primo ordine su
cui si possa compiere l’induzione ammessa da PA.
L’analisi della formula induttiva ∃!(R 0 xy ) ci viene a dire un ul-
teriore fatto importante. La relazione R 0 in essa contenuta è l’inter-
sezione di tutte le relazioni di Peano tra i domini D1 e D2. Ora tali
domini possono essere per ipotesi iniziale anche non standard, il
che significa che se un modello è standard e l’altro no (come ab-
biamo visto in uno degli esempi) la relazione R 0 ha come dominio
la parte standard del dominio non standard e l’intero dominio del
dominio standard come codominio. Ma questo significa che la
formula ∃!(R 0 xy ) definirebbe entro D1 l’insieme dei numeri natu-
rali standard. Questa non può pertanto essere una formula su cui
eseguire l’induzione in PA, dal momento che in PA la proprietà
d’essere un numero naturale standard è indefinibile.

274
Capitolo quinto

Logica e finitarietà

1. Formalità e finitarietà
Come si è detto in sede introduttiva, la formalità è un obiettivo
fondamentale della ricerca logica. Formalizzare il linguaggio delle
teorie e le procedure che ne caratterizzano l’uso – in particolare le
procedure che presiedono alla determinazione delle conseguenze
logiche – è l’obiettivo che la riflessione logica ha sempre persegui-
to. Componente essenziale di tale obiettivo è poi il requisito della
finitarietà. La riflessione logica moderna ha perseguito l’obiettivo
della formalizzazione finitaria (ovvero della finitizzazione) dell’ar-
gomentazione logica e delle teorie.
Quale sia la ragione di tale obiettivo dovrebbe risultare chiara-
mente dal percorso fatto nei capitoli precedenti, ma vale la pena di
riprendere il nucleo del discorso per metterlo maggiormente a fuo-
co. La logica presenta due dimensioni: la dimensione semantica e la
dimensione sintattica. Ora la dimensione semantica è caratterizzata
da nozioni infinitarie come la verità o il nesso di conseguenza logi-
ca, concetti che in forza della loro natura infinitaria non sono im-
mediatamente dominabili dalla mente umana. La costruzione della
sintassi logica deriva proprio dalla necessità di elaborare strumenti
completamente dominabili dalla mente umana capaci di dirci

275
Capitolo quinto

quando siamo davanti ad una conseguenza logica o a una proposi-


zione logicamente vera, ovvero che siano in grado di dirci quando
ragioniamo correttamente. Naturalmente non è compito della logi-
ca stabilire i criteri di scelta degli assiomi specifici delle teorie for-
mali, anche se tra verità logiche e certe verità matematiche non è
sempre agevole stabilire il confine. Tuttavia la logica si è attribuito
il diritto di dire la sua anche sulla forma degli assiomi per assicura-
re il controllo anche di questi. All’interno dell’obiettivo generale
della formalità si può, pertanto, distinguere il tema della finitizza-
zione del nesso di conseguenza logica e quello della finitizzazione
della componente assiomatica delle teorie.
Nelle pagine seguenti rifletteremo su entrambi i temi soffer-
mandoci sul significato dei teoremi più importanti della ricerca lo-
gica moderna. Vedremo che alcuni di questi rivestono un significa-
to positivo rispetto all’ideale della formalizzazione finitaria, come il
teorema di completezza. Altri, invece, come i teoremi di incomple-
tezza, o di non categoricità, attestano, al contrario, che l’ideale della
completa finitizzazione (cioè della completa formalizzazione finita-
ria) è impossibile.

2. Finitizzazione del nesso di conseguenza logica


Con il teorema di completezza del calcolo dei predicati C si ha
una completa finitizzazione del nesso di conseguenza logica al
primo ordine  .  è un nesso finitario perché: a) X  α è otte-
nuta in base a regole finitarie (vale a dire regole provviste di un
numero finito di premesse); b) Supposto che X sia infinito è sem-
pre possibile ottenere per qualche sottoinsieme finito di X (sia esso
Z) Z  α . In ciò consiste il cosiddetto teorema di finitezza sintat-
tica ottenibile per induzione sulla lunghezza delle derivazioni par-
tendo da tre fatti: (i) se X  α per α ∈X , allora anche α  α ;
(ii) non c’è nessuna regola che genera sequenze con antecedente
infinito, a meno che qualcuna delle premesse abbia già antecedente

276
Logica e finitarietà

infinito; (iii) nessuna regola richiede che siano derivabili sequenze


con antecedente infinito.
È da notare che a) e b) sono strettamente connessi. Infatti: se
non a), ovvero ci fossero regole infinitarie, nella sequenza conclu-
siva si dovrebbe in qualche modo tener conto delle infinite premes-
se; per lo meno se le premesse sono tutte provviste di diverse assun-
zioni, la sequenza conclusiva verrebbe ad avere un antecedente infi-
nito; se non b), ovvero ci fosse qualche sequenza X  α con X infi-
nito irriducibile, sarebbe con ciò automatico (ammettendo la condi-
zione di concatenazione) costruire la seguente regola infinitaria:

 α i (per ogni α i ∈X con i = 1, 2,...)


α

Se si riflette sui rapporti tra a) e b) ci si rende conto anche della


ragione per la quale nella ricerca formale si persegua l’ideale di fini-
tizzare il rapporto di conseguenza logica.
Non ci sono in generale delle difficoltà nell’intendere un con-
cetto di conseguenza logica infinitario (con un numero infinito
non riducibile di assunzioni). Tale concetto sarebbe anche esprimi-
bile attraverso una formula (di qualche linguaggio) finita. Non è,
invece, altrettanto facile esprimere (o rappresentare) l’insieme delle
infinite assunzioni da cui qualche α segua come conseguenza logi-
ca. La tecnica usuale è quella dell’«e così via»; ma che cosa significa
«e così via»? Se non è data una legge in base alla quale costruire
tale insieme infinito l’espressione «e così via» non ha significato.
Ma un insieme infinito di proposizioni vere è immaginabile anche
se non esiste alcuna legge capace di generarle ed, inoltre, anche se
per caso tale legge esistesse non è detto che esista, in forza di essa,
un generatore finito di quell’insieme. Ebbene, in entrambi questi
casi ci sarebbero difficoltà di principio nell’eventuale uso e control-
lo del nesso di conseguenza logica relativo. In forza del fatto che
non b) ⇒ non a) sarebbe impossibile far uso di un nesso infinita-

277
Capitolo quinto

rio di conseguenza logica di questo tipo. Infatti, usare tale nesso


significherebbe poter ottenere il conseguente una volta ottenute
tutte le formule dell’antecedente. Ma ciò sarebbe impossibile.
Quando, infatti, si potrebbe affermare di aver ottenute tutte le
premesse della regola? La nostra mente non può compiere un nu-
mero infinito di passaggi (infinitum non potest pertransiri). Un uso pra-
ticabile del nesso di conseguenza logica implica pertanto la necessi-
tà di finitizzarlo.
Come, poi, la finitezza della nozione di conseguenza segua da
quella del nesso di derivabilità attraverso la completezza di C è
immediato. In base al teorema di completezza ogni conseguenza
logica risulta, infatti, derivabile, vale a dire esiste una derivazione
della conseguenza stessa. Il nesso infinitario della conseguenza
viene così rimpiazzato da quello finitario della derivabilità. Natu-
ralmente ciò non significa che il rapporto di conseguenza logica sia
decidibile. Perché tale nesso sia decidibile occorre che anche quello
di derivabilità lo sia, ma ciò equivarrebbe alla decidibilità dei teo-
remi di una teoria assiomatizzabile, il che, come vedremo tra poco,
non vale. Decidibile è tuttavia la relazione d’essere una dimostra-
zione e questo fa la differenza. Mentre, se ci troviamo di fronte ad
una conseguenza logica non è possibile stabilire in un numero fini-
to di passi che si tratta effettivamente di una conseguenza logica,
appellandosi esclusivamente alla sua definizione infinitaria, al con-
trario, se ci troviamo di fronte ad una dimostrazione possiamo sta-
bilire dopo un numero finito di passi che si tratta effettivamente di
una dimostrazione. La finitizzazione del nesso di conseguenza logica
consente in effetti di attestare il rapporto di conseguenza (diretta-
mente impossibile) attraverso il controllo di quello corrispettivo di
dimostrazione (direttamente possibile).
Questa riduzione dell’infinito al finito si può cogliere anche nel-
la seconda formulazione con cui il teorema di finitezza semantica
(o compattezza) compare ed è dimostrato nel paragrafo 6.11. del
capitolo terzo. Da esso risulta che:

278
Logica e finitarietà

Sod  X ⇔ (om Z )(Z ⊆ X  et  F(Z ) ⇒ Sod  Z )

il che significa che se i sottoinsiemi finiti di un insieme infinito di


formule sono tutti soddisfacibili allora lo è anche l’insieme globale.
La verità rispetto a qualche modello di tutti i sottoinsiemi finiti di
un insieme infinito di proposizioni è sufficiente per garantire la
verità di tutto l’insieme. Ebbene, come potrebbe avvenire questo
se dall’insieme infinito seguisse come conseguenza logica una pro-
posizione che non fosse già conseguenza di qualche suo sottoin-
sieme finito? Non sarebbe possibile, in quanto ci sarebbe almeno
una proposizione vera nel modello globale non garantita nel suo
valore di verità da nessuno dei modelli che soddisfano ciascuno dei
sottoinsiemi finiti dell’insieme.

3. Finitizzazione delle teorie


Come sopra si è detto, il tema della formalità comprende anche
quello della finitizzazione delle teorie formali. Noi sappiamo già
che cosa sono le teorie formali, ma per comprendere a fondo in
che cosa consista il loro carattere finito e i limiti sanciti da alcuni
importanti metateoremi a cui è sottoposto l’ideale della loro fini-
tizzazione, ci conviene prendere le mosse dal concetto non forma-
le ed addirittura non assiomatico di teoria.
Come è noto, infatti, nell’accezione più generale possibile una
teoria è un linguaggio che parla di un certo universo oggettuale, vale
a dire, è l’insieme delle proposizioni che, data una certa interpreta-
zione su quell’universo – interpretazione detta usualmente privilegiata
o standard della teoria – risultano in essa vere. Così, indicando tale
interpretazione attraverso la lettera I e la teoria con T , abbiamo la
seguente definizione iniziale di teoria.

1. Definizione generale di teoria:

T = {α |I  α }

279
Capitolo quinto

Ebbene, chiediamoci, a questo punto, come è possibile costrui-


re una teoria secondo questa definizione. Come è possibile, cioè,
determinare l’insieme delle proposizioni appartenenti al linguaggio
che sono anche vere? Dato il carattere infinitario della nozione di
verità non è possibile direttamente. Occorre ideare qualche proce-
dura capace di aggirare il problema. È questo il motivo fondamen-
tale che ha spinto gli studiosi, come primo passo, a sistemare assio-
maticamente le teorie, vale a dire a concepirle come insiemi di for-
mule ottenibili a partire da una classe privilegiata di proposizioni
iniziali detti assiomi. Così le teorie si possono ridefinire in prima
battuta nella seguente maniera.

2. Definizione modellistica di teoria:

T = {α |A(T )  α }

È da notare innanzitutto che: a) una teoria intesa modellistica-


mente è per definizione chiusa rispetto alla relazione di conseguen-
za logica; b) se l’insieme degli assiomi della teoria A(T ) soddisfa il
requisito della completezza, ossia è tale da garantire che le sue con-
seguenze coprono la totalità delle proposizioni vere rispetto ad I,
allora T = {α |I  α }. In altre parole, se si ipotizza la completezza
di A(T ), la definizione modellistica è estensionalmente equivalente
alla definizione data sopra di teoria come insieme delle proposizio-
ni che parlano con verità del rispettivo dominio oggettuale.
È facile però avvedersi che la definizione modellistica di teoria è
ancora una definizione infinitaria, essendo basata sulla nozione
infinitaria di conseguenza logica, e che, appunto per questo, non è
poi molto più soddisfacente della prima. Anzi per la definizione
modellistica l’esigenza di finitizzazione si pone a fortiori: da un lato,
infatti, nelle teorie così concepite si pone il problema di ricondurre
la verità di certe loro proposizioni a quelle di altre e questo pro-
blema richiama quello della finitizzazione del nesso di conseguenza
logica; dall’altra si tratta di affrontare, in più, il problema dei punti

280
Logica e finitarietà

di partenza. Come si è già detto, infatti, l’obiettivo centrale che


motiva la costruzione di una teoria è quello di trovare l’insieme
delle proposizioni vere a proposito di un certo dominio oggettuale.
Ma come è possibile conseguire tale risultato se non individuando
un certo insieme di proposizioni iniziali da cui ricavare tutte le al-
tre? Ciò però si può fare non solo rendendo operabile il passaggio
dalle prime alle altre ma anche fornendo un criterio per la deter-
minazione delle prime.
Ebbene, la prima ragione di insoddisfazione può essere facil-
mente rimossa, dal momento che nelle teorie del primo ordine  è
rimpiazzabile da  e, come abbiamo argomentato nel punto pre-
cedente, la derivabilità è un concetto finitario. Il passaggio alla no-
zione sintattica di teoria, introdotta già nel capitolo quarto, è giusti-
ficato proprio da tale fatto.

3. Definizione sintattica di teoria

T = {α |A(T )  α }

Chiaramente  è un nesso finitario nel duplice senso sopra sta-


bilito ed inoltre la definizione 2 è estensionalmente equivalente alla
definizione 3.
Come viene affrontato, invece, il secondo problema? Il secondo
problema si affronta ponendo la richiesta che le teorie siano as-
siomatizzabili. È di questo che vogliamo parlare a questo punto,
ponendo in rilievo soprattutto il fatto che l’assiomatizzabilità rap-
presenta il culmine dell’ideale di finitizzazione delle teorie (anche
nel caso in cui la teoria non è finitamente assiomatizzabile). Intro-
durremo, innanzitutto, la nozione di teoria assiomatizzabile e una
serie di altre proprietà delle teorie. Quindi, sulla scorta di queste,
potremo trattare il tema dei limiti della assiomatizzabilità.

281
Capitolo quinto

4. Assiomatizzabilità e proprietà delle teorie


1) Teoria assiomatizzata

T è assiomatizzata =def A(T ) è un insieme decidibile, vale a dire


esiste una procedura meccanica in base alla quale è possibile stabi-
lire dopo un numero finito di passi se, per α ∈L(T ), α ∈A(T )
oppure α ∉A(T ).

2) Teoria assiomatizzabile

T è assiomatizzabile =def esiste una teoria assiomatizzata equiva-


lente a T. Chiaramente PA è una teoria assiomatizzata e quindi,
banalmente, assiomatizzabile.

NOTA 1: L’assiomatizzabilità di una teoria non va intesa in sen-


so improprio. Quando si dice che una teoria è assiomatizzabile non
si vuol dire che ai fini del processo di costruzione della teoria la
scelta degli assiomi è il risultato dell’applicazione di procedure
meccaniche, ma soltanto che, una volta costruita la teoria, l’insieme
degli assiomi può essere determinato meccanicamente. Sarebbe
una risorsa inimmaginabile quella di possedere una procedura algo-
ritmica (vale a dire una macchina) capace di fornire gli assiomi del-
le teorie. Ma non è così. Per scoprire (o inventare) gli assiomi di
una teoria matematica occorre mettere a frutto una quantità note-
vole di fantasia e di capacità intuitiva. In altre parole, la creazione
della teoria avviene attraverso l’ideazione non meccanica delle pro-
cedure che permettono di stabilire meccanicamente, data una qual-
siasi formula di L(T ), se quella è un assioma oppure no.

NOTA 2: Non devono essere confuse le possibilità offerte dalla


assiomatizzabilità di una teoria con la possibilità di decidere, data
una qualsiasi α , se α ∈T o α ∉T (decidibilità della teoria). L’as-
siomatizzabilità assicura, infatti, che l’insieme delle α appartenenti
a T (ossia i teoremi) sia enumerabile (generabile) ma non decidibile.

282
Logica e finitarietà

Tuttavia, è assicurata la finitezza dei passi necessari per raggiungere


α se è presupposto che α ∈T . Della decidibilità di una teoria si
parlerà tra poco.

3) Teoria consistente

Cons  T = def A(T )  α ∧ ¬α

Si tratta della definizione di insieme (di formule) consistente


trasferito alle teorie.

4) Teoria sintatticamente completa

Sin Cpl  T = def (om α ∈L(T ))(A(T )  α  vel  A(T )  ¬α )


= def (om α ∈L(T ))(A(T )  α ⇒ A(T )  ¬α )

5) Teoria decidibile

Dec  T = def (om α ∈L(T )) (ex procedura effettiva P)


(P stabilisce effettivamente T  α  vel  T  ¬α )

Una teoria è decidibile se, data una formula qualsiasi apparte-


nente al linguaggio della teoria, è possibile stabilire meccanicamen-
te e in un numero finito di passi se quella formula è un teorema o
meno della teoria. L’indecidibilità di una teoria non coincide con
l’esistenza di formule in essa indecidibili. In tal caso l’indecidibilità di
una teoria verrebbe a identificarsi con l’incompletezza sintattica.
Esiste, tuttavia, un rapporto preciso tra indecidibilità di una teoria
e sua incompletezza sintattica. Esso è dato dal teorema seguente.

Teorema: Una teoria assiomatizzabile e sintatticamente completa


è anche decidibile. Schematicamente:

283
Capitolo quinto

Ass T

(om α ∈L(T )) (ex proce- Cpl Sint T


dura effettiva P) (om α ∈L(T ))
(P stabilisce
A(T )  α ⇒ A(T )  ¬α
effettivamente se
α ∈A(T ) vel  α ∉A(T ) )

Dec T

(om α ∈L(T )) (ex procedura effettiva P)


(P stabilisce effettivamente che A(T )  α  vel  A(T )  ¬α )

La dimostrazione si ottiene a partire dalla possibilità di enume-


rare tutte le formule e, in base alla assiomatizzabilità, tutte le dimo-
strazioni. In conseguenza di ciò, essendo ogni formula dimostrabi-
le o refutabile in forza della completezza sintattica, tra le dimostra-
zioni sarà certamente trovata, dopo un numero finito di passi, la
dimostrazione della formula oppure quella della sua negazione. In
tal modo si troverà che o la formula è dimostrabile o che non lo è,
dal momento che in quest’ultimo caso si troverà la dimostrazione
della sua negazione.
Questo risultato è un caso particolare del teorema, secondo il
quale il problema della appartenenza di un oggetto ad un insieme
(ovvero il problema della attribuzione di una proprietà ad un og-
getto) è decidibile se e solo se è a disposizione una procedura di enu-
merazione dei casi positivi (casi di appartenenza) e una procedura di
enumerazione dei casi negativi (casi di non appartenenza che costitui-

284
Logica e finitarietà

scono il complemento dei primi). Infatti, per ottenere la risposta


basta mettere in moto, contemporaneamente, le due procedure.
Data la completezza della procedura congiunta (nel senso che le
possibilità sono due e la procedura congiunta è in grado di beccare
uno o l’altro dei casi), dopo un numero finito di passi, la risposta,
positiva o negativa, comunque ci sarà. Nell’interpretazione logica la
procedura congiunta è assicurata dalla enumerabilità dei teoremi,
tra i quali, data la completezza sintattica, ci sarà la formula o la sua
negazione. In questo modo è enumerabile sia l’insieme dei teoremi
sia quello dei non teoremi.

6) Definizione di teoria semanticamente completa

Di solito le teorie formali sono il risultato della formalizzazione


di teorie intuitive. Ora può darsi il caso che la teoria formalizzata
sia soddisfatta da modelli (o interpretazioni) diversi. Tra di essi pe-
rò il modello basato sulla struttura intuitiva della teoria occupa un
posto particolare, tanto da essere chiamato – come si è già antici-
pato – modello (o interpretazione) naturale (o standard, o privilegia-
to) delle teorie. Ebbene, tenendo conto di tale modello privilegiato,
si ha:

T è completa semanticamente rispetto al modello privilegiato I =def


(om α ∈L(T ))(I  α ⇒ A(T )  α )

7) Teoria numerica

Si dice teoria numerica una teoria contenente la costante indivi-


duale «0» e il simbolo funzionale di successione «'». In forza della
presenza di questi due segni, una teoria numerica è capace di parla-
re dei numeri naturali. Questi sono, infatti, usualmente designati
attraverso i termini numerali, vale a dire da quei termini che si ot-
tengono per successiva applicazione della funzione successore «'» a
partire dallo 0. Così, al numero 1 corrisponde il termine 0' (in bre-

285
Capitolo quinto

ve 1 ), al 2 corrisponde il numerale 0'' (in breve 2 ), al 3 corrispon-


de il numerale 0''' (in breve 3 ). In generale al numero k corrispon-
de il numerale k , che sta per il termine 0'...' ove ' occorre k volte.
Chiaramente PA e SA sono teorie numeriche.

8) Teoria numerica ω-consistente (ω-Cons)

T è una teoria numerica ω-consistente =def (i) T è una teoria


numerica e (ii) se A(T )  α (0), A(T )  α ( 1 ), A(T )  α ( 2 ),... allora
A(T )  ∃x¬α (x )

Naturalmente, la condizione (ii) si può dare anche nella seguen-


te forma: se A(T )  ¬α (0), A(T )  ¬α ( 1 ), A(T )  ¬α ( 2 ),... allo-
ra A(T )  ∃xα (x ), da cui per contrapposizione si ottiene anche:
se A(T )  ∃xα (x ) allora, per qualche n, A(T )  ¬α (n ). Inoltre, è
chiaro che se una teoria è ω-consistente, allora è anche consistente.

9) Teoria numerica ω-completa (ω-Cpl)

T è una teoria numerica ω-completa =def (i) T è numerica e (ii) se


A(T )  α (0), A(T )  α ( 1 ), A(T )  α ( 2 ),... allora A(T )  ∀xα (x )

In altri termini una teoria è ω-completa se è chiusa rispetto alla


generalizzazione da tutti gli esempi numerali. Può sembrare ovvio
che un teoria numerica sia ω-completa. Ma questo si avrebbe solo
se tra α ( 1 ), α ( 2 ),... e ∀xα (x ) esistesse un rapporto di conseguen-
za logica. In tal caso, infatti, l’ω-completezza sarebbe banalmente
implicata dalla completezza del calcolo. Ma l’affermazione che tra
α ( 1 ), α ( 2 ),... e ∀xα (x ) esista una relazione di conseguenza logica
non è per niente scontata. Più avanti discuteremo anche il perché.

286
Logica e finitarietà

5. Limiti all’assiomatizzabilità delle teorie


Ci sono dei limiti alla assiomatizzabilità delle teorie? Ovvero, è
sempre possibile finitizzare le teorie? Le pagine seguenti sono de-
dicate a questa problematica. Incominciamo con l’enunciazione di
alcuni importanti teoremi (di incompletezza e non categoricità), dai
quali risulterà che l’obiettivo completo della assiomatizzabilità non
è interamente conseguibile.
5.1. Primo Teorema di Gödel: G1
I teoremi di Gödel valgono per la totalità delle teorie numeriche
che soddisfano alcune condizioni minimali di potenza. Per ragioni
di carattere pratico, noi ci limiteremo a formulare i teoremi per la
teoria, che già conosciamo, PA. Cerchiamo di dare ai teoremi la
formulazione più semplice possibile, evitando l’intero apparato
tecnico essenziale per la loro dimostrazione. Ciò tuttavia non ci
esime dal dire qualcosa sulla tecnica della aritmetizzazione, essendo
quest’ultima essenziale per comprendere almeno la formulazione
del secondo teorema e di alcune sue conseguenze. Secondo tale
tecnica è possibile associare in modo univoco ed effettivo ad ogni
segno, ad ogni termine, ad ogni formula e ad ogni successione fini-
ta di elementi del linguaggio di una teoria un determinato numero
naturale, che funge da loro codice numerico e che è detto loro
gödeliano. Usualmente si indica il gödeliano di un oggetto lingui-
stico O attraverso l’espressione O . In particolare si indica con
α  il gödeliano della formula α . Naturalmente il valore numeri-
co (gödeliano) associato all’oggetto sintattico dipende in modo
univoco ed effettivo dalla forma di quell’oggetto, cosicché dal valo-
re numerico (gödeliano) dell’oggetto è poi possibile risalire in
modo altrettanto univoco ed effettivo alla sua forma. Ebbene, per
mezzo della funzione di aritmetizzazione è possibile trasformare le
proprietà e relazioni sintattiche che valgono degli oggetti sintattici
interessati in predicati numerici tra i rispettivi codici. In particolare
è possibile tradurre nel linguaggio numerico il predicato sintattico

287
Capitolo quinto

«x è una dimostrazione di y». Che cos’è, infatti, una dimostrazione


in T della formula α ? Almeno entro il contesto di una formulazio-
ne per espressioni (e non per sequenze) del calcolo logico (come è
il caso della deduzione naturale senza sequenze), una dimostrazio-
ne è una successione ordinata di formule del linguaggio di T, di cui
l’ultima è α stessa, che sono assiomi di T o formule ottenibili at-
traverso le regole di deduzione da formule che nell’ordine della
successione le precedono. Ora, tale successione ordinata di formu-
le ha un gödeliano. Il suo valore numerico sia k. Allora tra il nume-
ro k e il gödeliano di α (sia esso n) esiste una particolare relazione
numerica esprimibile nella forma Prov T (k,α ) (o, indifferente-
mente, Prov T (k,n )). Prov T (k,α ) ) è, dunque, la traduzione aritme-
tica dell’espressione sintattica «la successione ordinata di formule il
cui codice ha valore k è una dimostrazione della formula α ». In
modo del tutto simile è traducibile nel linguaggio aritmetico ogni
altra proprietà o relazione sintattica. Ad esempio, la formula
PrT (α ) = def ∃xProv T (x ,α ) significa che esiste una dimostra-
zione di α in T, ovvero che α è dimostrabile in T. Sia, poi,
⊥ = def α ∧ ¬α (per qualche α ). La formula Cons T = def ¬PrT (⊥)
significa, allora, che in T non è derivabile la contraddizione, ovvero
che T è consistente. Entrambe queste formule ci saranno utili nel
seguito. Ora possiamo dedicarci alla enunciazione del primo teo-
rema di incompletezza e di alcuni suoi corollari.
Il primo teorema di Gödel dichiara che esiste una proposizione
γ appartenente al linguaggio della teoria tale che:

(i) se PA è consistente allora A(PA)  γ

(ii) se PA è ω-consistente allora A(PA)  ¬γ

da cui segue che, sotto le condizioni enunciate, PA è sintatticamen-


te incompleta.
Nell’opinione corrente il primo teorema di Gödel è conosciuto
come affermazione dell’esistenza di proposizioni indecidibili nelle

288
Logica e finitarietà

teorie che includono l’aritmetica. In effetti la formula γ del nostro


enunciato del teorema è chiamata indecidibile dallo stesso Gödel,
per cui non esiste contrasto tra opinione corrente e formulazione
data. Per formula indecidibile rispetto ad una teoria T si intende (e
Gödel intendeva), infatti, una formula né dimostrabile né refutabile
in T, il che rende equivalente l’affermazione d’esistenza di formule
indecidibili con l’affermazione di incompletezza sintattica della
teoria stessa. A proposito di tale equivalenza, è importante, tutta-
via, richiamare la distinzione già sopra introdotta tra decidibilità di
una teoria e decidibilità di una formula. La decidibiltà di una teoria
T coincide con la possibilità di stabilire effettivamente (cioè attra-
verso una procedura meccanica finitaria) per una qualsiasi formula
α del linguaggio della teoria L(T ) se è derivabile o meno in T. In-
vece, la decidibilità di una formula α appartenete a L(T ) coincide
con il fatto che α o la negazione di α sia derivabile in T e, dunque,
con la completezza sintattica della teoria rispetto a quella formula.
Chiaramente, già il primo teorema di Gödel mette in evidenza
un serio limite alla possibilità di formalizzare le teorie. Il limite sta
nel fatto che, venendo a mancare la completezza sintattica, una
teoria assiomatica perde una delle sue proprietà più ambite. Come
si è mostrato nel paragrafo precedente, la struttura assiomatica di
una teoria priva di completezza sintattica non è in grado di garanti-
re la decidibilità della teoria stessa. Si potrebbe, tuttavia, sminuire la
negatività di questa conclusione dicendo che, dopo tutto, la decidi-
bilità di una teoria è un obiettivo molto ambizioso che non si può
pretendere di raggiungere per ogni teoria. E ci si potrebbe ritenere
contenti del fatto che, a compensazione dell’incompletezza sintat-
tica, il metodo assiomatico sia comunque capace di catturare tutte
le verità della teoria. I successivi corollari del teorema vengono pe-
rò a frustrare questa aspettativa. Essi evidenziano in modo esplici-
to l’incapacità da parte di PA di dedurre tutte le verità aritmetiche.
Si rammenta che i corollari sono dipendenti dalla condizione di
consistenza di PA, come in generale il teorema stesso.

289
Capitolo quinto

1. Corollario al primo teorema di Gödel

PA è semanticamente incompleta, dal momento che: I sia l’in-


terpretazione standard di PA. Allora:

I  γ ma A(PA)  γ

Il corollario afferma chiaramente che PA non è capace di cattu-


rare tutte le verità aritmetiche esprimibili nel linguaggio di PA.

2. Corollario al primo teorema di Gödel

PA è ω-incompleta, perché γ ha la forma di una universalizza-


zione, cioè γ ≡ ∀xα (x ) e anche se:

A(PA)  α (0), A(PA)  α ( 1 ), A(PA)  α ( 2 ),...

si ha tuttavia:

A(PA)  ∀xα (x )

Questo corollario approfondisce al contempo il significato del


teorema e del primo corollario. Il teorema dice che la proposizione
γ è indecidibile. L’analisi della forma di γ consente di affermare
con il primo corollario che γ è vera nel modello standard di PA e
tuttavia inderivabile. Il secondo corollario consente di capire più a
fondo perché γ non è derivabile pur essendo vera. Dall’analisi di
γ risulta, infatti, che γ ≡ ∀xα (x ) e che α (x ) è tale da assicurare
che α (n ) sia derivabile in PA per ogni istanza numerale n . Ma
α (x ) è una formula di complessità elementare e, dunque, la deri-
vabilità di α (n ) in PA per ogni istanza numerale n garantisce la
verità di α (n ) per ogni numero naturale n. Ma se α (n ) è vera per
ogni istanza di numero naturale n allora nel modello intuitivo dei
numeri naturali è per definizione vera anche la generalizzazione di

290
Logica e finitarietà

α (n ), cioè ∀xα (x ) ≡ γ . Ora A(PA)  ∀xα (x ), vale a dire non è


derivabile la generalizzazione in cui consiste γ . Appare così chia-
ramente l’incapacità della teoria di cogliere l’aspetto infinitario della
nozione di verità. Essa è capace di guadagnare finitariamente una
dopo l’altra le singole istanze numerali, ma non ha le risorse per
ottenere altrettanto finitariamente (cioè entro le risorse finitarie
della teoria assiomatizzata) la verità espressa dalla proposizione
universale.
Alla luce delle considerazioni fatte all’inizio del capitolo sulla
finitarietà del nesso di deducibilità l’ω-incompletezza potrebbe ap-
parire come una proprietà del tutto scontata. Se è impossibile infe-
rire una conclusione a partire da una infinità di premesse, altrettan-
to impossibile dovrebbe risultare la deduzione di ∀xα (x ) dalla
derivazione di ogni esempio numerale. L’ω-incompletezza non
dovrebbe quindi apparire nient’altro che un caso particolare del-
l’impossibilità di inferenze infinitarie. Naturalmente sarebbe giusto
dire che un’inferenza ω-completa è impossibile se essa venisse
concepita come applicazione di una vera e propria regola infinita-
ria. Ma il risultato di ω-incompletezza per le teorie numeriche co-
me PA dice qualcosa di diverso dalla semplice impossibilità di una
derivazione ω-completa. Esso dice, entro un contesto in cui si dà
per scontata l’impossibilità di una argomentazione deduttiva infini-
taria, che la teoria non è capace di provare ∀xα (x ) anche se
∀xα (x ) è vera e la teoria è capace di provare ogni esempio nume-
rale. Esso esclude, cioè, che ci possa essere una derivazione finita-
ria di ∀xα (x ), anche se esiste una derivazione finitaria di ogni
esempio numerale, al di là del fatto scontato che è impossibile una
derivazione finitaria di ∀xα (x ) a partire dalla derivabilità rilevante
di infinite premesse.
Naturalmente le cose stanno diversamente se al posto del nesso
di deducibilità noi prendiamo in considerazione il nesso di conse-
guenza logica. Niente esclude, infatti, che possa esistere un nesso
di conseguenza logica tra una proposizione ed un insieme infinito
di proposizioni. Tra α (0), α (1), α (2),... e ∀xα (x ) non può tuttavia

291
Capitolo quinto

esistere rapporto di conseguenza logica per il teorema di comple-


tezza del calcolo. Se si trattasse di conseguenza logica, infatti, per la
completezza del calcolo ∀xα (x ) dovrebbe essere derivabile da
α (0), α ( 1 ), α ( 2 ),... Ma allora, essendo

A(PA)  α (0), A(PA)  α ( 1 ), A(PA)  α ( 2 ),...

si avrebbe anche A(PA)  ∀xα (x ), contro l’ω-incompletezza di


PA. Il medesimo risultato si può ottenere in modo esplicitamente
più pulito (in quanto si evita il ricorso ad una ipotetica deduzione
infinita) anche sfruttando il teorema di finitezza semantica (a sua
volta dipendente dal teorema di completezza). Supponiamo, infatti,
per assurdo che tra α (0), α (1), α (2),... e ∀xα (x ) esista il nesso di
conseguenza logica. Allora, per la finitezza semantica, ∀xα (x ) se-
guirebbe anche da un sottoinsieme finito di esempi scelti tra
α (0), α (1), α (2),... Sia esso F. Ma allora, per la completezza e la de-
rivabilità in PA degli esempi numerali appartenenti a F, si avrebbe
anche A(PA)  ∀xα (x ), di nuovo contro l’ω-incompletezza di PA.

5.2. Secondo Teorema di Gödel: G2


Cons PA sia l’espressione formale della consistenza di PA, intro-
dotta precedentemente quando si è parlato della aritmetizzazione
della sintassi. Allora vale A(PA)  γ ↔ Cons PA e quindi, per il pri-
mo teorema:

A(PA)  Cons PA

Il teorema cioè dichiara che la consistenza di PA non si può


dimostrare in PA stessa. Naturalmente è possibile rafforzare PA in
modo tale da ottenere γ . Sia T una estensione di PA tale che
A(T )  γ e quindi anche A(T )  Cons PA ; vale allora però: (i) T è
in realtà più potente di PA; (ii) i teoremi di incompletezza sono a
loro volta dimostrabili anche nei confronti di T.

292
Logica e finitarietà

In sintesi, la consistenza di una teoria si può dimostrare solo in


una teoria più potente, il che preclude la possibilità di una fonda-
zione assoluta (incondizionata) del sapere.

Corollario al secondo teorema di Gödel

L’implicazione PrPA (α ) → α (per ogni α ) – detta principio di


riflessione locale relativo al predicato PrPA – esprime l’idea che i
teoremi di PA siano veri, ovvero, in termini epistemologici, che la
procedura di dimostrazione in PA sia affidabile. Ebbene dal se-
condo teorema di Gödel segue, per ogni teoria T potente al mas-
simo come PA (in termini formali, T ⊆ PA) :

(ex  α )(A(T )  PrPA (α ) → α )

Dimostrazione:

(om α )(A(T )  PrPA (α ) → α ) Ha


A(T )  PrPA (⊥) →⊥ Eom
A(T )  ¬ ⊥ → ¬PrPA (⊥) C
¬⊥ NC
A(T )  ¬PrPA (⊥) MP
A(T )  Cons PA def. di Cons PA
A(PA)  Cons PA def. di T

Ma per G2 A(PA)  Cons PA per cui:

(ex  α )(A(T )  PrPA (α ) → α ) (non k)

Il corollario appena dimostrato è particolarmente significativo


per le conseguenze che esso, insieme con G2, comporta nell’ambi-
to della epistemologia come dottrina della scienza. Il principio di
riflessione rispetto a PA dichiara, infatti, che se una proposizione è
derivabile in PA (è cioè un teorema di PA) allora è vera. Esso di-

293
Capitolo quinto

chiara, cioè, l’affidabilità di PA rispetto alla verità aritmetica. Il


corollario allora afferma che non è possibile dimostrare tale prin-
cipio, appoggiandosi a procedure che non siano più potenti rispet-
to a quelle formalizzabili entro PA stessa. Sono in particolare in-
sufficienti le risorse tipiche dell’aritmetica ricorsiva primitiva PRA
(teoria meno potente di PA ma giudicata da Hilbert e dalla sua
scuola assolutamente affidabile) ed è, quindi, esclusa, la possibilità
di fondare la correttezza di PA (e dell’intero edificio matematico)
su procedure assolutamente affidabili, come era nell’intenzione del
programma formalistico hilbertiano. Naturalmente la inderivabilità
del principio non implica la sua falsità. Anzi esso può essere addi-
rittura dimostrato in teorie più potenti di PA. Tuttavia, mentre l’af-
fidabilità di PRA poggia su forme di evidenza finitista idealmente
indubitabili, l’affidabilità delle teorie più forti di PA poggia su for-
me d’evidenza più impegnative e perciò aperte al dubbio e in linea
di principio correggibili.

5.3. Teorema di indecidibilità di PA (Church 1936):


Non Dec(PA)

Sopra abbiamo enunciato il teorema che una teoria assiomatiz-


zabile e sintatticamente completa è anche decidibile. È facile allora
vedere che la indecidibilità di PA implica la sua incompletezza sin-
tattica. Schematicamente:

Ass PA Non Dec PA

Non Cpl Sint PA

294
Logica e finitarietà

Il primo teorema di Gödel è, dunque, anche un corollario im-


mediato del teorema di Church.

5.4. Teorema di non categoricità e sue conseguenze


Come sopra si è detto, i teoremi di Gödel valgono per tutte le
estensioni di PA ivi comprese le estensioni che si ottengono per
rafforzamento del calcolo. Interessante è però vedere che, in questi
ultimi casi, la causa della incompletezza sintattica e semantica è
dovuta al fatto che il calcolo stesso è semanticamente incompleto.
Per comprendere questo, occorre riflettere su una conseguenza del
primo teorema di Gödel scoperta indipendentemente da Skolem.
Si tratta, in effetti, del teorema di Skolem già enunciato alla fine del
terzo capitolo e là dimostrato mediante il teorema di compattezza.
Qui, invece, ci interessa mostrare come esso sia una conseguenza
anche del primo teorema di Gödel.
Richiamiamo, innanzitutto, la definizione di isomorfismo tra
interpretazioni (o modelli) e quella di teoria categorica.
Le interpretazioni I e I ' sono isomorfe (in simboli I  I ' ) se e
solo se sono strutturalmente identiche. Le interpretazioni isomorfe
godono, poi, di una importante proprietà: esse soddisfano le stesse
proposizioni , ovvero vale il seguente lemma:

Lemma sull’isomorfismo: I  I ' ⇒ (I  α ⇔ I '  α )

E veniamo alla categoricità. Una teoria T è categorica se e solo


se ammette modelli solo isomorfi, ovvero se e solo se
(om I )(om I ')(I  A(T ) et  I '  A"( T ) ⇒ I  I ').
A questo punto, il teorema di non categoricità si può enunciare
nel modo seguente:

Teorema di non categoricità per PA: PA è non categorica, dal momento


che esistono dei modelli di PA che non sono isomorfi.

Dimostrazione:

295
Capitolo quinto

A(PA)  γ G1
A(PA)  γ ⇒ A(PA)  γ Completezza di C
A(PA)  γ ⇒ A(PA)  γ c
A(PA)  γ mp
(ex  I )(I  A(PA) et  I  γ ) def. di 

Indichiamo l’ interpretazione non standard trovata con I N  men-


tre I N sia l’interpretazione standard di PA. Si ha allora:

I N   A(PA);  I N   γ

D’altra parte vale I N  γ , per cui I N  / I N . Infatti:

I N   I N ⇒ (I N  γ ⇔ I N   γ ) lemma isomorfismo
I N   I N ⇒ (I N  γ ⇒ I N   γ ) per E⇔
I N  γ  et  I N   γ ⇒ I N / I N  per c

In secondo luogo vale I N  A(PA) per cui, riassumendo i ri-


sultati, si ha:

I N   A(PA) et  I N  A(PA) et  I N / I N 

ossia la non categoricità di PA.

NOTA: È degno di nota il fatto che i modelli non standard evi-


denziati dal teorema di non categoricità di PA scoperto da Skolem
e che noi abbiamo mostrato alla fine del terzo capitolo sono diversi
dai modelli non standard generati dal primo teorema di Gödel.
Mentre i primi sono modelli non isomorfi, ma elementarmente
equivalenti rispetto al modello standard, i secondi sono sia non
isomorfi sia non elementamente equivalenti. La differenza è im-
mediata, dal momento che il modello non standard generato da G1
I N  non soddisfa la proposizione di Gödel, mentre il modello
standard I N la soddisfa. Si noti che la possibilità di modelli non

296
Logica e finitarietà

isomorfi elementarmente equivalenti e non elementarmente equi-


valenti dipende dal fatto che l’isomorfismo implica l’equivalenza
elementare, mentre l’equivalenza elementare non implica l’isomor-
fismo. Ciò significa che non ci possono essere modelli non ele-
mentarmente equivalenti che non siano anche non isomorfi. Tut-
tavia ci possono essere modelli non isomorfi che sono elementar-
mente equivalenti. Le riflessioni che seguono discendono, in ogni
caso, indifferentemente da entrambe le forme di non categoricità.

Il fenomeno della non categoricità costituisce un serio proble-


ma per le teorie al primo ordine. D’altro canto, abbiamo visto nel
capitolo precedente la dimostrazione del teorema di Dedekind,
secondo il quale l’aritmetica al secondo ordine è categorica. Indi-
cando con I II e I 'II modelli del secondo ordine, per il teorema di
Dedekind si ha infatti per la teoria SA:

I II  A(SA) et  I 'II  A(SA) ⇒ I II  I 'II

Sorge allora naturale il seguente interrogativo: il passaggio al


secondo ordine costituisce un effettivo guadagno nel programma
di formalizzazione delle teorie? Per rispondere è sufficiente riper-
correre la dimostrazione del teorema di non categoricità di PA. Si
aveva:

Completezza semantica di C + Primo teorema di Gödel

Non categoricità di PA

Passando al secondo ordine si ottiene la categoricità di SA. Tut-


tavia G1 vale anche per SA. Come è possibile mettere in accordo i

297
Capitolo quinto

due risultati? Non è più possibile dire che la proposizione γ di


Gödel è falsa in un modello non standard, perché modelli non
standard al secondo ordine non esistono. L’unica possibilità è che
sia il calcolo ad essere semanticamente incompleto, il che spiega
per quale motivo la proposizione γ , che è conseguenza logica degli
assiomi di SA, non sia derivabile entro PA. In altri termini la situa-
zione è quella che risulta dal seguente schema:

Categoricità di SA + Primo teorema di Gödel

Incompletezza semantica della logica del secondo ordine

ove appare evidente che il fenomeno di incompletezza è imputabi-


le al calcolo.
Insomma, se si vuole tener ferma la completezza del calcolo
occorre essere disposti a fare a meno della categoricità; se si vuole
tener ferma la categoricità si deve essere disposti a rinunciare alla
completezza del calcolo. In ogni caso a qualcosa si deve rinunciare.

5.5. Osservazioni finali


In conclusione, i risultati precedenti evidenziano il fatto che
non esiste la possibilità di dominare completamente attraverso
mezzi finitari il modello standard dell’aritmetica e che tale mancan-
za è la prova della natura non puramente linguistica e costruttiva
del modello: si tratta, al contrario, di modello inteso, non suscetti-
bile di pura descrizione linguistica o di totale costruzione mentale,
perché colto come qualcosa che sfugge ai nostri tentativi di descri-

298
Logica e finitarietà

zione completa o di costituzione e che anzi rimane sempre come


un orizzonte intrascendibile.
In termini più generali, nessuna teoria fornisce i mezzi per fini-
tizzare il suo modello. D’altro lato, tale situazione di impotenza
permane anche se ci si pone dal punto di vista di qualche teoria
superiore a quella di cui si considera il modello. L’ideale della com-
pleta finitizzazione rimane così un’illusione, una sorta di fata mor-
gana irraggiungibile. In sintesi le ragioni sono tre.
In primo luogo, è vero che la semantica di una teoria si può
formalizzare in una teoria più potente, ma si tratta, comunque, di
formalizzazione parziale. Anche la teoria superiore possiede un
modello ed è giocoforza imbattersi in esso come qualcosa di indi-
pendente e non esauribile – dunque, di infinitario – rispetto alla
teoria, in modo del tutto simile a come ci si imbatte nel modello
della sotto-teoria: il rifiuto del carattere infinitario del modello
comporta una impossibile regressione infinita delle teorie.
In secondo luogo, persino il ricorso ad una logica più potente
del calcolo del primo ordine è una illusione. Il vantaggio che con
tale passaggio si consegue dal punto di vista della forza espressiva
– forza espressiva di cui la categoricità, della quale gode, ad esem-
pio, l’aritmetica di Peano al secondo ordine, è la prova –, è com-
pensato, infatti, dalla perdita della formalità a livello di forza dedut-
tiva, dalla mancanza, cioè, dal secondo ordine in su, di un calcolo
logico completo.
In terzo luogo, le teorie infinitarie, per quanto consentano di
circoscrivere il riferimento al modello inteso, non lo fanno in forza
della loro veste linguistica, in quanto non rispettano la condizione
di formalità. In questa prospettiva, la dimensione semantica, con il
suo carattere irriducibile di infinità, viene persino ribadita.
In conclusione, la mente umana è costretta a semantizzare, vale
a dire a riconoscere ciò che è vero nel modello e non semplice-
mente a costruirlo. Il che sembra una prova molto forte a favore
del realismo.

299
Bibliografia

Di seguito, il lettore troverà una serie di indicazioni bibliografi-


che. La letteratura sulla logica - sia dal punto di vista formale e ma-
tematico sia da quello più filosofico - è immensa; anche per questo
motivo abbiamo preferito dividere questi cenni bibliografici in al-
cune sezioni: introduzioni generali alla logica, manuali, logiche in-
tensionali, storia della logica, teorie formali.

1. Introduzioni generali alla logica


Importanti testi introduttivi alla logica, di cui alcuni si soffer-
mano utilmente sull’analisi del linguaggio, sono:
Berto F., Logica da zero a Gödel, Laterza, Roma-Bari 2007; Palla-
dino D., Corso di logica: introduzione generale al calcolo dei predicati, Ca-
rocci, Roma 2002; Copi I.M., Cohen C., Introduzione alla logica, Il
Mulino, Bologna 1997; Lemmon E.J., Elementi di logica: con gli esercizi
risolti, Laterza, Roma-Bari 2009; Agazzi E., La logica simbolica, La
Scuola, Brescia 1990; Tarski A., Introduction to Logic and to the Metho-
dology of Deductive Sciences, Oxford University Press, New York
1965, trad. it., Introduzione alla logica e alla metodologia delle scienze dedut-
tive, Bompiani, Milano 1978.

301
Bibliografia

2. Manuali di logica
Nel citare alcuni tra i principali manuali di logica abbiamo privi-
legiato i classici e quelli cui è disponibile la traduzione per il lettore
italiano: Boolos G.S., Burgess J.P., Jeffrey R.C., Computability and
Logic. Fifth Edition, Cambridge University Press, Cambridge 2007;
Varzi A., Nolt J., Rohatyn D., Theory and Problems of Logic, trad. it.,
Logica, McGraw-Hill, Milano 2004; Enderton H.B., A Mathematical
Introduction to Logic, Harcourt Academic Press, San Diego 2001;
Troelstra A. S., Schwichtenberg H., Basic Proof Theory, Cambridge
University Press, Cambridge 2000; Casari E., Introduzione alla logica,
Utet, Torino 1997; Abrusci M., Logica matematica. Corso introduttivo,
Laterza, Roma-Bari 1992; Mendelson E., Introduction to Mathematical
Logic, D. Van Nostrand, Princeton New Jersey, 1964, trad. it., Intro-
duzione alla logica matematica, Boringhieri, Torino 1972; Ebbinghaus
H.D., Flum J., Thomas W., Mathematical Logic, Springer, New York-
Berlin-Heidelberg-Tokyo 1984; Shoenfield J.R., Mathematical Logic,
trad. it., Logica matematica, Boringhieri, Torino 1980; Bell J.L., Ma-
cHover M., A Course in Mathematical Logic, North Holland, Amster-
dam 1977; Hermes H., Introduction to Mathematical Logic, Springer,
Berlin-Heidelberg-New York 1973; Kleene S.C., Mathematical logic,
John Wiley & sons, New York 1967; Wang H., A survey of mathema-
tical logic, North-Holland, Amsterdam 1963; Church A., Introduction
to Mathematical Logic, Princeton University Press, Princeton 1956;
Hilbert D., Ackermann W., Grundzüge der theoretischen Logik, en.
trans., Principles of Mathematical Logic, Chelsea Publishing Company,
New York 1950.

Tra i manuali enciclopedici sono da citare il monumentale Gab-


bay D., Guenthner F. (a cura di), Handbook of Philosophical Logic,
voll. I-XIV Reidel, Dordrecht 2007 e Barwise J., (a cura di),
Handbook of Mathematical Logic, North Holland, Amsterdam 1977
oltre alle voci di logica della nuova edizione della Enciclopedia Filoso-
fica pubblicata presso i tipi di Bompiani.

302
Bibliografia

3. Logiche non standard


Tra i notevoli sviluppi che hanno avuto le logiche intensionali
negli ultimi decenni segnaliamo solo alcuni testi di riferimento: Pal-
ladino D., Palladino C., Logiche non classiche. Un’introduzione, Carocci,
Roma 2007; Garson J.W., Modal logic for philosophers, Cambridge
University Press, Cambridge 2006; Paoli F., Substructural logics. A
Primer, Kluwer, Dordrecht 2002; Fitting M., Mendelsohn R.L.,
First-Order Modal Logic, Kluwer, Dordrecht 1998; Galvan S., Non
contraddizione e terzo escluso. Le regole della negazione nella logica classica,
intuizionistica e minimale, FrancoAngeli, Milano 1997; Cresswell M.J.,
A New Introduction to Modal Logic, Routledge, London 1996; Galvan
S., Logiche intensionali. Sistemi proposizionali di logica modale, deontica,
epistemica, FrancoAngeli, Milano 1991; Pizzi C., Dalla logica della rile-
vanza alla logica condizionale, Euroma La Goliardica, Roma 1987;
Chellas B.F., Modal Logic: An Introduction, Cambridge University
Press, Cambridge 1980.

4. Storia della logica


Presentazioni ampie dello sviluppo storico (e concettuale) della
logica sono: Haaparanta L. (a cura di), The development of modern lo-
gic, Oxford University Press, Oxford 2009; Mangione C., Bozzi S.,
Storia della logica: da Boole ai nostri giorni, Garzanti, Milano 1993; Bo-
chenski J.M., Formale Logik, trad. it., La logica formale: dai presocratici a
Leibniz. La logica matematica, II voll., Einaudi, Torino 1972; Kneale
C.K, Kneale M.K., The development of logic, trad. it., Storia della logica,
Einaudi, Torino 1972. Infine è in corso di pubblicazione l’opera
multi-volume: Gabbay D.M., Woods J. (a cura di), Handbook of the
history of logic, North Holland, Amsterdam 2004-.

5. Teorie formali

303
Bibliografia

Sulla questione dell’incompletezza delle teorie formali e sulle


tematiche annesse possono essere utili: Shapiro S. (a cura di), Ox-
ford Handbook of Philosophy of Mathematics and Logic, Oxford Univer-
sity Press, Oxford 2005; Palladino D., Logica e teorie formalizzate: com-
pletezza, incompletezza, indecidibilità, Carocci, Roma 2004; Shapiro S.
(a cura di), The limits of logic: higher-order logic and the Lowenheim-Skolem
theorem, Aldershot, Dartmouth, 1996; Galvan S., Introduzione ai teo-
remi di incompletezza, FrancoAngeli, Milano 1992 (trad. in tedesco,
Mentis, Paderborn 2006); Shapiro S., Foundations without Foundationa-
lism: a case for second-order logic, Clarendon Press, Oxford 1991; Shan-
ker S.G., Gödel’s theorem in focus, trad. it., Il teorema di Gödel: una messa
a fuoco, Muzzio, Padova 1991; Tarski A., Logic, Semantics, Metamathe-
matics: papers from 1923 to 1938, Hackett Pub. Co, Indianapolis 1983;
Boolos G., The Unprovability of Consistency. An Essay in Modal Logic,
Cambridge University Press, Cambridge 1979; Rogers R., Mathema-
tical logic and formalized theories: a survey of basic concepts and results, trad.
it., Logica matematica e teorie formalizzate: un quadro generale dei concetti e
dei risultati fondamentali, Feltrinelli, Milano 1978; Casari E., Lineamenti
di logica matematica, Feltrinelli, Milano 1972; Casari E., Questioni di
filosofia della matematica, Feltrinelli, Milano 1964; Agazzi E., Introdu-
zione ai problemi dell’assiomatica, Vita e Pensiero, Milano 1961; New-
man J.R., Nagel E., Gödel’s Proof, New York University Press, New
York 1958, trad. it., La prova di Gödel, Boringhieri, Torino 1992;
Kleene S.C., Introduction to metamathematics, North-Holland, Amster-
dam 1952.

304
Sommario

Introduzione 7

Capitolo primo Introduzione al linguaggio formale 25

1. La logica come analisi del linguaggio 25


2. Dal linguaggio naturale al linguaggio formale 28
2.1. Proposizioni semplici 28
2.2. Struttura soggetto/predicato 30
2.3. Proposizioni complesse 37
2.3.1. Quantificatori 37
2.3.2. Connettivi proposizionali 41
2.3.3. Quantificatori più connettivi 52
2.4. Ruoli del metodo delle tabelle di verità 61
2.4.1. Valori di verità delle proposizioni complesse 61
2.4.2. Inderdefinibilità dei connettivi 69
2.5. Ampliamento del linguaggio proposizionale 70
2.5.1. Operatori intensionali 70
2.5.2. Per una classificazione dei linguaggi 81
3. Preliminari al linguaggio e calcolo formali 83
3.1. Da LS al linguaggio dei predicati L 83
3.2. Distinzione tra teoria e metateoria 87

Capitolo secondo Logica dei predicati (sintassi) 89

1. Linguaggio dei predicati 89


1.1. Alfabeto 89
1.2. Regole di formazione 90
1.3. Teoria della sostituzione 96
Sommario

2. Calcolo C dei predicati 99


2.1. Preliminari 99
2.2. Regole di deduzione del calcolo C 100
2.3. Derivazioni e sequenze derivabili 108
2.4. Regole derivabili 112
2.5. Regole derivabili della parte proposizionale di C 112
2.6. Regole derivabili della parte predicativa di C 136

Capitolo terzo Logica dei predicati (semantica) 153

1. Preliminari 153
1.1. Nozioni semantiche fondamentali 153
Def. di struttura 153
Def. di attributo su una struttura 154
Def. di L-struttura 157
Def. di interpretazione di L su una struttura 159
Def. di reinterpretazione 163
Def. di relazione modello ⊨ 165
1.2. Preliminari alla dimostrazione dei metateoremi 168
2. Teoremi di coincidenza e conversione 179
2.1. Preliminari al teorema di coincidenza 179
2.2. Teorema di coincidenza 180
2.3. Teorema di conversione 183
3. Preliminari alla correttezza e alla completezza di C 186
Def. di conseguenza logica X  α 186
Def. di formula valida  α 186
4. Teorema di correttezza per C 187
5. Conseguenze del teorema di correttezza 200
Def. di soddisfacibilità di X 200
Def. di consistenza di X 200
5.1. Teorema di consistenza degli insiemi soddisfacibili 200
5.2. Preliminari al teorema di conversione generalizzato 202
5.3. Teorema di conversione generalizzato 209
6. Teorema di completezza per C 209
Sommario

6.1. Teorema di soddisfacibilità degli insiemi consistenti 210


Def. di estensione di un insieme 211
Def. di estensione conservativa 212
6.2. Piano e tappe della trasformazione di X 213
6.3. Enumerabilità delle formule di un linguaggio 221
6.4. Estensione henkiniana di X 221
6.5. Teorema di conservatività 224
6.6. Corollario 226
6.7. Metodo di Lindenbaum per il completamento di X 227
Def. di completamento di X 227
Def. di completezza di X 227
Def. di chiusura di X 228
Def. di completezza rispetto ai segni logici 228
6.8. Teoremi su X* 228
6.9. Estensioni henkiniane e complete
di insiemi consistenti 230
6.10. Modello canonico di Xh* 233
6.11. Lemma di appartenenza (Henkin) 235
6.12. Corollari della completezza 236
Teorema di Löwenheim-Skolem 236
Teorema di non categoricità delle teorie 237
Teorema di finitezza semantica (compattezza) 237
Teorema di non caratterizzabilità dell’aritmetica
elementare di Skolem 238

Capitolo quarto Logica dei predicati e teorie aritmetiche 241

1. Concetto di teoria 242


1.1. Linguaggio 242
1.2. Regole di formazione 245
1.3. Teoria della sostituzione 246
2. Calcolo C dei predicati del primo ordine con identità 247
3. Concetto di teoria formale del primo ordine con identità 250
3.1. Definizione di teoria 250
Sommario

3.2. Teoria PA aritmetica di Peano del primo ordine 251


3.3. Alcuni risultati su PA 255
4. Teorie del secondo ordine 257
4.1. Concetto di teoria formale del secondo ordine 257
4.2. Teoria SA aritmetica di Peano del secondo ordine 258
4.3. Teorema di Dedekind 261
4.4. Riflessioni sulla categoricità di SA
e non categoricità di PA 273

Capitolo quinto Logica e finitarietà 275

1. Formalità e finitarietà 275


2. Finitizzazione del nesso di conseguenza logica 276
3. Finitizzazione delle teorie 279
4. Assiomatizzabilità e proprietà delle teorie 282
Teoria assiomatizzata 282
Teoria assiomatizzabile 282
Teoria consistente 283
Teoria sintatticamente completa 283
Teoria decidibile 283
Teoria semanticamente completa 285
Teoria numerica 286
Teoria numerica ω-consistente 286
Teoria numerica ω-completa 286
5. Limiti all’assiomatizzabilità delle teorie 287
5.1. Primo teorema di Gödel: G1 287
5.2. Secondo teorema di Gödel: G2 292
5.3. Teorema di indecibilità di Church 294
5.4. Teorema di non categoricità e sue conseguenze 295
5.5. Osservazioni finali 298

Bibliografia 301
SAGGI

Nella stessa collana

1. Emanuele Pagano, L’Italia e i suoi Stati nell’età moderna. Profilo di


storia (secoli XVI-XIX)
2. Riccardo Maffei, Introduzione al fascismo. Aspetti e momenti del tota-
litarismo italiano
3. Giuseppe Gullino, Storia della Repubblica Veneta
4. Luigi Alici, Filosofia morale
5. Giovanni Manetti – Adriano Fabris, Comunicazione
6. Dario Antiseri, Come si ragiona in filosofia. E perché e come insegnare
storia della filosofia
7. Angelo Nobile – Daniele Giancane – Carlo Marini, Letteratura
per l’infanzia e l’adolescenza. Storia e critica pedagogica
8. Rosa Maria Parrinello, Le grandi religioni. Credenze, riti, costumi
9. Annamaria Fantauzzi, Antropologia della donazione
10. Mauro Bozzetti, Pensare con stile. La narratività della filosofia
11. Eugen Bleuler, La psicanalisi di Freud
12. Roberto Gatti, Filosofia politica. Gli autori, i concetti, i problemi,
nuova edizione
13. Otfried Höffe, La democrazia ha un futuro?, a cura di Giovanni
Panno
14. Milena Santerini, Educazione morale e neuroscienze. La coscienza
dell’empatia
15. Angelo Turchini, Archivi della Chiesa e archivistica
16. Caterina Cangià, Lingue altre, 1. Conoscerle e coltivarle
17. Caterina Cangià, Lingue altre, 2. Insegnarle e impararle
18. Guido Gili – Fausto Colombo, Comunicazione, cultura, società.
L’approccio sociologico alla relazione comunicativa
19. Elena Marta (ed.), Costruire cittadinanza. L’esperienza del servizio
civile nazionale
Sommario

20. Giovanni Santambrogio, Lezioni di giornalismo


21. Giovanna Mascheroni (ed.), I ragazzi e la rete. La ricerca EU Kids
Online e il caso Italia
22. Michele Colasanto – Laura Zanfrini (eds.), Leggere la disoccupa-
zione. Progettare le politiche
23. Sergio Galvan, Logica

Pubblicati nella serie precedente

Saverio Bellomo, Filologia e critica dantesca


Raffaella Bertazzoli (a cura di), Letteratura comparata
Marco Buzzoni, Filosofia della scienza
Hervé A. Cavallera, Storia della pedagogia
Mario Cimini, Sociologia della letteratura
Alessandro Cinquegrani, Letteratura e cinema
Francesco D’Agostino – Laura Palazzani, Bioetica. Nozioni fondamentali
Claudio Doglio, Introduzione alla Bibbia
Roberto Gatti, Filosofia politica
Antonio Pieretti, Filosofia teoretica
Luciano Vitacolonna, Semiotica
ORSO BLU

1. Franco Loi, Educare la parola, a cura di Giuseppe Mari


2. Enrico Berti, Invito alla filosofia
3. Lorenzo Montanari, Pronto soccorso dell’italiano
4. Antonio Paolucci, Arte e bellezza, a cura di Carolina Drago
5. Stefano Semplici, Invito alla bioetica, a cura di Mirko Di Bernardo
6. Joan Domènech Francesch, Elogio dell’educazione lenta
7. Bruno Forte, Una teologia per la vita. Fedele al cielo e alla terra, a
cura di Marco Roncalli
8. Giovanni Reale, Invito al pensiero antico, a cura di Vincenzo Cicero
9. Camille Landais, Thomas Piketty, Emmanuel Saez, Per una rivolu-
zione fiscale. Un’imposta sul reddito per il XXI secolo, a cura di Massi-
mo Bordignon e Enrico Minelli
10. Aldo Grasso, Invito alla televisione, a cura di Cecilia Penati
11. Giacomo Canobbio (ed.), Dio, l’anima, la morte. Percorsi per far pensare
12. Rabindranath Tagore, La saggezza del pappagallo
13. Edward Evan Evans-Pritchard, Invito all’antropologia sociale
14. Alberto Quadrio Curzio, Economia oltre la crisi. Riflessioni sul liberi-
smo sociale, a cura di Stefano Natoli
15. Michael Heller, La scienza e Dio, a cura di Giulio Brotti
PEDAGOGIA

1. Giuseppe Bertagna, Lavoro e formazione dei giovani


2. Luigi Croce – Luigi Pati (eds.), ICF a scuola
3. Paola Dusi – Luigi Pati (eds.), Corresponsabilità educativa
4. Giulia Cavalli – Eleonora Di Terlizzi – Anna Valle, I grandi nel
mondo dei piccoli. La relazione tra educatori e genitori nei servizi per la
prima infanzia
5. Andrea Bobbio – Teresa Sergi Grange (eds.), Nidi e scuole dell’in-
fanzia. La continuità educativa
6. Giuseppina D’Addelfio, Filosofia per bambini ed educazione morale
7. Monica Amadini, Infanzia e famiglia. Significati e forme dell’educare
8. Rosario Mazzeo, Studiare missione impossibile? Dialoghi e lettere sul-
l’imparare a scuola e in famiglia
9. Claudio Girelli (ed.), Promuovere l’inclusione scolastica. Il contributo
dell’approccio pedagogico globale
10. Andrea Potestio – Fabio Togni, Bisogno di cura, desiderio di educazione
11. Antonio Bellingreri, Pedagogia dell’attenzione
12. Sabine Kahn, Pedagogia differenziata. Concetti e percorsi per la perso-
nalizzazione degli apprendimenti, a cura di Giuliana Sandrone
13. Maria Vinciguerra, Pedagogia e filosofia per bambini
14. Amelia Broccoli, La comunicazione persuasiva. Retorica, etica, educazione
15. Olga Bombardelli (ed.), L’Europa e gli Europei a scuola
Annotazioni
Annotazioni
Annotazioni
Annotazioni
Annotazioni