Sei sulla pagina 1di 72

Il ragionamento narrativo e la nozione di decidibilità

Osservazioni e note sui paradigmi delle Digital Humanities

Andrea Scotti

Copenhagen 2013
Sommario

1. Annotazioni su alcuni concetti e parte della tradizione


che chiameremo: ragionamento narrativo…………………… 1-6

2. La transizione: note storiche sulla decidibilitá e le


implicazioni di un nuovo paradigma………………………….. 6-53

3. Gli orizzonti della strutturazione logica del ragionamento


narrativo e i meta modelli. Note sul dibattito delle ontologie
fondative e esperimenti mediovali, frammenti di ipotesi,
conclusioni………………………………………………………. 53-70
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

1. Annotazioni su alcuni concetti e parte della tradizione che chiameremo:


ragionamento narrativo.

Scrivere un saggio come questo contraddice non poco cio´che ha


intenzione di comunicare. Ossia affermare che precisamente questa forma di
produzione del sapere – il saggio - non e´piu´in grado di esprimere la
complessita´delle conoscenze necessarie per trasmettere i nuovi concetti sui
quali si fonda la comunicazione culturale nell´epoca del web. Cio´non significa
che non bisogna piu´scrivere saggi, racconti, trattati, articoli scientifici o elzeviri.
Al contrario essi rimangono una parte fondamentale della tradizione e delle
forme comunicative dei saperi. Ma volendo analizzare come questa forma cosí
usuale di comunicazione possa passare ad un´altra – il web - nella quale i limiti
e i concetti fondativi della prima vengono superati, bisognerebbe allora usare il
web stesso. Da qui la contraddizione di cui all´incipit. Ció che quindi qui di
seguito andremo ad esporre è il tentativo di mostrare come il ragionamento
narrativo, al quale ci hanno abituato le scuole e le universitá, abbia subito un
radicale cambiamento che non solo andrebbe capito ma dovrebbe essere
categorizzato e sviluppato.
Per far sí che questo tentativo abbia la possibilita´ ancorché piccola di
successo è il caso di spiegare a quali concetti e a quale tradizione dei saperi
facciamo riferimento. La tradizione umanistica ha sempre trasmesso il suo
sapere nella forma di una narrazione fondata sui linguaggi naturali. In alcuni casi
questa tradizione è stata coadiuvata da apparati iconografici o addirittura si è
espressa direttamente attraverso le immagini: l´arte in tutte le sue forme.
Occupiamoci per il momento della sola tradizione basata sui linguaggi naturali
ossia della scrittura.
Le lingue sono un fenomeno determinato da una segnica che produce
alfabeti, grammatiche, sintassi e la loro concretizzazione in espressione. Questi
quattro elementi sono stati studiati a fondo nel corso del novecento e non
verranno esaminati qui dal punto di vista strutturale ma come oggetti destrutturati
e reificati dalla metodlogia computistica del web. A sua volta quest´ultima ha
sviluppato un considerevole numero di sintassi e grammatiche per poter far sí
che una macchina esprimesse la densitá semantica dei linguaggi naturali.
Queste sintassi, che sino ad oggi poggiano sulla nozione del procedimento
binario espresso da Turing negli anni trenta del novecento, sono linguaggi

*
Questo elzeviro è la ricostruzione sintetica, con alcune nuove e piú recenti osservazioni, di note, appunti e studi fatti nel
corso dei tredici anni di lavoro all´Isituto e Museo di Storia della Scienza e alla Fondazione Rinascimento Digitale di
Firenze dove ho diretto vari progetti documentaristici introducendo una prospettiva tecnologica ai fini di sviluppare
un´archittetura e metodologia web comune a tutte le discipline umanistiche chiamata Pinakes (v. 1, v. 2, v. 3). Perció, le
note che seguono non si propongono altro che esporre e proporre argomenti a riguardo. L´assenza quasi totale di ogni
formalisimo logico, matematico e informatico è dovuta alla nostra intenzione di tentare di rendere leggibile concetti che,
altrimenti espressi, sarebbero rimasti, non solo oscuri, ma ignoti al lettore comune. Tuttavia, chi volesse approfondire gli
argomenti, ha a disposizione la letteratura in nota. Infine, vorrei ringraziare qui Luigi Saggese, per avermi generosamente
messo a disposizione la sua preziosa biblioteca di logica, matematica e filosofia, Annette Lindegaard insieme ad
Alessando Scotti, Antonio Scotti, Dolores Cashman, Marco Passarotti, per aver rivisto e corretto tutte le mie traduzioni
inglesi e le mie interpretazioni, ed anche, ad onor del vero, il mio italiano.

1
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

simbolici e/o logici che strutturano l´informazione in maniera tale che essa possa
essere elaborata da una macchina. Esse, come è noto, prendono il generico
nome di meta-linguaggi ed operano a diversi livelli della macchina: dai sistemi
sino alle singole applicazioni usate da quest´ultimi. Vedremo piu´avanti come
questi linguaggi abbiano subito l´influsso di discipline che appartengono
direttamente alla tradizione umanistica.
La scrittura di cui noi siamo a conoscenza ha avuto due forme di
esistenza: quella manoscritta e quella a stampa. La tradizione manoscritta che
attraversa la storia dall´epoca del cuneiforme su tavolette di terracotta, a quella
dei papiri e a quella delle scholae scriptorium del medioevo, ha codificato di volta
in volta una forma espositiva che consentiva a chi leggeva di capire non solo il
testo scritto ma anche i riferimenti che quest´ultimo aveva con altri testi scritti.
Ossia un testo scritto, foss´anche un romanzo, aveva sempre un qualche altro
testo nel quale veniva spiegato ció a cui il primo faceva riferimento.
Quest´ultimo, tuttavia, era fatto come il primo e cosi via. In questo modo la
catena delle informazioni era basata su un principio di infinitá. La natura di
quest´infinitá è appunto quella di non poter mai ottenere in un sol colpo tutte le
fonti necessarie per capire o vedere le svariate sfacettature di un concetto o le
diverse visioni che ci possono essere di un fenomeno. D´altro canto il riferimento
era ed ancora rimane l´unica garanzia di fondatezza delle affermazioni di un dato
sapere. Questa modalitá labirintica di costruzione del sapere si è andata
rafforzando nel corso dei secoli specializzandosi per ogni singola area
conoscitiva. Cosicché, lo sforzo di formalizzare l´esposizione dei riferimenti ha
portato alla creazione di ció che oggi conosciamo sotto il nome comune di
citazione o letteratura secondaria o ancora nella forma anglofona e generica di
reference. Questa tipologia della scrittura è diventata a sua volta una narrazione
sulla narrazione in modo tale da consentire l´esplicitazione della ragione e della
necessitá e relazione del singolo riferimento al testo. Le forme in cui si è
espresso ció, che qui per comoditá chiamiamo appunto riferimento, sono
cambiate con il cambiare del mezzo usato per trasmettere il sapere. Nella
tradizione delle tavolette erano una serie di segni numerici, nella tradizione
manoscritta il riferimento ebbe svariate forme che vanno dal disegno di una
mano con il dito indice teso verso il testo, verso il basso o l´alto della pagina,
all´introduzione di una raffigurazione sulle iniziali dei singoli capitoli o rubriche
sino alla esposizione di lunghe liste di nomi - le autoritas - a premessa
dell´opera. Nel momento in cui il manoscritto venne pian piano sostituito dalla
stampa le forme del riferimento furono le piú diverse. Per quanto non vi siano
studi su questa parte tanto significativa dei metodi di comunicazione, ne vi sia
uno studio sulle scelte editoriali dei vari tipografi europei, che furono diverse per
ogni disciplina, si puó affermare con una certa approssimazione che ci sono
voluti circa cinquecento anni per raggiungere delle forme, che per quanto non
fossero unversali, erano almeno una modalitá condivisa di scrivere e
rappresentare tale metascrittura. Ancora oggi, ogni rivista scientifica o editore al
fine di garantirne l´omogenietá dichiara in che modo tali riferimenti debbano
essere scritti.

2
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

Questo modo di comunicare i contesti utili alla comprensione del testo


hanno sempre posto il problema della loro verifica come attivitá collaterale ma
neccessaria della lettura. Tale struttura ha fondato il nostro modo sequenziale di
rappresentare le fonti sulle quali è ancora consuetudine percepire il sapere
stesso. Anche questo saggio ha lo stesso andamento. Sin dalla prima pagina è
neccessario abbandonare la lettura di questo testo e leggere o accedere ai
riferimenti per capire dove e di che cosa realmente si argomenta qui. La
differenza oggi è che tale azione, alla quale siamo stati abituati da sempre,
possiamo compierla contemporaneamente alla lettura. Ossia con la possibilitá di
comunicare tutte le fonti allo stesso tempo cambia il modo con il quale siamo in
grado di percepire i concetti sui quali si va costruendo l´analisi. Dunque la pratica
della referenzialitá esprime una nozione diversa del tempo nel quale sono
esperibili una serie di concetti o descrizioni di fenomeni. Ció è possibile solo
poiché esistono dei dati strutturati sulla rete che ci consentono una visione
d´insieme. Come vedremo piú avanti tale strutturazione è appunto la
metodologia che ha cambiato il paradigma di produzione del nostro sapere.
Apparentemente la rete ha solo consentito un accesso piú veloce ad una
sempre piú ampia massa di informazioni. Ma osservare le cose da questo punto
di vista vuol dire non considerare quale piú profonda trasformazione hanno
subito alcuni concetti e forme fondative del nostro sistema di comunicazione e
produzione del sapere. La visione del web come puramente strumentale e
ancillare alle discipline umanistiche non rende ragione né dei vantaggi né delle
trasformazioni profonde che esso implica. Se il tempo come concetto è cambiato
nell´uso che facciamo delle risorse esso si è anche trasformato nel modo in cui le
produciamo. Tuttavia, non sono né la velocitá di accesso ai dati o la quantitá di
dati che vengono prodotti a garantire in sé una maggiore e piú qualificata
produzione e comunicazione. Al contrario l´aumento di questi due fattori ingenera
disordine e dispersione, e ció tanto piú se non si è in grado di produrre dati che
le macchine possano reinterpretare in modo serialmente rappresentabile.
Ancora: il disordine è mantenuto e generato da coloro che anziché preoccuparsi
di produrre dati per un media computazionale si limitano a reificare il mondo
analogico in quello digitale usando un rapporto uno a uno. Ossia, quest´ultimi pur
di non cambiare la natura concettuale del ragionamento narrativo applicano il
metodo paradossale della cartina geografica piú precisa del mondo che appunto
essendo cosí dettagliata è grande quanto il mondo stesso e quindi non
rappresenta nulla. La semplice replica del mondo analogico rende lo sforzo e la
spesa delle attivitá di digitalizzazione non solo futile e vano ma partecipa alla
creazione di uno costosissmo spazio cibernetico semanticamente vuoto.
Nella tradizione sia manoscritta che a stampa vi è sempre stato il tentativo
di rendere navigabile un testo ed avere al contempo almeno una visione
d´insieme del suo contenuto visto anche l´impossibilitá di accedere all´insieme
dei riferimenti in esso contenuti. Tale forma, che per certe discipline ha raggiunto
una notevole densitá formale come gli alberi o le cossidette ruote del sapere di
tradizione aristotelico-lulliana in epoca medieovale, non ha mai avuto peró una
omogenietá né strutturale né retorica. L´unica cosa comunemente accettata era
invece l´assetto concettuale ossia i concetti fondativi derivati dalla tradizione

3
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

dell´Organon. Come si puó osservare in questo manoscritto 1, un ´antologia


pseudo-lulliana della fine del trecento con aggiunte provenienti dal primo
quattrocento, che raccoglie i metodi cosiddetti aristotelici di rappresentazione
degli universali e particolari ed espone una metodologia visiva dei riferimenti che
in qualche modo ricorda il grafo che oggi è il web 2.

Ms. Banco Rari 52 Biblioteca Nazionale Centrale di Firenze c. 177r, 182v

Queste due ruote che rappresentano la prima alcune fasi della cosiddetta
estrazione del mercurio, l´altra la struttura del sapere filosofico, sono basate su
un principio di deduzione dal generale al particolare e vorrebbero esprimere delle
leggi generali della nutura in maniera non dissimile da quello delle scienze
naturali. Il principio fondamentale è la relazione tra enti della realtá (materie) e
concetti per casi particolari o ancora, che mediante questa relazione, si tenti di
risssumere in un mappa la memoria di tutte le discipline del sapere come

1
Si tratta del Mss Banco Rari 52 di cui si possono trovare le tavole e le miniature in: A. Scotti,
Catalogo Generale dei Manoscritti Scientifici della Biblioteca Nazinale Centrale di Firenze,
http://archimede.imss.fi.it/ASPgendesc.asp?shelfmark=B.R.+052&B1=SEARCH+%3E%3E .
2
Il grafo o la gerarchia sono due concetti fondamentali per la produzione, gestione e navigazione
dei saperi sulla rete. I modelli ontologici oggi usati per gestire il sapere comune delle discipline
delle scienze naturali sono stati derivati dalle nozioni espresse nella tradizione della logica
aristotelica. Infatti oggi si parla di Aristotelic realism per la definizione delle logiche di macchina a
livello del senso. Vedi: Barry Smith, Beyond Concepts: Ontology as Reality Representation, in: A.
Varzi, L. Vieu (eds.), Proceedings of FOIS 2004. International Conference on Formal Ontology
and Information Systems, Turin, 4-6 November 2004.

4
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

espresso nell´Ars Magna di Raimondo Lullo3. Il tentativo di avere uno sguardo


d´insieme sistematizzato è rimasto inalterato anche se si è applicato a fenomeni
i piú diversi tra loro. Esso si esprime indirettamente anche quando la produzione
del sapere sará pressocché basata sulle opere a stampa. Infatti, la definizione
delle relazioni di senso si puó trovare anche nel cosidetto Indice delle cose
notabili. Questa parte del testo diventó con l´andare dei secoli decisivo e
assunse a volte una dimensione anche superiore al testo stesso. In questi indici
venivano a stratificarsi anche sommari di parti del testo o dell´insieme dei suoi
capitoli. Essi ordinavano i contenuti di un testo a volte raggruppando le diverse
tipologie di informazioni, dai nomi di persona ai nomi dei luoghi o degli eventi, a
volte semplicemente ordinando alfabeticamente tutte le informazioni
indipendentemente dalla loro tipologia o ancora gerarchizzando le informazioni
seguendo quasi un allargato ma non
esplicito principio di implicazione.
Questa forma di rappresentare
scheletricamente secondo un dato
tipo di informazione – parte, capitolo
o quant´altro – esiste ancora oggi in
tutte le forme di comunicazione scritta
e si è esteso anche a quella
multimediale. Vedremo come la
replica in ambito digitale di questa
forma non abbia la stessa natura
concettuale ed esprima un valore
diverso da quello comune di indice.
Per capire l´importanza di questa
attivitá di sommarizzazione che in
gran parte era indipendente dalle
compentenze dei saperi vale la pena
far notare che precisamente
nell´epoca della loro prima
formalizzazione, ossia agli albori della

Raimondo Lullo, Ars Magna moderna etá, nasce anche la necessitá


di produrre compendi ordinati di vario
genere e tipo che avevavo il compito di guidare il lettore attraverso un dato
sapere e raccoglierne la letteratura precedente e contemporanea. Queste opere
chiamate comunemente lexicon volevano precisamente soddisfare la necessitá
di avere una visione d´insieme e garantire al contempo la distribuzione di
informazione del sapere sistematizzato. Naturalmente il metodo usato per
produrre, per cosí dire, questi grandi indici degli indici di opere era fondato su
una nozione categorizzata della conoscenza che ben di rado era comune a tutte
le aree del sapere.

3
Vedi sopra lo schema dei saperi riassunti nelle qualitá della natura e presentati da Aristotele
(figura in piedi in basso).

5
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

Dunque il ragionamento narrativo per poter essere comunicato ha bisogno


di altri ragionamenti a cui far riferimento e di un indice per ritrovarne le pietre
miliari. I primi creano una relazione a certe fonti e a volte esprimono
esplicitamente la ragione della relazione, i secondi garantiscono che le
informazioni possano essere còlte anche in unitá piú piccole di quella completa
data dal testo nel suo insieme. L´organizzazione argomentata di queste unitá,
che conduce da un testo nel suo insieme ad un altro, è appunto l´espressione del
raggionamento narrativo che la tradizione della linguistica strutturale chiama
comunemente discourse 4. È quest´ultimo che rende comunicabile i percorsi
semantici del ragionamento narrativo umanistico. Ma il discourse esprimibile
tramite il formalismo computazionale in una macchina è il frutto di una nuova
rappresentazione gnoseologica che essendo generata da un media la cui
fondazione categoriale è altra rispetto a quella alla quale ci ha abituato
l´esercizio del ragionamento narrativo, ci obbliga a creare il senso in maniera
seriale, paradigmatizzabile e assiomatizzabile. Di qui la transizione attualmente
in corso per ridefinire in che modo e con quali controlli di qualitá saremo in grado
di produrre sapere e in quale modo verrá riconosciuta la nostra responsabilitá
scientifica in esso.

2. La transizione: note storiche sulla decidibilitá e le implicazioni di un nuovo


paradigma.

Parlare di transizione implica che un certo processo di trasformazione,


grande o piccolo che sia, non ha ancora compiuto il suo corso e dunque che il
risultati di quel cambiamento non siano ancora esaustivamente conoscibili. Se
riferiamo questo concetto al modo in cui la comunicazione dei saperi su base
computazionale è andata trasformando anche le metodologie di produzione dei
medesimi possiamo affermare con relativa certezza che il mondo delle
discipline, che in tedesco sono definite Geistwissenschaften, non si è accorto
dell´influenza profonda che il web ha avuto anche sui suoi paradigmi fondativi.
Perció le annotazioni che seguono, che non pretendono di dare una risposta
esaustiva al problema, vorrebbero mostrare quanto questa indolente reazione
alla tecnologia computistica da parte degli umanisti e di tutti coloro che operano
nelle discipline dei beni culturali possa alla lunga determinare danni irreparabili o
addirittura mettere a rischio l´esistenza delle stesse discipline. Per contro è
degno di nota anche come il mondo della tecnologia si sia ben di rado posto il
quesito se la computazione dei saperi umanistici avrebbe potuto contribuire allo
sviluppo della tecnologia stessa, alla trasformazione dell´apparato categoriale
proprio dei formalismi di macchina.
Per capire lo iato tra sapere umanistico i suoi apparati analitici e quello
tecnologico/scientifico con le diverse dottrine categoriali-formali che sono ad
esse connaturate, è forse il caso di inserire qui una breve nota storica a partire

4
Qui si fa riferimento al problema fondazionale del discourse come fu esaminato e presentato
principalmente nelle seguenti opere: F. De Saussure, Cours de linguistique générale, Géneve,
1916; L. Hjelmslev, Omkring sprogteoriens grundlæggelse, København, 1943; R. O. Jakobson,
The Framework of Language, 1980.

6
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

dalla seconda meta della rivoluzione industriale del XIX secolo che per sommi
capi esponga che ruolo abbia avuto nei vari saperi la computazione e la
formalizzazione 5. Qui di seguito, infatti, fraremo soli alcuni cenni al fine mostrare
che lo sviluppo di macchine e teorie logico-matematiche per l´automazione di
certi saperi non è un problema o un sogno solo recente ma che getta le sue
radici nell´ ´800 e nel ´900 dove, alla necessitá dello sviluppo di macchine in
quanto tali, si è aggiunto il problema della definizione, decidibilitá, recupero e
navigabilitá dell´informazione da esse prodotte. Un esempio in tal senso è l
´opera del matematico e filosofo britannico di Charles Babbage6, che influenzato
dalle opere sul calcolo di Blaise Pascal e Gottfried Leibniz, sviluppó l´idea di una
macchina per la produzione delle tavole logaritmiche. Fu tra i primi a pensare
che fosse possibile costruire uno strumento meccanico capace di trasformare le
regole di calcolo e la loro applicazione in un´ azione e quindi, avendo
un´archtettura meccanica, poter essere programmabile.
L´idea era di sostenere, anziché il comune e ampiamente usato calcolo
infinitesimale newtoniano basato sulle flussioni, quello analitico detto leibniziano.
Delle due macchine che sviluppó, una, la macchina differenziale, fu portata a
termine in maniera incompleta, la seconda invece, la macchina analitica basata
sulle idee del congegno a schede perforate di Joseph Marie Jacquard 7 che
5
Il problema di sviluppare macchine intelligenti esiste sin dall´antichitá ed ha trovato i suoi
promotori nella cultura elleninico-semitica di epoca alessandrina nonché nella tradizione
archimedea. Uno degli esempi piú straordinari è la Macchina di Antikythera sul cui ritrovamento,
sulll’isola di Cerigotto detta Anticitera a nord-ovest di Creta, e la sua ricostruzione esite una
vastisima letteratura che non potremo citare qui. Uno degli studi più approfonditi, venne svolto
dallo storico della scienza inglese Derek de Solla Price, che nel 1951 iniziò ad analizzare la
macchina. Dopo vent’anni di ricerca Price riuscì a scoprire, almeno in parte, il funzionamento
originario. “Tutto il meccanismo era racchiuso in una scatola di circa 30 cm di altezza, 15 di
larghezza e 7,5 di profondità ed era costruito attorno ad un asse centrale. Quando questo asse
girava, entrava in funzione un sistema di alberi e di ingranaggi che faceva muovere delle probabili
lancette a diverse velocità, intorno ad una serie di quadranti. I frammenti mancanti impedirono a
Price di comprendere il completo funzionamento del meccanismo. Di grande importanza è stata
comunque la sua scoperta di un rapporto 254 a 19 fra le ruote. Questo lo portò a collegare il
meccanismo con il moto della Luna rispetto al Sole: infatti, la Luna compie 254 rivoluzioni siderali
ogni 19 anni solari”. In : D. De Solla Price , The Antikythera Mechanism, a Calendar Computer
from Ca 80 B.C.,1974. Due opera significative, in italiano, che sono uno studio sulla matematica
di questa macchina sono: L. Russo, La rivoluzione dimenticata, Feltrinelli,1996 e G. Pastore,
Antikythera e i regoli calcolatori, 2006.
6
Vedi: A. Hyman, Charles Babbage: Pioneer of the Computer , Princeton University Press, 1982,
82–7. Inoltre, sull´influenza della logica indiana su C. Babagge vedi: J. Ganeri, Indian logic: a
reader, Routledge, 2001.
7
Lo studio piú completo sulla vita e le opere di questo inventore francese e le relazioni che ha
avuto con l´invenzione di Giovanni da Catanzaro (in francese: Jean le Calabrais; che fu anche
ospite di Luigi XI sostenitore della sua spedizione a Lione per sviluppare li l´industria tessile),
primo creatore del telaio a schede risalente al XV secolo, vedi il documento dell´Archivio
Municipale di Lion, Segnatura: II 0250 1 Soierie, Étude biographique de Joseph -Marie Charles
dit Jacquard, inventeur, mécanicien en soierie, 1752-1834. Recherches biographiques sur
Jacquard, par Jean Huchard. Su Giovanni da Catazaro vedi l´intervento in italiano, basato sui
lavori relativi allo storia delle invenzioni di Abbott Payson Usher, di: C. Rossi, M. Cigola, M.
Ceccarelli, Alcune tappe verso l’automazione, in: Storia dell’Ingegneria, Atti del 2° Convegno
Nazionale, Napoli, 7-8-9 aprile 2008, 1, 461-460. Vedi anche: A. P. Usher, A History of
Mechanical Invention, Harvard University Press, 1929. Per altro tra le invenzioni di rilievo che

7
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

derterminava la geometria strutturale tessile (dalla trama alle decorazioni),


rimase sempre soltanto in forma progettuale. Le parti meccaniche dell´opera
incompleta di Babbage furono conservate nel museo della scienza di Londra e fu
nel 1991 che a partire da tali relitti venne realizzata e completata una macchina
funzionante per il calcolo. Il progetto che Babbage aveva in mente, e ció va
considerato come elemento determinate, è che le quantitá hanno una relazione
meccanica prevedibile, ben diversamente dal puro discorso o ragionamento
narrativo, che invece introduce, insieme alla quantitá, elementi di qualitá
imprevedibili. Per Babbage la “prescrizione” è solo un metodo, che tuttavia
garantisce mediante le sue regole un alto grado di decidibilitá, anche se, su i
grandi numeri, implica una complessitá apparentemente non controllabile 8.
Pochi decenni dopo, e sempre sotto la spinta empirica del pensiero
anglofono, si formó negli Stati Uniti, Vannevar Bush, che, sulla scia degli studi di
Babbage, porta a termine l´analizzatore differenziale meccanico detto il
Rockefeller Differential Analyzer Second (noto con la sigla RDA2). Come le
invenzioni di Babbage servirono, dopo la sua morte e durante la prima guerra
mondiale, all´Impero Britannico per la crittografia, cosí similmente Bush offrì con
successo, al governo degli Stati Uniti per il calcolo balistico, i suoi strumenti di
self-calculation ad uso della difesa e delle attivitá belliche. Infatti, essendo stato
eletto nel 1939, quale direttore del Carnegie Institute of Washington e

avrebbero voluto riprodurre more machinae concetti, fossero questi su tappeti decorati o su
oggetti di altro ordine, bisogna ricordare l´ Armonografo, ossia uno strumento in grado di
proiettare, sulla base della geometria degli angoli di un triangolo – uno strumento piramidale, di
cui ogni parete, ossia ogni faccia, vibra indipendetemente dalle altre, ma la cui somma è in
grado di scrivere la figura geometrica rappresentante una data sequenza armonica.
Semplificando, vi è la possibilitá di rendere figurativa l´armonia musicale, i dodici suoni della
scala cromatica - opposta a quella diatonica composta cioé da sette note che mediante una
precisa successione di due toni e cinque semitoni viene usata per descrivere il maggiore o il
minore - in maniera geometricamente finita, secondo un principio di decibilitá. Ovviamente, tale
procedura esclude il senso, l´atto di libera associazione degli armonici o dei sovratoni, ma tuttavia
ne rappresenta le proporzioni geometriche. Bisogna pensare che ciascuno dei toni, costitutivi
della serie armonica, con frequenza crescente, che conferiscono al tono piú basso, o
fondamentale, timbro e colore, sono connessi mediante rapporti numerici interi. Quest´idea risale
a Jehan le Taintenier (1435 –1511, incerto), noto col nome latino di Johannes Tinctoris, un
musicista di scuola franco-fiamminga, che insieme a Franchino Gaffurio (1451–1522), alla scuola
aragonese di Napoli, autore della Theoricum opus musicae disciplinae, Napoli, 1480, publicato
nella piú nota edizione del 1492, suggerirono a Johannes Kepler, che li cita nella sua
introduzione all´ Harmonices Mundi pubblicata a Frankfurt am Main da Goffried Tampach nel
1619, il tentativo di sviluppare una macchina per mostrare la geometria del suono delle sfere
celesti e proporre, cosí, una spiegazione della terza legge dei moti planetari sulla base di un
sistema proporzionale che, diversamente da quelli realizzati tardivamente da Jules Antoine
Lissajous (1822-1880) e da Giovanni Polvani (1892-1970) superassero il modello
pitagoreo/boeziano.
8
Ai fini di queste note, questo, è un problema al quale potremo fare solo un breve cenno
considerando soltanto, e in sintesi, alcuni elementi degli studi che da Hilbert vanno attraverso le
scuole matematiche di Peano, Cantor, Gödel, Turing e quelle logiche-linguistiche europee, da
Frege, Russell-Withehead, Wittgenstein, De Saussure, Hjelmslev, Jakobson, Carnap, Quine e
Tarski sino alla grammatica generativa di Chomsky. Ció poiché la storia delle matematiche, della
linguistica insieme alla differenti scuole di logica sono difficilmente riassumibili in cosí poco
spazio.

8
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

successivamente, dopo altre importanti cariche nella difesa, nel 1941 direttore
dell´Office for Research and Development responsabile del progetto Manhattan,
Bush riuscí a realizzare quello che Babbage un secolo prima aveva solo
progettato e sognato. Finito lo studio di alcune macchine finalizzate a gestire e
risolvere le equazioni differenziali che controllano la distribuzione dell´energia
elettrica sulla rete civile, sviluppa una differential machine, in grado di controllare
parametricamente il calcolo sino a 18 variabili indipendenti. Successivamente, e
sulla base degli studi di un circuito digitale, sviluppato giá nel 1923 da un suo
studente, Claude Shannon 9, quando era professore al MIT, elabora l´idea della
possible connessione delle informazioni progettando una macchina
10
programmabile chiamata Memex . Questo acronimo che significa extended
memory introduce per la prima volta, more machinae, la nozione di sapere come
rete, ossia grafo universale, che abbiamo visto esercitata, pensata e realizzata
attraverso le diverse forme della comunicazione e della strutturazione dei saperi
dall´antichitá ai giorni nostri. Viene quindi reintrodotto quí un elemento di
disordine che Babbage aveva escluso dal suo metodo. Tuttavia, l´informazione,
viene pensata da Bush come unitá di una quantitá data nella macchina. Tale
quantitá, di per se, é qualificabile logicamente – similmente al halt problem di
Turing che ne determina la posizione e la struttura numerica ma ignora la sua
possibile esistenza logica - tuttavia rimane di natura indeterminabile e
imprevedibile in relazione al significato che dovrebbe esprimere. Perció Bush è
in grado di dire, e ancora di credere, nel suo famoso articolo As We May Think
del 1945, che: “The wholly new forms of encyclopedias will appear, ready made
with a mesh of associative trails running through them, ready to be dropped into
the Memex and there amplified” 11.
Prima di passare a ció che accadde successivamente al progetto Memex,
verso la fine degli anni ´60, cioé alle idee rivoluzionarie, orientate al tentativo di

9
Claude Elwood Shannon nacque a Petoskey, una piccola città del Michigan. Dopo aver lavorato
da ragazzo come telegrafista per la Western Union, nel 1932 iniziò gli studi presso l'Università del
Michigan dove, nel 1936, conseguì due lauree in matematica e ingegneria elettronica. Nel 1938
con la sua tesi dal titolo Analisi simbolica dei relè e dei circuiti, Shannon applicó la teoria boleana
del vero/falso ai circuiti elettrici ponendo in questo modo le fondamenta teoriche dei sistemi di
codificazione, elaborazione e trasmissione digitale dell'informazione. Per l´opera vedi: C. E.
Shannon, Collected Papers, N. J. A Sloane and Aaron, D. Wyner, (eds.) IEEE press, 1993.
10
“ Memex era descritto come una scrivania dotata di schermi traslucidi, una tastiera, un set di
bottoni e leve. All'interno, meccanismi motorizzati per la ricerca ultra-rapida di un vasto archivio di
microfilm, che immagazzinava materiali a stampa di ogni genere (sia testi che immagini). Oltre a
cercare e reperire informazioni in questo modo, Memex avrebbe dovuto permettere al lettore di
aggiungere note a margine e scrivere commenti sfruttando la fotografia a secco. Cosa più
importante di tutte, Memex avrebbe dovuto consentire la creazione di collegamenti stabili tra
documenti diversi, attraverso la loro semplice selezione e la pressione di un tasto da parte
dell'utente. Questa sua caratteristica rende il Memex di Bush il precursore dei sistemi ipertestuali
come quelli che costituiscono il World Wide Web.” Vedi: E. Garfield, “World Brain” or “Memex?”
Mechanical and Intellectual. Requirements for Universal Bibliographic Control, Essays of an
Information Scientist, 6, 540-547, 1983. Se il Memex era pensato come una postazione
individuale, piuttosto che come l´unitá di una rete, è pertanto oscuro capire come potesse fare
ricerche sui meta-dati, ossia sulle annotazioni, visto la tecnica implementata, ed infine é tuttavia
indubbio che pose le basi di un nuovo metodo di notazione e riferimento.
11
V. Bush, As We May Think, The Atlantic, July 1945.

9
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

controllo e classificazione dell´ Iperlink di Ted Holm Nelson 12, che negli anni
´60 sviluppó il progetto Xandau e successivamente negli anni ´80 la Literary
Machine, o ad esporre lo sviluppo della rete universitaria americana chiamata
Arpanet diretta da Ted Taylor negli anni ´60, o ancora alle analisi fatte da Pierre
Lévy relativamente alle forme della comunicazione del sapere via web per
giungere nel 1994 all´invenzione del vero e proprio World Wide Web di Tim
Berners-Lee e Robert Cailliau, é forse il caso di osservare, pur anche
brevemente, cosa fu pensato, quali correnti teoriche nacquero e furono decisive
nella formazione e creazione dei linguaggi macchina dipendenti dai modelli della
teoria degli enunciati, della logica classica e della linguistica, nonché
dall´assiomatica matematica, e inoltre cosa fu discusso a riguardo della nozione
di deciibilitá nel corso di quelle decadi che, appunto, dalla macchina differenziale
di Babbage ci portano attraverso la macchina di Turing, la macchina universale
di Von Neumann, gli automata di Wolfram sino agli albori della rete come la
conosciamo oggi.
Il primo problema che si sono sempre posti sin dall´antichitá coloro che si
sono messi a costruire gli automata, fossero illusionisti della corte seicentesca di
Elisabetta o ingegneri del tessile o matematici o ancora astronomi puó essere
semplificato dicendo che, affinché una macchina possa compiere delle azioni, é
necessario avere un insieme di regole generali astratte che rendano decidibile le
conseguenze di quelle regole. Questo enunciato che sembra cosí elementare, e
che probabilmente fa parte dell´esperienza quodiana di ognuno di noi, se posto
nel mondo astratto delle matematiche e delle logiche, cioé nelle discipline che
hanno consentito, forse non la costruzione, ma sicuramente la garanzia teorica
del funzionamento delle macchine, ebbene, diventa, e specie nel corso del ´900,
una questione fondamentale che porta il nome tedesco di
Entscheidungsproblem.
Questa questione pone un problema che é apparentemente limitato,
come vedremo, alla sola definizione di coerenza tra parti espresse come
elementi simbolici di una quantitá astratta. Tra i primi che si pone il problema e
cerca di superarlo, a cavallo del ´900, é il matematico tedesco David Hilbert che
dopo aver realizzato una sistematica rivoluzione dei fondamenti della geometria,
tenta di fare la stessa cosa con le matematiche, ponendo alla comunitá dei
matematici i celebri 23 problemi 13, nove dei quali anticipó nel Secondo
Congresso Internazionale di Matematica che si tenne a Parigi nell´agosto del
1900. Hilbert costruí un sistema formale assiomatico che avrebbe dovuto
comprendere tutta la matematica istituendo per esso una serie di proprietà

12
T. H. Nelson, A Cosmology for a Different Computer Universe: Data Model, Mechanisms,
Virtual Machine and Visualization Infrastructure. Journal of Digital Information, Volume 5 Issue 1.
Article No. 298, July 16, 2004; T. H. Nelson, Computer Lib: You can and must understand
computers now/ Dream Machines: New freedoms through computer screens—a minority report,
Microsoft Press, 1987-1981; T. H. Nelson, Literary Machines: The report on, and of, Project
Xanadu concerning word processing, electronic publishing, hypertext, thinkertoys, tomorrow's
intellectual... including knowledge, education and freedom, Mindful Press, Sausalito, California,
1981. In queste ultime due opere spiega i suoi principi fondanti che furono riassunti da Nelson
stesso nelle seguenti definizioni: ipermedia, trasclusione, virtualità, interconnettibilità.
13
J. Derbyshire, L'ossessione dei numeri primi, Bollati Boringhieri, Milano, 2006.

10
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

fondametali. Tale sistema avrebbe dovuto esprimere la formula della


dichiarazione chiara e distinta relativamente ai metodi del ragionamento, sui
postulati ed i metodi di inferenza accettati dalla matematica. Hilbert stabilí inoltre,
che un sistema formale assiomatico, che comprenda tutta la veritá della
matematica debba essere coerente e completo 14. Per coerente va inteso che
non sia possibile dimostrare un enunciato e il suo contrario ossia se A allora
non-A non é dimostrabile. Per completo vuol dire che A o non-A devono essere
dei teoremi dimostrabili sulla base degli assiomi mediante le regole di inferenza
del sistema assiomatico formale in questione. Vi é un´analogia tra il sistema
formale assiomatico e il linguaggio di programmazione computistico, come
quest´ultimo, il primo posside un alfabeto, delle regole grammaticali ossia una
dichiarata sintassi. La postulazione di questo sistema portó Hilbert a confrontarsi,
sventuramente senza successso, con il problema della decidibilitá. Tuttavia
riportando questo problema al centro delle matematiche tenta di superare
difficoltá analoghe che furono poste in altre discipline quali la logica dall´opera di
Frege e di Russell-Whitehead. Hilbert interpreta il problema della decidibiltá
precisamente nei seguenti termini: “Risolvere il problema della decidibilitá per un
sistema assiomatico formale significa produrre un algoritmo capace di asserire
se un qualsiasi enunciato di senso sia o meno un teorema.” 15 Perció definisce il
problema della decidibiltá a livello procedurale: la procedura decisionale. Hilbert
insiste sul fatto che l´obbiettivo del sistema assiomatico formale sia una
procedura meccanica per verificare se una data prova sia corretta o meno, se
cioé obbedisce alle regole o meno. In tal modo si sarebbe in grado di costruire
un sistema assiomatico formale coerente e completo per tutte le matematiche:
dall´aritmetica elementare al calcolo sino all´algebra. Tuttavia la creazione di
simile procedura si rivela impossibile. La prima dimostrazione della indecidibiltá
che pone termine al sogno di Hilbert viene da Gödel. Nonostante il supporto di
von Neumann, Gödel contradice il suo padrino, che aveva tentato di applicare la
teoria di Hilbert ai numeri naturali piuttosto che ai numeri reali. Nel 1931 Kurt
Gödel dimostra ció che nessuno si sarebbe aspettato, men che meno von
Neumann, ossia che la procedura di decibilitá di Hilbert non era possibile in
termini matematici poiché manca di completezza. Nella definizione del primo
problema di incompletezza Gödel afferma:” In ogni formalizzazione coerente
della matematica che sia sufficientemente potente da poter assiomatizzare la
teoria elementare dei numeri naturali — vale a dire, sufficientemente potente da
definire la struttura dei numeri naturali dotati delle operazioni di somma e
prodotto — è possibile costruire una proposizione sintatticamente corretta che
non può essere né dimostrata né confutata all'interno dello stesso sistema.” 16
Questa affermazione invalidó anche un altro grande progetto del `900, che per

14
G. J. Chaitin, Randomness in Arithmetic and the Decline and Fall of Reductionism in Pure
Mathematichs, 314-328, in : Bullettin for European Association for Theoretical Computer Science,
5, June 1993. Da questo testo in inglese traggo e traduco alcune parti di queste note sulla
falsificazione della teoria di Hilbert da parte di Turing.
15
D. Hilbert, P. Bernays, Grundlagen der Mathematik, 1, J. W. Edwards (ed.), 1944.
16
K. Gödel, Über formal unentscheidbare Sätze der Principia Mathematica und verwandter
Systeme, I, Monatshefte für Mathematik und Physik, 38, 1931, 173-198.

11
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

la veritá aveva giá trovato delle critiche fondamentali in Betrand Russell 17 , ossia
quello di Gottlob Frege che con la sua opera Begriffschrift fu il primo fautore del
logicismo cioé della prospettiva secondo la quale l'aritmetica, in quanto costituita
da proposizioni analitiche, sarebbe riducibile alla sola logica.
Tramite questo suo progetto, Frege, dimostró che i giudizi dell'aritmetica
non sono, come aveva ritenuto Kant nella Critica della Ragion Pura, sintetici a
priori, ma piuttosto analitici, e pertanto sottoposti ad una dimostrazione
esclusivamente logica. Questa regola, in contrasto con Hilbert, non si sarebbe
potuta estendere, secondo Frege, visto la sua condivisione della nozione di
spazio con Kant, anche anche alla geometria. In due opere successive18, Frege
tenta di derivare esplicitamente le leggi dell'aritmetica da un sistema di assiomi
mediante un calcolo logico costituito da una serie di dipendenze deduttive nelle
quali era escluso ogni elemento intuitivo o non logicamente deducibile.
Considerato i limiti del linguaggio naturale - sulla cui critica si porranno le basi
dell´analitica linguistica strutturale di Ferdinand de Saussure e dei suoi discepoli,
e successivamente dei funzionalisti della scuola di Tarski e Carnap - e al fine di
realizzare questo progetto fu per Frege necessario ammettere la coazione
metodologica dell´uso di: "Una lingua composta da formule del pensiero puro a
imitazione di quello aritmetico." Ció fu, appunto, il linguaggio simbolico che venne
presentato nella Begriffschrift. Questo sistema simbolico, nonostante lo

17
La critica di Betrand Russell al V Principio di Frege, fu espressa in una lettera che scrisse a
Frege e che fu pubblicata in appendice alla sua opera monumentale. Tale critica afferma tra le
altre cose che: “(…) Sia w : il predicato essere un predicato che non può predicarsi di se stesso.
W può essere predicato di se stesso? Da ciascuna risposta segue l’opposto. Quindi dobbiamo
concludere che w non è un predicato. Analogamente non esiste alcuna classe (concepita come
totalità) formata da quelle classi che, pensate ognuna come totalità, non appartengono a se
stesse. Concludo da questo che in certe situazioni una collezione definibile non costituisce una
totalità”. Quest´affermazione venne esemplificata con il famoso paradosso del barbiere attributo
non è chiaro se a Russell o a Ernst Zermelo o, se si vuole andare al pensiero ellenico pre-
platonico, vi è anche il paradosso del mentitore di Epimenide di Creta (VI secolo a.C.), il quale,
cretese egli stesso, ebbe a dire, secondo quanto riporta Diogene Laerzio, che “Tutti i cretesi sono
bugiardi”. Anche Ernst Zermelo, matematico e filosofo tedesco (1871 –1953), con la sua teoria
assiomatica degli insiemi ha contributo allo studio e superamento dei paradossi e alla fondazione
della moderna teroria degli insiemi. Sin dal 1904 riuscì a compiere il primo passo suggerito da
Hilbert circa l'ipotesi del continuo, una congettura di Cantor, quando provò il teorema del buon
ordinamento utilizzando l'assioma della scelta che è un altro capitolo del problema della
decidibilitá. Il suo sistema, costituito dai seguenti sette assiomi: (1) dell´estensionalitá (Axiom der
Bestimmtheit), (2) degli insiemi elementari (Axiom der Elementarmengen), (3) della separazione
(Axiom der Aussonderung), (4) degli insiemi di potenza (Axiom der Potenzmenge), (5) dell´unione
(Axiom der Vereinigung), (6) della scelta (Axiom der Auswahl), (7) degli infinti (Axiom des
Unendlichen); verrà successivamente migliorato nel 1922 dagli studi indipendenti di Adolf
Fraenkel e Thoralf Skolem, diventando, appunto, il sistema formale comunemente denominato
Zermelo-Fraenkel che ha contribuito, oltre che alla teoria di giochi, ai fondamenti dei linguaggi a
oggetti e della teoria degli insiemi. Vedi: J. van Heijenoort, From Frege to Godel: A Source Book,
Mathematical Logic, 1879-1931, Harvard University Press, 1967; e W. B. Ewald (ed.), From Kant
to Hilbert: A Source Book in the Foundations of Mathematics, v. 2, Oxford University Press,
1996, 1219-1233.
18
Nelle seguenti opere Gottlob Frege tentò di fondare l'aritmetica sulle basi della logica: Die
Grundlagen der Arithmetik: eine logisch-mathematische Untersuchung über den Begriff der Zahl,
Breslau, 1884, e Grundgesetze der Arithmetik, Jena, 1, 1893, e 2 , 1903.

12
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

straordinario contributo finalizzato alla costruzione di un linguaggio artificiale in


grado di rappresentare giudizi e enunciati, che sembra riportare in auge le
ipotesi di Leibniz della characteristica universalis e del calculus ratiocinator, fu
lentamente sostituito, lungo il corso dello sviluppo della logica simbolica del ´900,
dalle semplificazioni introdotte dapprima da Peano 19 e successivamente
dall´opera di Russell-Whitehead.
Il fallimento del progetto di Hilbert fu definitivo quando nel 1936 Alan
Turing publica il suo celebre lavoro sui numeri computabili 20 che lo porterá ad
inventare la ben nota Turing machine. In quest´opera, il problema della
decidibilitá, che Gödel aveva criticato in Hilbert attraverso il corollario, non
irrilevante, della completezza, viene affrontato introducendo un metodo, relativo
appunto ai numeri computabili, chiamato arresto del calcolo, meglio noto in
inglese con il nome di the halt problem che è un altro modo di affrontare il
tedesco Entscheidungsproblem.
L´argomentazione portata da Turing applicando la procedura della
diagonale di Cantor 21 al cosidetto problema della fermata o dell´arresto , mette
fine in maniera definitiva al sogno del sistema universale assiomatico formale di
Hilbert. Il presupposto di Turing parte dal fatto che un numero reale, quale ad
esempio 3,1415926.. , é un numero infinito di cifre misurato con precisione
arbitraria. E un numero reale computabile, aggiunge Turing, é soggetto al
calcolo da parte di un programma o algoritmo che sia in grado di restiture il
numero esatto di ogni cifra di cui é composto. Tuttavia vi é un eccezzione da
considerare, ossia, che i numeri reali computabili sono denumerabili 22, come
dice la set theory, ma i numeri reali in quanto tali, non lo sono. L´idea di Turing,
dunque, si articola su un esempio teorico, poiché impraticabile ai tempi in cui
non vi era ancora la sua macchina, che dimostra l´imprevidibiltá del calcolo
relativamente all´interruzione di un dato programma computistico. Questo
esperimento immaginario é riassumibile come segue. Immaginiamo di poter
scrivere una lista di tutti i possibili programmi di una macchina di calcolo. Questa
lista potrebbe contenere il progamma (1), il programma (2) e cosi via. Se
consideriamo il fatto che ogni programma é definito in termini binari potremmo
pensare che ad ogni programma corrisponda un numero naturale. Quindi, se
ogni programma é cosí definibile, saremmo in grado di scrivere, assieme al
numero naturale al quale corrisponde il nome del programma, anche il numero
19
H. C. Kennedy, Peano - storia di un matematico , Boringhieri 1983. Gli studi di Peano sulla
numerazione in base e su quella binaria contribuirono allo sviluppo del calcolatore ternario. Vedi
G. Peano, La numerazione binaria applicata alla stenografia, Opere scelte, 3, 352-359.
20
A. Turing, On Computable Numbers, with an application to the Entscheidungsproblem,
Proceeding of the London Mathematical Society, 42 , 1936, 230-265.
21
Questa procedura fu introdotta come paradosso per la dimostrazione della non numerabilitá dei
numeri reali. Tale tecnica appunto si basa sull´assurdo della possibile corrispondenza biunivoca
dei numeri reali con i numeri naturali. L´idea vuol dimostrare che i numeri reali intermedi tra 0 e 1
possano essere defininiti come una successione completa che peró non è dimostrabile.
22
Questa eccezione, non è di poco conto ai fini della dimostrazione di Turing, ed è definita come
segue: “Sono i numeri reali esprimibili con una notazione posizionale in una qualche base ed essi
sono costituiti da una sequenza finita di cifre o da una successione illimitata di cifre che può
essere generata da una procedura ben definita in grado operare illimitatamente”.

13
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

reale che computa nel caso in cui ne computasse uno (vi é anche il caso che
simile computazione non abbia luogo). Nel caso in cui l´esecuzione della
scrittura relativa al programma dovesse scrivere un numero infinito di numeri,
dovremmo poterli scrivere tutti. Ammettiamo che, nella nostra lista risulti per il
programma (1) il numero reale 3,1415926.. e per il programma (2) il numero
reale 4,1616892.., e per il programma (N) un´altro ancora, e cosi via, ossia {(p1)
3,1415926..}, e sulla linea successiva, {(p2) 4,1616892..} e cosí di seguito.
Dunque abbiamo una lista di numeri reali computabili. Tuttavia, qualche
programma non restituisce un numero infinito di numeri poiché per una ragione
non determinabile interrompe la computazione. Ció vuol dire che di fianco al
nome di quel programma, il suo numero naturale, vi sará una linea vuota {
(p5)… }. Bisogna pensare a questa sequenza di numeri come ad una matrice,
ossia, posti uno sottostante l´altro. Su questa matrice Turing applica la
diagonale di Cantor, che implica un procedimento di sostituzione della serie
numerica ai fini della prova. Ossia, dice Turing, prendi il primo numero dopo la
virgola della prima riga, poi prendi il secondo numero dopo la virgola della
seconda riga, e cosi via, ossia, ad ogni nuova riga, la scelta del numero
aumenta, relativamente alla posizione precedente, di uno (riga 1 n. 1, riga 2 n 2,
riga 3 n. 3 etc.). Cosí facendo si prenderanno tutti i numeri della diagonale della
matrice in questione. Il risultato sará un numero reale sul quale, dice Cantor,
esegui una sostituzione creando un nuovo numero reale dopo la virgola.
Ovviamente, tale numero non é rinvenibile nella lista, anche per via del
modo con cui é stato generato, ma per tale ragione risulta non computabile.
Ossia il numero risultante dal procedimento di sostituzione é un reale non
computabile. Dunque questa dimostrazione spiega che non vi é nessun
algoritmo, nessuna procedura meccanica, in grado di decidere se l´ennesimo
programma produca l´ennesima cifra di quel numero reale. Cade cosí il
presupposto di Hilbert secondo il quale dal suo sistema formale assiomatico
sarebbe dovuta dipendere tutta la veritá matematica. Poiché, se ció fosse
possibile, sarebbe anche possibile produrre un algoritmo in grado di stabilire con
precisione se un programma si possa interrompere o meno. Tuttavia, Turing
sviluppa e crea una macchina che ha prodedimenti decidibili cosí da fondare le
premesse della moderna logica-meccanica computistica 23.
Dunque, le argomentazioni sulla decidibilitá impegnano tutte le scuole di
pensiero logico, matematico, ingegneristico, e vedremo anche linguistico, poiché
al di lá delle problematiche decisionali inerenti il trattamento e l´analisi delle
lingue naturali, vi era, e proprio nel linguaggio formale, la necessitá di definire
una self-reference semantics, ossia una semantica dimostrabile o funzionale
riflessiva, che appunto é, per cosí dire, un parente stretto della decidibilitá.
La decidibiltá fu al centro degli studi di un altro grande logico-matematico
polacco, Alfred Tarski, che sin degli anni ´20 -´30 del ´900, facendo parte della

23
Poiché la macchina di Turing é per definizione una macchina formale, e gli studi sul suo
comportamento meccanico possono essere trovati a diverso livello di complessitá in rete non
riteniamo, visto lo spazio limitato di questo intervento, aggiungere qui questi, per altro non
irrelevanti, dettagli.

14
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

celebre Scuola di Varsavia 24, si concentró sulla definizione dei linguaggi formali.
Questo, dei linguaggi formali, fu un tema comune a diverse scuole logiche
europee e americane dal quale dipese molta parte dello sviluppo tecnologico
delle macchine computazionali, che attraverso la nascita dell´intelligenza
artificiale, introdotta da John McCarthy, Marvin Minsky, Allen Newell e Herbert
Simon alla conferenza del Dartmouth College del 1956, giunge sino alle
problematiche dei metalinguaggi trattati dal web consortium sui quali si basa oggi
la comunicazione del web.
Il problema dei metalinguaggi, ossia una lingua formale capace di
rappresentare stati e relazioni funzionali tra gli oggetti e la lingua, fu espresso da
Traksy in maniera ancora congetturale tra il 1929 e il 1931 prima della
pubblicazione del citato teorema dell´incompletezza di Gödel. Infatti, se si
seguono le vicende relative a queste attivitá della ricerca di Tarsky, ricostruite
egregiamente da Roman Murawski 25 nel 1998, si scopre che in realtá il suo
teorema della non-definibilitá, fu presentato per la prima volta a latere di un
discorso, fatto alla Accademia delle Scienze polacca nel 1929, il quale poi, solo
nel 1936, venne tradotto in tedesco con il titolo di Der Wahrheitsbegriff in den
formalisierten Sprachen 26. Queste brevi informazioni sulla cronologia sono
rilevanti, non tanto per stabilire la primigenitura di un idea quanto per far notare
che, appunto, l´idea della decidibilitá e delle asserzioni formali ad essa connesse
furono il fulcro, e assieme l´ossessione, della discussione logica del pensiero
analitico di tutto il ´900. Il problema posto da Tarski sará centrale in tutto lo
sviluppo successivo di quelli che comunemente chiamiamo oggi linguaggi di
programmazione.
L´ argomentazione di Tarski a riguardo puó essere semplificata come
segue. Il teorema della non-definibilitá o indefinibilitá espone un limite intrinseco
alla sintassi, accettata dopo Gödel, nell´aritmetica del primo ordine, nel quale si
afferma che ad ogni espressione del linguaggio dell´aritmetica si possa
assegnare un numero distinto. Questa procedura, che in vari contesti porta il
nome, appunto, di numerazione di Gödel, é la codificazione o piú in generale l´
aritmetizzazione. Ossia un certo insieme di espressioni sono codificabili come un
dato insieme di numeri. Si scopre che sulla base di alcune proprietá sintattiche di
questi insiemi quali ad esempio essere una formula o essere un enunciato e cosi
24
L´universitá di Varsavia, dopo l´indipendenza della Polonia, ottenuta nel 1918, sotto la
direzione di !J!. L!u!k!a!s!i!e!w!i!c!z!,! !S! !L!esn!i!e!w!s!k!i! e !W!. !S!i!e!r!pins!k!i! !divenne una delle istituzioni di
avanguardia relativamente ai !fondamenti della filosofia analitica e della logica-matematica. Alfred
Trasky (Alfred Teitelbaum il suo vero nome) cominció in quest´universitá i suoi studi di logica-
matematica abbandonando quelli di biologia. Lasció la Polonia nel 1939 alla volta degli Stati Uniti
dove svolse la sua attivá in diverse universitá per stabilirsi all´universitá di Berkeley sino alla
morte nel 1983.
25
R. Murawski, Undefinability of Truth. The Problem of Priority: Tarski Vs Gödel, History and
Philosophy of Logic,19, 3, 1998,153-160.
26
!A!. T!a!r!s!k!i!,! !P!oj!ecie !P!rawdy! !w! !Jezykach Nauk Dedukcyjnych!!,! ! T!o!w!a!r!s!z!y!s!t!w!o! !N!a!u!k!oe!w!e!
!W!a!r!s!z!a!w!s!k!i!e!,! !W!a!r!s!z!a!w!a!,! !1!9!3!3!. Tradotto in tedesco: A. Tarski, Der Wahrheitsbegriff in den
formalisierten Sprachen, Studia Philosophica 1, 1936, 261-405. Questo lavoro è stato tradotto in
inglese nel 1956. Noi usiamo qui insieme alla versione tedesca citata, anche la seconda edizione:
A!. T!a!r!s!k!i!,! Logic, Semantics, Metamathematics: Papers from 1923 to 1938 by Alfred Tarski, J. H.
Woodger (trad.), J. Corcoran (ed.),, Oxford University Press, 1983.

15
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

via, esse siano computabili e pertanto, viceversa, ogni insieme computabile puó
essere definito da una formula aritmetica. Il, teorema della non-definibilitá mostra
che questa codificazione non funziona se cerca di definire concetti semantici
quali ad esempio il concetto di verità. Cioé, si dimostra che: nessun linguaggio
interpretato 27 sufficientemente ricco possa rappresentare la propria semantica. A
corollario di questa definizione primaria, Tarski aggiunge una nota decisiva.
Ossia che ogni metalinguaggio capace di esprimere la semantica di un qualsiasi
linguaggio oggetto deve avere una capacitá espressiva superiore a quella del
linguaggio oggetto stesso. A tal rigurado Tarski dice: “Si dovrebbe dare una
rigida distinzione fra il linguaggio che è l'oggetto del nostro studio e per il quale in
particolare si vuole costruire la definizione di verità e il linguaggio nel quale la
definizione deve essere formulata e le sue implicazioni studiate. Quest'ultimo
verrà detto metalinguaggio, e il primo, linguaggio oggetto. Il metalinguaggio deve
essere sufficientemente ricco; in particolare deve contenere come parte il
linguaggio oggetto. Infatti secondo le nostre convenzioni una definizione
adeguata di verità implicherà come conseguenze tutte le definizioni parziali di
tale concetto, cioè tutte le equivalenze della somma (3): “p” è vera se e solo se p,
dopo “p” va sostituita in ambo i membri dell'equivalenza con una proposizione
arbitraria del linguaggio oggetto. Giacché tutte queste conseguenze sono
formulate nel metalinguaggio, se ne conclude che ogni proposizione del
27
Spiegare cosa sia il linguaggio interpretato non computisticamente, che è normalmente
contrapposto a quello compilato, è un po´complesso. Tuttavia cercheremo qui di esemplificare
cosa, in logica, e specie nel caso di Tarski, significhi la nozione di linguaggio interpretato. Per
assegnare un senso compiuto agli enunciati nelle lingue del primo-ordine é neccessario una
interpretazione, che, soddisfi le seguenti condizioni: (1) Un dominio del discorso D, postulato
come non-vuoto; (2) per ogni simbolo costante, un elemento di D, é una sua interpretazione; (3)
per ogni simbolo di una funzione ennaria, una funzione ennaria tra "D" e D, é una sua
n
interpretazione, cosicché la funzione D implica D; (4) per ogni simbolo di un predicato ennario
(un rapporto di relazione uno a molti che nella congiunzione logica puó diventare molti a molti),
n
una relazione ennaria su D, é una interpretazione, cioé a dire, un sottoinsieme di D . Un oggetto
che ha simili informazioni é noto con il nome di struttura (L-struttura) o anche come modello.
L´informazione che é data dall´interpretazione é sufficente per esprimere un valore di veritá delle
singole formule, dopo che ognuna delle loro variabili indipendenti, se ve ne sono, sia sostituita
da un elemento del dominio in questione. Il valore di veritá di un enunciato arbitrario é definito
induttivamente usando quello che Traski, nella definizione della semantica del primo-ordine,
chiamaT-schema. Quest´ultimo interpreta la connettivitá logica usando le tavole della veritá. Il T-
schema o schema della veritá é usato per dare una definizione induttiva della veritá che é
appunto il focus di ogni realizzazione della teoria semantica della veritá di Traski. Viene altrimenti
chiamato, a partire da una definizione dell´esegeta fregeriano inglese Sir Michael Dummett,
schema di equivalenza che é un derivato del principio di bivalenza (vedi: M. Dummett, Truth and
Other Enigmas, Harvard University Press, 1978). Il T-schema é espresso frequentemente nei
linguaggi naturali ma puó essere formalizzato in diverse tipologie di logica dei predicati o anche in
logica modale; la sua formalizzazione si chiama T-theory ed é alla base di fondamentali contributi
della logica nelle controversie della filosofia analitica. Tuttavia, il filosofo canadese Joseph Heath
afferma che:"L´analisi tarskiana della veritá, garantita dal T-schema, non é in grado di gestire
tutte le occorenze di veritá dei linguaggi naturali. In particolare il T-schema tratta soltanto gli
elementi autonomi della casistica dei predicati quando si applica ad enunciati completi" (J. Heath,
Communicative Action and Rational Choice, MIT Press, 2001, 186). Infatti si limita all´evidenza di
problemi ovvi come l´enunciato: "Tutto ció che Mario crede essere vero". Heath aggiunge che
analizzando questa frase con il T-schema si genera solo un frammento "ció che Mario crede",
appunto, sulla colonna destra della tavola bicondizionale.

16
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

linguaggio oggetto dev'essere anche una proposizione del metalinguaggio.


Inoltre, il metalinguaggio deve contenere nomi per proposizioni (e altre
espressioni) del linguaggio oggetto, giacché questi nomi compaiono nel primo
membro delle equivalenze del tipo (3). Esso deve anche contenere alcuni altri
termini che occorrono per lo studio del linguaggio oggetto, e precisamente
termini che denotino certi particolari insiemi di espressioni, relazioni fra
espressioni e operazioni sulle espressioni; per esempio, deve esserci la
possibilità di parlare dell'insieme di tutte le proposizioni e dell'operazione di
giustapposizione, mediante la quale da due espressioni se ne forma una nuova
ponendo una delle due immediatamente di seguito all'altra. Infine, nel definire la
verità, si vede che i termini semantici (quelli che esprimono le relazioni tra le
proposizioni del linguaggio oggetto e gli oggetti a cui tali proposizioni si
riferiscono) possono essere introdotti nel metalinguaggio mediante definizioni. Se
ne conclude che un metalinguaggio che fornisca mezzi sufficienti a definire la
verità deve essere essenzialmente piú ricco del linguaggio oggetto, esso non
può coincidere né essere traducibile in quest'ultimo, giacché altrimenti ambedue
risulterebbero semanticamente universali, e l'antinomia del mentitore sarebbe
ricostruibile in entrambi.[...] “ 28.
Infatti, il metalinguaggio include nozioni primitive, assiomi e regole assenti
nel linguaggio oggetto, cosicché vi sono teoremi dimostrabili nel metalinguaggio
che sono indimostrabili nel linguaggio oggetto. Quindi, questo teorema afferma
che data una aritmetica formale, il concetto della veritá in essa non é definibile
usando l´espressivitá di quell´aritmetica. Ció implica una forte limitiazione
relativamente alla sua auto-rappresentazione. E´dunque possibile definire una
formula cosí espressa Vero(n) la cui estensione é T*, ma solo creando una
metalingua la cui espressivitá superi quella di L , ossia la lingua di
quell´aritmetica. In altri termini, un predicato della veritá per l´artmetica del primo-
ordine 29 puó essere definito solo nell´aritmetica del secondo-ordine. Tuttavia,
questa formula sará capace di definire predicati di veritá solo in L ossia nella
aritmetica del primo-ordine. Per concludere, quindi, al fine di definire un predicato
di veritá di un qualsivolglia metalinguaggio ci sará sempre bisogno di un meta-
meta-linguaggio piú espressivo del primo, e cosi via. Un altro modo di porre
questo problema é stato definito dal filosofo e scienziato polacco Alfred Habdank
Skarbek Korzybski nella sua nota tesi mappa/territorio che afferma, anche se in
maniera piú semplice ma efficace, l´esclusione dell´autoreferenzialitá semantica
del linguaggio rispetto agli oggetti dicendo: “A map is not the territory!” 30
Il teorema di Tarski non era pensato esclusivamente per le matematiche
quanto piuttosto relativo ad ogni limite possibile per qualsiasi lingua formale che
mediante la propria espressivitá avesse potuto o voluto rappresentare

28
A. Tarski, Truth and Proof , trad. it. In: E. Casari, La filosofia della matematica del ‘900 ,
Sansoni, Firenze, 1973, 80-84. (Il corsivo è nostro).
29
Secondo la definizione di Peano che recita: “Nel linguaggio dell'aritmetica del primo ordine non
ci sono simboli per indicare insiemi di numeri naturali, tuttavia un insieme può essere individuato
con una formula aperta che interpretata nel modello standard esprima la condizione necessaria e
sufficiente che deve soddisfare un numero naturale per appartenere a quell'insieme”.
30
A. Korzybski, Science and Sanity: An Introduction to Non-Aristotelian Systems and General
Semantics, preface by Robert P. Pula, Institute of General Semantics, 1994.

17
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

oggettivamente un qualsiasi ente della realtá. Infatti, Tarski usando un metodo


esclusivamente sintattico dimostró un teorema che si puó applicare a
qualsivoglia linguaggio formale dotato di negazione e con una sufficiente
capacitá riflessiva garantita dalla procedura del cosiddetto diagonal lemma 31 -
un altra forma della diagonale di Cantor che abbiamo visto in Turing.
L´aritmetica del primo-ordine soddisfa questi requisiti ma il teorema puó
essere applicato anche a sistemi formali molto piú generali. Per tale ragione
l´influenza del teorema di Tarski ha una implicazione filosofica che supera la
logica-matematica. Questo problema, a partire dalle assunzioni della pragmatica
di Pierce e successivamente nelle teorie del linguaggio funzionale di Carnap e
l´olismo di Quine saranno parte, come vedremo, delle fondazioni concettuali, per
cosí dire, di ogni computistica futura.
Per chiudere questa sintesi sulle teorie di Tarski, e per chiarire quale
fosse il suo obbiettivo finale, andrebbe forse sottolineato che tra le sue
asserzioni fondamentali, concernenti il teorema della non-definibilitá, aggiunse
tardivamente che nel linguaggio (formale) interpretato esiste una forte tendenza
a produrre una semantica autoreferenziale, ossia una semantica riflessiva, e ció
precisamente quando la lingua formale contiene predicati e simboli funzionali che
definiscono tutti i concetti semantici specifici di quella lingua. Perció le funzioni
necessarie includono anche la funzione di valutazione semantica che come la
formula A valida il suo valore di veritá su !!A!!, ossia A assoluto, avendo la
funzione di denotazione semantica, identifica o mappa anche un dato termine t
con l´oggetto che denota. Tarski generalizza questa fenomenologia come segue:
“Nessun linguaggio espressivo é tale da essere sufficientemente
semanticamente auto-rapresentativo.”
Per poter capire come i metalinguaggi, che sono stati esercizi fondativi
della computistica e come essi abbiamo potuto crescere nel corso del ´900, dalla
prima guerra mondiale sino a giungere con successo al loro sviluppo
contemporaneo, é forse il caso di tornare, per un momento, alle radici dell´analisi
del linguaggio naturale che appunto trovó nel pragmatismo anglofono della
seconda metá dell´ 800, la sua, per quanto ai tempi non molto ascoltata, voce
migliore, cioé nella fondazione della semiotica e della semiotica formale che é

31
La procedura detta diagonal lemma si applica a quelle teorie capaci di rappresentare tutte le
funzioni ricorsive primitive, ossia, nella teoria della calcolabiltá, esse sono una classe di funzioni
che ne garantiscono la formalizzazione completa e sono decisive nella teoria della validazione o
altrimenti detta della soddisfazione. Queste teorie includono l´aritmetica di Peano e nondimeno
anche quella piú debole di Robinson. Questa procedura è connessa direttamente al teorema
della ricorsione/ricorsivitá di Kleene nella teoria della computabilitá e infatti le prove sono simili. Il
primo ad introdurre, come vedremo piú avanti, questa procedura fu il lavoro di Carnap che spiega
il linguaggio alternato come un concetto di funzioni computabili e fu sempre Carnap a credere
che il diagonal lemma fosse implicito nel ragionamento di Gödel. Vedi: E. Mendelson,
Introduction to Mathematical Logic, 4th ed. Chapman & Hall, 1997, 204; e anche: R. Carnap,
Logische Syntax der Sprache, 1934. In logica matematica il diagonal lemma o teorema del punto
fisso, introduce l´esistenza di enunciati riflessivi all´interno di certe toerie formali dei numeri
naturali, specialmente per quelle teorie che siano sufficentemente robuste da rappresentare tutte
le funzioni computabili. Quegli enunciati la cui esistenza è garantita dal diagonal lemma, sono
usate a rotazione anche per dimostrare teoremi quali quello dell´incompletezza di Gödel o
ancora, appunto, quello della indefinibilitá di Tarski.

18
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

rinvenibile nelle opere, ancora in gran parte inedite, del filosofo e logico-
matematico americano Charles Sanders Peirce 32. Sintetizzare il lavoro e il
contributo di Pierce é semplicemente impossibile, visto l´ampiezza dei temi che
ha trattato, e la profonditá delle sue analisi in ognuno di essi. Perció qui ci
limiteremo a trattare soltanto della sua teoria dei segni e brevemente dei
fondamenti della logica relazionale. Con la sua teoria dei segni, Pierce, divvenne
il fondatore della logica quale semiotica formale. Questa posizione deriva da
alcune conclusioni che Peirce fece, nel suo vasto tentativo di analizzare
mediante una filosofia formale, l´articolazione dei processi del pensiero e nel
tentativo di spiegare il funzionamento della scienza. Dunque la sua semiotica é
basata su una nozione estremamente generalista del concetto di segno e di
inferenza. Questa disciplina ha il compito di spiegare come funziona la
conoscenza, la scienza in particolare e chiarire come si formano e si sviluppano i
metodi di indagine. In una lezione tenuta alla Johns Hopkins University nel 1882
Peirce affermava che, apparentemente, egli non avrebbe fatto altro che
proseguire ció che giá la logica medioevale, di scuola aristotelica, aveva fatto,
ossia affermare, che mediante una serie di principi metodologici universali, si
potesse spiegare l´arte con l´arte e la scienza con la scienza 33, quindi seguire
una delle forme del cosidetto realismo scolastico 34. Infatti ció che Pierce aveva

32
Charles Sanders Peirce (1839 –1914) fu un intelletuale poliedrico, in quanto si occuppó di
filosofia, fondando il pragmatismo, ma anche di logica e matematica e scienze naturali. Purtroppo
l´apprezzamento dei suoi risultati scientifici, che nel novecento fu straordinario, non gli fu
riconosciuto durante il corso della sua vita. Oltre a fondare il pragmatismo, studió con grande
anticipo le implicazioni della logica booleana sulla logica algebrica e su quella filosofica e la
notazione matematica che appunto, come abbiamo visto sopra, risolse Trasky. Vedi in italiano:
C. Sini, Il pragmatismo americano, Laterza, Bari 1972; sulla semiotica vedi: A. Fumagalli, Il reale
nel linguaggio. Indicalità e realismo nella semiotica di Peirce, Milano 1995.
33
C. S. Peirce, Introductory Lecture on the Study of Logic, Johns Hopkins University Circulars ,
1882, 2, n. 19, 11.
34
Il realismo scolastico è noto in forma duplice a seconda che la realtà degli universali venga
concepita, vuoi come trascendente rispetto agli individui, ossia il realismo estremo platonico che
postulava l’esistenza degli universali ante rem, oppure, come immanente negli individui, ossia, il
realismo aristotelico, che postulava l’esistenza degli universali in re. In epoca medieovale, il
fondatore del realismo scolastico, propriamente detto, fu Guillaume de Champeaux. Tra i suoi
seguaci vanno ricordati, oltre a Tommaso d´Aquino, anche Anselmo d’ Aosta, John Duns Scoto e
Mosche ben Maimon latinizzato Moses Maimonides. Con il nome di realismo è consuetudine
descrivere ogni forma di gnoseologia che presupponga l´esistenza ontologica dell’oggetto della
conoscenza, indipendentemente dall´indagine conoscitiva. Di questo realismo moderno, d’altra
parte, infinite possono essere le forme, per i diversi modi nei quali è dato concepire e limitare
l´immanenza del reale. Così, recentemente, il realismo è stato adottato dalle correnti denominate
realismo logico, realismo critico, realismo fenomenologico, ed ha esercitato, non da ultimo, su
pensatori quali, appunto, Pierce o Russell e Whitehead, e gran parte dei logici del novecento,
un´influenza notevole. Questi erano preoccupati di individuare un mondo astratto decidibile,
ritenuto stabile mediante una rappresentazione formale coerente e completa, che le varie forme
di soggettivismo, mediante la teoria dialettico-critica hegeliana, minacciavano di fondare sulla
nozione incontrollabile dell´arbitrio ontologico del divenire, ossia dell´esperibile individuale, cioè il
soggetto ontico. Perció, in generale, si possono definire realisti coloro che sostengono la
decidibilitá di una data realtà oggettiva dipendente da concetti universali che si oppongono alle
astrazioni sintattiche del nominalismo, di cui, in epoca medioevale, fu caposcuola William of
Ockham. Il nominalismo, termine comparso per la prima volta in latino nel XII secolo, è quella
dottrina filosofica per la quale solo il soggetto ontologico isolato ha sostanza reale, mentre i

19
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

fatto, era studiare i processi di inferenza degli Analitici Primi di Aristotele e


suddividerli in tre diverse modalitá escludendo il paradeigma che secondo lui era
parte integrante dell´abduzione che é fallibile, della deduzione e dell´induzione.
La scrittura delle opere relative alla semiotica o semeiotica risale giá al 1860
dove si da inizio a quella che divenne famosa con il nome di concezione triadica
relazionale dei segni che genera la semiosi ossia l´atto conoscitivo nel suo
insieme. Esso é costituito appunto da tre soggetti: il segno, il suo oggetto e
l´interpretante. Questa relazione trivalente non puó mai essere risolta in una
relazione binaria 35. Infatti, Peirce, afferma che: “To say, therefore, that thought
cannot happen in an instant, but requires a time, is but another way of saying
that every thought must be interpreted in another, or that all thought is in signs”
36
. Dunque ogni cosa é segno, non quale ente isolato della realtá, ma piuttosto
pensato come mediatore di relazioni che generano senso. Infatti Peirce definisce
tre diversi ruoli nella sua definizione riflessiva di semiosi. Appunto il segno in
quanto tale, il soggetto materiale chiamato oggetto e il senso del segno, ossia
ogni possibile tipo di sua ramificazione, chiamato interpretante. Questi tre ruoli
implicano che, un dato segno di un dato oggetto puó implicare uno o piú
interpretanti che, anche essi intesi come segni, possono generare altri
interpretanti e cosí via. Poiché non possiamo dilungarci sul complesso apparato
formale che é sotteso da queste affermazioni fondative, in quanto ci porterebbe a
dover analizzare tutte le definizioni segniche che Peirce, come Frege nel suo
Begriffschrift, ha inventato, ci limiteremo a dare la definizione di quelle che
vennero chiamate le tre tricotomie. La Prima tricotomia: dipendetemente dal fatto
che il segno in se stesso, sia pura qualità, esistente effettivo, o legge. La
Seconda tricotomia: dipendetemente dal fatto che la relazione fra segno e
oggetto sia deducibile dalla qualità del segno, da una relazione esistenziale
segno-oggetto, oppure da una legge. La Terza tricotomia: dipendetemente dal
fatto che l’interpretante rappresenti il segno come segno di possibilità, di un dato
fenomeno, o di una data ragione. Queste tricotomie, a loro volta, possono avere
relazioni tra loro, nelle quali, un certo segno con un certo ruolo formale, potendo
essere usato al posto di un altro, tenta di ovviare all´ambiguitá o alla
ridondanza37. Questo sistema fu derivato da Pierce dai suoi studi di logica

concetti generali che definiscono le singole individualità non possiedono alcuna sostanza ma
costituiscono, per cosí dire, solamente i nomi degli insiemi, ai quali gli individui appartengono.
Nomi, questi, a cui non corrisponde alcuna sostanza concreta. Il nominalismo concepisce cosí i
concetti, non come sostanze esistenti realmente in natura, ma soltanto, appunto, come nomi,
ossia come puri oggetti della mente.
35
C. S. Peirce, Collected Papers , 1907, 5.484. In italiano la relazione segno ! oggetto !
interpretatnte è chiamata anche tricotomia.
36
C. S. Peirce, Questions concerning certain Faculties claimed for Man, Journal of Speculative
Philosophy, 1868, 2, 103.
37
Le tipologie dei segni di queste tricotomie si possono riassumere come segue: (1ma T.)
Qualisegno: è una qualità che è un segno; Sinsegno: è una cosa o un evento effettivamente
esistente che è un segno; Legisegno: è una legge che è un segno. (2da T.) Icona: è un segno
che si riferisce all’oggetto in virtù di caratteri suoi propri; sono icone, ad esempio, le immagini e i
diagrammi; Indice: è un segno che si riferisce all’oggetto in virtù del fatto che è determinato da
quell’oggetto, tipo il cartello stradale con la freccia che indica la direzione di marcia; Simbolo: è
un segno che si riferisce all’oggetto in virtù di una legge; i simboli, come tutti i legisegni, hanno

20
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

relazionale che terminó negli anni ´90 dell´800 38. Infatti gran parte della
matematica relazionale, oggi considerata ovvia, fu per cosí dire presa in prestito,
spesso senza il dovuto riconoscimento, anche da figure storicamente rilevanti
come Bertrand Russell che, come sostiene Anellis, la usa silenziosamente nelle
sue opere piú celebri 39. Tuttavia il riconoscimento del contributo fondamentale
di Peirce alla logica simbolica comincia sin dal 1918 da parte del logico Clarence
Irving Lewis 40 e continua sino agli anni quaranta, quando Tarski e i suoi allievi
svilupparono l´algebra relazionale sulla base della riscoperta della sua logica
relazionale. Questa ebbe applicazioni in svariati campi, quali l´algebra astratta di
Eliakim Hastings Moore o la teoria del lattice di Garrett Birkhoff, ma piú che altro,
l´influenza piú profonda fu nella computistica, quando Edgar Codd, insieme a
Raymond Boyce, nei primi anni sessanta del ´900, svilupparono il modello delle
basi dati relazionali. E´ da notare che Codd fu un dottorando di Arthur Burks che
come Birkhoff, fu un noto studioso di Pierce. Questa definizione tridaica con le
implicazioni formali che sottende non fu esclusivamente un idea di Peirce. Infatti,
benché non si abbiano notizie relativamente ad un influenza reciproca tra Peirce
e il fondatore dello strutturalismo Ferdinand De
Saussure 41 , anche quest´ultimo svilupperá nel
corso dei suoi studi sulla linguistica una teoria dei
segni basata su una triangolazione, chiamato
triangolo semiotico, nel quale si afferma come il
funzionamento generale delle lingue naturali sia
basato sulla relazione tra significato, significante e
referente.

repliche; le loro repliche sono sinsegni indicali. (3za T.) Rema: è un segno che è interpretato
come segno di possibilità qualitativa; Dicisegno: è un segno che è interpretato come segno di
esistenza effettiva; Argomento: è un segno che è interpretato come segno di legge. Per
distinguere gli argomenti, Peirce, li classifica come abbiamo visto in: abduzione, deduzione e
induzione. Vedremo piú avanti come questo formalismo ricomaprirá, alla fine degli ´70 del
novecento con nelle ontologie formali, con il il nome generico di synset e come questi tentativi di
Peirce furono i primi ad indivudare un elemento di collisione e elisione insieme dei due paradigmi
di conoscenza umanistico e scientifico.
38
C. S. Peirce, The Logic of Relatives, Lecture 3, Reasoning and the Logic of Things , 146–64, e
151.
39
H. I. Anellis, Peirce Rustled, Russell Pierced: How Charles Peirce and Bertrand Russell Viewed
Each Other's Work in Logic, and an Assessment of Russell's Accuracy and Role in the
Historiography of Logic, Modern Logic, 1995, 5, 270–328.
40
C. I. Lewis, A Survey of Symbolic Logic , 1918, vedi cap. 1, §7 Peirce, 79–106. dove dice: "The
contributions of C.S. Peirce to symbolic logic are more numerous and varied than those of any
other writer - at least in the nineteenth century."
41
C. Bally, A. Riedlinger, A. Sechehaye (eds.), Cours de linguistique générale , Lausanne-Paris,
Payot, 1916. Vedi trad. it: T. De Mauro (ed.), Ferdinand de Saussure. Corso di linguistica
generale, Roma-Bari, Laterza, 1967. Ferdinand de Saussure nacque a Ginevra nel 1857.
Abbandonò i corsi di chimica e fisica per dedicarsi alla linguistica. Si laureò presso l'università di
Lipsia nella scuola dei neogrammatici facente capo a Karl Brugmann, e perfezionò i suoi studi a
Parigi. Ancora studente, pubblicò la sua prima opera, Memoria sul sistema primitivo delle vocali
nelle lingue indoeuropee (1878), che gli dette notorietà in ambito accademico. Insegnò prima a
Parigi e poi a Ginevra. Dal 1906 al 1911 tenne tre corsi universitari di Linguistica generale,
durante i quali espose i caratteri fondamentali della sua teoria linguistica. Lasciato l'insegnamento
a causa di una grave malattia, morì nel 1913.

21
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

L'associazione tra significato e significante non è basata su una legge


naturale, come è dimostrato dall´esistenza di una grande varietà di idiomi, anche
se, una volta istituita in ciascuna lingua diventa canonica e non può più essere
modificabile dal singolo parlante. Si può identificare il valore di un elemento della
lingua solo in maniera differenziale, tramite il rapporto con gli altri termini del
sistema che permettono la sua identificazione per opposizione. De Saussure
intende il linguaggio (langage) come potenzialità universale in grado di
sviluppare un sistema di segni. La langue, intesa come un sistema di segni che
formano il codice di un idioma, va distinta dalla parole, cioè dall'atto linguistico
del parlante, che è individuale e irripetibile. Come dice Martinet: “Non esiste il
concetto di lingua come nomenclatura (cioè corrispondenza naturale di parole e
cose) e il segno linguistico è un'entità costituita da una unione arbitraria di un
concetto (significato) e della sua immagine acustica (significante). Ad esempio, i
suoni della parola cane sono il significante associato all'idea mentale di cane.
Nella langue si trovano tutte le classi astratte possibili di significati e significanti di
una lingua, mentre nella parole si ha la realizzazione concreta di un significante e
di un significato. La langue è definita forma, in quanto è costituita da elementi e
classi astratti, totalmente indipendenti dalla sostanza concreta, come ad esempio
le realizzazioni foniche. La sostanza riguarda solo l'esecuzione concreta del
linguaggio, cioè la parole” 42. Secondo de Saussure oggetto della linguistica è
innanzitutto la langue, che deve essere descritta come un sistema, in cui tutti gli
elementi hanno un ruolo e sono in rapporto tra di loro. La descrizione sistematica
avviene attraverso la linguistica sincronica, che analizza i rapporti tra gli elementi
linguistici in un dato momento secondo due tipologie: i rapporti sintagmatici tra gli
elementi posti l'uno dopo l'altro in un enunciato, e i rapporti paradigmatici 43, che
dipendono invece dalle associazioni create dalla nostra memoria fra le parole. La
linguistica sincronica si oppone evidentemente alla linguistica storica
dell'Ottocento, in quanto considera prioritario studiare le strutture di una lingua in
un preciso momento: la descrizione diacronica non viene eliminata, ma non può

42
A. Martinet, Eléments de linguistique général , Colin, Paris 1960. Versione italiana: A. Martinet,
Elementi di linguistica generale, trad. di G. C. Lepschy, Bari, Laterza, 1977. Martinet è uno dei piú
influenti eredi di De Saussure, il quale sviluppando la fonematica introdusse la fondamentale
nozione di doppia articolazione nei linguaggi naturali. Vedi qui, trad. it.: 21-36.
43
Fu in realtá Louis Hjelmslev (1899–1965), fondatore del circolo di Copenhagen e
sistematizzatore dell´opera di De Saussure, a definire i rapporti paradigmatici secondo il quale
tutti i suoni che possono comparire in un medesimo contesto intrattengono tra loro rapporti di tipo
associativo (paradigmatico), ma sono rapporti in absentia, se ne realizziamo uno escludiamo tutti
gli altri. Il modello di Hjelmslev sviluppa il bi/trilateralismo di De Saussure rinominando significato
e significante con la definizione piano dell´espressione e piano del contenuto risultanti dalla
combinazione di quattro elementi: forma del contenuto, forma dell´espressione, sostanza del
contenuto, sostanza dell´espressione. Dunque per Hjelmslev il segno é una funzione tra due
forme, la forma del contenuto e quella dell´espressione. Tuttavia il segno manifesta due
sostanze: la sostanza del contenuto e, appunto quella dell´espressione. Quest´ultima è la
sostanza materiale dove il segno si manifesta. Questa sostanza puó essere il suono, cosí come é
conosciuto in gran parte delle lingue naturali, ma puó essere un qualsiasi supporto materiale
quale ad esempio nel linguaggio dei segni, o altri segni particolari (qualificatori) esistenti nelle
diverse scritture del mondo. Vedi: L. Hjelmslev, Catégorie des cas (2 volumes). Acta Jutlandica
VII, IX.L. 1935/37; e L. Hjelmslev, Omkring sprogteoriens grundlæggelse, København, 1943.

22
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

avvenire senza conoscere il funzionamento profondo della lingua.


Quindi sia Peirce che Saussure elaborano un sistema tricomico che, si è
visto anche nella teoria logica degli enunciati, ossia che tutti gli enunciati si
basano sulla relazione tra un dominio e un rango dato un predicato. Vedremo
come questa nozione sará alla base di molti linguaggi di programmazione ad
oggetti e sia fondante il concetto moderno di ontologia formale. Questo modello
che troverá la sua prima forma moderna nelle opere di C. I. Lewis 44 nel 1932
dará luogo a quella che è conosciuta come logica modale che, perfezionata ed
evoluta a partire dal 1959 da Saul Kripke 45, non è altro che una logica formale
che estende la logica degli enunciati e dei predicati includendo degli operatori
che esprimono la modalitá (ossia la
necessitá, la possibilitá ecc.). D´altro
canto anche Franz Brentano 46,il
filosofo austriaco della fine del XIX
secolo, riprendendo la discussione
medieovale sull´intenzionalitá,
definisce un modello conoscitivo
tricomico.
Bisogna peró “fare attenzione al fatto che Brentano, nel riferirsi agli oggetti
intenzionali, non sta parlando solamente degli oggetti reali, ma degli oggetti che
costituiscono il contenuto degli stati intenzionali. Questi oggetti intenzionali sono
quindi immanenti ai fenomeni psichici, e non corrispondono direttamente agli
oggetti del mondo reale”.
Dunque se con la linguistica strutturale si eliminano i metodi prescrittivi e
normativi dall´analisi delle lingue naturali per basare l´analitica sul sistema
vocalico delle lingue e le sue inferenze, d´altro canto, negli ´20 e ´30 del
novecento emerge anche la necessitá di sostanziare, con delle regole astratte
universali, la lingua stessa, specie quella formale. Abbiamo visto il modello
traskiano sulla semantica dei linguaggi formali ed ora, in sintesi, per capire come
44
C. I. Lewis, C. H. Langford, Symbolic Logic , 1932, Dover reprint, 1959. Le origini antiche e
medioevali della logica modale possono essere rinvenuti nella discussione aristotelica sulla
battaglia marina nel nono paragrafo del De Interpretazione e negli scritti scolastici di Ockham e
Scoto che discussero in maniera modale gli enunciati relativi all´essenza e all´ accidens.
45
La letteratura di e su Kripke è vastissima quindi ai fini di questo nostro breve studio abbiamo
usato solo le seguenti fonti: S. A. Kripke, A Completeness Theorem in Modal Logic, Journal of
Symbolic Logic, 24 (1), 1959, 1–14; S. A. Kripke, The Undecidability of Monadic Modal
Quantification Theory, Zeitschrift für Mathematische Logik und Grundlagen der Mathematik, 8,
1962, 113–116; S. A. Kripke, Semantical Analysis of Modal Logic I: Normal Modal Propositional
Calculi, Zeitschrift für Mathematische Logik und Grundlagen der Mathematik, 9, 1963, 67–96; S.
A. Kripke, Semantical Analysis of Modal Logic II: Non-Normal Modal Propositional Calculi, in:
The Theory of Models, J. W. Addison, L. Henkin , A. Tarski (edts.), Amsterdam, 1965. Infine,
sulla natura causale della reference theory, che vedremo piú avanti, vedi: S. A. Kripke, Naming
and Necessity, in: Semantics of Natural Language, D. Davidson G. Harman, Boston, 1972;
sull´obiezione ai fondamenti del suo maestro, Tarski, relativamente al concetto di veritá: S. A.
Kripke, Outline of a Theory of Truth, Journal of Philosophy, 72, 1975, 690–716.
46
F. Brentano, La psicologia dal punto di vista empirico, vol.1, Laterza, Roma-Bari, 1997. Traggo
l´immagine e il suo commento dall´unica tesi di laurea in italiano, di cui abbiamo notizia, che
abbia tentato una intersezione tra il modello umanistico e quello logico-tecnologico: A.
Bemporad, Elementi per una metafisica degli oggetti software, Firenze, 2006-2007, 14-15.

23
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

si svilupperá, quello che in inglese si chiama natural language processing 47, che
sará uno degli obbiettivi dell´intelligenza artificiale, dobbiamo capire le posizioni
di due altri studiosi, ossia Rudolph Carnap e Willard van Orman Quine.
Tra il 1910 e il 1914 Carnap si forma a Jena studiando le opere
fondamentali di Kant con Bruno Bauch. Fu uno dei pochi studenti di Gottlob
Frege e studió fisica successivamente a Berlino con Albert Einstein. Ritorna a
Jena dove scrive una tesi intitolata Der Raum pubblicata nel 1922, che era
troppo filosofica per i fisici e, troppo fisica per i filosofi, - come sempre le
intersezioni sono problematiche - nella quale enuncia una chiara distinzione tra i
concetti di spazio formale, spazio fisico e spazio percettivo e/o visuale.
Attraverso Frege conosce e corrisponde con Bertrand Russel relativamente ai
Principia Mathematica, e tra il 1924 eil 1925 segue i corsi di Edmund Husserl
sulla fenomelogia continuando a scrivere di fisica da un punto di vista logico
positivista. Dopo aver incontrato Hans Reichebach a Vienna nel 1923, gli verrá
offerta una cattedra, che comincerá a ricoprire dal 1926. E´ in questo periodo che
entrerá a far parte del Cicolo di Vienna e scriverá nel 1928 la sua famosa opera
Der logische Aufbau der Welt 48 avendo l´occasione di incontrare sia Kurt Gödel
che Ludwig Wittgenstein con il quale avrá, negli anni sucessivi, un lungo
dibattito, esposto poi nella sua opera principale la Logische Syntax der Sparche
49
. Quest´opera fu publicata dopo il 1930, quando Carnap incontra Tarsky, prima
a Vienna, poi a Varsavia, acquisendo il suo metodo teoretico della semantica, e
viene nominato professore all´universita germanofona di Praga. Fu qui che, nel
corso del 1933, incontrerá anche Willard van Orman Quine con il quale
discuterá, senza mai arrivare ad avere una visione comune, il suo lavoro sulla
sintassi logica. Questo dissidio non ebbe peró influenza sulla lora amicizia, che
infatti, durerá per tutto il periodo statunitense successivo alla sua emigrazione
dall´Europa, che ebbe luogo nel 1935.
Abbiamo dato un breve e incompleto profilo biografico per mostrare come
Carnap abbia avuto contatti con gran parte degli autori che abbiamo presentato
qui e che, come loro, abbia dovuto imperniare i propri sforzi intorno alla nozione
di decidibilitá, declinata questa volta nella logica formale con il concetto di
verificabilitá. Per capire, in breve, cosa sia e quale sia la finalitá della sintassi
logica di Carnap é necessario confrontare le asserzioni di Wittgenstein, dalle
quali é partita la sua analisi, con quelle proprie della sua opera. Infatti
relativamente agli errori dei filosofi Wittgenstein dice nel Tractatus: “Per sfuggire
a questi errori dobbiamo impiegare un linguaggio segnico, il quale li escluda non
impiegando, in simboli diversi, lo stesso segno e non impiegando,
apparantemente nello stesso modo, segni che designano in modo diverso. Un
47
Uno degli esempi ancor oggi svuluppato è la cosidetta Parrot virtual machine . Parrot
(letteralmente pappagallo) è il nome di un progetto che ha intersecato due linguaggi di
programmazione Perl e Phyton, ai fini di gestire la produzione del codice basato su diversi
linguaggi.
48
R. Carnap, Der Logische Aufbau der Welt , Felix Meiner Verlag, Leipzig, 1928. Quest´opera
sviluppa in termini rigorosamente formali l´empirismo, defininendo fenomenologicamente tutti i
termini scientifici.
49
R. Carnap, Logische Syntax der Sprache , 1934 tradotto in inglese nel 1937, The Logical
Syntax of Language, Kegan Paul.

24
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

linguaggio segnico, dunque, che obbedisca alla grammatica logica (sic) – alla
sintassi logica“ 50. Piú avanti (Tractatus, 4.121) nel tentativo di trovare una
disambiguazione del polimorfismo delle lingue naturali, nondimeno a quello,
forse semanticamente piú rarefatto, delle lingue formali, aggiunge: “La
proposizione non puó rappresentare la forma logica; questa si specchia in quella.
Ció che nel linguaggio si specchia, il linguaggio non puó rappresentare. Ció che
nel linguaggio esprime sé (sic), noi (sic) non possiamo esprimere mediante il
linguaggio. (…)”. A questa formulazione Carnap si oppone con la creazione
dell´idea di una sintassi logica. Fu, infatti, lui a formulare e implementare i
dettagli della sintassi logica nell´analisi filosofica. Pertanto afferma: “Per sintassi
logica della lingua noi intendiamo la teoria formale delle forme linguistiche di una
data lingua – l´affermazione sistematica delle regole formali che la governano,
insieme alla conseguenze che derivano da queste regole. Una teoria, delle
regole, una definizione o quant´altro possono dirsi formali fintanto che in esse
non vi sia riferimento al significato dei loro simboli (ad esempio, le parole) o al
significato delle espressioni (ad esempio, le frasi) ma solo e semplicemente al
tipo e all´ordine dei simboli sui quali gli enunciati sono costruiti” 51. Il tentativo, per
altro inane, di travolgere la supposta inconsistenza logica della metafisica, ossia,
la necessitá di produrre conoscenza come derivata soltanto da una sintassi
logicamente dimostrabile per inferenza, che, come abbiamo visto in molti
pensatori del novecento, é un obbiettivo, non verrá raggiunto. Infatti, tale
tentativo limita l´architettura concettuale del sapere, i suoi pardigmi fondativi, alla
sola logica del primo ordine. Essa diventa il dogma, sul quale non solo viene
sviluppata la computististica, ma che, appunto, seguendo l´empirismo logico,
ossia il citato realismo aristotelico, dimostra che i linguaggi non saranno mai in
grado di dare ragione di sé stessi, della propria veritá, ma forse soltanto di ció
che, appunto, tentano di rappresentare. Ed infatti, Carnap arriva ad affermare,
poco dopo l´introduzione alla sua Sintassi logica della Lingua: “Date queste
premesse possiamo dire che gli enunciati della metafisica sono pseudo-
enunciati, che sotttoposti alla prova logica si rivelano o prive di senso o, appunto,
enunciati che violano le regole poste dalla sintassi. Pertanto, dei cossidetti
problemi filosofici gli unici che debbano essere presi in considerazione sono
quelli relativi alla logica della scienza. Per far sí che ció avvenga é necessario
sostituire alla philosophia, appunto, la sintassi logica”. La sua radicale posizione
anti-metafisica basata sull´analisi logica puó essere riassunta come segue: “La
funzione dell´analisi logica é di analizzare la conoscenza nel suo insieme, gli
asserti della scienza come quelli quotidiani cosí da chiarirne il senso e le
relazioni tra asserti. Uno degli obbiettivi primari dell´analisi logica di un dato
enunciato é di scoprire il metodo di verificazione per quell´enunciato” 52.

50
L. Wittgenstein, Tractatus logico-philosophicus e Quaderni 1914-1916 , trad. A. G. Conte,
Torino,1983, 3.325. Il problema affrontato qui è relativo alla natura polimorfica del linguaggio
naturale, infatti piú sopra (3.321 e anche nei 3.322, 323, 324) afferma che: “Due diversi simboli
possono dunque aver in comune l'uno con l'altro il segno (grafema o fonema etc.) – essi allora
designano in modo diverso”.
51
R. Carnap, The Logical Syntax of Language, Kegan-Paul, 1937, 1-2.
52
R. Carnap, Philosophy and Logical Syntax, Bristol,1996 (ristampa dall´opera del 1935), 9-10.

25
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

Arrivando negli Stati Uniti, e sulla scia di Tarsky, Carnap scrive due lavori
53
che lo porteranno ad allontanarsi dalle tesi radicali del Circolo di Vienna
riportandolo a riesaminare il problema della semantica. La semantica é concepita
in termini formali distinguendo tra verità logica e verità di fatto. La verità logica si
basa esclusivamente sul significato delle parole, in particolare sul significato
delle costanti logiche ossia e, o, non, ecc., mentre la verità di fatto richiede una
verifica empirica dei fatti. Quindi é la nozione di necessitá che indica, attraverso
la veritá logica, la veridicitá in qualsiasi mondo possibile. In questo modo la
logica modale che usa operatori quali è necessario, è impossibile,
necessariamente ecc., é un ramo della semantica che pone in relazione la veritá
logica con la nozione di necessitá definendo la veridicitá di un enunciato
indipendentemente dai fatti contingenti di un qualsiasi mondo possibile. Infine,
Carnap, allentando il concetto di verificabilitá dei tempi di Vienna, passerá a
concetti quali la controllabilitá e la confermabilitá 54. Tutti questi concetti, che
sono in qualche modo connessi al concetto di decidibilitá, verranno nuovamente
discussi nelle opere di Quine e trasformati dalla sua semantica olistica 55.

53
R. Carnap, Introduction to Semantics , Harvard University Press, 1942; Meaning and Necessity:
a Study in Semantics and Modal Logic, University of Chicago Press, 1956 (ristampa dall´opera
del 1947).
54
“Anziché insistere sulla verificabilità diretta di una teoria mediante dati empirici, Carnap
distingue ora tra controllabilità, la quale è data dal fatto di avere a disposizione un metodo di
verifica sperimentale, e confermabilità, quando un tale metodo non può essere indicato. In
particolare, un enunciato può essere confermabile senza essere controllabile: ciò avviene quando
sappiamo che una certa serie di controlli condurrebbero alla sua conferma, senza sapere come
procedere a tali controlli. (….) In quest' orizzonte di problemi, Carnap affronta anche le questioni
dell' induzione e della probabilità, in particolare nell'opera del 1950 Logical Foundations of
Probability. Egli ritiene, infatti, che ogni ragionamento induttivo, su cui si fonda la formulazione
delle leggi scientifiche, è un ragionamento in termini di probabilità, cosicchè ´la logica induttiva,
ossia la teoria dei princìpi di tale ragionamento, coincide con la logica probabilistica´. Questa,
però, (…) deve intendere la probabilità non come flusso ma come relazione logica tra due
enunciati e, precisamente, come il grado di conferma di un'ipotesi (conclusione) sulla base di dati
elementi probatori (premesse). In questo senso, ciò a cui mette capo l'inferenza induttiva è,
appunto, la determinazione del grado di conferma di un'ipotesi”. Questa nota é tratta, con
qualche trasformazione e aggiunta da D. Fusaro In: http://www.filosofico.net/carnap.htm.
55
Per quanto la definizione del termine olismo sia stata coniata da Jan Smuts nel 1926 (J. Smuts
Holism and Evolution, London, McMillan, 1927, 88) per contrastare quello che nelle logiche
classiche e nelle matematiche si chiama riduzionismo, e che dalla sua derivazione greca da
holos (il tutto, l´intero, la totalita) è opposta appunto all´unitá dell´atomismo sulla quale è stata
fondata la scienza prima, durante e dopo l´Illuminismo, anche se Spinoza, e specialmente Hegel
contro Kant, abbiano parafrasato concettualizazioni simili (R. Stern, Hegel, Kant and the
Structure of the Object, London, Routledge, 1990, 6, 135), è interessante osservare come
questo concetto-metodo, abbia suggestionato un gran numero di discipline che erano fondate,
nell´´800 e primi ´900, sulla decidibiltá degli elementi primi. La nozione di olismo puó essere
semplificata, come segue: “ (…) negli ultimi due secoli, il progetto scientifico cartesiano, al fine
della comprensione finale, prevedeva di suddividere in sempre piú piccole parti la materia,
dunque le specialitá ermeneutiche ad essa connesse. E ció ha funzionato, per un periodo
relativamente breve. Tuttavia rimettere insieme le parti, cosí da comprendere il tutto, è piú
difficile. Ma ció, come sempre, è una tipica lentezza dello scienziato o comunque dello sviluppo
della scienza”. Vedi: N. A Christakis, Shorthand abstractions and the cognitive toolkit, 2011. Ció
implica che, appunto, il temine olismo, vede i sistemi naturali (fisico, biologico, chimico, sociale,
economico, mentale, linguistico ecc.) e le sue propietá, come un insieme, e dunque non solo

26
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

Willard van Orman Quine (1908-2000) fu uno dei filosofi analitico-empiristi


americani piú rilevanti del novecento ed il suo contributo fondamentale alla
definizione della teoria degli insiemi non fu da meno di quello dato a ció che
Barry Smith 56 definisce il relativismo ontologico o meglio l´idealismo,
contrapposto appunto al citato realismo aristotelico. Dopo essersi laureato in
matematica e filosofia nel 1930 all´universitá di Oberlin riuscí ad entrare a
Harvard diventando un allievo del co-autore dei Principia Mathematica, Alfred
North Withehead, con il quale difese nel 1932 la sua tesi di dottorato. Sono
questi gli anni nei quali Quine viaggia in Europa conoscendo i membri della
scuola di Varsavia tra i quali Tarski e quelli del Circolo di Vienna tra cui, come
abbiamo visto, Carnap. Fu grazie a Quine che Tarski riusci a sfuggire, con
l´ultima nave che uscí dal porto di Gdansk, alla persecuzione nazista, quando nel
1939 lo invitó al celebre Congresso sull´Unitá della Scienza a Cambridge
Massachuset. Durante il secondo conflitto mondiale Quine, come Vannevar
Bush, serve il suo paese nelle file dello spionaggio e viene incaricato della
decifrazione dei messaggi dei sottomarini tedeschi. Dopo il conflitto mondiale
diventa professore a Harvard dove rimarrá sino alla sua morte. Tra i suoi tanti
allievi noti é forse il caso di citare Hilary Putnam e Saul Kripke i quali
svolgeranno un ruolo importante nella formazione e sviluppo della teoria del
maestro. Negli anni ´50 del 900 Quine, basando la sua analisi sul fatto che la
filosofia non é esclusivamente analisi concettuale, attacca la distinzione che il
positivismo faceva tra enunciati analitici e sintetici, affermando il cosidetto olismo
semantico e introducendo, negli anni ´60 la nota tesi dell´indeterminatezza della
traduzione 57. Inoltre, nei suoi studi di filosofia della matematica giunge con
Putnam alla definizione detta Quine-Putnam tesi di indispensabilitá 58 che fonda
la realtá degli enti matematici. Questi due tesi sono legate alla nozione di
decidibilitá che dagli anni ´40 del ´900 abbiamo visto essere il soggetto centrale
di pensatori quali Rudolf Carnap, Nelson Goodman e Alfred Tarski. Come quasi
tutti i filosofi analitici Quine accettó la definizione di analitico (giudizio e/o
enunciato) quale asserto vero in virtú del suo stesso significato. Tuttavia,
differentemente dalla tradizione positivista, concluse che tale definizione fosse
insufficiente, o meglio detto, circolare. Quindi, Quine accetta che gli enunciati

come la somma delle sue parti. Cioè, la sommatoria funzionale delle parti è sempre
maggiore/differente delle parti prese singolarmente. Vedi: M. Esfield, Holism in Philosophy of
Mind and Philosophy of Physics, Springer, 2001, 7.
56
B. Smith, Beyond Concepts: Ontology as Reality Representation, in: A. Varzi, L. Vieu (eds.),
Proceedings of the FOIS 2004. International Conference on Formal Ontology and Information
Systems, Turin, 4-6 November 2004, 1-12.
57
W. V. Quine, Word and Object, Cambridge Mass., 1960.
58
“ [...] la quantificazione su entità matematiche è indispensabile per la scienza [...]; quindi
dobbiamo accettare tale quantificazione; ma questo ci impone l'accettazione dell'esistenza delle
entità matematiche in questione”. Cioé: l’indispensabilità di una teoria matematica M per la
formulazione di una teoria scientifica T vera (o confermata) è condizione sufficiente per la verità
di M; in M vi sono opportuni asserti quantificati tali che è una condizione necessaria per la loro
verità che le variabili vincolate che occorrono in essi prendano oggetti matematici come valori; ne
segue che è una condizione necessaria per la verità di T che esistano gli oggetti matematici su
cui tali asserti quantificano” vedi: A. Sereni, Argomenti di indispensabilitá nella filosofia della
matematica, Portale italiano di filosofia analitica, Giornale di Filosofia, n. 1, 2010, 114.

27
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

analitici sono veri per definizione ma aggiunge che la nozione di veritá per
definizione é insoddisfacente. Perció, l´obiezione primaria di Quine all´analitica
era basata sul nozione di sinonimia (sameness of meaning), cióe un enunciato
essendo analitico si dissolve se per caso si sostituisce con un sinonimo la parola
nero in una proposizione quale: “Tutte le cose nere sono nere”. L´obiezione alla
sinonimia si basa sul problema della cosiddetta informazione collaterale. Quine
non fa distinzione tra l´ informazione collaterale universamente nota e la veritá
analitica o concettuale. La nozione di informazione collaterale, giá discussa in
Frege mediante il principio del contesto che esprime una relazione di
veritá/senso tra la parte e il tutto, viene accentuata da Wittgenstein che nelle sue
Philosophical Investigations afferma che “la comprensione di un enunciato
significa comprendere una lingua”. Cosí Quine aggiunge: “l´unitá di misura del
significato empirico é la scienza nella sua globalitá”. La relazione con
l´esperienza empirica che aveva caretterizzato gran parte del positivismo della
prima meta del XX secolo, aveva creduto che le uniche espressioni linguistiche
(manifestazione di conoscenza) che avessero senso fossero quelle che, o erano
direttamente connesse con enti osservabili/esperibili della realtá, oppure che
potessero essere ridotte ad un vocabolario che direttamente facesse riferimento
a quest´enti. Dunque, per i positivisti, un enunciato S contiene conoscenza solo
e soltanto se ha un senso/significato, e quest´ultimo é tale solo e soltanto se ha
una relazione con un insieme di esperienze che possono garantirne la
verificabilitá oppure la fasificabilitá. Tale posizione esprime un implicita e potente
relazione tra l´epistemologia e la semantica. Quine nel suo celebre lavoro Two
Dogmas of Empiricism introduce l´argomentazione olistica per negare
l´assunzione positivistica che un qualsiasi enunciato di una lingua sia legato in
maniera univoca ad un proprio insieme di verificatori o falsificatori, giungendo
alla conclusione che il valore epistemologico di un qualsiasi enunciato dipende
invece dalla globalitá della lingua stessa. Tuttavia questa posizione porta a
qualche contraddizione. Infatti se l´olismo semantico é interpretato come una tesi
che sostiene che qualsiasi espressione linguistica E (una parola, una frase o un
enunciato) di un qualche linguaggio naturale L non puó essere capita
isolatamente, e che inoltre vi sono innumerevoli relazioni necessarie tra le
espressoni di L, ne consegue che per capire E bisogna anche capire l´insieme K
delle espressioni al quale é relazionata E. Inoltre se K non é un insieme con un
limite, ossia finito (come nei casi di Davidson e Quine e forse Wittgenstein),
allora K coincide con la globalitá di L. L´olismo semantico e quello confermativo
sono instricabilmente legati nella posizione assunta da Quine e cío lo porterá a
sostenere il relativismo ontologico 59. Le premesse dell´olismo confermativo

59
B. Smith, op. cit. Beyond Concepts, 1; definisce come segue il relativismo ontologico: “(…) (a)
a view according to which there is no such thing as objective reality to which the concepts or
general terms in our knowledge representation systems would correspond;(b) a view according to
which we cannot know what objective reality is like, so that there is no practical benefit to be
gained from the attempt to establish such a correspondence; (c) a view according to which the
term ‘reality’ in any case signifies nothing more than a construction built out of concepts, so that
every concept-system would in principle have an equal claim to constituting its own ‘reality’ or
‘possible world’. Doctrines under all three headings nowadays appear commonly in the wider
world under the guise of postmodernism or cultural relativism, where they amount to a thesis

28
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

consistono nel sostenere che tutte le teorie (e di conseguenza anche tutti gli
enunciati da esse derivati) sono dati empiricamente indeterminati (dati, dati
sensori, prove ecc.). Infatti, se alcune teorie non sono giustificabili poiché non
corrispondono a nessuno dei dati loro richiesti o sono troppo complesse, tuttavia
vi sono giustificazioni equivalentemente alternative. Se ad esempio diciamo che
l´assunzione dei greci che gli dei omerici (inosservabili) esistono é falsa, e che la
nostra supposizione (altrettano inosservabile) delle onde eletromagnetiche é
vera, ambedue sono giustificate soltanto dalla loro capacitá di spiegare le nostre
osservazioni. Quine aggiunge: “ (…) Da parte mia, quale fisico, credo negli
oggetti fisici e non negli dei omerici; anzi considero scientificamente un errore
credere altrimenti. Da un punto di vista epistemologico, gli oggetti fisici e gli dei
differiscono solo per il grado ma non per la loro natura. Infatti ambedue
quest´entitá fanno parte del nostro sapere quali assunti culturali”. Il relativismo
ontologico portó Quine a condividere con Pierre Duhem che per una qualsiasi
collezione di prove empiriche ci fossero sempre piú teorie capaci di darne una
spiegazione. Tuttavia, l´olismo di Duhem era piú ristretto di quello sostenuto da
Quine. Per Duhem, l´inderteminazione si applica solo alla fisica o comunque alle
sole scienze naturali, mentre per Quine alla globalitá della conoscenza in quanto
tale. Perció insisteva nel dire che mentre é possibile verificare o falsificare teorie,
ció non é possibile se applicato ai pronunciamenti individuali. Se nella semantica
Quine introdusse la nozione naturalistica-relativistica di ontologia, nella logica –
anche se separa la teoria degli insiemi dalla logica in quanto tale – egli tuttavia,
come altri, volle svilupare una teoria assiomatica degli insiemi. Di questa, nel
corso della sua carriera, ne propose almeno tre varianti, che saranno
determinanti sia per l´intelligenza artificiale 60 che appunto per la modellazione
delle ontologie formali. Questa teoria assiomatica é molto complessa e ha tante
implicazioni, tuttavia noi tenteremo di semplificarla come segue. Essa prende il
nome di New Foundatations (da qui in avanti NF), la quale crea e gestisce
insiemi usando un solo schema assiomatico di ammissibilitá, ossia uno schema
stratificato61 di comprensione 62, cosicché tutti gli individui (ossia i possibili

according to which the theories of objective reality developed by the natural sciences are nothing
more than cultural constructs, comparable to astrology or witchcraft”. Piú severo ancora sará P.
M. S. Hacker, Passing by the Naturalistic Turn: on Quine´s ´ Cul-de-Sac ´, Lectures at the
Rutgers University, Institute of Law and Philosophy 6th-7th June, 2005.
60
Come è mostrato negli studi di: H. R. Maturana, F. J. Varela, The Tree of Knowledge: The
Biological Roots of Human Understanding, Shambhala Publications, Boston MA, 1998.
61
Secondo Fraenkel, Bar-Hillel e Wang, la teoria della NF ha lo stesso spirito della teoria dello
zig-zag espressa nel 1927 da Raph Nelson Elliott (publicata sul Financial World Magazine nel
1938 con il titolo di The Wave Principle e successivamente anche in Nature ´s Law: The Secret of
the Universe, 1946 vedi: R. Prechter, Elliott´s Masterworks, Gainesville, GA, New Classic Library,
1994, 17, 21, 26, 34, 41 50, 51; e R. Prechter, Elliott´s Wave Principle, Gainesville, GA, New
Classic Library, 2005, 9). Ossia le formule predicative, le uniche che si possono usare per
definire insiemi, sono dette formule stratificate: le formule stratificate senza quantificatori sono
quelle nelle quali è possibile assegnare indici alle variabili. Dunque ad ogni indice corrisponde
una variabile, in modo che in ogni sottoformula x include y, l´indice y sia maggiore di uno di
quello di x; con un operatore di astrazione che ingloba i quantificatori. Inoltre, è necessario che
per ogni termine t ed s, in t include s, l´indice di t sia minore di uno di quello in s. Ne risulta che
NF è divergente dalla ZF (Zermelo-Fraenckel). In quanto esiste una classe universale V che fa

29
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

membri di un insieme) che soddisfano la regola di stratificazione generano un


insieme. La formula della stratificazione é ammessa dalla teoria dei tipi 63 e
quindi l´ontologia derivata da simile formula avrebbe dovuto includere i tipi.
Tuttavia la teoria degli insiemi di Quine non include tipi. La meta-matematica
della NF ha dunque alcuni aspetti curiosi. La NF ammette grandi insiemi che non
sono ammessi dal sistema formale dato dagli assiomi di Zermelo-Fraenkel con
l'aggiunta dell'assioma della scelta (ZFC) 64, ossia, anche insiemi per i quali non
é dimostrabile l´assioma della scelta. Poiché quest´ultimo é dimostrabile solo per
insiemi finiti, il fallimento della sua dimostrazione in NF implica che essa include
insiemi infiniti. Dunque la consitenza (decidibilitá) della NF resta ancora da
chiarire. Un altra versione della teoria degli insiemi é presentata nell´opera New
Foundations for Mathematical Logic 65 dove alla NF vengono aggiunte le classi
della teoria degli insiemi di Neumann-Bernays-Gödel (NGB) 66 assiomatizzate in

venir meno il teorema di Cantor V=P(V). Cosí facendo si rende incosistente l´assioma della scelta
e derivabile l´assioma dell´infinito (vedi qui nota 63).
62
Vedi: B. L. van der Waerden, Moderne Algebra, Berlin, 1930. Questo è il primo testo di algebra
moderna, nella cui introduzione accenna al principio di comprensione e alla necessitá di una
stratificazione in tipi. E anche: B. Russell, La Théorie des types logiques, Revue de
Métaphysique et de Morale, 18, 1910, 263-301.
63
La teoria dei tipi é l'alternativa logica alla teoria degli insiemi, ma é soprattutto una logica e una
teoria logica, sia pure con l'obbligo di coprire il contenuto matematico della teoria degli insiemi (in
veritá di tutta la matematica, pensata tuttavia racchiusa nella teoria degli insiemi), e costituisce
l'impianto dei Principia mathematica e la sostanza del logicismo. Al contrario di Hilbert, che
voleva derivare tutta la veritá della matematica, quí si tratta di derivare una grammatica che
consenta di fondare la matematica coerentemente, cioè, semplicemente senza antinomie. Vedi:
B. Russell, Mathematical Logic as based on the Theory of Types, American Journal of
Mathematics, 30, 1908, 222-62, ristampato in B. Russell, Logic and Knowledge, R. C. Marsh
(ed.), George Allen & Unwin, London, 1956, 57-102.
64
In matematica, e in particolare in logica matematica, si indica con la sigla ZFC il sistema
formale dato dagli assiomi di Zermelo-Fraenkel con l'aggiunta dell'assioma della scelta (la “C”
nella sigla deriva dall´inglese choice). Una semplificazione potrebbe essere la seguente: data una
famiglia non vuota di insiemi non vuoti esiste una funzione che ad ogni insieme della famiglia fa
corrispondere un suo elemento. Vedi qui nota 17.
65
W. V. Quine, New Foundations for Mathematical Logic, in: From a Logical Point of View , 2nd
edt., Harvard University Press, 1980, 80-101; questa è l ´edizione finale dell´articolo publicato nel
1937 sull´American Mathematical Monthly.
66
Nella fondazione della matematica, la teoria degli insiemi Neumann–Bernays–Gödel (nota
appunto come NBG) é un´estensione conservatrice della teoria canonica degli insiemi di ZFC.
Un´asserto nel linguaggio di ZFC é dimostrabile in NBG solo e soltanto se é dimostrabile anche
in ZFC. Ossia, l´ontologia supposta dalla NBG include classi proprie, cioé oggetti/entitá che
hanno membri/individui che non possono appartenere ad altri enti (escludendo cosí ogni
possibilitá dell´ereditarietá multipla). Il principio di comprensione assunto dalla NBG é predicativo;
le variabili quantificate, nella formula definita dall´NBG, possono avere come rango soltanto
insiemi. Se si accettano metodi di compresnsione non predicativi si trasforma la NBG nella teoria
di Morse-Kelley (nota come MK). La NBG, infine, puó essere assiomatizzata in maniera finita cioé
decidibile. Vedi: J. von Neumann, Eine Axiomatisierung der Mengenlehre, Journal für die reine
und angewandte Mathematik, 154, 1925, 219-240; e anche Präzisierter Kalkül del 1927 publicato
in: J. von Neumann, Die Axiomatisierung der Mengenlehre, Mathematische Zeitschrift, 27, 1928,
669-752. Traduzione inglese in: J. van Heijenoor (ed.), From Frege to Gödel: A Source Book in
Mathematical Logic, 1879-1931, Harvard University Press, 1967, 393–413; e anche P. Bernays,
Axiomatic Set Theory, Dover Publications, 1991. Una fonte classica, per capire la NBG, che
spiega cosa ci possiamo aspettare da una teoria degli insiemi che fonda relazioni, teorie

30
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

una maniera piú semplice. Con la Set Theory and Its Logic 67, Quine elimina la
stratificazione e fa derivare tutto da un solo schema assiomatico. Ossia deriva,
ancora una volta, la fondazione della matematica. Quest´opera presenta la
versione definitiva della teoria di Quine sugli insiemi virtuali e le sue relazioni e
spiega lo stato dell´arte della teoria assiomatica degli insiemi agli inizi degli anni
´60. Infine Quine raccomanda, in alternativa alla cosidetta epistemologia
normativa teorizzata da Brown 68, di usare le scienze naturali per una completa
spiegazione della conoscenza. Perció afferma con forza la necessitá di sostituire
integralmente il nostro paradigma epistemologico riaffermando il principio di
decidibilitá che abbiamo visto discusso nel corso di tutto il novecento.
A questo punto per riuscire a tornare a Nelson, che abbiamo lasciato
all´inizio di questo breve excursus storico, e capire in cosa il progetto Xandau
abbia fallito, nondimeno della sua Literary Machine, la sua praticabilitá nel
passaggio da Arpanet al World Wide Web, dobbiamo brevemente vedere come
tutte queste teorie abbiano influenzato la creazione di tecnologie/metodi dalle
quali, appunto, é nata la nozione di strutturazione e modellazione richeste da
quello che oggi si chiama, forse impropiamente, Semantic Web. Dobbiamo cioé
prendere in esame, e solo sotto certi aspetti, la nascita, alla fine degli anni ´50 e
primi degli anni ´60, della cosiddetta Intelligenza Artificiale (da qui in avanti AI).
Vedremo che questo esperimento tecnologico ed epistemologico al
contempo generó un dibattito complesso, che dura ancora oggi, e che per le
forme ed i concetti su cui fu fondato non é dissimile da quello che avvene sugli
Universali di un certo medioevo. Infatti, quello che é noto con il nome di
intelligenza artificiale, fu il tentativo di superare e controllare l´ambiguitá originata
dai linguaggi naturali – inferenze, intuizioni, implicazioni e suggestioni ad essi
connesse – con i modelli epistemologici suggeriti dalle teorie che abbiamo preso
in esame qui. Ossia, applicare la nozione di decidibilitá al senso, deciderne gli
stati in relazione alla loro qualitá, quasi che esso, il senso, fosse riducibile, per
quanto in maniera complessa, ad una controllabile rappresentazione meccanica.
Anche se nella storia si possono rinvenire un numero consistente di
tentativi di produrre un´artefatto pensante, tuttavia la moderna AI prende avvio
appunto nella citata estate del 1956 a Dartmounth. Essa era basata sull´idea di
poter, per cosi dire, originare pensiero da una macchina ossia, in maniera
inferenziale e/o deduttiva generare semantica da una sintassi, quindi pensare.
Questa macchina, costruita sulla base delle teorie computazionali di Turing, si é
visto, era capace, combinando simboli semplici quali 0 e 1, di simulare un
numero molto grande di deduzioni matematiche. Ció, con lo sviluppo della
neurologia, della teoria dell´informazione e della cibernetica, ispiró l´idea di poter
considerare verosimile creare un cervello elettronico. E per tutti gli anni ´60 del
´900 questa tecnologia venne sostenuta con entusiasmo dal ministero della
difesa statunitense con l´insediamento di laboratori in tutto il mondo.

dell´ordine, numeri ordinali e transfiniti, é la seguente: E. Mendelson, An Introduction to


Mathematical Logic (Discrete Mathematics and Its Applications), London, 1997, 225–286.
67
W. V. Quine, Set Theory and Its Logic, Harvard University Press, 1963 (rist. 1969).
68
Vedi: H. I. Brown, Normative Epistemology and Naturalized Epistemology, Inquiry, 31, 1988,
53-78.

31
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

L´ottimismo di Herbert Simons e di Marvin Minsky venne meno quando


nel 1974 sia da parte britannica che americana vennero tagliati i fondi di
sviluppo per queste ricerche. Questo é il cosidetto primo inverno dell´AI. La
riscoperta dell´AI avviene ad opera del mercato giapponese, che nel 1985 aveva,
in questo settore, un enorme volume d´affari. Ma di li a poco, nel 1987, quando il
mercato della Lisp Machine collassó, l´AI entró nel suo secondo inverno.
Bisognerá aspettare la fine degli anni novanta per vedere un significativo
successo scientifico e industriale dell´AI dopo gli esperimenti degli anni ´60 e ´70
con la creazione, dapprima di ELIZA e PARRY 69 e successivamente di Deep
Blue 70 basate sulla rete creata da DARPA 71
. Oggi l´ AI é considerata una
disciplina portante delle scienze cognitive e dell´informazione 72. L´AI dai tempi di
Dartmounth si é sviluppata in un vasto numero di sottodiscipline che hanno una
specializzazione tale da non consentirci qui di darne una sintesi completa.
Perció, ai fini della nostra esposizione, prenderemo in esame solo le premesse
69
J. Weizenbaum, ELIZA – A Computer Programm for the Study of Natural Language
Communication Between Men and Machines, Communications of the ACM, 9, 1966, 36-45. Il
nome di questo programma deriva da un protagonista della commedia Pigmalione di George
Bernard Shaw, ossia Eliza Doolittle, la fioraia dall'eloquio dialettale e spesso incolto, che, grazie
al metodo d'insegnamento della ripetizione delle forme corrette di pronuncia, impara la lingua
inglese delle le classi affluenti. Tale programma, per quanto fosse il primo tentativo di interazione
uomo-macchina sulla base dei linguaggi naturali, tuttavia, nel suo tentativo di dimostrarsi
pensante non avrebbe potuto superare il Test di Turing. Ció, poiché il suo funzionamento era
basato sulla sostituzione e non sulla generazione quindi fallendo il teorema dell´imitazione. Infatti,
“ELIZA (the Doctor), scritto in un linguaggio procedurale, analizzava e sostituiva le semplici
parole chiave, creando frasi preconfezionate. A seconda delle parole che l'utente immetteva nel
programma, l'illusione di un interlocutore umano veniva smascherata o poteva continuare per
diverse battute. Talvolta risultava talmente convincente che esistono aneddoti su persone così
convinte di comunicare con un essere umano, da insistere per parecchi minuti. Tutto questo
deriva dalla tendenza delle persone a dare alle parole significati che il computer certo non può
attribuire.” Vedi: J. Weizenbaum, Computer Power and Human Reason: From Judgment to
Calculation, London, Penguin Books, 1984, 1-28, (il corsivo è mio). Mentre ELIZA è noto come
una simulazione parodiata di una seduta psicoanalica rogeriana, PARRY, scritto in Lisp,
implementava un modello di comportamento basato sulle caratteristiche di ragionamento di uno
schizzofrenico paranoico includendo una startegia di conversazione piú avanzata di quello usato
da ELIZA. Parry fu testato con una variazione del test di Turing. Nel 1972 i due programmi furono
messi in connessione via Arpanet. Vedi V. Cerf, PARRY encounters the DOCTOR. RFC 439. –
Transcript of a session between Parry and Eliza, September 18, 1972.
70
Deep Blue, al quale seguirono una generazione di automi-giocatori di scacchi, è stato il primo
computer a vincere una partita a scacchi, risalente al 10 febbraio del 1996, con tempi ordinari,
contro l´allora campione del mondo in carica, Garry Kasparov. Comunque, Kasparov vinse 3
incontri e pareggiò 2 delle partite seguenti, battendo Deep Blue con un risultato di 4-2 Dunque
neanche Deep Blue passó il Test di Turing anche se questa volta ridotto alla semplice
mainipolazione simbolica.
71
DARPA, che significa Defense Advanced Research Projects Agency , era un'agenzia
governativa del dipartimento della difesa degli Stati Uniti incaricata dello sviluppo di nuove
tecnologie per uso militare. DARPA è stata responsabile dello sviluppo e dell'implementazione di
tecnologie importanti, tra le quali vale pena ricordare le reti informatiche: ARPANET, che si
trasformó come vederemo nell´attuale Internet, e l´ On Line System (NLS), che tentó di costituire
le prime forme di ipertesti con l'uso di un'interfaccia grafica.
72
Per una piú dettagliata storia della AI, e specie per le radici storiche dei fondamenti filosofici,
teorici e metodologici, vedi: S. J. Russell, P. Norvig, Artificial Intelligence: A Modern Approach,
New Jersey, 2003. cap. 1.

32
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

teoriche della AI forte 73 ossia la fondazione del ragionamento meccanico/logico


e le antinomie relative alla domanda “Puo´una macchina pensare cosí come
facciamo noi?” . E quindi sará necessario trattare alcuni concetti fondamentali sia
di ció che é noto con il nome di natural language processing che di alcune
strutture logiche delle macchine decisionali basate sulle teorie cibernetiche di
Norbert Wiener 74. In relazione a queste questioni tratteremo anche le
problematiche della AI debole 75, ossia la modellazione della conoscenza, le
ontologie fondative, che appunto dovrebbe consentire la definizione logica degli
stati e la loro espressivitá. Per capire le premesse teoriche della AI forte bisogna
esporre gli argomenti che hanno caratterizzato il celebre Test di Turing chiamato
anche Imitation Game 76. La finalitá di questo test era quello di stabilire o meno
se una macchina potesse pensare in maniera simile a quella umana. Il test di
Turing si puó descrivere approssimativamente come segue. Supponiamo di
avere una persona, una macchina e un´interrogatore. Quest´ultimo é chiuso in
una stanza separata dalla macchina e dalla persona. L´obiettivo é di vedere se
l´interrogatore sia in grado – data una serie di domande e risposte trasmesse da
una telescrivente – chi sia la macchina e chi la persona nella stanza accanto.
L´interrogatore riconosce i membri dell´altra stanza solo mediante le sigle X e Y
che non gli consentono di individuare differenze estrinseche al flusso delle
domande e delle risposte. Le domande possono essere formulate in tal guisa:” X
mi puó dire se gioca a scacchi?”. Sia che X sia una macchina o una persona
deve dare una risposta. Le domande vengono fatte in inglese e per un periodo di
tempo limitato. Nonostante Turing fosse convinto che nell´arco di cinquant´anni
da questa sua pubblicazione ci sarebbe potuto essere una macchina capace di
confondere l´interrogatore, ancor oggi siamo ben lontani dalla possibilitá che una
simile creatura possa sostenere una conversazione, per piú di cinque minuti, ad
un livello tale da sostituirsi ad una persona, e quindi dimostrare di avere una
capacita intellettiva simile a quella umana. Turing tenta con questa suo

73
Questo è un approccio basato sulla scienze cognitive e suo obiettivo è la comprensione e
simulazione dell’intelligenza umana (inclusa la consapevolezza) mediante un metodo che
garantisce costruzione di modelli computazionali plausibili della mente umana e dei suoi processi,
da sottoporre a verifica sperimentale. Il criterio di successo: risolvere i problemi con gli stessi
processi usati dall’uomo. Si dice anche AI forte perché si assume che l’intelligenza possa essere
riprodotta, e che le macchine possano acquisire consapevolezza. Questa definizione (AI forte),
altrimenti nota con la sigla di GOFAI (good old fashioned AI) fu forgiata - sulla base della comune
attivitá dei tre maggiori centri di AI negli Stati Uniti negli anni ´50 e ´60 (CMU, Stanford e MIT)
che ritenevano possibile ridurre l´intelligenza ad una manipolazione di simboli - da John
Haugeland. Vedi: J. Haugeland, Artificial Intelligence: The Very Idea, Cambridge Mass, MIT
Press, 1985.
74
N. Wiener, Cybernetics, or Control and Communication in the Animal and the Machine ,
Cambridge Mass., MIT Press, 1965; trad. it. La Cibernetica. Controllo e comunicazione
nell´animale e nella macchina, Il Saggiatore, Milano, 1968.
75
Si chiama anche AI debole, perché non è necessario assumere che l’intelligenza umana possa
essere riprodotta. Si potrebbe definire con una semplificazione un approccio ingegneristico: che
mira alla costruzione di entità dotate di un tipo di intelligenza idealizzata o razionalità usando un
metodo che appunto è la continuazione della tradizione logicistica di Aristotele, che aveva come
obiettivo primario la codifica del pensiero razionale. Questo metodo è finalizzato alla risoluzione
di problemi computistici delle rappresentazioni della conoscenza in forma decidibile.
76
A. Turing, Computing Machinery and Intelligence, Mind, 59 (263),1950, 433-460.

33
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

esperimento di superare le convinzioni oramai assodate nel pensiero filosofico


dell´occidente espresse qualche secolo prima da René Descartes. Infatti, nel suo
celebre Discours de la méthode, e precisamente nella Parte quinta – Questioni di
Fisica, affermava: “Qui in particolare mi ero fermato per far vedere che se ci
fossero macchine con organi e forma di scimmia o di qualche altro animale privo
di ragione, non avremmo nessun mezzo per accorgerci che non sono in tutto
uguali a questi animali; mentre se ce ne fossero di somiglianti ai nostri corpi e
capaci di imitare le nostre azioni per quanto è di fatto possibile, ci resterebbero
sempre due mezzi sicurissimi per riconoscere che, non per questo, sono uomini
veri. In primo luogo, non potrebbero mai usare parole o altri segni combinandoli
come facciamo noi per comunicare agli altri i nostri pensieri. Perché si può ben
concepire che una macchina sia fatta in modo tale da proferire parole, e ne
proferisca anzi in relazione a movimenti corporei che provochino qualche
cambiamento nei suoi organi; che chieda, ad esempio, che cosa si vuole da lei
se la si tocca in qualche punto, o se si tocca in un altro gridi che le si fa male e
cosí via; ma non si può immaginare che possa combinarle in modi diversi per
rispondere al senso di tutto quel che si dice in sua presenza, come possono fare
gli uomini, anche i piú ottusi. L'altro criterio è che quando pure facessero molte
cose altrettanto bene o forse meglio di qualcuno di noi, fallirebbero
inevitabilmente in altre, e si scoprirebbe cosí che agiscono non in quanto
conoscono, ma soltanto per la disposizione degli organi. Infatti mentre la ragione
è uno strumento universale, che può servire in ogni possibile occasione, quegli
organi hanno bisogno di una particolare disposizione per ogni azione particolare;
ed è praticamente impossibile che in una macchina ce ne siano a sufficienza per
consentirle di agire in tutte le circostanze della vita, come ce lo consente la
nostra ragione” 77. Difronte alle lingue naturali, alla complessitá di ció che in esse
si esprime, che é appunto pensiero/il pensare, anche il fondatore del
razionalismo deve ricorrere alla nozione olistica della relazione parte/tutto, che
abbiamo visto in Quine, affermando che la natura stessa del ragionare umano,
per quanto fondata e spiegata dal suo cogito, non é integralmente prevedibile
solo su base logica, quindi appunto, non decidibile. E´ qui che Turing, invece,
sostiene, anche se in maniera ipotetica, proprio la tesi della riproducibilitá della
ragione umana: per cosí dire, un cartesiano riduttivista contro un Descartes
metafisico. Certo, Turing, cosciente di alcuni paradossi insiti nel suo
esperimento, nello stesso articolo del 1950 pubblicherá le nove possibili
obiezioni, alla sua teoria che vorrebbe le macchine digitali pensanti 78. Ma

77
R. Descartes, Discours de la méthode , Ian Maire, Leiden, 1637 ; R. Descartes, Discorso sul
metodo, trad. it, I. Cubeddu (ed.), Le idee, 9, Editori Riuniti, Roma, 1996, 21-22. vedi anche G.
Erion, The Cartesian Test for Automatism, Minds and Machines, 2001, 11, 29-39; K. Gunderson,
Descartes, La Mettrie, Language and Machines, Philosophy, 39, 313-326.
78
Turing nel citato articolo del 1950 aggiunge anche una serie di argomenti e obiezioni alla
propia tesi che sono chiamate appunto Responses and Objections. E´importate darne notizia in
quanto esse furono al centro delle argomentazioni sull´intelligenza artificiale per buona metá del
´900. Non abbiamo spazio per trattarle individualmente e quindi ci limitiamo a darne una lista ed a
trattarne brevemente solo alcune che riteniamo importanti ai fini dei nostri ragionamenti. Le
Resposnses and Objections sono: (1) The Theological Objection; (2) The Heads of Sand
Objection; (3) The Mathematical Objection; (4) The Arguments from Consciousness; (5)

34
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

l´obiezione fondamentale, alla possibile creatio ex machina proposta da Turing


nel 1950, e a gran parte delle teorie cognitive computazionali, dopo ennesimi
tentativi, che abbiamo visto sperimentati nel corso della seconda metá del
novecento, venne nel 1980 dal filosofo americano John Rogers Searle con il suo
famoso Argomento della stanza cinese. Searle riprende la tesi del cosiddetto
Mulino di Leibniz, che é rinvenibile nell´opera del 1714, publicata postuma nel
1720, del filosofo tedesco, chiamata Monadologia 79, dove alla paragrafo 17 si
afferma: “D’altra parte si deve riconoscere che la percezione, e quel che ne
dipende, è inesplicabile mediante ragioni meccaniche, cioè mediante le figure e i
movimenti. Immaginiamo una macchina strutturata in modo tale che sia capace
di pensare, di sentire, di avere percezioni; supponiamola ora ingrandita, con le
stesse proporzioni [di un edificio], in modo che vi si possa entrare come in un
mulino. Fatto ciò, visitando la macchina al suo interno, troveremo sempre e
soltanto dei pezzi [meccanici] che si spingono [con rumore] a vicenda, ma nulla
che sia in grado di darci l´impressione, o meglio spiegare e comunicare una
percezione” 80. L´obiezione di Leibniz é quindi relativa al fatto che un certo stato
fisico, per quanto meccanicamente coerente, non ha nella sua logica elementi
sufficienti per poter essere definito come o equivalente a uno stato mentale.
Dunque, per quanto discreta 81 possa essere una macchina, posta difronte

Arguments from various Disabilities; (6) Lady Lovelace´s Objection; Argument from Continuity of
the Nervous System; (8) The Argument from Informality of Behavior; (9) The Argument from
Extra-Sensory Perception. Vedi: D. Abramson, Turing´s Responses to Two Objections, Minds
and Machines, 2008, 18, 147-167 e S. Bringsjord, P. Bello, D. Ferrucci, Creativity, The Turing
Test, and the (Better) “Lovelace Test”, Minds and Machines, 2001, 11, 3-27.
79
G. W. Leibniz, Monadologia - Principi razionali della natura e della grazia , Bompiani, Milano,
2001, § 17.
80
La nostra traduzione differisce, in alcuni punti, da quella data nell´edizione italiana citata,
perció riportiamo il testo originale del cosiddetto Mühlengleichnis: "Man muß übrigens notwendig
zugestehen, daß die Perzeption und das, was von ihr abhängt, aus mechanischen Gründen, d. h.
aus Figuren und Bewegungen, nicht erklärbar ist. Denkt man sich etwa eine Maschine, die so
beschaffen wäre, daß sie denken, empfinden und perzipieren könnte, so kann man sie sich derart
proportional vergrößert vorstellen, daß man in sie wie in eine Mühle eintreten könnte. Dies
vorausgesetzt, wird man bei der Besichtigung ihres Inneren nichts weiter als einzelne Teile
finden, die einander stoßen, niemals aber etwas, woraus eine Perzeption zu erklären wäre."
Monadologie, § 17 in: G. W. Leibniz, Sämtliche Schriften und Briefe, Der Preußischen (jetzt
Deutschen) Akademie der Wissenschaften, Berlin, 1923, (le quadre e corsivo sono mie).
81
Secondo la teoria della complessità computazionale si dice discreta una macchina con un
numero finito, computabile/numerabile, di stati, che si possono definire come i nodi
comportamentali di un dato sistema che si aspetta un comando per passare alla transizione
verso un´altro stato. Tale macchina puó essere definita un caso, all´interno del piú ampio insieme
dei sistemi discreti, e come tale si oppone a quei sistemi conosciuti come continui, che spesso
vengono denominati analogici. Il computer, la macchina di Turing, come abbiamo visto, è
appunto una macchina discreta. Poiché i computer sono usati sí, per descrivere sistemi discreti,
ma al contempo si sono sviluppati metodi per descrivere anche sistemi continui del mondo-reale
in maniera discreta o come sistemi discreti. Queste macchine, sono definte con la sigla di FSM
finite-state-machine oppure FSA finite-state-automaton. Tale macchina é in realtá un modello
matematico usato per definire programmi di macchine digitali e/o circuiti logici. La macchina puó
avere un solo stato alla volta che puó cambiare dato un comando logico chiamato trigger o
evento o ancora condizione, lo stato manipolato da questo agente logico entra nella fase
chiamata transizione. La macchina a stati finiti, o la gerarchia di macchine a stati finiti é stata
usata per generare sistemi neuronali e specialmente nella linguistica computistica per descrivere

35
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

ai problemi delle lingue naturali 82, che esprimono per definizione uno stato
mentale - l´abbiamo visto in De Saussure - potrá solo apoditticamente
dimostrare che essa é appunto una macchina, ossia qualcosa che si muove da
un stato all´altro ma che, in termini parossistici, non sorride, ossia non ha
consapevolezza della percezione, e quindi, per dirla con Husserl 83, non ha

la grammatica dei linguaggi naturali. Il metodo per gestire gli stati del continuum o come si dice
del real-world, ossia la traduzione discreta del mondo analogico, è la catena di Markov. Questo
metodo, ancor oggi alla base degli algoritmi di ricerca di Google, é stato sviluppato dal
matematico russo Andrey Markov (1856-1922) che studió i problemi relativi ai processi stocastici.
Fu un allievo di Aleksandr Korkin (specialista di equazioni differenziali parziali) e Yegor Zolotarev
(specialista del calcolo integrale) della scuola matematica di San Pietroburgo. Nel 1906 (A. A.
Markov, Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga,
Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-ya seriya, tom. 15,
1906, 135–156) publicó la proposta di un metodo random di gestione della transizioni degli stati
numerabili che afferma: “Ogni stato successivo a quello attuale é basato solo sullo stato corrente
e non sulla sequenza degli eventi che lo hanno proceduto, ossia uno stato, per cosí dire, a
memoria zero”. Vedi: A. A. Markov Extension of the Limit Theorems of Probability Theory to a
Sum of Variables connected in a Chain, in: R. Howard, Dynamic Probabilistic Systems, volume
1: Markov Chains, Appendix B, 1971. Dunque, l´unico stato decidibile é quello corrente e sulla
base di questo, é appunto decidibile solo il successivo. Una nota catena di Markov, sviluppato
anche dal teorema di Perron–Frobenius (O. Perron, Zur Theorie der Matrices, Mathematische
Annalen, 64(2), 1907, 248–263; G. Frobenius, Über Matrizen aus positiven Elementen, 1,
Sitzungsber. Königl. Preuss. Akad. Wiss., 1908, 471–476; G. Frobenius, Über Matrizen aus
positiven Elementen, 2, Sitzungsber. Königl. Preuss. Akad. Wiss., 1909, 514–518; G. Frobenius,
Über Matrizen aus nicht negativen Elementen, Sitzungsber. Königl. Preuss. Akad. Wiss 1912.:
456–477; una esemplificazione di questo teorema si puó trovare in: J. Keener, The
Perron–Frobenius theorem and the ranking of football teams, SIAM Review, 35 (1), 1993, 80–93)
che lo rende reversibile, chiamata anche Markov Chain Monte Carlo (MCMC), una invenzione di
Stanislaw Marcin Ulam (N. Metropolis, The Beginnings of the Monte Carlo Method, Los Alamos
Science, 15, 1987,10-22; e R. Eckhardt, Stan Ulam, John von Neuman, and the Monte Carlo
method, Los Alamos Science, 1987, ibid.), é il cosiddetto Cammino dell´Ebbro, ossia una
passeggiata casuale sulla linea dei numeri, dove ad ogni passo la posizione puó cambiare di +1
o -1 con uguale probabilitá. Da una qualsiasi posizione ci sono solo due possibili transizioni, al
numero intero successivo o precedente. Le probabilitá di transizione dipendono solo dalla
posizione attuale, non quindi basato sul modo in cui é stata raggiunta quella posizione. Ad
esempio, le probabilitá di transizione 5-4 e 5 e 6 sono entrambi 0,5, e tutte le altre probabilitá di
transizione da 5 sono 0. Queste probabilitá sono indipendenti dal fatto che il sistema fosse
precedentemente in 4 o 6. Vedi anche: S. P. Meyn, R. L. Tweedie, Markov Chains and Stochastic
Stability, London, Springer-Verlag,1993. Per gli specialisti vale la pena di nominare: T. L. Booth,
Sequential Machines and Automata Theory , New York, 1967, e relativamente ai motori di
ricerca vedi: G. Bolch, S. Greiner, H.de Meer, K. S. Trivedi, Queueing Networks and Markov
C h a i n s , J. Wiley (ed.), 2006. La catena di Markov é una generalizzazione del calcolo
probabilistico che é stato anticipato dallo schema di Jakob Bernoulli (1654 –1705) (J. Bernoulli,
Ars conjectandi, opus posthumum. Accedit Tractatus de seriebus infinitis, et epistola gallicé
scripta de ludo pilae reticularis, Basel, Thurneysen,1713) dove la matrice della probabiltá di
tansazione ha righe uguali. Ció significa che lo stato successivo é addirittura indipendente da
quello corrente, in aggiunta al fatto di essere indipendente da tutti gli stati passati.
82
Tratteremo il tentativo e la disputa Jakobson-Chomsky chiamata Digital Infinity , di derivare
dalla morfofonematica una grammatica universale, per rendere discrete, ossia computabili, le
lingue naturali, insieme alla obiezione sulla natura degli enunciati di Foucault, nel prossimo
capitolo.
83
Vedi: Le Meditazioni di Cartesio come modello dell´autoriflessone filosofica in: E. Husserl,
Cartesianische Meditationen und Pariser Vorträge, Kluwer Academic Publishers, 1950; trad. it.,

36
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

nessuna nozione né intuizione (Einsicht) ontologica di sé. E´ su questa differenza


truistica che Searle introduce la sua argomentazione che recita: “Immaginiamo
che una persona di lingua inglese, che ignora il cinese, fosse chiuso in una
stanza riempita da scatole sulle quali vi sono tutti gli ideogrammi del mandarino,
come fosse una base dati di carta, e che nella stanza ci fosse un manuale di
istruzioni per gestire, ordinare le singole scatole, come fosse appunto un
programma di macchina. Immaginiamo ancora che fuori dalla stanza ci fossero
dei cinesi, che inviano, appunto in mandarino, delle domande nella stanza (come
fosse l´input fatto su una macchina). Ipotizziamo quindi che l´inglese nella
stanza, seguendo alla lettera le istruzioni del suo manuale sia in grado di
rispondere componendo una serie di idiogrammi che i cinesi fuori ritengono
corrette (ossia l´output di una macchina). Il manuale consente all´inglese di
superare il Test di Turing, in quanto sembra capisca il mandarino, ma in realtá
l´inglese in questione ignora completamente il significato di ció che fa, in quanto
non conosce neppure una parola di cinese” 84 Con questo argomento Searle si
oppone alle scienze cognitive funzionaliste ed in generale alla AI forte. Ossia
visto che un computer sulla base di una manipolizione di simboli basata su una
pura sintassi fa esattamente quello che fa l´uomo nella camera cinese non vi é
nessuna possibilitá che il computer impari il cinese. Dunque si dimostra
l´impossibilitá di derivare semantica da una sintassi.
Dunque l´AI forte per raggiungere i suoi obbiettivi ha dovuto elaborare
strumenti formali per gestire tutto ció che é implicato nel pensare e percepire
(colori, spazio, emozioni ecc.). Non ci occuperemo dello sviluppo della robotica e
della sua tecnologia, quanto piuttosto vorremmo concludere questa breve
presentazione dell´intelligenza artificiale, spiegando alcuni degli strumenti formali
sviluppati appunto per l´imitazione del pensiero. Essi sono essenzialmente due:
la rappresentazione della conoscenza e il natural language processing. La
rappresentazione della conoscenza, l´ingegneria della conoscenza, é il cuore
della AI. Infatti, gran parte dei problemi che ci si aspetta le macchine riescano a
risolvere dipendendo da quanto dettagliata sia la loro conoscenza del mondo-
reale e delle sue strutture concettuali. Infatti per poter operare a livello logico le
macchine devono conoscere: le proprietá degli degli oggetti, categorie e relazioni
tra oggetti, e sulla base della nozione del tempo, anche situazioni 85, eventi,
stati, cause ed effetti 86 in date circostanze. Inoltre, si é posta la necessitá di
sapere come é rappresentata la conoscenza della conoscenza ossia é
necessario sapere cosa le persone sanno di ció che conoscono. Per far ció si é
creata una disciplina delle scienze dell´informazione e della computistica che

Meditazioni Cartesiane con l´aggiunta dei discorsi parigini, F. Costa (trad.), Bompiani, Milano,
1988, § 1, 37-39.
84
J. Searle, Mind, Brain and Programs, Behavioral and Brain Sciences , 3, 1980, 417-457. La
letteratura su questa publicazione di Searle è vastissima in quanto quest´argomento è forse
quello piú discusso nelle scienze cognitive dell´ultimo quarto di secolo.
85
Per il situation calculus , event calculus e fluent calculus : S. J. Russell, P. Norvig, Artificial
Intelligence: A Modern Approach, New Jersey, 2003, 328-341 sui network semantici e la
description logic, invece: 349-354.
86
Sul calcolo causale vedi: D. Poole, A. Mackworth, R. Goebel, Computational Intelligence ,
Oxford University Press, New York, 1998, 335-337.

37
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

porta il nome, prestato dalla filosofia medioevale, appunto di ontologia 87.


Pensata inizialmente come verticale sui singoli domini di conoscenza si é evoluta
in quello che oggi conosciamo come upper ontologies o ancora ontologie
fondazionali. Il problema di una rappresentazione della conoscenza non puó
essere posto a livello di dominio se non si sono individuati gli universali e le loro
iterazioni mondane ad un livello generale. Questo problema, ed il modo con cui é
stato impostato, riporta in auge la discussione delle nozioni logiche tipiche della
discussione medioevale e pone dinuovo oggi, diciamo cosí neo-scolastici contro
neo-nominalisti. Un esempio di schema di ontologia generalista o fondazionale
anche se solo orientata alle scienze naturali é la celebre General Foundational
Ontology (GFO) per la medicina:

che é in una specializzazione della Basic Foundational Ontology (BFO)88

87
Una mappa di questa tradizione é stata proposta da Barry Smith, che é oggi una delle
massime autoritá in materia, e che mostra la complessitá della tradizione che solo in parte
abbiamo presentato qui.
88
La General Formal Ontology è un ontologia fondazionale per la modellazione concettuale
sviluppata da Onto-Med. Essa presenta concetti in forma categoriale quali oggetti, processi,
tempo e spazio, proprietà, relazioni, ruoli, funzioni, fatti e situazioni. Inoltre, attualmente sta
sviluppando nozioni per rappresentare diversi livelli della realtá in modo da cogliere più
adeguatamente le entità del mondo materiale, mentale e delle aree sociali. Vedi: H., Herre, B.
Heller, P. Burek, R. Hoehndorf, F. Loebe, H. Michalek, General Formal Ontology (GFO): A

38
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

Questa, che viene chiamata knowledge representation (d´ora in avanti KR) e che
tecnicamente porta il nome di ontologia – lo vedremo in dettaglio nel prossimo
capitolo - é, per cosí dire, una gerarchia di concetti fondativi dalla quale é
derivabile il s e n s o della realtá, o meglio dovrebbe essere derivabile
l´informazione sulla realtá mediante degli agenti logici che, date le regole
dell´ontologia, ossia le singole proprietá di classe, e quelle dell´inferenze,
costruite su di esse mediante dei reasoners o automata 89, puó dare risultati

Foundational Ontology Integrating Objects and Processes. Part I: Basic Principles. Research
Group Ontologies in Medicine (Onto-Med), University of Leipzig. Vedi www.onto-med.de/gfo/ . La
Basic Formal Ontology ha un orientamento filosofico che si interseca con quella di DOLCE e
SUMO. A differenza di queste, tuttavia, ha primariamente il compito di fornire una vera e propria
ontologia fondazionale a sostegno di ontologie di dominio sviluppate per la ricerca scientifica.
Infatti non contiene condizioni fisiche, chimiche, biologiche o di altro tipo che correttamente
rientrano nei settori specifici delle scienze. Vedi: B. Smith, P. Grenon, The Cornucopia of Formal-
Ontological Relations, Dialectica, 58, 3, 279-296. E piú in generale la raccolta di saggi: ! N!. T.!
!N!g!u!y!e!n!,! C!.! !J. !L!a!k!h!m!i!, !I!n!t!e!l!l!i!g!e!n!t! !A!g!e!n!t!s! !i!n! !t!h!e! !E!v!o!l!u!t!i!o!n! !o!f! !W!e!b! !a!n!d! !A!p!p!l!i!c!a!t!i!o!n!s, Springer,
!2!0!0!9. Per uno studio comparativo e storia di queste ed altre ontologie vedi: V. Mascardi, V.
Cordì, P. Rosso, A Comparison of Upper Ontologies, Technical Report DISI-TR-06-21, 1-16.
89
Sugli automata vedi: S. Wolfram, A New Kind of Science , Toronto, 2001. Quest´ opera
contiene concetti e problemi per i quali vale la pena aggiungere una nota storica esplicativa. Nel
corso delle sue ricerche ai laboratori di Los Alamos negli anni quaranta, Stanislaw Marcin Ulam
(1909 –1984) studió la crescita dei cristalli (R. G. Schrandt, S. M. Ulam, Some Elementary
Attempts at Numerical Modeling of Problems Concerning Rates of Evolutaionary Processes,
LANL report LA - 4246. Los Alamos National Laboratory, 1970) usando un semplice modello a
reticolo. Negli stessi anni John von Neumann, un collega di Ulam a Los Alamos, studiava il
problema dei sistemi auto replicanti. Il disegno di Neumann era basato sulla nozione di un robot
capace di costruire un altro robot. Questo disegno fu chiamato modello cinematico. Sviluppando
quest´ultimo Neumann si rese conto della enorme complessitá e della grande quantitá di
componenti necessari ad un robot per costruire un suo sosia. Ulam quindi suggerí a Neumann di
sviluppare il suo modello basandosi su un´astrazione matematica simile a qualle da lui usata per
lo studio della crescita dei cristalli. E´ in questo contesto che fu sviluppata la prima nozione di
cellular automata. Similmente al modello a reticolo di Ulam, i cellular automata di Neumann erano
bi-dimensionali con un algoritmo auto replicatore. Il risultato fu un costruttore e generatore di
copie universale che operava in un cellular automata con un dominio/vicinato ristretto (solo le
celle che si toccano sono del dominio/vicinato; mentre per Neumann solo le celle ortogonali
appartengono al dominio/vicinato) e con 29 stati per cella. Neumann provó che una particolare
forma faceva infinite copie di se stessa dato un certo dominio/vicinato di celle. Questo disegno è
noto con il nome di tessellation model ed è chiamato da Neumann costruttore universale. Durante
gli anni 70, nelle prime comunitá computazionali, fu estremamente popolare un sistema di cellular
automaton bi-dimensionale chiamato Game of Life. Inventato da John Convway e popolarizzato
da un articolo del Scientific American da Martin Gardner (M. Gardner, Mathematical Games - The
fantastic combinations of John Conway's new solitaire game life, Scientific American, 1970,
120–123), questo modello fú spiegato come segue: se una cella nera ha 2 o 3 celle nere nel
proprio dominio/ vicinato, allora la cella rimane nera. Se una cella nera ha meno di 2 o piú di 3
celle nere di dominio/vicinato, diventa bianca. Se una cella bianca ha 3 celle nere di
dominio/vicinato diventa nera. Nonostante l´estrema semplictá, il sistema genera un serie di
comportamenti sempre diversi che fluttuano tra un disordine e un ordine apparente. Una delle
caratteristiche più evidenti del Game of Life è l´occorrenza frequente di movimenti, assestamenti
di celle attraverso la rete. E´possibile definire un cellular automaton in maniera tale che i
movimenti di celle interagendo possano generare computo ed è solo dopo un grande sforzo che il
Game of Life è riuscito ad emulare la macchina universale di Turing. Tuttavia lo sviluppo che
seguí a questa scoperta fu ben poca cosa se si fa eccezione allo studio dei vari possibili ruoli che
potevano essere introdotti nel comportamento del modello Game of Life.Tuttavia, nel 1969 il

39
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

simili a quelli prodotti sia dal ragionamento deduttivo/paradigmatico che, in rare e


solo specifiche situazioni, dal ragionamento narrativo. Tuttavia, sin dall´origine
del AI e ancora nelle sue forme cosiddette deboli di oggi, il problema principale
che si é dovuto affrontare definendo ontologie é relativo alla nota questione della
qualificazione dell´informazione, ossia il qualification problem 90. Vedremo come
questo problema, chiamato dei classificatori 91, che sono unitá lessicali strutturali
in certe lingue antiche e asiatiche, riappaia anche nella disciplina del natural
language processing. Nell´AI la questione del qualification problem é inerente al
fatto che é impossibile definire a priori tutte le precondizioni necessarie relative al
raggiungimento del risultato richiesto da un´azione del mondo reale, ossia una
tale azione rimane, almeno in parte, indecidibile. Connesso e opposto al
qualification problem é il problema detto dei frame. Ossia all´inizio, nell´ AI,
sempre da McCarthy, il frame problem fu formulato in relazione alla difficoltá di
esprimere in logica un dominio dinamico 92 senza specificare esplicitamente quali

pioniere computazionale tedesco Konrad Zuse publicó un opera chiamata Calculating Space (K.
Zuse, Rechnender Raum. Braunschweig, Friedrich Vieweg & Sohn, 1969; trad. ing. K. Zuse,
Calculating Space, Cambridge, Mass., 1970) nella quale esponeva la tesi che le leggi fisiche
dell´universo sono da considerasi discrete per natura e che l´universo è semplicemente il risultato
deterministico di una cellular automaton gigante. Quest´opera introdusse un disciplina che ancor
oggi è chiamata digital physics. Nel 1983 Wolfram publicó il primo di una serie di interventi che
esaminavano una classe quasi sconosciuta di cellular automata, da lui definita elementary
cellular automata. Nonstante le regole usate fossero estremamente semplici il comportamento di
queste celle si riveló estremamente complesso. Da questa scoperta Wolfram ipotizzó che la
complessitá della natura potesse essere dovuta ad un meccanismo simile. Nello stesso periodo
Wolfram formuló i concetti di casualitá intriseca e di irriducibilitá computistica e suggerí che la
regola 110 (vedi A New Kind of Science, cap. 11, 689) fosse probabilmente universale. Ció fu
dimostrato nel 1993 insieme al suo assitente Matthew Cook. Wolfram abbandona la sua carriera
accademica a meta egli anni ottanta per creare un programma, diventato celebre nel mondo delle
scienze esatte, chiamato Mathematica che usó per indagare un piú ampio spettro di casi semplici
nei sistemi astratti. Nel 2002 pubblica la sua summa theorica, A New Kind of Science, nella quale
estende il valore interpretativo dei cellular automata a tutte le discipline scientifiche. Nel 2005
Rudy Rucker pubblica The Lifebox (R. Ruker, The Lifebox, The Seashell and The Soul, Avalon
Publishing Group, 2005), in quest´opera, la posizione di Wolfram viene estesa verso una teoria
dell´automatismo universale e i cellular automata vengono usati come modello per spiegare in
che modo regole semplici possano generare risultati complessi.
90
J. McCarthy, P. J. Hayes, Some philosophical problems from the standpoint of artificial
intelligence, Machine Intelligence, 4, 1969, 463-502, dove pone primariamente il problema logico
della rappresentazione delle azioni. Tuttavia la nozione di qualificazione pone problemi notevoli al
ragionamento automatico se visto nel contesto della vasta rete delle assunzioni che sottostanno
alla conoscenza del senso comune vedi: S. J. Russell, P. Norvig, Artificial Intelligence: A Modern
Approach, New Jersey, 2003. Tale problema esiste, e non è stato ancora risolto, ne nel natural
language processing e in parte anche non nelle reti neurali. In particolare vedi per le reti neurali
vedi: http://facets.kip.uni-heidelberg.de.
91
N. Rude, Graphemic classifiers in Egyptian hieroglyphics and Mesopotamian cuneiform. Noun
Classes and Categorization, C. G. Craig (ed), Amsterdam, 1986, 133–138. E anche: K.
Emmorey, Language, Cognition, and the Brain: Insights from Sign Language Research, Mahwah,
NJ, Lawrence Erlbaum Associations, 2002, 73–77.
92
H. Levesque, F. Pirri, R. Reiter, Foundations for the situation calculus, Electronic Transactions
on Artificial Intelligence, 2 (3-4), 1998, 159-178. Il situation calculus è un formalismo logico
pensato, e in realtá introdotto nell´A I da McCarthy nel 1963, per la rappresentazione e
ragionamento sui domini dinamici.

40
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

fossero le condizioni che non fossero coinvolte da una data azione. La soluzione
proposta da McCarthy e Hayes di usare la cosidetta circoscrizione o meglio nota
come framework of circumscription 93, che è un modo di formalizzare le
assunzioni del senso comune cosí da poter dire che certe condizioni sono
prevedibili se non dichiarato alternativamente 94. Queste idee, per quanto
formulate con obbiettivi diversi hanno a che vedere con il problema della scelta,
il problema del contesto ossia tutte le varianti della nozione di decidibilitá che
abbiamo visto trattati in questa nostra breve presentazione. Il metodo della
circumscription, non è dissimile da quello della cosidetta Close World
Assumption (d´ora in avanti CWA) nella quale ció che è noto come non vero é
necessariamente falso, in opposizione alla Open World Assumption (d´ora in
avanti OWA) che afferma che l´assenza di conoscenza della veridicitá non è
prova di falsitá. La decisione sia in CWA 95 che in OWA mira alla comprensione
della semantica di una data espressione usando peró la stessa notazione
concettuale. In OWA il fatto di non avere conoscenza di una certa informazione
non implica necessariamente un errore ossia il falso. Tale stato è dichiarato solo
come non conosciuto. Perció in un certo modo la OWA puó includere la CWA ma
non il contrario. Infatti nei linguaggi di programmazione logica dotati di negazione
forte 96 è possibile postulare il CWA per certi predicati e usare l´ OWA per quelli
restanti.

93
La circumscription fu esemplificata nel celebre problema dei Missionari e i cannibali o, altre
volte, nel problema equivalente de I Mariti gelosi, una cui variazione è nota in italiano con il nome
de Il contadino, il lupo, la capra e i cavoli (nel marzo 2003, un giovane studente, Claudio Marsan
del Liceo Cantonale di Mendrisio (CH), ha interessantemente risolto questo enigma con la teoria
degli stati; http://www.liceomendrisio.ch/~marsan/matematica/maple/lupo_capra_cavolo.pdf).
Queste storie sono raccolte sotto il nome di The River-Crossing Problems. Vedi: I. Pressman, D.
Singmaster, The Jealous Husbands and The Missionaries and Cannibals, The Mathematical
Gazette, 1989, 73 (464), 73–81. Per la storia di questi enigmi logici, che si dice abbia origine con
le Propositiones ad Acuendos Juvenes attributa ad Alcuino (735–804), vedi: R. Franci, Jealous
Husbands Crossing the River: A Problem from Alcuin to Tartaglia, 289–306, in: Y. Dold-
Samplonius, J. W. Dauben, M. Folkerts, B. van Dalen (edts.), From China to Paris: 2000 Years
Transmission of Mathematical Ideas, Stuttgart, Franz Steiner Verlag, 2002.
94
. McCarthy, Applications of circumscription to formalizing common-sense knowledge. Artificial
Intelligence, 28, 1986, 89-116. La circumscription è una logica non-motonica creata da John
McCarthy.
95
Vedi il fondatore del non-monotonic reasoning che, alla fine degli anni ´70 del 900, ha aperto
la strada appunto al close world reasoning. R. Reiter, On closed world data bases, in: H.
Gallaire, J. Minker (edts.) Logic and Data Bases, Plenum, New York, 1978, 119-140; M. Cadoli,
M. Lenzerini, The complexity of propositional closed world reasoning and circumscription, Journal
of Computer and System Sciences, 1994, 48, 255–310; T. Eiter, G. Gottlob, Propositional
Circumscription and Extended Closed World Reasoning are " x p/2 complete, Theoretical
Computer Science, 1993, 114, 231–245; V. Lifschitz, Closed-world Databases and
Circumscription, Artificial Intelligence, 1985, 27, 229–235.
96
M. Gelfond, V. Lifschitz, Classical negation in logic programs and disjunctive databases, New
Generation Computing, 1991, 9, 365-385.

41
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

Un' altra area di


indagine affrontata dall´AI é
quella, piú volte citata, del
natural language processing
(d´ora in avanti NPL) 97.
Questa disciplina
dell´AI, che come vediamo
nello schema, è
estremamente composita, è
teoreticamente ortogonale a
quella delle ontologie (anche
se le include nella pratica) in quanto in quest´ultime si pone il problema di
definire gerarchicamente concetti mediante una serie di nomi e/o espressioni
linguistiche cosí da poter fare su di essi operazioni logiche di varia natura. Ma
appunto usando espressioni linguistiche si generano forti ambiugitá che il NPL
invece potrebbe gestire in maniera decidibile (o almeno in parte) definendo le
equivalenze, le disgiunzioni e le omografie generate dall´uso di quelle
espressioni 98. Questa disciplina coinvolge sia le scienze computazionali, la
linguistica e la machine learning. In realtá quest´ultima è stata parte fondativa
dell´AI sin dai tempi dell´ormai nota estate di Dartmounth del 1956, dove oltre a
McCarthy, Hayes e altri, anche Ray Solomonoff presentó una conferenza proprio
sulla machine learning dal titolo: An Inductive Inference Machine 99. La machine

97
Questo grafo è stato realizzato da C. Chiesi, Introduzione al Natural Language Processing
Universitá di Siena, 22 Aprile 2009, per la le sue lezioni.
98
Y. Duan, C. Cruz, Formalizing Semantic of Natural Language through Conceptualization from
Existence, International Journal of Innovation, Management and Technology, 2011, 2 (1), 37-42.
99
R. Solomonoff, An Inductive Inference Machine, IRE Convention Record, Section on
Information Theory, Part 2, 1957, 56–62. Nel 1964, dopo una famosa conferenza al CalTech,
(Cerebral Systems and Computers, California Institute of Technology, Feb 8-11) del 1960,
pubblica un articolo (R. Solomonoff, A Formal Theory of Inductive Inference, Part I, Information
and Control, 1964, 7 (1), 1-22; R. Solomonoff, A Formal Theory of Inductive Inference, Part II,
Information and Control, 1964, 7 (2), 224-254) che mette in evidenza la teoria della complessità
di Kolmogorov (Ming Li, P. Vitanyi, An Introduction to Kolmogorov Complexity and its
Applications, Springer-Verlag, New York, 2008) e la teoria del´informazione algoritmica. La
probabilità algoritmica é una combinazione matematicamente formalizzata del cosiddetto Rasoio
di Occam e del principio della spiegazione multipla. E´cioè, un metodo indipendente dalla
macchina per assegnare un valore di probabilità a ciascuna ipotesi (algoritmo/programma) che
spiega una data osservazione, nel quale, l´ipotesi più semplice, ossia il programma più
breve/semplice, ha le maggiori probabilità, e incrementalmente le ipotesi più complesse ne hanno
sempre meno. L´argomento metodologico del Rasoio di Occam (anche noto come Novacula
Occami) è trattato da una vasta letteratura sia in logica che nelle scienze computistiche,
relativamente al calcolo euristico detto della decisione, ma anche in filosofia e in economia.
Attribuito, appunto, a William of Ockam, è rinvenibile come argomento: “Numquam ponenda est
pluralitas sine necessitate” nell´opera Quaestiones et decisiones in quattuor libros Sententiarum
Petri Lombardi, Leiden, 1495, i, distinctio 27, questio 2, K; e ricompare come principio di
parsimonia nella Summa Totius Logicae, i. 12, scritta approssimativamente nel 1323, nella
seguente forma: “Frustra fit per plura quod potest fieri per pauciora”. Tale principio suggerisce
l’inutilità di formulare più assunzioni di quelle che si siano già trovate per spiegare un dato
fenomeno ed impone di evitare ipotesi aggiuntive, allorché quelle iniziali siano sufficienti. Vedi

42
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

learning diventerá la base della disciplina del NLP, le sue premesse teoriche, e
gli sviluppi tecnologici permetteranno nel corso della seconda metá del
novecento di farla diventare centrale, insieme al KR, nel campo delle scienze
dell´informazione e della linguistica computazionale. Per riuscire a capire la
complessitá della NLP tenteremo qui di seguito di sintetizzare aree di ricerca
sulle quali si fonda. Tra queste è nota la cosidetta coreference resolution o
risoluzione anaforica. Data una frase o una più grande porzione di testo, questa
risoluzione consiste nel determinare quali parole, menzioni, si riferiscono a
medesimi oggetti, entità. La risoluzione dell´anafora 100 è un esempio specifico di
questo compito, e riguarda l´identificazione della corrispondenza dei pronomi
con i sostantivi o nomi ad essi relativi. Ad esempio, in una frase come: "Entrò in
casa di Mario dalla porta principale"; la porta principale è un'espressione di
riferimento che stabilisce un rapporto di identificazione tra la porta e il fatto che,
appunto, la porta in questione é della casa di Mario e non una qualche altra
struttura eventualmente citata. A queste ricerche sono correlate altre
specializzazioni quali, l´analisi del discorso che ha il compito di identificare la
tipologia di relazione logica tra parti di un dato testo, vale a dire la natura dei
rapporti tra le frasi costituenti il discorso, quali da esempio: l'elaborazione, la
spiegazione, il contrasto e cosi via. O ancora riconoscere e classificare gli atti
linguistici in una porzione di testo ossia la domanda sì-no, il senso,
l´affermazione, e cosí via. Tra le tante aree di investigazione del NPL, vale la
pena nominare la traduzione automatica (machine translation) e il
riconoscimento delle entitá nominali (named entity recognition - NER). Ai fini di
questa note, cercheremo di spiegare qui soltanto due correnti di ricerca che,
appunto, sono la segmentazione morfologica e il parsing.
La segmentazione morfologica, nel NLP, separa le parole in singoli
morfemi identificandone la classe di appartenenza101. La difficoltá della sua

anche: I. Berlin, The hedgehog and the fox, Chicago, 1993 che usa un´altra storia, quella greca
della Volpe e il Riccio per spiegare i metodi di semplificazione nella teoria della complessitá.
100
L'espressione linguistica anafora fa riferimento ad un'entitá, il referente, precedentemente
introdotta da un'altra espressione, l´antecedente. In tal senso l´anafora si oppone alla catafora in
cui il riferimento anziché essere antecedente, è successivo al referente. L'anafora è una delle più
importanti funzioni di coesione linguistica dei testi. Tale legame coinvolge soprattutto sintagmi
nominali e pronomi. L´anafora, secondo una regola di referenzialitá serve a relazionare porzioni
di un testo più o meno vaste e più o meno distanti tra loro. Tali regole possono essere computate.
Vedi: C. Castelfranchi, B. Graziadio, D. Parisi, G. Lariccia, Risoluzione anaforica e modello del
discorso nello sviluppo della semantica computazionale, Atti del Seminario sull’ “Anafora”,
Accademia della Crusca, Dicembre 1978, 243-273. Vedi anche: R. Kibble, Complement
Anaphora and Dynamic Binding, Proceedings from Semantics and Linguistic Theory VII, A.
Lawson (ed.), Ithaca-New York, Cornell University Press, 1997, 258–275; R. Nouwen,
Complement Anaphora and Interpretation, Journal of Semantics, 20, 2003, 73–113 e sulle lingue
del vicino oriente vedi: M. Abdul-Mageed, Automatic Detection of Arabic Non-Anaphoric
Pronouns for Improving Anaphora Resolution, ACM Transactions on Asian Language Information
Processing, 2011, 10 (1), 5-32.
101
Cosideramo neccesario, tuttavia, proporre alcune osservazioni, di Marco Passarotti , a
riguardo: “Questo non è sempre vero ed è un po’ limitante. Gli analizzatori morfologici, in NLP,
non fanno per forza segmentazione morfologica. Ci sono analizzatori morfologici che hanno delle
look-up table che riportano tutte le forme flesse (non segmentate), ciascuna accompagnata dalla
propria analisi. In merito all’analisi, dire che l’NLP identifica la “classe di appartenenza” è vero,

43
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

computazione dipende dalla complessitá morfologica della lingua presa in


esame. In certe lingue, come l´inglese che ha una morfologia relativamente
semplice e l’analisi automatica delle forme flesse è un’operazione piuttosto
agevole e ormai ben realizzata dagli strumenti oggi disponibil. Mentre in lingue
come ad esempio il turco 102, dove ad un suffisso puó essere aggiunta un´unitá
linguistica infinite volte, la flessione morfologica è fondamentale per l´analisi. La
segmentazione morfologica, è una delle discipline nevralgiche nella storia della
linguistica computazionale del secondo novecento.
Infatti, essa ha origine dalla discussione nata sulla scia della disputa sulla
nozione linguisitica-fonologica di digital infinity di Roman Jakobson 103, dai quali
Avram Noam Chomsky 104 deriva, insieme alla morfofonemica105, anche il
106
meccanismo della grammatica universale . Per capire in che modo Chomsky -
similmente a ció che abbiamo visto Hilbert fare con le matematiche e

ma non completo, in quanto la maggior parte degli analizzatori morfologici va oltre la PoS,
attribuendo anche i valori morfologici di genere, modo, tempo, numero, persona, etc. Inoltre,
bisogna tener conto del fatto che la maggior parte di questi strumenti non si limita ad analizzare
la forma di parola, ma la lemmatizza anche. Infine, dire che la segmentazione morfologica fatta in
ambito NLP (quando è fatta) separa le parole in morfemi non è sempre vero, perché a volte i tool
non badano alla segmentazione morfematica teoricamente corretta, ma alla segmentazione
grafica (ad esempio, LEMLAT - http://www.ilc.cnr.it/lemlat/lemlat/index.html - fa così)”.
102
Come il termine sakin = calmo (agg.) sakin+les- = calmarsi (v.int.) sakinles+tir- = diventare
calmi (v.tr.) sakinlestir+ebil- = essere capaci di calmarsi (v.) sakinlestirebil+ecek = (fut.) saro´
capace di calmarmi (n.) ecc., che, con questo metodo di costruzione, puó avere innumerevoli
forme flesse. Vedi: A. Bisazza, Designing a Nooj Module for Turkish Inflectional Analysis an
Example of Highly Productive Morphology, NooJ Conference, Tozeur, June 2009, 9-11. K.
Oflazer, Two-level description of Turkish Morphology, Proceedings of the Sixth Conference of
EACL, 1993.
103
R. Jakobson, Remarques sur l'evolution phonologique du russe comparée à celle des autres
langues slaves, Prague, 1929; R. Jakobson, L. Waugh, The Sound Shape of Language, 1979.
104
N. Chomsky, Aspects of Theory of Syntax, Cambridge MA, MIT Press, 64-127.
105
Per una storia di questa disciplina vedi : B. Hayes, Morphophonemic Analysis, in: Introductory
Phonology, 2009, 61–185.
106
Una delle fonti storiche della universal grammar è James Beattie (1735–1803) un
contemporaneo e oppositore di David Hume, vedi: J. Beattie, The theory of language. Part I. Of
the origin and general nature of speech. Part II. Of universal grammar, 1788; Ristampato due
volte in: J. Beattie, Dissertations Moral and Critical, 1783 e 1986; Harris James è considerato un
antecedente di Beattie: J. Harris, Hermes or A Philosophical Inquiry Concerning Universal
Grammar, 1751 e 1771; sull´innatismo delle regole della lingua vedi: M. C. Baker, The Atoms of
Language: The Mind's Hidden Rules of Grammar, Oxford University Press, 2003; L. White,
Second Language Acquisition and Universal Grammar, Cambridge University Press, 2003; sulla
nozione fondante la universal grammar, chiamato poverty of stimulus, che condusse Chomsky a
fondare le capacitá umane di aquisire una data lingua sul postulato chiamato language
acquisition device (LAD) vedi: W. Zuidema, How the poverty of stimulus solves the poverty of
stimulus, Evolution of Language: Fourth International Conference, Harvard University, March
2002; per le obiezioni a questo postulato vedi: J. R. Hurford, Nativist and Functional Explanations
in Language Acquisition, 1995, 88. La grammatica universale fu criticata severamente da
Geoffrey Sampson (G. Sampson, The Form of Language, 1975; G. Sampson, What was
transformational grammar?, Lingua, 48, 1979, 355–378) e Jeffrey Elman (J. Elman et al.,
Rethinking Innateness: A Connectionist Perspective on Development, Cambridge MA, MIT Press,
1996) che affermavano che simile teoria non era falsificabile e che quindi era da ritenere non-
scientifica e costruita su metodi post-hoc piuttosto che previsonali.

44
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

incontrando antinomie analoghe107 - abbia voluto derivare una regola generale


della lingua che includesse anche la semantica, cioé che rendesse decidibile,
ossia computabile, la fenomenologia di tutti gli atti lingustici, bisogna aggiungere
per quanto sintetico, proprio a partire dalla fonologia e dalla morfologia, un piú
dettagliato commento sulle sue premesse teoriche.
Sin dagli anni ´50 del novecento la fonologia è stata generalmente
considerata il ramo più rigorosamente scientifico della linguistica. Infatti, secondo
i fonologi, la digital infinity 108, è stata resa possibile dalla concezione dell´
apparato vocale umano, inteso come una sorta di macchina costituita da un
numero primitivo di interruttori binari. Ad esempio, la vocalizzazione puó essere
accesa negli stati o n o off, come ugualmente lo potrebbe essere la
palatizazzione, la nasalizzazione e così via. Se prendiamo, per esempio, la
consonante b, quando l´interruttore della vocalizzazione è in posizione off si
ottiene invece la consonante p. Cioè, ogni fonema possibile, in qualsiasi lingua
del mondo, in questo modo, potrebbe essere generato da una particolare
configurazione on/off dei singoli organi (interruttori) che costituiscono l'apparato
vocale umano. Quest´ idea, attribuita appunto a Jakobson, divenne celebre
come la teoria dei tratti distintivi 109. L´argomentazione fondamentale di questa
tesi puó essere semplificata come segue. In linea di principio, ogni fonema, in
una qualsiasi lingua naturale, potrebbe essere ridotta alle sue componenti
atomiche primitive da una serie di scelte 'o n' o 'off' (tratti distintivi) di un
apparecchio digitale strutturato logicamente in maniera analoga a quello che
costituisce l´apparato vocale umano, ossia, il palato molle, le labbra, la laringe e
così via.
Basandosi sulla teoria dei tratti distintivi di Jakobson, Chomsky sviluppa la
sua morfofonematica. Nel corso degli anni in cui fu all´MIT Chomsky esploró in
che misura i principi dei tratti distintivi potessero essere applicati alle vare sotto-

107
M. K. Brame, Conjectures and refutations in syntax and semantics, New York, 1976.
108
N. Chomsky, Linguistics and Cognitive Science: Problems and Mysteries, in: The Chomskyan
Turn, A. Kasher (ed.), Oxford, 1991, 26-53.
109
Per gli antecedenti teorici in relazione a quest´argomento di Jakobson vedi i seguenti studi: N.
S. Trubetzkoy, Grundzüge der Phonologie, Travaux du cercle linguistique de Prague, 7, 1939; in
inglese N. S. Trubetzkoy, Principles of Phonology, C. Baltaxe (trad.), Berkeley, University of
California Press, 1969, un opera, nella quale si espone l´opposizione alla divisone assoluta della
nozione di forma e sostanza di Hjelmslev, e che fu publicata postuma grazie a Jakobson (vedi:
R. Jakobson, (ed.), Autobiographical notes on N.S. Trubetzkoy, appendice alla 2da ed. 1958, che
appare anche nella traduzione inglese); S. Anderson, Phonology in the Twentieth Century,
Chicago, University of Chicago Press, 1985; E. Fischer-Jørgensen, Trends in Phonological
Theory, Copenhagen, Academisk Forlag, 1975. Piú in particolare sono da segnalare: S. Singh,
Distinctive Features: Theory and Validation, Baltimore, University Park Press, 1976, che esamina
tutte le teorie relative ai tratti distintivi e le sue implicazioni pratiche; J. Anderson, E. Colin,
Principles of Dependency Phonology, Cambridge, Cambridge University Press, 1987, un classico
studio sulla teoria dei tratti distintivi a cui si aggiunge il tentativo di creare un modello di struttura
subsegmentazionale nel quale i tratti distintivi possano essere tutti privativi (l´opposizione
privativa fa riferimento alla nozione di marcatezza, ossia dove il fonema é sonoro esso é da
intendere marcato mentre quando é sordo va inteso come non marcato, come ad esempio /p/ ~
/b/ palla ~ balla, in cui l´uno é sordo e l´altro é sonoro). Infine relativamente alla creazione di una
gerarchia di classe e la relativa definizione dei nodi dei tratti distintivi vedi: G. N. Clements, The
Geometry of Phonological Features, Phonology Yearbook, 2, 1985, 225–252.

45
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

discipline della linguistica includendo la sintassi e la semantica. E cioé si pose la


domanda che se dunque l´apparato vocale umano puó essere logicamente
strutturato come una macchina digitale, perché non anche i componenti della
sintassi e della semantica? La risposta a questo quesito condusse Chomsky a
perseguire, a partire dalla grammatica transfomazionale generativa, la possibile
computabilitá delle lingue naturali svilupando l´idea di creare quella che è ormai
nota con il nome non inequivoco di semantica generativa 110. Cioè, similmente
alla fonetica di Jakobson nella teoria dei tratti distintivi, Chomsky afferma che un
qualsiasi soggetto parlante produce parole e frasi dal senso compiuto
combinando gli elementi primitivi costitutivi di quel senso, ognuno dei quali puó
appunto avere lo stato di on oppure off. L´esempio piú conosciuto per capire
questo procedimento e quello detto dello scapolo. Infatti, per produrre la parola
scapolo è necessario che il cervello mantenga nello stato di on concetti
contestuali come animato, umano e maschio e al contempo mantenga nello
stato di off sposato. L´assunzione sottostante a una simile procedura è che le
componenti primitive richieste quali animato, umano, maschio, sposato siano
componenti innate dell´organo linguistico umano e che ricorda certe posizioni
neo-kantiane di Kripke. Quest´idea faceva capo alla nozione di struttura
profonda, che fu successivamente abbandonata anche da Chomsky, nella quale
l´espressione linguistica è la struttura superficiale con l´aggiunta di una forma
fonetica. Un'altra nozione vuole la struttura profonda sia unificante le espressioni
linguistiche che si diversificano solo nella forma superficiale. Ad esempio, se si
usano frasi in forma passiva o attiva, io mangio la mela o la mela viene magiata
da me hanno lo stesso senso, esse hanno una sola forma per la struttura
profonda ma si diversificano solo superficialmente. Chomsky non aderí mai a
questa ultima posizione 111. E´ sulla fondazione della semantica generativa che,
in ambito linguistico, si scatenó una disputa - con relativa diaspora, specie di
George P. Lakoff e in maniera diversa anche di Steven Arthur Pinker, verso la
linguistica cognitiva – diventando una vera e propria guerra delle parti sino alla
fine degli anni ´70 112. Di fianco e concorrente a queste dispute linguistiche nella
NLP si svulppó nel corso della seconda metá del novecento la forma moderna

110
Intorno al temi della semantica generativa si sviluppó una feroce controversia che fu
espressione di approcci conflittuali in semantica relativamente a quella che abbiamo visto essere
la sintassi trasformazionale generativa. Nella sua forma originaria quest´ultima aveva una serie di
regole sintattiche odinate come un insieme di frasi ben-definite (well-formed) che erano
accoppiate con delle strutture sintattiche ad ognuna delle quali era assegnata un interpretazione
dipendente da una teoria semantica propria. Questo consentiva di lasciare alla sintassi in quanto
tale un ruolo, anche se non completamente, autonomo relativamente alla semantica e questa fu
la posizione assunta da Chomsky. In realtá i sostenitori della semantica generativa contra
semantica interpretativa furono gli studenti di Chomsky quali ad esempio John R. Ross, Paul
Postal e piú tradi anche James McCawley. Tuttavia da questo dibattito nato tra gli anni ´60 e ´70
del ´900 furono proprio quest´ultimi a perdere la battaglia, cosí che verso la fine degli anni ´80 le
ricerche in questo settore si interruppero. Questo anche perché studiosi di semantica come
George P. Lakoff ed altri abbandonarono ben presto la nozione di struttura profonda per passare
attraverso la cosiddetta trace theory alla lingusitica cognitiva.
111
G. J. Huck, J. A. Goldsmith, Ideology and Linguistic Theory: Noam Chomsky and the deep
structure debates, New York, 1995.
112
R. A. Harris, The linguistics wars, Oxford University Press, 1995.

46
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

della cosidetta disciplina del parsing. Diventando, proprio sulla base della crisi
della semantica generativa, dagli anni ´70, un´area centrale della discussione
relativa all´applicazione della computistica ai linguaggi naturali e quindi un
tentativo di identificare per essi un principio di decidibilitá. Ora, la complessitá
delle teorie che sottostanno a questa disciplina dell´AI/NLP è tale da non per
poter essere trattata qui nel suo insieme e quindi ci limiteremo brevemente ad
osservare soltanto il caso delle cosidette Treebanks (d´ora in avanti TB) ossia ad
un particolare modo di trattare i corpus 113. Le TB, sono appunto corpora annotati
a livello sintattico. Dove per annotazione si intende l´uso di un linguaggio formale
(ossia un metalinguaggio) che consenta di individuare la funzione, la tipologia e
la morfologia di ogni termine di un dato corpus. Le prime TB sono state fatte
negli anni '70 e hanno usato le grammatiche a costituenti (CG) di ascendenza
chomskiana e dalla fine degli anni '90 in poi, si è cominciato a usare anche
grammatiche a dipendenza (DG)114. Per semplificare possiamo dire che la
distinzione tra grammatiche a dipendenza e quelle a costituenti deriva dalla
differente definizione della relazione esitente tra unitá di una data frase. La
relazione nelle CG è basata su di una divisione binaria della frase in soggetto
(NP noun phrase) e in predicato o verbo (VP verb phrase). Questa divisione è
stata usata nella analisi di Leonard Bloomfield e Noam Chomsky. Mentre
Tesnière, si oppone ad essa, ponendo invece il verbo come radice primaria
(prime actant) della struttura della frase. La posizione della sintassi strutturale di

113
Vedi a tal riguardo: R. Mitkov (ed.), The Oxford Handbook of Computational Linguistics ,
Oxford, Oxford University Press, 2003; Clarks, Fox & Lappin, The handbook of computational
linguistics and NLP, Wiley, 2010. Sul caso delle applicazioni computistiche della NLP/Treebank
nel latino vedi: M. Passarotti, F. Dell'Orletta, Improvements in Parsing the Index Thomisticus
Treebank. Revision, Combination and a Feature Model for Medieval Latin, in Proceedings of the
Seventh International Conference on Language Resources and Evaluation (LREC 2010). May
19-21, 2010, La Valletta, Malta, European Language Resources Association (ELRA), 2010, pp.
1964-1971.
114
La grammatica a dipendenza é una classe delle moderne teorie sintattiche basate sulla
nozione di relazione appunto di dipendenza tra unitá grammaticali e fu introdotta nella linguistica
del novecento dall´opera, pubblicata postuma nel 1959, di Lucien Tesnière (L. Tesnière,
Éléments de syntaxe strutturale, Klincksieck, Paris, 1959; seconda ed. 1988 con la revisione di
Jean Fourquet). Questa grammatica si distingue da quella della struttura delle frasi, chiamata
grammatica a costituenti, poiché la grammatica a dipendenza non prevede di creare nodi per le
singole frasi, ossia la struttura é determinata dalla relazione tra una data parola (il verbo) e le sue
dipendenze. In altri termini, per semplificare, Tesnière utilizzando il linguaggio mutuato dalla
chimica - la grammatica valenziale - crea la grammatica a dipendenza ché è tutta sviluppata
attorno alla parola per eccellenza, il verbo. Esso, è come l'atomo: alcuni atomi hanno bisogno di
saturare le loro valenze per acquisire la struttura di molecola, che è il più piccolo insieme di atomi
aggregati da legami chimici capace di conservare le proprietà dell'elemento. I verbi, al pari degli
atomi, vengono distinti in base alla loro capacità di saturazione; la valenza è il legame che il
verbo instaura con altri elementi della frase per poter completare il proprio significato. La nozione
di dipendenza in grammatica ha tuttavia una storia molto antica. Infatti la sua origine viene
identificata nell´opera del grammatico sanscrito Panini (con un punto sotto la prima ´n´) che
scrisse un opera nota con il nome di Ashtadhyayi nel VI secolo A.C. Quest´opera contiene la
formulazione di 3959 regole di morfologia, sintassi e semantica nelle quali si spiegano le
dipendende delle unitá grammaticali (biblio ..). Tuttavia sembra che la nozione moderna di
dipendenza nella grammatica sia stata elaborata dal matematico e grammatico (..nome) vissuto
a Cordova (…) e il (…) con la sua opera (nome opera) .

47
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

Tesnière implicava la non


applicabilitá della nozione di
soggetto-predicato alla ricerca
linguistica in quanto appartente,
secondo lui, solo alla logica115.

Struttura a costituenti Struttura a dipendenze

Questi grafici sono presi dalla Penn Treebank per la lingua inglese116. Infatti
Tesnière nel capitolo introduttivo della Éléments de syntaxe strutturale spiega
che: “La frase è un insieme organizzato i cui elementi primari sono le parole.
[1.2] Ogni parola che appartiene ad una frase non è piú isolata come se fosse in
un dizionario. Tra la parola e
i suoi vicini, la mente
percepisce delle connessioni
la cui totalitá costituisce la
frase in quanto tale. [1.3] Le
connessioni strutturali creano
una relazione di dipendenza
tra le singole parole. In linea
di principio, ogni
connessione unifica un
termine superiore ad uno
inferiore. [2.1.] Il termine
superiore prende il nome di
g o v e r n a t o r e . Il termine
inferiore prende il nome di
s u b o r d i n a t o . Infatti nella
frase Alfred parle […], è
Modello ibrido di D G e C G Quranic Arabic Corpus
parle che governa mentre Treebank
Alfred è subordinato. [2.2]” 117. Dalla struttura binaria soggetto-predicato si passa
una struttura binaria assimaterica simile ad uno stemma che si basa su tre
115
Tesnière, op. cit., 1959, 103-105.
116
Ho ripreso l´esempio riportato da J. Nivre, Dependency Grammar and Dependency Parsing,
2010, Language and Linguistic Compass, 138-152. Vedi anche: M. P. Marcus, B. Santorini, M. A.
Marcinkiewicz, Building a large annotated corpus of English: The Penn Treebank, Computational
Linguistics, 19, 1993, 313–330.
117
Il testo originale recita: “ La phrase est un ensemble organisé dont l es éléments constituants
sont les mots. [1.2] Tout mot qui fait partie d’une phrase cesse par luim ême d’être isolé comme

48
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

concetti complementari: connection , junction e transfer. Lo sviluppo della


grammatica a dipendenze 118 a portato ad una proliferazione di frameworks che
in certi casi usano, come quello della Prague Dependency Treebank 119 la DG o
ancora della Quranic Arabic Corpus Treebank 120, che ha un modello ibrido dove
si applicano sia i metodi di codifica della DG che quelli della CG. Ossia, una
dipendenza tra termini ma anche, e ció nella DG non c´è, una dipendenza tra i
nodi delle frasi. Mentre oggi il paradigma ancora piú diffuso è di tipo empirico
(parser stocastici, training set), vi sono ultimamente delle tendenze a passare
appunto a modelli ibridi (rule-based e data-driven). Gli antecedenti del parsing
sintattico automatico furono i cosiddetti RTN/ATN. Essi furono i primi parser
sintattici automatici (rule-based) risalenti agli anni ´70121.
Dopo questa sintesi che ci ha portato attraverso il novecento nel tentativo
di individuare quali furono le premesse teoriche alla computistica da una parte e
la natura del concetto di decidibilitá - declinato in varie discipline in maniera
diversa - che ne ha caratterizzato la nascita e lo sviluppo dall´altra, sino agli
albori del web come lo conosciamo oggi, possiamo finalmente concludere

dans le dictionnaire. Entre lui et ses voisins, l’esprit aperc¸oit des connexions, dont l’ensemble
forme la charpente de la phrase. [1.3] Les connexions structurales établissent entre les mots des
rapports de dépendance. Chaque connexion unit en principe un terme supérieur à un terme
inférieur. [2.1] Le terme supérieur reçoit le nom de régissant. Le terme inférieur reçoit le nom de
subordonné. Ainsi dans la phrase Alfred parle […], parle est le régissant et Alfred le subordonné.
[2.2]”. Tesnière, op. cit., 1959, 11-13 (il corsivo è del testo).
118
Per dare l´idea di quanto vasta e diversificata sia questa specializzazione vedi l´elenco
cronologico in: J. Nivre, op. cit, 2010, 138-139.
119
Vedi: http://ufal.mff.cuni.cz/pdt/ .
120
Vedi: http://corpus.quran.com/ .
121
W. A. Woods, Transition Network Grammars for Natural Language Analysis, Communications
of the ACM, 13 (10), 1970, 591–606; W. A. Woods, Cascaded ATN grammars , American Journal
of Computational Linguistics, 1980, 1-12. La sigla ATN che significa Augmented Transition
Network è una tipologia di grafo usato per la definizione operazionale dei linguaggi formali,
specialmente per quanto riguarda il parsing di linguaggi naturali relativamente complessi. Una
ATN, dice Woods, può in teoria, analizzare la struttura di qualunque frase, anche se complicata.
Le ATN sono costruite sull'idea di utilizzare macchine a stati finiti (sul modello di Markov Monte
Carlo che abbiamo visto) per effettuare il parsing di parole. Aggiungendo il meccanismo di
ricorsione ad un modello a stati finiti, è possibile eseguire il parsing in maniera più efficiente.
Ossia, invece di costruire un automata per una particolare frase, si realizzano un insieme di grafi
di transizione. Il raggiungimento dello stato finale di ogni grafo indica la correttezza sintattica della
frase ´!parsificata´. Le transizioni fra questi grafi sono semplici chiamate a funzioni da un qualsiasi
stato corrente verso lo stato iniziale di un qualunque grafo nella rete. Questo modello era ritenuto
efficiente in quanto era in grado di catturare le regolarità del linguaggio. Ovvero, se è presente un
processo che opera su diversi ambienti, la grammatica può incapsulare il processo in una singola
struttura. Un ulteriore vantaggio di tale modello consiste nell'abilità di rinviare la cosiddetta
decisione (vedi sopra il problema della scelta). La ATN superó l´antecedente Recursive
Transition Networks (RTN) inglobandola. Quest´ultima consisteva in una collezione di grafi/reti
(networks), ognuno dei quali aveva come etichetta il nome di una categoria sintattica. I grafi a
loro volta erano costituiti da una collezione di stati connessi mediante archi direzionali anch´ essi
etichettati con il nome di categorie sintattiche. Ogni grafo inoltre conteva le informazioni relative ai
propri stati iniziali e finali. Quindi, semplificando, la RTN puó essere intesa come una mappa che
permette una navigazione esplicativa, mediante delle espressioni grammaticali, della struttura di
una data lingua. Il suo successo fu dovuto all´uso delle grammatiche procedurali che alla fine
degli anni ´70 furono sostituite da quelle dichiarative.

49
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

cercando di capire come mai il progetto Xandau di Nelson, basato sull´hyperlink


122
, non potesse, alla sua nascita, avere il successo sperato 123. Nonostante il
suo iniziale fallimento Nelson ancor oggi sviluppa questo progetto dopo quasi
trent´anni di tentativi e piú di dieci versioni ed é diventato il manifesto del
cosiddetto altro web. Inoltre, vedremo come quell´ipotesi, nonostante il web
semantico, sia ancor oggi, per quanto in forme tecnologiche diverse da quelle
pensate da Nelson, ben lungi dall´essere raggiunto. Il progetto Xandau ha come
concetto primario il documento in tutte le sue forme e i riferimenti auto-espliciti,
ossia appunto l´iperlink, come ossatura della semantica di tutta la rete. Il
documento puó essere trattato sin nelle sue piú piccole parti come univoco
elemento di informazione e questo puó essere legato ad un numero illimitato di
altri piccoli o grandi documenti in maniera tale da assicurare il mantenimento del
riferimento anche nel caso che ad uno dei due estremi del riferimento venga
spostato fisicamente l´informazione altrove. Un documento diventa accessibile
quando un´autore lo pubblica sia sulla propria macchina o altrove ed il sistema
sarebbe stato in grado di identificare l´authorship e definire con esso lo stato
giuridico di quella particolare pezzo di informazione (re-usabile oppure no;
aggiornabile oppure no, di piú autori e quali, ecc.), nondimeno gestire le versioni
di uno stesso documento e tutto ció attraverso la miriadi di macchine in maniera
dinamica (cioé in tempo reale). Inoltre una volta cercata un´informazione si
avrebbe avuto una risposta non in forma di lista come succede oggi con i motori
di ricerca ma una nube di relazioni determinate con le loro fonti disponibili
contemporamente chiamata anche zippered lists (elenchi a cerniera) 124. Cioé

122
La storia dei tentativi di applicare la nozione di hyperlink alla comunicazione via macchina puó
essere sintetizzata come segue. Dopo la proposta, che abbiamo visto, nel 1945 di Memex da
parte di Vannevar Bush, nel 1965, Ted Nelson fonda il concetto e conia l´espressione hypertext i
cui concetti spiegherá e userá nei citati Xandau e Literary Machines. Poco dopo nel, 1967 alla
Brown University, Andy van Dam con i suoi studenti e il celebre Bob Wallace (fondatore della
Quicksoft) costruisce l ´ Hypertext Editing System e il File Retrieval and Editing System (FRESS).
Doug Engelbart alla Fall Joint Computer Conference di San Francisco l´8 dicembre del 1968
presenta il sistema pilota chiamato oN Line System (NLS). Nel 1975 alla Carnegie Mellon
University nasce ZOG (una semplice sigla non un acronimo), oggi noto come Knowledge
Management System (KMS). Andy Lippman, con il MIT Architecture Machine Group (oggi Media
Lab), nel 1978 inventa il primo video disco basato sull´iperlink chiamato Aspen Movie Map al
quale seguirá nel 1984 da parte del gruppo Telos il Filevision, una base dati di ipermedia ad
esclusivo uso della Macintosh. Janet Walker, nel 1985, introduce il Symbolics Document
Examiner e, sempre alla Brown University, Norman Meyrowitz, publica Intermedia. Il primo e piú
diffuso ipertesto fu introdotto dall´ Office Workstations Ltd. (OWL) nel 1986 al quale, nel 1987, Bill
Atkinson per la Apple, risponde con l´ HyperCard. E´nell´1987 che ha luogo la prima conferenza
mondiale sull´ipertesto a Chapel Hill, North Carolina, nel novembre del 1987 alla quale seguirono
i celebri Proceedings of ACM Hypertext 87 Conference, e da allora si è ripetuta ogni anno sino al
2010. Nel 1991 nasce il World Wide Web sul modello proposto da Tim Berners-Lee, dapprima
offerto al CERN nel 1989, ma rifiutato dall´allora direttore Carlo Rubia, e quindi raffinato e
sviluppato insieme a Robert Cailliau al MIT dove nel 1994 fonderanno il World Wide Web
Consortium (W3C) Consortiun che conosciamo oggi.
123
J. Nielsen, Multimedia and Hypertext: The Internet and Beyond , Morgan Kaufmann
Publishers, 1995, cap. 3.
124
T. H. Nelson, Literary Machines , Mindful Press, 1987 e anche T. H. Nelson, Parallel
Documents, Deep Links to Content, Deep Versioning, and Deep Re-Use, ACM Computing
Surveys, 31 (4), 1999. Facilitando la scrittura non-sequenziale cosí che l´utente potesse scegliere

50
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

precisamente quello che la moderna Digital Humanities avrebbe bisogno.


Purtroppo al tempo della sua nascita e nell´era della corsa alla creazione del web
la logica di Nelson apparve troppo complessa per le tecnologie di allora, e quindi
vinse la versione semplificatrice di Tim Bernes-Lee, ossia una semplice serie di
protocolli universali che garantissero oltre alla connessione fra macchine125, uno
scambio di stringhe, l´hypertext markup language (html), che fosse anch´esso
universale per qualsiasi publicazione sulla rete. A Tim Bernes-Lee non é mai
interessato di che natura fosse l´informazione trasmessa e in che modo una sua
migliore strutturazione avesse potuto contribuire a far crescere l´accesso al
sapere in maniera diversa da quello a cui siamo stati abituati dalle scuole e dalle
nostre universitá, il suo solo interesse era realtivo al fatto che le macchine
comunicassero, e che la forma dell´encodig, per quanto semplice, fosse unica.
Visto il successo dell´html si sarebbe portati a credere che Nelson ne sia in
qualche modo felice e invece egli afferma: ´“Html is precisely what we were
trying to prevent – ever-breaking links, links going outward only, quotes you can't
follow to their origins, no version management, no rights management”. Ora, la
semplificazione di Tim Bernes-Lee, secondo Nelson, ha portato soltanto alla
riproduzione digitale del mondo cartaceo senza aggiungere con la tecnologia
nulla al paradigma di produzione del sapere che era proprio dei documenti
prodotti sulla carta. Dunque Nelson appunto cercó, e in qualche modo cerca
ancora, di definire il nuovo paradigma di produzione del sapere umanistico, che é
appunto documento centrico, non riuscendo a diffondendere la sua posizione,
non solo perché vi sono dei dubbi sulla natura dei qualificatori che si dovrebbero
usare per identificare i riferimenti (i link), ma anche perché la comunitá degli
umanisti, se escludiamo i linguisti, si é ben di rado posta la questione, lasciando
quindi che la transizione fosse gestita dalla sola tecnologia, dalle sue necessarie
semplificazioni. L´unico incontro conosciuto tra Tim Bernes-Lee e Ted Nelson
avvenne in California sulla barca-casa che quest´ultimo aveva a Sausalito nel
1992 alla fine un viaggio di tre mesi attraverso gli Stati Uniti. Non é chiaro, o
meglio, non si sá quale fu la loro conversazione, ma é certo che le due visioni
dello stesso problema hanno contribuito a far emergere la necessitá di definire
quale é la natura concettuale di questa transizione che, come abbiamo visto,
affonda le radici in tutto il pensiero dell´ultimo secolo e mezzo di storia:
computing and humanities appunto o digital humanities come è stata piú
recentemente battezzata.
Apparentemente non vi è nessun elemento di contatto tra questi due
mondi. Tuttavia, uno dei possibili punti di intersezione potrebbe essere il concetto

il proprio orizzonte di lettura attraverso un documento elettronico, costruì un esempio in


documento della AMC nel quale questi elenchi a cerniera permettevano ai testi composti di
essere formati da parti di altri documenti, un concetto definito trasclusione. Nel 1967, mentre
lavorava per Harcourt, Brace chiamò il suo progetto Xanadu, in onore del poema Kubla Khan di
Samuel Taylor Coleridge, il nome del poemetto a sua volta proviene dall'antico khan mongolo
Kubilai Khan (1215 - 1294). Vedi: S. T. Coleridge, Kubla Khan or A Vision in a Dream, London,
1816.
125
In realtá tali protocolli di connessione tra macchine esisteva giá sin dal 1973 e sono il TCP
(Transmission Control Protocol) e IP (Internet Protocol) e furono sviluppati da Robert Kahn e
Vinton Cerf per sostituire il vecchio NCP (Network Control Program) usato da ArapaNet.

51
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

di strutturazione che assume in queste due aree del sapere forme diverse. La
strutturazione delle informazioni nel mondo umanistico è basata da una parte
sulla retorica della presentazione delle informazioni dipendente dalle regole
tassonomico-concettuali di ogni disciplina, e sui linguaggi naturali dall´altra. La
strutturazione nel mondo tecnologico è basata sui linguaggi formali da una parte
e sulle matematiche computazionali dall´altra. Abbiamo visto sopra come le
informazioni prodotte nella tradizione del sapere umanistico esprimano la natura
e la tipologia dei concetti in base a un sistema di presentazione che varia con il
variare della natura dell´opera. Purtuttavia, sia che ci si trovi dinnanzi ad un
trattato di filosofia naturale o a un poema il principio che abbiamo chiamato di
referenzialitá viene sempre implementato sia in maniera esplicita che
implicitamente. Esso rappresenta il punto semanticamente piú denso della
narrazione poiché richiama una fonte non visibile all´atto della lettura. In realtá
questo principio che nelle logiche classiche veniva chiamato predicato, è sempre
stato alla base di qualsivoglia descrizione della realtá. È quindi possibile inferire
una natura simile tra il concetto di predicato in senso formale e il concetto di
reference espresso dal ragionamento narrativo.
Negli studi relativi alla fenomenologia connessa con il ragionamento
narrativo vi è ancora una visione del problema che si limita a constatare quale
valore ha questa tipologia gnoseologica nella psicologia 126 o nella stuttura dei
linguaggi naturali. A titolo di esempio, vale la pena, a tal riguardo, riportare qui di
seguito alcuni brani da un testo di Smorti 127 relativo proprio al pensiero narrativo.
“Il pensiero paradigmatico è tipico del ragionamento scientifico: implica la
costruzione di classi di equivalenze, di gerarchie di categorie con rapporti di
inclusività, di proposizioni libere dal contesto, formali, astratte dal tempo.
Quando viene usato, l'individuo deve mettere in relazione un caso individuale
con categorie generali secondo un processo verticale di subordinazione e di
sovraordinazione. È nomotetico e paradigmatico. Fa uso di categorie e di
costrutti prestabiliti, generali e depositati in memoria. Riguarda le leggi generali
della causalità, proposizioni libere dal contesto sul modello generale della
scienza. […] Usa modi estensionali e sacrifica la comprensione all'estensione, la
ricchezza al rigore, cerca di eliminare le ambiguità scegliendo le alternative in
modo da determinare quale tipo di spiegazione dei fenomeni sia quella giusta.
[…] Il pensiero narrativo viene impiegato prevalentemente nell'ambito del
discorso e del ragionamento quotidiano. […] Questo perché il pensiero narrativo
cerca di dare un'interpretazione ai fatti umani creando una storia basata
sull'intenzionalità degli attori e sulla sensibilità al contesto. […] Linguisticamente

126
W. R. Fisher, Narration as Human Communication Paradigm: The Case of Public Moral
Argument, Communication Monographs, 51, 1984, 1–22; W. R. Fisher, Human Communication
as Narration: Toward a Philosophy of Reason, Value, and Action, University of South Carolina
Press, 1987; vedi anche: W. R. Fisher, Narrative Rationality and the Logic of Scientific Discourse,
Argumentation , 8, 1994, 21-32.
127
A. Smorti, Il pensiero narrativo. Costruzione di storie e sviluppo della conoscenza sociale ,
Firenze, 1994, 92. In questo contesto, anche se terminologicamente omologhe, le espressioni
pensiero narrativo o in inglese narrative thinking vanno intese come parte di ció che qui definiamo
come ragionamento narrativo. A tal rigurado vedi: A. Katz, Narrative thinking and experimential
knowledge: the example of Ronald Sukenick, Texas Studies in Literature and Language, 2005.

52
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

il pensiero narrativo è sintagmatico, nel senso che l'asse del suo linguaggio è
orizzontale e riguarda tutte le possibili opzioni sintattiche per concatenare le
parole o le frasi tra loro. Il pensiero narrativo è inoltre ideografico, nel senso che
ricerca le leggi relative al caso singolo. […] Nel cercare la logica delle azioni
umane, esso si muove al livello della intensionalità dei significati, cercando di
ricostruire la ricchezza del caso singolo secondo un quadro unitario.
L'organizzazione interna del pensiero è partitiva piuttosto che inclusiva. Ciò fa sì
che il pensiero narrativo produca temi o collezioni piuttosto che categorie o
concetti. L'insieme e gli elementi si determinano reciprocamente. Ciò significa
che la narrazione richiede una gestalt, cosa che il pensiero formale non
richiede”.
É precisamente una simile distinzione, che pur non mettendo in
contrapposizione queste due forme di pensiero, ma piuttosto ponendole come
due fenomeni semplicemente diversi tra loro, non riesce a cogliere la presente
realtá della loro intersezione. Quest´ultima, nel testo citato, sembra essere un
evento apparentemente indotto in maniera arbitraria e incidentale dalla crescita
tecnologica e dalla trasformazione della comunicazione e non riesce a definire in
che misura e a che livello concettuale e con quali implicazioni la ragione
paradigmatica e quella narrativa si siano dovuti fondere per dar vita ad una forma
terza, quella che potremmo ipotizzare di chiamare functional gestalt o ancora
quello che Yukari Makino chiama il logical-narrative thinking 128. Di questa forma
di sapere peró, per ora, se ne conoscono solo gli effetti estrinseci ma non i
concetti fondanti. Senza quest´ultimi essa non potrá che rimanere
esclusivamente ancorata alla nozione di quel documento cartaceo facendo sí
che il web ne diventi una, per altro semanticamente vuota, semplice copia.
Ora, poiché i linguaggi formali, che servono alle macchine per capire le
forme dei linguaggi naturali, lo abbiamo visto sopra, sono basati anch´essi su
delle sintassi, e queste, per poter funzionare, a loro volta hanno un sistema di
costrutti assiomatici non dissimile da quello delle grammatiche delle lingue
naturali, è chiaro che instersecare i concetti dei primi con i secondi richiede un
metodo e uno sforzo diverso sia dal puro programmare che dallo puro scrivere.
La loro semplice sovrapposizione è precisamente ció di cui non sentiamo affatto
il bisogno.

3. Gli orizzonti della strutturazione logica del ragionamento narrativo e i meta


modelli. Note sul dibattito delle ontologie fondative e esperimenti mediovali,
frammenti di ipotesi, conclusioni.

Quest´ultimo capitolo vorrebbe mostrare come intorno al recente dibattito


sulla natura costititutiva delle ontologie fondazionali, che sono nate nel mondo
scientifico, non venga considerato un fatto fondamentale ossia che il conoscere

128
Y. Makino, Logical-Narrative Thinking Revealed: The Message Construction Cross, The
International Journal of Learning, 16 (2), 2008, 143-154. Y. Makino, Logical-Narrative Thinking
Revealed: The Message Construction Cross, The International Journal of Learning, 16 (2), 2009,
143-153.

53
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

inteso in senso umanistico non ha a che fare come la scienza con una
fenomenologia esclusivamente mondana, ma che piuttosto intersichi la
descrizione di quest´ultima con una serie di concetti, visioni, ben difficilmente
assimilabili ai soli fenomeni fisici della realtá. Quindi quando si vuole
rappresentare i fenomeni che competono al ragionamento narrativo, che sta alla
base della stessa ricerca umanistica, siamo costretti a considerare sia gli oggetti
in quanto tali che la tradizione che li ha studiati e trasmessi.
Perció qui di seguito mostreremo alcuni limiti dell´attuale corrente
cosiddetta dell´aristotelismo realista a favore di quello che abbiamo visto Barry
Smith definire idealismo. Infine, cercheremo di indicare quale potrebbe essere
una prima ipotesi per superare il puro – benché a nostro avviso solo apparente –
nominalismo derivante dal rappresentare conoscenza poiché essa è giá
strutturata disciplinarmente. Cossiché, al fine di superare i limiti di ogni hortus
conclusus e confrontare i risultati tra discipline dobbiamo ricorrere ad un modello
che non sia derivato da un solo dominio, ma che appunto, consideri, le forme, le
espressioni, e infine i concetti fondativi universali di tutti i domini possibili.
Per far ció sará dunque necessario definire un meta-modello. Ma poiché
vorremmo anche poter capire come e secondo quali regole le inferenze tra le
varie e possibili specializzazioni di ogni dominio possano essere portate a
termine, siamo costretti, dapprima, a capire quali siano le premesse teoriche
delle ontolgie formali in quanto tale, almeno quelle ontologie come vengono
intese oggi nel mondo computazionale. Creare questo meta-modello vuole
appunto dire intersecare paradigmi che abbiamo visto vivere separati per un
lungo arco di tempo. Per capire quali siano gli argomenti del dibattito ci
limiteremo a presentare alcuni scorci recenti sull´argomento, tratti
principalmente dal lavoro di Barry Smith e dai suoi colleghi e confrontarli con
alcuni esempi medioevali.
Nel 2005 in un volume incentrato proprio sulle nozioni fondative
dell´ontologia moderna intitolata Experience and Analysis 129, Smith pubblica un
articolo che porta uno strano titolo: Against Fantology. Questo lavoro si apre
come segue, ricordando le note e il colore del celebre Manifesto di Karl Marx e
Friedrich Engels 130: “Un´oscura forza è alla caccia di ció che è piú ammirabile
nella filosofia degli ultimi cent´anni. Detto brevemente, consiste nella dottrina che
afferma che sia possibile definire un´ontologia mediante l´uso superficiale di certi
strumenti della logica del primo-ordine cosí come definiti da Frege e Russell. Piú
specificamente è quella dottrina che afferma che la chiave di accesso alla
struttura ontologica del reale possa essere catturata sintatticamente

129
B. Smith, Against Fantology, M. E. Reichter, J. C. Marek (eds.), Experience and Analysis ,
Wien, 2005, 153-170.
130
Cosí comincia il Manifesto di Karl Marx e Friedrich Engels: “Uno spettro si aggira per l'Europa:
lo spettro del comunismo. Tutte le potenze della vecchia Europa si sono coalizzate in una sacra
caccia alle streghe contro questo spettro: il papa e lo zar, Metternich e Guizot, radicali francesi e
poliziotti tedeschi. […] È ormai tempo che i comunisti espongano apertamente in faccia a tutto il
mondo il loro modo di vedere, i loro fini, le loro tendenze, e che contrappongano alla favola dello
spettro del comunismo un manifesto del partito stesso.” Vedi: K. Marx, F. Engels – Werke, K.
Dietz Verlag, Berlin/DDR, 4 (6), 459-493, 1972, ristampa della 1ma del 1959. (La traduzione è
nostra).

54
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

[nell´espressione] ´!Fa´ […] della logica del primo-ordine, per quale, appunto, ´!F´
sta per ció che è generale nella realtá e ´!a ´ per ció che, nella realtá, é
individuale, da cui appunto ´!Fantology´. […] La forza oscura della fantology ha
allungato i propri tentacoli anche al di lá della filosofia [analitica] per abbracciare
anche ció che comunemente conosciamo nella scienza computistica sotto il
nome di ´rappresentazione della conoscenza´ o ´modellazione concettuale´” 131.
Qui non si cerca di scovare lo spirito borghese, ma piutttosto il suo equivalente
in logica, il nominalismo, secondo Smith. L´obbiettivo di questo lavoro è mostrare
come - senza che si faccia cenno al nominalismo stesso, ma tuttavia, sempre
attraverso la logica dei predicati - i costrutti fondativi delle ontologie formali si
basino proprio sulla sola natura della denotazione coerente e rigorosa. Tuttavia,
tale proprietá non é in grado di garantire la definizione degli oggetti della realtá
tutta, nonostante che Russell affermi: “La logica riguarda la realtá tutta non
meno e non in modo diverso dalla zoologia, solo che è [leggermente] piú astratta
e costituita da argomenti piú generali” 132. Ossia la logica che usa se stessa per
fondare la natura stessa del sapere in maniera assoluta non è in grado di avere
quell´autoriflessione per superare il limite che appunto Tarski criticava
nell´esame della circolaritá insita nell´assiomatica della logica del primo-ordine.
Cosí si pone il dilemma: deve un´ontologia formale rappresentare solo il dominio
al quale appartiene poiché conosce e esprime, in maniera chiara e distinta, i
concetti e gli oggetti di quel dominio? Oppure puó un´ontologia formale disporre
di un apparato logico concettualmente piú astratto, cosí da dare una
rappresentazione sintetica a priori di un insieme di proprietá e nomi di
fenomeni/oggetti, e poter cosí essere sufficientemente generale per tutti i domini,
ossia consentire ad essi di essere una specializzazione di un specie di meta
dominio? A queste domande pare che il recente dibattito dia due diverse e
antitetiche risposte. I problemi posti da queste domande hanno una storia che
affonda le proprie radici nelle disputationes logicae del medioevo e che,
purtuttavia, non si sono esaurite ancor oggi. Infatti, fra coloro sui quali Smith
esercita la sua sarcastica critica, vi è un celebre filosofo australiano, David Malet
Armstrong 133, che nella sua difesa di una ontologia fattualista cerca, non
diversamente da certi pensatori del XIII secolo di definire gli universali secondo
un principio dinamico che cambia con il cambiare delle conoscenze sul mondo,

131
B. Smith, op. cit., 2005, 153: “A dark force haunts much of what is most admirable in the
philosophy of the last one hundred years. It consists, briefly put, in the doctrine to the effect that
one can arrive at a correct ontology by paying attention to certain superfi cial (syntactic) features
of first-order predicate logic as conceived by Frege and Russell. More specifically, it is a doctrine
to the effect that the key to the ontological structure of reality is captured syntactically in the ‘Fa’
(or, in more sophisticated versions, in the ‘Rab’) of first-order logic, where ‘F’ stands for what is
general in reality and ‘a’for what is individual. Hence “fantology”. […] The dark force of fantology
has spread its tentacles also beyond the realm of philosophy to embrace much of what goes on in
computer science under headings such as ‘knowledge representation’ and ‘conceptual modeling’.
(Le quadre sono nostre).
132
B. Russell, Introduction to Mathematical Philosophy, London, 1919: “[The] logic is concerned
with the real world just as truly as zoology, though with its more abstract and general features”.
(Le quadre sono nostre).
133
D. M. Armstrong, A Combinatorial Theory of Possibility , Cambridge, Cambridge University,
Press, 1989; D. M. Armstrong, Universals: An Opinionated Introduction, Boulder, CO, 1989.

55
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

purtuttavia fondando la regola che vuole il mondo corrente, conosciuto, ben


distinto e logicamente chiaro. Infatti il criterio di classificazione degli universali,
come si vede dalle tavole seguenti, è lo stesso 134. Secondo Amstrong, con
questo metodo, ossia indicando una piano cartesiano nel quale l´asse delle
ascissi indica le proprietá astratte (F, …) o attributi e quella delle ordinate gli
individui concreti (a, b…), si puó
definire tutta la realtá conosciuta.
Cosí che ad ogni colonna degli
attributi corrisponde una riga di celle
che identifica un´individuo concreto
che – secondo Amstrong quando
sará compilata dai fisici del futuro – ci
consentirebbe di vedere in maniera
inequivoca quali proprietá ha ogni
singolo individuo e viceversa a quali
individui appartiene una data
proprietá. Questo sistema chiamato
Spreadsheet Ontology in realtá è una
copia di ció che la tradizione
classificaroria aristotelica ci ha
tramandato nelle opere ad esempio di
Raimondo Lullo. Nondimeno afferma
Smith che anche Wittgenstein nel suo
Tractatus si pronuncia similarmente
con la sua teoria delle proposizioni
elementari che appunto
corrispondono alle celle di Armstrong
con l´aggiunta delle relazioni.

Sopra: la Spreadsheet Ontology di Armstrong – Sotto: BNCF, Banco Rari, Ps. Lullo, c. 177v,
XV s.

134
La tavola di Armstrong è tratta da: D. M. Armstrong, Vérités et vérifacteurs, in: Jean-Maurice
Monnoyer (ed.), La structure du monde. Objets, propriétés, états de choses, Paris, 2004, 101-
114. Mentre la tavola manoscritta è tratta dal celebre manoscritto del XIV secolo, segnatura
Banco Rari 52, c. 177v, della Biblioteca Nazionale Centrale di Firenze. Un´opera che costituisce,
appunto, una delle piú complete antologie del pensiero lulliano e successive interpretazioni, la
cui tavola porta il seguente titolo: “Hec est tabula que est de mixtione principiorum huius artis
cum principijs phylosophye”. Una delle tavole combinatorie (matrici a due, o a tre lettere come in
questo caso) permettono, secondo Lullo, di costruire con la sicurezza di un calcolo
(decidibilmente) tutti i discorsi possibili attorno alla realtà e dunque al sapere.

56
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

Per quanto Lullo avesse inquadrato la sua ricerca degli universali nella
cornice teologica, egli intraprese un vero e proprio tentativo di generalizzazione
che è appunto tipico delle ontologie formali fondative. Una breve sintesi della
ricerca lulliana, ci puó aiutare a capire in che senso Smith, per superare il
nominalismo, oppone la ragione husserliana delle relazione tra cose – che fu il
concetto cardine delle ontologie basate sull´immanentismo realista - alla
relazione tra veritá che è invece fu alla base delle ontologie della logica formale.
Il problema che Lullo
cerca di risolvere deriva
da Aristotele, che distinse
i principi comuni a ogni
scienza dai principi propri
di ciascuna. In breve135,
mentre per Aristotele i
principi non si basano su
dimostrazioni ma
derivano dall'esperienza
e dall'induzione, Lullo
crede di risolvere ogni
problema con precisione
matematica. Ogni
proposizione, in questa
visione, é riducibile a
termini, e i termini
complessi sono riducibili Corpus Christi College, Cambridge, Parker Library, Ms. 395,
a più termini semplici o XV sec. cc. 61v-62r. Ramón Lull, Tertia distinctio.
principi ossia appunto agli

135
Si tratta, per Lullo, di trovare una scienza generale, tale che, nei principi di questa, siano
contenuti i principi di tutte le scienze particolari. L'Ars generalis, 1308, redazione finale di una
precedente Ars compendiosa inveniendi veritatem o Ars magna primitiva, del 1274, vuole dunque
essere la scienza suprema, da cui dipendano tutte le altre a partire da una concezione della
logica che derivava dal filosofo persiano !A!b!u! !Ha!m!i!d! !M!o!h!a!m!m!a!d! !i!b!n! !M!o!h!a!m!m!a!d! !a!l!-!G!h!a!z!zali
(1058 – 1111), conosciuto come Al-Gazali nell' Europa mediovale (C. H. Lohr, Raimundus Lullus
Compendium logicae Algazelis: Quellen, Lehre und Stellung in der Geschichte der Logik, Diss.,
Freiburg i. Br. 1967; C. H. Lohr, Logica Algazelis: Introduction and Critical Text, Traditio, 21,
1965, 223-290; e anche: C. H. Lohr, Raimundus Lullus, Die neue Logik/ Logica nova, Testo
critico latino di C. H. Lohr, traduzione tedesca di V. Hösle e W. Büchel, Hamburg, 1985; C. H.
Lohr, Ramon Lull's Theory of the Quantification of Qualities, Constantes y fragmentos del
pensamiento luliano: Actas del Simposio sobre Ramon Llull, Trujillo 1994, F. Domínguez et al.
(ed.), Tübingen, 1996, 9-17;). In essa la struttura fondamentale, derivata da una caratteristica
della grammatica araba, era quella dei cosiddetti correlativi, in cui ogni ente logico si strutturava
non nella forma binaria di potenza/atto, ma in una forma ternaria – l´abbiamo visto nelle logiche e
nella lingusitica - che ne esprimeva la dinamicità.

57
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

universali. Nel trattato Dell'ascesa e discesa dell'intelletto 136 prova un nuovo


metodo dialettico che prescinda dalle combinazioni dei termini. Con un
movimento di ascesa l'intelletto raggiunge i principi primi, con il moto contrario
acquisisce la conoscenza dei termini particolari. L'Albero della scienza è un testo
di enciclopedia delle scienze, un tentativo di unificare tutto il sapere in uno
schema gerarchico.
L'insieme delle scienze si collegano fra di loro configurando un albero ove
la trama dei concetti raffigura la realtà del mondo. Dunque se ne deriva che la
creazione di una ontologia della realtá tutta dipende dalla comprensione dei
predicati fondativi, della loro intersezione con le relazioni fondative, basate sulle
questioni, i soggetti, le virtú e i vizi primigeni. E tutto ció ha luogo poiché è
spazio-temporalizzato, cióe la creazione non é ab aeterno anche se è un idea
divina. Dalla loro combinazione si riesce a leggere la realtá tutta. Quindi la veritá
delle combinazioni consiste nell´ottemperare alle regole dei concetti indicando un
ente o un contesto di connessioni della realtá come sua oggettualizzazione
mediante la logica dei correlativi, ossia mostrando le relazioni vere tra oggetti
della realtá. Lullo dunque, metodologicamente, interseca per primo, ai fini di una
pratica della conoscenza, la tradizione nominalistica con quella del realismo
aristotelico immanentista. A tal riguardo Smith fa notare che: “ […] vale la pena
ricordare che il termine ontologia formale fu originalmente coniato da Husserl per
indicare quella parte della filosofia che si occuppa delle interconnessioni tra cose
(oggetti con delle proprietá, le parti e il tutto, le relazioni e gli insiemi) – in
contrasto con la logica formale, che si occupa di interconnessioni tra veritá che
posseggono consitenza, validitá, disgiunzioni, conseguenze necessarie, con e
non con [e cosí via]. Non vi è nessuna ragione a priori per poter credere che
queste due famiglie di interconnessoni siano identiche. Sono ambedue formali –
ció significa che sono indipendenti da un qualsiasi dominio della realtá materiale.
La nozione mereologica part-of (parte di) rappresenta una struttura ontologica
formale in virtú del fatto che non vi è alcun limite ai tipi di oggetti che possono
essere messi in una relazione parte-tutto. Similmente, [la nozione] or (oppure)
riflette una struttura logico-formale in quanto la relazione di disgiunzione puó
mettere insieme asserti indipendentemente dal loro contenuto. […] queste due
strutture sono radicalmente distinte […]” 137. Nel ragionamento sugli universali è

136
Quest´opera include oltre alle nozioni della logica aristotelica anche quelle emanazioniste di
origine gnostico-plotinica, gli eoni, o ancora le sephirot della tradizione ebraica cabbalistica
popolarizzata da Moshé Cordovero (vedi la catalogazione delle fonti manoscritte della tradizione
mediterranea in: M. Idel, La cabbalà in Italia (1280-1510), F. Lelli (ed.), Firenze, 2007; M. Idel,
Qabbalah Ebraismo e letteratura ebraica, Mistici occidentali, F. Lelli (trad.), Adelphi, 2010) La
rubrica della parte (60r-120r) di questo manoscritto ascritta a Raimondo Lullo è: “Incipit tercia
disti(n)ctio que est de alteracione metallorum et de magisterio eorum et medicina”. Qui si nota
l´uso intersecato del modello combinatorio a matrice (di cui in realtá il tema é sempre la
diagonale - come nella precedente figura ció si vede dalla combinazione delle lettere sull´asse
delle x) e quello gerarchico.
137
B. Smith, op. cit., 2005, 156. Il testo originale recita: […] it is worth bearing in mind that the
term formal ontology was originally coined by Husserl […] to signify that branch of philosophy
which deals with the interconnections of things (with objects and properties, parts and wholes,
relations and collectives) - as contrasted with formal logic, which deals with the interconnections
of truths, with consistency and validity, disjunction and entailment, and and not. There is no a

58
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

chiaro che la natura degli obbiettivi da raggiungere sia estremamente diversa tra
ció che sopra abbiamo citato dai lavori di un teologo aristotelico-emanista come
Lullo del XIII/XIV secolo e quelle di un filosofo analitico neo- immanentista come
Smith del XX/XXI secolo che, per un caso apparentemente fortuito, si
occupavano ambedue di usare la logica nella medicina. Tuttavia, ai fini di questa
nostra trattazione, verremo putroppo meno alla regola della t e n s i o n e
dell´esternalismo storico di Kurt Flasch 138, che non ci consentirebbe confronti
puri tra nozioni di saperi cosi distanti nel tempo.
Dunque, sia Lullo139 che Smith, in questo nostro esperimento, si pongono
la stessa domanda, che è un pó piú complessa della precedente, e noi con loro:
“È possibile dunque che vi sia un modo di creare una definizione formale dalle
cui regole possa derivare un numero non prevedibile di rappresentazioni della
realtá conosciuta o conoscibile, e pertanto date certe necessarie premesse di
implicazione dirette e inverse, controllare le loro inferenze? E inoltre, nonostante
i limiti posti dalla logica del primo-ordine saremmo con ció in grado di formulare
una definizione della fenomenologia mondana tale che queste regole sia
sufficenti per poter essere specializzate in ogni dominio?” Per rispondere a
queste domande è necessario chiarire cosa sia sotteso alla teoria della
parte/tutto (o mereologia) e la teoria delle dipendenze ossia la teoria che spiega,
in base ad un principio di necessitá, le connessioni tra entitá di diverso tipo in
virtú delle quali, le entitá di un certo tipo non possono esistere senza entitá altre

priori reason to suppose that these two families of interconnections should be identical. Both are
‘formal’ - which means […] that they are domain-independent structures realizable in principle in
all material spheres of reality. The mereologist’s ‘part of ’ reflects a formal-ontological structure in
light of the fact that there is no restriction on the sorts of objects which can enter into relations of
part to whole. ‘Or’, similarly, reflects a formal-logical structure, because the relation of disjunction
can join together assertions without restriction on their content. […] the two sorts of structure are
radically distinct […]”. (I corsivi e le quadre sono nostri).
138
K. Flasch, Das philosophische Denken im Mittelalter. Von Augustin zu Machiavelli , Stuttgart,
2011. Infatti, secondo Flasch: “La rinuncia ad ogni lettura arbitrariamente modernizzante presenta
il vanatggio di permettere di cogliere, quello che chiamiamo, la tensione fra la nostra situazione e
il passato cui ci si rapporta, cogliendo di conseguenza il presente stesso come mutevole
costellazione storica, senza per questo cadere nel relativismo storicistico, ma riconoscendo la
presenza di scelte e interessi vitali nel lento e non lineare affermarsi della razionalità. Questo ci
permette di cogliere, nei pensatori medievali, la sempre rinnovata tensione fra la situazione
concreta che pone problemi e la tradizione, cui viene fatto ricorso in maniera estremamente
flessibile e spesso creativa per (tentare di) risolverli”. (La traduione e i corsivi sono nostri).
139
Come si evince dal manoscritto della seconda metá del secolo XIV conservato alla Bayerische
Staatsbibliothek, München: SB, Hisp. 56 (600): cc. 1v-78v: (1), Lògica nova (in catalano) e (2) cc.
78v-85, Doctrina e manera de aplicar lògica nova a la ciència de dret e de medicina (in catalano).
Vedi l´interessante studio su questo documento di M. F. Roig, El Ars luliana en la historia de la
lógica, Tesi di dottorato, Universitá di Barcelona, 1993. Ed anche esposto in maniera diversa nei
manoscritti: Vaticana Apostolica, Vat. lat. 3069, sec. XV, cc. 4v-12; Köngelige Bibliotek
Copenhagen, KB, Ny kgl. Samling 640, sec. XV, cc. 1-12v (incompleto); Bayerische
Staatsbibliothek, SB, Clm. 4381, anno 1497, cc. 34v-45v; Biblioteca Pública de Palma, BP, 1026,
anno 1762, cc. 15-25v. Per lo studio di queste fonti, basato sulle analisi di C. H. Lohr della Logica
Algazelis, op. cit. Traditio, 21, 1965, 223-290, vedi: E. Buonocore, A Basic Handbook of Lullian
Logic and Its Introduction. Edition and Study of Two Unknown Logical Texts of the Medieval
Lullian Tradition: The Nove et Compendiose Introductiones Logice and the Loyca Discipuli
Magistri Raymondi Lulli, Tesi di dottorato dell´Universitá di Siena, 2009.

59
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

di tipo diverso 140. Per la logica formale la relazione parte/tutto si basa sulla
nozione atomica della realtá, e ció lo si vede espresso in maniera estrema nella
tavola di Amstrong, che si oppone alla nozione di dipendenze necessarie in
quanto ció implicherebbe che le relazioni tra enti discreti, per esempio processi e
qualitá da una parte e i fenomeni modani in cui si devono esprimere dall´altra,
possano avere diversi modi d´essere nella realtá. Ció poiché la logica formale,
nominalistica, intende l´esistente come univoco, o meglio, detto con Frege, tali
differenti modalitá sono da intendersi come una proprietá di quello che chiama
concetto o funzione che è espresso nel formalismo della notazione logica esiste
(ossia !). Dunque se l´esistenza è analizzata come la proprietá di un concetto,
ne consegue che ogni categoria del molto piccolo rispetto alla dipendenza dal
molto grande deve essere analizzata come una relazione tra puri concetti e i
propii relata. Questa nozione ha fatto tornare, indirettamente, in auge la
charateristica universalis di Leibniz. E se essa ha avuto successo con Frege e
Russel, nella definizione di molte proposizioni della matematica, è ormai chiaro
che non puó pretendere di averne altrettanto in altri domini. La ragione per la
quale questo concetto ha funzionato perfettamente e a lungo in matematica è
dovuto al fatto che gli enti matematici non esistono nello spazio e nel tempo.
Aggiunge Smith: “Quando i filosofi [analitici] cercarono di usare i loro metodi per
la relazione di necessitá in ambiti non matematici, quest´ultimi furono fuori dalla
portata del riduzionismo fantologico. L´aspettativa dei logici positivisti di poter
dimostrare la natura logica di veritá necessarie come ´Nessuna cosa puó essere
rossa e verde dappertutto` perció, fu completamente fustrata. Ma questo
fallimento passó quasi inosservato, a tal al punto che molti hanno continuato a
ritenere che la necessaria riduzione fosse stata effettivamente ottenuta con
successo. Le verità della necessità causale hanno ricevuto un trattamento
diverso. Alcuni [filosofi analitici] aderirono cosí profondamente alla dottrina che
vuole che ogni necessità sia una necessità logica che applicando questa dottrina
al regno della causalità, per salvare il buon nome della fantology, ritennero fosse
anche necessario abbracciare l'opzione atomistica [fattuale] di Hume 141. Poiché
le relazioni causali mostrano e travalicano i limiti della fantology, le relazioni

140
Vedi: E. Husserl, Logische Untersuchungen , Halle, 1913/21, Terza Investigazione; e: I.
Johansson, Ontological Investigations. An Inquiry into the Categories of Nature, Man and Society,
Routledge, 1989.
141
La formulazione teorica ormai corrente della teoria basata sui cosiddetti fatti fu prefigurata da
Hume (vedi: D. Hume, A Treatise of Human Nature: Being an attempt to introduce the
experimental method of reasoning into moral subjects, 1739, 3.1.1) e Mill (J. S. Mill, System of
Logic, Ratiocinative and Inductive Logic, 1843, 1.5.1) e compare all'inizio del XX secolo in Moore
(G. E. Moore, Truth and Falsity, 1901-1902, cap. 15, ristampato in: T. Baldwin (ed.), Selected
Writings, London, New York, Routledge, 1993) e Russell: "Cio che è vero é tale quando trova
una corrispondenza con un fatto, ed è, appunto, falsa quando non c'è nessun fatto
corrispondente" (B. Russell, The Nature of Truth, 1905, in: A. Urquhaut (ed.), The Collected
Works of Bertrand Russell, vol. 4, London, New York, Routledge, 1994, 492-506). Questa forte
sottolineatura di Russell e Moore di una verità intesa come corrispondente ad un fatto – non
meglio identificato - fu, a quel tempo, parte integrante della loro difesa del realismo metafisico ed
al contempo della reducutio terminus ad quem della fondazione ontologica del moderno
nominalismo.

60
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

causali, appunto per essa, non esistono.”142 Dunque se la spazio-


temporalizzazione degli universali e dei particolari è la conditio sine qua non per
definire una ontologia formale fondativa – che è peró un a priori kantiano -
tuttavia è necessario ancora stabilire in che modo si definiscono le relazioni tra
gli universali, e ancora tra questi e i particolari, ed infine anche tra quest´ultimi.
Per Smith, le relazioni, devono esprimere una causalitá, perció non si possono
limitare al semplice predicato inteso fregeianamente come funzione, piuttosto
devono essere immanenti agli enti della realtá. Ossia, il predicato, formalmente
espresso, deve implicare una necessitá, oppure, gli enti che mette in relazione
sono pure denotazioni e non rappresentano alcuna realtá del mondo, bensí
soltanto una realtá formale. Per Lullo - cosí come per certi nominalisti del
novecento, e per gran parte degli attori odierni della scienza computistica
chiamata knowledge representation - le relazioni esistono indipendetemente
dagli enti e rappresentano la mappa del sapere tutto. Dunque Lullo parla della
conoscenza sul mondo e Smith di una rappresentazione della realtá mondana in
quanto tale, ossia degli oggetti esperibili, mentre i nominalisti moderni parlano
soltanto di una realtá formale che dovrebbe corrispondere in maniera stocastica
ai fatti. Quindi l´uno fa una rappresentazione di denotazioni, tentando di derivare
il senso dalle premesse e dalle combinazioni tra proprietá, l´altro cerca di
derivare il senso, date delle regole - che vorrebbero rappresentare ogni possible
mappa relazionale tra enti - dalle inferenze che sperimenta, di volta in volta, nella
fenomenologia accidentale mondana e gli ultimi cercano di derivare il senso dalla
coerenza intrinseca alla loro rappresentazione formale indipendentemente dalle
nozioni ed esperienze mondane. Appunto in questa differenza consiste il
problema di creare una ontologia fondativa per il mondo delle scienze
umanistiche, o in generale per le discipline fondate sul ragionamento narrativo,
poiché questa dovrebbere poter rappresentare relazioni tra concetti - che sono
purtuttavia rappresentazioni mondane - i quali peró possono essere definiti solo
mediante denotazioni ossia documentalmente - siano esse semplici nomi o intieri
discorsi – e queste, come i fenomeni della mondanitá, soffrono di caducitá,
similaritá apparente, trasformazione, contraddizione e cosí via, ed esprimono
relazioni di causalitá non diverse da quelle rinvenibili nel mondo fisico ma non
basate sulle sue leggi.
Vediamo dunque se sia possibile intersecare i due modelli: ossia la
flessibilitá formale del modello idealista-nominalista e quello piú rigido realista-

142
B. Smith, op. cit., 2005, 157-158: “When philosophers have turned their methods to the
necessary relations in other, non-mathematical domains, however, then fantological reductions
have remained beyond their grasp. The logical positivists’ expectation that it would be possible to
demonstrate the logical nature of such necessary truths as ‘Nothing can be red and green all
over’ were uniformly dashed. But this failure went largely unnoticed, to the degree that many
continued to assume that the needed reductions had indeed been successfully obtained. The
truths of causal necessity received a different treatment. So closely did some adhere themselves
to the doctrine according to which all necessity is logical necessity that in order to save the good
name of fantology they saw fi t, when applying this doctrine to the realm of causality, to embrace
the nuclear option of Humeanism. Causal relations would break the bounds of fantology. Hence,
causal relations do not exist.” (Corsivo e quadre sono nostre).

61
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

immanentista 143 o se per contro, visto le implicazioni della primo e quelle del
secondo, tali modelli si escludano reciprocamente. Per far ció dobbiamo vedere
come Smith, per superare appunto quella che chiama fantalogy, definisce una
teoria formale delle sostanze, qualitá e degli universali e delle loro relazioni 144.
!Uno degli obbiettivi dell´ontologia nella scienza dell´informazione è assicurare,
appunto, una classificazione degli enti della realtá a partire dalle tipologie e dalle
qualitá. Per raggiungere tale obbiettivo è quindi necessario - almeno cosí
sostiene Smith - distinguere nel mondo materiale, nelle qualitá dell´ essere della
res extensa, quattro diverse tipologie di entitá: sostanze particolari, qualitá
particolari, sostanze universali e qualitá universali e appunto la res cogitans, le
cui regole sono lasciate ai flutti delle diverse discipline con le sue singole lingue,
le loro rappresentazioni, quali atti denotativi intenzionali dell´individuo ontico
isolato, non dunque esperienze dirette, ma ragionamenti su di esse, sui suoi
oggetti e/o concetti. Nemmeno, pensatori empirici anglofoni, anche se pensando
su base guridica, quale ad esempio, il filosofo irlandese George Berkeley, con il
suo famoso detto le idee assomigliano solo alle idee, che esclude per legem
ogni oggetto esperibile della rappresentazione della realtá fattuale dalla natura
del sapere 145, sarebbe stato
cosí severo. Oppure, pochi anni
prima, l´inglese John Locke non
avrebbe potuto immaginare che,
la sua c o n t i n u i t y of
c o n s c i o u s n e s s , postesse
trasformarsi, con Smith, in un
simile realismo oltransisita146.
Dunque, le tipologie delle entitá,
formano per Smith, il cosiddetto
q u a d r a t o o n t o l o g i c o , che
rappresenta e spiega, come Il quadrato ontologico di Barry Smith
segue.

143
Sul fenomeno del realismo e delle nuove correnti ontologiche, studiate in Italia da Maurizio
Ferraris e dal suo gruppo torinese del Centro Interuniversitario di Ontologia Teorica e Applicata
(CTAO) e dal Laboratorio di Ontologia (LABONT) vedi: G!. !S!e!d!d!o!n!e!,! !O!n!t!o!l!o!g!i!a!,! !c!o!n!o!s!c!e!n!z!a!,!
!o!n!t!o!l!o!g!i!a! !s!o!c!i!a!l!e!,! !E!t!i!c!a! !&! !P!o!l!i!t!i!c!a! !/! !E!t!h!i!c!s! !&! !P!o!l!i!t!i!c!s!,! !1!2! !(!2!)!,! !2!0!1!0!,! !2!3!3-!2!3!8.
144
Vedi: Barry Smith, Beyond Concepts: Ontology as Reality Representation ; F. Neuhaus, P.
Grenon, B. Smith, A Formal Theory of Substances, Qualities, and Universals; T. Bittner, M.
Donnelly, B. Smith Individuals, Universals, Collections: On the Foundational Relations of
Ontology. Tutti questi interventi sono rinvenibili in: A. Varzi, L. Vieu (eds.), Proceedings of FOIS
2004. International Conference on Formal Ontology and Information Systems, Turin, 4-6
November 2004.
145
G. Berkeley, A Treatise Concerning the Principles of Human Knowledge , Part I, Dublin, 1710;
vedi anche: R. Schantz, Der sinnliche Gehalt der Wahrnehmung, Philosophie Verlag,
München/Hamden/Wien, 1990; A. Arnauld, P. Nicole, Logic or the Art of Thinking, J. V. Buroker
(trad. dal lat.), Cambridge Texts in the History of Philosophy, Cambridge, 1996 (il testo originale
recita: A. Arnauld, P. Nicole, Logica, sive ars cogitandi: In qua praeter vulgares regulas plura
nova habentur, ad rationem dirigendam utila. Ed. tertia apud Gallos ed. recognita (...), London, C.
F. Martyn, 1677).
146
J. Locke, An Essay Concerning Human Understanding, London, 1690.

62
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

Dice Smith: “Per la posizione che esprimiamo qui è fondamentale la


distinzione tra universali e particolari. La ragione per la quale tale distinzione
deve essere trattata rigorosamente nel contesto delle ontologie per le scienze
dell´informazione è dovuta precisamente al fatto che sono gli universali a fornire
la base per la classificazione dei particolari. Romeo è un uomo perché instanzia
l´uomo universale. La forma particolare di questa palla è sferica perché essa
(non la palla bensí la sua forma) instanzia la sfericitá universale. Dal nostro
punto di vista, l´universale è un ente con una esistenza spazio-temporalizzata
che è distinto dalle sue estensioni (l´insieme delle sue istanze) in qualsiasi tempo
dato. Gli universali esistono dove e quando sono instanziati; sono genericamente
dipendenti dalle loro istanze – ció significa che un universale puó esistere solo e
soltanto se vi è per esso un´istanza appropriata. Successivamente, ogni
particolare è un istanza di uno o piú universali. In opposizione ai particolari, gli
universali possono esistere in posti diversi simultaneamente ed inoltre possono
esistere a tempi diversi senza esistere negli intervalli di quei tempi. Una seconda
distinzione ortogonale alla prima è quella che va fatta tra le qualitá e i loro
supporti sostanziali. Le qualitá particolari non possono esistere senza sostanze
particolari quali loro supporti fisici; le sostanze particolari non possono esistere
senza (su)portare, per esempio, qualitá particolari forma e colore. Il nostro
termine qualitá particolare è usato in referimento sia alle qualitá monadiche, quali
ad esempio l´etá di Giovanni, che alle qualitá relazionali quali ad esempio il
legame di amicizia tra Giovanni e Maria. L´etá di Giovanni non esiterebbe senza
Giovanni, ed inoltre il matrimonio tra Giovanni e Maria non esiterebbe senza di
loro. Cioè, in generale, ogni qualitá particolare con una relazione ad arietá d [cioè
diadica, che è appunto non monadica] eredita in d [nella relazione stessa]
sostanze particolari. La palla, è un portatore di qualitá, per esempio, forma e
colore. La sua forma particolare è esistenzialmente dipendente dalla palla
stessa. Inoltre, questo particolare è una forma che è quella della palla.
Quest´ultima e la sua forma sono di due tipologie, [entelechìe147], diverse: l´una,
la palla, è la sostanza particolare, l´altra [la sua forma], una sua qualitá
particolare. Queste due instanziano due universali diversi: l´uno è una sostanza
universale e l´altra è una qualitá universale.” 148. Dunque, il risultato di simile

147
Contrapponendosi a Platone, Aristotele parlò di entelechìa sostenendo che ogni ente si
sviluppa a partire da una causa finale interna ad esso, e non da ragioni ideali esterne. Il divenire
si puó considerare pienamente spiegato quando se ne individuino le sue quattro cause: Causa
Materiale, Causa Formale, Causa Efficiente e Causa Finale. Per designare il compimento del fine
Aristotele usò appunto il termine entelechìa che indica lo stato di perfezione, di qualcosa che ha
raggiunto il suo fine. Il termine entelechìa significa una realtà che ha iscritta in se stessa la meta
finale verso cui tende ad evolversi. È infatti composto dai vocaboli en + telos, che in greco
significano dentro e scopo, a significare una sorta di finalità interiore. La realizzazione, ossia la
forma mondana, dell´entelechía è chiamata sinolo.
148
In: B. Smith, A Formal Theory(…) , op. cit ., 2004, 1-2: “Fundamental to the view articulated
here is the distinction between particulars and universals. The reason why this distinction
deserves a rigorous treatment in the context of ontology for information science is that it is
precisely universals which provide the basis for the classification of particulars. Romeo is a man
because he instantiates the universal man. The particular shape of this ball is spherical because
it (but not the ball) instantiates the universal sphericity. On our view, a universal is an entity with a
spatiotemporal existence which is yet distinct from its extension (the set of its instances) at any

63
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

quadrato é appunto che sono prese in considerazione solo quattro entitá date.
Esse principiano tutto il reale secondo queste regole di relazione. Ossia, in
questo modo, tale sistema sarebbe in grado di definire per la computistica, in
maniera formale a-priori, ogni proprietá immanente della fenomenologia che si
determina per accidens, e ció
con l´adozione di una sintassi
che ne garantisca la decidibilitá.
Il realismo di questo modello
consiste nel pretendere che
l´insieme delle regole che
bisognerebbe accettare -
affinché funzionasse davvero
come rappresentazione della
realtá - possano essere ridotte a
quest´ossatura: il quadrato.
Inoltre nello stesso articolo
Smith afferma: “Una data
sostanza particolare potrebbe
essere relazionata ad una
qualitá universale data una
qualitá particolare che eredita
nella sostanza particolare ed
instanzia la qualitá universale. In
questo caso parliamo di
esemplificazione; per esempio
una palla esemplifica la qualitá
universale rosso. L´insieme delle
qualitá universali esemplificate
da tutte le instanze di una una

given time. Universals exist when and where they are instantiated; they are generically
dependent on their instances – which means that a universal can exist only if there is some
appropriate instance. In turn, every particular is an instance of one or more universals. In
contradistinction to particulars, universals can exist at different places simultaneously, and they
can also exist at different times without existing in the intervening interval. A second distinction,
orthogonal to the first, is that between qualities and their substantial bearers. Quality particulars
cannot exist without substance particulars as their bearers; substance particulars cannot exist
without bearing quality particulars of, for instance, shape and colour. Our term “quality particular”
is used to refer to both monadic qualities, like the age of John, and relational qualities, such as
the bound of friendship between John and Mary. John’s age would not exist without John, and the
marriage contract between John and Mary would not exist without John and Mary. In general any
d-ary relational quality particular inheres in d substance particulars. The ball is a bearer of
qualities, for instance shape or colour. The particular shape is existentially dependent on the ball.
In addition, this particular is the shape of the ball. We say that the shape of the ball inheres in the
ball. The ball and its shape are of different kinds: the one is a substance-particular, and the other
a quality-particular. Moreover, they instantiate different universals, and these too are of different
kinds: the one is a substance-universal, and the other is a quality-universal.” (Le quadre e alcuni
corsivi sono nostri).

64
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

data sostanza universale è chiamato differenza” 149. Tale schematismo è


derivato, come dirá Smith piú avanti, dalla tradizione aristotelico-porfiriana, e per
quanto in essa l´apparato categoriale non venga rappresentato mediante un
quadrato tuttavia usa la stessa notazione concettuale, come si puó vedere in
questa celebre opera del giurista veneto Giulio Pace da Beriga 150. E´
interessante notare come questa tradizione, nell´ambito della storia della

149
In: B. Smith, A Formal Theory (…) , op. cit. , 2004, 2, testo originale: ” A substance particular
may be related to a quality universal via a quality particular which inheres in the substance
particular and instantiates the quality universal. In such cases we speak of exemplification; for
example a ball exemplifies the quality universal red. The set of quality universals exemplified by
all instances of a given substance universal is called differentia”. Sulla nozione di differentia (che
fa rifermento all´espressione che Boezio tradusse dal greco come genus proximum et differentia
specifica) fondamentale per capire la natura delle proprietá di classe vedi: J. Brunschwig,
Aristote. Topiques (Livres V-VIII), 2007 Paris, in particolare il libro VIII. Questo problema é trattato
in dettaglio, ma in maniera piana, anche in: A. Schiaparelli, Epistemological Problems in
Aristotle’s Concept of Definition: Topics vi 4, Ancient Philosophy, 31, 2011, 130 e 137 e andrebbe
confrontata con l´interpretazione logico-matematica fatta da Peano dello stesso problema,
pubblicata in: G. Peano, Le definizioni in matematica, Extret dels Arxivs de l'Istitut de Ciencies,
Any 1, Numero 1, Barcelona, 1911.
150
Quest´immagine è tratta da: Aristotelis Organon, graece et latine , rec. Julius Pacius, edit. sec.,
Frankfurt, 1597 (vedi riproduzione anastatica: J-M. Zemb, Aristoteles – mit Selbstzeugnissen und
Bilddokumenten, Rowohlt Taschenbuch, Reinbek, Hamburg, 1995, 99). Giulio Pace, latinizzato in
Iulius Pacius a Beriga, noto anche come Giulio Pace da Beriga (1550 – 1635), fu un celebre
giurista e filosofo italiano dell´epoca di Paolo Sarpi, che essendosi convertito alla chiesa riformata
dovette lasciare Padova per rifugiarsi prima in Svizzera e poi in Germania dove insegnó all´
universitá di Heidelberg. Oltre alle sue opere sul diritto egli, a seguito di un forte interesse ramista
(corrente filosofica nata in Francia con Pierre de la Ramée (1515-1572), che per quanto anti-
aristotelica, trasmise le nozioni categoriali aristoteteliche, opponendo ad esse un metodo
dialettico chiamato ars disserendi (G. Tonelli Olivieri, Ideale lulliano e dialettica ramista. Le
Dialecticae Institutiones del 1543, Annali della Scuola Superiore di Pisa. Lettere e Filosofia, 22,
1992) – metodo che abbiamo visto reintrodotto dal tardo Lullo in Dell'ascesa e discesa
dell'intelletto) pubblicó anche opere di logica basata sulla tradizione porfiriana. Tra le altre, vale la
pena ricordare: J!.! !P!a!c!i!u!s, I!n! !P!o!r!p!h!y!r!i!i! !I!s!a!g!o!g!e!n!,! !e!t! !A!r!i!s!t!o!t!e!l!i!s! !O!r!g!a!n!u!m! !c!o!m!m!e!n!t!a!r!i!u!s! !a!n!a!l!y!t!i!c!u!s,
1!6!0!5 (vedi: C. H. Lohr, Renaissance Latin Aristotle Commentaries: Authors N-Ph, Renaissance
Quarterly, 32 (4), 1979, 529-580); e appunto il confronto con il metodo adottato da Lullo in: J!.!
!P!a!c!i!u!s, Artis Lullianae emendatae libri IV Quibus docetur methodus, ad inueniendum sermonem
de quacunque re, Valentiae, apud Petrum Pinellum, 1618. Su Porfirio, che ha scritto sulle
categorie aristoteliche approssimativamente nel 268, tradotto nel 508 da Boezio che è all´origine
della prima intersezione tra la tradizione emanista platonica e quella categoriale aristotelica (vedi:
Manlii Severini Boethii, Opera Omnia, Patrologiae cursus completus. Series latina, vol. 63 e 64,
1882 e 1891; M. Gibson (ed.), Boethius. His Life, Thought and Influence, Blackwell, Oxford, 1981
da: L. Obertello (ed.), Atti del congresso internazionale di studi boeziani, Pavia 5-8 ottobre 1980,
Roma, 1981, in particolare l´intervento di: C. Moreschini, Boezio e la tradizione del
Neoplatonismo latino, ibid.; vedi anche: G. d' Onofrio, Fons scientiae. La dialettica nell'Occidente
tardo antico, Napoli, 1984), e sulla sua diffusione nel medioevo va ricordata l´opera fondamentale
sulla logica: Porphyre de Tyr, Isagogè ou Introduction aux Catégories d'Aristote, J. Tricot (trad.)
Paris, 1947, ristampata a Pargi nel 1995 con una introduzione di Alain de Libera dall´editore Vrin
nella collezione Sic et Non. Vedi anche: A. de Libera, La querelle des universaux: de Platon à la
fin du Moyen Âge, 1996; trad. it.: A. de Libera, Il problema degli universali da Platone alla fine del
Medioevo, Firenze, 1999; F. Chénique, Éléments de logique classique, I, 1975; P. Thiry, Notions
de logique, 1998; U. Eco, M. Bouzaher, Sémiotique et philosophie du langage, 1988; Z.
Dobrowolski, Étude sur la construction des systèmes de classification, 1964.

65
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

giurisprudenza 151, che appunto si occupa di stabilire in maniera formale una


regola la quale è poi immanente sul modo di essere e relazionarsi del mondo,
abbia trasmesso nozioni miste di natura aristotelica ed emanista al contempo.
Essa tratta il problema della legge in maniera non diversa da quella degli
universali. Su di essi Smith aggiunge: “Gli universali sono trattati [qui] nel
contesto di un sistema di classificazione ossia di una tassonomia. Ci sono diversi
modi di strutturare quest´ultime. Qui siamo interessati a quelle tassonomie che
consideriamo ontologicamente ben formate. Esse sono i cosiddetti alberi
porfiriani: quest´ultimi sono delle vere e proprie gerarchie, il che significa che
soddisfano il criterio comunemente accettato, quale obbiettivo della
clsssificazione scientifica, chiamato JEPD [Jointly Exhaustive and Parwise
Disjoint]. Ció implica che l´estensione del livello basso degli universali, ossia la
specie, di qualsiasi dato livello superiore, ossia il genere, è: (i) congiuntamente
esaustiva per le estensioni del genere, e (ii) mutualmente esclusiva 152 (in tal
modo che una simile tassonomia sia un albero in senso matematico e che quindi
non coinvolga il fenomeno dell´eriditarietá multipla). Bisogna tuttavia notare che il
criterio dell´esaustivitá rappresenta un ideale che spesso non è soddisfatto dalla
pratica scientifica. Brevemente, una tassonomia consiste di un numero finito di
universali organizzati gerarchicamente come un albero. Vi sono tassonomie di
sostanze universali (quali ad esempio tassonomie di specie biologiche) e
tassonomie di qualitá universali (quali ad esempio tassonomie di forme e colori).
Qui presentiamo una teoria formale per la distinzione tra particolari e universali e
tassonomie come abbiamo appena descritto. Ci concentramio soltanto su enti
continuanti e le loro qualitá permanenti, lasciando da parte il trattatamento delle
entitá occorrenti/accidentali quali ad esempio eventi e processi nei quali gli enti
continuanti potrebbere essere coinvolti. Il nostro metodo puó essere
generalizzato per includere anche quest´ultimi ed altre categorie di enti
dipendenti permanenti quali ad esempio funzioni, energia, condizoni/stati di fatto,
responsabilitá (…)” 153. Dunque, dobbiamo vedere in che modo questo modello

151
Per capire la natura formale della nozione ontologica delle regole formulate dal diritto, vedi un
esempio del problema del paradigma giuridico in: P. Costa, Cittadinanza, Roma-Bari, Laterza,
2005, cap . 4 (Il soggetto-di-diritti e il paradigma giusnaturalistico).
152
Cioè a dire che due proposizioni si escludono a vicenda, a seconda del contesto, significa che
uno non può essere vero se l'altro è vero, o almeno una di esse non può essere vera.
L´esclusione mutuale, cioè, quella che implica una coppia di proposizioni, é basata sulla natura
temporale delle proposizioni stesse. Ossia, due proposizioni non possono essere vere, secondo
simile regola, contemporaneamente. Un esempio, tratto dal senso comune, è quello del lancio di
una moneta, il cui risultato puó essere solo ed esclusivamente uno, ossia testa o croce, non
ambedue allo stesso tempo. Tuttavia, non tutti gli eventi mutualmente esclusivi sono anche
congiuntamente esaustivi. Ad esempio, i risultati 1 e 4 di un solo lancio di un dado a sei facce si
escludono a vicenda (non possono capitare entrambi), ma non sono collettivamente esaustivi (ci
sono altri possibili risultati, 2,3,5,6). Vedi: J. Borrego-Díaz, A. M. Chávez-González, A Formal
Foundation for Knowledge Integration of Defficent Information in the Semantic Web, in: Computer
Aided Systems Theory – Eurocast. Lecture, Notes in Computer Science, 2007, 4739, 305-331.
153
B. Smith, A Formal Theory (…) , ibid., 2004, 2: “In sum, a taxonomy consists of finitely many
universals arranged in a tree-like hierarchy. There are taxonomies of substance universals (for
example biological species taxonomies) and of quality universals (for example taxonomies of
colours or shapes). In this paper we present a formal theory of the distinction between particulars
and universals and of taxonomies as just described. We focus exclusively on continuant entities

66
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

possa appunto prendere in considerazione non tanto la parte della res extensia
che, abbiamo capito, soffre delle regole inerenti il rapporto genere-specie, nei
termini che sono stati esposti sopra, quanto piuttosto, date queste premesse, se
saremmo in grado di sviluppare ció che Smith evita puntualmente di fare. Ossia,
dobbiamo capire che gran parte delle informazioni con cui comunemente
lavoriamo nel mondo del ragionamento narrativo sono tutt´altro che degli oggetti
appartenenti alla sola fenomenologia fisica del mondo, piuttosto, sono
rappresentazioni, in qualsivoglia linguaggio naturale, e che pertanto non
sembrano essere ordinabili esclusivamente nei termini degli enti, come abbiamo
visto, continuanti. Oppure, al contrario di ció che si potrebbe derivare da simile
premesse, precisamente i concetti, similmente agli oggetti della realtá ad essi
inerenti, hanno una permanenza e una dissolvenza nel tempo e nello spazio che
peró è differente da quella degli oggetti fisici stessi. Ossia, mentre un semplice
oggetto, date tutte le sue possibili trasformazioni, è comuque tramandato dalla
sua eventuale conservazione, le idee o i ragionamenti o ancora le descrizioni su
quest´oggetto, anche nel caso estremo della sparizione dell´oggetto stesso, sono
tramandate, di caso in caso, di epoca in epoca, come nuove viste ogni volta,
nuove visioni, su di esso. Perció come dovremmo trattare ontologicamente questi
concetti, ossia queste rappresentazioni, che indicano il passaggio delle epoche,
dunque il trascorrere del tempo, e che sono congiunte tra loro mediante le loro
antitesi, somiglianze, sovrapposizioni e intersezioni, ma che purtuttivia, mediante
i linguaggi naturali, parlano degli oggetti e delle esperienze mondane/i ? La
risposta di Smith è perció insufficiente, poiché parla, cioè rappresenta, solo delle
cose, i fatti materiali del mondo, come se le idee su di essi fossero una fluida
superfice indifferente al loro essere ontico. Ossia come se, il percepire della loro
esistenza, la sua memoria, fosse una variabile indipendente da loro essere nel
tempo, perció formalizzabile astrattamente come una botanica del hic et nunc.
Tale pretesa fallisce nel suo intento di esaustivitá quando si voglia includere nel
suo sistema di classificazione e rappresentazione formale, appunto, l´
incalcolabile numero di classi, con date proprietá, di quelle rappresentazioni che
sono delle espressioni della realtá racchiuse nel pensiero, a volte scritto, a volte
parlato, a volte cantato, a volte disegnato o raffigurato, o ancora, a volte
costruito. In simili fenomeni la semplice funzione f time 154, innestato sul sistema
degli universali/particolari e/o qualitá e sostanze, non basta per rappresentare il
mondo tutto. Ció che appunto sfugge al modello decidibile usato per le scienze
esatte, derivato dai suoi metodi, quando supera i confini dei mondi che fonda, è
l´atto volontario del soggetto isolato, che trasforma, con i mezzi del linguaggio
naturale, o a ben guardare, con le abitudini storicamente stratificate delle
retoriche disciplinari e la creazione di un senso comune, non solo la percezione,
ma appunto, mediante una data rappresentazione, l´essere stesso delle cose. Il

and their enduring qualities, leaving aside the treatment of those occurrent entities, such as
events and processes, in which continuants participate. Our treatment can be generalized to
apply to these entities and also to other categories of dependent endurant entities – such as
functions, powers, dispositions, liabilities (…)”. (Le quadre e i corsivi sono nostre).
154
Cioè quella funzione che implica che se una data entitá esiste puó essere tale solo e soltanto
ad un dato tempo e viceversa che se un dato tempo esiste, esiste appunto solo e soltanto se
qualcosa esiste in quel tempo. Vedi: B. Smith, A Formal Theory (…), op. cit., 2004, 5-6.

67
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

loro modo di diventare percebilibili, conoscibili, secondo una data forma, che in
ogni epoca produce un significato diverso, è dunque decidibile inferenzialmente
solo a-posteriori. Ció è tanto piú importante tanto piú si pensa a come nel corso
dei secoli la stessa natura e la spiegazione dei fenomeni e delle relazioni degli e
tra i cosiddetti oggetti del mondo sia cambiata: le regole fisiche della loro
esistenza si sono scoperte universali, piano piano, come nondimeno il
formalismo che le ha espresse, ma la storia raccontata su di essi non ha seguito
quelle regole ne il loro formalismo. Il nostro esperimento, dunque, vuole appunto
vedere se questa storia, il racconto cioè, delle idee, delle esperienze e dei loro
oggetti mondani, possa essere o meno rappresentato e comunicato attraverso
una intersezione tra i metodi, le astrazioni e i media della formalizzazione che
hanno reso universali quelle regole, e le diverse lingue naturali particolari, le
consuetudini normative delle sue comunitá disciplinari, in cui appunto, quella
storia ha preso forma.
Per concludere, con alcuni frammenti di ipotesi, per far ció bisognerebbe
ipotizzare di poter costruire, proprio sul modello di Smith, una tassonomia dei
nomi delle classi e dei predicati di tutti i concetti e/o definizioni esistenti nelle
discipline umanistiche o meglio ancora nell´insieme delle competenze che
sottendono a quell´ ampia e diversificata area del sapere che porta il nome di
beni culturali (d´ora in avanti C H). Questa tassonomia dovrebbe essere
organizzata come un WordNet. Ossia dovrebbe contenere, appunto come il
WordNet suggerito dal W3C, sia i termini che definiscono concetti che le regole
delle dipendenze, antitesi, somiglianze, omografie e cosí via 155 che sono inerenti
ad ogni disciplina. Tale tassonomia, inoltre, potrebbe crescere, date certe regole
comuni, ogni volta che un nuovo progetto, sia esso locale (ossia non publico) o in
rete, voglia definire la sua terminologia. Essa sarebbe dunque un servizio per
ogni specializzazione di una ontologia fondativa comune per il CH che a sua
volta sarebbe una specializzazione di un ontologia formale fondativa quale
proposta da Smith ed altri nei termini che abbiamo esposto qui sopra. Tale
WordNet garantirebbe la possibilitá di scrivere nomi di classi e delle loro
proprietá, se non in maniera inequivoca almeno diminuendone la ridondanza, ma
specialmente consentirebbe l´uso di automaton per gestire le inferenze sulle
istanze di classe e proporre viste anche contradditorie tra di loro su di esse:
appunto la forma del ragionamento narrativo. L´assiomatizzatione fatta a livello
del WordNet potrebbe essere una estensione della logica dei predicati del primo-
ordine cosí da contenere una teoria formale della semantica del primo-ordine e
per essa quello che si chiama una sound axiomatisation 156. L´ontologia

155
Vedi http://www.w3.org/TR/wordnet-rdf/#guarino99 . Alcuni esempi per i beni culturali si
possono trovare in: C. Fellbaum. WordNet: An Electronic Lexical Database, MIT Press, 1998; A.
Gangemi, N. Guarino, C. Masolo, A. Oltramari, Sweetening WordNet with Dolce, AI Magazine, 24
(3), 2003, 13-24. Un esempio, relativamente ad una classificazione delle immagini vedi: L.
Hollink, A. Th. Schreiber, J. Wielemaker, B. J. Wielinga, Semantic annotation of image colletions,
in: S. Handschuh, M. Koivunen, R. Dieng, S. Staab, (eds), Knowledge Capture 2003 -
Proceedings Knowledge Markup and Semantic Annotation Workshop, 2003, 41-48.
156
In italiano la sound axiomatisation (derivata dal danese ´sund´ , salute ), nella logica
matematica, è chiamata la correttezza la quale è una proprietà fondamentale delle regole logiche
e dei calcoli logici. Una regola logica (regola di inferenza o regola di derivazione) è corretta se la

68
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

fondativa del CH dovrebbe contenere una radice che consentirebbe di separare il


mondo oggettuale dalle sue rappresentazioni secondo una metodologia spazio-
temporale che includa le relazioni di responsabilitá che ogni attore ha con le
rappresentazioni stesse. Inoltre tale ontologia dovrebbe considerare nella
definizione della sua radice di separare anche gli oggetti immateriali, cióe quelli
che Smith non tratta nel suo modello, quali appunto gli eventi, i processi e cosí
via, dalle loro rappresentazioni, anche qui, secondo una metodologia spazio-
temporale che includa le relazioni di responsabilitá che ogni attore ha con le
rappresentazioni stesse 157. In questo modo si sarebbe in grado di stabilire per
ogni genere di rappresentazione le sue qualitá particolari data una sostanza
astratta considerata oggetto semantico che possiede soltanto le proprietá
universali di tempi, spazii, e responsabilitá di uno o piú attori. E poiché non vi
sono oggetti materiali, esperienze individuali o colletive, o, ancora, eventi e
processi, di cui non sia data una rappresentazione, poiché senza di essa, essi
non sono ne conoscibili ne esperibili, ogni fenomenologia, sia essa oggettuale o
immateriale, deve essere descritta almeno da un oggetto semantico: esso è, non
solo necessario, ma piuttosto immanente alla natura ontica del fenomeno stesso.
Quindi avremo solo tre possibili classi dalle quali sará possibile derivare ogni
possibile descrizione delle propietá di un fenomeno oggettuale o immateriale, e
perció dar ragione, per ogni genere di rappresentazioni di essi, di una data
natura particolare di quei fenomeni. In questo modo, potremmo pensare che
appunto qualsivoglia fenomeno sia descrivibile da ogni punto di vista, che è
appunto ció che fa il ragionamento narrativo. Ma cosí facendo non avremmo piú
una semplice successione discorsiva quanto piuttosto, al contempo, tutto
l´insieme dei discorsi possibili su un dato fenomeno. Ossia avremmo da ogni
disciplina una vista su un dato oggetto, un dato evento e di essi tutte le
rappresentazioni note ordinate nella scala che interessa la nostra osservazione
su di essi. Cosí che anche il nostro ordine possa diventare una n u o v a
rappresentazione e dinamicamente queste viste possano intersecare quelle che
staticamente sono state create da chi si è sforzato di mettere insieme quel
mondo di informazioni. Ció sarebbe creare una memoria simile all´intersezione di
chi scrive e chi legge. Ma precisamente l´assenza di chi legge in ció che è stato
scritto fa si che si debba produrre qualcosa di non dissimile da ció che appunto è
stato realizzato quí: un semplice elzeviro. Viceversa, tornando all´incipit di queste
note, quello che si voleva dimostrare in queste righe è che con uno sforzo
gneoseologico un pó piú efficace di quello fatto sia dai tecnocrati che dagli

conclusione è conseguenza logica delle premesse, ossia, segue necessariamente da esse.


Dunque, se sono vere tutte le premesse allora è necessariamente vera la conclusione o
equivalentemente, non è possibile che le premesse siano tutte vere e la conclusione falsa. Ciò
significa che, lette dall'alto verso il basso (dalle premesse alla conclusione), le regole logiche
corrette preservano la verità, o equivalentemente, lette dal basso verso l'alto (dalla conclusione
alle premesse) le regole logiche corrette preservano la falsità. Se la conclusione è falsa, allora è
necessariamente falsa almeno una delle premesse. Vedi: G. Boolos, J. P. Burgess, R. C. Jeffrey,
Computability and Logic, Cambridge, 2002.
157
Una tale ontologia è gia stata sperimentata sin dal lontano 1998 sino al 2012 e porta il nome
nome di Pinakes. Vedi i progetti realizzati in: www.pinakes.org e http://pinakes.imss.fi.it . Questa
sperimentazione non include un WordNet.

69
A. Scotti Il ragionamento narrativo e la nozione di decidibilità 2013

umanisti si potrebbe dar ragione alla nascita di un modo di produrre conoscenza,


che anziché nascondere nelle specialitá i propri risultati, possa far sí che essi
emergano sulla superficie, non piú come semplice copia digitale del mondo, ma
bensí garantendo che mediante la raccolta dei frammenti, che hanno una vita
propria ma regole comuni, la nostra vista sulla conoscenza possa finalmente
vedere l´immagine che le è propia, ossia una continua e dinamica
trasformazione. Tale modello di intersezione gnoselogica è appunto ció che
abbiamo cercato di presentare qui.

70