Sei sulla pagina 1di 8

Critica testuale e informatica v.

4
a cura di Maurizio Lana
Nell’ambito della studio critico dei testi l’informatica entrò fin dai suoi
inizi, con gli studi di R. Busa sugli scritti di Tommaso d’Aquino (v. INFORMATICA
UMANISTICA). A quasi sessant’anni di distanza dagli inizi di R. Busa la presenza

dell’informatica nel mondo dello studio dei testi non è ovvia. L’accoglienza per
il connubio testi-informatica è in genere entusiastico da parte dei pochi che
dominano le tecniche e la strumentazione, cauta e sospettosa da parte dei più.
Il risultato è che ben pochi studi che utilizzano strumenti informatici e metodi
quantitativi raggiungono il consenso e la diffusione che di solito accompagna i
risultati di alto livello. Ci sono motivazioni fondate, ma anche pregiudizi, che
possono spiegare questa situazione. E’ un nodo problematico che si deve
affrontare, se non si vuole perdere il contatto con la realtà. Si potrebbe partire
dall’annoso dibattito sulle “due culture”, come le chiamò Ch. Snow nelle sue
famose lezioni del 1959 e del 1963 (è possibile un rif. interno all’enciclopedia?),
dibattito che, anche se non vi ricorre più l’espressione chiave, è tutt’ora vivo e
vivace come testimonia una quantità di scritti recenti. I metodi e gli strumenti
delle discipline matematico-fisico-naturali appaiono agli umanisti segnati dalla
freddezza e dalla distanza dall’oggetto di studio che è costituito spesso da un
gruppo, da una classe di oggetti o di fenomeni; gli studiosi di area matematico-
fisico-naturale vedono nei metodi e negli strumenti degli umanisti la carenza
fortissima di protocollo (cioè di metodologia consolidata e dichiarata per la
raccolta dei dati da studiare), per non parlare del fatto che lo studioso di testi
spesso non si pone nemmeno il problema di quali siano i dati da studiare. In
questo dibattito, occorre riconoscerlo, gli umanisti hanno un atteggiamento di
superiorità, che va dal sostenere con forza l’unicità di ogni loro oggetto di
studio (tema che ricorre spesso per esempio nell’ecdotica nella discussione
sulla formalizzazione del metodo di derivazione lachmanniana, non
necessariamente in riferimento all’uso di strumenti informatici), fino al
concetto espresso dal detto “ci sono le scienze dure, e poi ci sono le scienze
difficili”, con le sue numerose varianti, dove le scienze difficili sono quelle di
area umanistica. Le scienze dure si basano su metodi e teorie, in certo modo
ogni ricerca mira alla dimostrazione di una teoria, o alla costruzione di una
nuova, mentre le scienze umanistiche riconoscono in ogni testo una unicità che
richiede una disponibilità totale a ripartire da zero, perché nulla del già noto è
necessariamente utile o utilizzabile per lo studio del nuovo; una unicità non
sistematizzabile e quindi non trasformabile in teoria capace di spigare altri
fenomeni simili.
Vi sono però tra gli umanisti anche coloro che adottano un approccio
differente, riconoscendo negli strumenti offerti dall’informatica un potente
mezzo di sviluppo delle conoscenze e dei metodi. Si può ricordare la lezione
sempre attuale di J.C.R. Licklider (e con lui di D. Engelbart) (è possibile un rif.
interno all’enciclopedia?) che cinquant’anni fa osservò sperimentalmente come
in una sua giornata di lavoro intellettuale l’85% del tempo fosse speso in
attività ripetitive e di impegno intellettuale modesto (reperimento di persone;
reperimento, ordinamento, confronto, stampa/visualizzazione di informazioni, e
simili) e si chiese se esse non potessero demandate ad un “aiutante
informatico” così da ampliare il tempo disponibile per le attività intellettuali di
alto livello (analisi di dati, formulazione di ipotesi, verifica di ipotesi, confronto
di possibili soluzioni, e simili). L’elemento centrale di tale riflessione è che gli
strumenti informatici interessano non in quanto sono veloci, ma in quanto
svolgono operazioni tediose, difficili per l’intelligenza umana che non opera
efficacemente in compiti ripetitivi e di dettaglio e che ha così più tempo a
disposizione per le attività in cui meglio eccelle (in cui è insostituibile,
vorremmo dire). Ciò spiega certamente una componente importante della
spinta costante al ricorso agli strumenti informatici per la costituzione della
tradizione testuale delle opere antiche: se nella ricostruzione della tradizione si
vede come elemento dominante la quantità delle operazioni di confronto tra
lezioni (siano esse varianti o errori) allora il motivo del ricorso agli strumenti
informatici è chiaro: lo studioso spende il suo tempo nella progettazione e
verifica delle regole di confronto fra testimoni, ma ne demanda al computer
l’applicazione. Se invece si vede come elemento dominante dello studio di una
tradizione testuale la specificità e unicità di ogni testimone, è chiaro che solo la
lettura e analisi minuziosa di ogni testimone da parte dello studioso sarà
adeguata al compito.
Che il computer possa svolgere compiti precedentemente demandati
all’intelligenza umana (situazione che si potrebbe sintetizzare nelle parole:
compiti noti con strumenti nuovi), non significa che esso possa e debba
svolgere solo quei compiti. Si possono infatti immaginare e progettare compiti
nuovi, non praticabili senza di esso (si potrebbe dire in sintesi: compiti nuovi
con strumenti nuovi); un esempio semplice può essere: dato un testo, reperire
tutti passi che contengono la parola tempesta a distanza massima di 5 parole
dalla parola mare. Una ricerca di tal genere, il cui contenuto e la cui procedura
sono semplici, sarebbe praticamente impossibile non solo dovendo operare con
carta e penna sul testo dato, ma anche se si avesse a disposizione una
concordanza a stampa. Ma si può procedere sulla strada dei compiti nuovi con
strumenti nuovi arrivando a ricerche nemmeno immaginabili in assenza del
computer. Esso rende infatti possibile effettuare analisi di tipo statistico o
matematico miranti ad evidenziare le caratteristiche del linguaggio di un testo
o la sua somiglianza con un altro testo. Nell’ambito statistico i metodi più
interessanti sono quelli che si collocano nell’area della statistica multivariata e
specificamente dell’analyse des correspondences; nell’ambito matematico si
tratta delle distanze basate su n-grammi e sull’entropia relativa (sulle quali si
veda sotto). Si possono così effettuare analisi che arrivano ad investigare la
natura matematica dei testi. Come un affresco di Piero della Francesca può
essere oggetto di studio storico-critico, ma può anche essere analizzato con
uno spettrometro di massa per conoscere la composizione dei pigmenti, allo
stesso modo un’opera di Dante può essere oggetto di studio storico-critico ma
può anche essere analizzata con strumenti che ne mettono in luce una
struttura matematica soggiacente.

critica testuale come ecdotica


Nell’ultimo decennio nella critica testuale si è continuato a ricorrere
all’uso di strumenti informatici, e questo è sorprendente in quanto i filologi
diffidenti verso l’informatica non hanno perso occasione per segnalare le
lacune, le debolezze, i limiti, delle attività di studio e di ricerca che fanno
ricorso ai programmi informatici per gestire la collazione dei manoscritti e poi
eventualmente anche per ricavare da tali confronti lo stemma, cioè il grafo
ordinato che descrive le relazioni di tipo genealogico che collegano i
manoscritti. I filologi fiduciosi nell’informatica invece non smettono di farvi
ricorso, con un approccio sta iniziando ad essere chiamato new philology
segnalando da un parte una prevalenza anglosassone, dall’altro implicando
una connotazione svalutativa di cui gli anni a venire diranno se è fondata.
Delle tre fasi principali del lavoro del filologo che cura l’edizione critica di
un testo (il confronto tra i manoscritti (collazione), la ricostruzione delle loro
parentele, la costruzione e pubblicazione dell’edizione del testo) la fase più
delicata e critica è quella della collazione in quanto da essa dipende tutto il
lavoro successivo, ed è su di essa che si è venuta chiarendo e radicalizzando
nel tempo la divergenza tra i filologi classici e i filologi medievalisti: gli uni
condividono la convinzione che dell’opera si debba mirare a pubblicare il testo
migliore oggi ricostruibile a partire dai testimoni (i manoscritti) in nostro
possesso; gli altri condividono la convinzione che l’edizione debba testimoniare
la situazione attuale delle conoscenze sulla trasmissione (tradizione) testuale,
senza necessariamente mirare a ricostruire una forma migliore del testo –
anche in conseguenza del fatto che la tradizione dei testi medievali è spesso
multilineare (non è possibile individuare neppure ipoteticamente un antenato
comune di tutti i manoscritti noti) e le contaminazioni la rendono complicata.
Tale visione si è venuta definendo e rafforzando negli ultimi anni, in relazione
alle possibilità di pubblicazione di un’edizione digitale (non solo cartacea, non
più cartacea) del testo utilizzando supporto ottici (CD, DVD).
La collazione dei manoscritti è un’operazione complessa in quanto essa
nella prospettiva classica, che si rifà alle linee guida dello studioso tedesco R.
Lachmann, mira ad essere oggettiva e rigorosa applicazione di pochi e semplici
criteri secondo i quali nel confrontare i manoscritti due a due si distinguono le
varianti (per esempio una parola latina derivata dal greco può essere scritta
con o senza una “h” dopo la “r”) dagli errori (come succede nel caso in cui un
manoscritto contenga “amarem” e un altro nella medesima posizione abbia
“amem”). In realtà non è così semplice applicare con rigore scientifico il
metodo lachmanniano (che è ben più complesso di quanto gli accenni fatti qui
sopra possano dare a intendere), a partire da una definizione precisa di
variante e di errore, per non parlare poi del loro rispettivo riconoscimento nella
varietà dei passi dei testi. Ciò che inizialmente con strumenti informatici si
pensò di fare, a partire dalle esperienze francesi di Quentin e Froger, fu di
catalogare ogni discrepanza tra le coppie di manoscritti e su ognuna di esse
basarsi per costruire lo schema delle relazioni tra i manoscritti. Tale approccio
non portò a conclusioni apprezzabili e in anni recenti non sono mancati i
tentativi di operare la collazione in modo automatico ma sulla base di regole
dettagliatamente definite. Il limite di tale approccio è che il dettaglio con cui si
possono definire le regole di collazione non è mai pienamente adeguato
all’infinita varietà dei casi che il testo presenta, per i quali occorre il giudizio
umano.

attribuzione di testi
Un ambito ancora più ristretto e specialistico è quello dell’attribuzione di
testi con metodi quantitativi. In situazione normale i testi sono attribuiti sulla
base di esplicite indicazioni autoriali dell’edizione a stampa, ma ci possono
essere casi in cui essa non riporta alcuna indicazione relativa all’autore e può
quindi essere necessario cercare di individuare l’autore studiando le evidenze
interne al testo: evidenze fattuali, quali dichiarazioni esplicite nel testo stesso,
riferimenti a fatti, situazioni, persone, o evidenze testuali, quali il lessico
utilizzato, le combinazioni ricorrenti di parole del lessico, ...: lo stile in senso
lato. Le evidenze interne testuali sono oggetto di studio da parte
dell’attribuzione con metodi quantitativi, seguendo un percorso che va
dall’individuazione delle caratteristiche dello stile del testo, alla misurazione di
tali caratteristiche, all’elaborazione con strumenti informatici dei dati risultanti
dalle misurazioni. Il punto dolente è l’individuazione delle caratteristiche dello
stile del testo: dalla fine dell’800 (con l’inizio degli studi stilometrici ad opera di
W. Lutosławski) ad oggi non si è arrivati a definire il consenso su quali siano le
caratteristiche stilistiche di un testo misurabili e utilizzabili per l’attribuzione e
ogni studioso fa le sue scelte. Lutosławski contava caratteristiche di stile
complesse, di tipo non sintattico, quali “risposte indicanti assenso soggettivo
che non siano più di 1/60 del totale delle risposte”, ma da allora l’attenzione si
è spostata progressivamente su elementi di tipo morfologico o lessicale:
frequenza delle parole vuote (anche dette parole grammaticali: congiunzioni,
preposizioni, e simili), lunghezza media delle parole, lunghezza media delle
frasi, preferenza tra sinonimi o espressioni equivalenti (per esempio, in
riferimento all’italiano: fino/sino, poiché/dal momento che, e simili), e così via.
Questi indicatori di stile, inizialmente presi in considerazione singolarmente,
ma poi negli ultimi anni utilizzati in varie combinazioni a seconda dello
studioso, costituiscono la base del successivo lavoro di attribuzione vera e
propria. Benché ogni ricerca in questo ambito presenti i suoi risultati positivi
ottenuti sui suoi testi oggetto di studio, non si è oggi in grado di dire con
certezza quali siano gli specifici elementi quantitativi di stile capaci di
discriminare tra due testi scritti nel medesimo periodo e nella medesima lingua
in quanto non sono mai state effettuate procedure comparative di efficacia.
Importante eccezione è quella costituita dalla gara internazionale di
attribuzione di testi denominata Ad-hoc authorship attribution competition,
promossa da P. Juola e svoltasi nel 2004, nel corso della quale una ventina di
studiosi di vari paesi lavorarono alla cieca all’attribuzione di set testuali scritti
in una dozzina lingue antiche e contemporanee: ogni set conteneva campioni
di testo scritti in una medesima lingua (o variante: per esempio inglese
standard, inglese narrativo di fine 800, inglese contemporaneo di studenti
universitari, ...), tra i quali potevano esserci 0, 1 o più relazioni di parentela. I
migliori risultati vennero ottenuti da studiosi che avevano misurato le distanze
tra i testi utilizzando come unità di misura gli n-grammi, cioè sequenze di n
segni (lettere, numeri, spazio, interpunzione, ...; quale sia n, cioè quanto
lunghe debbano essere queste sequenze di segni capaci di misurare la distanza
tra due testi, non è definibile a priori). Negli stessi anni un gruppo di
matematici italiani – D. Benedetto, E. Caglioti, V. Loreto - , metteva a punto un
metodo per misurare l’entropia relativa di due testi (entropia informativa nel
modo in cui essa venne definita da Shannon è possibile un riferimento interno
a Shannon? nel 1948 nel suo articolo A Mathematical Theory of
Communication: la quantità di informazione di un messaggio è in numero
minimo di bit necessari per codificarlo e l’entropia è il numero minimo di bit per
carattere), cioè per misurare la distanza fra due testi utilizzando l’entropia di
Shannon come criterio di misura. La misura della distanza tra testi per mezzo
degli n-grammi o dell’entropia relativa, che costituiscono lo sviluppo più
recente in questo ambito e ha dato significativi risultati, rivela due aspetti
interessanti: da una parte non si selezionano distinte caratteristiche di stile ma
si lavora sul testo nel suo complesso; dall’altra si utilizza un approccio
eminentemente matematico, rispetto a quello più diffuso in anni passati
(peraltro ancora presente) di tipo statistico multivariato, che mira, a partire da
una serie di dati di osservazione, a darne una sintesi capace di evidenziare le
dimensioni più importanti (da una tabella di dati di dimensioni di 2 colonne X n
righe, ottenuta con il rilevamento delle occorrenze del lessico di 2 testi
differenti, si ricavano dati che permettono una rappresentazione dei dati su un
piano bidimensionale; se le colonne – i testi analizzati – sono 3, le dimensioni in
cui si collocano i punti che rappresentano le parole del lessico sono 3; se le
colonne della matrice sono più numerose i punti che rappresentano le parole si
collocano in uno spazio iperdimensionale, le cui dimensioni si possono ridurre,
sintetizzare, utilizzando procedimenti consolidati). Questo approccio di tipo
matematico ha un importante punto di riferimento nel volume Statistics and
Style curato nel 1969 da L. Dolezel e E. Bailey, per molto tempo praticato
prevalentemente nell’Europa Orientale

critica testuale come analisi del testo


concordanze

pubblicazione di testi online

pubblicazione di testi su disco ottico

nuovi strumenti testuali offerti dall’informatica

1) GIANFRANCO CONTINI BREVIARIO \ DI ECDOTlCA ‘ EINAuDI 1990 Lo prima


edizione di quest’opera è apparsa nd 1986 presso Riccardo Ricciardi
Editore, Milano-Napoli

2 Convegno internazionale I NUOVI ORIZZONTI DELLA FILOLOGIA


ECDOTICA, CRITICA TESTUALE, EDITORIA SCIENTIFICA E MEZZI INFORMATICI
ELETI’ROl’lICI (Roma, 27-29 maggio 1998) ROMA ACCADEMIA NAZIONALE DEI
LINCEI 1999

1pag. 36 entrato in aporia al momento della 28 edizione, il Bédier


rinunciava a entrambi gli stemmata, il proprio e quello del maestro e
recensore; né avrebbe poi aderItO, per eccellenti ragioni di merito, alle
conseguenze testuali discendenti da un altro albero tripartito {inclusivo di una
contaminazione) proposto da doro Henri Quentin (v., I926) sul fondamento d’un
suo nuovo sconcertante metodo (questo metodo, che preannuncia gli
esperimenti probabilistici prima dell’età dei calcolatori, prescindeva dalla
distinzione di variante ed errore, definiva in teme di manoscritti la posizione
dell’intermediario con argomenti statistici, ricavava lo stemma saldando le
catene parziali), Ma

1 pag. 56 Corrente è anche l’attribuzione su base stilematica, ma occorre


una grande oculatezza nel determinare se un certo stilema o sistema di stilemi
possa davvero esser considerato una firma interna. L’ilIusione di poter
adoperare impunemente i calcolatori elettronici per una determinazione
automatica di paternità su base lessicale o sintattica (presenza o assenza di
vocaboli e locuzioni, loro proporzione numerica, rapporti fra le parti del
discorso, misura media dei segmenti sintattici e, chi volesse, valori timbrici in
percentuale), per esempio al fine di determinare quali lettere e quali dialoghi
pseudo platonici siano davvero spuri, non sopravvive che circondata di cautele
e riserve presso gli operatori più accorti, coscienti del fatto che quegli indici, o
una loro parte, individuano strutture di ‘genere’, comuni a più personalità,
mentre viceversa in uno stesso individuo convivono più strutture (ciò non toglie
che quegli spogli possano costituire un sussidio rilevantissimo dacché la
memorIa, elettronica o fisiologica che sia, è lo strumento essenziale
dell’attribuzionista). In

2. pag. 14
CESARE SEGRE PROLUSIONE
La conseguenza principale delle discussioni provocate da Bédier è che la
restituito textus non è più considerata un obiettivo obbligato e assoluto. [...] La
marcia ormai trionfante delle tecnologie informatiche sta rinnovando le
procedure e imponendo riflessioni metodologiche. Per il primo punto i vantaggi
sono così visibili, che appare solo necessario frenare gli entusiasmi. ...
pag. 15 Tra le meraviglie ormai a portata di mano, stanno le possibili
raccolte integrali delle varianti di tradizione e, più promettenti ancora,
gl’ipertesti. [...] In generale, va tenuto presente (e molti lo fanno) che il lavoro
svolto dal computer non ha alcuna superiorità ontologica rispetto a quello fatto
più artigianalmente. La superiorità, straordinaria, è nella quantità dei dati
squadernati alla nostra rif]essione e nella velocità con cui vengono richiamati.
Ma i dati che vengono forniti sono la totalità di quelli immessi neI computer,
non di quelli reperibili. li nostro dialogo col :omputer non deve implicare
l’esclusione di ciò che, assente nel computer, esiste nella realtà. [...] Ma il
grande, certo ingenuo interrogativo che si pongono i filologi meno familiarizzati
con le meraviglie dell’informatica, è il seguente: può il computer definire uno
stemma? A questo proposito credo utile rifarmi un momento a un episodio
Importante dell’ecdotica preinformatica. Alludo ai lavori di dom Henry Quentin
(Alludo in particolare a Essais de critique textuelle (Ecdotique), Picard, Paris
1926. ), poi estesi e perfezionati da altri. Dom Quentin non utilizzava ancora gli
ordina tori, eppure il suo metodo di costituzione degli stemmi, tutto basato su
scelte sottratte al criterio dell’errore, perciò in sé oggettive, pareva fatto
apposta scelte sottratte al criterio dell’errore, perciò in sé oggettive, pareva
fatto apposta nulla è più istruttivo dell’errore. ...

p. 17 La lezione che si può trarre da questo episodio è, mi pare, la


seguente. La logica lachmanniana si basa sostanzialmente sul criterio
dell’errore. Uscire dal sistema lachmanniano significa o no uscire dal dominio
della logica? Qualora la risposta fosse no, esiste un’altra logica, magari più
solida, per la costituzione dello stemma? O si può fare a meno dello stemma
stesso? Se questo convegno, oltre naturalmente a illustrarci tutte le facilitazioni
e i benefici offerti o promessi dall’informatica, ci aiuterà a liberarci da questi
dubbi, saremo tutti più felici.

BRUNO GENTILI ECDOTICA E CRITICA DEI TESTI CLASSICI


p. 19 In realtà, ancor oggi il discorso sulla filologia ha il suo punto nodale
nella divisione o meno delle competenze tra filologia ed ermeneutica. A
giudicare dal concreta atteggiarsi della ricerca, sussiste un’indubbia divergenza
tra gli studiosi sul modo di intendere il rapporto tra i due campi operativi. Da
una parte l’ecdotica, superando i procedimenti fissati nella prima metà del
secolo scorso dal Lachmann (4), è diventata una tecnica di tipo scientifico
fondata su basi statistico matematiche: mi riferisco, per esempio, al tentativo
compiuto da Froger (FROGER, lA critique des textes et son automatisation,
Paris 1968) di tradurre nel linguaggio della teoria degli insiemi e dei grafi la
critica testuale e alla proposta di Avalle (Vedi D.S. AVALLE, Principi di critica
testuale, Padova 19782.) di «traslitterare la terminologia corrente in sistemi di
segni più formalizzati», che contribuiscono soprattutto alla schematizzazione
dei meccanismi ddla tradizione testuale.

26
Le conclusioni che mi sembrano scaturire da questa analisi sono più o
meno le stesse che formulai nella prima edizione del mio volume Poesia e
pubblico nella Grecia antica del 1984 e che ora vedo elaborate da Peter M. W.
Robinson (P.M.W. ROBINSON, Redefining Criticai Editions, in G.P. LANDOW – P.
DELANY (eds.), The Digi/al World: Text-Bared Computing in the Umanities,
Cambridge Ma.- London 1993, pp. 271- 291. ), anche se in modi e forme ancor
più radicali, con riferimento all’uso del computer nell’edizione critica dei testi.
L’edizione aperta dovrebbe costituire l’obiettivo privilegiato della critica
testuale. ...Ma edizione aperta nel senso di un’edizione che, attraverso un
ampio repertorio del materiale documentario e critico, orienti il, lettore sugli
aspetti problematici del testo e renda conto dei dia sistemi antichi e moderni.
Con questo non si vuole dire che debbo venire meno il principio di competenza
e autorevolezza di chi cura l’edizione, ma che la scelta dell’editore non può non
proporsi dialetticamente, ponendo il destinatario nelle condizioni di una lettura
attiva e non passiva. Poiché l’edizione critica non è mai definitiva. Il suo
carattere di operazione scientifica non la pone mai al di fuori della storia.
- 27
Ora, in che modo i nuovi mezzi elettronici e informatici possono
esercitare il loro ineluttabile potere sia sui metodi sia sui risultati concreti
dell’ecdotica? Com’è ovvio, almeno allo stato attuale, i pareri non sono
concordi. Vi è chi ha verso di essi fideistiche aspettative, sino al punto da
immaginare una computer scholarship alla maniera della computer art; altri un
atteggiamento riluttante e Scettico. Non c’è dubbio che il computer è uno
strumento utilissimo e imprescindibile per la conservazione, catalogazione,
indicizzazione, ricerche lessicali, stemmatica, concordanze, formazione di
ipertesti, tecniche relative alla lettura dei manoscritti (ingrandimento
espansione, filtri speciali, ecc.). Ma non potrà sostituirsi, almeno per ora,
all’attività operativa del filologo nell’elaborazione di un’edizione critica.
Come tutti sanno, gli studiosi di teoria della comunicazione prevedono
che il computer diverrà la nuova forma di conservazione della memoria
collettiva sottraendo allo specialista il monopolio delle conoscenze esercitato
attraverso il libro e la parola scritta, rendendole così disponibili anche al
dilettante, sì da produrre una cultura collettiva e anonima. In questo quadro,
diviene forse attendibile la prospettiva inquietante additata da Robinson che
annulla la distinzione tra edizione critica e testo d’uso personale, nel senso che,
attraverso la documentazione completa del materiale critico affidata al
computer, il lettore avrà accesso agli stessi materiali e agli stessi mezzi tecnici
di cui dispone l’editore. Di qui l’ulteriore possibilità di una «edizione elettronica
centrale» che, per mezzo di strumenti di interconnessione come Internet, sia
accessibile a chiunque in qualunque luogo voglia intervenirvi e interagire
aggiornando la banca dati centrale. Dunque, un’edizione fluida, elaborata da
più mani, in continuo divenire; in sostanza, il ritorno, mutatis mutandis, ad una
cultura bardica che esibisce lo stesso fenomeno verificatosi nella civiltà
prevalentemente orale della Grecia antica per il testo omerico riguardo alle
edizioni katà poleis e kat’andra sino all’ autoritaria sistemazione critica della
filologia alessandrina. ,

32-33
Ma, per contro, un’altra opera, in tradizione ricca e anonima, parrebbe
appropinquarsi al corpus: alludo illa traduzione francese del Moralium dogma
philosophorum attribuito a Guglielmo di Conches (17). Che in questa fortunata
versione, diffusasi anche fuori dai confini linguistici oitanici, sia da vedere la
mano di Richard, è semplice congettura, fondata, in primo luogo, sulla
presenza, nel Consaus, di ragguardevoli passi dell’opera, in lezione pressoché
identica (18) (caso, dunque, affine a quello del volgarizzamento di Valeria
Massimo attribuito al Boccaccia) e senza espressa indicazione di fonte (come
accade invece per le altre auctoritates evocate, incluse le coeve di Giovanni di
Garlandia e di Pietro di Blois (1’)); inoltre, nell’apertura del1a ‘ersione
medio.basso-tedesca, condotta su quella francese, è significativa, senza che si
possa dire di più, ]’apparizione deJ preambolo del Bestiaire (20). Ma l’indizio
che potrebbe rivelarsi più fruttuoso è ca cogliere nella particolare tessitura
sintattica, che, per quanto mi è dato sapere, colora il tracciato della prosa di
Richard così da renderlo inconfondibile nel panorama della scrittura
duecentesca (e lo stesso si potrebbe affermare, in diversi termini, del suo
linguaggio poetico).

34
eguit