Sei sulla pagina 1di 80

TEORIA E TECNICA DELLA TRADUZIONE

1 - LA TRADUCIBILITA’ DELLE LINGUE:

1. La diatriba tra universalisti e relativisti:


Il concetto di traduzione è stato interpretato in due modi completamente opposti: come
procedimento algoritmico, o come azione paradossale e impossibile. Questa diatriba è legata al
dibattito che divide i linguisti in universalisti e relativisti ed ha un rapporto diretto con il postulato
antologico della traduzione, con l’idea stessa che la traduzione possa esistere in quanto tale.
Si può convenire che la traduzione può esistere se:
- La diversità tra le lingue è compensata da un funzionamento universale, dovuto a facoltà
psico-emozionali comuni a tutta la specie umana;
- La specificità superficiale delle lingue intacca in modo non rilevante le differenze del modo
in cui i parlanti di lingue diverse pensano, vedono la realtà e comunicano;
- Le specificità culturali riflesse da una singola lingua possono essere espresse, trasmesse,
compresse e apprese da esseri umani appartenenti a una diversa linguocultura.

Un ampio numero di linguisti fa riferimento alle idee di Noam Chomsky, gli universalisti. La sua
idea è che le lingue sono molto diverse a livello superficiale, ma sono accomunate da una struttura
profonda detta anche grammatica universale, che le rende in grado di esprimere con strumenti
diversi, tutto ciò che possono condividere gli esseri umani.
Agli universalisti si oppongono i relativisti che sostengono il relativismo linguistico, basato sulle
teorie di Saphir e Worf. Il relativismo classico in particolare si basa sull’ipotesi Saphir e Worf,
derivata dagli studi Worf sulla lingua Hopi, che secondo lo studioso aveva dimostrato il fatto che
parole e grammatica influissero sulla visione del mondo dei nativi hopi. Secondo questa corrente,
le modalità e i limiti del pensiero umano sono condizionate dalla lingua nativa. Gli utenti di lingue
diverse usano differenti rappresentazioni concettuali.
Partendo dalla psicologia e senza rinnegare l’universale funzionamento della psiche umana,
possiamo pensare che esista un pensiero pre-linguistico universale per tutti, e un pensiero
cosciente, concettuale, che per esprimersi necessita di una lingua naturale.
L’idea che chi è stato plasmato da una lingua non possa recepire fino in fondo la realtà concettuale
di chi è nativo di un’altra lingua equivale sostanzialmente a negare la possibilità di essere
realmente bilingui e quindi di poter tradurre da una lingua all’altra.
Se assumiamo l’idea di Dan Slobin, che “acquisendo una lingua nativa, un bambino impara modi
particolari di pensare per parlare (thinking for speaking)”, allora chi non è nativo della stessa
linguocultura non può accedere alla sua comprensione del mondo in modalità native-like.

John McWorther (“The Language Hoax”), spiega due cose molto importanti: che sono sempre più
diffusi dati non attendibili e leggende pseudo-scientifiche, e che esistono un relativismo e un
universalismo in grado di studiare le differenze delle lingue e degli aspetti condivisi dall’essere
umano. McWhorter distingue inoltre tra:

- Whorfismo popolare non nutrito dalla scienza;


- Whorfismo accademico, basato sulla scienza;

Entrambi si oppongono all’idea che ci siano culture superiori e altre inferiori.


I relativisti popolari arrivano a sostenere che il fatto che una lingua abbia o meno determinate
forme, rivelerebbe uno specifico modo dei parlanti di rapportarsi con il mondo. C’è una
contraddizione: come possono allora le lingue antiche aver influenzato l’attuale capitalismo?
Molte lingue sono state sottoposte a popoli che prima ne parlavano altre, così oggi culture distanti
geograficamente condividono la stessa lingua, lo stesso lessico e la stessa grammatica.
Le parole infatti sono influenzate dalla cultura in cui nascono, ma la lingua, pur riflettendo la
cultura, non la crea (pensiero universalista); il relativismo invece afferma che la lingua favorisca
alcuni pensieri riaspetto ad altri, per negarlo si può partire dal fatto che la traduzione esiste
proprio per suffragare un assunto universalista: se esistono anche una sola traduzione che
rispecchia una totale retroversibilità e un bilinguismo del traduttore che basti a capire il testo nella
lingua di partenza, allora esiste una universale capacita di ogni lingua naturale ad adattarsi per
esprimere qualsiasi cosa venga espressa in un’altra lingua. Infatti, anche se una lingua non
possiede singoli termini per esprimere qualcosa, trova sempre un altro modo per indicarla (es.
inglese-italiano, suocera-mother in law); questo perché quello che non fa la lingua, lo fa il
contesto.

A livello linguistico possiamo ancora distinguere tra le tendenze universali e gli universali assoluti,
che a loro volta si dividono in:
- Implicazionali, quando un tratto linguistico ne implica un altro;
- Non implicazionali, quando un tratto linguistico è comune a tutte le lingue.

2. Traduzione e retroversibilità:
La traduzione è definita come il processo di ricodificazione di un qualsiasi sistema di segni, in un
altro sistema di segni, per cui i segni possono poi essere ricodificati dal secondo sistema al primo
(retroversibilità). Il termine traduzione indica quindi:
1. Il processo di ricodificazione di un testo
2. Il prodotto di tale processo, ovvero il testo tradotto, un testo secondario trasformato in un'altra
lingua da un testo primario.

Secondo R. Jackobson, se applicata ai segni linguistici possiamo riferirci alla traduzione come:
- Traduzione endolinguistica o intralinguistica: la conversione dei segni di una lingua
naturale, in altri della stessa lingua naturale, ovvero la riformulazione, dire la stessa cosa in
modi diversi;
- Traduzione interlinguistica: la conversione dei segni di una lingua naturale in segni di
un’altra lingua naturale, ovvero la traduzione vera e propria;
- Traduzione intersemiotica o trasmutazione: il passaggio da un codice linguistico ad un
altro, per esempio il passaggio da un testo scritto a quello cinematografico. Questo
passaggio può avvenire anche tra codici non linguistici (es. spartito-musica).

Jackobson definisce la traduzione intralinguistica anche come una qualsiasi traduzione, le


riformulazioni danno pero sempre informazioni diverse. Per la traduzione intersemiotica invece
non possiamo parlare propriamente di traduzione, perché manca la possibilità di retroversibilità:
dato un enunciato di partenza, la sua traduzione in un’altra lingua è tale se può essere riconvertita
nell’enunciato di partenza. La ricodificazione interlinguistica è potenzialmente binaria: exit=uscita-
uscita=exit, conosco sia che io abbia y=uscita o y=exit. La retroversibilità è tanto più probabile
quanto più il traduttore sa riconoscere gli stereotipi e il contesto (es. you=tu/voi/lei).
Tradurre quindi significa saper 1)scegliere tra le opzioni possibili, la soluzione traducente 2)creare
una nuova opzione qualora non ve ne fosse una già esistente. Se traduttori diversi danno
traduzioni diverse allora:

1. La retroversibilità è impossibile per principio;


2. Una delle traduzioni è più generica;
3. I traduttori non hanno tutti lo stesso livello di competenze.

Per smentire il punto 1. Se esiste anche una sola opzione di traduzione con un alto grado di
retroversibilità allora il punto è invalidato e le traduzioni a d alta retroversibilità esistono.
I punti 1 e 2 sono quelli su cui si concentra il dibattito teorico. Entrambi considerano la
retroversibilità un livello difficilmente raggiungibile.

3. La nascita di un campo di ricerca:


La teoria della traduzione nasce nel medioevo con la prima traduzione della bibbia, ma la sua vera
organizzazione inizia nel ‘900 in unione sovietica. Nel 1918 M. Gor’kij aveva avviato un progetto
per l’URRS, per poter portare a tutti i popoli russi il patrimonio letterario di tutto il mondo,
partendo dalle traduzioni russe. Il progetto si chiamava appunto “Letteratura Mondiale” e come
primo obiettivo aveva quello di riorganizzare e riformare il lavoro di milioni di traduttori, per dare
un punto i di riferimento teorico-pratico. Nel 1919 quindi era stata pubblicata una brochure di
riferimento dal titolo “Principi della Traduzione Letteraria” dallo scrittore K. Čukovskij. Questa
sarebbe stat il nucleo del suo celebre manuale del ’64, dal titolo “Un’arte eccelsa. Principi della
traduzione letteraria”.
La teoria della traduzione è uno dei campi che prevedono di convertire competenze esplicite in
abilità implicite, funziona la cooperazione tra know how e know how to do. All’inizio degli anni ’30
l’ingegnere sovietico Trojanskij progetta una macchina per la traduzione per eseguire
contemporaneamente traduzioni in più coppie di lingue. Le sue intuizioni compongono il primo
documento storico su una macchina per la traduzione e la prima teoria su una grammatica
universale.

4. Denominazioni, campi di indagine e lacune epistemologiche:


Le denominazioni più diffuse per definire uno studioso di traduzione sono:
A) Teorico della traduzione,
B) Storico della teoria,
C) Teorico dell’interpretazione,
D) Tradotto logo
E) Esponente dei “Translation Studies”,
F) Terminologo,
G) Specialista della traduzione assistita
Ognuna di queste etichette rivela una posizione: neutra, puramente storica, orientata alla
traduzione orale, orientata alla linguistica e ai processi traduttori, orientata agli studi culturali
ovvero ai prodotti della traduzione, disinteressata alla linguistica, orientata allo studio della
terminologia, orientata all’uso e sviluppo di applicazioni elettroniche di supporto per i traduttori.
Quindi il nome “teoria della traduzione” resta in uso come iperonimo, mentre le altre
denominazioni funzionano come iponimi. Nella sua concezione più generale la teoria della
traduzione è una disciplina vastissima che raggruppa molti settori. Possiamo comunque
distinguere due macro-aree di studio, la prima che si interessa ai prodotti della traduzione e la
seconda che si interessa ai processi traduttivi.
L’area che studia i prodotti include settori prettamente umanistici: storia delle traduzioni, storia
del pensiero sulla traduzione, studi socio-culturali. L’area che studia i processi comprende settori
più scientifici: linguistica teorica e applicata, scienze cognitive, traduzione automatica, traduzione
assistita.

5. Verso il dialogo scientifico:

5.1. Problemi epistemologici:


La teoria della traduzione non ha mai propriamente affrontata o il dibattito epistemologico,
ovvero la discussione relativa alla sua studiabilità, alle proprie finalità, alle premesse e ai termini
utilizzati. Le fondamenta epistemologiche infatti si rivelano sempre più lacunose. Spesso si omette
di rendere chiari i postulati di partenza e le procedure che conducono ai modelli teorici e si ignora
o trascura l’importanza di un modello teorico unitario scientifico, cioè condivisibile e applicabile.
Nel libro “Consilience” di E.O. Wilson l’entomologo descrive le quattro qualità che universalmente
conferiscono a qualsiasi teoria il carattere scientifico, ovvero:

- Parsimonia o economicità, lo sforzo di ridurre al minimo il contenuto della teoria;


- La generalità, che prevede che la teoria sia valida per tutti gli elementi che rientrano
nell’ambito di studio;
- La coincidenza o coerenza interdisciplinare: quanto afferma una teoria in un campo del
sapere non può contraddire quando afferma una teoria invalidante in un’altra disciplina,
sempre che non si argomentino le ragioni della discrepanza;
- La capacità di previsione sperimentale, ovvero la capacità della teoria di prevedere do
essere sottoposta a prove sperimentali di falsificazione.

Questi principi sono fondamentali, necessarie e sufficienti a rendere scientifico qualsiasi modello
teorico. Scientifico comunque non significa affatto vero o corretto, ma solo che il modello è
comprensibile alla comunità scientifica e sottoponibile al controllo cioè applicabile. Nel caso della
traduzione, un modello teorico deve rendere più semplice il nostro modo di descrivere il processo
traduttivo.
Per farlo, la prima tappa necessaria è formulare un insieme chiaro di concetti, oggetti e termini per
indicare oggetti e concetti, che devono essere descrivibili mediante termini condivisi dalla
comunità dei ricercatori.
Solo individuando una base epistemologica che definisca postulati e applichi metodologie
condivisibili la traduzione potrà entrare a far parte della cosiddetta “terza cultura”, che non
oppone barriere al dialogo tra le scienze e si ribella alla divisione del sapere in cultura umanistica e
scientifica. Come osserva Paolo Balboni, la teoria che non si confronta con le sue applicazioni
rischia di diventare fiume a se stessa e autoreferenziale. Viceversa “le scienze pratiche sono
tendenzialmente scienze interdisciplinari” perché “si fondano su altre scienze pratiche e ne
traggono le implicazioni utili per la soluzione dei problemi”.
La coerenza epistemologica non esige identità di opinioni e di dati. Il fatto di usare termini
condivisi è l’unica condizione per non dover ogni volta ricominciare la discussione da zero.
Le parole specifiche di un settore vengono proprio chiamate termini. Nessun termine può
comunque essere considerato definitivo, né corretto o scorretto al di fuori della discussione
scientifica. Come dice lo psicobiologo H. Plotkin, l’importanza delle definizioni è inversamente
proporzionale al livello di avanzamento di una scienza. Quando le cose sono assodate e chiare a
tutti i partecipanti al dibattito, i termini sono meno importanti perché sono chiari i concetti a cui
fanno riferimento. Quando invece si ha a che fare con fenomeni poco studiati e molto complessi le
definizioni hanno un ruolo fondamentale. Le cose si complicano ancora di più nel caso delle
discipline ibride, che attingono a molti altri settori disciplinari. In questo caso spesso la
comunicazione fallisce perché gli studiosi usano termini diversi poiché considerano temi e
problemi da punti di vista diversi. Per questo è fondamentale che i termini utilizzati siano sempre
associati a definizioni esplicite e che l’introduzione di nuovi termini sia sempre motivata da una
modifica del concetto cui si riferiscono. Nella teoria della traduzione l’uso scientifico dei termini è
recentissimo.

5.2. Dalla pseudo-terminologia al metodo funzionale:


Numerosi termini usati nella teoria della traduzione sono in realtà parole della lingua standard che
rispondono ai postulati ideologico-metafisici che hanno connotato la genesi della disciplina.
“Originale”, “fedeltà”, “libertà”, “verità”, “senso”, per fare solo alcuni esempi, sono pseudo-
termini che vengono utilizzati come se fossero termini chiari e univoci; in realtà non lo sono e non
possono esserlo perché la loro caratteristica è proprio quella di non essere definibili. La maggior
parte degli pseudo-termini debordano contemporaneamente in categorie contraddittorie e sono
basati su concetti metafisici, non utilizzabili in un dibattito scientifico. Uno pseudo-termine si basa
su ciò che il neuro filosofo Daniel Dennett ha definito”ganci appesi al cielo”, cioè a idee prive di
supporto nella realtà nota. La traduttologia si è gradualmente costruita su segni ambigui privi di
effettiva referenzialità all’effettiva attività traduttiva. Un esempio è dato dallo pseudo-termine
“originale”, o dal termine “fedele”, mutuato dalla religione, che è altrettanto contraddittorio. Un
testo infatti non può essere “fedele” a qualcosa senza essere infedele a qualcos’altro: se è fedele
agli etimi e ai morfemi, non lo è alla sintassi, se è fedele al genere, alle lettere, al numero delle
parole, non è fedele alla pragmatica. Con il termine “fedeltà”, in realtà, spesso si vuole intendere il
calco, cioè l’atto di riprodurre una struttura morfologica o sintattica, un significato dizionaristico o
un etimo, una serie di suoni o la lunghezza di un verso, ecc.
Se si calca una cosa molto probabilmente non si calca l’altra. La locuzione interrogativa inglese
What’s your name? A cosa sarebbe fedele? Se volessimo un calco semantico-sintattico, dovrebbe
essere Cos’è tuo/suo/vostro nome? Infatti il pronome inglese ha tre possibili traducenti e per
selezionare quello corrispondente servono i dati contestuali.
E se si deve tradurre “Out of sight, out of mind”, quale sarebbe la traduzione fedele? Secondo la
logica comunicativa potremmo dire che il calco è in realtà cosi libero che lo capirebbe solo chi
conosce l’inglese. E se poi il fraseologico fosse stato il verso di una poesia in cui mind fa rima con
kind? Sarebbe fedele non far rimare mente con tipo? O va considerato l’ordinamento gerarchico
delle caratteristiche del testo di partenza che in quel preciso contesto, rendono prioritario usare
nel testo di arrivo il criterio etimologico, oppure quello sonoro, oppure quello fraseologico, o un
altro ancora?
La prima cosa che emerge dalla ricerca teorica è il fatto chela cosiddetta “fedeltà” è la libertà che
si prende qualcuno che non sa tradurre: è la soluzione privilegiata dei dilettanti e dei computer di
vecchia generazione. La cosiddetta “traduzione fedele”, non è affatto una traduzione ma un modo
per convertire un enunciato chiaro in uno che non si capisce. La ragione è che le lingue naturali
possono esprimere tutto, ma lo fanno con strumenti tra loro diversi, asimmetrici. Ogni lingua ha
soluzioni proprie per formare le parole (lessico), per usarle in funzioni diverse (morfologia), per
unirle nella frase (sintassi), per collegarle al contesto d’uso (pragmatica).
Al variare del contesto, un’invariante assume forme linguistiche diverse. In qualsiasi lingua, per
una stessa invariante ci sono tante varianti quanti sono i contesti della comunicazione.
In traduzione misurare i soli aspetti astratti, formarli, la morfo-sintassi o il lessico, non basta.Oltre
le regole grammaticali, esistono le regole delle operazioni che consentono di selezionare i
traducenti grazie alla marcatezza delle varianti tra cui scegliere. Le varianti solo in rarissimi casi
sono perfettamente intercambiabili: dato un insieme di opzioni per dire la cosa Y, se un parlante
ha scelto l’opzione X dell’insieme, la traduzione in qualsiasi lingua è vincolata al fatto che l’opzione
X contiene l’informazione Y, ma aggiunge anche informazioni che solo X contiene. Questo è il
punto focale della teoria della traduzione, quello che se formalizzato può essere il fulcro di un
modello teorico applicabile a qualsiasi testo.
Jurij Lotman , uno dei padri della semiotica, ha mostrato che: se in un testo si cambiano le parole
non si ottiene una “variante di contenuto”, ma un “nuovo contenuto”. L’equivalenza di un testo
tradotto non è altro la capacità di a) recepire e b) ri-codificare tutte le informazioni contenute in
ogni unità traduttiva minima del TP: tradurre è scegliere, una dopo l’altra, l’opzione che userebbe
un parlante dell’altra lingua in quel preciso contesto, se pur in modo asimmetrico.
Gli umani comunicano sempre mediante enunciati autonomi espressi in una delle variabili
possibili. Il traduttore ha il compito di isolarli e tradurli in modo coerente al contesto di ogni
variabile, senza mai scomporli nelle singole parole che li compongono. Ogni testo è formato da
una serie di enunciati ognuno dei quali costituisce un unità traduttiva minima.
Un unità traduttiva minima è un enunciato non scomponibile nelle sue parti; è una “formula
linguistica” indivisibile o “formulaic sequence”, formata da “parole e stringhe di parole che vanno
computate senza ricorrere al livello inferiore della loro struttura”. Buona parte delle lingue naturali
è costituita da espressioni formulaiche che tutti usiamo in continuazione. Solo raramente un’unità
traduttiva consta di una singola parola e costituisce un autonomo enunciato. La formulaicità è
l’aspetto fondamentale della lingua che rende fallimentare qualsiasi forma di calco. In conclusione,
al traduttore servono parametri concreti e concetti chiari, riconducibili a definizioni discrete cioè
che non si confondano tra loro e non siano ambigue.

5.3. Traduzione “orientata” o traduzione “totale”:


Un’altra coppia di pseudo-termini che è in voga ancora oggi è l’opposizione tra traduzione
orientata all’autore e traduzione orientata al lettore. Il promotore di questa opposizione binaria è
stato, nel 1813, il tedesco Friederich Schleiermacher. La sua idea era che il traduttore potesse e
dovesse scegliere tra due “direzioni” della traduzione che avrebbero portato a due traduzioni
completamente diverse: “o il traduttore lascia il più possibile in pace lo scrittore e gli muove
incontro il lettore, o lascia il più possibile in pace il lettore e gli muove incontro lo scrittore”,
questa teoria è stata riformulata in tempi recenti come opposizione tra traduzione source oriented
e target oriented. L’ipotesi di un’opzione di orientamento implicherebbe che il traduttore a)
conosca le “intenzioni” dell’autore, b)escluda a priori la possibilità che un lettore del TA possa
accedere al testo come un lettore TP, c)possa produrre due TA completamente diversi che
sarebbero entrambi traduzioni. Un traduttore però non può conoscere le intenzioni dell’autore, ne
può prevedere chi siano i destinatari del testo. Quindi un traduttore non può far altro che
orientare la traduzione verso se stesso, verso le proprie congetture. Ecco perché è stata proposta
l’idea che la traduzione sia sempre self-oriented, progettata, prodotta, criticata dalla sola mente
del traduttore nella sua veste di interprete-scrittore. Ogni testo è un oggetto materiale che può
innescare reazioni diverse e che possiede un potenziale per attivare nel lettore interpretazioni
diverse. Questo potenziale è legato a quello che fisicamente il testo contiene, ciò va colto dal
traduttore e la stessa potenzialità va trasferita nel TA.
Le caratteristiche di un testo sono gli “ingredienti” che consentono al potenziale comunicativo di
attivarsi. E’ l’equilibrio tra gli ingredienti che determina il loro effetto combinatorio. Il buon esito
della traduzione dipende da particolari abilità di una mente bilingue, addestrata a riprodurre i
testi. Il bilinguismo costituisce il pre-requisito necessario per tradurre, ma si tratta di una
competenza necessaria e non sufficiente. L’autore di testi secondari lavora con una vastissima
quantità di vincoli presenti in un TP: la traduzione infatti viene definita come un tipo di scrittura
iper-vincolata. Come sintetizza la teoria Skopostheorie di fine Novecento, lo scopo della
traduzione risponde all’idea che il TA funzioni come il TP nella cultura di partenza. Se una
traduzione funziona in parte allora, se perfezionata, potrà funzionare nella sua totalità. In ogni
caso, sono pochi i casi in cui questo accade davvero.

6. Le legittime “pretese” della teoria:

6.1. Dopo Babele:


Nel nuovo millennio Stefano Manfrelotti si chiede quale fosse la ricaduta della riflessione teorica
sull’attività del traduttore e rispondeva “nessuna”. La sua unica argomentazione era che esistono
traduzioni i cui autori non hanno “avvertito il bisogno di compulsare Cicerone o Mounin”.
Certamente chiunque può fare qualsiasi cosa senza tecnica, ma non si può non chiedersi quanto
meglio l’avrebbe fatta con la necessaria preparazione e quanto sia professionale ciò che ha fatto.
Per comprendere ricchezze e limiti delle posizioni anti-teoretiche è untile considerare un testo che
per decenni è stato visito come il più noto contributo sulla traduzione: si tratta di “After Babel” del
1975 del noto letterato George Steiner. Questo vasto saggio è una dettagliata ricostruzione
storico-critica dell’attività traduttiva occidentale e delle posizioni teoretiche a essa connesse. Il
libro offre un quadro storico complessivo e una suddivisione cronologica della attività traduttiva
occidentale. Steiner fornisce una quad ripartizione dell’attività traduttiva:

- Il primo periodo è definito “focalizzazione empirica immediata”, ed è caratterizzato da


“analisi e dichiarazioni embrionali”; parte da Cicerone e Orazio, e arriva alla fine del XVIII
secolo con la pubblicazione nel 1792 dell’Essay on Translation di A.F.Tytler;
- Il testo di Tytler con il saggio di Schleiermsacher “Sui diversi metodi del tradurre”, segna
l’inizio del secondo periodo, detto “stadio di teoria e indagine ermeneutica” che dominerà
fino alla metà del XX secolo. Questo periodo è coronato dal celebre scritto di Walter
Benjamin “Il compito del tradurre” del 1923;
- Il terzo periodo prende il via negli anni Quaranta e prosegue parallelamente durante la
quarta fase neo-ermeneutica. Questa è la fase del grande “sogno computazionale”, ovvero
del tentativo di trovare una strada per realizzare la traduzione meccanica e
computazionale. Questa aspirazione era stata nutrita dal formalismo russo che mirava a
rendere scientifica l’arte letteraria, proponendo metodi di indagine rigorosi per rendere
oggettivo lo studio dei testi. Per evitare gli aspetti “soggettivi” della letteratura, la psiche
umana era bandita dalla ricerca. La terza fase aveva trovato un’economia nell’enorme
contributo delle scuole traduttologiche slave;
- Il quarto periodo, può essere inteso come reazione al “pensiero forte”, formalistico,
scientifico e deterministico dominante fino agli anni Sessanta, che veniva criticato come
“nuova metafisica”, come un tentativo di sostituire alla Verità dell’arte l’asettica e cinica
verità della scienza.
“Dopo Babele” ha grandi meriti accanto a alcuni limiti epistemologici. Di fatto Steiner è divenuto
un riferimento utile per chiunque fosse critico. Steiner ha rafforzato i preconcetti delle “scienze
umane”, allontanando il dibattito sulla traduzione dalla prospettiva scientifica e sancendo lo
scisma tra gli studi linguistici sui processi e gli studi culturali sui testi. In ottica post-moderna, il
traduttore è visto non come professionista, ma come un demiurgo al centro di un’operazione non
definibile, il cui talento non è acquisibile secondo un addestramento professionale, ma è originato
in base a una sorta di “ispirazione”, peraltro inferiore e meno nobile rispetto all’aspirazione di un
autore. Si deduce che la traduzione letteraria non può essere oggetto di studi scientifici, e che la
traduzione non letteraria non merita l’attenzione degli studiosi. Secondo Steiner la traduzione
letteraria non può essere studiata scientificamente perché rappresenta un paradosso. L’autore
affermava: “ripetere un libro già esistente in una lingua straniera è il “compito misterioso” del
traduttore, il suo lavoro. Non è possibile, ma deve essere fatto”. Quindi per lui, il “cattivo”
traduttore non è chi è privo di requisiti professionali, ma è “un impostore”. Questa idea risale a
Leonardo Bruni, esponente dell’Umanesimo, che in un noto saggio del 1420 invitava a evitare la
“colpa imperdonabile” che “una persona priva di cultura e di gusto si accosti al lavoro di
traduzione”. Se diciamo che è imperdonabile che una persona priva di conoscenza della medicina
faccia il chirurgo, tutti convergono. Viceversa, secondo la concezione umanistica, il concetto di
“gusto” non viene fatto rientrare tra i requisiti acquisibili, bensì, tra le indefinibili qualità che
caratterizzano un’indefinita élite. In realtà, il gusto artistico è un senso compositivo che riguarda la
capacità di distinguere input sensoriali secondo categorie condivise da un’élite culturalmente
“preparata”, abituata e addestrata a farlo. In un cervello umano, ogni forma di “gusto” viene
esercitata a livello macro-cognitivo dall’esperienza, cioè dall’addestramento. Nelle arti, come in
medicina, uno specialista può essere più o meno brillante, volendo anche “geniale”, ma quello che
distingue la professionalità di un esperto die testi dall’incompetenza è simile a quello che distingue
un medico da chi non lo è. Steiner aderì alla teoria di Bruni, e concluse che teorizzare la traduzione
fosse prematuro o impossibile in assoluto. La principale ragione di questo scetticismo teoretico era
per lui una diffidenza generale per la linguistica e il desiderio di lasciarla fuori dall’ambito della
traduzione, considerata quindi solo a livello umanistico. Da qui viene la convinzione che la
traduzione non richiedesse dimestichezza con la lingua e che non fosse assoggettabile né ad
apprendimento, né a definizioni discrete. Steiner affermava infine che la traduzione “non è una
scienza, ma un’arte estetica” e che, in quanto “arte esatta” è estranea alla “logica”: “la logica, è
successiva al fatto”. Quest’ultima affermazione è oggi contestabile sulla base delle scoperte delle
scienze cognitive. E’ la coscienza che interpreta secondo una pseudo-logica quello che molto
logicamente viene eseguito a livello inconscio a. L’intelletto umano non è vincolato alla coscienza,
anche sofisticate intuizioni scientifiche possono derivare da processi Logic inconsci, che si basano
su competenze pregresse e su calcoli sofisticati troppo veloci per essere registrati dalla coscienza.

6.2. L’errore di Cartesio:


Nel cervello umano le operazioni logiche avvengono in larga misura a livello inconscio, prima di
essere trasmesse alla coscienza. Il cervello segue la “sua” logica inconscia, capace di eseguire
computazioni di grande complessità, che lasciano la sensazione di essere stati “ispirati” da una
fonte esterna; questo perché la coscienza non può registrare la computazione, può solo
registrarne una parte o ricostruirla a posteriori. Le computazioni inconsce, se memorizzate a lungo
termine possono trasformarsi in procedure automatizzate. Questo spiega perché in parte anche il
processo traduttivo pareva cosi “misterioso”. Il noto traduttore e teorico Efim Etkind dichiarava
che “la pratica estetica ha superato la riflessione teorica”, lasciando intendere che quando si tratta
di una creatività artistica cosi complessa, non ci sia spazio per l’analisi scientifica. Quest’idea può
essere superata se si ammette a) che il nostro cervello sa eseguire inconsciamente operazioni
linguistiche cosi complesse da rendere la loro formalizzazione ardua,
b) che una teoria della traduzione deve essere fondata tanto sullo studio dei prodotti culturali,
quanto sul funzionamento cognitivo del processo traduttivo. Una siffatta teoria, non è affatto
prescrittiva, ma descrittiva. La definizione steineriana di “arte esatta” tende ad affermare senza
argomentazioni sostanziali che la traduzione non è assoggettabile a studio rigoroso, supponendo
però uno standard fisso di esecuzione. Per uscire da tale paradosso, basta ammettere che è un
mestiere attinente a tecniche e strategie che sono classificabili, studiabili e migliorabili. Definendo
la traduzione un “arte esatta” Steiner non definisce il termine “arte” né il concetto di “esattezza”;
inoltre lui trascura l’indagine di tipo etico-psicologico e quella linguistica e psicolinguistica che
sono componenti imprescindibili della traduttologia. Parlare di “intuizione” e “ispirazione” rafforza
l’idea che la mente biologica umana faccia cose fenomenali e contro-intuitive che sono in realtà il
risultato dell’evoluzione e della selezione naturale, non di misteri mistici. L’idea di Cartesio che
esista una Mente/Anima esterna al mondo fisico e alle sue leggi viene oggi difesa da molti. Come
dimostra la storia della scienza, il fatto che un’ipotesi sia di difficile dimostrazione non significa che
questa sia errata o non dimostrabile. La conoscenza però è un atto fisico. Come ha argomentato
Antonio Damasio, oggi sappiamo che quello di Cartesio è stato un enorme errore (vedi pag 46
citazione di Damasio).
Uno tra i compiti più urgenti della traduttologia è quello di diffondere l’idea che i teorici della
traduzione possono assumere un atteggiamento più orientato al metodo scientifico. Il fine ultimo
della teoria è quello di far rientrare i processi nel quadro psico-cognitivo delle attività mentali
umane, di individuare ciò che accomuna tutti i processi traduttivi al di là della sensazione di
impossibilità o di mistero che incutono.
Ancora oggi negli studi della traduzione permane un dualismo dannoso. Per esempio, si
contrappone il concetto di “creazione dell’opera” al concetto di “costruzione dell’opera” come
fossero diversi.
Nel 1991 Carlo carena scriveva che chi traduce non dve essere un “traduttore di mestiere”, ma un
“letterato”, escludendo dal supposto “non-mestiere” della traduzione chiunque traduca la “non-
letteratura”, ma negando che esistano competenze professionali nella formazione di traduttori.
Questo pregiudizio ha avuto, e continua ad avere notevoli conseguenze in campo teorico,
didattico e professionale.

7. La tendenza alle opposizioni binarie:

7.1. Traduzione e interpretazione:


Significativa e an che discriminante è stata la contrapposizione tra traduzione (scritta) e
interpretazione (orale) che ha portato a considerare a le due attività come radicalmente diverse.
Questa differenziazione è oggi attestata a livello disciplinare, didattico e accademico. Anche
questo pregiudizio è stato proposto da Schleiermacher. Nel saggio del 1813 lo studioso proponeva
di basare l’approccio teorico sulla contrapposizione tra Übersetzung (traduzione scritta della
scienza e dell’arte) e Dolmetschung (traduzione orale della quotidianità), come se un traduttore
non interpretasse ed un interprete non traducesse. La contrapposizione di S. Presenta due
problemi epistemologici:

1) Non è epistemologicamente motivabile partire dalle differenze prima di vedere che cosa
renda la traduzione il risultato di un analogo processo psico-cognitivo.
2) Il secondo errore è quello di semplificare la differenziazione al punto da considerare la
traduzione orale “fuori dalla teoria”, essendo “una questione meccanica risolvibile da
chiunque possieda una mediocre conoscenza delle lingue”, tale per cui “se si evita l’errore
manifesto, c’è poca differenza tra una conoscenza migliore e una peggiore”.

A distanza di due secoli il primo problema è stato superato, e l’interpretazione orale ha ottenuto
un legittimo status di disciplina accademica. Tale mutamento è cosi recente che solo una decina di
anni fa alcuni professionisti continuavano a ignorare l’esistenza degli Interpretation Studies come
materia accademica, rivendicando “il carattere meramente pratico dell’interpretazione. A partire
dagli anni Cinquanta sono finalmente apparse le prime pubblicazioni dedicate alla teoria
dell’interpretazione.
Il secondo problema, quello della differenziazione statuaria delle due operazioni traduttiva è
ancora attuale. Schleiermacher si era sbagliato nel negare l’evidenza che traduzione e
interpretazione condividono la stessa immensa complessità. Se ci si basa sul “senso comune” può
davvero sembrare che si facciano due cose radicalmente diverse, ma non è così. Basti considerare
che chi scrive una traduzione, prima di scriverla, l’ha mentalmente già eseguita, scriverla è solo
registrarla. Oggi abbiamo anche le registrazioni orali. La differenza sta solo nella velocità di
esecuzione e nell’impossibilità della traduzione orale di essere poi “corretta” o revisionata a
posteriori. Gli interpreti di conferenza traducono spesso testi scritti, che hanno tutte le
caratteristiche del registro formale. Gli interpreti quindi, non possono non avere dimestichezza
con la lingua di registro alto. Viceversa, altrettanto esperti della lingua orale sono I traduttori di
testi abbondantemente costituiti da dialoghi orali, che rispecchiano i registri della lingua parlata.
Nonostante ciò l’idea che i traduttori letterari debbano conoscere la lingua normativa, “lingua
letteraria”, ma non necessariamente la “lingua della letteratura” è sopravvissuta. Ma allora come
sono stati tradotti i dialoghi dei “grandi romanzi” da persone che non erano bilingui e neppure
parlavano la lingua da cui traducevano?

7.2. Le tipologie testuali:


La contrapposizione tra oralità e scrittura è fondata sull’idea che i testi possano dividersi in
tipologie così diverse tra loro da richiedere teorie diverse. Questo pregiudizio è stata o il punto di
riferimento di numerosi tentativi di fondare un’analisi descrittiva utile ai traduttori. Le tipologie
testuali si distinguerebbero secondo criteri discreti. I primi darebbero i testi a base terminologica
(tecnico-scientifici), che richiederebbero la cosiddetta “traduzione specializzata”, i secondi
sarebbero i testi “letterali” o “espressivi” che non richiederebbero una traduzione “specializzata”.
Molti specialisti del settore negano che il qualificativo “specializzata” possa essere tributato alla
traduzione letteraria, contestabile dato che qualsiasi tipo di testo richiede una specializzazione.
I termini delle lingue professionali sono sempre convenzionali, provvisori e sostanzialmente
instabili, cioè pronti a rinnovare i nomi delle cose e dei concetti, quando entrambi si evolvono.
Questo è dovuto alla propensione degli individui e dei gruppi umani ristretti a creare nomi nuovi
ogni volta che cambia un concetto o la sua valutazione sociale. La propensione alla creatività
linguistica e alla creazione dei parole nuove è onomasiologica. Riguarda infatti l’onomalogia, la
disciplina che studia il modo di chiamare i concetti con nomi specifici. Le mutazioni sono dovute a
nuove scoperte, alte volte a motivi di “correttezza politica”. I termini nascono, vengono selezionati
e cadono in disuso secondo le stesse “leggi” che governano il successo di tutte le parole e persino
delle espressioni fraseologiche. Due termini che in due lingue diverse indicano lo stesso concetto,
raramente presentano una corrispondenza “uno-ad-uno”. Nel Manuale del Traduttore di Bruno
Osimo, si afferma che lo scopo della traduttologia sia quello di trovare una singola parola per ogni
oggetto/concetto, così da escludere ogni connotazione a favore di una “denotazione pura”. Nei
linguaggi settoriali, i termini avrebbero “uno e un solo significato denotativo codificato e
inequivocabile”. Donatella Pulitano afferma che la terminologia ha la doppia funzione di eliminare
ogni forma di ambiguità interlinguistica e intralinguistica, e di trasmettere conoscenza. Federica
Scarpa presenta a sua volta una contrapposizione tra “approccio cognitivo e razionale della
traduzione specializzata” e “testo letterario”, supportata dall’assioma che sia impossibile capire
del tutto un testo letterario e trasporre tutto quello che si è capito in un’altra lingua, facendo sì
che il lettore della traduzione abbia “le stesse possibilità di comprensione/incomprensione e
interpretazione presenti nell’originale”.
In realtà, i testi che traduciamo sono tutti fatti di lingua naturale, la quale si forma, si diffonde e si
canonizza seguendo sempre lo stesso insieme di regolarità, a prescindere dalle funzioni del singolo
testo. I testi artistici, come narrativa e poesia, hanno qualche complessità nel violare aspettative e
canoni; a volte sono più difficilmente formalizzabili, ma non sono sempre altamente informativi, a
patto che si definisca il termine “informazione”. Se l’informazione è un insieme di input che
modificano lo “stato del sistema”, i testi narrativi dovrebbero pragmaticamente modificare la
cognizione umana. E’ ben argomentata l’idea che proprio i testi creativi abbiano aiutato lo
sviluppo delle abilita cognitive dell’uomo. Inoltre, chi pratica dei testi letterari sa che è difficile
trovare un testo narrativo del tutto privo di terminologia, cosi come ogni testo artistico ha anche
altre funzioni oltre a quella espressiva. D’altro canto, i testi non artistici possono assumere un
funzionamento “artistico”. Ogni testo ha un inevitabile componente di ibridità e ogni destinatario,
a seconda del contesto, delle conoscenze e delle sue aspettative individuali, può attribuire il
dominio a una tipologia e a una funzione.
Dal punto di vista teorico, nessun testo di per sé può essere catalogato per genere, tipologia o
funzione senza imbattersi in ostacoli logici e in contro-esempi concreti. E’ impossibile stabilire una
distinzione assoluta e valida sempre. Non possiamo offrire alcun assoluto criterio testuale per
distinguere poesia e prosa, neppure l’incolonnamento a centro pagina, che non è sufficiente;
possiamo solo introdurre l’etichetta ibrida di “prosa poetica”, ma comunque anche questa sarà
non assoluta.
E’ quindi evidente che il pregiudizio secondo cui la poesia può tradurla solo un poeta è
un’affermazione priva di logica. Se già è problematico definire “poesia”, allora lo è anche definire
“poeta”, non si è “poeti” per titolo di studio, né per professione, lo è chi si proclama tale o chi tale
è considerato dagli altri.
Molti pensano ancora che il “poeta” sia una persona soggetta a ispirazione, intendendo una dote
esogena. Come suggerisce Dennett, chi agisce in base all’intuizione non sa formalizzare ciò che ha
fatto, cosi lo attribuisce al “talento”, alla “genialità”.
Come diceva Lotman, la lingua naturale “ammette la traduzione”, ma ha al suo interno una
“gerarchia di stili, che permette di esprimere il contenuto di questa o quella comunicazione da
diversi punti di vista pragmatici”. E’ il consenso, a consentirci di stabilire cosa sia “poesia”,
“letteratura”, “testo tecnico” o “scientifico”. La stessa convenzione che riguarda le professioni e la
qualifica dei traduttori.
In sintesi un modello teorico unitario sulla traduzione non è il punto di arrivo, ma quello di
partenza, che ci consenta di valutare in modo oggettivo differenze dir registro e stile, problemi
specifici e generali, per perseguire l’equivalenza che può esistere tra due testi intercambiabili, che
Lotman ha definito pragmatica e che potrebbe definirsi funzionale.

2 – LA RIFLESSIONE SULLA TRADUZIONE: UN APPROCCIO STORICO-CRITICO:

1. Il dominio del pensiero binario: la “bi-teoria”:


La traduzione esiste da quando esistono le lingue naturali, dal punto di vista evolutivo la
traduzione poteva consentite di comunicare con popoli vicini, di allearsi e di negoziare. Solo la
scrittura, però, ha consentito che arrivassero a noi testimonianze di testi bilingui, e solo la stampa
ha permesso che questi circolassero. In moltissimi casi, inoltre, le traduzioni sono più numerose
dei testi in lingua originaria. La storia della teoria è stata parzialmente ricostruita e costituisce
un’importante branca della ‘teoria della traduzione’. Un teorico della traduzione è un esperto dei
processi traduttivi, che conosce le tappe evolutive del pensiero teorico del passato, e ripercorrere
queste tappe è utile. Nella cultura “occidentale”, il pensiero sulla traduzione e la sua ricostruzione
hanno avuto come origine il dibattito sulla traduzione della Bibbia. La teoria della traduzione era
nata come riflessione dei più noti traduttori di “testi sacri”, ma la moderna traduttologia
occidentale è stata fondata solo a meta del secolo XX quando Eugene Nida era stata o chiamato
dalla Bible Society nel 1943, per aggiornare e conformare il processo traduttivo della bibbia a
standard di qualità. Il suo lavoro del ’43 può essere considerato l’anello di congiunzione tra la
teoria umanistica e la contemporanea traduttologia scientifica.
Prima del Novecento la riflessione sulla traduzione delle Scritture era stata avanzata per postulare
la specificità della traduzione biblica, rispetto a qualsiasi altra attività traduttiva: in quanto “parola
di Dio”, il testo sacro veniva distinto da ‘tutti gli altri testi’. La teoria ha per secoli ignorato il
postulato di generalità, fondandosi su presupposti fideistici e metafisici, generando una scissione
tra due ambiti: quello relativo al “testo sacro” e quello relativo a “tutti gli latri testi”. La
contrapposizione di due macro-tipologie testuali è incoerente. Fin dagli anni del Medioevo, si sono
contrapposte queste due “correnti traduttive”. La prima delle due “correnti”, ovvero quella
religiosa, era stata inaugurata da San Gerolamo nel IV secolo d.c. ed era legata alla traduzione in
latino dei testi che poggi chiamiamo per antonomasia “Bibbia”. La seconda “corrente”, riguardava
la traduzione in latino di testi scientifici, di matematica, astronomia, fisica, medicina e filosofia.
Ancora oggi i testi “alti” della letteratura sono recepiti come una sorta di versione laica dei testi
religiosi, i testi scientifici non sono mai inclusi nei testi ‘alti’. In quanto non rappresentativi del
mysterium, della complessità della “parola di Dio”, i testi secolari non parevano interessanti sul
piano teorico, come se la loro traduzione non creasse problemi o se questi non fossero di interesse
accademico. Come portatori di Verità, i testi religiosi venivano considerati come ‘testi di serie A’, e
gli altri ‘di serie B’. In una cultura monoteistica basata su un’idea esclusiva di creazione e di
rivelazione, di fronte ai testi che si credeva contenessero la ‘parola di Dio’, il lettore-traduttore si
trovava di fronte a un dilemma: sarà mai possibile rendere accessibile questo testo in un’altra
lingua senza travisare il messaggio di Dio? Se Dio ha scelto di rivolgersi agli uomini in una precisa
lingua, è sacro solo il testo o anche la lingua?
Le tre grandi religioni monoteistiche hanno un rapporto diverso con questi quesiti, queste
divergono nella loro posizione nei confronti della possibilità e legittimità della traduzione.
E’opportuno ribadire che tutte le religioni monoteistiche considerano il proprio “testo sacro”
diverso dagli altri testi.
Dal medioevo fino ai giorni nostri, la teoria della traduzione ha assunto una struttura binaria ed è
stata definita una “bi-teoria”. Per secoli si è postulato chetasti di status diverso richiedessero
diversi sistemi di regole. La bi-teoria si è così radicata impedendo un modello teorico
generalizzato. L’iniziatore della bi-teoria è stato San Gerolamo, autore della più nota traduzione
della bibbia, la “Vulgata”. Nel suo famoso scritto “Liber de optimo genere interpretandi” (“il santo
traduttore”), fondava due teorie separate, introducendo il binomio fedeltà/libertà che avrebbe
connotato la bi-teoria nei secoli. Nel saggio Gerolamo difendeva il suo operato di traduttore di
un’epistola del vescovo Epifanio al Vescovo Giovanni di Gerusalemme: tacciato di essere un
“falsario” per i suoi “delitti” di traduzione, si giustificava appellandosi alla retorica di Cicerone e
Orazio. La “libertà” che aveva seguito nel tradurre rispecchiava i dettami di Orazio “Non ti sforzerai
di rendere fedelmente parola per parola il tuo testo”. E come diceva Cicerone rendere il testo
“parola per parola” avrebbe significato privarlo “della forza e della proprietà dei vocaboli”,
restituendo ai lettori “il numero delle parole”, ma non il “loro peso”. C’era un eccezione a questi
principi: il criterio di “libertà” non poteva essere applicato alle Sacre Scritture, in quel caso “anche
l’ordine delle parole racchiude un mistero”. Il ‘doppio standard’ partiva dall’idea che nella Bibbia si
celasse un ‘mistero’ sufficiente a giustificare la sospensione del metodo. La bi-teoria si è poi
sviluppata durante l’umanesimo: i testi della cultura greca avevano assunto il ruolo di testi cosi
‘alti’ da assumere una propria ‘sacralità’. Dal tardo rinascimento, fino all’illuminismo, era stata la
cultura francese ad assumere il ruolo di riferimento ‘alto’, valorizzando l’idea che tradurre in
francese fosse una forma di nobilizzazione del testo. Il periodo romantico vede protagonisti i
tedeschi, e i testi letterali vengono i assunti come testi ‘alti’ contrapposti ai testi quotidiani ‘bassi’.
Nel Novecento si radica il pregiudizio che la “poesia” sia più “spirituale” e che nel testo letterario vi
sia qualcosa di più nobile rispetto ai testi scientifici.
La contrapposizione consacrata da Cartesio tra mondo dello spirito (Dio, Arte, Poesia) e mondo
della materia (uomo, scienza, mercato), è stata recentemente oggetto di contro-argomentazioni.
Antonio Damasio nel 1995 ha definito questa contrapposizione “L’errore di Cartesio”: non esiste
una res cognita separata da una res extensa. Le cose hanno cominciato a cambiare solo nell’ultimo
secolo. Se anche è mai esistito un testo divino, è stato modificato da comunità diverse in epoche
diverse e non esistono due soli manoscritti che siano identici, oggi dell’ipotetico originale ci
rimangono solo meta-testi. I dogmi e le norme confessionali delle religioni rivelate sono fondati su
testi ricostruiti in base a copie e traduzioni. Per fare ipotesi sulla autenticità e affidabilità dei
manoscritti serve riconoscere e analizzare:
- Autori che hanno lasciato varianti diverse dello stesso testo;
- Lo stesso testo scritto in due lingue diverse;
Stampe di un testo di cui non si è conservata la versione d’autore;
- Un manoscritto o un dattiloscritto unico e autorità le, ma con correzioni e indicazioni
ambigue o di non certa paternità.

Delle discipline umanistiche la filologia è quella da cui si parte per studiare la teoria della
traduzione, ed è il campo che più si avvicina alle discipline formali e sperimentali.

2. Filologia e traduzione:
Con il termine “filologia” si possono indicare attività diverse. Noi consideriamo il temine nella sua
accezione più tecnica, come l’attività di analisi linguistico-testuale stat a ricostruire, interpretare
ed editare testi o documenti manoscritti e dattiloscritti. Il mestiere del filologo mira a ricomporre
un testo la cui tradizione ha lasciato vari esemplari, nessuno dei quali è il testo autografo
(l’originale dell’autore). Queste copie possono deviare d a uno stesso testo-capostipite, detto
archetipo, oppure appartenere a un gruppo di testi di redazione diversa. Il filologo valuta in modo
critico le fonti e le testimonianze scritte (dette testimoni), che vengono collazionate (cioè
segmentate) e ricomposte in un’edizione artificiale, detta edizione critica. Per definire i
procedimenti di un edizione critica esiste la parola italiana ecdotica, o il termine tedesco Textkritik.
Le scelte del filologo sono parzialmente soggettive, ma mai arbitrarie: sono infatti fondate su
criteri specifici, consapevoli e convenzionali. Il filologo cerca tuti i manoscritti di un testo e li
confronta, creando una gerarchia organizzata in modo diacronico, detta stemma. Lo stemma
indica in quale ordine cronologico quale testo sia stata o copiato da quale altro testo e quali
manoscritti intermedi risultino mancanti. La filologia ha un rapporto diretto con la traduzione per
il reperimento del TP e perché l’analisi del filologo comprende anche le varianti tradotte in un'altra
lingua di testi manoscritti studiati; alcune traduzioni potrebbero rifarsi a copie perdute più antiche.
L’approccio filologico aiuta a comprendere la necessita epistemologica di distinguere tra autore e
testo, sfatando l’idea che un testo vada ricostruito secondo la “volontà” o l’ “intenzione”
dell’autore. Se non esiste metodo scientifico possibile per la ricostruzione di un testo secondo la
volontà dell’Autore, se per limitare i danni occorre rispettare un “testo” inteso come documento,
ma esso stesso già rappresentante di innovazioni rispetto alla volontà dell’Autore e di una
interpretazione nuova e storicamente collocata nel tempo, allora si dovrà ammettere che il testo
stesso è un valore storicamente dato e di fatto potenzialmente indipendente dall’Autore.
Filologi e traduttori operano in base a congetture, che non sono illazioni soggettive, ma operazioni
mentali “euretiche”, ovvero calcoli probabilistici indispensabili quando mancano alcuni dati e/o il
tempo necessario per computarli. Interpretare significa ricostruire nessi tra dati anche laddove
non ci sia una soluzione unica e univoca. Il traduttore, può procedere secondo questo schema:

- (Congettura 1) se i dati disponibili del TP sono ambigui, si valutano le ipotesi e le ambiguità;


- Valutazione di tutte le informazioni di un’unità di testo del TP;
- (Congettura 2) ipotesi sul modo in cui l’avrebbe scritta o detta l’autore se la sua lingua
nativa fosse stata quella di arrivo;
- (Congettura 3) ipotesi sul modo in cui i destinatari del TA lo recepiranno, valutando che
debba essere analogo al mondo in cui i destinatari di partenza riceveranno il TP.

Nel caso di ambiguità, se il testo è contemporaneo al traduttore, si considera che l’ambiguità sia
un importante artificio del TP e lo i riproduce nel TA. Se il testo è cronologicamente distante, il
traduttore si chiede se l’ambiguità sia dovuta allo slittamento semantico del lessico e/o alle
mutazioni sintattiche.
Miliardi di persone oggi, seguono e venerano testi considerati “sacri” che sono il risultato di un
processo di ricostruzione e traduzione umana, non solo basato su congetture ma anche
condizionato dall’ambiente.

3. I testi “sacri” e la ‘parola di Dio’:


Il testo sacro, inteso come “parola di Dio” è legata alle tradizioni monoteiste. L’AT, i Vangeli, il
Corano, si presentano come mediazione di un messaggio divino dal valore profetico. Pur essendo
l’autorità dei testi sacri di ebraismo, cristianesimo e islam filologicamente molto confusa e
ambigua, i testi vengono presentati ai rispettivi fedeli secondo un postulato di Auctoritas: il testo è
“parola di Dio” in quanto Dio stesso, direttamente o indirettamente ne è l’Autore. Se davvero si
crede che un testo contenga la Verità divina, alle del può essere imposto di disconoscere il valore
della scienza o di compiere una separazione tra la logica argomentativa e la fede. Quando c’è
contraddizione tra la ‘Verità’ assoluta e imminente della religione e la ‘verità’ relativa e
contingente della scienza, esistono alcune ‘soluzioni’: negare del tutto il contributo della scienza;
indagare con mezzi della filologia i testi sacri, ipotizzando che vi siano significati nascosti, ma
accessibili che possono rivelare nuove informazioni; una terza strada è attribuire al testo sacro un
valore metaforico, simbolico, che indichi un percorso etico forte e stabile, ma suscettibile di essere
interpretato secondo parametri nuovi in epoche diverse. Un’ulteriore possibilità è quella di
supporre che un preciso testo sacro offra modelli non tanto metaforici quanto esoterici,
nascondendo un codice meta-linguistico accessibile solo ad una stretta cerchia in grado di
decifrarlo: per esempio nel caso della Kabbalah ebraica o di altre correnti mistiche. Ebraismo,
cristianesimo e islam dispongono solo di copie dei rispettivi testi sacri, copie che sono spesso
posteriori di secoli rispetto ai testi originari. La mancanza di “originali” rende la traduzione di testi
‘sacri’ particolarmente problematica, cosi come l’inclusione o esclusione di alcune copie dei testi
dal canone della tradizione di ogni religione: prima ancora di tradurre la bibbia, si deve decidere
cosa venga incluso o escluso dai due Testamenti. Tra le traduzioni può anche trovarsi un
frammento tradotto da una versione più antica del testo canonico. Ad esempio la traduzione in
greco dell’AT definita in latino Septuaginta (“Bibbia dei Settanta”), potrebbe essere più affidabile
della versione maso reti a ebraica. Ma anche su questo non esistono certezze, visto che “quello
che a uno studioso pare una variante del testo ebraico ricostruita rigorosamente è per un altro la
resa tendenziosa del traduttore” e per ogni variazione dei Settanta si possono trovare opinioni
diverse e “pochi criteri obiettivi per valutare”. In ambito cristiano domina l’idea tradurre la Bibbia
sia possibile e legittimo: a prescindere dalla lingua, la Verità della Bibbia può essere preservata e
trasmessa all’umanità in qualsiasi idioma. Nel caso del Corano, domina la convinzione opposta: se
il testo arabo è cosi complesso da evocare molteplici associazioni, rimandi e interpretazioni, e se
questa ricchezza è legata alla specifica forma della parola originaria in arabo, la traduzione non
può conservare l’immenso retaggio interpretativo del testo arabo. Per chi assuma l’ottica della
sacralità sostanziale e formale del testo sacro, la traduzione può essere vista addirittura come
processo dissacratorio, come operazione di dissidenza religiosa. Soprattutto nell’epoca degli scismi
un traduttore poteva essere giustiziato solo per aver reso in un particolar modo una frase del
testo.

3.1. Testo biblico e traduzione nell’ebraismo:


La società occidentale giudaico-cristiana ha un legame privilegiato con la Bibbia: l’AT è un testo
“sacro” sia per l’ebraismo, sia per il cristianesimo, anche se nell’ebraismo non si può parlare di
“Antico Testamento” dato che non ne esiste uno “nuovo”. Il testo sacro per eccellenza è la Torah
che comprende solo i primi cinque libri dell’AT (Pentateuco). La Torah viene letta e studiata dagli
ebrei osservanti in lingua ebraica (nella versione masoretica). L’ebraico della Torah è definito
“lingua santa” ed è assunto come lingua liturgica. Dal punto di vista materiale e filologico, la
scrittura ebraica in cui sono state trasmesse a noi le copie manoscritte del Pentateuco presenta
alcune ‘fatali’ caratteristiche delle scritture semitiche: queste caratteristiche inficiano l’idea che
possa esistere una “Verità”; dimostrano l’impossibilità di leggere e comprendere i manoscritti
antichi senza la procedura filologica delle congetture. Quello ebraico, è un alfabeto consonantico,
trascrive per lo più i soli suoni delle consonanti che costituiscono la radice della parola; i suoni
delle vocali venivano omessi nella scrittura. Un contesto in buona parte senza vocali, crea un
rompicapo anche in una lingua radicale, dove le previsioni sono comunque guidate da un nesso
semantico. Però, questo sistema pare legato a una modalità cognitiva universale, anche noi che
usiamo le lingue indoeuropee, codificando e decodificando gli sms per abbreviare le parole;
leggendo, le ripristiniamo per congettura, secondo abilità statistico-contestuali che sono proprie di
ogni intelligenza umana addestrata alle lingue sonore. Gli autori delle copie manoscritte dell’AT,
non utilizzavano le maiuscole, non distinguevano tra fricativa sorda alveolare e postalveolare e
non separavano tra loro le singole parole.
La vocalizzazione mediante puntuazione risale circa al VII secolo d.C., ma la scelta delle vocale
inserite è basata su congetture. Uno dei compiti più importanti di un ebreo è proprio quello di
studiare la Torah e di verificare quali altre combinazioni di vocali possono portare a nuove
interpretazioni. Questo impone di accettare l’idea che più significati possano convivere nello
stesso messaggio biblico. Anche se si disponesse oggi del testo originale perduto, sarebbe
comunque impossibile leggerlo secondo un’interpretazione del tutto oggettiva. Proprio questo
implica l’impossibilità oggettiva di proporre una traduzione della Torah che sia oggettiva, definitiva
e statica. A quanto pare, Dio aveva dato agli ebrei un testo che facesse loro esercitare l’umiltà
dello studio, nella consapevolezza che la Verità non fosse mai raggiungibile del tutto. L’ebraico
della Torah è sacro in ogni sua lettera, ma i precetti che il testo sacro contiene sono applicati nella
vita quotidiana in base ad argomentabili congetture. E’ importante considerare che l’ebraismo non
è mai incline al proselitismo esterno, non è dedito a diffondere la propria religione tra i non ebrei.
Infatti si è mantenuta nei secoli una rigida correlazione tra l’appartenenza religiosa e
l’appartenenza al popolo ebraico. L’ebraismo non cerca di moltiplicare i fedeli, ma di rendere più
osservanti e biblicamente dotti gli avrei meno religiosi. Quindi non c’è mai stata l’esigenza di
tradurre la Torah per diffonderla, solo la necessita di renderla accessibile ai meno dotti ebrei della
diaspora che non fossero in grado di comprendere l’ebraico biblico. Queste “traduzioni di servizio”
servivano solo al popolo per seguire le funzioni sinagogali: la traduzione non sostituiva il testo.

3.2. La Bibbia e la sua traduzione nel cristianesimo:


Anche in ambito cristiano, l’ebraico dell’AT è stato considerato a lungo una lingua fondamentale
per lo studio delle Scritture, ma la sua sacralità è stata messa in ombra per varie ragioni:

- I non ebrei vedevano nell’ebraico la lingua di un singolo popolo, connotato da un


“elezione” che il cristianesimo aveva reinterpretato, annullandola.
- Gli ebrei erano stati accusati di deicidio e parte della diffidenza si era riflessa sulla lingua
ebraica.
- Il crisma di lingua sacra era stato rivendicato dal greco e poi esteso al latino.

La situazione filologica del Nuovo testamento è simile a quella dell’AT: l’intera Bibbia è stata
ricostruita secondo canoni che sono stati il risultato di un processo più che decisioni di concili. La
differenza tra il canone ebraico e quello cristiano è quello che ha permesso di marcare le
differenze che consentono ai diversi “popoli del Libro” di sentirsi “il popolo del Libro”. La
sostanziale macro-differenza tra le due religioni nel rapporto con le Scritture dipende dall’opposto
approccio al proselitismo. Il cristianesimo si fonda sul proselitismo, coerentemente all’idea che la
“buona novella” sia resa accessibile a tutti i popoli della terra. La missione di evangelizzazione è
necessariamente connessa alla divulgazione e ricezione della Bibbia che va portata ai popoli. La
traduzione era la soluzione ideale per la conversione di milioni di persone. Con l’estensione a tutti
i popoli del patto divino, veniva affermato il diritto di tutte le lingue di farsi strumento della
“parola di Dio”. Il processo di diffusione della Bibbia tradotta ha raggiunto un picco, con la
fondazione delle United Bible Societies. Le Società Bibliche Unite avevano assunto il compito di
“muovere incontro” la Bibbia al lettore. La teorizzazione della traduzione della Bibbia in ambito
cristiano risaliva a San Gerolamo. Per più di un millennio, nessuno avrebbe messo apertamente in
discussione l’approccio al testo biblico del “santo traduttore”. Solo nella prima metà del XVI
secolo, la sua concezione veniva ribaltata dalla traduzione della Bibbia in tedesco conclusa da
Martin Lutero nel 1534:questa avrebbe costituito un drastico momento di svolta sia in ambito
religioso che nella teoria della traduzione. Lutero affermava la priorità della funzione comunicativa
e della coerenza pragmatica del testo tradotto. Secondo Lutero, per la dottrina cristiana, era
necessario dare assoluta priorità al criterio della credibilità linguistica e testuale. Le sue
considerazioni nell’”Epistola sul tradurre” del 1530 rispecchiano le moderne teorie semiotiche,
annullando per la prima volta il postulato della contrapposizione tra testi ‘alti’ e ‘bassi’. Lutero era
convinto che la lingua delle scritture fosse e dovesse restare popolare, credibile e comprensibile:
“non si deve chiedere alle lettere della lingua latina come si ha da parlare in tedesco, … , ma si
deve domandarlo alla madre in casa, ai ragazzi nella strada, popolano al mercato”.
Lui osservava, per esempio, come il saluto dell’angelo a Maria “Ave, Maria, piena di grazia” fosse
innaturale. Nel tedesco vivo, doveva corrispondere a “Dio ti saluta, Cara Maria”, perché così
avrebbe detto l’angelo se avesse parlato in viva lingua tedesca. Secondo Lutero, un traduttore che
lavorasse al meglio delle sue possibilità avrebbe reso un servigio a chi non avesse saputo “far di
meglio”; nessuno sarebbe stato obbligato a leggere la sua traduzione e, soprattutto, a nessuno si
sarebbe “vietato di fare una traduzione migliore”. Tuttavia Lutero non separava il piano funzionale
da quello fideistico, legato alla sua ostilità per i nemici della sua ‘verità’. Dopo aver parlato in
termini semiotici, passava a elencare le doti intrinseche necessarie a un traduttore degno di
accedere ai testi sacri. Queste rimandavano a categorie dogmatiche e ineffabili: il traduttore
avrebbe dovuto avere “un cuore veramente pio, fedele, zelante, timoroso, cristiano, dotto,
sperimentato, esercitato”. Questa prescrizione lasciava intendere che la bontà del testo tradotto
dipendesse a priori da doti umane indefinibili. I traduttori ebrei, ad esempio, non sarebbero potuti
essere affidabili, in quanto non avevano mostrato “molta venerazione per Cristo”. Il timore che i
“nemici di Cristo”, a causa di potenziali manipolazioni ideologiche, non potessero essere buoni
traduttori è comprensibile e condivisibile, ma l’idea non veniva argomentata in modo razionale.
Lutero finiva quindi, a riproporre una modalità binaria, che però lui applicava al traduttore e non al
testo. Il problema della fedeltà veniva spostato dal prodotto della traduzione al suo artefice. I
primi tentativi di impostare la discussione sulla traduzione della Bibbia secondo un approccio
realmente laico, sistematico e rigoroso, si avranno solo nella seconda metà del XX grazie al
contributo di Eugene Nida; lui poneva l’accento sul problema della traduzione come realizzazione
di corrispondenze pragmatiche, su quello che definiva “l’uso effettivo” della lingua: “il significato
di ogni unità linguistica va considerato nei limiti delle situazioni in cui può verificarsi”. Nida
argomentava una separazione tra sacralità del testo e attività interlinguistica, invitando a
ricondurre l’attività della traduzione biblica agli “sviluppi contemporanei nei campi della
linguistica, antropologia e psicologia” e “alla più vasta attività traduttiva in generale”. In un volume
pubblicato nel 1982 affermava che “si daranno traduzioni diverse che possono essere definite
‘corrette’”. L’evidenza del dominio del piano metafisico su quello logico-epistemologico si
manifesta con la presentazione del volume di Alberto Ablondi, dove si allude alle qualità
necessarie al traduttore nei termini espressi prima da Lutero:i traduttori devono essere “umili” per
farsi guidare dallo “Spirito Santo”. I linguisti, però, non possono accettare che un’analisi teorica si
fondi sul postulato non falsificabile che i testi biblici siano “di origine divina, per l’incarnazione
della parola di Dio”. Se Dio e lo Spirito Santo hanno a che fare con le traduzioni, se sono
onnipotenti e interferiscono nelle faccende umane, i ragionamenti della filologia, della linguistica e
dell’antropologia vengono azzerati. Nida era pienamente consapevole che tradurre la Bibbia
implicasse una responsabilità particolare a prescindere dal fatto che il traduttore credesse o
meno, ma spostava il concetto di sacralità dall’ontologia del testo al suo ruolo storico-sociale: la
sacralità di qualsiasi testo riguarda il mondo in cui quel testo verrà recepito dalla maggioranza dei
destinatari della traduzione. Si è detto che l’ “originale” da cui è stata tradotta la bibbia non è mai
stato l’originaria parola di Dio e che le interpretazioni dei testi oggi canonizzati non possono non
essere frutto di congetture soggettive umane. Fino ad oggi nemmeno i teorici più sofisticati hanno
affrontato i seguenti quesiti sull’AT:

- Visto che il testo della Bibbia da cui vengono fatte le traduzioni è una copia di copie, non
può essere accaduto che i copisti abbiano omesso, aggiunto, modificato qualcosa
significativo per l’autore e per la sua dottrina?
- Se la Bibbia e “parola di Dio”, quali vocali ha immaginato l’Autore?
- E’ possibile che il traduttore, oltre a dover partire da un testo manipolato dai copisti e dagli
esegeti, essendo vincolato ai suoi limiti di fallibilità, trascuri qualche particolare cruciale in
cui, magari, l’Autore aveva voluto racchiudere o nascondere la Sua “chiave di lettura”?

Ogni forma di manipolazione di un testo è soggetta ai limiti umani. Tutte le interpretazioni sono
umane e restano tali anche se assurgono al ruolo di “testo sacro” o vengono canonizzate.

3.3. Il Corano come testo sacro e la sua intraducibilità:


Anche nella cultura islamica, il dibattito sulla traduzione è strettamente legato all’ambito religioso.
Si può dire che l’Islam prevede di “portare il credente al Corano”, e non il contrario. Quindi il
proselitismo islamico non si fonda sulla diffusione di traduzioni, ma sulla diffusione del testo
coranico in arabo e sulla diffusione dell’arabo coranico stesso. Il ruolo speciale dell’arabo è
attestato dall’esistenza di due verbi differenti per intendere l’operazione di traduzione verso
l’arabo dal greco (naqala) e dall’arabo stesso (tarjama), ed entrambe sono intese come
interpretazioni ‘dubbiose’ o ‘incerte’. La sacralità del testo coranico è considerata imprescindibile
dalla sacralità della lingua prescelta da Allah e dal Suo Profeta, pertanto il Corano è assoggettato al
dogma di “inimitabilità”. L’universalismo della religione islamica è collegato all’universalità della
lingua sacra araba, che resta patrimonio comune dell’intera comunità dei credenti, la umma. La
lingua coranica si attesta come tramite fondamentale del credo islamico. Resta aperta la questione
relativa alla mancanza di un “originale”, all’affidabilità delle copie. Non è garantito che anche il
testo arabo sia esattamente corrispondente al messaggio profetico e divino che è andato perduto.
Le interpretazioni del Corano costituiscono ancora oggi una questione difficile. Agli occhi della
maggioranza degli studiosi, le numerose traduzioni del Corano di cui disponiamo non sostituiscono
il testo sacro in arabo, ma hanno solo il ruolo di spiegazioni del suo contenuto, di vie d’accesso al
senso della Rivelazione. Questo indica una coerenza tra religione e filologia: se il testo è sacro, la
sua sacralità non può essere scindibile da quella della lingua prescelta. Il Corano viene riconosciuto
a pieno titolo come “central text” in termini di contenuto e di spiegazione, materiali, fisici,
linguistici: ogni copia deve essere in arabo, conforme alla versione del canone; ogni traduzione
non può che essere una mera parafrasi. All’inizio del nuovo millennio Bormann scriveva: “si deve
ammettere che ormai la traduzione del Corano viene ammessa dalla stragrande maggioranza dei
dotti dell’Islam contemporaneo: non mancano oggi i musulmani che hanno tradotto nelle grandi
lingue di cultura. Oggi la diatriba è superata: ormai solo la traduzione rende accessibile il Corano a
moltissimi fedeli. Nel caso delle traduzioni delCorano c’è un problema inevitabile e rilevante:
essendo fatte spesso da traduttori che sono cronologicamente e culturalmente distanti dal mondo
coranico, il testo può subire interferenze , in particolare omologazioni alla cultura di arrivo. Questo
è rischioso, dal punto di vista islamico, qualora l’influenza sia quella della cultura ebraico-cristiana,
responsabile di aver falsificato le Scritture coraniche “per celare la previsione della venuta del
profeta Muhammad”.
3.4. Il dialogo scientifico e la dinamica linguo-testuale:
Da un punto di vista logico l’idea di traduttori “ispirati” al di fuori di loro stessi da Qualcosa o
Qualcuno contraddice l’idea che tradurre implichi conoscenze, abilità, e norme deontologiche
acquisibili. Nella traduzione qualsiasi di testo considerato “sacro”, l’ossequio alla “lettera” del
testo contraddice l’esigenza che la traduzione sia opera di professionisti e che debba funzionare
come funzionava il TP, perduto, dell’Autore. Nel momento in cui si procede alla riflessione e al
mestiere, qualsiasi intento sistematizzante, generalizzante o formalizza tre deve prescindere
dall’assioma metafisico di “ispirazione” per confrontarsi con i dati del testo e della sua storia con
cui si attuano le congetture. Dal punto di vista scientifico del filologo e del linguista “non vi è
autonomia del testo; non esiste il testo in sé”. Non può esistere dialogo senza il confronto e la
condivisione degli strumenti del pensiero, e non può esservi confronto e condivisione senza
riferimenti comuni: serve un accordo preliminare che individui delle premesse comuni agli
interlocutori che possano, almeno temporaneamente e convenzionalmente (hit et nunc), essere
considerate per tutti “oggettive”. Se i postulati sono solo metafisici, si resta fuori dall’agire
scientifico. L’insensato principio di intraducibilià -inteso come impossibilità che una metatesto in
un’altra lingua sia equivalente al TP- è basato sul postulato che “originalità” corrisponda a “Verità”
estetica o spirituale e sull’omissione di una ‘verità’ filologica materiale. Anche per i testi non
religiosi del passato, trattati con devozione tale a quelli religiosi, si può quasi sempre escludere che
un traduttore utilizzi come TP un autografo. Si consideri che l’ermeneutica, la semiotica e le
scienze cognitive hanno dimostrato da ogni o punto di vista che: ogni testo varia non solo per
lettori o ascoltatori di culture diverse, ma per ogni lettore o ascoltatore all’interno della stessa
linguocultura. La mera appartenenza a una linguocultura può influire in qualche misura, ma non
determina mai l’individualità, le conoscenze, il gusto, l’acume di un singolo individuo. Inoltre, uno
stesso individuo in due momenti diversi della sua vita, recepisce in modo diverso lo stesso testo in
lingua nativa, notando e valutando elementi del testo in modo qualitativamente e
quantitativamente diverso. Le reazioni di ogni umano allo stesso input mutano al mutare
dell’esperienza: “non esistono due umani che, pur parlando la stessa lingua, siano cresciuti
esattamente nello stesso modo”. L’esperienza modifica continuamente i nostri circuiti cerebrali
“che vengono rimodellati più e più volte nel corso dell’esistenza, secondo i cambiamenti che
l’organismo subisce”. Infine le lingue stesse a) sono lievemente diverse per ogni parlante, anche
nativo e b) mutano con grande rapidità, diventano sempre più “strane”, a tratti incomprensibili,
per nativi della stessa cultura a distanza di decenni e secoli.

3.5. La traduzione tra ideologia e religione:


Le traduzioni di testi sacri hanno contribuito a mettere in contatto culture molto distanti tra loro,
diffondendo messaggi che hanno portato al mondo idee nuove. La traduzione dei testi sacri è stato
il primo e più significativo passo verso una globalizzazione ideologica. L’ideologia e la fede,
l’estetica e la stilistica, fanno parte dei fattori coinvolti nei meccanismi di selezione dei testi da
tradurre. Le traduzioni mirate alla conversione, al proselitismo, alla ‘dissidenza religiosa’ sono
sempre soggetti a un controllo che viene esercitato sul traduttore e sul suo operato da qualcuno
che ha più potere decisionale di lui. Le traduzioni hanno cambiato e possono cambiare il mondo.
L’epoca umanistico-rinascimentale che avrebbe portato alla Riforma protestante aveva dimostrato
come le traduzioni avessero assunto il ruolo di strumento sociale, politico e ideologico. Nel
panorama intellettuale rinascimentale la traduzione “plasmava la vita intellettuale dell’epoca”
rendendo il traduttore più simile a “un attivista rivoluzionario che al servitore di un testo o di un
autore”: in generale, l’immagine che un popolo di è atto di un altro popolo, di un’altra religione o
di una nuova ideologia è stata regolamentata dal controllo dei testi tradotti e immessi su un nuovo
mercato: la traduzione detiene un potere immenso nel costruire le rappresentazioni delle culture
straniere. Così i testi stranieri vengono spesso riscritti per essere conformi agli stili e alle tematiche
che prevalgono stabilmente nelle letteratura di partenza. L’impatto ideologico-culturale dei testi
non riguarda solo le differenze tra i ‘popoli’, ma anche quelle tra gruppi di individui che si
distinguono per altri fattori, come ceto sociale o sesso. La traduzione in ottica femminista, per
esempio, è l’occasione di risposta critica ad una “fedeltà” intesa come esercizio del potere
maschilista (vedere pag. 88 citazione).
La critica femminista ha approfondito la correlazione tra cultura di massa, cultura individuale e
ideologia: “ogni progressiva re-visione del testo esplicita necessariamente la propria affiliazione
estetica, il proprio progetto traduttivo”.
Il potere deduttivo dei ‘grandi testi’ dipende anche dalla loro incisività retorica e dalla loro
costruzione formale: da come sono scritti, stampati, tradotti. Uno stesso argomento può risultare
più o meno efficace a seconda delle caratteristiche stilistiche della sua formulazione e
presentazione. Quanto più un testo è suadente per energia, ritmo, musicalità, coesione formale,
tanto più “fa presa” sulla memoria. Gli acronimi, le poesie, gli slogan sono efficaci in buona parte
grazie alla loro struttura tautologica, “autoaffermati a”, cui sembra particolarmente predisposto il
pensiero umano: “il nostro modo di considerare le idee è anche normativo: incarna un canone o
ideale riguardo a quali idee dovremmo accettare, ammirare o approvare:

L’idea X era creduta perché era ritenuta vera.


La gente approvò l’idea X perché la giudicava bella.

Tali norme non sono soltanto ovvie, ma anche costitutive:determinano le regole secondo cui
pensiamo alle idee.
Quasi tutti i testi prodotti dall’uomo hanno in comune un legame più o meno marcato con gli
stilemi della retorica e della persuasione.

4. Metafisica, estetismo, irrazionalismo: il retaggio storico da superare:

4.1. Il culto dell’ “originale” e lo “spirito dell’Autore”:


Il legame che ha collegato la traduzione alla religione e all’estetica metafisica è un retaggio teorico
che aiuta a comprendere i limiti che hanno influenzato la teoria della traduzione. Si è visto che il
concetto “parola di Dio” è connesso a quello di “originale”. Il discorso relativo alle sacralità del
testi o religioso si è esteso anche ai testi letterari, assurti al ruolo di “testi di culto”. Per secoli, il
pensiero sulla traduzione ha riguardato la supposta “fedeltà” al supposto “originale”. L’ottica
binaria che oppone “fedeltà” a “libertà” della traduzione si è radicata sempre di più. Nella cultura
occidentale alcuni testi particolarmente rappresentativi sono considerati portatori di un valore
speciale che li rende ‘superiori’ agli altri testi (es. la Divina Commedia). La possibilità di un testo di
diventare oggetto di un culto quasi religioso è tanto più alta, quanto più il testo è diventato
rappresentativo di un recente modello letterario (nuovo canone), ma anche di una cultura nel suo
insieme, cioè quando diventa un modello etico-estetico riconducibile a un Autore nei cui confronti
si nutre una devozione talvolta maniacale e agiografica. Il valore del testo rimanda al valore
dell’Auctor, della sua auctoritas, dunque della preservazione della sua volontà in quanto
“autorevole”, portatrice di valore. Fin dal VI secolo a.C. era nata attorno all’opera omerica una
tradizione esegetica non dissimile da quella biblica. La discussa auctoritas aveva acuito la
devozione per i testi omerici, generando traduzioni in un greco più recente dei testi di Omero, per
chi non poteva leggerli nel greco originale. Franco Montanari - dicendo su Omero “il poeta più
usato nella pratica scolastica di tutta l’antichità” che aveva scritto in “ una lingua del tutto
artificiale, che nessun gruppo dei parlanti ha mai adoperato come lingua d’uso”- ha evidenziato i
due parametri principali e che inducono alla traduzione intralinguistica di un testo ‘di culto’: il
parametro disastratico (legato al prestigio di un’opera o di una cultura linguistica) e quello
diacronico (legato al trascorrere del tempo), questi due fattori sono spesso interconnessi: man
mano che la lingua evolve, cresce l’esigenza di “tradurre” i testi più antichi scritti nella “stessa”
lignua; più esiste o no antichi e più siano importanti nel sistema culturale, più questa esigenza
cresce e si sviluppa. Si può quindi pensare a una propensione antropologica (psicosociale) dei
gruppi culturali a eleggersi cult texts il cui prestigio raggiunga forme di vera e propria deferenza,
connessa a un bisogno di riferimenti ‘mitologici’. Questo bisogno di tributare al testo un valore
assoluto, ha messo a tacere il fatto che l’ “originale” non c’è. Non c’è nulla in un testo che lo renda
oggettivamente migliore di un altro: la superiorità di un testo rispetto agli altri è contingente e
risulta da un alto numero di variabili storico-culturali che agiscono sulla mente dei destinatari e
che sono veicolate da critici, esegeti, censori e opinion makers. Stefano Manfrelotti ha postulato
per il traduttore l’essenza di “capacità artistica”, in quanto questa capacità “appartiene solo allo
scrittore creativo”; dal traduttore ci si aspetta un “umile atteggiamento ancillare”. L’assioma
dell’imperfezione costitutiva, ontologica, della traduzione si è proiettato sulla teoria. Il postulato
dell’imperfezione costitutiva della traduzione si basa sul postulato che il TP sia “perfetto”, stabile,
immutabile e portatore dello “spirito dell’autore”. Il concetto di “spirito dell’autore” è stato
centrale nell’ambito della cultura inglese. I pensatori britannici ponevano al centro della riflessione
teorica uno “spirito” che seppur non ‘divino’ in senso religioso, connotava di un’aura metafisica il
connubio testo/autore. “Il problema centrale” attorno a cui ruotava la teoria era “il tentativo di
ricreare lo spirito essenziale, l’anima o la natura dell’opera d’arte”. Dryden sosteneva che le
tipologie traduttive potevano rientrare in una tripartizione: metafrasi, parafrasi, imitazione.
Dryden privilegiava la parafrasi, in quanto aurea mediocritas a tra la pesantezza dell’interlineare e
l’eccessiva autonomia dell’imitazione. L’imitazione si arroga il diritto di sacrificare “lo spirito
dell’autore”, violando “il senso dell’autore” che deve essere “sacro e inviolabile”. Per Dryden tutto
era “superstizione” fuori dall’anelito a ricreare un testo antico per il quale provava un “opportuna
venerazione”. Secondo l’idea umanistica, la verticalità gerarchica veniva stabilita dal
riconoscimento o della supremazia dello “spirito dell’antichità”:

“No literal translation can be just to an excellent Original in a superior Language: but it is a great
Mistake to imagine that a rash Paraphrase can make amends for this general Defect; which is no
less in danger to lose the Spirit of an Ancient, by deviating into the modern Manners of
Expression.”

I pensatori inglesi si esprimevano in chiara contrapposizione alla pratica francese delle “belle
infedeli”.

4.2. Il modello francese delle “belles infidèls”:


Dal primo Rinascimento il numero delle traduzioni profane aumentò e alcuni traduttori-pensatori
cominciarono a vedere nella traduzione un’attività laica cui spettasse lo status di ars, di arte-
mestiere basato su “regole dell’arte”. I teorici rinascimentali davano priorità alla buona
conoscenza di entrambe le lingue di lavoro, alla comprensione del TP, all’autonomia estetica del
traduttore rispetto alle esigenze e ai canoni della cultura di arrivo: “per ragioni essenzialmente
ideologiche, religiose come filosofiche” il Rinascimento rompeva con la “versio medievale, legata
strettamente alla traduzione letterale”. Tra i più noti sostenitori di questa posizione va ricordato
Etienne Dolet, considerato il padre della traduttologia francese, bruciato sul rogo dall’Inquisizione
per aver tradotto inappropriatamente un Dialogo di Platone: secondo le autorità lui aveva
aggiunto un‘espressione che negava l’esistenza dell’anima. In un breve saggio del 1540 Dolet
aveva sintetizzato le sue intuizioni sull’asimmetria delle lingue e sulle regole che riguardavano il
buon traduttore. Dolet riteneva che il traduttore dovesse impregnarsi a. Tutelare l’esito estetico
della traduzione e considerava riprovevole qualsiasi calco del Tp. Proponeva cinque moderni
principi della traduzione ‘a regola d’arte’:

1. Comprendere bene il senso e l’intenzione dell’autore dell’originale, pur concedendosi la


libertà di chiarire i passaggi oscuri;
2. Possedere una conoscenza perfetta della lingua di partenza e di quella di arrivo;
3. Evitare di tradurre parola per parola;
4. Utilizzare espressioni di uso comune;
5. Selezionare e organizzare le parole in modo appropriato per ottenere la tonalità ottimale.

Questa posizione veniva ripresa anche da George Chapman che poneva la funzionalità del testo
come finalità dell’atto traduttivo, ma ignorando il criterio dell’equivalenza, cioè ponendo l’estetica
del testo tradotto al di sopra della sua precisione. Dolet restava ancorato agli indefinibili concetti
di “originale” e di “senso” e al parametro dell’ “intenzione dell’autore”. L’estetismo era coerente
alla rivalutazione rinascimentale dell’estetica classica, che poneva il “bello” e il gusto all’apice della
ricerca artistica. Dal XVII secolo, la rivolta contro il letteralismo portava, in Francia, al trionfo delle
traduzioni “belles infidèles”. Il testo tradotto “innestato dai valori specifici della cultura di arrivo”
doveva contribuire ad arricchire la cultura di arrivo secondo i principi di un “estetismo naturale”.
Le “belle infedeli” nascevano dall’intento di francesizzare i testi originari, di renderli più “belli”,
secondo il gusto francese. Questo poneva la traduzione al centro del processo letterario e
creativo, ma creava un precedente: l’estetismo in traduzione sarebbe stato recepito come
“libertà” di riscrivere il testo quasi a piacimento, assecondando il gusto dei destinatari
contemporanei. La priorità del traduttore era la ricerca dell’effetto e del piacere estetico: si
privilegia un tipo di traduzione che si adegui ai criteri stilistici dell’epoca, che sia agréadable ed
élégante e che non offenda les délicatesses della lingua francese, trasformando di conseguenza gli
originali.
Le delle infedeli erano in realtà pseudo-traduzioni: queste operazioni di omologazione alla cultura
di arrivo erano vincolate a parametri extra-testuali che allontanavano la traduzione dal concetto di
ars come mestiere per avvicinarla a quello di ‘Arte’ come estetica fine a se stessa. Questa
“ideologia estetizzante” contribuì a trasferire l’idea della ‘sacralità’ dall’ambito della fede a quello
dell’arte. Se la “fedeltà” linguistica era in contraddizione con la “bellezza” del testo, il traduttore
doveva in “Libertà” abdicare alle corrispondenze interlinguistiche. Il modello francese ebbe un
successo particolare in Russia dal XVIII secolo, quando non c’era una distinzione qualitativa tra
“originali” e traduzioni: “la maggior parte delle traduzioni dell’epoca, se valutate secondo i
parametri odierni, dovrebbero essere definite ‘imitazioni’ o ‘rifacimenti’.
In Russia la pratica traduttiva non era legata solo alla convinzione che esistesse oggettivamente il
‘bello’, ma allo sforzo di agevolare lo sviluppo delle lettere russe e della stessa lingua letteraria
russa. Quindi l’attività traduttiva veniva recepita, a pieno titolo come attività letteraria creativa.
Attraverso traduzioni omologanti, “russificate” la Russia creava capolavori di traduzione liberi da
vincoli linguistici. L’influsso del modello francese ottenne un consenso anche in Inghilterra, dove la
parentesi dell’estetismo era però stata molto breve. A superare l’estetismo laico francese sarebbe
stato il romanticismo tedesco; i pensatori tedeschi avrebbero cercato di ‘quadrare il cerchio’ tra
“fedeltà” e “libertà”, ricadendo in una nuova forma di dualismo ‘spirituale’.
4.3. Il romanticismo tedesco e il ritorno allo “spirito dell’originale”:
I critici e i filosofi del romanticismo tedesco si interrogavano sul ruolo della storia, della lingua,
delle lettere nell’evoluzione del destino umano: “la traduzione era l’intimo ‘destino’ (innerestes
Schicksal) della lingua tedesca stessa. L’evoluzione del tedesco moderno è inseparabile dalla Bibbia
di Lutero, dall’Omero di Voss, dalle versioni successive di Shakespeare a opera di Wieland, Schlegel
e Tieck.”
A riflettere sulla traduzione troviamo Johann Wolfgang Goethe, mediatore tra classicismo e
romanticismo. Nelle “Note” al Westöstilches Divan, Goethe propugnava la supremazia della
versione interlineare: solo l’aderenza al testo originario sarebbe stata in grado di “rendere la
traduzione identica all’originale”, evitando che divenisse un “surrogato” dell’ “originale”, bensì
rappresentandolo “paritariamente”. Sebbene l’umiltà prescritta sia qui da intendere in senso laico,
Goethe sanciva in modo chiaro la superiorità del TP. Combatteva il modello francese, avanzando il
moderno concetto di ibridazione culturale: calcando il testo straniero, il traduttore avrebbe potuto
educare il “gusto della folla” a una “terza entità”, rinunciando in parte “all’originalità della sua
nazione” accogliendo l’estraneità. Si trattava di una intuizione che sarebbe stata interpretata
come “estraniamento” dalla traduzione, vista non come riproduzione funzionale di un testo in un
altro codice, ma come mera “ibridazione” della cultura di arrivo. I più noti protagonisti del
romanticismo tedesco sono Wilhelm von Humboldt e Friederich Schleiermacher. Nel 1813
Schleiermacher pubblicava il saggio “Sui diversi metodi del tradurre”, e nel 1816 veniva pubblicata
l’ “Introduzione alla traduzione dell’Agamennone di Eschilo” di Von Humboldt. Dal saggio di
Schleiermacher emerge il duplice intento paradossale che caratterizza buona parte della teoria:
creare tipologie per regolamentare la traduzione, dimostrare che la traduzione è un’operazione
non assoggettabile a schematizzazioni. L’analisi parte dalla considerazione che la comunicazione
umana è estremamente difficile anche all’interno della stessa comunità linguistica: secondo S. Le
forme di una stessa lingua e il senso a loro attribuito darsi singoli parlanti non paiono riconducibili
a un codice unitario; inoltre per ogni persona varia la ricezione individuale di uno stesso testo nel
tempo. S. Proponeva la distinzione tra l’attività del Dolmetscher, interprete dell’ “attività
quotidiana”, e dell’ Übersetzer, il vero traduttore. Mentre “all’ambito dell’arte e della scienza si
addice la scrittura”, negli altri ambiti si sarebbe avuta solo una “registrazione di un’interpretazione
orale”. Il legame tra lingua, pensiero e cultura, richiedeva che il traduttore dei testi “dell’arte e
della scienza” avesse un’irreprensibile dimestichezza con la lingua e la cultura di partenza,
bilanciando l’innovazione del TA con la “creatività” del TP. Il rapporto dell’Übersetzer con la
propria cultura risultava fondamentale, ma la sua capacità di progettare “con esattezza i suoi
obiettivi” e di calcolare “i mezzi necessari al loro conseguimento” diventava impossibile da
definire. Al traduttore serviva un progetto e era importante creare tra il proprio lettore e il TA un
rapporto analogo a quello esistente tra il TP e il suo lettore coevo (attualizzazione), S. Definiva
folle questa stessa ambizione, poiché la lingua del TP “con la straniera non concorda in nessun
punto”. Questa visione riguardava solo i testi dove si manifestasse lo “spirito”, poiché i testi
“bassi” erano invece basati su corrispondenze quasi perfette. Da qui la contrapposizione tra
“parafrasi” e “rifacimento”: la prima è “meccanica” e chi la pratica “ tratta gli elementi delle due
lingue come fossero segni matematici”, per cui è limitata ai testi della scienza, mentre per l’arte si
ha l’imitazione o rifacimento (Nachbildung) che può permettere una forma di attualizzazione,
sostituendo lo “spirito dell’originale” con “L’estraneo”. Contro-argomenta ile è anche
l’affermazione di S. Che nulla possa essere “inventato” in una lingua: in realtà, proprio le
traduzioni costituiscono un ambito di sviluppo onomasiologico per qualsiasi lingua di arrivo. Gli
umani dispongono, infatti, di facoltà atte a inventare parole in modo che siano comprese e
trasportate da un campo all’altro, da un registro all’altro. Per sintetizzare la sua bi-teoria: “O il
traduttore lascia il più possibile in pace lo scrittore e gli muove incontro il lettore, o lascia il più
possibile in pace il lettore e gli muove incontro lo scrittore. Imboccata una via, si deve percorrerla
fino in fondo con il maggior rigore possibile”.
Unificare le due strategie avrebbe dato “risultati estremamente incerti con il rischio di smarrire
completamente sia lo scrittore, sia il lettore”. Oltre a questi metodi “non può essercene un terzo
capace di prospettare un obiettivo ben definito”. A questo ‘aut-aut’ si possono opporre due
considerazioni:
1) Dosare i due metodi è possibile, è quello che fa oggi un professionista, soprattutto con testi
complessi e perfino con la traduzione biblica;
2) Quali che siano i parametrio egoisti da un traduttore, sono sempre e solo proiezioni del suo
modo mentale e circoscritto; tutte le operazioni svolte sono sempre misurate e verificate
dal traduttore su se stesso, secondo un processo di decodifica-codifica-verifica che avviene
solo nella sua mente e che è, pertanto, sempre e comunque ‘self-oriented’. “La
comprensione umana, quindi la comprensione della comprensione, è essenzialmente
riflessiva e autoriflessiva [self-referential]”.

Tra le osservazioni di S. vi era quella sul rapporto pensiero-linguaggio e quella sul rapporto tra
parlante e lingua nativa. Il suo più grande pregiudizio era negare la possibilità che un individuo
potesse essere “una stessa cosa in due lingue diverse”: il pensiero umano sarebbe stato
direttamente modellato sulla lingua che racchiudeva lo “spirito” della nazione. In realtà si può
essere la stessa persona in due lingue diverse. Wilhelm von Humboldt nell’introduzione alla sua
traduzione dell’Agamennone, partiva dal postulato che la poesia di Eschilo fosse “intraducibile per
sua peculiare natura”, ma non individuava in cosa consistesse la “peculiare natura” di siffatta
intraducibile poesia. Spiegava subito dopo che le diverse lingue sono tra loro in un rapporto di
sinonimia, inteso come corrispondenza imperfetta, in quanto: “nessuna parola di una lingua è
completamente uguale a una di un’altra lingua […] ognuna esprime il concetto un po'
diversamente, su un gradino più alto o più basso sulla scala delle sensazioni”.
Questo portava l’autore a sostenere che “una traduzione è tanto più deviante quanto più tenta di
essere fedele”. Humboldt misurava la sinonimia secondo la corrispondenza parola/parola
(lessema/lessema), senza fare il passo successivo: tra le lingue esiste sempre una sinonimia
praticamente perfetta, ma solo se si considera il rapporto parola/locuzione o locuzione/locuzione.
Questo induceva Humboldt a teorizzare un “mistico rapporto tramite lo spirito” che avrebbe unito
i suoni ai concetti, laddove i suoni avessero contenuto “gli oggetti della realtà disciolti in idee”.
Molto lungimirante era l’idea che la “stranezza” della traduzione tendesse a “oscurare”
l’estraneità, per cui il traduttore avrebbe dovuto “scrivere come lo scrittore avrebbe scritto nella
lingua del traduttore”. Poco dopo, però, specificava che “nessuno scrittore scriverebbe in un’altra
lingua la stessa cosa e allo stesso modo”, questo è vero ma veniva detto in modo fuorviante:
semplicemente, in due momenti diversi, nessuno scrittore scriverebbe la stessa cosa e allo stesso
modo nella stessa lingua. Altra intuizione è che la qualità della traduzione di pensa non da lunghi
rimaneggiamenti, ma da “una prima felice ispirazione”. Effettivamente, a un alto livello di
addestramento, i traduttori, come gli interpreti orali, tendono a produrre un testo scritto già
molto simile a quello definitivo e le eccessive revisioni possono rovinare la prima “felice
ispirazione”. Humboldt faceva un accenno a quello che oggi definiremmo il dominio dei canoni dei
culture makers. I lettori, osservava, sono “storditi dall’arbitrio dei poeti” e “poco abituati a metri
usati non tanto spesso”. Le “libertà” che il traduttore può assumersi, sono un utile strumento in
direzione del contatto tra estraneità, inteso soprattutto come “ibridità culturale”. Oggi diremmo
che le traduzioni possono esercitare un influsso cognitivo sui destinatari, addestrandoli alla
ricezione di nuovi modelli culturali. Nel rimarcare la precarietà e contingenza storica delle opere
tradotte, Humboldt conclude che le traduzioni sono “altrettante immagini dello stesso spirito”, ma
“il vero spirito riposa solo nel testo originale”. A quanto pare, il filosofo intendeva dire che la
traduzione è il prodotto non solo di un’epoca, ma della ricezione del singolo traduttore nella sua
individuale relazione con la cultura di arrivo (in sostanza, la traduzione è ‘self-oriented’). Humboldt
ha comunque spianato la strada all’idea che qualsiasi testo sia, di fatto, un “originale”, poiché il TP
stesso è comunque strettamente imparentato all’insieme dei testi precedenti; al tempo stesso
suggeriva che ogni TP è almeno in parte un’imitazione.

4.4. La deriva irrazionalista postmoderna:


A Schleiermacher e Humboldt si sono ispirati i pensatori irrazionalisti, e i semiologi della
traduzione. Sul fronte irrazionalista “postmoderno”, Walter Benjamin e José Ortega y Gasset,
hanno ereditato alcuni postulai comuni ai due pensatori romantici, soprattutto l’idea
dell’impossibilità di far comunicare perfettamente due lingue e quella di una superiorità
ontologica del testo artistico rispetto agli ‘altri testi’. Entrambi hanno contribuito a esasperare le
tendenze metafisiche romantiche in direzione di un drastico postmodernismo. Il celebre saggio di
Benjamin “Il compito del traduttore” sarebbe divenuto un cult text, che avrebbe fornito una base
speculativa al cosiddetto “pensiero debole” e alla più estrema “teoria della ricezione”. Importante
è la riflessione sui destinatari di un’opera d’arte che secondo Benjamin non sarebbe rivolta mai ad
alcun destinatario, motivo per cui ipotizzare un “Lettore ideale” sarebbe insensato e “nocivo”. La
questione della traducibilità andava rivista ponendosi due quesiti: 1) se l’opera possa mai trovare
un traduttore adeguato; 2) se l’opera, nella sua essenza, consenta una traduzione e quindi
secondo l’autore “la esiga”. Benjamin proponeva di affrontare il problema della “vitalità” delle
opere d’arte su base esplicitamente dualistica, contrapponendo la storia alla natura: “in base alla
storia, e non alla natura […] va determinato in ultima istanza l’ambito della vita”. La sopravvivenza
delle opere sarebbe equivalsa alla sua “gloria” e solo la “gloria” avrebbe dato traduzioni. Non
erano mai le traduzioni a dar gloria a un’opera, ma a questa gloria pregressa le traduzioni stesse
dovevano la loro esistenza. Questa idea appare contraria ai dati storici. Alcune opere vengono
pubblicate in traduzione prima che in lingua di partenza. B. Criticava la “teoria tradizionale della
traduzione” basata sull’affinità delle lingue , ritenendo impossibile definire il concetto di
“esattezza” nel processo di trasmissione di forme e significati. Questo concetto non poteva
riguardare la “riproduzione del reale”, che non potrà mai essere “obiettiva”. Emergeva l’idea della
“dinamica del senso”. Benjamin alludeva qui al processo di mutazione dei valori e delle
componenti di un testo in base al tempo trascorso, introducendo la concezione di ricezione
testuale. La stessa lingua materna del traduttore, era recepita come mutevole, a differenza di
quanto accadeva nel caso della parola del poeta nella sua (nativa) lingua poetica. Veniva postulata
una contrapposizione traduttologica tra il “poeta”, che scriverla un “originale”, e il traduttore,
colui che non era “poeta”, in quanto non scriveva “originali”. Questa opposizione pare contraddire
l’idea stessa di “maturazione postuma delle parole”: non si spiega perché il mutamento
cronologico della lingua non possa avvenire nel caso della poesia, né si spiega perche le traduzioni
dovrebbero “invecchiare” più del TP. Il filosofo afferma che la traduzione “si accende all’eterna
sopravvivenza delle opere e all’infinità reviviscenza delle lingue” prova “di quella sacra evoluzione
o crescita delle lingue”. La stessa idea che le lingue si “evolvano” dal basso verso l’alto, era stata
espressa da Schleiermacher che vedeva l’evoluzione dei fenomeni umani in termini di ‘progresso’
estetico. Benjamin intendeva la traduzione in base a una correlazione mistica tra lingua e
religione: “è la crescita delle religioni che matura nelle lingue il seme di una lingua più alta. La
traduzione , per quanto non possa pretendere alla durata delle sue creazioni e si differenzi in ciò
dall’arte, non nasconde la sua tendenza a uno stadio ultimo definitivo e decisivo di ogni
formazione linguistica. In essa l’originale trapassa, in una zona superiore più pura della lingua, in
cui a lungo andare non può vivere”. Da qui deriva l’illogica affermazione che sottraendo a una
traduzione “tutto il comunicabile”, il lavoro del traduttore sarebbe restato comunque intatto.
L’afflato metafisico lo porta ad affermare che la “lingua della verità”, la quale è “la vera lingua” è
“intensivamente nascosta nelle traduzioni”. Anche le considerazioni sulla “fedeltà nella traduzione
della parola singola” si limitavano ad acuire un ermetismo espressivo e concettuale: “Redimere
nella propria quella pura lingua che è racchiusa in un’altra; o, prigioniera nell’opera, liberarla nella
traduzione – questo è il compito del traduttore”. La conclusione del saggio, secondo cui “la
versione interlineare del testo sacro è l’archetipo o l’ideale di ogni traduzione” appare un calco
preciso della posizione di Goethe. Benjamin ribaltava le proprie premesse, affermando che la
“grande opera di traduttori” dei romantici “implicava il sentimento dell’essenza e della dignità di
questa forma”, cioè della traduzione. Il compito del traduttore sarebbe dovuto essere
“nettamente distinto” da quello del “poeta”, in quanto la traduzione, a differenza dell’opera
poetica, sarebbe stata “fuori” dalla “foresta del linguaggio”, pur facendovi entrare “l’originale”: le
traduzioni si distinguerebbero dagli “originali” in quanto “più leggere”e perciò “intraducibili”. Il
grande e duraturo successo del saggio di Benjamin parrebbe il riflesso della dominante
propensione all’irrazionalismo della cultura umanistica europea. La velocità con cui avevano
progredito le scoperte scientifiche aveva messo a dura prova le capacità reattive umane. Dalla
diffidenza verso le nascenti tecnocrazie scientifiche nasceva la drastica risposta all’irrazionalismo.
Il principale ideologo dell’irrazionalismo nel campo della teoria della traduzione è stato il filosofo
spagnolo José Ortega y Gasset. Il suo era un irrazionalismo gnoseologico (relativo alla conoscenza
umana) e distopico (pessimistico). Partendo dal postulato dell’assoluta impossibilità di qualsiasi
compito comunicativo umano, il filosofo spagnolo fondava il suo pensiero su un’aporia esplicita
dal titolo stesso del saggio: “Miseria e splendore della traduzione”. La prima parte sosteneva le
ragioni della “miseria”, la seconda quelle dello “splendore”. La tesi di partenza è che “tutto ciò che
l’uomo fa è utopistico”. L’utopia riguarderebbe il primis la conoscenza: l’uomo è avido di un sapere
che non può mai afferrare pienamente, per cui è tormentato dal desiderio di realizzare imprese
che sarebbero irrealizzabili per definizione.
Secondo Ortega, la traduzione, come tutte le altre attività umane, era destinata al fallimento in
quanto “compito smisurato” per gli umani. Il traduttore non poteva essere nella posizione dello
scrittore che, potendo intervenire sulla lingua, violandone in piccola misura le norme e i canoni, ne
ricava nuove possibilità; il traduttore era un “pusillanime”, incapace, a differenza di un “autore”, di
diventare un “ribelle”. Questo confondeva la prassi traduttiva con l’essenza ontologica delle
singole persone. La posizione secondo cui la traduzione sarebbe un’impresa utopica era
conseguenza dell’impossibilità in toto della comunicazione umana: nessun umano avrebbe potuto
esprimere davvero il proprio pensiero e i limiti del linguaggio umano parevano tali da rendere
utopica, anche all’interno della stessa comunità linguistica, la comprensione reciproca. La
separazione tra estetica/filosofia e matematica rispecchiava un pregiudizio; inoltre il fatto che la
matematica e la fisica siano a priori “meno importanti” di qualcosa è una convinzione soggettiva.
Non solo Ortega affermava che è “brutta” “la traduzione”, ma che “è brutta la scienza”. Sempre
senza argomentazioni Ortega definiva la lingua un ostacolo all’intelligenza umana. Ortega mirava a
denunciare le false certezze della scienza e del linguaggio che la esprimeva: le ragioni per cui il
linguaggio, definito “scienza primitiva”, sarebbe causa del fallimento della scienza era da rinvenirsi
nell’incapacità dell’uomo di “parlare sul serio”. La lingua sarebbe da intendersi come specchio
delle errate intuizioni umane che trasforma il pensiero in “pura facezia”. La sopravvalutazione del
silenzio e dell’assenza veniva accompagnata dal pensatore spagnolo, a una troppo ingenua
esaltazione del potere della “lingua madre” rispetto alla “lingua straniera”. Nel generalizzare la
“tristezza” del “parlare una lingua straniera”, Ortega utilizzava come modello se stesso e i suoi
personali insuccessi con la lingua francese: una generalizzazione inferita dai propri limiti personali.
Interessante resta l’idea che i testi “scientifici” possano considerarsi una “traduzione” dello
scienziato dalla “lingua vera” in una “pseudolingua formatasi termini tecnici, da vocaboli
linguisticamente artificiosi che lui stesso [l’autore] ha bisogno di definire”. Da questo saggio si
evince un’ingiustificata sovrapposizione dei concetti di “scienticismo” e “scienza”. Il passaggio
dalla “miseria” allo “splendore” della traduzione appariva più contraddittorio che paradossale: il
filosofo riconosceva che l’attività traduttiva offrisse ampi servigi alla cultura e che fosse necessario
“tesserne le lodi”, qualora la traduzione applicasse in via esclusiva la norma dello straniamento,
costringendo il lettore a “fare gesti mentali” che non fossero “i suoi” e forzando le regole
grammaticali della lingua di arrivo per assorbire la diversità. Nel saggio di Ortega troppe
affermazioni risultano arroganti e facilmente confutate. Si può dire in sintesi che l’irrazionalismo
postmoderno si fonda su alcune vistose contraddizioni: nel momento stesso in cui gli irrazionalisti
negavano il ruolo del linguaggio e della comunicazione, se ne servivano per diffondere il proprio
pensiero; accusando la scienza di fondarsi sull’equivocità del linguaggio, ricorrevano a locuzioni
contorte e confuse. Il postmoderno ha contribuito a esagerare sempre di più l’opposizione tra gli
“illuministi”, che “credono si possa sapere tutto” e i “post-modernisti più radicali” che “credono
non si possa sapere nulla”.

5. Contro la formalizzazione: i Translation Studies:


Mentre ai primi del Novecento con Ferdinand De Saussure nasceva la linguistica accademica, gli
studi sulla traduzione si allontanavano dall’attenzione alla lingua per ripiegare sull’irrazionalismo
anti-scientifico, sull’utopismo e il misticismo letterario. La linguistica occidentale ha come
riferimento il contributo di Saussure, fondamentale per lo sviluppo della semiotica e della
tarduttologia. Tuttavia, il ruolo della lingua nel processo traduttivo divenne evidente per tutti
quando, a metà degli anni Quaranta del Novecento, Eugene Nida intraprese il suo percorso di
ricerca per regolamentare le procedure di traduzione della Bibbia. Dalla fine degli anni Cinquanta
si assisteva a una crescita degli studi dedicati alla linguistica della traduzione, senza che questo
attenuasse una contrapposizione tra teorie “letterarie” e teorie “linguistiche”. Le prime si
richiamavano alla tradizione filosofica tedesca e alla supremazia del testo letterario; le seconde
ambivano alla scientificità della disciplina, considerando i testi letterari uno tra i tanti ambiti
dell’indagine linguistico-testuale. Dai primi anni Settanta, la scuola tedesca aveva acuito la
contrapposizione tra i due tipi di teorie. L’avversità per gli studi linguistici aveva una forte nasce
ideologica, ma era anche un pretesto per sottrarsi a un campo di studi nuovo, in veloce evoluzione
ed estremamente complesso. A sancire il distacco dei letterati dagli studi linguistici fu la nascita
della corrente dei “Translation Studies”, la più nota ‘scuola’ occidentale di ricerca sulla traduzione.
Un folto gruppo di giovani studiosi di traduzione letteraria si era riunito a Bratislava nel 1968, a un
convegno internazionale “Translation as an Art”, organizzato da Anton Popovic. Lui, Frans De Hann
e James S. Holmes avevano curato la raccolta in inglese degli Atti, “The nature of translation:
essays on the theory and practice of literary translation”, inaugurando il primo numero della
collana “Approach to Translation Studies”. Da allora il gruppo, noto come “TS”, conta un gran
numero di studiosi in tutto il mondo . Il suo scopo evidente è stato quello di separare gli studi sui
prodotti della traduzione dagli studi sui processi. L’approccio dei TS per decenni si è disinteressato
alle ricerche linguistiche, formali e sperimentali, limitando le proprie ricerche all’ambito socio-
culturale. Mentre i linguisti cercavano di offrire ai traduttori criteri di equivalenza, i TS
scambiavano la raccolta di dati sui processi traduttivi per prescrizioni. Le scuole linguistiche
cercavano di porre dei limiti all’arbitrio dei traduttori, appariva chiaro che l’assenza di regole fosse
“una forma non evidente di rigidità”: nessuno dei linguisti voleva imporre norme, ma solo spiegare
dei parametri rendessero migliore il processo traduttivo. Il concetto di “equivalenza” era visto dai
TS come inutile e ‘autoritario’: la traduzione si sarebbe dovuta studiare solo in chiave descrittiva,
come fenomeno culturale e non allo scopo di individuare strutture, norme e modelli. Vietare le
prescrizioni era una proscrizione, ovvero una prescrizione in negativo. Certamente, grazie ai TS, la
crescita quantitativa e qualitativa delle ricerche è stata significativa. A questo ha contribuito molto
anche la scuola Tel-Aviv che ha offerto importanti riferimenti teorici sui meccanismi di interazione
tra letteratura primaria e secondaria. La ‘spaccatura’ tra linguisti e letterati rifletteva la differenza
tra chi cercava le regole e chi, negando che se ne potessero trovare, evitava di cercarle. Anche gli
studi teorici e applicativi sui processi per decenni si erano sviluppati in modo autarchico. Dagli anni
Trenta si era sviluppato un filone di ricerche sulla traduzione “meccanica” che aveva ignorato il
fatto che la lingua umana esiste solo nella realtà comunicativa e che qualsiasi complessità testuale
non avrebbe potuto essere studiata senza unire le competenze di chi conosce i processi per
produrre i testi con quelle di coloro che studiano i testi stessi. Oggi possiamo confermare che la
separate a programmatica tra studi sui prodotti e studi sui processi non aveva né ha alcuna
ragione di esistere e va contro i principi della coerenza intra. E interdisciplinare.

3 – LA TRADUTTOLOGIA SCIENTIFICA: INTERDISCIPLINARITÀ E FORMALIZZAZIONE:

1. Il ‘sogno’ meccanico:
L’ambizione di creare una macchina in grado di eseguire traduzioni al posto degli esseri umani
nacque nei primi decenni del XX secolo e avrebbe portato negli anni Trenta, ai primi veri progetti.
Questo succedeva circa vent’anni prima che il matematico inglese Turing ideasse il parametro
“test di Turing”, per indicare quando una macchina sia in grado di fornire un risultato o un
comportamento attribuibile a un umano, ovvero human-like. Il pioniere della tradizione meccanica
era Petr Trojanskij, lui non era scienziato, né accademico, ma un ingegnere-inventore che morì nel
1950. Egli si era formato in Russia, nell’epoca in cui si cercava di realizzare il “sogno socialista”. Per
anni aveva lavorato al progetto di una macchina in grado di effettuare traduzioni da una lingua
all’altra con la sola assistenza di due umani monolingui, il suo progetto si sarebbe concluso con un
brevetto. Un progetto analogo veniva brevettato anche a Parigi da Georges B. Artsrouni. Entrambi
i progetti superavano il concetto di “dizionario meccanico”: considerando che la strutturazione
sintattica degli enunciati fosse gerarchicamente antecedente alla selezione del lessico,
presentavano un vero e proprio congegno per tradurre testi, partendo dalla elaborazione delle
asimmetrie sintattiche. Il fatto che la macchina richiedesse l’intervento di due umani potrebbe
apparire diseconomico. La macchina sarebbe stata vantaggiosa da due punti di vista in Unione
Sovietica: da un lato nell’enorme Paese multilingue non era possibile reperire traduttori bilingui
per la maggior parte delle potenziali coppie di lingue; dall’altro il progetto prevedeva che con una
sola operazione si potesse eseguire la traduzione di un medesimo testo contemporaneamente in
lingue diverse, velocizzando il processo. Si postulava che la traduzione interlinguistica potesse
essere così asettica e meccanica da realizzarsi mediante la mera conversione logica di codici
algoritmici. Trojanskij aveva intuito come le lingue fossero accomunate da una struttura logica
comune: aveva anticipato l’intuizione di Chomsky. Solo alla fine degli anni Cinquanta Trojanskij
ebbe un momento di notorietà postuma, nel 1959 l’Accademia delle Scienze dell’URRS pubblicò i
suoi manoscritti. La raccolta era divisa in due parti: “materiali linguistici” e “materiali tecnici”. E’
importante premettere che il “sogno meccanico” si fondava sulla linguistica formale contrastiva:
sarebbe stato impossibile trovare una “chiave” per formalizzare le strutture e i nessi intra-
strutturali delle lingue naturali senza formulare ipotesi chiare sul substrato logico che le
accomunava. Il grande merito della linguistica formale era stato indagare le regole generali di
formazione ed evoluzione dei codici linguistici, coerenti a un criterio universale di grammaticalità.
Il suo limite era quello di non andare al di là della struttura logica dei codici, trascurando le regole
d’uso che governano nel contesto comunicativo, la ‘propagazione’ o l’ ‘estinzione’ delle ‘formule’
linguistiche. Merita soffermarsi sul principio logico dell’ultimo progetto dell’ingegnere russo. Il
postulato su cui si basava era che le lingue fossero accomunate da una struttura logica comune
che poteva fungere da codice intermedio tra una lingua naturale e l’altra. Smirnov Trojanksij aveva
ideato un’unica forma di analisi logica che costituisse un “testo di passaggio nel processo
traduttivo”. La “forma” che scaturiva dall’analisi logica si contrapponeva alla “forma nazional-
grammaticale”, ovvero alla veste particolare che la forma logica assumeva in una data lingua.
Prima della macchina, era quindi necessario l’intervento dei due monolingui nativi: il primo
avrebbe dovuto trasformare il testo “nazionale-grammaticale” A in un testi in forma logica A1; la
macchina avrebbe provveduto a convertire A1 in B1, ovvero nella forma logica della lingua di
arrivo B. Questa operazione bilingue A1 -> B1 era a carico della macchina e consisteva nella
trasformazione della forma morfosintattica della lingua A in quella corrispondente della lingua B: i
simboli logici sarebbero stati ti-assemblati in costituenti di arrivo secondo l’ordine previsto dalla
lingua B. La terza fase sarebbe stata a carico del secondo monolingue che avrebbe convertito il
testo B1 nel corrispondente testo “nazional-grammaticale” B. Le competenze richieste per
passaggi intralinguistici erano elementari. Per la comprensione semantica (lessico), si faceva
riferimento all’esperanto e a un glossario predefinito a tipologia “radicale”, comprensivo di
sinonimi, omonimi e idiomatismi. La paternità delle machine translation va riconosciuta agli Stati
Uniti. La nascita dell’IA vera e propria, si colloca negli anni Quaranta, quando i primi progetti di
autonomi elaboratori elettronici erano sollecitati da interessi bellici. Qui avviene il grande salto dai
congegni meccanici alle “macchine computazionali”, possibile grazie all’ideazione di dispositivi
elettromeccanici che permettevano di utilizzare il codice binario privilegiato dai computer.
L’utilizzo elettronico del codice binario consentiva di eliminare l’intervento umano. La paternità
dei computer viene riconosciuta all’americano John Von Neuman, ideatore della prima macchina
in grado di “memorizzare un programma” che memorizzasse i dati e le istruzioni per elaborarli.
Convertendo i numeri in dati simbolici il calcolatore era divenuto un’intelligenza autonoma capace
di commutare informazioni da un codice in un altro. Il problema della traduzione intelligentissima
di presentava come un caso di commutazione non distante dai problemi di “decrittografia”
(decodificazione dei linguaggi cifrati). Durante la seconda guerra mondiale, Turing aveva
automatizzato il processo di decrittazione elettronica del codice segreto tedesco, contribuendo a
sviluppare l’IA. L’ipotesi era che le lingue naturali fossero accomunate da una struttura-base
logica, intesa a tutti gli effetti come un codice non dissimile da quelli artificiali di segregazione e di
programmazione. Weaver e Shannon iniziarono a parlarne solo nel secondo dopoguerra. All’epoca
in molti credevano che presto le macchine avrebbero sostituito i traduttori. Alla Georgetown
University venne effettuato con successo un esperimento preliminare: la traduzione dal russo in
inglese di 49 frasi di un testo di chimica, basate su 250 parole e sei regole grammaticali. I risultati
confortavano ogni speranza. Nel 1954 usci il primo numero della Mechanical Translation e l’anno
dopo Locke e Booth pubblicavano una raccolta dal titolo “Translation of Languages” che dopo due
anni uscì anche a Mosca (“masinnyj perevod”) Kuznekov forniva una prefazione con una sintesi del
livello russo nella ricerca:

“[…] vengono analizzati diversi problemi grammaticali, come la ricostruzione dell’ordine delle
parole in traduzione, la questione della corrispondenza o discordanza delle categorie grammaticali
di una lingua rispetto a un’altra e i metodi di traduzione nei casi in cui non vi sia corrispondenza
[…] Si analizzano svariati metodi operativi necessari a determinare la struttura morfologica di una
parola […] Infine alcuni articoli studiano i problemi generali della struttura logica che sta alla base
di tutte le lingue e i problemi della sintassi logica. Le ricerche ci avvicinano sempre di più all’idea di
creare una lingua medium.”

Kuznekov notava anche come la ricerca fosse orientata soprattutto alla traduzione scritta;
nell’ambito della traduzione orale, il livello della teoria pareva embrionale. Kuznekov evidenziava il
problema dell’arbitrio terminologico che i traduttori russi avevano cercato di arginare. Nel 1956
Padova aveva assistito a una replica dell’esperimento iniziale dell’IA, lui già nel 1955 aveva
realizzato in Russia il primo esperimento di traduzione automatica; si trattava di un testo di
matematica da trasformare dall’inglese in russo. Questo e altri esperimenti avrebbero condotto
nel 1958 a organizzare a Mosca il Convegno di Traduzione Automatica. Negli anni seguenti gli
ostacoli incontrati rivelarono che gli obiettivi della ricerca erano troppo ottimistici. Molti
ricercatori sospettavano si fosse verificato il “paradossi Bar-Hillel” che considerava la traduzione
automatica impossibile per definizione, a causa dell’incapacità delle macchine di discriminare la
semantica. Bar-Hillel aveva capito che alla base del fallimento c’era stata una riduttiva e
semplicistica concezione delle lingue naturali come asettiche strutture logiche, e era giunto a
condividere le stesse perplessità dei filosofi romantici e irrazionalisti. Nel 1966 l’Automatic
Language Processing Advisory Commitee decreto ufficialmente il fallimento dell’era romantica
della traduzione automatica.
A questo punto la ricerca si indirizzò verso mete meno ambiziose procedendo con un chiaro
riduzionismo, perseguendo obiettivi parziali e di basso profilo. Il riduzionismo agiva negativamente
sugli entusiasmi interdisciplinari. L’isolamento delle discipline scientifiche da quelle umanistiche
non aveva giovato, agli scienziati mancavano competenze di filologia, linguaggio semiotica ecc. e
mancava la consapevolezza di tali lacune: la lingua di un testo di chimica era ben più ‘attendibile’
di quella viva, della comunicazione umana, in cui risultava fondamentale il ruolo dell’ambiguità, le
strutture formali mutavano in itinere e le metafore parevano sulla astratta semantica
dizionaristica. La traduzione automatica si fondava sul concetto di langue, la lingua normativa
astratta, mentre nei testi umani abbondava la parole, la produzione contingente, unica e
irripetibile degli individui. In alcuni casi era difficile rendere a routine automatica quello che per un
cervello umano risultava semplice e ‘naturale’: l’intelligenza umana si era dimostrata in grado di
gestire i dati grazie alla sua maggiore flessibilità e alle capacità analogiche. Il fallimento dell’IA
dimostrava che gli algoritmi linguistici erano più complessi del previsto e che non bastavano a
creare un’IA humanlike. Da qui nacquero due filoni di ricerca paralleli. Il primo filone era quello
della linguistica computazionaleche inaugurava una ‘terza strada’ tra il “sogno meccanico” e il
negazionismo romantico: la traduzione assistita. L’idea di una collaborazione tra traduttore e
macchina implicava di guardare ai computer come strumenti utili per rendere i processi più veloci
e i risultati più affidabili, grazie alle banche dati che le macchine potevano memorizzare, i corpora.
La formazione dei corpora linguistici avrebbe richiesto un notevole impegno epistemologico per
rendere sufficientemente ampi e rappresentativi i dati raccolti. I corpora paralleli (bilingui)
avrebbero sostituito il criterio del dizionario ‘lessicale’ e i corpora monolingui si sarebbero potuti
usare poter confrontare le lingue. Le ‘memorie di traduzione’ avrebbero consentito di individuare
frasi, frammenti e porzioni di testo creando degli archivi. Il secondo filone era quello della
traduttologia, sviluppata come branca della teoria della traduzione dedita allo studio dei processi
traduttivi e alla loro classificazione formale. Coniugando gli aspetti bottom up e top down della
ricerca, la traduttologia cercava di formalizzare i processi traduttivi e le gerarchie procedurali,
mediante tassonomie e classificazioni, senza rinunciare all’approccio olistico del tradizionale
ambito umanistico.
2. La traduttologia linguistica:
Gli studi di stampo linguistico, hanno raggiunto l’apice dalla metà degli anni Cinquanta fino ai primi
anni Novanta. Il l’oroscopo primario era quello di intaccare l’opinione secondo cui il traduttore
dovesse essere solo un buon letterato con raffinate conoscenze della propria lingua. Le teorie
universalistiche avevano ampiamente argomentato l’esistenza di regolarità strutturali alla base di
tutte le lingue, con la possibilità di trovare anche regolarità procedurali nel processo di traduzione.
Quasi nessuno ambiva a individuare rigide normative, ma a superare l’anarchia del soggettivismo. I
traduttologia erano convinti che fosse possibile comprendere e descrivere anche le procedure
creative seguite da si traduttori letterari. Ma l’idea che la lingua e la linguistica dovessero essere
fondamentali nello studio della traduzione, è stata osteggiata per decenni. Henri Meschonnic nei
primi anni Sessanta affermava che una teoria linguistica fosse necessari perché la traduzione
cessasse “di essere un artigiano empirico che disconosce il suo lavoro e il suo statuto”. Dieci anni
dopo l’inglese Peter Newmark ribadiva che il compito di un teorico fosse quello di “far sì che nella
traduzione non venga ignorato alcun fattore linguistico e culturale rilevante”, dopo altri dieci anni
Roger T. Bell affermava che: “the major need is for descriptions and explanations of the process of
translating”.

2.1. Tra Est e Ovest:


Alla metà del XX secolo, la traduttologia europea ha mostrato una grande vitalità. Si possono
distinguere due filoni: quello “occidentale” soprattutto in Germania, e quello “slavo” che si deve ai
pionieri dell’Europa orientale, che scrivevano in russo, polacco, ceco, slovacco, bulgaro, e
conoscevano i contributi antichi e recenti pubblicati nelle lingue dell’Europa occidentale. Solo
pochi teorici occidentali avevano un parziale acceso alle ricerche sviluppate dalle scuole di Mosca,
Leningrado, Varsavia, Praga e Bratislava: da un lato, alcuni importanti contributi slavi erano stati
comunque tradotti in tedesco; dall’altro, alcuni studiosi europei che conoscevano una o più lingue
slave, facevano da ‘ponte’ tra i due mondi separati dalla “cortina di ferro”. Tra questi, vi erano gli
esponenti della Scuola di Lipsia che scrivevano in tedesco ma conoscevano il russo e le teorie
sviluppate, sia i numerosi studiosi russi emigrati in Europa e negli Stati Uniti. Durante la sua
carriera Roman Jakobson si era occupato di filologia, letteratura, semiotica, psicologia, linguistica e
neurolinguistica. Il suo interesse per le afasie e i disturbi del linguaggio dimostrava quando fosse
logico per uno studioso delle lingue e dei testi provare curiosità scientifica per i meccanismi
cerebrali del linguaggio. Jakobson è ricordato soprattutto per il saggio del 1959 “Aspetti linguistici
della traduzione”. Oltre alla tripartizione, il saggio proponeva intuizioni di notevole rilevanza. Tra
queste c’era l’idea che le difficoltà dovute alle asimmetrie tra le lingue fossero a loro volta
asimmetriche, ovvero che tradurre da una lingua X a una lingua Y potesse risultare più facile o
difficile rispetto al processo inverso (da Y a X). Jakobson attestava l’universale potenziale di tutte le
lingue naturali a esprimere l’esperienza umana: “ogni esperienza può essere espressa e classificata
in qualsiasi lingua. Dove vi siano delle lacune, la terminologia sarà modificata e ampliata”. Lo
studioso postulava che le lingue differissero essenzialmente “per ciò che devono esprimere” e non
“ per ciò che possono esprimere”; solo la poesia sarebbe stata un limite alla traducibilità e avrebbe
richiesto una “trasposizione creatrice”. Noto in Occidente è stato anche Levy, la sua fama è dovuta
a un saggio del 1967, pubblicato in inglese: “Translation as a Decision Process”. Levy sosteneva che
il processo di traduzione fosse un problema decisionale intrinsecamente gerarchico e riconducibile
alla capacità di optare per soluzioni coerenti: una volta presa la prima decisione, “con la propria
scelta”, il traduttore avrebbe stabilito “un numero di mosse successive” secondo un “gioco a
informazione completa”. Lo studioso ceco spiegava le modalità per calcolare le variabili e tracciare
i criteri prioritari di un “modello generativo”: ogni decisione ne generava altre. Crescendo la
complessità del testo, le conoscenze del traduttore sarebbero dovute crescere in proporzione.
Merito incondizionato di Jakobson e Levy è stato quello di essere rimasti ancorati al procedimento
scientifico.

2.2. Eugene Nida, il traduttologia americano:


A metà degli anni Quaranta Nida intraprendeva un percorso di studi sulla traduzione. Il suo lavoro
era il primo tentativo in Occidente di costruire una teoria ampia e pragmatica, basata sia sulla
linguistica che sulla pratica professionale. Nida si sforzava di proporre un metodo generalizzabile
anche agli altri testi. Disponeva di grande competenza traduttiva e di una certa elasticità mentale
che avrebbe permesso di coniugare la teoria degli universali linguistici con alcuni aspetti
dell’ipotesi “Saphir-Worf”. Prima delle teorie chomskiane, Nida aveva intuito che le lingue
dovessero essere accomunate da una struttura profonda e che questo costituisse il fondamento di
una teoria “scientifica”della traduzione, nel 1964 pubblicava “Toward a Science of Translating”, il
primo trattato occidentale di traduttologia. Nida riteneva che la grammatica di ogni lingua fosse
assoggettata a meccanismi trasformazionali prevedibili e formalizzabili, e teorizzava la possibilità
di verificare l’affidabilità di una traduzione mediante il criterio della retroversione. L’idea della
retroversibilità delle traduzioni per la verifica delle equivalenze funzionali tra testo e traduzione
era audace. Tuttavia lo studioso si rifaceva ancora all’idea dello “spirito dell’autore”. La sua teoria
dell’ “equivalenza dinamica” era inficiata da elementi fideistici. La metodologia suggerita da Nida
era commisurata a traduttori che si occupavano di “propaganda” religiosa e proselitismo, restando
nel complesso scientificamente limita. Lui resta l’unico vero traduttologo americano. Negli Stati
Uniti i teorici hanno aderito all’approccio socio-culturale dei TS avverso alla linguistica, mentre i
linguisti non si sono occupati di traduzione. Quando a meta degli anni Sessanta, tra le materie
accademiche era stata introdotta la traduzione, l’iniziativa veniva da scrittori e poeti che si
occupavano solo di traduzione letteraria in ottica culturale: lo studio dei processi è rimasto “the
most neglected branch of translation theory”. All’interno del dibattito letterario le posizioni erano
diversificate.

2.3. La traduttologia sovietica:


In Russia la tarduttologia risale al 1962, quando fu pubblicato un articolo di Revzvin e Rozencvedal
titolo “K obosnovaniju lingvisticeskoij teorii perevoda” (“Verso la fondazione di una teoria
linguistica della traduzione”). Il saggio sostituiva uno punto di svolta per la scuola russa. I due
autori si richiamavano ai lavori di Fëderov, che aveva posterò le basi per un dialogo con i linguisti.
Fëderov aveva iniziato a pubblicare dai primi anni Cinquanta: nel 1953 era uscito il volume
“Vvedenie v teoriju perevoda” (“Introduzione alla teoria della traduzione”). Scopo della teoria
secondo Fëderov era a)generalizzare le deduzioni tratte dall’analisi di singoli casi traduttivi e b)
suggerire ai professionisti dei modelli di risoluzione dei problemi concreti. Rezvin e Rozencveig
osservavano che “nei lavori di A. Fedorov proprio la questione del fondamento di una teoria
linguistica della traduzione” era impostata “senza sufficiente chiarezza”e spiegavano in che cosa
consistesse la teoria linguistica della traduzione. Non si trattava di una teoria normativa, che
stabilisse come fare una traduzione, ma di un’elaborazione dei criteri di valutazione: ne scaturiva
un modello esclusivamente teorico, mirato alla descrizione del processo di traduzione e basato sul
principio di traduzione. I due linguisti proponevano una distinzione che riproponeva invertito, il
modello dualistico di Schleiermacher: si parlava di interpretazione (il traduttore si rapportava alla
realtà che era descritta nel messaggio attraverso la lingua naturale), dall’altro di traduzione
(quando il traduttore si rapportava solo alla lingua e rimodificava il messaggio in lingua d’arrivo
senza rapportarsi alla realtà). Sul piano epistemologico era nuovo l’approccio ‘tecnico’ dell’articolo
e l’uso coerente di termini chiaramente definiti, tra cui quello di unità traduttiva. In un capitolo
della sua seconda monografia, “Come si è sviluppata nel nostro Paese la teoria della traduzione”,
Fedorov si soffermava quasi solo sulle riflessioni soggettive di poeti e letterati; ricordando la
spaccatura tra i letterati e i linguisti, si preoccupava di stabilire chi tra i due fosse legittimato a
occuparsi di traduzione letteraria, ma non citava neppure un nome die già celebri traduttologi
sovietici che avevano tentato di costruire modelli unificati, applicando la linguistica a testi
complessi, compresi quelli letterari. Negli anni Settanta Sveicer aveva pubblicato un paio di libri
importanti. Tra le sue opere principali merita menzione il volume “Teorija perevoda. Status,
problemy, aspekty” (“Teoria della traduzione. Lo status, i problemi, i vari aspetti”), in cui si vedeva
il tentativo di coniugare le ambizioni scientifiche con le propensioni romantiche. A conclusione del
volume offriva una definizione della disciplina e del suo oggetto: “la traduzione costituisce un
processo pluridimensionale e multiforme, determinato da una quantità di fattori linguistici ed
extralinguistici. Tra questi vi sono il sistema e le norme delle due lingue, le due culture, due
situazioni comunicative – primaria e secondaria – la situazione concreta, la tipologia funzionale del
testo di partenza, le norme traduttive.”
Tra i meriti principali di Svejcer vi era quello di aver definito la traduzione come oggetto di studio
della linguistica e aver fortuito un quadro coerente di istruzioni professionali utili; tra i suoi limiti
c’era la mancanza di premesse epistemologiche chiare. Le classificazioni banalizzavano gli aspetti
teorici riducendoli in parte a schematismi: quando Svejcer parlava di processo traduttivo,
intendeva banalmente, la “pratica”. Nelle sue pagine si ritrovavano solo attinenti aspetti
superficiali dell’attività professionale che riproponevano l’annoso binomio letteralismo/libertà: “il
processo della traduzione si svolge su una serie di opzioni. Durante la prima tappa il traduttore si
trova dinanzi alla scelta della strategia. La preferenza può essere accordata dalla traduzione
precisa a livello testuale , che si avvicina al letteralismo o a una traduzione che si allontani con
forza dalla struttura formale dell’originale e che si avvicini a quella libera. In questa decisione può
avere un ruolo fondamentale il genere testuale.”
La teoria sovietica aveva creato per prima le premesse di un approccio realmente interdisciplinare,
coinvolgendo la psicologia, le neuroscienze, la cibernetica, la semiotica.

2.4. La traduttologia tedesca:


La scuola tedesca è stata molto produttiva. Se gli studiosi occidentali utilizzavano il termine
Ubersetzungwissenschaft (“scienza della traduzione”) compatibile con la tradizione umanistica, la
scuola di Lipsia, aveva inaugurato il termine esplicitamente ‘tecnico’ di Translation/Translatologie;
secondo i teorici di Lipsia, la traduzione era “un atto che consiste in un processo di
decodificazione-ricodificazione”. A inaugurare la traduttologia in Germania furono Wilson e Kade. I
due condividevanouna diffidenza per il relativismo linguistico, e si oppponevano al principio
romantico dell’intraducibilità. Secondo Wilss il presupposto della traducibilità era garantito dagli
universali linguistici; sia Wilss, sia Kade criticavano il disinteresse che la linguistica chomskiana
riservava alla pragmatica e alla psicolinguistica e consideravano la linguistica strutturale
insufficiente a spiegare i processi traduttivi. I tedeschi tentavano di costruire tassonomie utili a
differenziare l’approccio del traduttore a testi diversi, ma utilizzavano in modo confuso alcuni
termini. Nociva è stata la confusione tra i termini “equivalenza” e “invarianza”: la parola-chiave
Ubersetzungwissenschaft sul piano normativo è “equivalenza”. E’ stato usato il termine
“invarianza” ma si è sentita la necessità di coniugarlo, di sostituirlo, con la più elastica nozione di
equivalenza.
Si erano create diverse categorie di “equivalenza”, negando di fatto che si potesse trovare un
parametro di equivalenza valido in modo generalizzato. Anche i traduttologi tedeschi avevano
ripiegato sulla bi-teoria: avevano finito per proporre due modelli teorici diversi per la traduzione
del testo letterario o “scientifico-tecnico”. La traduttologia tedesca è stata criticata da tre punti di
vista: quello drastico dei postmoderni, rappresentati da Friedman Apel, che metteva in dubbio la
“scientificità” della traduttologia e la sua stessa legittimità in quanto disciplina; quello di Genzler
che imputava ai tarduttologi tedeschi affermazioni sulla natura della lingua troppo riduttive e non
supportate da dati; quello dell’ermeneutica tedesca,. Che considerava ingenua l’illusione di
stabilire una corrispondenza tra i testi senza tener conto dei fattori extra-testuali legati alla
ricezione. La virata della traduttologia linguistica in direzione della “relativizzazione del processo
traduttorio” ha contribuito a sviluppare l’approccio funzionale su cui si sarebbe poi basa la
Skopostheorie. Questa partiva da una concezione di “equivalenza” non schematica e non rigida: il
criterio dell’equivalenza era lo scopo dell’atto traduttivo che assurgeva all’apice della gerarchia
decisionale del traduttore. Lo “scopo” poteva variare a seconda del punto di vista. L’importanza
della teoria consisteva nel delegittimare istruzioni valide ‘sempre e comunque’. Eliminando la fase
linguistico-contrastiva, la Skopostheorie si limitava a suggerire al traduttore una completa
coerenza rispetto al progetto, ribadendo il legame primario tra teoria e pratica, perorando
l’impossibilità di un modello unitario.

2.5. La traduttologia in Francia, Inghilterra, Italia:


In Francia l’unico celebre contributo alla tarduttologia linguistica, mirato all’analisi contrastiva tra
due sole lingue, resta la nota monografia di Vinay; merito della sua opera era l’utilizzo di termini
rigorosi ed efficaci, come “equivalenza”, “unità traduttiva”, “calco”, etc.
Successivamente non vi sono opere di rilievo. Il contributo della Francia è stato ben più
significativo nel campo dell’interpretazione. Alla fine del XX secolo, le teorie francesi sulla
traduzione si dividevano in due correnti contrapposte. L’una “ermeneutica” (rappresentata da
Ladmiral) e l’altra “etico-letteraria” (rappresentata da Meschonnic).
Secondo Ladmiral la traduttologia non avrebbe portato a scoperte o rivelazioni, ma solo aperto
“finestre” sulla pratica traduttiva; diceva che la teoria non avrebbe potuto apportare “sapere
supplementare”, ma solo “concetti” grazie ai quali descrivere la “pratica”. La posizione di
contrasto tra “teoria della traduzione” e “traduttologia”, tra “storia” e “pratica” emerge dalle
denominazioni che Meschonnic selezionava per il suo principale libro sulla traduzione; qui l’autore
siglava con argomentazioni esclusivamente culturologiche, la distanza tra la teoria e la scienza: “la
poetica del tradurre, quindi, non è una scienza in nessuno dei significanti della parola scienza”. In
campo “linguistico” ci sarebbe stato in Francia, il solo Antoine Bergman che considerava la
traduzione una “scrittura autonoma”, negando il fondamento stesso delle teorie linguistiche,
ovvero di qualsiasi tipo di analisi formale e contrastiva. I suoi scritti paiono assimilabili al
postmodernismo. Con il volume “Analisi linguistica e traduzione”, Enrico Arcaini forniva il più
rigoroso contributo allo sviluppo delle ricerche nel nostro Paese. In Inghilterra, dagli anni Settanta
si è avuto un solo esponente della traduttologia linguistica: John Catford. Nel 1965 pubblicava “A
Linguistic Theory of Translation: An Essay in Applied Linguistics”, con cui cercava di promuovere il
ruolo della linguistica negli studi sulla traduzione, avanzando una differenziazione tra criterio
linguistico e criterio funzionale. Secondo Bassett questo suo intento era proprio il principale
difetto dell’opera: l’autore affronta l’argomento attraverso una discussione della teoria generale
della linguistica e la traduzione non viene studiata come disciplina in se stessa, ma serve da
esemplificazione per alcuni aspetti della linguistica applicata. Catford è stato il primo traduttologo
a porre le basi per costruire un modello teorico generalizzato, che valesse per tutti i tipi di testo. Il
libro evidenziava il ruolo fondamentale dei concetti di “equivalenza” e di “corrispondenza
formale”, l’attenzione ai diversi aspetti della lingua e alle varietà linguistiche. Interessante è il
capitolo dedicato ai “limiti della traducibilità” dove Catford, evidenziava l’errore di differenziare il
“traducibile” dall’ “intraducibile”. Gli pareva più utile distinguere tra “pertinenza linguistica” e
“pertinenza funzionale”: la sola “intraducibilità” poteva riscontrarsi laddove non si fosse riusciti a
ottenere una corrispondenza “funzionale”. A partire dai primi anni Ottanta, grande influenza ha
avuto un altro studioso inglese, Peter Newmark. Con “Approaches to Translation” del 1981,
tentava di conciliare l’approccio linguistico con quello dei TS. La sua opera è caratterizzata da
vistosi difetti epistemologici. Fino alla fine del XX secolo, ha dominato una trasversale diffidenza
per la traduttologia.

3. Algoritmi ed euristiche: le strategie del “problem solving”:

3.1. La metafora computer/cervello:


Sorprende che l’acclamata ipotesi che esista un dispositivo innato per l’acquisizione delle lingue
(Language Acquisition Device o LAD) non sia stata logicamente estesa all’ipotesi che esista anche
un ‘Translation Device’, un dispositivo innato per la traduzione. Infatti, i bambini bilingui sono in
grado di tradurre frasi semplici da ognuna delle due lingue all’altra e spesso lo fanno in modo
spontaneo e seguendo un istinto funzionale. Non risulta alcuno studio scientifico che invalidi
l’ipotesi che ogni umano bilingue sia potenzialmente in grado, previo addestramento, di tradurre
mediante procedure interlinguistiche tipo logicamente affini a quelle intralinguistiche che gli
umani realizzano di continuo. Non è possibile studiare i processi traduttivi umani fuori da un
modello psico-cognitivo della mente/cervello. Alcuni scienziati optano per un modello analogico:
la mente umana viene considerata come una sorta di “facoltà emergente” del sistema
neurocerebrale, capace di eseguire diversi procedimenti logici o pseudo-logici che costituiscono un
insieme di “programmi in funzione parallela”. Il processo traduttivo può essere rappresentato nei
termini di una computazione mirata alla commutazione di un testo da un codice all’altro che si
avvale di un hardware biologico per effettuare operazioni elettrochimiche attraverso i neuroni.
Potenzialmente, qualsiasi persona ha in dotazione alla nascita un dispositivo in grado di acquisire
una L1 (lingua nativa), di acquisire una L2 (lingua seconda) e di esercitarsi a convertire testi
dall’una all’altra lingua; questa ‘commutazione’ si avvale di una serie di circuiti primari
(programmi) e secondari (sottoprogrammi) che usano chunk di informazione registrati nella
memoria a lungo termine (dati), dotati di sistemi di auto-apprendimento, auto-correzione e
rinforzo. Tutti abbiamo in dotazione un codice genetico (biologico) che ci rende ‘animali traduttivi’.
Un traduttore è un individuo che, accumulate le basilari conoscenze esplicite, sfrutta le
potenzialità comuni a tutta la sua specie, formando ed esercitando circuiti cerebrali sempre più
sofisticati, automatizzandoli e trasformando le conoscenze esplicite in abilità implicite
(procedurali). Molti studiosi rifiutano l’analogia cervello/computer; altri negano del tutto il fatto
che la mente umana sia l’esito di un processo fisico, biologico e materiale: considerano la mente
come immateriale ed esterna alle leggi del mondo fisico, e vedono le ‘attività mentali’ come
ontologicamente superiori, più nobili e insondabili delle attività ‘fisiche’. In realtà, non solo non c’è
nulla di mentale nell’uomo che non sia anche fisico, ma neppure l’intuizione è mai metafisica: ogni
volta che qualcuno dice di aver risolto un problema “con l’intuizione”, intende “non so come l’ho
risolto”. Il modo più semplice di fare un modello dell’ “intuizione” in un computer si ha negando al
programma l’accesso al proprio funzionamento interno. Ogni volta che risolve un un problema e
gli si chiede come ha fatto, dovrebbe rispondere “non lo so”.
Per indagare la traduzione secondo un percorso d’indagine coerente ai presupposti del dialogo
interdisciplinare e ai dati, non si può non assumere che i processi traduttivi implichino facoltà
species-specific, competenze pregresse che l’addestramento a una intricata attività neuronale
paragonabile a quello dell’apprendimento artistico, del ragionamento matematico e
dell’intelligenza sportiva. Esistono due categorie di strategie per risolvere problemi: gli algoritmi e
le euristiche. Le due strategie possono fondersi o alternarsi e prevedere gradi differenti di
determinismo o di soluzione aperta, possono applicarsi bottom up o top down.

3.2. Algoritmi ed euristiche: definizioni.


La mente umana, per risolvere qualsiasi problema, si avvale A) di conoscenze esplicite (coscienti) o
B) di procedure implicite (automatizzate), che consentono alle conoscenze di trasformarsi in che i
affidabili per ottenere risultati ottimali in breve tempo, o C) di entrambe. Prima di esercitarsi in
una procedura, si possono ricevere istruzioni pre-esistenti (top down) o ricavarle secondo il
metodo “per tentativi ed errori” (bottom up) o combinare i due metodi. Il metodo per tentativi ed
errori segue comunque una logica, magari inconscia e intuitiva, che riduce sia i tentativi che gli
errori. Per ‘addestrare’ alle procedure, si devono distinguere due casi:

1) Le situazioni del tutto prevedibili, assoggettabili a istruzioni generalizzabili e incomplete,


applicabili in modo ripetitivo secondo strategie sistematiche di risoluzione del problema
dette “algoritmi”;
2) Le situazioni nuove, imprevedibili nel sistema generale e assoggettabili a strategie
parzialmente intuitive e soggettive dette “euristiche”.

Gli algoritmi sono programmi che soddisfano le condizioni di completezza, non ambiguità e
coerenza, sebbene non necessariamente un algoritmo rappresenti una ricerca esaustiva di un
problema risolvendolo completamente. Ci sono algoritmi top down e bottom up: per il primo tipo
solitamente si cita l’esempio del cosiddetto “algoritmo euclideo”, che consente di individuare uno
specifico massimo comune divisore di due cifre note, ma si può anche citare una ricetta
comprensiva di ogni mossa che porti ad un esito perfetto. La strategia dal basso, è quella che
consente di risalire a una premessa teorica generale dai dati particolari. In sintesi “ogni
programma di un computer è un algoritmo” e può essere eseguito ripetutamente da qualsiasi
sistema intelligente , secondo lo schema:

Se P, allora Q

Questo consente – potendo definire P e Q, e avendo tempo – di effettuare una ricerca per
verificare se l’opzione considerata è uguale o diversa da P e di concludere la computazione
secondo lo schema:
sì v no -> stop computing

L’algoritmo è un ‘programma’, un ‘insieme di regole’, che permette di giungere a una soluzione


secondo lo schema logico. Supponiamo di avere il problema Y, con Y=“come andare nel modo più
rapido da casa all’università con il motorino”, e supponiamo che la soluzione verificata di Y sia l’
“itinerario A”, l’algoritmo sarà formalizzabile come:
se Y, allora “Itinerario A”

L’ “Itinerario A” può essere trasmesso da altri a chi lo applica, oppure può essere ricavato
autonomamente bottom up, eseguendo tutti gli itinerari possibili. L’ “itinerario A”, sarà composto
da una serie di sub-routine fisse e da una serie di variabili prevedibili, le quali integrano l’algoritmo
principale:

Se Y e se piove, allora “Itinerario A” ^ “esci venti minuti prima”

Finché i dati non cambiano e si dispone di tempo per acquisire e applicare l’algoritmo, si ha la
certezza di avere una regola completa e coerente. L’applicazione “Itinerario A” risponde a un
algoritmo deterministico. Se ci fossero due soluzioni altrettanto buone, si avrebbe un algoritmo
non deterministico.

Se Y, allora “Itinerario A1” v “Itinerario A2” —> destra/dritto

Poniamo, che una delle sub-routine non sia applicabile perché i dati sul traffico sono cambiati e/o
possono continuare a cambiare: questo rende inapplicabile l’algoritmo rigido e il sistema
intelligente non riesce a decidere. Si deve cercare una nuova strategia, che dovrà essere per forza
veloce ed efficace. Questa strategia sarà un’euristica e si applicherà per risolvere Y quando non si
può applicare l’algoritmo o una sua sub-routine. Il concetto di euristica non ha una definizione
universale, si tratta di una strategia che considera, tra le soluzioni possibili, solo “quelle più
promettenti, ignorando invece quelle poco probabili o addirittura implausibili”. Si tratta di una
‘scorciatoia’ e di una scommessa: si selezionano i dati della ricerca, aggirando quelli mancanti,
riducendo costi e tempi della ricerca e della soluzione. Secondo Dennett, le strategie euristiche
umane, sarebbero in realtà forme di algoritmi non deterministici, potenzialmente indagabili in
termini formali, ma a volte inafferrabili in quanto parti di un enorme programma “orrendamente
complicato e sconosciuto”. Nel problema Y, se l’imprevisto incidente determina una riduzione del
tempo a disposizione, le decisioni andranno prese in fretta secondo parametri probabilistici; si
segue una ‘logica parziale’, che non da certezze, ma consente di evitare tutte le verifiche per
risolvere Y:

Se Y ^ incidente, allora vai a sinistra ^ itinerario =/ A1, A2 —> cerca “Itinerario B”

L’euristica quindi è una strategia di ricerca ad hoc della soluzione di un problema che tiene conto
di parametri generali e di interpretazioni in parte soggettive, che solo parzialmente è
formalizzabile, ma prevede routine e sub-routine riconducibili ad algoritmi non deterministici.
Talvolta, un’euristica può essere formalizzabile e prevedibile come un algoritmo. Ad esempio si sa
che per moltiplicare N per 9, la scorciatoia ad hoc non è l’algoritmo universale di moltiplicazione,
ma l’euristica “moltiplica N per 10, sottrai N”. Per ora sebbene l’IA superi l’uomo nell’applicazione
degli algoritmi, l’uomo è più abile a semplificare la routine di ricerca euristica.

3.3. I pattern della traduzione:


Per realizzare la traduzione automatica, gli scienziati cercavano “un algoritmo che mostrasse quali
passi si dovessero intraprendere per ottenere una traduzione da un TP a un TA”. Molti credevano
che si sarebbe trovato l’algoritmo universale per la traduzione. Però si erano trascurati alcuni
fattori fondamentali. Soprattutto la pragmatica comunicativa, l’interrelazione che collega la lingua
alla motivazione, alle emozioni, ai cinque sensi, e il fatto che la comunicazione interpreti i
messaggi in modo sfasato rispetto all’inconscio, anche se i due processi interpretativi avvengono
in parallelo: senza lo stimolo delle emozioni, il pensiero razionale rallenta fino a disintegrarsi; la
mente razionale non fluttua al di sopra di quella irrazionale: non può liberarsi per potersi dedicare
alla ragione pura. I processi di codifica in parole di un messaggio, di decodifica e di ri-codifica in
un’altra lingua constano di una serie di operazioni numerose e complicate, che si svolgono a livello
conscio e inconscio. Attraverso la valutazione di una serie limitata di opzioni traducenti in lingua di
arrivo di un’unità U del TP, per selezionare l’opzione ‘vincente’, sono indispensabili:

1) Un criterio di equivalenza;
2) Un numero di dati compatibile con le limitate facoltà di calcolo della mente umana.

Se il criterio di equivalenza è parziale, l’operazione fallirà; se il criterio è generale l’operazione


riuscirà. Un modello teorico generale per la soluzione di problemi può utilizzare insieme sia
routine note (algoritmi), sia istruzioni probabilistiche per affrontare variabili situazionali nuove
(euristiche). Se le ‘operazioni’ sono routinarie, si aspettano pochi imprevisti, che possono
comunque insorgere a ogni nuova unità traduttiva. Le ‘operazioni’ sono complesse e rischiose
proprio quando, con l’aumentare del tasso di correlazioni tra i parametri, aumenta la probabilità di
imprevisti: il traduttore dovrebbe seguire un modello teorico che fornisca:

A) Istruzioni generali, complete e coerenti, comprensive dei calcoli delle variabili probabili e
improbabili;
B) Istruzioni su come affrontare le situazioni nuove in base ai vincoli di tempo e alle soluzioni
non note, ma possibili.

Ci sono effettivamente tecniche diverse per risolvere lo stesso problema, ma ne esiste sempre una
sola che è la più affidabile e costituisce il “protocollo”: la coesistenza di altre tecniche spesso è
dovuta alla mancanza di di strumentazione, di condizioni, costi materiali, di rischi, ecc. pure
essendo strumenti all’avanguardia esterni al traduttore, lo strumento fondamentale per la
procedura di traduzione è al momento il cervello umano, quindi il ruolo delle routine (teorie) e
dell’esercizio resta fondamentale. Non avendo la capacità di memoria e la velocità di calcolo di un
computer, la mente umana “ha dovuto perciò trovare di necessità una sua propria via alla
decisione che non fosse totalmente e perfettamente logica”. La comunicazione umana è spesso
ambigua, quando non paralogica, e vi saranno sempre variabili interpretative non deterministiche:
le lingue umane creano “un’esplosione” di dati che rendono necessario l’impiego di sofisticate
euristiche interpretative. Un input ambiguo attiva nel cervello due potenziali output e la selezione
avviene in base a interferenze che ammettono la concomitanza di entrambi gli output. In generale,
le ricerche sulla soluzione dei problemi da parte del cervello umano si sono concentrate
sull’euristica piuttosto che sugli algoritmi, ma nel caso dei processi traduttivi dato l’alto numero di
algoritmi prevedibili, unito a variabili, la computazione parrebbe trovarsi all’incrocio tra
determinismo algoritmi o e non determinismo euristico. Non è possibile costruire un qualsiasi
modello teorico della traduzione senza un criterio di equivalenza: solo in base a questo criterio si
può tentare una formalizzazione di routine a schema Sì/No, che preveda euristiche ‘di ripiego’ per
le situazioni nuove. Il processo traduttivo può essere visto come un procedimento sofisticato di
inibizione delle opzioni scartate. L’energia spesa dal sistema di controllo dell’informazione per
stabilire che cosa “trattenere” e che cosa inibire è immensa: “quando alla memoria vengono
aggiunti nuovi episodi e nuovi concetti, elaborati con una ricerca estesa attraverso il sistema
limbico e corticale, che stabilisce dei legami coni nodi precedentemente creati”.
Il processo inverso, di riconoscimento in memoria, è altrettanto oneroso. Un simile apparato di
controllo, di attivazione e inibizione di milioni di link che associano i segni in base ai dati
soggettivamente memorizzati lascia intendere che il sistema procedurale (implicito) sia connesso
allo stato psicofisico del traduttore. Quando si traduce è possibile giungere a risultati complessi e
virtuosistici senza che la coscienza registri alcuni dei passaggi più significativi del processo di
soluzione. Per applicare una routine, non si deve scendere sotto a una certa velocità operativa,
l’intervento della coscienza può essere un freno per quella sintesi intuitiva che aiuta a trovare
soluzioni cui i processi coscienti non possono condurre. La coscienza procede con lentezza rispetto
alle procedure automatiche. Le procedure sono veloci se evitano che i singoli passaggi della
computazione si presentino per intero alla coscienza, il traduttore addestrato percepisce la
soluzione come intuitiva. I processi traduttivi utilizzano un’infinità di micro-passaggi neuronal I che
agiscono tra il livello cosciente (controllo esplicito) e il livello automatico (procedura implicita):
questo livello ‘semi-cosciente’ della procedura innesca la sensazione dello ‘stato di grazia’
procedurale in cui ci si sente agire in perfetto controllo. Abbiamo in realtà scarsa o nulla
consapevolezza di eventi che in realtà la nostra memoria implicita provoca o registra: la coscienza
parrebbe un epifenomeno, una specie di illusione “su larga scala” derivata dalla “collusione” di
“tanti piccoli, indubitabili eventi non illusori”; la sensazione del ‘Sé’ deriverebbe da una “struttura
astratta”, “un pattern” che produce una riflessione degli eventi: “cosa conta è il pattern
dell’organizzazione, non la sostanza”. Il concetto di “pattern” secondo Douglas Hofstadter, teorico
dell’IA, è utile per riflettere sulla traduzione: i pattern, “possono essere copiati da un medium
all’altro” e quest’azione è appunto ciò che chiamiamo “traduzione”. Il concetto di pattern non si
applica solo ai “geni”, ma anche ai testi letterari e sarebbe questa essenza strutturale dei testi a
consentirne l’intrinseca traducibilità:

“[…] a novel is a pattern […] And so a novel is an abstraction, and thus, the very same novel can
exist in different languages, different cultures thriving hundreds of years apart”

Le strutture che governano la lingua, la pragmatica d’uso e il singolo testo offrono i riferimenti
attraverso cui orientarsi per cercare le regolarità operative, i parametri, le strategie, le tecniche
che costituiscono le ‘regole dell’ars”. Indagare le interrelazioni tra elaborazione inconscia ed
elaborazione consapevole è quindi un passo fondamentale per tre compiti diversi:

a) per formulare ipotesi sui meccanismi che consentono la traduzione;


b) per valutarne le complessive implicazioni cognitive,
c) per riformulare i compiti della didattica (o tecnica) della traduzione.

Un modello teorico prevede una strategia algoritmica quando:

1) Il testo è chiaramente univoco (se univoco -> equivalenza di univocità);


2) Il testo è volutamente e chiaramente ambiguo (se ambiguo -> equivalenza di ambiguità).

Se l’unità traduttiva non rientra nei casi 1) e 2), perché i dati sono superiori alla gestione
algoritmica, si ricorre a una strategia euristica: più veloce e complessa o più ricercata e più lenta.
Come aveva detto Levy, i processi traduttivi non pongono “problemi linguistici”, ma complessi
“problemi decisionali”, organizzati secondo un ordine gerarchico, in cui è più importante
soddisfare il parametro più alto della gerarchia stabilita, che Jakobson definisce “dominante”
testuale. Il processo di traduzione è una tipica tipologia del problem solving, dove “ottimale”va
definito secondo criteri di equivalenza che variano per ogni modello teorico. Nei ‘frammenti’ dei
Taccuini di Dovlatv, c’è un frammento che rimanda a un verso del poeta russo Lermontov (“Noc,
ticha, pustynja vnemlet Bogu”, “Notte, silente, ode il deserto Dio”, nel quale la parola “ticha” per
assonanza diventa nel testo umoristico di Dovlatov “Techas”.
L’altro parametro è dato dall’allusione allo iato vita/cultura degli emigrati russi negli Stati Uniti:

Ar’ev: “… Noc, Techas, pustynja vnemlet Bogu…”


[“Notte, Texas, ode il deserto Dio”]

L’euristica seguita nella traduzione italiana ha comportato “scommettere” che, cambiando


Lermontov con Leopardi e Texas con Maryland, l’effetto ‘umoristico’, ‘di-vertens’
(gerarchicamente dominante), sarebbe stato equivalente sul piano funzionale (f-equivalente) a
quello del TP:

Andrej Ar’ev: “… E il naufragar m’è dolce in questo Maryland”

La soluzione euristica di questo problema decisionale P è formalizzabile come algoritmo-base a


soluzione aperta:

Se P, allora -> “trova un gioco di parole con un verso della poesia italiana, in cui si possa cambiare
una parola che, per assonanza, si trasformi nel nome di uno Stato degli USA” e tale
che:
a) Il verso del poeta italiano sia noto a memoria ai lettori italiani,
b) Il poeta sia un pessimista romantico (come Lermontov),
c) Lo Stato sia il Texas.

Dato il tempo disponibile per la computazione, l’euristica proposta ha potuto soddisfare le prime
due condizioni, ma non c). Tuttavia, essendo l’effetto umoristico in cima alla gerarchia decisionale.
Se si vogliono scomporre, analizzare le tappe, serve determinare a ritroso, bottom up:

A) Le conoscenze che abbiamo impiegato;


B) Il modo in cui queste conoscenze sono rappresentate nella nostra mente o nella nostra
memoria;
C) I processi mediante i quali, sulla base dell’informazione ricevuta siamo riusciti ad attivare,
fra tutte le conoscenze, quelle pertinenti alla soluzione;
D) I processi che hanno portato alla risoluzione del problema.

Supponendo di raccogliere un corpus di traduzioni che paiano ‘buone’, si può cercare di risalire
alle procedure di calcolo mentale che hanno condotto al risultato positivo e di formalizzarle in
modo da renderle applicabili come generali algoritmi semplici che aiutino a prevedere e
organizzare le strategie euristiche. Si prendano le traduzioni dei “nomi parlanti” dei personaggi
delle fiabe che hanno avuto per secoli indubbio successo. Le fiabe presentano due pattern
fondamentali per il progetto di traduzione: 1) sono ambientate in uno spazio-tempo mitologico,
fuori da vincoli nazionali, storici, geografici; 2) sono per lo più rivolte a bambini che gradiscono la
totale omologazione alla lingua di arrivo. Queste soluzioni della tradizione hanno ispirato le recenti
traduzioni dei processi dei cartoni animati.
L’analisi bottom up ci mostra anche che questo criterio non è mai stato applicato ai nomi-parlanti
degli eroi letterari. A questo punto, si possono generalizzare i due differenti procedimenti
algoritmici della tradizione della traduzione dei nomi propri, di cui il primo a soluzione aperta,
l’altro deterministica:
1) Se [TP -> fiction per infanzia], allora [TA -> ricrea nome parlante efficace in lingua di arrivo]
2) Se [TP -> fiction realistica], allora [TA -> lascia nome del TP]

Con lo stesso procedimento si può formalizzare qualsiasi strategia e tecnica utilizzata per qualsiasi
testo.
Le strategie possono essere applicate con la parziale o totale inconsapevolezza della gamma delle
opzioni possibili oppure, con la precisa adesione a una strategia. La strategia più facile è quella del
dilettante totale, quando le soluzioni risultano arbitrarie, l’algoritmo dell’arbitrio è:

Se [A unità TP], allora [per corrispondente unità TA -> fai quel che ti pare]

In questo caso l’algoritmo sarà applicato con successo, ma la soluzione sarà dilettantesca. Se il
traduttore applica una strategia restrittiva con procedure che portino a una qualche forma di
equivalenza, le sub-routine saranno formalizzabili secondo un algoritmo più complesso. Più si
aggiungono condizioni alle routine, più si complica la formalizzazione dell’algoritmo. Durante il
processo traduttivo, si applicano algoritmi semplici, ma quando le cose si complicano, si cercano
algoritmi complessi. La velocità procedurale del processo traduttivo è tanto migliore, quando più è
costante, ma le unità complicate interrompono la procedura per trovare la ‘scorciatoia’ euristica. Il
traduttore può procedere in modalità “automatica” solo se sta applicando una strategia nota a
un’unità prevedibile:

Strategia [cerco] -> applico [seleziono] -> verifico [misuro] -> convalido -> stop computing

Il processo che comporta la tappa ‘cerco’ è “un meccanismo biologico che effettua la preselezione,
esamina i candidati e consente solo ad alcuni di presentarsi all’esame finale”. Dopo la selezione
definitiva “applico”si avverte una verifica mentale: “Ok convalido -> non cercare oltre”, oppure
“No, non convalido -> cerca ancora”. Questo è cosi rapido da essere semi-consapevole o da non
raggiungere la consapevolezza piena. Per applicare strategie algoritmi che serve disporre di tutti i
dati e di tempo necessario. Quando questa concomitanza non si verifica, si applicano strategie
euristiche. Più un TP è complesso e imprevedibile (creativo), più le due modalità si alternano. Un
traduttore competente sa quando è in modalità algoritmica e quando sta applicando una strategia
euristica. Se la situazione è nuova e mancano dati, l’euristica impone di convalidare un’unità di
arrivo che presenta rilevanti segni di corrispondenza con quella di partenza, ma che non è
perfettamente corrispondente a quello che “servirebbe”. Esistono due tipologie di soluzione
“migliore possibile”:

1) “migliore possibile hic et nunc”;


2) “Migliore possibile in senso lato;

Va rilevato che in traduzione per “trovare” una soluzione e per poterla “convalidare”, è
indispensabile una correlazione “cerco/trovo/verifico/convalido” che implichi che quello che si sta
cercando venga riconosciuto. Applicato alla lingua, il riconoscimento è tanto più affidabile se,
cercando nei dizionari o nei corpora, il traduttore riconosce l’unità linguistica o la parola che sta
cercando perché già l’ha incontrata: non la ricorda, ma, se la vede, la riconosce. Quanto minore è il
bilinguismo del traduttore, quanti meno enunciati conosce, tanto più inaffidabili sono le sue scelte
lessicali: più scelte inaffidabili si accumulano, più è probabile che il TA sia ‘diverso’ dal TP.
Lo psicolinguista Gerry T.M. Altmann illustra quanti dati in memoria vengano coinvolti nella
processo di attivazione/inibizione che produce il significato. La conoscenza di qualcosa (cioè il suo
significato) riguarda svariate parti del cervello, compresi gli input visivi, uditivi (ecoici), tattili,
olfattivi, gustativi, che costituiscono la base essenziale dell’informazione da noi memorizzata. Nella
memoria biologica si forma un’immagine mentale, che coinvolge i cinque sensi e altri dati, in parte
collegati all’esperienza universale, in parte alla biografica soggettiva. Quindi il significato va inteso
come sintesi dell’insieme di diverse associazioni, anche sinestetiche, cognitive ed emotive. Per
quanto ci si sforzi di formalizzare queste reti associative, nessun algoritmo permetterà ad una
macchina di avere la nostra memoria affettiva.

3.4. I cluster del significato:


Sappiamo che quando il cervello umano deve tradurre una frase dal pensiero in lingua naturale, da
un registro all’altro di una stessa lingua, da una lingua naturale all’altra o da una lingua naturale a
un sistema semiotico artificiale, si comporta come una centrale ipercomplessa che gestisce
un’immensa banca dati, suddivisa in moduli neuronali collegati tra loro. Dato un certo input,
questi sono addestrati a valutare le opzioni di output attivando altri cluster interconnessi che sono
relativi alla ‘lingua’ e a tutti i circuiti cerebrali che gestiscono emozioni, ricordi, cinque sensi. Le
interconnessioni tra cluster formano reti associative che solo in parte sono accessibili alla
coscienza. Un cervello biologico evoluto funziona come un lentissimo computer parallelo, la cui
lentezza è relativa: i tempi di computazione sono molto più veloci di quanto ci si aspetterebbe. Il
cervello scansione “un simbolo ogni 25 millesimi di secondo”, cioè 40 simboli al secondo: “nello
spazio di un secondo della vita della mente il cervello produce milioni di schemi di scarica per
un’ampia varietà di circuiti distribuiti in varie regioni del cervello”. Anche la decodifica del lessico
avviene a livello inconscio: “il significato di una parola pronunciata raggiunge il cervello
dell’ascoltatore in circa un quinto di secondo, prima che il parlante abbia finito di pronunciarla”.
Il processo di decodificazione di un TP e di ri-codificazione di un TA è lentissimo, ma abbastanza
veloce da permettere la traduzione in simultanea. Ogni input verbale “accende e spegne”
parallelamente un numero di link nell’ipertesto neuronale: alcuni link sono condivisi da tutti i
parlanti, altri derivano dall’esperienza soggettiva e dalle acquisite competenze implicite ed
esplicite. Sono solo alcuni i link neuronali che possono esercitare un potenziale priming, cioè pre-
attivare a livello inconscio elementi del circuito associativo.
In una frazione di secondo, grazie ad un solo input, innumerevoli concetti, immagini, parole,
sensazioni vengono attivate o pre-attivate. A mano a mano che qualcuno parla, nel cervello di chi
ascolta si “accendono” e si “spengono” di continuo migliaia di sinapsi. Se le ‘accensioni’ di due o
più neuroni in connessione sono frequenti, il collegamento è registrato dalla memoria a lungo
termine; se la ripetizione è costante, la memoria esplicita si può trasformare in memoria
procedurale implicita. Le proprietà memetiche del linguaggio fanno sì che espressioni nuove,
ripetute continuamente, diventino abituali, perdendo la loro marcatezza pragmatica.

4. Memetica, linguaggio e traduzione:

4.1. Formulaicità e stereotipia:


Chi si occupa di traduzione, si occupa anche dei messaggi contenuti nel testo che vengono diffusi.
Il “contagio” è possibile grazie alla predisposizione del cervello umano a recepire, memorizzare e
riprodurre e a farlo tanto più efficacemente, quanto più i suoni sono strutturati secondo parametri
di ritmo, rima, consonanza e dissonanza: nel caso delle lingue naturali, si sa che esiste tra gli
accostamenti dei suoni nelle parole (i significanti saussuriani) ed il significato (le reti neuronali) un
nesso diretto. Sappiamo che le parole tendono ad associarsi tra loro in modalità formulaica (una
successione “prefabbricata” di parole, conservata in memoria e richiamata per l’uso). La
preferenza per certe formule linguistiche convive con l’istinto innovativo: il “dispositivo umano del
linguaggio”ama imitare formule esistenti, ama crearne di nuove e sa fare entrambe le cose. Per
capire quanto sia importante quest’aspetto è fondamentale comprendere che l’informazione su
cui si fonda ogni cultura “non può semplicemente essere sospesa nell’aria. Deve essere codificata
in qualche oggetto materiale”. In questo il contributo dell’informatica è stato enorme:

“L’informatica ci ha portato a riconoscere che tutti i saperi si materiano in un supporto. […] ormai
si riconosce che non c’è spirito, mente o intelligenza che non s’incarni in qualche struttura
materiale più o meno organizzata”

Con “informazione” intendiamo un input che raggiunge un sistema intelligente e lo modifica: “ho
acquistato una nuova informazione quando c’è stato un effetto sul mio comportamento, le mie
opinioni o la mia conversazione futura”. Il motivo per cui una certa componente fisica delle lingue
e dei linguaggi ha successo e altre invece no, può dirci molto sulla modalità di catalogazione dei
dati linguistici in memoria. La forma con cui sono codificati i messaggi li rende ‘vittoriosi’. In lingua
naturale vengono codificate sequenze diverse di parole per esprimere script (stereotipi) che hanno
il potere di moltiplicarsi. Come i virus biologici, i ‘virus verbali’ possono creare ‘danni parassitari’
strutturali al pensiero, oppure possono limitarsi a un innocuo contagio che avviene ‘a orecchio’,
senza modificare le strutture cognitive: le persone usano una formula invece di un’altra perché la
sentono di più; si crea un circolo vizioso in cui i parlanti passivamente subiscono il contagio: più
sentono la formula, più la usano, più la diffondono, più la sentono. Il fatto che la formula sia
fastidiosa non ne limita il potenziale. I ‘virus verbali’ che manipolano le strutture cognitive del
cervello agiscono secondo due modalità: 1) creando associazioni innocue e 2) predisponendo al
pregiudizio.
La manipolazione si registra a livello cognitivo e attivo, se crea “credenze”: “le credenze sono gli
indicatori interni naturali che sono divenuti rappresentazioni con la funzione di controllare un
determinato comportamento”.

4.2. I “memi ” e il dibattito epistemologico sulla “memetica”:


I problemi dell’epidemiologia culturale riguardano il ruolo della traduzione. Da alcuni decenni
esiste una disciplina specifica che si occupa della replicazione della cultura secondo un modello
evoluzionistico: la memetica. E’ un campo di studi trasversale, supportato da vistosi indizi e da
un’evidente coerenza con il modello della replicazione biologica. Oggetto della memetica sono i
memi, le unità minime di replicazione, trasmissione e riproduzione della cultura e
dell’informazione. La memetica condivide il suo oggetto di studio con altre discipline, ma è
modellata sulla teoria del “gene egoista” del teorico Richard Dawkins. Il termine meme è stato
inventato nel bestseller di Dawkins “The Selfish Gene” del 1976. L’etimologia della parola “meme”
era stata ispirata sia dalla radice greca “mime-“ (idea di “imitazione”), sia dalla parola francese
“même” (idea di “identità della replicazione”), ma soprattutto dalla consonanza con e “gene”;
inoltre è un riferimento alla “memoria”.
Se il gene è il replicatore biologico, il meme è il replicatore culturale: ha la forma di una frase, di
un’idea, di una moda, di un modello. Come il gene ha un genotipo e un fenotipo, il meme ha un
memotipo e un femotipo; quest’ultimo è la forma fisica del meme nel mondo, collegata nelle reti
neuronali di un cervello a una struttura di significato. La propagazione del meme dipende dalla sua
struttura, e anche dall’ambiente che ne determina la virulenza epidemica. La fortuna del termine
meme è stata inarrestabile, tanto da portarlo ad essere inserito nell’Oxford Dictionary. In
“Consciousness Explained” neurofilosofo Daniel Dennet mostrava la versatilità e l’utilità del
modello di Dawkins per impostare una nuova ricerca culturologica interdisciplinare:

“Once our brains have built the entrance and exit pathways for the vehicles of language, they
swiftly become parasitized by memes. These new replicators are, roughly, ideas.”

Secondo Dennett, la coscienza umana sarebbe un grande complesso di memi. Secondo Balkin i
memi che compongono la mente umana “possiedono le persone” più di quanto “le persone
possiedano le idee”: la mente di uno studioso non sarebbe altro che uno strumento per mezzo del
quale una biblioteca si replica. Le lingue naturali costituirebbero un ottimo canale di diffusione
memetica; esisterebbero memi universali e memi specifici di una linguocultura, i quali sarebbero
responsabili delle differenze microstrutturali. Dennett ipotizzava che il meme fosse più
propriamente connesso all’idea di “significato” che a quello di “struttura”, nel senso che la
struttura sarebbe “in funzione” del significato:

“Ciò che si conserva e si trasmette nell’evoluzione culturale è l’informazione. Pertanto il meme è in


primo luogo una classificazione semantica, non sintattica, che potrebbe essere osservabile in
modo diretto nel “linguaggio cerebrale” o nel linguaggio naturale”

La memetica si presenta come modello teorico per lo studio della stereotipia testuale, come
quadro di interazione tra la mente, come prodotto ideologico-narrativo, e le informazioni esterne:
“L’esistenza di un meme dipende dalla sua incarnazione fisica in qualche mezzo; se tutte le sue
incarnazioni vengono distrutte, un meme si estingue”. In tal senso il paragone con i geni è utile:

“Una frase composta da tre nucleotidi non si può considerare un gene per la stessa ragione per cui
non si può ottenere il copyright di una frase musicale di tre note: non è sufficiente per una
melodia”

Successivamente a Dennett si è diffusa un’ampia ‘letteratura memetica’ di stampo molto


divulgativo (es. Brodie, e Blackmore che ha pubblicato il primo ‘manuale di memetica’). Secondo
Brodie i complessi di memi spiegherebbero il successo delle idee e la diffusione epidemiologica dei
comportamenti umani che non rientrano nella mera propensione all’imitazione.

Noi non impariamo qualcosa perché è logico, ma tanto più lo consideriamo “logico”, quanto più ci
è familiare: la sola conformità di un messaggio alle nostre usuali categorie mentali dà la piacevole
sensazione di “logicità”. Ciò che impariamo modella il pensiero e predispone ad accettare come
logica anche l’illogicità. Un esempio è dato dalle “teorie della cospirazione”.
Alcuni volumi sulla memetica denotano una certa estraneità alla riflessione epistemologica, critica
espressa da Robert Aunger. Dawkins veniva criticato per aver affrontato il tema della trasmissione
culturale senza aver tenuto conto delle ricerche antropologiche. Maurice Bloch estendeva la critica
ai memetisti in generale, che si sarebbero appropriati dell’oggetto di studio degli antropologi
senza verificarne i contributi storici. Bloch affermava che il passaggio di informazione che avviene
nella comunicazione culturale richiedeva “un atto di ri-creazione da parte del destinatario”. Il
problema sarebbe stato quello di comprendere i meccanismi inconsci che portavano alle
“inferenze” e poi alle azioni, attraverso quel rapido processo che avrebbe innescato la sensazione
dell’intuizione.
Plotkin criticava l’idea di Blackmore che il cervello umano fosse “un dispositivo di imitazione
selettiva”, mentre in realtà la trasmissione culturale sarebbe dipesa non solo da “memi di
superficie”, ma da un processo profondo di costruzione e integrazione identitaria. Rosaria Conte
nel suo saggio sulla “sociomemetica cognitiva”, invitava a non confondere ciò che era stato
appreso socialmente per trasmissione con ciò che era risultato dell’esperienza personale
soggettiva. Laland e Odling-Smee mettevano in dubbio l’esistenza stessa dei memi e la loro utilità
come strumento di ricerca, dubitando che la cultura potesse essere circoscritta a una “collezione
di memi”. Inoltre insistendo sulla “virulenza” epidemica dei memi, la memetica trascurava la
“suscettibilità” dei destinatari, capaci di rendere potenti i memi indipendentemente dalla loro
struttura. Secondo Laland e Odling-Smee la memetica poteva giovare alla ricerca solo se coerente
agli studi sulla coevoluzione gene-culture. Boyd e Richerson consideravano prematuro parlare di
“replicanti” senza conoscere ancora bene i meccanismi che regolano la cultura. Aunger rilevava
l’importanza di rinvenire un “modello fisico” di replicazione memetica che potesse definire il
communication problem. Dunque la trasmissione culturale non sarebbe stata altro che traduzione
dalla lignua del cervello a quella dei simboli culturali. In un volume successivo Aunger affrontava
finalmente la questione della fisicità dei memi, partendo dal postulato dell’informatica secondo
cui “non esiste informazione senza rappresentazione fisica”. Lo studioso introduceva il concetto di
“neuromeme”, ovvero: “A configuration in one node of neuronal network that is able to induce the
replication of its state in other nodes.”.
Un neuromeme sarebbe “una struttura cerebrale super-molecolare capace di replicarsi” grazie a
stimoli specifici, i memi; solo specifiche tipologie di input sarebbero in grado di contagiare i
neuroni e dar loro assumere la struttura replicante anche per la lingua naturale e la comunicazione
verbale. Questa visione offre un percorso di indagine per teorizzare il modo in cui varia la memoria
a lungo termine. Il meme quindi non sarebbe “il messaggio”, ma la struttura del messaggio, che
diventerebbe “il segnale” inviato a un altro cervello mediante un canale di comunicazione. Uno
studio interessante sulla comunicazione linguoculturale è stato “Cultural Software” di M. Balkin,
una riflessione che spazia dalla filosofia all’antropologia, dalla neurobiologia alla teorica retorica.
Balkin contestava alla concezione di Dawkins l’idea che i memi si replicassero in forma identica,
trascurando il fattore-mutazione. Le mutazioni culturali superano quelle biologiche, inoltre
sarebbero l’essenza stessa della trasmissione memetica: la cultura sarebbe un sistema evolutivo
equilibrato, al contempo conservatore e mutevole, assoggettato a “quello che noi chiamiamo
libertà”. Balkin considerava che la fondamentale differenza tra evoluzione culturale e biologica
sarebbe stata da ricercare proprio nelle continue mutazioni dei simboli che esprimono i giudizi e le
credenze:

“The study of ideology is the study both of endenemic cognitive structures and of epidemic
changes in beliefs and symbols […] cognitive mechanisms are neither true or false. They are the
ways in which attitudes and judgements are formed: they produce beliefs that can be true or
false.”

Come la lingua, anche l’ideologia acquista significato in base al contesto d’uso, in quanto diventa
significante quando è contestualizzata, creando un rapporto sociomemetico tra ideologia ed
estetica: “[…] le strutture narrative possono essere trasmesse agli altri attraverso la
comunicazione, l’imitazione e le altre forme dell’apprendimento sociale”. Le strutture narrative, gli
espedienti retorici, sarebbero “forme passive del pensiero umano” predisposte ad essere
“immagazzinate nella memoria” creando la struttura di aspettative che rafforza l’intera rete di
conoscenze con cui un individuo confronta ogni input esterno.
4.3. Lingua, memi e traduzione:
L’ideatore della Skopostheorie J. Vermeer nel 1997 sosteneva che le traduzioni potessero essere
viste come “veicoli transculturali di memi” sulla base di quattro considerazioni:

- There is no longer “the” text as a fixed unit or as a member of one well-established


intertextuality […] Memes may jump in and out of texts and groups of texts according to
the actual condition […]
- Text reception and production in translating is determined by memes which seem to be
only partly controlled by their “host” (the translator)
- Translating means transcultural meme replication with translations as transcultural meme
vehicles
- Cultures can be considered “meme pools” where memes are interdependent

Secondo Vermeer, nella memosfera si svolgerebbero la competizione e la selezione naturale tra i


memi la cui prerogativa sarebbe quella di avere successo tra tutti gli altri, diffondendosi con
velocità. La relazione tra memetica e traduzione è stata studiata anche da Andrew Chesterman
convintosi che la teoria della traduzione sia addirittura “una branca della memetica”:

“Memetics assumes that we translate ideas, not languages […] that modification is an inherent
aspect of this process, that equivalence in translation is not identity but continuity. It sees
translation as a process of dissemination, of sharing, rather than as a movement form A to B”

Lo studioso rilevava anche una similitudine tra le condizioni richieste per la replicazione e quelle
richieste per la traduzione: secondo Dan Sperber, B è una replica di A se B è causato da A, se B è
simile ad A, se il processo che genera B ottiene da A l’informazione che rende B simile ad A;
secondo Toury, un testo B è la traduzione di A, se esiste un TP, se esiste un processo di
trasposizione, se TP e TA risultano correlati.
Come un meme musicale è un’autonoma unità minima riconoscibile, associata a tempo, ritmo,
melodia, armonia, strumentazione, un meme verbale è un’unità minima di fonemi, lessico e
morfosintassi, ma anche di intonazione, prosodia e ritmo. Se la semiotica studia i simboli e la
memetica studia la forma linguistica delle formule di successo, la traduttologia studierebbe la
trasformazione dei memi da una lingua all’altra. La maggior parte dei fraseologismi, dei modi di
dire, dei proverbi possono essere considerati memi linguistici, formule che hanno vinto la
competizione tra le alternative concorrenti. C’è però un solo equivalente in ogni lingua che abbia
lo stesso stile, la stessa funzione, la stessa occorrenza tra lo stesso tipo di persone e nello stesso
tipo di situazioni. Un meme va quindi tradotto con un meme. Il valore dell’impatto memetico di
ogni espressione linguistica è un utile parametro per misurare la corrispondenza interlinguistica. E’
memetico lo slang dei giovani, l’uso traslato del lessico, l’uso degli eponimi, dei modi di dire, l’uso
idiomatico degli slang pubblicitari.
4 – IL BILINGUISMO, LA MENTE INTERLINGUISTICA E I PROCESSI TRADUTTIVI UMANI:

1. La prospettiva neurolinguistica:

1.1. La lateralizzazione del linguaggio:


L’encefalo è composto da: tronco encefalico, cervelletto e cervello; queste strutture sono formate
da due tipi di cellule: i neuroni, e le cellule della glia, considerate “ di supporto” ai neuroni.
I neuroni hanno la funzione di conservare ed elaborare i dati in entrata e uscita, e sono
particolarmente soggetti a mutare la propria struttura in base alla frequenza con cui vengono
attivati e alla co-attivazione combinatoria di altri neuroni. Sono dotati di un nucleo, di un lungo
filamento (assone) da cui partono ‘ramificazioni’ di diversa lunghezza, dette dendriti, attraverso i
quali il neurone riceve e trasmette informazioni mediante processi elettrochimici che si
concentrano nello spazio sinaptico; questi processi consentono “conversazione fra le cellule
nervose”. La parte anteriore dell’encefalo (telencefalo) è costituita da due emisferi separati, ma
collegati dal corpo calloso, un fascio di oltre due miliardi di fibre nervose, la cui funzione è di
garantire che le informazioni ricevute da entrambi gli emisferi convergano in un continuum
mentale coerente. Gli emisferi sono la sede della corteccia cerebrale, la parte evolutivamente più
recente del cervello e sono entrambi composti da quattro lobi (frontale, parietale, temporale,
occipitale). Nella parte sottostante, subcorteccia, si trovano le strutture filogeneticamente più
antiche: il talamo, l’ipotalamo, i gangli della base, l’amigdala. Gli emisferi sono collegati a queste
strutture sotto-coricali da circuiti detti cortico-sottocorticali, che testimoniano l’interazione tra
funzioni automatiche, cognizione e pensiero consapevole.
I due emisferi sono quasi simmetrici. Oggi permane l’idea che la sede anatomica del linguaggio sia
tout court l’emisfero sinistro, idea nata nella seconda metà del XIX secolo dagli studi di Wernicke e
Broca su pazienti affetti da disturbi del linguaggio: gli esami autoptici post mortem avevano
dimostrato in questi pazienti una correlazione tra i loro specifici sintomi e le lesioni in due aree
dell’emisfero sinistro, chiamate appunto “area di Wernicke” (nel lobo temporale sinistro) e “area
di Broca” (nel lobo frontale sinistro). Le aree di Wernicke e Broca venivano indicate come sede,
rispettivamente, della comprensione e della produzione del linguaggio. Si era notato che una
lesione in un’area non comprometteva l’altra. Negli ultimi decenni, tuttavia, sono emerse alcune
perplessità e importanti distinzioni: Gregory Hickok conclude che nessun danno a qualsiasi punto
dell’emisfero sinistro causa deficit importanti relativamente ai suoni, che sono il fondamento del
linguaggio verbale; i deficit si hanno solo in presenza di danni bilaterali (al lobo temporale
superiore di entrambi gli emisferi). A supportare l’ipotesi di una correlazione tra componenti della
lingua e corrispondenti aree cerebrali “dedicate” era stata anche la nota teoria composizione le
del linguista Saussare che aveva proposto la distinzione tra langue (insieme condiviso delle regole
e del lessico) e parole (realizzazione soggettiva degli enunciati), e anche quella tra signifiant
(significante o suono della parola) e signifié (significato o referente semantico). Questa
classificazione ha contribuito a considerare “linguistiche” le sole funzioni “localizzate”
nell’emisfero sinistro, ovvero la fonetica (insieme dei suoni articolati dall’apparato fonatorio), la
sintassi (insieme delle regole combinatorie dei costituenti della frase), il lessico (insieme dei singoli
lessemi). Se questi fossero davvero i soli elementi “linguistici” l’emisfero sinistro sarebbe davvero
“l’emisfero linguistico” e quello destro sarebbe la sede di funzioni “extra-linguistiche”.
Lo studio successivo dei sintomi legati alle disfunzioni del linguaggio ha messo ulteriormente in
discussione la visione “localizzazionistica”, dimostrando che nella realtà comunicativa concreta la
produzione/comprensione della lingua non si limita all’emisfero sinistro, ma coinvolge anche
quello destro e persino le aree sottocorticali. L’ipotesi di una lateralizzazione del linguaggio era
stata messa in discussione già dagli studi di Freud sulle afasie nel 1891, che evidenziavano il ruolo
associativo del linguaggio complesso, la sua essenza metaforica e il ruolo di entrambi gli emisferi.
Le sue intuizioni sarebbero state riprese a fine del 1900 dal russo Aleksandr Lurija che ipotizzava
che l’attivazione delle funzioni cognitive, comprese quelle linguistiche, dipendesse dalla
cooperazione di innumerevoli aree cerebrali ed elaborava un modello modulare del linguaggio,
secondo cui diverse funzioni sarebbero state organizzate in una rete di circuiti cerebrali.
Come rilevano importanti studi psico- e neurolinguistcici via sono fondamentali funzioni del
linguaggio verbale processate prevalentemente dall’emisfero destro (quella prosodica,
intonazionale e metaforica) che sono indispensabili a un funzionamento efficiente della
comunicazione verbale e sono cruciali all’acquisizione della L1; numerosi dati, quindi, si
oppongono al pregiudizio che aspetti importanti del linguaggio siano componenti “extra-
linguistiche”. Che le intonazioni scoiano fattori “extra-linguistici” è contraddittorio se si assume
che la sintassi sia una componente “linguistica”: spesso l’intonazione è indispensabile a
disambiguare l’interpretazione sintattica. Altmann analizza, ad esempio la frase inglese “Time flies
like an arrow”, interpretabile in modi diversi al variare dell’intonazione. Una mutazione
intonazionale può addirittura trasformare una frase nel suo contrario, come illustra la frase russa
“Kaznit’ nel’zja pomilovat’!”, la cui disambiguazione grammaticale è data solo dall’intonazione:

“Kaznit’ ESCLAMATIVO+PAUSA nel’zja pomilovat’!” (Giustiziare, non si deve graziare!)


“Kaznit’ nel’zja ESCLAMATIVO+PAUSA pomilovat’!” (Giustiziare non si deve fare, graziare!)

Le lingue parlate utilizzano le intonazioni secondo algoritmi complessi, ma precisi, come utilizzano
le regole grammaticali, lessicali e fonologiche: anche le ambiguità intonazionale possono essere
formalizzate. Nelle lingue dei segni, funzione analoga hanno la gestualità e l’espressione degli
occhi. Ulteriori argomentazioni contrarie all’idea dell’ “emisfero linguistico” vengono dall’ambito
della patologia. Negli anni Ottanta Oliver Sacks aveva descritto alcuni pazienti a fasi i che avevano
perduto le abilità linguistiche tipiche dell’emisfero sinistro, ma riuscivano a cogliere aspetti
fondamentali dei messaggi verbali grazie ai parametri intonazionali (il loro emisfero destro era
intatto). Altri pazienti affetti da incapacità di riconoscere le intonazioni, pur avendo intatte le
capacità linguistiche dell’emisfero sinistro, erano del tutto invalidati nella comunicazione verbale.
Lo stesso accade a pazienti che per una lesione all’emisfero destro hanno perso la capacità di
afferrare il significato relativo al contesto oppure le capacità metaforiche: capiscono tutto ‘alla
lettera’. Inoltre, si sa che pazienti con l’emisfero sinistro lesionato e incapaci di parlare riescono a
rispondere correttamente a un test di identificazione immagine/parola nel 77% dei casi. Se si
aggiunge il coinvolgimento nel linguaggio verbale di strutture sottocorticali, il cervello umano
sembra concorrere nella sua interezza alla produzione e comprensione richieste da una
comunicazione verbale efficiente, fluente e completa.
E’ accettato da tutti che l’emisfero destro gestisca fondamentali aspetti pragmatici della lingua
importanti quanto la grammatica della frase; eppure molti continuano a considerare la pragmatica
come “extra-linguistica”, quando invece è il livello più complesso della produzione/comprensione
del linguaggio umano: non c’è pragmatica senza grammatica, senza lessico, senza prosodia e senza
ortoepia, allo stesso tempo la comunicazione linguistica senza abilità pragmatiche non è humalike.

1.2. I circuiti della memoria e l’apprendimento:


Non esiste una singola “memoria linguistica”, né una singola “memoria globale”. La parola
“memoria” è un lessema polisemico usato sia come termine neuroscientifico che come concetto
vago e astratto (sia i “ricordi”, che la “capacità di ricordare”). Esistono diverse specifiche modalità,
strutture e circuiti neuronali che il cervello impiega per estrarre ed immagazzinare i dati
dell’esperienza, e per renderli accessibili a livello conscio e/o inconscio durante i processi di
richiamo delle tracce mnestiche (memory recall).
In neurofisiologia, il termine memoria indica i processi elettrochimici che consentono il richiamo
dei dati o delle procedure apprese e per, “richiamo”si può intendere “l’espressione della risposta
comportamentale modificata in qualche tempo successivo all’apprendimento iniziale”. Molti
ricordi immagazzinati accomunano gruppi e sotto-gruppi di persone che condividono l’esperienza
di stimoli che innescano ricordi simili: tra questi stimoli condivisi vi sono quelli linguistici, che
costituiscono oggetti mnestici complessi e mutevoli. Le persone possono comunicare proprio
perché, condividono le memorie ma anche perché condividono le mutazioni memetiche a cui è
continuamente assoggettata la lingua. Infatti, esiste tra tutti “interpretante“ una base universale
dei “significati“, cioè delle associazioni tra parole, oggetti, sensazioni, valori. Tutti gli umani
tendono a legare le parole agli stessi concetti ma catalogano parole e concetti in base a esperienze
dirette o indirette che sono condivise a livello universale o parziale. A mano a mano che si
importano gli oggetti, le esperienze e le parole, si modificano i concetti. Le parole di una lingua
vengono registrate nel cervello secondo una rete che ne determina il significato, seguendo
“Determinati schemi“ e e quindi non ha senso attribuire “il modo di procedere del nostro pensiero
al significato delle parole“: il significato non è una proprietà della parola, ne “il contenuto”, bensì
la sintesi di uno schema associativo che si attiva quando il cervello è stimolato da un determinato
innesco (trigger). Gli esseri umani non hanno bisogno di fare sempre esperienza diretta per
conoscerne qualcosa, condividono un enorme quantità di esperienze dirette; noi memorizziamo
un’enorme quantità di esperienze altrui, trasmesse mediante canali di comunicazione indiretta: La
narrazione orale, la letteratura, la pittura, la scultura, la fotografia, le riprese cinematografiche. La
tendenza umana a memorizzare e a trasmettere le esperienze agli altri riflette una predisposizione
innata della nostra specie, e ogni ricordo, diretto o indiretto, e sempre a suo modo “vero”:

“In the end what’s the difference between actual, personal memories and pseudo-memories?
Very little. There is no absolute and fundamental distinction between what I recall from having
lived through it myself and what I recall from others’ tales.”

La lingua è uno dei principali veicoli che consentono all’esperienze dirette di qualcuno di divenire
esperienza indiretta di altri: Ogni “immagine acustica“ produce una “modificazione nello stato di
coscienza dell’uditore e, in particolare, nei suoi piani di azione e nel suo comportamento reale“. Le
rappresentazioni interne al cervello sono probabilmente “ all’origine dell’evoluzione culturale“;
questo vale anche per le memorie esterne che conservano la rappresentazione linguistica delle
esperienze e del pensiero individuale. Ogni cervello umano è “mappato“ a livello individuale
dall’esperienza diretta e indiretta, ma i meccanismi che governano i processi di interazione tra
esperienza e neurofisiologia sono universali. Nei cervelli umani non tutti ricordi hanno la stessa
probabilità di sopravvivere e di essere riattivati. Le parole sono “inneschi“ che vengono
memorizzati meglio se I concetti cui sono legati sono emotivamente e socialmente rilevanti.
Quindi, ti ricordi umani più longevi e resistenti sono quelli conformi ai giudizi di valore positivi
dell’ambiente culturale circostante: “Nel cervello le popolazioni sinaptiche che soddisfano i criteri
stabiliti dai sistemi di valore hanno maggiori probabilità di sopravvivere e di contribuire alla
produzione di comportamenti futuri”. Anche se può dipendere in parte dalla predisposizione
genetica, lo sviluppo anomalo di abilità mnestiche necessita di essere addestrato. È
l’apprendimento a produrre “drastica variazioni nelle mappe corticali“ rispetto a com’erano prima
dell’addestramento. E’ grazie all’allenamento che si producono variazioni a livello genico che
fanno memorizzare nozioni e procedure. I geni rispondono alle stimolazioni ambientali.
L’apprendimento implica sia la comparsa di nuove sinapsi, sia la sparizione di sinapsi preesistenti,
modificando la struttura genica dei neuroni e condizionando la produzione di specifiche sostanze
chimiche indispensabili alla formazione di nuovi circuiti neuronali. La perdita di un tipo di memoria
e non di un altro ha permesso di comprendere che non esiste una memoria unica, ma modalità
diverse di conservazione e richiamo dei ricordi. Le diverse memorie si differenziano per i compiti
che assolvono, per le strutture cerebrali e per una certa autonomia funzionale. La prima
importante distinzione e tra memoria implicita (inconscia) e memoria esplicita (cosciente).
Dell’immensa quantità di ricordi solo una piccola parte è accessibile al controllo della coscienza: “il
98% di quello che fa il cervello è al di fuori del dominio della coscienza”. Alcune forme di
apprendimento utilizzano sia la memoria esplicita, sia la memoria implicita, è la continua
ripetizione a consentire di trasformare i dati consapevoli in procedure. Memoria implicita
procedurale agisce grazie alle ripetizioni, all’esercizio e procede a velocità superiore al pensiero
cosciente. Quando parliamo “non pensiamo in quale punto della frase mettere il sostantivo o il
verbo. Lo facciamo in automatico, inconsciamente“. La memoria dichiarativa (o semantica“)
permette di conservare i ricordi rendendoli accessibili alla coscienza: ricordiamo e ricordiamo di
ricordare un’informazione. Un’altra fondamentale distinzione è tra memoria lungo termine e
memoria a breve termine (o memoria di lavoro); in entrambi i casi, la memoria è innescata da
stimoli sensoriali impliciti o espliciti, da stimoli somatici dell’organismo, dalle nozioni esplicite e
dalle emozioni. Grazie alla ripetizione degli stimoli, avviene il potenziamento dei circuiti neuronali
e la mappatura a lungo termine del ricordo. Il sistema mnestico emotivo è un importantissimo
“Centro di transito delle esperienze soggettive“ indispensabile per creare “il sentimento emotivo
cosciente“. La memoria esplicita di lavoro è immagazzinata nella corteccia prefrontale; la
conversione di questa in memoria lungo termine pare avvenga nell’ippocampo, mentre i dati
permanenti sono immagazzinati nelle aree della corteccia; la memoria procedurale “è
immagazzinata nel cervelletto, nello striato e nell’amigdala“. Apprendere significa ricordare, ma
non necessariamente sapere che si sta ricordando. Secondo il modello generale classico, esistono
due macro tipologie Di apprendimento. Quello non associativo è innescato da uno stimolo preciso,
è registrato a livello implicito e non implica la costruzione di schemi mentali complessi. La più
semplice modalità di apprendimento che coinvolge sia la memoria a breve termine, sia quella
lungo termine è definita abituazione e consiste “nella diminuzione della risposta comportamentale
dovuta alla presentazione ripetuta di uno stimolo iniziale“: è un assuefazione graduale a uno
stimolo ricorrente. La modalità antitetica è la sensibilizzazione, ovvero il rafforzamento di una
risposta. Diverso è l’apprendimento associativo a lungo termine; basandosi sulle sinapsi determina
una rete di concetti più o meno gerarchicamente ordinati, richiamando un elemento della rete
rappresentativo si attiva la rete intera. In questa tipologia rientra il condizionamento classico
pavloviano; L’associazione di uno stimolo condizionato che prima era neutro si associa a uno
stimolo incondizionato e “innesca un’azione riflessa“. L’apprendimento necessita di un filtro per
selezionare gli stimoli più importanti: si può avere un’attenzione involontaria. L’attenzione
cosciente supporta la memorizzazione esplicita, quella involontaria supporta la memorizzazione
implicita. L’apprendimento implica la selezione delle mappe utili e la de-selezione delle mappe
superflue. Un importante supporto all’apprendimento è dato dallo stato di eccitazione e dalla
motivazione. Se l’eccitazione è positiva facilita il ricordo, se è troppo agisce negativamente e si
genera l’ansia che ostacola i ricordi. La motivazione è “l’attività neurale che in strada in direzione
dei nostri obiettivi“.

1.3. Acquisizione e apprendimento della lingua:


Esiste una differenza cruciale tra acquisizione delle procedure e apprendimento delle regole che
sottostanno alle procedure: l’acquisizione avviene bottom up, grazie alla ripetizione e alla
conseguente introiezione dei pattern linguistici nelle memorie implicite. L’apprendimento utilizza
top down la memorizzazione esplicita delle regole che vengono studiate. Un bambino monolingue
prima acquisisce la L1 e solo dopo apprende le regole dell’elle uno che sa già applicare. Un adulto
che affronta lo studio di una L2 segue il processo inverso. Per ottenere un bilinguismo di livello
professionale la L2 deve raggiungere il livello di acquisizione procedurale. Le memorie implicite
sono le uniche di cui dispongono i bambini fino agli 8-10 mesi, e fino a tre anni circa, restano
dominanti; l’iniziale impossibilità di apprendimento esplicito aiuta i bambini ad acquisire la lingua
nativa grazie all’imitazione e a un dispositivo linguistico (il LAD) Che permette loro di inferire in
consciamente le regole grammaticali generali da una quantità non infinita di esempi particolari;
questa capacità innata e spontanea riguarda il riconoscimento e l’articolazione dei suoni, le regole
morfologiche, e quelle che determinano la formazione e la collocazione delle parole nella frase. Il
primo stadio di acquisizione è quello prosodico: probabilmente, dice Altman, un neonato sente la
voce umana come un adulto ascolta una canzone in una lingua che non conosce. Grazie al ritmo e
ai picchi intonazionali, Il bambino impara a riconoscere la lingua della madre quando è ancora in
gestazione; una volta venuto al mondo limita e la pratica, senza prendere nulla sulla lingua finché
non va a scuola. Quale che sia l’origine e la funzione del LAD, per attivarlo, serve un istinto
imitativo e un continuativo esercizio di ripetizione. La ripetizione a fine imitativo è stato il
fondamento delle teorie Di Vygostkij e Lurija: i bambini non fanno che ripetere quello che sentono
dai loro genitori. Senza ripetizione non si rinforzano le abilità fonatorie, intonazionali, lessicali. Non
si è ancora stabilito se il linguaggio umano sia un meccanismo filogeneticamente indipendente
(posizione chomskiana) o se sia il risultato di una specializzazione evolutiva (esadattamnento) di
compiti motori. La prima ipotesi considera secondarie ripetizione e imitazione, la seconda le
ritiene fondamentali. Cardona (2010) rileva l’impossibilità di insegnare una L2 senza disporre dei
dati scientifici sul funzionamento delle memorie, ma ritorna su alcuni pregiudizi, tra cui quello che
esista una predisposizione naturale alle lingue: qualunque umano con un cervello funzionante è
naturalmente portato ad acquisire le lingue, sebbene esistano persone più motivate a “ elaborare
strategie che consentano di strutturare e organizzare l’apprendimento in modo efficace e
produttivo“. Un bimbo impiega molto più tempo a memorizzare lessemi e procedure della L1 di
quanto ne serva a uno studente di L2, ma il bimbo è costantemente gratificato. In sintesi a pochi e
noto che qualsiasi procedura linguistica richiede l’addestramento della memoria procedurale
implicita perché, per qualsiasi abilità è la pratica che “porta alla perfezione”.

1.4. Il cervello bilingue: apprendimento e acquisizione della L2:


Gli studi sperimentali sul bilinguismo evidenziano l’impossibilità di definire e classificare i bilingui
in modo univoco. Il dibattito sulla rappresentazione cerebrale del bilinguismo è stato influenzato
dall’assioma della lateralizzazione del linguaggio e dei pregiudizi sulla facilità di acquisizione delle
lingue nell’infanzia. E’ noto che tutti i bambini acquisiscono spontaneamente una L1, quella
dell’ambiente che li accudisce: chi ha the privato di questa possibilità dopo quell’età non riesce più
ad acquisire una L1 come un nativo, può imparare ad esprimersi solo in modo incompleto. Si usa
distinguere tra bilinguismo precoce, che è (inizialmente) coordinato e bilanciato (cioè in parallelo e
di uguale livello), il bilinguismo tardivo, che è subordinato, in quanto la L1 è dominante sulla L2.
Secondo tale approccio non si misura cosa sa fare un bilingue con le due lingue, ma quando è
entrato in contatto con la L2. Si differenzia a priori chi acquisisce parallelamente L1 e L2 da chi
entra in contatto con la L2 a distanza di anni dalla nascita; si pensa che è un bilinguismo precoce
sia sempre migliore di uno tardivo.è così solo in certi casi. Esisterebbe, quindi, una soglia critica
oltre la quale non sarebbe più possibile acquisire una L2 in modalità nativelike. La soglia sarebbe
collocata in un arco di tempo che va dai tre anni di età alla primissima adolescenza. È probabile
che esista almeno parzialmente questa soglia critica; però la soglia è comunque soggettiva e
condizionata da altri parametri. Poiché nella vita di un bilingue precoce la dominanza tra L1 e L2
può alternarsi, sempre più spesso si cambia luogo di residenza, ambiente familiare e lavorativo, un
bilinguismo perfettamente bilanciato nello stesso periodo non esiste mai. L’ipotesi della soglia
critica e contro-argomentabile In base a tre considerazioni:
1) In età adulta si può acquisire una L2 in modalità nativelike;
2) Per alcuni bilingui tardivi, la L2 può diventare dominante;
3) Spesso i figli di migranti o i ragazzi adottasti dall’estero, pur entrati a contatto con la L2
dopo gli otto-dodici anni di vita, addirittura perdono la capacità di parlarla come ‘stranieri’
o a non capirla nemmeno più.

Il fenomeno di perdita della lingua è detto attrition o sfaldamento. Questo può riguardare sia la L1
che la L2, e a volte entrambe. Lo sfaldamento è causato di solito dalla mancanza di esercizio
dovuta a forti concause socio-psicologiche, familiari, culturali: tra queste fondamentale è “il
disvalore“ della L1 rispetto alla L2. Per un ragazzino la L2 parlata durante l’adolescenza nel paese
nuovo tende a cancellare totalmente la L1. Sta ai genitori trasmettere ai figli il rispetto e l’affetto
per la L1, aiutandoli a conservarla anche di fronte a vergogna, resistenza e rifiuto. I primi sintomi
dello sfaldamento della L1 nei bilingui si manifestano sotto forma di confusione tra le due lingue.
La commutazione incontrollata è un segnale di confusione tra i due sistemi. Nemmeno la capacità
di tenere le lingue separate, ovvero di “etichettarle“. Questo capita i bilingui che vivono in un
ambiente in cui L1 e L2 vengono confuse; loro senza accorgersene mischiano elle uno e L2 e non si
rendono conto di produrre messaggi ibridi, comprensibili solo a chi condivida la stessa confusione.
Il fenomeno è dovuto in buona parte all’incapacità di rispettare una stabile correlazione tra lingua
e luogo (“one place, one language”), e tra lingua e persona (“one person, one language”). La
confusione si manifesta sia come switching incontrollato, che come “code-mixing”; nel secondo
caso si perde la capacità di tenere separate L1 e L2 che si mescolano strutturalmente tra loro.
Entrambi i livelli di confusione linguistica colpiscono numerosi migranti di prima generazione. Sono
state avanzate definizioni di bilinguismo basate sulle reali prestazioni linguistiche. Secondo Myers-
Scotton, il bilinguismo sarebbe “l’abilità di usare due o più lingue in modo sufficiente da gestire
una circoscritta conversazione casuale“. Si può definire “bilingue“ una persona cui è praticamente
indifferente in quale delle due lingue vivere qualsiasi situazione. L’idea è che i canali
dell’apprendimento e quelli dell’acquisizione non siano del tutto scollegati come invece sostiene
Paradis (2009):

“only implicit components of input become intake for acquisition – not what is noted, but what is
implicitly abstracted. By definition, nothing implicit can be observed, let alone noticed”

Se L2 è utilizzata troppo lentamente tende a essere rappresentata in aree corticali, solo se è stata
introiettata in modo procedurale, interessa anche le strutture sottocorticali. Nel bilinguismo
adulto si può agire in modo sinergetico, Cosa impossibile con i bambini. Un adulto tenderà a
privilegiare la memoria dichiarativa e a opporre resistenza all’addestramento procedurale. È
quindi possibile è utile alternare il canale esplicito a quello implicito. Per creare situazioni simili
all’acquisizione della L1 si dovrebbe partire dalla comprensione passiva, sensibilizzando alle
variazioni prosodica e lasciando la scrittura come compito ultimo. Il percorso adulto verso la L2 si
differenzia dall’acquisizione della L1 per il ruolo della lettura, che va sfruttata come mezzo per
migliorare l’acquisizione della lingua, evitando che diventi un fine. È utile che qualsiasi esercizio in
L2 venga svolto alta voce. Il fatto che i neuroni dei circuiti procedurali possono modificarsi
strutturalmente quando si acquisisce una L2 supporta l’ipotesi della convergenza,; secondo questa
a mano a mano che la competenza operativa in L2 aumenta e un soggetto riesce a fare in L2 quello
che sa già fare in L1, i circuiti cerebrali dedicati alle due lingue tendono a sovrapporsi: quanto più
la grammatica è introiettato e quanto più si sovrappongono i sistemi neuronali della L1 e della L2,
tanto più è alto il livello di bilinguismo tardivo. Secondo Paradis L1 e L2 sarebbero due sottosistemi
del sistema del linguaggio. Si può ipotizzare che nei bilingui precoci entrambe le lingue siano
rappresentate nelle stesse aree cerebrali e che nei bilingui tardivi con alto livello di competenza in
L2 i sistemi neuronali delle due lingue tendano a convergere come nei bilingui precoci.

2. Proposta teorica sui processi traduttivi umani (PTT):

2.1. L’ipotesi del Translation Device:


Il bilinguismo non è sufficiente per poter tradurre. Come dice Paradise “trovare un producente
equivalente su richiesta è un compito difficile per bilingui fluenti che non siano interpreti
professionisti“. L’assenza di esercizio e la mancanza di preparazione teorica impediscono:
- di richiamare alla memoria il traducente nel tempo a disposizione,
- di applicare un preciso criterio di selezione se più traducenti-output si attivano in risposta
all’input della lingua di partenza,
- di sovrapporre l’emissione della traduzione in uscita all’ascolto del testo in entrata.

Le osservazioni e i dati suggeriscono che esista un Translation Device, Un dispositivo neuro-


funzionale di traduzione in dotazione ogni essere umano bilingue che lo rende potenzialmente
in grado, previo addestramento:
- di passare da una delle due lingue all’altra,
- di mantenere separate le due lingue,
- di convertire i messaggi da una lingua all’altra in modalità nativelike.

Quest’ipotesi è logica, intendendo il TD come dispositivo che lavora in modo indipendente. Sono i
disturbi del linguaggio in pazienti bilingui offre una rappresentazione dell’autonomia dei processi
traduttivi rispetto alla comprensione o produzione di una lingua. La letteratura scientifica descrive
i sintomi di diverse forme di anomalie traduttive, che comprendono:
- impossibilità a tradurre nelle due direzioni pur potendo parlare le due lingue,
- traduzione spontanea: impulso incontrollato a tradurre tutto,
- traduzione senza comprensione: il paziente non comprende il testo da tradurre, ma lo
traduce,
- traduzione paradossale: il paziente può tradurre solo in una delle due lingue, quella in cui
non riesce più a parlare spontaneamente.

Quando un cervello bilingue è pienamente funzionante, dispone di un TD che consente di tradurre


da una lingua all’altra, potendole al contempo parlare e capire entrambe, tenendo le distinte tra
loro. I compiti del TD non sono limitati al cervello bilingue, ma riguardano qualsiasi cervello
monolingue: il TD lo rende capace di traduzioni intra linguistica. Il TD riguarda e accomuna sia la
traduzione intralinguistica che la traduzione interlinguistica. Per diventare fluenti è necessario
esercizio per saper usare formule diverse in contesti diversi. Si assuma la definizione di contesto
come correlazione di fattori precisi, quella tra wh-factors:

WHO is saying WHAT to WHOM, WHEN, WHERE, WHY


CHI dice COSA a CHI, QUANDO, DOVE, PERCHÉ

La capacità di variare le formule in base al contesto richiede un enorme addestramento. Nei primi
anni di acquisizione della lingua i bambini non si preoccupano di sbagliare variante.
L’addestramento alle varianti contestuali, basato sulla memorizzazione del feedback contestuale
parrebbe quasi identico nell’acquisizione della L1 e della L2 in età adulta. Il TD darebbe agli umani
la facoltà di riformulare in un altro sotto-codice della stessa lingua e di tradurre da una all’altra
lingua naturale. Come sostiene Paradis in un cervello bilingue agiscono gli stessi meccanismi di un
cervello monolingue. L’ipotesi di un TD può implicare che l’addestramento alla differenziazione tra
codici sia fondamentale per la traduzione interlinguistica:
- se un monolingue dispone implicitamente dell’abilità di selezionare le varianti del sotto-
codice della L1 in base al contesto, allora un bilingue sa selezionare le varianti del sotto
codice della L2;
- se un bilingue viene addestrato in base a parametri di equivalenza a convertire le variabili,
allora impara a tradurre nella L1 le varianti L2 equivalenti in base ai parametri dati.

L’attivazione e il rinforzo del TD possono avvenire sia esercitando la memorizzazione di procedure,


sia con l’esercizio personale, sia in condizioni spontanee. Prima di pensare alla traduzione scritta,
per l’addestramento sono indicate la traduzione simultanea o consecutiva in ascolto e la
traduzione a vista: rendono più rapido il richiamo e il rinforzo di corrispondenze tra le due lingue. E
nei circuiti di memoria di un bilingue in allenamento si formano e si rinforzano nuove connessioni
neuronali che generano un “ipertesto“ bilingue. Le conoscenze dichiarative possono facilitare il
ricorso alle strategie euristiche necessarie in situazioni nuove, che chiedono aggiustamenti
procedurali. Si consideri l’evidenza empirica che:
1) addestrando sia riformulare nella L1 si migliorano le abilità a tradurre da una lingua
all’altra;
2) traducendo da una L2 in L1, migliorano le abilità nel tradurre da qualsiasi altra L3;
3) Sebbene l’addestramento alla traduzione L2-> L1 non corrisponda in modo diretto a quello
contrario, lo facilita.

La traduzione verso le lingue più debole è sempre meno nativelike, ma si velocizza comunque in
proporzione all’esercizio in direzione opposta.

2.2. Generalità:
La generalità è una condizione fondamentale per un modello teorico rigoroso. Un modello teorico
sulla traduzione deve partire dal massimo livello di generalizzazione e solo al suo interno
comprendere le particolarità dei singoli casi. La prima ambizione del modello è quella di
comprendere bottom up che cosa comuni tutte le traduzioni che funzionano, così da risalire a un
principio generale di equivalenza comune a:
A) Tutte le tipologie testuali
B) Tutte le coppie di lingue
C) Tutti i formati testuali

Un modello teorico parte dalle analogie e considera le particolarità e le differenze come elementi
costitutivi della soluzione generale. Se CRITERIO X è la soluzione generale per la traduzione
costruita sulla previsione delle differenze, sia l’algoritmo:
se TRADUZIONE (generale), allora CRITERIO X (generale)
se TRADUZIONE (problema particolare), allora CRITERIO X (caso particolare)

Quindi il modello deve stabilire quali parametri e strategie segue sempre un traduttore per uscire
in modo ottimale: 1) a suddividere un testo in unità traduttive minime; 2) a selezionare in un
tempo massimamente breve una e una sola tra le opzioni traduttive considerate nella sua mente;
3) a inibire tutte le altre opzioni.
Il primo compito di traduttore e procedere a suddividere le porzioni di testo in unità traduttive
minime compatibili con la memoria di lavoro, il secondo è selezionare un traducente per ogni
unità considerata, de-selezionando tutti gli altri. Tradurre è saper scegliere, saper escludere tutte
le opzioni tranne una. Il modello proposto detto PPT è un primo tentativo di realizzare questo
compito. Il concetto fondamentale del modello è quello di equivalenza. Per poter definire due testi
‘equivalenti’, è indispensabile negoziare una definizione del concetto stesso di “equivalenza“.
Nella storia della traduttologia, esistono innumerevoli tipologie di equivalenza parziale. È
indispensabile trovare un concetto di equivalenza traduttiva: un’equivalenza generale che
comprende in sé alcuni o tutti i livelli di equivalenza parziale e che quindi sia misurabile al più alto
livello complessivo del messaggio.

2.3. Sul concetto di “equivalenza” (tra matematica e lingua naturale):


Se si chiede matematici diversi quali delle seguenti operazioni siano un “equivalenze” e o
“uguaglianze”, non si ha una risposta uanime:

8=8 8=5+3 4+4=2x4 1kg=1000g pi/=3.14

Tutti i converranno sul fatto che, tranne 8 = 8, in tutti gli altri casi ci sono due cose diverse da una
parte e dall’altra del segno di uguaglianza; converranno anche che pi/=3,14 è semplicemente
un’affermazione sbagliata, è un’uguaglianza approssimata. Come suggeriva Paul Davies “La
geometria euclidea rimane un’ottima approssimazione nella maggior parte delle circostanze“. Le
analogie tra matematica e traduzione sono molte, ma l’entropia in traduzione e in molti casi
decisamente inferiore. Anche per i matematici esistono i concetti di “invarianza” e “variante”: lo
stesso teorema può avere una dimostrazione algebrica e una geometrica “che dicono la stessa
cosa”, ma in modo diverso, con due linguaggi diversi. Douglas Hofstadter nel suo celebre volume
del 1979 si chiede3 quando due cose siano “la stessa cosa”, quando si abbia l’uguale nel diverso”.
Il termine traduzione viene da lui usato proprio per intendere la riformulazione matematica che ha
molto in comune con quella verbale. Il simbolo di “uguaglianza” può indicare sia “equivalenza” che
“uguaglianza”, ma anche “identità”. Il concetto di equivalenza dovrebbe essere meno rigido
rispetto a quello di uguaglianza o di identità. Un numero infatti è identico solo a se stesso (8=8),
così come un messaggio; un numero può essere uguale (ma non identico) alla somma di due
numeri (8=5+3), come la parola “ragazzino“ può essere uguale (ma non identica) alla somma di
due parole in un’altra lingua, per esempio “little+boy”. È difficile convincere la maggior parte degli
studiosi che la traduzione interlinguistica funzioni in modo analogo alla geometria, e che la
retroversibilità in traduzione è straordinariamente frequente è molto infrequente in matematica.
Henri Poincare ha definito la matematica “ L’arte di dare lo stesso nome a cose diverse”; la
traduzione è l’arte di dare nomi diversi alla stessa cosa, l’abilità di trasformare ogni unità del TP in
un unità “equivalente” del TA. In entrambi casi è questione di codici, di regole e di contesti. Se ci
chiediamo quale sia “la stessa cosa” di due enunciati linguistici, le cose sono diverse rispetto alla
matematica, perché il contesto è parte stessa della comunicazione. Nel linguaggio ogni variante
aggiunge informazioni diverse al variare del contesto. L’informazione di un enunciato linguistico,
pur non numerico, è comunque un risultato, un insieme di informazioni codificabili. “I cervelli non
lavorano sull’informazione nel senso dei computer, ma sul significato”, che è un processo non
riducibile a un numero di bit di informazione, ma anche l’informazione linguistica è formalizzabile
in somme di informazioni esplicite e implicite. Se ogni variante dentro una stessa lingua cambia le
informazioni, traducendo una stringa di una lingua in quella di un’altra, le stesse informazioni
possono essere Ri-codificate.
2.4. In variante, variante:
Il procedimento di traduzione da una lingua all’altra è simile a quello impiegato dai mono lingue
per riformulare gli enunciati in sotto codici della stessa lingua. In entrambi i casi si tratta di
riformulare una stringa di parole, senza che cambi il nucleo di informazione dell’enunciato, ovvero
l’invariante. Data una stessa in variante la si può codificare in forme diverse, dette varianti o
variabili. Mutando la variante, muta (magari impercettibilmente) l’informazione complessiva:
invariante + variante. La variante è determinato da tre fattori codificati nel messaggio:
- Caratteristiche diastratiche e diatopiche (provenienza sociale e regionale);
- Generale stato psico-emotivo del parlante;
- Specifico atteggiamento del parlante nei confronti dell’interlocutore.

Ogni variante ha codificate le informazioni su alcuni o su tutti questi fattori. Nella riformulazione
intralinguistica l’informazione complessiva (in variante più variante) cambia sempre, sebbene
alcune informazioni possono essere recepite solo a livello implicito. Al mutare della variante
cambia sempre l’informazione complessiva: non esistono, né possono esistere sinonimi all’interno
della stessa lingua, ma solo quasi-sinonimi. Questo vale per le locuzioni, per gli enunciati, per i
singoli lessemi e persino per le preposizioni e i morfemi. Nella traduzione interlinguistica è
possibile per ogni unità minima di partenza trovare un traducente in lingua d’arrivo che contenga
precisamente la stessa informazione complessiva, cioè la stessa invariante e la stessa variante.
Solo in questo caso si può parlare di equivalenza funzionale o f-equivalenza. La comunicazione
funziona perché l’interlocutore comprende l’invariante e anche l’informazione supplementare
espressa dalla variante. Bilinguismo e competenze teoriche sono quindi necessarie a un ottimale
processo traduttivo, ma sono sufficienti solo se concomitanti. Possiamo chiamare l’invariante il
cosa e la variante il come. Quando parliamo registriamo il come in modalità automatica, prestando
attenzione soprattutto al cosa. Quando il come disattende le aspettative, può diventare più
importante del cosa viene detto. In sintesi: la frequenza con cui compare nella lingua una
particolare sequenza sintattica può costituire un elemento di previsione più forte di qualsiasi altro.
Ma a volte, e a seconda del contesto, altri fattori possiedono una maggiore capacità di previsione.

2.5. L’orecchio interno:


È ipotizzabile che il TD possieda uno strumento appositamente atto a registrare ogni input
linguistico e a valutarlo: lo si può chiamare orecchio interno, o anche sotto-sistema di
riconoscimento dei suoni nel contesto. Se il come corrisponde alle attese, l’interlocutore non
presta attenzione alla variante; se uno dei livelli del come disattende le aspettative, l’enunciato
innesca l’attenzione dell’interlocutore che rileva un’informazione supplementare e ottiene dati
nuovi sull’invariante e sul parlante. La valutazione implicita e simultanea dell’orecchio interno è
una sorta di comparazione tra aspettative e contesto. Immaginiamo per esempio, la mamma che
cerca di dire qualcosa al papà mentre i bambini disturbano: suona normale “Ma volete stare un
po’ zitti!“. In questo contesto l’enunciato è definito non marcato, perché è normale che una
mamma seccata dica così. Si immagini invece che un moderatore a una conferenza usi lo stesso
messaggio rivolgendosi al pubblico, in quest’altro contesto l’enunciato sarebbe marcato e
informerebbe che il moderatore ha perso il controllo della convenzione comunicativa. Si pensi ora
a come valutiamo qualcuno che dica “non pensavo che veniva!“: se è un italiano nativo inferiamo
informazioni molto diverse rispetto al caso in cui sia uno straniero; se al difetto grammaticale si
aggiunge l’accento straniero, non scommettiamo più che la persona sia ignorante (marcatezza
negativa), ma semplicemente che stia imparando l’italiano e sia già in grado di farsi capire
(marcatezza positiva). Questo tipo di marcatezza è detta pragmatica o funzionale. L’orecchio
interno è il dispositivo che misura la f-marcatezza , che sollecita o inibisce l’attenzione al come è
stata formulata un’invariante (il cosa): si tratta di un circuito mentale di controllo della congruenza
contestuale degli enunciati-messaggi. L’orecchio interno relativo alla L1 viene esercitato fin dalla
nascita, può raggiungere diversi livelli di sofisticatezza. Uno studente dopo un esame può dire:
- Mi ha preso un colpo!
- Mi è venuto un infarto!,
- Me la sono fatta sotto!
Ma non dirà:
- Ho preso un colpo!
- Mi è venuto un infarto del miocardio!
- Ho evacuato!

L’orecchio interno di ogni parlante suggerisce automaticamente sei un enunciato è frequente e se


è attendibile in quel preciso contesto. Le persone si aspettano che il come corrisponda alle
aspettative contestuali. Applicato alla traduzione, l’orecchio interno entra in azione due volte: per
valutare l’input (enunciato di partenza), poi per verificare l’output (enunciato di arrivo); è come se
il traduttore selezionasse tutti i traducenti in base alla scommessa che, se l’emittente del
messaggio avesse usato la lingua di arrivo, avrebbe scelto quella e solo quella variante. Va
ricordato che i titoli sono un anomalia in ambito traduttologico, visto che spesso sono stabiliti
dagli editori e non dai traduttori, ma proprio per questo grazie alla loro funzione sono noti male
palestra per addestrarsi ai problemi della traduzione funzionale.

2.6. Marcatezza funzionale e f-equivalenza:


“Marcatezza” è di solito riferito alla struttura sintattica di un enunciato a bassa occorrenza: è
marcata una struttura poco usata, meno frequente rispetto alla struttura non marcata. In realtà un
enunciato frequente in un contesto non lo è in un altro. Se si computa il criterio statistico in base
ai dati contestuali ci si rende conto che la marcatezza è correlata a tutti gli elementi della lingua.
La f-marcatezza rappresenta il livello complessivo, gerarchicamente più alto della comunicazione
linguistica ed è un parametro universale per misurare il grado di competenza linguistica di un
parlante. Solo un alto grado di bilinguismo consente al traduttore:
1) di recepire la f-marcatezza dell’enunciato di partenza in L2,
2) di trovare un equivalente funzionale in L1 basato sul rapporto cosa barra come hai detto.
L’equivalenza misura la corrispondenza della f-marcatezza tra unità del TP e unità del TA rispetto
sia all’informazione dell’invariante sia all’informazione della variante.

L’orecchio interno consente di recepire l’f-marcatezza a livello implicito e subliminale. Quando si


traduce, un aspirante traduttore si esercita a valutare l’f-marcatezza e, solo dopo un prolungato
esercizio è in grado di automatizzare il processo di ricerca e di valutazione della f-equivalenza. È la
consapevolezza pragmatica a far selezionare l’opzione che rispecchia la stessa occorrenza nel
contesto. Mentre l’automatismo umano è il risultato di procedure addestrate, per ora i programmi
di traduzione sono quasi del tutto insensibili ai fattori contestuali. Il modello teorico afferma
quindi, che un testo in L1 è equifunzionale a un testo in L2 se ne conserva, unità per unità, la
stessa combinazione di informazione sul cosa e sul come. Se numerose unità tradotte non
corrispondono allo stesso livello di f-marcatezza delle unità di partenza, il complessivo equilibrio di
informazione si altera, creando un TA il cui potenziale funzionale è diverso nel suo complesso.
Grazie alla f-marcatezza si può misurare la f-equivalenza di qualsiasi coppia di testi paralleli, di cui
uno è la traduzione dell’altro. È la funzionalità contestuale che permette ad un traduttore:
- di selezionare, tra i possibili quasi-sinonimi del suo catalogo mentale, l’unico sinonimo che
contiene la stessa informazione complessiva dell’unità di partenza;
- di escludere (inibire) i quasi-sinonimi che aggiungono o sottraggono parte
dell’informazione.
La traduzione può essere vista come un processo di selezione di sinonimi equifunzionali. Una
perfetta taratura della f-marcatezza di un’unità dovrebbe garantire una sostanziale retroversibilità:
ritraducendo il TA in una lingua di partenza si dovrebbe, idealmente, ottenere il TP. La
retroversibilità non è sempre garantita, per due ragioni: o perché il TA non rispetta la f-
equivalenza, o perché anche nel caso di un traduttore professionista, la minima componente
soggettiva del suo orecchio interno crea sempre un inevitabile fenomeno di entropia. Questa è
comunque un’entropia molto minore rispetto a quella che impone la traduzione dal linguaggio
geometrico in quello algebrico: se un’equazione è traducibile in una e una sola figura geometrica,
la figura ottenuta può essere convertita a sua volta in un numero infinito di equazioni. Invece in
una traduzione professionale una frase ri-tradotta da un altro professionista si avvicina sempre
moltissimo al TP e rende comunque identificabile l’unità di partenza con quella di arrivo. Mentre
l’informazione invariante è fissa, la variante (come) può essere rappresentata su un piano
cartesiano che indichi in ordinate la distanza gerarchica tra parlante e interlocutore, e in ascisse
l’affettività: i due parametri si combinano in un preciso punto P che indica la dose di autorità,
paternalismo, cameratismo o neutralità. Il punto 0 dello schema, all’incrocio degli assi, indica
un’astratta neutralità presente solo nelle istruzioni o nella comunicazione tecnica scientifica. La
neutralità è sempre percepita dagli umani come distanza, quindi infastidisce che non abbia
dimestichezza con queste formule linguistiche. Paradossalmente, la neutralità può non innescare
una risposta neutrale. Nelle comunicazioni orali dei testi scientifici esistono sempre inflessioni
percettibili che rendono la comunicazione più autoritaria o più confidenziale. Gli enunciati e
collocabili al punto zero sono davvero pochi. Nel punto di massima gerarchia e di minima
affettività si ha l’autoritarismo che esprime distanza e superiorità espressa dal parlante; in quello
di massima gerarchia e di alta affettività sia il paternalismo che esprime una posizione di
superiorità, ma con affettività; nel punto di minima gerarchia e massima affettività si ha il
cameratismo. Secondo il modello teorico per ogni punto P del piano cartesiano della lingua di
partenza esiste un punto e uno solo che corrisponde alla stessa F-marcatezza sul piano cartesiano
della lingua di arrivo (cioè allo stesso rapporto come/cosa). Se tutti gli enunciati di un TA hanno la
stessa f-marcatezza dei relativi enunciati del TP, i due testi sono f-equivalenti e nel processo di
retroversibilità l’entropia è minima. Se due varianti della “stessa cosa”, nella stessa lingua, non
possono mai essere “la stessa cosa”, in due lingue diverse possono esserlo, dipende solo dal
traduttore: un professionista nella lingua di arrivo dovrebbe dire la stessa cosa della lingua di
partenza. La f-marcatezza è un parametro universale che può misurare l’alto grado di neutralità in
un testo tecnico e la massima creatività di un testo espressivo. Solo nel caso della poesia si
procede a una selezione delle varianti che rispetti la dominante testuale, assecondando la
funzione gerarchicamente più importante. È importante considerare che chiunque abbia scritto il
TP ha seguito un processo di selezione delle unità testuali non dissimile da quello della traduzione.
Questo implica che ogni autore di qualsiasi TP ha scelto di non usare altre varianti, in traduzione il
compito principale è non usare le varianti che l’autore avrebbe scartato.

2.7. Esemplificazione:
Un enunciato utile a illustrare l’applicazione del parametro della f--marcatezza è l’incipit del
romanzo breve di Dovlatov “La valigia” del 1986. L’equifunzionalità della traduzione italiana
dell’incipit è stata misurata in base al parametro della f-marcatezza:

All’ufficio per l’espatrio quella stronza viene a dirmi.

Il lettore può fidarsi che nessuna delle varianti scartate dall’autore sia quella del TA in italiano
perché il traduttore misurando la f-marcatezza complessiva, a de-selezionato le opzioni che
dicevano “quasi la stessa cosa”. Quale fosse introducente f-equivalente lo suggerisce la f-
marcatezza dell’enunciato di partenza:

V OVIRe eta suka mne i govorit.

Nell’incipit del libro l’autore suscitava deliberatamente nel lettore la sensazione di riprendere una
conversazione interrotta poco prima; questo “effetto cameratesco“ era dato dalla ricerca
dell’inflessione tranchant che caratterizzava la sua generazione di intellettuali sovietici,
ossessionati dal perfezionismo verbale, dei suoni, da una ricercata laconicità. Dovlatov limava la
struttura sonora, ritmica, estetica di ogni enunciato, selezionando solo quella che per lui era
perfetta, e perfetta significava credibile nel contesto comunicativo. L’unico modo per rifare la
stessa cosa era selezionare introducente con la stessa F-marcatezza scegliendo di tradurre:
- con un’esplicitazione dell’acronimo “OVIR” (“Sezione visti e registrazioni“, in epoca
sovietica il luogo dove si chiedeva il passaporto, si registravano gli stranieri e si otteneva il
“visto per l’espatrio”); la scelta che quell’esplicitazione fosse “Ufficio per l’espatrio“ e non
“Ufficio passaporti“;
- “suka” con “stronza“ e non “cagna”; la scelta di tradurre con il presente il russo “govorit”
(non scontato, perché in russo non esiste coerenza temporale nelle narrazioni e spesso il
presente si alterna al passato nello stesso paragrafo);
La “i” polisemica del TP - che potrebbe significare “anche” o “e”- con “viene a dirmi”
- L’aggettivo dimostrativo “eta” non con “questa” ma con “quella”.

L’orecchio interno di un traduttore bilingue può misurare le marcatezze a una velocità


sorprendente. Sebbene nel caso di un testo scritto si possa anche intervenire a posteriori per
modellare la traduzione, molto spesso la prima soluzione, quella intuitiva, è la migliore. Per
questo, un professionista è sempre un traduttore simultaneo.

5 – IL PROGETTO, LE STRATEGIE, LE TECNICHE:

1. Il progetto:

1.1. Riflessione, gerarchia decisionale, automatismo:


Il traduttore è responsabile “di ciò che viene detto” davanti alla legge e anche nei confronti
dell’autore del TP e dei destinatari del TA. Qualsiasi progetto per essere approvato deve essere
realizzabile e coerente rispetto ai vincoli esterni. Il fine ultimo di un processo traduttivo è quello di
calcolare quali strategie e tecniche possono consentire più facilmente di riprodurre in lingua di
arrivo le f-marcatezze di un dato TP, senza pregiudicarne il potenziale comunicativo ed estetico,
valutando quale sia la dominante testuale da considerare irrinunciabile e gerarchicamente più
rilevante. È fondamentale valutare le asimmetrie tra le due lingue di lavoro e considerare da quale
delle due lingue si traduca nell’altra una determinata tipologia testuale. La progettazione della
gerarchia su cui si basa il processo decisionale e la conseguente applicazione di quelle strategie e
tecniche (e non altre) dipende dalle due lingue, dalla tipologia testuale correlata la tipologia
linguistica contrastiva e dai fattori esterni. Come osservava Damasio Per prendere una decisione
efficace qualsiasi soggetto deve conoscere:
a) La situazione che richiede una decisione;
b) Le differenti possibili scelte di azione;
c) Le conseguenze di ciascuna di tali scelte nell’immediato e in tempi futuri.
Un efficace processo decisionale necessita di requisiti base e di un progetto consapevole. Poiché
ogni traduzione professionale ha un committente il progetto è almeno in parte condizionato
dall’esterno. Perlopiù il committente e il destinatario non coincidono, non sempre il committente
ne è consapevole. La finalità della traduzione è il parametro più importante: sulla base dei
parametri legati al committente e ai destinatari, il traduttore opera una serie di opzioni
concatenate e interdipendenti, adottando strategie che possono essere molto diverse e a volte
opposte. Prendiamo per esempio la traduzione di un testo teatrale, il progetto cambia se il
committente è: un editore che vuole pubblicarlo in volume i destinatari sono lettori, un regista che
vuole realizzare in scena il testo e richiede copioni tradotti, un regista che vuole far recitare il testo
in lingua di partenza utilizzando un sopratitolaggio, uno storico del teatro interessato a conoscere
quel testo teatrale di cui non conosce la lingua.
Un interprete professionista deve aver precedentemente studiato ed esercitato a lungo le
strategie; per correre meno rischi, per utilizzare meglio il tempo a disposizione deve aver
automatizzato le procedure secondo parametri progettuali preventivi. Un interprete di solito ha
affinato persino la capacità di prevedere approssimativamente, su base statistica, che a certe
parole dell’oratore ne seguiranno altre. Il progetto è il momento della consapevolezza, mentre la
sua applicazione si avvantaggia di un’estrema rapidità procedurale. La chiarezza del progetto
consente di indirizzare la ricerca nella direzione giusta, evitando l’arbitrio.

1.2. Attualizzazione e storicizzazione:


In alcuni casi, tra l’epoca in cui è stato scritto il testo di partenza è l’epoca del traduttore e
destinatari del testo di arrivo, esiste una significativa distanza temporale che impone al traduttore
decisioni precise. Nella traduzione per l’editoria, tale questione si pone frequentemente. Il divario
sul piano linguoculturale dipende dalla quantità del tempo trascorso, e anche dalla qualità degli
eventi intercorsi, alcuni dei quali possono aver provocato drastici cambiamenti linguoculturali.
Talvolta in un solo trentennio si può verificare una significativa discrepanza tra la lingua cultura del
testo di partenza e quella del traduttore e dei destinatari del testo di arrivo. In qualsiasi situazione
di distanza cronologica va progettata la relativa strategia che influirà sul risultato, il traduttore
deve stabilire se attualizzare o storicizzare il testo di arrivo. Il traduttore potrebbe decidere che il
testo di arrivo del bene scade nei destinatari la stessa sensazione di distanza che il testo di
partenza suscita in lui e nei lettori della lingua di partenza a lui contemporanei, oppure potrebbe
considerare il fatto che gli autori scrivono i testi perché li leggono in primis i loro contemporanei.
Attualizzazione e storicizzazione riguardano le specificità linguistiche, stilistiche e culturali che
esprime l’asse della diacronia.la definizione dei due procedimenti può essere questa:

- Attualizzare: tradurre il testo di partenza in un testo di arrivo, in modo tale che questo sia
recepito dal lettore di arrivo contemporaneo del traduttore così come il testo di partenza
era recepito dal lettore di partenza coevo dell’autore, eliminando la distanza temporale tra
il testo di partenza e quello di arrivo che esiste per cause esterne all’opera stessa.
- Storicizzare: tradurre il testo di partenza in un testo di arrivo in modo tale che il testo di
arrivo sia recepito dal lettore di arrivo contemporaneo del traduttore così come il testo di
partenza è recepito oggi dal lettore di partenza coevo del traduttore, marcando la distanza
temporale tra testo di partenza e di arrivo che esiste per cause esterne all’opera stessa.

È importante distinguere la distanza temporale dovuta al solo tempo trascorso, dagli stilemi
storicizzazione che sono parte integrante del TP. In questo caso la storicizzazione parziale o totale
del testo di arrivo è una scelta obbligata, pena la neutralizzazione di un espediente stilistico che fa
parte del testo di partenza secondo un progetto dell’autore. Questo si verifica quando:
- Nel testo di partenza siano impiegati artifici che falsificano la datazione del testo stesso,
ponendo la voce narrante e o l’autore in un’epoca diversa da quella reale, per simulare che
l’autore stesso appartenga a un’altra epoca; fittizio manoscritto dei promessi sposi.
- Le vicende narrate nel testo di partenza si svolgono in un’epoca lontana e la lingua dei
personaggi suoni deliberatamente storicizzata nel testo di partenza; per esempio il nome
della rosa.
- Solo uno o alcuni personaggi del testo di partenza usino la lingua più datata di altri, perché
le vicende narrate si svolgono su piani cronologici differenti.

In questi casi la storicizzazione parziale o complessiva è inevitabile per mantenere


l’equifunzionalità rispetto al testo di partenza; viene storicizzato in traduzione proprio quello che è
già storicizzato nel testo di partenza: c’è una perfetta corrispondenza tra la strategia del testo di
partenza e quella del testo di arrivo. In tutti gli altri casi è fortemente consigliabile attualizzare.

1.3. Omologazione, straniamento, estraniamento:


Per quanto riguarda la distanza culturale si può distinguere tra tre strategie: omologazione,
straniamento ed estraniamento. L’omologazione implica di eliminare gli elementi culturali estranei
alla cultura di arrivo, è indicata per testi che si riferiscono al mondo mitico o inesistente delle fiabe
o del fantasy che sono collocati in un tempo spazio astratto e universale (per esempio i nomi
propri italianizzati). Un’omologazione estrema coincide con la totale trasposizione spaziale nella
cultura di arrivo; è più rischiosa nei testi realistici, può produrre una falsificazione oppure
un’incongruenza. L’omologazione di un testo di partenza presuppone la trasformazione di ciò che
è culturalmente meno familiare al lettore del testo di arrivo in qualcosa di familiare. La strategia
opposta è l’estraniamento, quella intermedia è lo straniamento parziale. Il concetto di
straniamento era stato introdotto dai formalisti russi per indicare l’artificio letterario che si ottiene
quando una cosa ben nota al lettore viene mostrata come se fosse nuova e strana; questo agisce
sulla cognizione umana, addestrando a sentire che la normalità o la stranezza dipendono sempre
dal punto di vista di chi osserva. Invece, in letteratura l’estraniamento si ha quando l’autore si
riferisce a qualcosa di ignoto e incomprensibile senza spiegazioni a scopo di suscitare una
sensazione di esclusione ed estraneità. Nella teoria della traduzione il termine estraniamento
indica una paradossale “strategia di non traduzione“ che consiste nel non esplicitare al lettore di
arrivo quello che il lettore del testo di partenza capisce senza bisogno di spiegazioni. Per evitare
l’estraniamento è utile applicare la tecnica dell’esplicitazione. In alternativa si può applicare
l’omologazione, ma ciò implica cancellare le tracce della diversità culturale. Nella traduzione dei
testi scientifici e giuridici l’opzione estraniamento/straniamento/omologazione riguarda molti
elementi, perlopiù lessicali. In questi casi se si cambia la tipologia dei lettori o ascoltatori, i termini
tecnici possono innescare reazioni diverse o non sortire alcun effetto. Un referto medico, per
esempio, è un TP paradossale, perché può essere rivolto contemporaneamente a destinatari
diversi, utilizzando parole chiare per gli specialisti e sconosciute ai pazienti. Il traduttore può
operare una mediazione, esplicitando i termini o omologando il registro.

La definizione delle tre strategie può essere formalizzata:


A) Omologare un TA significa assecondare alla cultura di arrivo alcuni o tutti gli elementi della
lingua, della fraseologia, delle figure retoriche e dei realia riferiti alla realtà extra-testuale
del TP sul piano sincronico. Il termine inglese è domestication;
B) Straniare un TA è la strategia traduttiva mirata a creare una distanza culturale tra TA
elettore di arrivo: quando il traduttore senza mutare il registro terminologico, esplicita al
TA le informazioni implicite per il lettore di partenza, al lettore di arrivo qualcosa appare
straniato ma comprensibile. Il termine inglese è defamiliarization;
C) Estraniare un TA significa lasciare che il lettore di arrivo non capisca quello che nel TP è
chiaro ai lettori di partenza: non si esplicita e non si omologa nulla alla cultura o al registro
di arrivo. Il termine inglese è foreignization.

Il problema dell’estraniamento riguarda un dibattito incentrato su due aspetti: il primo è quello


della traduzione intesa come strumento di opposizione al livellamento e all’imperialismo culturale;
il secondo è quello della traduzione intesa come opera creativa d’autore. Lefevere affermava il
ruolo positivo dell’estraniamento per allargare gli orizzonti culturali dei popoli; l’estraniamento
sarebbe stata una cosa buona se ci fosse stato ancora un pubblico in grado di apprezzarlo. Il più
convinto sostenitore di questa tecnica è stato Venuti, secondo cui è necessario valorizzar la
strategia come mezzo per combattere la globalizzazione e l’invisibilità del traduttore; se la lingua
del traduttore è quella che avrebbe usato l’autore se avesse scritto nella lingua di arrivo, l’operato
del traduttore diventa invisibile, per renderlo visibile il traduttore deve evidenziare l’alterità
sfruttando le asimmetrie tra le lingue. Secondo Venuti solo questa tecnica può introdurre nel TA i
cosiddetti “reminders” dell’alterità linguoculturale. Allo stesso tempo secondo lui traduzione crea
scandali e questa è la ragione per cui viene tradizionalmente relegata tra le attività di secondo
ordine privando traduttore di riconoscimento. Le affermazioni di Venuti sono contraddittorie,
infatti inoltre per contrapporsi all’imperialismo culturale americano propone una teoria che è
applicabile solo al mercato americano. In definitiva l’idea che le traduzioni prive di tracce straniere
siano la causa principale dell’invisibilità del traduttore appare americo-centrica. L’estraniamento
dà facilmente visibilità al traduttore ma solo in termini negativi, poiché estraniare un testo di
partenza “non estraniante“ (a livello letterario) significa snaturare il testo e anche la cultura che
rappresenta. Proprio per ottenere un effetto cognitivamente straniante, un testo non dovrebbe
mai diventare “straniero“: le reazioni all’estraneità possono essere molto negative, perché
provocano l’allontanamento. Una reazione negativa dei destinatari del testo di arrivo rischia di
compromettere la ricezione di una singola opera, ma anche quella di tutte le opere dello stesso
autore o addirittura quella della cultura di partenza in toto. Se l’estraniamento è la strategia
progettuale di base il rischio più grande è che si renda illeggibile il TA. Come diceva Von Humboldt,
Un conto è l’estraneo, un conto sono le stranezze e le due cose non vanno confuse: lo
straniamento consapevole è l’opposto funzionale del calco meccanicistico che rende strano nel TA
quello che non è strano nel TP. Ogni testo, diceva Eco “è una sorta di meccanismo idiolettale, che
stabilisce correlazioni enciclopediche che valgono soltanto per quel testo specifico”. Per questo
una sostanziale attualizzazione con elementi di storicizzazione, unita ad una sostanziale
omologazione con elementi di straniamento può costituire il miglior compromesso per chi voglia
evitare l’estraniamento presentando un TA che offre davvero la possibilità di leggere il TP
‘d’autore’ attraverso il TA.
1.4. Ibridazione ed effetto estetico:
Essendo la traduzione è un’operazione che scaturisce dall’applicazione di euristica sta al traduttore
lavorare sulla tosatura delle strategie scegliendone una come dominante. Se nel progetto la
strategia dominante è l’attualizzazione è comunque possibile e consigliabile introdurre qualche
elemento di storicizzazione. Se si decide che nel testo di arrivo l’effetto straniante debba
prevalere, lo si deve comunque bilanciare con l’omologazione. Per tarare l’ibridazione basta
ricorrere al parametro generale della f-marcatezza, che consente di verificare che il testo di arrivo
inneschi nel destinatario di arrivo una risposta psico-cognitiva equivalente a quella che il testo di
partenza innesca nel destinatario di partenza. L’ibridazione può essere rappresentata come il
punto di incontro tra ciò che è inatteso e ciò che è atteso, qui troviamo il potenziale estetico.
L’effetto artistico di un testo si ha se il testo disattende in parte le aspettative e se evita che la
sorpresa ecceda limiti che trasformano la novità di fastidio o shock. La tosatura ideale si ha
quando il testo presenta alcuni elementi noti che ne escano la sensazione del riconoscimento.
Qualora un testo mantenga questa posizione di sufficiente equilibrio tra ciò che i destinatari si
aspettano e ciò che non si aspettano, sia un potenziale artistico duraturo e universale. Seppur
attuato in modo parzialmente soggettivo da ogni lettore, il potenziale del testo di arrivo è
paragonabile quantitativamente e qualitativamente a quello del testo di partenza. Il traduttore dei
testi espressivi è sempre un tecnico di mediazione estetica che opera secondo lo schema di
intersezione di tendenze diverse. Il processo creativo dell’autore viene iterato in traduzione dalla
mente del traduttore e continua ad attuarsi nella mente del destinatario del TA. Quindi la
traduzione è un’approssimazione in cui il traduttore sceglie l’ibridazione ideale delle strategie che
attribuirà al TAil potenziale estetico del TP: l’impronta del traduttore sarà tanto meno visibile,
quanto maggiore sarà la sua abilità di imitare l’autore nell’ibridazione delle strategie. Se una
strategia è applicata in modo rigido si avrà il rischio di inibire nel TA il potenziale di innesco del TP.
Il buon traduttore può operare con strategie diverse, fondendole insieme secondo le
caratteristiche organiche del singolo testo.

2. Le tecniche di traduzione:

È importante che la somma di tutte le informazioni esplicite e implicite contenute in ognuna delle
unità del TP siano ri-codificate nel TA e siano in grado di suscitare una risposta analoga da parte
dei destinatari. Gli artifici formali del TP impongono al traduttore vincoli strutturali che richiedono
l’applicazione di tecniche di traduzione. Queste sono poche ed è opportuno applicarle in modalità
e quantità diverse a seconda del progetto. Grazie a queste tecniche è possibile mantenere
simmetrico il potenziale di innesco del testo di partenza e di quello di arrivo. Più i vincoli testuali
sono numerosi e sofisticati, più è prevedibile una certa entropia, cioè una divergenza tra TP e TA
che renderà meno probabile una ri-conversione. Le tecniche traduttive sono simili a quelle con cui
la mente umana tratta il materiale diurno durante i sogni, da qui le loro denominazioni:
esplicitazione, condensazione, compensazione, spostamento.

2.1. Esplicitazione:
Ogni unità tradotti Iva del testo di partenza può codificare informazioni implicite sia a livello
dell’invariante, sia a livello della variabile. L’esplicitazione comporta la conversione di un
frammento del TP in uno parallelo del TA che sia egualmente informativo, dando priorità
all’informazione implicita più rilevante. L’esplicitazione è spesso indispensabile nel caso degli
onimi , ovvero dei termini dell’onomastica: nome di persona (antroponimi), di luoghi (toponimi), di
piazze e strade (urbanonimi), di edifici, di oggetti, di opere, di cibi, di marchi commerciali, Ecc.
Se per esempio nel testo di partenza viene nominata la via centrale di una città, il cui nome è
sconosciuto al destinatario del testo di arrivo (probabilmente), il traduttore aggiunge, per
esempio, “sulla centralissima, principale, nota, elegante…”. Sta al traduttore decidere in quali casi
un’esplicitazione sia indispensabile. Nel caso di informazioni che il destinatario del TP comprende
immediatamente, ma che risulterebbero incomprensibili al destinatario di arrivo l’esplicitazione
risolve il problema. La tecnica dell’esplicitazione allo scopo:
A) Di trasferire nel TA a livello esplicito l’informazione implicita al destinatario del TP;
B) Di farlo in modo del tutto non invasivo;
C) Di selezionare solo le informazioni implicite rilevanti nel contesto;
D) Di formulare le informazioni esplicitate coerentemente allo stile del testo.

A seconda del contesto e delle necessità l’esplicitazione può essere di primo grado (una sola) o di
secondo grado (due), ma non deve mai essere ridondante. L’esplicitazione è la tecnica più diffusa,
usata indistintamente in ogni tipo di testo. Esistono due modalità di esplicitazione:
- la prima produce una generalizzazione, ovvero un’esplicitazione per iperonimia;
- la seconda modalità produce una specificazione, ovvero un’esplicitazione per iponimia.

L’esplicitazione permette di evitare le note del traduttore, che sono interruzioni del testo, assenti
nel TP, che inficiano la ricezione del TA; costringono il lettore a staccare lo sguardo e a uscire dal
testo e dal patto narrativo. Mentre un’esplicitazione mantiene l’invisibilità del traduttore e non
disturba la ricezione del lettore del TA, le N.D.T. Inibiscono il potenziale artistico del testo. Se il
traduttore ritiene che sia utile informare il lettore dei procedimenti seguiti e delle strategie usate,
è vincolato a farlo fuori dal testo, posponendo una nota del traduttore che riunisca le informazioni
in modalità dichiarativa, questa viene detta “Nota”.

2.2. Condensazione:
È la tecnica opposta a quella dell’esplicitazione, mira a condensare due termini o due concetti in
uno solo: Per esempio, un aggettivo è un sostantivo diventano un solo sostantivo; due aggettivi
diventano un solo aggettivo; un sostantivo del testo di partenza può diventare implicito grazie alla
traduzione di un altro sostantivo nel testo di arrivo. In certi casi la condensazione è un’opzione
stilistica, in altri è la soluzione obbligata. Può essere indispensabile dove sia vincolante il numero
delle parole o delle sillabe. È una tecnica usata continuamente nel sottotitolo aggio, nel
doppiaggio, nell’interpretazione di conferenza e di trattativa, quando è indispensabile trasmettere
le stesse informazioni con un numero ridotto di parole. È indispensabile nella traduzione dei testi
di canzoni progettati per essere cantati in un’altra lingua.

2.3. Compensazione:
La compensazione si usa quando, in caso di asimmetria tra le due lingue, non si riesca ad ottenere
l’equifunzionalità tra le due unità corrispondenti TP/TA. Il diverso potenziale espressivo di un
elemento in un segmento del TP viene compensato da un altro elemento nel TA. Si applica
perlopiù in testi espressivi con funzione ironica, parodica, umoristica, ma anche in poesia e nella
canzone d’autore. All’interno della stessa unità traduttiva si compensa l’informazione trasmessa
da un costituente mediante quella trasmessa da un altro costituente. In presenza di una battuta
particolarmente divertente, o di un gioco di parole efficace nel testo di partenza che risulta meno
efficace nell’unità corrispondente del testo di arrivo, il traduttore compensa la simmetria variando
in modo speculare l’f-marcatezza di un’altra unità. L’esito è quantitativamente e qualitativamente
equifunzionale nei due testi, ma in segmenti diversi. Vige la proprietà commutativa: se si cambia
l’ordine degli artefici, l’effetto finale del potenziale d’innesco rimane invariato.

2.4. Spostamento:
Lo spostamento o dislocazione, è la tecnica con cui uno o più elementi di un enunciato vengono
ricollocati nel testo di arrivo in una posizione diversa rispetto a quella del testo di partenza.può
implicare l’anticipazione di una parola o la sua posticipazione. Nella traduzione della poesia è
frequente anticipare o posticipare un verso intero per vincoli di rima. Nella traduzione di testi in
prosa, lo spostamento è spesso usato sotto forma di inversione sintattica per motivi eufonici,
prosodici o idiomatici, ma anche per evitare stilemi asimmetrici rispetto al TP.

Anche per le tecniche di traduzione vale il principio dell’ibridazione e della tosatura.

3. Il progetto e il cult text:


Nella categoria del cult text rientrano canzoni, film, romanzi, poesie, fumetti, opere liriche e tutti i
testi che detengono un particolare potenziale evocativo, basato su meccanismi identitari: un
gruppo di persone, distinto per età, strato sociale, predilezioni culturali, nazionalità si identifica
con l’opera cult perché la sente rappresentativa della propria identità culturale e o nazionale.
Questi testi rivelano un potenziale memetico molto superiore alla media: hanno la capacità di
diffondersi e anche di attecchire nella memoria delle persone, agendo come elemento coesivo di
una collettività. È quindi importante che il traduttore consideri il grado di rappresentatività del
testo di partenza: più è rappresentativo, più aumenta il rischio di compromettere il testo stesso e
tutto ciò che rappresenta. Se si deve tradurre un’opera cult inversi o in musica, il progetto parte
dalle specifiche asimmetrie tra le lingue, i canoni culturali e metrici. Il metro canonico della poesia
di una data cultura in una data epoca non corrisponde quasi mai a quello di un’altra cultura nella
stessa epoca, se anche corrispondessero, l’isocronia linguistica renderebbe l’effetto musicale del
tutto diverso. L’accostamento di certi suoni può essere inatteso in una lingua ma ricorrente in
un’altra; la rima può essere irrinunciabile nelle aspettative di una cultura e desueta all’orecchio di
un’altra; la tipologia stessa delle rime varia drasticamente. Anche a livello culturale le asimmetrie
possono inficiare l’effetto del testo di arrivo. Quando si progetta la traduzione di un cult text, la
valutazione della gerarchia decisionale che consenta di salvaguardare il potenziale rappresentativo
dell’opera, influisce sulla capacità di dosare sia le strategie sia le tecniche di traduzione. (Pag. 221
del manuale storia della traduzione dell Evgenij Onegin). L’unica procedura per tentare di
riscrivere un testo cult in un’altra lingua è quello di provare e riprovare, valutando assenso,
consenso e dissenso, e pubblicando piccoli frammenti di testo per un pubblico esperto e ristretto.
Così, si può partire proprio dalle strofe ‘più cult’, per le quali più severo sarà il giudizio degli esperti
che conoscendo il TP potranno misurare il grado di equifunzionalità del TA.

4. Gli strumenti:
Qualsiasi traduttore professionista utilizza una grande quantità di strumenti e di repertori di
tipologie diverse. Nell’ultimo decennio lo sviluppo di Internet offerto nuove e immense possibilità;
è possibile accedere a una quantità strabiliante di informazioni multilingue.proprio il fattore
quantità e al contempo il maggior pregio è il peggior difetto della rete: quando le informazioni
sono troppe, quando sono discordanti o sono prive di fonti affidabili, ci si può ritrovare senza
criteri per stabilire quale risposta sia più affidabile dell’altra. Il grande problema della rete è quello
di creare più ostacoli a chi tende a sottovalutare la molteplicità, contraddittorietà e instabilità del
pubblico dominio. Con l’accelerazione della comunicazione l’inaffidabilità delle fonti è aumentata
esponenzialmente. I criteri umani di raccolta e diffusione delle informazioni restano vincolati a
modalità di categorizzazione del sapere che rendevano le euristiche dell’antica ricerca bibliografica
più professionali delle ricerche elettroniche. Poiché il cervello umano utilizza euristiche nella
costruzione dell’ipertesto individuale, queste stesse euristiche, unite alla casualità, si riflettono
nella struttura della rete, determinando la mancanza di strategie ottimali nell’uso dei motori di
ricerca. Anche per quanto riguarda l’oralità, l’accelerazione del contagio culturale, incrementata
dall’impatto dei social network, impone oggi ai traduttori di prestare un’attenzione particolare alla
coerenza diacronica, diatopica, diastratica e pragmatica di qualsiasi enunciato usato anche nella
traduzione dei testi, letterari o audiovisivi e nell’interpretazione orale. Per aggiornarsi sulla
statistica d’uso di parole, termini, sintagmi e locuzioni che cambiano in tempo reale, il traduttore è
costretto a mantenere un contatto costante con la comunicazione quotidiana nelle sue lingue di
lavoro e a seguirne l’evoluzione. Per questo è di fondamentale importanza per la traduzione sono i
corpora elettronici.

4.1. I dizionari:
È ampiamente argomentabile l’affermazione che l’uso del dizionario bilingue sia sempre stato
dannoso. Questi possono avere una certa utilità in casi rari e per alcuni utenti. Sei un traduttore
non comprende un enunciato o una parola è insensato che usi un tradizionale dizionario bilingue.
Un traduttore che traduca con un dizionario bilingue è come un chirurgo che operi con un
manuale di anatomia. Un sofisticato bilinguismo è un requisito fondamentale per qualsiasi
traduttore, il quale, per le lacune lessicali, dovrebbe ricorrere a dizionari monolingue: è sempre il
traduttore a selezionare i traducenti e le opzioni equivalenti e per poterlo fare dovrebbe essere in
grado di poterne fare a meno. Dall’altro lato l’ultima cosa raccomandabile è quella che vada a
cercarlo in un repertorio lessicografico che non conosce e che quindi non può riconoscere tra un
elenco di suggerimenti poco o male contestualizzate. Se il traduttore non ha mai visto né sentito
una parola, se il suo orecchio interno non sa valutare né sua coerenza statistica, né contesto in cui
è usata, non ha alcuna possibilità di trovare il suo traducente se non tirando a indovinare o
accettando per buono l’unico traducente suggerito. Si può affermare che qualsiasi professionista
esperto chiusi in L1, ma soprattutto in L2, termini, parole, sintagmi che non ho mai usato prima lo
faccia solo dopo aver eseguito controlli incrociati nei dizionari monolingue o nei corpora. La
professionalità implica una preliminare diffidenza per tutto quello che non è verificato dal proprio
orecchio interno. Il solo caso in cui il dizionario bilingue può servire a un traduttore e quando si
verifica un anomia, quando il traduttore non riesce a richiamare alla memoria breve termine una
parola in L1/L2 che sa riconoscere bene, ma che ha dimenticato in quel momento e che può
riconoscere tra i traducenti proposti dal dizionario; in questo caso il dizionario bilingue può ridurre
moltissimo i tempi di recupero mnestico e va usato come un dizionario dei sinonimi. Quindi, la
“sindrome da dizionario bilingue“ è il primo segnale dell’inesperienza di un traduttore. Vale
dunque il principio di non utilizzare nelle traduzioni parole che non appartengono ancora al
proprio bagaglio linguistico attivo o passivo, nella realtà comunicativa, se non dopo attenta
verifica. Il danno maggiore dei dizionari bilingue si manifesta quando ci si esercita nella traduzione
in L2, cioè nella lingua in cui ancora scarso il corpus linguistico di controllo presente nella memoria
dello studente. E se si confrontano traduzioni professionali verso la L1, si trovano molte meno
divergenze di quanto si riscontri nelle traduzioni verso le le due, perché la risposta di un nativo è
generalmente più attendibile del dizionario bilingue e dell’arbitrio, ma anche di quella di un
bilingue non nativo: le esperienze linguistiche di un nativo poggiano su un più consolidato orecchio
interno. La traduzione dalle cosiddette lingue morte potrebbe sembrare del tutto differente, ma
non diverge da quella delle lingue moderne: i traduttori dei testi antichi possono avvalersi
comunque di un’immensa esperienza passiva di testi scritti, che sono spesso ricchi di dialoghi e di
oralità trascritta. Gli specialisti possono diventare profondamente esperti dello stile, della
specificità sintattica, delle occorrenze lessicali e fraseologiche che distinguono un singolo autore
antico dall’altro, e le diverse modalità di espressione delle varie epoche. La profonda
comprensione del testo antico, la capacità di valutarne le caratteristiche abilitano un traduttore
delle lingue antiche ad attualizzare una traduzione in una lingua moderna. Solo un lettore
dilettante senti il testo come distante o datato: non è la lingua di per sé, ma il modo in cui è stata
usata che può rendere un testo efficace, a volte universale. Quindi anche traducendo da lingue
pervenute ci sono in forma scritta, si può ottenere una conoscenza procedurale paragonabile
all’acquisizione delle lingue parlate. La mente linguistica umana non fa distinzioni tra lingue
moderne e lingue antiche, l’acquisizione si rinforza in ogni caso con l’esercizio. I corpora e i
dizionari monolingue sono per qualunque traduttore strumenti molto più affidabili di qualsiasi
dizionario bilingue. Se si considera la traduzione specializzata di testi professionali, altamente
codificati secondo gli stilemi, la terminologia e la fraseologia delle microlingue, si possono
utilizzare glossari terminologici; questi repertori composti da schede complesse con fonti e
contesti hanno una funzione molto più specialistica rispetto a quella dei dizionari, poiché
sottostanno a regole e sono controllati da esperti.

4.2. I corpora:
I corpora costituiscono un concetto e un oggetto noto fin dall’antichità è un elemento
imprescindibile della filologia, dello studio storico dei testi e della loro ricostruzione storico-critica.
Il concetto di corpus è quello dell’insieme dei testi che costituiscono l’oggetto della ricerca,
contrapposto ai testi critici che si usano come commento. Il termine latino corpus ha avuto una
diffusione massiccia grazie al successo della linguistica dei corpora, nata quando l’antico concetto
è stato applicato alle nuove tecnologie. È utile la definizione generale fornita da Riccio: “il corpus è
una raccolta sistematica, coerente e bilanciata di testi autentici, o parte di essi, selezionati e
organizzati secondo espliciti criteri linguistici e non linguistici. Lo scopo principale è quello di
essere consultato come campione rappresentativo di una lingua, o di una sua varietà, in vista di
soddisfare gli obiettivi dell’analisi.“. La prima suddivisione è tra corpora generali (che
rappresentano la lingua in ogni sua varietà) e specialistici (distinti per varietà testuali). In secondo
luogo possono distinguersi in scritti, parlati e misti, diacronici (che considerano testi di epoche
diverse) e sincronici (che riguardano la lingua negli ultimi dieci-vent’anni). Possono poi essere
monolingui o bi-/multilingui. Entrambe le tipologie possono essere di due tipi: comparabili
(corpora di confronto) o paralleli. I primi sono testi della stessa tipologia, per forma e contenuto,
che non costituiscono ne comprendono traduzioni. I corpora paralleli sono invece costituiti da
gruppi di testi uniti alle loro tradizioni in una o più lingue, a seconda che siano bilingui, trilingui o
multilingui. A loro volta quelli paralleli possono essere unidirezionali (i TP sono in una sola lingua e
i TA nell’altra) oppure bidirezionali (TP in entrambe le lingue con i rispettivi TA nell’altra lingua).
Per effettuare una ricerca, l’interfaccia del corpus presenta una finestra di dialogo in cui inserire la
stringa di testo ricercata e di utilizzare i filtri che possono ottimizzare le risposte: si ottiene l’elenco
completo di tutte le occorrenze e di tutte le concordanze di quella precisa stringa in migliaia di
pagine di testo, con l’indicazione dell’origine di ogni risposta; questo consente al traduttore di
valutare la tipologia e l’affidabilità della fonte, il contesto, il cotesto e la frequenza d’uso. È
possibile individuare con buona affidabilità statistica quante volte una determinata parola ricorra
in una certa lingua, così come è possibile svolgere analisi di tipo sincronico o diacronico. I corpora
comparabili possono essere confrontati per stabilire se alcuni costrutti o lessemi o parole vengono
usati in modo diverso nella lingua standard e in quella delle traduzioni, ad esempio per l’inglese si
possono comparare il Translational English Corpus con il British National Corpus. Utilizzando i
corpora paralleli, si può ottenere un ulteriore riferimento alle corrispondenze bilingui standard,
ma anche a delle incongruenze a livello di f-marcatezza. Mano mano che si approfondiscono le
questioni epistemologiche, oltre alle nozioni distintive basilari si aggiungono altre classi di corpora
con le considerazioni sul loro impiego scientifico e applicativo. La costituzione di un corpus non è
un lavoro solo pratico, implica scelte teoriche di diverso livello e deve attenersi a regole che
consentano l’affidabilità del corpus stesso. Una delle difficoltà maggiore nella raccolta dei corpora
elettronici è quella relativa ai testi orali. Il problema primario deriva dal fatto che il flusso della
lingua orale non ha “limiti programmati”, non è quindi propriamente suddivisibile in testi veri e
propri, ma viene trattato secondo schemi concettuali che trasformano un insieme di parole
sonorizzate in un prodotto approssimativo. L’inglese britannico gode di una situazione
particolarmente privilegiata, è nell’ambito dell’anglistica che dagli anni 80 la linguistica dei corpora
è diventata gradualmente una disciplina fondamentale. L’analisi contrastiva di unità traduttive nel
contesto consente di verificare quali soluzioni siano state proposte da altri traduttori, quali di
queste siano più affidabili, quali più coerenti rispetto all’f-marcatezza del TP e allo scopo del TA. I
corpora elettronici sono utili solo se supportati dai corpora di confronto mentali del traduttore che
grazie al bilinguismo e all’esperienza contrastiva, consentono di operare le scelte. Il dizionario
mentale funziona come un ipertesto biologico che, su base esperienziale, forma una gigantesca
mappa mentale bilingue. La competenza traduttiva prevede proprio l’incrocio delle due lingue di
lavoro e più si traduce, più la mappa mentale si espande e si rafforza, consentendo un più rapido
richiamo mnestico delle corrispondenze. I corpora elettronici sono meno soggettivi dei corpora
neuronali ma, sono meno versatili: è la sinergia con il corpus mentale del traduttore che può
rendere versatile il corpus elettronico. Ecco perché si è diffusa la traduzione assistita, in cui banche
dati e corpora elettronici sono solo strumenti, in quanto la scelta spetta al traduttore. Numerose
applicazioni elettroniche sono programmi in grado di compattare corpora diversi in un enorme
mega-corpus parallelo: per ogni unità traduttiva, la macchina predispone una scelta e il traduttore
può accettarla o selezionarne un’altra, ma anche considerare soluzioni non previste dal sistema.
Solo la mente umana è in grado di eliminare ciò che il concordancer include per errore o di
includere ciò che questo ha escluso. Nel caso della traduzione letteraria i vincoli del testo artistico
e le computazioni dei parametri in gioco da parte del traduttore sono ancora quantitativamente e
qualitativamente al di sopra delle previsioni di qualsiasi strumento elettronico. I parametri
propriamente stilistici ed estetici non sono ancora codificabili. Esistono corpora di confronto per la
letteratura e anche per la poesia, ma il loro uso non è iterabile per principio, si utilizzano strutture
identiche la scrittura creativa diventa plagio.

6 – LA PROFESSIONE ED IL MERCATO:

1. Una visione d’insieme:

1.1. Il ‘panorama’ professionale:


Dal secondo dopoguerra l’attività traduttiva ha avuto una sviluppo quantitativo esponenziale, ma
per lungo tempo non si è avuto alcuna concreta rivalutazione della complessità della professione.
Sono degli anni 80 con l’istituzione e la graduale diffusione dei percorsi mirati di formazione
universitaria, la maggiore competenza dei professionisti sul mercato a contribuito a sensibilizzare i
clienti, i committenti e i destinatari. Sul mercato internazionale le tipologie di traduzione
professionali più importanti sono: traduzione per l’editoria, traduzione specializzata, traduzione
specializzata assistita, traduzione dei dialoghi cinetelevisivi, traduzione per il turismo, traduzione a
vista, interpretazione di conferenza, interpretazione di trattativa, interpretazione simultanea di
audiovisivi. Ognuna di queste impone conoscenze specifiche è un addestramento particolare. Solo
in rari casi, un traduttore può diventare così abile e richiesto in un singolo settore professionale da
esercitare la professione solo in quell’ambito; altrettanto difficile è riuscire a lavorare stabilmente
con due sole lingue di lavoro. Nel periodo di formazione è importante sviluppare la capacità di
adattarsi a settori diversi e a nuove lingue. Il fatto di dover svolgere prestazioni molto diversificate
è conseguenza dell’incerto ruolo sociale e giuridico della professione. I problemi legati al ruolo
sociale della traduzione dipendono dall’evoluzione interrelata di riflessione teorico-
epistemologica, legislazione e prassi professionale. Per il primo punto, secondo l’ottica dei
Translation Studies, la teoria della traduzione avrebbe il compito generale di supportare il ruolo
socio-economico della traduzione, teorizzando “una pratica sociale non ancora teorizzata”,
avrebbe anche il compito specifico di provvedere:
- alla ricostruzione di un quadro generale del funzionamento del patronato che governa il
poli sistema culturale;
- alla descrizione dei rapporti tra opera tradotta, ideologia e cultura;
- allo studio dei nessi esistenti tra opzioni, progetto, prodotto e canone.

Per il secondo il terzo punto, la correlazione tra legislazione ed evoluzione della prassi
professionale strettissima; le leggi influiscono sulla qualità e sul prestigio della professione, così
come i mutamenti della prassi professionale influiscono sulla legislazione. Da più di settant’anni, i
prodotti della traduzione sono tutelati in Italia da un testo di legge del 1941 che protegge i diritti
d’autore dei traduttori. Questa legge si occupava inizialmente di traduzioni editoriali, perlopiù
letterarie, ma il suo testo si è arricchito di numerosi articoli a tutela dei dialoghisti cinematografici
e televisivi, di chi crea corpora e banche dati elettroniche, compresi i testi letterari pubblicati in
rete. Eppure il diritto d’autore dei traduttori funziona in modo molto diverso rispetto a quello degli
scrittori: per poter pubblicare il proprio lavoro l’autore delle traduzioni è quasi sempre costretto a
cedere del tutto i propri diritti all’editore o ad ottenere percentuali di vendita del tutto
insignificanti.

1.2. Le associazioni e la regolamentazione della professione:


Le ragioni dello scarso prestigio professionale dei traduttori e delle loro limitate possibilità di
negoziare con i clienti sono dovuta essenzialmente all’assenza di un albo riconosciuto
ufficialmente dallo Stato. Solo un’associazione ufficialmente riconosciuta, sottoposta una rigorosa
normativa di accesso e giuridicamente controllata da un ministero, potrebbe impedire che si
definissero “traduttori“ o “interpreti“ persone prive di un percorso di studi professionalmente
coerente. Legalmente chiunque può fare il traduttore poiché la legge sul diritto di autore tutela
chiunque si autoproclami traduttore. Paradossalmente nell’ambito dell’interpretazione si osserva
una reale valorizzazione professionale; Le associazioni professionali sono molto severe anche se
non sono controllate dallo Stato e le tariffe degli interpreti sono dignitose, talvolta piuttosto alte.
Non è raro clienti meno esigenti cerchino pseudo-interpreti disposti a lavorare per cifre inferiori
del 50-70%. A livello internazionale esistono associazioni professionali di traduttori e interpreti a
cui aderiscono singoli filiali numerosi paesi: le più note sono la FIT, che comprende 55 affiliate in
altrettanti paesi del mondo che conta circa 80.000 traduttori, interpreti e terminologi, e per
l’interpretazione di conferenza l’AIIC. Oltre alle associazioni affiliate a quelle internazionali ne
esistono altre, nei singoli paesi, come l’American Translators Association (ATA), la Asociaciòn
Espanola de traductores, correctores e interprétes. In Italia, la più importante è l’Associazione
Italiana Traduttori e Interpreti (AITI) fondata nel 1950 e membro della FIT, la quale: raggruppa
traduttori editoriali, tecnico-scientifici, interpreti e interpreti di conferenza. L’ammissione avviene
sulla base della documentazione dei titoli e dell’esperienza professionale, inoltre i soci ordinari
devono sostenere una prova di idoneità che simula un reale contesto lavorativo.
Tuttavia l’AITI non ha fatto un ordine professionale: la prova di idoneità non è un esame di Stato
ne richiede uno specifico titolo di studio, chiunque può chiedere di essere messo alla prova.
Moltissimi traduttori operano senza alcun vincolo e senza aver conseguito un coerente titolo di
studio, ma senza nemmeno aver mai superato alcuna prova di idoneità. Gli scopi stessi dell’AITI
indicano il mancato raggiungimento di uno status giuridico e sociale paragonabile a quello delle
altre libere professioni:
- promuovere iniziative legislative per il riconoscimento di uno status giuridico di traduttore
e interprete come professionista;
- attestare le competenze professionali dei propri associati;
- promuovere l’immagine e la consapevolezza del ruolo dei traduttori e degli interpreti;
- promuovere l’aggiornamento e la formazione continua e il rispetto della deontologia
professionale;
- garantire il rispetto delle migliori condizioni e prestazioni di lavoro, anche tramite
l’elaborazione dei contratti tipo;
- promuovere la raccolta e la diffusione di informazioni riguardanti la professione;
- elaborare e diffondere raccomandazioni, norme e standard sulle prassi;
- favorire l’accesso alla professione con forme di tutoraggio con l’acquisizione di
comportamenti e mentalità professionali;
- promuovere l’attuazione di più idonei percorsi formativi per le diverse figure professionali
nel campo;
- promuovere iniziative iniziative legislative affinché nei tribunali italiani i servizi di
interpretazione e traduzione nei procedimenti penali vengono garantiti da traduttori e
interpreti qualificati e professionali, in conformità alle normative internazionali in materia.

Questa fase delicata e spiacevole Di passaggio dalla deregolamentazione alla regolamentazione è


inevitabile in tutte le professioni.

2. I paradossi della traduzione editoriale:

2.1. Il caso e la necessità:


Nel polisistema editoriale italiano sono lo status giuridico del traduttore e i fattori ideologico-
economici a determinare le tariffe professionali, la tipologia dei testi pubblicati, la gerarchia delle
lingue e delle culture di maggior successo. Nel mondo editoriale il traduttore è considerato alla
stregua di un manovale delle lingue, verificato dall’editore per il solo fatto di aver ottenuto una
proposta di traduzione; qualora la proposta sia stata avanzata direttamente dall’editore del
traduttore, viene verificato dal fatto stesso di essere stato preso in considerazione. Il massimo
prestigio e rispetto professionale in qualità di traduttori per l’editoria lo ottengono persone che
non sono traduttori e che spesso non hanno alcuna preparazione nel campo delle lingue e della
linguistica. Gli editori possono commissionare la traduzione di qualsiasi testo, a chiunque. Poiché
alcuni editori non hanno competenze critiche in merito alle traduzioni il criterio adottato per
commissionarle e soprattutto quello del vantaggio economico momentaneo. Si riscontra però un
paradosso: nella traduzione per l’editoria, non c’è alcuna correlazione tra il livello delle tariffe e la
qualità delle prestazioni. Un traduttore letterario può per anni ambire a tradurre un certo autore
un o una particolare opera, e e quindi considera gratificante concedersi questa possibilità a
prescindere dal compenso, un traduttore privo di specifiche competenze letterarie fai il lavoro
soprattutto per guadagnare, quindi può rifiutare un incarico del tutto svantaggioso. Questi
paradossi si riflettono nel contratto diffuso nella traduzione per l’editoria: pur essendo la
traduzione editoriale protetta dalla legge sul diritto d’autore, la prassi prevede contratti i cui
termini sono pressoché interamente gestiti dagli editori, spesso su moduli prestampati con un
minimo margine di intervento della controparte. I contratti editoriali che prevedono le royalties
(percentuale di guadagno sulle copie vendute) sono spesso ancora più svantaggiosi: il traduttore
percepisce alla consegna del lavoro un compenso minimo, più basso delle tariffe usuali, per
scoprire che era in realtà un anticipo sulle royalties, le quali risultano sempre inferiori alle
previsioni. Nessuno nega che editore faccia un utile investimento per ogni libro pubblicato, ma la
posizione contrattuale del traduttore è così insignificante da creare una sperequazione.sono
comparse sul mercato alcune piccole case editrici che applicano la nuova formula: non pagano
nulla per la traduzione, ma riconoscono tutti i diritti del traduttore; per ogni progetto editore e
traduttore investono le proprie risorse per poi dividersi i provenienti secondo quanto previsto
dalla legge. Questa nuova formula implica che si traducano solo opere straniere che non ricadono
nel campo di applicazione dei diritti dell’autore, quelle in cui gli autori siano morti da almeno
settant’anni. Se l’opera è contemporanea anche il traduttore dovrebbe condividere con l’editore
l’oneroso acquisto dei diritti dell’autore straniero. Nel regime imposto dagli editori per le
traduzioni letterarie più complesse, soprattutto per la poesia, un’ora di lavoro frutta in media tre o
quattro euro. La legislazione esiste e tutelerebbe il traduttore, se non fosse che, in sede di
contratto, il traduttore è indotto a rinunciare ai propri diritti d’autore. Certamente una volta
entrati nel mondo dell’editoria con i primi lavori o tenerne altri è sempre più facile. Infine, sia tra i
traduttori più noti, sia tra i principianti si accettano compensi il riso così se sia l’opportunità di
cimentarsi con autori studiati e amati. I traduttori molto raramente possono scegliere che cosa
tradurre; se un traduttore vuole proporre personalmente un’opera da tradurre deve svolgere
indagini di mercato e deve rinvenire a un’opera del presente o del passato che non sia ancora
stata tradotta, ppure ad un’opera che sia bene ritradurre. Questo dovrebbe essere un TP che
possa avere successo e a portare prestigio all’editore. In definitiva nessun normale traduttore ha
sufficiente autorità per condizionare le scelte editoriali. Per pubblicare una traduzione è
indispensabile avere fortuna, conoscere un editore o essere una persona nota. Se si ha fortuna la
qualità professionale della traduzione diviene, paradossalmente, un fatto secondario. Questo
spiega perché la qualità della traduzione sia indipendente dal nome dell’editore: per la stessa casa
editrice può lavorare un professionista competente ma anche un avventore della professione.

2.2. La valutazione delle traduzioni in prospettiva:


Fino a qualche decennio fa in certi casi le traduzioni meno professionali erano quelle firmate da
studiosi, scrittori o personaggi della cultura, i cui nomi erano più noti al pubblico. Negli ultimi
decenni salvo singoli casi, le competenze dei traduttori editoriali sono generalmente cresciute,
producendo maggiore attenzione da parte di editori e lettori. La traduzione per secoli è stata
considerata un’attività extra professionale che veniva delegata a figure sociali colte e benestanti,
che la praticavano per interesse personale o per diletto. Senza dubbio il disconoscimento
dell’attività traduttiva è superato. Oggi per quanto in caratteri più piccoli, il nome del traduttore
compare ormai spesso sulla copertina del libro o in quarta copertina ed è comunque sempre
stampato per legge nel frontespizio interno. A prescindere da tutti i paradossi si riscontra un logico
rapporto di causa-effetto tra la qualità delle traduzioni e le pretese dei lettori: più aumenta la
generale qualità delle traduzioni, più il pubblico in generale si abitua a un più alto livello
professionale. Questo determinerà che gli editori siano in futuro più interessati a investire in
traduzioni altamente professionali. In definitiva, oggi la professionalità dei traduttori editoriali è
nettamente migliore rispetto a qualche decennio fa. Manca ancora del tutto una classe di critici
competenti che educhi le competenze dei destinatari. Finora la critica delle traduzioni è stata
pressoché assente dalla stampa italiana, se non sotto forma di recensione generica sul nuovo libro,
di generico encomio per il lavoro di un amico o di personale polemica contro qualche collega. In
Italia I problemi connessi alla critica della traduzione sono legati a problemi relazionali: qualsiasi
aspirante critico della traduzione incontra una serie di deterrenti che generano un’autocensura: il
critico si troverebbe quasi sempre a recensire traduzioni di esponenti più o meno autorevoli,
pubblicate da case editrici per cui egli stesso ha lavorato, lavora o vorrebbe lavorare. Se la sua
critica fosse troppo severa potrebbe danneggiarlo. Per decenni è prevalsa l’idea che anche per le
traduzioni fosse legittimo qualsiasi giudizio. Nel 1997 Solonovic scriveva: “i giudizi dei teorici e dei
pratici della traduzione sullo stesso edito traduzione molte volte non coincidono; il fatto è che è un
traduttore, giudicando il lavoro di un collega oppure il proprio lavoro, si basa sui dati empirici. Il
giudizio negativo su una traduzione è più obiettivo se viene da chi conosce i segreti del mestiere
Isa quali elementi di un determinato testo di partenza possono essere riprodotti nel testo e quali
no”. Individuare parametri coerenti e condivisi per la valutazione critica delle traduzioni significa
riconoscere un nesso tra conoscenza teorica e competenza professionale, tra competenza e
qualità del prodotto. Antoine Popovic sosteneva che esistessero due tipi di critica: quella
modellata sulla critica letteraria, applicata direttamente al testo di partenza, e quella che non ne
teneva alcun conto, poiché riferita esclusivamente al polisistema nazionale di arrivo. Una nuova
critica della traduzione editoriale dovrebbe essere una sIntesi dei due approcci, ma fondata
comunque su parametri emersi dallo studio del processo traduttivo. La critica della traduzione può
esistere solo sulla base di un modello teorico.

3. La traduzione specializzata:
La traduzione dei testi commerciali, tecnici e scientifici basati su terminologia specialistica e su
stilemi specifici, è la tipologia professionale più diffusa sul mercato mondiale e viene definita
traduzione specializzata. I committenti delle traduzioni specializzate possono essere privati
cittadini, comitati congressuali, o le pubbliche istituzioni. Nell’ambito dell’istituzioni governative,
esiste una massiccia e quotidiana attività di traduzione che coinvolge sia numerosi traduzioni
traduttori impiegati sia professionisti freelance. Ad esempio nelle istituzioni dell’Unione Europea,
in cui si contano 24 lingue ufficiali, sono coinvolti circa 4300 traduttori e 800 interpreti come
personale permanente. In Italia si lavora prevalentemente con le lingue europee, ma vi sono ampi
settori del commercio, della politica, della diplomazia e delle istituzioni che necessitano
stabilmente dei traduttori da e verso lingue di paesi esterni all’Unione Europea. Particolarmente
ambiti sono i professionisti in grado di lavorare con almeno una lingua meno nota. Qualsiasi
traduttore specializzato deve disporre di competenze di base relative alle specialità su cui è
chiamato a intervenire. Si può condividere l’idea che un traduttore specializzato non possa
assolutamente sostituirsi allo specialista, ma il traduttore specializzato possiede una conoscenza
sia scientifica che tecnica della lingua in quanto veicolo della comunicazione specialistica,
competenza che lo specialista non può avere. Il traduttore può essere al massimo uno specialista
di traduttologia, ma deve comunque avere idee molto chiare sulle modalità con cui vengono
strutturate le informazioni che deve tradurre, sugli schemi procedurali con cui gli specialisti
comunicano e argomentano il proprio sapere, sulla terminologia e fraseologia che usano le
linguaggio professionale. Al traduttore specializzata richiesto:
- di conoscere le strutture ricorrenti dei testi specialistici;
- di conoscere e implementare la terminologia specialistica;
- di saper usare con coerenza pragmatica i connettori che stabiliscono le correlazioni tra gli
enunciati.

Non in tutte le lingue naturali le strutture e i connettori dei linguaggi settoriali funzionano nello
stesso modo, ma esistono regolarità che permettono un traduttore di implementare le proprie
abilità in modo trasversale anche in altri ambiti e nelle altre sue lingue di lavoro. Un traduttore che
abbia esperienza in un certo settore con una particolare coppia di lingue è facilitato a diventare
traduttore in quello stesso settore qualora introduca una lingua nuova, Così come è avvantaggiato
se vuole introdurre un nuovo ambito di specializzazione. Questo è tanto più evidente se il
professionista lavora in modalità passiva, traducendo verso la L1: ogni esercizio di traduzione da
una lingua non nativa rafforza gli automatismi verso la L1 da tutte le altre lingue. Quando il neo-
professionista accede al mercato, può perfezionare via via la sua preparazione ogni volta che gli
viene affidato un lavoro specifico. Solo in rari casi è possibile lavorare soltanto in uno o due settori
disciplinari e da rarissimo che si possa scegliere in quale settore. Caratteristica distintiva della
traduzione specializzata è la familiarità con le strutture e i termini delle lingue settoriali, dette
anche micro lingue o LSP (Languages for Special Purposes). La complessità e la diversificazione dei
testi specialistici impone ai traduttori di conoscere i fondamenti della terminologia. La
terminologia viene presentata come un codice artificiale all’interno di un codice naturale, e il testo
specialistico come puramente informativo, tecnico, terminologico, chiuso, nel quale ogni termine
corrisponde uno e un solo significato denotativo codificato e inequivocabile. L’idea che i termini
siano più artificiali delle parole contro argomentabile: basti pensare alla migrazione dei termini da
una lingua settoriale all’altra; si pensi al numero di parole creati artificialmente come termini ma
oggi “ridotte” a parole non specialistiche; nonché alle parole nate come antonomasia o
metonimia. Inoltre i termini possono essere presenti in tutte le tipologie testuali, quindi non
possono essere l’elemento distintivo dei testi specializzati. A prescindere dal loro differente uso e
registro, i termini sono creati, selezionati, modificati, dimenticati in base all’ideologia, alle mode, ai
tabù e a fattori soggettivi. Di conseguenza si può affermare che:
- in tutte le lingue umane, le microlingue condividono stabilità e instabilità;
- con tutti i linguaggi umani umani condividono la creatività, intesa come violazione di
regolarità e stereotipi;
- la creatività linguistica implica un certo grado di connotazione in quanto rende l’unità
verbale “speciale” (marcata) rispetto all’uso atteso;
- le microlingue sono ‘discrete’ e ‘oggettive’ solo nei limiti in cui è stato canonizzato un
processo onomasiologico soggettivo e non sono ancora subentrate mutazioni;
- la terminologia e le definizioni dei termini non sono mai “ideology free”.

Tutti i testi, in quanto artefatti verbali, riflettono due qualità paradossali: sono conformi a un dato
canone e tendono parzialmente a differenziarsi per raggiungere informazioni nuove che
concorreranno alla creazione di nuovi canoni. Quindi:
- tutti i testi sono artificiali e hanno qualcosa in comune;
- l’attribuzione di una tipologia testuale non è possibile senza stabilire prima il contenuto
esterno;
- una denotazione di un termine in un qualsiasi testo umano non esiste e non può esistere;
- il come (variante) qualcosa è detto va considerato informativo quanto il cosa (invariante)
viene detto;
- la correlazione come/cosa agisce sempre in tutte le tipologie testuali, anche un’astratta
assenza di variabili è per definizione una variabile;
- tutte le lingue naturali sono altamente formulaiche e seguono un percorso che va sempre
dalla creatività al canone;
- la funzione essenziale dei canoni è di essere applicati o violati;
- la violazione dei canoni avviene in tutte le tipologie testuali;
- in qualsiasi tipo di comunicazione linguistica, il messaggio agisce sia livello implicito che
esplicito ed entrambi possono coincidere o non coincidere a prescindere dalla tipologia
testuale.

Solo dopo aver compreso che cosa comuni tutti i testi si può stabilire cosa consenta di suddividere
in tipologie. Nella traduzione specializzata, i criteri distintivi sono due: la funzione dominante
determinata dal contesto professionale e la presenza di stilemi atti rendere le unità di testo il più
possibile non marcate, più vicino al punto zero; Tra questi rientrano l’uso dell’impersonale
l’assenza di articoli e aggettivi superflui, ecc.; alcune lingue, come l’inglese, utilizzano
prevalentemente la paratassi, mentre altre come l’italiano prediligono l’ipotassi, gli incisi e un
numero articolato di frasi secondarie. Tra gli automatismi del traduttore specializzato vanno
annoverati i meccanismi di conversione stilistica, lo stile del testo tecnico e scientifico è
parzialmente formalizzabile, ma non riducibile a un sistema preciso e discreto. Per lavorare i
contesti specialistici un traduttore deve aver acquisito ampia dimestichezza con gli strumenti
specifici della traduzione specializzata e saperli utilizzare in modalità assistita, mettendo anche a
disposizione di altri il proprio lavoro. Il traduttore dovrebbe ambire alla precisione assoluta, e
ricordati sempre che il meglio è nemico del bene. Nella traduzione specializzata sono fondamentali
la memoria di lavoro, che solitamente vengono consegnate al committente insieme alla
traduzione, però codificano l’origine delle entrate e spesso rendono accessibile a tutti gli utenti il
nome o il codice del traduttore. L’insieme delle memorie di traduzione e delle back banche dati
terminologiche impiegate nella traduzione assistita Sottoforma di programmi elettronici prende il
nome di “CAT tools” (strumenti per la Computer Assisted Translation). Questi computano i
compensi frammentati, che vedono variare la percentuale della tariffa globale secondo i cosiddetti
“match value”. A determinare il compenso del traduttore è la percentuale di match presentati
dalle memorie di traduzione, la presenza esclusiva o parziale nel corpus di ogni singola unità
traduttiva selezionata dal traduttore: in alcuni casi, solo un match inferiore all’84% indica che sia
pagato al traduttore una tariffa del 100%. Il traduttore riceve compensi che lui stesso non è più in
grado di calcolare, poiché li calcola il sistema stesso.

4. L’interpretazione:
La traduzione orale è ottenuto un vero e proprio status professionale come interpretazione solo
nel XX secolo. La prima occasione in cui è stata impiegata livello internazionale è stato durante il
processo di Norimberga. A partire dagli anni 60 del XX secolo si è strutturato l’ambito
professionale degli interpreti di conferenza. Nell’interpretazione di conferenza ci sono tre tipologie
di prestazioni diverse, che si svolgono nel contesto dei congressi, dei convegni internazionali e
delle conferenze, e che richiedono una preventiva preparazione tematica e terminologica:
- interpretazione simultanea;
- interpretazione consecutiva;
- chuchotage.
Sono diverse le modalità, i tempi e le attrezzature richieste da ognuna, talvolta divergono in
misura significativa anche le abilità richieste dagli interpreti. Nel complesso la modalità di
interpretazione meno faticosa tra queste è la traduzione simultanea. Per praticarla è
indispensabile una sala debitamente attrezzata con un sistema di cabine che ospitino due
interpreti ciascuna; ognuna è dotata di una doppia postazione e una consolle dotata di microfono
per l’output e di pulsanti che consentono di accendere spegnere il microfono e isolarlo. Ogni
cabina si occupa di una coppia di lingue: secondo la prassi deontologica, ospiterà due interpreti,
ognuno dei quali sarà nativo di una delle due lingue e idealmente ognuno tradurrà esclusivamente
nella propria L1. Se le coppie di lingue sono troppe si può attuare il relais, ovvero la “staffetta“:
una sola cabina traduce il discorso del relatore nella lingua comune a tutte le altre cabine; questo
consente di ridurre il numero delle cabine e i costi. Ogni simultaneista dovrebbe lavorare Per un
massimo di circa 20-30 minuti consecutivi, ma i tempi regolamentari vengono servate con scrupolo
solo nelle grandi istituzioni internazionali. In una cabina regolamentare contro interpreti, la
prestazione non deve superare le sette ore giornaliere, mentre nel caso che sia presente in cabina
un solo interprete, non dovrebbe lavorare mai più di 60 minuti consecutivi al giorno. Tranne in rari
casi il simultaneista traduce sempre in modalità passiva e solo eccezionalmente in modalità attiva;
addestramento costante unidirezionale. Pur dovendo sovrapporre parte dell’input a parte
dell’output, con un intervallo detto décalage, la sua prestazione avviene in modalità procedurale.
Il cervello dell’interprete si concentra sull’equivalenza funzionale dell’output. La traduzione
simultanea consente di comprendere e di tradurre ogni singola unità, pur senza essere affatto in
grado di ripetere tutto l’intervallo del relatore e neppure ampie frazioni: l’interprete comprende le
singole frasi, ma non necessariamente tutti i concetti. Completamente diversa è la stessa
situazione in modalità di interpretazione consecutiva. Il consecutivista non sta dentro una cabina,
ma in piedi o seduto a breve distanza dal relatore osservando direttamente il pubblico e
completamente esposto alla vista di tutti. Non si traducono le singole unità traduttore coprendo le
parole del relatore, si traduce un gran numero di unità tutti insieme, successivamente al relatore,
che si ferma appositamente per essere tradotto. Mentre parla il relatore, per non dimenticare ciò
che viene detto l’interprete prendi appunti. Questa presa di appunti si basa su alcuni principi ed é
semplice ma necessita di un debito addestramento: si annotano parole che rappresentano i
concetti esposti, si usano simboli convenzionali o abbreviazioni se i simboli non sono disponibili, si
codificano consegni speciali i connettori sintattici, si marcano la negazione e l’enfasi. Esistono
diversi sistemi codificati per le annotazioni della consecutiva. Quindi la bravura del consecutivista
sta anche nel trovare un equilibrio tra codifica e decodifica dei segni. Lo chuchotage è una
tipologia anomala di simultanea in assenza di cabina che è più disagevole per tutti. L’interprete si
posiziona dietro a due massimo tre destinatari della traduzione ed esegue la traduzione solo per
loro, sottovoce. È molto faticoso per l’apparato fonatorio, crea fastidio in platea e avviene un
ambiente non insonorizzato. L’input e l’output sono disturbati e il destinatario riceve il segnale dal
solo orecchio esposto all’input.
L’interpretazione di trattativa diverge da quella di conferenza per alcuni aspetti fondamentali:
L’interprete, che si siede al tavolo con i destinatari delle lingue in diretta esposizione, perlopiù
lavora da solo e deve quindi operare in modalità attiva e passiva. La sua abilità è risaper passare in
modo altamente automatizzato da una lingua all’altra, di evitare interferenze indesiderate, di
controllare in modo costante gestualità e sguardo, di operare una maggiore mediazione
interculturale. Esempio, in situazioni di aggressività e cercare di smussare i toni e di trasmettere in
modo quasi asettico le informazioni relative allo stato emotivo del parlante. La funzione del
trattativista è quella di far svolgere una discussione efficace e di far raggiungere un accordo tra le
parti oltre all’accuratezza nel trasmettere i contenuti del dialogo. Il trattativista non viene mai
assunto da entrambe le parti, ma da una sola, che funge da committente e dal cliente pagante: è
inevitabile che il trattativista cerchi di adeguarsi il più possibile allo stile di conversazione del suo
cliente, senza discriminare la controparte. Il vantaggio è quello di poter chiedere rapide
spiegazioni durante i singoli interventi; inoltre l’interprete può chiedere a chi ha appena parlato se
ci sia qualcosa che sia meglio non tradurre. Durante la trattativa c’è un canale di comunicazione
tra interprete e relatore. La trattativa prevede che si traducano in modalità consecutiva una o più
frasi brevi e concluse che consentano uno scambio rapido di informazioni. Il ritmo della
prestazione dipende dalle circostanze; l’interprete prende appunti limitati a cifre e nomi i propri e
cerca di tradurre il prima possibile: Se la memoria di lavoro non è troppo sollecitata, è possibile
ricordare tutto e tradurre ogni dettaglio. Sta all’interprete segnalare in modo garbato che è bene
cedergli la parola, ma non può imporsi. Una modalità simile di interpretazione è quella che si
svolge in ambito giudiziario, durante interrogatori e processi. Spesso in campo giuridico il
professionista agisce sia come interprete sia come traduttore. Tra le altre specializzazioni “ibride”
nel campo dell’interpretazione vi è la “mediazione interculturale”; questa modalità può essere
definito più chiaramente come “interpretazione in ambito sociale”: questa ha e dovrebbe avere un
ruolo fondamentale nelle società interetniche, per facilitare la comunicazione nei commissariati,
negli ospedali e negli enti pubblici. Il mediatore interculturale farà tramite quando il confronto tra
diverse realtà culturali share in uno stallo comunicativo o in un conflitto. Questa modalità richiede
al traduttore competenze di carattere socio-psicologico che lo aiutino a gestire le emozioni proprie
e quelle dei soggetti coinvolti. In molti casi una difficoltà sostanziale si ha nel tentativo di una delle
parti di aggirare l’intervento dell’interprete, adducendo la propria convinzione di capire la lingua
dell’interlocutore, ma la prassi mostra che le difficoltà comunicative sono di tipo prettamente
linguculturale e che i funzionari tendono a sottovalutare proprio la diversità culturale.

5. La traduzione per lo spettacolo:

5.1. La traduzione dei testi audiovisivi:


La produzione per lo spettacolo di straordinaria complessità, perché unisce molti aspetti della
traduzione orale al lavoro sul testo scritto. Costringe i traduttori a misurarsi con vincoli numerosi e
complessi. Una delle ragioni della crescita impressionante della sua qualità e che è un risultato
negativo è improponibile; nessuno guarderebbe film con dialoghi inverosimili. Per questo il livello
delle traduzioni è mediamente altissimo. Sono ancora numerosi però, i prodotti tradotti a calco,
che hanno creato il cosiddetto “doppiaggese”. La traduzione nel doppiaggio cinematografico ha
costituito nel passato recente un eccellente modello funzionale applicabile agli ambiti creativi,
compresa la traduzione letteraria. Le difficoltà dell’adattamento dei dialoghi per il doppiaggio
sono tali da suggerire che, se davvero è possibile tradurre un film, nessuna traduzione letteraria e
al di sopra delle possibilità umane. Agli esordi della traduzione cinematografica erano certamente
presenti alcuni miti sulla fedeltà, mutuati dalla pratica letteraria; era parso chiaro ben presto che i
film per funzionare dovevano trasformarsi in prodotti perfettamente autonomi, pur restando
metatesti riconducibili ai testi originali. Il film tradotto doppiato può funzionare come il testo di
partenza funzione del film originario, ma si è anche visto che può funzionare meglio e avere più
successo. Le opere tradotte hanno un proprio valore artistico, talvolta superiore a quello
dell’opera originaria. Se realizzato in ogni sua tappa da professionisti, il doppiaggio funziona così
bene da fare completamente dimenticare lo spettatore che il film è stato girato in un’altra lingua.
Per quanto riguarda il cinema, le tipologie di produzione più diffuse sono:
- il doppiaggio,
- il sottotitolaggio,
- la voce in sovrapposizione, ovvero l’inserimento di una VoiceOver.
La ricerca di tecniche per realizzare i film in altre lingue prende piede a partire dagli anni 20 del XX
secolo. Negli anni 30 si consolida il doppiaggio vero e proprio, con l’apertura anche in Italia di
stabilimenti che avrebbero trasformato centinaia di film americani in film italiani. Il doppiaggio
può anche essere considerato un archivio per lo studio dell’evoluzione della lingua italiana parlata
lungo tutto il ‘900. I dati sul doppiaggio sono uno specchio realistico delle predilezioni culturali
degli italiani. Il doppiaggio oggi consiste in quattro fasi:
1) la traduzione dei dialoghi, scritta dal dialoghista;
2) l’adattamento di questa da parte di un adattatore che rimodella i dialoghi tradotti secondo
le esigenze di recitazione e le rende compatibili con le inquadrature, con la posizione delle
labbra degli attori sullo schermo, con i picchi espressivi dei volti;
3) l’intervento del direttore di doppiaggio che guida la recitazione degli attori doppiatori.
Dopo aver esaminato l’adattamento del prodotto il direttore segue la recitazione degli
attori nello studio di doppiaggio; il direttore di doppiaggio dispone di un assistente alla
direzione che può esprimere suggerimenti per apportare modifiche e dialoghi;
4) la sincronizzazione con mal macchinari ad alta tecnologia che perfezionano la sincronia di
voci e immagini. Successivamente il doppiato viene sottoposto al “mix”.

La citata legge numero 633 del 1941 tutela anche i diritti del dialoghista e dell’adattatore e
prevede che le loro prestazioni siano riconosciute come “opere dell’ingegno”, protette dalla
regolamentazione del diritto d’autore e quindi esenti dall’imposta sul valore aggiunto. Inoltre con
una sentenza del tribunale di Roma del 1993 nel processo Toschi contro XX Century Fox Italia è
stato riconosciuto che il lavoro dell’adattatore dialoghista è un contributo alla sceneggiatura del
film e che il suo nome va inserito tra i titoli di coda del film stesso. La suddivisione e l’entità dei
compiti traduttivi nelle tappe del doppiaggio dipende per alcuni aspetti della lingua di partenza. Se
la lingua in inglese i problemi sono ridotti: una grande quantità di professionisti e disponibile il
direttore stesso è solitamente competente in prima persona; inoltre le case produttrici
trasmettono agli operatori non anglofoni dei vari paesi le trascrizioni dei dialoghi, con informazioni
importanti per qualsiasi traduttore: ad esempio le caratteristiche diatopiche, diastratiche,
dialettali, ecc. chi traduce un film americano può essere informato sulle marcatezze del testo di
partenza e sui realia. Un simile ausilio è inimmaginabile quando si tratta di una lingua rara, la
prassi traduttiva è diversa e richiede più tempo. La realizzazione della traduzione e del doppiaggio
di un film è comunque vincolata a tempi stretti. Il prezzo del doppiaggio viene pagato
direttamente allo studio che poi provvede agli onorari di dialoghisti, operatori e attori: i margini di
guadagno sono proporzionali ad un impegno molto faticoso e possono comunque variare da uno
studio all’altro ed è un film all’altro. Al contrario del doppiaggio il sottotitolaggio é poco diffuso nel
nostro paese. Quasi tutte le opzioni presenti sul mercato presentano l’opzione dei sottotitoli,
creando in certi casi un problema di incongruenza testuale tra doppiato e sottotitolato. La nascita
del sottotitolaggio risale all’epoca del film muto, con la comparsa del sonoro si è rivelata una
pratica efficace come metodo di traduzione interlinguistica, perché non impediva l’accesso alla
prestazione degli attori in versione originaria. Il sottotitolaggio però distrae lo spettatore dalle
immagini costringendolo a leggere invece di guardare. I sottotitoli inoltre, non possono
trasmettere tutte le informazioni, né gli aspetti fondamentali della recitazione come intonazioni,
pause e indugi. La pratica del sottotitolaggio è diffusa nei paesi nordici, e la migliore scuola di
sottotitolaggio é quella dei paesi scandinavi, soprattutto della Danimarca a cui si deve il primo film
sottotitolato. Eseguire la sottotitolatura di un film richiede molte competenze: si tratta di
un’elaborazione speciale del testo che tiene conto di alcuni fenomeni percettivi, che fanno
recepire e memorizzare meglio l’inizio della scritta rispetto alle ultime parole. Poiché ogni scritta
permane sullo schermo pochi secondi il traduttore deve riuscire, riducendo il numero delle parole,
a ricostruire come può le informazioni contenute nell’enunciato di riferimento. La difficoltà sta
nella capacità di operare una selezione delle informazioni per trasformare un messaggio orale, in
un messaggio scritto: si tratta di un avere propria “tecnica di riduzione” che comprende numerose
regole condivise, come la condensazione, l’esplicitazione e l’eliminazione totale. Uno dei limiti
evidenti è che nei dialoghi di un audiovisivo sono spesso presenti tutti gli elementi del parlato che
danno informazioni sul parlante; nei sottotitoli si deve ricorrere alla compensazione, ma lo spazio
non è sufficiente per applicare le tecniche accessibile alla traduzione scritta. La competenza
specifica è data anche dalla conoscenza delle modalità di realizzazione tecnica dei sottotitoli che
aiutano traduttore a valutare meglio le opzioni. Per quanto riguarda la pratica del VoiceOver, si
tratta della sovrapposizione di una voce in lingua di arrivo ai dialoghi di partenza i quali non
vengono eliminati, ma trasmessi a volume ridotto. Per eseguirlo si traducono i dialoghi e si
adattano in modo sommario alle immagini, ma una sola voce legge tutte le battute. Le regole di
lettura sono precise: poca enfasi e dominante monotonia tonale. Era una pratica molto diffusa
nell’unione sovietica. Un’altra pratica diffusa nei festival cinematografici è la traduzione
simultanea dei film: l’interprete è chiamato a fondere in un’unica prestazione la mansione di
dialoghista, adattatore e attore.

5.2. La traduzione dei testi teatrali:


Si lavora solitamente con margini di tempo ridotti. L’opera teatrale richiede una particolare
preparazione culturale da parte del traduttore, che deve avere dimestichezza con il teatro in
generale, con i canoni di recitazione e di ricezione del singolo autore con il sistema delle citazioni.
Esistono due tipologie e collocazioni diverse della traduzione teatrale:
- il testo tradotto è finalizzato esclusivamente alla rappresentazione: non è un prodotto
autonomo, ma uno strumento per il regista che lo manipola;
- il testo è destinato alla pubblicazione e gode quindi di una sua autonomia, rispondendo alle
regole del mercato editoriale. La traduzione può essere progettata per la sola lettura o
anche per la rappresentazione.

La pubblicazione di una traduzione teatrale può riguardare il testo linguistico effettivo, oppure la
versione italiana di un’opera a cui si è ispirato un regista. In questo secondo caso, il regista può
coinvolgere il traduttore e avvalersi della sua collaborazione oppure limitarsi a chiedere all’editore
l’autorizzazione all’utilizzo per la messa in scena. Il doppiaggio potrebbe costruire un’evoluzione
del teatro trasformandolo in auto in un audiovisivo doppiato, godibile da un pubblico vastissimo.
Dati i costi il progetto potrebbe riguardare solo opere di fama internazionale di registi famosi, ma
è una prospettiva molto interessante.

5.3. La traduzione dei testi cantati:


E diversa e più complessa è la traduzione della canzone d’autore, in cui devono congiungersi due
componenti: il microtesto musicale semi-fisso, che può essere eseguito con varianti strumentali,
tonali, armoniche; il microtesto linguistico scindibile in testo scritto e testo canoro. Questi due
microtesti esistono separatamente e potrebbero avere vita autonoma, ma la canzone è una
fusione di entrambi. Al traduttore di canzoni possono essere richieste prestazioni diverse:
- un interlineare in prosa, da utilizzare come riferimento sulla copertina o come
sottotitolazioni a scorrimento;
- un interlineare che andrà rielaborata da un paroliere;
- la creazione di un testo di lingua di arrivo che sostituisca il testo di partenza musicato per
essere seguito da un particolare artista.

Il traduttore varia dal progetto a seconda che si tratti di tradurre in microtesto per la
pubblicazione a stampa, per la recitazione o per il sottotitolaggio, oppure di tradurre il microtesto
linguistico per l’esecuzione canora. Da un punto di vista teorico è fondamentale capire che il caso
1 e il caso 2 costituiscono due operazioni completamente diverse tali per cui: 1) la traduzione può
avere una sua indipendente ragion d’essere, cioè il TP può essere considerato un macrotesto
scritto che prescinde dal microtesto musicale; 2) la traduzione non può essere affrontata
prescindendo dalla fase 1. La differenza principale è che: nel caso uno per quanto si costituisca
metricamente, il testo di arrivo è emancipato dal vincolo metrico-musicale predefinito, mentre nel
caso due dovrà essere adattato alle esigenze metriche e ritmiche del microtesto. Si può sostenere
che la melodia e il ritmo abbiano un ruolo cruciale nella ricezione del macrotesto-canzone da parte
dei destinatari. Il traduttore italiano deve affrontare particolari difficoltà se traduce da una lingua
isolante, con prevalenza di mono- e bisillabi e quasi priva di suffissazione. Il fenomeno è
determinato dalla particolare struttura della frase musicale moderna, che comporta la frequenza
di parole ossitono in clausola diverso. E la lingua italiana possiede un repertorio lessicale molto
ridotto, al contrario dell’inglese.

6. Etica e deontologia:
il traduttore e teorico della traduzione Anthony Pym Nel 1997 pubblicava un volume che costituiva
il primo dettagliato studio sull’ “etica della traduzione”. Lasciava intendere che fosse una
riflessione epistemologica sui concetti di etica e deontologia. L’autore considerava “questione
etica” la valutazione dello “sforzo profuso nella traduzione”, individuando il fine ultimo della
professione nell’investimento sociale del traduttore come mediatore nella cooperazione tra
culture dominanti e culture dominate. Il suo approccio suggeriva la sovrapposizione dell’etica della
traduzione alla sociologia della traduzione. Ciò che lo interessava era individuare un concetto
trasversale di guadagno collegato alla professione che definisse l’etica come cooperazione
economica. Da qui emergeva una confusione tra il concetto di “etica” e “deontologia”. L’etica
riguarda una sfera separata che può anche essere in contrapposizione con la cooperazione
professionale. Nel significato odierno la deontologia comprende l’insieme delle norme che
regolano una professione e che sono condivise da coloro che la amministrano e la esercitano, a
prescindere dalla sfera soggettiva. L’etica riguarda l’insieme delle regole morali soggettive, che
ogni essere umano si dà. Nella prassi professionale, etica e deontologia possono entrare in
conflitto. Talvolta la responsabilità del traduttore esula dall’ambito della normativa professionale.
Secondo Antonio Da Re, l’etica non è riducibile alla deontologia professionale proprio perché
quest’ultima non è fondata sull’etica. In ambito traduttivo il problema etico nasce quando la
cooperazione, che implica l’applicazione delle norme professionali, porta a violare i principi morali
soggettivi del traduttore. L’adesione alle norme professionali previste dalla deontologia suggerisce
a qualsiasi traduttore di avvantaggiare con il proprio lavoro il committente, ma la complessa
struttura etica personale può indurre a posporre la deontologia all’etica. Quando Pym assumeva il
postulato che il traduttore fosse sempre responsabile, considerava che la sola soluzione di fronte a
un conflitto fosse quella di “non tradurre”. È doveroso distinguere tra la deontologia professionale,
che comprende la valutazione dei benefici della cooperazione tra individui, e il diritto etico di un
traduttore di opporsi a una cooperazione che ritiene immorale secondo il suo sistema di valori.
Non è così infrequente per esempio che è un traduttore o un interprete, sia chiamato da un
cliente a gestire una trattativa o a tradurre documenti e che percepisca o venga a sapere che il
proprio cliente sta cercando di imbrogliare la controparte; quanto migliore sarà la sua prestazione
(più deontologica) tanto più contribuirà a danneggiare un altro individuo. In questo caso il conflitto
sarebbe addirittura duplice, in quanto la legge dello Stato (superiore alle norme deontologiche)
prevede di violare il segreto professionale se si viene a conoscenza che sia per commettere un
reato. Dal punto di vista delle neuroscienze e della sociobiologia il senso etico risponderebbe alla
percezione interiore del senso di giustizia soggettivo e all’intenzionalità individuale che chiamiamo
“libero arbitrio”. La deontologia risulta delegata integralmente alla cultura, mentre l’etica
dovrebbe avere a che fare con la natura biologica dell’essere umano. È possibile che il libero
arbitrio non sia una realtà fisica. Se invece esiste, allora siamo veramente intelligenti e morali. In
ogni caso noi umani percepiamo l’esistenza di un meccanismo che ci permette di decidere in base
alla volontà: se anche il meccanismo non esistesse non potremmo lo stesso non comportarci come
se fossimo liberi. Qualunque sia la sua posizione etica o morale, il traduttore può essere
“responsabile” nella misura in cui è addestrato ad esserlo. Solo una crescita del ruolo
professionale della traduzione potrà contribuire all’autonomia decisionale del traduttore; in
questo senso l’etica è anche una questione sociale, che implica la possibilità di affrancarsi almeno
in parte dai dettami imposti dai clienti e dal mercato.

Potrebbero piacerti anche