Un ampio numero di linguisti fa riferimento alle idee di Noam Chomsky, gli universalisti. La sua
idea è che le lingue sono molto diverse a livello superficiale, ma sono accomunate da una struttura
profonda detta anche grammatica universale, che le rende in grado di esprimere con strumenti
diversi, tutto ciò che possono condividere gli esseri umani.
Agli universalisti si oppongono i relativisti che sostengono il relativismo linguistico, basato sulle
teorie di Saphir e Worf. Il relativismo classico in particolare si basa sull’ipotesi Saphir e Worf,
derivata dagli studi Worf sulla lingua Hopi, che secondo lo studioso aveva dimostrato il fatto che
parole e grammatica influissero sulla visione del mondo dei nativi hopi. Secondo questa corrente,
le modalità e i limiti del pensiero umano sono condizionate dalla lingua nativa. Gli utenti di lingue
diverse usano differenti rappresentazioni concettuali.
Partendo dalla psicologia e senza rinnegare l’universale funzionamento della psiche umana,
possiamo pensare che esista un pensiero pre-linguistico universale per tutti, e un pensiero
cosciente, concettuale, che per esprimersi necessita di una lingua naturale.
L’idea che chi è stato plasmato da una lingua non possa recepire fino in fondo la realtà concettuale
di chi è nativo di un’altra lingua equivale sostanzialmente a negare la possibilità di essere
realmente bilingui e quindi di poter tradurre da una lingua all’altra.
Se assumiamo l’idea di Dan Slobin, che “acquisendo una lingua nativa, un bambino impara modi
particolari di pensare per parlare (thinking for speaking)”, allora chi non è nativo della stessa
linguocultura non può accedere alla sua comprensione del mondo in modalità native-like.
John McWorther (“The Language Hoax”), spiega due cose molto importanti: che sono sempre più
diffusi dati non attendibili e leggende pseudo-scientifiche, e che esistono un relativismo e un
universalismo in grado di studiare le differenze delle lingue e degli aspetti condivisi dall’essere
umano. McWhorter distingue inoltre tra:
A livello linguistico possiamo ancora distinguere tra le tendenze universali e gli universali assoluti,
che a loro volta si dividono in:
- Implicazionali, quando un tratto linguistico ne implica un altro;
- Non implicazionali, quando un tratto linguistico è comune a tutte le lingue.
2. Traduzione e retroversibilità:
La traduzione è definita come il processo di ricodificazione di un qualsiasi sistema di segni, in un
altro sistema di segni, per cui i segni possono poi essere ricodificati dal secondo sistema al primo
(retroversibilità). Il termine traduzione indica quindi:
1. Il processo di ricodificazione di un testo
2. Il prodotto di tale processo, ovvero il testo tradotto, un testo secondario trasformato in un'altra
lingua da un testo primario.
Secondo R. Jackobson, se applicata ai segni linguistici possiamo riferirci alla traduzione come:
- Traduzione endolinguistica o intralinguistica: la conversione dei segni di una lingua
naturale, in altri della stessa lingua naturale, ovvero la riformulazione, dire la stessa cosa in
modi diversi;
- Traduzione interlinguistica: la conversione dei segni di una lingua naturale in segni di
un’altra lingua naturale, ovvero la traduzione vera e propria;
- Traduzione intersemiotica o trasmutazione: il passaggio da un codice linguistico ad un
altro, per esempio il passaggio da un testo scritto a quello cinematografico. Questo
passaggio può avvenire anche tra codici non linguistici (es. spartito-musica).
Per smentire il punto 1. Se esiste anche una sola opzione di traduzione con un alto grado di
retroversibilità allora il punto è invalidato e le traduzioni a d alta retroversibilità esistono.
I punti 1 e 2 sono quelli su cui si concentra il dibattito teorico. Entrambi considerano la
retroversibilità un livello difficilmente raggiungibile.
Questi principi sono fondamentali, necessarie e sufficienti a rendere scientifico qualsiasi modello
teorico. Scientifico comunque non significa affatto vero o corretto, ma solo che il modello è
comprensibile alla comunità scientifica e sottoponibile al controllo cioè applicabile. Nel caso della
traduzione, un modello teorico deve rendere più semplice il nostro modo di descrivere il processo
traduttivo.
Per farlo, la prima tappa necessaria è formulare un insieme chiaro di concetti, oggetti e termini per
indicare oggetti e concetti, che devono essere descrivibili mediante termini condivisi dalla
comunità dei ricercatori.
Solo individuando una base epistemologica che definisca postulati e applichi metodologie
condivisibili la traduzione potrà entrare a far parte della cosiddetta “terza cultura”, che non
oppone barriere al dialogo tra le scienze e si ribella alla divisione del sapere in cultura umanistica e
scientifica. Come osserva Paolo Balboni, la teoria che non si confronta con le sue applicazioni
rischia di diventare fiume a se stessa e autoreferenziale. Viceversa “le scienze pratiche sono
tendenzialmente scienze interdisciplinari” perché “si fondano su altre scienze pratiche e ne
traggono le implicazioni utili per la soluzione dei problemi”.
La coerenza epistemologica non esige identità di opinioni e di dati. Il fatto di usare termini
condivisi è l’unica condizione per non dover ogni volta ricominciare la discussione da zero.
Le parole specifiche di un settore vengono proprio chiamate termini. Nessun termine può
comunque essere considerato definitivo, né corretto o scorretto al di fuori della discussione
scientifica. Come dice lo psicobiologo H. Plotkin, l’importanza delle definizioni è inversamente
proporzionale al livello di avanzamento di una scienza. Quando le cose sono assodate e chiare a
tutti i partecipanti al dibattito, i termini sono meno importanti perché sono chiari i concetti a cui
fanno riferimento. Quando invece si ha a che fare con fenomeni poco studiati e molto complessi le
definizioni hanno un ruolo fondamentale. Le cose si complicano ancora di più nel caso delle
discipline ibride, che attingono a molti altri settori disciplinari. In questo caso spesso la
comunicazione fallisce perché gli studiosi usano termini diversi poiché considerano temi e
problemi da punti di vista diversi. Per questo è fondamentale che i termini utilizzati siano sempre
associati a definizioni esplicite e che l’introduzione di nuovi termini sia sempre motivata da una
modifica del concetto cui si riferiscono. Nella teoria della traduzione l’uso scientifico dei termini è
recentissimo.
1) Non è epistemologicamente motivabile partire dalle differenze prima di vedere che cosa
renda la traduzione il risultato di un analogo processo psico-cognitivo.
2) Il secondo errore è quello di semplificare la differenziazione al punto da considerare la
traduzione orale “fuori dalla teoria”, essendo “una questione meccanica risolvibile da
chiunque possieda una mediocre conoscenza delle lingue”, tale per cui “se si evita l’errore
manifesto, c’è poca differenza tra una conoscenza migliore e una peggiore”.
A distanza di due secoli il primo problema è stato superato, e l’interpretazione orale ha ottenuto
un legittimo status di disciplina accademica. Tale mutamento è cosi recente che solo una decina di
anni fa alcuni professionisti continuavano a ignorare l’esistenza degli Interpretation Studies come
materia accademica, rivendicando “il carattere meramente pratico dell’interpretazione. A partire
dagli anni Cinquanta sono finalmente apparse le prime pubblicazioni dedicate alla teoria
dell’interpretazione.
Il secondo problema, quello della differenziazione statuaria delle due operazioni traduttiva è
ancora attuale. Schleiermacher si era sbagliato nel negare l’evidenza che traduzione e
interpretazione condividono la stessa immensa complessità. Se ci si basa sul “senso comune” può
davvero sembrare che si facciano due cose radicalmente diverse, ma non è così. Basti considerare
che chi scrive una traduzione, prima di scriverla, l’ha mentalmente già eseguita, scriverla è solo
registrarla. Oggi abbiamo anche le registrazioni orali. La differenza sta solo nella velocità di
esecuzione e nell’impossibilità della traduzione orale di essere poi “corretta” o revisionata a
posteriori. Gli interpreti di conferenza traducono spesso testi scritti, che hanno tutte le
caratteristiche del registro formale. Gli interpreti quindi, non possono non avere dimestichezza
con la lingua di registro alto. Viceversa, altrettanto esperti della lingua orale sono I traduttori di
testi abbondantemente costituiti da dialoghi orali, che rispecchiano i registri della lingua parlata.
Nonostante ciò l’idea che i traduttori letterari debbano conoscere la lingua normativa, “lingua
letteraria”, ma non necessariamente la “lingua della letteratura” è sopravvissuta. Ma allora come
sono stati tradotti i dialoghi dei “grandi romanzi” da persone che non erano bilingui e neppure
parlavano la lingua da cui traducevano?
Delle discipline umanistiche la filologia è quella da cui si parte per studiare la teoria della
traduzione, ed è il campo che più si avvicina alle discipline formali e sperimentali.
2. Filologia e traduzione:
Con il termine “filologia” si possono indicare attività diverse. Noi consideriamo il temine nella sua
accezione più tecnica, come l’attività di analisi linguistico-testuale stat a ricostruire, interpretare
ed editare testi o documenti manoscritti e dattiloscritti. Il mestiere del filologo mira a ricomporre
un testo la cui tradizione ha lasciato vari esemplari, nessuno dei quali è il testo autografo
(l’originale dell’autore). Queste copie possono deviare d a uno stesso testo-capostipite, detto
archetipo, oppure appartenere a un gruppo di testi di redazione diversa. Il filologo valuta in modo
critico le fonti e le testimonianze scritte (dette testimoni), che vengono collazionate (cioè
segmentate) e ricomposte in un’edizione artificiale, detta edizione critica. Per definire i
procedimenti di un edizione critica esiste la parola italiana ecdotica, o il termine tedesco Textkritik.
Le scelte del filologo sono parzialmente soggettive, ma mai arbitrarie: sono infatti fondate su
criteri specifici, consapevoli e convenzionali. Il filologo cerca tuti i manoscritti di un testo e li
confronta, creando una gerarchia organizzata in modo diacronico, detta stemma. Lo stemma
indica in quale ordine cronologico quale testo sia stata o copiato da quale altro testo e quali
manoscritti intermedi risultino mancanti. La filologia ha un rapporto diretto con la traduzione per
il reperimento del TP e perché l’analisi del filologo comprende anche le varianti tradotte in un'altra
lingua di testi manoscritti studiati; alcune traduzioni potrebbero rifarsi a copie perdute più antiche.
L’approccio filologico aiuta a comprendere la necessita epistemologica di distinguere tra autore e
testo, sfatando l’idea che un testo vada ricostruito secondo la “volontà” o l’ “intenzione”
dell’autore. Se non esiste metodo scientifico possibile per la ricostruzione di un testo secondo la
volontà dell’Autore, se per limitare i danni occorre rispettare un “testo” inteso come documento,
ma esso stesso già rappresentante di innovazioni rispetto alla volontà dell’Autore e di una
interpretazione nuova e storicamente collocata nel tempo, allora si dovrà ammettere che il testo
stesso è un valore storicamente dato e di fatto potenzialmente indipendente dall’Autore.
Filologi e traduttori operano in base a congetture, che non sono illazioni soggettive, ma operazioni
mentali “euretiche”, ovvero calcoli probabilistici indispensabili quando mancano alcuni dati e/o il
tempo necessario per computarli. Interpretare significa ricostruire nessi tra dati anche laddove
non ci sia una soluzione unica e univoca. Il traduttore, può procedere secondo questo schema:
Nel caso di ambiguità, se il testo è contemporaneo al traduttore, si considera che l’ambiguità sia
un importante artificio del TP e lo i riproduce nel TA. Se il testo è cronologicamente distante, il
traduttore si chiede se l’ambiguità sia dovuta allo slittamento semantico del lessico e/o alle
mutazioni sintattiche.
Miliardi di persone oggi, seguono e venerano testi considerati “sacri” che sono il risultato di un
processo di ricostruzione e traduzione umana, non solo basato su congetture ma anche
condizionato dall’ambiente.
La situazione filologica del Nuovo testamento è simile a quella dell’AT: l’intera Bibbia è stata
ricostruita secondo canoni che sono stati il risultato di un processo più che decisioni di concili. La
differenza tra il canone ebraico e quello cristiano è quello che ha permesso di marcare le
differenze che consentono ai diversi “popoli del Libro” di sentirsi “il popolo del Libro”. La
sostanziale macro-differenza tra le due religioni nel rapporto con le Scritture dipende dall’opposto
approccio al proselitismo. Il cristianesimo si fonda sul proselitismo, coerentemente all’idea che la
“buona novella” sia resa accessibile a tutti i popoli della terra. La missione di evangelizzazione è
necessariamente connessa alla divulgazione e ricezione della Bibbia che va portata ai popoli. La
traduzione era la soluzione ideale per la conversione di milioni di persone. Con l’estensione a tutti
i popoli del patto divino, veniva affermato il diritto di tutte le lingue di farsi strumento della
“parola di Dio”. Il processo di diffusione della Bibbia tradotta ha raggiunto un picco, con la
fondazione delle United Bible Societies. Le Società Bibliche Unite avevano assunto il compito di
“muovere incontro” la Bibbia al lettore. La teorizzazione della traduzione della Bibbia in ambito
cristiano risaliva a San Gerolamo. Per più di un millennio, nessuno avrebbe messo apertamente in
discussione l’approccio al testo biblico del “santo traduttore”. Solo nella prima metà del XVI
secolo, la sua concezione veniva ribaltata dalla traduzione della Bibbia in tedesco conclusa da
Martin Lutero nel 1534:questa avrebbe costituito un drastico momento di svolta sia in ambito
religioso che nella teoria della traduzione. Lutero affermava la priorità della funzione comunicativa
e della coerenza pragmatica del testo tradotto. Secondo Lutero, per la dottrina cristiana, era
necessario dare assoluta priorità al criterio della credibilità linguistica e testuale. Le sue
considerazioni nell’”Epistola sul tradurre” del 1530 rispecchiano le moderne teorie semiotiche,
annullando per la prima volta il postulato della contrapposizione tra testi ‘alti’ e ‘bassi’. Lutero era
convinto che la lingua delle scritture fosse e dovesse restare popolare, credibile e comprensibile:
“non si deve chiedere alle lettere della lingua latina come si ha da parlare in tedesco, … , ma si
deve domandarlo alla madre in casa, ai ragazzi nella strada, popolano al mercato”.
Lui osservava, per esempio, come il saluto dell’angelo a Maria “Ave, Maria, piena di grazia” fosse
innaturale. Nel tedesco vivo, doveva corrispondere a “Dio ti saluta, Cara Maria”, perché così
avrebbe detto l’angelo se avesse parlato in viva lingua tedesca. Secondo Lutero, un traduttore che
lavorasse al meglio delle sue possibilità avrebbe reso un servigio a chi non avesse saputo “far di
meglio”; nessuno sarebbe stato obbligato a leggere la sua traduzione e, soprattutto, a nessuno si
sarebbe “vietato di fare una traduzione migliore”. Tuttavia Lutero non separava il piano funzionale
da quello fideistico, legato alla sua ostilità per i nemici della sua ‘verità’. Dopo aver parlato in
termini semiotici, passava a elencare le doti intrinseche necessarie a un traduttore degno di
accedere ai testi sacri. Queste rimandavano a categorie dogmatiche e ineffabili: il traduttore
avrebbe dovuto avere “un cuore veramente pio, fedele, zelante, timoroso, cristiano, dotto,
sperimentato, esercitato”. Questa prescrizione lasciava intendere che la bontà del testo tradotto
dipendesse a priori da doti umane indefinibili. I traduttori ebrei, ad esempio, non sarebbero potuti
essere affidabili, in quanto non avevano mostrato “molta venerazione per Cristo”. Il timore che i
“nemici di Cristo”, a causa di potenziali manipolazioni ideologiche, non potessero essere buoni
traduttori è comprensibile e condivisibile, ma l’idea non veniva argomentata in modo razionale.
Lutero finiva quindi, a riproporre una modalità binaria, che però lui applicava al traduttore e non al
testo. Il problema della fedeltà veniva spostato dal prodotto della traduzione al suo artefice. I
primi tentativi di impostare la discussione sulla traduzione della Bibbia secondo un approccio
realmente laico, sistematico e rigoroso, si avranno solo nella seconda metà del XX grazie al
contributo di Eugene Nida; lui poneva l’accento sul problema della traduzione come realizzazione
di corrispondenze pragmatiche, su quello che definiva “l’uso effettivo” della lingua: “il significato
di ogni unità linguistica va considerato nei limiti delle situazioni in cui può verificarsi”. Nida
argomentava una separazione tra sacralità del testo e attività interlinguistica, invitando a
ricondurre l’attività della traduzione biblica agli “sviluppi contemporanei nei campi della
linguistica, antropologia e psicologia” e “alla più vasta attività traduttiva in generale”. In un volume
pubblicato nel 1982 affermava che “si daranno traduzioni diverse che possono essere definite
‘corrette’”. L’evidenza del dominio del piano metafisico su quello logico-epistemologico si
manifesta con la presentazione del volume di Alberto Ablondi, dove si allude alle qualità
necessarie al traduttore nei termini espressi prima da Lutero:i traduttori devono essere “umili” per
farsi guidare dallo “Spirito Santo”. I linguisti, però, non possono accettare che un’analisi teorica si
fondi sul postulato non falsificabile che i testi biblici siano “di origine divina, per l’incarnazione
della parola di Dio”. Se Dio e lo Spirito Santo hanno a che fare con le traduzioni, se sono
onnipotenti e interferiscono nelle faccende umane, i ragionamenti della filologia, della linguistica e
dell’antropologia vengono azzerati. Nida era pienamente consapevole che tradurre la Bibbia
implicasse una responsabilità particolare a prescindere dal fatto che il traduttore credesse o
meno, ma spostava il concetto di sacralità dall’ontologia del testo al suo ruolo storico-sociale: la
sacralità di qualsiasi testo riguarda il mondo in cui quel testo verrà recepito dalla maggioranza dei
destinatari della traduzione. Si è detto che l’ “originale” da cui è stata tradotta la bibbia non è mai
stato l’originaria parola di Dio e che le interpretazioni dei testi oggi canonizzati non possono non
essere frutto di congetture soggettive umane. Fino ad oggi nemmeno i teorici più sofisticati hanno
affrontato i seguenti quesiti sull’AT:
- Visto che il testo della Bibbia da cui vengono fatte le traduzioni è una copia di copie, non
può essere accaduto che i copisti abbiano omesso, aggiunto, modificato qualcosa
significativo per l’autore e per la sua dottrina?
- Se la Bibbia e “parola di Dio”, quali vocali ha immaginato l’Autore?
- E’ possibile che il traduttore, oltre a dover partire da un testo manipolato dai copisti e dagli
esegeti, essendo vincolato ai suoi limiti di fallibilità, trascuri qualche particolare cruciale in
cui, magari, l’Autore aveva voluto racchiudere o nascondere la Sua “chiave di lettura”?
Ogni forma di manipolazione di un testo è soggetta ai limiti umani. Tutte le interpretazioni sono
umane e restano tali anche se assurgono al ruolo di “testo sacro” o vengono canonizzate.
Tali norme non sono soltanto ovvie, ma anche costitutive:determinano le regole secondo cui
pensiamo alle idee.
Quasi tutti i testi prodotti dall’uomo hanno in comune un legame più o meno marcato con gli
stilemi della retorica e della persuasione.
“No literal translation can be just to an excellent Original in a superior Language: but it is a great
Mistake to imagine that a rash Paraphrase can make amends for this general Defect; which is no
less in danger to lose the Spirit of an Ancient, by deviating into the modern Manners of
Expression.”
I pensatori inglesi si esprimevano in chiara contrapposizione alla pratica francese delle “belle
infedeli”.
Questa posizione veniva ripresa anche da George Chapman che poneva la funzionalità del testo
come finalità dell’atto traduttivo, ma ignorando il criterio dell’equivalenza, cioè ponendo l’estetica
del testo tradotto al di sopra della sua precisione. Dolet restava ancorato agli indefinibili concetti
di “originale” e di “senso” e al parametro dell’ “intenzione dell’autore”. L’estetismo era coerente
alla rivalutazione rinascimentale dell’estetica classica, che poneva il “bello” e il gusto all’apice della
ricerca artistica. Dal XVII secolo, la rivolta contro il letteralismo portava, in Francia, al trionfo delle
traduzioni “belles infidèles”. Il testo tradotto “innestato dai valori specifici della cultura di arrivo”
doveva contribuire ad arricchire la cultura di arrivo secondo i principi di un “estetismo naturale”.
Le “belle infedeli” nascevano dall’intento di francesizzare i testi originari, di renderli più “belli”,
secondo il gusto francese. Questo poneva la traduzione al centro del processo letterario e
creativo, ma creava un precedente: l’estetismo in traduzione sarebbe stato recepito come
“libertà” di riscrivere il testo quasi a piacimento, assecondando il gusto dei destinatari
contemporanei. La priorità del traduttore era la ricerca dell’effetto e del piacere estetico: si
privilegia un tipo di traduzione che si adegui ai criteri stilistici dell’epoca, che sia agréadable ed
élégante e che non offenda les délicatesses della lingua francese, trasformando di conseguenza gli
originali.
Le delle infedeli erano in realtà pseudo-traduzioni: queste operazioni di omologazione alla cultura
di arrivo erano vincolate a parametri extra-testuali che allontanavano la traduzione dal concetto di
ars come mestiere per avvicinarla a quello di ‘Arte’ come estetica fine a se stessa. Questa
“ideologia estetizzante” contribuì a trasferire l’idea della ‘sacralità’ dall’ambito della fede a quello
dell’arte. Se la “fedeltà” linguistica era in contraddizione con la “bellezza” del testo, il traduttore
doveva in “Libertà” abdicare alle corrispondenze interlinguistiche. Il modello francese ebbe un
successo particolare in Russia dal XVIII secolo, quando non c’era una distinzione qualitativa tra
“originali” e traduzioni: “la maggior parte delle traduzioni dell’epoca, se valutate secondo i
parametri odierni, dovrebbero essere definite ‘imitazioni’ o ‘rifacimenti’.
In Russia la pratica traduttiva non era legata solo alla convinzione che esistesse oggettivamente il
‘bello’, ma allo sforzo di agevolare lo sviluppo delle lettere russe e della stessa lingua letteraria
russa. Quindi l’attività traduttiva veniva recepita, a pieno titolo come attività letteraria creativa.
Attraverso traduzioni omologanti, “russificate” la Russia creava capolavori di traduzione liberi da
vincoli linguistici. L’influsso del modello francese ottenne un consenso anche in Inghilterra, dove la
parentesi dell’estetismo era però stata molto breve. A superare l’estetismo laico francese sarebbe
stato il romanticismo tedesco; i pensatori tedeschi avrebbero cercato di ‘quadrare il cerchio’ tra
“fedeltà” e “libertà”, ricadendo in una nuova forma di dualismo ‘spirituale’.
4.3. Il romanticismo tedesco e il ritorno allo “spirito dell’originale”:
I critici e i filosofi del romanticismo tedesco si interrogavano sul ruolo della storia, della lingua,
delle lettere nell’evoluzione del destino umano: “la traduzione era l’intimo ‘destino’ (innerestes
Schicksal) della lingua tedesca stessa. L’evoluzione del tedesco moderno è inseparabile dalla Bibbia
di Lutero, dall’Omero di Voss, dalle versioni successive di Shakespeare a opera di Wieland, Schlegel
e Tieck.”
A riflettere sulla traduzione troviamo Johann Wolfgang Goethe, mediatore tra classicismo e
romanticismo. Nelle “Note” al Westöstilches Divan, Goethe propugnava la supremazia della
versione interlineare: solo l’aderenza al testo originario sarebbe stata in grado di “rendere la
traduzione identica all’originale”, evitando che divenisse un “surrogato” dell’ “originale”, bensì
rappresentandolo “paritariamente”. Sebbene l’umiltà prescritta sia qui da intendere in senso laico,
Goethe sanciva in modo chiaro la superiorità del TP. Combatteva il modello francese, avanzando il
moderno concetto di ibridazione culturale: calcando il testo straniero, il traduttore avrebbe potuto
educare il “gusto della folla” a una “terza entità”, rinunciando in parte “all’originalità della sua
nazione” accogliendo l’estraneità. Si trattava di una intuizione che sarebbe stata interpretata
come “estraniamento” dalla traduzione, vista non come riproduzione funzionale di un testo in un
altro codice, ma come mera “ibridazione” della cultura di arrivo. I più noti protagonisti del
romanticismo tedesco sono Wilhelm von Humboldt e Friederich Schleiermacher. Nel 1813
Schleiermacher pubblicava il saggio “Sui diversi metodi del tradurre”, e nel 1816 veniva pubblicata
l’ “Introduzione alla traduzione dell’Agamennone di Eschilo” di Von Humboldt. Dal saggio di
Schleiermacher emerge il duplice intento paradossale che caratterizza buona parte della teoria:
creare tipologie per regolamentare la traduzione, dimostrare che la traduzione è un’operazione
non assoggettabile a schematizzazioni. L’analisi parte dalla considerazione che la comunicazione
umana è estremamente difficile anche all’interno della stessa comunità linguistica: secondo S. Le
forme di una stessa lingua e il senso a loro attribuito darsi singoli parlanti non paiono riconducibili
a un codice unitario; inoltre per ogni persona varia la ricezione individuale di uno stesso testo nel
tempo. S. Proponeva la distinzione tra l’attività del Dolmetscher, interprete dell’ “attività
quotidiana”, e dell’ Übersetzer, il vero traduttore. Mentre “all’ambito dell’arte e della scienza si
addice la scrittura”, negli altri ambiti si sarebbe avuta solo una “registrazione di un’interpretazione
orale”. Il legame tra lingua, pensiero e cultura, richiedeva che il traduttore dei testi “dell’arte e
della scienza” avesse un’irreprensibile dimestichezza con la lingua e la cultura di partenza,
bilanciando l’innovazione del TA con la “creatività” del TP. Il rapporto dell’Übersetzer con la
propria cultura risultava fondamentale, ma la sua capacità di progettare “con esattezza i suoi
obiettivi” e di calcolare “i mezzi necessari al loro conseguimento” diventava impossibile da
definire. Al traduttore serviva un progetto e era importante creare tra il proprio lettore e il TA un
rapporto analogo a quello esistente tra il TP e il suo lettore coevo (attualizzazione), S. Definiva
folle questa stessa ambizione, poiché la lingua del TP “con la straniera non concorda in nessun
punto”. Questa visione riguardava solo i testi dove si manifestasse lo “spirito”, poiché i testi
“bassi” erano invece basati su corrispondenze quasi perfette. Da qui la contrapposizione tra
“parafrasi” e “rifacimento”: la prima è “meccanica” e chi la pratica “ tratta gli elementi delle due
lingue come fossero segni matematici”, per cui è limitata ai testi della scienza, mentre per l’arte si
ha l’imitazione o rifacimento (Nachbildung) che può permettere una forma di attualizzazione,
sostituendo lo “spirito dell’originale” con “L’estraneo”. Contro-argomenta ile è anche
l’affermazione di S. Che nulla possa essere “inventato” in una lingua: in realtà, proprio le
traduzioni costituiscono un ambito di sviluppo onomasiologico per qualsiasi lingua di arrivo. Gli
umani dispongono, infatti, di facoltà atte a inventare parole in modo che siano comprese e
trasportate da un campo all’altro, da un registro all’altro. Per sintetizzare la sua bi-teoria: “O il
traduttore lascia il più possibile in pace lo scrittore e gli muove incontro il lettore, o lascia il più
possibile in pace il lettore e gli muove incontro lo scrittore. Imboccata una via, si deve percorrerla
fino in fondo con il maggior rigore possibile”.
Unificare le due strategie avrebbe dato “risultati estremamente incerti con il rischio di smarrire
completamente sia lo scrittore, sia il lettore”. Oltre a questi metodi “non può essercene un terzo
capace di prospettare un obiettivo ben definito”. A questo ‘aut-aut’ si possono opporre due
considerazioni:
1) Dosare i due metodi è possibile, è quello che fa oggi un professionista, soprattutto con testi
complessi e perfino con la traduzione biblica;
2) Quali che siano i parametrio egoisti da un traduttore, sono sempre e solo proiezioni del suo
modo mentale e circoscritto; tutte le operazioni svolte sono sempre misurate e verificate
dal traduttore su se stesso, secondo un processo di decodifica-codifica-verifica che avviene
solo nella sua mente e che è, pertanto, sempre e comunque ‘self-oriented’. “La
comprensione umana, quindi la comprensione della comprensione, è essenzialmente
riflessiva e autoriflessiva [self-referential]”.
Tra le osservazioni di S. vi era quella sul rapporto pensiero-linguaggio e quella sul rapporto tra
parlante e lingua nativa. Il suo più grande pregiudizio era negare la possibilità che un individuo
potesse essere “una stessa cosa in due lingue diverse”: il pensiero umano sarebbe stato
direttamente modellato sulla lingua che racchiudeva lo “spirito” della nazione. In realtà si può
essere la stessa persona in due lingue diverse. Wilhelm von Humboldt nell’introduzione alla sua
traduzione dell’Agamennone, partiva dal postulato che la poesia di Eschilo fosse “intraducibile per
sua peculiare natura”, ma non individuava in cosa consistesse la “peculiare natura” di siffatta
intraducibile poesia. Spiegava subito dopo che le diverse lingue sono tra loro in un rapporto di
sinonimia, inteso come corrispondenza imperfetta, in quanto: “nessuna parola di una lingua è
completamente uguale a una di un’altra lingua […] ognuna esprime il concetto un po'
diversamente, su un gradino più alto o più basso sulla scala delle sensazioni”.
Questo portava l’autore a sostenere che “una traduzione è tanto più deviante quanto più tenta di
essere fedele”. Humboldt misurava la sinonimia secondo la corrispondenza parola/parola
(lessema/lessema), senza fare il passo successivo: tra le lingue esiste sempre una sinonimia
praticamente perfetta, ma solo se si considera il rapporto parola/locuzione o locuzione/locuzione.
Questo induceva Humboldt a teorizzare un “mistico rapporto tramite lo spirito” che avrebbe unito
i suoni ai concetti, laddove i suoni avessero contenuto “gli oggetti della realtà disciolti in idee”.
Molto lungimirante era l’idea che la “stranezza” della traduzione tendesse a “oscurare”
l’estraneità, per cui il traduttore avrebbe dovuto “scrivere come lo scrittore avrebbe scritto nella
lingua del traduttore”. Poco dopo, però, specificava che “nessuno scrittore scriverebbe in un’altra
lingua la stessa cosa e allo stesso modo”, questo è vero ma veniva detto in modo fuorviante:
semplicemente, in due momenti diversi, nessuno scrittore scriverebbe la stessa cosa e allo stesso
modo nella stessa lingua. Altra intuizione è che la qualità della traduzione di pensa non da lunghi
rimaneggiamenti, ma da “una prima felice ispirazione”. Effettivamente, a un alto livello di
addestramento, i traduttori, come gli interpreti orali, tendono a produrre un testo scritto già
molto simile a quello definitivo e le eccessive revisioni possono rovinare la prima “felice
ispirazione”. Humboldt faceva un accenno a quello che oggi definiremmo il dominio dei canoni dei
culture makers. I lettori, osservava, sono “storditi dall’arbitrio dei poeti” e “poco abituati a metri
usati non tanto spesso”. Le “libertà” che il traduttore può assumersi, sono un utile strumento in
direzione del contatto tra estraneità, inteso soprattutto come “ibridità culturale”. Oggi diremmo
che le traduzioni possono esercitare un influsso cognitivo sui destinatari, addestrandoli alla
ricezione di nuovi modelli culturali. Nel rimarcare la precarietà e contingenza storica delle opere
tradotte, Humboldt conclude che le traduzioni sono “altrettante immagini dello stesso spirito”, ma
“il vero spirito riposa solo nel testo originale”. A quanto pare, il filosofo intendeva dire che la
traduzione è il prodotto non solo di un’epoca, ma della ricezione del singolo traduttore nella sua
individuale relazione con la cultura di arrivo (in sostanza, la traduzione è ‘self-oriented’). Humboldt
ha comunque spianato la strada all’idea che qualsiasi testo sia, di fatto, un “originale”, poiché il TP
stesso è comunque strettamente imparentato all’insieme dei testi precedenti; al tempo stesso
suggeriva che ogni TP è almeno in parte un’imitazione.
1. Il ‘sogno’ meccanico:
L’ambizione di creare una macchina in grado di eseguire traduzioni al posto degli esseri umani
nacque nei primi decenni del XX secolo e avrebbe portato negli anni Trenta, ai primi veri progetti.
Questo succedeva circa vent’anni prima che il matematico inglese Turing ideasse il parametro
“test di Turing”, per indicare quando una macchina sia in grado di fornire un risultato o un
comportamento attribuibile a un umano, ovvero human-like. Il pioniere della tradizione meccanica
era Petr Trojanskij, lui non era scienziato, né accademico, ma un ingegnere-inventore che morì nel
1950. Egli si era formato in Russia, nell’epoca in cui si cercava di realizzare il “sogno socialista”. Per
anni aveva lavorato al progetto di una macchina in grado di effettuare traduzioni da una lingua
all’altra con la sola assistenza di due umani monolingui, il suo progetto si sarebbe concluso con un
brevetto. Un progetto analogo veniva brevettato anche a Parigi da Georges B. Artsrouni. Entrambi
i progetti superavano il concetto di “dizionario meccanico”: considerando che la strutturazione
sintattica degli enunciati fosse gerarchicamente antecedente alla selezione del lessico,
presentavano un vero e proprio congegno per tradurre testi, partendo dalla elaborazione delle
asimmetrie sintattiche. Il fatto che la macchina richiedesse l’intervento di due umani potrebbe
apparire diseconomico. La macchina sarebbe stata vantaggiosa da due punti di vista in Unione
Sovietica: da un lato nell’enorme Paese multilingue non era possibile reperire traduttori bilingui
per la maggior parte delle potenziali coppie di lingue; dall’altro il progetto prevedeva che con una
sola operazione si potesse eseguire la traduzione di un medesimo testo contemporaneamente in
lingue diverse, velocizzando il processo. Si postulava che la traduzione interlinguistica potesse
essere così asettica e meccanica da realizzarsi mediante la mera conversione logica di codici
algoritmici. Trojanskij aveva intuito come le lingue fossero accomunate da una struttura logica
comune: aveva anticipato l’intuizione di Chomsky. Solo alla fine degli anni Cinquanta Trojanskij
ebbe un momento di notorietà postuma, nel 1959 l’Accademia delle Scienze dell’URRS pubblicò i
suoi manoscritti. La raccolta era divisa in due parti: “materiali linguistici” e “materiali tecnici”. E’
importante premettere che il “sogno meccanico” si fondava sulla linguistica formale contrastiva:
sarebbe stato impossibile trovare una “chiave” per formalizzare le strutture e i nessi intra-
strutturali delle lingue naturali senza formulare ipotesi chiare sul substrato logico che le
accomunava. Il grande merito della linguistica formale era stato indagare le regole generali di
formazione ed evoluzione dei codici linguistici, coerenti a un criterio universale di grammaticalità.
Il suo limite era quello di non andare al di là della struttura logica dei codici, trascurando le regole
d’uso che governano nel contesto comunicativo, la ‘propagazione’ o l’ ‘estinzione’ delle ‘formule’
linguistiche. Merita soffermarsi sul principio logico dell’ultimo progetto dell’ingegnere russo. Il
postulato su cui si basava era che le lingue fossero accomunate da una struttura logica comune
che poteva fungere da codice intermedio tra una lingua naturale e l’altra. Smirnov Trojanksij aveva
ideato un’unica forma di analisi logica che costituisse un “testo di passaggio nel processo
traduttivo”. La “forma” che scaturiva dall’analisi logica si contrapponeva alla “forma nazional-
grammaticale”, ovvero alla veste particolare che la forma logica assumeva in una data lingua.
Prima della macchina, era quindi necessario l’intervento dei due monolingui nativi: il primo
avrebbe dovuto trasformare il testo “nazionale-grammaticale” A in un testi in forma logica A1; la
macchina avrebbe provveduto a convertire A1 in B1, ovvero nella forma logica della lingua di
arrivo B. Questa operazione bilingue A1 -> B1 era a carico della macchina e consisteva nella
trasformazione della forma morfosintattica della lingua A in quella corrispondente della lingua B: i
simboli logici sarebbero stati ti-assemblati in costituenti di arrivo secondo l’ordine previsto dalla
lingua B. La terza fase sarebbe stata a carico del secondo monolingue che avrebbe convertito il
testo B1 nel corrispondente testo “nazional-grammaticale” B. Le competenze richieste per
passaggi intralinguistici erano elementari. Per la comprensione semantica (lessico), si faceva
riferimento all’esperanto e a un glossario predefinito a tipologia “radicale”, comprensivo di
sinonimi, omonimi e idiomatismi. La paternità delle machine translation va riconosciuta agli Stati
Uniti. La nascita dell’IA vera e propria, si colloca negli anni Quaranta, quando i primi progetti di
autonomi elaboratori elettronici erano sollecitati da interessi bellici. Qui avviene il grande salto dai
congegni meccanici alle “macchine computazionali”, possibile grazie all’ideazione di dispositivi
elettromeccanici che permettevano di utilizzare il codice binario privilegiato dai computer.
L’utilizzo elettronico del codice binario consentiva di eliminare l’intervento umano. La paternità
dei computer viene riconosciuta all’americano John Von Neuman, ideatore della prima macchina
in grado di “memorizzare un programma” che memorizzasse i dati e le istruzioni per elaborarli.
Convertendo i numeri in dati simbolici il calcolatore era divenuto un’intelligenza autonoma capace
di commutare informazioni da un codice in un altro. Il problema della traduzione intelligentissima
di presentava come un caso di commutazione non distante dai problemi di “decrittografia”
(decodificazione dei linguaggi cifrati). Durante la seconda guerra mondiale, Turing aveva
automatizzato il processo di decrittazione elettronica del codice segreto tedesco, contribuendo a
sviluppare l’IA. L’ipotesi era che le lingue naturali fossero accomunate da una struttura-base
logica, intesa a tutti gli effetti come un codice non dissimile da quelli artificiali di segregazione e di
programmazione. Weaver e Shannon iniziarono a parlarne solo nel secondo dopoguerra. All’epoca
in molti credevano che presto le macchine avrebbero sostituito i traduttori. Alla Georgetown
University venne effettuato con successo un esperimento preliminare: la traduzione dal russo in
inglese di 49 frasi di un testo di chimica, basate su 250 parole e sei regole grammaticali. I risultati
confortavano ogni speranza. Nel 1954 usci il primo numero della Mechanical Translation e l’anno
dopo Locke e Booth pubblicavano una raccolta dal titolo “Translation of Languages” che dopo due
anni uscì anche a Mosca (“masinnyj perevod”) Kuznekov forniva una prefazione con una sintesi del
livello russo nella ricerca:
“[…] vengono analizzati diversi problemi grammaticali, come la ricostruzione dell’ordine delle
parole in traduzione, la questione della corrispondenza o discordanza delle categorie grammaticali
di una lingua rispetto a un’altra e i metodi di traduzione nei casi in cui non vi sia corrispondenza
[…] Si analizzano svariati metodi operativi necessari a determinare la struttura morfologica di una
parola […] Infine alcuni articoli studiano i problemi generali della struttura logica che sta alla base
di tutte le lingue e i problemi della sintassi logica. Le ricerche ci avvicinano sempre di più all’idea di
creare una lingua medium.”
Kuznekov notava anche come la ricerca fosse orientata soprattutto alla traduzione scritta;
nell’ambito della traduzione orale, il livello della teoria pareva embrionale. Kuznekov evidenziava il
problema dell’arbitrio terminologico che i traduttori russi avevano cercato di arginare. Nel 1956
Padova aveva assistito a una replica dell’esperimento iniziale dell’IA, lui già nel 1955 aveva
realizzato in Russia il primo esperimento di traduzione automatica; si trattava di un testo di
matematica da trasformare dall’inglese in russo. Questo e altri esperimenti avrebbero condotto
nel 1958 a organizzare a Mosca il Convegno di Traduzione Automatica. Negli anni seguenti gli
ostacoli incontrati rivelarono che gli obiettivi della ricerca erano troppo ottimistici. Molti
ricercatori sospettavano si fosse verificato il “paradossi Bar-Hillel” che considerava la traduzione
automatica impossibile per definizione, a causa dell’incapacità delle macchine di discriminare la
semantica. Bar-Hillel aveva capito che alla base del fallimento c’era stata una riduttiva e
semplicistica concezione delle lingue naturali come asettiche strutture logiche, e era giunto a
condividere le stesse perplessità dei filosofi romantici e irrazionalisti. Nel 1966 l’Automatic
Language Processing Advisory Commitee decreto ufficialmente il fallimento dell’era romantica
della traduzione automatica.
A questo punto la ricerca si indirizzò verso mete meno ambiziose procedendo con un chiaro
riduzionismo, perseguendo obiettivi parziali e di basso profilo. Il riduzionismo agiva negativamente
sugli entusiasmi interdisciplinari. L’isolamento delle discipline scientifiche da quelle umanistiche
non aveva giovato, agli scienziati mancavano competenze di filologia, linguaggio semiotica ecc. e
mancava la consapevolezza di tali lacune: la lingua di un testo di chimica era ben più ‘attendibile’
di quella viva, della comunicazione umana, in cui risultava fondamentale il ruolo dell’ambiguità, le
strutture formali mutavano in itinere e le metafore parevano sulla astratta semantica
dizionaristica. La traduzione automatica si fondava sul concetto di langue, la lingua normativa
astratta, mentre nei testi umani abbondava la parole, la produzione contingente, unica e
irripetibile degli individui. In alcuni casi era difficile rendere a routine automatica quello che per un
cervello umano risultava semplice e ‘naturale’: l’intelligenza umana si era dimostrata in grado di
gestire i dati grazie alla sua maggiore flessibilità e alle capacità analogiche. Il fallimento dell’IA
dimostrava che gli algoritmi linguistici erano più complessi del previsto e che non bastavano a
creare un’IA humanlike. Da qui nacquero due filoni di ricerca paralleli. Il primo filone era quello
della linguistica computazionaleche inaugurava una ‘terza strada’ tra il “sogno meccanico” e il
negazionismo romantico: la traduzione assistita. L’idea di una collaborazione tra traduttore e
macchina implicava di guardare ai computer come strumenti utili per rendere i processi più veloci
e i risultati più affidabili, grazie alle banche dati che le macchine potevano memorizzare, i corpora.
La formazione dei corpora linguistici avrebbe richiesto un notevole impegno epistemologico per
rendere sufficientemente ampi e rappresentativi i dati raccolti. I corpora paralleli (bilingui)
avrebbero sostituito il criterio del dizionario ‘lessicale’ e i corpora monolingui si sarebbero potuti
usare poter confrontare le lingue. Le ‘memorie di traduzione’ avrebbero consentito di individuare
frasi, frammenti e porzioni di testo creando degli archivi. Il secondo filone era quello della
traduttologia, sviluppata come branca della teoria della traduzione dedita allo studio dei processi
traduttivi e alla loro classificazione formale. Coniugando gli aspetti bottom up e top down della
ricerca, la traduttologia cercava di formalizzare i processi traduttivi e le gerarchie procedurali,
mediante tassonomie e classificazioni, senza rinunciare all’approccio olistico del tradizionale
ambito umanistico.
2. La traduttologia linguistica:
Gli studi di stampo linguistico, hanno raggiunto l’apice dalla metà degli anni Cinquanta fino ai primi
anni Novanta. Il l’oroscopo primario era quello di intaccare l’opinione secondo cui il traduttore
dovesse essere solo un buon letterato con raffinate conoscenze della propria lingua. Le teorie
universalistiche avevano ampiamente argomentato l’esistenza di regolarità strutturali alla base di
tutte le lingue, con la possibilità di trovare anche regolarità procedurali nel processo di traduzione.
Quasi nessuno ambiva a individuare rigide normative, ma a superare l’anarchia del soggettivismo. I
traduttologia erano convinti che fosse possibile comprendere e descrivere anche le procedure
creative seguite da si traduttori letterari. Ma l’idea che la lingua e la linguistica dovessero essere
fondamentali nello studio della traduzione, è stata osteggiata per decenni. Henri Meschonnic nei
primi anni Sessanta affermava che una teoria linguistica fosse necessari perché la traduzione
cessasse “di essere un artigiano empirico che disconosce il suo lavoro e il suo statuto”. Dieci anni
dopo l’inglese Peter Newmark ribadiva che il compito di un teorico fosse quello di “far sì che nella
traduzione non venga ignorato alcun fattore linguistico e culturale rilevante”, dopo altri dieci anni
Roger T. Bell affermava che: “the major need is for descriptions and explanations of the process of
translating”.
Gli algoritmi sono programmi che soddisfano le condizioni di completezza, non ambiguità e
coerenza, sebbene non necessariamente un algoritmo rappresenti una ricerca esaustiva di un
problema risolvendolo completamente. Ci sono algoritmi top down e bottom up: per il primo tipo
solitamente si cita l’esempio del cosiddetto “algoritmo euclideo”, che consente di individuare uno
specifico massimo comune divisore di due cifre note, ma si può anche citare una ricetta
comprensiva di ogni mossa che porti ad un esito perfetto. La strategia dal basso, è quella che
consente di risalire a una premessa teorica generale dai dati particolari. In sintesi “ogni
programma di un computer è un algoritmo” e può essere eseguito ripetutamente da qualsiasi
sistema intelligente , secondo lo schema:
Se P, allora Q
Questo consente – potendo definire P e Q, e avendo tempo – di effettuare una ricerca per
verificare se l’opzione considerata è uguale o diversa da P e di concludere la computazione
secondo lo schema:
sì v no -> stop computing
L’ “Itinerario A” può essere trasmesso da altri a chi lo applica, oppure può essere ricavato
autonomamente bottom up, eseguendo tutti gli itinerari possibili. L’ “itinerario A”, sarà composto
da una serie di sub-routine fisse e da una serie di variabili prevedibili, le quali integrano l’algoritmo
principale:
Finché i dati non cambiano e si dispone di tempo per acquisire e applicare l’algoritmo, si ha la
certezza di avere una regola completa e coerente. L’applicazione “Itinerario A” risponde a un
algoritmo deterministico. Se ci fossero due soluzioni altrettanto buone, si avrebbe un algoritmo
non deterministico.
Poniamo, che una delle sub-routine non sia applicabile perché i dati sul traffico sono cambiati e/o
possono continuare a cambiare: questo rende inapplicabile l’algoritmo rigido e il sistema
intelligente non riesce a decidere. Si deve cercare una nuova strategia, che dovrà essere per forza
veloce ed efficace. Questa strategia sarà un’euristica e si applicherà per risolvere Y quando non si
può applicare l’algoritmo o una sua sub-routine. Il concetto di euristica non ha una definizione
universale, si tratta di una strategia che considera, tra le soluzioni possibili, solo “quelle più
promettenti, ignorando invece quelle poco probabili o addirittura implausibili”. Si tratta di una
‘scorciatoia’ e di una scommessa: si selezionano i dati della ricerca, aggirando quelli mancanti,
riducendo costi e tempi della ricerca e della soluzione. Secondo Dennett, le strategie euristiche
umane, sarebbero in realtà forme di algoritmi non deterministici, potenzialmente indagabili in
termini formali, ma a volte inafferrabili in quanto parti di un enorme programma “orrendamente
complicato e sconosciuto”. Nel problema Y, se l’imprevisto incidente determina una riduzione del
tempo a disposizione, le decisioni andranno prese in fretta secondo parametri probabilistici; si
segue una ‘logica parziale’, che non da certezze, ma consente di evitare tutte le verifiche per
risolvere Y:
L’euristica quindi è una strategia di ricerca ad hoc della soluzione di un problema che tiene conto
di parametri generali e di interpretazioni in parte soggettive, che solo parzialmente è
formalizzabile, ma prevede routine e sub-routine riconducibili ad algoritmi non deterministici.
Talvolta, un’euristica può essere formalizzabile e prevedibile come un algoritmo. Ad esempio si sa
che per moltiplicare N per 9, la scorciatoia ad hoc non è l’algoritmo universale di moltiplicazione,
ma l’euristica “moltiplica N per 10, sottrai N”. Per ora sebbene l’IA superi l’uomo nell’applicazione
degli algoritmi, l’uomo è più abile a semplificare la routine di ricerca euristica.
1) Un criterio di equivalenza;
2) Un numero di dati compatibile con le limitate facoltà di calcolo della mente umana.
A) Istruzioni generali, complete e coerenti, comprensive dei calcoli delle variabili probabili e
improbabili;
B) Istruzioni su come affrontare le situazioni nuove in base ai vincoli di tempo e alle soluzioni
non note, ma possibili.
Ci sono effettivamente tecniche diverse per risolvere lo stesso problema, ma ne esiste sempre una
sola che è la più affidabile e costituisce il “protocollo”: la coesistenza di altre tecniche spesso è
dovuta alla mancanza di di strumentazione, di condizioni, costi materiali, di rischi, ecc. pure
essendo strumenti all’avanguardia esterni al traduttore, lo strumento fondamentale per la
procedura di traduzione è al momento il cervello umano, quindi il ruolo delle routine (teorie) e
dell’esercizio resta fondamentale. Non avendo la capacità di memoria e la velocità di calcolo di un
computer, la mente umana “ha dovuto perciò trovare di necessità una sua propria via alla
decisione che non fosse totalmente e perfettamente logica”. La comunicazione umana è spesso
ambigua, quando non paralogica, e vi saranno sempre variabili interpretative non deterministiche:
le lingue umane creano “un’esplosione” di dati che rendono necessario l’impiego di sofisticate
euristiche interpretative. Un input ambiguo attiva nel cervello due potenziali output e la selezione
avviene in base a interferenze che ammettono la concomitanza di entrambi gli output. In generale,
le ricerche sulla soluzione dei problemi da parte del cervello umano si sono concentrate
sull’euristica piuttosto che sugli algoritmi, ma nel caso dei processi traduttivi dato l’alto numero di
algoritmi prevedibili, unito a variabili, la computazione parrebbe trovarsi all’incrocio tra
determinismo algoritmi o e non determinismo euristico. Non è possibile costruire un qualsiasi
modello teorico della traduzione senza un criterio di equivalenza: solo in base a questo criterio si
può tentare una formalizzazione di routine a schema Sì/No, che preveda euristiche ‘di ripiego’ per
le situazioni nuove. Il processo traduttivo può essere visto come un procedimento sofisticato di
inibizione delle opzioni scartate. L’energia spesa dal sistema di controllo dell’informazione per
stabilire che cosa “trattenere” e che cosa inibire è immensa: “quando alla memoria vengono
aggiunti nuovi episodi e nuovi concetti, elaborati con una ricerca estesa attraverso il sistema
limbico e corticale, che stabilisce dei legami coni nodi precedentemente creati”.
Il processo inverso, di riconoscimento in memoria, è altrettanto oneroso. Un simile apparato di
controllo, di attivazione e inibizione di milioni di link che associano i segni in base ai dati
soggettivamente memorizzati lascia intendere che il sistema procedurale (implicito) sia connesso
allo stato psicofisico del traduttore. Quando si traduce è possibile giungere a risultati complessi e
virtuosistici senza che la coscienza registri alcuni dei passaggi più significativi del processo di
soluzione. Per applicare una routine, non si deve scendere sotto a una certa velocità operativa,
l’intervento della coscienza può essere un freno per quella sintesi intuitiva che aiuta a trovare
soluzioni cui i processi coscienti non possono condurre. La coscienza procede con lentezza rispetto
alle procedure automatiche. Le procedure sono veloci se evitano che i singoli passaggi della
computazione si presentino per intero alla coscienza, il traduttore addestrato percepisce la
soluzione come intuitiva. I processi traduttivi utilizzano un’infinità di micro-passaggi neuronal I che
agiscono tra il livello cosciente (controllo esplicito) e il livello automatico (procedura implicita):
questo livello ‘semi-cosciente’ della procedura innesca la sensazione dello ‘stato di grazia’
procedurale in cui ci si sente agire in perfetto controllo. Abbiamo in realtà scarsa o nulla
consapevolezza di eventi che in realtà la nostra memoria implicita provoca o registra: la coscienza
parrebbe un epifenomeno, una specie di illusione “su larga scala” derivata dalla “collusione” di
“tanti piccoli, indubitabili eventi non illusori”; la sensazione del ‘Sé’ deriverebbe da una “struttura
astratta”, “un pattern” che produce una riflessione degli eventi: “cosa conta è il pattern
dell’organizzazione, non la sostanza”. Il concetto di “pattern” secondo Douglas Hofstadter, teorico
dell’IA, è utile per riflettere sulla traduzione: i pattern, “possono essere copiati da un medium
all’altro” e quest’azione è appunto ciò che chiamiamo “traduzione”. Il concetto di pattern non si
applica solo ai “geni”, ma anche ai testi letterari e sarebbe questa essenza strutturale dei testi a
consentirne l’intrinseca traducibilità:
“[…] a novel is a pattern […] And so a novel is an abstraction, and thus, the very same novel can
exist in different languages, different cultures thriving hundreds of years apart”
Le strutture che governano la lingua, la pragmatica d’uso e il singolo testo offrono i riferimenti
attraverso cui orientarsi per cercare le regolarità operative, i parametri, le strategie, le tecniche
che costituiscono le ‘regole dell’ars”. Indagare le interrelazioni tra elaborazione inconscia ed
elaborazione consapevole è quindi un passo fondamentale per tre compiti diversi:
Se l’unità traduttiva non rientra nei casi 1) e 2), perché i dati sono superiori alla gestione
algoritmica, si ricorre a una strategia euristica: più veloce e complessa o più ricercata e più lenta.
Come aveva detto Levy, i processi traduttivi non pongono “problemi linguistici”, ma complessi
“problemi decisionali”, organizzati secondo un ordine gerarchico, in cui è più importante
soddisfare il parametro più alto della gerarchia stabilita, che Jakobson definisce “dominante”
testuale. Il processo di traduzione è una tipica tipologia del problem solving, dove “ottimale”va
definito secondo criteri di equivalenza che variano per ogni modello teorico. Nei ‘frammenti’ dei
Taccuini di Dovlatv, c’è un frammento che rimanda a un verso del poeta russo Lermontov (“Noc,
ticha, pustynja vnemlet Bogu”, “Notte, silente, ode il deserto Dio”, nel quale la parola “ticha” per
assonanza diventa nel testo umoristico di Dovlatov “Techas”.
L’altro parametro è dato dall’allusione allo iato vita/cultura degli emigrati russi negli Stati Uniti:
Se P, allora -> “trova un gioco di parole con un verso della poesia italiana, in cui si possa cambiare
una parola che, per assonanza, si trasformi nel nome di uno Stato degli USA” e tale
che:
a) Il verso del poeta italiano sia noto a memoria ai lettori italiani,
b) Il poeta sia un pessimista romantico (come Lermontov),
c) Lo Stato sia il Texas.
Dato il tempo disponibile per la computazione, l’euristica proposta ha potuto soddisfare le prime
due condizioni, ma non c). Tuttavia, essendo l’effetto umoristico in cima alla gerarchia decisionale.
Se si vogliono scomporre, analizzare le tappe, serve determinare a ritroso, bottom up:
Supponendo di raccogliere un corpus di traduzioni che paiano ‘buone’, si può cercare di risalire
alle procedure di calcolo mentale che hanno condotto al risultato positivo e di formalizzarle in
modo da renderle applicabili come generali algoritmi semplici che aiutino a prevedere e
organizzare le strategie euristiche. Si prendano le traduzioni dei “nomi parlanti” dei personaggi
delle fiabe che hanno avuto per secoli indubbio successo. Le fiabe presentano due pattern
fondamentali per il progetto di traduzione: 1) sono ambientate in uno spazio-tempo mitologico,
fuori da vincoli nazionali, storici, geografici; 2) sono per lo più rivolte a bambini che gradiscono la
totale omologazione alla lingua di arrivo. Queste soluzioni della tradizione hanno ispirato le recenti
traduzioni dei processi dei cartoni animati.
L’analisi bottom up ci mostra anche che questo criterio non è mai stato applicato ai nomi-parlanti
degli eroi letterari. A questo punto, si possono generalizzare i due differenti procedimenti
algoritmici della tradizione della traduzione dei nomi propri, di cui il primo a soluzione aperta,
l’altro deterministica:
1) Se [TP -> fiction per infanzia], allora [TA -> ricrea nome parlante efficace in lingua di arrivo]
2) Se [TP -> fiction realistica], allora [TA -> lascia nome del TP]
Con lo stesso procedimento si può formalizzare qualsiasi strategia e tecnica utilizzata per qualsiasi
testo.
Le strategie possono essere applicate con la parziale o totale inconsapevolezza della gamma delle
opzioni possibili oppure, con la precisa adesione a una strategia. La strategia più facile è quella del
dilettante totale, quando le soluzioni risultano arbitrarie, l’algoritmo dell’arbitrio è:
Se [A unità TP], allora [per corrispondente unità TA -> fai quel che ti pare]
In questo caso l’algoritmo sarà applicato con successo, ma la soluzione sarà dilettantesca. Se il
traduttore applica una strategia restrittiva con procedure che portino a una qualche forma di
equivalenza, le sub-routine saranno formalizzabili secondo un algoritmo più complesso. Più si
aggiungono condizioni alle routine, più si complica la formalizzazione dell’algoritmo. Durante il
processo traduttivo, si applicano algoritmi semplici, ma quando le cose si complicano, si cercano
algoritmi complessi. La velocità procedurale del processo traduttivo è tanto migliore, quando più è
costante, ma le unità complicate interrompono la procedura per trovare la ‘scorciatoia’ euristica. Il
traduttore può procedere in modalità “automatica” solo se sta applicando una strategia nota a
un’unità prevedibile:
Strategia [cerco] -> applico [seleziono] -> verifico [misuro] -> convalido -> stop computing
Il processo che comporta la tappa ‘cerco’ è “un meccanismo biologico che effettua la preselezione,
esamina i candidati e consente solo ad alcuni di presentarsi all’esame finale”. Dopo la selezione
definitiva “applico”si avverte una verifica mentale: “Ok convalido -> non cercare oltre”, oppure
“No, non convalido -> cerca ancora”. Questo è cosi rapido da essere semi-consapevole o da non
raggiungere la consapevolezza piena. Per applicare strategie algoritmi che serve disporre di tutti i
dati e di tempo necessario. Quando questa concomitanza non si verifica, si applicano strategie
euristiche. Più un TP è complesso e imprevedibile (creativo), più le due modalità si alternano. Un
traduttore competente sa quando è in modalità algoritmica e quando sta applicando una strategia
euristica. Se la situazione è nuova e mancano dati, l’euristica impone di convalidare un’unità di
arrivo che presenta rilevanti segni di corrispondenza con quella di partenza, ma che non è
perfettamente corrispondente a quello che “servirebbe”. Esistono due tipologie di soluzione
“migliore possibile”:
Va rilevato che in traduzione per “trovare” una soluzione e per poterla “convalidare”, è
indispensabile una correlazione “cerco/trovo/verifico/convalido” che implichi che quello che si sta
cercando venga riconosciuto. Applicato alla lingua, il riconoscimento è tanto più affidabile se,
cercando nei dizionari o nei corpora, il traduttore riconosce l’unità linguistica o la parola che sta
cercando perché già l’ha incontrata: non la ricorda, ma, se la vede, la riconosce. Quanto minore è il
bilinguismo del traduttore, quanti meno enunciati conosce, tanto più inaffidabili sono le sue scelte
lessicali: più scelte inaffidabili si accumulano, più è probabile che il TA sia ‘diverso’ dal TP.
Lo psicolinguista Gerry T.M. Altmann illustra quanti dati in memoria vengano coinvolti nella
processo di attivazione/inibizione che produce il significato. La conoscenza di qualcosa (cioè il suo
significato) riguarda svariate parti del cervello, compresi gli input visivi, uditivi (ecoici), tattili,
olfattivi, gustativi, che costituiscono la base essenziale dell’informazione da noi memorizzata. Nella
memoria biologica si forma un’immagine mentale, che coinvolge i cinque sensi e altri dati, in parte
collegati all’esperienza universale, in parte alla biografica soggettiva. Quindi il significato va inteso
come sintesi dell’insieme di diverse associazioni, anche sinestetiche, cognitive ed emotive. Per
quanto ci si sforzi di formalizzare queste reti associative, nessun algoritmo permetterà ad una
macchina di avere la nostra memoria affettiva.
“L’informatica ci ha portato a riconoscere che tutti i saperi si materiano in un supporto. […] ormai
si riconosce che non c’è spirito, mente o intelligenza che non s’incarni in qualche struttura
materiale più o meno organizzata”
Con “informazione” intendiamo un input che raggiunge un sistema intelligente e lo modifica: “ho
acquistato una nuova informazione quando c’è stato un effetto sul mio comportamento, le mie
opinioni o la mia conversazione futura”. Il motivo per cui una certa componente fisica delle lingue
e dei linguaggi ha successo e altre invece no, può dirci molto sulla modalità di catalogazione dei
dati linguistici in memoria. La forma con cui sono codificati i messaggi li rende ‘vittoriosi’. In lingua
naturale vengono codificate sequenze diverse di parole per esprimere script (stereotipi) che hanno
il potere di moltiplicarsi. Come i virus biologici, i ‘virus verbali’ possono creare ‘danni parassitari’
strutturali al pensiero, oppure possono limitarsi a un innocuo contagio che avviene ‘a orecchio’,
senza modificare le strutture cognitive: le persone usano una formula invece di un’altra perché la
sentono di più; si crea un circolo vizioso in cui i parlanti passivamente subiscono il contagio: più
sentono la formula, più la usano, più la diffondono, più la sentono. Il fatto che la formula sia
fastidiosa non ne limita il potenziale. I ‘virus verbali’ che manipolano le strutture cognitive del
cervello agiscono secondo due modalità: 1) creando associazioni innocue e 2) predisponendo al
pregiudizio.
La manipolazione si registra a livello cognitivo e attivo, se crea “credenze”: “le credenze sono gli
indicatori interni naturali che sono divenuti rappresentazioni con la funzione di controllare un
determinato comportamento”.
“Once our brains have built the entrance and exit pathways for the vehicles of language, they
swiftly become parasitized by memes. These new replicators are, roughly, ideas.”
Secondo Dennett, la coscienza umana sarebbe un grande complesso di memi. Secondo Balkin i
memi che compongono la mente umana “possiedono le persone” più di quanto “le persone
possiedano le idee”: la mente di uno studioso non sarebbe altro che uno strumento per mezzo del
quale una biblioteca si replica. Le lingue naturali costituirebbero un ottimo canale di diffusione
memetica; esisterebbero memi universali e memi specifici di una linguocultura, i quali sarebbero
responsabili delle differenze microstrutturali. Dennett ipotizzava che il meme fosse più
propriamente connesso all’idea di “significato” che a quello di “struttura”, nel senso che la
struttura sarebbe “in funzione” del significato:
La memetica si presenta come modello teorico per lo studio della stereotipia testuale, come
quadro di interazione tra la mente, come prodotto ideologico-narrativo, e le informazioni esterne:
“L’esistenza di un meme dipende dalla sua incarnazione fisica in qualche mezzo; se tutte le sue
incarnazioni vengono distrutte, un meme si estingue”. In tal senso il paragone con i geni è utile:
“Una frase composta da tre nucleotidi non si può considerare un gene per la stessa ragione per cui
non si può ottenere il copyright di una frase musicale di tre note: non è sufficiente per una
melodia”
Noi non impariamo qualcosa perché è logico, ma tanto più lo consideriamo “logico”, quanto più ci
è familiare: la sola conformità di un messaggio alle nostre usuali categorie mentali dà la piacevole
sensazione di “logicità”. Ciò che impariamo modella il pensiero e predispone ad accettare come
logica anche l’illogicità. Un esempio è dato dalle “teorie della cospirazione”.
Alcuni volumi sulla memetica denotano una certa estraneità alla riflessione epistemologica, critica
espressa da Robert Aunger. Dawkins veniva criticato per aver affrontato il tema della trasmissione
culturale senza aver tenuto conto delle ricerche antropologiche. Maurice Bloch estendeva la critica
ai memetisti in generale, che si sarebbero appropriati dell’oggetto di studio degli antropologi
senza verificarne i contributi storici. Bloch affermava che il passaggio di informazione che avviene
nella comunicazione culturale richiedeva “un atto di ri-creazione da parte del destinatario”. Il
problema sarebbe stato quello di comprendere i meccanismi inconsci che portavano alle
“inferenze” e poi alle azioni, attraverso quel rapido processo che avrebbe innescato la sensazione
dell’intuizione.
Plotkin criticava l’idea di Blackmore che il cervello umano fosse “un dispositivo di imitazione
selettiva”, mentre in realtà la trasmissione culturale sarebbe dipesa non solo da “memi di
superficie”, ma da un processo profondo di costruzione e integrazione identitaria. Rosaria Conte
nel suo saggio sulla “sociomemetica cognitiva”, invitava a non confondere ciò che era stato
appreso socialmente per trasmissione con ciò che era risultato dell’esperienza personale
soggettiva. Laland e Odling-Smee mettevano in dubbio l’esistenza stessa dei memi e la loro utilità
come strumento di ricerca, dubitando che la cultura potesse essere circoscritta a una “collezione
di memi”. Inoltre insistendo sulla “virulenza” epidemica dei memi, la memetica trascurava la
“suscettibilità” dei destinatari, capaci di rendere potenti i memi indipendentemente dalla loro
struttura. Secondo Laland e Odling-Smee la memetica poteva giovare alla ricerca solo se coerente
agli studi sulla coevoluzione gene-culture. Boyd e Richerson consideravano prematuro parlare di
“replicanti” senza conoscere ancora bene i meccanismi che regolano la cultura. Aunger rilevava
l’importanza di rinvenire un “modello fisico” di replicazione memetica che potesse definire il
communication problem. Dunque la trasmissione culturale non sarebbe stata altro che traduzione
dalla lignua del cervello a quella dei simboli culturali. In un volume successivo Aunger affrontava
finalmente la questione della fisicità dei memi, partendo dal postulato dell’informatica secondo
cui “non esiste informazione senza rappresentazione fisica”. Lo studioso introduceva il concetto di
“neuromeme”, ovvero: “A configuration in one node of neuronal network that is able to induce the
replication of its state in other nodes.”.
Un neuromeme sarebbe “una struttura cerebrale super-molecolare capace di replicarsi” grazie a
stimoli specifici, i memi; solo specifiche tipologie di input sarebbero in grado di contagiare i
neuroni e dar loro assumere la struttura replicante anche per la lingua naturale e la comunicazione
verbale. Questa visione offre un percorso di indagine per teorizzare il modo in cui varia la memoria
a lungo termine. Il meme quindi non sarebbe “il messaggio”, ma la struttura del messaggio, che
diventerebbe “il segnale” inviato a un altro cervello mediante un canale di comunicazione. Uno
studio interessante sulla comunicazione linguoculturale è stato “Cultural Software” di M. Balkin,
una riflessione che spazia dalla filosofia all’antropologia, dalla neurobiologia alla teorica retorica.
Balkin contestava alla concezione di Dawkins l’idea che i memi si replicassero in forma identica,
trascurando il fattore-mutazione. Le mutazioni culturali superano quelle biologiche, inoltre
sarebbero l’essenza stessa della trasmissione memetica: la cultura sarebbe un sistema evolutivo
equilibrato, al contempo conservatore e mutevole, assoggettato a “quello che noi chiamiamo
libertà”. Balkin considerava che la fondamentale differenza tra evoluzione culturale e biologica
sarebbe stata da ricercare proprio nelle continue mutazioni dei simboli che esprimono i giudizi e le
credenze:
“The study of ideology is the study both of endenemic cognitive structures and of epidemic
changes in beliefs and symbols […] cognitive mechanisms are neither true or false. They are the
ways in which attitudes and judgements are formed: they produce beliefs that can be true or
false.”
Come la lingua, anche l’ideologia acquista significato in base al contesto d’uso, in quanto diventa
significante quando è contestualizzata, creando un rapporto sociomemetico tra ideologia ed
estetica: “[…] le strutture narrative possono essere trasmesse agli altri attraverso la
comunicazione, l’imitazione e le altre forme dell’apprendimento sociale”. Le strutture narrative, gli
espedienti retorici, sarebbero “forme passive del pensiero umano” predisposte ad essere
“immagazzinate nella memoria” creando la struttura di aspettative che rafforza l’intera rete di
conoscenze con cui un individuo confronta ogni input esterno.
4.3. Lingua, memi e traduzione:
L’ideatore della Skopostheorie J. Vermeer nel 1997 sosteneva che le traduzioni potessero essere
viste come “veicoli transculturali di memi” sulla base di quattro considerazioni:
“Memetics assumes that we translate ideas, not languages […] that modification is an inherent
aspect of this process, that equivalence in translation is not identity but continuity. It sees
translation as a process of dissemination, of sharing, rather than as a movement form A to B”
Lo studioso rilevava anche una similitudine tra le condizioni richieste per la replicazione e quelle
richieste per la traduzione: secondo Dan Sperber, B è una replica di A se B è causato da A, se B è
simile ad A, se il processo che genera B ottiene da A l’informazione che rende B simile ad A;
secondo Toury, un testo B è la traduzione di A, se esiste un TP, se esiste un processo di
trasposizione, se TP e TA risultano correlati.
Come un meme musicale è un’autonoma unità minima riconoscibile, associata a tempo, ritmo,
melodia, armonia, strumentazione, un meme verbale è un’unità minima di fonemi, lessico e
morfosintassi, ma anche di intonazione, prosodia e ritmo. Se la semiotica studia i simboli e la
memetica studia la forma linguistica delle formule di successo, la traduttologia studierebbe la
trasformazione dei memi da una lingua all’altra. La maggior parte dei fraseologismi, dei modi di
dire, dei proverbi possono essere considerati memi linguistici, formule che hanno vinto la
competizione tra le alternative concorrenti. C’è però un solo equivalente in ogni lingua che abbia
lo stesso stile, la stessa funzione, la stessa occorrenza tra lo stesso tipo di persone e nello stesso
tipo di situazioni. Un meme va quindi tradotto con un meme. Il valore dell’impatto memetico di
ogni espressione linguistica è un utile parametro per misurare la corrispondenza interlinguistica. E’
memetico lo slang dei giovani, l’uso traslato del lessico, l’uso degli eponimi, dei modi di dire, l’uso
idiomatico degli slang pubblicitari.
4 – IL BILINGUISMO, LA MENTE INTERLINGUISTICA E I PROCESSI TRADUTTIVI UMANI:
1. La prospettiva neurolinguistica:
Le lingue parlate utilizzano le intonazioni secondo algoritmi complessi, ma precisi, come utilizzano
le regole grammaticali, lessicali e fonologiche: anche le ambiguità intonazionale possono essere
formalizzate. Nelle lingue dei segni, funzione analoga hanno la gestualità e l’espressione degli
occhi. Ulteriori argomentazioni contrarie all’idea dell’ “emisfero linguistico” vengono dall’ambito
della patologia. Negli anni Ottanta Oliver Sacks aveva descritto alcuni pazienti a fasi i che avevano
perduto le abilità linguistiche tipiche dell’emisfero sinistro, ma riuscivano a cogliere aspetti
fondamentali dei messaggi verbali grazie ai parametri intonazionali (il loro emisfero destro era
intatto). Altri pazienti affetti da incapacità di riconoscere le intonazioni, pur avendo intatte le
capacità linguistiche dell’emisfero sinistro, erano del tutto invalidati nella comunicazione verbale.
Lo stesso accade a pazienti che per una lesione all’emisfero destro hanno perso la capacità di
afferrare il significato relativo al contesto oppure le capacità metaforiche: capiscono tutto ‘alla
lettera’. Inoltre, si sa che pazienti con l’emisfero sinistro lesionato e incapaci di parlare riescono a
rispondere correttamente a un test di identificazione immagine/parola nel 77% dei casi. Se si
aggiunge il coinvolgimento nel linguaggio verbale di strutture sottocorticali, il cervello umano
sembra concorrere nella sua interezza alla produzione e comprensione richieste da una
comunicazione verbale efficiente, fluente e completa.
E’ accettato da tutti che l’emisfero destro gestisca fondamentali aspetti pragmatici della lingua
importanti quanto la grammatica della frase; eppure molti continuano a considerare la pragmatica
come “extra-linguistica”, quando invece è il livello più complesso della produzione/comprensione
del linguaggio umano: non c’è pragmatica senza grammatica, senza lessico, senza prosodia e senza
ortoepia, allo stesso tempo la comunicazione linguistica senza abilità pragmatiche non è humalike.
“In the end what’s the difference between actual, personal memories and pseudo-memories?
Very little. There is no absolute and fundamental distinction between what I recall from having
lived through it myself and what I recall from others’ tales.”
La lingua è uno dei principali veicoli che consentono all’esperienze dirette di qualcuno di divenire
esperienza indiretta di altri: Ogni “immagine acustica“ produce una “modificazione nello stato di
coscienza dell’uditore e, in particolare, nei suoi piani di azione e nel suo comportamento reale“. Le
rappresentazioni interne al cervello sono probabilmente “ all’origine dell’evoluzione culturale“;
questo vale anche per le memorie esterne che conservano la rappresentazione linguistica delle
esperienze e del pensiero individuale. Ogni cervello umano è “mappato“ a livello individuale
dall’esperienza diretta e indiretta, ma i meccanismi che governano i processi di interazione tra
esperienza e neurofisiologia sono universali. Nei cervelli umani non tutti ricordi hanno la stessa
probabilità di sopravvivere e di essere riattivati. Le parole sono “inneschi“ che vengono
memorizzati meglio se I concetti cui sono legati sono emotivamente e socialmente rilevanti.
Quindi, ti ricordi umani più longevi e resistenti sono quelli conformi ai giudizi di valore positivi
dell’ambiente culturale circostante: “Nel cervello le popolazioni sinaptiche che soddisfano i criteri
stabiliti dai sistemi di valore hanno maggiori probabilità di sopravvivere e di contribuire alla
produzione di comportamenti futuri”. Anche se può dipendere in parte dalla predisposizione
genetica, lo sviluppo anomalo di abilità mnestiche necessita di essere addestrato. È
l’apprendimento a produrre “drastica variazioni nelle mappe corticali“ rispetto a com’erano prima
dell’addestramento. E’ grazie all’allenamento che si producono variazioni a livello genico che
fanno memorizzare nozioni e procedure. I geni rispondono alle stimolazioni ambientali.
L’apprendimento implica sia la comparsa di nuove sinapsi, sia la sparizione di sinapsi preesistenti,
modificando la struttura genica dei neuroni e condizionando la produzione di specifiche sostanze
chimiche indispensabili alla formazione di nuovi circuiti neuronali. La perdita di un tipo di memoria
e non di un altro ha permesso di comprendere che non esiste una memoria unica, ma modalità
diverse di conservazione e richiamo dei ricordi. Le diverse memorie si differenziano per i compiti
che assolvono, per le strutture cerebrali e per una certa autonomia funzionale. La prima
importante distinzione e tra memoria implicita (inconscia) e memoria esplicita (cosciente).
Dell’immensa quantità di ricordi solo una piccola parte è accessibile al controllo della coscienza: “il
98% di quello che fa il cervello è al di fuori del dominio della coscienza”. Alcune forme di
apprendimento utilizzano sia la memoria esplicita, sia la memoria implicita, è la continua
ripetizione a consentire di trasformare i dati consapevoli in procedure. Memoria implicita
procedurale agisce grazie alle ripetizioni, all’esercizio e procede a velocità superiore al pensiero
cosciente. Quando parliamo “non pensiamo in quale punto della frase mettere il sostantivo o il
verbo. Lo facciamo in automatico, inconsciamente“. La memoria dichiarativa (o semantica“)
permette di conservare i ricordi rendendoli accessibili alla coscienza: ricordiamo e ricordiamo di
ricordare un’informazione. Un’altra fondamentale distinzione è tra memoria lungo termine e
memoria a breve termine (o memoria di lavoro); in entrambi i casi, la memoria è innescata da
stimoli sensoriali impliciti o espliciti, da stimoli somatici dell’organismo, dalle nozioni esplicite e
dalle emozioni. Grazie alla ripetizione degli stimoli, avviene il potenziamento dei circuiti neuronali
e la mappatura a lungo termine del ricordo. Il sistema mnestico emotivo è un importantissimo
“Centro di transito delle esperienze soggettive“ indispensabile per creare “il sentimento emotivo
cosciente“. La memoria esplicita di lavoro è immagazzinata nella corteccia prefrontale; la
conversione di questa in memoria lungo termine pare avvenga nell’ippocampo, mentre i dati
permanenti sono immagazzinati nelle aree della corteccia; la memoria procedurale “è
immagazzinata nel cervelletto, nello striato e nell’amigdala“. Apprendere significa ricordare, ma
non necessariamente sapere che si sta ricordando. Secondo il modello generale classico, esistono
due macro tipologie Di apprendimento. Quello non associativo è innescato da uno stimolo preciso,
è registrato a livello implicito e non implica la costruzione di schemi mentali complessi. La più
semplice modalità di apprendimento che coinvolge sia la memoria a breve termine, sia quella
lungo termine è definita abituazione e consiste “nella diminuzione della risposta comportamentale
dovuta alla presentazione ripetuta di uno stimolo iniziale“: è un assuefazione graduale a uno
stimolo ricorrente. La modalità antitetica è la sensibilizzazione, ovvero il rafforzamento di una
risposta. Diverso è l’apprendimento associativo a lungo termine; basandosi sulle sinapsi determina
una rete di concetti più o meno gerarchicamente ordinati, richiamando un elemento della rete
rappresentativo si attiva la rete intera. In questa tipologia rientra il condizionamento classico
pavloviano; L’associazione di uno stimolo condizionato che prima era neutro si associa a uno
stimolo incondizionato e “innesca un’azione riflessa“. L’apprendimento necessita di un filtro per
selezionare gli stimoli più importanti: si può avere un’attenzione involontaria. L’attenzione
cosciente supporta la memorizzazione esplicita, quella involontaria supporta la memorizzazione
implicita. L’apprendimento implica la selezione delle mappe utili e la de-selezione delle mappe
superflue. Un importante supporto all’apprendimento è dato dallo stato di eccitazione e dalla
motivazione. Se l’eccitazione è positiva facilita il ricordo, se è troppo agisce negativamente e si
genera l’ansia che ostacola i ricordi. La motivazione è “l’attività neurale che in strada in direzione
dei nostri obiettivi“.
Il fenomeno di perdita della lingua è detto attrition o sfaldamento. Questo può riguardare sia la L1
che la L2, e a volte entrambe. Lo sfaldamento è causato di solito dalla mancanza di esercizio
dovuta a forti concause socio-psicologiche, familiari, culturali: tra queste fondamentale è “il
disvalore“ della L1 rispetto alla L2. Per un ragazzino la L2 parlata durante l’adolescenza nel paese
nuovo tende a cancellare totalmente la L1. Sta ai genitori trasmettere ai figli il rispetto e l’affetto
per la L1, aiutandoli a conservarla anche di fronte a vergogna, resistenza e rifiuto. I primi sintomi
dello sfaldamento della L1 nei bilingui si manifestano sotto forma di confusione tra le due lingue.
La commutazione incontrollata è un segnale di confusione tra i due sistemi. Nemmeno la capacità
di tenere le lingue separate, ovvero di “etichettarle“. Questo capita i bilingui che vivono in un
ambiente in cui L1 e L2 vengono confuse; loro senza accorgersene mischiano elle uno e L2 e non si
rendono conto di produrre messaggi ibridi, comprensibili solo a chi condivida la stessa confusione.
Il fenomeno è dovuto in buona parte all’incapacità di rispettare una stabile correlazione tra lingua
e luogo (“one place, one language”), e tra lingua e persona (“one person, one language”). La
confusione si manifesta sia come switching incontrollato, che come “code-mixing”; nel secondo
caso si perde la capacità di tenere separate L1 e L2 che si mescolano strutturalmente tra loro.
Entrambi i livelli di confusione linguistica colpiscono numerosi migranti di prima generazione. Sono
state avanzate definizioni di bilinguismo basate sulle reali prestazioni linguistiche. Secondo Myers-
Scotton, il bilinguismo sarebbe “l’abilità di usare due o più lingue in modo sufficiente da gestire
una circoscritta conversazione casuale“. Si può definire “bilingue“ una persona cui è praticamente
indifferente in quale delle due lingue vivere qualsiasi situazione. L’idea è che i canali
dell’apprendimento e quelli dell’acquisizione non siano del tutto scollegati come invece sostiene
Paradis (2009):
“only implicit components of input become intake for acquisition – not what is noted, but what is
implicitly abstracted. By definition, nothing implicit can be observed, let alone noticed”
Se L2 è utilizzata troppo lentamente tende a essere rappresentata in aree corticali, solo se è stata
introiettata in modo procedurale, interessa anche le strutture sottocorticali. Nel bilinguismo
adulto si può agire in modo sinergetico, Cosa impossibile con i bambini. Un adulto tenderà a
privilegiare la memoria dichiarativa e a opporre resistenza all’addestramento procedurale. È
quindi possibile è utile alternare il canale esplicito a quello implicito. Per creare situazioni simili
all’acquisizione della L1 si dovrebbe partire dalla comprensione passiva, sensibilizzando alle
variazioni prosodica e lasciando la scrittura come compito ultimo. Il percorso adulto verso la L2 si
differenzia dall’acquisizione della L1 per il ruolo della lettura, che va sfruttata come mezzo per
migliorare l’acquisizione della lingua, evitando che diventi un fine. È utile che qualsiasi esercizio in
L2 venga svolto alta voce. Il fatto che i neuroni dei circuiti procedurali possono modificarsi
strutturalmente quando si acquisisce una L2 supporta l’ipotesi della convergenza,; secondo questa
a mano a mano che la competenza operativa in L2 aumenta e un soggetto riesce a fare in L2 quello
che sa già fare in L1, i circuiti cerebrali dedicati alle due lingue tendono a sovrapporsi: quanto più
la grammatica è introiettato e quanto più si sovrappongono i sistemi neuronali della L1 e della L2,
tanto più è alto il livello di bilinguismo tardivo. Secondo Paradis L1 e L2 sarebbero due sottosistemi
del sistema del linguaggio. Si può ipotizzare che nei bilingui precoci entrambe le lingue siano
rappresentate nelle stesse aree cerebrali e che nei bilingui tardivi con alto livello di competenza in
L2 i sistemi neuronali delle due lingue tendano a convergere come nei bilingui precoci.
Quest’ipotesi è logica, intendendo il TD come dispositivo che lavora in modo indipendente. Sono i
disturbi del linguaggio in pazienti bilingui offre una rappresentazione dell’autonomia dei processi
traduttivi rispetto alla comprensione o produzione di una lingua. La letteratura scientifica descrive
i sintomi di diverse forme di anomalie traduttive, che comprendono:
- impossibilità a tradurre nelle due direzioni pur potendo parlare le due lingue,
- traduzione spontanea: impulso incontrollato a tradurre tutto,
- traduzione senza comprensione: il paziente non comprende il testo da tradurre, ma lo
traduce,
- traduzione paradossale: il paziente può tradurre solo in una delle due lingue, quella in cui
non riesce più a parlare spontaneamente.
La capacità di variare le formule in base al contesto richiede un enorme addestramento. Nei primi
anni di acquisizione della lingua i bambini non si preoccupano di sbagliare variante.
L’addestramento alle varianti contestuali, basato sulla memorizzazione del feedback contestuale
parrebbe quasi identico nell’acquisizione della L1 e della L2 in età adulta. Il TD darebbe agli umani
la facoltà di riformulare in un altro sotto-codice della stessa lingua e di tradurre da una all’altra
lingua naturale. Come sostiene Paradis in un cervello bilingue agiscono gli stessi meccanismi di un
cervello monolingue. L’ipotesi di un TD può implicare che l’addestramento alla differenziazione tra
codici sia fondamentale per la traduzione interlinguistica:
- se un monolingue dispone implicitamente dell’abilità di selezionare le varianti del sotto-
codice della L1 in base al contesto, allora un bilingue sa selezionare le varianti del sotto
codice della L2;
- se un bilingue viene addestrato in base a parametri di equivalenza a convertire le variabili,
allora impara a tradurre nella L1 le varianti L2 equivalenti in base ai parametri dati.
La traduzione verso le lingue più debole è sempre meno nativelike, ma si velocizza comunque in
proporzione all’esercizio in direzione opposta.
2.2. Generalità:
La generalità è una condizione fondamentale per un modello teorico rigoroso. Un modello teorico
sulla traduzione deve partire dal massimo livello di generalizzazione e solo al suo interno
comprendere le particolarità dei singoli casi. La prima ambizione del modello è quella di
comprendere bottom up che cosa comuni tutte le traduzioni che funzionano, così da risalire a un
principio generale di equivalenza comune a:
A) Tutte le tipologie testuali
B) Tutte le coppie di lingue
C) Tutti i formati testuali
Un modello teorico parte dalle analogie e considera le particolarità e le differenze come elementi
costitutivi della soluzione generale. Se CRITERIO X è la soluzione generale per la traduzione
costruita sulla previsione delle differenze, sia l’algoritmo:
se TRADUZIONE (generale), allora CRITERIO X (generale)
se TRADUZIONE (problema particolare), allora CRITERIO X (caso particolare)
Quindi il modello deve stabilire quali parametri e strategie segue sempre un traduttore per uscire
in modo ottimale: 1) a suddividere un testo in unità traduttive minime; 2) a selezionare in un
tempo massimamente breve una e una sola tra le opzioni traduttive considerate nella sua mente;
3) a inibire tutte le altre opzioni.
Il primo compito di traduttore e procedere a suddividere le porzioni di testo in unità traduttive
minime compatibili con la memoria di lavoro, il secondo è selezionare un traducente per ogni
unità considerata, de-selezionando tutti gli altri. Tradurre è saper scegliere, saper escludere tutte
le opzioni tranne una. Il modello proposto detto PPT è un primo tentativo di realizzare questo
compito. Il concetto fondamentale del modello è quello di equivalenza. Per poter definire due testi
‘equivalenti’, è indispensabile negoziare una definizione del concetto stesso di “equivalenza“.
Nella storia della traduttologia, esistono innumerevoli tipologie di equivalenza parziale. È
indispensabile trovare un concetto di equivalenza traduttiva: un’equivalenza generale che
comprende in sé alcuni o tutti i livelli di equivalenza parziale e che quindi sia misurabile al più alto
livello complessivo del messaggio.
Tutti i converranno sul fatto che, tranne 8 = 8, in tutti gli altri casi ci sono due cose diverse da una
parte e dall’altra del segno di uguaglianza; converranno anche che pi/=3,14 è semplicemente
un’affermazione sbagliata, è un’uguaglianza approssimata. Come suggeriva Paul Davies “La
geometria euclidea rimane un’ottima approssimazione nella maggior parte delle circostanze“. Le
analogie tra matematica e traduzione sono molte, ma l’entropia in traduzione e in molti casi
decisamente inferiore. Anche per i matematici esistono i concetti di “invarianza” e “variante”: lo
stesso teorema può avere una dimostrazione algebrica e una geometrica “che dicono la stessa
cosa”, ma in modo diverso, con due linguaggi diversi. Douglas Hofstadter nel suo celebre volume
del 1979 si chiede3 quando due cose siano “la stessa cosa”, quando si abbia l’uguale nel diverso”.
Il termine traduzione viene da lui usato proprio per intendere la riformulazione matematica che ha
molto in comune con quella verbale. Il simbolo di “uguaglianza” può indicare sia “equivalenza” che
“uguaglianza”, ma anche “identità”. Il concetto di equivalenza dovrebbe essere meno rigido
rispetto a quello di uguaglianza o di identità. Un numero infatti è identico solo a se stesso (8=8),
così come un messaggio; un numero può essere uguale (ma non identico) alla somma di due
numeri (8=5+3), come la parola “ragazzino“ può essere uguale (ma non identica) alla somma di
due parole in un’altra lingua, per esempio “little+boy”. È difficile convincere la maggior parte degli
studiosi che la traduzione interlinguistica funzioni in modo analogo alla geometria, e che la
retroversibilità in traduzione è straordinariamente frequente è molto infrequente in matematica.
Henri Poincare ha definito la matematica “ L’arte di dare lo stesso nome a cose diverse”; la
traduzione è l’arte di dare nomi diversi alla stessa cosa, l’abilità di trasformare ogni unità del TP in
un unità “equivalente” del TA. In entrambi casi è questione di codici, di regole e di contesti. Se ci
chiediamo quale sia “la stessa cosa” di due enunciati linguistici, le cose sono diverse rispetto alla
matematica, perché il contesto è parte stessa della comunicazione. Nel linguaggio ogni variante
aggiunge informazioni diverse al variare del contesto. L’informazione di un enunciato linguistico,
pur non numerico, è comunque un risultato, un insieme di informazioni codificabili. “I cervelli non
lavorano sull’informazione nel senso dei computer, ma sul significato”, che è un processo non
riducibile a un numero di bit di informazione, ma anche l’informazione linguistica è formalizzabile
in somme di informazioni esplicite e implicite. Se ogni variante dentro una stessa lingua cambia le
informazioni, traducendo una stringa di una lingua in quella di un’altra, le stesse informazioni
possono essere Ri-codificate.
2.4. In variante, variante:
Il procedimento di traduzione da una lingua all’altra è simile a quello impiegato dai mono lingue
per riformulare gli enunciati in sotto codici della stessa lingua. In entrambi i casi si tratta di
riformulare una stringa di parole, senza che cambi il nucleo di informazione dell’enunciato, ovvero
l’invariante. Data una stessa in variante la si può codificare in forme diverse, dette varianti o
variabili. Mutando la variante, muta (magari impercettibilmente) l’informazione complessiva:
invariante + variante. La variante è determinato da tre fattori codificati nel messaggio:
- Caratteristiche diastratiche e diatopiche (provenienza sociale e regionale);
- Generale stato psico-emotivo del parlante;
- Specifico atteggiamento del parlante nei confronti dell’interlocutore.
Ogni variante ha codificate le informazioni su alcuni o su tutti questi fattori. Nella riformulazione
intralinguistica l’informazione complessiva (in variante più variante) cambia sempre, sebbene
alcune informazioni possono essere recepite solo a livello implicito. Al mutare della variante
cambia sempre l’informazione complessiva: non esistono, né possono esistere sinonimi all’interno
della stessa lingua, ma solo quasi-sinonimi. Questo vale per le locuzioni, per gli enunciati, per i
singoli lessemi e persino per le preposizioni e i morfemi. Nella traduzione interlinguistica è
possibile per ogni unità minima di partenza trovare un traducente in lingua d’arrivo che contenga
precisamente la stessa informazione complessiva, cioè la stessa invariante e la stessa variante.
Solo in questo caso si può parlare di equivalenza funzionale o f-equivalenza. La comunicazione
funziona perché l’interlocutore comprende l’invariante e anche l’informazione supplementare
espressa dalla variante. Bilinguismo e competenze teoriche sono quindi necessarie a un ottimale
processo traduttivo, ma sono sufficienti solo se concomitanti. Possiamo chiamare l’invariante il
cosa e la variante il come. Quando parliamo registriamo il come in modalità automatica, prestando
attenzione soprattutto al cosa. Quando il come disattende le aspettative, può diventare più
importante del cosa viene detto. In sintesi: la frequenza con cui compare nella lingua una
particolare sequenza sintattica può costituire un elemento di previsione più forte di qualsiasi altro.
Ma a volte, e a seconda del contesto, altri fattori possiedono una maggiore capacità di previsione.
2.7. Esemplificazione:
Un enunciato utile a illustrare l’applicazione del parametro della f--marcatezza è l’incipit del
romanzo breve di Dovlatov “La valigia” del 1986. L’equifunzionalità della traduzione italiana
dell’incipit è stata misurata in base al parametro della f-marcatezza:
Il lettore può fidarsi che nessuna delle varianti scartate dall’autore sia quella del TA in italiano
perché il traduttore misurando la f-marcatezza complessiva, a de-selezionato le opzioni che
dicevano “quasi la stessa cosa”. Quale fosse introducente f-equivalente lo suggerisce la f-
marcatezza dell’enunciato di partenza:
Nell’incipit del libro l’autore suscitava deliberatamente nel lettore la sensazione di riprendere una
conversazione interrotta poco prima; questo “effetto cameratesco“ era dato dalla ricerca
dell’inflessione tranchant che caratterizzava la sua generazione di intellettuali sovietici,
ossessionati dal perfezionismo verbale, dei suoni, da una ricercata laconicità. Dovlatov limava la
struttura sonora, ritmica, estetica di ogni enunciato, selezionando solo quella che per lui era
perfetta, e perfetta significava credibile nel contesto comunicativo. L’unico modo per rifare la
stessa cosa era selezionare introducente con la stessa F-marcatezza scegliendo di tradurre:
- con un’esplicitazione dell’acronimo “OVIR” (“Sezione visti e registrazioni“, in epoca
sovietica il luogo dove si chiedeva il passaporto, si registravano gli stranieri e si otteneva il
“visto per l’espatrio”); la scelta che quell’esplicitazione fosse “Ufficio per l’espatrio“ e non
“Ufficio passaporti“;
- “suka” con “stronza“ e non “cagna”; la scelta di tradurre con il presente il russo “govorit”
(non scontato, perché in russo non esiste coerenza temporale nelle narrazioni e spesso il
presente si alterna al passato nello stesso paragrafo);
La “i” polisemica del TP - che potrebbe significare “anche” o “e”- con “viene a dirmi”
- L’aggettivo dimostrativo “eta” non con “questa” ma con “quella”.
1. Il progetto:
- Attualizzare: tradurre il testo di partenza in un testo di arrivo, in modo tale che questo sia
recepito dal lettore di arrivo contemporaneo del traduttore così come il testo di partenza
era recepito dal lettore di partenza coevo dell’autore, eliminando la distanza temporale tra
il testo di partenza e quello di arrivo che esiste per cause esterne all’opera stessa.
- Storicizzare: tradurre il testo di partenza in un testo di arrivo in modo tale che il testo di
arrivo sia recepito dal lettore di arrivo contemporaneo del traduttore così come il testo di
partenza è recepito oggi dal lettore di partenza coevo del traduttore, marcando la distanza
temporale tra testo di partenza e di arrivo che esiste per cause esterne all’opera stessa.
È importante distinguere la distanza temporale dovuta al solo tempo trascorso, dagli stilemi
storicizzazione che sono parte integrante del TP. In questo caso la storicizzazione parziale o totale
del testo di arrivo è una scelta obbligata, pena la neutralizzazione di un espediente stilistico che fa
parte del testo di partenza secondo un progetto dell’autore. Questo si verifica quando:
- Nel testo di partenza siano impiegati artifici che falsificano la datazione del testo stesso,
ponendo la voce narrante e o l’autore in un’epoca diversa da quella reale, per simulare che
l’autore stesso appartenga a un’altra epoca; fittizio manoscritto dei promessi sposi.
- Le vicende narrate nel testo di partenza si svolgono in un’epoca lontana e la lingua dei
personaggi suoni deliberatamente storicizzata nel testo di partenza; per esempio il nome
della rosa.
- Solo uno o alcuni personaggi del testo di partenza usino la lingua più datata di altri, perché
le vicende narrate si svolgono su piani cronologici differenti.
2. Le tecniche di traduzione:
È importante che la somma di tutte le informazioni esplicite e implicite contenute in ognuna delle
unità del TP siano ri-codificate nel TA e siano in grado di suscitare una risposta analoga da parte
dei destinatari. Gli artifici formali del TP impongono al traduttore vincoli strutturali che richiedono
l’applicazione di tecniche di traduzione. Queste sono poche ed è opportuno applicarle in modalità
e quantità diverse a seconda del progetto. Grazie a queste tecniche è possibile mantenere
simmetrico il potenziale di innesco del testo di partenza e di quello di arrivo. Più i vincoli testuali
sono numerosi e sofisticati, più è prevedibile una certa entropia, cioè una divergenza tra TP e TA
che renderà meno probabile una ri-conversione. Le tecniche traduttive sono simili a quelle con cui
la mente umana tratta il materiale diurno durante i sogni, da qui le loro denominazioni:
esplicitazione, condensazione, compensazione, spostamento.
2.1. Esplicitazione:
Ogni unità tradotti Iva del testo di partenza può codificare informazioni implicite sia a livello
dell’invariante, sia a livello della variabile. L’esplicitazione comporta la conversione di un
frammento del TP in uno parallelo del TA che sia egualmente informativo, dando priorità
all’informazione implicita più rilevante. L’esplicitazione è spesso indispensabile nel caso degli
onimi , ovvero dei termini dell’onomastica: nome di persona (antroponimi), di luoghi (toponimi), di
piazze e strade (urbanonimi), di edifici, di oggetti, di opere, di cibi, di marchi commerciali, Ecc.
Se per esempio nel testo di partenza viene nominata la via centrale di una città, il cui nome è
sconosciuto al destinatario del testo di arrivo (probabilmente), il traduttore aggiunge, per
esempio, “sulla centralissima, principale, nota, elegante…”. Sta al traduttore decidere in quali casi
un’esplicitazione sia indispensabile. Nel caso di informazioni che il destinatario del TP comprende
immediatamente, ma che risulterebbero incomprensibili al destinatario di arrivo l’esplicitazione
risolve il problema. La tecnica dell’esplicitazione allo scopo:
A) Di trasferire nel TA a livello esplicito l’informazione implicita al destinatario del TP;
B) Di farlo in modo del tutto non invasivo;
C) Di selezionare solo le informazioni implicite rilevanti nel contesto;
D) Di formulare le informazioni esplicitate coerentemente allo stile del testo.
A seconda del contesto e delle necessità l’esplicitazione può essere di primo grado (una sola) o di
secondo grado (due), ma non deve mai essere ridondante. L’esplicitazione è la tecnica più diffusa,
usata indistintamente in ogni tipo di testo. Esistono due modalità di esplicitazione:
- la prima produce una generalizzazione, ovvero un’esplicitazione per iperonimia;
- la seconda modalità produce una specificazione, ovvero un’esplicitazione per iponimia.
L’esplicitazione permette di evitare le note del traduttore, che sono interruzioni del testo, assenti
nel TP, che inficiano la ricezione del TA; costringono il lettore a staccare lo sguardo e a uscire dal
testo e dal patto narrativo. Mentre un’esplicitazione mantiene l’invisibilità del traduttore e non
disturba la ricezione del lettore del TA, le N.D.T. Inibiscono il potenziale artistico del testo. Se il
traduttore ritiene che sia utile informare il lettore dei procedimenti seguiti e delle strategie usate,
è vincolato a farlo fuori dal testo, posponendo una nota del traduttore che riunisca le informazioni
in modalità dichiarativa, questa viene detta “Nota”.
2.2. Condensazione:
È la tecnica opposta a quella dell’esplicitazione, mira a condensare due termini o due concetti in
uno solo: Per esempio, un aggettivo è un sostantivo diventano un solo sostantivo; due aggettivi
diventano un solo aggettivo; un sostantivo del testo di partenza può diventare implicito grazie alla
traduzione di un altro sostantivo nel testo di arrivo. In certi casi la condensazione è un’opzione
stilistica, in altri è la soluzione obbligata. Può essere indispensabile dove sia vincolante il numero
delle parole o delle sillabe. È una tecnica usata continuamente nel sottotitolo aggio, nel
doppiaggio, nell’interpretazione di conferenza e di trattativa, quando è indispensabile trasmettere
le stesse informazioni con un numero ridotto di parole. È indispensabile nella traduzione dei testi
di canzoni progettati per essere cantati in un’altra lingua.
2.3. Compensazione:
La compensazione si usa quando, in caso di asimmetria tra le due lingue, non si riesca ad ottenere
l’equifunzionalità tra le due unità corrispondenti TP/TA. Il diverso potenziale espressivo di un
elemento in un segmento del TP viene compensato da un altro elemento nel TA. Si applica
perlopiù in testi espressivi con funzione ironica, parodica, umoristica, ma anche in poesia e nella
canzone d’autore. All’interno della stessa unità traduttiva si compensa l’informazione trasmessa
da un costituente mediante quella trasmessa da un altro costituente. In presenza di una battuta
particolarmente divertente, o di un gioco di parole efficace nel testo di partenza che risulta meno
efficace nell’unità corrispondente del testo di arrivo, il traduttore compensa la simmetria variando
in modo speculare l’f-marcatezza di un’altra unità. L’esito è quantitativamente e qualitativamente
equifunzionale nei due testi, ma in segmenti diversi. Vige la proprietà commutativa: se si cambia
l’ordine degli artefici, l’effetto finale del potenziale d’innesco rimane invariato.
2.4. Spostamento:
Lo spostamento o dislocazione, è la tecnica con cui uno o più elementi di un enunciato vengono
ricollocati nel testo di arrivo in una posizione diversa rispetto a quella del testo di partenza.può
implicare l’anticipazione di una parola o la sua posticipazione. Nella traduzione della poesia è
frequente anticipare o posticipare un verso intero per vincoli di rima. Nella traduzione di testi in
prosa, lo spostamento è spesso usato sotto forma di inversione sintattica per motivi eufonici,
prosodici o idiomatici, ma anche per evitare stilemi asimmetrici rispetto al TP.
4. Gli strumenti:
Qualsiasi traduttore professionista utilizza una grande quantità di strumenti e di repertori di
tipologie diverse. Nell’ultimo decennio lo sviluppo di Internet offerto nuove e immense possibilità;
è possibile accedere a una quantità strabiliante di informazioni multilingue.proprio il fattore
quantità e al contempo il maggior pregio è il peggior difetto della rete: quando le informazioni
sono troppe, quando sono discordanti o sono prive di fonti affidabili, ci si può ritrovare senza
criteri per stabilire quale risposta sia più affidabile dell’altra. Il grande problema della rete è quello
di creare più ostacoli a chi tende a sottovalutare la molteplicità, contraddittorietà e instabilità del
pubblico dominio. Con l’accelerazione della comunicazione l’inaffidabilità delle fonti è aumentata
esponenzialmente. I criteri umani di raccolta e diffusione delle informazioni restano vincolati a
modalità di categorizzazione del sapere che rendevano le euristiche dell’antica ricerca bibliografica
più professionali delle ricerche elettroniche. Poiché il cervello umano utilizza euristiche nella
costruzione dell’ipertesto individuale, queste stesse euristiche, unite alla casualità, si riflettono
nella struttura della rete, determinando la mancanza di strategie ottimali nell’uso dei motori di
ricerca. Anche per quanto riguarda l’oralità, l’accelerazione del contagio culturale, incrementata
dall’impatto dei social network, impone oggi ai traduttori di prestare un’attenzione particolare alla
coerenza diacronica, diatopica, diastratica e pragmatica di qualsiasi enunciato usato anche nella
traduzione dei testi, letterari o audiovisivi e nell’interpretazione orale. Per aggiornarsi sulla
statistica d’uso di parole, termini, sintagmi e locuzioni che cambiano in tempo reale, il traduttore è
costretto a mantenere un contatto costante con la comunicazione quotidiana nelle sue lingue di
lavoro e a seguirne l’evoluzione. Per questo è di fondamentale importanza per la traduzione sono i
corpora elettronici.
4.1. I dizionari:
È ampiamente argomentabile l’affermazione che l’uso del dizionario bilingue sia sempre stato
dannoso. Questi possono avere una certa utilità in casi rari e per alcuni utenti. Sei un traduttore
non comprende un enunciato o una parola è insensato che usi un tradizionale dizionario bilingue.
Un traduttore che traduca con un dizionario bilingue è come un chirurgo che operi con un
manuale di anatomia. Un sofisticato bilinguismo è un requisito fondamentale per qualsiasi
traduttore, il quale, per le lacune lessicali, dovrebbe ricorrere a dizionari monolingue: è sempre il
traduttore a selezionare i traducenti e le opzioni equivalenti e per poterlo fare dovrebbe essere in
grado di poterne fare a meno. Dall’altro lato l’ultima cosa raccomandabile è quella che vada a
cercarlo in un repertorio lessicografico che non conosce e che quindi non può riconoscere tra un
elenco di suggerimenti poco o male contestualizzate. Se il traduttore non ha mai visto né sentito
una parola, se il suo orecchio interno non sa valutare né sua coerenza statistica, né contesto in cui
è usata, non ha alcuna possibilità di trovare il suo traducente se non tirando a indovinare o
accettando per buono l’unico traducente suggerito. Si può affermare che qualsiasi professionista
esperto chiusi in L1, ma soprattutto in L2, termini, parole, sintagmi che non ho mai usato prima lo
faccia solo dopo aver eseguito controlli incrociati nei dizionari monolingue o nei corpora. La
professionalità implica una preliminare diffidenza per tutto quello che non è verificato dal proprio
orecchio interno. Il solo caso in cui il dizionario bilingue può servire a un traduttore e quando si
verifica un anomia, quando il traduttore non riesce a richiamare alla memoria breve termine una
parola in L1/L2 che sa riconoscere bene, ma che ha dimenticato in quel momento e che può
riconoscere tra i traducenti proposti dal dizionario; in questo caso il dizionario bilingue può ridurre
moltissimo i tempi di recupero mnestico e va usato come un dizionario dei sinonimi. Quindi, la
“sindrome da dizionario bilingue“ è il primo segnale dell’inesperienza di un traduttore. Vale
dunque il principio di non utilizzare nelle traduzioni parole che non appartengono ancora al
proprio bagaglio linguistico attivo o passivo, nella realtà comunicativa, se non dopo attenta
verifica. Il danno maggiore dei dizionari bilingue si manifesta quando ci si esercita nella traduzione
in L2, cioè nella lingua in cui ancora scarso il corpus linguistico di controllo presente nella memoria
dello studente. E se si confrontano traduzioni professionali verso la L1, si trovano molte meno
divergenze di quanto si riscontri nelle traduzioni verso le le due, perché la risposta di un nativo è
generalmente più attendibile del dizionario bilingue e dell’arbitrio, ma anche di quella di un
bilingue non nativo: le esperienze linguistiche di un nativo poggiano su un più consolidato orecchio
interno. La traduzione dalle cosiddette lingue morte potrebbe sembrare del tutto differente, ma
non diverge da quella delle lingue moderne: i traduttori dei testi antichi possono avvalersi
comunque di un’immensa esperienza passiva di testi scritti, che sono spesso ricchi di dialoghi e di
oralità trascritta. Gli specialisti possono diventare profondamente esperti dello stile, della
specificità sintattica, delle occorrenze lessicali e fraseologiche che distinguono un singolo autore
antico dall’altro, e le diverse modalità di espressione delle varie epoche. La profonda
comprensione del testo antico, la capacità di valutarne le caratteristiche abilitano un traduttore
delle lingue antiche ad attualizzare una traduzione in una lingua moderna. Solo un lettore
dilettante senti il testo come distante o datato: non è la lingua di per sé, ma il modo in cui è stata
usata che può rendere un testo efficace, a volte universale. Quindi anche traducendo da lingue
pervenute ci sono in forma scritta, si può ottenere una conoscenza procedurale paragonabile
all’acquisizione delle lingue parlate. La mente linguistica umana non fa distinzioni tra lingue
moderne e lingue antiche, l’acquisizione si rinforza in ogni caso con l’esercizio. I corpora e i
dizionari monolingue sono per qualunque traduttore strumenti molto più affidabili di qualsiasi
dizionario bilingue. Se si considera la traduzione specializzata di testi professionali, altamente
codificati secondo gli stilemi, la terminologia e la fraseologia delle microlingue, si possono
utilizzare glossari terminologici; questi repertori composti da schede complesse con fonti e
contesti hanno una funzione molto più specialistica rispetto a quella dei dizionari, poiché
sottostanno a regole e sono controllati da esperti.
4.2. I corpora:
I corpora costituiscono un concetto e un oggetto noto fin dall’antichità è un elemento
imprescindibile della filologia, dello studio storico dei testi e della loro ricostruzione storico-critica.
Il concetto di corpus è quello dell’insieme dei testi che costituiscono l’oggetto della ricerca,
contrapposto ai testi critici che si usano come commento. Il termine latino corpus ha avuto una
diffusione massiccia grazie al successo della linguistica dei corpora, nata quando l’antico concetto
è stato applicato alle nuove tecnologie. È utile la definizione generale fornita da Riccio: “il corpus è
una raccolta sistematica, coerente e bilanciata di testi autentici, o parte di essi, selezionati e
organizzati secondo espliciti criteri linguistici e non linguistici. Lo scopo principale è quello di
essere consultato come campione rappresentativo di una lingua, o di una sua varietà, in vista di
soddisfare gli obiettivi dell’analisi.“. La prima suddivisione è tra corpora generali (che
rappresentano la lingua in ogni sua varietà) e specialistici (distinti per varietà testuali). In secondo
luogo possono distinguersi in scritti, parlati e misti, diacronici (che considerano testi di epoche
diverse) e sincronici (che riguardano la lingua negli ultimi dieci-vent’anni). Possono poi essere
monolingui o bi-/multilingui. Entrambe le tipologie possono essere di due tipi: comparabili
(corpora di confronto) o paralleli. I primi sono testi della stessa tipologia, per forma e contenuto,
che non costituiscono ne comprendono traduzioni. I corpora paralleli sono invece costituiti da
gruppi di testi uniti alle loro tradizioni in una o più lingue, a seconda che siano bilingui, trilingui o
multilingui. A loro volta quelli paralleli possono essere unidirezionali (i TP sono in una sola lingua e
i TA nell’altra) oppure bidirezionali (TP in entrambe le lingue con i rispettivi TA nell’altra lingua).
Per effettuare una ricerca, l’interfaccia del corpus presenta una finestra di dialogo in cui inserire la
stringa di testo ricercata e di utilizzare i filtri che possono ottimizzare le risposte: si ottiene l’elenco
completo di tutte le occorrenze e di tutte le concordanze di quella precisa stringa in migliaia di
pagine di testo, con l’indicazione dell’origine di ogni risposta; questo consente al traduttore di
valutare la tipologia e l’affidabilità della fonte, il contesto, il cotesto e la frequenza d’uso. È
possibile individuare con buona affidabilità statistica quante volte una determinata parola ricorra
in una certa lingua, così come è possibile svolgere analisi di tipo sincronico o diacronico. I corpora
comparabili possono essere confrontati per stabilire se alcuni costrutti o lessemi o parole vengono
usati in modo diverso nella lingua standard e in quella delle traduzioni, ad esempio per l’inglese si
possono comparare il Translational English Corpus con il British National Corpus. Utilizzando i
corpora paralleli, si può ottenere un ulteriore riferimento alle corrispondenze bilingui standard,
ma anche a delle incongruenze a livello di f-marcatezza. Mano mano che si approfondiscono le
questioni epistemologiche, oltre alle nozioni distintive basilari si aggiungono altre classi di corpora
con le considerazioni sul loro impiego scientifico e applicativo. La costituzione di un corpus non è
un lavoro solo pratico, implica scelte teoriche di diverso livello e deve attenersi a regole che
consentano l’affidabilità del corpus stesso. Una delle difficoltà maggiore nella raccolta dei corpora
elettronici è quella relativa ai testi orali. Il problema primario deriva dal fatto che il flusso della
lingua orale non ha “limiti programmati”, non è quindi propriamente suddivisibile in testi veri e
propri, ma viene trattato secondo schemi concettuali che trasformano un insieme di parole
sonorizzate in un prodotto approssimativo. L’inglese britannico gode di una situazione
particolarmente privilegiata, è nell’ambito dell’anglistica che dagli anni 80 la linguistica dei corpora
è diventata gradualmente una disciplina fondamentale. L’analisi contrastiva di unità traduttive nel
contesto consente di verificare quali soluzioni siano state proposte da altri traduttori, quali di
queste siano più affidabili, quali più coerenti rispetto all’f-marcatezza del TP e allo scopo del TA. I
corpora elettronici sono utili solo se supportati dai corpora di confronto mentali del traduttore che
grazie al bilinguismo e all’esperienza contrastiva, consentono di operare le scelte. Il dizionario
mentale funziona come un ipertesto biologico che, su base esperienziale, forma una gigantesca
mappa mentale bilingue. La competenza traduttiva prevede proprio l’incrocio delle due lingue di
lavoro e più si traduce, più la mappa mentale si espande e si rafforza, consentendo un più rapido
richiamo mnestico delle corrispondenze. I corpora elettronici sono meno soggettivi dei corpora
neuronali ma, sono meno versatili: è la sinergia con il corpus mentale del traduttore che può
rendere versatile il corpus elettronico. Ecco perché si è diffusa la traduzione assistita, in cui banche
dati e corpora elettronici sono solo strumenti, in quanto la scelta spetta al traduttore. Numerose
applicazioni elettroniche sono programmi in grado di compattare corpora diversi in un enorme
mega-corpus parallelo: per ogni unità traduttiva, la macchina predispone una scelta e il traduttore
può accettarla o selezionarne un’altra, ma anche considerare soluzioni non previste dal sistema.
Solo la mente umana è in grado di eliminare ciò che il concordancer include per errore o di
includere ciò che questo ha escluso. Nel caso della traduzione letteraria i vincoli del testo artistico
e le computazioni dei parametri in gioco da parte del traduttore sono ancora quantitativamente e
qualitativamente al di sopra delle previsioni di qualsiasi strumento elettronico. I parametri
propriamente stilistici ed estetici non sono ancora codificabili. Esistono corpora di confronto per la
letteratura e anche per la poesia, ma il loro uso non è iterabile per principio, si utilizzano strutture
identiche la scrittura creativa diventa plagio.
6 – LA PROFESSIONE ED IL MERCATO:
Per il secondo il terzo punto, la correlazione tra legislazione ed evoluzione della prassi
professionale strettissima; le leggi influiscono sulla qualità e sul prestigio della professione, così
come i mutamenti della prassi professionale influiscono sulla legislazione. Da più di settant’anni, i
prodotti della traduzione sono tutelati in Italia da un testo di legge del 1941 che protegge i diritti
d’autore dei traduttori. Questa legge si occupava inizialmente di traduzioni editoriali, perlopiù
letterarie, ma il suo testo si è arricchito di numerosi articoli a tutela dei dialoghisti cinematografici
e televisivi, di chi crea corpora e banche dati elettroniche, compresi i testi letterari pubblicati in
rete. Eppure il diritto d’autore dei traduttori funziona in modo molto diverso rispetto a quello degli
scrittori: per poter pubblicare il proprio lavoro l’autore delle traduzioni è quasi sempre costretto a
cedere del tutto i propri diritti all’editore o ad ottenere percentuali di vendita del tutto
insignificanti.
3. La traduzione specializzata:
La traduzione dei testi commerciali, tecnici e scientifici basati su terminologia specialistica e su
stilemi specifici, è la tipologia professionale più diffusa sul mercato mondiale e viene definita
traduzione specializzata. I committenti delle traduzioni specializzate possono essere privati
cittadini, comitati congressuali, o le pubbliche istituzioni. Nell’ambito dell’istituzioni governative,
esiste una massiccia e quotidiana attività di traduzione che coinvolge sia numerosi traduzioni
traduttori impiegati sia professionisti freelance. Ad esempio nelle istituzioni dell’Unione Europea,
in cui si contano 24 lingue ufficiali, sono coinvolti circa 4300 traduttori e 800 interpreti come
personale permanente. In Italia si lavora prevalentemente con le lingue europee, ma vi sono ampi
settori del commercio, della politica, della diplomazia e delle istituzioni che necessitano
stabilmente dei traduttori da e verso lingue di paesi esterni all’Unione Europea. Particolarmente
ambiti sono i professionisti in grado di lavorare con almeno una lingua meno nota. Qualsiasi
traduttore specializzato deve disporre di competenze di base relative alle specialità su cui è
chiamato a intervenire. Si può condividere l’idea che un traduttore specializzato non possa
assolutamente sostituirsi allo specialista, ma il traduttore specializzato possiede una conoscenza
sia scientifica che tecnica della lingua in quanto veicolo della comunicazione specialistica,
competenza che lo specialista non può avere. Il traduttore può essere al massimo uno specialista
di traduttologia, ma deve comunque avere idee molto chiare sulle modalità con cui vengono
strutturate le informazioni che deve tradurre, sugli schemi procedurali con cui gli specialisti
comunicano e argomentano il proprio sapere, sulla terminologia e fraseologia che usano le
linguaggio professionale. Al traduttore specializzata richiesto:
- di conoscere le strutture ricorrenti dei testi specialistici;
- di conoscere e implementare la terminologia specialistica;
- di saper usare con coerenza pragmatica i connettori che stabiliscono le correlazioni tra gli
enunciati.
Non in tutte le lingue naturali le strutture e i connettori dei linguaggi settoriali funzionano nello
stesso modo, ma esistono regolarità che permettono un traduttore di implementare le proprie
abilità in modo trasversale anche in altri ambiti e nelle altre sue lingue di lavoro. Un traduttore che
abbia esperienza in un certo settore con una particolare coppia di lingue è facilitato a diventare
traduttore in quello stesso settore qualora introduca una lingua nuova, Così come è avvantaggiato
se vuole introdurre un nuovo ambito di specializzazione. Questo è tanto più evidente se il
professionista lavora in modalità passiva, traducendo verso la L1: ogni esercizio di traduzione da
una lingua non nativa rafforza gli automatismi verso la L1 da tutte le altre lingue. Quando il neo-
professionista accede al mercato, può perfezionare via via la sua preparazione ogni volta che gli
viene affidato un lavoro specifico. Solo in rari casi è possibile lavorare soltanto in uno o due settori
disciplinari e da rarissimo che si possa scegliere in quale settore. Caratteristica distintiva della
traduzione specializzata è la familiarità con le strutture e i termini delle lingue settoriali, dette
anche micro lingue o LSP (Languages for Special Purposes). La complessità e la diversificazione dei
testi specialistici impone ai traduttori di conoscere i fondamenti della terminologia. La
terminologia viene presentata come un codice artificiale all’interno di un codice naturale, e il testo
specialistico come puramente informativo, tecnico, terminologico, chiuso, nel quale ogni termine
corrisponde uno e un solo significato denotativo codificato e inequivocabile. L’idea che i termini
siano più artificiali delle parole contro argomentabile: basti pensare alla migrazione dei termini da
una lingua settoriale all’altra; si pensi al numero di parole creati artificialmente come termini ma
oggi “ridotte” a parole non specialistiche; nonché alle parole nate come antonomasia o
metonimia. Inoltre i termini possono essere presenti in tutte le tipologie testuali, quindi non
possono essere l’elemento distintivo dei testi specializzati. A prescindere dal loro differente uso e
registro, i termini sono creati, selezionati, modificati, dimenticati in base all’ideologia, alle mode, ai
tabù e a fattori soggettivi. Di conseguenza si può affermare che:
- in tutte le lingue umane, le microlingue condividono stabilità e instabilità;
- con tutti i linguaggi umani umani condividono la creatività, intesa come violazione di
regolarità e stereotipi;
- la creatività linguistica implica un certo grado di connotazione in quanto rende l’unità
verbale “speciale” (marcata) rispetto all’uso atteso;
- le microlingue sono ‘discrete’ e ‘oggettive’ solo nei limiti in cui è stato canonizzato un
processo onomasiologico soggettivo e non sono ancora subentrate mutazioni;
- la terminologia e le definizioni dei termini non sono mai “ideology free”.
Tutti i testi, in quanto artefatti verbali, riflettono due qualità paradossali: sono conformi a un dato
canone e tendono parzialmente a differenziarsi per raggiungere informazioni nuove che
concorreranno alla creazione di nuovi canoni. Quindi:
- tutti i testi sono artificiali e hanno qualcosa in comune;
- l’attribuzione di una tipologia testuale non è possibile senza stabilire prima il contenuto
esterno;
- una denotazione di un termine in un qualsiasi testo umano non esiste e non può esistere;
- il come (variante) qualcosa è detto va considerato informativo quanto il cosa (invariante)
viene detto;
- la correlazione come/cosa agisce sempre in tutte le tipologie testuali, anche un’astratta
assenza di variabili è per definizione una variabile;
- tutte le lingue naturali sono altamente formulaiche e seguono un percorso che va sempre
dalla creatività al canone;
- la funzione essenziale dei canoni è di essere applicati o violati;
- la violazione dei canoni avviene in tutte le tipologie testuali;
- in qualsiasi tipo di comunicazione linguistica, il messaggio agisce sia livello implicito che
esplicito ed entrambi possono coincidere o non coincidere a prescindere dalla tipologia
testuale.
Solo dopo aver compreso che cosa comuni tutti i testi si può stabilire cosa consenta di suddividere
in tipologie. Nella traduzione specializzata, i criteri distintivi sono due: la funzione dominante
determinata dal contesto professionale e la presenza di stilemi atti rendere le unità di testo il più
possibile non marcate, più vicino al punto zero; Tra questi rientrano l’uso dell’impersonale
l’assenza di articoli e aggettivi superflui, ecc.; alcune lingue, come l’inglese, utilizzano
prevalentemente la paratassi, mentre altre come l’italiano prediligono l’ipotassi, gli incisi e un
numero articolato di frasi secondarie. Tra gli automatismi del traduttore specializzato vanno
annoverati i meccanismi di conversione stilistica, lo stile del testo tecnico e scientifico è
parzialmente formalizzabile, ma non riducibile a un sistema preciso e discreto. Per lavorare i
contesti specialistici un traduttore deve aver acquisito ampia dimestichezza con gli strumenti
specifici della traduzione specializzata e saperli utilizzare in modalità assistita, mettendo anche a
disposizione di altri il proprio lavoro. Il traduttore dovrebbe ambire alla precisione assoluta, e
ricordati sempre che il meglio è nemico del bene. Nella traduzione specializzata sono fondamentali
la memoria di lavoro, che solitamente vengono consegnate al committente insieme alla
traduzione, però codificano l’origine delle entrate e spesso rendono accessibile a tutti gli utenti il
nome o il codice del traduttore. L’insieme delle memorie di traduzione e delle back banche dati
terminologiche impiegate nella traduzione assistita Sottoforma di programmi elettronici prende il
nome di “CAT tools” (strumenti per la Computer Assisted Translation). Questi computano i
compensi frammentati, che vedono variare la percentuale della tariffa globale secondo i cosiddetti
“match value”. A determinare il compenso del traduttore è la percentuale di match presentati
dalle memorie di traduzione, la presenza esclusiva o parziale nel corpus di ogni singola unità
traduttiva selezionata dal traduttore: in alcuni casi, solo un match inferiore all’84% indica che sia
pagato al traduttore una tariffa del 100%. Il traduttore riceve compensi che lui stesso non è più in
grado di calcolare, poiché li calcola il sistema stesso.
4. L’interpretazione:
La traduzione orale è ottenuto un vero e proprio status professionale come interpretazione solo
nel XX secolo. La prima occasione in cui è stata impiegata livello internazionale è stato durante il
processo di Norimberga. A partire dagli anni 60 del XX secolo si è strutturato l’ambito
professionale degli interpreti di conferenza. Nell’interpretazione di conferenza ci sono tre tipologie
di prestazioni diverse, che si svolgono nel contesto dei congressi, dei convegni internazionali e
delle conferenze, e che richiedono una preventiva preparazione tematica e terminologica:
- interpretazione simultanea;
- interpretazione consecutiva;
- chuchotage.
Sono diverse le modalità, i tempi e le attrezzature richieste da ognuna, talvolta divergono in
misura significativa anche le abilità richieste dagli interpreti. Nel complesso la modalità di
interpretazione meno faticosa tra queste è la traduzione simultanea. Per praticarla è
indispensabile una sala debitamente attrezzata con un sistema di cabine che ospitino due
interpreti ciascuna; ognuna è dotata di una doppia postazione e una consolle dotata di microfono
per l’output e di pulsanti che consentono di accendere spegnere il microfono e isolarlo. Ogni
cabina si occupa di una coppia di lingue: secondo la prassi deontologica, ospiterà due interpreti,
ognuno dei quali sarà nativo di una delle due lingue e idealmente ognuno tradurrà esclusivamente
nella propria L1. Se le coppie di lingue sono troppe si può attuare il relais, ovvero la “staffetta“:
una sola cabina traduce il discorso del relatore nella lingua comune a tutte le altre cabine; questo
consente di ridurre il numero delle cabine e i costi. Ogni simultaneista dovrebbe lavorare Per un
massimo di circa 20-30 minuti consecutivi, ma i tempi regolamentari vengono servate con scrupolo
solo nelle grandi istituzioni internazionali. In una cabina regolamentare contro interpreti, la
prestazione non deve superare le sette ore giornaliere, mentre nel caso che sia presente in cabina
un solo interprete, non dovrebbe lavorare mai più di 60 minuti consecutivi al giorno. Tranne in rari
casi il simultaneista traduce sempre in modalità passiva e solo eccezionalmente in modalità attiva;
addestramento costante unidirezionale. Pur dovendo sovrapporre parte dell’input a parte
dell’output, con un intervallo detto décalage, la sua prestazione avviene in modalità procedurale.
Il cervello dell’interprete si concentra sull’equivalenza funzionale dell’output. La traduzione
simultanea consente di comprendere e di tradurre ogni singola unità, pur senza essere affatto in
grado di ripetere tutto l’intervallo del relatore e neppure ampie frazioni: l’interprete comprende le
singole frasi, ma non necessariamente tutti i concetti. Completamente diversa è la stessa
situazione in modalità di interpretazione consecutiva. Il consecutivista non sta dentro una cabina,
ma in piedi o seduto a breve distanza dal relatore osservando direttamente il pubblico e
completamente esposto alla vista di tutti. Non si traducono le singole unità traduttore coprendo le
parole del relatore, si traduce un gran numero di unità tutti insieme, successivamente al relatore,
che si ferma appositamente per essere tradotto. Mentre parla il relatore, per non dimenticare ciò
che viene detto l’interprete prendi appunti. Questa presa di appunti si basa su alcuni principi ed é
semplice ma necessita di un debito addestramento: si annotano parole che rappresentano i
concetti esposti, si usano simboli convenzionali o abbreviazioni se i simboli non sono disponibili, si
codificano consegni speciali i connettori sintattici, si marcano la negazione e l’enfasi. Esistono
diversi sistemi codificati per le annotazioni della consecutiva. Quindi la bravura del consecutivista
sta anche nel trovare un equilibrio tra codifica e decodifica dei segni. Lo chuchotage è una
tipologia anomala di simultanea in assenza di cabina che è più disagevole per tutti. L’interprete si
posiziona dietro a due massimo tre destinatari della traduzione ed esegue la traduzione solo per
loro, sottovoce. È molto faticoso per l’apparato fonatorio, crea fastidio in platea e avviene un
ambiente non insonorizzato. L’input e l’output sono disturbati e il destinatario riceve il segnale dal
solo orecchio esposto all’input.
L’interpretazione di trattativa diverge da quella di conferenza per alcuni aspetti fondamentali:
L’interprete, che si siede al tavolo con i destinatari delle lingue in diretta esposizione, perlopiù
lavora da solo e deve quindi operare in modalità attiva e passiva. La sua abilità è risaper passare in
modo altamente automatizzato da una lingua all’altra, di evitare interferenze indesiderate, di
controllare in modo costante gestualità e sguardo, di operare una maggiore mediazione
interculturale. Esempio, in situazioni di aggressività e cercare di smussare i toni e di trasmettere in
modo quasi asettico le informazioni relative allo stato emotivo del parlante. La funzione del
trattativista è quella di far svolgere una discussione efficace e di far raggiungere un accordo tra le
parti oltre all’accuratezza nel trasmettere i contenuti del dialogo. Il trattativista non viene mai
assunto da entrambe le parti, ma da una sola, che funge da committente e dal cliente pagante: è
inevitabile che il trattativista cerchi di adeguarsi il più possibile allo stile di conversazione del suo
cliente, senza discriminare la controparte. Il vantaggio è quello di poter chiedere rapide
spiegazioni durante i singoli interventi; inoltre l’interprete può chiedere a chi ha appena parlato se
ci sia qualcosa che sia meglio non tradurre. Durante la trattativa c’è un canale di comunicazione
tra interprete e relatore. La trattativa prevede che si traducano in modalità consecutiva una o più
frasi brevi e concluse che consentano uno scambio rapido di informazioni. Il ritmo della
prestazione dipende dalle circostanze; l’interprete prende appunti limitati a cifre e nomi i propri e
cerca di tradurre il prima possibile: Se la memoria di lavoro non è troppo sollecitata, è possibile
ricordare tutto e tradurre ogni dettaglio. Sta all’interprete segnalare in modo garbato che è bene
cedergli la parola, ma non può imporsi. Una modalità simile di interpretazione è quella che si
svolge in ambito giudiziario, durante interrogatori e processi. Spesso in campo giuridico il
professionista agisce sia come interprete sia come traduttore. Tra le altre specializzazioni “ibride”
nel campo dell’interpretazione vi è la “mediazione interculturale”; questa modalità può essere
definito più chiaramente come “interpretazione in ambito sociale”: questa ha e dovrebbe avere un
ruolo fondamentale nelle società interetniche, per facilitare la comunicazione nei commissariati,
negli ospedali e negli enti pubblici. Il mediatore interculturale farà tramite quando il confronto tra
diverse realtà culturali share in uno stallo comunicativo o in un conflitto. Questa modalità richiede
al traduttore competenze di carattere socio-psicologico che lo aiutino a gestire le emozioni proprie
e quelle dei soggetti coinvolti. In molti casi una difficoltà sostanziale si ha nel tentativo di una delle
parti di aggirare l’intervento dell’interprete, adducendo la propria convinzione di capire la lingua
dell’interlocutore, ma la prassi mostra che le difficoltà comunicative sono di tipo prettamente
linguculturale e che i funzionari tendono a sottovalutare proprio la diversità culturale.
La citata legge numero 633 del 1941 tutela anche i diritti del dialoghista e dell’adattatore e
prevede che le loro prestazioni siano riconosciute come “opere dell’ingegno”, protette dalla
regolamentazione del diritto d’autore e quindi esenti dall’imposta sul valore aggiunto. Inoltre con
una sentenza del tribunale di Roma del 1993 nel processo Toschi contro XX Century Fox Italia è
stato riconosciuto che il lavoro dell’adattatore dialoghista è un contributo alla sceneggiatura del
film e che il suo nome va inserito tra i titoli di coda del film stesso. La suddivisione e l’entità dei
compiti traduttivi nelle tappe del doppiaggio dipende per alcuni aspetti della lingua di partenza. Se
la lingua in inglese i problemi sono ridotti: una grande quantità di professionisti e disponibile il
direttore stesso è solitamente competente in prima persona; inoltre le case produttrici
trasmettono agli operatori non anglofoni dei vari paesi le trascrizioni dei dialoghi, con informazioni
importanti per qualsiasi traduttore: ad esempio le caratteristiche diatopiche, diastratiche,
dialettali, ecc. chi traduce un film americano può essere informato sulle marcatezze del testo di
partenza e sui realia. Un simile ausilio è inimmaginabile quando si tratta di una lingua rara, la
prassi traduttiva è diversa e richiede più tempo. La realizzazione della traduzione e del doppiaggio
di un film è comunque vincolata a tempi stretti. Il prezzo del doppiaggio viene pagato
direttamente allo studio che poi provvede agli onorari di dialoghisti, operatori e attori: i margini di
guadagno sono proporzionali ad un impegno molto faticoso e possono comunque variare da uno
studio all’altro ed è un film all’altro. Al contrario del doppiaggio il sottotitolaggio é poco diffuso nel
nostro paese. Quasi tutte le opzioni presenti sul mercato presentano l’opzione dei sottotitoli,
creando in certi casi un problema di incongruenza testuale tra doppiato e sottotitolato. La nascita
del sottotitolaggio risale all’epoca del film muto, con la comparsa del sonoro si è rivelata una
pratica efficace come metodo di traduzione interlinguistica, perché non impediva l’accesso alla
prestazione degli attori in versione originaria. Il sottotitolaggio però distrae lo spettatore dalle
immagini costringendolo a leggere invece di guardare. I sottotitoli inoltre, non possono
trasmettere tutte le informazioni, né gli aspetti fondamentali della recitazione come intonazioni,
pause e indugi. La pratica del sottotitolaggio è diffusa nei paesi nordici, e la migliore scuola di
sottotitolaggio é quella dei paesi scandinavi, soprattutto della Danimarca a cui si deve il primo film
sottotitolato. Eseguire la sottotitolatura di un film richiede molte competenze: si tratta di
un’elaborazione speciale del testo che tiene conto di alcuni fenomeni percettivi, che fanno
recepire e memorizzare meglio l’inizio della scritta rispetto alle ultime parole. Poiché ogni scritta
permane sullo schermo pochi secondi il traduttore deve riuscire, riducendo il numero delle parole,
a ricostruire come può le informazioni contenute nell’enunciato di riferimento. La difficoltà sta
nella capacità di operare una selezione delle informazioni per trasformare un messaggio orale, in
un messaggio scritto: si tratta di un avere propria “tecnica di riduzione” che comprende numerose
regole condivise, come la condensazione, l’esplicitazione e l’eliminazione totale. Uno dei limiti
evidenti è che nei dialoghi di un audiovisivo sono spesso presenti tutti gli elementi del parlato che
danno informazioni sul parlante; nei sottotitoli si deve ricorrere alla compensazione, ma lo spazio
non è sufficiente per applicare le tecniche accessibile alla traduzione scritta. La competenza
specifica è data anche dalla conoscenza delle modalità di realizzazione tecnica dei sottotitoli che
aiutano traduttore a valutare meglio le opzioni. Per quanto riguarda la pratica del VoiceOver, si
tratta della sovrapposizione di una voce in lingua di arrivo ai dialoghi di partenza i quali non
vengono eliminati, ma trasmessi a volume ridotto. Per eseguirlo si traducono i dialoghi e si
adattano in modo sommario alle immagini, ma una sola voce legge tutte le battute. Le regole di
lettura sono precise: poca enfasi e dominante monotonia tonale. Era una pratica molto diffusa
nell’unione sovietica. Un’altra pratica diffusa nei festival cinematografici è la traduzione
simultanea dei film: l’interprete è chiamato a fondere in un’unica prestazione la mansione di
dialoghista, adattatore e attore.
La pubblicazione di una traduzione teatrale può riguardare il testo linguistico effettivo, oppure la
versione italiana di un’opera a cui si è ispirato un regista. In questo secondo caso, il regista può
coinvolgere il traduttore e avvalersi della sua collaborazione oppure limitarsi a chiedere all’editore
l’autorizzazione all’utilizzo per la messa in scena. Il doppiaggio potrebbe costruire un’evoluzione
del teatro trasformandolo in auto in un audiovisivo doppiato, godibile da un pubblico vastissimo.
Dati i costi il progetto potrebbe riguardare solo opere di fama internazionale di registi famosi, ma
è una prospettiva molto interessante.
Il traduttore varia dal progetto a seconda che si tratti di tradurre in microtesto per la
pubblicazione a stampa, per la recitazione o per il sottotitolaggio, oppure di tradurre il microtesto
linguistico per l’esecuzione canora. Da un punto di vista teorico è fondamentale capire che il caso
1 e il caso 2 costituiscono due operazioni completamente diverse tali per cui: 1) la traduzione può
avere una sua indipendente ragion d’essere, cioè il TP può essere considerato un macrotesto
scritto che prescinde dal microtesto musicale; 2) la traduzione non può essere affrontata
prescindendo dalla fase 1. La differenza principale è che: nel caso uno per quanto si costituisca
metricamente, il testo di arrivo è emancipato dal vincolo metrico-musicale predefinito, mentre nel
caso due dovrà essere adattato alle esigenze metriche e ritmiche del microtesto. Si può sostenere
che la melodia e il ritmo abbiano un ruolo cruciale nella ricezione del macrotesto-canzone da parte
dei destinatari. Il traduttore italiano deve affrontare particolari difficoltà se traduce da una lingua
isolante, con prevalenza di mono- e bisillabi e quasi priva di suffissazione. Il fenomeno è
determinato dalla particolare struttura della frase musicale moderna, che comporta la frequenza
di parole ossitono in clausola diverso. E la lingua italiana possiede un repertorio lessicale molto
ridotto, al contrario dell’inglese.
6. Etica e deontologia:
il traduttore e teorico della traduzione Anthony Pym Nel 1997 pubblicava un volume che costituiva
il primo dettagliato studio sull’ “etica della traduzione”. Lasciava intendere che fosse una
riflessione epistemologica sui concetti di etica e deontologia. L’autore considerava “questione
etica” la valutazione dello “sforzo profuso nella traduzione”, individuando il fine ultimo della
professione nell’investimento sociale del traduttore come mediatore nella cooperazione tra
culture dominanti e culture dominate. Il suo approccio suggeriva la sovrapposizione dell’etica della
traduzione alla sociologia della traduzione. Ciò che lo interessava era individuare un concetto
trasversale di guadagno collegato alla professione che definisse l’etica come cooperazione
economica. Da qui emergeva una confusione tra il concetto di “etica” e “deontologia”. L’etica
riguarda una sfera separata che può anche essere in contrapposizione con la cooperazione
professionale. Nel significato odierno la deontologia comprende l’insieme delle norme che
regolano una professione e che sono condivise da coloro che la amministrano e la esercitano, a
prescindere dalla sfera soggettiva. L’etica riguarda l’insieme delle regole morali soggettive, che
ogni essere umano si dà. Nella prassi professionale, etica e deontologia possono entrare in
conflitto. Talvolta la responsabilità del traduttore esula dall’ambito della normativa professionale.
Secondo Antonio Da Re, l’etica non è riducibile alla deontologia professionale proprio perché
quest’ultima non è fondata sull’etica. In ambito traduttivo il problema etico nasce quando la
cooperazione, che implica l’applicazione delle norme professionali, porta a violare i principi morali
soggettivi del traduttore. L’adesione alle norme professionali previste dalla deontologia suggerisce
a qualsiasi traduttore di avvantaggiare con il proprio lavoro il committente, ma la complessa
struttura etica personale può indurre a posporre la deontologia all’etica. Quando Pym assumeva il
postulato che il traduttore fosse sempre responsabile, considerava che la sola soluzione di fronte a
un conflitto fosse quella di “non tradurre”. È doveroso distinguere tra la deontologia professionale,
che comprende la valutazione dei benefici della cooperazione tra individui, e il diritto etico di un
traduttore di opporsi a una cooperazione che ritiene immorale secondo il suo sistema di valori.
Non è così infrequente per esempio che è un traduttore o un interprete, sia chiamato da un
cliente a gestire una trattativa o a tradurre documenti e che percepisca o venga a sapere che il
proprio cliente sta cercando di imbrogliare la controparte; quanto migliore sarà la sua prestazione
(più deontologica) tanto più contribuirà a danneggiare un altro individuo. In questo caso il conflitto
sarebbe addirittura duplice, in quanto la legge dello Stato (superiore alle norme deontologiche)
prevede di violare il segreto professionale se si viene a conoscenza che sia per commettere un
reato. Dal punto di vista delle neuroscienze e della sociobiologia il senso etico risponderebbe alla
percezione interiore del senso di giustizia soggettivo e all’intenzionalità individuale che chiamiamo
“libero arbitrio”. La deontologia risulta delegata integralmente alla cultura, mentre l’etica
dovrebbe avere a che fare con la natura biologica dell’essere umano. È possibile che il libero
arbitrio non sia una realtà fisica. Se invece esiste, allora siamo veramente intelligenti e morali. In
ogni caso noi umani percepiamo l’esistenza di un meccanismo che ci permette di decidere in base
alla volontà: se anche il meccanismo non esistesse non potremmo lo stesso non comportarci come
se fossimo liberi. Qualunque sia la sua posizione etica o morale, il traduttore può essere
“responsabile” nella misura in cui è addestrato ad esserlo. Solo una crescita del ruolo
professionale della traduzione potrà contribuire all’autonomia decisionale del traduttore; in
questo senso l’etica è anche una questione sociale, che implica la possibilità di affrancarsi almeno
in parte dai dettami imposti dai clienti e dal mercato.