Sei sulla pagina 1di 17

Traducibilità delle lingue: universalisti e relativisti

La traducibilità delle lingue divide i linguisti in universalisti e relativisti. A prescindere dalla propria
posizione, si può convenire che la traduzione tra lingue diverse può esistere se e solo se:
➢ La diversità tra le lingue è compensata da un funzionamento universale dovuto a facoltà
cognitive e psico emozionali comuni a tutta la specie umana.
➢ La differenza superficiale delle lingue intacca in modo non rilevante le differenze nel modo
in cui parlanti di lingue diverse pensano e comunicano.
➢ Le specificità culturali riflesse da una singola lingua possono essere espresse, trasmesse e
comprese da umani che appartengono a un'altra linguocultura (il termine è stato coniato da
due ideatori russi che argomentavano una relazione inscindibile tra la cultura di un parlante
e la sua lingua nativa).
Un cospicuo numero di linguisti, facendo riferimento alle idee di Chomsky, ritiene che le lingue
siano molto diverse a livello superficiale, ma accomunate da una struttura profonda (grammatica
universale) che le rende paritariamente in grado di esprimere, con strumenti diversi, i pensieri, i
sentimenti e le esperienze che possono condividere esseri umani di tutto il pianeta. Costoro
vengono definiti universalisti e si oppongono ai sostenitori della teoria del relativismo linguistico
che è stata sviluppata attorno alla metà del 900 da due studiosi americani, Saphir e Whorf, e che è
nota come ipotesi Saphir-Whorf. Secondo Il relativismo classico, le modalità e i limiti del pensiero
umano sono in qualche livello condizionati dalla lingua nativa. Questa posizione emergeva dagli
studi che Whorf aveva compiuto sulla lingua hopi parlata da una popolazione indigena
nordamericana e profondamente diversa dalle lingue europee, non solo per le sue strutture, ma
per il modo di catalogare lo spazio e il tempo. L'idea di base era che, tanto le parole, quanto i
vincoli grammaticali influissero sulla visione del mondo degli indiani Hopi. Affermava che la lingua
condizionava i nativi hopi a parlare di certe cose, prestando più o meno attenzione cognitiva a certi
elementi della realtà, rispetto per esempio ai nativi della lingua inglese. Quindi non solo la cultura
si rifletterebbe sulla lingua, ma la lingua modificherebbe il modo di vedere la realtà circostante e il
pensiero dei parlanti. In sintesi, il principio relativista assume che gli utenti di lingue diverse usano
differenti rappresentazioni concettuali, mentre il sistema anti-whorfiano implica che utenti di
lingue diverse usano lo stesso identico sistema di rappresentazione concettuale. Esiste poi il
relativismo percettivo, secondo questa concezione i popoli che hanno più parole per le gradazioni
di colori li distinguono meglio di chi non ha parole specifiche. Quindi, l'idea che chi è stato
plasmato da una lingua non possa recepire fino in fondo la realtà concettuale di chi è nativo di
un'altra lingua equivale a negare la possibilità di essere realmente bilingui, e quindi di poter
tradurre da una lingua all'altra. Una sintesi aggiornata di questa diatriba è offerta dal libro di
McWhorter, in cui le l'autore spiega con esempi due cose molto importanti: sempre più spesso
vengono diffusi dati non attendibili che fanno scalpore, ma che sono falsi; esistono un relativismo e
un universalismo molto seri in grado di stimolarsi a vicenda, cioè di partire dagli aspetti condivisi da
tutti gli umani, per poi studiarne le differenze. Per concludere, le parole di una lingua certamente
sono influenzate dalla cultura in cui nascono, ma la lingua, pur riflettendo la cultura, non la crea.
Traduzione e retroversibilità
Il termine traduzione nelle lingue indoeuropee indica il processo di ricodificazione di un testo in
lingua naturale, in una lingua naturale diversa; il prodotto di questo processo è il testo secondario,
trasformato in altra lingua da un tasto primario. Il testo secondario deve poter essere riconvertito
nel testo primario. Se applicato ai segni linguistici, il concetto di traduzione può essere definito
secondo la tripartizione di Jakobson:
o Traduzione intralinguistica o riformulazione, ovvero la conversione dei segni di una lingua
naturale in segni diversi della stessa lingua, si dice la stessa cosa con parole diverse (è una
quasi-traduzione, perché le riformulazioni nella stessa lingua danno sempre informazioni
diverse, per esempio un cambio di registro).
o Traduzione interlinguistica o traduzione vera e propria, ovvero la conversione dei segni di
una lingua naturale nei segni di un'altra lingua naturale.
o Traduzione intersemiotica, ovvero il passaggio da un codice linguistico ad un altro, ad
esempio il passaggio dal testo scritto a quello cinematografico (non si può parlare
propriamente di traduzione perché manca la possibilità di retroversione, per esempio se
convertiamo un romanzo in un film manca il processo contrario).
Nascita di un campo di ricerca
La teoria della traduzione come disciplina autonoma nasce in Unione Sovietica, nel 1918 il noto
scrittore Russo Gor’kij aveva avviato un progetto di straordinaria ambizione interculturale, mirato a
portare a tutti i popoli dell'URSS il patrimonio della letteratura di tutto il mondo. Il progetto era
denominato letteratura mondiale. Un centinaio di letterati e traduttori erano stati chiamati a farne
parte, incaricati di estendere il concetto stesso di letteratura mondiale alle numerose lingue e
culture dei diversi gruppi etnici che popolavano l'URSS. Per uniformare il lavoro di decine di
traduttori e dare loro un punto di riferimento teorico e pratico, era stata pubblicata una brochure.
Proprio questo testo sarebbe stato il primo nucleo di un manuale che lo stesso Cukovskij pubblicò
nel 1964.
Teoria della traduzione come disciplina
La teoria della traduzione è una disciplina suddivisa in due macroaree: la prima si interessa ai
prodotti della traduzione, l'altra ai processi.
L'area che studia i prodotti della traduzione comprende settori prettamente umanistici:
▪ La storia delle traduzioni.
▪ La storia del pensiero sulla traduzione.
▪ Gli studi socioculturali sulla traduzione che costituiscono i TS.
L'area che studia i processi comprende settori più prossimi all'ambito delle scienze sperimentali e
applicate:
▪ La linguistica teorica e applicata con i suoi sottosettori (neurolinguistica, psicolinguistica,
sociolinguistica).
▪ La traduzione automatica (linguistica applicata all'informatica).
▪ La traduzione assistita.
In quanto disciplina accademica giovanissima la teoria della traduzione non ha mai affrontato il
dibattito epistemologico, cioè la discussione relativa alla natura del proprio oggetto di ricerca. In
questa disciplina si ignora l'importanza di un modello teorico unitario. Il teorico della biologia
Wilson scrisse un libro in cui lancia un appello agli umanisti invitandoli a mettere fine alla
contrapposizione tra le scienze cosiddette umane e quelle formali. Secondo lui le quattro qualità
che universalmente conferiscono a qualsiasi teoria il carattere di scientificità sono:
❖ L'economicità, cioè lo sforzo di ridurre al minimo il contenuto della teoria.
❖ La generalità, che prevede che la teoria sia valida per tutti gli elementi che rientrano
nell'ambito dello studio.
❖ La coerenza interdisciplinari (quanto afferma una teoria in un campo del sapere non può
contraddire quanto afferma una teoria in un’altra disciplina).
❖ La capacità di previsione sperimentale, ovvero la capacità della teoria di prevedere di essere
sottoposta a prove sperimentali di falsificazione (deve essere comprensibile alla comunità
scientifica e sottoponibile al controllo).
Nel caso della traduzione, un modello teorico deve rendere più semplice il nostro modo di
descrivere il processo traduttivo, per quanto sia realmente complesso. Per fare questo la prima
tappa è formulare un insieme chiaro di concetti, di oggetti e di termini per indicare concetti. I
concetti devono essere descrivibili mediante termini condivisi dalla comunità dei ricercatori.
Illustrare i concetti che li definiscono è un modo per allargare la discussione a nuovi potenziali
interlocutori che li studieranno per partecipare alla discussione e saranno in grado di proporre
modifiche e forse nuovi concetti. La comunicazione spesso fallisce tra studiosi che usano termini
diversi poiché considerano temi e problemi da punti di vista differenti.
Traduzione orientata o traduzione totale
Un'altra opposizione è quella tra traduzione orientata all'autore e traduzione orientata al lettore. Il
promotore di questa opposizione è stato il letterato romantico Schleiermacher. La sua idea era che
il traduttore potesse scegliere tra due direzioni della traduzione che avrebbero portato a due
traduzioni completamente diverse. La sua posizione ha avuto tale successo da essere stata
riformulata in tempi recenti come opposizione tra traduzione source- oriented e target-oriented.
L'ipotesi di un'opzione di orientamento implicherebbe che il traduttore conosca le intenzioni
dell'autore e preveda chi siano i suoi destinatari e come costoro leggeranno il testo. Dato che
questo non è possibile, il traduttore non può far altro che orientare la traduzione verso sé stesso.
Per questo in senso provocatorio, è stata proposta l’idea che la traduzione sia self oriented, cioè
prodotta e criticata solo dalla mente del traduttore.
Dopo Babele
Il libro after Babel di Steiner rappresenta una dettagliata ricostruzione storico-critica dell’attività
traduttiva occidentale. Questo libro è stato un punto di riferimento per i teorici della traduzione; ci
sono quattro periodi:
✓ Il primo periodo caratterizzato da analisi embrionali, parte da Cicerone e Orazio e arriva alla
fine del XVIII secolo.
✓ Il secondo periodo inizia con il saggio di Schleiermacher e termina nel XX secolo.
✓ Il terzo periodo prende il via negli anni 40 e prosegue parallelamente anche durante la
quarta fase. Questo periodo è quello del grande sogno computazionale, si cerca di trovare in
tempi brevi una strada per realizzare la traduzione meccanica. Questa aspirazione era stata
nutrita dalle ambizioni del formalismo russo, una corrente pionieristica che aspirava a
rendere scientifica l'arte letteraria e perciò proponeva metodi di indagine per rendere
oggettivo lo studio dei testi.
✓ Il quarto periodo può essere inteso come reazione al pensiero formalistico scientifico, nato
col tentativo di sostituire alla verità dell'arte la verità della scienza.
Secondo Steiner, la traduzione letteraria non può essere studiata scientificamente perché
rappresenta un paradosso. Lui affermava che ripetere un libro già esistente in una lingua straniera è
il compito misterioso del traduttore. Non è possibile, ma deve essere fatto. Il traduttore non è visto
come un professionista dotato di conoscenze teoriche, bensì come un demiurgo al centro di
un'operazione non definibile il cui talento non è acquisito secondo un addestramento
professionale, ma è originato da una sorta di ispirazione. In un noto saggio del 1420, Bruni invitava
a evitare la colpa imperdonabile che una persona priva di cultura e di gusto si accosti al lavoro di
traduzione. Bruni non tiene conto della possibilità che gusto e cultura siano competenze e non doti
ontologiche di alcuni umani e non di altri. A distanza di 5 secoli Steiner non faceva altro che aderire
alla posizione di Bruni, giungendo alla conclusione che teorizzare la traduzione fosse prematuro.
Nel cervello umano le operazioni logiche avvengono in larga misura a livello inconscio in
millisecondi, prima di essere trasmesse alla coscienza che le registra con notevole lentezza. Il
cervello segue la sua logica inconscia, spesso capace di eseguire computazione di grande
complessità che lasciano la sensazione di essere stati ispirati da una fonte esterna. Questo spiega in
parte anche il processo traduttivo che a qualcuno pareva così misterioso da far pensare che fosse
semplicemente un dono.
Traduzione scritta-interpretazione orale
Particolarmente significativa è stata la contrapposizione tra traduzione scritta e interpretazione
orale che ha portato traduttori e il vasto pubblico a considerare le tue attività come radicalmente
diverse, come se si trattasse di azioni che non condividono né finalità, né procedure. Anche questo
pregiudizio è stato formulato da Schleiermacher. Lui proponeva di basare l'approccio teorico sulla
contrapposizione tra traduzione scritta della scienza e dell'arte e traduzione orale della
quotidianità. La sua contrapposizione presenta due problemi epistemologici: per prima cosa non è
epistemologicamente motivabile partire dalle differenze prima di vedere le similitudini, in secondo
luogo quello di semplificare la differenziazione al punto da considerare la traduzione orale fuori
dalla teoria, essendo una questione meccanica risolvibile da chiunque possieda una mediocre
conoscenza delle due lingue. Lui si era sbagliato nel negare l'evidenza che traduzione e
interpretazione condividono la stessa immensa complessità. Può sembrare che il cervello faccia
cose diverse se traduce oralmente o se traduce in modo scritto, ma non è così, basti considerare il
fatto banale che chi scrive una traduzione prima di scriverla l'ha già mentalmente eseguita. La
differenza sta solo nella velocità di esecuzione.
Tipologie testuali
La storica contrapposizione tra oralità e scrittura è fondata sull'idea che i testi possano dividersi in
tipologie così diverse tra loro da richiedere teorie diverse. I primi sono i testi a base terminologica
(tecnico-scientifici) che richiederebbero la cosiddetta traduzione specializzata, i secondi sono i testi
letterari o espressivi che non richiederebbero una traduzione specializzata. La separazione tra
traduzione specializzata e letteraria è anche da decenni la posizione del nostro ministero che
impone ai futuri traduttori di decidere se vogliono occuparsi di testo tecnico, scientifici o di testi
letterari. In realtà i testi che traduciamo sono tutti fatti di lingua naturale, la quale si forma e si
diffonde seguendo sempre lo stesso insieme di regolarità a prescindere dalle funzioni che il singolo
testo ha nel processo di comunicazione (vi sono numerosi esempi di testi nati come trattati
scientifici che vengono letti oggi come testi letterari, basti pensare a Machiavelli o a Galileo).
Ogni testo ha un'inevitabile componente di ibridità e ogni destinatario del testo, a seconda del
contesto, può attribuire il dominio a una tipologia e a una funzione.
CAP.2 La bi-teoria
La traduzione esiste da quando esistono le lingue naturali, essa poteva consentire di comunicare
con i vicini. Ricostruire la storia dei testi tradotti all'interno di ogni singola cultura è un'impresa
estremamente ardua. Diversamente dalla storia delle traduzioni (testi tradotti), la storia della teoria
è stata parzialmente ricostruita e costituisce un'importante branca della teoria della traduzione.
Non solo la teoria della traduzione era nata come riflessione dei più noti traduttori dei testi sacri,
ma la moderna traduttologia occidentale è stata fondata nel XX secolo da Eugene Nida, l'inglese
americano che aveva lo scopo di aggiornare il processo traduttivo della Bibbia. Nida può essere
considerato l'anello di congiunzione tra la secolare teoria della traduzione umanistica e la
contemporanea traduttologia scientifica. Prima del 900 tuttavia, la riflessione sulla traduzione delle
scritture non era mai stata compresa in un modello universale, ma avanzata per mostrare la
specificità della traduzione biblica rispetto a qualsiasi altra attività traduttiva; in quanto parola di
Dio, il testo sacro veniva distinto da tutti gli altri testi. Fin dagli albori del Medioevo si sono
contrapposte due correnti traduttive: la prima è quella propriamente religiosa ed è stata inaugurata
da San Gerolamo nel IV secolo ed era legata alla traduzione in latino dei testi che componevano la
Bibbia; la seconda corrente riguardava la traduzione in latino di testi scientifici, prevalentemente di
matematica, astronomia, fisica e medicina. San Gerolamo eredita l’atteggiamento della traduzione
precristiana (far funzionare i testi), Orazio e Cicerone avevano teorizzato che il traduttore deve
ottenere lo stesso effetto però non vengono date istruzioni. I testi scientifici non sono mai inclusi
nei testi alti, anche se il loro impatto sulla cultura è cruciale. I testi religiosi venivano considerati
testi di serie A, come portatori di verità divina, mentre i testi umani (compresi quelli scientifici),
erano recepiti come testi di serie B. Ancora oggi i testi alti della letteratura sono recepiti come una
sorta di versione laica dei testi religiosi, soprattutto quelli poetici che più si prestano all'idea di
essere stati ispirati.
Tutte le religioni monoteiste considerano il proprio testo sacro diverso dagli altri testi e quindi
meritevole di essere affrontato a livello teorico e pratico ad hoc, secondo una teoria diversa dagli
altri testi. Basata sulla contrapposizione tra testi sacri verso altri testi, dal Medioevo la teoria della
traduzione ha assunto una struttura binaria; è stata per così dire, una bi-teoria. La bi-teoria si è così
radicata da impedire che qualcuno cercasse un modello teorico generalizzato, che prima di
postulare le differenze, indagasse ciò che accomuna tutti i processi traduttivi. Iniziatore della teoria
è stato San Gerolamo, autore della più nota versione Latina della Bibbia, detta “Vulgata”. Lui
introdusse il binomio fedeltà/libertà. Il criterio della libertà non poteva essere applicato alle sacre
scritture, poiché in quel caso anche l'ordine delle parole racchiude un mistero. La bi-teoria si è poi
sviluppata durante l'umanesimo, nonostante una sostanziale laicizzazione della cultura, i testi della
cultura greca avevano assunto il ruolo di testi così alti da assumere anche una propria sacralità. Nel
periodo del tardo Rinascimento fino all'Illuminismo era stata la cultura francese ad assumere il
ruolo di riferimento alto, valorizzando l'idea che tradurre in francese fosse una forma di
nobilitazione del testo. Nel 900 si pensava che nel testo letterario vi fosse qualcosa di più nobile
rispetto ai testi scientifici. Le cose hanno cominciato a cambiare solo nell'ultimo ventennio del XX
secolo, con il lento ma progressivo affermarsi della traduzione come materia di ambito accademico.
Di tutte le discipline umanistiche, la filologia è quella da cui si dovrebbe partire per studiare la
teoria della traduzione: in primo luogo perché le competenze filologiche di base sono competenze
necessarie del traduttore; in secondo luogo, perché i criteri seguiti dalla filologia sono le regole per
stabilire quale versione di un manoscritto vada assunta come testo di partenza per progettare una
traduzione.
Filologia e traduzione
La filologia è l'attività di analisi linguistico-testuale atta a ricostruire e interpretare documenti e
manoscritti. Il filologo mira a ricomporre un testo di cui la tradizione ha lasciato vari esemplari,
nessuno dei quali è il testo autografo (ovvero l'originale dell'autore). I vari manoscritti di un testo si
chiamano testimoni, questi vengono confrontati e ricomposti in un'edizione artificiale detta
edizione critica. Per definire i procedimenti di edizione critica di un testo perduto si usa la parola
ecdotica. L'approccio filologico aiuta anche a comprendere la necessità epistemologica di
distinguere tra autore e testo, sfatando l'idea che un testo vada ricostruito secondo la volontà o
l'intenzione dell'autore. Entrambi, filologo e traduttori, operano in base a congetture; le congetture
sono calcoli probabilistici indispensabili quando mancano alcuni dati o il tempo necessario per
confutarli. Il traduttore può procedere secondo questo schema:
✓ Congettura 1, se i dati disponibili del TP Sono ambigui, si valutano le ipotesi e le ambiguità.
✓ Congettura 2, ipotesi sul modo in cui l'avrebbe scritta l'autore se la sua lingua nativa fosse
stata quella di arrivo.
✓ Congettura 3, ipotesi sul modo in cui i destinatari del TA lo recepiranno, valutando che
debba essere analogo al mondo in cui i destinatari di partenza recepivano il TP.
I testi sacri
L'Antico Testamento, i Vangeli e il Corano si presentano come mediazione di un messaggio divino
che ha il compito di rivelare la verità. Se davvero si crede che un tasto contenga la verità divina,
qualora le scoperte scientifiche contraddicano le affermazioni di quel testo, al fedele può essere
imposto di disconoscere il valore della scienza. Quando c'è una contraddizione esistono alcune
soluzioni: per esempio negare del tutto il contributo della scienza; un'altra possibilità è quella di
indagare con i mezzi della filologia i testi sacri, ipotizzando che vi siano significati nascosti che
possano rivelare nuove informazioni sulla parola di Dio. Ebraismo, cristianesimo e Islam
dispongono solo di copie dei rispettivi testi sacri, copie che sono spesso posteriori di secoli rispetto
ai testi originari; ovviamente la mancanza degli originali rende la traduzione dei testi sacri
particolarmente problematica.
Traduzione nell’ebraismo
L'Antico Testamento è un tasto sacro sia per l'ebraismo sia per il cristianesimo, sebbene
nell'ebraismo non si possa parlare di antico testamento in quanto non ne esiste uno nuovo;
tuttavia, il testo sacro per eccellenza è la Torah, che comprende solo i primi 5 libri dell'Antico
testamento. La Torah viene letta e studiata in lingua ebraica nella versione masoretica (i Masoreti
avevano concluso una revisione testuale dell'Antico Testamento ebraico, utilizzando i manoscritti
sopravvissuti alla distruzione del secondo tempio di Gerusalemme). Dal punto di vista filologico la
scrittura ebraica in cui sono state trasmessa a noi le copie dei manoscritti presentano alcune fatali
caratteristiche delle scritture semitiche. Quello dell’ebraico è un alfabeto consonantico, cioè
trascrive per lo più i soli suoni delle consonanti, i suoni delle vocali venivano omessi nella scrittura;
Inoltre, gli autori delle copie manoscritte non utilizzavano le maiuscole e non separavano tra loro le
singole parole. Nel corso dei secoli gruppi di eruditi filologi hanno fatto del loro meglio per mettere
ordine in questi testi. La scelta delle vocali che sono state inserite è stata basata su congetture, ma
non è univoca, cioè può variare su larga scala se cambiano anche poche interpretazioni. Proprio
questo implica l'impossibilità oggettiva di proporre una traduzione della Torah che sia oggettiva e
definitiva. L'ebraismo non è incline a diffondere la propria religione tra i non ebrei, per questo non
c'è mai stata l'esigenza di tradurre la Torah per diffonderla, ma solo la necessità di renderla
accessibile ai meno dotti ebrei che non fossero in grado di comprendere l'ebraico biblico.
Traduzione nel cristianesimo
Anche in ambito cristiano, l'ebraico della AT è stato considerato a lungo una lingua fondamentale
per lo studio delle Scritture, tuttavia la sua sacralità è stata messa in ombra per varie ragioni:
innanzitutto i non ebrei vedevano nell’ebraico la lingua di un singolo popolo connotato da
un'elezione che il cristianesimo aveva reinterpretato, annullandola; in secondo luogo gli ebrei
erano stati accusati di deicidio; in terzo luogo la posizione di lingua sacra era stata rivendicata dal
greco e poi estesa al latino. La sostanziale differenza tra ebraismo e cristianesimo nel rapporto con
le scritture dipende dall’ opposto approccio al proselitismo. Il cristianesimo si fonda sul
proselitismo, infatti la missione di evangelizzazione è necessariamente connessa alla divulgazione e
ricezione della Bibbia, che va portata ai popoli che non la conoscono (la traduzione era la soluzione
ideale per la conversione di milioni di persone).
Con la traduzione della Bibbia in tedesco conclusa da Martin Lutero nel 1534 si affermava la
priorità della funzione comunicativa del testo tradotto, annullando per la prima volta la
contrapposizione tra testi alti e bassi. Di fatto, anche Lutero non separava il piano funzionale da
quello fideistico, infatti, lui passava a elencare le doti intrinseche necessarie a un traduttore degno
di accedere ai testi sacri. Il traduttore, per esempio, avrebbe dovuto avere un cuore veramente pio,
fedele, zelante, quindi i traduttori ebrei non avrebbero potuto comunque essere affidabili, in
quanto non avevano mostrato molta venerazione per Cristo. Lutero finiva quindi a riproporre in
veste nuova una modalità binaria, invece di applicarla al metodo traduttivo, l’applicava al
traduttore.
I primi tentativi di impostare la discussione sulla traduzione della Bibbia secondo un approccio
realmente laico si avrà solo con Eugene Nida nel 1945, lo studioso poneva l'accento su quello che
definiva l'uso effettivo della lingua, ponendosi in sintonia con Lutero. Nida era pienamente
consapevole che tradurre la Bibbia implicasse una responsabilità particolare, a prescindere dal
fatto che il traduttore credesse o meno che la Bibbia fosse parola di Dio, ma sosteneva che la
sacralità di qualsiasi testo riguarda il mondo in cui quel testo verrà recepito. Vi sono alcuni quesiti
sulla AT che un traduttore dall'ebraico biblico non dovrebbe trascurare, ma che nessuno ha mai
affrontato in modo esplicito:
❖ Visto che il testo della Bibbia da cui vengono fatte le traduzioni non è un autografo, può
essere accaduto che i copisti, in quanto esseri umani, abbiano omesso, aggiunto qualcosa?
❖ Se la Bibbia è parola di Dio, quali vocali ha immaginato l'Autore?
❖ È possibile che il traduttore, che è a sua volta umano, oltre a dover partire da un testo
manipolato dai copisti, essendo vincolato ai suoi limiti di fallibilità, trascuri qualche
particolare cruciale?
L’intraducibilità del Corano
Si può dire che l’Islam prevede di portare il credente al Corano; pertanto, il proselitismo islamico
non si fonda sulla diffusione di traduzioni del Corano nelle lingue dei potenziali nuovi fedeli, ma
sulla diffusione del testo coranico in arabo e sulla diffusione dell'arabo coranico stesso. La sacralità
del testo coranico è considerata inscindibile dalla sacralità della lingua prescelta, da Allah e dal suo
profeta; pertanto, il Corano è assoggettato al dogma di inimitabilità. Il Corano viene riconosciuto a
pieno titolo come central text religioso: ogni copia deve essere in arabo, perfettamente conforme
alla versione del canone, di conseguenza, ogni traduzione non può che essere una mera parafrasi,
priva di valore sacrale e distante dal messaggio divino. Oggi la diatriba è superata, infatti ormai solo
la traduzione rende accessibile il Corano a moltissimi fedeli per i quali lo studio dell'arabo coranico
non sarebbe più necessaria.
Les belles infidèles
A partire dal primo Rinascimento, anche grazie al consolidarsi delle lingue nazionali, il numero delle
traduzioni profane aumentò vertiginosamente e alcuni traduttori cominciarono a vedere nella
traduzione un'arte-mestiere. Tra i più noti sostenitori di questa posizione, detrattori del vincolo
della fedeltà e della traduzione scolastica parola per parola, va ricordato il grande umanista Dolet
(considerato il padre della Traduttologia francese). In un breve saggio del 1500 aveva sintetizzato le
regole che guidavano il buon traduttore; lui riteneva che il traduttore dovesse impegnarsi a tutelare
l'esito estetico della traduzione e proponeva 4 moderni principi della traduzione:
1. Comprendere bene il senso e l'intenzione dell'autore dell'originale, pur concedendosi la
libertà di chiarire i passaggi oscuri.
2. Possedere una conoscenza perfetta della lingua di partenza e della lingua d'arrivo.
3. Evitare di tradurre parola per parola.
4. Utilizzare espressioni di uso comune.
Questa posizione contemporanea a quella funzionalista di Lutero, ma in un'ottica finalmente del
tutto laica, veniva ripresa anche da Chapman (traduttore di Omero in inglese). Opponendosi
all'ossessione per la fedeltà, si poneva la funzionalità del testo come finalità dell'atto traduttivo,
ponendo l'estetica del testo tradotto al di sopra della sua precisione. In Francia nel XVII secolo vi fu
il trionfo delle traduzioni cosiddette belles infideles, il testo tradotto doveva contribuire ad
arricchire la cultura di arrivo secondo i principi di un estetismo naturale. Quindi queste traduzioni
avevano il compito di rendere più belli i testi originali secondo il gusto francese. L'estetismo in
traduzione sarebbe stato recepito come spavalda libertà di riscrivere il testo a piacimento,
assecondando il gusto dei destinatari contemporanei. Questi testi erano in realtà pseudo-
traduzione. In questo periodo si attesta il binomio fedeltà libertà, diffondendo lo stereotipo che se
una traduzione è bella, è necessariamente infedele. Il modello francese ebbe un successo
particolare in Russia a partire dal XVIII secolo, quando ancora non c'era una distinzione tra i testi
originali e traduzioni. Attraverso traduzioni russe, la Russia creava capolavori di traduzione pronti a
divenire testi autoctoni che avrebbero contribuito a fondare i canoni letterari russi. In Inghilterra la
parentesi dell'estetismo era stata molto breve, già a partire dall'ultimo 600, i teorici erano tornati a
guardare al concetto di fedeltà all'originale. A superare l'estetismo laico francese sarebbe stato il
romanticismo tedesco.
Il romanticismo tedesco
A riflettere sulla traduzione troviamo anche il grande poeta Goethe, considerato una sorta di
mediatore tra classicismo e romanticismo. Lui propugnava senza mezzi termini la supremazia della
traduzione letterale; infatti, solo l'aderenza al testo originario sarebbe stato in grado di rendere la
traduzione identica all'originale. Lui sanciva in modo chiaro la superiorità del TP combattendo il
modello francese. I più noti protagonisti del romanticismo tedesco sono stati Humboldt e
Schleiermacher, i quali scrivono due saggi le cui riflessioni sono divenute un punto di riferimento
per tutte le correnti della traduzione novecentesca. Da questi saggi emerge il fatto che la
traduzione è un'operazione non assoggettabile a schematizzazioni; l'analisi parte dalla
considerazione che la comunicazione umana è estremamente difficile anche all'interno della stessa
comunità linguistica: le forme di una stessa lingua e il senso loro attribuito dai singoli parlanti non
paiono riconducibili a un codice unitario, inoltre per ogni persona varia la ricezione di uno stesso
testo nel tempo. Schleiermacher definiva folle l’ambizione di creare tra il proprio lettore e il TA un
rapporto analogo a quello esistente tra il TP e il suo lettore poiché la lingua del TP con la straniera
non concorda in nessun punto. Questa visione di relativismo estremo riguardava solo i testi dove si
manifestasse lo spirito, poiché i tassi bassi erano invece basati su corrispondenze quasi perfette.
Altrettanto contro-argomentabile è l'affermazione di Schleiermacher che nulla può essere
inventato in una lingua e che il traduttore ha problemi enormi con i termini assenti nella cultura di
arrivo; in realtà se si conoscono le regole per farlo, si possono creare neologismi efficaci e di
successo. Esistono 2 modi per tradurre: o si porta il lettore verso il testo o si porta.. si può chiamare
anche source oriented o target.
Humboldt partiva dal postulato che la poesia di Eschilo fosse intraducibile per sua peculiare natura,
ma non forniva alcun parametro per individuare in che cosa consistesse la peculiare natura.
Avanzava subito dopo una considerazione di grande importanza, ovvero che le diverse lingue non
sono tra loro in un rapporto di sinonimia, in quanto nessuna parola di una lingua è completamente
uguale a una di un'altra lingua. Tuttavia, lui misurava la sinonimia secondo la corrispondenza
parola/parola, senza fare il passo successivo alla sua significativa premessa; tra le lingue, infatti,
esiste sempre una sinonimia praticamente perfetta, ma solo se si considera il rapporto
parola/locuzione. Pur senza superare del tutto il postulato della supremazia del TP, Humbolt ha
comunque spianato la strada all'idea (centrale per i TS) che qualsiasi testo, anche una traduzione, è
di fatto un originale. Lui viene considerato il vero padre della linguistica moderna, prima del
periodo romantico non si può parlare di fondamenti della linguistica.
Von Humboldt è scettico sulla possibilità della traduzione perché

Irrazionalismo postmoderno
Benjamin e José Ortega y Gasset hanno ereditato alcuni postulati comuni ai due pensatori
romantici, soprattutto l'idea dell'impossibilità di far comunicare perfettamente due lingue. Il
secondo propone un irrazionalismo gnoseologico, cioè relativo alla conoscenza umana. Lui
sosteneva che tutto ciò che l'uomo fa è utopistico, l'utopia riguarderebbe in primis la conoscenza;
infatti, l'uomo è avido di un sapere che non può mai afferrare pienamente. Secondo Ortega, la
traduzione, come tutte le altre attività umane, era destinata al fallimento, in quanto compito
smisurato per gli umani. L’idea secondo cui la traduzione sarebbe un'impresa utopica è la
conseguenza dell'impossibilità in toto della comunicazione umana. Lui sosteneva che parlando una
lingua straniera si prova tristezza perché non si riescono a esprimere pienamente i pensieri (fa il
proprio esempio parlando francese). Una generalizzazione inferita dai propri limiti personali è
davvero sorprendente da parte di uno dei pensatori europei più influenti del XX secolo; è noto oggi
che i bilingui in lingua straniera possono riprodurre quasi i 5/5 di ciò che potrebbero dire nella
propria lingua madre.
Si può dire che l'irrazionalismo postmoderno si fonda su alcune vistose contraddizioni; infatti, nel
momento stesso in cui gli irrazionalisti negavano il ruolo del linguaggio e della comunicazione, se
ne servivano per diffondere il proprio pensiero.
I Translation Studies
Nei primi anni del 900 con De Saussure nasceva la linguistica accademica e gli studi sulla traduzione
si allontanavano sempre di più dall'attenzione alla lingua per ripiegare sull’ irrazionalismo
antiscientifico. Viceversa, nella giovane Unione Sovietica proprio in campo umanistico si
muovevano i primi passi per impostare una teoria della traduzione sempre più attenta agli aspetti
linguistici e mirata a unificare le procedure traduttive. Vi è una drastica contrapposizione tra teorie
letterarie e teorie linguistiche: le prime si richiamano alla tradizione filosofica tedesca e alla
supremazia del testo letterario; mentre le seconde ambivano alla scientificità della disciplina.
L’avversità per gli studi linguistici da parte dei letterati era, in parte, un pretesto per sottrarsi a un
campo di studi non solo nuovo e in veloce evoluzione, ma estremamente complesso. A sancire il
distacco dei letterati dagli studi linguistici, con lo scopo di costituire un solido campo di studi
umanistico, nacquero i TS (la più nota scuola occidentale di ricerca sulla traduzione). Un folto
gruppo di giovani e dotati studiosi di traduzione si era riunito a Bratislava nel 1968. Da allora Il TS è
fortemente radicato e ha in Susan Bassnett la sua esponente più nota. Il suo scopo evidente è stato
quello di separare gli studi sui prodotti della traduzione dagli studi sui processi. I linguisti volevano
spiegare quali parametri rendessero migliore il processo traduttivo, eppure proprio il concetto di
equivalenza su cui si basava la ricerca scientifica era visto da TS come inutile. Per i TS la traduzione
si sarebbe dovuta studiare solo in chiave descrittiva come fenomeno culturale e non allo scopo di
individuare strutture, norme e modelli. Certamente grazie ai TS la crescita quantitativa delle
ricerche in questo campo è stata estremamente significativa. La spaccatura tra linguisti e letterati,
così come quella tra umanisti e scienziati, in fondo, rifletteva originariamente la differenza tra chi
cercava le regole credendole facilmente abbordabili e chi, negando che se ne potessero trovare,
evitava di cercarle.
CAP 3 Il sogno meccanico
L’ambizione utopistica di creare in tempi brevi una macchina in grado di eseguire traduzioni al
posto degli esseri umani nacque nei primi decenni del XX secolo e avrebbe portato, negli anni
Trenta, ai primi progetti concreti. Ciò accadeva circa vent’anni prima che il grande matematico
inglese Alan Turing ideasse il parametro – detto “test di Turing” – cui ancora oggi ci si riferisce per
indicare quando una macchina è in grado di fornire un risultato attribuibile a un essere umano,
ovvero humanlike. Il pioniere della traduzione meccanica era un ingegnere-inventore, Trojanskij
che lavorò al progetto di una macchina in grado di effettuare traduzioni da una lingua naturale
all’altra con l’assistenza di due umani monolingui. Il fatto che la macchina richiedesse l’intervento di
due umani potrebbe oggi apparire del tutto diseconomico: perché, con tanta fatica, sostituire il
traduttore unico con due monolingui? La macchina, in realtà, sarebbe stata vantaggiosa da due
punti di vista, strettamente connessi al momento storico in cui si trovava la giovane Unione
Sovietica: da un lato, infatti, nell’enorme Paese multilingue non era possibile reperire traduttori
bilingui per la maggior parte delle potenziali coppie di lingue; dall’altro, il progetto prevedeva che,
con una sola operazione meccanica, si potesse eseguire la traduzione di un medesimo testo
contemporaneamente in lingue diverse, velocizzando un processo altrimenti lungo.
Trojanskij era stato all’epoca un formidabile precursore, aveva intuito come le lingue fossero
accomunate da una struttura logica comune che poteva fungere da codice intermedio tra una
lingua naturale e l’altra: di fatto, aveva anticipato di una trentina d’anni l’intuizione che avrebbe
reso celebre Noam Chomsky (lui la chiamò grammatica universale). Purtroppo, la prematura morte
del geniale inventore e il lungo isolamento della cultura sovietica lo avrebbero condannato,
assieme al suo progetto, all’oblio. La struttura logica universale delle lingue è rivestita dalla forma
nazional-grammaticale di ogni singola lingua. Questa forma nazionale rende le lingue irriconoscibili,
ma un messaggio, ricondotto alla sua struttura logica, può venire rivestito in modo da essere
riconoscibile in un'altra lingua. Prima che intervenisse la macchina, era quindi necessario
l’intervento dei due monolingui nativi: il primo avrebbe dovuto trasformare il testo grammaticale A
in un testo in forma logica A1; la macchina avrebbe quindi provveduto a convertire A1 in B1,
ovvero nella forma logica della lingua di arrivo B. La terza fase sarebbe stata a carico del secondo
monolingue che avrebbe convertito il testo B1 nel corrispondente testo grammaticale B. Le
competenze richieste per i due passaggi intralinguistici (A ➝ A1 e B1 ➝ B) erano elementari: più
semplici dell’analisi logica che si impara a scuola. La gloriosa paternità del computer, però, viene
riconosciuta all’americano John von Neumann (un ebreo ungherese riparato negli USA), ideatore
della prima macchina in grado di “memorizzare un programma” che non si limitasse a memorizzare
i dati, ma anche le istruzioni per elaborarli.
in Russia, dove già da un paio d’anni erano entrati in funzione potenti calcolatori, si realizzò il primo
esperimento di traduzione automatica: si trattava di un testo di matematica da trasformare (in
direzione opposta agli americani) dall’inglese in russo. I successi ottenuti in questo e altri
esperimenti avrebbero condotto, nel 1958, a organizzare a Mosca il successivo Convegno di
Traduzione Automatica. Negli anni seguenti, tuttavia, non solo non si ottennero i risultati vistosi e
immediati che tutti si aspettavano, ma gli ostacoli incontrati dai ricercatori rivelarono che gli
obiettivi prefissati dalla ricerca sulla traduzione automatica erano troppo ottimistici e ambiziosi.
Questo fallimento portò a un’ulteriore drastica contrapposizione tra letterati e linguisti: i primi
ritenevano chiuso un progetto che ritenevano impossibile, gli altri continuavano a cercare algoritmi
linguistici, ma con finalità ridotte rispetto all’idea di traduzione elettronica.
Nel 1966 venne decretato ufficialmente il fallimento dell’era romantica della traduzione automatica
e questo sancì la fine della sperimentazione. Il fallimento in realtà dimostrava che gli algoritmi
linguistici non erano sufficienti a creare un’intelligenza artificiale humanlike. Da questa
consapevolezza nacquero 2 filoni: il primo che inaugurava la traduzione assistita (l’idea di una
collaborazione tra traduttori umani e macchina implicava di guardare ai computer non più come a
“humanlike robot”, ma come a utili strumenti da affiancare ai professionisti umani per rendere i
processi traduttivi più veloci e i risultati più affidabili, grazie alle banche dati che le macchine
potevano memorizzare, i corpora); il secondo era quello della traduttologia che si sarebbe
sviluppata come branca della teoria della traduzione dedita allo studio dei processi traduttivi e alla
loro classificazione formale.
Il quid differenzia gli umani dalle macchine, è la capacità del nostro cervello di svolgere operazioni
intelligenti di tipo simbolico che sono direttamente correlate a tutti gli altri processi biologici ed
emozionali. L’inadeguatezza del computer nella traduzione di messaggi in lingua naturale sembra
attribuita all’assenza di un corpo sensibile. Partendo da queste argomentazioni, la differenza tra i
sistemi intelligenti umani e quelli artificiali non è data dal fatto che le macchine una coscienza,
bensì dal fatto che non dispongono di un corpo così sensibile come quello umano, dotato di
memoria selettiva e specializzati. Le emozioni rappresentano una funzione neurofisiologica di
fondamentale importanza per il funzionamento dell’intelligenza umana, il cervello è parte
integrante di tutto l’organismo umano, il quale attraverso i 5 sensi garantisce l’afflusso di
informazioni al sistema nervoso centrale, mettendo in contatto il mondo interno di un individuo
con il mondo esterno. Il limite dei computer e dei programmi di traduzione dipende dal fato che le
variabili sono connesse all’esperienza emotivo-sensoriale di cui anche i robot più avanguardistici
sono ancora privi. Per tradurre i testi umani bisogna saper immaginare le esperienze e le sensazioni
di cui parlano.
La tarduttologia linguistica
Gli studi di stampo linguistico hanno avuto una loro epoca d’oro a partire dalla metà degli anni
Cinquanta fino ai primi anni Novanta del secolo scorso. Il loro scopo primario era quello di
intaccare l’opinione assai diffusa secondo cui il traduttore dovesse essere solo un buon letterato
con raffinate conoscenze della propria lingua. Le teorie universalistiche avevano ampiamente
argomentato l’esistenza di regolarità strutturali alla base di tutte le lingue, indicando la possibilità di
trovare anche regolarità procedurali nel processo di traduzione che avrebbero reso più
professionale la ‘pratica traduttiva’. Ma l’idea che la lingua e la linguistica dovessero essere
fondamentali nello studio della traduzione, per quanto ovvia e banale, è stata osteggiata per
decenni.
Fin dagli esordi, la traduttologia europea era divisa in: occidentale (sviluppatasi soprattutto in
Germania) e slava (sviluppata dai pionieri dell’Europa orientale che scrivevano in russo, polacco,
ceco…). Jakobson aveva insegnato in diversi Paesi europei, mantenendo un legame più o meno
costante con la Russia. Lui studiò filologia, psicologia, linguistica e dimostrò quanto fosse logico per
uno studioso delle lingue provare curiosità scientifica per i meccanismi cerebrali del linguaggio. Nel
suo saggio attestava l’universale potenziale di tutte le lingue naturali a esprimere l’esperienza
umana.
Traduttologia americana
Nel 1964 Nida pubblicava la sua monografia fondamentale, Toward a Science of Translating, che
può essere considerato il primo trattato occidentale di traduttologia: per decenni, numerosi
studiosi hanno guardato a quest’opera come a una “Bibbia” della teoria della traduzione.
Nida riteneva che la grammatica di ogni lingua fosse assoggettata a meccanismi trasformazionali
prevedibili e formalizzabili, e teorizzava la possibilità di verificare l’affidabilità di una traduzione
mediante il criterio della retroversione (ri-traducendo il TA nella lingua di partenza). Curiosamente,
Nida resta l’unico vero traduttologo americano; negli Stati Uniti, infatti, da un lato, i teorici hanno
fondamentalmente aderito all’approccio dei TS, estremamente avverso alla linguistica, mentre,
dall’altro, i linguisti non si sono occupati di traduzione.
Traduttologia sovietica
In Russia, la traduttologia come branca della teoria della traduzione risale al 1962, quando fu
pubblicato un articolo da due linguisti. Loro proponevano una distinzione che riproponeva invertito
il modello di Schleiermacher: da un lato si parlava di interpretazione (quando il traduttore si
rapportava alla realtà che era descritta nel messaggio attraverso la lingua naturale); dall’altro di
traduzione (quando il traduttore si rapportava solo alla lingua e ricodificava il messaggio in lingua
d’arrivo senza rapportarsi alla realtà). In generale, la teoria sovietica aveva creato per prima le
premesse di un approccio realmente interdisciplinare, coinvolgendo nel dibattito la psicologia, le
neuroscienze, la semiotica. Tuttavia, a causa del declino della ricerca scientifica successivo allo
scioglimento dell’URSS, le ricerche si sarebbero concentrate sui case studies, adagiandosi sui
traguardi del passato.
Traduttologia tedesca
La scuola di traduttologia tedesca è stata estremamente produttiva. Tra gli studiosi tedeschi
d’impronta linguistica, i nomi più significativi sono quelli di Kade e Wilss. La scuola di Lipsia, più
rigorosamente linguistica, aveva inaugurato il termine esplicitamente ‘tecnico’ di Translation;
secondo i teorici di Lipsia, la traduzione era “un atto linguistico che consiste in un processo di
decodificazione-ricodificazione”. I traduttologi tedeschi tentavano, come i colleghi slavi, di costruire
regole utili a differenziare l’approccio del traduttore a testi diversi, ma utilizzavano in modo confuso
alcuni termini fondamentali. La traduttologia tedesca è stata criticata da 2 punti di vista: loro
mettevano in dubbio non solo la scientificità della traduttologia, ma la sua stessa legittimità in
quanto disciplina; volevano stabilire una corrispondenza tra i testi senza tener conto dei fattori
extra-testuali legati alla ricezione. Inventarono il modello detto Skopostheorie: esso partiva da una
concezione di equivalenza, criterio di equivalenza non erano più le strutture linguistiche, bensì lo
scopo dell’atto traduttivo. Lo scopo poteva variare a seconda del punto di vista (quello dell’autore,
dell’editore). L’importanza della teoria consisteva nel privare di validità istruzioni valide sempre e
comunque per qualsiasi testo, sostenendo l’impossibilità di un modello unitario.
Traduttologia in Francia, Italia e Inghilterra
Rispetto alla traduttologia tedesca e slava, negli altri Paesi europei, i contributi rimanevano
circoscritti a singoli autori. Il contributo della Francia agli studi su lingua e traduzione è stato ben
più significativo nel campo dell’interpretazione e, recentemente, in quello dei corpora e della
terminologia. Le teorie francesi sulla traduzione si dividevano in 2 correnti contrapposte:
ermeneutica (Ladmiral); etico-letteraria (Meschonic). Secondo Ladmiral la traduttologia non
avrebbe portato a scoperte o rivelazioni, ma solo a concetti tramite i quali descrivere la pratica.
Il miglior saggio italiano di traduttologia si deve a Arcaini, cultore del francese. In Italia la
traduttologia linguistica era stata messa da parte da innumerevoli studi sulla traduzione letteraria
in chiave filosofica.
In Inghilterra Catford pubblicò un libro in cui cercava di promuovere in Europa il ruolo della
linguistica negli studi sulla traduzione. Lui fu il primo a porre le basi per un modello teorico
generalizzato che valesse per tutti i tipi di testo.
Fino alla fine del XX secolo, i traduttologi erano disprezzati dai letterati in quanto troppo linguisti, e
disprezzati dai generativisti come dilettanti della linguistica; inoltre, si occupavano di una disciplina
di dubbia dignità, che non aveva a che fare con la linguistica.
La metafora computer/cervello
Alcuni scienziati, per capire come funzioni l’intelligenza umana, optano per fare una metafora: la
mente umana viene considerata come una sorta di facoltà emergente del sistema neuro cerebrale,
capace di eseguire diversi procedimenti logici che costituiscono un insieme di programmi in
funzione parallela. Il processo traduttivo può essere rappresentato nei termini di una
computazione mirata alla commutazione di un testo da un codice all’altro che si avvale di un
hardware biologico per effettuare operazioni elettrochimiche attraverso i neuroni. Potenzialmente,
qualsiasi persona ha in dotazione alla nascita un dispositivo in grado di acquisire una lingua nativa
e una lingua seconda e di esercitarsi a convertire testi dell’una all’altra lingua; tutti abbiamo in
dotazione un codice genetico che ci rende “animali traduttivi”. Dunque, un traduttore è un
individuo che, accumulate le basilari conoscenze esplicite (consapevoli) necessarie per avviare
l’addestramento, sfrutta le potenzialità comuni a tutte le specie formando circuiti cerebrali sempre
più sofisticati e trasformando le conoscenze esplicite in abilità implicite (procedurali). Molti
rifiutano l’analogia cervello/computer. Alcuni considerano l’analogia inutile e ritengono impossibile
spiegare con il metodo scientifico una complessità che parrebbe andare oltre le capacità della
scienza.
Algoritmi ed euristiche
La mente umana per risolvere qualsiasi problema si avvale o di conoscenze esplicite (coscienti); o di
procedure implicite (automatizzate) che consentono alle conoscenze di trasformarsi in schemi
affidabili per ottenere risultati ottimali in breve tempo; o di entrambe. Si possono ricevere
istruzioni preesistenti (top down) o ricavarle secondo il metodo per tentativi ed errori (bottom up).
Per aiutare qualcuno a trasformare le conoscenze astratte in abilità esecutive, si devono
distinguere due casi:
❖ Le situazioni del tutto prevedibili, assoggettabili a istruzioni generalizzabili e complete,
applicabili in modo ripetitivo secondo strategie sistematiche di risoluzione del problema,
dette algoritmi
❖ Le situazioni nuove, imprevedibili nel sistema generale e assoggettabili a strategie
parzialmente intuitive e soggettive dette euristiche
Chi algoritmi sono programmi che soddisfano le condizioni di completezza, non ambiguità e
coerenza e che permettono di giungere a una soluzione secondo lo schema logico; ogni programma
di un computer è un algoritmo.
Il concetto di euristica non ha una definizione universale, ma in modo approssimativo si tratta di
una strategia che considera tra le soluzioni possibili solo quelle più promettenti, ignorando invece
quelle poco probabili. Si tratta di una scorciatoia e di una scommessa, si selezionano i dati della
ricerca aggirando quelli mancanti, riducendo costi e tempi della soluzione. Almeno per ora,
sebbene l’IA superi l'uomo nell'applicazione degli algoritmi, l'uomo è straordinariamente più abile
a semplificare la routine di ricerca euristica.
I pattern della traduzione
Per realizzare la traduzione automatica, gli scienziati cercavano un algoritmo che mostrasse quali
passi si dovessero intraprendere per ottenere una traduzione da un TP a un TA. Molti credevano
che ottenuto quello e perfezionato si sarebbe trovato l'algoritmo universale della traduzione, ma
avevano trascurato alcuni fattori fondamentali, tra questi soprattutto la l'interrelazione che nella
mente umana collega la lingua alle emozioni. Il traduttore come il chirurgo dovrebbe seguire un
modello teorico che fornisca:
- Istruzioni generali complete e coerenti, comprensive dei calcoli delle variabili probabili e
improbabili
- Istruzioni su come affrontare le situazioni nuove in base ai vincoli di tempo e alle soluzioni
non note ma possibili
La comunicazione umana è spesso ambigua e vi saranno sempre variabili interpretative; le lingue
umane creano un'esplosione combinatoria di dati che rendono necessario l'impiego di sofisticate
euristiche interpretative. Dunque, in generale le ricerche sulla soluzione dei problemi da parte del
cervello umano si sono concentrate sull’ euristica piuttosto che sugli algoritmi. Non è possibile,
comunque, costruire un qualsivoglia modello teorico della traduzione, senza un qualsivoglia
criterio di equivalenza, solo in base a questo criterio si può tentare una formalizzazione di routine a
schema si/no che preveda euristiche di ripiego per le situazioni nuove anomale. Il processo
traduttivo può essere visto, infatti, come un procedimento sofisticato di inibizione delle opzioni
scartate: uno schema binario si/no si ripete unità dopo unità. Il traduttore seleziona prima una rosa
di opzioni, poi le considera ad una ad una, finché alla fine che si ricorra o meno alle una delle
opzioni ottiene un sì. Le procedure sono veloci, se evitano che i singoli passaggi della computazione
si presentino per intero la coscienza; quindi, il traduttore addestrato percepisce la soluzione come
largamente intuitiva. Si può dire quindi che i processi traduttivi utilizzino un'infinità di micro-
passaggi neuronali che agiscono tra livello cosciente e il livello automatico. Il concetto di pattern è
particolarmente utile per riflettere sulla traduzione; infatti, i pattern possono essere copiati da un
medium all'altro e questa azione, per l'appunto, è ciò che chiamiamo traduzione. Il concetto di
pattern si applica anche ai testi letterari e sarebbe questa essenza strutturale dei testi a consentirne
l'intrinseca traducibilità. Indagare le interrelazioni tra elaborazione inconscia ed elaborazione
consapevole è dunque un passo fondamentale per almeno tre compiti diversi:
▪ Per formulare ipotesi sui meccanismi che consentono la traduzione
▪ Per valutarne le complessive implicazioni cognitive
▪ Per riformulare i compiti della didattica della traduzione
Un modello teorico per la traduzione prevede una strategia algoritmica quando: il testo è
chiaramente univoco, e quando il testo è volutamente ambiguo; se invece l'unità traduttiva non
rientra in questi casi si ricorre a una strategia egoistica. Il processo di traduzione, dunque, è una
tipica tipologia del problem solving che si avvale di strategie atte a individuare la soluzione per
risolverlo, dove va definito secondo criteri di equivalenza che variano per ogni modello teorico. Se
la situazione è parzialmente nuova e mancano dati di riferimento per convalidare l'opzione
L'euristica impone di convalidare un'unità di arrivo che presenta alcuni rilevanti segni di
corrispondenza con quello di partenza. Ma che non è perfettamente corrispondente a quello che
servirebbe. Esistono infatti in traduzione due tipologie di soluzione migliore possibile:
- Migliore possibile hic et nunc, nei tempi sempre limitati del processo traduttivo
- Migliore possibile in assoluto, anche senza vincoli di tempo, non si può trovare una
soluzione migliore
In ogni traduzione professionale vi è sempre un certo numero di entrambe le tipologie di soluzioni
migliori possibili.
I cluster del significato
Non si sa ancora bene come il cervello immagazzini i concetti e come avviene l’interazione tra
meccanismi consci e inconsci, ma si sa che quando il cervello umano deve tradurre si comporta
come una centrale ipercomplessa che gestisce un’immensa banca dati, suddivisi in moduli
neuronali (sorta di cluster, elementi collegati tra loro) collegati tra loro. Dato un certo input, questi
moduli sono addestrati a valutare le opzioni di output attivando altri cluster interconnessi che non
sono relativi alla lingua, bensì a tutti i circuiti cerebrali che gestiscono le emozioni, i ricordi e i 5
sensi. Ogni input verbale accende e spegne parallelamente un numero impressionante di link
neuronali: alcuni link sono condivisi da tutti i parlanti, altri derivano dall’esperienza soggettiva e
dalle acquisite competenze implicite ed esplicite. In una frazione di secondo, grazie a un solo input,
innumerevoli concetti, immagini, parole e emozioni vengono attivate; se le accensioni di due o più
neuroni in connessione sono frequenti, il collegamento è registrato dalla memoria a lungo termine.
La memetica
In lingua naturale vengono codificate sequenze diverse di parole per esprime stereotipi che hanno
il potere di moltiplicarsi e contagiare i cervelli. Da alcuni decenni esiste la memetica: una disciplina
che si occupa della replicazione della cultura secondo un modello evoluzionistico; è stata inventata
da Dawkins.
Oggetto della memetica sono i memi, ovvero le unità minime di trasmissione e riproduzione della
cultura e dell’informazione. L’etimologia della parola meme deriva dalla radice greca mime (dà
l’idea di imitazione) e dalla parola francese meme (dà l’idea di replicazione) e dalla similitudine con
la parola gene; se quest’ultimo è il replicatore biologico, il meme è il replicatore culturale. Il meme
ha un memotipo e un femotipo (forma fisica del meme nel mondo). La propagazione del meme
dipende non solo dalla sua struttura, ma anche dall’ambiente che ne determina la virulenza
epidemica. Dal 1976, la fortuna del termine meme è stata inarrestabile, tanto da portarlo
all’inserimento del Oxford Dictionary. Secondo Dennet la coscienza umana sarebbe un grande
complesso di memi, e i memi che compongono la mente umana possiedono le persone più di
quando le persone possiedano le idee. Secondo la sua concezione, la memetica si presenta come
modello teorico per lo studio della linguistica, cioè come quadro di interazione tra la mente e le
informazioni esterne; l’esistenza di un meme dipende dalla sua incarnazione fisica in qualche
mezzo. Successivamente, si è sviluppata un’altra visione, Blackmore ha fornito il primo manuale di
memetica in cui proponeva di considerare i memi gli strumenti con cui pensiamo e ne analizzava il
funzionamento in organizzazioni complesse (memplex), che, come i geni, si uniscono in sequenze e
si alleano. Aunger affrontava per primo la questione della fisicità dei memi e introduceva il
concetto di neuromeme, ovvero una struttura cerebrale super-molecolare capace di replicarsi
grazie a stimoli specifici, i memi; solo specifici input sarebbero in grado di contagiare i neuroni e far
loro assumere la struttura di replicante. Il meme, dunque, non è il messaggio, ma la struttura del
messaggio.
Per quanto riguarda il legame tra memetica e lingua, la maggior parte dei fraseologismi possono
essere considerati memi linguistici, cioè formule che hanno vinto la competizione tra le alternative
concorrenti.
CAP 4 La lateralizzazione del linguaggio
L’encefalo è la centralina del sistema nervoso, è composto da cervello, cervelletto e cefalico.
Queste strutture sono formate a loro volta dai neuroni, questi hanno la funzione di conservare ed
elaborare i dati in entrata e in uscita e sono particolarmente soggetti a mutare la propria struttura
in base alla frequenza con cui vengono attivati. Sono dotati di un nucleo e di un lungo filamento da
cui partono ramificazioni di diversa lunghezza (dendriti), attraverso cui il neurone riceve e
trasmette informazioni mediante processi elettrochimici.
Lo studio delle patologie del linguaggio aveva portato a fine 800 ad evidenziare una
localizzazione separata nel cervello di alcune funzioni linguistiche, in primis della facoltà di
comprensione e della facoltà di espressione linguistica. Questa separazione neuro
funzionale era supportata dal modello teorico di de Saussure: la sua teoria era incentrata su
una distinzione tra Langue (la lingua intesa come insieme delle norme di una lingua
naturale) e parole (la lingua intesa come produzione oggettiva degli enunciati); la lingua
veniva suddivisa in una serie di componenti che potevano essere analizzate
indipendentemente una dall'altra (sintassi, morfologia, lessico) e considerava linguistiche
solo le funzioni localizzate nell’emisfero sinistro. Un'altra importante distinzione da lui fatta
era quella tra significante e significato, cioè tra la realizzazione sonora di una parola e il
significato a cui i suoni rimandano, cioè il referente semantico. I due emisferi cerebrali sono
anatomicamente quasi identici, ma nonostante questa sostanziale simmetria, la neurologia
ottocentesca individua la sede della comprensione linguistica in un'area specifica del Lobo
temporale sinistro (area di Wernicke) e la sede della produzione linguistica in un'area
specifica del Lobo frontale sinistro (area di Broca) e stabiliva una vistosa asimmetria
funzionale tra i due emisferi cerebrali. Questi due studiosi avevano dimostrato in dei
pazienti una correlazione tra i loro specifici sintomi (relativi alla comprensione o alla
produzione del linguaggio) e le lesioni in due aree dell'emisfero sinistro. Si era notato che
una lesione in un'area non comprometteva l'altra nelle sue funzioni.
Nella sua versione estrema, l'emisfero destro è stata considerato la parte artistica e creativa
del cervello, mentre quello sinistro il responsabile della parte cosciente e razionale
dell'essere umano. In realtà quest’idea era già stata messa in discussione da alcuni loro
contemporanei, come da Freud, secondo la sua teoria emergeva una stretta correlazione tra
linguaggio cosciente e linguaggio inconscio. Lui aveva fatto degli studi sulle afasie che
evidenziavano il ruolo associativo del linguaggio complesso e la sua essenza metaforica; di
conseguenza, il ruolo di entrambi gli emisferi. Le sue intuizioni sarebbero state riprese in
Russia nella seconda metà del XX secolo. L'innovazione della scuola russa consisteva
soprattutto nell’ipotizzare che l'attivazione delle singole funzioni cognitive, comprese quelle
linguistiche, dipendesse dall'attività coordinata di numerosi centri corticali. Grazie a questa
svolta che spostava l'attenzione dalla localizzazione alle connessioni, il compito delle
moderne neuroscienze è diventato non più tanto quello di localizzare dei centri specifici per
le singole funzioni cerebrali, quanto quello di identificare le diverse componenti che,
interagendo come sistema complesso, consentono di generare una singola funzione
(modello multifocale). Si è inoltre scoperta la capacità del cervello di riorganizzarsi a seguito
di una lesione, nel senso che l'aria compromessa viene sostituita nelle sue funzioni da altre
aree. La corrispondenza uno a uno tra sede della lesione e funzione linguistica non poteva
più bastare a spiegare fenomeni complessi che richiedevano di essere studiati come
risultante di una rete di sistemi funzionali. Come rilevano importanti studi psico linguistici, vi
sono fondamentali funzioni del linguaggio verbale, processate prevalentemente
dall'emisfero destro, in primis quella prosodica, internazionale e metaforica che, non solo
sono indispensabili a un funzionamento efficiente della comunicazione verbale, ma sono
cruciali nell'acquisizione della L1. È impensabile pensare che l’intonazione sia un fattore
extra-linguistico, perché dato che la sintassi è una componente linguistica, spesso
l'intonazione è indispensabile proprio a disambiguare l'interpretazione sintattica. Ulteriori
argomentazioni contrarie all'idea che linguistico sia solo l'emisfero sinistro vengono
dall'ambito della patologia. Negli anni 80, Sacks aveva descritto alcuni pazienti afasici che
avevano perduto le abilità linguistiche tipiche dell'emisfero sinistro, ma riuscivano a cogliere
aspetti fondamentali dei messaggi verbali grazie ai parametri internazionali (il loro emisfero
destro era intatto). Viceversa, altri pazienti affetti da incapacità di riconoscere l’intonazione,
pur avendo intatte le capacità linguistiche dell'emisfero sinistro, erano del tutto invalidati
nella comunicazione verbale.
Le diverse memorie
Il termine memoria indica i processi elettrochimici che consentono il richiamo dei dati o
delle procedure. Molti ricordi immagazzinati nelle memorie umane accomunano gruppi e
sottogruppi di persone che condividono l'esperienza di stimoli che innescano ricordi simili;
tra questi stimoli condivisi vi sono quelli linguistici. Le persone possono comunicare proprio
perché condividono le memorie di cose, eventi e nozioni, nonché le parole per descriverle.
Nonostante la parziale soggettività dell'esperienza umana, esiste tra tutti gli interpretanti
una base universale dei significati, cioè delle associazioni tra parole, oggetti e sensazioni.
Non solo, tutti gli umani tendono a legare le parole agli stessi concetti, ma catalogano parole
e concetti in base a esperienze dirette o indirette che sono condivise a livello universale.
Gli esseri umani non hanno bisogno di fare sempre esperienza diretta per conoscere
qualcosa, perché, a differenza delle altri specie, condividono un’enorme quantità di
esperienze indirette (noi memorizziamo anche ciò che sentiamo attraverso i canali di
comunicazione: la letteratura, la fotografia, la narrazione orale). A differenza dei personal
computer, che memorizzano tutto secondo parametri rigidi, nei cervelli umani non tutti i
ricordi hanno la stessa probabilità di sopravvivere e di essere riattivati. Le parole vengono
memorizzate meglio se i concetti cui sono legati sono emotivamente e socialmente rilevanti.
L’apprendimento implica sia la comparsa di nuove sinapsi, sia la sparizione di sinapsi
preesistenti. La perdita di un tipo di memoria e non di un altro, ha permesso di
comprendere che non esiste una memoria unica, bensì modalità diverse di conservazione e
richiamo dei ricordi. Le diverse memorie si differenziano per i compiti che assolvono e per le
strutture cerebrali coinvolte. Dell’immensa quantità di ricordi solo una piccola parte è
accessibile al controllo della coscienza.
Le prestazioni linguistiche possono utilizzare due modalità diverse di accesso e gestione ai
dati: la modalità implicita, cioè procedurale e inconscia (agisce grazie alla ripetizione e
all’esercizio e procede a velocità superiore al pensiero cosciente); e la modalità esplicita,
cioè dichiarativa e cosciente (permette di conservare i ricordi rendendoli accessibili alla
coscienza). Queste due modalità utilizzano canali diversi che coinvolgono strutture diverse
del cervello. La differenza tra modalità procedurale e modalità semantica si rispecchia nella
contrapposizione tra acquisizione e apprendimento della lingua. La memoria implicita,
comprensiva di tutte le procedure motorie e cognitive che agiscono a livello inconscio, è la
prima a formarsi, è l'unica a disposizione dei bambini fino agli 8-10 mesi e costituisce, fino ai
tre anni circa di vita, la memoria dominante. La memoria esplicita viceversa è un complesso
di sistemi che assicurano l'immagazzinamento, il consolidamento e il recupero delle
informazioni. È un sistema che ha una lunga formazione e che richiede l'intervento di
riflessione. Un’altra distinzione è la memoria a lungo termine e a breve termine; in entrambi
i casi la memoria è innescata da stimoli sensoriali impliciti o espliciti. Grazie alla ripetizione
avviene il potenziamento dei circuiti neuronali e la mappatura a lungo termine del ricordo.
Esistono 2 tipologie di apprendimento: quello non associativo che è innescato da uno
stimolo ben preciso, è registrato a livello implicito e non implica la costruzione di schemi
mentali complessi. L’apprendimento associativo, invece, basandosi sulle sinapsi preesistenti,
l’associazione richiama un elemento della rete altamente rappresentativo e si attiva la rete
intera (un’intera cultura può essere evocata con un solo sostantivo). L’apprendimento
necessita di un filtro per selezionare gli stimoli più importanti: si può avere un’attenzione
involontaria che supporta la memorizzazione implicita. L’apprendimento, quindi implica sia
la selezione delle mappe utili, sia la de-selezione delle innumerevoli mappe superflue
presenti nel nostro cervello.

Pag. 182

Potrebbero piacerti anche