Sei sulla pagina 1di 21

MUNDAY

CAPITOLO 1
La traduzione negli ultimi anni è stata un'area in forte crescita. Si parla di traduzione ( o processo
traduttivo) quando da un TP -testo di partenza con una LP-lingua di partenza si arriva a un TA-testo di arrivo
con una LA-lingua di arrivo. Questo tipo di traduzione è chiamata interlinguistica (interpretare segni
linguistici per mezzo di altri segni linguistici) ed è citata da Jakobson insieme all'intralinguistica (interpretare
segni linguistici per mezzo di un’altra lingua) e l'intersemiotica (interpretare segni linguistici per mezzo di
segni non linguistici).
Gli studi sulla traduzione hanno ufficialmente preso piede da sessant'anni a questa parte. Grazie a studiosi
come Holmes, Snell-Horby, Mona Baker e Pym, oggi nel mondo, con università, media e convegni, gli studi
sulla traduzione sono accessibili a chiunque ovunque.
La storia della traduzione inizia a partire dal I a.C. con Cicerone, Orazio e San Girolamo, ma divenne una
disciplina a partire dal XX secolo. Ma soltanto dal XVIII secolo la traduzione, che veniva utilizzata per
apprendere nuove lingue, sfocia nel metodo grammatico-traduttivo, modello incentrato
sull’apprendimento mnemonico delle regole e strutture linguistiche, e screditato poi successivamente da
approcci più moderni, come quello diretto, ovvero un modello basato nulla naturale capacità dell’uomo di
apprendere una lingua. A partire dagli anni 60 negli USA andavano a formarsi nuovi approcci, come la
letteratura comparata, mettendo quindi a confronto le varie letterature, o il laboratorio di traduzione, dove
la lingua veniva studiata con l’occhio critico di un ricercatore in laboratorio.
Un grande contributo allo sviluppo della disciplina fu dato da Holmes, secondo il quale la traduzione veniva
utilizzata in rapporto a discipline ormai vecchie.

La mappa di Holmes descrive gli ambiti affrontati dai translation studies; gli obiettivi delle aree di ricerca
sono:
-teoria descrittiva della traduzione: descrizione dei fenomeni traduttivi
-teoria della traduzione: costituzione di principi generali volti a individuare i fenomeni traduttivi
La sezione teorica è divisa in teorie generali e parziali; l'altra sezione della ricerca “pura” è chiamata
descrittiva; in questa sezione gli studi possono essere orientati verso:
-il prodotto: analisi di coppie di testi o analisi comparativa di diverse versioni di uno stesso TP
-la funzione: la situazione socioculturale che riceve il TP
-il processo: processi psicologici e cognitivi dietro la fase di traduzione
I risultati della ricerca inseriti nella sezione teorica possono sviluppare diverse teorie: delimitate dal mezzo,
dall'area, dal grado, dalla tipologia testuale, dal periodo temporale e dal problema. Un'altra sezione, quella
applicata, riguarda: la formazione del traduttore, i sussidi alla traduzione e la critica della traduzione. L'altra
area è quella della politica della traduzione.
Secondo Toury, a Holmes va il merito di aver diversificato delle aree della traduzione che in passato
venivano confuse, ma allo stesso tempo la mappa comporta delle limitazioni sia nelle aree teoriche che
descrittive. Come infatti sottolinea Pym, la mappa omette ogni riferimento all'individualità dello stile.
A partire dagli anni 70, diverse aree della mappa di Holmes sono state rivisitate: in Germania nascono le
tipologie testuali, in Russia il polisistema letterario e in UK la Manipulation School.
Recentemente nasce il concetto di interdisciplinarietà, grazie alla scuola cannibalista negli anni 90, che
tratta le interdiscipline, ovvero entità già esistenti che cercano un tramite tra il vecchio e nuovo panorama.
Secondo McCarry, le discipline primarie e secondarie intrattengono un rapporto con le interdiscipline;
tuttavia, il rapporto tra le discipline e queste ultime non è sempre immutabile nel tempo e c'è anche da
sottolineare che alcune ricerche nell'ambito della traduzione hanno sentito la spinta di diversi settori più
che di altri.

CAPITOLO 2
All'epoca di Cicerone, il quale fu il primo introdurre termini come “interprete” e “oratore”, la traduzione
adottata era quella letterale, ovvero parola per parola, criticata poi da San Girolamo, il quale affermava che
una traduzione letteraria non tenesse conto dello stile e dell'estetica del testo. Non soltanto San Girolamo,
ma anche in Cina si discuteva ormai la questione: è nelle prefazioni dei testi, come la traduzione del sutra di
Dao’An, che si affrontava il dilemma parola per parola o senso per senso. Portato avanti fino al ventesimo
secolo con Steiner, Eva Hung sottolinea come, date le innumerevoli lingue, si concretizza anche il problema
di quale sia la vera LP e il testo originale di questi antichi testi cinesi. Anche nel mondo arabo emerge la
polarità della traduzione libera o letterale, studiata nel centro di traduzione di Bagdad, grazie anche
all'interesse degli arabi per i testi filosofici scientifici greci. Secondo Gutas, i mutamenti arabi dello stile
traduttivo sono dati da fattori sociali e non dal semplice progredire del tempo.
Nella società occidentale, particolare spinta traduttiva è stata data dalla Chiesa cattolica nel voler tradurre
la Bibbia. Nonostante Leonardo Bruni affermasse che il perfetto processo traduttivo fosse l'unire lo stile
dell'autore originale con l'estetica dell’originale, la Chiesa preferiva traduzioni che salvaguardasse il
contenuto biblico, quindi la traduzione letterla; qualsiasi altra traduzione o traduttore sarebbero stati
condannati per eresia (come Tyndale e Dolet). Con l'accrescere della conoscenza biblica nel XVI secolo vi fu
una rivoluzione a livello di traduzione, tant'è che le traduzioni non letterali furono usatem come nel caso di
Martin Lutero, come arma contro l'assurda traduzione cattolica.
Secondo Flora Amos, la pratica della traduzione ha subito nel tempo mutamenti ed evoluzioni dovuti alla
quantità di informazioni rispetto al testo originale conosciuta dai traduttori. Amos osserva che i concetti di
accuratezza, fedeltà e traduzione venivano spesso confusi. Louis Kelly analizza la storia della traduzione
rinominando tali concetti in: fedeltà, spirito e verità, riferendosi a “fedeltà” come aderenza al significato del
TP, “spirito” come forza creativa e “verità” come senso del contenuto.
Secondo Amos fu l'Inghilterra del diciassettesimo secolo di Denham, Cowley e Dryden a segnare un passo
avanti per la traduzione. Nella loro epoca, la traduzione si limitava ad antichi testi latini e greci. Fu Dryden a
ridurre la traduzione a tre categorie: metafasi (traduzione letterale), parafrasi (traduzione senso per senso)
e imitazione (traduzione libera, adattamento). Dryden raccomanda di prediligere la parafrasi.
Dolet individuò, dal canto suo, 5 principi secondo i quali il traduttore avrebbe dovuto riprodurre il senso del
TP, i quali delineano come il traduttore debba conoscere e capire il senso e la struttura del TP, ma anche
una conoscenza della LP e LA, ed evitando la traduzione letterale, riportare il senso del TP nel TA evitando
di rendere confusionario il TA. Alexander Titler propone tre leggi generali in alternativa a quelle di Dolet,
l'ordine delle tre leggi le mette per ordine di importanza: 1) il TA deve contenere tutte le idee del TP, 2) stile
e modo del TA devono essere uguali a quelle del TP , 3)la traduzione deve essere il più naturale possibile. In
caso ci fosse bisogno di sacrificare una di queste tre leggi, si fa riferimento all'ordine di importanza.
Nel IX sec., i romantici trattano la questione della traducibilità, intraducibilità e natura mitica della
traduzione. Schleiermacher individua due tipi di traduttori: Dolmetscher (traduttore di testi commerciali) e
Ubersetzer (traduttore di testi eruditi) e si interroga su come avvicinare il lettore del TA e lo scrittore del TP.
Lo scrittore, attraverso il metodo traduttivo alienante, deve muovere il lettore verso di lui, cercando di non
far trasparire la traduzione al lettore, ma cercando di dargli la sensazione di star leggendo il testo originale.
Questo approccio ha però delle conseguenze: infatti, potrebbe portare a un linguaggio troppo specifico e a
una possibile incomprensione da parte del lettore, dovuta per esempio al suo basso livello di istruzione.
Nel IX e XX secolo in Gran Bretagna si studiarono lo status del TP e la forma del TA. Nacque uno scontro tra
Newman e Arnold riguardante una traduzione di un testo di Omero: il primo sollecitava a non preferire
parole arcaicizzanti, che avrebbero fatto perdere il senso del TP; il secondo invece, consiglia di rimettersi
nelle mani dei traduttori, i quali sono gli unici a conoscere status e forma; tale affermazione portò però una
marginalizzazione della traduzione, poiché solo in pochi riuscirono a comprendere il testo per come
Newman l’aveva impostato.

CAPITOLO 3
Gli studiosi degli anni 50 e 60 iniziarono a interrogarsi su questioni linguistiche relative all'equivalenza citata
da Jakobson nel suo romanzo Aspetti linguistici della traduzione del 1959, in cui analizza l'equivalenza e il
significato linguistico. Jakobson segue la relazione determinata da Saussure tra significante e significato,
che insieme formano un segno linguistico, ovvero la parola, che è totalmente arbitrario. Jakobson cerca poi
di risolvere il problema dell'equivalenza di significato, che secondo lui può risolversi con la traduzione
interlinguistica, che rileva i diversi sistemi di segni, data l’affermazione di Jakobson che è impossibile
trovare due parole equivalenti in due lingue diverse. Le differenze tra lingue ruotano dunque attorno a
forme grammaticali e lessicali obbligatorie, che trovano difficoltà a livello di genere, aspetto e campi
semantici nell’equivalersi.
Negli anni 60 Nida riprende tale studio con un approccio più scientifico, allontanandosi dall’idea che il
segno ortografico debba necessariamente essere legato a un significato fisso. Scompone il significato
linguistico in: significato linguistico, referenziale ed emotivo. Vengono delineate varie tecniche utili al
traduttore per determinare il significato di segni linguistici; tali tecniche comprendono la strutturazione
gerarchica, l'analisi componenziale e l'analisi della struttura semantica: la prima differenzia le parole a
seconda del loro livello e la seconda individua e scarta caratteristiche di parole affini. Un’altra tecnica è
l’analisi della struttura semantica secondo la quale, il significato di ogni parola è condizionabile dal contesto
Un altro studioso di quegli anni fu Chomsky, che con il suo modello generativo-trasformazionale tentò di
individuare le regole alla base delle relazioni strutturali delle frasi. Individuò, infatti, tre livelli: una struttura
profonda, una struttura che fa da tramite tra le due e la struttura superficiale. Le relazioni strutturali
basiche sono quelle nucleari (o frasi kernel), ovvero minime parti del discorso proprie di significato, e grazie
a questo modello è possibile decodificare il TP e il TA. Secondo Nida, le frasi nucleari si ottengono dalla
struttura superficiale del TP, con un processo a ritroso (destrutturazione della frase complessa per arrivare
alle nucleari) che prevede l'analisi di quattro categorie funzionali della grammatica generativo
trasformazionale: azioni o eventi, oggetti, astratti e relazionali. È a livello delle frasi nucleari secondo Nida e
Taber che il messaggio viene trasferito nella LA prima di essere trasformato nella struttura superficiale in
tre fasi: trasferimento letterale, minimo e letterario.
I concetti di traduzione letterale, libera e fedele vengono sostituiti da Nida con due tipi di equivalenza:
formale e dinamica; la prima crea un messaggio in LA il più simile possibile a quello della LP; Il secondo,
contando sulla naturalezza, considera il principio dell'effetto equivalente (simile all’alienazione di cui parla
Schleiermacher) . Per Nida una traduzione deve avere come requisito il raggiungimento di una reazione
equivalente, quindi il TA deve avere senso, deve avere lo stesso spirito del TP, deve presentarsi come il più
naturale possibile e deve produrre una reazione simile nel ricevente.
La reazione equivalente di Nida sarà causa di numerosi dibattiti che muovono contro quest'ultimo
affermandone l'impossibilità dell'effetto equivalente e quindi della scarsa scientificità del progetto di Nida.
Secondo Qian Hu infatti, raggiungere l'equivalenza è impossibile se la forma è legata al significato. O
ancora, Gentzler lo accusa di aver creato questo modello in una prospettiva ecclesiale, per far convertire le
persone al protestantesimo grazie all’effetto equivalente. Tuttavia, Newmark cerca di riprendere il progetto
di Nida, parlando però di traduzione semantica e comunicativa. La prima ricorda l'equivalenza formale di
Nida, la seconda quella dinamica. Però Newmark prende le distanze dal principio dell'effetto equivalente
nella sua interezza, poiché l’effetto equivalente è nullo se lo spazio di ricezione del testo non è lo stesso del
TP nella LA; inoltre, la traduzione letterale è considerata la migliore sia per la traduzione semantica che
comunicativa.
Gli studi di Nida risultarono determinanti in Germania, dove negli anni 70/80 Koller esamina il concetto di
equivalenza, relativa a Saussure, in cui il parametro all'interno di coppie e/o contesti e la “parola”; secondo
Koller infatti, se la conoscenza delle parole è propria di una persona istruita, la conoscenza della
corrispondenza fra le parole è propria di chi sa tradurre. Koller elenca 5 tipi di equivalenza: denotativa
(equivalenza contenuto extralinguistico), connotativa (scelte lessicali), testo-normativa (tipologie testuali),
pragmatica (orientata verso il ricevente), formale (forma ed estetica del testo). Inoltre, Koller dice che
queste equivalenze si susseguono come in una gerarchia, importante da considerare per la situazione
comunicativa della LA.

CAPITOLO 4
Negli anni 50, si iniziarono ad avere molte varietà di approcci linguistici all’analisi della traduzione che
hanno portato a un tentativo di categorizzazione del processo traduttivo i due modelli di riferimento di
questi anni sono quello di Vinay e Darbelnet e quello di Catford.
Vinay e Darbelnet individuarono due strategie traduttive generali: quella diretta e quella obliqua (che
riprendono quella letterale e libera). Queste due strategie hanno 7 procedure, le prime due della strategia
diretta e le altre di quella obliqua:
-prestito: la parola della LP è trasferita direttamente nella LA, senza traduzione
-calco: la parola della LP viene tradotta letteralmente nella LA
-traduzione letterale, che può essere inaccettabile solo se, nella LA, non ha significato o ha un significato
diverso; se la letterale non funziona, si ricorre all’obliqua, che incorpora:
-trasposizione: può essere obbligatoria o opzionale, sostituisce una parte di discorso con un’altra senza
però cambiare di senso, ma solo di forma
-modulazione: può essere obbligatoria o opzionale, cambia l’aspetto semantico della LP nella LA
-equivalenza: in alcuni casi le lingue descrivono la stessa situazioni con mezzi strutturali diversi (es. modi di
dire, proverbi)
-adattamento: cambiamento di un riferimento culturale della LP che non esiste nella LA
Queste 7 categorie operano su tre livelli: lessico, strutture sintattiche e messaggio, quest’ultimo composto
da parole, struttura tematica e connettori.
Un altro parametro da prendere in considerazione è quello relativo a servitù e opzione: la prima si riferisce
a cambi obbligatori dovuti alle differenze nei due sistemi linguistici, la seconda ai cambiamenti non
obbligatori voluti dallo stile del traduttore.
Successivamente, i due autori passano all’analisi dell’unità traduttiva, che per i due studiosi è l'insieme
dell'unità lessicologia e l'unità di pensiero, la quale permette di non dover tradurre singolarmente parola
per parola, ma intere unità di discorso. Inoltre, ritroviamo nel loro studio un termine che deriva dagli studi
di Catford: spostamento traduttivo. Catford analizza il linguaggio in quanto comunicazione e fa una
distinzione fra corrispondenza formale (qualunque categoria della LA che trova posto tra le categorie della
LP) ed equivalenza testuale (qualsiasi porzione di testo del TP che trova l’equivalente nella LA) e nota due
tipi di spostamenti, quello di livello e quello di categoria, il quale a sua volta si divide in:
-spostamenti strutturali: spostamento nella struttura grammaticale
-di classe: spostamenti da una parte di discorso a un’altra
-di unità: spostamenti tra gradi diversi (es. frase, proposizione, parole, ecc)
-intra-sistemici: avviene quando i sistemi di LP e LA sono simili ma non trovano corrispondenti adatti l’uno
nell’altro
Nonostante ciò, Catford verrà criticato per aver fornito degli esempi idealizzati e decontestualizzati.
Altro contributo proveniente dalla scuola cieca degli anni 60/70 è quello di Jiri Levy sulla traduzione poetica
nel tentativo di raggiungere un effetto estetico equivalente in dei testi che riportano determinate
caratteristiche; egli infatti vede la traduzione letteraria come uno sforzo riproduttivo che creativo, volto a
riprodurre l’estetica del TP nel TA. Anche Frantisek Miko si concentra sugli spostamenti traduttivi, in
particolare sugli spostamenti di espressione. Miko sostiene che il mantenimento dello stile o carattere
espressivo del TP sia di cruciale importanza per produrre un buon TA, e dunque suggerisce un'analisi dello
stile, seguendo determinate categorie, e come lui anche Anton Popovic, ma nessuno dei due applicherà
mai queste idee all’analisi di testi tradotti.
La teoria del senso portata avanti da Seleskovic e Lederer spiega la traduzione come un processo in tre fasi:
lettura e comprensione (per cogliere il senso del TP), deverbalizzazione (decodificazione secondo i processi
cognitivi del traduttore) e ri-espressione (ricostruzione delle unità decodificate per formare il TA). Tale
modello porta un approccio basato sull'osservazione.
Anche il contributo di August Gutt sulla teoria della pertinenza postula la traduzione come comunicazione
basata sul modello causa-effetto di inferenza e interpretazione: tutto il processo di traduzione è basato
sulle abilità del comunicatore di fornire all'ascoltatore degli indizi comunicativi e sulla capacità del
traduttore di decidere come comunicare e tradurre tali indizi; per la riuscita di tale approccio, comunicatore
e traduttore devono condividere dei presupposti (es. ambiente sociale/culturale). Dal canto suo Roger Bell
tenterà un approccio che comprende analisi e sintesi, modello che però sarà destinato a rimanere ipotetico.

CAPITOLO 5
Gli anni 70/80 vedono uno spostamento di interesse su un approccio funzionalista e comunicativo.
Katharina Reiss utilizza il concetto di equivalenza in relazione non alla frase, ma al testo. Secondo Reiss,
esistono quattro tipologie testuali: informativa, espressiva, operativa e l'audio mediale.

Oltre a queste vi sono delle tipologie ibride, ma che derivano comunque da quelle testuali.
Reiss suggerisce quattro metodi traduttivi specifici, uno per ogni tipologia testuale, insieme alla funiona
linguistica, alla dimensione linguistica e il fulcro del TA (imparare tabella; sul libro a pagina 111)
Infine, vi sono due criteri per valutare l'adeguatezza di un TA: criteri intralinguistici (relativi alla struttura
linguistica) ed extra linguistici (relativi allo spazio, al tempo, ecc.). Ma sarà proprio il numero limitato delle
funzioni linguistiche a dar voce alle critiche; oltre a questo, sono anche forti i dubbi relativi al modo in cui
debbano essere applicati i metodi traduttivi specifici, poiché non necessariamente un testo può far parte di
una sola tipologia testuale.
Nel 1988, Mary Snell-Hornby, prendendo in prestito l'idea dei prototipi per la categorizzazione delle
tipologie testuali, cerca di inserire concetti linguistici e letterari in un approccio traduttivo integrato.
Secondo il suo modello stratificato, orizzontalmente abbiamo un continuum, dal generale al particolare (dal
livello A ad F). Anche se vi sono delle incongruenze, questo modello permette di non dividere rigidamente
le tipologie di linguaggio.
Livello A: traduzione letteraria, generalista e specializzata
Livello B: tipologie testuali prototipiche di base
Livello C: discipline non linguistiche
Livello D: processo traduttivo
Livello E: area linguistica pertinente alla traduzione
Livello F: area della fonetica
Il modello dell'azione traduttiva di Holz-Manttari considera la traduzione come comunicazione per arrivare
a uno scopo; cerca infatti di fornire un modello applicabile a diverse situazioni traduttive. La traduzione
interlinguistica prevede: iniziatore, committente, produttore del TP, utilizzatore e ricevente del TA. Il TP
serve unicamente da fattore di analisi, analizzando forma e contenuto, per arrivare a un TA valido. Tuttavia,
le critiche rivolte a questo modello si riferiscono alla mancata presa in considerazione di differenza
culturale tra TP e TA e alla complessità del gergo utilizzato.
Grazie Hans Vermeer e alla parola greca skopos, fu introdotta la skopostheory, basata su un'azione
traduttiva del TP che abbia uno scopo e un risultato; Il risultato è il TA (translatum per Vermeer).
Ovviamente devono esserci dei presupposti affinché la teoria e quindi il TA siano validi:
1. Il traslatum deve essere sempre determinato dallo skopos
2. Un TA è un’offerta di informazioni tra due lingue e culture diverse
3. L’offerta di informazioni non è per forza reversibile
4. Il TA deve essere coerente con se stesso
5. Il TA deve essere coerente con il TP
6. Le cinque regole sono menzionate in ordine gerarchico
Oltre a queste, vi sono anche le due regole della coerenza (il TA deve essere coerente con la cultura
ricevente) e della fedeltà (le informazioni del TP devono essere coerenti con quelle del TA.
Secondo Vermeer, perché l'azione traduttiva sia appropriata al caso specifico, lo scopo deve essere sempre
dichiarato, implicitamente o esplicitamente, dal traduttore.
Numerose critiche prese in esame da Nord e Schaffner affermano che la teoria di Vermeer non è universale
e inoltre non dedica attenzioni alla natura del TP. In particolare, Cristhiane Nord illustra un'ulteriore
modello che incorpora anche i modelli di analisi, e divide due tipologie traduttive: traduzione documentale,
propria delle traduzioni letterali, e strumentale, propria di quesi testi in cui il ricevente non si rende conto
di star leggendo un TA, ma gli sembra di leggere l’originale. Nord cerca dunque di fornire un modello
utilizzabile per qualsiasi tipologia testuale e situazione traduttiva. Nord sottolinea inoltre tre aspetti
importanti per la formazione del traduttore: l'importanza dell'incarico traduttivo (il paragonare TP e TA e
verificare eventuali differenze), il ruolo dell'analisi del TP (scegliere la strategia traduttiva adatta a quel TP) e
la gerarchia funzionale dei problemi traduttivi (riscontrati durante il processo traduttivo).

CAPITOLO 6
Grazie al modello di Nord, negli anni 90 si approda a quella che è l'analisi del discorso,. Furono creati diversi
modelli, tra cui quello di Halliday, basato sulla grammatica sistemico-funzionale, concepito per lo studio del
linguaggio come comunicazione tra le scelte traduttive del traduttore e l’ambiente socioculturale di arrivo.
Il modello divide in tre parti le funzioni linguistiche, tra cui il genere, influenzato dall’ambiente
socioculturale, che a sua volta influenza altri elementi della struttura sistemica, ovvero: campo, tenore e
modo. Ogni variabile del registro è associato ad un aspetto del significato: ideativa, interpersonale e
testuale; insieme, queste tre meta funzioni formano la semantica discorsiva, che viene schematizzata
attraverso: transitività modalità, tema/rema e coesione.
Campo  significato ideativo  transitività
Ambiente socioculturale  Genere  Registro  Tenore  “ interpersonale  modalità
Modo  “ testuale  tema/rema e coesione

In questi anni, House critica il suo stesso modello per crearne un altro, basato su un'analisi comparativa TP-
TA; tale analisi si realizza attraverso dei mezzi: lessicali, sintattici e testuali. I mezzi testuali sono: dinamiche
tematiche, collegamento proposizionale e collegamento iconico. Anche nel modello di House troviamo
registro, campo (argomento e azione sociale), tenore (rapporto tra i partecipanti) e modo (canale
utilizzato); si aggiunge l'individualità come quarto elemento.
Il modello di House, così come è strutturato, può portare a due tipi di traduzione: palese, nella quale
bisogna però cercare un'equivalenza di secondo livello che permetta di arrivare alla funzione del TP e
trascriverla nel TA, o nascosta, dove il traduttore applica il filtro culturale per non far trapelare la stessa
traduzione. In casi in cui serva una “via di mezzo” si può optare per una versione nascosta.
Nel 1992 Mona Baker si concentra una serie di livelli e su un approccio di tipo tematico (tema = la parte
della frase che ci indica di cosa si parla), con particolare attenzione alla funzione testuale. Il problema di tale
approccio è che la struttura tematica viene messa in pratica in modo diverso a seconda della lingua; è per
questo che Baker, prendendo prima spunto e poi le distanze dal modello di Halliday, delinea il modello di
prospettiva funzionale di frase, applicabile a tutte le lingue. Inoltre, secondo Baker, il traduttore deve
essere consapevole della relativa marcatezza (marcatezza = proprietà di parole che figurano di meno in una
lingua) della struttura tematica.
Lo studio di Kulka denota come i cambiamenti relativi alla coesione possano causare spostamenti funzionali
nei testi, poiché i rapporti di coesione lessicali non sono gli stessi in tutte le lingue. È per questo che Baker,
prendendo il concetto di equivalenza pragmatica (per Baker, pragmatica = studio dell’uso della lingua in una
società), arriva a tre nuovi elementi:
-coerenza: dipende dalla cultura e dalle esperienze dei riceventi
-presupposizione: conoscenze intra/extra-linguistiche che il traduttore presuppone il ricevente abbia
-implicatura: ciò che il ricevente intende piuttosto che ciò che gli viene detto
E’ all'implicatura che dà maggiore importanza, la quale racchiude quattro massime, create da Grice:
quantità (fornire la quantità di informazioni necessarie), qualità (dire soltanto ciò di cui si è certi),
pertinenza (essere pertinenti al tipo di conversazione), modo (dire le cose in un modo adeguato in base a
ciò che vuoi trasmettere). Alcuni studiosi aggiungono la quinta massima, ovvero la cortesia (essere esucati
nel commentare).
Altri due contributi sviluppatesi dal modello hallidayano furono quelli di Hatim e Ian Mason. Essi prendono
in considerazione gli spostamenti di modalità all’interno dei testi, che fanno cambiare totalmente la
funzione ideativa del testo, in base anche alla cultura del ricevente. In generale però ancora non si è capito
se il modello da loro fornito possa essere usato tradizionalmente.
Al modello hallidayano sono state mosse varie critiche, tra cui quella di Fish, in cui critica la complicata
categorizzazione grammaticale e la corrispondenza inflessibile fra strutture e significato. Gutt invece critica
il modello di House a causa delle numerose discrepanze tra TP e TA, causate probabilmente da strategie
traduttive errate.

CAPITOLO 7
Negli anni 70, fu sviluppata da Zohar la teoria dei polisistemi, presa in prestito dal formalismo russo degli
anni 20. Secondo Zohar, la letteratura opera come sistema soltanto in determinate modalità; l’autore si
interroga sul rapporto tra i vari sistemi, che nel loro insieme formano il polisistema (ovvero un
conglomerato eterogeneo in cui i diversi sistemi operano in maniera evolutiva interagendo tra di loro),
all’interno del quale vi è una gerarchia secondo la quale spesso e volentieri è la letteratura a ricoprire la
posizione primaria; se essa assume una posizione secondaria, sarà considerata come sistema periferico
(solito delle letterature tradotte). La letteratura tradotta può occupare una posizione primaria in caso vi sia
una svolta cruciale nella storia della letteratura per la quale le letterature giovani non riescono ancora a
farsi spazio tra quelle già esistenti, e ci si affida quindi a ciò che già si conosce ed è più vecchio; in questo
caso, i traduttori non si sentono forzati a seguire i modelli della letteratura di arrivo e sono più disposti a
infrangere le convenzioni.
Secondo Gentzler, i vantaggi di queste teoria sono i seguenti: la letteratura viene studiata insieme ai
movimento storico-sociali, vi è un allontanamento dallo studio dei testi individuali e vi è una definizione
non prescrittiva dell’equivalenza, in quanto si tengono in considerazione gli ambienti e momenti storici
attorno a cui ruotano i testi. Numerose però sono anche le critiche: generalizzazione delle leggi universali,
dipendenza dal modello formalista e la creazione di un modello astratto e poco attendibile in misura
scientifica.
Dopo aver affiancato Gentzler in questo modello, Toury cerca di creare una teoria universale della
traduzione. Secondo Toury, le traduzioni occupano un posto nel sistema sociale e letterario della cultura di
arrivo; è per questo che crea una metodologia a 3 fasi per una disciplina semantica, in cui posiziona il testo
nella cultura di arrivo, comparando i TP e TA, e tenta di arrivare a generalizzazioni. Il secondo passo
prevede la scelta di segmenti del TP e TA da analizzare; secondo Toury, è la teoria della traduzione a dover
fornire questo dato e rimane fedele all’utilizzo di un ipotetico elemento intermedio invariabile, che funge
da metro di giudizio per gli spostamenti traduttivi. Inoltre, secondo Toury, vi sono delle norme nel
comportamento traduttivo, che vengono acquisite dal ricevente nel corso della sua vita in un determinato
ambiente (es. istruzione, cultura); queste norme possono essere individuate grazie all’analisi dei testi e
dalle dichiarazioni dei traduttori stessi. Si arriva dunque a stabilire se una traduzione sia accettabile o
adeguata in base a se prevarrà la norma iniziale o le linee guida del TP; in caso di scelga di seguire il TP,
allora il TA sarà adeguato e, in caso contrario, il TA sarà accettabile. Altre norme sono quelle preliminari,
operative (descrivono la materia linguistica del TA), di matrice (relative alla completezza del TA) e
linguistico-testuali (relative alla selezione del materiale linguistico).
Toury parla anche di politica traduttiva, riferita ai fattori che determinano la selezione dei testi da tradurre,
e di immediatezza della traduzione, riferita alla possibilità che la traduzione avvenga grazie a una lingua
tramite. È qui che Toury introduce l’equivalenza traduttiva, dicendo di non considerare l’equivalenza con il
significato usuale, ma con la scontatezza secondo la quale TP e TA dovrebbero sempre essere equivalenti.
Arriviamo così a quelle che per Toury sono le leggi universali della traduzione:
-legge della maggior standardizzazione: ci sarà sempre una tendenza a stravolgere i modelli applicati nel TP
per seguire le linee guida della LA, quindi standardizzare il TA eliminando le variazioni stilistiche
-legge dell’interferenza: le caratteristiche linguistiche del TP vengono copiate, positivamente o
negativamente, nel TA, e vi può essere una tolleranza all’interferenza o meno in base al livello di prestigio
della letteratura tradotta o alla cultura di arrivo
L’ultimo passo è, ovviamente, l’applicazione dei risultati.
Secondo Gentzler il modello di Toury ha portato a dei grandi risultati, anche se la mappatura del modello ci
dice che quest’ultimo non è obiettivo e replicabile; esiste infatti una tendenza alla generalizzazione e vi
sono delle contraddizioni a livello delle leggi universali. Toury risponde alle critiche, dicendo che
ovviamente per “universale” si intende un qualsiasi modello in cui c’è da tener conto delle varie eccezioni,
che comunque non lo rendono meno universale. Pym cerca di risolvere tali contraddizioni, proponendo un
mezzo per unificare le due leggi basandosi sul concetto di rischio e ricompensa: se il rischio sarà più alto
della ricompensa, il traduttore opterà per una traduzione sterile.
Chesterman, dal canto suo, propone un’altra serie di norme che coprono l’area di quella iniziale e
operatrice di Toury:
-norme di prodotto o aspettativa: si basano su una reale aspettativa dei riceventi nei confronti del TA, in
grado di capire se una traduzione sia appropriata o meno
-norme procedurali o professionali: regolano il processo traduttivo stesso
Le secondo si dividono in 3 tipi:
-norma di responsabilità: si tratta di una norma etica, secondo la quale il traduttore deve accettare o meno
la responsabilità datagli dall’incarico traduttivo
-norma di comunicazione: si tratta di una norma sociale, secondo la quale il traduttore lavora per
massimizzare la comunicazione tra le parti
-norma di relazione: si tratta di una norma linguistica, secondo la quale viene abbandonato il concetto di
equivalenza tra TP e TA poiché è il traduttore a essere giudice dell’appropriatezza della relazione TP-TA
Dopo i vari contributi appena esplicati, l’International Comparative Literature Association tenne convegni
sulla letteratura tradotta e pubblicò una serie di saggi, curati da Hermans, in cui si collegano la teoria dei
polisistemi e gli studi descrittivi.
Il saggio di Lambert e Van Gorp propongono invece uno schema per il paragone dei sistemi letterari TP-TA,
suddiviso in 4 sezioni:
-dati preliminari: informazioni sul testo date dal frontespizio ad esempio, e la strategia generale
-macro-livello: suddivisione del testo in macro categorie (capitoli, titoli, ecc)
-micro-livello: individuazione delle micro categorie (lessico, schemi grammaticali, narrazzione, ecc)
-contesto sistemico: paragone del macro e micro livello e conseguente individuazione delle norme
Lambert e Van Gorp affermano che è impossibile riassumere tutti i rapporti che scorrono tra le varie
letterature, ma vogliono comunque proporre un modello che eviti commenti superficiali e scelte poco
intuitive.

CAPITOLO 8
Nei loro saggi Basnett e Lefevere si concentrano sull'interazione fra cultura e traduzione, ovvero su quello
che Snell-Hornby chiama la “svolta culturale”.
Lefevere sostiene che la traduzione sia una riscrittura, che viene poi incorporata nella critica letteraria
generale. Secondo l'autore, la traduzione occupa un posto importante e opera sotto il controllo di tre
fattori: professionisti all'interno del sistema letterario (critici, recensori, traduttori), patronato al di fuori del
sistema letterario (case editrici ecc) che può essere indifferenziato o differenziato a seconda che le 3
componenti seguenti siano dipendenti o meno l’una dall’altra: componente ideologica, economica, sociale)
e la poetica dominante (costituita da mezzi letterari e il ruolo della letteratura nel sistema sociale). Inoltre
Lefevere afferma l'interazione fra poetica, ideologia e traduzione; per Lefevere, l'ideologia e la
considerazione più importante che, insieme alla poetica, formano la strategia traduttiva e la risoluzione di
problemi specifici.
D'altro canto Sherry Simon si avvicina alla traduzione da una prospettiva di genere, sottolineando il
linguaggio sessista, affiancato dall'uso di marcatori linguistici di genere, e il parallelismo fra lo status della
traduzione e quello delle donne. Tutto ciò favorisce i dibattiti sulla questione linguaggio e identità: Harvey,
utilizzando la teoria del contatto, analizza i “camp talk” inglesi e li paragona a quelli francesi per quanto
riguarda gli scritti sui gay: Harvey sottolinea come l'omosessualità sia espressa più marcatamente nei testi
inglesi e come i francesi cerchino di raggirare questi temi traducendo in modo errato determinati termini
attribuibili alla comunità gay, modificandone la percezione secondo l’ideologia eterosessuale. In Translation
and gender, Simon spiega come il post colonialismo e le traduzioni in inglese (la lingua dei paesi forti) abbia
causato gravi conseguenze nella letteratura del terzo mondo, così come ne parla Spivak, che chiama questo
tipo di fenomeno/traduzione, il “traduttese”, che elimina l'identità e la cultura di popoli politicamente più
deboli assoggettandoli alle ideologie occidentali.
Secondo Niranjana, il collegamento tra traduzione e post colonialismo risiede nelle relazioni di potere.
Infatti Niranjana spiega come l'inglese fosse inizialmente un mezzo per costruire, attraverso i testi, una
visione distorta dell'est e del terzo mondo, che è diventato poi realtà. Inoltre, è forte la critica verso gli studi
della traduzione, orientati verso un modello occidentale, e criticato per avere tre mancanze: lo
sbilanciamento di potere delle lingue, di cui l’inglese ne detiene il primato, concetti di base occidentale
errati, facendo passare una visione errata sia dell’Occidente che dell’Oriente, e messa in discussione
dell'impresa umanistica, oppressa dalle relazioni di potere linguistiche e non. Per aggirare queste
mancanze, Niranjana fa appello a un approccio interventista del traduttore che deve mettere in discussione
i concetti post coloniali e combatterli durante il processo traduttivo.
Basnett e Trivedi, basandosi sulle relazioni di potere, sottolineano il collegamento tra traslazionale e
transnazionale, dove l’ultimo termine si riferisce a chi vive “tra” nazioni come emigrati; cruciali i concetti
interconnessi di intersezionalità, terzo spazio, ibridità e differenza culturale, concetti che Bhabha utilizza
per sottolineare come l'autorità del potere coloniale possa essere sovvertita attraverso la produzione di
un’ambivalente ibridità culturale, per creare uno spazio libero in cui ogni cultura, che faccia parte di una
minoranza o non, possa esprimersi.
Il problema del post colonialismo non è circoscritto soltanto al terzo mondo: Cronin spiega la situazione
irlandese risalente alla guerra di indipendenza e di come l'inglese fosse subdolamente proposto agli
irlandesi, costringendoli a doverlo accettare per non rimanere tagliati fuori dalla società che si stava
andando a delineare, arrivando al punto in cui l’irlandese perse la propria identità. Con gli anni e con
l'accrescimento dell’interesse nei confronti degli studi sulla traduzione, numerosi studiosi si sono riuniti per
trovare una soluzione; ma anche gli stessi teorici hanno culture diverse fra loro e ciò ha portato a numerose
critiche da parte degli stessi verso gli altri.

CAPITOLO 9
Venuti critica il modello di Toury, sottolineando che il campo degli studi della traduzione deve arrivare a
toccare anche le tematiche e i quesiti socio culturali. Venuti parla di “invisibilità” per descrivere la
situazione del traduttore nella cultura angloamericana contemporanea, dovuta al voler rendere i testi i più
leggibili e scorrevoli possibile nella cultura di arrivo, arrivando però a una perdita stilistica nel TA e della
presenza del traduttore nel testo; l'invisibilità viene trattata parallelamente a due strategie traduttive,
l’addomesticamento e l’estraniamento: il primo è la scelta del traduttore di uniformare il più possibile il TA
alla cultura d’arrivo, il secondo porta il traduttore a scelte traduttive volte ad avvicinare il lettore al TA.
Venuti lamenta l'addomesticamento mentre preferisce l’estraniamento (che Venuti chiama anche
“resistenza”), che è un metodo traduttivo scorrevole e non estraniante; l'autore preferisce dunque un
linguaggio e una traduzione che siano visibili al lettore.
L'opera di Antoine Berman precede e influenza Venuti. Berman parla della prova a cui viene sottoposto il
lettore, prova che lo porta ad allontanarsi dalla propria cultura per avvicinarsi a quella del TP, ed è per
questo che nega la naturalizzazione, (che corrisponde all'addomesticamento di Venuti). Tuttavia, l'autore
nota una deformazione testuale nei TA, che studia attraverso l'analitica negativa; queste deformazioni
deviano la voglia di tradurre del traduttore e sono riconducibili a 12 cause o, come le chiama Berman,
tendenze deformanti:
-razionalizzazione: ha effetto sulle strutture sintattiche e porta a una tendenza nel generalizzare
-chiarificazione: voler rendere chiaro ciò che nel TP non lo è
-espansione: i TA solitamente sono più lunghi dei TP
-innobilimento: riscrivere il TP in maniera più elegante
-impoverimento qualitativo: sostituzione di parole/frasi del TP che non hanno equivalenti nella LA
-impoverimento quantitativo: perdita nel TA della variazione lessicale
-distruzione del ritmo: deformazione dell’ordine delle parole e della punteggiatura
-distruzione delle reti significanti soggiacenti: incapacità di mantenere nel TA le stesse connessioni tra le
parole del TP
-distruzione dei pattern linguistici: rendere incoerente il TA distruggendo la sistematicità del TP
-distruzione ed esotizzazione delle reti vernacolari: perdita della “parlata locale” (es. gergo)
-distruzione di modi di dire ed espressioni idiomatiche
-cancellazione della sovrapposizione delle lingue: cancellare le diverse forme linguistiche esistenti nel TP
A controbilanciare l'analisi negativa c'è quella positiva; secondo Berman, è la traduzione letterale, vista in
una prospettiva saussuriana (Saussure) a salvare l'elemento straniero nel TA.
Il richiamo l'azione di Venuti riferito ai traduttori, fa crescere il tema della creatività traduttiva e della
posizionalità del traduttore. Infatti, Venuti lamenta il tipico destino del traduttore che lavora per case
editrici che pensano soltanto ai guadagni e che hanno poco rispetto per la figura del traduttore; infatti, il
gioco di potere editoriale può estromettere l'autore del TP e il traduttore del TA, arrivando a non nominarli
nei testi tradotti, o a non approfittare dell’aiuto di traduttori competenti che conoscano sia la LA che la LP.
Kuhiwczak riporta l'esempio del traduttore Kundera, il quale assistette a una deformazione consenziente
del TP e richiese una nuova traduzione. Venuti lo critica in quanto secondo lui, un traduttore deve sapere
che ci sono questioni linguistiche e culturali negoziabili. Anche l'agente letterario, secondo Venuti, insieme
alla casa editrice, svolgono un ruolo importante; ma vi è una disparità, poiché a seconda della cultura, le
case editrici accettano o meno determinati testi.
Pym critica i grafici di Venuti; infatti, il critico sostiene che la svolta per i traduttori può avvenire se sono
forti nel contrastare la traduzione scorrevole e se la “resistenza” di cui parla Venuti sia verificabile; inoltre,
Pym si ricollega alla critica di Venuti contro le case editrici angloamericane che monopolizzano i testi da
tradurre in maniera politica, riluttanti nel fare entrare nei propri Stati testi non consoni alla loro cultura.
Pym afferma che nonostante il numero di traduzioni entranti nella cultura angloamericana sia basso, non è
comunque nullo. Tuttavia, Pym riconosce, a Venuti il suo considerare i traduttori come persone reali in
situazioni politiche.
È Meg Brown a sottolineare i meccanismi alla base dei rapporti tra case editrici e la ricezione di una
traduzione. Brown adotta alcune idee della teoria della ricezione, rapportandole a una sotto-area del
modello di Holmes: le recensioni. Secondo Brown infatti sono le recensioni a offrire la finestra sul mondo
dei riceventi e di come accolgono o meno i testi tradotti. Tuttavia, non esiste un modello di analisi per le
recensioni delle traduzioni, ma una gamma di paratesti, oggetti di studio di Gérard Genette. L'autore
prende in considerazione i peritesti (che si trovano nella stessa ubicazione dei testi) ed epitesti (che non
sono ubicati con il testo, ma in volumi a parte che parlano comunque del testo). Se inoltre viene adottato
l'approccio analitico della teoria della ricezione, si possono analizzare le recensioni sincronicamente o
diacronicamente, cosa importante per studiare la traduzione in rapporto alla storia e ai movimenti sociali.

MONTI
CAPITOLO 1
La traduzione automatica è quel processo compiuto da un software che, senza l’ausilio umano, passa da un
TP a un TA. Il termine viene tradotto dall’European Association of Machine Translation come Machine
Translation o Automatic Translation e tali traduzioni non fanno riferimento all’intervento umano, a
differenza di altre definizioni. La traduzione automatica viene generalmente considerata un sottocampo del
trattamento automatico del linguaggio naturale (TAL) e della linguistica computazionale (LC), che ha come
obiettivo quello di sviluppare modelli computazionali della lingua.
Nella classificazione di Hutchins e Somers, la traduzione automatica e quella umana sono poste a due
estremi di uno stesso continuum. Infatti, la traduzione automatica è considerata “grezza”, non essendo
riuscita ad eguagliare quella umana e avendo bisogno dell’intervento umano per le fasi di revisione.
Secondo la classificazione di Hutchins e Somers, la traduzione automatica si differenzia dal Computer-
Assisted Translation (CAT), che comprende la Human-Aided Machine Translation (HAMT), ovvero sistemi di
traduzione che richiedono l’ausilio umano, e dalla Machine-Aided Human Translation (MAHT), ovvero
qualsiasi strumento di ausilio ad un processo traduttivo umano. Mentre, secondo la classificazione di Alan
Melby, la traduzione automatica viene catalogata come Segment Level During Translation, ovvero uno
strumento che opera a livelli durante la traduzione. Altra classificazione è la IAMT che prevede tre diversi
livelli, ovvero base, standard e avanzato (ormai obsoleta).
Hutchins nel 2010 propone una categorizzazione in base all'uso della traduzione automatica per: uso
domestico, professionale, aziendale, siti web, dispositivi mobili e uso vocale. È possibile di conseguenza
individuare diversi approcci: approcci linguistici o a regole (sistemi diretti, interlingua), empirici (sistemi
statistici e neurali), ibridi (l’adozione dei due approcci precedenti). Hutchins individua quattro usi principali
della traduzione automatica:
● dissemination tool: utilizza la traduzione “grezza” come base per la traduzione. Le potenzialità dei sistemi
sono incrementate da un opportuno addestramento con corpora e terminologia specifica e da strumenti di
ausilio del traduttore, come le memorie di traduzione. Uno dei primi servizi a utilizzare tali formule è stato
Google Translator Toolkit, basato su un ambiente di traduzione accessibile, a utenti che, a loro volta,
possono utilizzare le memorie di traduzione per produrre nuove traduzioni. Sulla stessa scia è andato a
svilupparsi Mate Cat, un servizio gratuito basato su tecnologie machine learning e analisi big data.
● information access tool: per facilitare l'accesso alle informazioni, vi è la possibilità di utilizzare la
traduzione automatica in sistemi di information retrieval (ricerca e recupero informazioni) integrati a servizi
Cross-Language Information Retrieval (CLIR) e Multi-lingual Information Retrieval (MLIR), i quali consentono
agli utenti di utilizzare motori di ricerca per cercare documenti o pagine web nella propria lingua, che
vengono poi tradotti in automatico. Questi tipi di traduzione sono utilizzati da Google con Wikipedia, ma
anche da e-commerce come e-Bay o Amazon. Un altro esempio è Patent Translate o Translation.
● assimilation tool: viene utilizzata per comprendere il senso del discorso di testi brevi o pagine web; Il
primo sistema ad offrire questo servizio fu Bable Fish
● interchange tool: negli ultimi anni la diffusione di servizi online per la traduzione ha contribuito a spingere
gli utenti a conoscere questi sistemi e utilizzarli anche in tempo reale, come nel caso di Skype Translator,
che permette una traduzione, sia dello scritto che del parlato, in tempo reale.

Yang e Elke hanno individuato due motivi che spingono gli utenti a utilizzare queste piattaforme:
intrattenimento (Entertainement tool) e apprendimento di una nuova lingua (Learning tool).
Ad oggi, sono sempre più i servizi cloud computing, ovvero memorie e archivi grazie ai quali viene sempre
più superata la traduzione “usa e getta” propria ad esempio di Google Translate. Si distinguono quattro
tipologie cloud di servizi di traduzione: traduzione automatica, assistita (tipica delle memorie di
traduzione), automatica e assistita (memorie di traduzione e glossari), automatica e assistita + più
strumenti per la gestione dei progetti di traduzione. La prima tipologia viene rappresentata dall'esempio più
palese: Google traduttore; la seconda è caratterizzata dalle memorie di traduzione, come Wordfast
Anywhere, con lo scopo di poter riutilizzare traduzioni già fatte come basi per nuove traduzioni; la terza
tipologia è propria di servizi, per lo più per professionisti, come Google Translator Toolkit, il quale permette
anche il post editing e un archivio per gli utenti munito di memorie personali; l'ultima tipologia, simile alla
terza, offre in più dei servizi legati alla gestione e/o creazione di lavori e gruppi di traduzione; ad
appartenere a questa tipologia sono ad esempio Launchpad e Translate Wiki.

CAPITOLO 2
Negli anni ‘60/’70, grazie a studiosi come Nida e Catford, si iniziò a parlare di equivalenza traduttiva.
Catford ipotizzò che le probabilità di equivalenza traduttiva fossero convertibili a regole di traduzione
utilizzabili per gli algoritmi traduttivi; Nida invece creò un modello a 3 fasi, ovvero analisi, transfer e
ristrutturazione: interpretazione del messaggio del TP e individuazione frasi kernel, trasferimento del
messaggio dalla LP alla LA e ristrutturazione del messaggio nella LP. Tuttavia, in quel periodo erano pochi i
riferimenti fatti alla traduzione automatica, fino a quando studiosi come Munday non iniziarono a
considerarla. Ciononostante, fu Holmes, con la sua mappa e con la sezione translation aids, a portare Toury
a inserire la tecnologia come strumento di ausilio per il traduttore.
Ma all’epoca, come afferma Steiner, gli studi della traduzione lasciavano poco spazio alla traduzione
automatica, fino a quando, per motivi per lo più evolutivi e sociali, non venne utilizzata sempre più per la
sperimentazione di gruppi di ricerca, ricerche nel campo della traduzione automatica vocale e il passaggio
da un approccio teorico allo sviluppo di strumenti utili alla traduzione automatica .
Ad esempio, Wolfram Wills paragona la capacità cognitiva del traduttore alla “black box”, ovvero un
costrutto ipotetico non osservabile e/o applicabile scientificamente, all’impossibilità della tecnologia di
eguagliarla.
Ma fu Sager uno dei primi a mettere a confronto traduzione umana e automatica. Secondo il modello di
Sager, la traduzione è un esercizio di problem solving utilizzato per modificare testi a causa della necessità
di processi industriali di comunicazione multilingue. Partendo da ciò, Sager differenzia i due tipi di
traduzione e critica quella automatica in quanto è una traduzione rigida e incapace nel compensare, ovvero
trovare soluzioni alternative di fronte ai problemi, anche se negli ultimi anni la traduzione automatica si è
enormemente evoluta.
Sono stati molti i contributi in merito; Salmon, ad esempio, differenzia due categorie di strategie di problem
solving, ovvero gli algoritmi e le eucaristiche: sono le seconde, secondo Salmon, a far sì che l’uomo affronti
la traduzione diversamente e meglio rispetto alla tecnologia, poiché sono sempre indagabili.
Phral e Petzolt invece vertono l’interesse sulle riflessioni terminologiche, in quanto viene discusso il
concetto di “problema di traduzione” partendo dalla distinzione di Nord tra “problema traduttivo”
(difficoltà del testo da tradurre) e “difficoltà traduttiva” (difficoltà nel percorso traduttivo). A questi due
termini, Phral e Petzolt contrappongono il termine translation mismatch e, non ritendendo i due termini
applicabili alla traduzione umana, li convertono in potential and actual translation problems, dove i
problemi potenziali diventano reali se vi è un deficit informativo a un certo punto del percorso traduttivo.
Le due autrici affrontano poi il concetto di translation target, che determina ciò che in un TP deve essere
trasferito nel TA, quindi ciò che è rilevante.
Nel 1998 vengono pubblicate raccolte contenenti vari contributi, tra cui quello di Bennet e Somers, i quali
ritenevano che la traduzione automatica potesse dare degli spunti per comprendere gli aspetti
psicolinguistici della traduzione umana. Progressivamente ci si iniziò a interrogare sul come le tecnologie
potessero essere usate nell’ambiente di lavoro dei traduttori o su altri aspetti del processo traduttivo e di
come, con l’avvento della tecnologie, molte fasi della revisione o di tutto ciò che concerneva il lavoro del
traduttore, iniziarono ad essere saltate; allo stesso tempo, riviste e volumi iniziano sempre più a trattare
l’argomento delle nuove tecnologie. Nel 2006, Kin Chiew Quah rivisita la mappa di Holmes, sostituendo
translation aids con translation technology.
Nel 2014 viene pubblicata l’Enciclopedia of Translation Technology che sancisce l’entrata della tecnologia
nel mondo della traduzione; di conseguenza, gli studi sulla traduzione automatica aumentano. Michael
Cronin analizza vari aspetti dell’uso delle tecnologie e tra i vari aspetti sottolinea 3 paradigmi: trade,
technology e translation, che considera inseparabili e interdipendenti; tratta inoltre l’influenza del global
english: c’è da chiedersi, secondo Cronin, fino a dove c’è reale interesse per la traduzione e dove per
l’aspetto economico, e di quanto le lingue siano ormai strumentalizzate; infatti, la traduzione non è più
propria dei traduttori; si parla ormai di wiki-translation, le cui caratteristiche sono: translation prosumption
(partecipezione attiva degli utenti), post-print translation literacy (il consumo, ormai usa e getta, dei
contenuti) e pluri-subjectivity (dimensione ambivalente: deumanizzazione e utilizzo della tecnologia in
maniera politica strategica).
Altri studiosi si sono interessati agli aspetti cognitivi del processo, come Risku, che sottolinea quanto la
tecnologia abbia avuto un impatto significativo e come non debba essere considerata un artefatto isolato,
ma componente di una rete di cui la memoria e la storia dell’uomo fanno parte. L’approccio sociologico
infatti considera le tecnologie come non-umani, ma che hanno comunque un ruolo nella società. Ad
esempio, secondo Maeve Olohan la tecnologia opera in un sistema capitalistico globale, così come la
traduzione, e con conseguenze sul lavoro dei traduttori. È anche vero che la tecnologia ha fatto sì che il
lavoro dei traduttori venisse riutilizzato per altri scopi. Ma Dorothy Kenny fa leva sugli obblighi etici che
dovrebbero essere dietro all'uso della tecnologia per evitare di far sottacere il lavoro di traduttori. Vengono
quindi suggerite delle contromisure, come negli scritti di Moorkens & Lewis, nei quali viene proposto uno
schema che sottolinea il crescente bisogno di dati per i sistemi e il conseguente indebolimento dei
traduttori; gli autori suggeriscono dunque un'azione collettiva per far valere la voce i diritti dei traduttori.
O’Hagon, dal canto suo, effettua un'analisi critica delle nuove pratiche di traduzione, in particolare la
massively open translation (traduzione offerta anche per principianti) che, secondo la CTT, influenza gli
utenti e il modo in cui interagiscono e soprattutto i rapporti di potere. Ma secondo Oliver Čulo, ci sono degli
ambiti in cui la tecnologia può progredire grazie agli studi della traduzione (tipologia testuale, dominio, ecc)
; dal canto suo, Hardmeier è però convinto che, per migliorare la traduzione automatica, bisogna superare
la visione semplicistica e tradizionale della traduzione.

CAPITOLO 3
La storia della traduzione automatica nasce dal sogno dell'uomo di poter formalizzare i processi cognitivi
tramite un programma software. Partiamo dunque dall'archivio di John Hutchins, l'archivio più esteso sulla
traduzione automatica: Machine Translation Archive.
L'idea di un meccanismo in grado di riprodurre i processi cognitivi lo si deve a Roman Llull nel XIII secolo,
dovuto al suo incontro con lo zairja, una macchina basata sull’alfabeto arabo, e ogni lettere corrispondeva a
una categoria filosofica. Sulla stessa scia Llull inventò le rotule lulliane, dischi di carta sovrapposti dove vi
erano scritte delle lettere, ognuna corrispondente a una lista di attributi; l'idea fu ripresa da Leibniz che
sviluppò la prima idea di dizionario basato su codici numerici per creare un linguaggio universale. La prima
vera macchina nasce però nel 1933, la Cervau Méchanique ideata da George Astrouni, utilizzata per
registrare e recuperare informazioni per conti bancari, orari ferroviari e dizionario. Sempre nel 1933,
Petrovič Trojanskij sviluppò un prototipo di traduttore meccanico su una sequenza di tre fasi: analisi logica
del TP da parte di un madrelingua, trasformazione del TP in TA per conto della macchina, revisione del TA
dal madrelingua. Nonostante tale successo, questo prototipo non trovò consensi in Russia. Infatti, il vero
inizio della traduzione automatica si ebbe con il calcolatore e gli universali linguistici; questo ci porta al
1949 con il Translation a cura di Booth e Weaver. L'idea di base era che il problema della traduzione
automatica fosse che esisteva un gran numero di lingue diverse, e ci fosse bisogno di decifrarle tramite
crittografia. Nel 1951 Bar-Hillel afferma l'impossibilità e il sogno di avere una traduzione automatica
qualitativamente uguale a quella umana e che dunque la ricerca doveva orientarsi sul “mixed MT”, un
processo di traduzione in cui il traduttore umana interviene prima o dopo di quello automatico. Si
formarono così negli anni 50 negli USA e in Europa, i primi gruppi di ricerca; nel 1954 ci fu la prima
dimostrazione di un sistema di traduzione automatica a cura di Hurd e Dostert, i quali riuscirono, su un
vocabolario di 250 e sei regole sintattiche, a tradurre in inglese 49 frasi russe. Questa scoperta, seppur priva
di fondamento scientifico, diede il via a numerose ricerche.
Infatti gli anni 50/60 sono anni di fermento accademico, in cui in USA e UK si cercava di realizzare prototipi
basati sulla traduzione diretta. Negli anni 60 ci si concentra sugli aspetti sintattici del linguaggio, ma questo
approccio portò alla consapevolezza che la sintassi da sola non bastava; dunque ci si orientò sui modelli
semantici e approcci interlingua, anche questi fallimentari. Ci si orientò alla fine su un approccio a transfer
che prevedeva: analisi, transfer e generazione, in cui il processo di transfer rappresentava il passaggio da
rappresentazione astratta della LP a quella della LA. Ma nel 1966 il rapporto ALPAC dichiarò inutile e
fallimentare la traduzione automatica, considerando gli eccessivi costi e la scarsità di traduzioni ottenute.
La comunità scientifica di altri paesi non condivise il rapporto ALPAC; furono infatti molti i progetti degli
anni 70/80: in Canada con il progetto TAUM, fallito nel 1981; il sistema SYSTRAN della Comunità europea,
che fu poi trasferito nel progetto di EUROTRA, basato su un sistema pre-industriale ad interlingua per la
traduzione di tutte le lingue della comunità europea nel 1982. Tuttavia il progetto non riuscì ad ottenere un
vero sistema operativo, ma l'Europa vide comunque diversi gruppi lavorare a vari progetti: la Francia con
GETA, un sistema a transfer di II generazione, in Olanda con BSO e in Germania con Saarbrucken. Alla fine
degli anni 80 la Francia presentò un servizio di traduzione automatica basato su SYSTRAN; in Germania fu
sviluppato il sistema a transfer SUSY e in Olanda il sistema DLT. Negli anni 80 ci fu la prima diffusione di
prodotti commerciali per traduzione automatica SYSTRAN, per diverse coppie di lingue e disponibile agli
utenti online, e LOGOS, che lavorava a coppie di lingue. Successivamente, entrò in campo anche METAL,
approccio a transfer con la copia linguistica tedesco-inglese. La maggiore attività degli anni 80 però, si
verificò in Giappone grazie alle varie società informatiche che svilupparono software per la traduzione
assistita. L'entrata di sistemi per pc nel mercato degli anni 80 la vediamo con Weidner e ALPS, disponibili
però solo nel decennio successivo.
Gli anni 90 sono caratterizzati dal pluralismo che nasce nel tentativo di far coesistere sistemi a transfer e
quelli basati sulla traduzione letteraria; oltre a questo, si iniziò ad abbandonare l’idea di poter ottenere una
traduzione automatica che potesse eguagliare quella umana, e ci si iniziò ad incentrare sulle reali esigenze
degli utenti. Si ebbe così, in questo periodo, un incremento di sistemi di traduzione. Nascono così i tool di
traduzione assistita, in grado di velocizzare e razionalizzare la traduzione, tra cui i più importanti progettati
da SDL con Trados, STAR con Transit, IBM con Translation Manager, Atril con Déja vu e LANT con Eurolang
Optimizer.
Ma la vera svolta la si ebbe con l'opportunità di accedere a servizi multilingue via Internet, per disporre
delle informazioni in tempo reale, per riuscire a stare al passo con notizie ed offerte. Le conseguenze di
questo fenomeno sono molteplici, infatti negli anni 90 iniziano a comparire i portali online gratuiti per la
traduzione, come ad esempio Bable Fish, acquisito nel 2008 da Yahoo. Ma già nel 2003 erano disponibili
online 55 servizi di traduzione automatica con a disposizione 25 coppie di lingue e, a partire da allora, la
traduzione automatica è diventata un'ampia area di ricerca caratterizzata da: open-source (gratuiti) per
avvicinare non solo semplici utenti ma anche possibili investitori, approcci neurali, che hanno contribuito
con l’incremento della qualità dei sistemi, aumento di servizi di traduzione come strumenti autonomi e
crescente offerta di traduzione automatica online, sia a scopo informativo che divulgativo. In questo
scenario appaiono inoltre metodologie di crowdsourcing e cloud computing; grazie a tale tecnologie si è
passati a soluzioni SaaS, che segnano il passaggio da servizi venduti su licenze a servizi gratuiti, online o a
pagamento, come ad esempio Google toolkit.

CAPITOLO 4
Fino alla fine degli anni 90, l’approccio utilizzato era quello a regole, approccio che utilizzava risorse
linguistiche (dizionari, ecc) per analizzare un TP e generare il TA, e che raggruppa 3 strategie: il metodo a
traduzione diretta, che trasferisce il TP nella LA basandosi su regole semplici, a interlingua, che usa una
rappresentazione astratta del significato, e a transfer, che si fonda su una rappresentazione astratta
intermedia e utilizza informazioni morfologiche, sintattiche e talvolta semantiche; questi metodi sono
rappresentati nel triangolo di Vaqois.

Gli approcci linguistici seguono lo stesso processo, con alcune differenze: nella prima fase, la LA viene
analizzata secondo le informazioni morfo-sintattiche possedute; nella seconda fase, un parser (un tool che
aiuta a identificare la sintassi della frase) segmenta i costituenti principali della frase che vengono associati
nella LA dalla fase di transfer; infine, avviene la generazione dell’enunciato nella LA.
I primi sistemi ad essere inventati furono quelli diretti degli anni 50/60, chiamati anche di I generazione, che
non utilizzano fasi intermedie per passare dalla LP alla LA; la traduzione mediante questi sistemi è dunque
effettuata direttamente poiché sono sistemi generati per un'unica coppia di lingue. Essi sono caratterizzati
da: processo rudimentale (traduzione effettuata grazie a una semplice trasposizione delle sequenze di
parole) e mancanza di analisi delle strutture sintattiche o di relazioni semantiche. Il processo di traduzione
di questi sistemi si divide in tre fasi: analisi morfologica, utilizzo dizionario bilingue, organizzazione del
testo.
Tra i sistemi più conosciuti c'è Météo, che dava un'accuratezza del 90%; tale accuratezza era dovuta alla
struttura dei bollettini meteo, molto brevi e standardizzati.
Gli scarsi risultati di sistemi diretti portarono alla creazione di sistemi indiretti che si avvalevano di un
passaggio intermedio più sofisticato tra l’analisi della LP e le generazione del TA; a seconda del grado di
astrazione di tale passaggio abbiamo sistemi a transfer o sistemi interlingua. Il sistema a transfer esistevano
già negli anni 80, utilizzano dati linguistici, come dizionari, in base ai quali il sistema effettua l’intero
processo di traduzione e la conversione al TA; seguono tre fasi: analisi LP, transfer, generazione LA.
A differenza di quelli interlingua, i sistemi a transfer sono più flessibili nella rappresentazione intermedia,
più complessi ma danno migliori risultati. Tra i sistemi a transfer ricordiamo SYSTRAN e LOGOS; nel secondo
il processo di elaborazione si basa su una rappresentazione astratta, il SAL, il quale conta 10 classi
semantiche collegate a una classe grammaticale. Il SAL è dotato di due dizionari contenenti diversi dati
morfologici e canonici. Le tre fasi di sistemi a transfer presentano numerosi moduli: i primi due moduli
risolvono le ambiguità lessicali e gli altri effettuano un'analisi bottom up (da sinistra a destra) delle stringhe
in linguaggio SAL. Durante la fase a transfer, il sistema si avvale della semantic tables, per affinare sia
l’analisi del TP che la fase di transfer nella LA.
I sistemi interlingua cercano una lingua universale con cui tradurre qualsiasi TP; ovviamente tale obiettivo si
è rivelato utopistico. Tali sistemi consistono in due fasi, analisi (passaggio dalla LP all’interlingua) e
generazione (passaggio dall’interlingua alla LP); inoltre sono caratterizzati da: moduli di analisi e generazioni
indipendenti, e possibilità di aggiungere nuove lingue. Questi sistemi sono stati generati per superare con
l’approccio sintattico quelli che sono i problemi della “barriera semantica”, non essendo in grado di cogliere
la complessità del senso dei diversi contenuti. A partire dagli anni 70 si intensifica dunque, nel mondo
dell’intelligenza artificiale, l’interesse per sistemi che fossero in grado di prediligere il significato di un testo
tale che semantica>sintassi. Ci si è dedicati dunque allo sviluppo di basi di conoscenza Knowlege based
Machine Translation (KBMT) per arrivare a un’interlingua, come nel prototipo dell’Università Carnegie-
Mellon.
A partire dagli anni 80, si affermarono però approcci più empirici, basati sull’idea che l’analisi empirica di
testi e traduzioni reali potesse fornire una soluzione al problema. Makoto Nagao propone così il principio
dell’analogia, basato sull’osservazione che la traduzione umana analizzi stringhe di testo che richiamano, a
loro volta, le stringhe equivalenti in altre lingue, senza passare per un’analisi profonda del testo.
L’architettura di questi sistemi utilizza i corpora paralleli, basandosi su idee intuitive. Tale sistema è
composto da 3 punti:
-matching: analisi TP e individuazione delle unità di traduzione già presenti nel database bilingue
-allineamento: le unità identificate vengono automaticamente allineate a esempi di traduzione
-ricombinazione: il sistema propone al traduttore le traduzioni individuate come traduzioni possibili
Vi è un altro approccio invece che è basato su tecniche di apprendimento automatico: l’approccio statistico,
utilizzato fino a qualche anno fa. Anche in questo caso, vengono utilizzati corpora paralleli (identificano le
traduzioni più frequenti nella LA per quella stringa nella LP) e corpora monolingue (misurano la probabilità
di utilizzo della traduzione nella LA); ma per fornire risultati affidabili, il sistema deve essere addestrato
mediante corpora estesi che calcolano la probabilità di occorrenza nel translation model, producendo
dunque tutte le possibili traduzioni; successivamente, il sistema usa il language model per trovare le
traduzioni più frequenti nella LA. Ci sono comunque tre tipi diversi di approcci statistici: basato sulla parola,
su una sequenza di parole e su modelli sintattici. Il primo traduce parola per parola; il punto di questo
metodo è che ogni parola della LP può essere tradotta con ogni parola della LA, serve solo scegliere quale
utilizzare mediante un calcolo probabilistico.
Il secondo, molto simile al primo per quanto riguarda il calcolo delle probabilità, non considera la singola
parola ma intere sequenze di parole. Il problema che tali sistemi portano spesso sono le asimmetrie tra
lingue, a cui si è ovviato applicando questi due criteri ai modelli: -criterio della fertilità: indica il probabile
numero di parole nella LA corrispondenti ad una parola nella LP
-criterio della distorsione: permette di avere delle posizioni vuote durante l’allineamento da riempire con
parole non presenti nel TP
Inoltre, il modello prevede l’annotazione, a livello di parola, di un aspetto morfologico, semantico o
sintattico e la decomposizione di sequenze e parole allineate, in un corpus parallelo, per mezzo di un
processo di mappatura che aiuta a riflettere sull’ambiguità del linguaggio naturale. In conclusione, il
processo di traduzione mediante il modello statistico si divide in due fasi:
-training: il sistema apprende dai corpora bilingui le corrispondenze più probabili tra parole o gruppi di
parole
-test: il sistema utilizza i risultati per tradurre nuovi testi; i risultati vengono confrontati con il corpus
monolingue della LA e vengono scelte le soluzioni più probabili
Il terzo e ultimo approccio vengono integrati dei parser che identificano la struttura della frase per offrire la
miglior traduzione laddove vengano prese due lingue che utilizzano ordini sintattici diversi (es.italiano-
inglese). Questo approccio ha come limitazione la necessità di un gran numero di corpora paralleli e
multilingui.
Altri approcci sono quelli linguistici e statistici in sistemi ibridi. Se i sistemi statistici hanno il vantaggio di un
rapido sviluppo, lo svantaggio è che necessitano di una moltitudine di dati, cosa che non si può dire per i
sistemi basati su regole, che hanno il vantaggio delle poche imprecisioni commesse e lo svantaggio dei cicli
di sviluppo lenti e costosi. L’architettura di tali sistemi è di 3 tipi:
●accoppiamento di sistemi: i motori di traduzione sono combinati in modo seriale o parallelo, senza mai
essere integrati in un unico sistema. Questo tipo di approccio produce risultati migliori rispetto al sistema a
regole, grazie alla grammatica più corretta e scelte lessicali migliori. Le traduzioni vengono infatti scelte tra
traduzioni già esistenti, e vengono scelte le migliori.
●adattamento delle architetture: integrano nuove componenti nelle architetture di tipo statistico o a
regole, mediante il pre/post-editing o attraverso modifiche del sistema, usando tecnologie di estrazione
automatica basate su corpora monolingui e bilingui. La differenza tra le architetture di tipo statistico e
quelle a regole, è che nelle prime il pre-editing aggiorna automaticamente il database lessicale del sistema,
nelle seconde nel pre-editing vengono annotate informazioni linguistiche di parole e sequenze per
migliorare l’allineamento.
●reali sistemi ibridi: i diversi approcci sono combinati in sistemi nuovi, all’interno dei quali avviene
l’identificazione di blocchi di parole nella LP e trasformazione dei blocchi nella LA mediante risorse bilingui.
Recentemente si sta affermando il modello della traduzione automatica neurale, basato su un modello
matematico con neuroni artificiali, stimolati a ricevere informazioni tramite input per produrre poi un
output. Questo modello risale al 1943, ma solo nel 2014 Google lo utilizzò con successo.
Le reti neurali composte da neuroni artificiali hanno tre livelli: livello di input, nascosto (dove avvengono i
calcoli delle soluzioni) e di output.
Anche in questo caso per generare traduzioni tramite modelli linguistici individuati tramite il training, si
usano corpora paralleli. A differenza dei sistemi statistici, che considerano solo sequenze di parole, quelle
neurali utilizzano il contesto dell’intera frase; infatti l’architettura adottata è quella “seq2seq”, che converte
la frase in vettore di “significato”. Inoltre, le reti neurali apprendono autonomamente dati ed errori per non
commetterli più in futuro grazie alla funzione obbiettivo e di costo, che calcola la differenza tra il risultato
previsto e quello ottenuto. Si tratta di un sistema che procede a tentativi, errori e correzioni fino a quando
non impara e ottiene il risultato migliore.
CAPITOLO 5
Nel tempo i profitti e i traguardi raggiunti dalla traduzione automatica sono aumentati; a ragione di ciò
anche l'aumento della domanda per il post-editing. Nel 2017 il post editing viene definitivamente
considerato come servizio di traduzione a sé stante. Il primo ad aver introdotto i termini pre e post editing
fu Erwin Reifler. Secondo Reifler, il pre editor è colui che conosce bene gli aspetti linguistici e culturali del
TP ma non necessariamente della LA e prepara il TP al processo di traduzione automatica; viceversa, il post
editor non conosce necessariamente la LP e si occupa di risolvere i problemi del TA.
Il pre-editing dunque consiste nell'eliminare le ambiguità del TP per avere poi una traduzione lineare nel TA
o nel semplificare la leggibilità di un TP (chiamasi linguaggio controllato). Sono pochi i linguaggi sviluppati
per la traduzione automatica, tra cui il primo ad essere realizzato è Caterpillar technical english. Alcuni
studiosi hanno cercato di delineare strategie di pre-editing e regole da adottare per dei testi qualitivamente
migliori, soprattutto laddove vi siano delle ambiguità nel testo da tradurre.
Il post editing si occupa invece della revisione del TA e se ne distinguono due livelli: light post editing, una
revisione minima, e il full post editing, più lento ma più accurato. Sono state create delle linee guida nel
2016 per l'uso del post editing; per il light, vengono richieste linee guida semanticamente corrette, per il full
invece sono richieste non solo quelle semantiche, ma anche sintattiche e grammaticali. Ovviamente resta
ancora aperta la domanda secondo cui ci si interroga se la traduzione automatica da full post editing sia
comparabile a quella umana; infatti, critica è la posizione del post editing, in quanto è un atto di revisione.
Ci si interroga sul grado di comprensibilità a cui puoi arrivare una traduzione fatta da un umano e una
revisionata con il post editing. Un importante contributo è quello di Loffler-Laurian, che non considera il
post editing come una revisione, ma come un modo nuovo di considerare un testo e differenzia il
conventional post editing (produzione di un testo che sia qualitivamente capace di assomigliare a quello
fatto da umani) dal rapid post editing (produzione di un testo corretto ma non necessariamente che abbia
uno stile); inoltre, fa una tripartizione tra i tipi di intervento: necessari (necessari per la comprensione del
testo), possibili (interventi stilistici per adattare il TA alla situazione comunicativa) e superflui (se il testo
deve essere rapido e d’impatto, non deve essere stilisticamente corretto).
Hans Krings, invece, avvia degli studi sui processi cognitivi che si attuano durante il post editing mediante la
tipologia del TAP, un protocollo basato sulla verbalizzazione dei pensieri detti ad alta voce dal traduttore
durante la fase di post editing. Il post editing si articola così in: lettura TP, lettura TA, revisione TA ed
eventuali cambiamenti opportuni. Krings sottolinea come i processi cognitivi in fase di traduzione siano
diversi da quelli in fase di post editing.
Yamada, dal canto suo, indaga sullo sforzo cognitivo percepito durante il post editing, ovvero la percezione
del post editor sulla difficoltà o facilità di un testo. Un approccio diverso è quello di Jeff Allen, che dimostra
come l'attività di traduttore aumenti nel post editing e come le ricerche in questo ambito vengano condotte
in modo empirico dalle aziende che adottano la traduzione automatica; l’intento di Allen è quello di definire
il concetto di post editing e circoscrivendo quest’ultimo soltanto all’uso aziendale. Inoltre, tratta della
produttività dei traduttori, dimostrando che aumenta durante le fasi di post editing. Infatti, negli anni 2000
è aumentato l'interesse nei translation studies e questa tendenza ha fatto sì che si puntasse molto sul
fattore umano, indagando sulla posizione del traduttore in merito all'avvento delle tecnologie. O’Brien nota
come ci sia una resistenza al cambiamento da parte dei traduttori, i quali temono che le macchine possano
prendere il loro posto e di come critichino la scarsa qualità della traduzione automatica. Ci si interroga
dunque sulla figura del traduttore e su quali debbano essere le sue abilità. Più volte, infatti, le profezie
nell'ambito della traduzione hanno dichiarato la scomparsa dei traduttori e non è infatti un caso che si parli
sempre di più di transcreation, ovvero il processo di traduzione che si colloca tra traduzione e copywriting e
che richiede una serie di competenze, ma soprattutto la creatività del traduttore.
Nel 2015 un'indagine ha evidenziato come questi cambiamenti sollecitino la necessità di sviluppare
maggiori competenze tecnologiche e che quindi, ad esempio, il post editor possa anche essere monolingue
e non più bilingue. Anthony Pym sottolinea la necessità di rivedere il ruolo del traduttore e le varie
definizioni adottate in questo ambito, come ad esempio quella di “testo di partenza”. Pym elenca poi 10
caratteristiche che ogni traduttore dovrebbe avere e che si riferiscono alla competenza procedurale del
traduttore, in particolare quella di “imparare a imparare” per adattarsi velocemente ai cambiamenti. Rico e
Torrejan forniscono il profilo, competenza e abilità del post editor; vi sono infatti abilità linguistiche di base
necessarie e le competenze strumentali utili nella conoscenza della tecnologia.
Nella cooperazione tra la Direzione Generale per la Traduzione e la Commissione Europea è stato elaborato
un quadro per le competenze del traduttore: l’EMT Competence Framework che nel 2017 è stato
revisionato, e individua tra le diverse competenze anche quelle tecnologiche. Infatti, negli ultimi anni sono
numerosi i corsi, come quello dell'Università di Dublino, sulla traduzione automatica e le varie tecnologie.
Inoltre, sono nati ambienti collaborativi gratuiti online per diffondere i corsi sulla traduzione automatica per
far sì che, in caso la traduzione automatica inizi a prendere il posto della traduzione umana, i traduttori
possano collaborare con le macchine e continuare così a lavorare nell’ambiente traduttivo.

CAPITOLO 6
Nonostante i progressi, la traduzione automatica è ancora limitata nella conversione del TP. Uno dei temi
centrali per l'industria delle lingue è la valutazione della qualità di una traduzione e quali sono i parametri
da considerare nell'utilizzo delle traduzioni grezze. Il primo tentativo di valutazione fu il rapporto ALPAC nel
1966, per studiare la fattibilità della traduzione automatica e i risultati ottenuti; successivamente, Arthur
Little valutò una traduzione russo-Inglese in base ai principi di:
-intelligibilità: si riferisce a una traduzione che può essere letta facilmente, comprensibile; si utilizza questo
criterio per valutare la traduzione automatica come testo indipendente nella LA e utilizza una scala che va
da 1 a 9
-fedeltà: questo criterio viene usato in connessione con quello di accuratezza; si valuta confrontando il TA
con il TP e utilizza una scala che va da 0 a 9
L’esperimento viene condotto usando due gruppi di valutazione, il primo monolingue inglese e il secondo
bilingue inglese e russo. Questo esperimento portò alla conclusione che il livello della traduzione era scarso
e che in paragone agli enormi costi sostenuti, non ne valeva la pena.
Un altro documento è il Van Slype Report, commissionato dalla Commissione Europea e sosteenuto da
SYSTRAN, che sottolinea come la valutazione debba avvenire su due livelli:
-macrovalutazione: ha lo scopo di valutare il grado di accettabilità del sistema di traduzione mediante
criteri a livello cognitivo (intelligibilità, fedeltà, coerenza, usabilità e accettabilità), comparando tutti i
possibili sistemi di traduzione utilizzabili
-microvalutazione: ha lo scopo di valutare la migliorabilità del sistema e dedurne una strategia per
migliorarlo; utilizza i criteri dell’analisi degli errori e dello sforzo necessario per la revisione.
Nel loro volume Lehrberger e Bourbeau cercano di formulare una metodologia generale per la valutazione
della traduzione automatica; infatti, nel loro schema, la traduzione viene sottoposta a tre approcci:
valutazione linguistica (basata sulla traduzione grezza valutando gli errori fatti dal sistema e un ipotetico
post editing), rapporto costi/benefici, valutazione dello sviluppatore (valutazione delle aree critiche e del
loro miglioramento). Inoltre, i due autori elencano altrettanti fattori da tenere in considerazione: costi
dell’acquisizione del sistema, tempo totale per la realizzazione del TA, qualità (basandosi su fedeltà,
intelligibilità e stile appropriato al TP), migliorabilità, estensibilità ad altre coppie di lingue e facilità d’uso.
Un altro contributo importante fu quello di ARPA (successivamente DARPA) negli anni 90, che cercò di
promuovere progressi rivoluzionari come la black box. Successivamente EAGLES elaborò lo standard ISLE
con l'obiettivo di creare un modello di valutazione per qualsiasi sistema automatico. Tuttavia, le strategie
utilizzate negli anni 90 oscillano tra criteri qualitativi e quantitativi. Si approda così a metriche basate sul
giudizio umano; tra le prime strategie di questo tipo c'è la “retro-visione” che consisteva nel tradurre il TP
in LA e poi ritradurre il TA in LP; metodo subito abbandonato perché reputato non affidabile.
Comunque, la valutazione umana era necessaria e si puntò a strategie di miglioramento, ma anche i criteri
per la valutazione umana sono cambiati nel tempo. Infatti, i criteri di fedeltà e intelligibilità furono
abbandonati per cercare criteri più oggettivi quali:
-fruibilità: giudica, frase per frase, la correttezza del TA mediante madrelingua
-adeguatezza: tutto il contenuto del TP deve essere riportato nel TA
-comprensione: grado di informazioni tradotte e trasmesse dal TP al TA
(ARPA 1993)
Nelle successive edizioni di ARPA, comprensione fu sostituita da informatività (abilità di un sistema di
riprodurre una TA simile al TP). Furono inventate ulteriori metriche di valutazione come LISA e SAE, basate
su una valutazione degli errori di traduzione.
A partire dagli anni 2000, con l'avvento dei sistemi statistici, si passò alla sperimentazione di metriche
quantitative automatiche, che non necessitavano dell'intervento umano. Sono programmi software quali
NIST, BLEU, METEOR e World Error Rate, basati tutti sul principio di similarità, confrontando il corpus di
riferimento e i risultati ottenuti. I criteri adottati per la valutazione sono quelli di:
-recupero: calcolo dei segmenti corretti nella traduzione a fronte dei segmenti della traduzione di
riferimento
-precisione: calcolo sei segmenti che occorrono nella traduzione a fronte di quelli della traduzione di
riferimento
Sono inglobati entrambi in un terzo criterio con un'unica misurazione: F-measure, che moltiplica e divide i
risultati del recupero e precisione. Il software più utilizzato è BLEU, che segmenta il testo in n-grammi
(=sotto sequenza di n elementi di una sequenza) per individuare i segmenti condivisi tra il TA e un testo di
riferimento del proprio corpus; se vi è corrispondenza, allora n elementi=1, altrimenti sarà =0.
Altri software come NIST, basato sugli stessi principi di BLEU, utilizza un corpus di riferimento di TA tradotti
da umani. METEOR è quello considerato più affidabile, ma anche più complesso, in quanto lavora come
BLEU, ma cerca di identificare quante più sequenze possibili con il corpus di riferimento, utilizzando il tema
delle parole e i sinonimi. Il WER (World Error Rate) si basa invece sulla differenza computate tra un TA e un
testo di riferimento, che comprendono parole sostituite, cancellate e inserite.
Queste tipologie di valutazione, però, portano spesso a risultati contrastanti; infatti, a partire dagli anni
2000, si sono diffuse campagne di valutazione e comparazione come la Callison-Burch e la Bojar. La
comunità dei Translation Studies non guarda di buon occhio queste compagnie, poiché la valutazione si
basa su informazioni esigue e non viene accertato il corpus di riferimento che è spesso frutto di
crowdsourcing.
Negli ultimi anni, infatti, si sono iniziate ad esplorare nuove metodologie basate sempre sull'adeguatezza e
la fruibilità. Tuttavia, il primo criterio viene spiegato come il grado in cui l'output della traduzione cattura il
significato della traduzione di riferimento; l'adeguatezza assume così un ruolo principale nella valutazione
di una traduzione, considerando una traduzione adeguata quando conserva il significato dell’input e non
aggiunge informazioni. Ma se guardiamo ad esempio l'approccio di DQF (Dynamic Quality Metrics), notiamo
che qui il criterio di adeguatezza assume un altro significato, avvicinandosi al concetto di accuratezza.
Invece, l'approccio MQM (Multidimensional Quality Metrics) cerca di fornire una metrica di qualità che
permette di valutare accuratezza e fruibilità del TA; l’accuratezza qui delinea la relazione tra TP e TA.
Nel 2015 DQF e MQM si sono riconciliati in un unico quadro: MQM-DQF, che offre un modello flessibile e
adattabile a diversi contesti e a diversi utenti. Il modello offre una gerarchia di errori e delle macro
categorie da prendere in considerazione per la valutazione: accuratezza, design, convenzioni, stile, verità,
terminologia, fruibilità, e “altro”. Questa metrica può essere usata isolatamente o affiancata a strumenti di
traduzione assistita.

CAPITOLO 7
A partire dagli anni 90, emerge il fenomeno del crowdsourcing, ovvero il collaborare di più persone,
volontarie e non, in una certa attività. Con il tempo questo termine ha acquisito ulteriore definizioni, ma
vale per ogni definizione il fatto che tale attività porti dei benefici per l'iniziatore e la folla. Arolas e Ladron
consigliano una definizione del termine che racchiude otto elementi principali: l’iniziatore del processo di
crowdsourcing, moltitudine di persone che vi lavora, attività richiesta, modalità richiesta, ricompensa
ottenuta, tipo di processo, il mezzo utilizzato, i benefici per l’iniziatore. Dal 2006, infatti, il crowdsourcing è
diventato usuale nel campo della traduzione, specialmente online, come ad esempio in Twitter e Linkedin,
che non usano soltanto traduttori professionisti. Anche Facebook, con Translate, Facebook, permette agli
utenti di poter contribuire, delineando anche dei traguardi e remunerazioni.
Il crowdsourcing è utile anche per la creazione di basi di dati utili per il miglioramento delle tecnologie di
traduzione. Vari esempi sono Duolinguo e Wiktionary, o ancora Crowdcrafting e Amazon Mechanical Turk,
che consentono di accedere gratuitamente a una forza lavoro internazionale. L'interesse per queste
piattaforme è infatti alto e ne sono la prova i vari workshop dedicati presenti nella comunità dei ricercatori,
come Callison-Burch e Dredze, dove vengono delineati quattro ragioni per cui i ricercatori ricorrono al
crowdsourcing: zero spese, forza lavoro ampia, sistemi semplici di micro pagamento e consegne in tempi
brevi. Esistono inoltre varie forme di crowdsourcing per la raccolta di dati linguistici: lavoro meccanizzato,
l’esecuzione di un compito ben definito, WotC (Wisdom of the crowd), volontari che si prestano a
condividere le loro conoscenze per terminare un compito, e giochi con uno scopo, dove l’utente, giocando,
aiuta a raccogliere dati linguistici.
Un'ulteriore classificazione è quella del crowdsourcing esplicito o implicito. Il primo è un crowdsourcing in
cui gli utenti sanno di contribuire e vengono seguite pratiche ben precise; viene usato non solo per la
ricerca, ma anche dai social e dalle multinazionali. Solitamente il crcodsourcing segue un iter preciso, in cui i
contenuti da tradurre sono esposti sul web, chiunque (professionisti e non) possono contribuire ma
verranno pagati soltanto i traduttori professionisti; gli altri verranno retribuiti con forme di gratificazione
alternative. Uno dei primi progetti fu quello di IBM nel 2009, ovvero n.Fluent per la traduzione automatica,
che aveva come obiettivo la costituzione di un corpus parallelo multilingue che si sarebbe formato grazie al
volontariato di dipendenti di multinazionali in tutto il mondo. Ma anche Microsoft utilizzò Microsoft
Translator Api con lo stesso scopo: da un primo coinvolgimento del personale Microsoft si estese anche ai
suoi sviluppatori, che potevano inviare le traduzioni corrette alla piattaforma; ai partecipatori più attivi
sarebbe stato conferito il titolo di “trusted” (fidato). Lo stesso Google riesce a coinvolgere qualsiasi utente
permettendogli di creare o modificare una traduzione rispetto a quella del sistema; permette inoltre agli
utenti di essere parte attiva del miglioramento del sistema attraverso, ad esempio, dei sondaggi. Offre
inoltre dei badges, come nel caso di Google Translator Toolkit, con i quali l'utente ha accesso a una
memoria di traduzione personale, e una globale condivisa. Con ciò, Google migliora continuamente le
proprie prestazioni.
Alcune ricerche riguardano l'uso del crowdsourcing per il post editing, come il progetto CTF della Microsoft
Research, che si basa sulla collaborazione di studenti stranieri come revisori di traduzioni automatiche sul
sito web dell’università. Tuttavia, secondo la ricerca di Bentivogli, il crowdsourcing è sì affidabile, ma anche
un'alternativa meno costosa alla valutazione umana.
Arriviamo così al crowdsourcing implicito, dove gli utenti non sono consapevoli di star contribuendo a un
determinato fine, come ad esempio i giochi con uno scopo (esempio di questo genere e”1001
Paraphrases”).
I problemi legati al crowdsourcing sono molteplici: il primo è l'affidabilità, come ad esempio la
rintracciabilità delle utenze anonime. Ad esempio, i turkers su Amazon sono utenti anonimi, di cui l’identità
non può essere verificata. Per ovviare a questo ostacolo, Amazon ha predisposto dei requisiti minimi per i
turkers. Una soluzione sono le “blockchain”, tecnologie che certificano la qualità e la provenienza dei dati.
Un secondo problema è l'eticità, laddove il crowdsourcing, sia a scopo commerciale e sia di natura implicita,
ma anche esplicita, come afferma Darren Brahman, arrivi ad essere una sorta di sfruttamento: il
crowdsourcing infatti non sempre remunera coloro che contribuiscono alle traduzioni o le revisioni. Viene
inoltre spesso utilizzato dalle multinazionali per usufruire di dati raccolti gratuitamente per creare poi per
produrre servizi a pagamento.

Potrebbero piacerti anche