12 luglio 2019

Traduttori umani e traduzione automatica neurale (seconda parte)

di Elena Starnoni

Nella prima parte del presente articolo, si è evidenziato come ciò che rende un sistema di traduzione automatica meno valido di un traduttore umano è la sua mancata conoscenza del mondo, insieme all’incapacità di apprendere dall’esperienza e dai propri errori. Ma, mentre già con le architetture rule-based è iniziato il processo di codifica delle nozioni linguistiche, quelle appartenenti alla sfera extralinguistica sono molto più difficile da esplicitare sotto forma di regole e algoritmi, innanzitutto perché, allo stato attuale, non possiamo comprendere del tutto il funzionamento della mente umana.

 

I sistemi knowledge-based sono stati pensati appunto per questa questione: basandosi su metodi e tecniche ottenute dall’intelligenza artificiale, vengono programmati in modo da imitare la capacità “umana” di risoluzione dei problemi, riferendosi ad una base di conoscenza. Nel database vengono organizzate informazioni di diverso tipo, inclusi dizionari, regole grammaticali e semantiche, glossari specialistici, memorie di traduzione, corpora paralleli allineati.

 

L’informatico e studioso di intelligenza artificiale Yorick Wilks, nel suo libro Machine Translation. Its Scope and Limits, analizza il rapporto fra intelligenza artificiale e traduzione automatica, tracciandone la storia dai primi punti di contatto fino alle potenziali direzioni future. Fra i primi esperimenti in cui si è cercato di introdurre una codifica della conoscenza extralinguistica nella traduzione automatica, Wilks ricorda i sistemi frame, proposti da Charniak nel 1975, e gli script, proposti da Schank, entrambi composti da una catena di concetti che descrivono una normale sequenza di eventi in situazioni a noi familiari, ma formalizzata in modo da poter essere comprese dai computer. Tale meccanismo risulta utile per far sì che il sistema possa determinare il contesto di ogni singola parola: conoscendo le dinamiche tipiche degli scambi comunicativi al ristorante, il sistema comprende che, nella frase “John ordered the shrimps”, la parola order rientra nella prassi di ordinare del cibo, e non vuol dire “comanda agli scampi (di fare qualcosa)”.

 

Secondo Yolks non è necessario descrivere tutte le situazioni possibili attraverso dei copioni. Egli fu uno dei pionieri della Natural Language Processing, ossia la comprensione, da parte del computer, del linguaggio naturale, e contribuì allo sviluppo di questa disciplina presentando la teoria della Preference Semantics, in cui un algoritmo assegna l’interpretazione più coerente ad ogni frase, sulla base di informazioni semantiche codificate. La disciplina della Natural Language Processing esamina le modalità attraverso le quali un computer rappresenta la conoscenza e produce algoritmi per far sì che impari, produca e comprenda il linguaggio. Le teorie e i formalismi propri della Natural Language Processing vengono applicati in qualunque tecnologia abbia a che fare con il linguaggio, a partire dalla correzione automatica di errori nella digitazione, fino alla traduzione automatica e l’estrazione di informazioni da un testo.

 

Pertanto, studi che coinvolgono traduzione automatica e intelligenza artificiale vengono intrapresi già da tempo, ma il vero e proprio punto di svolta ha avuto luogo nel 2016, quando sistemi di questo tipo sono diventati accessibile a tutti: l’8 ottobre 2016 Google lancia il proprio traduttore automatico neurale, Systran il 17 ottobre, Microsoft il 15 novembre, e Linguee nel 2018. Sembra che questa tecnologia, sfruttando i progressi della disciplina dell’apprendimento automatico, sia in grado di produrre traduzioni molto più accurate degli altri sistemi automatici e paragonabili alla traduzione umana. Ma come funziona?

 

Per cominciare, la traduzione automatica neurale (Neural Machine Translation, o NMT) rappresenta un’evoluzione dell’architettura corpus-based. Come quest’ultima, infatti, la traduzione automatica neurale ha come punto di partenza dei corpora di frasi allineate con le rispettive traduzioni, avvalendosi, però, di un approccio computazionale completamente diverso, che si fonda sulle reti neurali.

 

Una rete neurale è una rappresentazione artificiale della conoscenza composta da migliaia di unità, o nodi, ispirate al funzionamento dei neuroni. Ad ognuno di questi nodi corrisponde un concetto e si trova in una posizione ben precisa, individuabile mediante dei vettori: come oggetti in una stanza, ognuno dei concetti occupa un proprio spazio ed è posto in relazione con gli altri concetti circostanti, vicino a quelli ad esso più simili e a questi collegato secondo nessi prestabiliti.

 

Tali reti neurali vengono sovrapposte ai diversi codici linguistici. Questo avviene, innanzitutto, durante una prima frase di addestramento, o training: le reti neurali imparano ad analizzare qualunque testo di partenza per formare delle cosiddette rappresentazioni distribuite, ossia degli insiemi di valori che attivano gruppi di neuroni rilevanti, da far poi corrispondere a una versione nella lingua di arrivo. Inizialmente, dunque, le reti neurali imparano a istituire collegamenti fra una lingua e l’altra, prendendo come esempio delle versioni standard di riferimento, idealmente prodotte da traduttori professionisti. In questo modo, il sistema neurale apprende a calcolare accuratamente ogni connessione. La loss function, o funzione di errore, descrive la distanza fra gli output della TA e la traduzione di riferimento. Durante questa stadio, gli algoritmi incaricati all’addestramento applicano ripetutamente delle correzioni, o updates, che riducono sempre più la funzione di errore.

 

L’architettura neurale più frequente, chiamata sequence to sequence (o seq2seq), è molto simile a quella della funzione di completamento automatico del testo delle tastiere degli smartphone. Il processo di traduzione avviene in due fasi: encoding e decoding.

 

Nella prima fase, l’encoder crea una rappresentazione di ogni parola della frase nel suo contesto, scomponendo ogni frase del testo iniziale. Ognuna di queste rappresentazioni si “fonde” con quella della parola successiva, creando una nuova rappresentazione: questo processo è applicato ripetutamente creando degli output che vengono di volta in volta riutilizzati. Il sistema impara a ricordare solamente gli output che si rivelano utili e rilevanti, mentre dimentica gli altri. Nella seconda fase, il decoder assegna a ogni rappresentazione delle parole che, con un certo grado di probabilità, costituiscono la corretta continuazione di quanto scritto in precedenza, basandosi sia sulla posizione della parola nella frase di arrivo sia sulle sue relazioni all’interno del codice linguistico di arrivo. In questo modo, il sistema di traduzione neurale apprende automaticamente le rappresentazioni distributive per ogni parola, parte di frase o unità inferiori alla parola, anche in riferimento alle precedenti e alle successive. A parole semanticamente simili vengono assegnate rappresentazioni simili.

 

La diffusione dei sistemi di NMT ha messo in discussione l’egemonia delle architetture statistiche. Quando Google, nel 2016, ha presentato il proprio servizio di traduzione, ha reso disponibili anche alcuni dati circa la valutazione dell’output effettuata elaborati da traduttori umani, sostenendo di aver messo fine al divario qualitativo fra traduzione umana e automatica. Come nell’architettura statistica, l’output è generato su base probabilistica durante la una fase di decoding, ma il vantaggio della NMT è che, nel farlo, valuta ogni parola del testo di arrivo facendo riferimento non solo al testo di partenza, ma anche al contenuto precedente e successivo del testo di arrivo – in altre parole, considera il co-testo. Il testo così prodotto risulta, tendenzialmente, molto più scorrevole.

 

Grazie, dunque, ai cospicui investimenti per la ricerca in questa direzione, intrapresi soprattutto da parte di grandi imprese multinazionali, la traduzione automatica, oggi diventata neurale, genera risultati non di molto inferiori rispetto a quelli di un traduttore professionista, con tempi (e costi) straordinariamente ridotti. Inoltre, il fatto che le moderne tecnologie, a partire dal 2016, si basano sul sistema delle reti neurali fa sì che, tramite gli strumenti dell’intelligenza artificiale, possano imparare dai propri errori nel momento stesso in cui vengono utilizzate. In questo modo, gli output forniti dal sistema diventano sempre più scorrevoli e comprensibili per il lettore, risultando in una maggiore accuratezza. Sebbene questo possa far sembrare il lavoro di post-editing superfluo, in realtà alcuni studi hanno dimostrato che a maggiore scorrevolezza del testo non corrisponde sempre una maggiore adeguatezza e rispondenza del significato.

 

Si può dunque affermare che i risultati della NMT sono migliori di quelli prodotti dalle architetture statistiche? Le misurazioni effettuate con valutazioni dirette, sia soggettive che automatiche, hanno riportato risultati ottimali e di gran lunga migliori rispetto ai sistemi precedenti. Infatti, pur essendo un sistema di TA molto recente, la NMT è già utilizzata in moltissimi sistemi di traduzione online e usato per scopi interni nelle grandi aziende (come Booking.com). L’evoluzione delle tecnologie traduttive ha senza dubbio incrementato la produttività e la qualità della traduzione in diversi settori, oltre ad essere fondamentale nella comunicazione internazionale sia di privati che di specialisti, aziende, organizzazioni e molti altri.

 

Se, perciò, una macchina è in grado di fare tutto ciò, quale futuro si prospetta per quanti lavorano come traduttori? Tale progresso tecnologico non impone – per ora – la scomparsa di questa professione dal mondo del lavoro, quanto un adattamento. Già da tempo, ormai, la maggioranza dei traduttori si avvale di strumenti per la traduzione assistita, ovvero gli strumenti CAT (computer-aided translation): non è nuovo, quindi, il binomio fra tecnologia e lavoro umano per quanto riguarda questo settore. L’errore sarebbe considerare queste due possibilità come alternative, perché, invece, l’una non esclude l’altra. Avviene, anzi, l’opposto: le tecnologie aiutano a velocizzare e rendere più efficiente il lavoro del professionista, e, viceversa, gli studi di linguisti e teorici della traduzione sono indispensabili per la messa a punto di sistemi di traduzione, mentre i traduttori controllano l’input o l’output generato da questi sistemi e lo modificano per renderlo più adeguato. È necessario che i traduttori acquisiscano questa consapevolezza e, soprattutto, che si adeguino ai tempi nuovi e alle tecnologie della traduzione proprie della quarta rivoluzione industriale.

 

 

Per saperne di più:

Per una concisa spiegazione della disciplina della traduzione automatica, si consiglia, in italiano, Bersani Berselli, G., & Gaspari, F. (2012). Usare la traduzione automatica. Bologna: CLUEB. In inglese, invece, si può trovare una trattazione esauriente dell’argomento sfogliando Sin-Wai, C. (ed.) (2014). The Routledge Encyclopedia of Translation Technology. Londra: Routledge. e Nirenburg, S., Somers, H., & Yolks, Y. (2003). Readings in Machine Translation. Cambridge, Massachussets: The MIT Press. Infine, se si è interessati alla traduzione automatica nella sua applicazione letteraria, potrebbe risultare stimolante la lettura di Grillo, M. (Ed.). (2016). Charter in delirio! – Un esperimento con i versi di Emily Dickinson – Testi scelti con traduzione automatica a fronte. Roma: Elliot.

 

Immagine: Artificial digital neural network. Blockchain technology. 3d illustration of the information concept of future on a dark background. Crediti: Yurchanka SiarheiShutterstock.com

© Istituto della Enciclopedia Italiana - Riproduzione riservata

0