Deel dit artikel

google translate en andere online vertaaltools zijn bijzonder nuttig en haast onmisbaar in onze meertalige, geglobaliseerde samenleving. maar de kwaliteit van een vertaling door een machine is dikwijls ondermaats en doet vaak geen recht aan het origineel. een van de grootste hindernissen daarbij is de ambiguïteit van de taal zelf. computerwetenschappers en linguïsten zijn daarom genoodzaakt om de vertaaltools voortdurend te verfijnen.

Lost in machine translation

Elke Brems

Een van de bekendste dichtregels in de Britse poëzie is deze van Alfred Lord Tennyson: ‘’T is better to have loved and lost than never to have loved at all’. Wanneer je die regel door Google Translate jaagt, krijg je dit: ‘Het is beter om geliefd en verloren te zijn dan nooit helemaal van te hebben gehouden’ (bezocht op 31 januari 2018 – al kan de vertaling intussen al veranderd zijn; machinevertalingen evolueren en verbeteren voortdurend). Het is natuurlijk geen eerlijke strijd: poëzie versus Google Translate, dat spreekt voor zich. Als het adagium van Robert Frost luidt dat ‘poetry is what gets lost in translation’, dan geldt in het kwadraat: ‘poetry is what gets lost in machine translation’. Maar er is meer aan de hand dan het verlies van het poëtische: we zien hier een goed voorbeeld van een van de grootste hindernissen voor machinevertaling: de ambiguïteit van taal. ‘To have loved’ wordt hier vertaald als ‘geliefd te zijn’, maar in feite staat er in het Engels het omgekeerde: ‘liefgehad te hebben’. Het systeem heeft uit beide mogelijkheden de verkeerde gekozen. Een bekend voorbeeld in de literatuur over ambiguïteit en machinevertaling is de zin ‘the chicken is ready to eat’: vooral voor de kip in kwestie is het belangrijk dat ze weet of ze gaat eten of gegeten worden. Vaak is uiteraard de context de manier bij uitstek om taaluitingen van hun dubbelzinnigheid te ontdoen. Maar die is er lang niet altijd wanneer je bijvoorbeeld Google Translate gebruikt. Zelf zocht ik eens het Engelse woord voor ‘tochtrol’ (een rol die je tegen de deur legt om de tocht tegen te houden) en ik kreeg een ‘nevertheless troll’ (een trol tegen wil en dank zeg maar). De computer wist niet dat ik mijn zoekopdracht niet deed in de context van een fascinatie voor kabouters maar in de context van een te brede spleet onder de voordeur.

Nu kun je wel veel plezier beleven aan de rare fratsen van Google Translate en andere, toch zijn die online tools vaak bijzonder nuttig en zelfs haast onmisbaar voor ons functioneren in een meertalige, geglobaliseerde samenleving. Er wordt ook veel geld tegenaan gegooid. Op dit moment loopt er bijvoorbeeld in de Verenigde Staten het grote onderzoeksprogramma MATERIAL, wat staat voor Machine Translation for English Retrieval of Information in Any Language. Dat programma wordt gefinancierd en geleid door IARPA (The Intelligence Advanced Research Projects Activity) dat van zichzelf zegt dat het investeert in ‘high-risk, high-payoff research programs to tackle some of the most difficult challenges of the agencies and disciplines in the Intelligence Community’. Met andere woorden: het gaat om ‘intelligence’, wat hier niet vertaald moet worden als ‘intelligentie’, maar als ‘inlichtingen’ (denk aan de CIA). Vanuit het bovengenoemde programma wordt nu onder meer een groot onderzoek gefinancierd naar het ontwikkelen van een geautomatiseerde tool om informatie te vertalen en samen te vatten vanuit ‘obscure languages’, wat ik hier zal vertalen als ‘onbekende talen’, al kun je andere, meer ideologisch gekleurde connotaties mijns inziens niet onder de mat vegen. Met die onbekende talen worden in dit proefproject Swahili en Tagalog bedoeld. Dat zijn niet bepaald kleine talen wereldwijd, maar er bestaat relatief weinig geschreven materiaal in die talen en dat maakt het nu net zo moeilijk voor machinevertaling, want vertaaltools ‘leren’ uit de input van miljoenen geschreven teksten.

De idee dat de mensheid in verwarring leeft doordat we verschillende talen spreken is een mooi uitgangspunt voor de vertaalwetenschap

In feite zou het probleem ‘vertaling’ het meest bevredigend opgelost zijn als we allemaal dezelfde taal spraken. Die gedachte blijft op de achtergrond van de vertaalwetenschap – een discipline die sinds de jaren 1970 steeds groter en invloedrijker wordt – een rol spelen: Babel is een belangrijke metafoor in die discipline. De idee dat de mensheid in verwarring leeft doordat we verschillende talen spreken is een mooi uitgangspunt voor de vertaalwetenschap: het stelt een probleem waarover we vanuit heel heterogene invalshoeken kunnen reflecteren en oplossingen trachten te bieden. Het ideaal van een gemeenschappelijke taal werd in de zeventiende eeuw al door de filosofen Gottfried Wilhelm Leibniz en René Descartes geschetst. Descartes meende dat het een goed idee zou zijn om woorden te vervangen door codes zodat je van daaruit in alle talen kon vertalen. Er werden toen ook diverse pogingen ondernomen om zo’n numeriek woordenboek op te stellen, maar veel praktisch nut heeft dat niet opgebracht. Succesvoller was het bedenken van een artificiële taal zoals het Esperanto in de negentiende eeuw, door de Poolse arts-uitvinder Ludwik Zamenhof. Ook daar lag het idee aan ten grondslag dat de Babelse vloek van de meertaligheid opgeheven moest worden.

Als de droom van een eentalige wereld te hoog gegrepen is, dan moeten er andere manieren zijn om de communicatie tussen de verschillende talen te vergemakkelijken. Vóór de uitvinding van de computer was het idee van een mechanische vertaler grotendeels overgeleverd aan het brein van gedreven uitvinders-onderzoekers van wie de projecten nu hoonlachend door de subsidiegevers in de vuilnisbak zouden worden gekieperd. Een van die pioniers was de Frans-Armeense ingenieur Georges Artsruni die in juli 1933 een patent aanvroeg op een mechanisch brein. Het toestel was zeker niet uitsluitend bedoeld als hulp bij het vertalen, maar moest vooral dienen als een manier om informatie te stockeren en te raadplegen. Artsruni zelf zag de vertaaltoepassing ervan als een van de meest veelbelovende. Op een ponskaart werd een gecodeerd woord bewaard met zijn vertalingen. Als je via een soort toetsenbord het woord ingaf dat je zocht, kon de machine de vertaling ervan afleveren.

Warren Weaver zag vertalen als een cryptografische kwestie: een tekst is gecodeerd in symbolen en je kunt die met de juiste sleutel dan ook decoderen

Na de Tweede Wereldoorlog, toen het onderzoek naar computers een hoge vlucht nam, werd machinevertaling meteen beschouwd als een van de belangrijkste toepassingen. De Amerikaanse wiskundige Warren Weaver, een van de grondleggers van de machinevertaling, kwam tot het inzicht dat je vertalen kunt zien als een cryptografische kwestie: een tekst is gecodeerd in symbolen (namelijk een jou onbekende taal) en je kunt die met de juiste sleutel dan ook decoderen. In 1949 schreef hij een korte nota, die ‘Translation’ heette, en die lang erg invloedrijk is gebleven. Hij zag ook wel in dat woord-voor-woordvertaling een veel te grote foutenmarge had, en dat je puur met het toepassen van een tweetalig woordenboek niet ver geraakte, kwalitatief gezien. Hij besefte dat ambiguïteit een van de grootste uitdagingen is voor automatische vertalingen en zag de oplossing in het mee in rekening brengen van de context van een woord, een aanpak die ook nu bij machinevertaling nog erg belangrijk is.
Toch onderschatte Weaver het probleem van de ambiguïteit; de wiskundige meende dat dit vooral een kwestie was van zelfstandige naamwoorden, adjectieven en werkwoorden en dan nog zeker niet bij allemaal. Dat ambiguïteit de natuurlijke talen ten gronde bepaalt, drong nog niet door, noch dat je dan met je cryptografische aanpak weinig zoden aan de dijk zet.

De Koude Oorlog maakte de vraag naar vertalingen vanuit ‘vreemde talen’ naar het Engels acuut. Amerikaanse onderzoekers zagen hun kansen op financiering stijgen als zij zich richtten op het automatiseren van vertalingen van het Russisch naar het Engels. Om geldschieters warm te maken organiseerde een onderzoeksteam van Georgetown University in 1954 samen met het bedrijf IBM een publieke demonstratie. Er werd een machine, de ‘701’, aangesleept die 49 Russische zinnen naar het Engels kon vertalen. Daartoe gebruikten de onderzoekers een tweetalig woordenboek met 250 woorden en ze pasten ook zes grammaticale regels toe. De media-aandacht was aanzienlijk, tot in onze contreien toe. Op de onvolprezen Nederlandse krantendatabank Delpher kun je echo’s vinden van dat evenement, bijvoorbeeld in De Volkskrant van 2 oktober 1954 die kopte: ‘Jezuïeten van Georgetown bouwden vertaalmachine’ en opende met de zin: ‘Het is wel erg “Amerikaans” om een verhaal over een eerbiedwaardige katholieke onderwijs-instelling grotendeels te wijden aan een machine.’ De schrijver van het artikel, erg onder de indruk, probeerde in bevattelijke termen aan de lezer uit te leggen hoe bijzonder ingewikkeld de ganse onderneming was. Het hele concept van de computer was de meesten uiteraard nog vreemd: ‘deze elektronische hersens kunnen alleen maar doen wat hun precies ingeprent is’, meldde de journalist. Zo moest je de machine, als die van Nederlands naar Engels zou kunnen vertalen, bijvoorbeeld aanleren ‘dat de naam Klaas, als er Jan en Piet aan voorafgaat, vertaald moet worden door (Tom, Dick and) Harry’. Dat sluit goed aan bij Weavers idee dat je de nabije context moet betrekken als je een woord vertaalt. We vernemen verder ook nog uit het artikel dat het hoofd van de afdeling linguïstiek zeer voorzichtig en bescheiden was, maar dat IBM pronkte met de ‘daverende reclamezin’: ‘Met een paar 701’s bij de hand zou de Toren van Babel misschien afgebouwd zijn.’ Waarbij de journalist zichzelf niet bepaald als een getalenteerd vertaler van reclameslogans liet zien.

Alles bij elkaar genomen en ondanks het aanvankelijke enthousiasme was het experiment uiteindelijk een mislukking: de taak waar de ‘701’ voor stond was zo ver verwijderd van wat een echt operationeel vertaalsysteem zou moeten kunnen dat onderzoekers in de loop van de jaren 1950 en 1960 veeleer gedemotiveerd raakten om verder te werken aan computervertaling. De ‘701’ toonde vooral aan hoe bijzonder complex vertaling wel is. Ook de enorme ontwikkelingskost deed het onderzoek in het slop belanden. In 1966 verscheen op vraag van de subsidieverstrekkers in de Verenigde Staten het invloedrijke ALPAC-rapport, waarin, om kort te gaan, experten onderzochten of het wel zinvol was om zoveel geld te steken in het onderzoek naar machinevertaling. Nee, zo luidde het besluit: het was veel handiger als de ‘consumers’ gewoon zelf Russisch zouden leren: mensen waren sneller en goedkoper. Het rapport schreef ronduit dat men er zich niet moest mee bezighouden ‘to meet some nonexistent need through nonexistent machine translation’. In de Verenigde Staten werd de nood ook minder hoog gevoeld dan in meertalige contexten, zoals bijvoorbeeld in Canada. Toen de Amerikaanse onderzoekscentra sloten, werd er in Montreal eentje geopend (TAUM) waar ze in de jaren 1970 een systeem ontwikkelden, Météo geheten, dat de weerberichten in Canada in het Frans en het Engels vertaalde (al naargelang de regionale herkomst en bestemming). Dat systeem werkte erg goed en bleef operationeel tot 2002. Uiteraard gaat het bij weerberichten om een heel beperkte woordenschat en een vaste set formuleringen, die maakten dit experiment zo succesvol. Ook in de groeiende Europese Unie werd de nood aan vertalingen prangend. De EU ging in zee met het Amerikaanse bedrijf Systran, dat in 1968 gesticht was door Peter Toma van de Georgetowngroep. De samenwerking met de Europese Unie legde het bedrijf bepaald geen windeieren. Ook nu nog is het een van de allergrootste spelers op de vertaalmarkt.

In de jaren 1980 en 1990 kreeg het onderzoek naar machinevertaling een nieuwe boost door de sterke toename van zogenaamde parallelle corpora. Met die aanpak maakte men de overstap van regelgebaseerde machinevertaling naar statistische machinevertaling. Parallelle corpora zijn grote verzamelingen van bronteksten in één taal en hun vertalingen in een andere taal. Die teksten kunnen dan worden gealigneerd: je zet de bij elkaar horende zinnen of paragrafen naast elkaar. Dat klinkt makkelijker dan het is. Om een systeem die taak te laten volbrengen (zonder dat het de talen ‘kent’), wordt meestal uitgegaan van het criterium van de zinslengte. Natuurlijk heeft niet iedere taal even lange zinnen, maar de verhouding is wel vaak regelmatig. Zo heeft onderzoek uitgewezen dat Franse zinnen gemiddeld 1,2 keer langer zijn dan Engelse. Bovendien volgen vertalingen vaak vrij trouw de opdeling in zinnen van het origineel en ook de volgorde van de zinnen in een tekst. Het alignatiesysteem probeert dus, met die marges in het ‘achterhoofd’, aan elke zin uit de brontekst een zin te koppelen uit de vertaling. Als er gaten blijven, gaat de machine over tot asymmetrisch aligneren (bijvoorbeeld één zin verbinden met twee of meer zinnen). Een andere manier om zinnen uit twee talen met elkaar te verbinden is de lexicale aanpak: vaak blijven bijvoorbeeld eigennamen of getallen in de vertaling eenvoudigweg staan en kun je de zinnen zo met elkaar verbinden (twee zinnen met de naam ‘Trump’ erin bijvoorbeeld worden dan parallel geplaatst). Veel ingewikkelder nog wordt het als je een tekst wil aligneren op woordniveau, niet voor een mens die beide talen kent, maar wel voor een computer. Je moet het je inbeelden alsof je twee voor jou volkomen onbekende talen, bijvoorbeeld Fins en Koreaans, voor je krijgt en je moet beslissen welk woord met welk woord overeenstemt. Voor een computer kan in de zinnen ‘Ik eet een appel/Je mange une pomme’ het woord appel zowel vertaald moeten worden door ‘je’, als door ‘mange’, ‘une’ of ‘pomme’. De oplossing ligt in de statistiek. Als een systeem gevoed wordt met heel veel parallelle teksten die al gealigneerd zijn op zinsniveau, kan het berekenen welke woorden statistisch gezien de meest waarschijnlijke vertaling zijn van een ander woord. Het was IBM dat in een zeer invloedrijk onderzoeksartikel uit 1993 het model voor het aligneren op woordniveau voorstelde. Nog steeds worden verbeterde en aangepaste versies van die modellen gebruikt in machinevertaling.

Als een systeem gevoed wordt met veel parallelle teksten die al gealigneerd zijn op zinsniveau, kan het berekenen welke woorden statistisch gezien de meest waarschijnlijke vertaling zijn

Een belangrijke verbetering ligt in iets wat misschien niet voor computerwetenschappers maar wel voor linguïsten evident is: het toevoegen van syntaxis en semantiek. Bij een woord-voor-woordvertaling houd je immers helemaal geen rekening met hoe een zin in elkaar zit en wat een woord eigenlijk betekent, in feite kun je zeggen dat je geen rekening houdt met het feit dat je met taal bezig bent. Aan de modellen moet dan een zogenaamde parser worden toegevoegd, een werktuig om de syntaxis van een zin mee te ontleden. Dat kan helpen om woorden te aligneren, denk maar aan een zin als ‘Ik heb gisteren een appel gegeten/I ate an apple yesterday’, waarbij in het Nederlands ‘heb’ en ‘gegeten’ heel ver uiteen staan (de bekende tangconstructie) maar toch samen de vertaling zijn van ‘ate’. Ook semantische informatie toevoegen lijkt heel zinvol: als je data over synoniemen toevoegt bijvoorbeeld, kan de computer beter beslissingen nemen over welke betekenis van welk woord op een bepaald moment moet worden gekozen. Voor een zin als ‘de oude man zat op de bank’ zal de computer dan vinden dat ‘bank’ als synoniemen zowel ‘zetel’ als ‘kredietinstelling’ heeft. Maar de zin ‘de oude man zat op de kredietinstelling’ zal hij in zijn corpusgegevens veel minder vaak vinden dan ‘de oude man zat op de zetel’, dus zal hij wellicht voor zetel kiezen. Hoewel zowel de syntactische als de semantische aanvulling op het lexicaal aligneren vanuit linguïstisch perspectief voor de hand liggen, loopt het onderzoek ernaar nog volop en heeft het vooralsnog niet tot een aanmerkelijke verbetering van de vertaalresultaten geleid.

Het is belangrijk om op te merken dat vele van de huidige online beschikbare vertaaltools, net door die statistische aanpak, vooral goed werken als Engels erbij betrokken is. Er worden in de wereld meer dan zevenduizend talen gesproken, maar van slechts enkele daarvan zijn genoeg gegevens voorhanden om er een werkbare en betrouwbare vertaaltool op los te laten. Om alvast het probleem van de vertaling tussen twee kleinere talen op te lossen, wordt, onder meer door Google Translate, gewerkt met het Engels als tussentaal. Dat kan leiden tot vreemde wendingen. Een zekere Frédéric Kaplan meldde op zijn blog het voorbeeld van een vertaling Frans-Italiaans, waarbij de Franse uitdrukking ‘Il pleut des cordes’ in het Italiaans vertaald werd als ‘Piove cani e gatti’. Blijkbaar was het Frans wel eerst herkend als staande uitdrukking en ook zo naar het Engels vertaald (‘It rains cats and dogs’), maar dan vervolgens bij het doorvertalen naar het Italiaans is er woord voor woord vertaald, zodat er in het Italiaans een niet-bestaande uitdrukking verscheen. Het gebruik van Engels als tussentaal heeft tot gevolg dat de dominantie van het Engels weer maar eens versterkt wordt in het wereldtalenstelsel. Niet alleen is er voor kleinere talen minder vertaaltechnische hulp voorhanden, maar bovendien is het zeker niet uit te sluiten dat het Engels ook linguïstisch andere talen begint te beïnvloeden als het als tussentaal fungeert. Algemener is er bij machinevertaling zeker een gevaar voor taalverarming. Idiomatisch taalgebruik wordt vaker weggefilterd, waardoor er ‘internationale’ of ‘machinevarianten’ ontstaan van talen die minder taalspecifieke uitdrukkingen en minder kleurrijke of beeldrijke taal gebruiken.

De meest recente ontwikkeling in machinevertaling is ‘neurale machinevertaling’, gebaseerd op neurale netwerktechnologie en ‘deep learning’. Het grote verschil met statistische machinevertaling is dat deze vertaalsystemen gebruikmaken van kunstmatige neurale netwerken die de werking van onze hersenen nabootsen en in staat zijn om verbanden te leren zien tussen woorden die in een zin verder van elkaar staan. Zowat alle grote spelers op de markt (Google, Bing, Facebook, Systran et cetera.) zijn ermee bezig. De techniek staat nog lang niet op punt, maar evolueert dankzij de hedendaagse computers met hun enorme rekenkracht wel razendsnel.

Intussen is machinevertaling een miljardenbusiness geworden; enkele domeinen die er groot belang bij hebben zijn lokalisatie (het aanpassen van software voor verschillende landen en doelculturen), patentaanvragen en – het is hier al vaker gezegd – overheidsdiensten die zich bezighouden met defensie en informatievergaring. Het is niet mogelijk om genoeg mensen in te huren om alle onderschepte boodschappen te vertalen en machinevertaling kan daarbij een grote hulp zijn. Vele overheden gaan in zee met commerciële partners om bij die taak te helpen en systemen te ontwikkelen die zeer flexibel zijn zodat de vertaaltool mee kan fluctueren met de wisselende internationale relaties en spanningen. De CEO van Systran, Dimitris Sabatakakis, heeft gezegd dat zijn bedrijf niet zou bestaan zonder de Amerikaanse informatiediensten.

Toch geldt nog steeds dat de kwaliteit van een vertaling die door een machine gemaakt wordt meestal ondermaats is. Je kunt er wel een indruk mee krijgen van de inhoud van een bepaald document in een taal die je niet beheerst en dat werkt vaak erg goed, maar je krijgt zelden een volledig bruikbare tekst in de vertaling. De Europese commissie, voor wie vertaling een heel belangrijke ideologische pijler is omdat ze meertaligheid en de gelijkheid van talen hoog in het vaandel voert, maakt daarom bijvoorbeeld maar voor vijf procent van haar vertalingen gebruik van machinevertaling. Daar is het namelijk erg belangrijk dat elke taal op een even kwalitatieve manier gebruikt wordt en dat elke taal tot zijn recht kan komen. En voorlopig doet machinevertaling vaak geen recht aan een taal, ook al kunnen er zeker communicatieve moeilijkheden mee worden overwonnen. Het vertalersberoep blijft in onze samenleving, met haar globale ambities en lokale verzuchtingen, erg belangrijk, maar het wordt cruciaal dat net vertalers vertrouwd zijn met de snel evoluerende technologische hulpmiddelen die tot hun beschikking staan. Alleen literaire vertalers kunnen zich nog technofobie veroorloven.

Thierry Poibeau, Machine Translation. (Cambridge: MIT Press, 2017).

Dank aan Isabelle Delaere voor het deskundig nalezen van deze bijdrage.

Elke Brems is bestuurder van de onderzoekseenheid Vertaalwetenschap van de KU Leuven.

Deel dit artikel
Gerelateerde artikelen