Maschinelle Übersetzung

Computer-aided Human Translation ⇐⇒ Human-aided Machine Translation

Maschinelle Übersetzungssysteme übertragen einen Ausgangstext automatisch und ohne direkte Mitwirkung eines Fachübersetzers in eine Zielsprache. Diese Rohübersetzung wird im Nachgang von speziell qualifizierten Fachlektor(inn)en, so genannten Post-Editor(inn)en korrigiert und überarbeitet. Gegenwärtig wird zwischen statistischer und regelbasierter Maschinenübersetzung (MÜ|MT) sowie neuronaler Maschinenübersetzung (NMT|NMÜ) unterschieden.

Regelbasierte maschinelle Übersetzungssysteme analysieren und übersetzen einen Ausgangstext anhand von umfangreichen Wörterbüchern und grammatischen Regelwerken. Je ausgefeilter die linguistischen Regelsysteme für das jeweilige Sprachenpaar sind und je spezieller und umfangreicher das Fachvokabular in den Wörterbüchern ist, desto präziser ist das Endergebnis im Hinblick auf korrekte Lexik, Grammatik und Syntax, inhaltliche Richtigkeit sowie allgemeine Verständlichkeit. Stil und Duktus bleiben dabei jedoch recht mechanisch und wirken oft konstruiert. Diese Methode und ihre Hybridformen bilden die Grundlage für stationäre Softwareanwendungen wie z.B. Apertium, Systran®, Promt® oder Babylon®.

Statistische maschinelle Übersetzungssysteme beruhen auf einem großen und möglichst breitgefächerten Textkorpus bereits vorhandener Texte für ein Sprachenpaar. Diese zweisprachigen Satzdatenbestände werden nach rein quantitativen Methoden einer statistischen Analyse hinsichtlich Häufigkeit und Übereinstimmung unterzogen und mit dem zu übersetzenden Text abgeglichen. Aufgrund der ermittelten statistischen Annäherungswerte werden die ähnlichsten Satzfragmente zu einer Übersetzung kombiniert. Obgleich die Trefferraten mit dem Anwachsen der Satzdatenbestände tendenziell zunehmen, scheint die Übersetzungsqualität ab einem bestimmten Referenztextvolumen wieder zu sinken, da die ermittelten Übereinstimmungen dann zu diffus und beliebig werden.

Statistische Maschinenübersetzungen sind zumeist stilistisch eingängig und relativ flüssig lesbar, dafür jedoch häufig unvollständig und inhaltlich irreführend, da oft die syntaktischen Bezüge fehlerhaft wiedergegeben werden und nicht die korrekten Ausdrücke und Fachbegriffe verwendet werden. Diese Methode ist charakteristisch für Online-Übersetzungsanbieter wie z.B. Google Translate®, KantanMT®, Asia Online® oder Yandex Translate®.

Neuronale Übersetzungssysteme kombinieren die Bestandteile einer Sprache nach dem Prinzip der qualitativen Ähnlichkeit. Sie analysieren begriffliche Kontexte von Sprachelementen in großen Textkorpora unter Einsatz von Deep-Learning-Algorithmen. In mehreren neuronalen Verarbeitungsschichten wird mit diesem statistischen Verfahren ein abstraktes Sprachmodell erstellt, das sich auf eingegebene Texte übertragen lässt. Die Anwendung und Ausgabe dieses „gelernten“ Modells in der Zielsprache erfolgt nach dem Wahrscheinlichkeitsprinzip.

Aufgrund der erforderlichen Rechenleistung laufen neuronale Übersetzungssysteme auf Hochleistungsservern mit leistungsstarken Grafikprozessoren, die über das Internet verfügbar sind.

Derzeit gibt es zwei verschiedene neuronale Übersetzungssysteme: Zum einen Recurrent Neural Networks (RNN), deren Entwicklung Ende 2014 im Zuge der Spracherkennungsforschung begann, und zum anderen Convolutional Neural Networks (CNN), die sich aus den Deep-Learning-Ansätzen der maschinellen Verarbeitung von Bild- und Audiodaten entwickelten.

Der Unterschied zwischen diesen beiden neuronalen Übersetzungsverfahren besteht in der Struktur der zugrunde liegenden Trainingsdaten. Während Convolutional Neural Networks eine feste Menge morphologischer Wordfragmente parallel auf vielen Schichten verarbeiten, verwenden rekurrente Netze ein sequenzielles Verfahren mit beliebig langen Eingaben auf der Grundlage ganzer Wörter.

Mit beiden NMT-Verfahren lassen sich deutlich überzeugendere Übersetzungsergebnisse erzielen, als mit allen bisherigen Übersetzungsmaschinen. Kurze Sätze mit begrenztem Vokabular werden flüssig, lexikalisch korrekt und idiomatisch nahezu einwandfrei übersetzt. Komplexe Satzstrukturen, Fachterminologie und Wörter mit sehr niedriger Auftretenshäufigkeit hingegen werden auch von neuronalen Übersetzungsmaschinen nicht adäquat wiedergegeben. Wie schon bei früheren statistischen MT-Verfahren treten auch bei der neuronalen Maschinenübersetzung lexikalische Fehlinterpretationen, Inkonsistenzen, Auslassungen und inkorrekte Satzbezüge auf.

Daher gehen die Anbieter von Übersetzungsmaschinen gegenwärtig dazu über, intelligente Hybridlösungen anzubieten, die regelbasierte und statistische Übersetzungstechnologien mit einem neuronalen Netzwerk kombinieren. Zu den Anbietern regelbasierter RNN-Übersetzungsmaschinen gehören u.a. Personal Translator® und Systran Pure Neural Machine Translation®. Statistische RNN-Übersetzungsmaschinen werden beispielsweise von Microsoft Translator® und Google Translate® eingesetzt. Anbieter wie DeepL® und Facebook® setzen demgegenüber maschinelle Übersetzungstechnologien ein, die auf Convolutional Neural Networks beruhen.

Weitere Informationen zu Technologien, die für Übersetzungen verwendet werden:

Für eine ausführliche Fachberatung stehen wir Ihnen gern zur Verfügung.

valid ISO-Qualität und -Sicherheit

Optimierte Produktionsabläufe Erfahrene ProjektleiterInnen in unserem Hause übernehmen die Vorbereitung der Texte sowie das komplette Termin-Management und sind zuverlässige Ansprechpartner für unsere Kunden.

Unser Qualitätsmanagement ist nach ISO 9001 zertifiziert, unser Informationssicherheitsmanagement ist konform zu ISO 27001.

tuv-logo iso-logo

folderReferenzen

Führende Unternehmen nutzen unseren Service seit vielen Jahren:

  • Industrie
  • Technologie
  • IT
  • Chemie/Pharma
  • Medien
  • Consulting
  • Handel
  • Finanz
  • Logistik
  • Wissenschaft
  • Organisationen
  • Dienstleistung
zappmedia Referenzen