Zum Inhalt springen

Kategorie: Technologien



Rezension: Das Internet muss weg. Von Schlecky Silberstein

Dieses Buch von einem Internet-Insider lässt den Leser nicht gleichgültig. Der Titel ist natürlich überspitzt, ganz im Sinne der neuen Kommunikationsformen, die in den sozialen Medien und im Internet herrschen. Der Autor, der sich seit dem Jahr 2010 als Blogger seine Sporen verdient hat, ist mit dem Geschehen in den sozialen Medien bestens vertraut und informiert uns ausführlich über das, was er das Informationszeitalter nennt. Er schreibt über die Veränderungen, die das Internet für die Kommunikation und auch für die neue Internauten- Generation bringt. Nach der Lektüre des Buches wird niemand mit den gleichen Gefühlen in den sozialen Medien unterwegs sein.

Im ersten Abschnitt beschreibt Silberstein, was eigentlich der Motor des Internets ist. Vieles ist ja kostenlos zu haben, schreibt er. Google liefert dem Benutzer Unmengen an Informationen kostenlos, Facebook verlangt keine Mitgliedschaftsgebühr und andere soziale Netzwerke und Plattformen ebenfalls nicht. Da sich sowohl die großen als auch die vielen kleinen Spezialanbieter oder Einzelpersonen finanzieren müssen, stellt sich die Frage, wie sie zu ihren Einnahmen kommen. Und für Silberstein lautet die Antwort: "Wenn es nichts kostet, sind Sie das Produkt". Im Klartext: Viele Anbieter sammeln Informationen über die Besucher und Nutzer ihrer Webseite, und zwar nicht nur die offensichtlichen Informationen, die ein Nutzer freiwillig von sich gibt, etwa sein Alter oder Geschlecht, sondern Informationen über sein Verhalten und seine Vorlieben. Dank moderner Verfahren der künstlichen Intelligenz, kann relativ schnell ein Profil des Nutzers erstellt werden, das zum Beispiel für den Verkauf von Leistungen an Werbetreibende oder Parteien verwendet wird.

Es ist erstaunlich, was die Kombination bereits weniger Informationen wie die Lieblingsmusik oder die Lieblingskneipe eines Facebook-Mitgliedes über seine Persönlichkeit aussagt.

Damit die Informationen, die soziale Netzwerke oder andere Internet-Akteure wie Unternehmen, Organisationen oder Zeitungen über Leute sammeln für Abnehmer interessant sind, müssen sie möglichst umfangreich und aktuell sein. Dies erklärt u.a. auch die heutige provokative Form des Journalismus. Manchen ist schon mit Unbehagen aufgefallen, dass zum Beispiel Nachrichtenüberschriften immer provokanter und gleichzeitig inhaltslos werden. Ein Beispiel: "Weltraum-Kommando: Von der Leyen will ins All" (Bild, 04.09.2018). Der Leser muss dazu verleitet werden, auf den Link zu klicken und entsprechend auf die Information zu reagieren. Likes und Kommentare sind für die Betreiber wertvoll und veredeln das Produkt "Benutzerprofil". Je mehr Interaktion, desto besser. Auch "Fake News" gehören zu dieser Kategorie. Sie verstärken die Ansichten der einen Gruppe, während sie die Gegenseite zu einer Reaktion herausfordern.

Die schnell wachsende Rolle von sozialen Netzwerken und von Kommunikationsformen wie WhatsApp oder andere Messenger-Dienste bleibt nicht ohne Einfluss auf die technische Kommunikation. Der Benutzer gewöhnt sich an eine "Chat-artige" Kommunikation und verlernt ausführlichere und gründlichere Kommunikationsformen.

Nicht alles, was Silberstein schreibt, ist für die Arbeit von Redakteuren relevant, aber das Buch ist gut recherchiert und liefert dem Leser wertvolle Beispiele und Informationen über das Geschehen im Internet.

Maschinelle Übersetzung: Jetzt oder Später?

"Kernseife = nuclear soap". Die Zeit, als Google derart lustige maschinelle Übersetzungen (MÜ) bereitstellte, ist längst passé. Heute müssen selbst die schärfsten Kritiker von MÜ zugeben, dass die Ergebnisse deutlich besser geworden sind, wenn auch i.d.R. zusätzliche Bearbeitungsschritte notwendig sind, um sie weiter zu verwenden. Warum tun es sich also die Unternehmen schwer, bereits heute MÜ-Systeme auf breiter Basis einzuführen? Manche Versprechen sagen ja traumhafte Produktivitätssteigerungen und Einsparungen voraus.

Die Antwort ist eine Kombination unterschiedlicher Gründe. Wenn alle Fakten und Erfahrungswerte klar und deutlich auf dem Tisch lägen, wäre die Entscheidung für oder gegen MÜ bedeutend leichter zu fällen. Man wüsste, welches Ergebnis zu erwarten wäre, wie hoch die Investitionen in Hardware, Software und Arbeitszeit wären und könnte abwägen, ob die Investition sinnvoll ist. Obwohl bereits sehr viel zu diesem Thema publiziert worden ist, fehlt vielen Entscheidern eine Art Leitfaden, wie sie die Einführung von MÜ in ihrem Unternehmen angehen können. Wir versuchen hier, die wesentlichen Punkte darzulegen.

Als erstes ist es wichtig, sich ein klares Bild von den Zielen zu machen, die man mit MÜ erreichen möchte. Geht es primär um Kosteneinsparungen, um Zeitgewinn oder um die Bewältigung von Informationsmengen, die mit Humanübersetzern nicht zu schaffen sind, um nur einige der möglichen Ziele zu nennen.

Wenn es um die Kosten geht, ist es zunächst einmal wichtig, die richtige Vergleichsbasis herzustellen. Auf der einen Seite stehen alle Kosten, die mit dem Aufbau und dem Betrieb eines MÜ-Systems, eventuell in Kombination mit Ausgaben für Post-Editing, zusammenhängen und auf der anderen Seite die Kosten von Humanübersetzern, wenn diese regelmäßig mithilfe von Übersetzungsdatenbanken (Translation-Memorys) übersetzen. Der Einsatz von Translation-Memory-Systemen zusammen mit Redaktionssystemen hat in den letzten Jahren bei vielen Unternehmen bereits zu deutlichen Kosteneinsparungen geführt.

Wenn der Zeitfaktor im Vordergrund steht, muss der Vergleich den Gesamtprozess einbeziehen. Bei der reinen Zeit für die Übersetzung eines Textes ist die Maschine eindeutig im Vorteil. Es ist ja Maschinenzeit. In manchen Situationen reicht das schon, etwa wenn es darum geht, den technischen Support in die Lage zu versetzen, auf Anfragen in Fremdsprachen schneller zu reagieren. Allerdings müsste man korrekterweise die gesamte Bearbeitungszeit für maschinelle Übersetzungen berücksichtigen. Die Maschine muss nicht nur einmal, sondern regelmäßig trainiert werden. Das bedeutet, dass in regelmäßigen Abständen die Ergebnisse von korrigierten Übersetzungen benutzt werden, um das MÜ-System zu optimieren. Ferner kommt der normalerweise erforderliche Zeitaufwand für das Post-Editing der maschinell übersetzten Texte hinzu. Die Aussagen über die Produktivität eines Post-Editors (Spezialist, der maschinelle Übersetzungen prüft) schwanken je nach Qualitätsmaßstab und MÜ-Output stark. Manche Post-Editoren setzen bspw. bei durchschnittlicher MÜ-Qualität und Qualitätsanspruch eine Leistung von max. 5000 bis 6000 Wörtern pro Arbeitstag an.

Ist man sich über die primären Ziele im Klaren, geht es um die konkrete Umsetzung eines MÜ-Vorhabens. In diesem Zusammenhang spielen viele Faktoren eine Rolle:

  •  die Auswahl des Systems und der erforderlichen Hardware-Infrastruktur
  •  die Auswahl und die Organisation von Trainingsdaten
  •  das Entwerfen eines bzw. mehrerer MÜ- Prozesse
  •  der Aufbau qualifizierter Ressourcen für das Post-Editing
  •  die Risikoanalyse

Grundsätzlich fällt die erste Entscheidung zwischen dem kompletten Aufbau eines eigenen MÜ-Systems mit eigener Infrastruktur und der Benutzung des MÜ-Systems eines Marktanbieters, das man mit eigenen Daten trainieren kann. Es gibt am Markt einige Open Source Systeme, die man kostenlos herunterladen kann und die übrigens auch von den meisten kommerziellen Plattformen verwendet werden: Moses (statistisches MÜ), OpenNMT oder TensorFlow NMT (neuronales MÜ). Solch ein System zu installieren ist zwar nicht einfach, aber es liegt wohl im Vermögen der meisten IT-Mitarbeiter eines Unternehmens, sodass das System selbst nicht das Problem ist. Vielmehr liegen die Herausforderungen bei der Anpassung des Basissystems und bei der Hardware, denn das Trainieren von Modellen geht mit enormen Rechnerleistungen einher. Die Konfiguration und die Erweiterung des installierten Basissystems sind nicht trivial und können eigentlich nur erfolgreich funktionieren, wenn man ein tiefes Verständnis der Funktionsweise statistischer und neuronaler MÜ-Systeme hat. Der IT-Verantwortliche muss beispielsweise Parameter wie die Anzahl der Epochen (Lernzyklen) oder die optimale Breite der Wortvektoren ("embedding size") festlegen. Daher empfiehlt es sich, diese Arbeit einem der spezialisierten Anbieter maschineller Übersetzungsplattformen zu überlassen, wenn man diese Kenntnisse nicht im Hause hat bzw. nicht aufbauen kann. Hat man jedoch diese Ressourcen im Hause, ist man natürlich besser gewappnet, um individuelle Anforderungen zu berücksichtigen und umzusetzen.

Wer ein bereits vorkonfiguriertes System benutzt, ist nicht gleich startklar. Zuerst müssen für alle benötigten Sprachkombinationen Trainingsdaten besorgt und auch optimiert werden. Neben den (großen) Mengen an Trainingsdaten ist deren Qualität extrem wichtig, wenn man gute Ergebnisse erzielen möchte.

Translation-Memorys eignen sich für das Training, wenn sie qualitativ hochwertig sind. Die Firma Autodesk benutzte bspw. ca. 9 Millionen englisch-japanische Segmente, um ihre statistische Engine Moses zu trainieren. Diese Trainingsdaten müssen zuerst einmal thematisch zu künftigen Übersetzungsprojekten passen, aber auch sprachlich und technisch so perfekt wie möglich sein. Translation- Memorys sind das Ergebnis langjähriger Übersetzungstätigkeit durch Humanübersetzer und können auch Fehler, Inkonsistenzen oder Teilsegmente enthalten, die man bei künftigen Übersetzungen nicht wieder haben möchte. Diese Daten zusammenzustellen und zu bereinigen ist zeitaufwändige Arbeit, die bei der Gesamtbewertung der Alternativen maschinell oder human berücksichtigt werden sollte.

In der Regel bedeutet die Einführung eines MÜ-Systems auch neue Prozesse für ein Unternehmen. Die Arbeit wird anders organisiert, andere Ressourcen werden benötigt. Soll das System allein funktionieren oder in Kombination mit Translation-Memory-Systemen? Möchte man regelmäßig die Qualität der Ergebnisse messen, um an der Optimierungsschraube zu drehen? Wie geht das? Welche Maßstäbe werden angesetzt? Das sind ebenfalls Fragen, die im Vorfeld zu klären sind. So kann sich beispielsweise herausstellen, dass es bei einigen Sprachen besser ist, die Ausgangstexte vor der eigentlichen Übersetzung anzupassen, um bestimmte Maschinenfehler zu vermeiden. Ein wichtiger Schritt ist das Post-Editing. Dazu werden Fachleute benötigt, die besonders für diese Art von Arbeit geschult sind, denn zum einen machen Maschinen ganz andere Fehler als Humanübersetzer und zum anderen machen nicht alle Systeme (statistisches maschinelles Übersetzen SMT bzw. neurales maschinelles Übersetzen NMT) die gleichen Fehler. Der Post-Editor muss also auf unterschiedliche Merkmale achten.

Schließlich kommt noch die Risikoanalyse zum Tragen. Auch wenn die maschinell erstellte Übersetzung bei entsprechenden Mengen günstiger ist als die Humanübersetzung, ist das Risiko, das von einer solchen Übersetzung für das Unternehmen ausgeht, deutlich größer. Denn Maschinen machen, wie bereits gesagt, andere Fehler als Menschen. Einer dieser regelmäßigen Maschinenfehler ist, dass eine gut klingende Übersetzung manchmal mehr bzw. weniger Informationen enthält, als das, was im Ausgangstext steht. Nicht alle Post-Editoren, die ja nicht zu langsam sein dürfen, erkennen das bei plausibel klingenden Übersetzungen.

Heute kann niemand pauschal eine Aussage für oder gegen MÜ treffen. Wer die obigen Punkte für seine Situation und sein Unternehmen beantwortet, hat schon eine sachliche Entscheidungsgrundlage. Falls die Vorteile von MÜ überwiegen, empfiehlt es sich, mit einer Sprachkombination anzufangen für die es ausreichend Trainingsdaten gibt und die besser übersetzbar ist. Damit werden erste Erfahrungen gesammelt, die auf weitere Sprachen übertragen werden können.

Schreiben für Maschinen

Ein technischer Redakteur kann einem fast leidtun. Nachdem er zuerst lernen musste, was kontrollierte Sprache ist, musste er sich zusätzlich daran gewöhnen, übersetzungsgerecht zu formulieren. Nun kommt maschinengerechtes Schreiben hinzu. Das Lernen scheint kein Ende zu nehmen.

Diese neuen Anforderungen entstehen nicht aus reiner Freude an der Fortbildung von Redakteuren, sondern spiegeln neue Entwicklungen bei Informations- und Kommunikationstechnologien wider. Seit einigen Jahren hat die künstliche Intelligenz in unserer Branche Einzug gehalten und beginnt, neue Trends zu prägen. Wir können beobachten, dass heute nicht ausschließlich Menschen an der Verarbeitung von Informationen in natürlicher Sprache beteiligt sind, sondern dass auch Softwareanwendungen wie Smart-Assistenten, Mensch-Maschinen-Schnittstellen oder Big-Data-Analyse-Programme solche Informationen verarbeiten. Wir stehen am Anfang einer Entwicklung, die in den nächsten zehn Jahren deutlich an Momentum gewinnen wird. Es ist daher nur recht, dass Autoren sich über maschinengerechtes Schreiben Gedanken machen.

Vieles beim maschinengerechten Schreiben ist bereits Bestandteil des Schreibens in kontrollierter Sprache. Aber maschinengerechtes Schreiben ist mehr. Um zu wissen, worauf Autoren zu achten haben, müssen wir zuerst verstehen, wie die heutigen Anwendungen vorgehen, welche die natürliche Sprache interpretieren. Sie verwenden Verfahren der Computerlinguistik, bei der es primär darum geht, die einzelnen Sprachelemente zu identifizieren, sie in sinnvollen Sinneinheiten ("[drehen + Sie] + [den + Regler] + [nach + links]") zu gruppieren und semantisch anzureichern (z. B. mit Informationen über die Rolle der einzelnen Satzelemente wie Agent, Ziel oder Objekt einer Handlung o. ä.). Um festzustellen, welche Wörter zusammengehören, bedienen sich diese Anwendungen verschiedener Mittel wie des Part-of-Speech-Tagging, statistischer und mathematischer Verfahren oder neuronaler Netze. Diese Ansätze werden durch Wissensbestände (wie Ontologien oder Sammlungen von Named Entities = Eigennamen) und Trainingsdaten (annotierten Korpora) ergänzt. Fazit: Systeme können die Elemente und Muster am besten erkennen, die sie (1) bereits gelernt haben und die (2) eindeutig sind.

Was bedeutet dies also für die Arbeit von Redakteuren? Im Grunde genommen heißt es, dass, sobald Redakteure den Pfad der Eindeutigkeit und der antrainierten Wortbedeutungen bzw. Syntaxregeln verlassen, die Systeme Schwierigkeiten bekommen, den beabsichtigten Sinn zuverlässig zu ermitteln. Je nachdem, wie maschinengerecht und standardisiert die Texte geschrieben sind, funktioniert dies mehr oder weniger erfolgreich. In den folgenden Abschnitten fassen wir einige Beispiele zusammen und geben Empfehlungen, wie man Texte maschinengerecht optimieren kann.

Die deutsche Syntax hat ihre Besonderheiten. Nicht wenige Aussagen fangen mit einem Nebensatz an, verschachtelte Konstruktionen erschweren das Verständnis. Daher gelten auch hier dieselben Regeln wie für das Schreiben in kontrollierter Sprache: Kurze Sätze, eine Handlung pro Satz, Aktivform und Beginn mit dem Hauptsatz. Wenn besondere Satzkonstruktionen für bestimmte Publikationsarten wie Kataloge erforderlich sind, muss das System sie zuerst lernen: "Zylinderschraube, verzinkt blau".

Satzzeichen helfen maschinellen Systemen, einen Satz zu strukturieren. Sie trennen Hauptsatz und Nebensatz. Sie geben an, wo der Satz endet oder sie trennen Elemente einer Auflistung. So erhält ein Satz wie "Sie können den Wert (,) einer Variable zuordnen." ohne Komma eine ganz andere Bedeutung. Es ist daher wichtig, sich strikt an die üblichen Interpunktionsregeln zu halten.

Viele Präpositionen sind in der deutschen Sprache nicht eindeutig. Sie können beispielsweise gleichzeitig temporal, lokal oder räumlich verstanden werden. Eine Präposition wie "bei" kann eine Software im Sinne von "während", "mittels", "im Falle von", "für" und einiges mehr verstehen. Oft kann der Mensch aufgrund seines Allgemeinwissens die Aussage richtig interpretieren, aber das ist bei Maschinen viel seltener der Fall. Daher muss der Redakteur speziell bei Präpositionen überlegen, wie sie eventuell sonst ausgelegt werden könnten. Wer das testen möchte, kann seinen Satz in ein automatisches Übersetzungsprogramm wie Google Translate eingeben und sehen, ob die Übersetzung sinngemäß korrekt ist. Hier ein kleines Beispiel, aus dem ersichtlich ist, dass die Maschine zum falschen Ergebnis gekommen ist:

Deutsch Bei gedrückter Taste bedienen Sie den Steuerkreis durch seitliches Bewegen des Joysticks.
MÜ-Englisch Press the button to operate the control circuit by moving the joystick sideways.
MÜ-Rückübersetzung Drücken Sie die Taste, um den Steuerkreis zu betätigen, indem Sie den Joystick seitwärts bewegen.

Auch in Bezug auf die Syntax sind Präpositionen, die zwei Substantive verbinden, manchmal problematisch, weil sie mehrere syntaktische Wortgruppenkombinationen zulassen. So kann eine Software den Satz "Verbinden Sie das Gerät mit dem RJ-45-Anschluss" als "Gerät mit Anschluss" oder "Verbinden mit Anschluss" auslegen. Eine etwas humorvollere Variante ist das Warnschild der Polizeidirektion Limburg-Weilburg: "Dieser Bereich wird zur Verhütung von Straftaten durch die Polizei videoüberwacht".

Zu den größten Fehlerquellen bei der maschinellen Interpretation natürlicher Sprache gehören Wörter, die eine Vielzahl von Bedeutungen haben können (Polysemie). Je verbreiteter die Wörter, desto größer sind die Chancen, dass sie mehrdeutig sind. Da maschinelle Programme ihre Interpretation oft statistisch ermitteln, bevorzugen sie die gängigen Bedeutungen. Das gilt vor allem für Wörter oder Verben der Alltagssprache, die in vielerlei Zusammenhängen vorkommen. Auch hier empfiehlt es sich, für bestimmte wiederkehrende Situationen oder Handlungen immer die gleichen Formulierungen und Verben zu verwenden und festzulegen. Die Software, die natürliche Sprache verstehen soll, kann sie dann leichter lernen.

Komposita sind in der deutschen Sprache sehr beliebt und bilden ebenfalls eine Quelle für Mehrdeutigkeiten. Bei Komposita, die auf einem Verb basieren, kann oft sowohl ein Genitivartikel als auch eine Präposition als ungeschriebenes Bindeglied zwischen seinen Bestandteilen stehen. Was bedeutet eigentlich "Sensorüberwachung": "Überwachung eines Sensors" oder "Überwachung mittels Sensor"? Manchmal entscheidet der Kontext oder das Produktwissen darüber.

Verben mit Präpositionen wie "zunehmen" sind aufgrund der Besonderheiten der deutschen Grammatik für maschinelle Systeme ebenfalls problematisch, denn Präposition und Hauptverb sind oft durch mehrere Wörter voneinander getrennt. Es ist daher besser, wenn der Autor Synonyme einsetzt, die aus einem Verb bestehen: nicht "Rufen Sie das Programm auf", sondern "Starten Sie das Programm".

Schließlich spielt der Kontext für das Verständnis einer Aussage eine große Bedeutung. Da Programme, die einen Text in natürlicher Sprache verstehen sollen, in der Regel den Text Satz für Satz zerlegen, haben sie mit kontextabhängigen Aussagen Schwierigkeiten: "Schrauben Sie ihn gemäß Abbildung fest". Maschinengerechtes Schreiben bedeutet also, dass, aus dem Satz heraus, die Software erkennen muss, was gemeint ist. Das gilt vor allem für Bedeutungen, die für die Bedienung bzw. für die Sicherheit des Anwenders oder der Anlage wichtig sind.

Softwareanwendungen haben folglich andere Verständnisprobleme als Menschen, und diese Besonderheiten müssen in einem Redaktionsleitfaden berücksichtigt werden. Das maschinengerechte Schreiben steht noch in den Anfängen. Es ist aber damit zu rechnen, dass solche Anforderungen in den kommenden Jahren öfters zum Einsatz kommen werden. Aufgrund von Fortschritten der künstlichen Intelligenz zum einen und des zunehmenden Bedarfs nach Informationen zum anderen, werden maschinengerechte Texte benötigt, um Ergebnisse maschineller Übersetzungen zu optimieren, um Informationen aus Inhalten automatisch zu extrahieren und zu verarbeiten, oder auch um neue Informationen zu generieren. Hieraus können sich neue Aufgaben und Chancen für Redakteure mit Spezialknowhow entwickeln.

Wie verlässlich sind Qualitätssicherungstools?

Heutzutage sind bei der professionellen Erstellung von Dokumentationen und Übersetzungen Qualitätssicherungstools kaum wegzudenken. Es handelt sich dabei entweder um Module, die in Redaktionssystemen bzw. in Translation-Memory-Systemen integriert sind und Texte auf bestimmte Merkmale hin prüfen oder um eigenständige Programme. Tools, die die Qualität der Originaltexte prüfen, funktionieren etwas anders als diejenigen, die die Übersetzungsqualität prüfen. Im ersten Fall handelt es sich um eine einsprachige Prüfung (in deutscher bzw. in einigen wenigen weiteren Sprachen). Im anderen Fall geht es um eine zweisprachige Prüfung, bei der die Software Originalsprache und Übersetzung miteinander vergleicht und einzelne Aspekte, wie die Einhaltung der Terminologie, überprüft. Je nach ihrem Leistungsumfang bieten diese Tools unterschiedliche Funktionen, angefangen von der Prüfung typografischer Regeln bis hin zur Beachtung stilistischer und syntaktischer Regeln.

Natürlich sind nicht alle Meldungen, die Qua¬litätssicherungswerkzeuge liefern, automatisch echte Fehler. Sprachen sind zu komplexe Gebilde, die keine Software eindeutig auslegen kann. Daher kämpfen alle Nutzer dieser Technologien mit dem, was man im Fachjargon als "noise" oder "false positives" nennt, nämlich falsche Fehlermeldungen. Wie sieht es aber mit den Fehlern aus, die von solchen Technologien nicht erkannt werden (dem sog. "silence")? Wir klammern hier Sinnfehler aus, denn diese Fehler kann nur menschliches Wissen erkennen.

Terminologie spielt bei der Qualität von Texten eine große Rolle. Erfahrungsgemäß machen deshalb Terminologiefehler den Großteil der Qualitätsdefizite in der Dokumentation aus. Der Redakteur setzt unerwünschte Synonyme bzw. nicht übersetzungsgerechte Termini ein, der Übersetzer liefert falsche oder inkonsistente Übersetzungen. Um solche Terminologiefehler zu erkennen, müssen die eingesetzten Technologien in der Lage sein, verschiedene Schreibweisen und Synonyme zu erkennen. Das wird beim Tooleinsatz oft stillschweigend vorausgesetzt, aber die Praxis belehrt uns eines Besseren. Auch wenn man annimmt, dass die benutzte Terminologie vollständig ist und regelmäßig aktualisiert und ergänzt wird, erscheint sie in der Dokumentation bzw. in der Übersetzung so wie die Sprache sie tatsächlich verwendet, d. h. mit Flexionen, Einschüben, usw. Deswegen ist es nützlich zu wissen, wie gut das jeweilige Qualitätssicherungsprogramm die Terminologie im Text erkennt. Kon¬kret geht es um folgende Situationen:
1. Erkennen von regulären und irregulären Pluralen oder Flexionen. Ist z. B. die Qua¬litätssicherungssoftware in der Lage, eine Form wie "Förderbänder", "Staatsexamina" oder "Kaufleute" zu identifizieren?
2. Erkennen von Schreibvarianten. Immer wie¬der tauchen veraltete Schreibweisen auf, Bindestriche werden nach Belieben eingesetzt oder Zahlen werden ausgeschrieben bzw. nicht. Kann die Software diese Variantenerkennen ("Ventilgehäuse" oder "Ventil- Gehäuse"; "zweitürig" oder "2-türig")?
3. Erkennen von morphologischen Varianten: "Abfüllungsprozess" oder "Abfüllprozess".
4. Erkennen von Reduktionsvarianten: "Lastkraftwagen" oder "Lastwagen".
5. Erkennen von syntaktischen Varianten: "Kos¬tensenkung" oder "Senkung der Kosten".
6. Erkennen von semantischen Varianten/ Synonymen: "Arretiervorrichtung" oder "Blockiervorrichtung".
7. Ein ganz besonderer Fall ist das Erkennen von Einschüben bei Termini, die aus meh¬reren Wörtern bestehen. Kann die Quali¬tätssicherungssoftware "bestimmungs-gemäße regelmäßige Verwendung" erkennen, wenn der Terminologieeintrag aus "bestimmungsgemäße Verwendung" besteht? Dieses Phänomen kommt in ei¬nigen Sprachen wie Französisch öfter vor als im Deutschen, wenn im Deutschen vor einem Terminus ein Adjektiv steht.
8. Die deutsche Sprache verwendet immer wieder Konstruktionen, bei denen zwei Fachbegriffe miteinander kombiniert werden und gemeinsam ein Hauptwort bilden. Beispiel "Lese- und Schreib¬kopf" auch in verschiedenen Schreibweisen ("Lese-/Schreibkopf" oder "Lese- & Schreibkopf"). Das ist eine besondere Herausforderung für die Qualitätssiche¬rung, wenn die Terminologie die Hauptbe¬griffe getrennt verwaltet.
9. In einigen Sprachen geht es um das Erken¬nen von Wortgrenzen, denn diese Sprachen verwenden kein Leerzeichen zwischen den Wörtern, sodass ein Satz als eine lange Reihenfolge von Zeichen bzw. von Buchstaben besteht. So kennt Chinesisch kein Leerzeichen zwischen den einzelnen Wörtern: 查找和替换 (Suchen und Ersetzen).

Es ist sehr empfehlenswert, einmal anhand von Testdateien die eingesetzten Qualitätssicherungsprogramme auf die Erkennung der obigen Muster zu prüfen. Zumindest gewinnt man als Erkenntnis eine Liste der Punkte, die manuell nachgeprüft werden sollen bzw. bei denen die Terminologie erweitert werden soll, etwa indem man nicht erkannte Varianten dem Terminologieeintrag hinzufügt.

Manche Unternehmen setzen voll integrierte Systeme für die Redaktion bzw. für Übersetzungen ein, die eventuell eine unzureichende Qualitätssicherungsfunktion haben. In sol¬chen Fällen kann es sehr nützlich sein, eine Datenaustauschmöglichkeit zu haben (z. B. auf XML-oder XLIFF-Basis), damit die Qualitätssicherung durch andere Tools, wie das von D.O.G. entwickelte ErrorSpy, erfolgen kann.

Was bringen uns die Smart Assistants?

In letzter Zeit vermehren sich Berichte über Smart bzw. Intelligent Assistants, intelligente Helfer, Bots oder Chatbots, wie auch immer man sie nennen mag. Assistenten oder Roboter beantworten Standardfragen bei Hotlines, spielen bei Industrie 4.0 eine Rolle oder holen das beste Angebot für eine Fernreise ein. Ist es ein Hype oder eine Entwicklung, die künftig die Arbeit von Redakteuren, Übersetzern oder Informationsarbeitern beeinflussen wird? Es wird Zeit, sich näher damit zu befassen.

Der Begriff Smart Assistant existiert seit Jahrzehnten. Bereits seit den 50er Jahren befassen sich Wissenschaftler mit der Vorstellung, Programme zu entwickeln, die dem Menschen mithilfe künstlicher Intelligenz (KI) eigenständig bei der Umsetzung von Aufgaben helfen1. Die erste KI Konferenz im Jahr 1956 in Dartmouth hatte sich zum Ziel gesetzt: "…herauszufinden, wie man Maschinen dazu bringt, zu sprechen, abstrakte Konzepte zu formen, alle möglichen Probleme zu lösen, die heute dem Menschen vorbehalten sind, und sich selbst dabei zu verbessern.". Wissenschaftler wie John McCarthy, Marvin Minsky, Oliver Selfridge oder Bruce G. Buchmann2 prägten diese Entwicklung wesentlich. Mit Aufs und Abs wurden die Programme über die Zeit immer effizienter.

Eine besondere Kategorie dieser intelligenten Programme sind diejenigen, die mit den Menschen in natürlicher Sprache interagieren. Sie können entweder auf vordefinierte oder auf spontan gestellte Fragen reagieren und Antworten geben. Sie gehören zur Familie der Smart Assistants, die man beispielsweise benutzt, um eine Reise zu buchen oder das Wetter zu erfragen.

Heute stehen wir vor einer Wende, denn Smart Assistants haben ihren Weg zu einem breiten Publikum gefunden und stehen kurz davor, sich zu Massenprodukten zu entwickeln. Es sind Programme, die in den nächsten Jahren die führenden Anbieter von Informations- und Unterhaltungstechnologien wie Google (Google Now), Microsoft (Cortana), Amazon (Alexa), Samsung (Bixby) oder Apple (Siri) mit großer Energie nach vorne bringen möchten. Deswegen stellen sie Programmierumgebungen wie Google API.ai oder wit.ai von Facebook oder Lex von Amazon kostenlos zur Verfügung. Für sie steht ja viel auf dem Spiel: Sie möchten mit Assistenten, die den Menschen bei vielen alltäglichen Aufgaben wirklich helfen, eine Art Ökosystem für Ihre Produkte, Leistungen und Apps erstellen. Ein Beispiel belegt die Geschwindigkeit dieser Entwicklung. Während im Juni 2016 Alexa von Amazon nur über 1.000 Skills (Amazon verwendet dieses Wort für eine von einem Smart Assistant ausgeübte Funktion, etwa einen Flug reservieren) verfügte, wurden es bereits 7.000 im Januar 2017 und 10.000 im März 2017, Tendenz stark steigend.

Aber auch andere Branchen und Industrien wie die Automobilindustrie setzen auf interaktive Smart Assistants. Heute lassen sich bereits mehrere Funktionen im Fahrzeug per Stimme steuern. Das gilt auch für eine Vielzahl von Geräten mit integrierter Sprachsteuerung.

Sicher sind heute die gängigen, auf KI basierenden Assistenten in vieler Hinsicht beschränkt und in Bezug auf das, was sie leisten, noch sehr bescheiden. Manche können nur auf eine begrenzte Zahl vordefinierter Befehle bzw. Fragen und Antworten reagieren. Andere können frei gesprochene Sätze interpretieren. Jedoch enthalten viele dieser Assistenten bereits im Kern all das, was eine interaktive intelligente Software braucht, um komplexere Aufgaben zu lösen: Eine Programmiersprache, eine Kommunikationsschnittstelle, mit der ein Mensch in natürlicher Sprache mit dem Programm kommunizieren kann, eine Wissensbasis und für manche die Fähigkeit zu lernen.

Größere Defizite gibt es noch bei der Lösung komplexerer Aufgaben, bei der Auslegung von frei formulierten Fragen oder Anweisungen und bei der Mehrsprachigkeit. Heute arbeiten Entwickler, Unternehmen und auch Institutionen wie die EU an der Lösung dieser Fragen.

Ein Prototyp des Unternehmens Viv Labs, das von einigen Entwicklern von Siri (Apple) gegründet und 2016 von Samsung übernommen wurde, kann quasi "live" komplexe Anforderungen verstehen und sie als Reihe einzelner Tasks umsetzen. So konnte der Assistent bei einer Vorführung letztes Jahr die in Englisch frei gesprochene Aufgabe "Auf dem Weg zum Haus meines Bruders möchte ich einen preiswerten Wein kaufen, der gut zu Lasagne passt" korrekt verstehen und lösen.

Schwieriger wird im professionellen Umfeld der Aufbau von Wissensdatenbanken, die den Assistenten die notwendige Intelligenz liefern, um Sprache(n) zu verstehen und selbstständig zu handeln. Bisher arbeitet die Mehrzahl der einfacheren Assistenten von Google, Microsoft oder Apple mit einer begrenzten Zahl an vordefinierten Sätzen und Listen, etwa für Objektgruppen (wie Gemüsesorten für einen auf Kochrezepte spezialisierten Assistenten) oder als Auslöser für typische Handlungen (kaufen, suchen, fahren...). Nur eine kleine Anzahl leistungsfähiger Assistenten arbeitet mit richtigen Wissensbeständen wie Ontologien. Eine leistungsfähige neue Generation von Assistenten wird erst entstehen, wenn zum einen die Software über bessere Algorithmen verfügt, um frei formulierte Fragen und Anforderungen zu verstehen und zum anderen wenn zunehmend Wissensdatenbanken verwendet werden, die komplexere Relationen und Klassen modellieren können, und das auch mehrsprachig. Dass dies keine einfache Aufgabe ist, zeigen die vielen Möglichkeiten, die ein Benutzer hat, um eine so einfache Frage wie bei einer Wettervorhersage zu stellen. Von "Wie ist das Wetter morgen?" über "Wird es morgen regnen?" bis "Brauche ich morgen einen Regenschirm?" sind die Varianten fast endlos.

Das eröffnet für Berufe wie Redakteure oder Übersetzer ganz neue Perspektiven. Dokumentationen oder Übersetzungen sind nie ein Ziel für sich gewesen. Genau wie beim Thema Mobilität (als eigentliches Ziel statt Autofahren) geht es in unserer Branche um die Vermittlung von Informationen und die Beantwortung von Fragen, egal ob der Anwender Deutsch oder Japanisch spricht. In den nächsten Jahren wird parallel zum Wachstum intelligenter Assistenten der Bedarf an computerlesbaren Informations- und Wissensmodellen wachsen, damit diese Assistenten Benutzer effizient unterstützen können. Bei fremdsprachigen Inhalten wird eine reine Übersetzung deutscher Inhalte nicht mehr reichen. Vielmehr ist sprachliches, kulturelles und semantisches Knowhow erforderlich, um die ursprünglichen Inhalte zu lokalisieren.

In absehbarer Zeit wird ein Teil der Smart Assistants im beruflichen Umfeld eingesetzt werden, etwa um Maschinen einzurichten, Produkte zu verkaufen oder zu erklären. Diese neuen Technologien werden Redakteure und Übersetzer vor ganz neue Aufgaben stellen.

Künstliche Intelligenz und technische Kommunikation

Unter der Überschrift "Machines That Think" stellte bereits 1928 die Zeitschrift "The Popular Science Monthly" die Televox vor, eine 1927 patentierte Anlage, die in der Lage war, per Telefon Anweisungen zum Ein- und Ausschalten von Licht oder Geräten zu erhalten und die korrekte Ausführung zurückzumelden. Die ersten Schritte auf dem Weg zur künstlichen Intelligenz (KI) waren getan. Bisher hat das breite Publikum mit Ausnahme von den rapiden Fortschritten des maschinellen Übersetzens noch wenig von KI gemerkt. Das könnte sich rasch ändern.

Die Technologien und Methoden, die KI leistungsfähiger machen, haben nun ein Stadium erreicht, in dem sich die KI zum Massenphänomen entwickeln kann. Was bedeutet das für die Kommunikations- und Informationsbranche? Bringen ihr diese neuen Technologien Vorteile? Und kann sie selbst zur Weiterentwicklung von KI beitragen? Die Antwort auf diese Fragen ist ein eindeutiges "Ja". Unsere Branche kann sowohl als Nutzer als auch als Entwickler von KI profitieren.

Intelligente Objekte spielen im Rahmen von Internet 4.0 (Internet der Dinge) eine zentrale Rolle. In der "Smart Factory" stimmen sich intelligente Geräte autonom und ohne Einwirkung des Menschen untereinander ab, um Produktionsaufgaben zu lösen. Aber was bedeutet zunächst einmal "Intelligenz"? Hiermit wird die Fähigkeit von Geräten, Maschinen und Anlagen bezeichnet, mindestens drei Aufgaben zu erfüllen:

  1. Erkennung ihres Umfelds und dessen Veränderung.
  2. Kommunikation mit anderen Maschinen und Geräten oder Menschen, d. h. Informationen verstehen und versenden.
  3. Selbstständiges Handeln.

Darüber hinaus gibt es weitere Merkmale, die mehr oder weniger intelligente Objekte voneinander unterscheiden. Dazu zählt z. B. die Fähigkeit zu lernen, sei es beaufsichtigtes Lernen mit Unterstützung von Menschen oder unbeaufsichtigtes selbstständiges Lernen.

Für Übersetzer und Redakteure ist der Wissens- und Kommunikationsaspekt der KI von besonderem Interesse. Wie schafft es eine Maschine zu verstehen, was ein Mensch ihr in natürlicher Sprache bzw. Fremdsprache mitteilt und wie schafft sie es auch, eine brauchbare Antwort in derselben Sprache zu generieren? Die Kommunikation zwischen Mensch und Maschine (und zu einem gewissen Grad zwischen Maschinen) kann unterschiedliche Formen annehmen. Die Medien (Text, Stimme, Signal), die Situation (geplant oder spontan und in natürlicher Sprache) oder die Inhalte (strukturiert bzw. unstrukturiert) sind entscheidende Parameter. Je nach Situation finden unterschiedliche Verfahren und Methoden Anwendung. Morphologische und syntaktische Verfahren helfen, die Satzelemente und deren Funktion zu identifizieren, statistische Verfahren erkennen bei größeren Datenmengen bestimmte Muster während semantische Verfahren besonders nützlich sind, wenn es um Wissen und Kontext geht.

Dieses Wissen besteht aus maschinenlesbaren Datenbeständen, die oft in Form von Ontologien organisiert sind. Ontologien befassen sich in der Regel mit einem bestimmten unternehmensrelevanten Fachthema (einem "Domain"). Sie organisieren das Wissen als Verbindung von Begriffen (Klassen oder Instanzen von Klassen) mithilfe von Relationen (hierarchische oder assoziative Relationen). Darüber hinaus können sowohl Relationen als auch Klassen und Instanzen Eigenschaften haben, sodass eine Logik hinterlegt ist, die für intelligente Abfragen ("reasoning") verwendet werden kann.

Gemessen am Potenzial dieser Technologien und am Bedarf, der sich sicherlich in den nächsten Jahren verstärkt einstellen wird, sind der Bestand und die Qualität der Ontologien bzw. vergleichbarer Wissensbestände noch relativ bescheiden. Sie sind meistens einsprachig und berücksichtigen selten synonyme Bezeichnungen für ihre Objektklassen. Während in fast allen Unternehmen die Mitarbeiter immer noch viele Arbeitsstunden wieder und wieder damit verschwenden, um dieselben Informationen manuell zusammenzustellen, ist die Anzahl der Firmenontologien, die dieses benötigte Wissen verfügbar machen könnten, gleich Null oder extrem gering.

Das wird sich mit der Verbreitung von KI vermutlich ändern. Technologien wie intelligente Bots (oder Assistenten) sowie Expertensysteme (z. B. für die Unterstützung des Vertriebs) finden gegenwärtig ihren Weg in die Welt von Unternehmen und Privatkunden. Bots sind kleine Programme, die mit anderen Programmen und auch mit Menschen (zunehmend in natürlicher Sprache) kommunizieren und bestimmte Aufgaben ausführen. Dazu suchen sie selbstständig Informationen in verschiedenen Quellen und tauschen sich mitunter mit anderen Assistenten aus. Ein typisches Beispiel wäre ein Assistent, der Informationen für eine Flugreise (Konditionen, Datum, Verfügbarkeit) selbstständig sucht und Preise vergleicht.

Redakteure, Terminologen oder Übersetzer verfügen über ein besonderes sprachliches und fachliches Know-how. Sie können dazu beitragen, die bevorstehende Nachfrage nach strukturierten mehrsprachigen Wissensbeständen zu befriedigen. Seit einigen Jahren sind wissenshaltige Terminologien bekannt, die mithilfe von Relationen Begriffe miteinander verknüpfen. Dadurch ließe sich z. B. die Wissensarbeit sozusagen demokratisieren, indem deutlich mehr Personen aufgrund von zuvor hinterlegten Relationsdefinitionen daran arbeiten.

Auch als Nutzer können Übersetzer und Redakteure von künstlicher Intelligenz profitieren. Die technische Dokumentation von morgen wird nicht mehr aus Dokumenten bestehen, die aus einem Content-Management-System für verschiedene Medien wie Druck oder Internet generiert werden. Es wird vielmehr ein intelligentes Informationsprodukt sein, das wie intelligente Geräte oder Maschinen sein Umfeld erkennt, mit ihm kommuniziert und Aktionen wie das Ändern von Einstellungen oder das Versenden von Nachrichten ausführt.

Mit der Gründung der Arbeitsgruppe Information 4.0 im März 2016, deren Ziel eine Richtlinie für einen Abfrage- und Bereitstellungsstandard für Intelligente Information (iiRDS = Intelligent Information Request and Delivery Standard) ist, hat die tekom e.V. diese wichtige Entwicklung erkannt. Die nächsten Schritte werden sicherlich sehr spannend sein.

Übersetzer erhalten durch wissenshaltige Terminologien über Relationen zu anderen Begriffen nützliche Kontextinformationen, die sie bei der Auswahl der passenden Übersetzung verwenden können.

Beim maschinellen Übersetzen brachten statistische Ansätze und mathematische Verfahren in den letzten Jahren große Fortschritte. Mit semantischer Intelligenz öffnen sich weitere Möglichkeiten wie z. B. die Kontexterkennung, die das maschinelle Übersetzen dem Humanübersetzen einen Schritt näherbringen wird.

KI wird also bald das Feld der technischen Kommunikation stärker beeinflussen. Bereits heute können Redakteure und Übersetzer etwa mit der Entwicklung intelligenter Dokumentationen oder mit dem Aufbau wissenshaltiger mehrsprachiger Terminologien diese Zukunft einleiten.

Verwaltungssysteme für Übersetzungen

"Braucht eine Dienststelle der Kommission einen Text in mehreren Sprachen, so schickt sie ihn mit einem 'Auftragszettel' an die Planungsstelle der Fachgruppe, die für sie arbeitet. Das geschieht mit der Hauspost oder per Fax, meist jedoch auf elektronischem Weg." Bei der Lektüre dieses Zitats aus dem Jahr 1998 kommt etwas Wehmut auf. Ein "Zettel" war das Medium für die Organisation eines Übersetzungsprojekts. Die Beauftragung lief über Fax, Post oder Mail.

In den letzten 20 Jahren hat sich der Markt für Übersetzungen radikal geändert. Die Erweiterung der EU auf 28 Mitgliedstaaten mit insgesamt 24 Amtssprachen sowie der explosionsartige Zuwachs an Informationen und Dokumentationen stellt Auftraggeber wie auch Auftragnehmer vor viele Herausforderungen. Welche Trends haben sich im Hinblick auf die Beschaffenheit und Organisation der Aufträge herauskristallisiert?

Zuerst die Anzahl der Sprachen: Wir haben es heute mit einer Vielzahl von Sprachen und dadurch auch von Dienstleistern zu tun. Dann die Mengen, die die Verbreitung von Technologien wie Redaktionssysteme/ Content-Management-Systeme, Translation- Memorys und maschinelle Übersetzungssysteme fördern. Schließlich zusätzliche Leistungen wie die Extraktion und die Bereitstellung übersetzter Terminologie, das Lektorat und manchmal auch das Posteditieren maschineller Übersetzungen, die zunehmend Teil von Übersetzungsprojekten sind. All diese Entwicklungen führen dazu, dass der Verwaltungsaufwand und die Anforderungen an das Projektmanagement tendenziell zunehmen. Gleichzeitig nimmt der Wert eines einzelnen Übersetzungsauftrags aufgrund des hohen Technologieeinsatzes und der Wiederverwendung vorhandener Inhalte tendenziell ab.

Die Übersetzung einer Bedienungsanleitung in 20 Sprachen bedeutet nicht selten neben sprachunabhängigen Bearbeitungsschritten sechs oder sieben weitere Bearbeitungsschritte für jede einzelne Sprache. Wenn man noch dazu rechnet, dass eine Anleitung u. U. aus 100 kleineren XML-Dateien besteht, ist die manuelle Verfolgung des Zustands von 20 × 100 Dateien während allen einzelnen Phasen des Projektlebens weder ein Kinderspiel noch prozeßsicher. Dass dies auf Dauer mit Excel-Tabellen und E-Mails nicht mehr effizient zu bewältigen ist, haben die meisten Betroffenen längst festgestellt.

Die Lösung ist naheliegend. Ähnlich wie die Produktionssteuerung mit ERP–Systemen in der Fertigung, sind workflowbasierte Systeme für die Verwaltung von Übersetzungen an der Tagesordnung. Hier muss man zwischen verschiedenen Einsatzsituationen unterscheiden:

  • Das System wird vom Kunden bzw. vom Übersetzungsdienstleister oder von beiden gemeinsam eingesetzt.
  • Das System ist Teil eines Translation-Memory- Systems oder nicht.
  • Das System ist auf einem eigenen Server installiert oder eine Cloud-Lösung.

Gemeinsam verfügen die bekanntesten Workflowsysteme am Markt über folgende Funktionen:

  • Sie fassen alle Projektinformationen zentral in einer Datenbank zusammen und können von den Beteiligten entsprechend ihren Rollen und Befugnissen eingesehen bzw. editiert werden.
  • Die Projekte werden in einzelne Tasks (Bearbeitungsschritte) aufgeteilt. Jeder Task ist mit einem Termin und mit einer ausführenden Ressource versehen. Wenn diese Ressource Ihre Aufgabe erledigt hat, ändert sich der Status des Tasks entsprechend und der nachfolgende Task wird ausgelöst. So lässt sich jederzeit ermitteln, in welchem Bearbeitungszustand sich ein Projekt befindet.
  • Das System kann automatisch Benachrichtigungen schicken, etwa bei der Annahme eines Auftrags oder wenn eine bestimmte Aufgabe abgeschlossen ist.
  • Viele Systeme verfügen über kaufmännische Funktionen wie vor allem die Abrechnung von Leistungen und die Ermittlung der Produktionskosten.
  • In einem unterschiedlichen Umfang bieten Systeme Automatisierungsmöglichkeiten für Produktionsschritte. Das betrifft beispielsweise die Erzeugung von fertigen Übersetzungsprojekten.
  • Die meisten Systeme verfügen über Portale, über die die Beteiligten Dateien hochbzw. herunterladen oder einzelne Tasks beauftragen.
  • Schließlich bieten manche Systeme die Möglichkeit, Auswertungen für das Management bzw. für das Projektmanagement zu generieren: Statistiken über die Anzahl der Aufträge je Sprache, Kosten pro Sprache oder Periode, Übersichten über laufende Aufträge, Gewinnmargen und Ähnliches.

Für welches Einsatzmodell kommen welche Produkttypen infrage? Ein Übersetzungsdienstleister, der nicht auf eine einzige Übersetzungstechnologie fixiert ist, fährt in der Regel mit einem produktunabhängigen Workflowsystem besser. Auch Unternehmen können diese Produkte einsetzen. Zu den führenden Systemen dieser Art zählen Plunet oder das von D.O.G. benutzte XTRF. Sie bieten ein Portal für Übersetzer und für Kunden.

Workflowsysteme, die Teil einer Übersetzungslösung sind, unterstützen nur diese eine Übersetzungstechnologie. Sie kommen infrage für Firmen oder Übersetzungsbüros, die ausschließlich mit dieser Technologie arbeiten. Kundenseitig bedeutet es, dass die betroffenen Mitarbeiter sich auch unmittelbar mit technischen Aufgaben befassen wie die Nachbearbeitung übersetzter Dateien oder das Lösen technischer Probleme, wenn bei der Projektvorbereitung eine Datei fehlerhaft importiert wird. Beispiele für solche Systeme sind der SDL WorldServer oder Across.

Einige kommerzielle Anbieter liefern eine webbasierte Workflowlösung als Dienstleistung (Stichwort SaaS). Die ganze Abwicklung erfolgt über das Internet, und alle Daten werden auch dort gespeichert. Nutzer, die den Aufbau und die Pflege einer Workflowlösung und deren Infrastruktur vermeiden möchten und sie nur mieten möchten, können sich für eine solche Lösung entscheiden.

In den nächsten Jahren werden wir weitere interessante Entwicklungen in diesem Bereich beobachten. Sie werden zum einen diverse Aspekte der Produktionsautomation betreffen und die Integration in noch mehr Infrastrukturen und Unternehmenssysteme ermöglichen. Zum anderen werden schrittweise Elemente der künstlichen Intelligenz implementiert, die Benutzer bei ihren Managemententscheidungen unterstützen. In diesem Zusammenhang findet man zwei interessante Entwicklungen beim Anbieter XTRF: Den Smart Connector, mit dem die Annahme von Projekten und Dateien aus fremden Systemen wie SAP mit einem überschaubaren Aufwand umgesetzt werden kann oder Smart Projects, ein komplett neuer intuitiver Ansatz, um Projekte situationsgerecht anzulegen.

Angesichts der wachsenden Vielfalt von Übersetzungsprojekten und der Komplexität von IT-Landschaften in vielen Unternehmen, wird das Vorhandensein eines Auftragsabwicklungssystems neben Qualität, Ressourcen und Preis zunehmend ein Entscheidungsfaktor für die Auswahl eines Übersetzungsdienstleisters sein.

  • 1