翻訳の進化

2023年11月14日 7分
Adaptable mt language weaver rws

継続的な革新

今年初め、翻訳業界を形作ってきた3つの技術革新の波について記事を執筆しました。3つの波とは、ご想像どおり、翻訳メモリ(TM)、翻訳管理システム(TMS)、ニューラル機械翻訳(NMT)です。これらのテクノロジーはどれも、翻訳プロセスに新たな効率性をもたらしました。TMは繰り返し登場するテキストの翻訳に費やす時間と労力を削減し、TMSは翻訳資産の一元管理とワークフローの最適化を可能にし、NMTは翻訳の初案を提示して、新規コンテンツをいちから翻訳する必要性をなくしました。
 
これらのイノベーションの最も興味深い側面の1つが、3つのテクノロジー間の関係性です。翻訳メモリテクノロジーにより、翻訳者の作業効率がアップし、承認済みの翻訳を集めたデータベースの価値が高まりました。そこで、翻訳者に対する作業の割り当てを全面的に調整し、データベースを最大限に活用するために、新しいソリューションカテゴリが必要になりました。TMによりTMSの必要性が見出された一方で、TMSにより複数のチームやベンダー、コンテンツの種類でTMが活用されるようになり、TMの質が向上しました。同様に、機械翻訳によりTMの価値がさらに高まり、現在では、直接活用するだけでなく、適応型機械翻訳モデルのトレーニングに使用する高品質な情報源にもなっています。
 
1月に記事を執筆した当時、すでに、もう1つのテクノロジーの波がやってくることは明らかでした。大規模言語モデルという新しいタイプの自然言語処理(NLP)エンジンが、NLPの研究者やエンジニアなどの専門家だけでなく、多様でグローバルなユーザーコミュニティに初めて導入されたのです。2022年11月にOpenAIがリリースしたChatGPTも、技術革新の1つです。それは、GPTの大規模言語モデル(LLM)をシンプルで直感的なインターフェイスで操作できるようにしたもので、自然な会話をコンセプトに構築されているため、読み書きできるすべての人が利用できます。その後、Google Bard、Anthropic Claude、TII Falcon、MetaのLLAMAなど、さまざまなLLMが急速に普及しています。  
 
私たちは今、加速するAI革命の真っ只中にいます。その主な原動力となっているのが大規模言語モデルです。一見すると一般に応用できそうに見えるため無理もないのですが、やや加熱しすぎとも言えます。正確なデータはありませんが、ChatGPTの現在のユーザーベースは、あらゆる業界や企業機能を網羅し、2億人以上に達すると考えられます。それだけでなく、Google BardやBing Chatなどの競合プラットフォームのユーザーや、オープンソースLLMのユーザーもいます。
 
このような規模の導入(「実験」と言うべきかもしれません)では、どのようなアイデア、ユースケース、期待、懸念が聞こえてきても驚きません。私が思い付くほとんどの業界に、AIの支持派と反対派がいます。中には「LLMは現代の知識の神託」から、「LLMは、説得力のある雑音を作り出す確率論的なオウムにすぎず何も理解していない」まで、極端な意見も見られます。このような議論は面白いかもしれませんが、雑音を取り除いていくと、現実の用途において実用的なのか疑問が湧いてきます。業界やユースケースによって要件は異なります。この拡大するAI革命をどのように活用して現在のソリューションを進化させれば、より良い成果を得られるのでしょうか?
 

意図しない結果

翻訳業界では、LLMの初期実験で、分野固有のコンテンツの生成から、用語集管理、ジェンダーバイアスの修正、TMデータのクリーンアップ、登録、スタイル調整まで、翻訳に至るあらゆる段階のさまざまなユースケースを網羅しています。  一部の実験者が最も魅力に感じるのは、その究極の考え方です。結局のところ、LLMは、目的に合わせて構築された専用のMTモデルよりもはるかに大規模なのだから、より優れたパフォーマンスを発揮するに違いないと考えるのも無理はありません。このように空想するのはいいのですが、それを実際の変化に置き換えられなければ意味がありません。予期しない結果が大惨事につながることもよくあるのです。実際に以前、このような事例がありました。あるお客様が、大規模言語モデル(LLM)の一般的な知識と幅広いコンテキストウィンドウを活用し、人間の介入なしにより関連性の高い一貫した翻訳を実現したいと考え、専用のニューラル機械翻訳システムをLLMに置き換えようとしたのです。そのお客様は実験の一部を当社に公開してくれました。それを詳しく調べたところ、いい加減な翻訳と言える事例が見つかりました。原文テキストが正確に反映されていないのに、生成された翻訳テキストが最も許容できると評価されていたのです。この例の原文分節では、お客様のブランドに属する製品が言及されていました。LLMは、製品名を訳文言語に翻訳する方法を知らなかったため、別の戦略を選択しました。製品カテゴリを正しく識別し、(訳文言語での名前を知っていた)別のメーカーの類似製品を選んで、訳文に挿入していたのです。このため、LLMの一般的な知識と幅広いコンテキストウィンドウが翻訳の生成に重要な役割を果たしたにもかかわらず、その結果はお客様が期待していたものになりませんでした。この事例の顛末により、私は小学生のころに読んだスタニスワフ・レムの短編小説を思い出しました。この物語(レムの『宇宙創世記ロボットの旅』シリーズ)では、エンジニアのトルルが「N」から始まるあらゆるものを作成できる機械を作ります。しばらくうまくいったのですが、彼の友人クラパウチェスが「Nothing」を作成するように要求したことで、状況は絶望的な結末へと急速に進んでいきます。 
 
ここから得られる教訓は2つあると思います。1つ目は、ユースケースを慎重に検討することです。LLMなどの新しいテクノロジーが適切に機能する状況を理解し、プロセス全体に悪影響を与えず、アウトプットを改善できるポイントにそのテクノロジーを採用します。取り組んでいる課題について理解し、既存のソリューションでは十分な成果が得られない、現在の未開拓領域を特定します。2つ目は、確立されたワークフロー、プロセス、またはプラットフォームにイノベーションを導入する場合、ソリューションの他の部分と同じレベルのガバナンスを維持することです。LLMにとって、当初はこちらのほうが大きな課題でした。エンタープライズクラスの翻訳ソリューションには、それ相応のレベルのセキュリティ、制御性、信頼性、カスタマイズが必要です。しかし、他社のAPIを自社のアプリケーションに組み込んでいる場合は、そのレベルを達成しづらくなります。特に、ソリューションの中核となるモデルを自社で管理できない場合は困難です。また、自社のソリューションで処理するのが自社のデータではなく、最も重要な顧客から委託されたデータである場合は、その難易度が非常に高くなります。
 

現在の未開拓領域

翻訳業界における現在の未開拓領域、つまり、既製のソリューションでは十分に改善できない領域とは、人間による大規模な介入が継続的に必要な領域です。最初に述べたように、ここ数十年で、この分野が大きな進歩を遂げているのは確かです。今ではプロのリンギストの役割が大きく変化し、ポストエディットと機械翻訳された訳文のレビューが中心になっています。業界の大手企業が、翻訳者という役割から言語専門家への移行を求めているのはこのためです。
 
機械翻訳が進化し、特定の分野、コンテンツの種類、ユースケースに合わせてカスタマイズできるようになるにつれ、焦点が2つの重要なタスクに変わってきています。その1つは、調整が必要な翻訳の部分を特定すること。もう1つは、このインサイトを活用し、その部分に重点的に取り組み、必要な強化を達成することです。この見解に共感できるとしたら、優先すべき課題ははっきりしています。それは、「この2つのタスクを適切に自動化したプロセスに進化させるにはどうすればよいか?」ということです。翻訳を進歩させ、現在の制限を超える技術的ソリューションを構築するには、どうすればよいのでしょうか?
 

Evolveのご紹介

RWSが少し前まで取り組んでいたのが、「ポストエディットプロセスを自動化し、業界にイノベーションの新たな波をもたらすために、過去と現在の最高のイノベーションを組み込んだシステムを構築するにはどうすればよいのか?」という問題です。この答えを導き出すのに役立ったのが、大規模言語モデルの登場と、言語モデル全般に関する調査でした。
 
以前、言語モデルの例として、BERTテクノロジーと初期のGPTテクノロジーについて簡単に説明したことがあります。興味深いのは、これら2つのテクノロジー特有のニューラルアーキテクチャが、特定のカテゴリのタスクに非常に適していることです。この2つの初期言語モデルは、現在提供されているテクノロジーを生み出す道を切り開いたのです。名前に注目してみると、BERT(Bidirectional Encoder Representations from Transformers)とGPT(Generative Pre-trained Transformer)の両方に「Transformer」が含まれています。「Transformer」とは、テキストや時系列などの連続データを処理するために特別に設計されたニューラルネットワークアーキテクチャの一種です。データを順番に処理する以前のモデルとは異なり、Transformerはデータのすべての部分を一度に確認できるため、複雑な関係や状況をより迅速に把握できます。この処理には「Attention」と呼ばれるメカニズムが使用されます。このメカニズムは、言語間の翻訳や、段落の要約、プロンプトに基づくテキストの生成など、その時点の目的に応じて、モデルがデータのさまざまな部分に焦点を合わせられるようサポートします。Transformerは、自然言語処理の分野に革命をもたらし、現場で使用されている多くの最新AIシステムのバックボーンになっています。実際、初期のニューラル機械翻訳システムは、回帰型ニューラルネットワーク(RNN)アーキテクチャをベースにしていましたが、現在のNMTでは、登場以来、Transformerの利用が増えています。Transformerモデルは、Attentionメカニズムとシーケンス全体を同時に処理する能力を備えており、複雑な翻訳にも非常に効果的であると実証されています。このアーキテクチャにより、NMTシステムは微妙な差異やコンテキストをより正確に把握できるため、さまざまな言語間でより正確かつ円滑な翻訳を実現できます。 
 
オリジナルのBERTモデルとGPTモデルは、どちらもTransformerアーキテクチャを利用しますが、異なる点も多々あります。BERTの「E」はエンコーダ(Encoder)を表しますが、GPTは主にデコーダベースのアーキテクチャです。高度な言語モデルにおいて、エンコーダは高度な言語分析を実行するコンポーネントです。入力テキストを調査し、その意味、構造、単語とフレーズの関係を把握することで、そのエッセンスを効果的にエンコードし、複雑で抽象的な表現に変換します。デコーダは、この抽象的な表現を解釈する生成的なコンポーネントです。トレーニング中に学習したパターンに基づき、次に続く可能性の最も高い単語の並びを予測します。既存のものを単に繰り返すだけではなく、文脈的にも構文的にも一貫性のある新しいコンテンツを生成します。
 
これら2つのコンポーネントは並行して動作しますが、翻訳などのタスクに使用されるSeq2Seqモデルのように、一部のモデルは特定の側面に特化しています。GPTは、テキスト生成タスクにデコーダ部分のみを使用するモデルです。それに対し、BERTはエンコーダ部分を利用し、質問への回答や固有表現認識、品質評価など、言語に対する深い理解が必要なタスクの入力テキストを理解して処理します。
 
これは、RWSにとって素晴らしいチャンスでもあります。RWSには、ニューラル機械翻訳エンジンなどのエンコーダ/デコーダモデルがあります。入力テキストの内容を伝えることができるエンコーダモデルも、テキストを生成できるデコーダモデルもあります。この点からRWSの方向性がわかるのではないでしょうか。RWSは、3つのアーキテクチャを使用し、翻訳、テキスト分析、テキスト生成の3つの異なるタスクに合わせてそれぞれを最適化できます。3つのアーキテクチャをまとめ、入力テキストを自動的に翻訳し、改善が必要な領域を自動的に検出してフラグを付け、そのセクションを自動的に書き換えて改善できるようになったとしたらどうでしょう?
 
これこそまさに、RWSがLanguage Weaver Evolveの次世代対応で実現したことです。3つのAI搭載テクノロジーを組み合わせ、機械翻訳のポストエディットの課題に対応します。3つのコンポーネントは次のとおりです。
  1. 自動適応型言語ペアを使用するニューラル機械翻訳:Language Weaverのこのテクノロジーは、市場ですでに評価を得ています。指定の言語ペア全体にわたり、安全性と拡張性を確保した方法で関連する翻訳を提供できるように最適化されています。外部の入力から継続的に学習することもできます。この入力には、翻訳メモリデータ、バイリンガル辞書、ポストエディットから提供されるリアルタイムのフィードバックなどがあります。また、Language Weaverの言語ペアは、関連するバイリンガルコンテンツを所有する顧客が事前にトレーニングすることもできます。 
  2. 機械翻訳の品質評価(MTQE):この自動評価エンジンは、言語モデルに基づき、低品質の翻訳を自動的に検出してフラグを付けるように設計されています。当社の導入環境ではドキュメントと分節レベルの両方で評価できますが、Evolveでは、翻訳された各文に高品質、十分な品質、低品質のいずれかのマークを自動的に付けることに重点を置き、改善すべき部分を把握できるようにしています。
  3. 改善すべき部分を把握できたら、3つ目のコンポーネントの出番です。それは、大規模言語モデル(LLM)をベースとした自動ポストエディットエンジンです。RWSのMTサービスとMTQEサービスで使用されているものと同じインフラストラクチャを使用して安全にホストされています。
人間のリンギストに低品質な訳文や合格点すれすれの訳文を直接提供するのではなく、その訳文を改善し、より適切なスコアが得られるまで編集を繰り返す役目を機械に果たしてもらいます。自動編集のたびにMTQEプロセスが繰り返し実行され、翻訳が改善されたかどうかがテストされます。
Evolveで採用されたアプローチには、次のような興味深いメリットがあります。
  • 翻訳作業はすべて、高品質が求められる大規模な用途向けに最適化されたエンタープライズレベルの専用NMTモデルを使用して行われるとともに、適正な演算処理要件を満たし、総所有コストを削減します。このテクノロジーは、大規模なユーザーコミュニティで使用されており、数百もの民間および公共機関のお客様に導入されています。 
  • 品質評価モデルは、RWS社内の専門リンギストチームにより、人間が分類した例を使用して調整されています。これにより、モデルのパフォーマンスを調整し、必要に応じて新しい言語に対応できます。
  • 自動ポストエディットサービスでは、RWSがホストする小さめの専用LLMを活用します。これにより、LLMのパフォーマンスを調整でき、最高レベルのデータセキュリティの提供、予測可能なコスト構造内での運用が可能になります。また、変化の多いサードパーティ製APIにも対応できます。
  • 翻訳、品質評価、ポストエディットの独立した3つのモジュールからソリューションを構築するため、個々のコンポーネントだけでなく、それらの連携についても細かく調整できます。たとえば、Language Weaverでは、目的の結果が得られるまで、評価/編集タスクのループを複数回繰り返せるようになりました。編集タスクが完了すると、訳文が品質評価のために返されます。その結果、不適切と判断された訳文は、再度ポストエディットモジュールに渡されます。2度目のポストエディットでは、原文ドキュメントから追加の状況情報が取り込まれ、より優れた翻訳が生成されます(これまでの当社のテストでは、このループを最大3回繰り返せば、ほとんどの種類のコンテンツで品質、速度、コストの面で最も妥協できる結果が得られています)。
  • Evolveは、外部のシステムやワークフローでの翻訳の利用方法に影響を与えないため、従来のMTを使用するすべてのユースケースで使用できます。重要な点として、ローカリゼーションのユースケースで、ある程度の人間の介入がまだ必要な場合(または、多くの規制関連コンテンツのように義務付けられている場合)、Evolveは現在のワークフローにシームレスに統合されるため、人間のリンギストが抱えるポストエディットの負担を軽減できます。 
  • Language Weaverはすべての自動編集と評価結果を追跡しているため、翻訳/評価/編集のシーケンスの副産物は翻訳エンジンの良質なフィードバック源になります。自動適応型言語ペアは、入力された編集内容を監視し、そこから得た改善点を反映するためにモデルを自動更新します。

お客様もRWSとともに進化(Evolve)

ポストエディットの最適化は、企業のお客様から、翻訳会社、個人リンギストまで、翻訳プロセスに関わるあらゆる人に大きなチャンスをもたらします。自動適応型機械翻訳とLLMを組み合わせると、手動でのポストエディットの負担を最小限に抑え、限られたリソースを付加価値の高い活動に優先的に使用できます。また、人間の介入が最小限に抑えられているユースケース、つまり、市場投入期間やインサイト獲得までの時間が主要促進要因となっているユースケースでも、自動翻訳はますます活用されています。たとえば、法的な電子情報開示、規制コンプライアンス、デジタルフォレンジックに関連する、大量の翻訳が必要なユースケースなどがあります。ローカリゼーションプロセスでは、生産性が大幅に向上し、それがROIの向上につながります。適応型機械翻訳モデルを活用したいが、翻訳済みの素材が十分にないことがネックになっている組織にとっては、Language Weaver Evolveが、翻訳プロセスを導入し、改善の好循環に入る願ってもないきっかけとなります。 
 
進化に加わる方法RWSが実施するこの画期的な新機能のテストにご参加ください。当社は、新しいAIイノベーションは責任をもって市場にもたらすべきだと考えています。つまり、適切な検証や厳格なテストを実施し、セキュリティとデータプライバシーが常に維持されるようにするということです。そのため、ベータプログラムでは、さまざまなお客様とともにLanguage Weaver Evolveを慎重に評価していきます。プログラムへの参加に関心をお持ちの方は、ぜひご登録ください。ただし、参加人数には限りがございます。AIのメリットを確実に享受するためにも、今すぐご連絡ください。
Bart Maczynski
制作者

Bart Maczynski

Machine Learning担当VP、Solutions Consulting部門
BartはRWSのMachine Learning担当VPです。
この執筆者の全記事: Bart Maczynski