特別企画

ニューラル機械翻訳が登場し、機械翻訳への関心が高まっています。翻訳業界では実務翻訳分野を中心に機械翻訳を導入する会社も増えています。そのなかで、機械翻訳を必要以上に万能視し、人間の翻訳者は今後必要がなくなるのではないかという声もあります。しかし、機械翻訳についてもっと冷静に現状をとらえることが必要ではないかと考え、機械翻訳の研究に携わっている中澤敏明先生に寄稿いただきました。

1. 機械翻訳の歴史

「機械翻訳」という発想、つまり人間ではなく機械に、ある言語から別の言語への変換を行わせようという考えが生まれたのは、1947年にウォーレン・ウィーバーが送った手紙の中で

When I look at an article in Russian, I say "This is really written in English, but it has been coded in some strange symbols. I will now proceed to decode.”

と語ったことが最初だと言われています1。機械翻訳のきっかけは暗号解読だったのです。これを契機に数十年にわたり機械翻訳の研究に多額の投資がなされましたが、一向に精度が向上しなかったため、機械翻訳の研究は衰退していってしまいました。その後、自然言語処理技術2や計算機パワーの向上などにより、少しずつ機械翻訳の精度は向上していきました。なおこの頃の機械翻訳は、主に人手で整備された翻訳のルールに基づくものであり、ルールベース翻訳と呼ばれています。ルールは文の構造などを考慮したものになっており、ルールに良く当てはまる文ならば非常に高精度に翻訳できるため、ルールベース翻訳は現在でも一部の機械翻訳システムで使われています。しかし全ての言語現象をルールで書き尽くすことができない、言語が変わると全てのルールを書き直さなければならないなどの欠点もあります。

1981年には長尾真氏がアナロジーに基づく翻訳や用例に基づく翻訳(example-based machine translation: EBMT)と呼ばれる方法を提唱しました。これは過去の翻訳用例を組み合わせることで新たな文の翻訳を実現するというもので、ルールに基づく方法とは全く異なるアプローチでした。この翻訳用例を大量に集めたものを「対訳コーパス」と呼び、対訳コーパスから翻訳の知識を自動的に学習し翻訳を行う方式をコーパスベースの手法と呼びます。コーパスベースの手法では対訳コーパスを与えないと翻訳知識が獲得できないため、ルールベース翻訳とは異なり翻訳エンジンだけで翻訳を行うことはできませんが、与える対訳コーパスを変えるだけでどの言語にも対応することができます。

機械翻訳の歴史

1980年代後半にはIBMの研究グループが統計的機械翻訳(statistical machine translation: SMT)の研究を開始しました。これは単語の翻訳確率や並べ替えの確率などの翻訳に必要な知識を対訳コーパスから統計的な情報として学習するものであり、これを単語列も扱えるように拡張したものが2003年に提案された句に基づく翻訳(phrase-based SMT: PBSMT)で、現在でもスタンダードな機械翻訳手法として広く使われています3

2010年以降はSMTの研究も頭打ち感が広まり、国際会議に投稿される論文の数も徐々に減ってきていました。そんな中、全く新しい手法として2014年に登場したのが、ニューラルネットワーク(neural network: NN)を用いた機械翻訳、いわゆるニューラル機械翻訳(neural machine translation: NMT)です。NNは人間の神経細胞における情報伝達の仕組みを模した計算モデルであり、ここ数年で画像、音声、ロボティクス、自動運転など様々な分野において大きな成果を上げています。機械翻訳もその恩恵を受け、それまでの成果を大きく上回る結果を残しています。なおNMTもSMTなどと同様にコーパスベースの手法です。

NMTが提案されてしばらくするとBaidu、SYSTRAN、MicrosoftなどNMTをプロダクト化する企業も出始めました。中でも2016年11月にGoogle翻訳がNMTを採用した時には、言語によっては翻訳の精度が人間の翻訳能力に匹敵するぐらいに向上し、大きな話題となりました4。それでは次にNMTの仕組みを簡単に説明します。

2. ニューラル機械翻訳の仕組み

NMTの仕組みを説明する前に、SMTの翻訳の仕組みを簡単に押さえておきましょう。SMTは翻訳するべき文が入力されると、それぞれの単語や単語列に対して全ての翻訳候補を列挙します。次に列挙された翻訳候補から、入力文を過不足なくカバーするように適切な翻訳候補を選択し、それらを組み合わせて翻訳を生成します。当然、入力文を過不足なくカバーする翻訳候補の組み合わせは無数に存在するため、翻訳の確率や並べ替えの確率、文としての自然さを表す確率などを考慮して最適な組み合わせを選択します。このようにSMTでは入力文を小さな部分に分割し、部分ごとに目的言語に置き換えることで翻訳を行い、全ての部分が置き換えられたら翻訳終了となります。

次にNMTの翻訳の仕組みを説明します。NMTは前述のようにNNを利用した翻訳モデルであり、NNは人間の神経細胞に対応するニューロンと呼ばれる部品が数千から数万集まったものです。それぞれのニューロンが行うことは、入力される数値情報を少しだけ加工して、別のニューロンに伝えることだけですが、不思議なことにニューロンが大量に集まることで様々な高度なことが行えるようになるのです。NMTがNNを利用しているということは、実は各単語を数値列(ベクトル)に変換して5NNに入力し、内部で様々な数値変換(ベクトルと行列の積などの線形代数)が施され、最終的に出てきた数値を目的言語の単語に変換して出力しているだけなのです。

このように、SMTでは翻訳の過程は全て記号(原言語もしくは目的言語の文字や単語)の上で行われるのに対し、NMTでは最初の入力文と最後の出力文以外の部分は全てベクトルや行列で表現されており、翻訳の過程はベクトルと行列に対する計算だけになっています。このため、NMTがなぜそのような翻訳を出力したのかを解釈することは困難、もしくは不可能であると言えます6。一方で、単語をベクトルで表現したおかげで、同じ意味だが別の単語であっても、同じような翻訳を出力することができるようになりました。これはSMTでは実現困難であったことです。このような仕組みのおかげで、NMTでは意味を考えて翻訳している、と言われたりするのですが、実際のところは人間が翻訳を行う際に考慮しているであろう単語や文の意味とは程遠いレベルであると言えます。

またSMTは入力文の部分的な置き換えの組み合わせで翻訳を行っており、入力文を全て置き換えることで翻訳が終了するため、過不足のない翻訳を行うことができます。しかしNMTでは入力文の情報や過去に出力した単語を見ながら、次に出力する単語を1つずつ確率的に決定し、翻訳終了を表す特別なタグが出力された時点で翻訳が完了となります。一つずつ決めるためSMTに比べて翻訳文が非常に滑らかになるという利点がありますが、一方で翻訳の終了をコントロールすることができないという実用上大きな問題が生じます。翻訳終了タグが出力するまで翻訳は継続し、いつこのタグが出力されるかを知る術がないのです。このため入力文の全てが過不足なく訳出されるという保証がなく、同じところを複数回訳出したり(重複訳、over translation)、まだ訳出していない部分があるにもかかわらず翻訳終了タグを出力して翻訳を終了してしまったり(訳抜け、under translation)ということが起こってしまいます。今のGoogle翻訳でもこのような問題が起こることがありますが、その原因はNMTの仕組みによるものなのです。

3. ニューラル機械翻訳の質と課題

機械翻訳の手法がSMTからNMTに変わったことで翻訳の質は平均的にかなり向上し、特に翻訳文の滑らかさは飛躍的に向上しました。翻訳された文だけを見ると、人間が翻訳したのか機械が作り出したのかほとんど見分けがつきません。しかし逆にここに大きな落とし穴があります。前述の通りNMTではSMTに比べて訳抜けが発生しやすかったり、エンべディングを使っているため似たようなベクトルを持つ全く別の単語に翻訳されたりしてしまいますが、原文と照らし合わせない限りこれらの誤りに気づくことができなくなったのです。SMTでは翻訳に失敗した場合は明らかにおかしな訳文が生成されていることが多かったため、翻訳誤りに気づくことも容易だったのですが、NMTではその判断が難しくなっていると言えます。このように、現時点ではNMTによる翻訳は流暢さ(fluency)は完璧に近いですが、訳抜けが起こりやすく正確性(adequacy)が完璧ではない傾向があります。

近い将来、人間の翻訳者が全て機械翻訳に置き換わるかというと、それはありえないと私は思いますが、限られた範囲においてはそうなる可能性が高いです。広告や注意書き、旅行対話などの定型的な翻訳や、製品のマニュアル、特許文、論文などしっかりと書かれた文は現時点の機械翻訳でもある程度正確に翻訳が行えますし、多少の誤りが含まれていても大体の意味が捉えられれば良いという使い方ならば、人間の翻訳者は不要でしょう。またコミュニケーションを前提とした翻訳の場合、即時性が求められますし、万が一相手にうまく伝わらなくても聞き返したり表現を変えたりして何度か試すことで、コミュニケーションとしては成立しますので、やはり人間の翻訳者は不要です。

ニューラル機械翻訳の質と課題

機械翻訳が不得意なのは、2つの言語間あるいは2国間の文化差を考慮した翻訳、一般常識を考慮した翻訳、文学作品などのように受け取り手によって解釈が変わるような翻訳などです。いくら機械翻訳が賢くなったからといって、基本的には与えられた対訳コーパスに書かれていることしか知りませんので、それ以上のことはできません。気の利いた翻訳はできないのです。昨今のAIブームは始まったばかりで、今後どうなるかはよめないところが大きいですが、気の利いた翻訳はおそらくまだ数十年は実現できないでしょう。気の利いた翻訳はまだしばらくは人間にしかできない仕事です。また文学作品の翻訳においては、人間が翻訳したとしてもこれが正しい訳だというものは存在しません。逆にいうと、機械による翻訳も文学を楽しむ1つの手段になり得るかもしれません。これはちょうど音楽の分野で初音ミクが登場したのと、厳密には違いますが、似ています。

4. おわりに

本稿では機械翻訳の歴史を簡単に振り返り、最新の機械翻訳手法であるニューラル機械翻訳の仕組みを解説し、その長所や短所などについて述べました。ニューラル機械翻訳は誕生してからまだ数年しか経っていませんが、それまでの翻訳精度をすでに圧倒しており、現在も日々進化しています。今後どこまで進化するか予測することは難しいですが、人間の翻訳者が完全に排除されることはないと考えています。ただ、人間の翻訳者も機械翻訳に負けないように翻訳の腕を磨く必要があると思います。生産性だけをみれば、人間が機械に敵うことはありません。機械にできないことを人間がやるしかないのです。

Profile

中澤敏明

埼玉県生まれ。2007年 東京大学大学院情報理工学系研究科修了。10年京都大学大学院情報学研究科修了、博士(情報学)。京都大学大学院黒橋・河原研特定研究員および特定助教、JST研究員を経て、現在は東京大学大学院 情報理工学系研究科特任講師を務める。共著として『機械翻訳(自然言語処理シリーズ)』(コロナ社)。