(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-11-18
(45)【発行日】2022-11-29
(54)【発明の名称】翻訳モデルのトレーニング方法、語句翻訳の方法、機器、記憶媒体及びコンピュータプログラム
(51)【国際特許分類】
G06F 40/44 20200101AFI20221121BHJP
【FI】
G06F40/44
(21)【出願番号】P 2020545261
(86)(22)【出願日】2019-03-29
(86)【国際出願番号】 CN2019080411
(87)【国際公開番号】W WO2019214365
(87)【国際公開日】2019-11-14
【審査請求日】2020-08-28
(31)【優先権主張番号】201810445783.2
(32)【優先日】2018-05-10
(33)【優先権主張国・地域又は機関】CN
【前置審査】
(73)【特許権者】
【識別番号】517392436
【氏名又は名称】▲騰▼▲訊▼科技(深▲セン▼)有限公司
(74)【代理人】
【識別番号】100110364
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】程 勇
(72)【発明者】
【氏名】▲塗▼ 兆▲鵬▼
(72)【発明者】
【氏名】孟 凡▲東▼
(72)【発明者】
【氏名】▲ジャイ▼ 俊杰
(72)【発明者】
【氏名】▲劉▼ 洋
【審査官】成瀬 博之
(56)【参考文献】
【文献】特開2018-055670(JP,A)
【文献】特表2012-527701(JP,A)
【文献】特開2007-122525(JP,A)
【文献】山内真樹 他3名,自動コーパス生成とフィードバックによる少量コーパスからの統計機械翻訳,2016年度 人工知能学会全国大会(第30回)論文集[CD-ROM],日本,社団法人 人工知能学会,2016年06月06日
(58)【調査した分野】(Int.Cl.,DB名)
G06F 40/20-40/58
(57)【特許請求の範囲】
【請求項1】
コンピュータ機器が実行する翻訳モデルのトレーニング方法であって、
前記コンピュータ機器が、複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するステップと、
前記コンピュータ機器が、前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するステップであって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、トレーニングサンプルの単語を置き換えることによって、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い前記外乱サンプルが採用される、ステップと、
前記コンピュータ機器が、前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するステップとを含む方法であって、
前記各トレーニングサンプルは、トレーニング入力サンプルとトレーニング出力サンプルとが含まれる1つのトレーニングサンプル対であり、
前記コンピュータ機器が、各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定する前記ステップは、
各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び外乱出力サンプルセットの対応する外乱出力サンプルを決定するステップであって、前記外乱入力サンプルセットには少なくとも1つの外乱入力サンプルが含まれ、前記外乱出力サンプルと前記トレーニング出力サンプルとが同様であるステップを含み、
前記コンピュータ機器が、前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得する前記ステップは、
複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するステップを含み、
前記コンピュータ機器が、前記トレーニングサンプルセットにおける各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセットを決定する前記ステップは、
前記各トレーニング入力サンプルにおける第1単語を決定するステップであって、前記第1単語は置換対象単語であるステップと、
前記第1単語の単語ベクトルに基づいて、少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを取得するステップであって、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高いステップとを含む、方法
であって、
前記初期翻訳モデルは、エンコーダと、分類器と、デコーダとを含み、
前記エンコーダは、前記トレーニング入力サンプルと対応する外乱入力サンプルを受信するとともに、第1中間表現結果と第2中間表現結果を出力し、前記第1中間表現結果は前記トレーニング入力サンプルの中間表現結果であり、前記第2中間表現結果は前記対応する外乱入力サンプルの中間表現結果であり、
前記分類器は、前記第1中間表現結果と前記第2中間表現結果とを区別し、第1中間表現結果と前記第2中間表現結果に基づいて分類値を出力して前記第1中間表現結果と前記第2中間表現結果とが類似の表示となるよう前記エンコーダを激励し、
前記デコーダは、第1中間表現結果に基づいて前記トレーニング出力サンプルを出力し、前記第2中間表現結果に基づいて前記トレーニング出力サンプルを出力する
方法。
【請求項2】
前記コンピュータ機器が、前記トレーニングサンプルセットにおける各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセットを決定する前記ステップは、
前記各トレーニング入力サンプルにおける各単語の単語ベクトルを決定するステップと、
毎回、前記各単語の単語ベクトルに1つの異なるガウシノイズベクトルを重畳することで、ガウシノイズが付けられた後の単語の単語ベクトルを得て、
前記ガウシノイズが付けられた後の単語の単語ベクトルを用いて単語の語義情報を捕捉することにより、該当する語義情報を有する単語を得て前記外乱サンプルセットを取得するステップとを含む請求項1に記載の方法。
【請求項3】
前記初期翻訳モデルのモデルターゲット関数は、前記分類器と前記エンコーダに関する分類ターゲット関数と、前記エンコーダと前記デコーダに関するトレーニングターゲット関数と、外乱ターゲット関数とを含み、
前記分類ターゲット関数には、前記トレーニング入力サンプルと、前記対応する外乱入力サンプルと、前記エンコーダのパラメータと、前記分類器のパラメータとが含まれ、前記分類値を計算し、
前記トレーニングターゲット関数には、前記トレーニング入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれ、
前記外乱ターゲット関数には、前記外乱入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれる
請求項1に記載の方法。
【請求項4】
前記コンピュータ機器が、複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得する前記ステップは、
各トレーニング入力サンプル、対応する外乱入力サンプル及び対応するトレーニング出力サンプルを前記モデルターゲット関数に入力するステップと、
勾配降下という方式で前記モデルターゲット関数を最適化し、前記エンコーダのパラメータの値、前記デコーダのパラメータの値及び前記分類器のパラメータの値を決定するステップであって、分類ターゲット関数におけるエンコーダのパラメータの勾配に-1をかけるステップとを含む
請求項3に記載の方法。
【請求項5】
1つ又は複数のプロセッサと、プログラムユニットを記憶するための1つ又は複数のメモリとを含む翻訳モデルのトレーニング装置であって、前記プログラムユニットは前記プロセッサによって実行され、前記プログラムユニットは、
複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するように配置される取得ユニットと、
前記取得ユニットにより取得した前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するように配置される決定ユニットであって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、トレーニングサンプルの単語を置き換えることによって、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い前記外乱サンプルが採用される、決定ユニットと、
前記取得ユニットにより取得した前記複数のトレーニングサンプル及び前記決定ユニットにより決定した前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するように配置されるモデルトレーニングユニットと、を含む装置であって、
前記決定ユニットは、前記各トレーニングサンプルが、トレーニング入力サンプルとトレーニング出力サンプルとが含まれる1つのトレーニングサンプル対である場合、各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び外乱出力サンプルセットの対応する外乱出力サンプルを決定するように配置され、前記外乱入力サンプルセットには少なくとも1つの外乱入力サンプルが含まれ、前記外乱出力サンプルと前記トレーニング出力サンプルとが同様であり、
前記モデルトレーニングユニットは、複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するように配置される、
前記決定ユニットは、前記トレーニングサンプルセットにおける各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセットの決定の際に、前記各トレーニング入力サンプルにおける第1単語を決定するものであり、前記第1単語は置換対象単語であり、前記第1単語の単語ベクトルに基づいて、少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを取得するものであり、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高いものである、装置
であって、
前記初期翻訳モデルは、エンコーダユニットと、分類ユニットと、デコーダユニットとを含み、
前記エンコーダユニットは、前記トレーニング入力サンプルと対応する外乱入力サンプルを受信するとともに、第1中間表現結果と第2中間表現結果を出力し、前記第1中間表現結果は前記トレーニング入力サンプルの中間表現結果であり、前記第2中間表現結果は前記対応する外乱入力サンプルの中間表現結果であり、
前記分類ユニットは、前記第1中間表現結果と前記第2中間表現結果とを区別し、第1中間表現結果と前記第2中間表現結果に基づいて分類値を出力して前記第1中間表現結果と前記第2中間表現結果とが類似の表示となるよう前記エンコーダユニットを激励し、
前記デコーダユニットは、第1中間表現結果に基づいて前記トレーニング出力サンプルを出力し、前記第2中間表現結果に基づいて前記トレーニング出力サンプルを出力する
装置。
【請求項6】
入力/出力(I/O)インターフェースと、プロセッサと、メモリとを有するコンピュータ機器であって、前記メモリにはプログラム命令が記憶され、
前記プロセッサはメモリに記憶されるプログラム命令を実行することで、
請求項1~4のいずれか1項に記載の方法を実行するコンピュータ機器。
【請求項7】
命令を含む非一時的なコンピュータ読み取り可能な記憶媒体であって、前記命令がコンピュータ機器で実行される場合、前記コンピュータ機器に
請求項1~4のいずれか1項に記載の方法を実行させる記憶媒体。
【請求項8】
命令を含むコンピュータプログラムであって、前記命令がコンピュータ機器で実行される場合、前記コンピュータ機器に
請求項1~4のいずれか1項に記載の方法を実行させるコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本出願は2018年05月10日にて中国特許庁に提出され、出願番号が201810445783.2であり、発明の名称が「翻訳モデルのトレーニング方法、語句翻訳の方法、機器及び記憶媒体」である中国特許出願の優先権を主張して、その全ての内容を本出願に参照により援用する。
【0002】
本出願の実施例は、コンピュータ技術分野に関わり、具体的に、翻訳モデルのトレーニング方法、語句翻訳の方法、機器及び記憶媒体に関わる。
【背景技術】
【0003】
人工知能の発展に連れて、機械翻訳は既に大幅に応用され、例えば同時通訳及びチャット翻訳などは、いずれも機械翻訳に基づき、1つの入力言語を他の言語に変換して出力する。
【発明の概要】
【発明が解決しようとする課題】
【0004】
ニューラル機械翻訳は、完全にニューラルネットワークに基づく機械翻訳モデルであり、いろんな言語ペアで既に優れた翻訳水準に達して、各種機械翻訳製品に大幅に応用されている。ただし、ニューラル機械翻訳モデルは1つの完全なニューラルネットワークに基づき、そのモデリングの全体性のため、ターゲットエンドの各出力はソースエンドから入力される各単語に依存し、入力における僅かな外乱に対して敏感すぎる。例えば、中国語から英語への翻訳において、ユーザが「彼らは困難を恐れず、囲碁AIを作成する」を入力すると、機械翻訳モデルから提供した英語翻訳は「They are not afraid of difficulties to make Go AI」であるが、ユーザが「彼らは困難を怖がらず、囲碁AIを作成する」という類似の語句を入力すると、機械翻訳の出力は急激に変えて、結果として、「They are not afraid to make Go AI」になり、ユーザはただ同義語でそのうちの1つの単語を置き換えているが、その翻訳結果が急激に変化した。
【0005】
このように、現在のニューラル機械翻訳の安定性、つまりロバスト性は劣っている。
【0006】
本出願の実施例は、機械翻訳のロバスト性、及び翻訳品質を向上させるための、翻訳モデルのトレーニング方法、語句翻訳の方法、機器及び記憶媒体を提供する。
【課題を解決するための手段】
【0007】
本出願の実施例第1の態様は翻訳モデルのトレーニング方法を提供し、前記方法は、
コンピュータ機器が、複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するステップと、
コンピュータ機器が、前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するステップであって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高いステップと、
コンピュータ機器が、前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するステップを含む。
【0008】
本出願の実施例の第2の態様は語句翻訳の方法を提供し、前記方法は、
端末機器が第1言語で表現される第1翻訳対象語句を受信するステップと、
端末機器がターゲット翻訳モデルを利用して前記第1翻訳対象語句を翻訳することで、第2言語で表現される翻訳結果語句を取得するステップであって、前記ターゲット翻訳モデルは複数のトレーニングサンプル及び前記複数のトレーニングサンプルにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用してトレーニングすることで得られて、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高いステップと、
端末機器が前記第2言語で表現される翻訳結果語句を出力するステップとを含む。
【0009】
本出願の実施例の第3の態様は、1つ又は複数のプロセッサと、プログラムユニットを記憶するための1つ又は複数のメモリとを有する翻訳モデルのトレーニング装置を提供し、プログラムユニットはプロセッサによって実行され、プログラムユニットは、
複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するように配置される取得ユニットと、
前記取得ユニットにより取得した前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するように配置される決定ユニットであって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い決定ユニットと、
前記取得ユニットにより取得した前記複数のトレーニングサンプル及び前記決定ユニットにより決定した前記各々トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するように配置されるモデルトレーニングユニットと、を含む。
【0010】
本出願の実施例の第4の態様は、1つ又は複数のプロセッサと、プログラムユニットを記憶するための1つ又は複数のメモリとを有する語句翻訳装置を提供し、プログラムユニットはプロセッサによって実行され、プログラムユニットは、
第1言語で表現される第1翻訳対象語句を受信するように配置される受信ユニットと、
ターゲット翻訳モデルを利用して前記受信ユニットにより受信した前記第1翻訳対象語句を翻訳することで、第2言語で表現される翻訳結果語句を取得するように配置される翻訳ユニットであって、前記ターゲット翻訳モデルは複数のトレーニングサンプル及び前記複数のトレーニングサンプルにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用してトレーニングすることで得られて、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い翻訳ユニットと、
前記翻訳ユニットにより翻訳した第2言語で表現される翻訳結果語句を出力するように配置される出力ユニットと、を備える。
【0011】
本出願の実施例の第5の態様は、入力/出力(I/O)インターフェースと、プロセッサと、メモリとを有するコンピュータ機器を提供し、前記メモリにはプログラム命令が記憶され、
前記プロセッサはメモリに記憶されるプログラム命令を実行することで、第1の態様に記載の方法を実行する。
【0012】
本出願の実施例第6の態様は、入力/出力(I/O)インターフェースと、プロセッサと、メモリとを有する端末機器を提供し、前記メモリにはプログラム命令が記憶され、
前記プロセッサはメモリに記憶されるプログラム命令を実行することで、第2の態様に記載の方法を実行する。
【0013】
本出願の実施例の第7の態様は命令を有する非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記命令がコンピュータ機器で実行される場合、前記コンピュータ機器に前記第1の態様または第2の態様に記載の方法を実行させる。
【0014】
本出願の実施例の他の態様は命令を有するコンピュータプログラム製品を提供し、前記命令はコンピュータで実行される場合、コンピュータに前記第1の態様または第2の態様に記載の方法を実行させる。
【0015】
本出願の実施例は、翻訳モデルをトレーニングする際、外乱サンプルを利用し、外乱サンプルとトレーニングサンプルとの語義の類似度が第1プリセット値より高く、つまり、外乱サンプルとトレーニングサンプルとの語義が近く、このようにトレーニングしたターゲット翻訳モデルがノイズ付きの語句を受信しても、正確に翻訳できる。これによって、機械翻訳のロバスト性及び翻訳品質を向上させる。
【図面の簡単な説明】
【0016】
【
図1】本出願の実施例における翻訳モデルトレーニングシステムの1つの実施例の模式図である。
【
図2】本出願の実施例における翻訳モデルトのレーニング方法の1つの実施例の模式図である。
【
図3】本出願の実施例における初期翻訳モデルのアーキテクチャ模式図である。
【
図4】本出願の実施例における語句翻訳の方法の1つの実施例の模式図である。
【
図5】本出願の実施例における語句翻訳の1つの応用シーン模式図である。
【
図6】本出願の実施例における語句翻訳の他の応用シーン模式図である。
【
図7】本出願の実施例における語句翻訳の他の応用シーン模式図である。
【
図8】本出願の実施例における語句翻訳の他の応用シーン模式図である。
【
図9】本出願の実施例における翻訳モデルのトレーニング装置の1つの実施例の模式である。
【
図10】本出願の実施例における語句翻訳装置の1つの実施例の模式である。
【
図11】本出願の実施例におけるコンピュータ機器の1つの実施例の模式図である。
【
図12】本出願の実施例における端末機器の1つの実施例の模式図である。
【発明を実施するための形態】
【0017】
以下は図面を結合して、本出願の実施例を記載し、明らかに、記載の実施例は全ての実施例ではなく、本出願の一部の実施例のみである。当業者が知っているように、技術の発展及び新たなシーンの出現に連れて、類似の技術問題に対しても、本出願の実施例により提供される技術案は同じように適用できる。
【0018】
本出願の実施例は、機械翻訳のロバスト性及び翻訳品質を向上させることができる翻訳モデルのトレーニング方法を提供する。本出願の実施例はさらに相応的な語句翻訳の方法、コンピュータ機器、端末機器及びコンピュータ読み取り可能な記憶媒体を提供する。以下はそれぞれ詳しく説明する。
【0019】
人工知能の発展に連れて、機械翻訳の正確さがますます高くなり、かなりの程度で、ユーザに便利をもたらす。例えば同時通訳、文字翻訳などのシーンにおいていずれも機械翻訳を利用する。一般的に、機械翻訳はモデルによる翻訳であり、つまり、翻訳モデルを事前にトレーニングすることで、トレーニングされた翻訳モデルは1つの言語の語句を受信し得て、そして該語句を他の言語に変換して出力する。現在のニューラル機械翻訳は完全にニューラルネットワークに基づく機械翻訳モデルであり、翻訳の正確さが高いが、該モデルのアンチノイズ能力が劣って、入力される語句に僅かな外乱があっても、出力される語句は不正確になる。従って、本出願の実施例は翻訳モデルのトレーニング方法を提供し、翻訳モデルをトレーニングする際、トレーニングサンプルに各種の外乱サンプルが導入されることで、トレーニングされた翻訳モデルは、外乱付きの語句を受信しても、正確に翻訳できることを保証する。
【0020】
なお、本出願の実施例において、外乱はノイズを含む。
【0021】
以下は図面を結合して、本出願の実施例における翻訳モデルトのレーニング過程を紹介する。
【0022】
図1は、本出願の実施例における翻訳モデルトレーニングシステムの1つの実施例の模式図である。
【0023】
図1に示すように、本出願の実施例における翻訳モデルトレーニングシステムの1つの実施例は、コンピュータ機器10とデータベース20とを有し、データベース20にはトレーニングサンプルが記憶される。
【0024】
コンピュータ機器10は、データベース20からトレーニングサンプルセットを取得し、そして、該トレーニングサンプルセットによって翻訳モデルをトレーニングし、ターゲット翻訳モデルを得る。
【0025】
該モデルのトレーニング過程について
図2を参照し、
図2は本出願の実施例における翻訳モデルのトレーニング方法の1つの実施例の模式図である。
【0026】
図2に示すように、本出願の実施例により提供される翻訳モデルのトレーニング方法の1つの実施例は以下のステップを有し、
101、コンピュータ機器は複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得する。
【0027】
本出願の実施例において、トレーニングサンプルセットにおけるトレーニングサンプルは、外乱が付けられていないサンプルを指す。
【0028】
102、コンピュータ機器は前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定し、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い。
【0029】
本出願の実施例において、外乱サンプルは外乱情報またはノイズが含まれるサンプルを指すが、その語義とトレーニングサンプルとの類似度が基本的に一致であり、外乱情報は意思が同様であるが、文字が異なる単語であってもよく、他の状況で語句の語義を大幅に変化させない単語であってもよい。
【0030】
本出願の実施例における第1プリセット値は例えば、90%または95%などのような1つの具体的な値であってよく、例を挙げて説明するが、第1プリセット値の範囲を限定せず、該第1プリセット値は必要に応じて設定すればよい。
【0031】
トレーニングサンプルと外乱サンプルとの関係について、以下の例を参照して理解すればよく、
トレーニングサンプル:「彼らは困難を恐れず、囲碁AIを作成する」。
外乱サンプル:「彼らは困難を怖がらず、囲碁AIを作成する」。
【0032】
前記例から分かるように、トレーニングサンプルと外乱サンプルとの語義は非常に近くて、ただ異なる単語、例えば「怖がらず」で元の単語である「恐れず」を置き換える。
【0033】
103、コンピュータ機器は、前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得る。
【0034】
モデルをトレーニングする際、トレーニングサンプルと対応する外乱サンプルを利用してトレーニングする。
【0035】
本出願の実施例は、翻訳モデルをトレーニングする際、外乱サンプルを採用し、外乱サンプルとトレーニングサンプルとの語義の類似度が第1プリセット値より高く、つまり、外乱サンプルとトレーニングサンプルとの語義が近く、このようにトレーニングされたターゲット翻訳モデルがノイズ付きの語句を受信しても、正確に翻訳できる。これによって、機械翻訳のロバスト性及び翻訳品質を向上させる。
【0036】
任意選択で、本出願の実施例により提供される翻訳モデルのトレーニング方法の他の実施例において、
前記各トレーニングサンプルは、トレーニング入力サンプルとトレーニング出力サンプルとが含まれる1つのトレーニングサンプル対であり、
対応するように、前記コンピュータ機器は、各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定することは、
各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを決定することを含み、前記外乱入力サンプルセットには少なくとも1つの外乱入力サンプルが含まれ、前記外乱出力サンプルと前記トレーニング出力サンプルとが同様であり、
対応するように、コンピュータ機器は、前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットによって初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得ることは、
複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得ることを含む。
【0037】
本出願の実施例において、トレーニング入力サンプルは第1言語であり、トレーニング出力サンプルは第2言語である。第1言語と第2言語とは異なる。本出願の実施例において、第1言語に対して中国語で例を挙げて、第2言語に対して英語で例を挙げる。ただし、中国語と英語を、本出願の実施例における翻訳モデルに対する限定として理解するべきではない。本出願の実施例における翻訳モデルは、いずれか2つの異なる言語の間の相互翻訳に適用される。トレーニングする際、相応的な2つの言語のトレーニングサンプルを採用すれば、この2つの言語の間の翻訳を実現できる。
【0038】
本出願の実施例において、各々トレーニング入力サンプルは複数の外乱入力サンプルを具備し得るが、各々外乱入力サンプルに対応する外乱出力サンプルはいずれもトレーニング出力サンプルと同様である。
【0039】
以上のトレーニング入力サンプル、トレーニング出力サンプル、外乱入力サンプル、及び外乱出力サンプルの間の対応関係について、表1を参照して理解すればよい。
【0040】
【0041】
以上の表1から分かるように、トレーニング入力サンプルがxである場合、トレーニング出力サンプルはyであり、xに対応する外乱入力サンプルは複数があり、それぞれx′1、x′2及びx′3などであり、各外乱入力サンプルに対応する外乱出力サンプルはいずれもyである。このように、x、それともx′1、x′2またはx′3を入力しても、トレーニングされたターゲット翻訳モデルから出力される翻訳結果はいずれもyであるように確保できる。ターゲット翻訳モデルの翻訳のロバスト性及び翻訳品質をさらに保証する。
【0042】
無論、表1はただ例を挙げて説明し、トレーニング入力サンプルに対応する外乱入力サンプルは、表1における列挙するものより少なくても多くてもよい。
【0043】
以上は外乱入力サンプルを紹介し、以下は外乱入力サンプルの発生を紹介する。
【0044】
外乱入力サンプルの1つの発生方式は以下の通りである。
【0045】
前記トレーニングサンプルセットにおける各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセットを決定することは以下を含み、
前記各トレーニング入力サンプルにおける第1単語を決定し、前記第1単語は置換対象となる単語であり、
少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを得て、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高い。
【0046】
本出願の実施例において、語彙レベルから外乱付きの語句を発生させ、1つの入力の語句を特定し、そして、そのうちの修正対象となる第1単語に対してサンプリングを行って、該第1単語の位置を決定してから、これらの位置にある第1単語を、単語表における第2単語に置き換える。
【0047】
単語表には多い単語が含まれ、第2単語に対する選択について、以下の式を参照して理解すればよい。
【0048】
【0049】
なお、E[xi]は第1単語xiの単語ベクトルであり、cos(E[xi]、E[x])は第1単語xiと第2単語xとの類似度を計量する。単語ベクトルは単語の語義情報を捕捉できるから、該置換方式で、順調に現在語句における第1単語xiを、それと近い語義情報を有する第2単語xに置き換えることができる。
【0050】
また、外乱入力サンプルの他の発生方式は以下の通りである。
【0051】
前記トレーニングサンプルセットにおける各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセットを決定することは、
前記各トレーニング入力サンプルにおける各単語の単語ベクトルを決定することと、
毎回に、前記各単語の単語ベクトルに1つの異なるガウシノイズベクトルを重畳することで、前記外乱サンプルセットを得ることと、を含む。
【0052】
本出願の実施例において、特徴レベルから外乱付きの語句を発生させる。1つの語句を特定し、該語句における各単語のベクトルを得て、そして、各単語の単語ベクトルに対していずれもガウシノイズをつけることで、可能な外乱種類をシミュレーションし、以下の式を参照して理解すればよい。
【0053】
E[x′i]=E[xi]+ε、ε~N(0、vδ 2I)
【0054】
以上の式が示すように、E[xi]は単語xiの単語ベクトルを標識し、E[x′i]はガウシノイズが付けられた後の単語の単語ベクトルであり、ベクトルεは分散がδ 2であるガウシノイズからサンプリングすることで取得され、δは1つのハイパーパラメータである。
【0055】
本技術案において、1つの汎用案であり、外乱入力に参加する対策を自由に定義できる。
【0056】
以上は外乱入力サンプルの発生過程を紹介し、以下は本出願の実施例における翻訳モデルのアーキテクチャを紹介する。
【0057】
図3は、本出願の実施例における初期翻訳モデルのアーキテクチャ模式図であり、
図3に示すように、本出願の実施例により提供される初期翻訳モデルはエンコーダと、分類器とデコーダとを含む。
【0058】
エンコーダは、トレーニング入力サンプル及び対応する外乱入力サンプルを受信するとともに、第1中間表現結果及び第2中間表現結果を出力し、第1中間表現結果はトレーニング入力サンプルの中間表現結果であり、第2中間表現結果は対応する外乱入力サンプルの中間表現結果である。
【0059】
分類器は、第1中間表現結果と第2中間表現結果とを区別する。
【0060】
デコーダは、第1中間表現結果に基づいてトレーニング出力サンプルを出力し、第2中間表現結果に基づいてトレーニング出力サンプルを出力する。
【0061】
前記初期翻訳モデルのモデルターゲット関数は、前記分類器と前記エンコーダに関する分類ターゲット関数と、前記エンコーダと前記デコーダに関するトレーニングターゲット関数と、外乱ターゲット関数とを含み、
前記分類ターゲット関数には、前記トレーニング入力サンプルと、前記対応する外乱入力サンプルと、前記エンコーダのパラメータと、前記分類器のパラメータとが含まれ、
前記トレーニングターゲット関数には、前記トレーニング入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれ、
前記外乱ターゲット関数には、前記外乱入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれる。
【0062】
本出願の実施例において、トレーニング入力サンプルはxで示し、対応する外乱入力サンプルはx′で示し、トレーニング出力サンプル及び外乱出力サンプルはいずれもyで示し、第1中間表現結果はHxで示し、第2中間表現結果はHx′で示し、分類ターゲット関数はLinv(x、x′)で示し、トレーニングターゲット関数はLtrue(x、y)で示し、外乱ターゲット関数はLnoisy(x′、y)で示す。
【0063】
本出願の実施例における初期翻訳モデルは、ニューラル機械翻訳モデルであってもよい。
【0064】
初期翻訳モデルに対するトレーニングターゲットは、初期翻訳モデルのx及びx′に対する翻訳行為を基本的に一致させる。エンコーダは第1言語の語句xをHxに変換し、デコーダはHxを入力としてターゲット言語の語句yを出力する。本出願の実施例のトレーニングターゲットは、外乱があっても不変のエンコーダとデコーダをトレーニングすることである。
【0065】
x′はxの1つの微小な変化であるから、類似の語義情報を有する。1つの入力対(x、x′)を特定し、翻訳モデルをトレーニングする際のトレーニングターゲットは以下の通りであり、(1)HxとHx′とがなるべく近接すべきであることを示すようにコーディングし、(2) Hx′を特定し、デコーダは同じyを出力すべきである。従って、本出願の実施例には、2つのトレーニングターゲットが導入されることで、エンコーダとデコーダとのロバスト性を強化させ、
Linv(x、x′)を導入することで、xとx′に対して類似の表示を出力するように、エンコーダを激励し、これによって、外乱があっても不変のエンコーダを実現し、敵対的学習を介して該ターゲットを実現する。
【0066】
Lnoisy(x′、y) を導入することで、外乱が含まれる入力x′に対してターゲット言語の語句yを発生させるように、デコーダをガイドする。
【0067】
新たに導入される2つのトレーニングターゲットはニューラル機械翻訳モデルのロバスト性を実現でき、入力の僅かな外乱による出力空間の急激な変化を回避できる。その同時に、元のデータx及びyでのトレーニングターゲットLtrue(x、y)を導入することで、ニューラル機械翻訳モデルのロバスト性を向上させるとともに、翻訳の品質を強化させるように保証する。
【0068】
従って、初期翻訳モデルのモデルターゲット関数は以下の通りである。
【0069】
【0070】
θencはエンコーダのパラメータであり、θdecはデコーダのパラメータであり、θdisは分類器のパラメータである。αとβとは元の翻訳タスクと機械翻訳モデルの安定性との間の重要度を制御するために用いられる。
【0071】
外乱があっても不変のエンコーダのターゲットは、エンコーダが1つの正確な語句x及びその対応する外乱語句x′を入力して後、エンコーダが2つの語句に対して発生する表現は区別できず、デコーダがロバストの出力を発生させることに直接的に寄与する。本出願の実施例において、エンコーダを発生器Gとすることができ、陰的表現であるHxシーケンスの発生過程を定義する。その同時に、元に入力される表現Hxと外乱入力Hx′とを区別するための分類器Dを導入する。発生器Gの作用はx及びx′に対して近い表現を発生させることで、分類器Dがそれらを区別できないようにすることであり、分類器Dの作用はそれらをなるべく区別するようにすることである。
【0072】
形式で、敵対的学習のターゲットは以下の通り定義する。
【0073】
【0074】
1つの入力を特定し、分類器は1つの分類値を出力し、そのターゲットは正確な語句xの分類値を最大化にするとともに、外乱語句x′の分類値を最小化にすることである。
【0075】
確率的勾配降下でモデルターゲット関数J(θ)を最適化する。フォワード伝搬において、xとyとが含まれる1組のデータ以外に、さらにx′とyとが含まれる1組のデータがある。該2組のデータによりJ(θ)の値を算出し、そして、J(θ)のモデルパラメータに対応する勾配を算出し、これらの勾配は、モデルパラメータを更新するために用いられる。なぜならば、Linvのターゲットは、正確な語句xの分類値を最大化にするとともに、外乱語句x′の 分類値を最小化することであるから、Linvのパラメータセットθencに対する勾配に-1をかけて、他の勾配は正常に伝搬さればよい。このように、初期トレーニングモデルにおけるθenc、θdec及びθdisの値を算出でき、アンチノイズ能力を有するターゲット翻訳モデルをトレーニングする。
【0076】
つまり、本出願の実施例において、前記複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得ることは以下を含み、
各トレーニング入力サンプル、対応する外乱入力サンプル及び対応するトレーニング出力サンプルを前記モデルターゲット関数に入力し、
勾配降下という方式で前記モデルターゲット関数を最適化することで、前記エンコーダのパラメータの値、前記デコーダのパラメータの値及び前記分類器のパラメータの値を決定し、分類ターゲット関数におけるエンコーダのパラメータの勾配に-1をかける。
【0077】
以上はターゲット翻訳モデルのトレーニング過程を紹介し、以下は該ターゲット翻訳モデルによって語句翻訳を行う過程を紹介する。
【0078】
図4は、本出願の実施例における語句翻訳の方法の1つの実施例の模式図であり、
図4に示すように、本出願の実施例により提供される語句翻訳の方法の1つの実施例は以下のステップを有し、
201、端末機器は第1言語で表現される第1翻訳対象語句を受信する。
【0079】
本出願の実施例において、第1言語はターゲット翻訳モデルが支持する、任意のタイプの言語であってよい。
【0080】
202、端末機器はターゲット翻訳モデルによって前記第1翻訳対象語句を翻訳することで、第2言語で表現される翻訳結果語句を得て、前記ターゲット翻訳モデルは複数のトレーニングサンプル及び前記複数のトレーニングサンプルにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用してトレーニングすることで得られて、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い。
【0081】
ターゲット翻訳モデルについて、前記モデルのトレーニング過程の実施例を参照して理解すればよく、ここで贅言しない。
【0082】
203、端末機器は前記第2言語で表現される翻訳結果語句を出力する。
【0083】
第2言語は第1言語と異なる言語であり、例えば、第1言語は中国語であり、第2言語は英語である。
【0084】
本出願の実施例において、ターゲット翻訳モデルはアンチノイズ能力を有するから、ノイズが付けられた語句を受信しても、正確に翻訳できる。これによって、機械翻訳のロバスト性及び翻訳品質を向上させる。
【0085】
任意選択で、本出願の実施例により提供される語句翻訳の方法の他の実施例において、さらに以下を含んでもよく、
端末機器は前記第1言語で表現される第2翻訳対象語句を受信し、前記第2翻訳対象語句が前記第1翻訳対象語句の外乱語句であり、前記第2翻訳対象語句と、前記第1翻訳対象語句との類似度が第1プリセット値より高く、
端末機器はターゲット翻訳モデルによって前記第2翻訳対象語句を翻訳することで、前記第1翻訳対象語句に対応する前記翻訳結果語句を得て、
端末機器は前記翻訳結果語句を出力する。
【0086】
本出願の実施例において、第1翻訳対象語句は前記例示におけるトレーニング入力サンプルに限定されず、前記外乱入力サンプルのうちの1つであってもよい。
【0087】
本出願の実施例における語句翻訳案について、以下の2つのシーンの例示を参照して理解すればよい。
【0088】
図5は、本出願の実施例における語句翻訳の1つの応用シーンの模式図であり、
図5における(A)~(C)は本出願の実施例のソーシャルネットワークアプリケーションにおけるテキスト翻訳の1つのシーンの例示図である。
【0089】
図5の(A)に示すように、ソーシャルネットワークアプリケーションにおける「彼らは困難を恐れず、囲碁AIを作成する」ということを英語に翻訳しようとすると、文字部分を長押しすれば、
図5の(B)に示す頁が出現し、
図5の(B)に示される頁には「コピー」、「転送」、「削除」及び「英語へ翻訳」などの機能ボックスが出現し、無論、
図5の(B)は例に過ぎず、「英語へ翻訳」を「翻訳」に変更してもよく、そしてプルダウンボックスが出現し、対応する翻訳文字を選択すればよい。ユーザは
図5の(B)に示される頁で「英語へ翻訳」をクリックすると、
図5の(C)に示される翻訳結果「They are not afraid of difficulties to make Go AI」が出現する。
【0090】
図5の(A)~(C)は本出願の実施例の、ソーシャルネットワークアプリケーションにおけるテキスト翻訳の他のシーンの例示図である。
【0091】
図6は、本出願の実施例における語句翻訳の他の応用シーンの模式図であり、
図6のAに示すように、ソーシャルネットワークアプリケーションにおける「彼らは困難を怖がらず、囲碁AIを作成する」ということを英語に翻訳しようとすると、文字部分を長押しすれば、
図6の(B)に示される頁が出現し、
図5の(B)に示される頁には「コピー」、「転送」、「削除」及び「英語へ翻訳」などの機能ボックスが出現し、ユーザは
図6の(B)に示される頁で「英語へ翻訳」をクリックすると、
図6の(C)に示される翻訳結果「They are not afraid of difficulties to make Go AI」が出現する。
【0092】
図5の(A)~(C)、及び
図6の(A)~(C)の過程及び結果に対する比較から分かるように、
図5の(A)の翻訳対象となる語句は「彼らは困難を恐れず、囲碁AIを作成する」ことであり、
図6の(A)の翻訳対象となる語句は「彼らは困難を怖がらず、囲碁AIを作成する」ことであるが、この語義が類似する2つの語句に対して、
図5の(C)及び
図6の(C)において、それぞれ同じ翻訳結果である「They are not afraid of difficulties to make Go AI」を取得する。このように、本出願の実施例により提供される語句翻訳案のロバスト性及び翻訳品質がより優れる。
【0093】
図7は、本出願の実施例の語句翻訳の、同時通訳シーンにおける1つの応用模式図である。
【0094】
図7に示すように、同時通訳シーンにおいて、発言者は中国語で「彼らは困難を恐れず、囲碁AIを作成する」と話して、英語チャンネルを利用する聴衆が聞いた語句は「They are not afraid of difficulties to make Go AI」になる。
【0095】
図8は、本出願の実施例の語句翻訳の、同時通訳シーンにおける他の応用模式図である。
【0096】
図8に示すように、同時通訳シーンにおいて、発言者は中国語で「彼らは困難を怖がらず、囲碁AIを作成する」と話して、英語チャンネルを利用する聴衆が聞いた語句は「They are not afraid of difficulties to make Go AI」になる。
【0097】
図7と
図8との例示に対する比較から分かるように、語義が類似する入力に対して、翻訳の結果は同様であり、このように、本出願の実施例により提供される語句翻訳案のロバスト性及び翻訳品質がより優れる。
【0098】
なお、以上の2つの応用シーンは例に過ぎず、本出願の実施例の技術案は多種の翻訳シーンに適用され、そして、関わる端末機器の形態も
図5~
図8に示される形態に限定されない。
【0099】
以上の実施例は本出願の実施例におけるターゲット翻訳モデルのトレーニング過程、及びターゲット翻訳モデルを利用して語句翻訳を行う過程を紹介し、以下は図面を結合して、本出願の実施例における翻訳モデルトのレーニング装置、語句翻訳装置、コンピュータ機器及び端末機器を紹介する。
【0100】
図9は、本出願の実施例における翻訳モデルのトレーニング装置の1つの実施例の模式である。本出願の実施例により提供される翻訳モデルのトレーニング装置30は、1つ又は複数のプロセッサと、プログラムユニットを記憶するための1つ又は複数のメモリとを有し、プログラムユニットはプロセッサによって実行され、
図9に示すように、プログラムユニットは、
複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するように配置される取得ユニット301と、
前記取得ユニット301により取得した前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するように配置される決定ユニット302であって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い決定ユニット302と、
前記取得ユニット301により取得した前記複数のトレーニングサンプル及び前記決定ユニット302により決定した前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得るように配置されるモデルトレーニングユニット303と、を含む。
【0101】
本出願の実施例は翻訳モデルをトレーニングする際、外乱サンプルを利用して、外乱サンプルとトレーニングサンプルとの語義の類似度が第1プリセット値より高く、つまり、外乱サンプルとトレーニングサンプルとの語義が近く、このようにトレーニングされたターゲット翻訳モデルがノイズ付きの語句を受信しても、正確に翻訳できる。これによって、機械翻訳のロバスト性及び翻訳品質を向上させる。
【0102】
任意選択で、前記決定ユニット302は、前記各トレーニングサンプルが、トレーニング入力サンプルとトレーニング出力サンプルとが含まれる1つのトレーニングサンプル対である場合、各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを決定するように配置され、前記外乱入力サンプルセットには少なくとも1つの外乱入力サンプルが含まれ、前記外乱出力サンプルと前記トレーニング出力サンプルとが同様であり、
モデルトレーニングユニット303は、複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得るように配置される。
【0103】
任意選択で、前記決定ユニット302は以下のように配置され、即ち、
前記各トレーニング入力サンプルにおける第1単語を決定し、前記第1単語は置換対象単語であり、
少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを得て、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高い。
【0104】
任意選択で、前記決定ユニット302は以下のように配置され、即ち、
前記各トレーニング入力サンプルにおける各単語の単語ベクトルを決定し、
毎回、前記各単語の単語ベクトルに1つの異なるガウシノイズベクトルを重畳することで、前記外乱サンプルセットを得る。
【0105】
任意選択で、前記初期翻訳モデルはエンコーダと、分類器と、デコーダとを有し、
前記エンコーダは、前記トレーニング入力サンプルと対応する外乱入力サンプルを受信するとともに、第1中間表現結果と第2中間表現結果を出力し、前記第1中間表現結果は前記トレーニング入力サンプルの中間表現結果であり、前記第2中間表現結果は前記対応する外乱入力サンプルの中間表現結果であり、
前記分類器は、前記第1中間表現結果と前記第2中間表現結果とを区別し、
前記デコーダは、第1中間表現結果に基づいて前記トレーニング出力サンプルを出力し、前記第2中間表現結果に基づいて前記トレーニング出力サンプルを出力する。
【0106】
任意選択で、前記初期翻訳モデルのモデルターゲット関数は、前記分類器と前記エンコーダに関する分類ターゲット関数と、前記エンコーダと前記デコーダに関するトレーニングターゲット関数と、外乱ターゲット関数とを有し、
前記分類ターゲット関数には前記トレーニング入力サンプルと、前記対応する外乱入力サンプルと、前記エンコーダのパラメータと、前記分類器のパラメータとが含まれ、
前記トレーニングターゲット関数には前記トレーニング入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれ、
前記外乱ターゲット関数には前記外乱入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれる。
【0107】
任意選択で、モデルトレーニングユニット303は以下のように配置され、即ち、
各トレーニング入力サンプル、対応する外乱入力サンプル及び対応するトレーニング出力サンプルを前記モデルターゲット関数に入力し、
勾配降下という方式で前記モデルターゲット関数を最適化することで、前記エンコーダのパラメータの値、前記デコーダのパラメータの値及び前記分類器のパラメータの値を決定し、分類ターゲット関数におけるエンコーダのパラメータの勾配に-1をかける。
【0108】
本出願の実施例により提供される翻訳モデルのトレーニング装置30について、前記方法実施例部分の相応的な内容を参照して理解すればよく、ここで贅言しない。
【0109】
図10に示すように、本出願の実施例により提供される語句翻訳装置の1つの実施例であり、該装置は1つ又は複数のプロセッサと、プログラムユニットを記憶するための1つ又は複数のメモリとを有し、プログラムユニットはプロセッサによって実行され、プログラムユニットは、
第1言語で表現される第1翻訳対象語句を受信するように配置される受信ユニット401と、
ターゲット翻訳モデルによって前記受信ユニット401により受信された前記第1翻訳対象語句を翻訳することで、第2言語で表現される翻訳結果語句を得るように配置される翻訳ユニット402であって、前記ターゲット翻訳モデルは複数のトレーニングサンプル及び前記複数のトレーニングサンプルにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットによってトレーニングすることで得られて、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い翻訳ユニット402と、
前記翻訳ユニット402により翻訳され、第2言語で表現される翻訳結果語句を出力するように配置される出力ユニット403と、を含む。
【0110】
本出願の実施例において、ターゲット翻訳モデルはアンチノイズ能力を有するから、ノイズが付けられた語句を受信しても、正確に翻訳できる。これによって、機械翻訳のロバスト性及び翻訳品質を向上させる。
【0111】
任意選択で、前記受信ユニット401はさらに、前記第1言語で表現される第2翻訳対象語句を受信するように配置され、前記第2翻訳対象語句が前記第1翻訳対象語句の外乱語句であり、前記第2翻訳対象語句と、前記第1翻訳対象語句との類似度が第1プリセット値より高く、
前記翻訳ユニット402はさらに、ターゲット翻訳モデルによって前記第2翻訳対象語句を翻訳することで、前記第1翻訳対象語句に対応する前記翻訳結果語句を得るように配置され、
前記出力ユニット403はさらに、前記翻訳結果語句を出力するように配置される。
【0112】
以上の語句翻訳装置40について、方法実施例部分の相応的な内容を参照して理解すればよく、ここで贅言しない。
【0113】
図11は、本出願の実施例におけるコンピュータ機器の1つの実施例の模式図である。
図11に示すように、コンピュータ機器50はプロセッサ510と、メモリ540と、入力出力(I/O)インターフェース530とを有し、メモリ540は読み取り専用メモリとランダムアクセスメモリとを含むとともに、プロセッサ510に操作命令及びデータを提供する。メモリ540にはさらに不揮発性ランダムアクセスメモリ(NVRAM)が含まれてもよい。
【0114】
いくつかの実施形態において、メモリ540には、実行可能なモジュールまたはデータ構成、或いは彼らのサブセット、または彼らの拡張セットなどの要素が記憶され、
本出願の実施例において、地面標識の決定過程で、メモリ540に記憶される操作命令(該操作命令はオペレーティングシステムに記憶されてもよい)を呼び出すことで、
複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得し、
前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定し、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高く、
前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットによって初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得る。
【0115】
本出願の実施例は翻訳モデルをトレーニングする際、外乱サンプルを利用して、外乱サンプルとトレーニングサンプルとの語義の類似度が第1プリセット値より高く、つまり、外乱サンプルとトレーニングサンプルとの語義が近く、このようにトレーニングされたターゲット翻訳モデルがノイズ付きの語句を受信しても、正確に翻訳できる。これによって、機械翻訳のロバスト性及び翻訳品質を向上させる。
【0116】
プロセッサ510は、コンピュータ機器50の操作を制御し、プロセッサ510はさらに中央処理ユニット(Central Processing Unit、CPU)とも呼ばれる。メモリ540は読み取り専用メモリとランダムアクセスメモリとを含むとともに、プロセッサ510に命令及びデータを提供する。メモリ540の一部はさらに不揮発性ランダムアクセスメモリ(NVRAM)を含んでもよい。具体的な応用において、コンピュータ機器50の各部品はバスシステム520を介して結合され、バスシステム520はデータバス以外に、さらに電源バス、制御バス及び状態信号バスなどを含んでもよい。ただし、明らかに説明するために、図面において、各種のバスに対して、いずれもバスシステム520として標識する。
【0117】
前記本出願の実施例に開示された方法は、プロセッサ510に適用されるか、またはプロセッサ510によって実現できる。プロセッサ510は、信号の処理能力を有する集積回路チップであってもよい。実現の過程で、前記方法の各ステップはプロセッサ510におけるハードウェアの集積論理回路、またはソフトウェア形式である命令によって完成される。前記プロセッサ510は汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、現場でプログラム可能なゲートアレイ(FPGA)、または他のプログラマブルロジックデバイス、個別ゲート、或いはトランジスタロジックデバイス、個別ハードウェア部品であってよい。本出願の実施例に開示された各方法、ステップ及び論理ブロック図を実現または実行できる。汎用プロセッサはマイクロプロセッサであってもよく、該プロセッサは任意の通常のプロセッサなどであってもよい。本出願の実施例に開示された方法のステップを結合し、ハードウェア復号プロセッサによって実行して完成するか、または復号プロセッサにおけるハードウェア及びソフトウェアモジュールを組み合わせることで実行して完成するように直接的に表現できる。ソフトウェアモジュールはランダムメモリ、フラッシュメモリ、読み取り専用メモリ、プログラム可能な読み取り専用メモリ、または電気的に消去およびプログラム可能なメモリ、レジスタなどの本分野の成熟の記憶媒体に位置してもよい。該記憶媒体はメモリ540にあり、プロセッサ510はメモリ540における情報を読み取り、そのハードウェアを結合して前記方法のステップを完成する。
【0118】
任意選択で、プロセッサ510は以下のように配置され、即ち、
前記各トレーニングサンプルが、トレーニング入力サンプルとトレーニング出力サンプルとが含まれる1つのトレーニングサンプル対である場合、各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを決定し、前記外乱入力サンプルセットには少なくとも1つの外乱入力サンプルが含まれ、前記外乱出力サンプルと前記トレーニング出力サンプルとが同様であり、
複数のトレーニングサンプル対、前記各々トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得る。
【0119】
任意選択で、プロセッサ510は以下のように配置され、
前記各トレーニング入力サンプルにおける第1単語を決定し、前記第1単語は置換対象単語であり、
少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを得て、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高い。
【0120】
任意選択で、プロセッサ510は以下のように配置され、即ち、
前記各トレーニング入力サンプルにおける各単語の単語ベクトルを決定し、
毎回、前記単語の単語ベクトルに1つの異なるガウシノイズベクトルを重畳することで、前記外乱サンプルセットを得る。
【0121】
任意選択で、前記初期翻訳モデルはエンコーダと、分類器と、デコーダと、を有し、
前記エンコーダは、前記トレーニング入力サンプルと対応する外乱入力サンプルを受信するとともに、第1中間表現結果と第2中間表現結果を出力し、前記第1中間表現結果は前記トレーニング入力サンプルの中間表現結果であり、前記第2中間表現結果は前記対応する外乱入力サンプルの中間表現結果であり、
前記分類器は、前記第1中間表現結果と前記第2中間表現結果とを区別し、
前記デコーダは、第1中間表現結果に基づいて前記トレーニング出力サンプルを出力し、前記第2中間表現結果に基づいて前記トレーニング出力サンプルを出力する。
【0122】
任意選択で、前記初期翻訳モデルのモデルターゲット関数は、前記分類器と前記エンコーダに関する分類ターゲット関数と、前記エンコーダと前記デコーダに関するトレーニングターゲット関数と、外乱ターゲット関数とを含み、
前記分類ターゲット関数には前記トレーニング入力サンプルと、前記対応する外乱入力サンプルと、前記エンコーダのパラメータと、前記分類器のパラメータとが含まれ、
前記トレーニングターゲット関数には前記トレーニング入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれ、
前記外乱ターゲット関数には前記外乱入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれる。
【0123】
任意選択で、プロセッサ510は以下のように配置され、
各トレーニング入力サンプル、対応する外乱入力サンプル及び対応するトレーニング出力サンプルを前記モデルターゲット関数に入力し、
勾配降下という方式で前記モデルターゲット関数を最適化し、前記エンコーダのパラメータの値、前記デコーダのパラメータの値及び前記分類器のパラメータの値を決定し、分類ターゲット関数におけるエンコーダのパラメータの勾配に-1をかける。
【0124】
前記コンピュータ機器50に対する記載について、
図1~
図3部分の記載を参照して理解すればよく、ここで贅言しない。
【0125】
前記語句翻訳の過程は例えば携帯電話、タブレット、パーソナルデジタルアシスタント(Personal Digital Assistant、PDA)、販売時点情報管理システム(Point of Sales、POS)、車載コンピュータなどのような任意の端末機器によって実行される場合、端末は携帯電話であることを例として、
図12は本出願の実施例における端末機器の1つの実施例の模式図であり、以下は該端末機器が携帯電話であることを例として説明する。
図12を参照し、携帯電話は、無線周波(Radio Frequency、RF)、回路1110、メモリ1120、入力ユニット1130、表示ユニット1140、センサ1150、オーディオ回路1160、ワイヤレスフィデリティ(wireless fidelity、WiFi)モジュール1170、プロセッサ1180、及びカメラ1190などの部材を有する。当業者が理解できるように、
図12に示した携帯電話の構成は、携帯電話に対する限定を構成せず、図示より多いまたは少ない部材を有するか、またはいくつかの部材、或いは異なる部材を組み合わせて配置してもよい。
【0126】
以下は
図12を結合して携帯電話の各構成部材を具体的に紹介し、
RF回路1110は、情報の送受信または通話過程で、信号の受信及び送信に用いられ、RF回路1110は送受信機である。特に、基地局のダウンリンクの情報を受信した後、プロセッサ1180に処理させる、また、アップリンクになるように設計されるデータを基地局に送信する。一般的に、RF回路1110は、アンテナ、少なくとも1つの増幅器、送受信機、カプラ、ローノイズアンプ(Low Noise Amplifier、LNA)、デュプレクサなどを含むが、これらに限定されない。また、RF回路1110はさらに無線通信を介してネットワーク及び他の機器と通信することができる。前記無線通信はいずれかの通信規格またはプロトコルを利用でき、グローバルモバイル通信システム(Global System of Mobile communication、GSM)、汎用パケット無線サービス(General Packet Radio Service、GPRS)、符号分割多元接続(Code Division Multiple Access、CDMA)、広帯域符号分割多元接続(Wideband Code Division Multiple Access,WCDMA(登録商標))、ロングタームエボリューション(Long Term Evolution、LTE)、電子メール、ショートメッセージサービス(Short Messaging Service、SMS)などを含むが、これらに限定されない。
【0127】
メモリ1120は、ソフトウェアプログラム及びモジュールを記憶し、プロセッサ1180はメモリ1120に記憶されるソフトウェアプログラム及びモジュールを実行することで、携帯電話のいろんな機能アプリケーション及びデータ処理を実行する。メモリ1120は主にプログラム記憶領域とデータ記憶領域とを含み、プログラム記憶領域にはオペレーティングシステム、少なくとも1つの機能の必要なアプリケーションプログラム(例えば音声再生機能、画像再生機能など)などが記憶され、データ記憶領域には、携帯電話の利用に応じて構築されるデータ(例えばオーディオデータ、電話帳など)などが記憶される。また、メモリ1120は高速ランダムアクセスメモリを有してもよく、さらに少なくとも1つの磁気ディスク記憶装置、フラッシュメモリデバイスのような不揮発性メモリ、または他の揮発性固体記憶装置を有してもよい。
【0128】
入力ユニット1130は、ユーザにより入力した翻訳対象語句、翻訳インジケータを受信する。具体的に、入力ユニット1130はタッチパネル1131及び他の入力機器1132を有してもよい。タッチパネル1131はタッチスクリーンとも呼ばれて、ユーザの、その上または付近のタッチ操作(例えばユーザの、指、タッチペンなどのいずれかの適切な物体、または付属品による、タッチパネル1131の上またはタッチパネル1131の付近での操作)を収集し、事前に設定されたプログラムに応じて相応的な接続装置を駆動する。任意選択で、タッチパネル1131はタッチ検出装置とタッチコントローラとの2つの部分を有してもよい。タッチ検出装置はユーザのタッチ方位、及びタッチ操作による信号を検出し、信号をタッチコントローラに伝送し、タッチコントローラはタッチ検出装置からタッチ情報を受信するとともに、接点座標に変換してから、プロセッサ1180に送信し、プロセッサ1180から発信された命令を受信し実行する。また、抵抗式、静電容量式、赤外線及び弾性表面波などの多種のタイプによってタッチパネル1131を実現し得る。タッチパネル1131以外に、入力ユニット1130はさらに他の入力機器1132を含んでもよい。具体的に、他の入力機器1132は物理キーボード、ファンクションキー(例えば音量調整ボタン、スイッチボタンなど)、トラックボール、マウス、ジョイスティックなどのうちの1種または多種を含むが、これらに限定されない。
【0129】
表示ユニット1140は、翻訳結果を表示する。表示ユニット1140は表示パネル1141を含んでもよく、任意選択で、液晶ディスプレイ(Liquid Crystal Display、LCD)、有機発光ダイオード(Organic Light-Emitting Diode,OLED)などの形式で表示パネル1141を配置することができる。さらに、タッチパネル1131は表示パネル1141を覆ってもよく、タッチパネル1131はその上または付近のタッチ操作を検出した後、プロセッサ1180に伝送することで、タッチイベントのタイプを決定し、そして、プロセッサ1180はタッチイベントのタイプに応じて表示パネル1141で相応的な視覚出力を提供する。
図12において、タッチパネル1131と表示パネル1141とが、2つの独立の部材として携帯電話の入力及び出力機能を実現するが、いくつかの実施例において、タッチパネル1131と表示パネル1141とを集積させることで、携帯電話の入力及び出力機能を実現できる。
【0130】
携帯電話はさらに、少なくとも1種のセンサ1150、例えば光センサ、運動センサ及び他のセンサを含んでもよい。具体的に、光センサは環境光センサ及び接近センサを含んでもよく、環境光センサは環境光線の明暗に応じて表示パネル1141の輝度を調節でき、接近センサは携帯電話が耳元に移動した際、表示パネル1141及び/またはバックライトをオフにする。運動センサの1種として、加速度計センサは各方向での(一般的に3軸である)加速度の大さを検出でき、静止する場合、重力の大さ及び方向を検出でき、携帯電話の姿勢認識のアプリケーション(例えば、水平および垂直画面切り替え、関するゲーム、磁力計の姿勢校正)、振動することで関する機能(例えば歩数計、叩き)を認識することなどに用いられる。さらに携帯電話に配置されるジャイロ、気圧計、湿度計、温度計、赤外線センサなどの他のセンサについて、ここで贅言しない。
【0131】
オーディオ回路1160、スピーカ1161、マイクロフォン1162はユーザと携帯電話との間のオーディオインターフェースを提供できる。オーディオ回路1160は受信されたオーディオデータの変換後の電気信号を、スピーカ1161に転送し、スピーカ1161によって声音信号に変換し出力する一方で、マイクロフォン1162は収集された声音信号を電気信号に変換し、オーディオ回路1160が受信した後、オーディオデータに変換し、オーディオデータをプロセッサ1180に出力し処理した後、RF回路1110を介して、例えば他の携帯電話に送信し、または、さらに処理するように、オーディオデータをメモリ1120に出力する。
【0132】
WiFiは近距離無線転送技術であり、携帯電話はWiFiモジュール1170を介してユーザの電子メールに対する送受信、ウェブページに対する閲覧及びストリームメディアに対するアクセスなどに寄与し、ユーザに無線のブロードバンドインターネットに対するアクセスを提供する。
図12はWiFiモジュール1170を示すが、それは必ずしも携帯電話の必要な構成ではなく、必要に応じて、発明の本質を変更しない範囲内で省略することができる。
【0133】
プロセッサ1180は、携帯電話の制御センターであり、各種のインターフェース及び回路によって携帯電話全体の各部分を接続し、メモリ1120内に記憶されるソフトウェアプログラム及び/またはモジュールを動作または実行し、メモリ1120内に記憶されるデータを呼び出すことで、携帯電話の各種の機能及びデータの処理を実行し、これによって、携帯電話の全体を監視する。任意選択で、プロセッサ1180は1つ又は複数の処理ユニットを含んでもよく、好ましくは、プロセッサ1180にはアプリケーションプロセッサとモデムプロセッサとが集積され、アプリケーションプロセッサは主にオペレーティングシステム、ユーザインタフェース及びアプリケーションプログラムなどを処理し、モデムプロセッサは主に無線通信を処理する。なお、前記モデムプロセッサはプロセッサ1180に集積されていなくてもよい。
【0134】
カメラ1190は、画像を採集する。
【0135】
携帯電話はさらに、各部材に給電するための電源(例えば電池)を含み、好ましくは、電源は電源管理システムを介してプロセッサ1180に論理的に接続されることで、電源管理システムによって充電、放電、及び消費電力に対する管理などの機能を実現する。
【0136】
図示していないが、携帯電話はさらにカメラ、ブルートゥース(登録商標)モジュールなどを含んでもよく、ここで贅言しない。
【0137】
本出願の実施例において、該端末に含まれるプロセッサ1180はさらに、以下の制御機能を有し、即ち、
第1言語で表現される第1翻訳対象語句を受信し、
ターゲット翻訳モデルによって前記第1翻訳対象語句を翻訳し、第2言語で表現される翻訳結果語句を得て、前記ターゲット翻訳モデルが複数のトレーニングサンプル及び前記複数のトレーニングサンプルにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用してトレーニングすることで得られて、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高く、
前記第2言語で表現される翻訳結果語句を出力する。
【0138】
任意選択で、さらに、
前記第1言語で表現される第2翻訳対象語句を受信し、前記第2翻訳対象語句が前記第1翻訳対象語句の外乱語句であり、前記第2翻訳対象語句と前記第1翻訳対象語句との類似度が第1プリセット値より高く、
ターゲット翻訳モデルを利用して前記第2翻訳対象語句を翻訳することで、前記第1翻訳対象語句に対応する前記翻訳結果語句を得て、
前記翻訳結果語句を出力する。
【0139】
前記実施例において、全部または部分的にソフトウェア、ハードウェア、ファームウエアまたはその任意の組み合わせで実現することができる。ソフトウェアによって実現する場合、全部または部分的にコンピュータプログラム製品という形式で実現することができる。
【0140】
前記コンピュータプログラム製品は1つ又は複数のコンピュータ命令を有する。コンピュータで前記コンピュータプログラム命令をロード及び実行する場合、全部または部分的に本出願の実施例に記載のフローまたは機能が発生する。前記コンピュータは汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、または他のプログラム可能な装置であってもよい。前記コンピュータ命令はコンピュータ読み取り可能な記憶媒体に記憶されるか、または1つのコンピュータ読み取り可能な記憶媒体から、他のコンピュータ読み取り可能な記憶媒体に転送され、例えば前記コンピュータ命令は1つのウェブサイト、コンピュータ、サーバまたはデータセンターから、有線(例えば同軸ケーブル、光ファイバー、デジタル加入者線(DSL))或いは無線(例えば赤外線、無線、マイクロ波など)の方式で他のウェブサイト、コンピュータ、サーバまたはデータセンターに転送される。前記コンピュータ読み取り可能な記憶媒体は、コンピュータが記憶できる、任意の利用可能な媒体、または1つ又は複数の利用可能な媒体集積が含まれるサーバ、データセンターなどのデータ記憶機器であってもよい。前記利用可能な媒体は、磁気媒体(例えばフロッピーディスク、ハードディスク、磁気テープ)、光媒体(例えば、DVD)、または半導体媒体(例えばソリッドステートドライブ(Solid State Disk、SSD))などであってもよい。
【0141】
当業者は理解できるように、前記実施例の各方法における全部または一部のステップは、プログラムによって関するハードウェアに命令することで完成され、該プログラムはコンピュータ読み取り可能な記憶媒体に記憶されてもよく、記憶媒体は、ROM、RAM、磁気ディスクまたは光学ディスクなどを含んでもよい。
【0142】
以上は、本出願の実施例により提供される翻訳モデルのトレーニング方法、語句翻訳の方法、装置及び機器を詳しく紹介し、本明細書において、具体的な例を利用して本出願の実施例の原理及び実施形態を説明し、以上の実施例に対する説明は、ただ本出願の実施例の方法及びその核心思想への理解に寄与する。その同時に、当業者であれば、本出願の実施例の思想に応じて、具体的な実施形態及び応用範囲で変更でき、本明細書の内容は、本出願の実施例に対する限定として理解すべきではない。
【0143】
本出願の実施例は翻訳モデルをトレーニングする際、外乱サンプルを利用し、外乱サンプルとトレーニングサンプルとの語義の類似度が第1プリセット値より高く、つまり、外乱サンプルとトレーニングサンプルとの語義が近く、このようにトレーニングされたターゲット翻訳モデルがノイズ付きの語句を受信しても、正確に翻訳できる。これによって、機械翻訳のロバスト性及び翻訳品質を向上させる。
【符号の説明】
【0144】
30 翻訳モデルのトレーニング装置
301 取得ユニット
302 決定ユニット
303 モデルトレーニングユニット
40 語句翻訳装置
401 受信ユニット
402 翻訳ユニット
403 出力ユニット
50 コンピュータ機器
510 プロセッサ
530 I/Oインターフェース
540 メモリ
1110 RF回路
1120 メモリ
1130 入力ユニット
1131 タッチパネル
1132 他の入力機器
1140 表示ユニット
1141 表示パネル
1150 センサ
1160 オーディオ回路
1161 スピーカ
1162 マイクロフォン
1170 WiFiモジュール
1180 プロセッサ
1190 カメラ