IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ▲騰▼▲訊▼科技(深▲セン▼)有限公司の特許一覧

特許7025090翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム
<>
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図1
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図2
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図3
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図4
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図5
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図6
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図7
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図8
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図9
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図10
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図11
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図12
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図13
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図14
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図15
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図16
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図17
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図18
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図19
  • 特許-翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム 図20
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-02-15
(45)【発行日】2022-02-24
(54)【発明の名称】翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム
(51)【国際特許分類】
   G06F 40/44 20200101AFI20220216BHJP
【FI】
G06F40/44
【請求項の数】 12
(21)【出願番号】P 2020503957
(86)(22)【出願日】2018-07-11
(65)【公表番号】
(43)【公表日】2020-09-24
(86)【国際出願番号】 CN2018095231
(87)【国際公開番号】W WO2019019916
(87)【国際公開日】2019-01-31
【審査請求日】2020-03-10
(31)【優先権主張番号】201710612833.7
(32)【優先日】2017-07-25
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】517392436
【氏名又は名称】▲騰▼▲訊▼科技(深▲セン▼)有限公司
(74)【代理人】
【識別番号】100110364
【弁理士】
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100140534
【氏名又は名称】木内 敬二
(72)【発明者】
【氏名】▲塗▼ 兆▲鵬▼
(72)【発明者】
【氏名】周 浩
(72)【発明者】
【氏名】史 ▲樹▼明
【審査官】成瀬 博之
(56)【参考文献】
【文献】中国特許出願公開第106126507(CN,A)
【文献】中国特許出願公開第106372058(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 40/20-40/58
(57)【特許請求の範囲】
【請求項1】
ニューラルネットワークマシン翻訳システムに適用される翻訳方法であって、
エンコーダが、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることであって、前記処理対象となるテキスト情報は、第1の言語に属し、前記ソースベクトル表示シーケンスにおける各ソースベクトルはそれぞれ1つのソースコンテンツを表し、前記ソースベクトル表示シーケンスにおける各ソースベクトルは前記第1の言語に属することと、
前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することであって、ソースベクトルと、前記第1の時刻に隣接する一つ前の時刻である第2の時刻におけるデコーダの状態ベクトルと、前記第2の時刻における前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを表すベクトルである第3の翻訳ベクトルと、前記第2の時刻における前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを表すベクトルである第2のベクトルとに対して、アテンション機構を用いた操作を行い、前記ソースベクトル表示シーケンスにおける各ソースベクトルのアライメント確率の和が1であり、前記アライメント確率が大きいほど前記ソースコンテンツと生成対象のターゲット情報との関連性が高くなるように、各ソースコンテンツに対するアライメント確率を決定し、前記ソースコンテンツのアライメント確率と前記ソースコンテンツのセマンティックベクトルとを重み付き加算することにより、前記第1の時刻に対応するソースコンテキストベクトルを取得し、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであることと、
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定することであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを表すベクトルである第1の翻訳ベクトル、および/または、前記第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを表すベクトルである第2の翻訳ベクトルを含む、ことと、
デコーダが、前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることであって、前記ターゲット情報は、前記第1の言語とは異なる第2の言語に属するものであることとを含むことを特徴とする翻訳方法。
【請求項2】
前記デコーダが前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることは、
前記翻訳ベクトルおよび前記ソースコンテキストベクトルを前記デコーダに入力することと、
前記デコーダが前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理することと、
復号化処理の結果に基づいて、前記処理対象となるソースコンテンツの翻訳コンテンツを取得することであって、前記翻訳コンテンツは、前記第1の時刻のターゲット情報であることとを含むことを特徴とする請求項1に記載の方法。
【請求項3】
ターゲット情報決定装置が実行するターゲット情報決定方法であって、
処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることであって、前記ソースベクトル表示シーケンスにおける各ソースベクトルはそれぞれ1つのソースコンテンツを表す、ことと
前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することであって、ソースベクトルと、前記第1の時刻に隣接する一つ前の時刻である第2の時刻におけるデコーダの状態ベクトルと、前記第2の時刻における前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを表すベクトルである第3の翻訳ベクトルと、前記第2の時刻における前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを表すベクトルである第2のベクトルとに対して、アテンション機構を用いた操作を行い、前記ソースベクトル表示シーケンスにおける各ソースベクトルのアライメント確率の和が1であり、前記アライメント確率が大きいほど前記ソースコンテンツと生成対象のターゲット情報との関連性が高くなるように、各ソースコンテンツに対するアライメント確率を決定し、前記ソースコンテンツのアライメント確率と前記ソースコンテンツのセマンティックベクトルとを重み付き加算することにより、前記第1の時刻に対応するソースコンテキストベクトルを取得し、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであることと、
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定することであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを表すベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを表すベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であることと、
前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることとを含むことを特徴とするターゲット情報決定方法。
【請求項4】
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて第1の翻訳ベクトルを決定することは、
前記ソースベクトル表示シーケンスに基づいて、前記第3の翻訳ベクトルを取得することと
予め設定されたニューラルネットワークモデルを用いて、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることとを含むことを特徴とする請求項に記載の方法。
【請求項5】
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて第1の翻訳ベクトルおよび第2の翻訳ベクトルを決定することは、
前記ソースベクトル表示シーケンスに基づいて、前記第3の翻訳ベクトルを取得することと、
予め設定されたニューラルネットワークモデルを用いて、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることと、
前記ソースコンテキストベクトルが前記ソースベクトル表示シーケンスに現れる位置に基づいて、前記第2の時刻に隣接する1つ前の時刻のソースコンテキストベクトルおよび過去翻訳ベクトルを読み込み、前記第2の翻訳ベクトルを取得することであって、前記第2の翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを表すベクトルである、第4の翻訳ベクトルを更新するためのものであり、前記第4の翻訳ベクトルは、前記予め設定されたニューラルネットワークモデルが、前記第2の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して得られたものであることとを含むことを特徴とする請求項に記載の方法。
【請求項6】
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて第2の翻訳ベクトルを決定することは、
前記ソースコンテキストベクトルが前記ソースベクトル表示シーケンスに現れる位置に基づいて、前記第2の時刻に隣接する1つ前の時刻のソースコンテキストベクトルおよび過去翻訳ベクトルを読み込み、前記第2の翻訳ベクトルを取得することを含み、前記第2の翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを表すベクトルである第4の翻訳ベクトルを生成するためのものであり、前記第4の翻訳ベクトルは、前記予め設定されたニューラルネットワークモデルが、前記第2の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して得られたものであることを特徴とする請求項に記載の方法。
【請求項7】
前記予め設定されたニューラルネットワークモデルが、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることは、
ゲート付き回帰型ユニットが、前記第3の翻訳ベクトルから前記ソースコンテキストベクトルを減算して、前記第1の翻訳ベクトルを得ることを含むことを特徴とする請求項4または5記載の方法。
【請求項8】
前記予め設定されたニューラルネットワークモデルが、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることは、
ゲート付き回帰型ユニットが、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、中間ベクトルを得ることと、
前記中間ベクトルを前記第3の翻訳ベクトルと補間結合して、前記第1の翻訳ベクトルを得ることとを含むことを特徴とする請求項4または5に記載の方法。
【請求項9】
前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る前に、前記方法は、前記第2の時刻のデコーダの状態、前記第2の時刻のターゲット情報、前記ソースコンテキストベクトル、および前記翻訳ベクトルに基づいて、前記第1の時刻のデコーダの状態を決定することをさらに含み、
これに対応して、前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることは、前記第1の時刻のデコーダの状態、前記ソースコンテキストベクトル、および前記翻訳ベクトルを復号化処理して、前記第1の時刻のターゲット情報を得ることを含むことを特徴とする請求項に記載の方法。
【請求項10】
前記方法は、
前記第1の翻訳ベクトルおよび前記第3の翻訳ベクトルに基づいて、第1の指標の期待値を取得することであって、前記第1の指標の期待値は、その値が高いほど、未来翻訳ベクトルの変化と前記第1の時刻のターゲット情報との間は予想に合致することを表すためのものであることと、
前記第2の翻訳ベクトルおよび前記第4の翻訳ベクトルに基づいて、第2の指標の期待値を取得することであって、前記第2の指標の期待値は、その値が高いほど、過去翻訳ベクトルの変化と前記第1の時刻のターゲット情報との間の意味は予想に合致することを表すためのものであることと、
標準ニューラルネットワーク翻訳モデルのトレーニングターゲットと、前記第1の指標の期待値と、前記第2の指標の期待値に基づいて、前記第1の時刻のターゲット情報の生成確率が最大化するようにトレーニングターゲットを決定することであって、前記トレーニングターゲットは、予め設定されたニューラルネットワークモデルを構築するためのものであることとをさらに含むことを特徴とする請求項に記載の方法。
【請求項11】
請求項1~10のうちいずれか一項に記載の方法を行うように構成されたターゲット情報決定装置。
【請求項12】
コンピュータで実行される場合、請求項1~10のうちいずれか一項に記載の方法を実行させるための命令を含むコンピュータプログラム
【発明の詳細な説明】
【技術分野】
【0001】
本願は、2017年07月25日に中国特許局に出願された、出願番号が201710612833.7であり、出願名称が「翻訳方法、ターゲット情報決定方法および関連装置」である中国特許出願の優先権を主張し、その全ての内容が参照することにより本願に組み込まれる。
【0002】
[技術分野]
本発明の実施例は、コンピュータ技術の分野に関し、特に、翻訳方法、ターゲット情報決定方法および関連装置、記憶媒体に関する。
【背景技術】
【0003】
機械翻訳(MT:machine translation)とは、機械を利用してテキストや言葉を1つの言語から同じ意味の内容を有する別の言語に変換するプロセスを指す。深層学習の台頭につれ、最近二年間、ディープニューラルネットワーク技術はMTにも応用され、ニューラル機械翻訳(NMT:neural machine translation)は、次世代の翻訳技術になる。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明の実施例は、翻訳方法、ターゲット情報決定方法および関連装置、記憶媒体を提供する。
【課題を解決するための手段】
【0005】
本発明の一態様は、ニューラルネットワーク機械翻訳システムに適用される翻訳方法を提供し、前記方法は、エンコーダを用いて処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることであって、前記処理対象となるテキスト情報は、第1の言語に属することと、前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することであって、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであることと、前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定することであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であることと、デコーダを用いて前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることであって、前記ターゲット情報は、前記第1の言語とは異なる第2の言語に属するものであることとを含む。
【0006】
また、本発明の別の一態様は、ターゲット情報決定方法を提供し、該方法は、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることと、前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することであって、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであることと、前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定することであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であることと、前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることとを含む。
【0007】
また、本発明のさらに別の一態様は、少なくとも1つのメモリと、少なくとも1つのプロセッサとを備えるターゲット情報決定装置を提供し、前記少なくとも1つのメモリに少なくとも1つの命令モジュールが記憶され、前記少なくとも1つのプロセッサによって実行されるように配置され、前記少なくとも1つの命令モジュールは、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得る符号化モジュールと、前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得する第1の取得モジュールであって、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものである第1の取得モジュールと、前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定する第1の決定モジュールであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻である第1の決定モジュールと、前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る復号化モジュールとを備える。
【0008】
また、本発明のさらなる別の一態様は、メモリと、プロセッサと、バスシステムとを備えるターゲット情報決定装置を提供し、前記メモリは、プログラムを記憶するためのものであり、前記プロセッサは、前記メモリにおけるプログラムを実行するためのものであり、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得るステップと、前記ソースベクトル表示シーケンスに基づいて第1の時刻に対応するソースコンテキストベクトルを取得するステップであって、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであるステップと、前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定するステップであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であるステップと、前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得るステップとを含み、前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるためのものである。
【0009】
また、本発明の別の一態様は、コンピュータで実行される場合、コンピュータに上記の各態様に記載された方法を実行させる命令が記憶されているコンピュータ読み取り可能な記憶媒体である。
【0010】
また、本発明のさらに別の一態様は、電子デバイスによって実行されるターゲット情報決定方法を提供し、該方法は、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることと、前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することであって、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであることと、前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定することであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であることと、前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることとを含む。
【発明の効果】
【0011】
本発明の実施例は、翻訳方法、ターゲット情報決定方法および関連装置を提供し、ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツおよび/または翻訳されたソースコンテンツをモデル化することにより、即ち、この部分のコンテンツをオリジナルの言語モデルから分離してトレーニングすることにより、デコーダのモデルトレーニングの難しさを低減し、翻訳システムの翻訳効果を向上させることができる。
【図面の簡単な説明】
【0012】
図1】本発明の実施例におけるターゲット情報決定装置のアーキテクチャ図である。
図2】本発明の実施例におけるターゲット情報決定方法のフローチャート概略図である。
図3】本発明の実施例におけるターゲット情報決定方法の一実施例の概略図である。
図4】本発明の実施例におけるゲート付き回帰型ユニットの構成概略図である。
図5】本発明の実施例におけるゲート付き回帰型ユニットの別の構成概略図である。
図6】本発明の実施例におけるゲート付き回帰型ユニットの別の構成概略図である。
図7】本発明の実施例における注目度モジュールの一実施例の概略図である。
図8】本発明の実施例におけるデコーダの状態の一実施例の概略図である。
図9】本発明のアプリケーションシナリオにおいてソースベクトル表示シーケンスにおける第1のソースコンテンツを翻訳する実施例の概略図である。
図10】本発明のアプリケーションシナリオにおいてソースベクトル表示シーケンスにおける第2のソースコンテンツを翻訳する実施例の概略図である。
図11】本発明の実施例におけるターゲット情報決定装置の一実施例の概略図である。
図12】本発明の実施例におけるターゲット情報決定装置の別の実施例の概略図である。
図13】本発明の実施例におけるターゲット情報決定装置の別の実施例の概略図である。
図14】本発明の実施例におけるターゲット情報決定装置の別の実施例の概略図である。
図15】本発明の実施例におけるターゲット情報決定装置の別の実施例の概略図である。
図16】本発明の実施例におけるターゲット情報決定装置の別の実施例の概略図である。
図17】本発明の実施例におけるターゲット情報決定装置の別の実施例の概略図である。
図18】本発明の実施例におけるターゲット情報決定装置の別の実施例の概略図である。
図19】本発明の実施例におけるターゲット情報決定装置の別の実施例を示す図である。
図20】本発明の実施例におけるターゲット情報決定装置の構成概略図である。
【発明を実施するための形態】
【0013】
本発明の明細書や特許請求の範囲および上記図面における用語「第1」、「第2」、「第3」、「第4」など(ある場合)は、特定の順序や前後の順序を説明するために使用される必要がなく、類似の対象を区別するために使用される。ここで説明する本発明の実施例が、例えばここで図示または説明するもの以外の順序で実施されることができるように、このように使用されるデータは適切な状況で交換可能であるということが理解されるべきである。さらに、用語「含む」や「有する」およびそれらの任意の変形は、非排他的な包含をカバーすることを意図し、例えば、一連のステップやユニットを含むプロセス、方法、システム、製品またはデバイスは、明確に記載されているステップやユニットに限定される必要がなく、明確に記載されていないものやこれらのプロセス、方法、製品またはデバイスに固有のその他のステップやユニットを含むことができる。
【0014】
本発明の実施例は、主に符号化-復号化モデル(encoder-decoder)に適用され、符号化とは、入力シーケンスを長さがあるベクトルに変換することであり、復号化とは、エンコーダによって生成されたベクトルシーケンスから出力シーケンスに再変換することである、ということが理解されたい。encoder-decoderモデルは、例えば翻訳、ドキュメント摘出および質問回答システムなど、多くの応用がある。翻訳では、入力シーケンスは翻訳されるテキストであり、出力シーケンスは翻訳されたテキストである。質問回答システムでは、入力シーケンスは提出された質問であり、出力シーケンスは回答である。
【0015】
具体的に実現される場合、エンコーダとデコーダは、いずれも、固定されたものではなく、オプションとして、畳み込みニューラルネットワーク(CNN:convolutional neural networks)、回帰型ニューラルネットワーク(RNN:recurrent neural networks)、ゲート付き回帰型ユニット(GRU:gated recurrent unit)、長・短期記憶(LSTM:long short term memory)、双方向回帰型ニューラルネットワーク(BiRNN:bidirectional recurrent neural networks)などがあり、符号化と復号化をする際に、異なるニューラルネットワークを採用してもよく、例えば、符号化をする際にBiRNNを使用する一方、復号化をする際にRNNを使用してもよく、あるいは、符号化をする際にRNNを使用する一方、復号化をする際にLSTMを使用してもよいし、これはここでは限定されない。
【0016】
図1を参照して、図1は、本発明の実施例におけるターゲット情報決定装置のアーキテクチャ図であり、図1に示すように、デコーダに2つの隠れ層が追加的に導入され、この2つの隠れ層は、ベクトルシーケンスで表すことができる。図1
【0017】
【数1】
【0018】
は、(t-1)番目の時刻に対応する第2の翻訳ベクトルを表し、第2の翻訳ベクトルとは、すでに翻訳されたソースコンテンツを意味し、すなわち過去翻訳ベクトルである。図1
【0019】
【数2】
【0020】
は、t番目の時刻に対応する第1の翻訳ベクトルを表し、第1の翻訳ベクトルとは、まだ翻訳されていないソースコンテンツを意味し、すなわち未来翻訳ベクトルである。図1のcは、t番目の時刻に対応するソースコンテキストベクトルを表す。図1のsは、t番目の時刻のデコーダの状態を表す。
【0021】
本発明は、追加の隠れ層を導入することにより、意味レベルで過去翻訳(翻訳されたコンテンツ)と未来翻訳(翻訳されていないコンテンツ)を直接モデル化し、関連コンテンツをデコーダの状態から分離し、ニューラルネットワーク翻訳システムによる関連コンテンツへの記憶および利用を向上させ、これによって、翻訳システムの効果を向上させる。本発明で提供される方法は、主流のニューラルネットワーク機械翻訳システムに適用することができる。
【0022】
理解を容易にするために、図2を参照して、図2は、本発明の実施例におけるターゲット情報決定方法のフローチャート概略図であり、図2に示すように、具体的には、
まず、エンコーダモジュールS1は、ステップ101で、処理する必要があるセンテンスを入力し、その後、該エンコーダモジュールS1によってソースベクトル表示シーケンスを出力する。次に、全ての訳文が生成されるまで、注目度モジュールS2、過去未来モジュールS3、およびデコーダモジュールS4によって、次のステップを繰り返す。
【0023】
注目度モジュールS2は、(t-1)番目の時刻の過去翻訳ベクトルと未来翻訳ベクトルを読み込み、ここで、過去翻訳ベクトルの初期は全ゼロベクトルであり、ソースコンテンツが翻訳されていないことを表し、未来翻訳ベクトルの初期はソースベクトル表示シーケンスの最後のベクトルであり、ソースセンテンスのまとめを表す。注目度モジュールS2は、ステップ103で、現在時刻であるt番目の時刻のソースコンテキストベクトルを出力する。過去未来モジュールS3は、現在時刻のソースコンテキストベクトルを読み取り、ステップ104で、t番目の時刻の過去翻訳ベクトルと未来翻訳ベクトルを更新する。デコーダモジュールS4は、t番目の時刻の未来翻訳ベクトル、(t-1)番目の時刻の過去翻訳ベクトル、t番目の時刻のソースコンテキストベクトル、および他の標準入力を読み取って、ステップ105で、t番目の時刻のターゲットワードを生成する。
【0024】
本発明は、NMTシステムに適用することができ、以下、本発明で提供される翻訳方法を説明し、本発明の実施例における翻訳方法の実施例は以下を含む。
【0025】
NMTシステムでは、まず、エンコーダを用いて、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得、ここで、処理対象となるテキスト情報は第一言語、例えば中国語に属し、実際の応用では他の種類の言語であってもよいということが理解される。
【0026】
符号化処理のフローは、具体的には、処理対象となるテキスト情報をNMTシステムにおけるエンコーダに入力し、それから、このエンコーダを用いて、処理対象となるテキスト情報を符号化処理して、最後に、符号化処理の結果に基づいて、ソースベクトル表示シーケンスを取得することであり、ソースベクトル表示シーケンスにおける各ソースベクトルは第1の言語に属する。
【0027】
第1の言語が中国語であると仮定すると、処理対象となるテキスト情報は中国語のセンテンスであってもよいし、このセンテンスには、いくつかのフレーズが含まれている。この中国語のセンテンスが符号化処理された後、ソースベクトル表示シーケンスが得られ、さらに、現在の時刻である第1の時刻に対応するソースコンテキストベクトルが取得され、ここで、ソースコンテキストベクトルは、処理対象となるソースコンテンツを表し、ソースコンテンツは、具体的にはこの中国語のセンテンスのうちのある単語であると考えられる。
【0028】
第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであるということが理解される。
【0029】
次に、NMTシステムは、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルを決定し、ここで、第1の翻訳ベクトルは、第1の時刻における、ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを指示し、第2の翻訳ベクトルは、第2の時刻における、ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを指示し、第2の時刻は、第1の時刻に隣接する一つ前の時刻である。第1の時刻がt時刻であれば、第2の時刻がt-1時刻となる。
【0030】
説明を容易にするために、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルを翻訳ベクトルと呼ぶことができ、翻訳ベクトルは、第1の翻訳ベクトルであってもよく、第2の翻訳ベクトルであってもよいし、第1の翻訳ベクトルおよび第2の翻訳ベクトルであってもよい。
【0031】
つまり、第1の翻訳ベクトルは、第1の時刻における、ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルであり、第2の翻訳ベクトルは、第2の時刻における、ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである。
例えば、ソースベクトル表示シーケンスに対応するソースコンテンツは、
【0032】
【数3】
【0033】
であると仮定する。したがって、ソースベクトルに対応する単語は
【0034】
【数4】
【0035】
である。現在時刻で「世界各地」という単語までに翻訳すれば、未来翻訳ベクトルは、翻訳されていない
【0036】
【数5】
【0037】
のそれぞれに対応するベクトルとして理解され、過去翻訳ベクトルは、翻訳された「毎月」および「到」に対応するベクトルとして理解される。
【0038】
最後に、NMTシステムでは、デコーダを用いて、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルおよびソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得、ここで、ターゲット情報は、第2の言語に属する。第2の言語は第1の言語とは異なる言語であることが理解され、英語、フランス語または日本語等であってもよいし、ここでは限定されていない。
【0039】
第1の時刻で「世界各地」という単語まで翻訳すれば、出力されたターゲット情報は「all parts of the world」であってよいし、つまり、第1の言語は中国語であり、第2の言語は英語であり、ここまで機械翻訳のプロセスが終了する。
【0040】
本発明の実施例は、翻訳方法を提供し、ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツおよび/または翻訳されたソースコンテンツをモデル化することにより、即ち、この部分のコンテンツをオリジナルの言語モデルから分離してトレーニングすることにより、デコーダのモデルトレーニングの難しさを低減し、翻訳システムの翻訳効果を向上させることができる。
【0041】
以下、本発明におけるターゲット情報決定方法を説明し、該方法は電子デバイスによって実行されるようにしてよい。図3を参照して、図3は、本発明の実施例におけるターゲット情報決定方法の一実施例であり、以下のステップを含む。
【0042】
201で、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得る。
【0043】
本実施例では、ターゲット情報決定装置におけるエンコーダは、処理対象となるテキスト情報に対して符号化処理を行い、ここで、処理対象となるテキスト情報は、例えば
【0044】
【数6】
【0045】
という翻訳対象のセンテンスであってもよいし、センテンスを符号化処理した後、ソースベクトル表示シーケンスを得ることができる。
【0046】
ソースベクトル表示シーケンスにおける各ベクトルは、1つのソースコンテンツ(ソースワード)に対応する。例えば、
【0047】
【数7】
【0048】
というセンテンスにおけるソースコンテンツは、それぞれ
【0049】
【数8】
【0050】
である。このシーケンスに従って、ターゲット情報決定装置におけるデコーダは、ワードごとに訳文を生成する。
【0051】
202で、ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得し、ここで、ソースコンテキストベクトルは、処理対象となるソースコンテンツを表すためのものである。
【0052】
前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであるということが理解される。
【0053】
本実施例では、ターゲット情報決定装置は、ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することができ、第1の時刻は、本発明の実施例におけるt番目の時刻であり、ソースコンテキストベクトルは、処理対象となるソースコンテンツを表すためのものである。
【0054】
具体的には、ターゲット情報決定装置は、各ソースコンテンツ毎に例えば0.0または0.2などのアライメント確率を出力し、ソースベクトル表示シーケンスにおける各アライメント確率の和が1であり、かつ、アライメント確率が大きいほど、このソースコンテンツと生成対象のターゲット情報との関連性が高くなる。アライメント確率と意味ベクトルとを重み付けることにより、t番目の時刻のソースコンテキストベクトルを生成することができる。
【0055】
203で、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルを決定し、ここで、第1の翻訳ベクトルは、第1の時刻における、ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを指示し、第2の翻訳ベクトルは、第2の時刻における、ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを指示し、第2の時刻は、第1の時刻に隣接する一つ前の時刻である。
【0056】
第1の翻訳ベクトルおよび/または第2の翻訳ベクトルを翻訳ベクトルと呼ぶことができるということが理解される。
【0057】
本実施例では、ターゲット情報決定装置は、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第1の翻訳ベクトルを決定したり、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第2の翻訳ベクトルを決定したり、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第1の翻訳ベクトルおよび第2の翻訳ベクトルを決定したりすることができる。ここで、第1の翻訳ベクトルは、第1の時刻における、ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを指示し、第2の翻訳ベクトルは、第2の時刻における、ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを指示し、第2の時刻は、第1の時刻に隣接する一つ前の時刻である。
【0058】
具体的には、第1の翻訳ベクトルは、t番目の時刻の未来翻訳ベクトルを表し、第2の翻訳ベクトルは、(t-1)番目の時刻の過去翻訳ベクトルを表す。1つのターゲット情報を生成したら、対応するソースコンテキストベクトルcを、前の時刻の過去翻訳ベクトルに加えて新しい過去翻訳ベクトルを得て、前の時刻の未来翻訳ベクトルからcを引いて新しい未来翻訳ベクトルを得る。
【0059】
204で、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルおよびソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る。
【0060】
本実施例では、ターゲット情報決定装置におけるデコーダは、1つのニューラルネットワーク出力層を使用して、第1の翻訳ベクトルおよびソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることができ、または、第2の翻訳ベクトルおよびソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることができ、あるいは、第1の翻訳ベクトル、第2の翻訳ベクトル、およびソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることができる。
【0061】
ターゲット情報を生成するプロセスで、複数の選択対象の情報を生成し、最後に類似度が最も高い単語をターゲット情報として出力することができる。例えば、
【0062】
【数9】
【0063】
というセンテンスにおいて、
【0064】
【数10】
【0065】
は「many」または「much」に翻訳されてもよいが、デコーダの状態ベクトルに記憶されている意味知識によれば、可算名詞の前に「many」が使用されていることが分かる。そのため、ここでの
【0066】
【数11】
【0067】
は最後に「many」に翻訳されている。
【0068】
本発明の実施例では、ターゲット情報決定方法が提供されており、まず、ターゲット情報決定装置は、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得、その後、ソースベクトル表示シーケンスに基づいて、処理対象となるソースコンテンツを表すための第1の時刻に対応するソースコンテキストベクトルを取得し、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを指示する第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを指示する第2の翻訳ベクトルを決定し、最後に、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルおよびソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る。上記のように、ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツおよび/または翻訳されたソースコンテンツをモデル化することにより、即ち、この部分のコンテンツをオリジナルの言語モデルから分離してトレーニングすることにより、デコーダのモデルトレーニングの難しさを低減し、翻訳システムの翻訳効果を向上させることができる。
【0069】
オプションとして、上記の図3に対応する実施例を基にして、本発明の実施例で提供されるターゲット情報決定方法の1つの選択可能な実施例では、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第1の翻訳ベクトルを決定することは、
ソースベクトル表示シーケンスに基づいて、第2の時刻に対応する第3の翻訳ベクトルを取得することと、
予め設定されたニューラルネットモデルを用いて、第3の翻訳ベクトルおよびソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得ることとを含むようにしてよい。
【0070】
前記第3の翻訳ベクトルは、前記第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルであるということが理解される。
【0071】
本実施例では、ターゲット情報決定装置が、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて、第1の翻訳ベクトルを決定するプロセスは、まず、ソースベクトル表示シーケンスに基づいて第2の時刻に対応する第3の翻訳ベクトルを取得し、その後、予め設定されたニューラルネットモデルを用いて第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得ることを含むようにしてよい。
【0072】
具体的には、第1の時刻がt番目の時刻であり、第2の時刻が(t-1)番目の時刻であると仮定すると、ターゲット情報決定装置は、第1の時刻のソースコンテキストベクトル(第1の時刻で翻訳されたソースコンテンツを表す)を読み込み、さらに、記憶されている未来翻訳ベクトルを更新する必要がある。未来翻訳ベクトルの初期化は、ソースセンテンスのまとめ(通常、ソースベクトル表示シーケンスの最後のベクトル)であり、はじめの全てのソースコンテンツがいずれも翻訳されていないことを表す。そして、各時刻に、次のように更新される。
【0073】
【数12】
【0074】
ここで、
【0075】
【数13】
【0076】
は、t番目の時刻の未来翻訳ベクトルを表し、すなわち第1の翻訳ベクトルであり、
【0077】
【数14】
【0078】
は、(t-1)番目の時刻の未来翻訳ベクトルを表し、すなわち第3の翻訳ベクトルであり、cは、t番目の時刻のソースコンテキストベクトルを表し、RNN()は、RNNモデルを用いて計算することを表す。
【0079】
説明すべきものとして、ここでRNNを予め設定されたニューラルネットワークモデルとすることは単なる例示であり、実際の応用では、予め設定されたニューラルネットワークモデルはLSTM、遅延ネットワークモデルまたはゲート付き畳み込みニューラルネットワークであってもよく、他のタイプのニューラルネットワーク構造であってもよいし、ここでは限定されない。
【0080】
次に、本発明の実施例では、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第1の翻訳ベクトルを如何に決定することが説明され、すなわち、ソースベクトル表示シーケンスに基づいて第2の時刻に対応する第3の翻訳ベクトルを取得し、その後、予め設定されたニューラルネットワークモデルを用いて第3の翻訳ベクトルおよびソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得る。上記のように、予め設定されたニューラルネットワークモデルを利用して第1の翻訳ベクトルを出力することで、未来翻訳ベクトルの精度を向上させることができる。
【0081】
オプションとして、上記の図3に対応する実施例を基にして、本発明の実施例で提供されるターゲット情報決定方法の別の選択可能な実施例では、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第1の翻訳ベクトルおとび第2の翻訳ベクトルを決定することは、
ソースベクトル表示シーケンスに基づいて、第2の時刻に対応する第3の翻訳ベクトルを取得することと、
予め設定されたニューラルネットワークモデルを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得ることと、
ソースコンテキストベクトルがソースベクトル表示シーケンスに現れる位置に基づいて、第2の翻訳ベクトルを取得し、ここで、第2の翻訳ベクトルは、第1の時刻に対応する第4の翻訳ベクトルを更新するためのものであり、第4の翻訳ベクトルは、予め設定されたニューラルネットワークモデルを用いて、第2の翻訳ベクトルとソースコンテキストベクトルを処理して得られたものである。
【0082】
前記第4の翻訳ベクトルは、前記第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルであるということが理解される。
【0083】
本実施例では、第1の時刻がt番目の時刻であり、第2の時刻が(t-1)番目の時刻であると仮定すると、第1の時刻のソースコンテキストベクトル(すなわち、翻訳されているソース意味コンテンツ)はcと表され、注目度モジュールによって得られたものであり、cは、過去翻訳ベクトルおよび未来翻訳ベクトルを更新するためにも用いられ、次のように更新される。
【0084】
【数15】
【0085】
ここで、
【0086】
【数16】
【0087】
は、t番目の時刻の未来翻訳ベクトルを表し、すなわち第1の翻訳ベクトルであり、
【0088】
【数17】
【0089】
は、(t-1)番目の時刻の未来翻訳ベクトルを表し、すなわち第3の翻訳ベクトルであり、cは、t番目の時刻のソースコンテキストベクトルを表し、RNN()は、RNNモデルを用いて計算することを表す。
【0090】
【数18】
【0091】
ここで、
【0092】
【数19】
【0093】
は、t番目の時刻の過去翻訳ベクトルを表し、すなわち第4の翻訳ベクトルであり、
【0094】
【数20】
【0095】
は、(t-1)番目の時刻の過去翻訳ベクトルを表し、すなわち第2の翻訳ベクトルであり、cは、t番目の時刻のソースコンテキストベクトルを表し、RNN()は、RNNモデルを用いて計算することを表す。
【0096】
説明すべきものとして、ここでRNNを予め設定されたニューラルネットワークモデルとすることは単なる例示であり、実際の応用では、予め設定されたニューラルネットワークモデルはLSTM、遅延ネットワークモデルまたはゲート付き畳み込みニューラルネットワークであってもよく、他のタイプのニューラルネットワーク構造であってもよいし、ここでは限定されない。
【0097】
モデル化によって、「累積」というルール、即ち、t番目の時刻のソースコンテキストベクトルc(t番目の時刻で翻訳されているソースコンテンツ)と、(t-1)番目の時刻の過去翻訳ベクトル((t-1)番目の時刻まで翻訳されたソースコンテンツ)とが累積されることを達成する、ということが期待されている。そのため、RNN構造が選択され、その理由として、RNNがt番目の時刻までの履歴情報をよくまとめることができ、かつ期待に沿ったからである。例えば、
【0098】
【数21】
【0099】
である。
【0100】
次に、本発明の実施例では、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第1の翻訳ベクトルおよび第2の翻訳ベクトルを如何に決定することが説明され、即ち、ソースベクトル表示シーケンスに基づいて、第2の時刻に対応する第3の翻訳ベクトルを取得し、その後、予め設定されたニューラルネットモデルを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得、また、ソースコンテキストベクトルがソースベクトル表示シーケンスに現れる位置に基づいて、第2の翻訳ベクトルを取得し、ここで、第2の翻訳ベクトルは、第1の時刻に対応する第4の翻訳ベクトルを更新するためのものであり、第4の翻訳ベクトルは、予め設定されたニューラルネットワークモデルを用いて、第2の翻訳ベクトルとソースコンテキストベクトルを処理して得られたものである。上記のように、過去翻訳ベクトルと未来翻訳ベクトルの精度を向上させることができる。
【0101】
オプションとして、上記の図3に対応する実施例を基にして、本発明の実施例で提供されるターゲット情報決定方法の別の選択可能な実施例では、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第2の翻訳ベクトルを決定することは、
【0102】
ソースコンテキストベクトルがソースベクトル表示シーケンスに現れる位置に基づいて、第2の翻訳ベクトルを取得し、ここで、第2の翻訳ベクトルは、第1の時刻に対応する第4の翻訳ベクトルを生成するためのものであり、第4の翻訳ベクトルは、予め設定されたニューラルネットワークモデルを用いて、第2の翻訳ベクトルとソースコンテキストベクトルを処理して得られたものであることを含むようにしてよい。
【0103】
本実施例では、ターゲット情報決定装置は、第1の時刻のソースコンテキストベクトルがソースベクトル表示シーケンスに現れる位置に基づいて、第2の時刻の第2の翻訳ベクトルを取得するようにしてよい。
【0104】
具体的には、第1の時刻がt番目の時刻であり、第2の時刻が(t-1)番目の時刻であると仮定すると、ターゲット情報決定装置は、(t-2)番目の時刻のソースコンテキストベクトルおよび(t-2)番目の時刻の過去翻訳ベクトルを読み込み、その後、予め設定されたニューラルネットワークモデルを用いて、(t-2)番目の時刻のソースコンテキストベクトルおよび(t-2)番目の時刻の過去翻訳ベクトルを処理して、(t-1)番目の時刻の過去翻訳ベクトルを得る。過去翻訳ベクトルを全ゼロベクトルに初期化し、即ち、
【0105】
【数22】
【0106】
になり、いかなるソースコンテンツが最初に翻訳されていないことを表す。そして、各時刻に、次のように更新される。
【0107】
【数23】
【0108】
ここで、
【0109】
【数24】
【0110】
は、t番目の時刻の過去翻訳ベクトルを表し、すなわち第4の翻訳ベクトルであり、
【0111】
【数25】
【0112】
は、(t-1)番目の時刻の過去翻訳ベクトルを表し、すなわち第2の翻訳ベクトルであり、cは、t番目の時刻のソースコンテキストベクトルを表し、RNN()は、RNNモデルを用いて計算することを表す。
【0113】
説明すべきものとして、ここでRNNを予め設定されたニューラルネットワークモデルとすることは単なる例示であり、実際の応用では、予め設定されたニューラルネットワークモデルはLSTM、遅延ネットワークモデルまたはゲート付き畳み込みニューラルネットワークであってもよく、他のタイプのニューラルネットワーク構造であってもよいし、ここでは限定されない。
【0114】
次に、本発明の実施例では、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第2の翻訳ベクトルを如何に決定することが説明され、即ち、ソースコンテキストベクトルがソースベクトル表示シーケンスに現れる位置に基づいて、第2の翻訳ベクトルを取得し、第2の翻訳ベクトルは、第1の時刻に対応する第4の翻訳ベクトルを生成するためのものであり、第4の翻訳ベクトルは、予め設定されたニューラルネットワークモデルを用いて、第2の翻訳ベクトルとソースコンテキストベクトルを処理して得られたものである。上記のように、予め設定されたニューラルネットワークモデルを利用して第2の翻訳ベクトルを出力することで、過去翻訳ベクトルの精度を向上させることができる。
【0115】
オプションとして、上記の図3に対応する前の2つの実施例のいずれかを基にして、本発明の実施例で提供されるターゲット情報決定方法の別の選択可能な実施例では、予め設定されたニューラルネットワークモデルを用いて第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得ることは、
ゲート付き回帰型ユニットGRUを用いて、第3の翻訳ベクトルからソースコンテキストベクトルを減算して、第1の翻訳ベクトルを得ることを含むようにしてよい。
GRUはGated Recurrent Unitの略記であるということが理解される。
【0116】
本実施例では、未来翻訳ベクトルを得るプロセスでは、モデル化によって、「累減」というルールを達成する必要がある。第1の時刻がt番目の時刻であり、第2の時刻は(t-1)番目の時刻であると仮定すると、即ち、第1の時刻のソースコンテキストベクトルc(第1の時刻で翻訳されているソースコンテンツ)を第3の翻訳ベクトル(すなわち、第2の時刻までまだ翻訳されていないソースコンテンツに対応するベクトル)から減算する。ここでは、「累減」というルールをモデル化するために、いくつかの構造を設計した。本発明は、様々なRNN構造に適用できるが、ここでは主流のGRUを例にして説明する。
【0117】
図4を参照して、図4は、本発明の実施例におけるゲート付き回帰型ユニットの構成概略図であり、図4に対応する標準GRU構造により、「逓減」モデルが構築され、かつ、GRUのパラメータが自動的に以下のルールを学習できるように期待されている。
【0118】
【数26】
【0119】
ここで、
【0120】
【数27】
【0121】
は、t番目の時刻の未来翻訳ベクトルを表し、すなわち第1の翻訳ベクトルであり、
【0122】
【数28】
【0123】
は、(t-1)番目の時刻の未来翻訳ベクトルを表し、すなわち第3の翻訳ベクトルであり、cは、第1の時刻のソースコンテキストベクトルを表し、uは、第1の時刻の更新ゲートを表し、
【0124】
【数29】
【0125】
は、GRUによって生成された更新状態候補を表し、すなわち、中間ベクトルであり、rは、出力された重みベクトルを表し、tanh()は、双曲線正接関数を表し、σ()は、sigmoid関数を表す。U、W、U、W、UおよびWは、関数に関するパラメータを表し、これらのパラメータは、ニューラルネットワーク翻訳システムの他のパラメータと一緒にトレーニングされる。
【0126】
しかしながら、図4に対応するGRU構造は、「逓減」を必要とする信号を与えず、こうすれば、GRUがルールを学習することの難しさが増加してしまう。そのため、このGRU構造を改善することにより、図5に対応するGRU-o構造を得ることができる。図5を参照して、図5は、本発明の実施例におけるゲート付き回帰型ユニットの別の構成図であり、この構成では、まず第1の時刻(すなわちt番目の時刻)のソースコンテキストベクトルcを、第2の時刻(すなわち(t-1)番目の時刻)の未来翻訳ベクトルから減算し、ここで、第2の時刻の未来翻訳ベクトルは第3の翻訳ベクトルである。必要な第1の翻訳ベクトルを得て、GRU構造に伝送し、具体的には、以下の式を参照する。
【0127】
【数30】
【0128】
ここで、
【0129】
【数31】
【0130】
は、c
【0131】
【数32】
【0132】
から減算することを表し、UおよびWは、関数に関するパラメータを表し、これらのパラメータは、ニューラルネットワーク翻訳システムの他のパラメータと一緒にトレーニングされる。
【0133】
更に、本発明の実施例では、GRUを用いて第3の翻訳ベクトルからソースコンテキストベクトルを減算して、第1の翻訳ベクトルを得て、得られた第1の翻訳ベクトルをGRU構造に伝送するようにしてよい。上記のように、GRUにおいて逓減の信号を与えることができ、こうすれば、ルールを学習することに寄与し、モデルトレーニングの精度を向上させる。
【0134】
オプションとして、上記の図3に対応する前の2つの実施例のいずれかを基にして、本発明の実施例で提供されるターゲット情報決定方法の別の選択可能な実施例では、予め設定されたニューラルネットワークモデルを用いて第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得ることは、
GRUを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、中間ベクトルを得ることと、
中間ベクトルを第3の翻訳ベクトルと補間結合して、第1の翻訳ベクトルを得ることとを含むようにしてよい。
【0135】
本実施例では、GRU内部で「累減」という操作を行うようにしてもよいし、図6を参照して、図6は、本発明の実施例におけるゲート付き回帰型ユニットの別の構成概略図であり、第1の時刻がt番目の時刻であり、第2の時刻が(t-1)番目の時刻であると仮定すると、GRUのパラメータは以下のルールを自動的に学習することができる。
【0136】
【数33】
【0137】
ここで、
【0138】
【数34】
【0139】
は、GRUによって生成された更新状態候補を表し、即ち中間ベクトルであり、rは、出力された重みベクトルを表し、tanh()は、双曲線正接関数を表し、
【0140】
【数35】
【0141】
は、(t-1)番目の時刻の未来翻訳ベクトルを表し、即ち第3の翻訳ベクトルであり、cは、第1の時刻のソースコンテキストベクトルを表す。
【0142】
【数36】
【0143】
を得た後、(t-1)番目の時刻の第3の翻訳ベクトルと補間結合し、最終的な第1の翻訳ベクトル
【0144】
【数37】
【0145】
を得ることができる。
上記の操作を採用すれば、各時刻に過去翻訳ベクトルと未来翻訳ベクトルを得ることができ、
【0146】
【数38】
【0147】
は、t番目の時刻まで翻訳されたソースコンテンツを表し、
【0148】
【数39】
【0149】
は、t番目の時刻まで翻訳されていないソースコンテンツを表す。
【0150】
また、本発明の実施例では、ターゲット情報決定装置は、予め設定されたニューラルネットワークモデルを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得るプロセスは、まず、GRUを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、中間ベクトルを得て、また、中間ベクトルを第3の翻訳ベクトルと補間結合して、第1の翻訳ベクトルを得るようにしてよい。上記のように、GRU内部で逓減という操作を行うことは、操作の精度を向上させて、操作の効率を向上させるのに役立つ。
【0151】
オプションとして、上記の図3に対応する実施例を基にして、本発明の実施例で提供されるターゲット情報決定方法の別の選択可能な実施例では、ソースベクトル表示シーケンスに基づいて第1の時刻に対応するソースコンテキストベクトルを得ることは、
第2の時刻のデコーダの状態、第2の翻訳ベクトル、第3の翻訳ベクトル、およびソースベクトル表示シーケンスにおけるソースコンテンツのベクトルに基づいて、ソースコンテンツのアライメント確率を決定することと、
ソースコンテンツのアライメント確率およびソースコンテンツの意味ベクトルに基づいて、第1の時刻に対応するソースコンテキストベクトルを決定することとを含むようにしてよい。
【0152】
本実施例では、ターゲット情報決定装置はソースベクトル表示シーケンスに基づいて第1の時刻に対応するソースコンテキストベクトルを如何に得ることが説明され、理解を容易にするために、図7を参照して、図7は、本発明の実施例における注目度モジュールの一実施例の概略図であり、具体的には、第1の時刻がt番目の時刻であり、第2の時刻が(t-1)番目の時刻であると仮定すると、ターゲット情報決定装置は、エンコーダとデコーダとを含み、デコーダは、第2の時刻のデコーダの状態st-1
【0153】
【数40】
【0154】
およびソースベクトル表示シーケンスにおけるソースコンテンツのベクトルhに基づいて、ソースコンテンツのアライメント確率αt,iを決定する。
つまり、次の式を用いて、アライメント確率αt,iを計算する。
【0155】
【数41】
【0156】
ここで、αt,iは、注目度メカニズムによって出力された、各ソースコンテンツに対するアライメント確率の分布を指し、アライメント確率の分布の総和は1であり、hは、エンコーダによる入力センテンスのうちのi番目のソースコンテンツに対するベクトル表現であり、soft max()は、正規化操作を表し、ニューラルネットワークにより入力された値は、通常正または負の値であるため、通常は先にその指数値を使用してそれを正の値に変換し、次にすべての指数値を正規化して、確率の分布を得る。a()は、注目度モジュールの操作である。
【0157】
ソースコンテンツのアラインメント確率αt,iを得た後、対応するソースコンテンの意味ベクトルxと重み付き加算を行って、第1の時刻に対応するソースコンテキストベクトルを得る。例えば、第1の時刻のαt,1は0.5であり、αt,2は0.3であり、αt,3は0.2であり、xは2であり、xは4であり、xは6であり、そうすると、第1の時刻に対応するソースコンテキストベクトルcの計算方式は、以下の通りである。
=0.5×2+0.3×4+0.2×6=3.4
実際の応用では、アラインメント確率αt,iの計算方法は、さらに、
【0158】
【数42】
【0159】
であってもよいということが理解される。
【0160】
次に、本発明の実施例では、まず、第2の時刻のデコーダの状態、第2の翻訳ベクトル、第3の翻訳ベクトル、およびソースベクトル表示シーケンスにおけるソースコンテンツのベクトルに基づいて、ソースコンテンツのアラインメント確率を決定し、その後、ソースコンテンツのアラインメント確率およびソースコンテンツの意味ベクトルに基づいて、第1の時刻に対応するソースコンテキストベクトルを決定するようにしてよい。上記のように、ターゲット情報決定装置における注目度モジュールは、どのソースコンテンツが既に翻訳されたか、どのソースコンテンツがまだ翻訳されていないかを知ることができ、これにより、翻訳されていないコンテンツに注目度をもっと向け、翻訳されたコンテンツに対する関心を低減し、これによって、翻訳漏れや翻訳重複の問題を緩和することができる。
【0161】
オプションとして、上記の図3に対応する実施例を基にして、本発明の実施例におけるターゲット情報決定方法の別の選択可能な実施例では、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルおよびソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る前に、第2の時刻のデコーダの状態、第2の時刻のターゲット情報、ソースコンテキストベクトル、第1の翻訳ベクトル及び第2の翻訳ベクトルに基づいて、第1の時刻のデコーダの状態を決定することをさらに含むようにしてよい。
【0162】
これに対応して、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルおよびソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることは、第1の時刻のデコーダの状態、ソースコンテキストベクトル、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルを復号化処理して、第1の時刻のターゲット情報を得ることを含むようにしてよい。
【0163】
本実施例では、ターゲット情報決定装置は第1の時刻のターゲット情報を得る前に、まず、第2の時刻のデコーダの状態、第2の時刻のターゲット情報、ソースコンテキストベクトル、第1の翻訳ベクトルおよび第2の翻訳ベクトルに基づいて、第1の時刻のデコーダの状態を決定する必要があり、ここで、第1の時刻はt番目の時刻であり、現在の時刻でもあり、第2の時刻は(t-1)番目の時刻であり、前の時刻でもある。
【0164】
具体的には、図8を参照して、図8は、本発明の実施例におけるデコーダの状態の一実施例の概略図であり、第2の時刻のデコーダの状態はst-1であり、第2の時刻のターゲット情報はyt-1であり、ソースコンテキストベクトルはcであり、第1の翻訳ベクトルは
【0165】
【数43】
【0166】
であり、第2の翻訳ベクトルは
【0167】
【数44】
【0168】
であり、次の式を利用して第1の時刻のデコーダの状態sを計算することができる。
【0169】
【数45】
【0170】
ここで、f()は、デコーダの状態を更新するアクティブ関数(activation function)を表し、ニューラルネットワーク翻訳モデルの標準構成でもあり、その入力は、実際の要求に応じて柔軟に変化することができる。
【0171】
次に、本発明の実施例では、まず第2の時刻のデコーダの状態、第2の時刻のターゲット情報、ソースコンテキストベクトル、第1の翻訳ベクトル、および第2の翻訳ベクトルに基づいて、第1の時刻のデコーダの状態を決定する必要があり、その後、第1の時刻のデコーダの状態、ソースコンテキストベクトル、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルを復号化処理して、第1の時刻のターゲット情報を得る。上記のように、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルのモデル化を、デコーダの状態から独立させて、第1の時刻の、注目度モジュールによって出力されたソースコンテキストベクトルと完全なソース意味ベクトル表現を構成して、デコーダに伝送することで、より正確なターゲット情報を生成することができる。
【0172】
オプションとして、上記の図3に対応する後の2つの実施例のいずれかを基にして、本発明の実施例で提供されるターゲット情報決定方法の別の選択可能な実施例では、
【0173】
第1の翻訳ベクトルおよび第3の翻訳ベクトルに基づいて、未来翻訳ベクトルの変化と第1の時刻のターゲット情報との間の意味の一致性状況を表すための第1の指標の期待値を取得することと、
第2の翻訳ベクトルおよび第4の翻訳ベクトルに基づいて、過去翻訳ベクトルの変化と第1の時刻のターゲット情報との間の意味の一致性状況を表すための第2の指標の期待値を取得することと、
第1の指標の期待値および第2の指標の期待値に基づいて、予め設定されたニューラルネットワークモデルを構築するためのトレーニングターゲットを決定することとをさらに含むようにしてよい。
【0174】
本実施例では、トレーニングターゲットを増加させる方法も提供され、トレーニングターゲットを増加させることにより、予め設定されたニューラルネットワークモデルよりよくトレーニングして得ることができる。説明を簡単にするために、以下、未来翻訳ベクトルをトレーニングすることを例にして説明し、過去翻訳ベクトルをトレーニングする方法は似ているため、ここでは詳しく説明しない。未来翻訳ベクトルを例にして、できるだけ
【0175】
【数46】
【0176】
を達成する必要があり、即ち、隣接時刻の2つの翻訳ベクトルの情報差は、この時刻で翻訳されたソースコンテンツとほぼ同じである必要があり、これにより、未来翻訳ベクトルのモデル化が満たされる。翻訳において、ソースコンテンツとターゲット情報の意味コンテンツはほぼ同じであり、即ち、
【0177】
【数47】
【0178】
であるため、新しい指標の期待値を定義し、未来翻訳ベクトルの変化と、生成された対応するターゲット情報との意味レベルでの一致性を直接に評価する。
第1の指標の期待値は、以下のように計算することができる。
【0179】
【数48】
【0180】
ここで、E(y)は、ターゲット情報を表し、yは、ターゲット情報のベクトル表現であり、
【0181】
【数49】
【0182】
は、未来翻訳ベクトルの更新が予想通りである(例えば、更新量と翻訳されたソースコンテンツがほぼ同じである)かどうかを判定する指標の期待値である。指標の期待値が高いほど、予想に合致になる。
【0183】
【数50】
【0184】
は、
【0185】
【数51】
【0186】
との差の絶対値である。
同様に,第2の指標の期待値は、
【0187】
【数52】
【0188】
に基づいて
【0189】
【数53】
【0190】
を計算し得て、さらに第2の指標の期待値
【0191】
【数54】
【0192】
を得ることもできる。
第1の指標の期待値および第2の指標の期待値に基づいて、トレーニングターゲットを次のように計算することができる。
【0193】
【数55】
【0194】
ここで、J(θ,γ)は、トレーニングによって得られたパラメータを表し、これはトレーニングターゲットの共通表現である。θは、NMTシステムのパラメータを表し、γは、新しく導入された過去未来モジュールのパラメータを表し、
【0195】
【数56】
【0196】
は、最大スコアを得るトレーニングターゲット(すなわち、式中のlikelihood、future lossおよびpast loss)に対応するパラメータを表す。
【0197】
【数57】
【0198】
は、標準ニューラルネットワーク翻訳モデルのトレーニングターゲットを表し、すなわち、各ターゲット情報の生成確率を最大化させること、または、ターゲットワードを最大化させることで生成された尤度(likelihood)分数として表現することができる。
【0199】
【数58】
【0200】
は、未来翻訳ベクトルの第1の指標の期待値を表し、
【0201】
【数59】
【0202】
は、過去翻訳ベクトルの第2の指標の期待値を表す。
【0203】
また、本発明の実施例では、第1の翻訳ベクトルおよび第3の翻訳ベクトルに基づいて、第1の指標の期待値を取得して、第2の翻訳ベクトルおよび第4の翻訳ベクトルに基づいて、第2の指標の期待値を取得し、その後、第1の指標の期待値および第2の指標の期待値に基づいて、予め設定されたニューラルネットワークモデルを構築するためのトレーニングターゲットを決定する。上記のように、トレーニングターゲットを増加させ、かつこの部分のトレーニングターゲットは、意味レベルでの一致性をよりよく満たすことができ、トレーニングの精度と実現可能性を向上させることができる。
【0204】
理解を容易にするために、以下では、本発明におけるターゲット情報決定プロセスを具体的なアプリケーションシナリオで詳細に説明することができ、図9を参照して、図9は、本発明のアプリケーションシナリオにおいてソースベクトル表示シーケンスにおける第1のソースコンテンツを翻訳する実施例の概略図であり、具体的には、エンコーダは、入力センテンス
【0205】
【数60】
【0206】
を読み込み、<eos>は、センテンスの終了記号を表し、その後、ソースベクトル表示シーケンスを出力し、ここで、各ベクトル(すなわち図9における円点直条)が1つのソースコンテンツに対応する。このソースベクトル表示シーケンスに基づいて、デコーダは翻訳文を生成する。
【0207】
まず、アラインメント確率と意味ベクトルを重み付けし、第1の時刻のソースコンテキストベクトルcを生成し、アラインメント確率は図9における0.5、0.2、0.2、0.1、0.0および0.0となる。次に、cに基づいて過去翻訳ベクトルと未来翻訳ベクトルを更新し、すなわち、次の式を採用する。
【0208】
【数61】
【0209】
ここで、
【0210】
【数62】
【0211】
は、第1の時刻の過去翻訳ベクトルを表し、
【0212】
【数63】
【0213】
は、初期時刻の過去翻訳ベクトルを表し、
【0214】
【数64】
【0215】
は、第1の時刻の未来翻訳ベクトルを表し、
【0216】
【数65】
【0217】
は、初期時刻の未来翻訳ベクトルを表す。
デコーダは、
【0218】
【数66】
【0219】
および初期時刻のデコーダの状態sを復号化し、第1の時刻のデコーダの状態sを更新でき、sとcに基づいて、1つのニューラルネットワーク出力層を使用して、すべてのターゲットワードと比較して、最も類似度の高い1つのワードをターゲット情報yとして選択し、このy
【0220】
【数67】
【0221】
の翻訳文「many」である。
【0222】
図10を参照して、本発明のアプリケーションシナリオにおいてソースベクトル表示シーケンスにおける第2のソースコンテンツを翻訳する実施例の概略図であり、図10に示すように、まず、アラインメント確率と意味ベクトルを重み付けし、第2の時刻のソースコンテキストベクトルcを生成し、アラインメント確率は、図10における0.3、0.6、0.1、0.0、0.0および0.0となる。次に、cに基づいて、過去翻訳ベクトルと未来翻訳ベクトルを更新し、すなわち、次の式を採用する。
【0223】
【数68】
【0224】
ここで、
【0225】
【数69】
【0226】
は、第2の時刻の過去翻訳ベクトルを表し、
【0227】
【数70】
【0228】
は、第1の時刻の過去翻訳ベクトルを表し、
【0229】
【数71】
【0230】
は、第2の時刻の未来翻訳ベクトルを表し、
【0231】
【数72】
【0232】
は、第1の時刻の未来翻訳ベクトルを表す。
デコーダは、
【0233】
【数73】
【0234】
および第1の時刻のデコーダの状態sを復号化し、第2の時刻のデコーダの状態を更新し、s、cおよび前の1つに生成されたターゲット情報yに基づいて、1つのニューラルネットワーク出力層を使用して、すべてのターゲットワードと比較して、最も類似度の高い1つのワードをターゲット情報yとして選択し、このyは、
【0235】
【数74】
【0236】
の翻訳文「airports」である。
入力センテンスを完全に翻訳するまで、これを類推する。
【0237】
以下、本発明におけるターゲット情報決定装置を詳細に説明し、図11を参照して、本発明の実施例におけるターゲット情報決定装置30は、少なくとも1つのメモリと、少なくとも1つのプロセッサとを備え、前記少なくとも1つのメモリに少なくとも1つの命令モジュールが記憶され、前記少なくとも1つのプロセッサによって実行されるように配置され、ここで、前記少なくとも1つの命令モジュールは、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得る符号化モジュール301と、前記符号化モジュール301が符号化処理して得られた前記ソースベクトル表示シーケンスに基づいて、処理対象となるソースコンテンツを表すための第1の時刻に対応するソースコンテキストベクトルを取得する第1の取得モジュール302と、前記符号化モジュール301が符号化処理して得られた前記ソースベクトル表示シーケンスおよび前記第1の取得モジュール302が取得した前記ソースコンテキストベクトルに基づいて、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを指示する第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを指示する第2の翻訳ベクトルを決定する第1の決定モジュール303と、前記第1の決定モジュール303が決定した前記第1の翻訳ベクトルおよび/または前記第2の翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る復号化モジュール304とを備え、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻である。
【0238】
本実施例では、符号化モジュール301は、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得、第1の取得モジュール302は、前記符号化モジュール301が符号化処理して得られた前記ソースベクトル表示シーケンスに基づいて、処理対象となるソースコンテンツを表すための第1の時刻に対応するソースコンテキストベクトルを取得し、第1の決定モジュール303は、前記符号化モジュール301が符号化処理して得られた前記ソースベクトル表示シーケンスおよび前記第1の取得モジュール302が取得した前記ソースコンテキストベクトルに基づいて、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを指示する第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを指示する第2の翻訳ベクトルを決定し、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であり、復号化モジュール304は、前記第1の決定モジュール303が決定した前記第1の翻訳ベクトルおよび/または前記第2の翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る。
【0239】
本発明の実施例では、ターゲット情報決定装置が提供され、まず、ターゲット情報決定装置は、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得、その後、ソースベクトル表示シーケンスに基づいて、処理対象となるソースコンテンツを表すための第1の時刻に対応するソースコンテキストベクトルを取得し、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを指示する第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを指示する第2の翻訳ベクトルを決定し、第2の時刻は、第1の時刻に隣接する一つ前の時刻であり、最後に、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルおよびソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る。上記のように、ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツおよび/または翻訳されたソースコンテンツをモデル化することにより、即ち、この部分のコンテンツをオリジナルの言語モデルから分離してトレーニングすることにより、デコーダのモデルトレーニングの難しさを低減し、翻訳システムの翻訳効果を向上させることができる。
【0240】
オプションとして、上記の図11に対応する実施例を基にして、図12を参照して、本発明の実施例で提供されるターゲット情報決定装置の別の実施例では、
【0241】
前記第1の決定モジュール303は、前記ソースベクトル表示シーケンスに基づいて、前記第2の時刻に対応する第3の翻訳ベクトルを取得する第1の取得ユニット3031と、予め設定されたニューラルネットモデルを用いて、前記第1の取得ユニット3031が取得した前記第3の翻訳ベクトルと前記ソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得る第1の処理ユニット3032とを備える。
【0242】
次に、本発明の実施例では、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第1の翻訳ベクトルを如何に決定することが説明され、すなわち、ソースベクトル表示シーケンスに基づいて、第2の時刻に対応する第3の翻訳ベクトルを取得し、その後、予め設定されたニューラルネットワークモデルを用いて第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得る。上記のように、予め設定されたニューラルネットワークモデルを利用して第1の翻訳ベクトルを出力することで、未来翻訳ベクトルの精度を向上させることができる。
【0243】
オプションとして、上記の図11に対応する実施例を基にして、図13を参照して、本発明の実施例で提供されるターゲット情報決定装置30の別の実施例では、
【0244】
前記第1の決定モジュール303は、前記ソースベクトル表示シーケンスに基づいて、前記第2の時刻に対応する第3の翻訳ベクトルを取得する第2の取得ユニット3033と、予め設定されたニューラルネットワークモデルを用いて、前記第2の取得ユニット3033が取得した前記第3の翻訳ベクトルと前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得る第2の処理ユニット3034と、前記ソースコンテキストベクトルが前記ソースベクトル表示シーケンスに現れる位置に基づいて、前記第2の翻訳ベクトルを取得する第3の取得ユニット3035とを備え、ここで、前記第2の翻訳ベクトルは、前記第1の時刻に対応する第4の翻訳ベクトルを更新するためのものであり、前記第4の翻訳ベクトルは、前記予め設定されたニューラルネットワークモデルを用いて、前記第2の翻訳ベクトルと前記ソースコンテキストベクトルを処理して得られたものである。
【0245】
次に、本発明の実施例では、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第1の翻訳ベクトルおよび第2の翻訳ベクトルを如何に決定することが説明され、即ち、ソースベクトル表示シーケンスに基づいて、第2の時刻に対応する第3の翻訳ベクトルを取得し、その後、予め設定されたニューラルネットモデルを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得ることができ、また、ソースコンテキストベクトルがソースベクトル表示シーケンスに現れる位置に基づいて、第2の翻訳ベクトルを取得することもでき、ここで、第2の翻訳ベクトルは、第1の時刻に対応する第4の翻訳ベクトルを更新するためのものであり、第4の翻訳ベクトルは、予め設定されたニューラルネットワークモデルを用いて、第2の翻訳ベクトルとソースコンテキストベクトルを処理して得られたものである。上記のように、過去翻訳ベクトルと未来翻訳ベクトルの精度を向上させることができる。
【0246】
オプションとして、上記の図11に対応する実施例を基にして、図14を参照して、本発明の実施例で提供されるターゲット情報決定装置30の別の実施例では、前記第1の決定モジュール303は、前記ソースコンテキストベクトルが前記ソースベクトル表示シーケンスに現れる位置に基づいて、前記第2の翻訳ベクトルを取得する第4の取得ユニット3036を備え、ここで、第2の翻訳ベクトルは、前記第1の時刻に対応する第4の翻訳ベクトルを生成するためのものであり、前記第4の翻訳ベクトルは、前記予め設定されたニューラルネットワークモデルを用いて、前記第2の翻訳ベクトルと前記ソースコンテキストベクトルを処理して得られたものである。
【0247】
次に、本発明の実施例では、ソースベクトル表示シーケンスおよびソースコンテキストベクトルに基づいて第2の翻訳ベクトルを如何に決定することが説明され、即ち、ソースコンテキストベクトルがソースベクトル表示シーケンスに現れる位置に基づいて、第2の翻訳ベクトルを取得し、第2の翻訳ベクトルは、第1の時刻に対応する第4の翻訳ベクトルを生成するためのものであり、第4の翻訳ベクトルは、予め設定されたニューラルネットワークモデルを用いて、第2の翻訳ベクトルとソースコンテキストベクトルを処理して得られたものである。上記のように、予め設定されたニューラルネットワークモデルを利用して第2の翻訳ベクトルを出力することで、過去翻訳ベクトルの精度を向上させることができる。
【0248】
オプションとして、上記の図12または図13に対応する実施例を基にして、図15を参照して、本発明の実施例で提供されるターゲット情報決定装置30の別の実施例では、前記第1の処理ユニット3032は、ゲート付き回帰型ユニットGRUを用いて、前記第3の翻訳ベクトルから前記ソースコンテキストベクトルを減算して、前記第1の翻訳ベクトルを得る減算サブユニット30321を備える。
【0249】
更に、本発明の実施例では、GRUを用いて第3の翻訳ベクトルからソースコンテキストベクトルを減算して、第1の翻訳ベクトルを得て、得られた第1の翻訳ベクトルをGRU構造に伝送するようにしてよい。上記のように、GRUにおいて逓減の信号を与えることができ、こうすれば、ルールを学習することに寄与し、モデルトレーニングの精度を向上させる。
【0250】
オプションとして、上記の図12または図13に対応する実施例を基にして、図16を参照して、本発明の実施例で提供されるターゲット情報決定装置30の別の実施例では、前記第1の処理ユニット3032は、GRUを用いて、前記第3の翻訳ベクトルと前記ソースコンテキストベクトルを処理して、中間ベクトルを得る処理サブユニット30322と、前記処理サブユニット30322が処理して得られた前記中間ベクトルを前記第3の翻訳ベクトルと補間結合して、前記第1の翻訳ベクトルを得る結合サブユニット30323とを備える。
【0251】
また、本発明の実施例では、ターゲット情報決定装置が、予め設定されたニューラルネットワークモデルを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得るプロセスは、まず、GRUを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、中間ベクトルを得て、また、中間ベクトルを第3の翻訳ベクトルと補間結合して、第1の翻訳ベクトルを得るようにしてよい。上記のように、GRU内部で逓減という操作を行うことは、操作の精度を向上させて、操作の効率を向上させるのに役立つ。
【0252】
オプションとして、上記の図11に対応する実施例を基にして、図17を参照して、本発明の実施例で提供されるターゲット情報決定装置30の別の実施例では、前記第1の取得モジュール302は、前記第2の時刻のデコーダの状態、前記第2の翻訳ベクトル、第3の翻訳ベクトル、および前記ソースベクトル表示シーケンスにおけるソースコンテンツのベクトルに基づいて、ソースコンテンツのアライメント確率を決定する第1の決定ユニット3021と、前記第1の決定ユニット3021が決定した前記ソースコンテンツのアライメント確率および前記ソースコンテンツの意味ベクトルに基づいて、前記第1の時刻に対応する前記ソースコンテキストベクトルを決定する第2の決定ユニット3022とを備える。
【0253】
次に、本発明の実施例では、まず、第2の時刻のデコーダの状態、第2の翻訳ベクトル、第3の翻訳ベクトル、およびソースベクトル表示シーケンスにおけるソースコンテンツのベクトルに基づいて、ソースコンテンツのアラインメント確率を決定し、その後、ソースコンテンツのアラインメント確率およびソースコンテンツの意味ベクトルに基づいて、第1の時刻に対応するソースコンテキストベクトルを決定することができる。上記のように、ターゲット情報決定装置における注目度モジュールは、どのソースコンテンツが既に翻訳されたか、どのソースコンテンツがまだ翻訳されていないかを知ることができ、これにより、翻訳されていないコンテンツに注目度をもっと向け、翻訳されたコンテンツに対する関心を低減し、これによって、翻訳漏れや翻訳重複の問題を緩和することができる。
【0254】
オプションとして、上記の図11に対応する実施例を基にして、図18を参照して、本発明の実施例で提供されるターゲット情報決定装置30の別の実施例では、前記ターゲット情報決定装置30は、前記復号化モジュール304は前記第1の翻訳ベクトルおよび/または第2の翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る前に、前記第2の時刻のデコーダの状態、前記第2の時刻のターゲット情報、前記ソースコンテキストベクトル、前記第1の翻訳ベクトルおよび前記第2の翻訳ベクトルに基づいて、前記第1の時刻のデコーダの状態を決定する第2の決定モジュール305をさらに備えるようにしてよく、前記復号化モジュール304は、前記第1の時刻のデコーダの状態、前記ソースコンテキストベクトル、前記第1の翻訳ベクトルおよび/または前記第2の翻訳ベクトルを復号化処理して、前記第1の時刻のターゲット情報を得る復号化ユニット3041を備える。
【0255】
次に、本発明の実施例では、まず第2の時刻のデコーダの状態、第2の時刻のターゲット情報、ソースコンテキストベクトル、第1の翻訳ベクトルおよび第2の翻訳ベクトルに基づいて、第1の時刻のデコーダの状態を決定する必要があり、その後、第1の時刻のデコーダの状態、ソースコンテキストベクトル、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルを復号化処理して、第1の時刻のターゲット情報を得る。上記のように、第1の翻訳ベクトルおよび/または第2の翻訳ベクトルのモデル化を、デコーダの状態から独立させて、第1の時刻の、注目度モジュールによって出力されたソースコンテキストベクトルと完全なソース意味ベクトル表現を構成して、デコーダに伝送することで、より正確なターゲット情報を生成する。
【0256】
オプションとして、上記の図17または図18に対応する実施例を基にして、図19を参照して、本発明の実施例で提供されるターゲット情報決定装置30の別の実施例では、前記ターゲット情報決定装置30は、前記第1の翻訳ベクトルおよび前記第3の翻訳ベクトルに基づいて、未来翻訳ベクトルの変化と前記第1の時刻のターゲット情報との間の意味の一致性状況を表すための第1の指標の期待値を取得する第2の取得モジュール306と、前記第2の翻訳ベクトルおよび前記第4の翻訳ベクトルに基づいて、過去翻訳ベクトルの変化と前記第1の時刻のターゲット情報との間の意味の一致性状況を表すための第2の指標の期待値を取得する第3の取得モジュール307と、前記第2の取得モジュール306が取得した前記第1の指標の期待値および前記第3の取得モジュール307が取得した前記第2の指標の期待値に基づいて、予め設定されたニューラルネットワークモデルを構築するためのトレーニングターゲットを決定する第2の決定モジュール308とを備えるようにしてよい。
【0257】
また、本発明の実施例では、第1の翻訳ベクトルおよび第3の翻訳ベクトルに基づいて、第1の指標の期待値を取得して、第2の翻訳ベクトルおよび第4の翻訳ベクトルに基づいて、第2の指標の期待値を取得し、その後、第1の指標の期待値及び第2の指標の期待値に基づいて、予め設定されたニューラルネットワークモデルを構築するためのトレーニングターゲットを決定する。上記のように、トレーニングターゲットを増加させ、かつこの部分のトレーニングターゲットは、意味レベルでの一致性をよりよく満たすことができ、これによって、トレーニングの精度と実現可能性を向上させることができる。
【0258】
図20は、本発明の実施例で提供されるターゲット情報決定装置の構成概略図であり、このターゲット情報決定装置300は、構成または性能の違いのせいで、比較的大きな差異を生成し、1つまたは複数の中央プロセッサ(CPU:central processing units)322(例えば、1つまたは複数のプロセッサ)と、メモリ332と、アプリケーション342またはデータ344を記憶する1つまたは複数の記憶媒体330(例えば、1つまたは複数の大容量記憶装置)とを備えるようにしてよい。ここで、メモリ332および記憶媒体330は、一時的な記憶または永続的な記憶であってもよい。記憶媒体330に記憶されたプログラムは、1つまたは複数のモジュール(図示せず)を含むようにしてよく、各モジュールがターゲット情報決定装置に対する一連の命令操作を含むようにしてよい。さらに、中央プロセッサ322は、記憶媒体330と通信し、ターゲット情報決定装置300で記憶媒体330における一連の命令操作を実行するように構成されてもよい。
【0259】
ターゲット情報決定装置300は、1つまたは複数の電源326、1つまたは複数の有線や無線ネットワークインターフェース350、1つまたは複数の入出力インターフェース358および/またはWindows Server(登録商標)、Mac OS X(登録商標)、UnixTM、Linux(登録商標)、FreeBSD(登録商標)などの1つまたは複数のオペレーティングシステム341を備えるようにしてよい。
上記の実施例におけるターゲット情報決定装置によって実行されたステップは、図20に示すターゲット情報決定装置の構成に基づくものである。
【0260】
CPU322は、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることと、前記ソースベクトル表示シーケンスに基づいて、処理対象となるソースコンテンツを表すための第1の時刻に対応するソースコンテキストベクトルを取得することと、前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツを指示する第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツを指示する第2の翻訳ベクトルを決定することと、前記第1の翻訳ベクトルおよび/または前記第2の翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることとを実行し、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻である。
【0261】
オプションとして、CPU322は、具体的に、前記ソースベクトル表示シーケンスに基づいて、前記第2の時刻に対応する第3の翻訳ベクトルを取得することと、予め設定されたニューラルネットモデルを用いて、前記第3の翻訳ベクトルと前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることとを実行する。
【0262】
オプションとして、CPU322は、具体的に、前記ソースベクトル表示シーケンスに基づいて、前記第2の時刻に対応する第3の翻訳ベクトルを取得することと、予め設定されたニューラルネットワークモデルを用いて、前記第3の翻訳ベクトルと前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることと、前記ソースコンテキストベクトルが前記ソースベクトル表示シーケンスに現れる位置に基づいて、前記第2の翻訳ベクトルを取得することとを実行し、ここで、前記第2の翻訳ベクトルは、前記第1の時刻に対応する第4の翻訳ベクトルを更新するためのものであり、前記第4の翻訳ベクトルは、前記予め設定されたニューラルネットワークモデルを用いて、前記第2の翻訳ベクトルと前記ソースコンテキストベクトルを処理して得られたものである。
【0263】
オプションとして、CPU322は、具体的に、前記ソースコンテキストベクトルが前記ソースベクトル表示シーケンスに現れる位置に基づいて、前記第2の翻訳ベクトルを取得することを実行し、ここで、前記第2の翻訳ベクトルは、前記第1の時刻に対応する第4の翻訳ベクトルを生成するためのものであり、前記第4の翻訳ベクトルは、前記予め設定されたニューラルネットワークモデルを用いて、前記第2の翻訳ベクトルと前記ソースコンテキストベクトルを処理して得られたものである。
【0264】
オプションとして、CPU322は、具体的に、ゲート付き回帰型ユニットGRUを用いて、前記第3の翻訳ベクトルから前記ソースコンテキストベクトルを減算して、前記第1の翻訳ベクトルを得ることを実行する。
【0265】
オプションとして、CPU322は、具体的に、GRUを用いて、前記第3の翻訳ベクトルと前記ソースコンテキストベクトルを処理して、中間ベクトルを得ることと、前記中間ベクトルを前記第3の翻訳ベクトルと補間結合して、前記第1の翻訳ベクトルを得ることとを実行する。
【0266】
オプションとして、CPU322は、具体的に、前記第2の時刻のデコーダの状態、前記第2の翻訳ベクトル、前記第3の翻訳ベクトル、および前記ソースベクトル表示シーケンスにおけるソースコンテンツのベクトルに基づいて、ソースコンテンツのアライメント確率を決定することと、前記ソースコンテンツのアライメント確率および前記ソースコンテンツの意味ベクトルに基づいて、前記第1の時刻に対応する前記ソースコンテキストベクトルを決定することとを実行する。
【0267】
オプションとして、CPU322は、前記第2の時刻のデコーダの状態、前記第2の時刻のターゲット情報、前記ソースコンテキストベクトル、前記第1の翻訳ベクトルおよび前記第2の翻訳ベクトルに基づいて、前記第1の時刻のデコーダの状態を決定することを実行する。
【0268】
CPU322は、具体的に、前記第1の時刻のデコーダの状態、前記第1の翻訳ベクトル、前記第2の翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、前記第1の時刻のターゲット情報を得ることを実行する。
【0269】
オプションとして、CPU322は、前記第1の翻訳ベクトルおよび前記第3の翻訳ベクトルに基づいて、未来翻訳ベクトルの変化と前記第1の時刻のターゲット情報との間の意味の一致性状況を表すための第1の指標の期待値を取得することと、前記第2の翻訳ベクトルおよび前記第4の翻訳ベクトルに基づいて、過去翻訳ベクトルの変化と前記第1の時刻のターゲット情報との間の意味の一致性状況を表すための第2の指標の期待値を取得することと、前記第1の指標の期待値および前記第2の指標の期待値に基づいて、予め設定されたニューラルネットワークモデルを構築するためのトレーニングターゲットを決定することとを実行する。
【0270】
ここでは説明の便宜上かつ簡潔にするために、上記で説明したシステム、装置、およびユニットの具体的な動作手順は、前述の方法の実施例における対応するプロセスを参照してもよいため、ここで説明を省略することは、当業者によって明確に理解され得る。
【0271】
本願で提供されるいくつかの実施例では、開示されたシステム、装置、および方法は、他の方法で実現され得るということが理解されるべきである。例えば、上記の装置の実施例は、単に概略的なものであり、例えば、前記ユニットの区分は、論理機能の区分のみであり、実際に実装される場合に、他の区分方式があってもよいし、例えば、複数のユニットまたはコンポーネントは、他のシステムに結合または統合されてもよく、あるいは、一部の特徴は無視されてもよく、または実行されなくてもよい。さらに、表示または検討された相互間の結合または直接結合または通信接続は、いくつかのインターフェース、装置またはユニットを介する間接結合または通信接続であってもよく、電気的、機械的または他の形態であってもよい。
【0272】
前記分離手段として説明されたユニットは、物理的に分離されている場合とされていない場合があり、ユニットとして表示された手段は、物理ユニットである場合とそうでない場合があり、即ち、一箇所に位置してもよく、あるいは、複数のネットワークユニットに分布されてもよい。実際の必要に応じて、その中の一部または全部のユニットを選択して、本実施例の目的を実現することができる。
【0273】
また、本発明の各実施例における各機能ユニットは、1つの処理ユニットに統合されてもよく、各ユニットが個別に物理的に存在してもよく、2つ以上のユニットが1つのユニットに統合されてもよい。上記の統合されたユニットは、ハードウェアの形式で実現されてもよく、ソフトウェア機能ユニットの形式で実現されてもよい。
【0274】
前記統合されたユニットは、ソフトウェア機能ユニットの形式で実現され、かつ独立した製品として販売または使用される場合、コンピュータ読み取り可能な記憶媒体に記憶されてもよい。このような理解に基づいて、本発明の技術的解決策について、本質的なものまたは既存の技術に寄与する部分または該技術的解決策の全部または一部が、ソフトウェア製品として具現化されることができ、このコンピュータソフトウェア製品は、記憶媒体に記憶され、本発明の各実施例に係る方法の全部または一部のステップを1台のコンピュータデバイス(パーソナルコンピュータ、サーバ、またはネットワークデバイスなど)に実行させるための若干の命令を含む。上記の記憶媒体は、Uディスク、モバイルハードディスク、リードオンリーメモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスクまたは光ディスクなど、プログラムコードを記憶できる様々な媒体を含む。したがって、本発明の一実施例は、コンピュータで実行される場合、上記のような方法をコンピュータに実行させる命令を含むコンピュータ読み取り可能な記憶媒体を提供する。
【0275】
上記のように、上記の実施例は、本発明の技術的解決策を説明するためにのみ使用され、それを限定するためのものではない。上記の実施例を参照して本発明を詳細に説明したが、当業者は、依然として、上記の各実施例に記載された技術的解決策を修正したり、一部の技術的特徴を均等に置き換えたりすることができ、また、これらの修正または置き換えは、対応する技術的解決策の本質を、本発明の各実施例の技術的解決策の精神および範囲から逸脱させない。
【符号の説明】
【0276】
30 ターゲット情報決定装置
300 ターゲット情報決定装置
301 符号化モジュール
302 第1の取得モジュール
303 第1の決定モジュール
304 復号化モジュール
305 第2の決定モジュール
306 第2の取得モジュール
307 第3の取得モジュール
308 第2の決定モジュール
322 中央プロセッサ
326 電源
330 記憶媒体
332 メモリ
341 オペレーティングシステム
342 アプリケーション
344 データ
350 有線または無線ネットワークインターフェース
358 入出力インターフェース
3021 第1の決定ユニット
3022 第2の決定ユニット
3031 第1の取得ユニット
3032 第1の処理ユニット
3033 第2の取得ユニット
3034 第2の処理ユニット
3035 第3の取得ユニット
3036 第4の取得ユニット
3041 復号化ユニット
30321 減算サブユニット
30322 処理サブユニット
30323 結合サブユニット
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20