(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-08-10
(45)【発行日】2022-08-19
(54)【発明の名称】翻訳品質を評価するための方法と装置
(51)【国際特許分類】
G06F 40/51 20200101AFI20220812BHJP
【FI】
G06F40/51
【外国語出願】
(21)【出願番号】P 2020098690
(22)【出願日】2020-06-05
【審査請求日】2020-08-05
(31)【優先権主張番号】201911256622.X
(32)【優先日】2019-12-05
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】512015127
【氏名又は名称】バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
(74)【代理人】
【識別番号】110001195
【氏名又は名称】弁理士法人深見特許事務所
(72)【発明者】
【氏名】ション・ハオ
(72)【発明者】
【氏名】ヂャン・ルイチン
(72)【発明者】
【氏名】リ・ジュンジエ
(72)【発明者】
【氏名】ホ・ヂョンジュン
(72)【発明者】
【氏名】リ・ヂ
(72)【発明者】
【氏名】ウー・フア
(72)【発明者】
【氏名】ワン・ハイフェン
【審査官】長 由紀子
(56)【参考文献】
【文献】国際公開第2018/131259(WO,A1)
【文献】特開2000-148756(JP,A)
【文献】特開2017-097882(JP,A)
【文献】特開2015-170043(JP,A)
【文献】特開2003-114890(JP,A)
【文献】COMELLES, Elisabet 外1名,VERTa: a linguistic approach to automatic machine translation evaluation,Springer Nature B.V. 1028,Volume 53,2018年10月15日,pp.57-86,https://link.springer.com/article/10.1007%2Fs10579-018-9430-2
【文献】嶋中 宏希 外2名,事前学習された文の分散表現を用いた機械翻訳の自動評価,自然言語処理, 第26巻 第3号,日本,一般社団法人言語処理学会,2019年09月15日,pp.613-634
【文献】梶原 智之 外2名,スタイル変換のための折り返し翻訳に基づく事前訓練,情報処理学会 研究報告 自然言語処理(NL) 2019-NL-241 [online],日本,情報処理学会,2019年08月22日,pp.1-8
(58)【調査した分野】(Int.Cl.,DB名)
G06F 40/00-58
(57)【特許請求の範囲】
【請求項1】
翻訳品質を評価するための
装置により実行される方法であって、
評価対象となる訳文と参照訳文とを取得するステップと、
前記評価対象となる訳文と前記参照訳文を事前訓練された復唱コーディングモデルに入力し、前記評価対象となる訳文と前記参照訳文との語義類似度を取得するステップであって、前記復唱コーディングモデルは、一対のセンテンスが復唱センテンスである確率を算出するためのニューラルネットワークであ
り、
前記一対のセンテンスが復唱センテンスであるとは、前記一対のセンテンスの一方と他方とが同じ語義を有することである、ステップと、
前記評価対象となる訳文と前記参照訳文をそれぞれ2本の構文ツリーとして分析するステップと、
前記2本の構文ツリーの類似度を算出して、前記評価対象となる訳文と前記参照訳文のテキスト類似度とするステップと、
前記評価対象となる訳文を事前訓練された自動問答モデル入力し、少なくとも1セットの質問と解答を取得するステップであって、前記自動問答モデルはテキスト中の問答と解答を抽出するためのニューラルネットワークである、ステップと、
前記少なくとも1セットの質問と解答における正解の割合を確定し、問答の得点とするステップと、
前記自動問答モデルにより参照訳文に対して解答結果分析を行って取得した標準得点を取得するステップと、
前記標準得点によって前記問答の得点を補正して、前記評価対象となる訳文の分かりやすさの得点を取得するステップと、
前記語義類似度と前記テキスト類似度
と前記分かりやすさの得点との重み付けの和を翻訳品質の得点とするステップと、
を含む翻訳品質を評価するための方法。
【請求項2】
前記方法は、
前記評価対象となる訳文からキー情報を識別するステップと、
識別されたキー情報と人工マークによるキー情報とを比較し、キー情報の正確率及びリコール率の総合得点を算出するステップと、
前記総合得点によって前記翻訳品質の得点を補正するステップと、
をさらに含む請求項
1に記載の方法。
【請求項3】
前記標準得点によって前記問答の得点を補正するステップは、
事前設定された定数を設置して前記標準得点と前記問答の得点の間の差をスムーズにするステップと、
を含む請求項
1に記載の方法。
【請求項4】
前記復唱コーディングモデルは、
言語が前記評価対象となる訳文と同じである第1の言語の原文集合を取得するステップと、
前記第1の言語の原文集合中の各第1の言語の原文に対して、第1の翻訳モデルにより当該第1の言語の原文を第2の言語の訳文に翻訳し、第2の翻訳モデルにより前記第2の言語の訳文を第1の言語の復唱センテンスに翻訳し、当該第1の言語の原文と復唱センテンスを復唱センテンスのペアとして組み合わせ、
前記第1の言語の原文集合から当該第1の言語の原文以外の一つのセンテンスをランダムに選出して当該第1の言語の原文と非復唱センテンスのペアとして組み合わせるステップと、
復唱センテンスのペアの集合をプラスサンプルとして、非復唱センテンスのペアをマイナスサンプルとして、機械学習方法を利用してクラシファイアを訓練して復唱コーディングモデルを取得するステップと、
により訓練される請求項1に記載の方法。
【請求項5】
前記方法は、
前記第1の翻訳モデルと前記第2の翻訳モデルの単語テーブルの大きさを制御し、多様化の復唱センテンスのペアを生成するステップをさらに含
み、前記単語テーブルは、関連する翻訳モデルが訳語の生成時に単語表の内容のみで表現するように制限するために用いられる、請求項
4に記載の方法。
【請求項6】
前記復唱コーディングモデルの訓練サンプル集合は、第1の翻訳モデルの訓練サンプル集合と異なり、第2の翻訳モデルの訓練サンプル集合とも異なる請求項
4または
5に記載の方法。
【請求項7】
前記評価対象となる訳文が事前設定された主流の言語である場合、BERTモデルを使用して復唱コーディングモデルとする請求項
4または
5に記載の方法。
【請求項8】
翻訳品質を評価するための装置であり、
評価対象となる訳文と参照訳文とを取得するように構成される取得手段と、
前記評価対象となる訳文と前記参照訳文を事前訓練された復唱コーディングモデルに入力し、前記評価対象となる訳文と前記参照訳文との語義類似度を取得するように構成される語義評価手段であって、前記復唱コーディングモデルは、一対のセンテンスが復唱センテンスである確率を算出するためのニューラルネットワークであ
り、
前記一対のセンテンスが復唱センテンスであるとは、前記一対のセンテンスの一方と他方とが同じ語義を有することである、語義評価手段と、
前記評価対象となる訳文と前記参照訳文をそれぞれ2本の構文ツリーとして分析するように構成される構文分析手段と、
前記2本の構文ツリーの類似度を算出して、前記評価対象となる訳文と前記参照訳文のテキスト類似度とするように構成される構文評価手段と、
分かりやすさ評価手段であって、
前記評価対象となる訳文を事前訓練された自動問答モデル入力し、少なくとも1セットの質問と解答を取得することであり、前記自動問答モデルはテキストにおける問答と解答を抽出するためのニューラルネットワークである、ことと、
前記少なくとも1セットの質問と解答における正解の割合を確定し、問答の得点とすることと、
前記自動問答モデルにより訳文に対して解答結果分析を行って取得した標準得点を取得することと、
前記標準得点によって前記問答の得点を補正して、前記評価対象となる訳文の分かりやすさの得点を取得することと、を実行するように構成される分かりやすさ評価手段と、
前記語義類似度と前記テキスト類似度と
分かりやすさの得点との重み付けの和を翻訳品質の得点とするように構成される算出手段と、
を備える翻訳品質を評価するための装置。
【請求項9】
前記装置は、キー情報評価手段をさらに備え、当該キー情報評価手段は、
前記評価対象となる訳文からキー情報を識別することと、
識別されたキー情報と人工マークによるキー情報とを比較し、キー情報の正確率及びリコール率の総合得点を算出することと、
前記総合得点によって前記翻訳品質の得点を補正することと、を行うように構成される請求項
8に記載の装置。
【請求項10】
前記分かりやすさ評価手段は、
事前設定された定数を設置して前記標準得点と前記問答の得点の間の差をスムーズにするようにさらに構成される請求項
8に記載の装置。
【請求項11】
前記装置は、訓練手段をさらに備え、当該訓練手段は、
言語が前記評価対象となる訳文と同じである第1の言語の原文集合を取得することと、
前記第1の言語の原文集合中の各第1の言語の原文に対して、第1の翻訳モデルにより当該第1の言語の原文を第2の言語の訳文に翻訳し、第2の翻訳モデルにより前記第2の言語の訳文を第1の言語の復唱センテンスに翻訳し、当該第1の言語の原文と復唱センテンスを復唱センテンスのペアとして組み合わせ、
前記第1の言語の原文集合から当該第1の言語の原文以外の一つのセンテンスをランダムに選出して当該第1の言語の原文と非復唱センテンスのペアとして組み合わせることと、
復唱センテンスのペアの集合をプラスサンプルとして、非復唱センテンスのペアをマイナスサンプルとして、機械学習方法を利用してクラシファイアを訓練して復唱コーディングモデルを取得することと、を行うように構成される請求項
8に記載の装置。
【請求項12】
前記訓練手段は、
前記第1の翻訳モデルと前記第2の翻訳モデルの単語テーブル大きさを制御し、多様化の復唱センテンスのペアを生成するようにさらに構成され
、前記単語テーブルは、関連する翻訳モデルが訳語の生成時に単語表の内容のみで表現するように制限するために用いられる、請求項
11に記載の装置。
【請求項13】
前記復唱コーディングモデルの訓練サンプル集合は、第1の翻訳モデルの訓練サンプル集合と異なり、第2の翻訳モデルの訓練サンプル集合とも異なる請求項
11または12に記載の装置。
【請求項14】
前記評価対象となる訳文が事前設定された主流の言語である場合、BERTモデルを使用して復唱コーディングモデルとする請求項
11または12に記載の装置。
【請求項15】
1つまたは複数のプロセッサと、
1つまたは複数のプログラムを記憶するための記憶装置と、を備える電子機器であって、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサに請求項1ないし
7のいずれか1項に記載の方法を実現させる電子機器。
【請求項16】
コンピュータプログラムが記憶されているコンピュータ可読媒体であって、
前記プログラムがプロセッサによって実行される時、請求項1ないし
7のいずれか1項に記載の方法を実現するコンピュータ可読媒体。
【請求項17】
コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサにより実行されると、請求項1ないし
7のいずれか1項に記載の方法を実現させるコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の実施例は、コンピュータ技術分野に関し、具体的に翻訳品質を評価するための方法と装置に関する。
【背景技術】
【0002】
従来の、翻訳品質を自動的に評価する方法は、一般的にBLEU(bilingual evaluation understudy、対訳品質補助ツール)、METEOR(An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments、人工裁断との関連度を改善した、機械翻訳を自動的に評価する方法)等の指標を使用して訳文を評価するので、原テキストと目標参照訳文との間のマッチングの度合いを重点として考察し、例えば、BLEUは連続文字列、即ちn-gramのマッチング度合いを重点として考察する。METEOR等の指標は、BLEUに基づいて補足を行い、テキストが同じである文字列をマッチングできるだけではなく、また別のリソースを導入することで、テキストが異なるが語義表現が同じである文字列を識別できる。
【0003】
しかし、通訳のシナリオにおいて、翻訳の目的は話者の内容にぴったりするように通訳することではない。場合によっては、遅延の低減及び地元文化の適応のため、訳者は一般的には、話者がしゃべった内容の一部を削減し、情報量が少ない訳文を削減し、リスナへキー情報をできるだけ、リアルタイムに伝える。この状況で、従来の自動評価方法を使用する場合、通訳訳文において漏れ翻訳の情報が多すぎ、得点が低い、評価結果が正確ではない状況を招く。例えば、従来の方法により評価する場合、数年間の経験を積んだ通訳者の翻訳の完成度はわずかの70%ぐらいであり、翻訳した訳文の受容度は85%より低い。
【0004】
従来の、翻訳品質を評価する方法による人件費が高く、それに人工評価は、異なる人工評価者の翻訳水準に制限され、評価の結果の変動が大きい。通訳シナリオについて参照訳文の単独構築を行う必要があり、それに、従来の方法も訳文の中のキー情報を判別できなく、完全に忠実度により訳文品質を評価することができない。
【発明の概要】
【課題を解決するための手段】
【0005】
本開示の実施例は翻訳品質を評価するための方法と装置を提出する。
第1の方面において、本開示の実施例は、翻訳品質を評価するための方法を提供し、当該方法は、評価対象となる訳文と参照訳文とを取得するステップと、前記評価対象となる訳文と前記参照訳文を事前訓練された復唱コーディングモデルに入力し、前記評価対象となる訳文と前記参照訳文との語義類似度を取得するステップであって、前記復唱コーディングモデルは、一対のセンテンスが復唱センテンスである確率を算出するためのニューラルネットワークである、ステップと、前記評価対象となる訳文と前記参照訳文をそれぞれ2本の構文ツリーとして分析するステップと、前記2本の構文ツリーの類似度を算出して、前記評価対象となる訳文と前記参照訳文のテキスト類似度とするステップと、前記語義類似度と前記テキスト類似度との重み付けの和を翻訳品質の得点とするステップと、を含む。
【0006】
いくつかの実施例において、当該方法は、評価対象となる訳文を事前訓練された自動問答モデル入力し、少なくとも1セットの質問と解答を取得するステップであって、前記自動問答モデルはテキスト中の問答と解答を抽出するためのニューラルネットワークである、ステップと、前記少なくとも1セットの質問と解答における正解の割合を確定し、問答の得点とするステップと、前記自動問答モデルにより標準訳文に対して解答結果分析を行って取得した標準得点を取得するステップと、前記標準得点によって前記問答の得点を補正して、前記評価対象となる訳文の分かりやすさの得点を取得するステップと、前記語義類似度、前記テキスト類似度及び前記分かりやすさの得点の重み付けの和を翻訳品質の得点とするステップと、をさらに含む。
【0007】
いくつかの実施例において、当該方法は、評価対象となる訳文からキー情報を識別するステップと、識別されたキー情報と人工マークによるキー情報とを比較し、キー情報の正確率及びリコール率の総合得点を算出するステップと、前記総合得点によって前記翻訳品質の得点を補正するステップと、をさらに含む。
【0008】
いくつかの実施例において、標準得点によって前記問答の得点を補正するステップは、事前設定された定数を設置して前記標準得点と前記問答の得点の間の差をスムーズにするステップと、
を含む。
【0009】
いくつかの実施例において、復唱コーディングモデルは、言語が前記評価対象となる訳文と同じである第1の言語の原文集合を取得するステップと、前記第1の言語の原文集合中の各第1の言語の原文に対して、第1の翻訳モデルにより当該第1の言語の原文を第2の言語の訳文に翻訳し、第2の翻訳モデルにより前記第2の言語の訳文を第1の言語の復唱センテンスに翻訳し、当該第1の言語の原文と復唱センテンスを復唱センテンスのペアとして組み合わせ、一つのセンテンスをランダムに選出して当該第1の言語の原文と非復唱センテンスのペアとして組み合わせるステップと、復唱センテンスのペアの集合をプラスサンプルとして、非復唱センテンスのペアをマイナスサンプルとして、機械学習方法を利用してクラシファイアを訓練して復唱コーディングモデルを取得するステップと、により訓練される。
【0010】
いくつかの実施例において、当該方法は、第1の翻訳モデルと前記第2の翻訳モデルの単語テーブルの大きさを制御し、多様化の復唱センテンスのペアを生成するステップをさらに含む。
【0011】
いくつかの実施例において、復唱コーディングモデルの訓練サンプル集合は、第1の翻訳モデルの訓練サンプル集合と異なり、第2の翻訳モデルの訓練サンプル集合とも異なる。
【0012】
いくつかの実施例において、評価対象となる訳文が事前設定された主流の言語である場合、BERTモデルを使用して復唱コーディングモデルとする。
【0013】
第2の方面において、本開示の実施例は、翻訳品質を評価するための装置を提供し、当該装置は、評価対象となる訳文と参照訳文とを取得するように構成される取得手段と、前記評価対象となる訳文と前記参照訳文を事前訓練された復唱コーディングモデルに入力し、前記評価対象となる訳文と前記参照訳文との語義類似度を取得するように構成される語義評価手段であって、前記復唱コーディングモデルは、一対のセンテンスが復唱センテンスである確率を算出するためのニューラルネットワークである、語義評価手段と、前記評価対象となる訳文と前記参照訳文をそれぞれ2本の構文ツリーとして分析するように構成される構文分析手段と、前記2本の構文ツリーの類似度を算出して、前記評価対象となる訳文と前記参照訳文のテキスト類似度とするように構成される構文評価手段と、前記語義類似度と前記テキスト類似度との重み付けの和を翻訳品質の得点とするように構成される算出手段と、を備える。
【0014】
いくつかの実施例において、当該装置は、分かりやすさ評価手段をさらに備え、当該分かりやすさ評価手段は、前記評価対象となる訳文を事前訓練された自動問答モデル入力し、少なくとも1セットの質問と解答を取得することであり、前記自動問答モデルはテキストにおける問答と解答を抽出するためのニューラルネットワークである、ことと、前記少なくとも1セットの質問と解答における正解の割合を確定し、問答の得点とすることと、前記自動問答モデルにより標準訳文に対して解答結果分析を行って取得した標準得点を取得することと、前記標準得点によって前記問答の得点を補正して、前記評価対象となる訳文の分かりやすさの得点を取得することと、前記語義類似度、前記テキスト類似度及び前記分かりやすさの得点の重み付けの和を翻訳品質の得点とすることと、を行うように構成される。
【0015】
いくつかの実施例において、当装置は、キー情報評価手段をさらに備え、当該キー情報評価手段は、前記評価対象となる訳文からキー情報を識別することと、識別されたキー情報と人工マークによるキー情報とを比較し、キー情報の正確率及びリコール率の総合得点を算出することと、前記総合得点によって前記翻訳品質の得点を補正することと、を行うように構成される。
【0016】
いくつかの実施例において、分かりやすさ評価手段は、事前設定された定数を設置して前記標準得点と前記問答の得点の間の差をスムーズにするようにさらに構成される。
【0017】
いくつかの実施例において、当該装置は、訓練手段をさらに備え、当該訓練手段は、言語が前記評価対象となる訳文と同じである第1の言語の原文集合を取得することと、前記第1の言語の原文集合中の各第1の言語の原文に対して、第1の翻訳モデルにより当該第1の言語の原文を第2の言語の訳文に翻訳し、第2の翻訳モデルにより前記第2の言語の訳文を第1の言語の復唱センテンスに翻訳し、当該第1の言語の原文と復唱センテンスを復唱センテンスのペアとして組み合わせ、一つのセンテンスをランダムに選出して当該第1の言語の原文と非復唱センテンスのペアとして組み合わせることと、復唱センテンスのペアの集合をプラスサンプルとして、非復唱センテンスのペアをマイナスサンプルとして、機械学習方法を利用してクラシファイアを訓練して復唱コーディングモデルを取得することと、を行うように構成される。
【0018】
いくつかの実施例において、訓練手段は、第1の翻訳モデルと前記第2の翻訳モデルの単語テーブル大きさを制御し、多様化の復唱センテンスのペアを生成するようにさらに構成される。
【0019】
いくつかの実施例において、復唱コーディングモデルの訓練サンプル集合は、第1の翻訳モデルの訓練サンプル集合と異なり、第2の翻訳モデルの訓練サンプル集合とも異なる。
【0020】
いくつかの実施例において、評価対象となる訳文が事前設定された主流の言語である場合、BERTモデルを使用して復唱コーディングモデルとする。
【0021】
第3の方面において、1つまたは複数のプロセッサと、1つまたは複数のプログラムを記憶するための記憶装置と、を備える電子機器であって、1つまたが複数のプログラムが1つまたは複数のプロセッサによって実行される場合、1つまたは複数のプロセッサに第1の方面のいずれか1項に記載の方法を実現させる電子機器を提供する。
【0022】
第4の方面において、コンピュータプログラムが記憶されているコンピュータ可読媒体であって、プログラムがプロセッサによって実行される時、第1の方面のいずれか1項に記載の方法を実現するコンピュータ可読媒体を提供する。
【0023】
本開示の実施例により提供された翻訳品質を評価するための方法と装置は、複数の新しい評価指標を提出した。
【0024】
(1)復唱ペア訳文を使用して語義類似度を評価する。
(2)文法ツリーを使用して訳文に対して文法構成類似度を評価する。
【0025】
(3)自動問答を使用して訳文に対して情報の分かりやすさを評価する。
(4)キーポイントを使用し、例えば、名前付きエンティティ、重点実単語の翻訳正確率を使用して評価する。
【0026】
上記のいくつかの指標の得点を組み合わせることにより、現在の訳文の語義、構文、単語の構成法及び整体情報の分かりやすさに関する方面を反映し、総合評価を行い、自動評価の得点が高いが分かりさすさが低い場合を回避することができる。例えば、大量のa、an、the等の機能語の翻訳が正確であるが、非機能語の翻訳が間違うこと、コンテキストが不連続であること等の問題を回避する。
【図面の簡単な説明】
【0027】
【
図1】本開示の一実施形態を適用可能なシステム構成例である。
【
図2】本発明に係る翻訳品質を評価する方法の第1実施形態を示すフローチャートである。
【
図3】本発明に係る翻訳品質を評価する方法の第2実施形態を示すフローチャートである。
【
図4】本発明に係る翻訳品質を評価する方法の第3実施形態を示すフローチャートである。
【
図5】本発明に係る翻訳品質を評価する方法の第4実施形態を示すフローチャートである。
【
図6】本発明に係る翻訳品質評価装置の一実施形態を示す概略構成図である。
【
図7】本開示の一実施形態に係る電子機器を実現するコンピュータシステムの構成を示す図である。
【発明を実施するための形態】
【0028】
以下は図面及び実施例を参照して本出願についてさらに詳細に説明する。ここに記載される具体的な実施形態は、本出願を限定するものではなく、関連する発明を説明するためのものに過ぎないことを理解されたい。また、説明の便宜上、発明に関連する部分のみが図面に示されている。
【0029】
なお、衝突しない場合に本出願における実施例及び実施例における特徴は互いに組み合わせることができる。以下では図面と実施例を参照して本出願について詳細に説明する。
【0030】
図1に示すように、システムアーキテクチャ100は、端末機器101、102、103、ネットワーク104、サーバ105を備えることができる。ネットワーク104は、端末機器101、102、103とサーバ装置105との間で通信リンクを提供するための媒体である。ネットワーク104には、有線や無線の通信リンク、光ファイバケーブル等の各種の接続方式がある。
【0031】
ユーザは、端末機器101、102、103を用いて、ネットワーク104を介してサーバ105との情報のやり取りを行い、メッセージ等を送受信することができる。端末機器101、102、103には様々な通信クライアントアプリケーションがインストールされ、例えば翻訳アプリケーション、音声認識アプリケーション、ウェブブラウザアプリケーション、ショッピングアプリケーション、検索アプリケーション、リアルタイム通信ツール、メールボックスクライアント、ソーシャルプラットフォームソフトウェアなどがインストールされる。
【0032】
端末機器101、102、103は、ハードウェアであってもよいし、ソフトウェアであってもよい。端末機器101、102、103がハードウェアである場合、ディスプレイを有し、ウェブページを閲覧することができる各種の電子機器であればよく、例えば、スマートフォン、タブレット、電子書籍リーダ、MP3(Moving Picture Experts Group Audio Layer III)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV)プレーヤー、ノートパソコン及びデスクトップパソコンなどが含まれているが特に限定されない。端末機器101、102、103がソフトウェアである場合、上述した電子機器にインストールされることができる。それは複数のソフトウェア又はソフトウェアモジュールとして実現されることができ(例えば分散サービスを提供するために用いられる)、また単一のソフトウェア又はソフトウェアモジュールとして実現されることもできる。ここでは特に限定されない。
【0033】
サーバ105は各種のサービスを提供するサーバであってよく、例えば端末機器101、102、103によりアップロードされる訳文について翻訳品質を評価するバックグラウンド評価サーバ。バックグラウンド評価サーバは受信した評価リクエスト等のデータに対して分析等の処理を行い、処理の結果(例えば翻訳品質分数)を端末機器にフィードバックする。
【0034】
なお、サーバ105は、ハードウェアであってもよいし、ソフトウェアであってもよい。サーバ105がハードウェアである場合、複数のサーバで構成される分散サーバクラスタとして実現されてよいし、単一のサーバとして実現されてもよい。サーバ105はソフトウェアである場合、複数のソフトウェア又はソフトウェアモジュール(例えば分散サービスを提供するために用いられる)として実現されてよいし、単一のソフトウェア又はソフトウェアモジュールとして実現されてもよい。ここでは特に限定されない。
【0035】
なお、本出願の実施例により提供される翻訳品質を評価するための方法は端末機器101、102、103で実行してもよく、サーバ105で実行してもよい。したがって、翻訳品質を評価するための装置は端末機器101、102、103に設置してよいし、サーバ装置105に設置してもよい。ここでは特に限定されない。
【0036】
なお、
図1における端末機器、ネットワーク及びサーバの数は例示のみである。また、実現の必要に応じて、任意の数の端末機器、ネットワーク、サーバ等を備えてもよい。
【0037】
続いて
図2を参照し、本開示に係る、翻訳品質を評価するための方法の一実施例の流れ200を示す。当該翻訳品質を評価するための方法は以下のステップを備える。
【0038】
ステップ201において、評価対象となる訳文と参照訳文を取得する。
本実施例において、翻訳品質を評価するための方法の実行主体(例えば、
図1に示すサーバ)は、有線接続方式または無線接続方式により端末から評価対象となる訳文と参照訳文を受信でき、該端末はユーザにより利用されて翻訳品質評価を行うものである。評価対象となる訳文は音声の形態即ち通訳結果であってよく、テキストの形態であってもよい。通訳の訳文の場合、音声識別技術によりテキスト形態の訳文に転換する必要がある。参照訳文は専門家により翻訳と校正を行った標準訳文であり、テキスト形態である。評価対象となる訳文は段落全体である場合、センテンスに分割して評価すればよい。そして、各センテンスの評価得点の平均値を段落全体の評価得点とする。音声識別の場合、一時停止の時間により段落全体をセンテンスに分割することができる。
【0039】
ステップ202において、評価対象となる訳文及び参照訳文を事前訓練された復唱コーディングモデルに入力し、評価対象となる訳文及び参照訳文の意味類似度を取得する。
【0040】
本実施例において、復唱コーディングモデルは、一対のセンテンスが復唱センテンスである確率(即ち、2つのセンテンスの語義類似度)を算出するためのニューラルネットワークである。復唱コーディングモデルは、簡単なDichotomy typeモデルであってよく、入力された2つのセンテンスが同一種類である確率を判断するためのものであり、同じ語義を有するか否かを判断するものと同じである。もし評価対象となる訳文が段落全体であれば、センテンスを1ずつ復唱コーディングモデルに入力し、各センテンスの語義類似度を取得する。その後、各センテンスの語義類似度の平均値を算出し、段落全体の語義類似度とする。
【0041】
まず、復唱コーディングモデルを構築する必要があり、英語の復唱コーディングモデルの構築を例として説明する。今、主流の方法は訓練済みの機械翻訳モデルを利用して訓練センテンスのペアを再びデコードする。例えば、訓練済みの中英翻訳モデルを利用して訓練センテンスのペア中の中国語に対して自動翻訳を行い、取得された訳文及び原文としての英語により復唱センテンスのペアが構築されることができる。しかし、該方法は、生成した訳文が原文の英語とよく類似する可能性があるという欠陥がある。2つの方法を使用して改善を行う。a方法について、まず、英語モデルを用いて訓練センテンスのペアの中の英語を中国語に翻訳し、その後、中英翻訳モデルを利用して英語に翻訳する。同時に、上記過程において、翻訳モデルにより使用される単語表の大きさを制御することにより、生成された訳語が単語表の内容のみで表現されるように限定されることができ、ある程度で多様な訳語を生成することができる。b方法について、翻訳モデルを構築する時に、異なるコーパスによって訓練を行う。例えば、しゃべりの復唱センテンスのペアを構築する時、本発明の翻訳モデルは他の一つの訓練集合のダブルセンテンスのペアを使用し、同一の訓練集合の過度なフィッティングを回避する。上記の2つの方法は、同時に使用することができ、生成された訳文と参照訳文ができるだけ類似する上に表現が異なることを果たす。上記復唱センテンスのペアを取得した後、例えば復唱した1つの一対のセンテンスはAであり、他の1つのセンテンスはBである。復唱されたセンテンスは中国語、英語などのいくつかの主流言語であれば、BERT(Bidiiner Encoder Transfer metal Transfer metal Transfer Profile system)を使用して該訓練集合に基づいて微調整を行い、最後はBERTの出力層を使用して意味表現とする。いくつかの珍しい少数言語について、BERTの事前訓練モデルの構築コストが高く、簡単な分類モデルを設計してタスクを完成することができる。
【0042】
復唱センテンスのペアに含まれるのが全てプラスサンプルであるため、1つのセンテンスについて、ランダムに他のセンテンスを選出してマイナスサンプルとして訓練する。訓練済みのモデルを利用して通訳の出力結果と参照訳文をそれぞれAとBとして入力し、softmax分類が1である確率を最後の語義類似度の得点として出力する。
【0043】
ステップ203において、評価対象となる訳文と参照訳文をそれぞれ2本の構文ツリーとして分析する。
【0044】
本実施例において、段落全体訳文をセンテンスに分割した後、構文の分析を行う。そして、各センテンスに対して分析と計算を行った後で取得した類似度を平均化して段落全体訳文のテキスト類似度とする。構文分析器を使用して入力された訳文を一本の構文ツリーとして分析する。構文ツリーは文法ツリーとも呼ばれる。構文ツリーを評価する方法はより簡単であり、モデルの出力訳文と参照訳文のそれぞれに対して構文分析モデルを利用して自動構文ツリーの生成を行う。2本の構文ツリーを取得した後、テキストの方式でこの2本の構文ツリーの類似度を算出することができる。また、単語を含むノードを削除し、tree kernel(ツリーコア、ツリーから文字列への翻訳モデル)を利用してより微細化の得点を算出することもできる。例えば、2本の構文ツリー:
NP(NN (明さん)(小明))(VP VB(食べる)(吃) NN リンゴ(苹果))
NP(NN (リンゴ)(苹果))(VP PP(によって)(被) NN (明さん)(小明) VB (食べる)(吃了))
上記2つのセンテンスは実際に表現した語義が類似であるが、構文ツリーの構成は少し異なり、2つの異なる文法表現を反映し、前者は能動態であり、後者は受動態である。一般的なテキスト方式を利用してマッチングする場合、両者の構文の類似度が低い。tree kernelを利用した後、単語ノードを削除し、各センテンスのサブツリーを列挙し、その後、類似度の採点を行う。例えば最上層の文法ツリー及び2つのセンテンスの構成は同じNP(NN VP)である。
【0045】
異なるのは第1のVPの構成がVP(VB NN)であり、第2のVP の構成がVP(PP NN VB)である。
【0046】
従って、tree kernelにより計算すれば、2本の構文ツリーの類似度0ではなく、算出する場合はより微細化になる。
【0047】
1つのルールを1つの特徴ベクトルに示し、畳み込みツリーコアにより異なるルールの間の類似度を算出する。ルールテーブルにおいてルールの数は巨大であるため、全てのルールの間の類似度を算出することは難しいので、まず、いくつかの制限により1つの候補ルール集合を生成し、その後、集合内部において畳み込みツリーコアにより類似度を算出する。
【0048】
ステップ204において、2本の構文ツリーの類似度を算出して評価対象となる訳文と参照訳文とのテキスト類似度とする。
【0049】
本実施例において、余弦類似度等の類似度算出方法によりセンテンスサブツリーの間の類似度を算出する。類似度算出方法は従来技術であり、ここで説明を省略する。
【0050】
ステップ205において、語義類似度とテキスト類似度の重み付けの和を翻訳品質の得点とする。
【0051】
本実施例において、2つの方法で算出した類似度の重み付けの和を翻訳品質の得点とする。該翻訳品質の評価結果は語義類似度を考慮する上に構文構成の類似度を考慮した。翻訳品質をより正確に評価することができる。具体的に、重みの設置について必要があるにより設置でき、例えば、語義の正確さを重視する場合、語義類似度の重みをテキスト類似度の重みより高く設置する。
【0052】
続いて
図3を参照し、翻訳品質を評価するための方法の第2の実施例の流れ300を示す。該翻訳品質を評価するための方法の流れ300は、以下のステップを備える。
【0053】
ステップ301において、評価対象となる訳文と参照訳文とを取得する。
ステップ302において、評価対象となる訳文と参照訳文を事前訓練された復唱コーディングモデルに入力し、評価対象となる訳文と参照訳文の語義類似度を取得する。
【0054】
ステップ303において、評価対象となる訳文と参照訳文をそれぞれ2本の構文ツリーとして分析する。
【0055】
ステップ304において、2本の構文ツリーの類似度を算出して評価対象となる訳文と参照訳文とのテキスト類似度とする。
【0056】
ステップ301-304は、ステップ201-204と大体同じであるので、説明を省略する。
【0057】
ステップ305において、評価対象となる訳文を事前訓練された自動問答モデルに入力し、少なくとも1セットの質問と解答を取得する。
【0058】
本実施例において、自動問答モデルはテキストの中の問答と解答を抽出するためのニューラルネットワーク。自動問答方式を使用して評価するのは本発明の一つの重要な創造。一般的に、自動問答は、モデルにより段落の内容が正しく理解されたか否かを評価することに適用する。自動問答の読解分野における運用を参照し、翻訳した訳文が有効な情報を完全に含むか否かを評価するために自動問答を使用する。
【0059】
例えば:
【0060】
【0061】
左側は一部の文章、右側は人工マークによるいくつかの問答。自動問答モデルは左側のテキストを読むことにより、右側のいくつかの質問を解答する。品質がより良い従来の自動問答モデルは普通はBERTを利用して事前訓練を行い、その後、所定の問答コーパスに基づいてfinetuneを行い、もっと良い性能を果たす。今、性能の一番良い自動問答モデルについて性能は所定集合により人間の水準に達したので、このモデルを利用し、評価方式の一種として訳文を評価する。
【0062】
具体的な方案は以下になる。
A、テストの必要がある通訳文章のそれぞれに対して、自動問答コーパスを構築する。
【0063】
B、自動問答コーパスを訓練サンプルとし、標準訳文の文章を読む上に、自動問答コーパスにより高い得点Aを達するように、高性能の自動問答モデル訓練する。
【0064】
C、自動問答モデルを利用して評価対象となる訳文を読んで少なくとも1セットの質問と解答を取得する。
【0065】
ステップ306において、少なくとも1セットの質問と解答における、正解の割合を確定し、問答の得点とする。
【0066】
本実施例において、自動問答モデルにより抽出された質問と解答が正確ではない可能性があるため、正解の割合を統計して問答の得点Bとする必要がある。例えば、10件の質問がある場合、8件は正解であれば、問答の得点は0.8になる。
【0067】
ステップ307において、自動問答モデルが標準訳文に対して解答結果分析を行って取得した標準得点を取得する。
【0068】
本実施例において、自動質問モデルに対する訓練が完成した後、標準訳文を使って性能を検証し、標準得点Aを取得する。
【0069】
ステップ308において、標準得点により問答の得点を補正し、評価対象となる訳文の分かりやすさの得点を取得する。
【0070】
本実施例において、得点の(A-B+C)/Aを計算することによる自動問答の得点は分かりやすさを評価するためのものであり、一般的に、Cは定数であり、例えば50であり、CはAとBとの間の得点差をスムーズにするためのものである。
【0071】
ステップ309において、語義類似度、テキスト類似度と分かりやすさの得点の重み付けの和を翻訳品質の得点とする。
【0072】
本実施例において、3種類の方式により取得した得点の重み付けの和を翻訳品質の得点とする。具体的な重みの設置は必要に応じて設置してよく、例えば、分かりやすさを重視する場合、分かりやすさの得点の重みを他の項目の重みより高く設置してよい。
【0073】
さらに
図4を参照し、翻訳品質を評価するための方法の第3の実施例の流れ400を示す。該翻訳品質を評価するための方法の流れ400は、以下のステップを備える。
【0074】
ステップ401において、評価対象となる訳文と参照訳文を取得する。
ステップ402において、評価対象となる訳文と参照訳文を事前訓練された復唱コーディングモデルに入力し、評価対象となる訳文と参照訳文の語義類似度を取得する。
【0075】
ステップ403において、評価対象となる訳文と参照訳文をそれぞれ2本の構文ツリーに分析する。
【0076】
ステップ404において、2本の構文ツリーの類似度を算出して評価対象となる訳文と参照訳文とのテキスト類似度とする。
【0077】
ステップ401-404は、ステップ201-204とほぼ同じ、説明を省略する。
ステップ405において、評価対象となる訳文からキー情報を識別する。
【0078】
本実施例において、キー情報は実体、要約等を備えることができる。事前に評価対象となる訳文の中のキー情報に対して人工マークを行うことができる。例えば、訳文の中の名前付きエンティティをマークする必要があり、名前付きエンティティは時間、日付、場所、名前等を含む。次は、訳文の中の重要内容の段落をマークする必要があり、該重要内容の段落は要約情報と類似する。すると、NER(Named Entity Recognition、名前付きエンティティ識別)技術により訳文中の実体を識別して人工標準の実体に比較することができる。要約生成ツールにより訳文の要約を抽出する。
【0079】
ステップ406において、識別されたキー情報と人工マークによるキー情報とを比較し、キー情報の正確率とリコール率の総合得点を算出する。
【0080】
本実施例において、NER(Named Entity Recognition、名前付きエンティティ識別)技術により訳文中の実体を識別し、人工標準の実体と比較する。要約生成ツールにより訳文の要約を抽出し、人工マークの要約と比較する。機会で識別されたキー情報の正確率とリコール率を算出する。得点を計算する場合、標準のF値すなわち訳文と標準訳文との間のキー情報の正確率とリコール率を評価するものを使用する。最終得点を総合得点とする。
【0081】
ステップ407において、語義類似度、テキスト類似度及び総合得点の重み付けの和を翻訳品質の得点とする。
【0082】
本実施例において、上記3項の得点の重み付けの和を翻訳品質の得点とする。
続いて
図5を参照し、翻訳品質を評価するための方法の第4の実施例の流れ500を示す。該翻訳品質を評価するための方法の流れ500は以下ステップを備える。
【0083】
ステップ501において、評価対象となる訳文と参照訳文を取得する。
ステップ502において、評価対象となる訳文と参照訳文を事前訓練された復唱コーディングモデルに入力し、評価対象となる訳文と参照訳文の語義類似度を取得する。
【0084】
ステップ503において、評価対象となる訳文と参照訳文をそれぞれ2本の構文ツリーとして分析する。
【0085】
ステップ504において、2本の構文ツリーの類似度を算出して評価対象となる訳文と参照訳文とのテキスト類似度とする。
【0086】
ステップ505において、評価対象となる訳文を事前訓練された自動問答モデルに入力し、少なくとも1セットの質問と解答を取得する。
【0087】
ステップ506において、少なくとも1セットの質問と解答の中の正解の割合を確定して問答の得点とする。
【0088】
ステップ507において、自動問答モデルは標準訳文に対して解答結果分析を行って取得した標準得点を取得する。
【0089】
ステップ508において、標準得点により問答の得点を補正して評価対象となる訳文の分かりやすさの得点を取得する。
【0090】
ステップ501-508は、ステップ301-308とほぼ同じ、説明を省略する。
ステップ509において、前記評価対象となる訳文からキー情報を識別する。
【0091】
ステップ510において、識別されたキー情報と人工マークによるキー情報を比較し、キー情報の正確率とリコール率の総合得点を算出する。
【0092】
ステップ509-510は、ステップ405-406とほぼ同じ、説明を省略する。
ステップ511において、語義類似度、テキスト類似度、分かりやすさの得点及び総合得点の重み付けの和を翻訳品質の得点とする。
【0093】
本実施例において、4種類の得点重み付けの和を翻訳品質の得点とする。上記4種類の指標の得点を利用し、複数の角度に基づいて訳文を評価することができ、実際の運用において必要に応じて異なる角度を選んで異なるシステムを選ぶ。
【0094】
さらに
図6を参照し、上記各図に示す方法の実現として、本開示は翻訳品質を評価するための装置の一実施例を提供し、該装置実施例は
図2に示す方法の実施例に対応し、該装置は具体的に各種の電子機器に適用できる。
【0095】
図6に示すように、本実施例の翻訳品質を評価するための装置600は、取得手段601、語義評価手段602、構文分析手段603、構文評価手段604及び算出手段605を備える。ここで、取得手段601は、評価対象となる訳文と参照訳文を取得するように構成される。語義評価手段602は、評価対象となる訳文と参照訳文を事前訓練された復唱コーディングモデルに入力し、評価対象となる訳文と参照訳文の語義類似度を取得するように構成され、ここで、復唱コーディングモデルは一対のセンテンスが復唱センテンスである確率を算出するためのニューラルネットワークである。構文分析手段603は、評価対象となる訳文と参照訳文をそれぞれ2本の構文ツリーとして分析するように構成される。構文評価手段604は、2本の構文ツリーの類似度を算出して評価対象となる訳文と参照訳文とのテキスト類似度とするように構成される。算出手段605は、語義類似度とテキスト類似度の重み付けの和を翻訳品質の得点とするように構成される。
【0096】
本実施例において、翻訳品質を評価するための装置600の取得手段601、語義評価手段602、構文分析手段603、構文評価手段604及び算出手段605の具体的な処理について
図2を参照して実施例の中のステップ201、ステップ202、ステップ203、ステップ204及びステップ205に対応することができる。
【0097】
本実施例のいくつかの選択可能な実施形態において、装置600はさらに分かりやすさ評価手段(附図中未示す)を備えるように構成される。評価対象となる訳文を事前訓練された自動問答モデルに入力し、少なくとも1セットの質問と解答を取得し、ここで、自動問答モデルはテキストの中の問答と解答を抽出するためのニューラルネットワークである。少なくとも1セットの質問と解答の中の正解の割合を確定して問答の得点とする。自動問答モデルが標準訳文に対して解答結果分析を行って取得した標準得点を取得する。標準得点により問答の得点を補正し、評価対象となる訳文の分かりやすさの得点を取得する。語義類似度、テキスト類似度及び分かりやすさの得点の重み付けの和を翻訳品質の得点とする。
【0098】
本実施例のいくつかの選択可能な実施形態において、装置600はさらに、キー情報評価手段(図示せず)を備えるように構成される。評価対象となる訳文からキー情報を識別し、識別されたキー情報と人工マークによるキー情報を比較し、キー情報の正確率とリコール率の総合得点を算出する。総合得点により翻訳品質の得点を補正する。
【0099】
本実施例のいくつかの選択可能な実施形態において、分かりやすさ評価手段はさらに、事前設定された定数を設置して標準得点と問答の得点の間の差をスムーズにするように構成される。
【0100】
本実施例のいくつかの選択可能な実施形態において、装置600はさらに訓練手段(附図未示す)を備えるように構成される。評価対象となる訳文と同じ言語の第1の言語の原文集合を取得する。第1の言語の原文集合の中の各第1の言語の原文に対して、第1の翻訳モデルにより該第1の言語の原文を第2の言語の訳文に翻訳し、また第2の翻訳モデルにより第2の言語の訳文を第1の言語の復唱センテンスに翻訳し、該第1の言語の原文と復唱センテンスとを復唱センテンスのペアに組み合わせて、ランダムに1つのセンテンスを選出して該第1の言語の原文に組み合わせて非復唱センテンスのペアとする。復唱センテンスのペア集合はプラスサンプルとし、非復唱センテンスのペアはマイナスサンプルとし、機械学習装置を利用してクラシファイアを訓練して復唱コーディングモデルを取得する。
【0101】
本実施例のいくつかの選択可能な実施形態において、訓練手段はさらに第1の翻訳モデルと第2の翻訳モデルの単語テーブル大きさを制御し、多様化の復唱センテンスのペアを生成するように構成される。
【0102】
本実施例のいくつかの選択可能な実施形態において、復唱コーディングモデルの訓練サンプル集は第1の翻訳モデルの訓練サンプル集と異なり、第2の翻訳モデルの訓練サンプル集とも異なる。
【0103】
本実施例のいくつかの選択可能な実施形態において、評価対象となる訳文は事前設定された主流の言語であれば、BERTモデルを使用して復唱コーディングモデルをとする。
【0104】
続いて
図7を参照し、本開示の実施例の実施を適用する電子機器(例えば、
図1におけるサーバや端末機器)700の構成概略図を示す。本開示の実施例における端末機器は例えば携帯電話、ノートパソコン、デジタル放送受信機、PDA(携帯情報端末)、PAD(タブレットパソコン)、PMP(携帯マルチメディアプレイヤー)、車載端末(車載端末)等の携帯端末、及びデジタルTV、デスクトップパソコン等の固定端末を含むがこれに限定されない。
図7に示した電子機器は例示のみであり、本出願の実施形態の機能や使用範囲を制限するものではない。
【0105】
図7に示すように、電子機器700は、ROM702(Read Only Memory)に格納されたプログラムや、記憶装置708からRAM703(Random Access Memory)にロードされたプログラムに基づき、各種の適当な動作や処理を実行することができる処理装置701(例えば、中央処理装置、グラフィックプロセッサ等)を備える。RAM703には、電子機器700の操作に必要な各種プログラムやデータが記憶される。処理装置701、ROM702及びRAM703は、バス704を介して相互に接続されている。バス704には、入出力(I/O)インタフェース705も接続されている。
【0106】
一般的には、I/Oインタフェース705には、入力装置706、出力装置707、記憶装置708、通信装置709が接続されることができ、入力装置706は例えばタッチパネル、タッチパッド、キーボード、マウス、カメラ、マイク、加速度計、ジャイロなどを含み、出力装置707は、例えば、LCD(Liquid Crystal Display)、スピーカ、バイブレータなどを含み、記憶装置708は例えば、磁気テープ、ハードディスクなどを含む。通信装置709により、電子機器700と他の装置との無線または有線の通信ができるので、データを送受信することができる。なお、
図7は、各種の装置を備えた電子機器700を示したが、示された全ての装置を備えることや、実施することが要求されないことを理解されたい。代わりに、装置がもっと多いまたはもっと少ないものを実施することや、備えることができる。
図7に示す各ブロックは1つの装置を代表してもよいし、必要に基づいて複数の装置を代表してもよい。
【0107】
特に、本開示の実施例に基づき、上述のフローチャートを参照して説明した過程は、コンピュータソフトウェアプログラムとして実現されることが可能である。例えば、本開示の実施例は、コンピュータ可読媒体に記録されたプログラムを備えるコンピュータプログラム製品を含み、該コンピュータプログラムは、フローチャートに示す方法を実施するためのプログラムコードを備える。このような実施例において、このコンピュータプログラムは、通信装置709を介してネットワークからダウンロードされ、またはインストールされてよいし、記憶装置708からインストールされてよいし、ROM702からインストールされてもよい。該コンピュータプログラムが処理装置701により実行された時、本開示の実施例の方法で限定される上述した機能が実行される。なお、本開示に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体やコンピュータ可読媒体やこれらの両者の任意の組み合わせであってもよい。コンピュータ可読媒体は、例えば、電気的、磁気的、光学的、電磁気的、赤外線、或いは半導体システム、装置や機器、又はそれらの任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読媒体のより具体的な例には、1本又は複数本の導線により電気的に接続された、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又はこれらの任意の適切な組み合わせを含んでもよいが、これらに限定されない。本開示の実施例では、コンピュータ可読媒体はプログラムを備えるか又は格納する任意の有形の媒体であってもよいが、このコンピュータ可読媒体はコマンド実行システム、装置、又は機器によって使用されてもよく、それらに組み込まれて使用されてもよい。本開示の実施例では、コンピュータ可読信号媒体は、ベースバンドで伝播されるか、又は転送波の一部として伝播されるデータ信号を含んでもよく、コンピュータ可読プログラムコードが担持されている。そのような伝播されたデータ信号は様々な形態をとることができ、電磁気信号、光信号、又は上記のものの任意の適切な組み合わせを含んでもよいが、これらに限定されない。コンピュータ可読信号媒体はまた、コンピュータ可読媒体以外の任意のコンピュータ可読媒体であってもよく、該コンピュータ可読媒体は、コマンド実行システム、装置、又は機器によって使用されるか、又はそれらに組み込まれて使用されるプログラムを送信、伝搬、又は伝送してもよい。コンピュータ可読媒体に含まれているプログラムコードは任意の適切な媒体を使用して伝送することができ、この媒体は無線、有線、光ケーブル、無線周波数など、又はこれらの任意の適切な組み合わせを含んでもよいが、これらに限定されない。
【0108】
上記のコンピュータ可読媒体は説明した機器に含まれ取得するものであってよいし、単独で存在して該電子機器にインストールされないものであってもよい。上記コンピュータ可読媒体には1つ又は複数のプログラムが記録され、上記1つ又は複数のプログラムが該電子機器に実行される時に、該電子機器は、評価対象となる訳文と参照訳文とを取得することと、前記評価対象となる訳文と前記参照訳文を事前訓練された復唱コーディングモデルに入力し、前記評価対象となる訳文と前記参照訳文との語義類似度を取得することであって、ここで、前記復唱コーディングモデルは一対のセンテンスが復唱センテンスである確率を算出するためのニューラルネットワークであることと、前記評価対象となる訳文と前記参照訳文をそれぞれ2本の構文ツリーとして分析することと、前記2本の構文ツリーの類似度を算出して、前記評価対象となる訳文と前記参照訳文のテキスト類似度とすることと、前記語義類似度と前記テキスト類似度との重み付けの和を翻訳品質の得点とすることと、を備える翻訳品質を評価するための方法。
【0109】
なお、本出願の操作を実行するためのプログラムコードは、1つまたは複数のプログラミング言語またはこれらの組み合わせで作成されることができ、前記プログラミング言語は、Java(登録商標)、Smalltalk、C++などのオブジェクト指向プログラミング言語が含まれているが、「C」言語又は同様のプログラミング言語などの従来の手続き型プログラミング言語も含まれている。プログラムコードは、完全にユーザのコンピュータで実行されることも、ユーザのコンピュータで部分的に実行されることも、独立のソフトウェアパッケージとして実行されることも、一部がユーザのコンピュータで実行されながら、他の一部がリモートコンピュータで実行されることも、または完全にリモートコンピュータもしくはサーバーで実行されることも可能である。リモートコンピューターの場合、リモートコンピューターは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されることができ、または(例えば、インターネットサービスプロバイダによるインターネットサービスを介して)外部のコンピュータに接続されることもできる。
【0110】
図面におけるフローチャート及びブロック図は、本開示の様々な実施例のシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能、操作を示す。これに関して、フローチャートまたはブロック図の各ブロックはそれぞれ、モジュール、プログラムセグメント、またはコードの一部を表すことができ、このモジュール、プログラムセグメント、またはコードの一部は指定されたロジック機能を実現するための1つまたは複数の実行可能なコマンドを備える。また、いくつかの代替としての実施態様においては、ブロックに示されている機能は、図面に示されているものと異なる順序で実行できる。たとえば、連続して示される2つのブロックは、実際にはほぼ並行して実行されることができ、これらは逆の順序で実行される場合もあり、関連する機能によって決められる。また、ブロック図および/またはフローチャートの各ブロック、ブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定された機能または操作を実行する、専用の、ハードウェアに基づくシステムによって実現されることができ、専用のハードウェアとコンピューターコマンドの組み合わせで実現することもできる。
【0111】
本開示の実施例に係る手段は、ソフトウェアによって実現されてもよいし、ハードウェアによって実現されてもよい。説明された手段は、プロセッサに設置されることができ、例えば、「プロセッサは取得手段、判断手段、確定手段及び生成手段を備える」と記載されてもよい。これらのうち、これらの手段の名称は、手段その自体に対する限定ではなく、例えば、取得手段は、「目標テキストを取得する手段」と記載されてもよい。
【0112】
上記の説明は、本出願の好ましい実施例および適用される技術的原理の説明にすぎない。当業者であれば、本出願に含まれている発明の範囲について、上記の技術的特徴の特定の組み合わせからなる技術的解決策に限定されず、上記の発明の趣旨を逸脱しない範囲で、上記の技術的特徴またはそれらの同等の特徴を任意に組み合わせることにより形成されるその他の解決策も含まれているべきであることを理解すべきである。例えば、上記の特徴と、本出願に開示された類似の機能を有する技術的特徴(それらに限られない)とを互いに置き換えてなる解決策が該当する。