IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドの特許一覧

特許7127106質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体
<>
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図1
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図2
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図3A
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図3B
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図4
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図5
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図6
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図7
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図8
  • 特許-質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-08-19
(45)【発行日】2022-08-29
(54)【発明の名称】質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体
(51)【国際特許分類】
   G06F 16/90 20190101AFI20220822BHJP
   G06F 40/216 20200101ALI20220822BHJP
【FI】
G06F16/90 100
G06F40/216
【請求項の数】 15
(21)【出願番号】P 2020215253
(22)【出願日】2020-12-24
(65)【公開番号】P2021089739
(43)【公開日】2021-06-10
【審査請求日】2020-12-24
(31)【優先権主張番号】202010460778.6
(32)【優先日】2020-05-27
(33)【優先権主張国・地域又は機関】CN
【前置審査】
(73)【特許権者】
【識別番号】514322098
【氏名又は名称】ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド
【氏名又は名称原語表記】Beijing Baidu Netcom Science Technology Co., Ltd.
【住所又は居所原語表記】2/F Baidu Campus, No.10, Shangdi 10th Street, Haidian District, Beijing 100085, China
(74)【代理人】
【識別番号】110002952
【氏名又は名称】特許業務法人鷲田国際特許事務所
(72)【発明者】
【氏名】チュウ インチー
(72)【発明者】
【氏名】リウ ジン
【審査官】木村 大吾
(56)【参考文献】
【文献】米国特許出願公開第2016/0012052(US,A1)
【文献】米国特許第08645122(US,B1)
【文献】Shuo Zhang, Krisztian Balog,Ad Hoc Table Retrieval using Semantic Similarity,arXiv.org,2018年03月08日,https://arxiv.org/pdf/1802.06159.pdf
(58)【調査した分野】(Int.Cl.,DB名)
G06F 16/00-16/958
G06F 40/00-40/58
(57)【特許請求の範囲】
【請求項1】
質問応答処理方法であって、
質問応答処理装置は、クエリ対象質問に一致する少なくとも1つの候補表を取得することであって、各候補表が前記質問に対応する1つの候補解答を含む、取得することと、
前記質問応答処理装置は、少なくとも1つの表テキストを得るために前記少なくとも1つの候補表を処理することであって、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含む、処理することと、
前記質問応答処理装置は、前記質問と各候補表の一致度を得るために前記質問と各表テキストをプリセット言語モデルにそれぞれ入力することと、
前記質問応答処理装置は、各候補表の一致度に基づいて、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である回答表を出力することと、を含み、
前記質問応答処理装置は、少なくとも1つの表テキストを得るために前記少なくとも1つの候補表を処理することは、
前記質問応答処理装置は、前記少なくとも1つの候補表における各フィールドのテキスト内容をそれぞれ抽出することと、
前記質問応答処理装置は、前記少なくとも1つの表テキストを得るために各候補表の各フィールドのテキスト内容をつなぎ合わせることと、を含み、
前記表テキストにおける各単語はフィールド情報に対応し、前記フィールド情報は、前記表テキスト内の単語が前記候補表で属するフィールドを標識するために使用され、
前記言語モデルが入力層を含み、前記入力層がベクトルエンコードモジュール、分節エンコードモジュールおよび位置エンコードモジュールを含み、
前記質問応答処理装置は、前記質問と各候補表の一致度を得るために前記質問と各表テキストをプリセット言語モデルにそれぞれ入力することは、
前記質問応答処理装置は、テキストベクトルを得るために前記質問および各表テキストを前記ベクトルエンコードモジュールに入力することと、
前記質問応答処理装置は、分節ベクトルを得るために前記質問、各表テキストおよび前記表テキストに対応するフィールド情報を前記分節エンコードモジュールに入力することと、
前記質問応答処理装置は、位置ベクトルを得るために前記質問および各表テキストを前記位置エンコードモジュールに入力することと、
前記質問応答処理装置は、前記テキストベクトル、前記分節ベクトルおよび前記位置ベクトルに基づいて、前記質問と各候補表の一致度を確定することと、を含む方法
【請求項2】
前記質問応答処理装置は、前記質問と各候補表の一致度を得るために前記質問と各表テキストをプリセット言語モデルにそれぞれ入力することは、
前記質問応答処理装置は、前記質問および各表テキストに基づいて前記言語モデルによって出力される確率値を取得することと、
前記質問応答処理装置は、前記確率値に基づいて、前記質問と各候補表の一致度を確定することと、を含む請求項に記載の方法。
【請求項3】
前記質問応答処理装置は、クエリ対象質問に一致する少なくとも1つの候補表を取得することは、
前記質問応答処理装置は、前記クエリ対象質問を受信することと、
前記質問応答処理装置は、前記クエリ対象質問の解答カテゴリを確定することと、
前記質問応答処理装置は、前記解答カテゴリが、数字を含む目標カテゴリである場合、クエリ対象質問に一致する少なくとも1つの候補表を取得することと、を含む請求項に記載の方法。
【請求項4】
前記質問応答処理装置は、前記候補表が1つであり、各候補表の一致度に基づいて回答表を出力することは、
前記質問応答処理装置は、前記候補表の一致度が一致度閾値以上であるかどうかを確定することと、
前記質問応答処理装置は、前記候補表の一致度が一致度閾値以上である場合、前記候補表を前記回答表として出力することと、を含む請求項に記載の方法。
【請求項5】
前記候補表が1つであり、前記質問応答処理装置は、各候補表の一致度に基づいて回答表を出力することは、
前記質問応答処理装置は、前記候補表の一致度が一致度閾値未満である場合、一致する解答が検索されないというプロンプト情報を出力することを含む請求項に記載の方法。
【請求項6】
前記候補表が少なくとも2つであり、
前記質問応答処理装置は、各候補表の一致度に基づいて回答表を出力することは、
前記質問応答処理装置は、最高の一致度に対応する候補表を前記回答表として出力することを含む請求項に記載の方法。
【請求項7】
質問応答処理装置であって、
クエリ対象質問に一致する少なくとも1つの候補表を取得するための第1の取得モジュールであって、各候補表が前記質問に対応する1つの候補解答を含む第1の取得モジュールと、
前記少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得る表処理モジュールであって、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含む表処理モジュールと、
前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して前記質問と各候補表の一致度を得るための確定モジュールと、
各候補表の一致度に基づいて、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である回答表を出力するための出力モジュールとを含み、
前記表処理モジュールは、
前記少なくとも1つの候補表における各フィールドのテキスト内容をそれぞれ抽出するための抽出ユニットと、
各候補表の各フィールドのテキスト内容をつなぎ合わせて、前記少なくとも1つの表テキストを得るためのつなぎ合わせユニットとを含み、
前記表テキストにおける各単語はフィールド情報に対応し、前記フィールド情報は、前記表テキスト内の単語が前記候補表で属するフィールドを標識するために使用され、
前記言語モデルが入力層を含み、前記入力層がベクトルエンコードモジュール、分節エンコードモジュールおよび位置エンコードモジュールを含み、
前記確定モジュールは、
前記質問および各表テキストを前記ベクトルエンコードモジュールに入力して、テキストベクトルを得ること、前記質問、各表テキストおよび前記表テキストに対応するフィールド情報を前記分節エンコードモジュールに入力して、分節ベクトルを得ること、および前記質問と各表テキストを前記位置エンコードモジュールに入力して、位置ベクトルを得ることのために使用される入力ユニットと、
前記テキストベクトル、前記分節ベクトルおよび前記位置ベクトルに基づいて、前記質問と各候補表の一致度を確定するための確定ユニットとを含む装置
【請求項8】
前記確定モジュールが前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得るとき、
前記質問および各表テキストに基づいて前記言語モデルによって出力される確率値を取得することと、
前記確率値に基づいて、前記質問と各候補表の一致度を確定することと、を含む請求項に記載の装置。
【請求項9】
前記取得モジュールは、
前記クエリ対象質問を受信するための受信ユニットと、
前記クエリ対象質問の解答カテゴリを確定するための解答カテゴリ確定ユニットと、
前記解答カテゴリが数字を含む目標カテゴリである場合、クエリ対象質問に一致する少なくとも1つの候補表を取得するための取得ユニットと、を含む請求項に記載の装置。
【請求項10】
前記候補表が1つであり、前記出力モジュールは、
前記候補表の一致度が一致度閾値以上であるかどうかを確定すること、および前記候補表の一致度が一致度閾値以上である場合、前記候補表を前記回答表として出力することのために使用される出力ユニットを含む請求項に記載の装置。
【請求項11】
前記候補表が1つであり、前記出力モジュールは、
前記候補表の一致度が一致度閾値未満である場合、一致する解答が検索されないというプロンプト情報を出力するための出力ユニットを含む請求項に記載の装置。
【請求項12】
前記候補表が少なくとも2つであり、
前記出力モジュールは、
最高の一致度に対応する候補表を前記回答表として出力するための出力ユニットを含む請求項に記載の装置。
【請求項13】
電子機器であって、
少なくとも1つのプロセッサ、および
前記少なくとも1つのプロセッサと通信接続されるメモリを含み、
前記メモリには前記少なくとも1つのプロセッサによって実行可能な指令が記憶され、前記指令が前記少なくとも1つのプロセッサによって実行されることによって、前記少なくとも1つのプロセッサが、請求項1~請求項のいずれか1項に記載の方法を実行することができる電子機器。
【請求項14】
コンピュータ指令を記憶する非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ指令がコンピュータに請求項1~請求項のいずれか1項に記載の方法を実行させるために使用される記憶媒体。
【請求項15】
コンピュータプログラムであって、前記コンピュータプログラムがコンピュータで実行されると、前記コンピュータに請求項1~請求項のいずれか1項に記載の方法を実行させることを特徴とするコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本願の実施例は、データ処理における自然言語処理技術に関し、特に、質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体に関する。
【背景技術】
【0002】
質問応答システム(Question Answering System、QA)は、情報検索システムの進化した形であり、正確かつ簡潔な自然言語でユーザが自然言語で提出した質問に解答し、ユーザにパーソナライズされたサービスを提供することができる。質問応答システムがユーザの質問に解答するとき、1つの方法は、質問に構造化された解答をし、例えば、表形式の解答に一致させることであるが、質問に対応する表をどのように取得するかは、現在の大きな難点である。
【0003】
現在、質問応答システムは主に、表の各フィールド(タイトル、ヘッダ、表ユニットおよびコンテキストなどを含む)の情報を処理し、表の各フィールドの情報を質問とテキスト一致して、これにより対応する表形式の応答を取得する。しかし、このように一致して得られる応答には、精度が低いという質問がある。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本願は、質問に表形式の解答を一致するための質問応答処理、言語モデルの訓練方法、装置、機器及記憶媒体を提供する。
【課題を解決するための手段】
【0005】
本願の1つの態様によれば、質問応答処理方法が提供され、前記質問応答処理方法は、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含むことと、前記少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含むことと、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して前記質問と各候補表の一致度を得ることと、各候補表の一致度に基づいて、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である回答表を出力することと、を含む。
【0006】
本願の他の態様によれば、言語モデルの訓練方法が提供され、前記訓練方法は、ラベリング情報なしのテキストデータである第1の訓練サンプルデータを取得することと、前記第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1の予備訓練を行って第1の予備訓練モデルを得ることと、質問と前記質問に対応する複数の候補表を含む第2の訓練サンプルデータ、およびそれに対応する、前記質問と各候補表の相関性を示すために使用されるラベリング情報を取得することと、前記第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、前記質問と少なくとも1つの候補表の一致度を確定するために使用される前記言語モデルを得ることと、を含む。
【0007】
本願の他の態様によれば、質問応答処理装置が提供され、前記質問応答処理装置は、クエリ対象質問に一致する少なくとも1つの候補表を取得するための第1の取得モジュールであって、各候補表が前記質問に対応する1つの候補解答を含む第1の取得モジュールと、前記少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得るための表処理モジュールであって、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含む表処理モジュールと、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して前記質問と各候補表の一致度を得るための確定モジュールと、各候補表の一致度に基づいて、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である回答表を出力するための出力モジュールとを含む。
【0008】
本願の他の態様によれば、言語モデルの訓練装置が提供され、前記訓練装置は、ラベリング情報なしのテキストデータである第1の訓練サンプルデータを取得すること、および質問と前記質問に対応する複数の候補表を含む第2の訓練サンプルデータ、およびそれに対応する、前記質問と各候補表の相関性を示すために使用されるラベリング情報を取得することのために使用される第2の取得モジュールと、前記第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1の予備訓練を行って第1の予備訓練モデルを得ること、および前記第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、前記質問と少なくとも1つの候補表の一致度を確定するために使用される前記言語モデルを得ることのために使用される訓練モジュールと、を含む。
【0009】
本願の他の態様によれば、電子機器が提供され、前記電子機器は、少なくとも1つのプロセッサ、および前記少なくとも1つのプロセッサと通信接続されるメモリを含み、そのうち、前記メモリには前記少なくとも1つのプロセッサによって実行可能な指令が記憶され、前記指令が前記少なくとも1つのプロセッサによって実行されることによって、前記少なくとも1つのプロセッサが、第1の態様および/または第2の態様に記載の方法を実行することができる。
【0010】
本願の他の態様によれば、コンピュータ指令を記憶する非一時的なコンピュータ可読記憶媒体が提供され、前記コンピュータ指令が、第1の態様および/または第2の態様のいずれか1項に記載の方法をコンピュータに実行させるために使用される。
【0011】
本願の他の態様によれば、質問応答処理方法が提供され、前記質問応答処理方法は、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含むことと、前記質問と各候補表をプリセット言語モデルにそれぞれ入力して前記質問と各候補表の一致度を得ることと、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表を出力することと、を含む。
【発明の効果】
【0012】
本願による技術は、質問と表を一致する正確さと再現率を向上させる。
【0013】
理解すべきものとして、本明細書に記載された内容は、本願の実施例の主要または重要な特徴を標識することを意図しておらず、本願の範囲を限定することも意図していない。本願の他の特徴は、以下の明細書によって容易に理解されるであろう。
【図面の簡単な説明】
【0014】
図面は、本手段をよりよく理解するために使用されており、本願を限定しない。そのうち、
図1】本願の実施例によって提供される適用シナリオの概略図である。
図2】本願の実施例の質問応答処理方法のフローチャートである。
図3A】本願の実施例の表テキストの概略図である。
図3B】本願の実施例によって最終的に出力される回答表の概略図である。
図4】本願の実施例によって提供される言語モデルの概略構造図である。
図5】本願の実施例によって提供される言語モデルの訓練方法のフローチャートである。
図6】本願の他の実施例によって提供される言語モデルの訓練方法の概略図である。
図7】本願の実施例の質問応答処理装置の概略構造図である。
図8】本願の実施例によって提供される言語モデルの訓練装置の概略構造図である。
図9】本願の実施例の質問応答処理方法および/または言語モデルの訓練方法を実施するために使用される電子機器のブロック図である。
【発明を実施するための形態】
【0015】
以下、添付図面を参照して本願の例示的な実施例を説明するが、本願の実施例の様々な詳細が理解を容易にするために含まれており、単なる例示的なものと考えられるべきである。したがって、当業者は、本願の範囲および精神から逸脱することなく、本明細書に記載された実施例に様々な変更および修正を加えることができることを理解するはずである。同様に、明確かつ簡潔にするために、以下の説明では、よく知られている機能および構造の説明は省略されている。
【0016】
図1は、本願の実施例によって提供される適用シナリオ図である。図1に示すように、当該適用シナリオは、端末機器11およびサーバ12を含み、そのうち、端末機器11が、スマートフォン、コンピュータなどの電子機器であってもよく、サーバ12には、質問と解答の対応関係が記憶される。選択的に、解答は、構造化解答および非構造化解答を含む。本願の実施例では、構造化解答とは解答が表形式で呈され、非構造化解答が主にテキスト形式で呈された解答を指し、そのうち、「A型携帯のパラメータ配置」、「世界各国の領土面積ランキング」などの構造化解答が、表で直接回答でき、非構造化のテキスト解答よりも直感的で明確である。また、「B型携帯のフロントカメラの画素はいくらですか」、「世界最大の国家領土面積」など、表の内容の一部を質問の解答とする別の解答はあり、これらの質問の解答が、構造化表に存在し、知識庫質問応答と似ていり、質問と一致する表を見つけた上で、解答の位置をさらに確定する必要がある。
【0017】
現在、既存の質問応答システムの多くは、非構造化のテキストに向かっていり、すなわち、質問一致、段落検索、機械読解などの技術によって質問の正確な解答を得る。実際、構造化の表には多くの情報も含まれ、解答のソースとすることができる。したがって、質問と表との一致がどのように実現されるかを徐々に研究している人がいる。
【0018】
現在、主に表を異なるフィールド(タイトル、ヘッダ、表ユニット、コンテキストなど)に分割して、類似度の特徴(BM25、編集距離、Jaccard類似度など)、文字通りの一致の特徴(質問の中の単語が表の各フィールドに出現するかどうか、出現割合など)を含む質問と表の各フィールドの間の一致特徴をそれぞれ抽出する。そして、これらの特徴に基づいて、分類モデルを訓練して、質問が表に関連しているかどうかを判断する。この方法が質問と表の各フィールドの間の文字通りの一致情報に注目しているので、解答一致の正確さおよび再現率は高くない。
【0019】
また、検索シナリオでの表質問応答システムについては、表の構造化情報を直接に削除して、表をテキスト段落として、テキストと同じ方式でリコールし、またはこの部分の解答情報を直接に廃棄し、表の様式の表現がなく、その可視化効果が悪く、ユーザの体験に影響する。
【0020】
上記の技術的質問に対応して、本願の実施例は、文字通りの一致だけでなく、質問および質問に一致する少なくとも1つの候補表の語意一致により多くの関心を持ち、これにより解答一致の正確さおよび再現率を向上させることができる。また、解答が最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
【0021】
本願の技術的解決手段、および本願の技術的解決手段が上記の技術的質問をどのように解決するかについて、具体的な実施例を用いて以下で詳細に説明する。以下の具体的な実施例が互いに組み合わせられることができ、同じまたは同様の概念または過程が、いくつかの実施例では繰り返されない場合がある。以下、本願の実施例について図面を用いて説明する。
【0022】
図2は、本願の実施例によって提供される質問応答処理方法のフローチャートである。本願の実施例が、従来技術の上記技術的質問について、質問応答処理方法を提供し、当該方法の具体的なステップは次のとおりである。
【0023】
ステップ201において、クエリ対象質問に一致する少なくとも1つの候補表を取得する。
【0024】
クエリ対象質問に対しては、一致する候補表がないかもしれないし、対応する1つまたは少なくとも2つの候補表があるかもしれない。本実施例は主に、1つの質問が1つのまたは少なくとも2つの候補表に対応する状況に注目する。そのうち、各候補表は、質問に対応する1つの候補解答を含む。選択的に、候補解答は、各候補表内のすべての内容または一部の内容であってもよい。
【0025】
本実施例の実行主体は、端末機器であってもよい。そのうち、ステップ201は、端末機器が、クエリ対象質問に一致する少なくとも2つの表をサーバから取得する。検索シナリオを例にとると、ユーザが端末機器でクエリ対象質問を入力し、端末機器が、クエリ対象質問に基づいて検索請求を生成して、サーバに送信し、サーバが、クエリ対象質問に対して対応する解答を一致して、端末機器に返信する。注意すべきものとして、本願の実施例が主に表形式の解答および質問の一致に注目し、以下に述べる解答は、特に明記しない限り、表形式の解答を指す。
【0026】
選択的に、サーバがクエリ対象質問に対して対応する解答を一致する過程で、クロールツールを使用して候補表を取得することができる。
【0027】
ステップ202において、少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得る。
【0028】
本実施例では、各候補表に対してそれぞれ処理して、当該候補表に対応する表テキストを得、すなわち、各候補表がそれぞれ1つの表テキストに対応する。
【0029】
そのうち、表テキストが候補表内の各フィールドのテキスト内容を含み、表のフィールドがタイトル、ヘッダおよびセルを含み、表テキストが少なくとも1つの段落を含み、各段落が少なくとも1つの句を含み、各句が少なくとも1つの単語を含み、各単語がフィールド情報に対応し、フィールド情報がテキスト内の単語が表で属するフィールドを指示すために使用され、フィールドがタイトル、ヘッダおよびセルを含む。
【0030】
以下の表1に示すように、1つの例示的な表であり、当該表では、「先物取引手数料」がタイトルであり、「取引所」、「品種」、「品種コード」、「取引手数料(各手)」がヘッダであり、残りがすべてセルである。上記の表をテキストに変換すると、図3Aに示すように、テキストの形式で呈する。
【0031】
【表1】
【0032】
ステップ203において、質問および各表テキストをプリセット言語モデルにそれぞれ入力して、質問と各候補表の一致度を得る。
【0033】
1つの質問に対しては、少なくとも1つの解答に対応する。この解答と当該質問の一致度の大きさによって、一致の正確さを決定した。
【0034】
1つの質問が1つの表テキストに対応する状況では、本実施例は、質問および当該表テキストをプリセット言語モデルに一度に入力することができる。1つの質問と少なくとも2つの表テキストの状況では、本実施例は、当該質問および当該質問に対応する少なくとも2つの表テキストを複数回に分けてプリセット言語モデルに入力する。例えば、質問Aが表テキストA1および表テキストA2に対応する場合、まず質問Aおよび表テキストA1をプリセット言語モデルに入力し、次に質問Aおよび表テキストA2をプリセット言語モデルに入力する。
【0035】
そのうち、本実施例の言語モデルは、質問と表テキストの語意理解をそれぞれ行うことができ、これにより語意理解結果に基づいて質問と表テキストの一致度、つまり質問と候補表の一致度を確定する。従来技術に比べて、一致過程では、文字通りの一致だけでなく、語意一致にも注目し、例えば、同じ単語を持つ表に一致するだけでなく、近い意味を持つ表にも一致することができる。
【0036】
ステップ204において、各候補表の一致度に基づいて回答表を出力する。
【0037】
そのうち、回答表は、少なくとも1つの候補表のうち、質問との一致度がプリセット値より大きい候補表、または質問との一致度が最も大きい候補表である。最終的に出力される回答表を図3Bに示す。
【0038】
本願の実施例では、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含み、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得、各候補表の一致度に基づいて回答表を出力し、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。言語モデルが質問およびテキストの語意を理解できるため、質問と候補表の一致度を確定する過程では、語意理解結果に基づいて両者の一致を行い、質問と表の一致正確さと再現率を向上させる。また、解答を最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
【0039】
候補表を言語モデルに入力する前に、候補表を言語モデルに適用されるデータ入力形式、つまりテキストとして処理する必要がある。以下では、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得る具体的な実施過程について説明する。
【0040】
1つの選択的な実施形態では、前記少なくとも1つの候補表内の各フィールドのテキスト内容をそれぞれ抽出し、そして各候補表の各フィールドのテキスト内容をつなぎ合わせて、前記少なくとも1つの表テキストを得ることができる。そのうち、各候補表については、当該候補表内のタイトル、ヘッダおよびセルなどのフィールドのテキスト内容を抽出し、そして抽出されたタイトル、ヘッダおよびセルなどのフィールドのテキスト内容をつなぎ合わせて、当該候補表の表テキストを得る。選択的に、つなぎ合わせる過程中に、タイトル、ヘッダおよびセルの順序で各フィールドの内容をつなぎ合わせることができ、つなぎ合わせられた表テキストが図3Aに示される。
【0041】
言語モデルが質問に対する異なるフィールドの内容の重要性を識別することができるようにし、質問と当該部分内容との一致により注意を払うために、本実施例はまた、各フィールドの内容を含む表テキストを言語モデルに入力することに基づいて、フィールド情報を追加し、すなわち、表テキスト内の各単語にフィールド情報を追加し、言語モデルに入力しても良い。そのうち、フィールド情報は、表テキスト内の単語が候補表に属するフィールドを標識するために使用され、すなわち、フィールド情報は、表テキスト内の各単語が候補表のどのフィールドに来たのか、例えば、タイトルから来たのか、ヘッダから来たのか、それともセルから来たのかを標識するために使用される。
【0042】
そのうち、本実施例における言語モデルが、入力層、非表示層、および出力層を含むニューラルネットワークであってもよく、表テキストの各単語がフィールド情報に対応する上で、本実施例の言語モデルは、フィールド情報もエンコードできるように、入力層を改善する必要がある。非表示層および出力層の構造については、従来技術の紹介を参照してもよく、ここでは繰り返さない。以下は、入力層について重点的に説明する。
【0043】
図4に示すように、当該入力層がベクトルエンコードモジュール41、分節エンコードモジュール42および位置エンコードモジュール43を含み、そのうち、分節エンコードモジュール42内のEA、EB、ECおよびEDは、当該字または単語が質問、タイトル、表およびセルから来たことを表し、ベクトルエンコードモジュール41内の2つのスペースは、質問に対応するテキストを表し、位置エンコードモジュール43内のすべてのスペースは、質問に対応するテキストおよび表テキストをエンコードして得る位置ベクトルを表す。入力層にとって、その入力されたデータが、質問および表テキストを含むテキスト全体であり、入力層にデータを入力するとき、質問と表テキストの順序に従ってテキスト全体を入力層に入力することができる。
【0044】
そのうち、ベクトルエンコードモジュール41が、テキスト全体の各字をベクトルエンコードするために使用され、分節エンコードモジュール42が、テキスト全体を分節し、すなわち、テキスト全体の前後の2つの言葉を識別するために使用され、位置エンコードモジュール43がテキスト全体における各単語の位置をエンコードするために使用される。
【0045】
そのうち、前記質問および前記表テキストをプリセット言語モデルに入力して、前記質問および前記候補表の一致度を得ることは、
前記質問および各表テキストを前記ベクトルエンコードモジュールに入力して、テキストベクトルを得るステップa1と、
前記質問、各表テキストおよび前記表テキストに対応するフィールド情報を前記分節エンコードモジュールに入力して、分節ベクトルを得るステップa2と、
質問および各表テキストを位置エンコードモジュールに入力して、位置ベクトルを得るステップa3と、
テキストベクトル、分節ベクトルおよび位置ベクトルに基づいて、質問と各候補表の一致度を確定するステップa4とを含む。
【0046】
本実施例では、ベクトルエンコードモジュールと位置エンコードモジュールがそれぞれどのようにベクトルエンコードと位置エンコードを行うかの具体的な実施過程について、従来技術の紹介を参照してもよく、ここでは繰り返さない。本実施例の違いは、分節エンコードモジュールに入力されるのが、テキスト全体だけでなく、表テキストのフィールド情報も含むため、分節エンコードモジュールが、分節エンコード過程中にも、表テキストのフィールド情報をエンコードし、すなわち、本実施例における分節ベクトルが、質問、表テキストおよび表テキストに対応するフィールド情報をエンコードして得るベクトルを含むことである。その後、テキストベクトル、分節ベクトルおよび位置ベクトルを非表示層に入力して、質問と前記候補表の一致度を確定し、最終的に出力層を介して前記質問と各候補表の一致度を出力する。
【0047】
選択的に、入力層にとって、毎回入力するのは質問と1つの表テキストであり、出力層にとって、1つの質問および対応する1つの候補表に対して、その最終的に出力するのは0から1の間に分布している1つの数値であり、当該数値がプリセット閾値以上の場合、当該質問が当該表に関連していると見なされ、当該数値がプリセット閾値未満の場合、当該質問が表に関連しないと見なされる。例えば、プリセット閾値が0.6であり、出力層が、ある質問および対応する1つの候補表に対する出力が0.4であると、当該質問が当該候補表に関連しないと見なされ、出力層が、ある質問および対応する1つの候補表に対する出力が0.8であると、当該質問が当該候補表に関連していると見なされる。
【0048】
出力層によって出力された数値が、質問と候補表の相関性の大きさを示すための1つの確率値と見なされてもよく、当該確率値に基づいて、質問と候補表の一致度を確定することができ、その一致度の大きさが確率値を用いて表しても良いし、確率値と一定の比例関係を持つ数値を用いて表しても良いし、どのような方法で表しても、一致度の大きさが確率値の大きさと正の相関関係を持つ。
【0049】
いくつかの状況で、表のタイトルが表の全体情報を表すことができるので、これらの候補表については、言語モデルが質問とタイトル部分の一致により注目し、それ以外の状況で、質問がヘッダまたは表ユニット内の内容を用いて回答する必要があり、このとき、言語モデルも同様に、質問とヘッダまたは表ユニットの一致に注目する。本実施例は、フィールド情報を追加し、エンコード入力層で3つのフィールドを区別することにより、表の語意情報に対する言語モデルの判断および理解能力を向上させ、また、表のいずれかの注目されていないフィールド情報がなくなっても、言語モデルの判断に影響を与えない。
【0050】
検索シナリオでは、無駄な検索を避けるために、いくつかの質問を事前に除外することができる。クエリ対象質問に一致する少なくとも1つの候補表を取得する前に、本実施例の方法はさらに以下を含む。
【0051】
ステップb1において、クエリ対象質問を受信する。
【0052】
そのうち、端末機器は、ユーザが端末機器で入力したクエリ対象質問を受信する。
【0053】
ステップb2において、クエリ対象質問の解答のカテゴリを確定する。
【0054】
そのうち、端末機器は、クエリ対象質問の解答のカテゴリを事前に確定し、表の質問応答に関連しないいくつかの質問を除外し、無駄な検索を避ける。
【0055】
ステップb3において、解答のカテゴリが目標カテゴリである場合、クエリ対象質問と一致する候補表を取得する。
【0056】
そのうち、目標カテゴリは、対象を含む実体および/または数字を含む。本実施例では、質問に対する解答は、選択的または疑問的な解答ではなく、主に確かな解答である。例えば、確かな解答は、「世界最大の面積の国家」という質問に対して、解答が「A国」であることを指す。
【0057】
候補表が1つの状況では、各候補表の一致度に基づいて回答表を出力することは、
候補表の一致度が一致度閾値以上であるかどうかを確定するステップc1と、
候補表の一致度が一致度閾値以上である場合、候補表を回答表をとして出力するステップc2とを含む。
【0058】
選択的に、候補表の一致度が一致度閾値よりも小さい場合、一致する解答が検索されないというプロンプト情報を出力するステップc3をさらに含んでもよい。
【0059】
候補表が少なくとも2つの状況では、各候補表の一致度に基づいて回答表を出力することは、最高の一致度に対応する候補表を回答表として出力することを含む。
【0060】
例えば、1つの質問が1つの解答に対応する場合、事前設定された一致度閾値およびステップ203で得られた一致度に基づいて、当該解答を出力するかどうかを確定する。例示的に、当該質問と解答の一致度が一致度閾値以上である場合、表の形式で当該解答を出力し、当該質問と解答の一致度が一致度閾値未満である場合、当該解答を出力しなく、関連する解答が見つからないというプロンプト情報を出力することを選択できる。
【0061】
1つの質問が少なくとも2つの解答に対応する場合、最高一致度に対応する候補表を出力することができる。引き続き図3Bを参照し、例えば、端末機器に当該候補表を表示する。
【0062】
選択的に、本実施例の質問応答処理方法は、オフライン質問応答シナリオに適用されてもよいし、オンライン質問応答シナリオに適用されてもよい。
【0063】
上記実施例は、言語モデルの応用過程を説明し、本願の他の実施例では、図5に示すように、以下のステップを含む言語モデルの訓練方法を提供する。
【0064】
ステップ501において、第1の訓練サンプルデータを取得する。
【0065】
そのうち、第1の訓練サンプルデータがラベリング情報なしのテキストデータである。
【0066】
ステップ502において、第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1回の予備訓練を行って、第1の予備訓練モデルを得る。
【0067】
上記2つのステップが、ラベリング情報なしの大量のテキストデータで言語モデルを予備訓練することを指し、選択的に、本ステップがオープンソースの予備訓練言語モデルERNIEを使用することができる。
【0068】
ステップ503において、第2の訓練サンプルデータおよびそれに対応するラベリング情報を取得する。
【0069】
そのうち、第2の訓練サンプルデータが、質問および前記質問に対応する複数の候補表を含み、前記ラベリング情報が、前記質問と各候補表の相関性を示すために使用される。そのうち、質問と各候補表の相関性は、当該候補表が質問に関連しているかどうかを指す。
【0070】
ステップ504において、第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて第1の予備訓練モデルを訓練して、言語モデルを得る。
【0071】
本実施例で訓練して得られた言語モデルが、質問と少なくとも1つの候補表の一致度を確定するために使用される。具体的な応用過程が質問応答処理方法の実施例の説明を参照することができ、ここでは繰り返さない。
【0072】
ステップ504は、ラベリング情報を有する少量の訓練サンプルデータで第1の予備訓練モデルを微調整することである。第2の訓練サンプルデータが質問-候補表のペア(1つの質問および1つの候補表を含む)であり、そのラベリング情報が人工的に相関性を判断して与えられるものであり、選択的に、0と1を採用して当該質問と候補表が相関しないこと及び関連することをそれぞれ示す。本ステップでのラベリング情報が人工的に与えられるので、訓練の正確さが予備訓練よりも高い。
【0073】
説明すべきものとして、本実施例では、大量と少量がすべて相対的な用語である。
【0074】
上記訓練方法の実施例に基づいて、第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、言語モデルを得る前に、本実施例の方法はさらに、
第3の訓練サンプルデータおよびそれに対応するラベリング情報を取得するステップ505を含む。
【0075】
そのうち、第3の訓練サンプルデータが、質問および前記質問に対応する複数のテキスト解答を含み、前記第3の訓練サンプルデータのラベリング情報が、前記質問と前記複数のテキスト解答の相関性を示すために使用され、各テキスト解答のラベリング情報の正確さが異なり、前記第3の訓練サンプルデータと前記第2の訓練サンプルデータに対応する訓練タスクが同じである。
【0076】
図6に示すように、本ステップは、言語モデルが特定の下流のタスクにおいてより良いパフォーマンスを得るために、大量の弱監視データ(つまり第3の訓練サンプルデータ)において第2回の予備訓練を行う。弱監視データの使用質問およびその当該質問に一致する段落データは、選択的に、ウェブサイト上の段落に基づいて質問を生成することにより、大量の質問-段落のペアを得る。注意すべきものとして、ここでの質問-段落のペアに対応する訓練タスクが、目標訓練タスクと同じタスクであり、すなわち、目標訓練タスクが質問と表の一致タスクであり、質問-段落のペアの段落も表に基づいて形成される段落であるべきであり、表に基づいて段落を形成する具体的な方法が、表に基づいて表テキストを生成する本実施例の過程を参照してもよく、本実施例はここで繰り返さない。
【0077】
ステップ506において、第3の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルに対して第2回の予備訓練を行って、再訓練後の第1の予備訓練モデルを得る。
【0078】
再訓練後の第1の予備訓練モデルは、ステップ504で再び適用され、すなわち、第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて再訓練して得られた第1の予備訓練モデルを訓練して、言語モデルを得る。
【0079】
本実施例は、モデル訓練段階の微調整前に第2回の予備訓練過程を追加することにより、表に一致するタスクに近い段落一致データを使用して訓練を行う。質問-段落の一致データの取得が容易で、標示データほど高いデータ品質を保証することはできないが、大量のノイズデータの訓練に基づいて、モデルを目標タスクに対して学習しやすくなる。それにより、質問と表の一致タスクに必要な標示データの取得には、大量の人件費が必要となる質問を避ける。
【0080】
図7は、本願の実施例によって提供される質問応答処理装置の概略構造図である。当該質問応答処理装置は、具体的には、上記実施例の端末機器、または端末機器の部品(例えばチップまたは回路)であってもよい。本願の実施例によって提供される質問応答処理装置が、質問応答処理方法の実施例によって提供される処理フローを実行することができ、図7に示すように、質問応答処理装置70は、第1の取得モジュール71、表処理モジュール72、確定モジュール73および出力モジュール74を含み、そのうち、第1の取得モジュール71が、クエリ対象質問に一致する少なくとも1つの候補表を取得するために使用され、各候補表が前記質問に対応する1つの候補解答を含み、表処理モジュール72が、前記少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得るために使用され、前記表テキストが前記候補表の各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、確定モジュール73が、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得るために使用され、出力モジュール74が、各候補表の一致度に基づいて、回答表を出力するために使用され、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。
【0081】
選択的に、表処理モジュール72は、抽出ユニット721およびつなぎ合わせユニット722を含み、そのうち、抽出ユニット721が、前記少なくとも1つの候補表の各フィールドのテキスト内容をそれぞれ抽出するために使用され、つなぎ合わせユニット722が、各候補表の各フィールドのテキスト内容をつなぎ合わせて、前記少なくとも1つの表テキストを得るために使用される。
【0082】
選択的に、表テキストの各単語はフィールド情報に対応し、前記フィールド情報は、前記表テキスト内の単語が前記候補表に属するフィールドを標識するために使用される。
【0083】
選択的に、前記言語モデルが入力層を含み、前記入力層が、ベクトルエンコードモジュール、分節エンコードモジュールおよび位置エンコードモジュールを含み、前記確定モジュール73は、前記質問および各表テキストを前記ベクトルエンコードモジュールに入力して、テキストベクトルを得ること、前記質問、各表テキストおよび前記表テキストに対応するフィールド情報を前記分節エンコードモジュールに入力して、分節ベクトルを得ること、および前記質問と各表テキストを前記位置エンコードモジュールに入力して、位置ベクトルを得ることのために使用される入力ユニット731と、前記テキストベクトル、前記分節ベクトルおよび前記位置ベクトルに基づいて、前記質問と各候補表の一致度を確定するために使用される確定ユニット732とを含む。
【0084】
選択的に、確定モジュール73はさらに、前記質問および各表テキストに基づいて前記言語モデルによって出力される確率値を取得すること、および前記確率値に基づいて、前記質問と各候補表の一致度を確定することのために使用される。
【0085】
選択的に、前記取得モジュール71は、前記クエリ対象質問を受信するための受信ユニット711と、前記クエリ対象質問の解答カテゴリを確定するための解答カテゴリ確定ユニット712と、前記解答カテゴリが実体および/または数字を含む目標カテゴリである場合、クエリ対象質問に一致する少なくとも1つの候補表を取得するための取得ユニット713とを含む。
【0086】
選択的に、前記候補表が1つであり、出力モジュール74は、前記候補表の一致度が一致度閾値以上であるかどうかを確定して、前記候補表の一致度が一致度閾値以上である場合、前記候補表を前記回答表として出力するために使用される出力ユニット741を含む。
【0087】
選択的に、前記候補表が1つであり、出力モジュール74は、前記候補表の一致度が一致度閾値未満である場合、一致する解答が検索されないというプロンプト情報を出力するための出力ユニット741を含む。
【0088】
選択的に、前記候補表が少なくとも2つであり、出力モジュール74は、最高の一致度に対応する候補表を前記回答表として出力するための出力ユニット741を含む。
【0089】
図7に示す実施例の質問応答処理装置は、上記方法の実施例の技術的解決手段を実行するために使用されてもよく、その実現原理が技術効果と類似しており、ここでは繰り返さない。
【0090】
本願の実施例では、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含み、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得、前記表テキストが前記候補表の各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得、各候補表の一致度に基づいて回答表を出力し、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。言語モデルが質問およびテキストの語意を理解できるため、質問と候補表の一致度を確定する過程では、語意理解結果に基づいて両者の一致を行い、質問と表の一致正確さと再現率を向上させる。また、解答を最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
【0091】
図8は、本願の実施例によって提供される言語モデルの訓練装置の概略構造図である。当該言語モデルの訓練装置は、具体的には、上記実施例の端末機器、または端末機器の部品(例えば、チップまたは回路)であってもよい。本願の実施例によって提供される言語モデルの訓練装置が、言語モデルの訓練方法の実施例によって提供される処理フローを実行することができ、図8に示すように、言語モデルの訓練装置80は、第2の取得モジュール81および訓練モジュール82を含み、そのうち、第2の取得モジュール81が、ラベリング情報なしのテキストデータである第1の訓練サンプルデータを取得すること、および質問と前記質問に対応する複数の候補表を含む第2の訓練サンプルデータ、およびそれに対応する、前記質問と各候補表の相関性を示すために使用されるラベリング情報を取得することのために使用され、訓練モジュール82が、前記第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1の予備訓練を行って第1の予備訓練モデルを得ること、および前記第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、前記質問と少なくとも1つの候補表の一致度を確定するために使用される前記言語モデルを得ることのために使用される。
【0092】
選択的に、前記第2の取得モジュール81はさらに、第3の訓練サンプルデータおよびそれに対応するラベリング情報を取得するために使用され、前記第3の訓練サンプルデータが、質問および前記質問に対応する複数のテキスト解答を含み、前記第3の訓練サンプルデータのラベリング情報が、前記質問と前記複数のテキスト解答の相関性を示すために使用され、各テキスト解答のラベリング情報の正確さが異なり、前記第3の訓練サンプルデータと前記第2の訓練サンプルデータに対応する訓練タスクが同じであり、訓練モジュール82はさらに、前記第3の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、再訓練後の第1の予備訓練モデルを得るために使用される。
【0093】
図8に示す実施例の言語モデルの訓練装置は、上記方法実施例の技術的解決手段を実行するために使用されてもよく、その実現原理が技術効果と類似しており、ここでは繰り返さない。
【0094】
本願の実施例では、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含み、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得、各候補表の一致度に基づいて回答表を出力し、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。言語モデルが質問およびテキストの語意を理解できるため、質問と候補表の一致度を確定する過程では、語意理解結果に基づいて両者の一致を行い、質問と表の一致正確さと再現率を向上させる。また、解答を最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
【0095】
本願の実施例により、本願はさらに、電子機器および可読記憶媒体を提供する。
【0096】
図9に示すように、本願の実施例の質問応答処理方法および/または言語モデルの訓練方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、および他の適切なコンピュータなどさまざまな形式のデジタルコンピュータを表すことを目的としている。電子機器は、パーソナルデジタルアシスタント、セルラー電話、スマートフォン、ウェアラブル機器および他の類似のコンピューティング装置などさまざまな形式のモバイル装置を表すこともできる。本明細書に示す部品、それらの接続および関係、およびそれらの機能は、単なる例であり、本明細書で記載されるおよび/または要求される本願の実施を制限することを意図しない。
【0097】
図9に示すように、当該電子機器は、1つまたは複数のプロセッサ901、メモリ902、および高速インターフェースと低速インターフェースを含む様々な部品を接続するためのインターフェースを含む。様々な部品は、異なるバスを使用して相互に接続され、共通のマザーボードに取り付けられてもよいし、必要に応じて他の形態でインストールされてもよい。プロセッサは、電子機器で実行された指令を処理してもよく、前記指令がメモリ内またはメモリ上に記憶されて、GUIのグラフィック情報を外部入/出力装置(インターフェースに結合された表示機器など)に表示することができる指令を含む。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバスを、複数のメモリと共に使用することができる。同様に、複数の電子機器を接続でき、各機器は、いくつかの必要な操作を提供する(例えば、サーバアレイ、ブレードサーバのグループ、またはマルチプロセッサシステムとして)。図9では、プロセッサ901を例に取る。
【0098】
メモリ902は、本願によって提供される非一時的なコンピュータ可読記憶媒体である。そのうち、前記メモリには、少なくとも1つのプロセッサによって実行可能な指令を記憶することによって、前記少なくとも1つのプロセッサが本願によって提供される質問応答処理方法および/または言語モデルの訓練方法を実行する。本願の非一時的なコンピュータ可読記憶媒体には、コンピュータ指令が記憶され、当該コンピュータ指令が、本願によって提供される質問応答処理方法および/または言語モデルの訓練方法をコンピュータに実行させるために使用される。
【0099】
メモリ902は、非一時的なコンピュータ可読記憶媒体として、本願の実施例における質問応答処理方法および/または言語モデルの訓練方法に対応するプログラム指令/モジュールなどの(例えば、図7に示す第1の取得モジュール71、表処理モジュール72、確定モジュール73および出力モジュール74)非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラムおよびモジュールを記憶するために使用できる。プロセッサ901は、メモリ902に記憶される非一時的なソフトウェアプログラム、指令およびモジュールを実行することによって、サーバの様々な機能応用およびデータ処理を実行し、すなわち、上記方法の実施例における質問応答処理方法および/または言語モデルの訓練方法を実施する。
【0100】
メモリ902は、プログラム記憶領域およびデータ記憶領域を含んでもよく、そのうち、プログラム記憶領域が、操作システムと少なくとも1つの機能に必要な応用プログラムを記憶することができ、データ記憶領域が、質問応答処理方法および/または言語モデルの訓練方法の電子機器の使用に応じて作成されたデータなどを記憶することができる。さらに、メモリ902は、高速ランダムアクセスメモリを含むことができ、また、少なくとも1つの磁気メモリ、フラッシュメモリ、または他の非一時的な固体メモリなどの非一時的なメモリを含むこともできる。いくつかの実施例では、メモリ902が、選択的に、プロセッサ901に対してリモートに設定されたメモリを含み、これらのリモートメモリが、ネットワークを介して質問応答処理方法および/または言語モデルの訓練方法の電子機器に接続されることができる。上記ネットワークの例は、インターネット、企業イントラネット、ローカルネットワーク、モバイル通信ネットワーク、およびこれらの組み合わせを含むが、これらに限定されない。
【0101】
質問応答処理方法および/または言語モデルの訓練方法の電子機器はまた、入力装置903および出力装置904を含んでもよい。プロセッサ901、メモリ902、入力装置903および出力装置904は、バスまたは他の形態で接続されてもよいが、図9では、バスで接続される例を示す。
【0102】
入力装置903は、入力される数字または文字情報を受け取り、および、質問応答処理方法および/または言語モデルの訓練方法の電子機器のユーザ設定および機能制御に関連するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、指示棒、1つまたは複数のマウスボタン、トラックボール、操縦棒などの入力装置である。出力装置904は、表示機器、補助照明装置(例えば、LED)および触覚フィードバック装置(例えば、振動モーター)などを含むことができる。当該表示機器は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイおよびプラズマディスプレイを含むことができる。いくつかの実施形態では、表示機器はタッチスクリーンであってもよい。
【0103】
本明細書で説明するシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせで実施されることができる。これらの様々な実施形態は、1つまたは複数のコンピュータプログラムで実施され、当該1つまたは複数のコンピュータプログラムが、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステム上で実行および/または解釈されるでき、当該プログラム可能なプロセッサが、専用または汎用プログラム可能なプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび指令を受信し、データおよび指令を当該記憶システム、当該少なくとも1つの入力装置、および当該少なくとも1つの出力装置に送信することができる。
【0104】
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェア応用、またはコードとも呼ばれる)は、プログラム可能なプロセッサの機械指令を含み、高級過程および/またはオブジェクトに向けたプログラミング言語、および/またはアセンブリ/機械言語を用いてこれらのコンピュータプログラムを実施することができる。本明細書で使用されるように、「機械可読媒体」および「コンピュータ可読媒体」という用語は、機械指令および/またはデータをプログラム可能なプロセッサに提供するための任意のコンピュータプログラム製品、機器、および/または装置(例えば、磁気ディスク、光ディスク、メモリ、プログラム可能な論理装置(PLD))を指し、機械可読信号としての機械指令を受信する機械可読媒体を含む。「機械可読信号」という用語は、機械指令および/またはデータをプログラム可能なプロセッサに提供するための任意の信号を指す。
【0105】
ユーザとの対話を提供するために、ここで説明するシステムおよび技術をコンピュータに実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)、およびユーザがコンピュータに入力を提供できるキーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)とを有する。他のタイプの装置は、ユーザとの対話を提供するために使用されでき、例えば、ユーザに提供されるフィードバックが、任意の形式の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、任意の形式(音響入力、音声入力、または触覚入力を含む)を使用して、ユーザからの入力を受け取ることができる。
【0106】
本明細書で説明するシステムおよび技術は、バックグラウンド部品を含む計算システム(例えば、データサーバとして)、または中間部品を含む計算システム(例えば、応用サーバ)、または前端部品を含む計算システム(例えば、グラフィカルユーザインターフェースまたはWebブラウザを備えたユーザーコンピュータ、ユーザが、当該グラフィカルユーザインターフェースまたは当該Webブラウザを通じて本明細書で説明するシステムおよび技術の実施形態と対話でき)、またはこのようなバックグラウンド部品、中間部品、または前端部品の任意の組合せを含む計算システムに実施されてもよい。任意の形式または媒体のデジタルデータ通信(例えば、通信ネットワーク)を通じて、システムの部品を相互に接続してもよい。通信ネットワークの例は、ローカルネットワーク(LAN)、広域ネットワーク(WAN)およびインターネットを含む。
【0107】
計算システムは、クライアントおよびサーバを含んでもよい。通常、クライアントおよびサーバは、互いに離れており、通信ネットワークを介して相互作用する。クライアントとサーバ間の関係は、対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を持つコンピュータプログラムによって生成される。
【0108】
説明すべきものとして、本実施例の質問応答処理装置および言語モデルの訓練装置は、同じ電子機器または異なる電子機器で実行されてもよい。
【0109】
本願の実施例の技術的解決手段では、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含み、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得、各候補表の一致度に基づいて回答表を出力し、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。言語モデルが質問およびテキストの語意を理解できるため、質問と候補表の一致度を確定する過程では、語意理解結果に基づいて両者の一致を行い、質問と表の一致正確さと再現率を向上させる。また、解答を最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
【0110】
理解すべきものとして、上記のさまざまな形式のフローを使用して、ステップの順序を変更、追加、または削除することができる。例えば、本願に記載された各ステップは、本願に開示された技術的解決手段の所望の結果が達成され得る限り、並列、順次、または異なる順序で実行されることができ、本明細書に限定されない。
【0111】
上記具体的な実施形態は、本願の保護範囲に対する制限を構成しない。当業者は、設計要求および他の要因によって、様々な修正、組み合わせ、サブ組み合わせ、および置換を行うことができることを理解すべきである。本願の精神と原則の範囲内で行われた修正、同等の置換、および改善は、本願の保護範囲に含まれるものとする。
図1
図2
図3A
図3B
図4
図5
図6
図7
図8
図9