IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アジア パシフィック マシーン インテリジェンス カンパニーの特許一覧

<>
  • 特開-機械読解方法及び機械読解システム 図1
  • 特開-機械読解方法及び機械読解システム 図2
  • 特開-機械読解方法及び機械読解システム 図3
  • 特開-機械読解方法及び機械読解システム 図4
  • 特開-機械読解方法及び機械読解システム 図5
  • 特開-機械読解方法及び機械読解システム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025011027
(43)【公開日】2025-01-23
(54)【発明の名称】機械読解方法及び機械読解システム
(51)【国際特許分類】
   G06F 40/44 20200101AFI20250116BHJP
   G06F 40/56 20200101ALI20250116BHJP
【FI】
G06F40/44
G06F40/56
【審査請求】有
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2024088758
(22)【出願日】2024-05-31
(31)【優先権主張番号】112125735
(32)【優先日】2023-07-10
(33)【優先権主張国・地域又は機関】TW
(71)【出願人】
【識別番号】524207998
【氏名又は名称】アジア パシフィック マシーン インテリジェンス カンパニー
【氏名又は名称原語表記】Asia Pacific Machine Intelligence Company
【住所又は居所原語表記】2F., No. 1, Sec. 4, Xinyi Rd., Da’an Dist., Taipei City, Taiwan,
(74)【代理人】
【識別番号】100103850
【弁理士】
【氏名又は名称】田中 秀▲てつ▼
(74)【代理人】
【識別番号】100115679
【弁理士】
【氏名又は名称】山田 勇毅
(74)【代理人】
【識別番号】100114177
【弁理士】
【氏名又は名称】小林 龍
(74)【代理人】
【識別番号】100066980
【弁理士】
【氏名又は名称】森 哲也
(72)【発明者】
【氏名】呉 柏翰
(72)【発明者】
【氏名】張 書銘
(72)【発明者】
【氏名】宋 豐价
(57)【要約】
【課題】機械読解方法を開示する。
【解決手段】訓練データ及び複数の第1マスク問題に基づいて機械読解モデルを確立する工程と、複数の第2マスク問題を機械読解モデルに入力して機械読解モデルを訓練する工程と、機械読解モデルに従って対話生成モデルを生成する工程と、対話生成モデルに従って対話を生成する工程と、を備える機械読解方法。
【選択図】図2
【特許請求の範囲】
【請求項1】
訓練データ及び複数の第1マスク問題に基づいて機械読解モデルを確立する工程と、
複数の第2マスク問題を前記機械読解モデルに入力して前記機械読解モデルを訓練する工程と、
前記機械読解モデルに従って対話生成モデルを生成する工程と、
前記対話生成モデルに従って対話を生成する工程と、
を備える機械読解方法。
【請求項2】
前記訓練データ及び前記複数の第1マスク問題に基づいて前記機械読解モデルを確立する工程は、
前記訓練データにおける少なくとも1つの文字をランダムにマスクして前記複数の第1マスク問題を生成する工程と、
前記訓練データを探して前記複数の第1マスク問題に対応する複数の第1答えを取得する工程と、
を含む請求項1に記載の機械読解方法。
【請求項3】
前記複数の第2マスク問題を前記機械読解モデルに入力して前記機械読解モデルを訓練する工程は、
前記訓練データにおける少なくとも1つの文字をランダムにマスクして前記複数の第2マスク問題を生成する工程と、
前記複数の第2マスク問題を前記機械読解モデルに入力し、且つ前記機械読解モデルが複数の推定答えの複数の確率に基づいて前記複数の第2マスク問題に対応する複数の第2答えを判定する工程と、
前記複数の第2答えの複数のフィードバックスコアに基づいて前記機械読解モデルを訓練する工程と、
を含む請求項2に記載の機械読解方法。
【請求項4】
前記機械読解モデルに従って前記対話生成モデルを生成する工程は、
複数の対話文を前記対話生成モデルに入力する工程と、
前記対話生成モデルが前記機械読解モデルに従って複数の返答文を生成する工程と、
複数の返答文の複数のフィードバックスコアに基づいて前記対話生成モデルを訓練する工程と、
を含む請求項1に記載の機械読解方法。
【請求項5】
前記複数の対話文及び前記複数の返答文に基づいて複数の生成ポリシーを生成する工程と、
前記複数の生成ポリシーのうちの最適なものに基づいて前記対話を生成する工程と、
を更に備える請求項4に記載の機械読解方法。
【請求項6】
訓練データ及び複数の第1マスク問題に基づいて機械読解モデルを確立し、且つ複数の第2マスク問題を前記機械読解モデルに入力して前記機械読解モデルを訓練するための機械読解回路と、
前記機械読解回路に結合され、前記機械読解モデルに従って対話生成モデルを生成し、且つ前記対話生成モデルに従って対話を生成するための対話生成回路と、
前記機械読解回路と前記対話生成回路に結合され、前記機械読解モデル及び前記対話生成モデルを記憶するためのメモリと、
を含む機械読解システム。
【請求項7】
前記機械読解回路は、更に、前記訓練データにおける少なくとも1つの文字をランダムにマスクして前記複数の第1マスク問題を生成するために用いられ、且つ前記訓練データを探して前記複数の第1マスク問題に対応する複数の第1答えを取得するために用いられる請求項6に記載の機械読解システム。
【請求項8】
前記機械読解回路は、更に、前記訓練データにおける少なくとも1つの文字をランダムにマスクして前記複数の第2マスク問題を生成するために用いられ、前記複数の第2マスク問題を前記機械読解モデルに入力して、前記機械読解モデルが複数の推定答えの複数の確率に基づいて前記複数の第2マスク問題に対応する複数の第2答えを判定し、且つ前記複数の第2答えの複数のフィードバックスコアに基づいて前記機械読解モデルを訓練するために用いられる請求項7に記載の機械読解システム。
【請求項9】
前記対話生成回路は、更に、複数の対話文を前記対話生成モデルに入力するために用いられ、前記対話生成モデルが前記機械読解モデルに従って複数の返答文を生成するために用いられ、且つ複数の返答文の複数のフィードバックスコアに基づいて前記対話生成モデルを訓練するために用いられる請求項6に記載の機械読解システム。
【請求項10】
前記対話生成回路は、更に、前記複数の対話文及び前記複数の返答文に基づいて複数の生成ポリシーを生成するために用いられ、且つ前記複数の生成ポリシーのうちの最適なものに基づいて前記対話を生成するために用いられる請求項9に記載の機械読解システム。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、機械読解方法及び機械読解システムに関する。詳細には、本願は、マスク学習による機械読解方法及び機械読解システムに関する。なお、本明細書において「マスク学習」とは、文章中の句(フレーズ)をマスクして学習することを意味し、「マスク問題」とは一部のテキストがマスクされている文章を意味する。
【背景技術】
【0002】
機械読解(Machine Reading Comprehension;MRC)は、コンピュータに文章を閲覧させ且つ関連する問題を解く技術である。ここ数年来、各業界の文字データが大量に生成され、従来の人工処理方式を用いると、処理速度が遅く、オーバーヘッドが大きく、問答ペアが全面的にカバーできないなどの問題に直面するため、機械読解に対する需要が徐々に高まっている。どのように大量の文字データを効果的に読解するかは、本分野で解決すべき問題の1つである。
【発明の概要】
【課題を解決するための手段】
【0003】
本開示の1つの態様によれば、訓練データ及び複数の第1マスク問題に基づいて機械読解モデルを確立する工程と、複数の第2マスク問題を機械読解モデルに入力して機械読解モデルを訓練する工程と、機械読解モデルに従って対話生成モデルを生成する工程と、対話生成モデルに従って対話を生成する工程と、を備える機械読解方法を提供する。
【0004】
本開示の別の態様は、訓練データ及び複数の第1マスク問題に基づいて機械読解モデルを確立し、且つ複数の第2マスク問題を機械読解モデルに入力して機械読解モデルを訓練するための機械読解回路と、機械読解回路に結合され、機械読解モデルに従って対話生成モデルを生成し、且つ対話生成モデルに従って対話を生成するための対話生成回路と、機械読解回路と対話生成回路に結合され、機械読解モデル及び対話生成モデルを記憶するためのメモリと、を含む機械読解システムを提供する。
【図面の簡単な説明】
【0005】
後続の段落における実施形態及び下記図面を参照して、本願の内容をよりよく理解することができる。
図1】本願のいくつかの実施例による機械読解システムの概略図である。
図2】本願のいくつかの実施例による機械読解方法のフローチャートである。
図3】本願のいくつかの実施例による図2における1つの工程のフローチャートである。
図4】本願のいくつかの実施例による図2における1つの工程のフローチャートである。
図5】本願のいくつかの実施例による図2における1つの工程のフローチャートである。
図6】本願のいくつかの実施例による生成ポリシーの概略図である。
【発明を実施するための形態】
【0006】
以下、図面及び詳細な記載で本願の精神を明瞭に説明し、当業者の誰でも、本願の実施例を理解した後、本願の精神と範囲から逸脱することなく、本願が教示した技術に変更及び修飾を加えることができる。
【0007】
本明細書の用語は、特定の実施例を記述するためのものに過ぎず、本願の限定を意味するものではない。単数形の「1つ」、「これ」、「この」、「本」及び「該当」は、本明細書で用いたように、同様に複数形も含む。
【0008】
本明細書で使用される「含む」、「備える」、「有する」、「含有する」などについては、すべて開放的な用語であり、つまり、含むがこれに限定されないこと、を意味する。
【0009】
本明細書で使用される用語(terms)については、特に明記されない限り、通常、各用語がこの分野で使用され、本願の内容と特別な内容での一般的な意味を持っている。本願を記述するための用語のいくつかは、本願に関する記述のさらなる案内を当業者に提供するために、以下又は本明細書の他のところで議論される。
【0010】
図1は、本願のいくつかの実施例による機械読解システム100の概略図である。一部の実施例において、図1を参照すると、機械読解システム100は、機械読解回路110と、対話生成回路130と、メモリ150と、を含む。一部の実施例において、機械読解回路110と、対話生成回路130と、メモリ150とは、相互に結合される。
【0011】
図2を参照すると、本開示をより良く理解するために、機械読解システム100の詳細な操作について、図2に示す実施例を組み合わせて説明する。図2は、本願のいくつかの実施例による機械読解方法200のフローチャートである。機械読解方法200は、図1に示す構造と同様又は類似ている機械読解システム100に適用することができるが、本開示は、図1における実施例の適用に限定されない。
【0012】
図2に示すように、機械読解方法200は、工程S210~S270を含む。
【0013】
工程S210において、訓練データ及び複数の第1マスク問題に基づいて機械読解モデルを確立する。一部の実施例において、工程S210は、図1における機械読解回路110により実行される。一部の実施例において、機械読解モデルは、図1におけるメモリ150に記憶される。
【0014】
図3を参照されたい。図3は、本願のいくつかの実施例による工程S210のフローチャートである。図3に示すように、工程S210は、工程S212及び工程S214を含む。
【0015】
工程S212において、訓練データにおける少なくとも1つの文字をランダムにマスクして第1マスク問題を生成する。一部の実施例において、訓練データは、多くの文字を含むテキストデータであり、少なくとも1つの文字は、単詞又は文であってもよい。一部の実施例において、機械読解回路110は、句読点に基づいて文をマスクする。
【0016】
例えば、一部の実施例において、テキストデータに文字内容「おはよう、私は朝食を食べに行きたいのですが、何が食べたいですか?」が含まれると仮定すると、機械読解回路110は、句読点のコンマ及び疑問符に基づいて、文の、句読点のコンマと句読点のピリオドとの間にある文字をマスクして、マスク問題「おはよう、私は朝食を食べに行きたいのですが、何が食べたいですか、[マスク]?」を生成する。別の実施例において、機械読解回路110は、単詞だけをマスクしてマスク問題、例えば「おはよう、私は[マスク]を食べに行きたいのですが、何が食べたいですか?」を生成する。
【0017】
一部の実施例において、機械読解回路110は、更に、訓練データにおける文字を符号に変換した後、符号の方式でマスクし、マスク問題、例えば「1.2、3.5、1.5、[マスク]?」を生成するために用いられる。
【0018】
工程S214において、訓練データを探して第1マスク問題に対応する第1答えを取得する。例えば、マスク問題「おはよう、私は[マスク]を食べに行きたいのですが、何が食べたいですか?」に対して、機械読解回路110は、テキスト内容を探した後、答えとしての「朝食」を取得する。
【0019】
一部の実施例において、機械読解回路110は、上記工程S212及び工程S214によりマスク問題を確立し且つ対応する答えを探し、且つマスク問題及び対応する答えに基づいて機械読解モデルを確立する。
【0020】
いくつかの実施例において、機械読解モデルは、ルックアップテーブル、及び、ニューラルネットワークに基づく分類モデルを含んでもよい。ニューラルネットワークに基づく分類モデルは、複数のノード及びノード間の接続回線の重みを含み、各ノードは、1つのマスク問題又は1つの答えに対応する。機械読解回路110は、ニューラルネットワークに基づく分類モデルによりマスク問題を確立し且つ訓練データにおいて対応する答えを検索すると同時に、複数のノード及びノード間の接続回線の重みを確立する。これに基づいて、機械読解回路110は、ニューラルネットワークに基づく分類モデルによりノード及びノード間の接続回線の重みに基づいてマスク問題に対応する答えを探すことができる。
【0021】
ルックアップテーブルは、複数のマスク問題及び複数の答えを含む。複数の答えのそれぞれは、重み値又は確率値を含む。機械読解回路110は、マスク問題を確立し且つ訓練データにおいて対応する答えを検索すると同時に、複数のマスク問題及びそれに対応する答えを含む重み値又は確率値を確立することができる。これに基づいて、機械読解回路110は、マスク問題に基づいてルックアップテーブルにおいて対応する回答及びその重み値又は確率値を検索する。
【0022】
工程S230において、複数の第2マスク問題を機械読解モデルに入力して機械読解モデルを訓練する。一部の実施例において、工程S230は、図1における機械読解回路110により実行される。
【0023】
図4を参照されたい。図4は、本願のいくつかの実施例による工程S230のフローチャートである。図4に示すように、工程S230は、工程S232~工程S236を含む。
【0024】
工程S232において、訓練データにおける少なくとも1つの文字をランダムにマスクして複数の第2マスク問題を生成する。一部の実施例において、少なくとも1つの文字は、単詞又は文であってもよい。一部の実施例において、機械読解回路110は、句読点に基づいて文をマスクする。例えば、訓練データに文字内容「おはよう、私は朝食を食べに行きたいのですが、何が食べたいですか?」が含まれ、マスク問題は、「おはよう、私は朝食を食べに行きたいのですが、何が食べたいですか、[マスク]?」又は「おはよう、私は[マスク]を食べに行きたいのですが、何が食べたいですか?」であってもよい。
【0025】
工程S234において、マスク問題を機械読解モデルに入力し、且つ機械読解モデルが複数の推定答えの複数の確率に基づいて複数の第2マスク問題に対応する複数の第2答えを判定する。
【0026】
例えば、機械読解回路110は、マスク問題「おはよう、私は[マスク]を食べに行きたいのですが、何が食べたいですか?」に対して、マスク問題を機械読解モデルに入力する。
【0027】
工程S234において、機械読解モデルは、工程S210において学習した第1マスク問題及びそれに対応する第1答えに基づいて工程S234における第2マスク問題に対応する推定答えを生成する。工程S234において、機械読解モデルは、訓練データにおいて答えを探していない。
【0028】
例えば、一部の実施例において、機械読解モデルが工程S210において学習した第1マスク問題及びそれに対応する第1答えに基づいて、「丘」、「朝食」及び「保険」を含む、マスク問題「おはよう、私は[マスク]を食べに行きたいのですが、何が食べたいですか?」に対応する複数の推定答えを生成する。
【0029】
推定答えのそれぞれは、確率を含む。一部の実施例において、機械読解モデルが工程S210において学習した第1マスク問題及びそれに対応する第1答えに基づいて、マスク問題「おはよう、私は[マスク]を食べに行きたいのですが、何が食べたいですか?」に対応する確率リストを生成する。一実施例において、確率リストは、
丘[0.2]
朝食[0.9]
保険[0.1]である。
【0030】
一部の実施例において、機械読解モデルは、確率リストにおける確率が最も高いものを判定し、且つ確率が最も高いものに対応する推定答えを対応するマスク問題の答えとする。
【0031】
例えば、上記確率リストにおいて、推定答え「朝食」の確率は、最も高い。機械読解モデルは、推定答え「朝食」をマスク問題「おはよう、私は[マスク]を食べに行きたいのですが、何が食べたいですか?」の答えとする。
【0032】
注意すべきこととして、上記実施例において、確率リストを例とする。他のいくつかの実施例において、確率リストは、重み値リスト、スコアリスト又は他の方式で表されてもよい。
【0033】
工程S236において、複数の第2答えの複数のフィードバックスコアに基づいて機械読解モデルを訓練する。例えば、工程S234において、マスク問題「おはよう、私は[マスク]を食べに行きたいのですが、何が食べたいですか?」の答えが「朝食」である場合に、フィードバックスコアは、[+1]である。工程S234において、マスク問題「おはよう、私は[マスク]を食べに行きたいのですが、何が食べたいですか?」の答えが「保険」である場合に、フィードバックスコアは、[-1]である。一部の実施例において、フィードバックスコア[+1]は、答えが正しいこと、を表す一方、フィードバックスコア[-1]は、答えが誤ること、を表す。様々なフィードバックスコアは、いずれも本願の実施形態内にあり、本願の実施形態は、上記フィードバックスコアに限定されない。
【0034】
一部の実施例において、機械読解回路110は、更に、機械読解モデルを最適化させるように、上記マスク問題、答え及びそのフィードバックスコアに基づいて機械読解モデルを訓練するために用いられる。
【0035】
工程S250において、機械読解モデルに従って対話生成モデルを生成する。一部の実施例において、工程S250は、図1における対話生成回路130により実行される。一部の実施例において、対話生成モデルは、図1におけるメモリ150に記憶される。
【0036】
図5を併せて参照されたい。図5は、本願のいくつかの実施例による工程S250のフローチャートである。図3に示すように、工程S250は、工程S252~工程S256を含む。
【0037】
工程S252において、複数の対話文を対話生成モデルに入力する。例えば、使用者は、入出力回路(図示しない)により第1対話文「おはよう、起きましたか?」を機械読解システム100に入力する。
【0038】
工程S254において、対話生成モデルが機械読解モデルに従って複数の返答文を生成する。例えば、対話生成回路130は、第1対話文「おはよう、起きましたか?」に基づいて、対話生成モデルに従って第1返答文「おはよう、先ほど起きました」を生成する。一部の実施例において、上記対話文と返答文は、工程S210の訓練データに存在し、機械読解モデルが学習した後、対話生成モデルは、直接使用して返答文を生成することができる。このように、対話文の入力と返答文の生成を複数回繰り返すと、対話生成回路130は、対話文と返答文に基づいて対話生成モデルを生成することができる。
【0039】
工程S256において、複数の返答文の複数のフィードバックスコアに基づいて対話生成モデルを訓練する。例えば、第1対話文「おはよう、起きましたか?」に基づいて、対話生成回路130が対話生成モデルに従って第1返答文「おはよう、先ほど起きました」を生成する場合に、フィードバックスコアは、[+1]である一方、第1対話文「おはよう、起きましたか?」に基づいて、対話生成回路130が対話生成モデルに従って第1返答文「特価3つ100元」を生成する場合に、フィードバックスコアは、[-1]である。一部の実施例において、フィードバックスコア[+1]は、答えが正しいこと、を表す一方、フィードバックスコア[-1]は、答えが誤ること、を表す。
【0040】
一部の実施例において、対話生成回路130は、更に、対話生成モデルを最適化させるように、上記対話文、返答文及びそのフィードバックスコアに基づいて対話生成モデルを訓練するために用いられる。
【0041】
いくつかの実施例において、対話生成モデルは、対話テンプレート及び対応する文字内容と、ニューラルネットワークに基づく分類モデルと、ルックアップテーブルと、を含んでもよい。
【0042】
対話テンプレートは、機械読解モデルに従って生成した対話テンプレートであってもよい。マスク文により、マスク問題の後に続く文を取得して、対話テンプレートを確立する。
【0043】
ニューラルネットワークに基づく分類モデルは、複数のノード及びノード間の接続回線の重みを含み、各ノードは、1つの対話文又は1つの返答文に対応する。対話生成回路130は、ニューラルネットワークに基づく分類モデルにより対話文を確立して機械読解モデルにおいて対応する返答文を検索すると同時に、複数のノード及びノード間の接続回線の重みを確立することができる。これに基づいて、対話生成回路130は、ニューラルネットワークに基づく分類モデルによりノード及びノード間の接続回線の重みに基づいて対話文に対応する返答文を探すことができる。
【0044】
ルックアップテーブルは、複数の対話文及び複数の返答文を含む。複数の返答文のそれぞれは、重み値又は確率値を含む。対話生成回路130は、機械読解モデルにより対話文に対応する返答文を検索すると同時に、返答文の重み値又は確率値を確立し、且つ返答文に続く対話文の重み値又は確率値を更に確立することができる。これに基づいて、対話生成回路130は、対話文に基づいてルックアップテーブルにおいて対応する返答文及びその重み値又は確率値を検索する。
【0045】
上記実施例において、機械読解モデル及び対話生成モデルは、日常対話内容を生成するために用いられるが、本開示は、これに限定されない。一実施例において、機械読解モデル及び対話生成モデルは、法律条文内容又は法律文書に対して上記のマスクによる訓練を行うことができ、詳細な説明は以下の段落を参照してください。
【0046】
図3を再び参照すると、例えば、工程S212において、訓練データは、法律文書である。第1マスク問題は、例えば「本法でいう特許は、次の3種類に分けられる。一、発明特許。二、[マスク]。三、意匠。」であってもよい。
【0047】
工程S214において、機械読解回路110は、マスク問題「本法でいう特許は、次の3種類に分けられる。一、発明特許。二、[マスク]。三、意匠。」に対して、テキスト内容を探した後、答え「考案」を取得する。
【0048】
これに基づいて、図2の工程S210において、機械読解回路110は、法律文書をランダムにマスクして機械読解モデルを確立する。
【0049】
そして、工程S230において、機械読解回路110は、複数の第2マスク問題機械に基づいて読解モデルを訓練する。詳細には、図4を併せて参照すると、工程S232において、訓練データにおける少なくとも1つの文字をランダムにマスクして複数の第2マスク問題を生成する。第2マスク問題は、例えば「本法でいう特許は、次の3種類に分けられる。一、[マスク]。二、考案。三、意匠。」であってよい。
【0050】
工程S234において、機械読解回路110は、上記第2マスク問題に基づいて、複数の推定答え及びそれに対応する確率リストを取得する。例えば、
発明特許[0.9]
牛肉麺[0.1]
特許要件[0.2]である。
【0051】
機械読解モデルは、上記確率リストに基づいて、推定答え「発明特許」をマスク問題「本法でいう特許は、次の3種類に分けられる。一、[マスク]。二、考案。三、意匠。」の答えとする。
【0052】
そして、工程S236において、機械読解回路110は、第2マスク問題に対応する複数の第2答え及びそのフィードバックスコアに基づいて機械読解モデルを訓練することができる。例えば、工程S234において、マスク問題「本法でいう特許は、次の3種類に分けられる。一、[マスク]。二、考案。三、意匠。」の答えが「発明特許」である場合に、フィードバックスコアは、[+1]である。工程S234において、マスク問題「本法でいう特許は、次の3種類に分けられる。一、[マスク]。二、考案。三、意匠。」の答えが「牛肉麺」である場合に、フィードバックスコアは、[-1]である。一部の実施例において、フィードバックスコア[+1]は、答えが正しいこと、を表す一方、フィードバックスコア[-1]は、答えが誤ること、を表す。様々なフィードバックスコアは、いずれも本願の実施形態内にあり、本願の実施形態は、上記フィードバックスコアに限定されない。そして、工程S250において、再機械読解モデルに従って対話生成モデルを生成する。
【0053】
図5を参照すると、工程S252において、複数の対話文を対話生成モデルに入力する。第1対話文は、例えば「特許にはいくつかの種類があるか?」であってもよい。
【0054】
工程S254において、対話生成回路130は、第1対話文「特許にはいくつかの種類があるか?」に基づいて、機械読解モデルに従って第1返答文「特許は、3種類に分けられる。」を生成する。このように、対話生成回路130は、対話文の入力と返答文の生成を複数回繰り返し、対話文と返答文に基づいて対話生成モデルを生成することができる。
【0055】
工程S256において、複数の返答文の複数のフィードバックスコアに基づいて対話生成モデルを訓練する。例えば、第1対話文「特許にはいくつかの種類があるか?」に基づいて、対話生成回路130が対話生成モデルに従って第1返答文「3種類」を生成する場合に、フィードバックスコアは、[+1]である一方、第1対話文「特許にはいくつかの種類があるか?」に基づいて、対話生成回路130が対話生成モデルに従って第1返答文「私は牛肉麺が食べたい」を生成する場合に、フィードバックスコアは、[-1]である。一部の実施例において、フィードバックスコア[+1]は、答えが正しいこと、を表す一方、フィードバックスコア[-1]は、答えが誤ること、を表す。
【0056】
これに基づいて、一部の実施例において、対話生成回路130は、更に、対話生成モデルを最適化させるように、上記対話文、返答文及びそのフィードバックスコアに基づいて対話生成モデルを訓練するために用いられる。
【0057】
一部の実施例において、複数の対話文及び返答文は、生成ポリシーを形成する。図6を併せて参照されたい。図6は、本願のいくつかの実施例による生成ポリシーの概略図である。
【0058】
図6に示すように、図6において、対話生成回路130が対話文Q1に基づいて生成する可能性のある返答文は、返答文A1、返答文A2又は返答文A3を含む。また、対話生成回路130が対話文Q1に基づいて返答文A1を返信した後、対話生成回路130が後続の対話文Q2(図示しない)及び返答文A1に基づいて更に生成する可能性のある返答文は、返答文A11又は返答文A12を含む。対話生成回路130が対話文Q1に基づいて返答文A2を返信した後、対話生成回路130が後続の対話文Q2(図示しない)及び返答文A2に基づいて更に生成する可能性のある返答文は、返答文A21又は返答文A22を含む。また、対話生成回路130が対話文Q1に基づいて返答文A3を返信した後、対話生成回路130が後続の対話文Q2(図示しない)及び返答文A3に基づいて更に生成する可能性のある返答文は、返答文A31又は返答文A32を含む。上記対話文及び返答文は、例示的に説明するためのものに過ぎず、本願の実施形態は、以上に限定されない。
【0059】
一部の実施例において、対話文Q1に基づいて返答文A1及びA11を生成して生成ポリシーS1を形成し、対話文Q1に基づいて返答文A1及びA12を生成して生成ポリシーS2を形成し、対話文Q1に基づいて返答文A2及びA21を生成して生成ポリシーS3を形成し、対話文Q1に基づいて返答文A2及びA22を生成して生成ポリシーS4を形成し、対話文Q1に基づいて返答文A3及びA31を生成して生成ポリシーS5を形成し、対話文Q1に基づいて返答文A3及びA32を生成して生成ポリシーS6を形成する。
【0060】
一部の実施例において、返答文A1~A3、A11~A32のそれぞれは、フィードバックスコアを含む。一部の実施例において、対話生成回路130は、複数の返答文及びそれらのそれぞれに含まれるフィードバックスコアに基づいて、対話生成モデルを最適化させる。
【0061】
工程S270において、対話生成モデルに従って対話を生成する。一部の実施例において、工程S270は、図1における対話生成回路130により実行される。図6を参照すると、一部の実施例において、対話生成回路130は、複数の生成ポリシーS1~S6のそれぞれの総フィードバックスコアを計算して、複数の生成ポリシーS1~S6のそれぞれの総フィードバックスコアのうちのスコアが最も高いものを最適なものとし、且つ最適なものの生成ポリシーに基づいて対話を生成する。
【0062】
例えば、一部の実施例において、対話生成回路130は、返答文A1及びA11のフィードバックスコアを加算して生成ポリシーS1の総フィードバックスコアとし、残りは、このように類推される。
【0063】
生成ポリシーS1~S6における総フィードバックスコアのうちのスコアが最も高いものは生成ポリシーS1である場合に、対話生成回路130は、生成ポリシーS1に基づいて対話を生成する。
【0064】
前述実施例に基づいて、本願の実施形態は、機械読解方法及び機械読解システムを提供し、マスクにより訓練データの学習を行った後、フィードバックスコアを追加して機械読解モデルを最適化させる。なお、機械読解モデルに従って対話生成モデルを生成し、且つフィードバックスコアにより対話生成モデルを最適化させて、対話を生成する。本願の実施形態は、大量の文字データを効果的に読解し、且つ閲覧された文字データに基づいて対話を生成することができ、機械学習の有効性を増加させることができる。
【0065】
一部の実施例において、上記のような機械読解システム100は、電子装置又は電子システムに統合することができる。いくつかの実施例において、サーバーは、中央処理ユニットを含むクラウドサーバとして実施することができる。いくつかの実施例において、サーバーは、単一のプロセッサ又は複数のマイクロプロセッサの組み合わせであってもよいが、これらに限定されず、メモリと入出力回路と、を含む。
【0066】
一部の実施例において、機械読解回路110及び対話生成回路130は、中央処理ユニット(central processor unit;CPU)、マイクロプロセッサ(MCU)、サーバー又はデータアクセス、データ計算、データ記憶、データ伝送と受信、又は類似している機能を有する他の演算回路又は素子であってもよい。
【0067】
一部の実施例において、機械読解回路110及び対話生成回路130のそれぞれは、プロセッサと入出力回路と、を含む。プロセッサは、データアクセス、データ計算、データ記憶、又は類似している機能を有する回路又は素子であってもよい。入出力回路は、データ伝送受信又は類似している機能を有する回路又は素子であってもよい。
【0068】
一部の実施例において、メモリ150は、データ記憶、データアクセス又は類似している機能を有する回路又は素子であってもよい。
【0069】
本願は、詳細な実施例で上記のように開示されているが、他の実行可能な実施形態を排除しない。したがって、本願の保護範囲は、前述の実施例によって制限されなく、後付の特許請求の範囲によって規定されているものを基準とすべきである。
【0070】
当業者にとっては、本願の精神及び範囲を逸脱することなく、本願に対して様々な変更及び修飾を行うことができる。前述の実施例に基づいて、本願に対して行ったすべての変更と修飾は、本願の保護範囲内にも含まれる。
【符号の説明】
【0071】
100:機械読解システム
110:機械読解回路
130:対話生成回路
150:メモリ
200:機械読解方法
S210、S230、S250、S270:工程
S212、S214:工程
S232、S234、S236:工程
S252、S254、S256:工程
Q1:対話文
A1、A2、A3:返答文
A11、A12、A21、A22、A31、A32:返答文
S1、S2、S3、S4、S5、S6:生成ポリシー
図1
図2
図3
図4
図5
図6