IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ハイパーコネクト インコーポレイテッドの特許一覧

特開2023-33135例示基盤生成モデルを用いた対話情報生成方法およびその装置
<>
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図1
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図2
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図3
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図4
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図5
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図6
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図7
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図8
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図9
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図10
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図11
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図12
  • 特開-例示基盤生成モデルを用いた対話情報生成方法およびその装置 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023033135
(43)【公開日】2023-03-09
(54)【発明の名称】例示基盤生成モデルを用いた対話情報生成方法およびその装置
(51)【国際特許分類】
   G06N 20/00 20190101AFI20230302BHJP
【FI】
G06N20/00
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022117121
(22)【出願日】2022-07-22
(31)【優先権主張番号】10-2021-0112545
(32)【優先日】2021-08-25
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2022-0010973
(32)【優先日】2022-01-25
(33)【優先権主張国・地域又は機関】KR
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.JAVA
(71)【出願人】
【識別番号】519130063
【氏名又は名称】ハイパーコネクト リミテッド ライアビリティ カンパニー
(74)【代理人】
【識別番号】100094569
【弁理士】
【氏名又は名称】田中 伸一郎
(74)【代理人】
【識別番号】100103610
【弁理士】
【氏名又は名称】▲吉▼田 和彦
(74)【代理人】
【識別番号】100109070
【弁理士】
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100067013
【弁理士】
【氏名又は名称】大塚 文昭
(74)【代理人】
【識別番号】100086771
【弁理士】
【氏名又は名称】西島 孝喜
(74)【代理人】
【識別番号】100109335
【弁理士】
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100120525
【弁理士】
【氏名又は名称】近藤 直樹
(74)【代理人】
【識別番号】100139712
【弁理士】
【氏名又は名称】那須 威夫
(74)【代理人】
【識別番号】100210239
【弁理士】
【氏名又は名称】富永 真太郎
(72)【発明者】
【氏名】エンフバヤル エルデニー
(72)【発明者】
【氏名】ボムス キム
(72)【発明者】
【氏名】ソクジュン ソ
(72)【発明者】
【氏名】サンギル アン
(72)【発明者】
【氏名】ブ ル チャン
(72)【発明者】
【氏名】スンジュ ハン
(57)【要約】
【課題】より多様でありつつ流暢な回答を生成する例示-基盤生成モデルを提案する。
【解決手段】本開示によれば、第1コンテキスト情報を確認する段階;第1モデルに基づいて、第1コンテキスト情報に対応する第1応答セットを確認する段階;第1コンテキスト情報に対応するゴールド応答情報に基づいて、第1応答セットから選択された応答サブセットを確認する段階;および第1コンテキスト情報および応答サブセットに基づいて第2モデルを学習させる段階;を含む、電子装置において対話モデルを訓練する方法が開示される。
【選択図】図2
【特許請求の範囲】
【請求項1】
電子装置における対話モデル訓練方法であって、
第1コンテキスト情報を確認する段階と、
第1モデルに基づいて前記第1コンテキスト情報に対応する第1応答セットを確認する段階と、
前記第1コンテキスト情報に対応する適合応答情報に基づいて前記第1応答セットから選択された応答サブセットを確認する段階と、
前記第1コンテキスト情報および前記応答サブセットに基づいて前記第2モデルを学習させる段階と、を含む、
対話モデル訓練方法。
【請求項2】
前記応答サブセットは、前記適合応答情報および群集アルゴリズムに基づいて確認される候補応答内から選択される、
請求項1に記載の対話モデル訓練方法。
【請求項3】
前記応答サブセットは、前記候補応答のうち、エンベディング空間内の前記適合応答情報に対応する値から特定範囲内に対応する少なくとも1つの回答を除くことによって選択される、
請求項2に記載の対話モデル訓練方法。
【請求項4】
前記対話モデル訓練方法は、
前記応答サブセットに含まれる各応答に関して、前記第1コンテキスト情報に基づいて加重値を設定することによって加重値のセット(a set of weights)を決定する段階をさらに含み、
前記第2モデルを学習させる段階は、前記加重値のセットに基づいて前記第2モデルを学習させる、
請求項1に記載の対話モデル訓練方法。
【請求項5】
前記加重値のセットが含む各加重値は、前記応答サブセット内の各回答に対する関連性点数に基づいて設定され、
前記回答に対する関連性点数は、エンベディング空間上において前記第1コンテキスト情報に対応する値および前記回答に対応する値に基づいて計算される、
請求項4に記載の対話モデル訓練方法。
【請求項6】
前記第2モデルは、ユーザーより獲得した対話情報に関する第2コンテキスト情報を確認し、前記第2コンテキスト情報に基づいて前記第2コンテキスト情報に関する適合応答情報を提供する、
請求項4に記載の対話モデル訓練方法。
【請求項7】
前記第1コンテキスト情報は、ユーザーより獲得した少なくとも1つ以上の対話情報を含む、
請求項1に記載の対話モデル訓練方法。
【請求項8】
前記第2モデルは、前記加重値のセットに基づいて計算された損失関数を用いて逆伝播動作を遂行することによって訓練(train)され、
前記加重値のセットが含む各加重値は、各回答に対する関連性点数を正規化することによって計算される、
請求項5に記載の対話モデル訓練方法。
【請求項9】
対話情報生成方法を遂行する電子装置であって、
少なくとも1つのプログラムが保存されたメモリーと、プロセッサーと、を含み、
前記プロセッサーは、第1コンテキスト情報を確認し、第1モデルに基づいて前記第1コンテキスト情報に対応する第1応答セットを確認し、第2モデルに基づいて前記第1コンテキスト情報に対応する適合応答情報を確認し、前記適合応答情報に基づいて前記第1応答セットから選択された応答サブセットを確認し、前記第1コンテキスト情報および前記応答サブセットに基づいて前記第2モデルを学習させる、
電子装置。
【請求項10】
非一時的コンピュータ読み取り可能保存媒体として、
コンピュータ読み取り可能命令語を保存するように構成される媒体を含み、
前記コンピュータ読み取り可能命令語がプロセッサーによって実行される場合、前記プロセッサーは、
第1コンテキスト情報を確認する段階と、
第1モデルに基づいて前記第1コンテキスト情報に対応する第1応答セットを確認する段階と、
第2モデルに基づいて前記第1コンテキスト情報に対応する適合応答情報を確認する段階と、
前記適合応答情報に基づいて前記第1応答セットから選択された応答サブセットを確認する段階と、
前記第1コンテキスト情報および前記応答サブセットに基づいて前記第2モデルを学習させる段階と、を遂行する、
非一時的コンピュータ読み取り可能保存媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の多様な実施形態は、例示基盤生成モデルを用いた対話情報生成方法およびその装置に関する。
【背景技術】
【0002】
人工知能(artificial intelligence、AI)は、多様な産業分野において活用されている。人間の思考と類似した方式によって動作する人工知能は、標本になる対象が接近しようと意図する物体の特徴(feature)を抽出するのに活用され得る。
【0003】
特定の対話の主題が定まらず、自然な対話を引き出せるチャットボット(chatbot)を作るための分野として、オープン-ドメイン対話(Open-domain Conversaion)の分野がある。オープン-ドメイン対話(Open-domain Conversaion)の分野において使用される人工知能モデルは、大きく生成基盤対話モデル(Generation-based Conversaion Model)または検索基盤対話モデル(Search-based Conversation Model)などに区分され得る。
【0004】
生成基盤対話モデルは、シーケンスツーシーケンス(Sequence to Sequence)アーキテクチャに基づいて、抽出および入力された対話文脈情報(context)を用いて、対話文脈情報に適切な応答を生成する。検索基盤対話モデルは、応答セット(Response Set)が高い優先順位の応答を含むように、予め定義された状態において入力された対話文脈情報に最も相応しい応答を応答セットから検索して応答としてリターンする。
【0005】
生成基盤対話モデルは、大きなスケールの言語モデルを共に使用したときに、言語モデルの豊富な知識に基づいて与えられた対話文脈情報に相応しい流暢な応答を生成する利点があるが、生成基盤対話モデルは、最大限自然な応答を生成するために対話の流れを妨げない無難かつつまらない応答を生成する傾向がある。
【0006】
一方、検索基盤対話モデルは、確認または入力された対話文脈情報に相応しくない異質な応答を抽出することもあるが、生成基盤対話モデルに比べて、より多様かつ興味深い応答を引き出す利点がある。また、高性能検索ライブラリー(例えば、FAISSなど)と共に使用したときに、生成基盤対話モデルとは比較的、対話文脈情報に適切な応答を早く抽出できる利点もある。
【0007】
従って、生成基盤対話モデルの自然な応答生成能力と、検索基盤対話モデルの多様かつ面白い応答を生成する2つのモデルの利点を活用するために、与えられた対話文脈情報に関して検索基盤対話モデルが抽出する応答を生成基盤対話モデルの例示(Examplar)として提供し、生成基盤対話モデルは、与えられた例示をより自然な応答として生成する例示-基盤生成(Exemplar based Generation)モデルが提案されてきた。
【発明の概要】
【発明が解決しようとする課題】
【0008】
既存に提案されてきた例示-基盤生成モデルは、検索基盤対話モデルが抽出および提供する回答を活用せず無視する場合、または与えられた例示を考慮せずにそのまま同一の回答として提供する場合が発生し得る。また、既存に提案されてきた例示-基盤生成モデルは、時間の流れによって前述した場合に学習が偏る傾向がある。
【0009】
従って、実施形態に係る例示基盤生成モデルを用いた対話情報生成方法は、前述した問題点を克服して与えられた例示を適切に用いて、より多様でありつつ流暢な回答を生成する例示-基盤生成モデルを提案する。
【課題を解決するための手段】
【0010】
実施形態に係る例示基盤生成モデルを用いた対話情報生成方法は、第1コンテキスト情報を確認する段階;第1モデルに基づいて第1コンテキスト情報に対応する第1応答セットを確認する段階;前記第1コンテキスト情報に対応する適合応答情報に基づいて前記第1応答セットから選択された応答サブセットを確認する段階;および前記第1コンテキスト情報および前記応答サブセットに基づいて前記第2モデルを学習させる段階;のうち少なくとも1つを含むことができる。
【0011】
また、実施形態に係る応答サブセットは、前記適合応答情報および群集アルゴリズムに基づいて確認される候補応答内から選択され得る。
【0012】
また、実施形態に係る前記応答サブセットは、前記候補応答のうち、エンベディング空間内の前記適合応答情報に対応する値から特定範囲内に対応する少なくとも1つの回答を除くことによって選択され得る。
【0013】
さらに、実施形態に係る前記対話モデル訓練方法は、前記応答サブセットに含まれる各応答に関して、前記第1コンテキスト情報に基づいて加重値を設定することによって加重値のセット(a set of weights)を決定する段階をさらに含むことができ、前記第2モデルを学習させる段階は、前記加重値のセットに基づいて前記第2モデルを学習させることができる。
【0014】
そのうえ、実施形態に係る前記加重値のセットが含む各加重値は、前記応答サブセット内の各回答に対する関連性点数に基づいて設定され得、前記回答に対する関連性点数は、エンベディング空間上において前記第1コンテキスト情報に対応する値および前記回答に対応する値に基づいて計算され得る。
【0015】
また、実施形態に係る前記第2モデルは、ユーザーより獲得した対話情報に関する第2コンテキスト情報を確認し、前記第2コンテキスト情報に基づいて、前記第2コンテキスト情報に関する適合応答情報を提供することができる。
【0016】
さらに、実施形態に係る前記第1コンテキスト情報は、ユーザーより獲得した少なくとも1つ以上の対話情報を含むことができる。
【0017】
そのうえ、実施形態に係る第2モデルは、前記加重値のセットに基づいて計算された損失関数を用いて逆伝播動作を遂行することによって訓練(train)され得、前記加重値のセットが含む各加重値は、各回答に対する関連性点数を正規化することによって計算され得る。
【発明の効果】
【0018】
実施形態に係る例示基盤生成モデルを用いた対話情報生成方法は、検索モデル200と生成モデル201の組み合わせに基づいて対話のコンテキスト情報に適した回答を抽出するように学習することを含むので、豊富な知識に基づいて与えられた対話コンテキストに相応しい流暢な回答を生成すると同時に、多様かつ興味深い回答を生成できる効果を提供することができる。
【0019】
実施形態に係る電子装置は、候補例示回答のうち、エンベディング空間上において適合応答情報に対応する値から過度に近い(または関連性の高い)範囲内の回答を排除することによって、生成モデル201が文脈に適切でありつつ多様な回答を導出するように学習できるよう助力する。
【0020】
実施形態に係る電子装置は、例示回答および各例示回答に対する加重値をさらに考慮して最適の回答を生成するよう学習することによって、例示回答を適切に反映して文脈に合い、不自然ではない回答を提供すると同時に、流暢でありつつ創意的な回答を生成できるように誘導することができ、対話モデルを使用するユーザーが飽きない対話を引き出すことができる。
【図面の簡単な説明】
【0021】
図1】本開示の多様な実施形態に係る電子装置の構成を示した概略的なブロック図である。
図2】実施形態に係る電子装置の構成図の一部を示す。
図3】実施形態に係る電子装置がコンテキスト情報から回答情報を生成する全般的な結果の例示を示した図面である。
図4】実施形態に係る電子装置がコンテキスト情報から回答情報を生成するように生成モデル部を訓練させる動作の例示を示す。
図5】実施形態に係る検索モデル部の動作の例示を示したものである。
図6】実施形態に係る検索モデル部が対話情報および回答情報を学習するための動作の結果の例示を示したものである。
図7】実施形態に係る電子装置の動作の例示を示したものである。
図8】実施形態に係る電子装置の動作の例示を示したものである。
図9】実施形態に係る電子装置のオープン-ドメイン対話モデルの性能を他のオープン-ドメイン対話(Open-domain Conversaion)モデルと比較したものを示す。
図10】実施形態に係る電子装置のオープン-ドメイン対話モデルの性能を他のオープン-ドメイン対話(Open-domain Conversaion)モデルと比較したものを示す。
図11】実施形態に係る電子装置のオープン-ドメイン対話モデルの性能を他のオープン-ドメイン対話(Open-domain Conversaion)モデルと比較したものを示す。
図12】実施形態に係る電子装置のオープン-ドメイン対話モデルの性能を他のオープン-ドメイン対話(Open-domain Conversaion)モデルと比較したものを示す。
図13】実施形態に係る関連性点数を計算する方法の例示を示したものである。
【発明を実施するための形態】
【0022】
実施形態において使用される用語は、本開示における機能を考慮しつつ、可能な限り現在広く使用される一般的な用語を選択したが、これは当分野に従事する技術者の意図または判例、新たな技術の出現などによって変わり得る。また、特定の場合は、出願人が任意に選定した用語もあり、この場合、該当する説明の部分において詳細にその意味を記載するであろう。従って、本開示において使用される用語は、単純な用語の名称ではなく、その用語が有する意味と本開示の全般にわたる内容に基づいて定義されなければならない。
【0023】
明細書全体において、ある部分がある構成要素を「含む」とするとき、これは特に反対の記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含むことができることを意味する。また、明細書に記載された「~部」、「~モジュール」などの用語は、少なくとも1つの機能や動作を処理する単位を意味し、これはハードウェアまたはソフトウェアとして具現されるか、ハードウェアとソフトウェアの結合によって具現され得る。
【0024】
明細書全体において記載された「a、b、およびcのうち少なくとも1つ」の表現は、「a単独」、「b単独」、「c単独」、「aおよびb」、「aおよびc」、「bおよびc」、または「a、b、cすべて」を包括することができる。
【0025】
以下において言及される「端末」は、ネットワークを通じてサーバーや他端末に接続できるコンピュータや携帯用端末として具現され得る。ここで、コンピュータは、例えば、ウェブブラウザ(WEB Browser)が搭載されたノートパソコン、デスクトップ(desktop)、ラップトップ(laptop)などを含み、携帯用端末は、例えば、携帯性と移動性が保障される無線通信装置として、IMT(International Mobile Telecommunication)、CDMA(Code Division Multiple Access)、W-CDMA(W-Code Division Multiple Access)、LTE(Long Term Evolution)などの通信基盤端末、スマートフォン、タブレットPCなどのようなすべての種類のハンドヘルド(Handheld)基盤の無線通信装置を含むことができる。
【0026】
以下では、添付した図面を参考して、本開示の実施形態について本開示が属する技術分野において通常の知識を有する者が容易に実施できるように詳細に説明する。しかし、本開示は、いくつかの相違する形態として具現され得、ここで説明する実施形態に限定されない。
【0027】
以下、本開示の実施形態を、添付された図面を参照して詳細に説明する。
【0028】
実施形態を説明するに際して、本開示の属する技術分野でよく知られており、本発明と直接的に関連のない技術内容に対しては、説明を省略する。これは、不要な説明を省略することにより、本発明の要旨を不明瞭にせず、より明確に伝達するためである。
【0029】
同様の理由により、添付図面において一部の構成要素は、誇張または省略されるか、概略的に図示された。また、各構成要素の大きさは、実際の大きさを全的に反映するものではない。各図面において、同一または対応する構成要素には同一の参照番号を与えた。
【0030】
本開示の利点および特徴、そして、それらを達成する方法は、添付される図面と共に詳細に後述されている実施形態を参照すれば明確になるであろう。しかし、本開示は、以下において開示される実施形態に限定されるものではなく、互いに異なる多様な形態として具現され得、単に本実施形態は、本開示の開示が完全なものとし、本開示が属する技術分野において通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものであり、本開示は請求項の範疇によって定義されるのみである。明細書全体にわたった同一の参照符号は、同一の構成要素を指称する。
【0031】
このとき、処理フローチャート図面の各ブロックとフローチャート図面の組み合わせは、コンピュータプログラムインストラクションによって遂行され得ることが理解できるであろう。これらのコンピュータプログラムインストラクションは、汎用コンピュータ、特殊用コンピュータ、またはその他のプログラム可能なデータプロセッシング装備のプロセッサーに搭載され得るため、コンピュータまたはその他のプログラム可能なデータプロセッシング装備のプロセッサーを通じて遂行されるそのインストラクションが、フローチャートブロック(ら)において説明された機能を遂行する手段を生成することになる。これらコンピュータプログラムインストラクションは、特定方式として機能を具現するために、コンピュータまたはその他のプログラム可能なデータプロセッシング装備を指向できるコンピュータ利用可能またはコンピュータ読み取り可能メモリーに保存することも可能であるため、そのコンピュータ利用可能またはコンピュータ読み取り可能メモリーに保存されたインストラクションは、フローチャートブロック(ら)において説明された機能を遂行するインストラクション手段を内包する製造品目を生産することも可能である。コンピュータプログラムインストラクションは、コンピュータまたはその他プログラム可能なデータプロセッシング装備上に搭載されることも可能であるため、コンピュータまたはその他プログラム可能なデータプロセッシング装備上において一連の動作段階が遂行されてコンピュータで実行されるプロセスを生成し、コンピュータまたはその他のプログラム可能なデータプロセッシング装備を遂行するインストラクションは、フローチャートブロック(ら)で説明された機能を実行するための段階を提供することも可能である。
【0032】
また、各ブロックは、特定された論理的機能(ら)を実行するための1つ以上の実行可能なインストラクションを含むモジュール、セグメント、またはコードの一部を示すことができる。また、いくつかの代替実行形態においては、ブロックにおいて言及された機能が順序を外れて発生することも可能であることに注目しなければならない。例えば、連続して図示されている2つのブロックは、事実上、実質的に同時に遂行されることも可能であり、またはそのブロックが時々該当する機能により逆順で遂行されることも可能である。
【0033】
人工知能(artificial intelligence、AI)は、人間のように思考かつ学習し、判断する一連の論理アルゴリズムを通じて、人間の知能を真似て動作するコンピュータプログラムの一種であり得る。いわゆる人工知能は、人間の神経系に似たニューラルネットワーク(neural network)を通じて人間の脳に対応するプロセッサーにおいて複雑な演算を処理することができる。本明細書においては、ディープラーニング(deep learning)に含まれ得るマシンラーニング(machine learning)、および他の学習を通じて特徴(feature)を正規化し、モデリング(modeling)する過程を説明する。本明細書内においては、マシンラーニングと機械学習の用語が混用して使用され得る。
【0034】
ニューラルネットワークは、人間の神経系の基礎単位となるニューロンの動作原理とニューロン間の連結関係をモデリングしたネットワークを意味し得る。ニューラルネットワークは、個別ノード(node)またはプロセッシング要素(processing element)をレイヤー(layer)形態に連結したデータ処理システムであり得る。ニューラルネットワークは、複数のレイヤーを含むことができ、それぞれのレイヤーは、複数のニューロンを含むことができる。また、ニューラルネットワークは、ニューロン間のデータを伝達できる神経刺激体に対応するシナプスを含むことができる。本明細書内においては、レイヤーと階層の用語が混用して使用され得る。
【0035】
具体的に、ニューラルネットワークは、人工のニューロンが反復的な学習を通じてシナプスの結合強度を変化させ、与えられた問題または変数が生じた問題に対する解決能力を有するデータ処理モデルを全般的に意味し得る。本明細書内においては、ニューラルネットワークと人工神経網の用語が混用して使用され得る。
【0036】
ニューラルネットワークは、トレーニングデータ(training data)を用いてトレーニングすることができる。具体的には、トレーニングは、入力データを分類(classification)、回帰分析(regression)、群集(clustering)するなどの目的を達成するために、特徴データを用いてニューラルネットワークのパラメータを決定する過程を含むことができる。より具体的には、パラメータを決定する要素として加重値(weight)または偏向(bias)があり得る。
【0037】
ニューラルネットワークは、入力データをトレーニングしてパターンによって分類または群集化することができ、トレーニングされたニューラルネットワークは、学習モデル(trained model)と指称され得る。具体的には、トレーニングの方式は、指導学習、非指導学習、準指導学習(semi-supervised learning)、強化学習(reinforced learning)に区分され得る。より具体的には、指導学習は、トレーニングデータから関数を類推するためのマシンラーニングの一方式であり得る。マシンラーニングを通じて類推された関数のうち、連続した結果値を出力することは回帰分析であり得、入力データのクラス(class)を予測して結果値を出力することが分類(classification)であり得る。
【0038】
指導学習においては、トレーニングデータに関するラベル(label)が与えられ得、ラベルは、ニューラルネットワークが推論しなければならない意味のある結果値を含むことができる。具体的には、ニューラルネットワークが推論しなければならない結果値は、ラベリングデータ(labeling data)であり得る。より具体的には、トレーニングデータとトレーニングデータに対応するラベリングデータは、1つのトレーニングセットとして構成され得、ニューラルネットワークは、トレーニングセットの形態として入力値と結果値を獲得することができる。
【0039】
トレーニングデータは、複数の特徴ベクトル(feature vector)を含むことができ、ニューラルネットワークは、トレーニングデータから個別特徴ベクトルにラベルを付けてラベリングデータを結果値として出力することができる。ニューラルネットワークは、トレーニングデータとラベリングデータを通じて各データの関連関係に対する関数を学習することができる。また、ニューラルネットワークにおいて学習した関数に対するフィードバックを通じて、個別ベクトルに対するパラメータが最適化され得る。
【0040】
オープン-ドメイン対話(Open-domain Conversation)のための例示-基盤生成モデル(Examplar‐based generative model)と例示-基盤生成モデルの向上方法に関して説明する。
【0041】
例示-基盤生成モデルは、検索モデル部によって抽出された例示回答(exemplars)に基づいて回答(response)を生成し、生成モデル(generative model)と検索モデル(retrieval model)を用いる。本明細書において説明する実施形態に係る電子装置は、生成モデルと検索モデルが連結または結合された例示-基盤生成モデルを含む。既存の例示-基盤生成モデルは、回答を生成する間に検索された標本を無視するか、検索された標本に過適合した回答を生成する場合が多かった。従って、実施形態に係る電子装置は、検索モデルおよび生成モデルを連結する対話応答訓練モデルを含み、実施形態に係る電子装置は、例示-基盤生成モデルを訓練する動作の一部または全部を遂行することができる。実施形態に係る電子装置は、例示-基盤生成モデルを訓練する段階において、対話コンテキスト情報だけでなく適合応答(gold response)情報の例示回答を選択するクエリーを使用することができる。その後、実施形態に係る電子装置は、前述した過適合の問題を緩和するために、ゴールド応答情報と過度に類似した例示回答を除くことができる。残りの例示回答のうち一部は、与えられたコンテキストと関連のないことがあるので、実施形態に係る電子装置は、コンテキスト情報と例示回答間の関連性点数を追加で活用して生成モデルを学習させることができる。
【0042】
実施形態に係るゴールド応答(gold response)情報は、例えば、特定コンテキスト(context)に関する最適な応答情報、適切な応答情報、または既設定された応答情報などを意味し得、例えば、データの指導訓練(supervised training)に用いられるように設定された応答情報であってもよい。
【0043】
図1は、本開示の多様な実施形態に係る電子装置の構成を示した概略的なブロック図である。
【0044】
電子装置は、ニューラルネットワークを含む装置を含むことができる。電子装置は、トレーニングデータを用いてマシンラーニングを遂行できる装置として、ニューラルネットワークで構成されたモデルを用いて学習を遂行できる装置を含むことができる。例えば、電子装置は、データマイニング、データ分析、知能型意思決定、およびマシンラーニングアルゴリズムのために用いられるデータを受信、分類、保存、および出力するように構成され得る。
【0045】
電子装置は、ニューラルネットワークをトレーニングするための多様な装置を含むことができる。例えば、電子装置は、複数のサーバーセット、クラウドサーバー、またはこれらの組み合わせとして具現され得る。具体的には、電子装置は、分散処理を通じてデータ分析またはトレーニングによって結果値を獲得することができる。
【0046】
図1を参照すると、電子装置は、プロセッサー110、入出力部(Input/Output Module)120、およびメモリー130を構成要素として含むことができる。図1に図示された電子装置の構成要素は、これに限定されるものではなく、追加するか置換され得る。
【0047】
プロセッサー110は、データ分析およびマシンラーニングアルゴリズムを通じて電子装置の動作を制御または予測することができる。プロセッサー110は、学習(training)しようとするデータを要請、検索、受信、または活用することができ、トレーニングを通じて学習した好ましい動作を実行するよう電子装置を制御することができる。プロセッサー110は、例えば、学習データを要請、検索、受信、または活用するか、これらを前処理するか、これらを用いて学習を遂行する実施形態に係るラーニングプロセッサー(learning processor)を含むことができる。
【0048】
プロセッサー110は、ユーザーの入力または自然語入力に基づいて、入力値に対する結果値を導出し感知するように構成され得る。プロセッサー110は、例えば、プロセッシングおよび保存のためのデータを収集するように構成される実施形態に係るラーニングプロセッサーを含むことができる。データの収集は、センサーを通じてデータを感知するか、メモリー130に保存されたデータを抽出するか、入出力部120を通じて外部装置からデータを受信することを含むことができる。
【0049】
プロセッサー110は、電子装置の動作ヒストリーをデータ化してメモリー130に保存することができる。プロセッサー110は、保存された動作ヒストリーデータおよびトレーニングされたモデルに基づいて特定動作を遂行するための最上の結果値を獲得することができる。
【0050】
プロセッサー110は、特定動作が遂行される場合、データ分析およびマシンラーニングアルゴリズムを通じて特定動作の実行に係るヒストリーを分析することができる。具体的には、プロセッサー110は、分析したヒストリーに基づいて、以前にトレーニングしたデータのアップデートを遂行することができる。即ち、プロセッサー110は、アップデートされたデータに基づいて、データ分析およびマシンラーニングアルゴリズムの正確性を向上させることができる。
【0051】
例えば、実施形態に係るプロセッサー110またはプロセッサー110に含まれたラーニングプロセッサーは、トレーニングデータまたはトレーニングセットを用いてニューラルネットワークをトレーニングさせることができる。例えば、プロセッサー110またはプロセッサー110に含まれたラーニングプロセッサーは、獲得した入力値を前処理したデータを通じてニューラルネットワークをトレーニングさせることができる。他の例としては、プロセッサー110またはプロセッサー110に含まれたラーニングプロセッサーは、メモリー130に保存された前処理データを通じてニューラルネットワークをトレーニングさせることができる。具体的には、プロセッサー110またはプロセッサー110に含まれたラーニングプロセッサーは、多様なトレーニング方式を用いてニューラルネットワークを反復してトレーニングさせることによって、ニューラルネットワークの最適化モデルおよび最適化に活用されるパラメータを決定することができる。
【0052】
入出力部120は、電子装置のメモリー130に保存されたデータまたはプロセッサー110によって処理されたデータを他の装置に伝送するか、他の装置から電子装置にデータを受信する機能を遂行することができる。入出力部120は、例えば、他の電子装置からデータを受信するか、他の電子装置にデータを送信する受信部、送信部、またはトランシーバー(transceiver)などを含むことができる。さらに、実施形態に係る入出力部120は、電子装置と物理的または論理的に連結された構成要素または装置と、電子信号またはデータが入力されるか、出力するための1つ以上の入出力モジュール(Input/Output Module)を含むことができる。
【0053】
メモリー130は、プロセッサー110またはニューラルネットワークにおいてトレーニングされたモデルを保存することができる。例えば、メモリー130は、トレーニングされたモデルまたはトレーニング中のモデルを区分して保存することができる。具体的には、メモリー130は、ニューラルネットワークがトレーニングされる過程のモデルを保存してトレーニングヒストリーに係るトレーニングされたモデルを保存することができる。
【0054】
例えば、実施形態に係るメモリー130は、モデル保存部および/またはデータベース(database)を含むことができる。
【0055】
例えば、モデル保存部は、プロセッサー110を通じてトレーニング中、または既にトレーニングされたモデル(例えば、ニューラルネットワークモデルなど)を保存することができる。また、モデル保存部は、トレーニングされたモデルがアップデートされたモデルを保存することができる。
【0056】
例えば、データベースは、入力値である入力データ、モデルトレーニングのためのトレーニングデータ、モデルトレーニングヒストリーデータなどを保存することができる。データベースに保存された入力データは、モデルトレーニングに適して加工されたデータと加工されていないローデータ(raw data)であり得る。
【0057】
実施形態に係るプロセッサー110は、第1コンテキスト情報を確認する段階;第1モデルに基づいて、前記第1コンテキスト情報に対応する第1応答セットを確認する段階;前記第1コンテキスト情報に対応するゴールド応答情報に基づいて、前記第1応答セットから選択された応答サブセットを確認する段階;および前記第1コンテキスト情報および前記応答サブセットに基づいて前記第2モデルを学習させる段階;を遂行することができる。
【0058】
本明細書は、オープン-ドメイン対話において使用される例示-基盤生成モデルの一般的な欠点を解決するための容易な訓練方法を提案する。例示-基盤生成モデルは、2種類の方法として応答(responses)を生成するために、検索モデルおよび生成モデルを1つのフレームワーク(framework)に結合する。第一に、検索部(retriever、検索モデル)は、与えられたコンテキスト(context)をクエリーとして例示(exempler)を検索し、生成部(generator、生成モデル)は、前記与えられたコンテキストおよび前記例示に基づいて応答を生成する。例示-基盤生成モデルは、生成モデルよりもさらに具体的な応答を生成し、検索モデルよりもさらに流暢な応答を生成する。
【0059】
このような例示-基盤生成モデルの成功にもかかわらず、このような従来のモデルは、2種類の欠点が存在する。以下、図3において示されるように、原始的な例示-基盤生成モデル(例えば、図3の(a))は、例示を全体的に無視する傾向があり、純粋な生成モデル(vanilla generative model)の傾向と類似してみえる。これは、訓練段階において、前記提示されたコンテキストから検索された例示がゴールド応答(gold response、またはゴールド応答情報)より確然に差がある、即ち、1対多問題(one-to-many problem)によって発生する。このような問題を緩和するために、例示-基盤生成モデルは、ゴールド応答(例えば、図3の(b))または撹乱されたゴールド応答(perturbed gold response)を訓練段階内における1つの例示として活用した。しかし、このような訓練方法は、生成部によって検索された例示を過度に依存させ、(例えば、図3の(b)の実施形態のように)生成モデルが提供されたトークンを不適切に使用することもあり得る。このような2種類の欠点は、生成された応答の質(quality)に悪影響を与え得る。
【0060】
本明細書は、例示-基盤生成モデルを訓練する過程においてゴールド応答(ゴールド応答情報)情報から意味的に関連があるが、適当に距離のある例示を提供することによって、このような欠点を緩和させ得るモデルを提案する。本明細書の複数の実施形態において提案するモデルは、対話応答訓練モデルであり、1つの訓練方法として適切な例示(exemplar)を選択する方法を提案する。第一に、実施形態に係る対話応答訓練モデルは、類似するが、ゴールド応答と事前に同一でない例示を選択するために、ゴールド応答を活用することができる。しかし、選択された例示は、与えられたコンテキストに関しては意味を有さないことがあり、この場合、代わりのゴールド応答が単純に用いられ得る。従って、対話応答訓練モデルは、前記コンテキストおよび前記例示との関連性点数を計算することができる。そして、対話応答訓練モデルは、前記点数を用いて類似した例示に加重値を与え、与えられたコンテキスト情報と類似しない例示をパネライズ(penalize)する。対話応答訓練モデルは、例示-基盤生成モデルに基本的に適用が可能であり、適切性と情報性の観点において生成された応答の質を増進させる。
【0061】
換言すると、既存の例示-基盤生成モデルは、検索モデルから抽出および選択された例示回答(exemplar)に過度に依存するか、無視しようとする傾向を示す。即ち、既存の例示-基盤生成モデルは、検索モデルから抽出および選択された例示回答に過適合(overfit)した応答情報を生成するか、抽出および選択された例示回答とは関係のない応答を生成する頻度を減らすことができない。
【0062】
一方、本明細書において提案するモデル(例えば、図2の200および201の結合に係るモデル)は、既存の検索モデルを改善した構成を有し得る(例えば、図2の200)。また、本明細書において提案するモデルは、抽出および選択された例示回答のうち、過適合(overfit)した応答情報を生成する恐れのある例示回答を除くことができ、例示回答の関連性点数に基づいて加重値を与えることによって、例示回答を再検証する動作をさらに遂行することができる。このような構成として、本明細書において提案するモデル(例えば、図2の200および201の結合に係るモデル)は、検索モデルから抽出および選択された例示回答に過適合した応答を生成することを防いで生成モデル部の学習効率性を極大化することができ、抽出および選択された例示回答と関係のない応答を生成する頻度を減らすことによって、自然な対話が続けられるように助力する効果を提供する。
【0063】
従って、本明細書は、次のような寄与事項または提案事項を説明し、次のような寄与事項または提案事項を遂行するための例示-基盤生成モデルの改善された実施形態の構成を提案(例えば、図2の200および201の結合)する。
【0064】
1)本明細書は、既存の例示-基盤生成モデルが例示を無視するか、例示に過適合した応答を生成することを示す。
【0065】
2)本明細書において提案する訓練方法である対話応答訓練モデルは、適切な例示を選択し、検索モデルによって評価された関連性点数の例示の加重値を適用することによって、前述した欠点を緩和する。
【0066】
3)人的評価(Human evaluation)結果は、対話応答訓練モデルが適切性と情報性の観点において例示-基盤生成モデルの性能を画期的に増進させることを示す。
【0067】
本明細書において提案する対話応答訓練モデルの訓練方法に関して、例示-基盤生成モデルについて説明する。
【0068】
生成モデルがオープン-ドメイン対話において成功的な性能を示す一方、生成モデルは、情報性が不足し無愛想な反応(bland response)を示すことがよく知られている。本発明の多様な例示に係る例示-基盤生成モデルは、生成モデルが抱える前述した問題点を克服する。従来のオープンドメイン対話のための例題基盤生成モデルは、入力コンテキストによって条件が指定されたコンテキスト-モデルペアを検索することができ、入力コンテキストと検索されたコンテキスト間の語彙の相違を編集ベクトルとしてエンコーディングすることができる。応答は、前記例示および前記編集ベクトルをフィード(feed)することによって生成される。ある従来の方法は、提示されたコンテキストをクエリーとして用いて例示を検索し、例示とコンテキストを結合(concatenate)し、オープン-ドメイン対話のための最終応答を生成するために結合された例示を生成部にフィードする。他のモデルにおいては、例示から関連のない情報を除き、応答を生成するために、および生成部に知らせるためにマスキングされた例示を使用する。生成部は、検索された例示および例示の抽出された意味フレーム(semantic frame)と共に調節されてもよい。
【0069】
整理すると、実施形態に係る電子装置は、前述した対話応答訓練モデルにおいて遂行する訓練方法(traninig method)を遂行することができる。実施形態に係る電子装置は、既存の例示-基盤生成モデルとは異なり、類似するが、ある程度距離のある例示回答を選択し、選択された例示回答に対する関連性点数(relevance score)を計算して加重値を与えることによって、選択された例示を無視するか、選択された例示に過適合した応答を生成することを避けることができる。実施形態に係る電子装置の具体的な構成は図2において説明し、実施形態に係る電子装置が正しい応答を生成する過程は図3ないし図8において説明し、図9ないし図12は実施形態に係る電子装置の性能に関する進歩した効果を示し、図13は実施形態に係る関連性点数を計算する方法の例示を示す。
【0070】
図2は、実施形態に係る電子装置の構成図の一部を示す。
【0071】
具体的には、図2は、実施形態に係る電子装置が開放型オープン-ドメイン対話(Open-domain Conversation)のための人工知能モデルを学習するための構成または命令語の群集を示す。実施形態に係る電子装置は、開放型オープン-ドメイン対話のための例示-基盤生成モデル(Examplar-based generation model)の一部または全部を示すことができる。実施形態に係る電子装置において検索モデル部200は、対話に関するコンテキスト(context)情報および該当コンテキスト情報に対応する適合応答(gold response)情報が入力され、これらを学習する。実施形態に係る電子装置は、前述した情報を学習して、対話情報(および/またはコンテキスト情報)の入力を受けて該当対話情報に対する応答情報を予測または生成する人工知能モデルを含むことができる。
【0072】
本明細書においては、例示-基盤生成モデルの構造および動作を説明するために、次のようなノーテーション(notation)を使用することにし、既存のモデルの問題点について説明する。
【0073】
は、ダイアログデータセット(dialogue dataset)を示し、コンテキスト情報cおよび回答情報rを成すn個のペアからなる。例示-基盤生成モデルは、2つの構成要素を含むことができる:1つは検索部(
、Retriever)、および生成部(
、generator)、与えられたコンテキスト情報
に関して、検索部は、既定義された回答セット
にある例示
の関連性点数
の最高点(top-scoring)の例示を確認する。前記生成部は、例示zを活用してコンテキスト情報
に対する回答の確率
を計算する。
【0074】
ここで、検索部は、例えば、検索モデル(retrieval model)と呼称することができ、生成部は、例えば、生成モデル(generative model)と呼称することができる。
【0075】
例えば、1つの例示回答(exemplar)は、複数個の次元(dimension)を有するデータのリストまたはベクトル(vector)として表(またはエンベディング(embedding))され得、従って、1つの例示回答は、エンベディング空間(embedding space)上における1つまたはそれ以上の位置として表され得る。同様に、実施形態に係るコンテキスト(context)情報も、複数個の次元(dimension)を有するデータのリストまたはベクトル(vector)として表(またはエンベディング(embedding))され得、エンベディング空間(embedding space)上における1つまたはそれ以上の位置として表され得る。
【0076】
実施形態に係る関連性点数(relevance score、
)は、少なくとも2つの例示回答間の関連性、またはコンテキスト情報と特定例示回答間の関連性を示し得る指標を示すことができる。例えば、関連性点数は、例えば、エンベディング空間上に位置する2つの例示回答(または1つの例示回答と1つのコンテキスト情報)間の関連性を示すことができる。
【0077】
一方、本明細書において述べる「関連性(relevance)」という概念は、エンベディング空間上に位置する2つの例示回答のエンベディングされたベクトルの値に基づいて、2つのベクトル間の距離、密集程度、類似度(similarity)などを意味し得る概念を含むことができる。
【0078】
ここで、
は、エンベディング空間上に表される複数の例示回答を確認し、保存する検索モデル部を意味し得る。
は、実施形態に係るコンテキスト情報を示すことができ、zは、実施形態に係る複数の例示回答のうちの1つを意味し得る。
【0079】
実施形態に係る関連性点数を計算する方法は、例えば、図13に示すようになり得る。一方、例えば、図2を参照すると、実施形態に係る電子装置は、検索モデル部200および生成モデル部201を含むことができる。
【0080】
実施形態に係る生成モデル部201は、対話のコンテキスト情報が入力されると、該当対話のコンテキストに適した応答情報を出力する人工知能モデルを含むことができる。生成モデル部201に含まれた人工知能モデルは、訓練セット(training set)データによって訓練された人工神経網モデルを含むことができ、訓練セットデータは、例えば、対話に関するコンテキスト(context)情報および該当コンテキスト情報に対応する適合応答(gold response)情報を含むことができる。
【0081】
ここで、実施形態に係る訓練セットデータは、対話に関するコンテキスト(context)情報から適切な該当コンテキスト情報に対応する適合応答(gold response)情報を出力できるように例示(exemplar)回答(ら)に関する情報をさらに含むことができる。即ち、実施形態に係る生成モデル201は、対話のコンテキスト情報、適合応答(gold response)情報だけでなく、例示回答(ら)に関する情報をさらに活用して人工知能モデルを学習させることができる。
【0082】
従って、実施形態に係る検索モデル部200は、実施形態に係る例示回答(ら)を生成することができる。検索モデル部200は、対話に関するコンテキスト(context)情報および該当コンテキスト情報に対応する適合応答(gold response)情報の入力を受け、実施形態に係る例示回答(ら)を生成または選択することができ、生成または選択した例示回答を実施形態に係る生成モデル201に訓練セットデータとして伝達することができる。
【0083】
実施形態に係る電子装置は、このような検索モデル200と生成モデル201を組み合わせた例示-基盤生成モデル(Exemplar-based Generation model)に基づいて対話のコンテキスト情報に適した応答を抽出するよう学習することによって、豊富な知識に基づいて与えられた対話コンテキストに相応しい流暢な応答を生成すると同時に、多様かつ興味深い応答を生成できる効果を提供することができる。
【0084】
一方、従来の検索モデルと従来の生成モデルを含む例示-基盤生成モデルは、次のような欠点がある。
【0085】
例えば、原始的な例示-基盤生成モデルは、応答生成過程においてオープン-ドメイン対話から1対多問題(one-to-many problem)によって検索された例示を無視しようとする傾向がある。検索モデルが例示回答をコンテキストに基づいて抽出するため、たとえ、検索された例示およびゴールド応答が、すべて与えられたコンテキスト情報に類似するとしても、図3の(a)の例示のように検索された例示は、ゴールド応答情報(ゴールド応答、gold response)から相違して差が生じる場合が発生し得る。検索された例示がゴールド応答を生成するのに役に立たないため、従来の生成モデルは、検索された例示を無視するように訓練され、コンテキスト情報のみを用いて応答を生成し得る。
【0086】
生成モデルが検索された例示をより活動的に活用するために、ある従来のモデルは、モデルの訓練過程において検索された例示を使用することよりも、ゴールド応答を活用するか、変形されたゴールド応答(perturbed gold response)を例示として使用した。しかし、例示回答
およびゴールド応答
が過度に類似すると(例えば、図3の(b)の実施形態)、従来の例示-基盤生成モデルは例示に過度に依存するように学習され得る。この場合、結果的に、生成モデルは例示のトークンを直接コピーすることによって、例示に過度に適合した(over-fitted)応答を生成し得る。
【0087】
要約すると、前述の従来の検索モデルと従来の生成モデルを組み合わせた例示-基盤生成モデル(Exemplar-based Generation model)に基づいて学習する場合、生成モデルが与えられた例示(exemplar)を無視するか、与えられた例示(ら)をそのまま使用して応答を導出する場合がある。例えば、検索モデルから選択または確認した例示回答が実際のコンテキスト情報との関連性が非常に低い場合、生成モデルは与えられた例示を無視して適切な学習を遂行することができない。また、検索モデルから選択または確認した例示回答が実際のコンテキスト情報と関連性が高い場合、生成モデルは与えられた例示をそのまま使用および出力するだけなので、同様に適切な学習を遂行することができない。
【0088】
前述した従来の検索モデルと従来の生成モデルを含む例示-基盤生成モデルの具体的な問題点は、図3において詳しく説明することにする。
【0089】
前述した従来の検索モデルと従来の生成モデルを含む例示-基盤生成モデルの問題点を克服するために、実施形態に係る検索モデル部200は、応答保存部200a、候補例示回答確認部200b、例示回答選択部200c、加重値計算部200dのうち少なくとも1つをさらに含むことができる。
【0090】
応答保存部200aは、複数の応答に関する情報を含むことができる。応答保存部200aは、複数の応答の内容を保存してもよく、各応答がエンベディング空間(embeddingspace)上における位置または値(value)を保存してもよい。
【0091】
候補例示回答確認部200bは、応答保存部200aに保存された複数の応答のうち1つ以上の候補例示回答を確認することができる。候補例示回答確認部200bは、訓練セットに入力された適合応答(gold response)情報を用いて、候補例示回答を確認することができる。
【0092】
具体的には、候補例示回答(ら)は、エンベディング空間上において適合応答の値(または位置)から第1範囲内に含まれている応答を意味し得る。ここで、候補例示回答(ら)を確認するための第1範囲は、例えば、群集(clustering)アルゴリズムに基づいて決定され得る。例えば、候補例示回答(ら)は、エンベディング空間上において適合応答の値(または位置)と群集アルゴリズム(例えば、k-meansアルゴリズム、k-Nearest Neighbor(kNN)アルゴリズムなど)に基づいて、複数の応答から選択された応答(ら)を意味し得る。
【0093】
実施形態に係る例示回答選択部200cは、候補例示回答確認部200bから確認および選択された候補例示回答(ら)から1つ以上の例示回答(ら)を選択することができる。実施形態に係る生成モデル201が検索モデル200から選択された例示回答によって高い効率の学習を誘導するためには、検索モデル200が実施形態に係るコンテキスト情報と過度に関連性が高いか低い例示回答(ら)、ゴールド応答情報から過度に関連性が高いか低い応答(ら)のうち少なくとも1つを除いてもよい。従って、例示回答選択部200cは、候補例示回答確認部200bから確認および選択された候補例示回答(ら)のうち、学習に適した例示回答を選択することができる。
【0094】
例示回答選択部200cが選択した例示回答(ら)は、例えば、候補例示回答(ら)のうち、エンベディング空間上においてゴールド応答情報に対応する値から過度に近い(または関連性の高い)第2範囲内の値(応答)を排除することによって選択されてもよい。例えば、第2範囲は、ジャカード類似度(Jaccard Similarity)に基づいて一定のスレショルド(threshold)以上の類似度を有する範囲を意味し得る。
【0095】
実施形態に係る電子装置は、候補例示回答のうち、エンベディング空間上においてゴールド応答情報に対応する値から過度に近い(または関連性の高い)範囲内の応答を排除することによって、生成モデル201が文脈に適切でありつつも多様な応答を導出するように学習できるよう助力する。
【0096】
実施形態に係る検索モデル200は、例示回答選択部200cから選択した例示回答(または例示回答に関する情報)を実施形態に係る生成モデル201として提供することができる。
【0097】
一方、実施形態に係る生成モデル201は、選択された例示回答だけでなく、例示回答に関連した加重値(ら)を用いて学習してもよい。例示回答に関連した加重値(ら)は、例えば、実施形態に係る例示回答が実施形態に係るコンテキスト情報および/またはゴールド応答情報に関連した程度を示すことができる。例えば、加重値(ら)は、各例示回答に対する関連性点数(relevance score)または正規化された関連性点数(normalized relevance score)を意味してもよい。
【0098】
従って、実施形態に係る検索モデル部200は、例示回答選択部200cから選択された例示回答より各例示回答に対する加重値(ら)を計算または導出する加重値計算部200dをさらに含むことができる。加重値計算部200dは、実施形態に係る選択された例示回答および/または実施形態に係るコンテキスト情報を用いて、各例示回答に対する関連性点数または正規化された関連性点数を計算することによって、各応答に対する加重値を計算することができる。
【0099】
実施形態に係る電子装置は、例示回答および各例示回答に対する加重値をさらに考慮して最適な回答を生成するよう学習することによって、例示回答を適切に反映して文脈に合い、不自然でない応答を提供すると同時に、流暢でありつつ創意的な応答を生成できるように誘導することができ、対話モデルを使用するユーザーが飽きない対話を引き出すことができる。
【0100】
実施形態に係る生成モデル201は、前述した選択された例示回答、各例示回答に対する加重値のセットを用いて、生成モデル201に含まれた人工神経網モデルを学習することができる。
【0101】
具体的には、実施形態に係る生成モデル201は、選択された例示回答(および/または各例示回答に対する加重値のセット)に基づいて人工神経網モデルの順伝播(Forward Propagation)を遂行でき、応答を生成することができる。実施形態に係る生成モデル201は、生成された応答情報をユーザーに提供することができる。
【0102】
また、実施形態に係る生成モデル201は、前述したゴールド応答情報と選択された例示回答(および/または各例示回答に対する加重値)を用いて損失関数(loss function)を生成でき、生成された損失関数(loss function)を用いて生成モデル201に含まれた人工神経網モデルの逆伝播(Back Propagation)を遂行することによって、人工神経網モデルのアップデートまたは訓練を遂行することができる。
【0103】
実施形態に係る損失関数(loss function)は、例えば、ニューラルネットワークの訓練のための逆伝播動作を遂行するのに必要な関数または値を意味し得る。従って、実施形態に係る損失関数は、例えば、検索モデル部200が選択した例示回答のそれぞれに対して、各例示回答およびコンテキスト情報に基づいて計算された各回答に対する類似性点数(または正規化された類似性点数)に基づいて決定され得る。
【0104】
実施形態に係る例示基盤生成モデルを用いた対話情報生成方法は、検索モデル200と生成モデル201の組み合わせに基づいて対話のコンテキスト情報に適した応答を抽出するようにモデルを訓練する動作を含むことによって、豊富な知識に基づいて与えられた対話コンテキストに相応しい流暢な応答を生成すると同時に、多様かつ興味深い応答を生成できる効果を提供することができる。
【0105】
一方、実施形態に係る検索モデル部200は、検索部、レトリバー(retriever)などとして多様に呼称され得る。以下においては、実施形態に係る例示回答選択部200cの動作の例示、加重値計算部200dの動作の例示を具体的に検討する。
【0106】
図3は、実施形態に係る電子装置がコンテキスト情報から応答情報を生成する全般的な結果の例示を示した図面である。
【0107】
図3に示された動作は、図2に示された動作に基づいて訓練された実施形態に係る検索モデル部200および生成モデル部201(例えば、実施形態に係る訓練された人工神経網モデルなど)を用いて、ユーザーより獲得した対話情報から応答情報を生成する動作の例示を示す。
【0108】
具体的には、図3は、実施形態に係る電子装置が対話情報からコンテキスト情報を確認300した後、コンテキスト情報に基づいて例示回答(ら)を選択301し、選択された例示回答(ら)を用いて対話情報に対応する応答情報を生成302する動作の例示を示す。
【0109】
図3を参照すると、実施形態に係る電子装置は、ユーザーより入力された対話情報(または与えられた対話情報)を用いてコンテキスト(context)情報を生成または確認300することができる。コンテキスト情報は、ユーザーより入力された1つまたはそれ以上の対話(例えば、“A: 時間が早すぎると感じたことがある”など)、各対話に対する既提供された応答(例えば、“B:ーマイガット!特に最近、1週間が1日のように過ぎるね。”)に基づいて生成され得る。
【0110】
図3を参照すると、実施形態に係る電子装置は、確認されたコンテキスト情報をクエリー(query)として用いて、例示回答(ら)を検索および選択301することができる。例示回答(ら)を選択する動作は、例えば、図2の検索モデル200の動作の一部または全部に基づいて遂行され得る。図3を参照すると、実施形態に係る電子装置は、選択された例示回答(ら)を用いて対話に対する回答(response)を生成302する。
【0111】
一方、訓練セットデータを用いて訓練する過程において、実施形態に係る生成モデル部は、検索モデル部から提供される例示回答の特性、例示回答の内容、およびその他に提供されるデータによって多様に訓練され得る。図3の302aないし302cを検討すると、実施形態に係る生成モデル部は、第1例示302aのようにコンテキスト情報300と選択された例示回答301と関連のない応答を生成してもよく、第2例示302bのように選択された例示回答301と過度に同一の応答を生成してもよい。
【0112】
検索モデル部から選択および提供される例示回答(ら)が、ゴールド応答情報と相当距離がある場合(即ち、エンベディング空間上における値の差が大きい場合)、電子装置は、前述した第1例示302aのように対話情報と関連のない答案として導出されるように誤って学習させ得る。また、検索モデル部から選択および提供される例示回答(ら)がゴールド応答情報と相当類似している場合(即ち、エンベディング空間上における値の差が極めて少ない場合)は、電子装置は、前述した第2例示302aのようにゴールド応答情報をそのまま導出するように誤って学習させ得る。即ち、1つのコンテキスト情報から選択され得る例示回答が多様であり得、選択された例示回答内においても類似度の乖離が発生し得る、いわゆる1対多問題(One-to-Many Problem)が存在するため、人工神経網の学習効果が低下すると同時に過適合(overfitting)問題を引き起こす可能性を高める。
【0113】
従って、実施形態に係る電子装置は、第3例示302cのように流暢かつ対話の連続性を保障できるよう応答情報を生成するために、例示回答(ら)を特定方法に基づいて選択することができる。
【0114】
実施形態に係る例示基盤生成モデルを用いた対話情報生成の豊富な知識に基づいて、与えられた対話コンテキストに相応しい流暢な応答を生成すると同時に、多様かつ興味深い応答を生成できる効果を提供することができる。
【0115】
図4は、実施形態に係る電子装置がコンテキスト情報から応答情報を生成するように生成モデル部を学習させる動作の例示を示す。
【0116】
具体的には、図4は、実施形態に係る電子装置が対話情報から応答情報を生成するために、例示回答(ら)を学習する動作の一部または全部を示す。図4に示された動作は、図2の電子装置内の検索モデル部200および生成モデル部201によって遂行され得る。
【0117】
実施形態に係るコンテキスト情報は、エンベディング空間400上における特定値としてエンベディングされて対応され得る。また、実施形態に係る複数の応答(例えば、図2の応答保存部200aに保存された応答)もエンベディング空間400上における特定値としてエンベディングされ得る。例えば、図2の応答保存部200aは、各応答がエンベディング空間400上においてエンベディングされた特定値を保存することができる。
【0118】
実施形態に係る電子装置は、複数の応答のうち、コンテキスト情報に対応するエンベディング空間上の値から特定範囲400a内の応答(ら)を検索することができる。実施形態に係る電子装置は、特定範囲400a内の応答(ら)のうち、生成モデル部に提供する例示回答(ら)(403a、403b)を選択することができる。一方、実施形態に係る電子装置は、訓練セットデータに含まれた適合応答(gold response)情報402を確認することができる。
【0119】
一方、訓練セットデータを学習する過程において、図4の403aないし403bを検討すると、実施形態に係る生成モデル部は、第1例示403aのようにゴールド応答情報402と関係のない例示回答を選択することができる。同様に、第2例示403bのように選択されたゴールド応答情報402と過度に同一の応答を選択してもよい。
【0120】
実施形態に係る電子装置の生成モデル部404は、生成モデル部404内の人工神経網モデルを学習するために、ゴールド応答情報と選択された例示回答(および/または各回答の加重値のセット)に基づいて損失関数(loss function)を計算することができ、損失関数に基づいて生成モデル部404内の人工神経網の逆伝播動作を遂行することによって、生成モデル部404内の人工神経網を学習させることができる。
【0121】
しかし、第1例示403aを例示回答として選択する場合、生成モデル部404は、ゴールド応答情報との大きな差によって該当例示回答を無視(ignore)し得る。一方、第2例示403bを例示回答として選択する場合、生成モデル部404は、ゴールド応答情報との非常に少ない差によって該当例示回答を過度に考慮して過適合(overfitting)現象が発生し得る。従って、実施形態に係る電子装置は、流暢かつ対話の連続性を保障できるよう応答情報を生成するために、例示回答(ら)を特定方法に基づいて選択することができる。
【0122】
図5は、実施形態に係る検索モデル部の動作の例示を示したものである。
【0123】
図5は、図3ないし図4による、実施形態に係る検索モデル部が複数の応答から例示回答(ら)(
)を選択する方法を示した一実施形態である。
【0124】
図5を参照すると、実施形態に係る検索モデル部は、ゴールド応答情報から候補例示回答(ら)を確認する動作5A、候補例示回答(ら)から例示回答(ら)を選択する動作5B、選択された例示回答それぞれに対して加重値を計算する動作5Cのうち少なくとも1つ以上を遂行することができる。図5において5Aは、例えば、図2の候補例示回答確認部200bによって、5Bは、例えば、図2の例示回答選択部200cによって、5Cは、例えば、図2の加重値計算部200dによって遂行され得る。
【0125】
図5の5Aを参照すると、実施形態に係る検索モデル部は、コンテキスト情報501を確認することができ、コンテキスト情報501からエンベディング空間500上における関連範囲501a内、またはゴールド応答情報502からエンベディング空間500上における第1範囲502a内に存在する候補例示回答(ら)503を確認することができる。実施形態に係る第1範囲502aは、群集アルゴリズム(例えば、k-meansアルゴリズム、k-Nearest Neighbor(kNN)アルゴリズムなど)に基づいて決定された範囲を示すことができる。
【0126】
実施形態に係る電子装置は、群集アルゴリズムなどに基づいて候補例示回答を選択して、最終的に選択された例示回答が無視されるか、過小適合現象が発生することを防ぐことができる。また、このような動作として、選択された例示回答が無視されないので、学習過程における不必要な遅延を減らすことができる。
【0127】
図5の5Bを参照すると、実施形態に係る検索モデル部は、選択した候補例示回答(ら)503のうち、第2範囲504内に含まれた回答(ら)を除くことができる。ここで、第2範囲504は、ユーザーまたはシステムによって決定する範囲であり得る。例えば、第2範囲504は、エンベディング空間上においてJaccard Filter Boundaryを意味してもよい。
【0128】
実施形態に係る電子装置は、このような回答(ら)を除くことによって、ゴールド応答情報と過度に類似した回答から学習を遂行することを防ぐことができ、最終的に過適合(overfitting)現象を防ぐことができる。
【0129】
一方、5Aおよび5Bによって選択された回答は、ゴールド応答情報と関連度が高いが、実施形態に係るコンテキスト情報との関連度には差があり得る。例えば、5Aおよび5Bによって選択された回答内においては、5Aにおいて遂行した群集アルゴリズム(例えば、最も近いk個の例示(kNE、k-Nearest Exemplars))の特性によってコンテキスト情報との関連性が高いが、ゴールド応答情報との関連性は低いこともあり、コンテキスト情報との関連性は低いが、ゴールド応答情報との関連性は高いこともある。実施形態に係る電子装置は、各例示回答とコンテキスト情報との関連性も考慮して生成モデル部を学習させる必要がある。もし、検索モデル部が前述した5Aおよび5Bの動作だけを遂行した場合、選択された例示回答(ら)は、全的にゴールド応答情報に依存した回答を含み得るため、学習の効率が低下し得る。
【0130】
従って、図5の5Cによると、実施形態に係る検索モデル部は、各回答とコンテキスト情報の類似性程度(例えば、加重値(weight))を計算することができる。実施形態に係る加重値は、1つの回答とコンテキスト情報との類似性を示したものであり得、類似性は、例えば、エンベディング空間上における値の差に基づいて計算され得る。実施形態に係る検索モデル部は、例示回答の個数ほど加重値およびコンテキスト情報を用いて計算することができ、各計算された加重値を各例示回答にマッピングして、実施形態に係る生成モデル部として提供することができる。
【0131】
具体的には、一実施形態に係る検索モデル部(
)は、選択された例示回答(exemplar
)、および実施形態に係るコンテキスト情報(
)に基づいて各例示回答ごとに計算類似性点数(relevance score、
)を計算することができる。さらに、一実施形態に係る検索モデル部は、各例示回答に対する類似性点数(
)にソフトマックス(softmax)関数を適用して正規化された類似性点数(
)を計算することができる。その後、実施形態に係る電子装置は、各回答に対する正規化された類似性点数を用いて既存の可能度(traditional likelihood)を加重値可能度(weighted likelihood)に変換し、変換された加重値可能度から生成された損失関数(lossfunction)を最小化するよう実施形態に係る生成モデル部を学習させることができる。実施形態に係る生成モデル部を学習させるために、変換された加重値可能度から生成された損失関数(lossfunction、L)は、例えば、以下のように計算され得る。
【0132】
【数1】

【0133】
実施形態に係る生成モデル部(
)は、計算された損失関数(L)を用いて逆伝播動作を遂行することができる。実施形態に係る逆伝播動作を遂行する過程において計算される勾配、即ち、グラディエント(gradient)は、例えば、次のように計算され得る。
【0134】
【数2】

【0135】
例示のような数学式2は、生成モデル部のグラディエントが正規化された類似性点数(
)によってスケール(scale)されたことを示し、選択された例示回答(ら)zがコンテキスト情報(
)と関連性が少ない場合、生成モデル部が少なくアップデート(即ち、少なく変化するように訓練)されることを示す。
【0136】
実施形態に係る電子装置は、前述した検索モデル部および生成モデル部の動作によって、不適切であるか、無関係の例示回答(ら)を無視するか、少なく考慮して学習するように誘導することができる。また、電子装置は、このような構成として、ゴールド応答情報に関連した例示回答からトークンを容易にフェッチ(fetch)するように生成モデルを学習させることができる。
【0137】
図6は、実施形態に係る検索モデル部が対話情報および応答情報を学習するための動作の結果の例示を示したものである。
【0138】
具体的には、図6は、図5に示された実施形態に係る検索モデル部の対話情報および応答情報を学習するための動作の例示を示す。図6を参照すると、実施形態に係る検索モデル部は、対話情報を用いてコンテキスト情報600、およびゴールド応答情報601を確認することができる。
【0139】
図6を参照すると、602は、実施形態に係る複数の応答のうち、コンテキスト情報をクエリー(query)として、検索モデル部において検索した候補例示回答を意味し得る。図6を参照すると、603は、実施形態に係る群集アルゴリズム(例えば、kNE)に基づいて抽出した候補例示回答(ら)を意味し得る。602および603において、「Sim」は、ゴールド応答情報と各候補例示回答間の文字的な類似度を示すことができ、「
」は、実施形態に係る検索モデル部によって計算された各応答に対する正規化された関連性点数を示すことができる。また、「Use?」は、実施形態に係る電子装置が生成モデル部の学習のために生成モデル部に例示回答を提供するか否かを示す。
【0140】
図7は、実施形態に係る電子装置の動作の例示を示したものである。
【0141】
図7に示された動作の一部または全部は、例えば、図1のプロセッサー110、またはプロセッサー110内に含まれたラーニングプロセッサー(learning processor)によって遂行され得、図2の検索モデル200および/または生成モデル201によって遂行され得る。
【0142】
図7を参照すると、実施形態に係る電子装置は、第1コンテキスト情報を確認700することができる。図7を参照すると、実施形態に係る電子装置は、第1モデルに基づいて前記第1コンテキスト情報に対応する第1応答セットを確認701することができる。図7に示された第1応答セットは、図5に示された関連範囲501a内に含まれた例示回答を意味し得る。実施形態に係る第1コンテキスト情報は、ユーザーより獲得した少なくとも1つ以上の対話情報を含むことができる。
【0143】
図7を参照すると、実施形態に係る電子装置は、前記第1コンテキスト情報に対応する適合応答情報に基づいて、前記第1応答セットから選択された応答サブセットを確認702することができる。図7に示された応答サブセットは、実施形態に係る候補応答セットを意味し得る。例えば、図7に示された応答サブセットは、(図5の502内に含まれた例示回答のうち)第2範囲504内に含まれた例示回答を除いた残りの回答を示すことができる。
【0144】
実施形態に係る応答サブセットは、実施形態に係るゴールド応答情報および群集アルゴリズムに基づいて確認される候補応答内から選択され得る。また、実施形態に係る応答サブセットは、候補応答のうち、エンベディング空間内の前記ゴールド応答情報に対応する値から特定範囲内に対応する少なくとも1つの回答を除くことによって選択され得る。
【0145】
図7を参照すると、実施形態に係る電子装置は、前記第1コンテキスト情報および前記応答サブセットに基づいて、前記第2モデルを学習させる703ことができる。
【0146】
実施形態に係る電子装置は、応答サブセットに含まれる各応答に対して前記第1コンテキスト情報に基づいて加重値情報を設定する段階をさらに含むことができる。ここで、実施形態に係る電子装置は、設定された加重値のセットに基づいて前記第2モデルを訓練させることができ、加重値のセットに含まれる各加重値は応答に対応され得る。
【0147】
実施形態に係る加重値情報は、前記応答サブセット内の各回答に対する関連性点数に基づいて設定され得、回答に対する関連性点数は、エンベディング空間上において前記第1コンテキスト情報に対応する値および前記回答に対応する値に基づいて計算され得る。
【0148】
一方、実施形態に係る第2モデルは、ユーザーより獲得した対話情報に関する第2コンテキスト情報を確認し、第2コンテキスト情報に基づいて前記第2コンテキスト情報に関するゴールド応答情報を提供することができる。
【0149】
実施形態に係る第2モデルは、前記加重値のセットに基づいて計算された損失関数を用いて逆伝播動作を遂行することによって訓練され得、前記加重値のセットに含まれる各加重値は、各回答に対する関連性点数を正規化することによって計算され得る。
【0150】
実施形態に係る例示基盤生成モデルを用いた対話情報生成方法は、検索モデル200と生成モデル201の組み合わせに基づいて対話のコンテキスト情報に適した回答を抽出するよう学習することによって、豊富な知識に基づいて与えられた対話コンテキストに相応しい流暢な回答を生成すると同時に、多様かつ興味深い回答を生成できる効果を提供することができる。
【0151】
実施形態に係る電子装置は、候補例示回答のうち、エンベディング空間上においてゴールド応答情報に対応する値から過度に近い(または関連性の高い)範囲内の回答を排除することによって、生成モデル201が文脈に適切でありつつ多様な回答を導出するように学習できるよう助力する。
【0152】
実施形態に係る電子装置は、例示回答および各例示回答に対する加重値をさらに考慮して最適な回答を生成するよう学習することによって、例示回答を適切に反映して文脈に合い、不自然ではない回答を提供すると同時に、流暢でありつつ創意的な回答を生成できるように誘導することができ、対話モデルを使用するユーザーが飽きない対話を引き出すことができる。
【0153】
図8は、実施形態に係る電子装置の動作の例示を示す。
【0154】
具体的には、図8は、実施形態に係るオープン-ドメイン対話(Open-domain Conversaion)を遂行する対話電子装置の動作の例示を示す。例えば、図8の動作は、学習データ(training data)から応答を抽出するために学習する過程ではなく、実際のユーザーより入力された対話情報から回答情報を抽出するための動作の例示を示すことができる。
【0155】
図8を参照すると、実施形態に係る電子装置は、ユーザーより対話情報を受信することができる。実施形態に係る電子装置は、受信した対話情報からコンテキスト情報8aを抽出することができる。実施形態に係るコンテキスト情報8aは、電子装置内のプロセッサー110または、プロセッサー110内に含まれたラーニングプロセッサー(learning processor)などによって抽出され得、図2ないし図7において前述した実施形態に係るコンテキスト情報を意味し得る。
【0156】
実施形態に係る電子装置は、検索モデル部800および生成モデル部801のうち少なくとも1つをさらに含むことができ、各構成は、図2ないし図7に係る検索モデル部800および生成モデル部801を意味し得る。
【0157】
実施形態に係る電子装置は、ユーザーより入力された対話情報から抽出したコンテキスト情報8aを受信して、該当対話情報に適切な回答8bを生成することができる。従って、電子装置は、コンテキスト情報8aを検索モデル部800に伝達することができる。実施形態に係る検索モデル部800内のKNN部800bは、実施形態に係るコンテキスト情報8aおよび検索モデル部800の例示回答保存部800aに保存された複数の回答に基づいて、候補例示回答を抽出することができる。実施形態に係る検索モデル部800内の例示回答選択部800cは、抽出された候補例示回答のうち1つ以上を選択することができる。実施形態に係る検索モデル部800内の加重値計算部800dは、選択された1つ以上の候補例示回答から加重値を計算(または関連性点数の計算)することができる。実施形態に係る検索モデル部800は、選択された例示回答を実施形態に係る生成モデル部801に伝達することができる。実施形態に係る生成モデル部801は、選択された例示回答および実施形態に係るコンテキスト情報8aを受信することができ、これらを生成モデル部801内に含まれた人工神経網モデル801aの入力レイヤーに入力することができ、出力レイヤーから応答情報8bを生成および確認することができる。生成モデル部801は、出力レイヤーから確認される回答情報8bを出力してユーザーに提供することができる。
【0158】
これらが生成モデル部801内に含まれた人工神経網モデル801aは、入力レイヤーとして入力された、選択された例示回答および実施形態に係るコンテキスト情報8aを用いて順伝播動作801bを遂行することができる。
【0159】
一方、実施形態に係る生成モデル801は、迅速かつリアルタイムの対話を誘導するために、ユーザーより入力された対話から応答情報8bを抽出後、実施形態に係る逆伝播過程(および/または実施形態に係る損失関数(loss function)を計算する動作など)を省略してもよい。一方、逆伝播過程(および/または実施形態に係る損失関数(loss function)を計算する動作など)を省略すると、実施形態に係る生成モデル801の人工神経網モデル801aの訓練が行われない代わりに、ユーザーより入力された対話から迅速な応答を抽出できるという点において、本明細書において説明する電子装置の一部実施形態となり得る。従って、逆伝播過程(および/または実施形態に係る損失関数(loss function)を計算する動作など)を省略できる実施形態の記載だけで、逆伝播過程および/または本明細書において開示する損失関数(loss function)を計算する動作などが因習的(conventional)であるか、日常的な(rutine)構成であると解釈されてはならない。
【0160】
図9ないし図12は、実施形態に係る電子装置のオープン-ドメイン対話モデルの性能を他のオープン-ドメイン対話(Open-domain Conversaion)モデルと比較したものを示す。
【0161】
図9は、実施形態に係る電子装置の効果を示した図面である。
【0162】
図9を参照すると、「Bi-encoder 256M」および「Blender 90M」は、ベースライン検索モデル(baseline retrieval model)およびベースライン生成モデル(baseline generative model)の例示であり得る。図8を参照すると、「RetNRef」、「RetNRef_α」、「MatToGen」は、実施形態に係る生成モデル部の例示を示したものであり、CORGEは、実施形態に係る検索モデル部を示したものである。具体的には、RetNRefは、例えば、回答を生成するために生成モデル部の例示として、入力として与えられたコンテキスト情報と検索モデル部を連結することができる。RetNRef_αは、RetNRefの対話検索バージョンとして検索された例題(α=0:5)を単に無視することを避けるために混合した構成を採用した構成を含むことができる。MatToGenは、例示回答(ら)から意味のあるトークンを抽出して生成器に提供するモデルであり得る。図8において、RAGおよびKIFは、知識-基盤生成モデル(Knowledge-grounded Generative model)に基づくオープン-ドメイン対話モデルを示す。図8は、「RetNRef」、「RetNRef_α」、「MatToGen」を実施形態に係る電子装置(または電子装置の検索モデル部)と結合して、性能を2つのモデルごとに比較することによって実験したものを示す。
【0163】
図9の「Appropriateness(適合性)」は、回答がどれほど流暢かつ論理的であり、コンテキスト(文脈)に相応しいかを測定する指標を意味し得、「Informativeness(情報性)」は生成した回答がコンテキスト情報に基づいてどれほど意味のある情報を含むかを測定する指標を意味し得る。
【0164】
図9は、2つのモデルの比較結果を要約したものである。RetNRefとMatToGenが実施形態に係る検索モデル部(CORGE)を採用する場合、Informativenessに対して、RetNRef+CORGE対KIFの場合を除き、すべての基準線を凌ぐ効果が発揮され得る。具体的には、実施形態に係る検索モデル部を結合したRetNRef+CORGEおよびMatToGen+CORGEは、2つのマトリックにおいてそれぞれRetNRefαおよびMatToGenよりも優れた性能を提供する。特に、MatToGen+CORGEはBiencoder 256Mを凌ぎ、Blender 90Mを大きく凌ぐ一方、MatToGenはBi-encoder 256MおよびBlender 90Mよりも性能が劣ることを確認することができる。また、RefNRef+CORGEは、Blender 90Mよりも高い性能を示し得る。このような評価結果は、実施形態に係る検索モデル部の一例示であるCORGEが既存の模範基盤生成モデルを先導して、より流暢かつ有益な生成モデルを生成することを示す。
【0165】
図10は、実施形態に係る電子装置の効果を示した図面である。
【0166】
図10は、各モデルが生成する回答を分析するための、実施形態に係る電子装置に関する、自動評価マトリックス(automatic evaluation metrics)であるPPL(Perplexity)、Dist-n、BLEUを示したものである。
【0167】
PPLは、提示された入力コンテキストに基づいてどれほどモデルが回答を予測するかを測定する指標として、PPLが低いということは、モデルが回答を正しく予測するということを示す。例示-基盤生成モデルが検索された例示回答をどれほど活用するかを分析するために、例示回答が提供されるときに、条件付確率を活用したPPLの2種類の変形した指標を使用することができる。第一に、1)
は、ゴールド応答情報が例示回答として与えられたときの状況を仮定した条件付確率
を用いる。第二に、2)
は、zが
を用いて検索した例示回答を示す条件付確率
を用いる。
が小さいということは、ゴールド応答情報が例示回答として提供されたときに、例示-基盤生成モデルがゴールド応答情報を正しく予測するということを意味する。
が小さいということは、例示-基盤生成モデルがゴールド応答情報を予測するために提供された例示回答を正しく活用するということを意味する。
【0168】
Dist-nは、すべての生成された回答に対する全体n-グラム(n-gram)の個数に比べてディスティンクトn-グラム(distinct n-gram)の比率を示したものとして、生成された回答の多様性を示す指標であり得る。
【0169】
BLEUは、提供された例示回答と生成された回答の組(z、r)間のトークンオーバーラップの程度を測定するための指標であり得る。BLEU点数が高いということは、生成モデル部が回答を生成することにおいて、提供された例示回答から多くの部分をコピー(copy)または参照したということを示す。
【0170】
図10によると、RetNRefと実施形態に係る電子装置の検索モデル部を結合した構成、およびMatToGenと実施形態に係る電子装置の検索モデル部を結合した構成は、Blender 90Mよりも低いPPL_retrieveを示す。これは、実施形態に係る電子装置の検索モデルとして訓練された例題基盤生成モデルが提供された例題を活用してBlender 90Mよりもゴールド応答をさらに予測するということを意味する。RetNRefと実施形態に係る電子装置の検索モデル部を結合した構成は、RetNRefよりもPPL_goldおよびPPL_retrieveの程度がさらに小さく、これは、RetNRefと実施形態に係る電子装置の検索モデル部を結合した構成は、提供された例示回答をRetNRefよりもさらに活用すると推論することができる。
【0171】
RetNRefは、RetNRefと実施形態に係る電子装置の検索モデル部を結合した構成よりもPPL_goldが低いが、RetNRefは、RetNRefと実施形態に係る電子装置の検索モデル部を結合した構成よりもPPL_retrieveが高い。この結果は、ゴールド応答情報として検索された例示回答として提供される場合を除き、RetNRefが検索された例題をあまり使わないことを示す。この観察によると、RetNRefが訓練段階において、ゴールド応答情報を例示として活用することによって発生する選択された例示に、高度に過適合した応答を生成すると推論することができる。また、実施形態に係る電子装置のモデルが過適合問題を緩和し、これは、MatToGenとの結合においても示される。Blender 90Mと比較して、RetNRefと実施形態に係る電子装置の検索モデル部を結合した構成、およびMatToGenと実施形態に係る電子装置の検索モデル部を結合した構成のより高いDist-nは、実施形態に係る電子装置のモデルがバニラ(vanilla)生成モデルよりもさらに多様な応答を生成するということを示す。また、RetNRefおよび実施形態に係る電子装置の検索モデル部を結合した構成は、RetNRefよりもDist-nがより高いため、例示回答を活用すれば、生成器が応答を多様化するのに役立つ。RetNRefαは、バニラ検索モデルであるBi-encoder 256Mに匹敵するDist-nを達成した唯一のモデルであるが、PPL_goldとPPL_retrieveの結果間の格差を考慮すると、例示に過適合されて適切性と情報性が低調であることを確認することができる。
【0172】
平均BLEU点数は、検索された例示回答と生成された回答間の重畳を暗示的に測定するため、BLEU水準が高いほど生成器が検索されたひな形により多く依存することを示す。RetNRefは、無視できるBLEU点数を示すため、モデルが検索されたひな形を殆ど活用していないことを再確認する。また、RetNRefαおよびMatToGenは、それぞれRetNRefと実施形態に係る電子装置の検索モデル部を結合した構成、およびMatToGenと実施形態に係る電子装置の検索モデル部を結合した構成に比べてより高いBLEU点数を有し、これは、実施形態に係る電子装置の構成が検索モデル部によって検索された例示回答により多く依存しないことを確認する。
【0173】
図11は、前述した結果に係る効果を証明するための例示である。
【0174】
Bi-encoder 256M、Blender 90M、RetNRef、RetNRefα、RetNRefと実施形態に係る電子装置の検索モデル部を結合した構成、KIF、RAGモデルが、入力コンテキストに比べて生成した回答を示す。
【0175】
図12は、知識-基盤生成モデルに比べて実施形態に係る電子装置のモデルの前述した結果に係る効果を示す。
【0176】
具体的には、正規化された検索機点数の標準偏差は、標本基盤生成モデルに対して検索機を共同で訓練するときにより小さくなる。ここで、各訓練インスタンスに対して5つの標本(k=5)が使用される。図12の「Ours」はRetNRef+CORGEを示し、「joint」は生成モデル部と共に検索モデル部を訓練することを示す。
【0177】
一方、知識-基盤生成(Knowledge-grounded Generation)に関しても説明する。
【0178】
回答を生成するために検索された結果(例えば、Wikipediaから確認される関連文書)を用いる知識-基盤生成モデルは、知識-集約的(knowledge-intensive)自然言語処理(NLP、Natural Language Processing)作業(例えば、オープン-ドメインの質問および回答)を遂行するために提案された。知識-基盤の生成は、例示-基盤の生成と類似する。しかし、主な相違点は、知識-基盤生成モデルは回答を生成するために外部資源から知識を抽出する。オープン-ドメインの質問、回答のための大規模な言語モデルと共に、知識抽出部の既-訓練(pre-training)することの効率性を示してきた。知識-基盤生成モデルは、知識-集約的なNLP作業の多様な方面において純粋な生成モデルに比べてより情報的かつ多様な文章を生成できるという点も示してきた。回答生成のために知識-基盤生成モデルが類似して提案されてきたが、そのような知識-基盤生成モデルは、オープン-ドメイン対話に焦点が合わされていない。本明細書においては、既存の知識-基盤生成モデルがオープン-ドメイン対話に直接適用され得ないことを示す。
【0179】
図10に係る自動評価結果は、知識-基盤生成モデル(Knowledge-grounded Models)が例示回答を無視していることを確認することができる。RAGおよびKIFのPPLgold、PPLretrieve、およびDist-nは、Blender 90Mと類似した程度を有しているが、これは、例示回答が応答を生成する間に有用な情報が提供されないということを示す。また、平均よりも低いBLEU点数は、検索された例示と生成された応答間に重複が殆どないことを示す。このような結果は、オープン-ドメイン対話と知識基盤生成作業の差から始まったものである。知識基盤生成モデルを学習および訓練する間に
を使用して外部知識をもたらすが、開放型ドメイン対話の1対多特性によって、生成器は再び検索された例示回答を基本例題として無視し得る。
【0180】
また、生成器と共に実施形態に係る検索モデル部(レトリバー)を訓練すると、レトリバーが局所最小値に囲まれることになる。図4のようにRAGの検索者が共同で訓練するときに、検索者によって計算された正規化された関連性点数
の標準偏差はほぼ0に近づく。標準偏差が小さいほど、関連性点数が平らになることを意味する。知識基盤生成モデルは、検索機と生成器を共同で訓練すれば、知識集約的NLP作業において性能が向上するということを経験的に示したが、公開ドメイン対話から検索された例示回答は無視される。従って、検索者は、情報のない関連性点数を生成する方法を学習する。結果的に検索機が縮小されて検索機が生成器に不適切な選考を返還することができる(図10のKIFおよびRAGの例にも表示)。実施形態に係る電子装置と共に検索モデル部を訓練すると、図11のようにレトリバー点数が平らになり、RAGにおいても経験したようにレトリバーの些細な崩壊を経験的に観察することができる。従って、実施形態に係る電子装置は、検索モデル部を共同で訓練させなくてもよい。知識-基盤生成モデルが経験的に示したように、結合して訓練する検索部および生成部は、知識-集約的なNLP作業内の性能を向上させるが、オープン-ドメイン対話においては検索された例示が無視される。従って、検索部は、情報的でない関連性点数を生成する。
【0181】
以下においては、本明細書において開示する電子装置の検索モデル(CORGEと指称)のAblation study(切除訓練検証)に関して説明する。
【0182】
本明細書においては、関連性点数(Relevance Score、RS)およびkNE群集アルゴリズムが生成部に例示を活動的に用いて、Jaccard Filter(JF)が過適合問題を緩和するように誘導することを示した。図10を参照すると、RetNRef+CORGEのPPL_retrieveは、他の切除された比較群に比べて低いことを示し、これは、各構成要素が回答を生成するのに寄与することを示す。RetNRef+CORGE-RSおよびRetNRef+CORGE-kNEは、高い程度のPPL_retrieveおよびPPL_goldを示し、これは、回答を生成する過程においてRSおよびkNEが生成部に例示を活用するように助力することを示す。RetNRef+CORGE-JFは、過適合に強い信号を提供し、PPL_goldに対してはるかに低い数値を示すが、対照的に高いPPL_retrieve数値を示す。Dist-nは、本明細書において提案するモデルが、RetNRef+CORGE-JFを除いたモデル内において最も多様な回答を生成することを示し、RetNRef+CORGE-JFは、検索された例示からトークンを過度にコピーすることを示す。平均BLEU点数も同一の傾向を示すため、CORGE構成要素の効果を再確認する。
【0183】
結論的には、本明細書においては、適切性および情報性の観点から性能を極大化できる例示-基盤生成モデルにおいて適用可能な訓練モデルを提案する。本明細書において提案する訓練方法は、意味として類似するが、ゴールド応答と適当に距離がある例示を選択し、検索部において例示を関連性点数(relevance score)に基づいて加重値を与えることによって、既存の例示-基盤生成モデルの欠点を緩和することができる。ペアワイズ(pairwise)人的評価を含む広範囲な分析を通じて、本明細書において提案した訓練方法が既存の例題基盤生成モデルの性能を向上させることを確認する。
【0184】
図13は、実施形態に係る関連性点数(relevance score)を計算する方法の例示を示す。
【0185】
まず、入力コンテキスト(例えば、実施形態に係るコンテキスト情報)および候補ラベル(candidate label)(例えば、実施形態に係る例示回答、選択された例示回答)のエンコーディングされたベクトル(例えば、図13に示されたように実施形態に係る電子装置内に含まれたエンコーダ(1200a、1200b)の動作によってエンコーディングされたベクトル)を確認する。 例えば、入力コンテキストのエンコーディングされたベクトル
および候補ラベルのエンコーディングされたベクトル
は、図12の1200に示されたように示すことができる。
【0186】
ここで、
および
は、図13において説明される図13に示された動作(ら)が既訓練された2つのトランスフォーマー(transformer)を意味し得、最初は同一の加重値として始まるが、微調整(fine tuning)過程においてアップデートされ得る。
は、各トランスフォーマーTの出力結果を意味し得、関数
は、ベクトルのシーケンス(sequence)を1つのベクトルに減少させる関数を意味し得る。入力コンテキストおよび候補ラベルがそれぞれ別途にエンコーディングされるので、セグメントトークン(segment token)はそれぞれ0である。事前訓練中に遂行されたものと同様に、入力とラベルのすべてが特殊トークン[S]として取り囲まれているため、h1は[S]に該当され得る。ベクトルのシーケンス(sequence)を1つのベクトルに減少させる
は、例えば、次の方法のうち1つ以上を含むことができる。1)トランスフォーマー(特殊トークン[S]に対応する)の第一の出力物を選択する方法、2)最初のm<N個の出力物ベクトルに対する平均または全体の出力物ベクトルに対する平均として決定する方法。図13に係る
および
は、図13の1200cおよび1200dに示された構成要素の一部または全部を含むことができる。
【0187】
候補ラベル
の点数(score)は、図12の1201に示された数学式および図13の1201aに示されたように、ドット積(dot product)によって計算され得る。ここで、ネットワーク(例えば、図13において説明するネットワーク)は、ロジット(logit)がそれぞれ
であり、
が正しいラベルであり、残りは訓練セットから選択され得る場合として、交差エントロピー(cross-entropy)損失を最小化するように訓練されたネットワークであり得る。
【0188】
従って、実施形態に係る関連性点数は、実施形態に係るコンテキスト情報を入力コンテキストとして、および実施形態に係る例示回答を候補ラベル(candidate label)として計算された候補ラベルの点数(score)を意味し得る。また、実施形態に係る関連性点数は、例えば、Bi-encoder、Poly-encoderなどによって生成された点数(score)を意味してもよい。
【0189】
本開示の多様な実施形態に係る記録媒体は、例示基盤生成モデルを用いた対話情報生成方法をコンピュータにおいて実行させるためのプログラムを記録したコンピュータで読み取り可能な非一時的記録媒体を含むことができる。
【0190】
一方、本明細書と図面には、本開示の好ましい実施形態に関して開示し、たとえ、特定用語が使用されていても、これは単に本開示の技術内容を容易に説明し発明の理解を助けるための一般的な意味として使用されたのであって、本開示の範囲を限定しようとするものではない。ここに開示された実施形態のほかにも、本開示の技術的思想に基づいた他の変形形態が実施可能であることは、本開示が属する技術分野において通常の知識を有する者に自明である。
【0191】
前述した実施形態に係る電子装置または端末は、プロセッサー、プログラムデータを保存して実行するメモリー、ディスクドライブのような永久保存部(permanent storage)、外部装置と通信する通信ポート、タッチパネル、キー(key)、ボタンなどのようなユーザーインターフェイス装置などを含み得る。ソフトウェアモジュールまたはアルゴリズムとして具現される方法は、前記プロセッサー上において実行可能なコンピュータが読み取り可能なコードまたはプログラム命令としてコンピュータが読み取り可能な記録媒体上に保存され得る。ここで、コンピュータが読み取り可能な記録媒体として、マグネティック保存媒体(例えば、ROM(read-only memory)、RAM(random-Access memory)、フロッピーディスク、ハードディスクなど)、および光学的読み取り媒体(例えば、シーディーロム(CD-ROM)、ディーブイディー(DVD:Digital Versatile Disc))などがある。コンピュータが読み取り可能な記録媒体は、ネットワークに接続されたコンピュータシステムに分散されて、分散方式としてコンピュータが読み取り可能なコードが保存され実行され得る。媒体は、コンピュータによって読み取り可能であり、メモリーに保存され、プロセッサーにおいて実行され得る。
【0192】
本実施形態は、機能的なブロック構成および多様な処理段階として示され得る。このような機能ブロックは、特定の機能を実行する多様な個数のハードウェアおよび/またはソフトウェアの構成として具現され得る。例えば、実施形態は、1つ以上のマイクロプロセッサーの制御または他の制御装置によって多様な機能を実行することができる、メモリー、プロセッシング、ロジック(logic)、ルックアップテーブル(look-up table)などのような集積回路の構成を採用することができる。構成要素がソフトウェアプログラミングまたはソフトウェア要素として実行され得ることと同様に、本実施形態は、データ構造、プロセス、ルーチン、または他のプログラミング構成の組み合わせとして具現される多様なアルゴリズムを含み、C、C++、ジャバ(Java)、アセンブラー(assembler)などのようなプログラミングまたはスクリプト言語として具現され得る。機能的な側面は、1つ以上のプロセッサーにおいて実行されるアルゴリズムとして具現され得る。また、本実施形態は、電子的な環境設定、信号処理、および/またはデータ処理などのために、従来の技術を採用することができる。「メカニズム」、「要素」、「手段」、「構成」のような用語は、広く使用され得、機械的かつ物理的な構成として限定されるものではない。前記用語は、プロセッサーなどと連携してソフトウェアの一連の処理(routines)の意味を含むことができる。
【0193】
前述した実施形態は、一例示に過ぎず、後述する請求項の範囲内において他の実施形態が具現され得る。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13