(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024137928
(43)【公開日】2024-10-07
(54)【発明の名称】言語処理方法及び言語処理システム
(51)【国際特許分類】
G06F 40/30 20200101AFI20240927BHJP
G06F 40/44 20200101ALI20240927BHJP
G06F 40/216 20200101ALI20240927BHJP
【FI】
G06F40/30
G06F40/44
G06F40/216
【審査請求】有
【請求項の数】10
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2024047269
(22)【出願日】2024-03-22
(31)【優先権主張番号】63/491,537
(32)【優先日】2023-03-22
(33)【優先権主張国・地域又は機関】US
(71)【出願人】
【識別番号】502160992
【氏名又は名称】宏達國際電子股▲ふん▼有限公司
(74)【代理人】
【識別番号】100206335
【弁理士】
【氏名又は名称】太田 和宏
(72)【発明者】
【氏名】彭 宇劭
(72)【発明者】
【氏名】林 宇▲徳▼
(72)【発明者】
【氏名】范 聖宏
(57)【要約】
【課題】言語処理方法を提供する。
【解決手段】初期フレーズ及び初期フレーズに関連する初期意味ラベルを含む初期データセットを取得する工程と、初期データセットで第1意味分類器を訓練する工程と、文型増強により初期フレーズに対応する複数の拡張フレーズを生成する工程と、第1意味分類器から拡張フレーズに関連する第1予測意味ラベル及び第1予測意味ラベルに関連する第1信頼基準を生成する工程と、第1予測意味ラベルと初期意味ラベルとの間の比較、及び第1信頼基準に基づいて、複数の拡張フレーズを複数の拡張サブセットに分類する工程と、カリキュラム学習形態で複数の拡張サブセットの一部に基づいて、会話における入力フレーズの意味を識別するための第2意味分類器を訓練する工程と、を含む言語処理方法。
【選択図】
図2
【特許請求の範囲】
【請求項1】
複数の初期フレーズ及び前記初期フレーズに関連する複数の初期意味ラベルを含む初期データセットを取得する工程と、
前記初期データセットに基づいて第1意味分類器を訓練する工程と、
前記初期フレーズに対応して文型拡張を行って、複数の拡張フレーズを生成する工程と、
前記第1意味分類器から前記拡張フレーズに関連する複数の第1予測意味ラベル及び前記第1予測意味ラベルの複数の第1信頼基準を生成する工程と、
前記初期意味ラベル及び前記第1予測意味ラベルとの比較結果、及び前記第1信頼基準に基づいて、前記拡張フレーズを複数の拡張サブセットに分類する工程と、
カリキュラム学習形態で前記拡張サブセットの一部に基づいて、会話中の入力フレーズの意味を識別するための第2意味分類器を訓練する工程と、
を備える言語処理方法。
【請求項2】
前記拡張フレーズを前記拡張サブセットに分類する工程は、
前記拡張サブセットにおける第1部分を第1拡張サブセットに分類し、前記第1部分の有する前記第1予測意味ラベルと前記初期意味ラベルとを比較した結果が一致しているとともに、前記第1部分の有する前記第1信頼基準が第1信頼閾値よりも大きい工程と、
前記拡張サブセットにおける第2部分を第2拡張サブセットに分類し、前記第2部分の有する前記第1予測意味ラベルと前記初期意味ラベルとを比較した結果が一致しているとともに、前記第2部分の有する前記第1信頼基準が前記第1信頼閾値よりも低い工程と、
前記拡張サブセットにおける第3部分を第3拡張サブセットに分類し、前記第3部分の有する前記第1予測意味ラベルと前記初期意味ラベルとを比較した結果が一致していないとともに、前記第3部分の有する前記第1信頼基準が第2信頼閾値よりも高い工程と、
前記拡張サブセットにおける第4部分を第4拡張サブセットに分類し、前記第4部分の有する前記第1予測意味ラベルと前記初期意味ラベルとを比較した結果が一致していないとともに、前記第4部分の有する前記第1信頼基準が前記第2信頼閾値よりも低い工程と、
を含む請求項1に記載の言語処理方法。
【請求項3】
カリキュラム学習形態で前記第2意味分類器を訓練する工程は、
カリキュラム学習形態の第1ラウンドで、前記初期データセット及び前記第1拡張サブセットに基づいて前記第2意味分類器を訓練する工程と、
カリキュラム学習形態の第2ラウンドで、前記初期データセット、前記第1拡張サブセット及び前記第2拡張サブセットに基づいて前記第2意味分類器を訓練する工程と、
を含み、
前記第3拡張サブセット及び前記第4拡張サブセットは、前記第2意味分類器を訓練するためのものではない請求項2に記載の言語処理方法。
【請求項4】
前記第2意味分類器から前記拡張フレーズに関連する複数の第2予測意味ラベル及び前記第2予測意味ラベルの複数の第2信頼基準を生成する工程と、
前記第2予測意味ラベルと前記第2信頼基準に基づいて、前記拡張フレーズを複数の更新拡張サブセットに分類する工程と、
カリキュラム学習形態で前記更新拡張サブセットに基づいて第3意味分類器を訓練する工程と、
を更に備える請求項1に記載の言語処理方法。
【請求項5】
前記拡張フレーズを前記更新拡張サブセットに分類する工程は、
前記拡張サブセットにおける第1部分を第1更新拡張サブセットに分類し、前記第1部分の有する前記第2予測意味ラベルと前記初期意味ラベルとを比較した結果が一致しているとともに、前記第1部分の有する前記第2信頼基準が第1信頼閾値よりも大きい工程と、
前記拡張サブセットにおける第2部分を第2更新拡張サブセットに分類し、前記第2部分の有する前記第2予測意味ラベルと前記初期意味ラベルとを比較した結果が一致しているとともに、前記第2部分の有する前記第2信頼基準が前記第1信頼閾値よりも低い工程と、
前記拡張サブセットにおける第3部分を第3更新拡張サブセットに分類し、前記第3部分の有する前記第2予測意味ラベルと前記初期意味ラベルとを比較した結果が一致していないとともに、前記第3部分の有する前記第2信頼基準が第2信頼閾値よりも高い工程と、
前記拡張サブセットにおける第4部分を第4更新拡張サブセットに分類し、前記第4部分の有する前記第2予測意味ラベルと前記初期意味ラベルとを比較した結果が一致していないとともに、前記第4部分の有する前記第2信頼基準が前記第2信頼閾値よりも低い工程と、
を含む請求項4に記載の言語処理方法。
【請求項6】
カリキュラム学習形態で前記更新拡張サブセットに基づいて前記第3意味分類器を訓練する工程は、
カリキュラム学習形態の第1ラウンドで、前記初期データセット及び前記第1更新拡張サブセットに基づいて前記第3意味分類器を訓練する工程と、
カリキュラム学習形態の第2ラウンドで、前記初期データセット、前記第1更新拡張サブセット及び前記第2更新拡張サブセットに基づいて前記第3意味分類器を訓練する工程と、
カリキュラム学習形態の第3ラウンドで、前記初期データセット、前記第1更新拡張サブセット、前記第2更新拡張サブセット及び前記第3更新拡張サブセットに基づいて前記第3意味分類器を訓練する工程と、
を含み、
前記第4更新拡張サブセットは、前記第3意味分類器を訓練するためのものではない請求項5に記載の言語処理方法。
【請求項7】
前記第2意味分類器により生成された、前記拡張フレーズに関連する前記第2予測意味ラベルは、複数のグラウンドトゥルースとして前記第3意味分類器を訓練するためのものである請求項6に記載の言語処理方法。
【請求項8】
文型拡張を行って、前記拡張フレーズを生成する工程は、
大規模言語モデルを利用して前記初期フレーズを書き換えて前記拡張フレーズを生成する形態(1)、
翻訳モデルを利用して、第1言語で表現された前記初期フレーズを第2言語で表現された複数の中間フレーズに翻訳し、及び前記翻訳モデルを利用して、前記第2言語で表現された前記中間フレーズを前記第1言語で表現された前記拡張フレーズに翻訳する形態(2)、
前記初期フレーズにおける複数のワードを前記ワードに関連する複数の類義語に置き換えて、前記拡張フレーズを生成する形態(3)、又は
複数のランダムなノイズを前記初期フレーズに挿入して、前記拡張フレーズを生成する形態(4)のうちの少なくとも1つを含む請求項1に記載の言語処理方法。
【請求項9】
前記入力フレーズの前記意味に基づいて回答を生成する工程を更に備える請求項1に記載の言語処理方法。
【請求項10】
複数のコンピュータの実行可能な命令を記憶するための記憶ユニットと、
前記コンピュータの実行可能な命令を実行することにより、複数の初期フレーズ及び前記初期フレーズに関連する複数の初期意味ラベルを含む初期データセットを取得することと、前記初期データセットに基づいて第1意味分類器を訓練することと、前記初期フレーズに対応して文型拡張を行って、複数の拡張フレーズを生成することと、前記第1意味分類器を動作させて、前記拡張フレーズに関連する複数の第1予測意味ラベル及び前記第1予測意味ラベルの複数の第1信頼基準を生成することと、前記初期意味ラベル及び前記第1予測意味ラベルとの比較結果、及び前記第1信頼基準に基づいて、前記拡張フレーズを複数の拡張サブセットに分類することと、カリキュラム学習形態で前記拡張サブセットの一部に基づいて、会話中の入力フレーズの意味を識別するための第2意味分類器を訓練することと、を達成させ、前記記憶ユニットに結合される処理ユニットと、
を含む言語処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、言語処理方法及び言語処理システムに関し、特に、言語処理方法及び言語処理システムにおける意味分類技術に関する。
【背景技術】
【0002】
大規模言語モデル(large language model、LLM)は、入力文字の意味を理解し、人間の応答に類似した回答文字の内容を生成する人工知能モデルである。大規模言語モデルは、深層学習技術、例えば変換器(transformer)モデルなどのアーキテクチャを使用して文字を処理して生成する。入力文字を処理したり、合理的なインタラクティブな応答を生成したりするためには、大規模言語モデルは、入力文字の背後にある意味を区別し、意味のある応答を生成することを具備する必要がある。
【発明の概要】
【課題を解決するための手段】
【0003】
本開示の一態様は、複数の初期フレーズ及び前記初期フレーズに関連する複数の初期意味ラベルを含む初期データセットを取得する工程と、前記初期データセットに基づいて第1意味分類器を訓練する工程と、前記初期フレーズに対応して文型拡張を行って、複数の拡張フレーズを生成する工程と、前記第1意味分類器から前記拡張フレーズに関連する複数の第1予測意味ラベル及び前記第1予測意味ラベルの複数の第1信頼基準を生成する工程と、前記初期意味ラベル及び前記第1予測意味ラベルとの比較結果、及び前記第1信頼基準に基づいて、前記拡張フレーズを複数の拡張サブセットに分類する工程と、カリキュラム学習形態で前記拡張サブセットの一部に基づいて、会話中の入力フレーズの意味を識別するための第2意味分類器を訓練する工程と、を備える言語処理方法である。
【0004】
本開示の別の態様では、複数のコンピュータの実行可能な命令を記憶するための記憶ユニットと、前記コンピュータの実行可能な命令を実行することにより、複数の初期フレーズ及び前記初期フレーズに関連する複数の初期意味ラベルを含む初期データセットを取得することと、前記初期データセットに基づいて第1意味分類器を訓練することと、前記初期フレーズに対応して文型拡張を行って、複数の拡張フレーズを生成することと、前記第1意味分類器が前記拡張フレーズに関連する複数の第1予測意味ラベル及び前記第1予測意味ラベルの複数の第1信頼基準を生成することと、前記初期意味ラベル及び前記第1予測意味ラベルとの比較結果、及び前記第1信頼基準に基づいて、前記拡張フレーズを複数の拡張サブセットに分類することと、カリキュラム学習形態で前記拡張サブセットの一部に基づいて、会話中の入力フレーズの意味を識別するための第2意味分類器を訓練することと、を達成させ、前記記憶ユニットに結合される処理ユニットと、を含む言語処理システムである。
【0005】
いくつかの実施例では、言語処理方法及びシステムは、生成された拡張フレーズに対して半教師ありフィルタリングを行うことができ、半教師ありフィルタリングは、拡張フレーズから適切なフレーズを選択し、訓練エージェントプログラムに入力して意味分類器を訓練するために用いられ、上記データ拡張及び半教師ありフィルタリングは、エンドツーエンドの自動化実行を実現することができる。カリキュラム学習形態で訓練された第2意味分類器及び第3意味分類器は、良好な概括性/汎用性(より多くのタイプの拡張フレーズを含むため)を達成することができるとともに、高い正確さを維持することができる。
【0006】
説明すべきこととして、上記説明及び後続の詳細な記述は、本出願を実施形態で例示的に説明し、本案が主張する発明の概要の解釈と理解を支援するために使用される。
【図面の簡単な説明】
【0007】
本開示の上記及びその他の目的、特徴及び実施例をより明確にわかりやすくするために、図面の説明が以下の通りである。
【
図1】本開示のいくつかの実施例における言語処理システムの概略図である。
【
図2】本開示のいくつかの実施例における言語処理方法のフローチャートである。
【
図3】本開示のいくつかの実施例における初期データセットと拡張データセットの概略図である。
【
図4】本開示のいくつかの実施例における拡張データセット及び第1予測データセットの概略図である。
【
図5】本開示のいくつかの実施例における第1予測データセットを分類した後に形成される複数の拡張サブセットの概略図である。
【
図6】本開示のいくつかの実施例における工程における分類後の拡張サブセットの一部に基づいて第2意味分類器を訓練する概略図である。
【
図7】本開示のいくつかの実施例における拡張データセット及び第2予測データセットの概略図である。
【
図8】本開示のいくつかの実施例における第2予測データセットを分類した後に形成される複数の更新拡張サブセットの概略図である。
【
図9】本開示のいくつかの実施例における分類後の更新拡張サブセットの一部に基づいて第3意味分類器を訓練する概略図である。
【発明を実施するための形態】
【0008】
以下の開示は、本開示の異なる特徴を実施するための多くの異なる実施例又は例を提供する。特別な例における構成部品及び構成は、以下の議論で本開示を簡略化するために用いられる。議論されている任意の例は、説明のためだけに用いられ、本開示又はその例の範囲と意味を制限するものではない。適切な場合は、図面及び対応するテキスト説明に同じ符号を使用して、同じ又は類似した構成部品を表す。
【0009】
図1を参照されたい。それは、本開示のいくつかの実施例における言語処理システム100の概略図である。
図1に示すように、言語処理システム100は、記憶ユニット120と、処理ユニット140と、ユーザインタフェース160と、を含む。いくつかの実施例では、言語処理システム100は、コンピュータ、スマートフォン、タブレットコンピュータ、映像処理サーバー、データ処理サーバー、サーバー、テンソル計算サーバー又は任意の等価な処理装置であってもよい。
【0010】
図1に示すように、記憶ユニット120には、複数の初期フレーズPini、初期フレーズに関連する初期意味ラベルTini及び前記初期フレーズPiniに対する複数の初期回答Ainiを含む初期データセットDiniが記憶される。
【0011】
いくつかの実施例では、初期データセットDiniは、大規模言語モデル(large language model、LLM)又は言語処理アプリケーションプログラムに蓄積された質問と回答(question-and-answer、Q&A)データセットから収集することができる。
【0012】
図1に示すように、処理ユニット140は、フレーズ書き換え装置142、訓練エージェントプログラム(training agent)144及び会話エンジン146を動作させるために用いられる。会話エンジン146は、大規模言語モデルを動作させることができ、言語処理システム100とユーザU1との間の会話を処理するために使用される。いくつかの実施例では、訓練エージェントプログラム144は、初期データセットDiniにおける初期フレーズPini及び初期意味ラベルTiniを利用して意味分類器ICMを訓練することができる。
【0013】
実際の応用では、意味分類器ICMは、会話エンジン146の重要な要素である。意味分類器ICMは、会話エンジン146が様々な入力フレーズの背後にある目的又は目標を理解するのを支援するために用いられる。意味分類器ICMは、様々な入力フレーズを異なる意味カテゴリ、例えば質問の提出、陳述の作成、命令の表現などの意味カテゴリに区別するために用いられる。意味分類器ICMは、会話エンジン146がユーザの入力意味をより適切に理解し、ユーザの入力に対してより正確に適切な応答を生成するのを支援することができる。
【0014】
例えば、ユーザU1がユーザインタフェース160(例えば、タッチパネル、マイクロホン、キーボード、マウス、ヘッドマウントディスプレイ又はデータ伝送インタフェース)を介して会話中の入力フレーズPDIAを入力すると、この入力フレーズPDIAを会話エンジン146に伝送する。会話エンジン146は、意味分類器ICMを利用して、この会話中の入力フレーズPDIAに対応する意味TDIAを区別する。これにより、会話エンジン146は、判断された意味TDIAに基づいて適切な回答ADIAを生成することができる。ユーザインタフェース160を介して回答ADIAをユーザU1にフィードバックし、これにより言語処理システム100とユーザU1との間のインタラクティブな交流を実現する。
【0015】
意味分類器ICMが高い正確率を達成できるために、意味分類器ICMの訓練には、大量の初期フレーズPini及びそれに対応する大量の初期意味ラベルTiniが必要である。いくつかの実施例では、初期フレーズPiniと初期意味ラベルTiniは、技術者又はユーザにより手動で入力されてもよい。しかしながら、大量の初期フレーズPini及びそれに対応する大量の初期意味ラベルTiniを収集して構築することは、困難なタスクである。
【0016】
図1に示すように、処理ユニット140は、文型拡張(sentence augmentation)形態により、複数の初期フレーズPiniに対応する複数の拡張フレーズPaugを生成できるフレーズ書き換え装置142を含む。いくつかの実施例では、言語処理システム100は、フレーズ書き換え装置142を動作させて初期フレーズPiniを文型拡張して複数の拡張フレーズPaugを生成し、且つ言語処理システム100は、生成された拡張フレーズPaugに対して半教師ありフィルタリングを行い、半教師ありフィルタリングは、拡張フレーズPaugから適切なフレーズを選択し、訓練エージェントプログラム144に入力して意味分類器ICMを訓練するために用いられる。いくつかの実施例では、上記データ拡張及び半教師ありフィルタリングは、追加の手動入力を必要とせずに、エンドツーエンド(end-to-end)の自動化実行を実現することができる。
【0017】
いくつかの実施例では、フレーズ書き換え装置142、訓練エージェントプログラム144及び会話エンジン146は、処理ユニット140がコンピュータの実行可能な命令及び/又はソフトウェアプログラムを実行することで実現することができる。いくつかの実施例では、処理ユニット140は、プロセッサ、グラフィックスプロセッサ、特定アプリケーション集積回路(application specific integrated circuit;ASIC)又は任意の等価な処理回路であってもよい。
【0018】
図2を参照されたい。それは、本開示のいくつかの実施例における言語処理方法200のフローチャートである。言語処理方法200は、
図1に示す言語処理システム100により実行されてもよい。
【0019】
記憶ユニット120は、コンピュータの実行可能な命令を更に記憶するために用いられる。処理ユニット140は、それぞれユーザインタフェース160及び記憶ユニット120に結合される。処理ユニット140は、コンピュータの実行可能な命令を実行して、更に後続の実施例で説明される言語処理方法200を実施するために用いられる。記憶ユニット120は、メモリ、ハードディスク、高速アクセスメモリ、フラッシュメモリ及び/又は任意の等価なデータ記憶素子であってもよい。
【0020】
図1及び
図2に示すように、工程S210を実行して、データソース(図示しない)から初期データセットDiniを取得(又は受信)する。初期データセットDiniは、
図1に示す記憶ユニット120に記憶されてもよい。いくつかの実施例では、データソースは、質問と回答(Q&A)データサーバーであってもよい。
【0021】
図3を参照されたい。それは、本開示のいくつかの実施例における初期データセットDiniと拡張データセットDaugの概略図である。
図3に示す初期データセットDiniのように、初期フレーズPiniは、第1初期フレーズP1「このレストランに予約を出したい」を含み、且つ初期意味ラベルTiniは、第1初期フレーズP1に対応する第1意味ラベルT1「レストラン予約」を含む。初期フレーズPiniは、第2初期フレーズP2「チケットを予約したい」を更に含み、初期意味ラベルTiniは、第2初期フレーズP2に対応する第2意味ラベルT2「チケット予約」を含む。初期フレーズPiniは、第3初期フレーズP3「今日の天気はどうですか?」を含み、初期意味ラベルTiniは、第3初期フレーズP3に対応する第3意味ラベルT3「天気照会」を含む。
【0022】
図1、
図2及び
図3に示すように、工程S220を実行して、訓練エージェントプログラム144は、初期データセットDiniに基づいて第1意味分類器ICM1を訓練する。
【0023】
いくつかの実施例では、第1意味分類器ICM1の訓練は、下記交差エントロピー損失関数に基づくことができる。
【0024】
【数1】
方程式(1)において、x
iは、複数の初期フレーズ(例えば第1初期フレーズP1、第2初期フレーズP2、第3初期フレーズP3)、y
iは、複数の初期意味ラベル(例えば第1意味ラベルT1、第2意味ラベルT2、第3意味ラベルT3)、y^
iは、第1意味分類器ICM1により生成された複数の予測意味ラベル、Nは、複数の初期フレーズの数を表す。
【0025】
注意すべきこととして、第1意味分類器ICM1は、初期データセットDiniに基づいて訓練され、初期データセットDiniにおける限られた数の初期フレーズPini及び初期意味ラベルTiniを含む。いくつかの実施例では、初期データセットDiniに含まれる、様々な初期意味タイプのそれぞれに対応する初期フレーズPiniの数が少なく、つまり、類似する意味を表現するのに十分なフレーズ例の変化がない。この場合、ユーザにより入力された会話中のフレーズが異なる措辞形態を用いて類似している質問を提出すれば、第1意味分類器ICM1(初期データセットDiniに基づいて訓練される)は、正確な意味を識別できない可能性がある。つまり、初期データセットDini及び第1意味分類器ICM1の概括性/汎用性が不足している。
【0026】
初期データセットDiniの概括性/汎用性を高めるために、工程S230を実行し、フレーズ書き換え装置142は、文型拡張の形態で初期フレーズPiniに対応する複数の拡張フレーズを生成する。
図3に示すように、初期フレーズPiniにおける第1初期フレーズP1「このレストランに予約を出したい」は、フレーズ書き換え装置142により第1初期フレーズP1に対応する複数の拡張フレーズP1a1、P1a2、P1a3、P1a4及びP1a5に書き換えることができ、前記拡張フレーズは、いずれも第1初期フレーズP1に対応する。
【0027】
一実施例では、工程S230において、大規模言語モデル(LLM)を利用して前記初期フレーズPiniを書き換えて大量の拡張フレーズPaugを生成することができる。例えば、工程S230において、大規模言語モデル(例えばChatGPT、Gemini、LLaMA、Mistral AI、Bard又はCopilot)に提示命令、例えば「この文『このレストランに予約を出したい』を異なる形態で書き換えてください」を入力し、大規模言語モデルからその回答結果を収集して、複数の拡張フレーズP1a1~P1a5を生成することができる。
【0028】
別の実施例では、工程S230において、翻訳モデルを利用して、第1言語(例えば英語)で表現された第1初期フレーズP1を第2言語(例えばフランス語)で表現された中間フレーズに翻訳して、翻訳モデルを利用して、第2言語(例えばフランス語)で表現された中間フレーズを第1言語(例えば英語)に翻訳して戻し、更に第1言語で表現された拡張フレーズP1a1~P1a5を生成することができる。
【0029】
他の実施例では、工程S230において、拡張フレーズP1a1~P1a5を生成する形態は、第1初期フレーズP1におけるワードをこのワードに関連する類義語に置き換えることであってもよい。例えば、第1初期フレーズP1におけるワード「レストラン」を類義語例えば「料理屋」、「酒場」又は「食堂」に置き換えてもよい。
【0030】
他の実施例では、工程S230において、拡張フレーズP1a1~P1a5を生成する形態は、ランダムなノイズを第1初期フレーズP1に挿入することであってもよい。ランダムなノイズは、第1初期フレーズP1における1つの単文字をランダムに削除したり、第1初期フレーズP1における単文字の順序をランダムに交換したり、第1初期フレーズP1に追加の単文字をランダムに追加したりすることにより生成されたものであってもよい。ランダムなノイズは、ユーザのタイピングエラーをシミュレートするために用いることができる。
【0031】
図3に示すように、拡張データセットDaugは、第1初期フレーズP1に基づいて工程S230の文型拡張により生成された複数の拡張フレーズP1a1~P1a5を含み、前記拡張フレーズP1a1~P1a5は、複数の初期意味ラベルTiniのうちの第1意味ラベルT1(第1初期フレーズP1とマッチングする)に対応する。
【0032】
図2及び
図3に示すように、工程S230において、同様に、第2初期フレーズP2に基づいて他の複数の拡張フレーズP2a1~P2a5を生成し、第3初期フレーズP3に基づいて他の複数の拡張フレーズP3a1~P3a5を生成することができる。拡張データセットDaugにおいて、前記拡張フレーズP2a1~P2a5は、複数の初期意味ラベルTiniのうちの第2意味ラベルT2(第2初期フレーズP2とマッチングする)に対応する。拡張データセットDaugにおいて、前記拡張フレーズP3a1~P3a5は、複数の初期意味ラベルTiniのうちの第3意味ラベルT3(第3初期フレーズP3とマッチングする)に対応する。
【0033】
説明を簡潔にするために、後続の段落で議論する内容については、拡張フレーズP1a1~P1a5を例に挙げて議論する。しかしながら、本開示は、これに限定されるものではない。他の初期フレーズ(例えば、第2初期フレーズP2及び第3初期フレーズP3)に対しても、同様な操作を用いて、他の拡張フレーズP2a1~P2a5とP3a1~P3a5を更に処理してもよい。
【0034】
注意すべきこととして、いくつかの実施例では、拡張フレーズP1a1~P1a5は、人工的な教師なしに、第1初期フレーズP1に基づいて文型拡張して自動的に生成されたものである。この場合に、全ての拡張フレーズP1a1~P1a5がいずれもその本来の意味ラベルT1「レストラン予約」を維持できることを確保することは困難である。通常、ほとんどの拡張フレーズP1a1~P1a5は、元の意味ラベルT1と同じ意味を持っている。しかしながら、文型拡張後の一部の拡張フレーズP1a1~P1a5は、その意義又は意味を変える可能性がある。第1意味ラベルT1は、一部の拡張フレーズP1a1~P1a5の真の意図を表すのにもはや適していない可能性がある。
【0035】
図4を参照されたい。それは、本開示のいくつかの実施例における工程S240に関連する拡張データセットDaug及び第1予測データセットDaug_P1の概略図である。
【0036】
図1、
図2及び
図4に示すように、工程S240を実行し、処理ユニット140は、第1意味分類器ICM1を動作させて拡張データセットDaugに対して複数の第1予測意味ラベルTP1を生成し、且つ前記第1予測意味ラベルTP1に対応する複数の第1信頼基準CL1を生成する。
【0037】
図4に示す第1予測データセットDaug_P1のように、第1意味分類器ICM1が拡張フレーズP1a1~P1a5に対して生成する複数の意味ラベルは、それぞれT1、T1、T1、T2及びT2である。
【0038】
第1意味分類器ICM1により生成された複数の上記第1予測意味ラベルTP1において、第1意味分類器ICM1は、3つの拡張フレーズP1a1、P1a2及びP1a3が元の意味ラベルと同じ第1意味ラベルT1を有するとそれぞれ予測し、且つ他の2つの拡張フレーズP1a4及びP1a5が元の意味ラベル(即ち第1意味ラベルT1)と異なる第2意味ラベルT2を有すると予測する。なお、第1意味分類器ICM1が複数の第1予測意味ラベルTP1に対して生成した複数の第1信頼基準CL1は、
図4に示される。
【0039】
図5を参照されたい。それは、本開示のいくつかの実施例における工程S250における第1予測データセットDaug_P1を分類した後に形成される複数の拡張サブセットDG1~DG4の概略図を示す。
【0040】
図1、
図2及び
図5に示すように、処理ユニット140は、工程S250を実行し、複数の第1予測意味ラベルTP1と複数の初期意味ラベルTiniとの比較結果、及び複数の第1信頼基準CL1に基づいて、第1予測データセットDaug_P1における複数の拡張フレーズP1a1~P1a5を複数の拡張サブセットDG1~DG4に分類する。
【0041】
いくつかの実施例では、
図2及び
図5に示すように、拡張フレーズP1a1の有する第1予測意味ラベルTP1(拡張フレーズP1a1のTP1=第1意味ラベルT1)とそれ自体の初期意味ラベルTiniとを比較した結果が一致しており(拡張フレーズP1a1のTini=第1意味ラベルT1)、且つ拡張フレーズP1a1の第1信頼基準CL1(拡張フレーズP1a1のCL1が95%)が第1信頼閾値(例えば80%に設定されてもよい)よりも大きいため、拡張フレーズP1a1を第1拡張サブセットDG1に分類する。第1拡張サブセットDG1における拡張フレーズP1a1が初期意味ラベルと同じ予測意味ラベルを有し、第1意味分類器ICM1が第1拡張サブセットDG1に対して高い信頼基準を有する。この場合に、第1拡張サブセットDG1は、意味分類器ICMを訓練するための訓練データに最高優先度で追加するのに適している。
【0042】
いくつかの実施例では、
図2及び
図5に示すように、拡張フレーズP1a2と拡張フレーズP1a3の有する第1予測意味ラベルTP1(拡張フレーズP1a1とP1a3のTP1=第1意味ラベルT1)とそれ自体の初期意味ラベルTiniとを比較した結果が一致しており(拡張フレーズP1a1とP1a3のTini=第1意味ラベルT1)、且つ拡張フレーズP1a2と拡張フレーズP1a3の有する第1信頼基準CL1(拡張フレーズP1a2とP1a3のCL1がそれぞれ62%及び50%)が第1信頼閾値(例えば80%)よりも低いため、拡張フレーズP1a2と拡張フレーズP1a3を第2拡張サブセットDG2に分類する。第2拡張サブセットDG2における拡張フレーズP1a2と拡張フレーズP1a3が初期意味ラベルと同じ予測意味ラベルを有し、第1意味分類器ICM1が第2拡張サブセットDG2に対して低い信頼基準を有する。この場合に、第2拡張サブセットDG2は、意味分類器ICMを訓練するための訓練データに2番目の優先度で追加するのに適している。
【0043】
いくつかの実施例では、
図2及び
図5に示すように、拡張フレーズP1a4の有する第1予測意味ラベルTP1(拡張フレーズP1a4のTP1=第2意味ラベルT2)とそれ自体の初期意味ラベルTiniとを比較した結果が一致しておらず(拡張フレーズP1a4のTini=第1意味ラベルT1)、拡張フレーズP1a4の有する第1信頼基準CL1(拡張フレーズP1a4のCL1が82%)が第2信頼閾値よりも高い(例えば80%に設定されてもよい)ため、拡張フレーズP1a4を第3拡張サブセットDG3に分類する。第3拡張サブセットDG3における拡張フレーズP1a4が初期意味ラベルと異なる予測意味ラベルを有し、第1意味分類器ICM1が第3拡張サブセットDG3に対して高い信頼基準を有する。この場合に、第3拡張サブセットDG3は、意味分類器ICMを訓練するための訓練データに3番目の優先度で追加するのに適している。この場合、文型拡張された拡張フレーズP1a4の意味が変わったことを表す可能性がある。
【0044】
いくつかの実施例では、
図2及び
図5に示すように、拡張フレーズP1a5の有する第1予測意味ラベルTP1(拡張フレーズP1a5のTP1=第2意味ラベルT2)とそれ自体の初期意味ラベルTiniとを比較した結果が一致しておらず(拡張フレーズP1a5のTini=第1意味ラベルT1)、拡張フレーズP1a5の有する第1信頼基準CL1(拡張フレーズP1a5のCL1が40%)が第2信頼閾値(例えば80%に設定されてもよい)よりも低いため、拡張フレーズP1a5を第4拡張サブセットDG4に分類する。第4拡張サブセットDG4における拡張フレーズP1a5が初期意味ラベルと異なる予測意味ラベルを有し、第1意味分類器ICM1が第4拡張サブセットDG4に対して低い信頼基準を有する場合に、第4拡張サブセットDG4における拡張フレーズP1a5の真の意味を確認する時に困難であることを表す可能性がある。例えば、文型拡張後の拡張フレーズP1a5は、意味が不明確であるか、意味がない文である可能性がある。この場合に、第4拡張サブセットDG4は、意味分類器ICMの訓練に適していない。
【0045】
注意すべきこととして、上記実施例で説明される第1信頼閾値(例えば、80%)と第2信頼閾値(例えば、80%)は、例示的な説明に過ぎない。第1信頼閾値及び第2信頼閾値は、この特定の数値に限定されない。いくつかの他の実施例では、より多くの信頼閾値設定を導入して更に拡張フレーズを異なる信頼基準を有するより多くの拡張サブサブセットに分類し、例えば、同じ意味を有するラベルを100%~81%、80%~61%、60%~41%、40%~21%及び20%~0%などの5つの信頼基準に分類し、また、異なる意味を有するラベルを100%~81%、80%~61%、60~41%、40%~21%と20%~0%などの5つの信頼基準に分類する。
【0046】
図6を参照されたい。それは、本開示のいくつかの実施例における工程S260における分類後の拡張サブセットDG1~DG4の一部に基づいて第2意味分類器ICM2を訓練する概略図である。
【0047】
図1、
図2及び
図6に示すように、工程S260を実行し、訓練エージェントプログラム144は、カリキュラム学習形態で拡張サブセットDG1~DG4の一部に基づいて第2意味分類器ICM2を訓練する。
【0048】
いくつかの実施例では、第3拡張サブセットDG3と第4拡張サブセットDG4の分類の根拠となる予測ラベルは、初期段階で確立された第1意味分類器ICM1に基づいて生成される。第1意味分類器ICM1がこの時に生成した予測信頼度と信頼度にまだ不十分な点がある可能性があるため、
図6に示す工程S260の期間に、第3拡張サブセットDG3と第4拡張サブセットDG4を用いて第2意味分類器ICM2を訓練しない。
【0049】
図6に示すように、工程S260におけるカリキュラム学習形態の第1ラウンドR1で、訓練エージェントプログラム144は、初期データセットDini及び第1拡張サブセットDG1に基づいて第2意味分類器ICM2を訓練する。つまり、難易度が低く且つ信頼性が高い訓練データは、カリキュラム学習形態の第1ラウンドR1で第2意味分類器ICM2の訓練に優先的に用いられる。
【0050】
図6に示すように、工程S260におけるカリキュラム学習形態の第2ラウンドR2で、訓練エージェントプログラム144は、初期データセットDini、第1拡張サブセットDG1及び第2拡張サブセットDG2に基づいて第2意味分類器ICM2を訓練する。つまり、カリキュラム学習形態の第2ラウンドR2で、第2意味分類器ICM2を訓練するための訓練データは、より多くのフレーズ内容を含み且つより多くの異なる変化を含む。この場合、カリキュラム学習形態で訓練して得られた第2意味分類器ICM2は、(より多くのタイプの拡張フレーズを含むため)良好な概括性/汎用性を有することができるとともに、高い基準を維持することができる。
【0051】
いくつかの実施例では、第2意味分類器ICM2の訓練は、下記交差エントロピー損失関数に基づくことができる。
【0052】
【数2】
方程式(2)において、x
iは、複数の初期フレーズ(例えば第1初期フレーズP1、第2初期フレーズP2、第3初期フレーズP3)、y
iは、複数の初期意味ラベル(例えば第1意味ラベルT1、第2意味ラベルT2、第3意味ラベルT3)、y
i’は、第1拡張サブセットDG1及び第2拡張サブセットDG2における拡張フレーズP1a1~P1a3の意味ラベル(初期の第1意味ラベルT1と同じ)、y^
iは、第2意味分類器ICM2により生成された複数の予測意味ラベル、λは、対応する初期データセットDiniの重みパラメータ、λ
SSは、対応する第1拡張サブセットDG1及び第2拡張サブセットDG2の重みパラメータ、Nは、初期フレーズの数、Mは、第1拡張サブセットDG1及び第2拡張サブセットDG2における拡張フレーズの数を表す。
【0053】
注意すべきこととして、第1意味分類器ICM1は、初期データセットDiniに基づいて訓練され、初期データセットDiniにおける限られた数の初期フレーズPini及び初期意味ラベルTiniを含む。いくつかの実施例では、初期データセットDiniに含まれる、様々な初期意味タイプのそれぞれに対応する初期フレーズPiniの数が少なく、つまり、類似する意味を表現するのに十分なフレーズ例の変化がない。この場合、ユーザにより入力された会話中のフレーズが異なる措辞形態を用いて同様な質問を提出すれば、第1意味分類器ICM1(初期データセットDiniに基づいて訓練される)は、正確な意味を識別できない可能性がある。つまり、初期データセットDini及び第1意味分類器ICM1の概括性/汎用性が不足している。また、第2意味分類器ICM2は、初期データセットDini、第1拡張サブセットDG1及び第2拡張サブセットDG2に基づいて訓練され、第2意味分類器ICM2は、第1意味分類器ICM1に比べて良好な概括性/汎用性を達成することができる。
【0054】
図1及び
図2に示すように、工程S310において、第2意味分類器ICM2を利用して、ユーザU1により入力された入力フレーズP
DIAの意味T
DIAを識別することができる。工程S320において、会話エンジン146は、入力フレーズP
DIAの意味T
DIAに基づいて(第2ソナグラム分類器ICM2に基づく分類結果)回答A
DIAを生成することができる。いくつかの実施例では、本開示は、第2意味分類器ICM2の訓練終了後に停止することに限定されない。より多くのカリキュラム学習サイクルを行って更に意味分類器ICMを更新し、これにより意味分類器ICMの正確率を更に高めることができる。
【0055】
図7を参照されたい。それは、本開示のいくつかの実施例における工程S270に関連する拡張データセットDaug及び第2予測データセットDaug_P2の概略図である。
【0056】
図1、
図2及び
図7に示すように、工程S270を実行し、処理ユニット140は、第2意味分類器ICM2を動作させて拡張データセットDaugに対して複数の第2予測意味ラベルTP2を生成し、且つ前記第2予測意味ラベルTP2に対応する複数の第2信頼基準CL2を生成する。
【0057】
図4に示す第1予測データセットDaug_P1のように、第1意味分類器ICM1が拡張フレーズP1a1~P1a5に対して生成する複数の意味ラベルは、それぞれT1、T1、T1、T2及びT2である。
【0058】
第1意味分類器ICM1により生成された複数の上記第1予測意味ラベルTP1において、第1意味分類器ICM1は、3つの拡張フレーズP1a1、P1a2及びP1a3が元の意味ラベルと同じ第1意味ラベルT1を有するとそれぞれ予測し、且つ他の2つの拡張フレーズP1a4及びP1a5が元の意味ラベル(即ち第1意味ラベルT1)と異なる第2意味ラベルT2を有すると予測する。なお、第1意味分類器ICM1が複数の第1予測意味ラベルTP1に対して生成する複数の第1信頼基準CL1は、
図4に示される。この場合に、第2意味分類器ICM2は、初期データセットDini及び拡張データセットにおける一部(第1拡張サブセットDG1及び第2拡張サブセットDG2)に基づいてすでに訓練されたため、第2意味分類器ICM2により生成された第2予測意味ラベルTP2と第2信頼基準CL2(
図7に示すような第2予測データセットDaug_P2)は、この前に第1意味分類器ICM1により予測される第1予測意味ラベルTP1及び第1信頼基準CL1と異なる可能性があり、比較した結果、第2意味分類器ICM2により生成された第2予測意味ラベルTP2と第2信頼基準CL2は、高い基準を有する。
【0059】
図7に示す第2予測データセットDaug_P2のように、第2意味分類器ICM2が拡張フレーズP1a1~P1a5に対して生成する複数の意味ラベルは、それぞれT1、T1、T1、T2及びT2である。なお、
図7に示すように、第2意味分類器ICM2は、複数の第2予測意味ラベルTP2に関連する複数の第2信頼基準CL2を生成することができる。工程S270の操作は、工程S240と類似する。工程S240との主な相違点は、工程S270において、第1意味分類器ICM1(初期データセットDiniに基づいて訓練される)ではなく、第2意味分類器ICM2(初期データセットDini、第1拡張サブセットDG1及び第2拡張サブセットDG2に基づいて訓練される)に基づいて行うことである。
【0060】
図8を参照されたい。それは、本開示のいくつかの実施例における工程S280において第2予測データセットDaug_P2を分類した後に形成される複数の更新拡張サブセットDG1u~DG4uの概略図である。
【0061】
図1、
図2及び
図8に示すように、処理ユニット140は、工程S280を実行し、複数の第2予測意味ラベルTP2と複数の初期意味ラベルTiniとの比較結果、及び複数の第2信頼基準CL2に基づいて、第2予測データセットDaug_P2における複数の拡張フレーズP1a1~P1a5を複数の更新拡張サブセットDG1u~DG4uに分類する。
【0062】
いくつかの実施例では、
図2及び
図8に示すように、拡張フレーズP1a1と拡張フレーズP1a2を第1更新拡張サブセットDG1u、拡張フレーズP1a3を第2更新拡張サブセットDG2u、拡張フレーズP1a4を第3更新拡張サブセットDG3u、及び拡張フレーズP1a5を第4更新拡張サブセットDG4uに分類する。工程S280の操作は、工程S250と類似する。
【0063】
図9を参照されたい。それは、本開示のいくつかの実施例における工程S290における分類後の更新拡張サブセットDG1u~DG4uの一部に基づいて第3意味分類器ICM3を訓練する概略図である。
【0064】
図1、
図2及び
図9に示すように、工程S290を実行し、訓練エージェントプログラム144は、カリキュラム学習形態で更新拡張サブセットDG1u~DG4uの一部に基づいて第3意味分類器ICM3を訓練する。
【0065】
いくつかの実施例では、工程S290において、第4更新拡張サブセットDG4uを用いて第3意味分類器ICM3を訓練しない。
【0066】
図9に示すように、工程S290におけるカリキュラム学習形態の第1ラウンドR1で、訓練エージェントプログラム144は、初期データセットDini及び第1更新拡張サブセットDG1uに基づいて第3意味分類器ICM3を訓練する。つまり、難易度が低く且つ信頼性が高い訓練データは、カリキュラム学習形態の第1ラウンドR1で第3意味分類器ICM3の訓練に優先的に用いられる。
【0067】
図9に示すように、工程S290におけるカリキュラム学習形態の第2ラウンドR2で、訓練エージェントプログラム144は、初期データセットDini、第1更新拡張サブセットDG1u及び第2更新拡張サブセットDG2uに基づいて第3意味分類器ICM3を訓練する。つまり、カリキュラム学習形態の第2ラウンドR2で、第3意味分類器ICM3を訓練するための訓練データは、より多くのフレーズ内容を含み且つより多くの異なる変化を含む。
【0068】
図9に示すように、工程S290におけるカリキュラム学習形態の第3ラウンドR3で、訓練エージェントプログラム144は、初期データセットDini、第1更新拡張サブセットDG1、第2更新拡張サブセットDG2及び第3更新拡張サブセットDG3に基づいて第3意味分類器ICM3を訓練する。注意すべきこととして、第2意味分類器ICM2により生成された第3更新増強サブセットDG3uにおける拡張フレーズP1a4に関連する第2予測意味ラベルTP2は、この第3意味分類器ICM3を訓練するためのグラウンドトゥルース(ground truth)として生成される。つまり、拡張フレーズP1a4は、第1意味ラベルT1に関連するフレーズと見なされなくなり、第2意味ラベルT2に関連するフレーズ(第2意味分類器ICM2の予測結果に基づく)と見なされるように変更される。
【0069】
いくつかの実施例では、第3意味分類器ICM3の訓練は、下記交差エントロピー損失関数に基づくことができる。
【0070】
【数3】
方程式(3)において、x
iは、複数の初期フレーズ(例えば第1初期フレーズP1、第2初期フレーズP2、第3初期フレーズP3)、y
iは、複数の初期意味ラベル(例えば第1意味ラベルT1、第2意味ラベルT2、第3意味ラベルT3)、y
i’は、第1拡張サブセットDG1及び第2拡張サブセットDG2における拡張フレーズP1a1~P1a3の意味ラベル(初期の第1意味ラベルT1と同じ)、y
i’’は、第3拡張サブセットDG3における拡張フレーズP1a4の意味ラベル(例えば第2意味ラベルT2)、y^
iは、第3意味分類器ICM3により生成された複数の予測意味ラベル、λは、対応する初期データセットDiniの重みパラメータ、λ
SSは、対応する第1拡張サブセットDG1及び第2拡張サブセットDG2の重みパラメータ、λ
SDは、対応する第3拡張サブセットDG3の重みパラメータ、Nは、初期フレーズの数、Mは、第1拡張サブセットDG1及び第2拡張サブセットDG2における拡張フレーズの数、Qは、第3拡張サブセットDG3における拡張フレーズの数を表す。
【0071】
図1及び
図2に示すように、工程S310において、第3意味分類器ICM3を用いて、ユーザU1により入力された入力フレーズP
DIAの意味T
DIAを識別する。工程S320において、会話エンジン146は、入力フレーズP
DIAの意味T
DIA(第3意味分類器ICM3に基づいて識別した結果)に基づいて回答A
DIAを生成することができる。いくつかの実施例では、本開示は、第3意味分類器ICM3の訓練終了後に停止することに限定されない。より多くのカリキュラム学習サイクルを行って更に意味分類器ICMを更新し、これにより意味分類器ICMの正確率を更に高めることができる。
【0072】
注意すべきこととして、第3意味分類器ICM3を訓練するとともに、第3更新拡張サブセットDG3uをカリキュラム学習形態の第3ラウンドR3における訓練データとする。これは、初期段階で第1意味分類器ICM1に基づいて生成された第3拡張サブセットDG3に比べて、第3更新拡張サブセットDG3uが後続の段階で第2意味分類器ICM2の予測結果に基づいて生成されたものであるためである。比較した結果、第3更新拡張サブセットDG3uは、信頼性が高い。そのため、第3更新拡張サブセットDG3uを訓練データに追加して、拡張データの変化と豊かさを更に高めることができる。
【0073】
本開示の特定の実施例は、上記実施例について開示しているが、上記実施例は、本開示を限定することを意図していない。様々な代替及び改良は、本開示の原理及び精神から逸脱することなく、関連する分野の当業者によって本開示において実行されることができる。したがって、本開示の保護範囲は、添付の特許出願の範囲によって決定される。
【符号の説明】
【0074】
100:言語処理システム
120:記憶ユニット
140:処理ユニット
142:フレーズ書き換え装置
144:訓練エージェントプログラム
146:会話エンジン
160:ユーザインタフェース
200:言語処理方法
Aini:初期回答
ADIA:回答
CL1:第1信頼基準
CL2:第2信頼基準
Daug:拡張データセット
Daug_P1:第1予測データセット
Daug_P2:第2予測データセット
DG1:第1拡張サブセット
DG2:第2拡張サブセット
DG3:第3拡張サブセット
DG4:第4拡張サブセット
DG1u:第1更新拡張サブセット
DG2u:第2更新拡張サブセット
DG3u:第3更新拡張サブセット
DG4u:第4更新拡張サブセット
Dini:初期データセット
ICM:意味分類器
ICM1:第1意味分類器
ICM2:第2意味分類器
ICM3:第3意味分類器
P1:第1初期フレーズ
P1a1、P1a2、P1a3、P1a4、P1a5:拡張フレーズ
P2:第2初期フレーズ
P2a1、P2a5:拡張フレーズ
P3:第3初期フレーズ
P3a1、P3a5:拡張フレーズ
Paug:拡張フレーズ
PDIA:入力フレーズ
Pini:初期フレーズ
R1:第1ラウンド
R2:第2ラウンド
R3:第3ラウンド
S210、S220、S230、S240、S250:工程
S260、S270、S280、S290:工程
S310、S320:工程
T1:第1意味ラベル
T2:第2意味ラベル
T3:第3意味ラベル
TP1:第1予測意味ラベル
TP2:第2予測意味ラベル
TDIA:意味
Tini:初期意味ラベル
U1:ユーザ
【手続補正書】
【提出日】2024-05-16
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0002
【補正方法】変更
【補正の内容】
【0002】
大規模言語モデル(large language model、LLM)は、入力文字の意味を理解し、人間の応答に類似した回答文字の内容を生成する人工知能モデルである。大規模言語モデルは、深層学習技術、例えば変換器(transformer)モデルなどのアーキテクチャを使用して文字を処理して生成する。入力文字を処理したり、合理的なインタラクティブな応答を生成したりするためには、大規模言語モデルは、入力文字の背後にある意味を区別し、意味のある応答を生成する必要がある。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0045
【補正方法】変更
【補正の内容】
【0045】
注意すべきこととして、上記実施例で説明される第1信頼閾値(例えば、80%)と第2信頼閾値(例えば、80%)は、例示的な説明に過ぎない。第1信頼閾値及び第2信頼閾値は、この特定の数値に限定されない。いくつかの他の実施例では、より多くの信頼閾値設定を導入して更に拡張フレーズを異なる信頼基準を有するより多くの拡張サブセットに分類し、例えば、同じ意味を有するラベルを100%~81%、80%~61%、60%~41%、40%~21%及び20%~0%などの5つの信頼基準に分類し、また、異なる意味を有するラベルを100%~81%、80%~61%、60~41%、40%~21%と20%~0%などの5つの信頼基準に分類する。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0054
【補正方法】変更
【補正の内容】
【0054】
図1及び
図2に示すように、工程S310において、第2意味分類器ICM2を利用して、ユーザU1により入力された入力フレーズP
DIAの意味T
DIAを識別することができる。工程S320において、会話エンジン146は、入力フレーズP
DIAの意味T
DIAに基づいて(第2
意味分類器ICM2に基づく分類結果)回答A
DIAを生成することができる。いくつかの実施例では、本開示は、第2意味分類器ICM2の訓練終了後に停止することに限定されない。より多くのカリキュラム学習サイクルを行って更に意味分類器ICMを更新し、これにより意味分類器ICMの正確率を更に高めることができる。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0068
【補正方法】変更
【補正の内容】
【0068】
図9に示すように、工程S290におけるカリキュラム学習形態の第3ラウンドR3で、訓練エージェントプログラム144は、初期データセットDini、第1更新拡張サブセットDG1、第2更新拡張サブセットDG2及び第3更新拡張サブセットDG3に基づいて第3意味分類器ICM3を訓練する。注意すべきこととして、第2意味分類器ICM2により生成された第3更新
拡張サブセットDG3uにおける拡張フレーズP1a4に関連する第2予測意味ラベルTP2は、この第3意味分類器ICM3を訓練するためのグラウンドトゥルース(ground truth)として生成される。つまり、拡張フレーズP1a4は、第1意味ラベルT1に関連するフレーズと見なされなくなり、第2意味ラベルT2に関連するフレーズ(第2意味分類器ICM2の予測結果に基づく)と見なされるように変更される。
【外国語明細書】