(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023007373
(43)【公開日】2023-01-18
(54)【発明の名称】意図識別モデルの訓練及び意図識別の方法及び装置
(51)【国際特許分類】
G06F 16/36 20190101AFI20230111BHJP
【FI】
G06F16/36
【審査請求】有
【請求項の数】24
【出願形態】OL
(21)【出願番号】P 2022033969
(22)【出願日】2022-03-04
(31)【優先権主張番号】202110736458.3
(32)【優先日】2021-06-30
(33)【優先権主張国・地域又は機関】CN
(71)【出願人】
【識別番号】514322098
【氏名又は名称】ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド
【氏名又は名称原語表記】Beijing Baidu Netcom Science Technology Co., Ltd.
【住所又は居所原語表記】2/F Baidu Campus, No.10, Shangdi 10th Street, Haidian District, Beijing 100085, China
(74)【代理人】
【識別番号】110000877
【氏名又は名称】弁理士法人RYUKA国際特許事務所
(72)【発明者】
【氏名】ジャン、ホンヤン
(72)【発明者】
【氏名】ジャオ、ゼンユ
(72)【発明者】
【氏名】スン、シューチ
(72)【発明者】
【氏名】チャン、ユエ
(72)【発明者】
【氏名】リ、ティンティン
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175DA01
5B175HB03
(57)【要約】 (修正有)
【課題】本意図識別モデルの訓練及び意図識別の方法、装置、電子デバイス及び可読記憶媒体を提供する。
【解決手段】意図識別モデルの訓練方法は、複数の訓練テキスト及び複数の訓練テキストの第1標識意図を含む訓練データを取得し、特徴抽出層及び第1識別層を含むニューラルネットワークモデルを構築し、複数の訓練テキストのトークン化結果と複数の訓練テキストの第1標識意図とに基づいて、ニューラルネットワークモデルを訓練して意図識別モデルを得る。意図識別の方法は、識別対象テキストを取得し、識別対象テキストのトークン化結果を意図識別モデルに入力し、意図識別モデルの出力結果に基づいて、識別対象テキストの第1意図結果と第2意図結果を得る。
【選択図】
図1
【特許請求の範囲】
【請求項1】
複数の訓練テキスト及び前記複数の訓練テキストの第1標識意図を含む訓練データを取得することと、
特徴抽出層と、第1識別層とを含むニューラルネットワークモデルを構築することであって、前記第1識別層が、候補意図の語義ベクトルと前記特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルとに基づいて、前記訓練テキストの第1意図結果、及び前記訓練テキストにおける各トークンと前記候補意図との間のスコアを出力するニューラルネットワークモデルを構築することと、
前記複数の訓練テキストのトークン化結果と、前記複数の訓練テキストの第1標識意図とに基づいて、前記ニューラルネットワークモデルを訓練して意図識別モデルを得ることと、
を備える意図識別モデルの訓練方法。
【請求項2】
前記特徴抽出層が前記訓練テキストにおける前記各トークンの前記第1語義ベクトルを出力することは、
各訓練テキストについて、当該訓練テキストにおける各トークンの単語ベクトルを得、
前記各トークンの前記単語ベクトルに基づいて、前記各トークンの符号化結果とアテンション計算結果とをそれぞれ得、
前記各トークンの前記符号化結果と前記アテンション計算結果とのスティッチング結果を復号化し、前記復号化の結果を前記各トークンの前記第1語義ベクトルとする、
ことを含む請求項1に記載の意図識別モデルの訓練方法。
【請求項3】
前記第1識別層が、前記候補意図の前記語義ベクトルと前記特徴抽出層が出力した前記訓練テキストにおける前記各トークンの前記第1語義ベクトルとに基づいて、前記訓練テキストの前記第1意図結果、及び前記訓練テキストにおける前記各トークンと前記候補意図との間の前記スコアを出力することは、
各訓練テキストについて、当該訓練テキストにおける各トークンの第1語義ベクトルと前記候補意図の語義ベクトルとに基づいて、前記各トークンの第2語義ベクトル、及び、前記各トークンと前記候補意図との間のスコアを取得し、
前記各トークンの前記第2語義ベクトルに基づいて分類を行い、前記分類の結果を前記訓練テキストの第1意図結果とする、
ことを含む請求項1または2に記載の意図識別モデルの訓練方法。
【請求項4】
前記複数の訓練テキストのトークン化結果と前記複数の訓練テキストの前記第1標識意図とに基づいて前記ニューラルネットワークモデルを訓練して前記意図識別モデルを得ることは、
前記複数の訓練テキストのトークン化結果を前記ニューラルネットワークモデルにそれぞれ入力し、前記ニューラルネットワークモデルが各訓練テキストに対して出力した第1意図結果を得、
前記複数の訓練テキストの第1意図結果と前記複数の訓練テキストの第1標識意図とに基づいて損失関数値を計算し、
前記計算された損失関数値に基づいて、前記ニューラルネットワークモデルが収束するまで、前記ニューラルネットワークモデルのパラメータと前記候補意図の語義ベクトルとを調整して前記意図識別モデルを得る、
ことを含む請求項1から3のいずれか一項に記載の意図識別モデルの訓練方法。
【請求項5】
前記複数の訓練テキスト及び前記複数の訓練テキストの前記第1標識意図の前記訓練データを取得することは、
前記複数の訓練テキストと、前記複数の訓練テキストの第1標識意図と、前記複数の訓練テキストの第2標識意図とを含む訓練データを取得する、
ことを含む請求項1から4のいずれか一項に記載の意図識別モデルの訓練方法。
【請求項6】
前記特徴抽出層と前記第1識別層とを含む前記ニューラルネットワークモデルを構築することは、
前記特徴抽出層と、前記第1識別層と、前記特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルに基づいて前記訓練テキストの第2意図結果を出力する第2識別層とを有するニューラルネットワークモデルを構築する、
ことを含む請求項1から5のいずれか一項に記載の意図識別モデルの訓練方法。
【請求項7】
前記複数の訓練テキストのトークン化結果と前記複数の訓練テキストの前記第1標識意図とに基づいて前記ニューラルネットワークモデルを訓練して前記意図識別モデルを得ることは、
前記複数の訓練テキストのトークン化結果を前記ニューラルネットワークモデルにそれぞれ入力し、前記ニューラルネットワークモデルが各訓練テキストに対して出力した第1意図結果及び第2意図結果を得、
前記複数の訓練テキストの第1意図結果と前記複数の訓練テキストの第1標識意図とに基づいて第1損失関数値を計算し、
前記複数の訓練テキストの第2意図結果と前記複数の訓練テキストの第2標識意図とに基づいて第2損失関数値を計算し、
前記計算された第1損失関数値及び第2損失関数値に基づいて、前記ニューラルネットワークモデルが収束するまで、前記ニューラルネットワークモデルのパラメータ及び前記候補意図の語義ベクトルを調整して前記意図識別モデルを得る、
ことを含む請求項1から6のいずれか一項に記載の意図識別モデルの訓練方法。
【請求項8】
識別対象テキストを取得することと、
前記識別対象テキストのトークン化結果を意図識別モデルに入力することと、
前記意図識別モデルの出力結果に基づいて、前記識別対象テキストの第1意図結果と第2意図結果とを得ることとを含み、
前記意図識別モデルは、請求項1から7のいずれか1項に記載の意図識別モデルの訓練方法に基づいて事前に訓練された、
意図識別の方法。
【請求項9】
前記意図識別モデルの出力結果に基づいて前記識別対象テキストの第2意図結果を得ることは、
前記意図識別モデルにより出力された前記識別対象テキストにおける各トークンと候補意図との間のスコアに基づいて、前記識別対象テキストの第2意図結果を得る、
ことを含む請求項8に記載の意図識別の方法。
【請求項10】
複数の訓練テキスト及び前記複数の訓練テキストの第1標識意図を含む訓練データを取得する第1取得部と、
特徴抽出層と第1識別層とを含むニューラルネットワークモデルを構築する構築部であって、前記第1識別層が、候補意図の語義ベクトルと前記特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルとに基づいて、前記訓練テキストの第1意図結果、及び前記訓練テキストにおける各トークンと前記候補意図との間のスコアを出力する構築部と、
前記複数の訓練テキストのトークン化結果と、前記複数の訓練テキストの第1標識意図とに基づいて、前記ニューラルネットワークモデルを訓練して意図識別モデルを得る訓練部と、
を備える意図識別モデルの訓練装置。
【請求項11】
前記構築部により構築される特徴抽出層は、前記訓練テキストにおける前記各トークンの前記第1語義ベクトルを出力する際に、
各訓練テキストについて、当該訓練テキストにおける各トークンの単語ベクトルを得、
前記各トークンの前記単語ベクトルに基づいて、前記各トークンの符号化結果とアテンション計算結果をそれぞれ得、
前記各トークンの前記符号化結果と前記アテンション計算結果とのスティッチング結果を復号化し、前記復号化の結果を前記各トークンの前記第1語義ベクトルとする、
請求項10に記載の意図識別モデルの訓練装置。
【請求項12】
前記構築部により構築される前記第1識別層は、前記候補意図の前記語義ベクトルと前記特徴抽出層が出力した前記訓練テキストにおける前記各トークンの前記第1語義ベクトルとに基づいて、前記訓練テキストの前記第1意図結果、及び前記訓練テキストにおける前記各トークンと前記候補意図との間の前記スコアを出力する際に、
各訓練テキストについて、当該訓練テキストにおける各トークンの第1語義ベクトルと前記候補意図の語義ベクトルに基づいて、前記各トークンの第2語義ベクトル、及び、前記各トークンと前記候補意図との間のスコアを取得し、
前記各トークンの前記第2語義ベクトルに基づいて分類を行い、前記分類の結果を訓練テキストの第1意図結果とする、
請求項10または11に記載の意図識別モデルの訓練装置。
【請求項13】
前記訓練部は、前記複数の訓練テキストのトークン化結果と前記複数の訓練テキストの前記第1標識意図とに基づいて、前記ニューラルネットワークモデルを訓練して前記意図識別モデルを得る際に、
前記複数の訓練テキストのトークン化結果を前記ニューラルネットワークモデルにそれぞれ入力し、前記ニューラルネットワークモデルが各訓練テキストに対して出力した第1意図結果を得、
前記複数の訓練テキストの第1意図結果と前記複数の訓練テキストの第1標識意図とに基づいて損失関数値を計算し、
前記計算された損失関数値に基づいて、前記ニューラルネットワークモデルが収束するまで、前記ニューラルネットワークモデルのパラメータと前記候補意図の語義ベクトルとを調整して前記意図識別モデルを得る、
請求項10から12のいずれか一項に記載の意図識別モデルの訓練装置。
【請求項14】
前記第1取得部は、前記複数の訓練テキスト及び前記複数の訓練テキストの前記第1標識意図の前記訓練データを取得する際に、
前記複数の訓練テキストと、前記複数の訓練テキストの第1標識意図と、前記複数の訓練テキストの第2標識意図とを含む訓練データを取得する、
請求項10から13のいずれか一項に記載の意図識別モデルの訓練装置。
【請求項15】
前記構築部は、前記特徴抽出層と前記第1識別層とを含む前記ニューラルネットワークモデルを構築する際に、
前記特徴抽出層と、前記第1識別層と、前記特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルに基づいて前記訓練テキストの第2意図結果を出力する第2識別層とを含むニューラルネットワークモデルを構築する、
請求項10から14のいずれか一項に記載の意図識別モデルの訓練装置。
【請求項16】
前記訓練部は、前記複数の訓練テキストのトークン化結果と前記複数の訓練テキストの前記第1標識意図とに基づいて前記ニューラルネットワークモデルを訓練して前記意図識別モデルを得る際に、
前記複数の訓練テキストのトークン化結果を前記ニューラルネットワークモデルにそれぞれ入力し、前記ニューラルネットワークモデルが各訓練テキストに対して出力した第1意図結果及び第2意図結果を得、
前記複数の訓練テキストの第1意図結果と前記複数の訓練テキストの第1標識意図とに基づいて第1損失関数値を計算し、
前記複数の訓練テキストの第2意図結果と前記複数の訓練テキストの第2標識意図とに基づいて第2損失関数値を計算し、
前記計算された第1損失関数値及び第2損失関数値に基づいて、前記ニューラルネットワークモデルが収束するまで、前記ニューラルネットワークモデルのパラメータ及び前記候補意図の語義ベクトルを調整して前記意図識別モデルを得る、
請求項10から15のいずれか一項に記載の意図識別モデルの訓練装置。
【請求項17】
識別対象テキストを取得する第2取得部と、
前記識別対象テキストのトークン化結果を意図識別モデルに入力し、前記意図識別モデルの出力結果に基づいて、前記識別対象テキストの第1意図結果と第2意図結果とを得る識別部とを備え、
前記意図識別モデルは、請求項10から16のいずれか1項の意図識別モデルの訓練装置により事前に訓練された、
意図識別の装置。
【請求項18】
前記識別部は、前記意図識別モデルの出力結果に基づいて、前記識別対象テキストの第2意図結果を得る際に、
前記意図識別モデルにより出力された前記識別対象テキストにおける各トークンと候補意図との間のスコアに基づいて、前記識別対象テキストの第2意図結果を得る、
請求項17に記載の意図識別の装置。
【請求項19】
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1から7のいずれか1項に記載の意図識別モデルの訓練方法を実行させる電子デバイス。
【請求項20】
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項8又は9に記載の意図識別の方法を実行させる電子デバイス。
【請求項21】
コンピュータに請求項1から7のいずれか1項に記載の意図識別モデルの訓練方法を実行させるためのコンピュータコマンドを記憶する非一時的なコンピュータ可読記憶媒体。
【請求項22】
コンピュータに請求項8又は9に記載の意図識別の方法を実行させるためのコンピュータコマンドを記憶する非一時的なコンピュータ可読記憶媒体。
【請求項23】
プロセッサにより実行されると、請求項1から7のいずれか1項に記載の意図識別モデルの訓練方法を実現するコンピュータプログラム。
【請求項24】
プロセッサにより実行されると、請求項8又は9に記載の意図識別の方法を実現するコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示はコンピュータ技術分野に関し、特に自然言語処理、ディープラーニング等の人工知能技術分野に関する。意図識別モデルの訓練及び意図識別の方法、装置、電子デバイス及び可読記憶媒体が提供される。
【背景技術】
【0002】
マンマシンインタラクションでは、マシンは対話文の意図を理解する必要がある。しかし、従来技術では、対話文の意図を識別する場合、一般的に対話文の文レベルの意図と単語レベルの意図のいずれかを識別するだけであり、対話文の文レベルの意図と単語レベルの意図を同時に識別することはできない。
【発明の概要】
【課題を解決するための手段】
【0003】
本開示の第1の態様によれば、複数の訓練テキスト及び複数の訓練テキストの第1標識意図を含む訓練データを取得し、特徴抽出層と、候補意図の語義ベクトルと前記特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルとに基づいて訓練テキストの第1意図結果と訓練テキストにおける各トークンと候補意図との間のスコアとを出力する第1識別層とを含むニューラルネットワークモデルを構築し、複数の訓練テキストのトークン化結果と、複数の訓練テキストの第1標識意図とに基づいて、前記ニューラルネットワークモデルを訓練して意図識別モデルを得ることを含む意図識別モデルの訓練方法を提供する。
【0004】
本開示の第2の態様によれば、識別対象テキストを取得し、前記識別対象テキストのトークン化結果を意図識別モデルに入力し、前記意図識別モデルの出力結果に基づいて、前記識別対象テキストの第1意図結果と第2意図結果を得ることを含む意図識別の方法を提供する。
【0005】
本開示の第3の態様によれば、複数の訓練テキスト及び複数の訓練テキストの第1標識意図を含む訓練データを取得する第1取得部と、特徴抽出層と、候補意図の語義ベクトルと前記特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルとに基づいて訓練テキストの第1意図結果と訓練テキストにおける各トークンと候補意図との間のスコアとを出力する第1識別層とを含むニューラルネットワークモデルを構築する構築部と、複数の訓練テキストのトークン化結果と、複数の訓練テキストの第1標識意図とに基づいて、前記ニューラルネットワークモデルを訓練して意図識別モデルを得る訓練部とを備える意図識別モデルの訓練装置を提供する。
【0006】
本開示の第4の態様によれば、識別対象テキストを取得する第2取得部と、前記識別対象テキストのトークン化結果を意図識別モデルに入力し、前記意図識別モデルの出力結果に基づいて前記識別対象テキストの第1意図結果と第2意図結果とを得る識別部とを備える意図識別の装置を提供する。
【0007】
本開示の第5の態様によれば、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに前記の方法を実行させる電子デバイスを提供する。
【0008】
本開示の第6の態様によれば、コンピュータに前記の方法を実行させるためのコンピュータコマンドを記憶する非一時的なコンピュータ可読記憶媒体を提供する。
【0009】
本開示の第7の態様によれば、プロセッサにより実行されると、前記の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品を提供する。
【0010】
以上の技術案から分かるように、本実施形態では、特徴抽出層と第1識別層とを含むニューラルネットワークモデルを構築し、候補意図の語義ベクトルを設定することにより、訓練により得られた意図識別モデルが、テキストの文レベルの意図に加えて、テキストの単語レベルの意図も識別できるようにし、意図識別モデルの識別性能を向上させる。
【0011】
理解すべきなのは、本セクションで説明される内容は、本開示の実施形態の重要なまたは肝心な特徴を標識することでもなく、本開示の範囲を制限することでもない。本開示の他の特徴は、以下の明細書により容易に理解されるであろう。
【図面の簡単な説明】
【0012】
図面は、本技術案をより良く理解するためのものであり、本願に制限されない。図面において、
【
図7】本開示の実施形態の意図識別モデルの訓練及び意図識別の方法を実施するための電子デバイスのブロック図である。
【発明を実施するための形態】
【0013】
以下、図面に基づいて、本出願の例示的な実施例を説明する。理解を容易にするために、本出願の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本出願の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
【0014】
図1は、本開示の第1実施形態に係る概略図である。
図1に示すように、本実施形態の意図識別モデルの訓練方法は、具体的に以下のステップを含むことができる。
【0015】
S101において、複数の訓練テキストと複数の訓練テキストの第1標識意図とを含む訓練データを取得する。
【0016】
S102において、特徴抽出層と第1識別層とを含むニューラルネットワークモデルを構築する。前記第1識別層は、候補意図の語義ベクトルと前記特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルとに基づいて、訓練テキストの第1意図結果と、訓練テキストにおける各トークンと候補意図との間のスコアとを出力する。
【0017】
S103において、複数の訓練テキストのトークン化結果と、複数の訓練テキストの第1標識意図とに基づいて、前記ニューラルネットワークモデルを訓練して意図識別モデルを得る。
【0018】
本実施形態の意図識別モデルの訓練方法は、特徴抽出層と第1識別層とを含むニューラルネットワークモデルを構築し、候補意図の語義ベクトルを設定することにより、ニューラルネットワークモデルにおける第1識別層は、候補意図の語義ベクトルと特徴抽出層の出力結果とに基づいて訓練テキストの第1意図結果と、訓練テキストにおける各トークンと候補意図との間のスコアとを出力することができる。更に、訓練テキストにおける各トークンと候補意図との間のスコアに基づいて、訓練テキストにおける各トークンに対応する意図も得ることができる。従って、訓練により得られた意図識別モデルは、テキストの文レベルの意図に加えて、テキストの単語レベルの意図も識別可能であり、意図識別モデルの識別性能を向上させることができる。
【0019】
本実施形態は、S101を実行して取得された訓練データにおいて、複数の訓練テキストの第1標識意図は、複数の訓練テキストの文レベルの意図の標識結果である。訓練テキストのそれぞれは1つの第1標識意図に対応してもよく、複数の第1標識意図に対応してもよい。
【0020】
例えば、訓練テキストが
である場合に、その訓練テキストのトークン化結果が
「走」と「高速」であれば、その訓練テキストの第1標識意図は「NAVI」と「HIGHWAY」を含み、その訓練テキストの第2標識意図は
に対応する「NAVI」、
に対応する「NAVI」、「走」に対応する「HIGHWAY」と「高速」に対応する「HIGHWAY」を含むことができる。
【0021】
本実施形態では、S101を実行して複数の訓練テキストと、複数の訓練テキストの第1標識意図とを含む訓練データを取得した後、S102を実行して特徴抽出層と第1識別層とを含むニューラルネットワークモデルを構築する。
【0022】
本実施形態では、S102を実行してニューラルネットワークモデルを構築する際に、複数の候補意図と、各候補意図に対応する語義ベクトルを予め設定して良い。候補意図の語義ベクトルは、候補意図の語義を表すものであって、ニューラルネットワークモデルの訓練に伴って常時に更新される。
【0023】
具体的には、本実施形態がS102を実行して構築されたニューラルネットワークモデルにおいて、特徴抽出層が入力された訓練テキストのトークン化結果に基づいて訓練テキストにおける各トークンの第1語義ベクトルを出力する際に、以下のようなオプション実現方式を採用して良い。つまり、訓練テキストごとに、その訓練テキストにおける各トークンの単語ベクトルを得、例えば、トークンに対して埋め込み(embedding)処理を行ってトークンの単語ベクトルを得、各トークンの単語ベクトルに基づいて各トークンの符号化結果とアテンション計算結果をそれぞれ得、例えば、単語ベクトルを双方向長短期記憶ネットワーク(Bi-Lstm)符号化器に入力して符号化結果を得、単語ベクトルをマルチヘッドアテンション層に入力してアテンション計算結果を得、各トークンの符号化結果とアテンション計算結果とのスティッチング結果を復号化し、復号化結果を各トークンの第1語義ベクトルとし、例えば、スティッチング結果を長短期記憶ネットワーク(Lstm)復号化器に入力して復号化結果を得る。
【0024】
本実施形態では、S102を実行して単語ベクトルをマルチヘッドアテンション層に入力してアテンション計算結果を得る際に、3つの異なる線形層を用いて単語ベクトルを変換してQ(queries matrices、クエリマトリクス)、K(keys matrices、キーマトリクス)、V(values matrices)をそれぞれ求め、更に得られたQ、K、Vに基づいて各トークンのアテンション計算結果を得ることができる。
【0025】
なお、本実施形態では、以下の式を用いて、各トークンのアテンション計算結果を求めることができる。
【数1】
【0026】
当該式において、Cはトークンのアテンション計算結果、Qはクエリマトリクス、Kはキーマトリクス、Vはバリューマトリクス、dkはトークンの数を表す。
【0027】
具体的には、本実施形態においてS102を実行して構築されたニューラルネットワークモデルにおいて、第1識別層は、候補意図の語義ベクトルと特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルとに基づいて、訓練テキストの第1意図結果と、訓練テキストにおける各分詞と候補意図との間のスコアとを出力する場合に、以下のようなオプション実現方式を採用して良い。つまり、各訓練テキストについて、当該訓練テキストにおける各トークンの第1語義ベクトル及び候補意図の語義ベクトルに基づいて各トークンの第2語義ベクトル、及び各トークンと候補意図との間のアテンションスコア等としてのスコアを取得し、各トークンの第2語義ベクトルに基づいて分類し、分類結果を訓練テキストの第1意図結果とし、例えばトークンの第2語義ベクトルを線形層変換した後に分類器に入力し、分類器により各候補意図のスコアを求め、さらにスコアが予め設定された閾値を超える候補意図を訓練テキストの第1意図結果として選択する。
【0028】
ここで、本実施形態では、S102を実行してトークン毎の第2語義ベクトルを求める際に、候補意図の語義ベクトルを線形層変換して得られた結果をQとし、トークンの第1語義ベクトルを2つの異なる線形層変換して得られた結果をそれぞれKとVとし、更に得られたQとKとVから各トークンの第2語義ベクトルを計算して得ることができる。
【0029】
本実施形態では、S102を実行して特徴抽出層と第1識別層を含むニューラルネットワークモデルを構築した後、S103を実行して複数の訓練テキストのトークン化結果と複数の訓練テキストの第1標識意図からニューラルネットワークモデルを訓練して意図識別モデルを得る。
【0030】
本実施形態では、S103を実行して訓練された意図識別モデルは、入力されたテキストのトークン化結果に基づいて、そのテキストの文レベルの意図と単語レベルの意図を出力することができる。
【0031】
具体的には、本実施形態では、S103を実行して複数の訓練テキストのトークン化結果と、複数の訓練テキストの第1標識意図とに基づいてニューラルネットワークモデルを訓練して意図識別モデルを得る際に、以下のようなオプション実現方式を採用して良い。つまり、複数の訓練テキストのトークン化結果をニューラルネットワークモデルにそれぞれ入力して、ニューラルネットワークモデルが訓練テキストごとに出力した第1意図結果を得、複数の訓練テキストの第1意図結果と複数の訓練テキストの第1標識意図とに基づいて損失関数値を計算し、計算された損失関数値に基づいてニューラルネットワークモデルのパラメータと候補意図の語義ベクトルを調整し、計算された損失関数値が収束したと判定された場合にニューラルネットワークモデルの訓練を終了して意図識別モデルを得る。
【0032】
つまり、本実施形態では、ニューラルネットワークモデルを訓練する過程で、更に、候補意図の語義ベクトルが候補意図の語義をより正確に表すことができるように、候補意図の語義ベクトルを常時に調整するため、候補意図の語義ベクトルと訓練テキストにおける各トークンの第1語義ベクトルとに基づいて訓練テキストの第1意図結果を得る場合の精度が向上する。
【0033】
図2は、本開示の第2実施形態に係る概略図である。
図2に示すように、本実施形態の意図識別モデルの訓練方法は、具体的に以下のステップを含むことができる。
【0034】
S201において、複数の訓練テキストと、複数の訓練テキストの第1標識意図と、複数の訓練テキストの第2標識意図とを含む訓練データを取得する。
【0035】
S202において、特徴抽出層と、第1識別層と、前記特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルに基づいて訓練テキストの第2意図結果を出力する第2識別層とを含むニューラルネットワークモデルを構築する。
【0036】
S203において、複数の訓練テキストのトークン化結果、複数の訓練テキストの第1標識意図、複数の訓練テキストの第2標識意図に基づいて、前記ニューラルネットワークモデルを訓練して意図識別モデルを得る。
【0037】
つまり、本実施形態で取得された訓練データには、更に訓練テキストの第2標識意図も含まれ、それに応じて第2識別層を含むニューラルネットワークモデルを構築することにより、第1標識意図と第2標識意図を含む訓練テキストに基づいて意図識別モデルを訓練する。本実施形態により訓練された意図識別モデルは、第1識別層から出力された訓練テキストにおける各トークンと候補意図とのスコアに基づいて訓練テキストにおける各トークンの意図識別結果を得る必要がなく、意図識別を行う際の意図識別モデルの効率をさらに向上させることができる。
【0038】
本実施形態では、S201を実行して取得された訓練データにおいて、複数の訓練テキストの第2標識意図は、複数の訓練テキストの単語レベルの意図である。各訓練テキストにおける一つのトークンは、1つの第2標識意図に対応する。
【0039】
本実施形態では、S202を実行して構築されたニューラルネットワークモデルにおいて、第2識別層は、特徴抽出層から出力された訓練テキストにおける各トークンの第1語義ベクトルに基づいて訓練テキストの第2意図結果を出力する場合に、以下のようなオプション実現方式を採用して良い。つまり、訓練テキストごとに、この訓練テキストにおける各トークンの第1語義ベクトルに基づいて分類し、各トークンの分類結果をこの訓練テキストの第2意図結果とし、例えば各トークンの第1語義ベクトルを線形層変換した後に分類器に入力し、分類器により各候補意図のスコアを求め、さらにスコアが予め設定された閾値を超える候補意図を当該トークンに対応する第2意図結果として選択する。
【0040】
本実施形態では、S203を実行して複数の訓練テキストのトークン化結果と、複数の訓練テキストの第1標識意図と、複数の訓練テキストの第2標識意図とに基づいて、ニューラルネットワークモデルを訓練して意図識別モデルを得る場合に、以下のようなオプション実現方式を採用して良い。つまり、複数の訓練テキストのトークン化結果をニューラルネットワークモデルにそれぞれ入力し、ニューラルネットワークモデルが訓練テキストごとに出力した第1意図結果と第2意図結果を得、複数の訓練テキストの第1意図結果と複数の訓練テキストの第1標識意図とに基づいて第1損失関数値を計算し、複数の訓練テキストの第2意図結果と複数の訓練テキストの第2標識意図とに基づいて第2損失関数値を計算し、計算された第1損失関数値と第2損失関数値とに基づいてニューラルネットワークモデルのパラメータと候補意図の語義ベクトルとを調整し、計算された第1損失関数値と第2損失関数値とが収束したと判定された場合にニューラルネットワークモデルの訓練を終了して意図識別モデルを得る。
【0041】
図3は、本開示の第3実施形態に係る概略図である。
図3に示すように、本実施形態の意図識別の方法は、具体的に以下のステップを含むことができる。
【0042】
S301において、識別対象テキストを取得する。
【0043】
S302において、前記識別対象テキストのトークン化結果を意図識別モデルに入力し、前記意図識別モデルの出力結果に基づいて、前記識別対象テキストの第一意図結果と第二意図結果を得る。
【0044】
すなわち、本実施形態では、あらかじめ訓練された意図識別モデルを用いて識別対象テキストに対して意図識別を行う。この意図識別モデルは、識別対象テキストの文レベルの意図と単語レベルの意図を出力することができるため、識別により得られる意図の種類を豊富にし、意図識別の精度を向上させることができる。
【0045】
本実施形態で使用される意図識別モデルは、異なる訓練方法により得られる可能性があるため、第2識別層を含むニューラルネットワークモデルと第2標識意図を含む訓練データを構築することにより訓練された場合、本実施形態では、識別対象テキストのトークン化結果を意図識別モデルに入力した後、当該意図識別モデルは、第1識別層を介して第1意図結果を出力し、第2識別層を介して第2意図結果を出力することができる。
【0046】
第2識別層を含むニューラルネットワークモデルと第2標識意図を含む訓練データを構築することなく訓練された場合に、本実施形態では、識別対象テキストのトークン化結果を意図識別モデルに入力した後、当該意図識別モデルは、第1識別層を介して、第1意図結果と、識別対象テキストにおける各トークンと候補意図との間のスコアとを出力する。本実施形態では、S302を実行して意図識別モデルの出力結果から第2意図結果を得る場合に、以下のようなオプション実現方式を採用して良い。つまり、意図識別モデルが出力した識別対象テキストにおける各トークンと候補意図とのスコアに基づいて、識別対象テキストの第2意図結果を得、例えば、本実施形態では、各トークンと候補意図との間のスコアに基づいてスコアマトリクスを構成し、さらにビタビ(viterbi)アルゴリズムを用いて検索して各トークンに対応する第2意図結果を得ることができる。
【0047】
図4は、本開示の第4実施形態に係る概略図である。
図4は本実施形態において意図識別を行う場合のフローチャートを示した。識別対象テキストが
である場合、当該識別対象テキストのトークン化結果が
「走」と「高速」であり、候補意図が「NAVI」、「HIGHWAY」と「POI」を含めば、各候補意図の語義ベクトルはそれぞれl1、l2、l3である。識別対象テキストのトークン化結果を意図識別モデルに入力し、意図識別モデルにおける特徴抽出層は、各トークン化結果の単語ベクトルをエンコーダ層、アテンション層、リンキング層、デコーダ層を経て、
に対応する第1語義ベクトルh1、
に対応する第1語義ベクトルh2、「走」に対応する第1語義ベクトルh3、「高速」に対応する第1語義ベクトルh4を得る。次に、各トークン化結果の第1語義ベクトルを第2識別層に入力し、第2識別層により出力された各トークン化結果に対応する第2意図結果として「NAVI」、「NAVI」、「HIGHWAY」及び「HIGHWAY」を得る。各トークンに対応する第1語義ベクトルと各候補意図の語義ベクトルとを第1識別層に入力し、第1識別層から出力された識別対象テキストに対応する第1意図結果として「NAVI」、「HIGHWAY」を得る。さらに、第1識別層は、識別対象テキストにおける各トークン化結果と候補意図との間のスコア、例えば
図4の左側のスコアマトリクスを出力する。
【0048】
図5は、本開示の第5実施形態に係る概略図である。
図5に示すように、本実施形態の意図識別モデルの訓練装置500は、複数の訓練テキストと、複数の訓練テキストの第1標識意図とを含む訓練データを取得する第1取得部501と、特徴抽出層と、候補意図の語義ベクトルと前記特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルとに基づいて訓練テキストの第1意図結果と訓練テキストにおける各トークンと候補意図との間のスコアを出力する第1識別層とを含むニューラルネットワークモデルを構築する構築部502と、複数の訓練テキストのトークン化結果と、複数の訓練テキストの第1標識意図とに基づいて、前記ニューラルネットワークモデルを訓練して意図識別モデルを得る訓練部503とを備える。
【0049】
第1取得部501により取得された訓練データのうち、複数の訓練テキストの第1標識意図は、複数の訓練テキストの文レベルの意図の標識結果である。訓練テキストのそれぞれは、1つの第1標識意図に対応してもよく、複数の第1標識意図に対応してもよい。
【0050】
第1取得部501は、訓練データを取得する際に、複数の訓練テキストの第2標識意図、すなわち、複数の訓練テキストの単語レベルの意図を取得することもできる。各訓練テキストにおける1つのトークンは、1つの第2標識意図に対応する。
【0051】
第1取得部501は、訓練データを取得した後、構築部502により、特徴抽出層と第1識別層とを含むニューラルネットワークモデルを構築する。
【0052】
構築部502は、ニューラルネットワークモデルを構築する際に、更に複数の候補意図と、各候補意図に対応する語義ベクトルとを予め設定してもよい。候補意図の語義ベクトルは、候補意図の語義を表し、ニューラルネットワークモデルの訓練に伴って常時に更新される。
【0053】
具体的には、構築部502により構築されたニューラルネットワークモデルにおいて、特徴抽出層が入力された訓練テキストのトークン化結果に基づいて、訓練テキストにおける各トークンの第1語義ベクトルを出力する際に、以下のようなオプション実現方式を採用して良い。つまり、訓練テキスト毎について、当該訓練テキストにおける各トークンの単語ベクトルを取得し、各トークンの単語ベクトルに基づいて、各トークンの符号化結果とアテンション計算結果をそれぞれ得、各トークンの符号化結果とアテンション計算結果とのスティッチング結果を復号化し、復号化結果を各トークンの第1語義ベクトルとする。
【0054】
構築部502は、単語ベクトルをマルチヘッドアテンション層に入力してアテンション計算結果を得る際に、3つの異なる線形層を用いて単語ベクトルを変換して、それぞれQ(queries matrices、クエリマトリクス)、K(keys matrices、キーマトリクス)及びV(values matrices)を得、更に得られたQ、K及びVに基づいて、各トークンのアテンション計算結果を得ることができる。
【0055】
具体的には、構築部502により構築されたニューラルネットワークモデルにおいて、第1識別層は、候補意図の語義ベクトルと特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルとに基づいて、訓練テキストの第1意図結果と、訓練テキストにおける各トークンと候補意図との間のスコアとを出力する際に、以下のようなオプション実現方式を採用して良い。つまり、各訓練テキストについて、当該訓練テキストにおける各トークンの第1語義ベクトル及び候補意図の語義ベクトルに基づいて各トークンの第2語義ベクトル及び各トークンと候補意図との間のアテンションスコアとしてのスコアを取得し、各トークンの第2語義ベクトルに基づいて分類を行い、分類結果を訓練テキストの第1意図結果とする。
【0056】
ここで、構築部502は、各トークンの第2語義ベクトルを取得した場合に、候補意図の語義ベクトルを線形層変換して得られた結果をQとし、トークンの第1語義ベクトルを2つの異なる線形層変換して得られた結果をそれぞれKとVとし、更に得られたQとKとVに基づいて各トークンの第2語義ベクトルを計算して得ることができる。
【0057】
構築部502は更に、第2識別層を含むニューラルネットワークモデルを構築することができる。第2識別層は、特徴抽出層が出力した訓練テキストにおける各トークンの第1語義ベクトルに基づいて訓練テキストの第2意図結果を出力する際に、以下のようなオプション実現方式を採用して良い。つまり、各訓練テキストについて、当該訓練テキストにおける各トークンの第1語義ベクトルに基づいて分類し、各トークンの分類結果を当該訓練テキストの第2意図結果とする。
【0058】
本実施形態では、構築部502により特徴抽出層と第1識別層とを含むニューラルネットワークモデルを構築した後、訓練部503により、複数の訓練テキストのトークン化結果と複数の訓練テキストの第1標識意図とに基づいてニューラルネットワークモデルを訓練して意図識別モデルを得る。
【0059】
具体的には、訓練部503は、複数の訓練テキストのトークン化結果と、複数の訓練テキストの第1標識意図とに基づいて、ニューラルネットワークモデルを訓練して意図識別モデルを得る際に、以下のようなオプション実現方式を採用して良い。つまり、複数の訓練テキストのトークン化結果をそれぞれニューラルネットワークモデルに入力して、ニューラルネットワークモデルが各訓練テキストに対して出力した第1意図結果を得、複数の訓練テキストの第1意図結果及び複数の訓練テキストの第1標識意図に基づいて損失関数値を計算し、計算された損失関数値に基づいてニューラルネットワークモデルのパラメータと候補意図の語義ベクトルを調整し、計算された損失関数値が収束したと判定された場合にニューラルネットワークモデルの訓練を完了して意図識別モデルを得る。
【0060】
つまり、本実施形態では、ニューラルネットワークモデルを訓練する過程で、候補意図の語義ベクトルが候補意図の語義をより正確に表すことができるように候補意図の語義ベクトルも常時に調整し、さらに、候補意図の語義ベクトルと訓練テキストにおける各トークンの第1語義ベクトルとに基づいて訓練テキストの第1意図結果を得る際の正確性が向上する。
【0061】
訓練部503は、複数の訓練テキストのトークン化結果と、複数の訓練テキストの第1標識意図と、複数の訓練テキストの第2標識意図とに基づいて、ニューラルネットワークモデルを訓練して意図識別モデルを得る際に、以下のようなオプション実現方式を採用して良い。つまり、複数の訓練テキストのトークン化結果をそれぞれニューラルネットワークモデルに入力して、ニューラルネットワークモデルが各訓練テキストに対して出力した第1意図結果と第2意図結果を得、複数の訓練テキストの第1意図結果と複数の訓練テキストの第1標識意図とに基づいて第1損失関数値を計算し、複数の訓練テキストの第2意図結果と複数の訓練テキストの第2標識意図とに基づいて第2損失関数値を計算し、計算された第1損失関数値及び第2損失関数値に基づいてニューラルネットワークモデルのパラメータ及び候補意図の語義ベクトルを調整し、計算された第1損失関数値及び第2損失関数値が収束したと判定された場合に、ニューラルネットワークモデルの訓練を完了して意図識別モデルを得る。
【0062】
図6は、本開示の第6実施形態に係る概略図である。
図6に示すように、本実施形態の意図識別装置600は、識別対象テキストを取得する第2取得部601と、前記識別対象テキストのトークン化結果を意図識別モデルに入力し、前記意図識別モデルの出力結果に基づいて、前記識別対象テキストの第1意図結果と第2意図結果とを得る識別部602とを備える。
【0063】
本実施形態で使用される意図識別モデルは、異なる訓練方法により得られる可能性があるため、第2識別層を含むニューラルネットワークモデルと、第2標識意図を含む訓練データとを構築することにより訓練された場合、識別部602が識別対象テキストのトークン化結果を意図識別モデルに入力した後、当該意図識別モデルは第1識別層を介して第1意図結果を出力し、第2識別層を介して第2意図結果を出力可能である。
【0064】
第2識別層を含むニューラルネットワークモデル及び第2標識意図を含む訓練データを構築することなく訓練された場合に、識別部602が識別対象テキストのトークン化結果を意図識別モデルに入力した後、当該意図識別モデルは、第1識別層を介して、第1意図結果と、識別対象テキストにおける各トークンと候補意図との間のスコアとを出力する。識別部602が意図識別モデルの出力結果に基づいて第2意図結果を得る際に、以下のようなオプション実現方式を採用して良い。つまり、意図識別モデルにより出力された識別対象テキストにおける各トークンと候補意図との間のスコアに基づいて、識別対象テキストの第2意図結果を得る。
【0065】
本開示の技術案において、関わるユーザの個人情報の取得、記憶及び応用等は、いずれも関連法律法規の規定に適合しており、公序良俗に反するものではない。
【0066】
本開示の実施形態によれば、本開示は更に、電子デバイス、可読記憶媒体、及びコンピュータプログラム製品を提供する。
【0067】
図7は、本開示の実施形態の意図識別モデルの訓練と意図識別の方法に係る電子デバイスのブロック図である。電子デバイスは、ラップトップ、デスクトップコンピュータ、ワークベンチ、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータのような、様々な形態のデジタルコンピュータを表す。電子デバイスは更に、PDA、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すことができる。本明細書に示す構成要素、それらの接続及び関係、ならびにそれらの機能は、単なる一例であり、本明細書に記載及び/または要求された本開示の実現を制限することではない。
【0068】
図7に示すように、デバイス700は、読み取り専用メモリ(ROM)702に記憶されたコンピュータプログラム、または記憶手段708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラムに従って、様々な適切な動作及び処理を実行することができる演算手段701を含む。RAM703には、デバイス700の動作に必要な各種のプログラムやデータが記憶されてもよい。演算手段701、ROM702及びRAM703は、バス704を介して接続されている。入出力(I/O)インターフェース705もバス704に接続されている。
【0069】
例えばキーボード、マウス等の入力手段706と、例えば様々なタイプのディスプレイ、スピーカ等の出力手段707と、例えば磁気ディスク、光ディスク等の記憶手段708と、例えばネットワークカード、モデム、無線通信トランシーバなどの通信手段709を含むデバイス700の複数の構成要素は、I/Oインターフェース705に接続される。通信手段709は、デバイス700が例えばインターネットのコンピュータネットワーク及び/または様々な電気通信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。
【0070】
演算手段701は、処理能力及び演算能力を有する様々な汎用及び/または専用の処理コンポーネントであってよい。演算手段701のいくつかの例は、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、様々な専用の人工知能(AI)演算チップ、機械学習モデルアルゴリズムを実行する様々な演算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。演算手段701は、上述した様々な方法及び処理、例えば意図識別モデルの訓練と意図識別の方法を実行する。例えば、幾つかの実施形態では、意図識別モデルの訓練と意図識別の方法は、例えば記憶手段708のような機械可読媒体に物理的に組み込まれたコンピュータソフトウェアプログラムとして実装されてもよい。
【0071】
幾つかの実施形態では、コンピュータプログラムの一部または全部は、ROM702及び/または通信手段709を介してデバイス700にロード及び/またはインストールすることができる。コンピュータプログラムがRAM703にロードされ、演算手段701により実行されると、本開示に記載の意図識別モデルの訓練と意図識別の方法の1つまたは複数のステップを実行することができる。代替的に、他の実施形態では、演算手段701は、意図識別モデルの訓練と意図識別の方法を実行するように、他の任意の適切な方法で(例えば、ファームウェアを介する)構成されてもよい。
【0072】
本明細書で前述したシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、専用集積回路(ASIC)、専用標準製品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブル論理デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/またはこれらの組み合わせにおいて実装されてもよい。これらの様々な実施形態は、1つまたは複数のコンピュータプログラムで実施されることを含んで良い。当該1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行及び/または解釈することができる。当該プログラマブルプロセッサは、専用または汎用のプログラマブルプロセッサであって、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置にデータ及び命令を転送することができる。
【0073】
本開示の方法を実施するためのプログラムコードは、1つまたは複数のプログラミング言語の任意の組み合わせを用いて記述することができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理装置のプロセッサまたはコントローラに提供することにより、プログラムコードがプロセッサまたはコントローラにより実行されると、フローチャート及び/またはブロック図に指定された機能/動作を実行するようにすることができる。プログラムコードは、全てがマシン上で実行されても良く、一部がマシン上で実行されても良く、スタンドアロンパッケージとして一部的にマシン上で実行され且つ一部的にリモートマシン上で実行され、或いは全てがリモートマシンまたはサーバ上で実行されても良い。
【0074】
本開示の文脈では、機械可読媒体は、有形の媒体であって、命令実行システム、装置またはデバイスにより使用され、或いは命令実行システム、装置またはデバイスと合わせて使用されるプログラムを含むか記憶することができる。機械可読媒体は、機械可読信号媒体または機械可読記憶媒体であってよい。機械可読媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、または半導体的なシステム、装置またはデバイス、あるいはこれらの任意の適切な組み合わせを含んで良いが、これらに限定されない。機械可読記憶媒体のより具体的な例は、1つまたは複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、携帯型コンパクトディスク読み取り専用メモリ(CD‐ROM)、光学記憶装置、磁気記憶装置、又はこれらの任意の適切な組み合わせを含む。
【0075】
ユーザとのインタラクションを提供するために、本明細書に記載されたシステム及び技術は、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、ユーザにより入力をコンピュータに提供するキーボード及びポインティングデバイス(例えば、マウスまたはトラックボール)と備えるコンピュータ上に実施されてよい。他の種類の装置は、ユーザとのインタラクションを提供するためにも使用され得る。例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であって良く、ユーザからの入力を任意の形式(音入力、音声入力、または触覚入力を含む)で受信して良い。
【0076】
本明細書に記載されたシステム及び技術は、バックエンド構成要素を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア構成要素を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド構成要素を含むコンピューティングシステム(例えば、グラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータであり、ユーザは、当該グラフィカルユーザインターフェースもしくは当該ウェブブラウザを通じて本明細書で説明されるシステムと技術の実施形態とインタラクションすることができる)、そのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムに実施されることが可能である。システムの構成要素は、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されることが可能である。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイド・エリア・ネットワーク(「WAN」)、インターネットワークを含む。
【0077】
コンピュータシステムは、クライアントとサーバを含み得る。クライアントとサーバは、一般的に互いから遠く離れており、通常は、通信ネットワークを通じてインタラクトする。クライアントとサーバとの関係は、相応するコンピュータ上で実行され、互いにクライアント-サーバの関係を有するコンピュータプログラムによって生じる。サーバはクラウドサーバ、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、従来の物理ホストとVPSサービス(「Virtual Private Server」、或いは「VPS」と略称される)において管理が難しく、ビジネスの拡張性が弱いという欠点を解決するクラウドコンピューティングサービスシステムのホスト製品の1つであって良い。サーバは、分散システムのサーバであっても良く、ブロックチェーンを組み合わせたサーバであってもよい。
【0078】
以上で示された様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除できることを理解されたい。例えば、本出願に説明される各ステップは、並列の順序又は順次的な順序で実施されてもよいし、又は異なる順序で実行されてもよく、本出願で開示された技術案の望ましい結果が達成できる限り、ここで制限されない。
【0079】
上記の具体的な実施形態は本出願の保護範囲に対する制限を構成しない。設計要件及び他の要因に従って、様々な修正、組み合わせ、部分的組み合わせ及び置換を行うことができることを当業者は理解するべきである。本出願の精神及び原則の範囲内で行われる修正、同等の置換、改善は、何れも本出願の保護範囲内に含まれるべきである。