IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 南京郵電大学の特許一覧

<>
  • 特表-セマンティック認識方法 図1
  • 特表-セマンティック認識方法 図2
  • 特表-セマンティック認識方法 図3
  • 特表-セマンティック認識方法 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-05-31
(54)【発明の名称】セマンティック認識方法
(51)【国際特許分類】
   G06F 16/35 20190101AFI20230524BHJP
   G06F 16/90 20190101ALI20230524BHJP
   G06F 40/30 20200101ALI20230524BHJP
【FI】
G06F16/35
G06F16/90 100
G06F40/30
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2022512826
(86)(22)【出願日】2021-04-29
(85)【翻訳文提出日】2022-02-24
(86)【国際出願番号】 CN2021091024
(87)【国際公開番号】W WO2022198750
(87)【国際公開日】2022-09-29
(31)【優先権主張番号】202110325369.X
(32)【優先日】2021-03-26
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
(71)【出願人】
【識別番号】518371489
【氏名又は名称】南京郵電大学
【氏名又は名称原語表記】NANJING UNIVERSITY OF POSTS AND TELECOMMUNICATIONS
【住所又は居所原語表記】No.66 Xin Mofan Road, Gulou Nanjing, Jiangsu 210003 China
(74)【代理人】
【識別番号】110000291
【氏名又は名称】弁理士法人コスモス国際特許商標事務所
(72)【発明者】
【氏名】張 暉
(72)【発明者】
【氏名】李 吉媛
(72)【発明者】
【氏名】趙 海涛
(72)【発明者】
【氏名】孫 雁飛
(72)【発明者】
【氏名】朱 洪波
【テーマコード(参考)】
5B091
5B175
【Fターム(参考)】
5B091CA12
5B091EA01
5B175DA01
5B175EA01
5B175FA03
5B175HB03
(57)【要約】
本願は、現在のユーザが入力した多意図テキストをリアルタイムで取得し、前処理を行うことと、クラスタ事前解析に基づいて、ユーザの複数の意図を認識するための多意図認識モデルを構築することと、Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、意図認識の結果を十分に利用してセマンティックスロットのフィリングを指導することと、構築された多意図認識・セマンティックスロットフィリング複合モデルを最適化することとを含むクラスタ事前解析に基づく多意図認識・セマンティックスロットフィリング複合モデリング方法を提案している。
【選択図】図1
【特許請求の範囲】
【請求項1】
セマンティック認識方法であって、
現在のユーザが入力した意図テキストをリアルタイムで取得し、BERTモデルを用いて前記意図テキストをベクトル化して意図テキストベクトルを得るステップS101と、
クラスタ事前解析に基づいて多意図認識モデルを構築し、前記意図テキストベクトルから前記ユーザの複数の意図を認識するステップS102と、
Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、認識された前記複数の意図を用いて前記セマンティックスロットフィリングモデルのセマンティックスロットをフィリングするステップS103と、
前記BERTモデル、前記多意図認識モデル及び前記セマンティックスロットフィリングモデルからなる複合モデルに対して最適化訓練を行い、最適化訓練済みの複合モデルを用いて前記複合モデルに入力されたテキストを認識するステップS104とを含む、セマンティック認識方法。
【請求項2】
前記クラスタ事前解析に基づいて前記多意図認識モデルを構築し、前記ユーザの複数の意図を認識する前記ステップは、
K-meansクラスタリングアルゴリズムを用いて、入力された前記意図テキストベクトルを単一意図カテゴリの意図テキストベクトルと多意図カテゴリの意図テキストベクトルとに分ける第1段階と、
前記単一意図カテゴリの意図テキストベクトルを、前記複数の意図を認識するためにsoftmax分類器によって分類し、前記複数の意図の意図テキストベクトルを、前記複数の意図を認識するためにsigmoid分類器によって分類する第2段階とを含む、請求項1に記載の方法。
【請求項3】
前記K-meansクラスタリングアルゴリズムにおける距離関数は、以下の通りであり、
【数14】
請求項2に記載の方法。
【請求項4】
ステップS104における前記複合モデルの最適化訓練は、
訓練テキストを用いて前記BERTモデル及び前記多意図認識モデルを訓練し、前記BERTモデル及び前記多意図認識モデルのパラメータを更新するステップ(1)と、
(1)における前記多意図認識モデルの出力をSlot-Gatedに伝送し、(1)で更新されたBERTモデルとセマンティックスロットフィリングモデルを(1)と同じ訓練テキストを用いて訓練し、BERTモデル及びセマンティックスロットフィリングモデルのパラメータを更新するステップ(2)と、
訓練目標を達成するまで(1)と(2)を反復実行するステップ(3)とを含む、請求項1に記載の方法。
【請求項5】
前記多意図認識モデルの
【数15】
ここで、kは意図テキストのカテゴリを表し、前記意図テキストが複数の意図を含む場合にkは1であり、意図テキストが単一意図である場合にkは0であり、
【数16】
Tは訓練テキストの数である、請求項4に記載の方法。
【請求項6】
前記セマンティックスロットフィリングモデルの
【数17】
Tは訓練テキスト数であり、Mは訓練テキストシーケンス長を表す、請求項4に記載の方法。
【請求項7】
プロセッサによって実行されると請求項1~6のいずれか1項に記載の方法を実現するコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体。
【請求項8】
メモリと、プロセッサとを含み、前記メモリにはコンピュータプログラムが記憶されており、前記コンピュータプログラムが前記プロセッサによって実行されると、請求項1~6のいずれか1項に記載の方法が実現されるセマンティック認識システム。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、自然言語処理の分野に関し、特に、マンマシン対話システムにおける自然言語のセマンティック解析方法に関する。
【0002】
本願は2021年3月26日に中国特許庁に提出され、出願番号が202110325369Xであり、出願の名称が「クラスタ事前解析に基づく多意図・セマンティックスロット複合認識方法」である中国特許出願の優先権を主張しており、そのすべての内容は引用によって本願に組み込まれている。
【背景技術】
【0003】
人工知能の急速な発展に伴い、多くの応用シーンにおけるデバイスの知能性に対する要求はますます増加している。知能性の要求を満たすためには、良好なヒューマンコンピュータインタラクションが不可欠である。現在、ヒューマンコンピュータインタラクションの方式は多様化しているが、その中で最も便利な方式は自然言語を使用することに越したことはない。そのため、自然言語を利用したヒューマンコンピュータインタラクションを実現する要望もますます高まっている。これにより、マンマシン対話システムは学術界と産業界から広く注目され、非常に広範な応用シーンを有する。
【発明の概要】
【発明が解決しようとする課題】
【0004】
マンマシン対話システムの実現には自然言語のセマンティック解析技術が不可欠である。セマンティック解析の良し悪しは、ヒューマンコンピュータインタラクションの効果に直接影響する。自然言語の複雑性、抽象性や言葉の多義性などにより、自然言語のセマンティック解析が難しくなっている。現在、セマンティック解析は意図認識とセマンティックスロットフィリングとの2つの基本的なサブタスクに分けられている。この2つのサブタスクに対して、従来の研究方法は、この2つのタスクを独立した2つの問題として解決し、その後2つのタスクの結果を結合することである。
【課題を解決するための手段】
【0005】
本願の各例示的な実施例は、
現在のユーザが入力した意図テキストをリアルタイムで取得し、BERTモデルを用いて前記意図テキストをベクトル化して意図テキストベクトルを得るステップS101と、
クラスタ事前解析に基づいて多意図認識モデルを構築し、前記意図テキストベクトルから前記ユーザの複数の意図を認識するステップS102と、
Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、認識された前記複数の意図を用いて前記セマンティックスロットフィリングモデルのセマンティックスロットをフィリングするステップS103と、
前記BERTモデル、前記多意図認識モデル及び前記セマンティックスロットフィリングモデルからなる複合モデルに対して最適化訓練を行い、最適化訓練済みの複合モデルを用いて前記複合モデルに入力されたテキストを認識するステップS104とを含むセマンティック認識方法を提供する。
【0006】
一実施例では、前記クラスタ事前解析に基づいて前記多意図認識モデルを構築し、前記ユーザの複数の意図を認識する前記ステップは、
K-meansクラスタリングアルゴリズムを用いて、入力された前記意図テキストベクトルを単一意図カテゴリの意図テキストベクトルと多意図カテゴリの意図テキストベクトルとに分ける第1段階と、
前記単一意図カテゴリの意図テキストベクトルを、前記複数の意図を認識するためにsoftmax分類器によって分類し、前記複数の意図の意図テキストベクトルを、前記複数の意図を認識するためにsigmoid分類器によって分類する第2段階とを含む。
【0007】
一実施例では、前記K-meansクラスタリングアルゴリズムにおける距離関数は、以下の通りであり、
【数1】
【0008】
一実施例では、ステップS104における前記複合モデルの最適化訓練は、
訓練テキストを用いて前記BERTモデル及び前記多意図認識モデルを訓練し、前記BERTモデル及び前記多意図認識モデルのパラメータを更新するステップ(1)と、
(1)における前記多意図認識モデルの出力をSlot-Gatedに伝送し、(1)で更新されたBERTモデルとセマンティックスロットフィリングモデルを(1)と同じ訓練テキストを用いて訓練し、BERTモデル及びセマンティックスロットフィリングモデルのパラメータを更新するステップ(2)と、
訓練目標を達成するまで(1)と(2)を反復実行するステップ(3)とを含む。
【0009】
一実施例では、前記多意図認識モデルの
【数2】
ここで、kは意図テキストのカテゴリを表し、前記意図テキストが複数の意図を含む場合にkは1であり、意図テキストが単一意図である場合にkは0であり、
【数3】
Tは訓練テキストの数である。
【0010】
一実施例では、前記セマンティックスロットフィリングモデルの
【数4】
Tは訓練テキスト数であり、Mは訓練テキストシーケンス長を表す。
【0011】
本願で採用された以上の技術案は、従来技術と比較して、以下の技術的効果を有する。
【0012】
本願では、意図認識とセマンティックスロットフィリングとの関連性を十分に考慮して、複合認識モデルを構築し、2つのセマンティック解析サブタスクを1つのタスクに統合し、BERTの基礎となるセマンティック特徴を共有する。次に、Slot-Gated関連付けゲートを用いて意図-セマンティックスロット複合特徴ベクトルを生成し、これをセマンティックスロットフィリングタスクに用いる。セマンティックスロットフィリングのタスクでは、BiLSTMを用いてテキストの語順特徴をキャプチャし、文脈セマンティック情報を取得し、CRFをデコーダとして、ラベル前後の依存関係を考慮することで、セマンティックスロットラベル付けをより合理的にする。さらに、複合モデル全体の性能を向上させるために、多意図認識過程において、ユーザの入力意図の不確実性に対して、意図の数を判断するためにクラスタ事前解析に基づくアルゴリズムを提案している。このアルゴリズムでは、従来のセマンティック類似度の測定方法を改良して、新しい測定方式を提案し、新しい測定方式は意図テキスト間の類似度をより効果的に測定し、意図数の判断の正確度を高め、アルゴリズムのロバスト性を向上させることができる。セマンティック解析の能力を高めるために、意図セマンティック情報を十分に利用してセマンティックスロットフィリングを指導し、反復の思想に基づいて、段階的反復訓練方式を提案し、意図とセマンティックスロットとの相互関係を十分に利用することができ、セマンティックスロットフィリングの正確性を高めると同時に、多意図認識モデルの正確性を高め、それによってセマンティック解析の効果を高める。
【0013】
本願の目的、技術案及び技術的効果をより明確にするために、本願は以下の図面を提供して説明する。
【図面の簡単な説明】
【0014】
図1】本願の一実施例の複合モデリング方法の全体的な構造のブロック図である。
図2】本願の一実施例のクラスタ事前解析に基づく多意図認識のフローチャートである。
図3】本願の一実施例のセマンティックスロット認識モデルの構造図である。
図4】本願の一実施例の複合認識モデルの段階的反復訓練方式の模式図である。
【発明を実施するための形態】
【0015】
本願の目的、技術案及び利点をより明確かつ明瞭にするために、以下、図面及び実施例を参照して、本願についてさらに詳細に説明する。なお、本明細書に記載された特定の実施例は、本願を解釈するためのものに過ぎず、本願を限定するものではない。
【0016】
以上のように、従来の研究方法は、意図認識とセマンティックスロットフィリングとの2つのタスクを独立した2つの問題として解決し、その後、2つのタスクの結果を結合することである。
【0017】
しかし、本発明者らは、意図認識がユーザニーズのタイプに対する判断であり、セマンティックスロットフィリングがユーザニーズを具体化することであることを発見した。したがって、ユーザの意図と認識対象のスロットビットとは強く相関しており、意図認識の目的はセマンティックスロットフィリングをより良く行うことである。一方、従来の単独モデリング方法では、2つのタスク間の関連性を十分に考慮していないため、セマンティック情報を有効に利用することができなかった。さらに、マンマシン対話システムでは、ユーザが入力する意図テキストには1つの意図だけが含まれるのではない可能性があり、複数の意図が現れる可能性もあるという多意図認識の問題に直面する場合が多い。現在、意図認識問題の研究は主に単一意図の認識に集中しているが、多意図認識は単一意図認識に比べて認識がより複雑であるだけでなく、セマンティック理解の程度がより高く要求される。
【0018】
したがって、本発明者らは、マンマシン対話システムにおけるセマンティック解析の問題に対して、従来技術に基づいて多意図認識とセマンティックスロットフィリングを効果的に解決する複合モデリング方法をどのように提案するかが、当業者が早急に解決すべき問題の1つであることを発見した。
【0019】
図1に示すように、本願の一実施例は、クラスタ事前解析に基づく多意図・セマンティックスロット複合認識方法を開示し、ステップS101~ステップS104を含む。
ステップS101において、現在のユーザが入力した多意図テキストをリアルタイムで取得して、前処理を行う。
ステップS102において、クラスタ事前解析に基づいてユーザの複数の意図を認識するために多意図認識モデルを構築する。
ステップS103において、Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、意図認識の結果を十分に利用してセマンティックスロットフィリングを指導する。
ステップS104において、構築された多意図認識・マンティックスロットフィリング複合モデルを最適化する。
【0020】
ここで、現在のユーザが入力した多意図テキストを前処理することは、ニューラルネットワークモデルに入力してセマンティック特徴抽出を行いやすくするために、多意図テキストをベクトル化することである。本願の実施例のベクトル化方法は、まず、同分野の大量テキスト(例えば、中国語、英語や他の様々な言語テキスト)教師なしデータを用いてBERT(Bidirectional Encoder Representations from Transformer)モデルを訓練することである。次に、得られたBERT事前訓練モデルを用いて多意図テキストをベクトル化することである。
【0021】
上記ステップS102におけるクラスタ事前解析に基づく多意図認識モデルの構築の目的は、セマンティックスロットフィリングに用いることである。多意図認識の正否はセマンティックスロットフィリングに直接影響する。
【0022】
多意図認識の精度を向上させるために、ユーザが入力した意図の不確実性に対して、本願の実施例では、意図認識に先立って意図テキストを解析して、意図が単一意図であるか多意図であるかを判断するクラスタ事前解析に基づく方法を提案する。図2に示すように、クラスタ事前解析方法に基づく意図認識には以下のステップが含まれる。
【0023】
意図認識全体は2つの段階に分けられる。
【0024】
まず、第1段階では、K-meansクラスタリングアルゴリズムを用いて入力された意図テキストのカテゴリを判断する。
【0025】
一般には、意図は主に単一意図と多意図の2種類に分けられるので、K-meansクラスタリングアルゴリズムのクラスタリング中心Kは2つである。
【0026】
第2段階では、入力された意図テキストを、判断された意図の個数に応じてそれぞれ分類する。
【0027】
意図テキストに複数の意図が含まれていると判断された場合、多意図分類器を用いて分類を行う。すなわち、BERT事前訓練モデルの後に完全接続層が追加される。完全接続層の各ノードは、1つ上の層のすべてのノードに接続されて、先に抽出されたセマンティック特徴を融合する。次に、BERTモデルが出力した意図テキストベクトルを、sigmoid分類器に入力し、分類器によってラベルごとに二次分類を行い、複数の意図ラベルを出力する。ラベル予測の計算式は以下のとおりである。
【数5】
ここで、yは予測確率、Wは意図認識の重み、Cは意図テキストベクトル、bは意図認識のバイアスである。
【0028】
意図テキストが単一意図であると判断された場合、softmax分類器を用いて、BERT出力の最初のフラグが([CLS])である文ベクトルCを分類器に直接入力して分類し、予測される意図ラベルが次の式により得られる。
【数6】
ここで、yは予測確率、Wは意図認識の重み、Cは意図テキストベクトル、bは意図認識のバイアスである。
【0029】
K-meansクラスタリングアルゴリズムを用いて多意図テキストを事前解析する過程では、意図テキスト間のセマンティックの類似度を判断する必要がある。セマンティックの類似度の測定は、クラスタリングの結果の正確性に極めて重要である。テキストのセマンティックの類似度の測定では、コサイン類似度を計算するのが一般的な方法である。余弦類似度は、空間内の2つのベクトル間の差異を表すことができる。しかし、コサイン類似度は絶対値に敏感ではなく、同一方向での差異を測定することはできない。一方、ユークリッド距離(Euclidean Metric)は類似度を計算する際、絶対的な数値に敏感であり、同じ方向での差異をよく測定することができる。したがって、本願では、コサイン類似度とユークリッド距離に基づいて、両者の特徴を組み合わせて、次に示すような新しい測定方法を提案する。
【数7】
データオブジェクト間の類似度が小さいことを示す。この方法を使用すると、テキスト間の類似度をよりよく測定することができる。
【0030】
上記ステップS103におけるフィリング過程では、Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、意図認識の結果を十分に利用してセマンティックスロットフィリングを指導する。
【0031】
図3には、意図認識タスクをセマンティックスロットフィリングタスクに関連付けることができるSlot-Gated関連付けゲート機構が示されている。すなわち、意図認識の意図ベクトルとセマンティックスロットフィリングのための意図テキストベクトルとを重み付け加算する。次に、関数tanhを活性化することにより、意図‐セマンティックスロット複合特徴ベクトルgを得る。意図‐セマンティックスロット複合特徴ベクトルgの計算方法は、次のとおりである。
【数8】
v及びWはそれぞれ訓練可能なベクトルと行列である。
【0032】
意図-セマンティックスロット複合特徴ベクトルgを算出した後、意図-セマンティックスロット複合特徴ベクトルgを、BiLSTM(Bi-directional Long Short-Term Memory)ニューラルネットワークに入力することにより、テキストの語順特徴を抽出し、深いレベルの文脈セマンティック情報をキャプチャする。次に、BiLSTMネットワークの後ろに線形層(Linear Layer)を追加し、ニューラルネットワークの出力ベクトルの次元をマッピングし、セマンティックスロット復号に用いる。最後にCRF(Conditional Random Field)復号層を復号ユニットとして、シーケンス中の各語に対応するスロットラベルを出力する。計算方法は次のとおりである。
【数9】
隠された状態のベクトルである。図3においてB-timeはtimeスロットラベルの開始マーク、I-timeはtimeスロットラベルの後続マークである。
【0033】
上記のステップS104では、構築された多意図認識・セマンティックスロットフィリング複合モデルを最適化する。
【0034】
図4に示すように、複合認識モデルの性能は2つのサブタスクによって共同で決定される。多意図認識とセマンティックスロットフィリングの複合確率は以下のように示す。
【数10】
【0035】
図4に示す複合モデル訓練では、訓練の目標は多意図認識とセマンティックスロットフィリングを出力する複合確率を最大化することである。セマンティック解析の能力を向上させるために、セマンティックスロットフィリングに意図セマンティック情報を十分に利用して、複合認識モデルを最適化する。モデル訓練の際に、従来の複数のタスク損失関数を単純に加算するような方式を変更する。反復の思想に基づいて、多意図認識とセマンティックスロットフィリングを複合する段階的反復訓練方式を提案している。図4に示すように、まず、訓練データを複合認識モデルに入力する。訓練の際には、まず、多意図認識モデルを1ラウンド訓練する。逆伝播により多意図認識モデルパラメータ及び基礎となるBERTモデルパラメータを更新する。次に、更新されたモデルを用いて、多意図認識結果のセマンティック特徴をSlot-Gated関連付けゲートに伝送する。Slot-Gated関連付けゲートにより意図のセマンティック特徴と更新されたBERTモデルを用いて生成されたセマンティックスロット特徴とを融合し、意図-セマンティックスロット複合特徴ベクトルを生成する。生成された意図-セマンティックスロット複合特徴ベクトルを、セマンティックスロットフィリングモデルの訓練に用いる。訓練の際には、逆伝播によりセマンティックスロットフィリングモデルのパラメータ及び基礎となるBERTモデルのパラメータを更新する。最適になるまで訓練を繰り返す。
【0036】
多意図認識とセマンティックスロットフィリングの2つのタスクは、訓練時にBERTモデルの基礎パラメータを共有し、すなわち、1つのモデルを訓練するときに別のモデルの訓練結果で基礎モデルの初期化を行う。一方、上流タスクはそれぞれ訓練を行い、同時に意図認識の結果はセマンティックスロットフィリングタスクに伝送される。セマンティックスロットフィリングの精度を向上させつつ、多意図認識モデルの精度を向上させる。
【0037】
損失関数は、モデルパラメータの更新に非常に重要である。損失関数の選択が不合理であれば、モデルが強くても最後の結果はよくない。
【0038】
複合認識モデルにおける
【数11】
【数12】
jは訓練テキスト中のあるテキスト、Tは多意図認識の訓練テキスト数である。
【0039】
複合認識モデルでは、セマンティックスロットは
【数13】
はセマンティックスロットフィリングの訓練テキスト数を表し、Mは訓練テキストシーケンス長を表す。
【0040】
図4において、W11、W12は多意図認識の重みを表し、Ws1、Ws2はセマンティックスロットフィリングの重みを表す。
【0041】
なお、図1図4のフローチャートにおける各ステップは、矢印で示される順序で順次表示されているが、必ずしもこれらのステップが矢印で示される順序で順次実行されるわけではない。本願の実施例に明示的に記載されていない限り、これらのステップの実行には厳密な順序制限がなく、これらのステップは他の順序で実行されてもよい。さらに、図1図4のステップの少なくとも一部は、複数のサブステップ又は複数の段階を含んでもよく、これらのサブステップ又は段階は、必ずしも同じ時点で実行を完了するのではなく、異なる時点で実行されてもよく、これらのサブステップ又は段階の実行順序は、必ずしも順次ではなく、他のステップ又は他のステップのサブステップ又は段階の少なくとも一部と順番に又は交互に実行されてもよい。
【0042】
本願は、クラスタ事前解析に基づく多意図・セマンティックスロット複合認識システムをさらに提供し、このシステムは、メモリと、プロセッサとを含み、前記メモリにはコンピュータプログラムが記憶されており、前記コンピュータプログラムが前記プロセッサによって実行されると、上述の多意図・セマンティックスロット複合認識方法が実現される。
【0043】
本願は、プロセッサによって実行されると、上述した多意図・セマンティックスロット複合認識方法のステップを実施するコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体をさらに提供する。このコンピュータ読み取り可能な記憶媒体は、USBメモリ、リムーバブルハードディスク、読み取り専用メモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク又は光ディスクなど、プログラムコードを記憶することができる様々な媒体を含んでもよい。
【0044】
当業者が理解できるように、上記の実施例の方法におけるプロセスの全部又は一部の実施は、コンピュータプログラムを介して関連するハードウェアに指示して達成させてもよく、前記コンピュータプログラムは非揮発性コンピュータ読み取り可能な記憶媒体に記憶されてもよく、このコンピュータプログラムが実行されるときに、上記の各方法の実施例のプロセスを含んでもよい。ここで、本願による各実施例で使用されるメモリ、記憶、データベースや他の媒体の任意の参照は、いずれも不揮発性及び/又は揮発性メモリを含んでもよい。不揮発性メモリには、読み取り専用メモリ(ROM)、プログラマブルROM(PROM)、電気的にプログラム可能なROM(EPROM)、電気的に消去可能なプログラマブルROM(EEPROM)、又はフラッシュメモリが含まれてもよい。揮発性メモリには、ランダムアクセスメモリ(RAM)又は外部キャッシュメモリが含まれてもよい。限定的なものではなく、説明的なものとして、RAMは、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、同期DRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、拡張SDRAM(ESDRAM)、同期リンク(Synchlink)DRAM(SLDRAM)、メモリバス(Rambus)ダイレクトRAM(RDRAM)、ダイレクトメモリバスダイナミックRAM(DRDRAM)やメモリバスダイナミックRAM(RDRAM)などのさまざまな形態で得られる。
【0045】
以上の実施例の各技術的特徴は任意の組み合わせを行うことができ、説明を簡潔にするために、以上の実施例における各技術的特徴の可能なすべての組み合わせについて説明していないが、これらの技術的特徴の組み合わせに矛盾がない限り、すべて本明細書に記載された範囲であると考えるべきである。
【0046】
以上の前記実施例は、本願のいくつかの実施形態を示しただけであり、その説明は比較的に具体的かつ詳細であるが、それによって発明特許の範囲を制限するものとして理解できない。なお、当業者にとっては、本願の概念を逸脱することなく、いくつかの変形や改良を行うことができ、これらは全て本願の保護範囲に属する。したがって、本願の特許の保護範囲は、添付の特許請求の範囲を基準とすべきである。
図1
図2
図3
図4
【国際調査報告】