IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ エヌ・ティ・ティ・コムウェア株式会社の特許一覧

特開2023-12177検索装置、検索方法、およびプログラム
<>
  • 特開-検索装置、検索方法、およびプログラム 図1
  • 特開-検索装置、検索方法、およびプログラム 図2
  • 特開-検索装置、検索方法、およびプログラム 図3
  • 特開-検索装置、検索方法、およびプログラム 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023012177
(43)【公開日】2023-01-25
(54)【発明の名称】検索装置、検索方法、およびプログラム
(51)【国際特許分類】
   G06F 16/38 20190101AFI20230118BHJP
【FI】
G06F16/38
【審査請求】有
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2021115664
(22)【出願日】2021-07-13
(11)【特許番号】
(45)【特許公報発行日】2022-09-08
(71)【出願人】
【識別番号】397065480
【氏名又は名称】エヌ・ティ・ティ・コムウェア株式会社
(74)【代理人】
【識別番号】100083806
【弁理士】
【氏名又は名称】三好 秀和
(74)【代理人】
【識別番号】100101247
【弁理士】
【氏名又は名称】高橋 俊一
(74)【代理人】
【識別番号】100095500
【弁理士】
【氏名又は名称】伊藤 正和
(72)【発明者】
【氏名】川前 徳章
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175DA01
5B175FB03
(57)【要約】
【課題】形式の異なる対象を含めた検索を可能にする。
【解決手段】検索システム1は、対象のIDとその対象を参照する文書を入力し、文書から単語を抽出し、少なくとも対象と文書と単語をモードとするテンソルデータを生成する事前処理部11と、NTFによりテンソルデータを分解して対象と文書と単語の分散埋め込み表現とトピックを学習するとともに、Transformerエンコーダに対象と文書と単語の分散埋め込み表現とトピックを文書ごとに入力し、単語の一部を除いたときの除いた単語の予測精度を表す目的関数MLMと、対象を与えないときの対象の予測精度を表す目的関数MIDと、対象と単語のマッチング度合いを表す目的関数ILMの値を最小化するように対象と文書と単語の分散埋め込み表現とトピックを更新する計算処理部12と、対象と単語との演算を含む検索式を入力し、対象と単語の分散埋め込み表現を得て、分散埋め込み表現の演算結果に対応する対象または単語を検索結果として出力する検索部20を備える。
【選択図】図2
【特許請求の範囲】
【請求項1】
対象の識別子と前記対象を参照する文書を入力し、前記文書から単語を抽出し、少なくとも前記対象と前記文書と前記単語をモードとするテンソルデータを生成する事前処理部と、
NTFにより前記テンソルデータを分解して前記対象と前記文書と前記単語の分散埋め込み表現とトピックを学習する第1学習部と、
Transformerエンコーダに前記第1学習部の学習した前記対象と前記文書と前記単語の分散埋め込み表現とトピックを前記文書ごとに入力し、前記単語の一部を除いたときの除いた前記単語の予測精度を表す目的関数と、前記対象を与えないときの前記対象の予測精度を表す目的関数と、前記対象と前記単語のマッチング度合いを表す目的関数の値を最小化するように前記対象と前記文書と前記単語の分散埋め込み表現とトピックを更新する第2学習部と、
前記第1学習部と前記第2学習部で学習した前記対象と前記文書と前記単語の分散埋め込み表現を記憶する結果記憶部と、
前記対象と前記単語との演算を含む検索式を入力し、前記結果記憶部から前記対象と前記単語の分散埋め込み表現を得て、当該分散埋め込み表現の演算結果に対応する前記対象または前記単語を検索結果として出力する検索部を備える
検索装置。
【請求項2】
請求項1に記載の検索装置であって、
前記第1学習部は、前記対象と前記文書と前記単語の分散埋め込み表現を全結合する多層パーセプトロンレイヤと、前記対象と前記文書と前記単語のトピックの積を求めるテンソル因子分解レイヤと、前記分散埋め込み表現の全結合と前記トピックの積から前記テンソルデータの要素の推定値を求めるニューラルテンソル因子分解レイヤを備え、前記要素の推定値の誤差を最小化するように前記対象と前記文書と前記単語の分散埋め込み表現とトピックを学習する
検索装置。
【請求項3】
コンピュータが、
対象の識別子と前記対象を参照する文書を入力し、前記文書から単語を抽出し、少なくとも前記対象と前記文書と前記単語をモードとするテンソルデータを生成し、
NTFにより前記テンソルデータを分解して前記対象と前記文書と前記単語の分散埋め込み表現とトピックを学習し、
Transformerエンコーダに学習した前記対象と前記文書と前記単語の分散埋め込み表現とトピックを前記文書ごとに入力し、前記単語の一部を除いたときの除いた前記単語の予測精度を表す目的関数と、前記対象を与えないときの前記対象の予測精度を表す目的関数と、前記対象と前記単語のマッチング度合いを表す目的関数の値を最小化するように前記対象と前記文書と前記単語の分散埋め込み表現とトピックを更新し、
学習した前記対象と前記文書と前記単語の分散埋め込み表現を結果記憶部に記憶し、
前記対象と前記単語との演算を含む検索式を入力し、前記結果記憶部から前記対象と前記単語の分散埋め込み表現を得て、当該分散埋め込み表現の演算結果に対応する前記対象または前記単語を検索結果として出力する
検索方法。
【請求項4】
請求項3に記載の検索方法であって、
前記NTFは、前記対象と前記文書と前記単語の分散埋め込み表現を全結合する多層パーセプトロンレイヤと、前記対象と前記文書と前記単語のトピックの積を求めるテンソル因子分解レイヤと、前記分散埋め込み表現の全結合と前記トピックの積から前記テンソルデータの要素の推定値を求めるニューラルテンソル因子分解レイヤを備え、前記要素の推定値の誤差を最小化するように前記対象と前記文書と前記単語の分散埋め込み表現とトピックを学習する
検索方法。
【請求項5】
請求項1または2に記載の検索装置の各部としてコンピュータを動作させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、検索装置、検索方法、およびプログラムに関する。
【背景技術】
【0002】
テキストから画像や音声などの非テキストデータを検索したり、非テキストデータからテキストを検索したりするマルチモーダル検索では、非テキストデータのメタデータに対する全文一致検索を行う方法がある。また、画像と文字列のベクトルの近さが意味の近さになるように学習したモデルを用いて画像または文字列を分散埋め込み表現のベクトルに変換し、ベクトルの近さで画像および文字列を検索する方法がある(非特許文献1-3参照)。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Yen-Chun Chen, Linjie Li, Licheng Yu, Ahmed El Kholy, Faisal Ahmed, Zhe Gan, Yu Cheng, and Jingjing Liu, “UNITER: UNiversal Image-TExt Representation Learning”, ECCV, 2020, pp. 104-120
【非特許文献2】Weijie Su, Xizhou Zhu, Yue Cao, Bin Li, Lewei Lu, Furu Wei, and Jifeng Dai, “VL-BERT: Pre-training of Generic Visual-Linguistic Representations”, ICLR, 2020
【非特許文献3】Tan Wang, Xing Xu, Yang Yang, Alan Hanjalic, Heng Tao Shen, and Jingkuan Song,“Matching Images and Text with Multimodal Tensor Fusion and Re-ranking”, MM, 2019, pp. 12-20
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来の方法では、特徴量を抽出できない非テキストデータあるいは特徴量の抽出が困難な非テキストデータからは分散埋め込み表現が学習できないという問題があった。特徴量を抽出できない対象とは、例えば、場所、イベントなどである。場所そのもの、イベントそのものからは特徴量を抽出できない。
【0005】
また、画像と音声といった異なる形式の特徴量を持つ対象の分散埋め込み表現を同時に学習することができないという問題があった。例えば、画像と文字列のベクトルの近さが意味の近さになるように同時に学習することができるが、画像と文字列に加えて、画像とは異なる形式の特徴量を持つ音声を同時に学習することはできなかった。
【0006】
本発明は、上記に鑑みてなされたものであり、形式の異なる対象を含めた検索を可能にすることを目的とする。
【課題を解決するための手段】
【0007】
本発明の一態様の検索装置は、対象の識別子と前記対象を参照する文書を入力し、前記文書から単語を抽出し、少なくとも前記対象と前記文書と前記単語をモードとするテンソルデータを生成する事前処理部と、NTFにより前記テンソルデータを分解して前記対象と前記文書と前記単語の分散埋め込み表現とトピックを学習する第1学習部と、Transformerエンコーダに前記第1学習部の学習した前記対象と前記文書と前記単語の分散埋め込み表現とトピックを前記文書ごとに入力し、前記単語の一部を除いたときの除いた前記単語の予測精度を表す目的関数と、前記対象を与えないときの前記対象の予測精度を表す目的関数と、前記対象と前記単語のマッチング度合いを表す目的関数の値を最小化するように前記対象と前記文書と前記単語の分散埋め込み表現とトピックを更新する第2学習部と、前記対象と前記単語との演算を含む検索式を入力し、前記対象と前記単語の分散埋め込み表現を得て、当該分散埋め込み表現の演算結果に対応する前記対象または前記単語を検索結果として出力する検索部を備える。
【0008】
本発明の一態様の検索方法は、コンピュータが、対象の識別子と前記対象を参照する文書を入力し、前記文書から単語を抽出し、少なくとも前記対象と前記文書と前記単語をモードとするテンソルデータを生成し、NTFにより前記テンソルデータを分解して前記対象と前記文書と前記単語の分散埋め込み表現とトピックを学習し、Transformerエンコーダに学習した前記対象と前記文書と前記単語の分散埋め込み表現とトピックを前記文書ごとに入力し、前記単語の一部を除いたときの除いた前記単語の予測精度を表す目的関数と、前記対象を与えないときの前記対象の予測精度を表す目的関数と、前記対象と前記単語のマッチング度合いを表す目的関数の値を最小化するように前記対象と前記文書と前記単語の分散埋め込み表現とトピックを更新し、前記対象と前記単語との演算を含む検索式を入力し、前記対象と前記単語の分散埋め込み表現を得て、当該分散埋め込み表現の演算結果に対応する前記対象または前記単語を検索結果として出力する。
【発明の効果】
【0009】
本発明によれば、形式の異なる対象を含めた検索が可能になる。
【図面の簡単な説明】
【0010】
図1図1は、本実施形態の検索システムの構成の一例を示す図である。
図2図2は、本実施形態で提案するモデルの一例を示す図である。
図3図3は、本実施形態の検索システムの学習処理の流れの一例を示すフローチャートである。
図4図4は、本実施形態の検索システムの検索処理の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0011】
[システム構成]
以下、本発明の実施の形態について図面を用いて説明する。
【0012】
図1は、本実施形態の検索システムの構成の一例を示す図である。同図に示す検索システム1は、学習部10、検索部20、データ保存部30、および計算結果記憶部40を備える。検索システム1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは検索システム1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
【0013】
学習部10は、対象と、対象を参照する文書と、文書に出現する単語との間にトピックという構造を仮定し、その構造を介在して対象、文書、および単語の分散埋め込み表現を学習する。対象とは、画像、音楽、または動画などの非テキストデータである。対象は、イベントまたはスポットなどの実体のないものであってもよい。対象を識別子(IDまたはインデックスでもよい)で扱うので、タイプの異なる対象(例えば画像と音声など)を同時に学習できる。対象そのものから特徴量を抽出できなくてもよい。対象を参照する文書とは、対象について記載した文書である。例えば、対象が走っている犬の画像の場合、その対象を参照する文書には「ドッグランで走る秋田犬」と記載されている。
【0014】
学習には、ローカル、グローバルという異なる観点のモデルを用いる。グローバル観点のモデルには、非負値テンソル因子分解(NTF)を利用する。NTFに、対象、対象を参照する文書、および各文書に出現する単語を含むデータを入力し、対象、文書、および単語の分散埋め込み表現と、対象と文書と単語の共起というグローバルな情報であるトピックを学習する。ローカル観点のモデルには、文書ごとに、各文書に出現する単語および各文書の参照する対象というローカルな情報を用いたTransformerエンコーダを利用する。TransformerエンコーダにNTFで得られた対象、文書、および単語の分散埋め込み表現とトピックを文書ごとに入力して、対象、文書、および単語の分散埋め込み表現とトピックを学習(更新)する。対象をIDで扱うので、タイプの異なる対象と単語を同じ意味空間で表現でき、単語と対象間の意味的な近さに基づいた検索結果を得ることができる。
【0015】
学習部10は、事前処理部11と計算処理部12を備える。事前処理部11は、処理対象の文書群を単語に分割し、単語の出現頻度に基づいて各文書の単語の重要度を求める。事前処理部11は、対象および対象を参照する文書について、各文書の各対象に対する参照度合いまたは重みについてのデータも取得する。また、事前処理部11は、少なくとも対象、文書、および単語の3つのモードを持ち、重要度あるいは出現頻度を要素とするテンソルデータを生成する。
【0016】
計算処理部12は、NTFによる計算でテンソルデータを分解し、トピックを因子として、対象、文書、および単語の分散埋め込み表現を学習する。計算処理部12は、さらに、Transformerエンコーダによる計算で、NTFで得られた対象、文書、および単語の分散埋め込み表現とトピックを学習する。計算処理部12は、NTFとTransformerエンコーダを交互に学習することで、分散埋め込み表現とトピックを得る。
【0017】
検索部20は、ユーザ端末5から対象と単語との演算を含む検索式を入力し、対象と単語の分散埋め込み表現(分散ベクトル)を計算結果記憶部40から検索し、分散ベクトルの演算結果に対応する対象または単語をデータ保存部30から取得して検索結果としてユーザ端末5へ返却する。
【0018】
データ保存部30は、検索対象の対象、対象を参照する文書などの各種データを保持する。データ保存部30の保持するデータは、学習部10の学習に用いられる。
【0019】
計算結果記憶部40は、対象および単語の分散ベクトルを保持する。対象および単語の分散ベクトルは、データ保存部30の保持するデータを学習部10に入力することで得られる。計算結果記憶部40は、対象および単語の意味空間のインデックスであり、空間内での距離の近さは意味の近さになっている。
【0020】
[提案モデル]
図2を参照し、本実施形態で提案するモデルについて説明する。図2に示す提案モデルは、NTFとTransformerエンコーダを結び付けたモデルである。図2の左側がNTFであり、右側がTransformerエンコーダである。図2のモデルでは、データをNTFに入力して文書、単語、および対象の分散埋め込み表現とトピックを学習し、さらに、得られた文書、単語、および対象の分散埋め込み表現とトピックをTransformerエンコーダに入力して、文書、単語、および対象の分散埋め込み表現とトピックを学習する。
【0021】
図2の左側のNTFは、テンソル因子分解(TF)レイヤ、多層パーセプトロン(MLP)レイヤ、およびニューラルTFレイヤを備える。図2に示すNTFは、ニューラルネットワークに基づくテンソル因子分解モデルである。NTFは、対象、対象を参照する文書、および各文書に出現する単語をモードとするテンソルデータについて、文書、単語、および対象の分散埋め込み表現とトピックに初期値を与え、対象と文書と単語の間の相互作用の観測値と推定値との間の誤差が小さくなるように対象、文書、および単語の分散埋め込み表現とトピックを学習する。対象と文書と単語の間の相互作用の観測値とは、テンソルデータの要素である。
【0022】
TFレイヤは、対象と文書と単語のトピックを入力し、次式(1)でφNTF(θn, tv, gl)を計算する。
【0023】
【数1】
【0024】
ここで、θnはn番目の文書のトピック、tvはv番目の単語のトピック、glはl番目の対象のトピックを表す。丸にドットは、ベクトルの要素ごとの積を表す。
【0025】
MLPレイヤは、対象と文書と単語の分散埋め込み表現を入力し、次式(2)でφMLP,H(en, ev, el)を計算する。Hはレイヤの位置(下から何番目のレイヤのインデックスであるか)を示す。
【0026】
【数2】
【0027】
ここで、enはn番目の文書の分散埋め込み表現、evはv番目の単語の分散埋め込み表現、elはl番目の対象の分散埋め込み表現を表す。「;」は結合オペレーションを表す。Whとbhはh番目のMLPレイヤのプロジェクション行列とバイアスである。ahはh番目のMLPレイヤのパーセプトロンの活性化関数である。HはMLPレイヤの中間層の数である。
【0028】
ニューラルTFレイヤは、次式(3)で推定値dn,v,t(dの上に^)を計算する。
【0029】
【数3】
【0030】
次式(4)を最小化するように、各種パラメータ(θn,tv,gl,en,ev,el)を更新(学習)する。
【0031】
【数4】
【0032】
ここで、dn,v,tは観測値を表す。Doは観測値の集合を表す。斜体のDは負の値の集合を表す。正体のDは入力したデータを表す。右辺の第2項は、オーバーフィッティングを防止するための正規化項である。ωは全てのパラメータを表し、λωは正規化項を調整するパラメータである。
【0033】
以上のNTFによる計算により、入力したデータを分解した対象、文書、および単語の分散埋め込み表現とトピックが学習される。なお、本実施形態では、ニューラルネットワークに基づくテンソル因子分解モデルを用いたが、他のモデルを用いてテンソルデータを因子分解してもよい。
【0034】
図2の右側のTransformerエンコーダには、文書ごとに、NTFで学習した文書、対象、および単語の分散埋め込み表現(en,el,ev)をToken Embeddingを反映し、トピック(θn,tv,gl)をTopic Embeddingに反映し、単語の出現位置をPositional Embeddingを反映し、データ形式をSegment Embeddingに反映して、文書、対象、および単語のそれぞれについて、Token Embedding、Positional Embedding、Segment Embedding、およびTopic Embeddingの総和のシーケンスを入力する。文書が複数の対象を参照する場合、複数の対象を入力してもよい。具体的には、図2のIDの列を増やして入力する。
【0035】
Transformerエンコーダでは、以下の式で示される目的関数(MID、ILM、MLM)の値を最小化するように、各種パラメータ(θn,tv,gl,en,ev,el)を更新(学習)する。
【0036】
【数5】
【0037】
ここで、ζは学習するパラメータ(分散埋め込み、トピックを含める)を表す。wjとljはj番目の文書の単語とj番目の文書が言及する対象を表す。バックスラッシュを付したmはm番目の単語あるいは対象のIDをマスクしたことを表す。
【0038】
式(5)のMLMは、対象のIDを与え、単語(Token Embedding)の一部をランダムに[MASK]に差し替えたときに、マスクした単語をTransformerエンコーダがどれだけ精度よく予測できるかを表す。
【0039】
式(6)のMIDは、対象のIDを与えないときに、その対象を参照する文書の単語の全てから、対象をTransformerエンコーダがどれだけ精度よく予測できるかを表す。
【0040】
式(7)のILMは、対象と単語とのマッチング度合いを表す。
【0041】
式(8)は、式(5)から式(7)を合わせたものである。式(8)のI[y=1]は、単語(文書)とIDのペアとしてIDが正しいことを示すインジケータである。式(8)の値を最小化するように、文書、対象、および単語の分散埋め込み表現とトピックを更新する。
【0042】
Transformerエンコーダによって学習された文書、対象、および単語の分散埋め込み表現とトピックをNTFの初期値として与えて、学習を繰り返してもよい。
【0043】
[動作]
次に、図3のフローチャートを参照し、学習処理について説明する。
【0044】
ステップS11にて、学習部10は、データ保存部30から文書群を読み出して、形態素解析によりテキスト群を単語に分割する。学習部10は、pre-trained modelを利用し、そのトークナイザで分割し、かつその分散埋め込み表現を初期値としても良い。各文書における単語の出現頻度も求めておく。
【0045】
ステップS12にて、学習部10は、データ保存部30から対象(ID)群と対象を参照する文書群を読み出して、NTFに、対象、文書、および単語を含むデータを入力し、対象、文書、および単語の分散埋め込み表現とトピックを学習する。
【0046】
ステップS13にて、学習部10は、NTFにより学習した対象、文書、および単語の分散埋め込み表現とトピックをTransformerエンコーダに入力し、対象、文書、および単語の分散埋め込み表現とトピックを学習する。
【0047】
学習部10は、ステップS12,S13を繰り返して、対象、文書、および単語の分散埋め込み表現とトピックの学習を繰り返す。
【0048】
得られた対象、文書、および単語の分散埋め込み表現は、計算結果記憶部40に格納される。
【0049】
続いて、図4のフローチャートを参照し、検索処理について説明する。
【0050】
ステップS21にて、検索部20は、ユーザ端末5から検索内容(クエリ)を受信する。クエリは、単語でもよいし、対象でもよい。クエリは、単語と対象の演算を含んでもよい。例えば、「走っている犬の画像」+「太陽」というように、画像と単語の足し算をクエリとしてもよい。
【0051】
ステップS22にて、検索部20は、受信したクエリをキーとして計算結果記憶部40に問い合わせ、該当する分散ベクトル(分散埋め込み表現)を得る。例えば、上記のクエリの場合、検索部20は、「走っている犬の画像」と「太陽」のそれぞれの分散ベクトルを得る。
【0052】
ステップS23にて、検索部20は、計算結果記憶部40からステップS22で得た分散ベクトルに近い分散ベクトルを検索し、検索された近い分散ベクトルに対応する対象または単語をデータ保存部30から取得する。分散ベクトル間の距離はコサイン類似度を使って測定できる。上記のクエリの場合、検索部20は、「走っている犬の画像」の分散ベクトルと「太陽」の分散ベクトルとを足した分散ベクトルに近い分散ベクトルを計算結果記憶部40から検索する。例えば、クエリに近いものとして「犬が陽に向かって走る画像」の分散ベクトルが検索され、検索部20は、データ保存部30から「犬が陽に向かって走る画像」を取得する。
【0053】
ステップS24にて、検索部20は、ステップS23で取得した対象または単語を検索結果としてユーザ端末5へ返却する。例えば、上記のクエリの例では、検索結果として「犬が陽に向かって走る画像」がユーザ端末5へ返却される。
【0054】
[検証]
次に、本実施形態の検索システムの検証結果の一例について説明する。
【0055】
次表1に、本実施形態の検索システムを映画配信サービスにおいて使用し、対象(映画)と単語の演算で表されるクエリで得られた結果を示す。表1では、「対象-単語」(item-word)、「対象+単語」(item+word)、「対象-対象」(item-item)、および「対象+対象」(item+item)のオペレーションのそれぞれについて、4つの映画と4つの単語を検索結果として示した。
【0056】
【表1】
【0057】
「item-word」では、映画の“Gladiator”から歴史的な要素を取り除いた映画および単語を検索した。「item+word」では、映画の“Gladiator”に未来的な要素を追加した映画および単語を検索した。「item-item」では、映画の“Gladiator”から映画の“Mary Poppins”的な要素を取り除いた映画および単語を検索した。「item+item」では、映画の“Gladiator”に映画の“Mary Poppins”的な要素を追加した映画および単語を検索した。いずれの場合も、オペレーションに合った映画および単語が得られている。
【0058】
次表2に、非特許文献1-3の方法と本実施形態の方法によるFlickr30での画像とテキストのマッチングの比較結果を示す。I2Tは画像からテキストを検索した結果であり、T2Iはテキストから画像を検索した結果である。R@Nは、上位N件に正解が含まれている比率である。最もよい結果を太字で示している。
【0059】
【表2】
【0060】
表2から、本実施形態の検索システムは、非特許文献1-3の方法と比べて高い正答率であるといえる。
【0061】
以上説明したように、本実施形態の検索システム1は、対象のIDとその対象を参照する文書を入力し、文書から単語を抽出し、少なくとも対象と文書と単語をモードとするテンソルデータを生成する事前処理部11と、NTFによりテンソルデータを分解して対象と文書と単語の分散埋め込み表現とトピックを学習するとともに、Transformerエンコーダに対象と文書と単語の分散埋め込み表現とトピックを文書ごとに入力し、単語の一部を除いたときの除いた単語の予測精度を表す目的関数MLMと、対象を与えないときの対象の予測精度を表す目的関数MIDと、対象と単語のマッチング度合いを表す目的関数ILMの値を最小化するように対象と文書と単語の分散埋め込み表現とトピックを更新する計算処理部12と、対象と単語との演算を含む検索式を入力し、対象と単語の分散埋め込み表現を得て、分散埋め込み表現の演算結果に対応する対象または単語を検索結果として出力する検索部20を備える。本実施形態の検索システムは、異なる形式の特徴量を持つ対象、文書、および単語の分散埋め込み表現を同時に学習し、対象と単語を同じ意味空間で表現でき、単語と対象間の意味的な近さに基づいた検索結果を得ることができる。また、対象から特徴量を抽出しないので、特徴量が抽出できない対象の分散埋め込み表現を学習できる。
【0062】
本実施形態の検索システム1は、グローバルな観点のNTFとローカルな観点のTransformerエンコーダを結び付けて、対象、文書、および単語の分散埋め込み表現を学習することで、より精度よく分散埋め込み表現を学習できる。
【符号の説明】
【0063】
1 検索システム
10 学習部
11 事前処理部
12 計算処理部
20 検索部
30 データ保存部
40 計算結果記憶部
図1
図2
図3
図4