IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 延世大学校 産学協力団の特許一覧

特開2023-87609学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法
<>
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図1
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図2
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図3
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図4
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図5a
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図5b
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図6
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図7
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図8
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図9
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図10
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図11
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図12
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図13
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図14
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図15
  • 特開-学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023087609
(43)【公開日】2023-06-23
(54)【発明の名称】学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法
(51)【国際特許分類】
   G06N 20/00 20190101AFI20230616BHJP
   G06N 3/04 20230101ALI20230616BHJP
【FI】
G06N20/00
G06N3/04
【審査請求】有
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2021215162
(22)【出願日】2021-12-28
(31)【優先権主張番号】10-2021-0177928
(32)【優先日】2021-12-13
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】514274672
【氏名又は名称】延世大学校 産学協力団
【氏名又は名称原語表記】YONSEI UNIVERSITY,UNIVERSITY-INDUSTRY FOUNDATION(UIF)
【住所又は居所原語表記】50,YONSEI-RO, SEODAEMUN-GU, SEOUL 03722, REPUBLIC OF KOREA
(74)【代理人】
【識別番号】110000051
【氏名又は名称】弁理士法人共生国際特許事務所
(72)【発明者】
【氏名】パク, ノ ソン
(72)【発明者】
【氏名】チェ, ジョン ホワン
(72)【発明者】
【氏名】ジョン, ジン ソン
(57)【要約】
【課題】学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法を提供する。
【解決手段】本発明の学習時間常微分方程式基盤の協業フィルタリング推薦装置は、第1及び第2の初期の埋め込みを生成する初期の埋め込み生成モジュールと、学習時間が経過するにつれて、初期に前記第1及び第2の初期の埋め込みに各々該当する第1及び第2の前の埋め込みの各々の入力を受けて相互影響を通じて第1及び第2の次の埋め込みを各々出力する過程を特定時間の間繰り返す第1及び第2の常微分方程式処理部材を含む二重共振常微分方程式モジュールと、第1の前の埋め込み及び第1の前の次の埋め込みを累積合算して第1の最終の埋め込みを生成し、前記第2の前の埋め込み及び前記第2の次の埋め込みを累積合算して第2の最終の埋め込みを生成する最終の埋め込み生成モジュールと、を備える。
【選択図】図3

【特許請求の範囲】
【請求項1】
第1及び第2の初期の埋め込みを生成する初期の埋め込み生成モジュールと、
学習時間が経過するにつれて、初期に前記第1及び第2の初期の埋め込みに各々該当する第1及び第2の前の埋め込みの各々の入力を受けて相互影響を通じて第1及び第2の次の埋め込みを各々出力する過程を特定時間の間繰り返す第1及び第2の常微分方程式処理部材を含む二重共振常微分方程式モジュールと、
前記第1の前の埋め込み及び前記第1の次の埋め込みを累積合算して第1の最終の埋め込みを生成し、前記第2の前の埋め込み及び前記第2の次の埋め込みを累積合算して第2の最終の埋め込みを生成する最終の埋め込み生成モジュールと、を備えることを特徴とする学習時間常微分方程式基盤の協業フィルタリング推薦装置。
【請求項2】
前記二重共振常微分方程式モジュールは、前記学習時間の特定の時点におけるユーザ埋め込みマトリックス(u(t))を前記第1の次の埋め込みに出力することを特徴とする請求項1に記載の学習時間常微分方程式基盤の協業フィルタリング推薦装置。
【請求項3】
前記二重共振常微分方程式モジュールは、前記学習時間の特定の時点におけるプロダクト埋め込みマトリックス(p(t))を前記第2の次の埋め込みに出力することを特徴とする請求項2に記載の学習時間常微分方程式基盤の協業フィルタリング推薦装置。
【請求項4】
前記二重共振常微分方程式モジュールは、前記ユーザ埋め込みマトリックスと前記プロダクト埋め込みマトリックスとで共振常微分方程式の集合を構成することを特徴とする請求項3に記載の学習時間常微分方程式基盤の協業フィルタリング推薦装置。
【請求項5】
前記二重共振常微分方程式モジュールは、ユーザにより設定可能な複数の離散的な時間で複数のユーザ埋め込みマトリックス(u(t),u(t),…,u(t))及び複数のプロダクト埋め込みマトリックス(p(t),p(t),…,p(t))を出力することを特徴とする請求項3に記載の学習時間常微分方程式基盤の協業フィルタリング推薦装置。
【請求項6】
前記二重共振常微分方程式モジュールは、第1及び第2の常微分方程式の各々を非-パラメータ的な非-時間依存的な常微分方程式で構成することを特徴とする請求項1に記載の学習時間常微分方程式基盤の協業フィルタリング推薦装置。
【請求項7】
前記最終の埋め込み生成モジュールは、複数の離散的な時間で生成された複数のユーザマトリックスを加重合算して前記第1の最終の埋め込みを生成し、前記複数の離散的な時間で生成された複数のプロダクトマトリックスを加重合算して前記第2の最終の埋め込みを生成することを特徴とする請求項1に記載の学習時間常微分方程式基盤の協業フィルタリング推薦装置。
【請求項8】
第1及び第2の初期の埋め込みを生成する初期の埋め込み生成ステップと、
第1及び第2の常微分方程式処理部材を通じて、学習時間が経過するにつれて、初期に前記第1及び第2の初期の埋め込みに各々該当する第1及び第2の前の埋め込みの各々の入力を受けて相互影響を通じて第1及び第2の次の埋め込みを各々出力する過程を特定時間の間繰り返すステップを含む二重共振常微分方程式ステップと、
前記第1の前の埋め込み及び前記第1の次の埋め込みを累積合算して第1の最終の埋め込みを生成し、前記第2の前の埋め込み及び前記第2の次の埋め込みを累積合算して第2の最終の埋め込みを生成する最終の埋め込み生成ステップと、を有することを特徴とする学習時間常微分方程式基盤の協業フィルタリング推薦方法。
【請求項9】
前記二重共振常微分方程式ステップは、前記学習時間の特定の時点におけるユーザ埋め込みマトリックス(u(t))を前記第1の次の埋め込みに出力するステップを含むことを特徴とする請求項8に記載の学習時間常微分方程式基盤の協業フィルタリング推薦方法。
【請求項10】
前記二重共振常微分方程式ステップは、前記学習時間の特定時点におけるプロダクト埋め込みマトリックス(p(t))を前記第2の次の埋め込みに出力するステップを含むことを特徴とする請求項9に記載の学習時間常微分方程式基盤の協業フィルタリング推薦方法。
【請求項11】
前記二重共振常微分方程式ステップは、前記ユーザ埋め込みマトリックスと前記プロダクト埋め込みマトリックスとで共振常微分方程式の集合を構成するステップを含むことを特徴とする請求項10に記載の学習時間常微分方程式基盤の協業フィルタリング推薦方法。
【請求項12】
前記二重共振常微分方程式ステップは、ユーザにより設定可能な複数の離散的な時間で複数のユーザ埋め込みマトリックス(u(t),u(t),…,u(t))及び複数のプロダクト埋め込みマトリックス(p(t),p(t),…,p(t))を出力するステップを含むことを特徴とする請求項10に記載の学習時間常微分方程式基盤の協業フィルタリング推薦方法。
【請求項13】
前記二重共振常微分方程式ステップは、第1及び第2の常微分方程式の各々を非-パラメータ的な非-時間依存的な常微分方程式で構成するステップを含むことを特徴とする請求項8に記載の学習時間常微分方程式基盤の協業フィルタリング推薦方法。
【請求項14】
前記最終の埋め込み生成ステップは、複数の離散的な時間で生成された複数のユーザマトリックスを加重合算して前記第1最終埋め込みを生成し、前記複数の離散的な時間で生成された複数のプロダクトマトリックスを加重合算して前記第2の最終の埋め込みを生成するステップを含むことを特徴とする請求項8に記載の学習時間常微分方程式基盤の協業フィルタリング推薦方法。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習基盤の推薦技術に関し、より詳しくは、ニューラルODEに基づいて線形GCNを再設計して協業フィルタリング性能を改善する学習時間常微分方程式(Learnable-Time Ordinary Differential Equation)基盤の協業フィルタリング推薦装置及び方法に関する。
【背景技術】
【0002】
パターン(pattern)からユーザの選好度(preference)を予測する協業フィルタリング(Collaborative Filtering:CF)は推薦システム分野の長い間の研究課題のうちの1つである。また、ユーザ及びプロダクト埋め込みベクトルを各々学習して推薦するために、これらの間の内積(dot-product)を計算することは一般的な方法に該当する。行列因数分解(matrix factorization)は推薦システム分野でよく知られたアプローチ方式のうちの1つであって、多様な応用事例も提案されてきた。
【0003】
最近、協業フィルタリングの目的達成のためにグラフ畳み込みネットワーク(Graph Convolutional network:GCN)に関心が集中している。GCNはCF関連グラフだけではなく、他の一般のグラフも処理するために提案されており、スペクトルGCN(spectral GCN)及び空間GCN(spatial GCN)の2つの類型に大別される。CFのためのGCNはCFに対する適合性(appropriateness)によって最初の類型に該当する。しかし、CFのための最適のGCNアーキテクチャが何かに対しては相変らず研究を必要とする状況である。
【0004】
ニューラル常微分方程式(Neural Ordinary Differential Equations:NODE)はデータで暗示的な微分方程式(implicit differential equations)を学習するためのものである。NODEは、t>tの場合、h(t)からh(t)を誘導するために
を計算する。ここで、fは
に近似するθにより媒介変数化された神経網に該当する。この際、θはデータから学習され、これは
がやはりデータから学習されることを示す。また、変数tは神経網で階層概念(layer concept)を示す時間変数(time variable)に該当する。tは、既存の神経網で負ではない整数(non-negative integer)に該当する一方、NODEでは任意の負ではない実数(non-negative real number)になる。このような側面で、NODEは神経網の継続的な一般化(continuous generalization)と見なされる
【0005】
一方、多様なODEソルバー(solver)は、積分問題(integral problem)を解き、多様な神経網アーキテクチャを一般化する。例えば、残差連結(residual connection)の一般的な形態はh(t+1)=h(t)+f(h(t);θ)のように表され、これはODE問題を解決するためのオイラー陽解法(explicit Euler method)に対応する。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】韓国公開特許第10-2021-0031197号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明は、上記従来技術に鑑みてなされたものであって、本発明の目的は、ニューラルODEに基づいて線形GCNを再設計して協業フィルタリング性能を改善する学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法を提供することにある。
【課題を解決するための手段】
【0008】
上記目的を達成するためになされた本発明の一態様による学習時間常微分方程式(Learnable-Time Ordinary Differential Equation)基盤の協業フィルタリング推薦装置は、第1及び第2の初期の埋め込みを生成する初期の埋め込み生成モジュールと、学習時間が経過するにつれて、初期に前記第1及び第2の初期の埋め込みに各々該当する第1及び第2の前の埋め込みの各々の入力を受けて相互影響を通じて第1及び第2の次の埋め込みを各々出力する過程を特定時間の間繰り返す第1及び第2の常微分方程式処理部材を含む二重共振常微分方程式モジュールと、前記第1の前の埋め込み及び前記第1の次の埋め込みを累積合算して第1の最終の埋め込みを生成し、前記第2の前の埋め込み及び前記第2の次の埋め込みを累積合算して第2の最終の埋め込みを生成する最終の埋め込み生成モジュールと、を備える。
【0009】
前記二重共振常微分方程式モジュールは、前記学習時間の特定時点におけるユーザ埋め込みマトリックス(u(t))を前記第1の次の埋め込みに出力し得る。
【0010】
前記二重共振常微分方程式モジュールは、前記学習時間の特定時点におけるプロダクト埋め込みマトリックス(p(t))を前記第2の次の埋め込みに出力し得る。
【0011】
前記二重共振常微分方程式モジュールは、前記ユーザ埋め込みマトリックスと前記プロダクト埋め込みマトリックスとで共振常微分方程式の集合を構成し得る。
【0012】
前記二重共振常微分方程式モジュールは、ユーザにより設定可能な複数の離散的な時間で複数のユーザ埋め込みマトリックス(u(t),u(t),…,u(t))及び複数のプロダクト埋め込みマトリックス(p(t),p(t),…,p(t))を出力し得る。
【0013】
前記二重共振常微分方程式モジュールは、第1及び第2の常微分方程式の各々を非-パラメータ的な非-時間依存的な常微分方程式で構成し得る。
【0014】
前記最終の埋め込み生成モジュールは、複数の離散的な時間で生成された複数のユーザマトリックスを加重合算して前記第1の最終の埋め込みを生成し、前記複数の離散的な時間で生成された複数のプロダクトマトリックスを加重合算して前記第2の最終の埋め込みを生成し得る。
【0015】
上記目的を達成するためになされた本発明の一態様による学習時間常微分方程式(Learnable-Time Ordinary Differential Equation)基盤の協業フィルタリング推薦方法は、第1及び第2の初期の埋め込みを生成する初期の埋め込み生成ステップと、第1及び第2の常微分方程式処理部材を通じて、学習時間が経過するにつれて、初期に前記第1及び第2の初期の埋め込みに各々該当する第1及び第2の前の埋め込みの各々の入力を受けて相互影響を通じて第1及び第2の次の埋め込みを各々出力する過程を特定時間の間繰り返すステップを含む二重共振常微分方程式ステップと、前記第1の前の埋め込み及び前記第1の次の埋め込みを累積合算して第1の最終の埋め込みを生成し、前記第2の前の埋め込み及び前記第2の次の埋め込みを累積合算して第2の最終の埋め込みを生成する最終の埋め込み生成ステップと、を有する。
【0016】
前記二重共振常微分方程式ステップは、前記学習時間の特定時点におけるユーザ埋め込みマトリックス(u(t))を前記第1の次の埋め込みに出力するステップを含み得る。
【0017】
前記二重共振常微分方程式ステップは、前記学習時間の特定時点におけるプロダクト埋め込みマトリックス(p(t))を前記第2の次の埋め込みに出力するステップを含み得る。
【0018】
前記二重共振常微分方程式ステップは、前記ユーザ埋め込みマトリックスと前記プロダクト埋め込みマトリックスとで共振常微分方程式の集合を構成するステップを含み得る。
【0019】
前記二重共振常微分方程式ステップは、ユーザにより設定可能な複数の離散的な時間で複数のユーザ埋め込みマトリックス(u(t),u(t),…,u(t))及び複数のプロダクト埋め込みマトリックス(p(t),p(t),…,p(t))を出力し得る。
【0020】
前記二重共振常微分方程式ステップは、第1及び第2の常微分方程式の各々を非-パラメータ的な非-時間依存的な常微分方程式で構成するステップを含み得る。
【0021】
前記最終の埋め込み生成ステップは、複数の離散的な時間で生成された複数のユーザマトリックスを加重合算して前記第1の最終の埋め込みを生成し、前記複数の離散的な時間で生成された複数のプロダクトマトリックスを加重合算して前記第2の最終の埋め込みを生成するステップを含み得る。
【発明の効果】
【0022】
開示する技術は、次の効果を有する。但し、特定の実施形態が次の効果を全部含まなければならないか、又は次の効果のみを含まなければならないという意味ではないため、開示する技術の権利範囲はこれによって制限されるものと理解してはならない。
【0023】
本発明の学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法によれば、ニューラルODEに基づいて線形GCNを再設計して協業フィルタリング性能を改善することができる。
【0024】
また、本発明の学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法によれば、ソーシャルネットワーク、アイテム知識グラフ、コンテクスト認知推薦のような構造的情報が込められたドメインでユーザ行動を利用することに有用である。
【0025】
更に、本発明の学習時間常微分方程式基盤の協業フィルタリング推薦装置及び方法によれば、ユーザ-アイテムグラフとアイテム知識グラフとを統合してユーザとアイテムとの間の知識認知連結を設定して、アイテム選択時のユーザの意思決定プロセスに寄与することができる。
【図面の簡単な説明】
【0026】
図1】本発明による協業フィルタリング推薦システムを説明する図である。
図2】本発明による協業フィルタリング推薦装置のシステム構成を説明する図である。
図3】本発明による協業フィルタリング推薦装置の機能的構成を説明する図である。
図4】本発明による学習時間常微分方程式基盤の協業フィルタリング推薦方法を説明するフローチャートである。
図5a】LightGCN及び本発明による方法(LT-OCF)の全体アーキテクチャを説明する図である。
図5b】LightGCN及び本発明による方法(LT-OCF)の全体アーキテクチャを説明する図である。
図6】NODEでのマッピングを説明する図である。
図7】NODEの一般的なアーキテクチャを説明する図である。
図8】オイラー陽解法及びRK4の特定ステップを説明する図である。
図9】本発明による二重共振ODEを説明する図である。
図10】多様なソルバーでの内部及び外部連結を説明する図である。
図11】本発明による学習アルゴリズムを説明する図である。
図12】本発明に関する実験に使われたデータセットを説明する図である。
図13】モデル同士間の性能比較実験結果を説明する図である。
図14】Gowallaデータセットに対する実験結果を説明する図である。
図15】Yelp2018データセットに対する実験結果を説明する図である。
図16】Amazon-Bookデータセットに対する実験結果を説明する図である。
【発明を実施するための形態】
【0027】
この発明は、下記の研究課題をもって支援を受けて出願された。
〔この発明を支援した国家研究開発事業〕
〔課題固有番号〕 1711126082
〔課題番号〕 2020-0-01361-002
〔省庁名〕 科学技術情報通信部
〔課題管理(専門)機関名〕 情報通信企画評価院
〔研究事業名〕 情報通信放送革新人材養成(R&D)
〔研究課題名〕 人工知能大学院支援(延世大学)
〔貢献率〕 1/1
〔課題遂行機関名〕 延世大学産学協力団
〔研究期間〕 2021.01.01~2021.12.31
本発明に関する説明は構造的又は機能的説明のための実施形態に過ぎないため、本発明の権利範囲は本文に説明する実施形態によって制限的に解釈してはならない。即ち、実施形態は、多様な変更が可能であり、多様な形態を有することができるため、本発明の権利範囲は技術的思想を実現することができる均等物を含むものとして理解されなければならない。また、本発明で提示する目的又は効果は、特定の実施形態がこれを全部含まなければならないとか、又はそのような効果のみを含まなければならないという意味ではないため、本発明の権利範囲はこれによって制限されるものとして理解してはならない。
【0028】
一方、本明細書で記述する用語の意味は、次のように理解されるべきである。
【0029】
“第1”、“第2”などの用語は、1つの構成要素を他の構成要素から区別するためのものであって、これらの用語により権利範囲が限定されてはならない。例えば、第1構成要素は第2構成要素として命名されることがあり、同様に第2構成要素も第1構成要素として命名され得る。
【0030】
ある構成要素が他の構成要素に“連結されて”いると言及する場合には、他の構成要素に直接的に連結されることもあるが、中間に他の構成要素が存在することもあると理解すべきである。一方、ある構成要素が他の構成要素に“直接連結されて”いると言及する場合には、中間に他の構成要素が存在しないものと理解すべきである。一方、構成要素の間の関係を説明する他の表現、即ち“~間に”と“直ぐ~間に”、又は“~に隣り合う”と“~に直接隣り合う”なども同様に解釈すべきである。
【0031】
単数の表現は、文脈上明白に異なる意味を有しない限り、複数の表現を含むものと理解すべきであり、“含む”又は“有する”などの用語は、実施される特徴、数字、ステップ、動作、構成要素、部分品、又はこれらを組み合わせたものが存在することを指定しようとするものであり、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部分品、又はこれらを組み合わせたものの存在又は付加可能性を予め排除しないものと理解すべきである。
【0032】
各ステップにおいて、識別符号(例えば、a、b、cなど)は説明の便宜のために使われるものであって、識別符号は各ステップの順序を説明するものではなく、各ステップは、文脈上明白に特定順序を記載しない以上、明記した順序とは異なるように起こることがある。即ち、各ステップは、明記した順序と同一に起こることもあり、実質的に同時に遂行されることもあり、反対の順に遂行されることもある。
【0033】
本発明は、コンピュータ読み取り可能な記録媒体にコンピュータ読み取り可能なコードとして具現され、コンピュータ読み取り可能な記録媒体はコンピュータシステムにより読み取り可能なデータが格納される全ての種類の記録装置を含む。コンピュータ読み取り可能な記録媒体の例には、ROM、RAM、CD-ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ格納装置などがある。また、コンピュータ読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散されて、分散方式でコンピュータ読み取り可能なコードが格納されて実行される。
【0034】
ここに使われる全ての用語は、異なるように定義されない限り、本発明が属する分野で通常の知識を有する者により一般的に理解されるものと同一な意味を有する。一般的に使われる予め定義されている用語は、関連技術の文脈上の意味に一致するものとして解釈されなければならず、本明細書で明白に定義しない限り、理想的であるか、又は過度に形式的な意味を有するものとして解釈されない。
【0035】
先ず、ニューラルODE(Neural OED:NODE)について説明する。
【0036】
NODEは、次の数式1のように表されるリーマン積分問題を解決することによって、h(t)からh(ti+1)を計算する。
【0037】
【数1】
【0038】
ここで、θにより媒介変数化されたODE関数fはhの時間導関数(time-derivative)に近似する神経網に該当する。即ち、
である。該当問題を解決するために、既存のODEソルバーが活用される。例えば、オイラー陽解法(explicit Euler method)、Dormand-Prince(DOPRI)の方法などがこれに該当する。
【0039】
はtから上記数式1により生成されたtまでのマッピング関数(mapping function)として定義される。φτは位相同型マッピング(homeomorphic mapping)になる。φτは連続的(continuous)で全単射(bijective)であり、φτ -1も全てのt∈[0,T]に対して連続的である。この際、Tは時間領域(time domain)の最後の時点である。該当特性から次のような命題が導出される。即ち、φτの入力空間のトポロジーは出力空間に保存されるため、互いに交差する軌跡(trajectory)はNODEsにより学習されない(図6参照)。
【0040】
NODEは、トポロジーを維持しながらダウンストリームタスク(downstream task)を遂行し、敵対的攻撃(adversarial)及び分布外の入力(out-of-distribution inputs)に対する堅固性(robustness)を向上させる。NODEに関する該当特性は、充分な情報がない場合、信頼されるユーザ/プロダクト表現(representations)、即ち埋め込みを学習することに適合する。
【0041】
逆伝播方法(backpropagation method)の代りに、効率性及び理論的正確性が立証された隣接敏感度方法(adjoint sensitivity method)が使われる。作業特化された損失(task-specific loss)Lに対し、
を定義した後、次の数式1-1のように、他の逆モード積分(reverse-mode integral)を使用してモデルパラメータに関する損失傾き(gradient of loss)が計算される。
【0042】
【数1-1】
【0043】
本発明による学習方法を設計するために隣接敏感度方法を修正する。即ち、修正された方法を使用してレイヤ組み合わせ(layer combination)を構成するためのユーザ/プロダクト埋め込み及び時点{t,t,…,}を全て学習する
【0044】
一方、NODEは神経網を構築する際に必要とする媒介変数の個数を減らし、既存の神経網では離散的な時間変数tを連続的なものとして解析する。図7に、NODEの一般的なアーキテクチャを示す。図7で、ダウンストリーム分類作業を仮定すると、h(0)を提供する特徴抽出レイヤ(feature exraction layer)が含まれ、h(1)は上記の方法により計算される。但し、本発明の場合、分類作業ではない協業フィルタリング作業に適用される点で二重共同進化ODE(dual co-evolving ODE)のみを含む図5bのアーキテクチャが適用される。
【0045】
以下、残差/稠密連結(Residual/Dense Connection)とODEソルバー(ODE solver)との間の類似性について説明する。ODEソルバーは、時間変数tを離散化(discretize)し、積分を多数のステップの足し算に変換する。例えば、オイラー陽解法は特定ステップで次の数式2のように表される。
【0046】
【数2】
【0047】
ここで、sは一般的に1よりも小さく、オイラー方法の構成されたステップの大きさ(step size)である。上記数式2はs=1の場合、残差連結と同一である。
【0048】
他のODEソルバーは、h(t)からh(t+s)をアップデートするために、より複雑な方法を使用する。例えば、4次Runge-Kutta(RK4)方法は次の数式3で表される方法を使用する。
【0049】
【数3】
【0050】
ここで、
である。
【0051】
稠密畳み込みネットワーク(DenseNets)及びフラクタル神経網(FractalNet)がRK4に類似するということも知られている(オイラー陽解法に対する残差ネットワークも同様である)。しかし、一般性を維持しながら単純性のために実施例としてオイラー陽解法が使われる。
【0052】
更に他のODEソルバーは、次の数式4のように表される暗示的Adams-Moulto方法である。
【0053】
【数4】
【0054】
ここで、
である。
【0055】
該当暗示的方法は、i)過去の多ステップ記録(multi-step history)、即ちf及びfを使用してより剛健な導関数項(derivative term)を計算し、ii)多ステップ記録と共にfを使用するという点で上述した明示的ソルバーとは相違する。しかし、t時点ではh(t+s)を計算する前であるため、fに対して単純に評価できない。h(t+s)を計算するためにNewton方法のような方法が使われる。fの使用はODEを解くための数値的方法分野で暗示的(implicit)である。また、実験のために全ての高級ソルバーが考慮され、これを通じてグラフ基盤CFを二重共振ODEに公式化する。
【0056】
以下、協業フィルタリング(CF)について説明する。
【0057】
を各々初期ユーザ及びプロダクト埋め込みという。Nユーザ及びMプロダクトがあり、埋め込みはD次元である。初期CF方法には、行列分解(matrix factorization)、SVD++、ニューラルアテンションアイテム類似度(neural attentive item similarity)などが含まれる。このような全ての方法はユーザ-プロダクト相互作用記録(interaction history)を活用する。
【0058】
ユーザ-プロダクト関係は、二部グラフで示されるため、最近にはCFにGCNを採択している。NGCFは最も広く使われるGCN基盤のCF方法のうちの1つである。ユーザ埋め込み空間からプロダクト埋め込み空間に又はその反対に変換するために、非線形活性化(non-linear activation)及び変換行列(transformation matrix)を使用する。各レイヤでのユーザ及びプロダクト埋め込みはレイヤ組み合わせでのように抽出される。
【0059】
しかし、相互間の合算(sum)を遂行する代わりに、相互連結される。また、全体アーキテクチャは標準GCNに類似する。しかし、一般のグラフ基盤のダウンストリームタスクとCFとの間の環境的な差によってCFで非線形活性化及び埋め込み空間変換(embedding space transformation)が必要でないことがある。即ち、他のグラフ基盤の作業には高次元ノード特徴(high-dimensional node feature)のような豊富な情報(abundant information)が含まれる。しかし、CFには追加特徴無しで二部グラフ(bipartite graph)が含まれる場合が多い。甚だしくは、グラフはCFで非常に稀疎である。その差によって非線形GCNは学習グラフに容易に過適合(over fit)され、これを防止する多様な対策にも拘わらず、テスト正確度が普通である場合が多い。また、ユーザとプロダクト埋め込み空間との間の変換がCFで助けにならないことがある。
【0060】
NGCFの後、幾つかの方法が提案されており、そのうち、特に最近に開発されたLightGCNはグラフ基盤方法として多くのデータセットで最先端正確度を示す。また、レイヤ組み合わせがある線形GCNが多い設計選択のうち、最もよく作動することを示す。線形グラフ畳み込みレイヤの定義は、次の数式5のように表される。
【0061】
【数5】
【0062】
ここで、
はプロダクトからユーザへのグラフの正規化された隣接行列であり、
も同一な方式により定義され、ユーザでプロダクトの場合である。LightGCNはE 及びとE して表される初期の埋め込みを学習し、次の数式6のように表されるレイヤ組み合わせを使用する。
【0063】
【数6】
【0064】
ここで、Kはレイヤの個数であり、wは係数であり、E final及びE finalは各々最終の埋め込みである。
【0065】
本発明による方法、LightGCNなどを含んだCF方法は、ユーザ及びプロダクトの初期の埋め込み(及び、モデル媒介変数がある場合)を学習する。一連のKグラフ畳み込みレイヤの後、グラフ基盤のCFアルゴリズムはE final及びE finalを導出し、内積(dot product)を使用してru,iを予測する。この際、ru,iは全てのu、iに対してプロダクトiに対するユーザuの評価(又は、ランキング点数)である。一般的に、次の数式7のように表されるベイジアン個人化ランキング(BPR)損失を使用してCF分野で初期の埋め込みベクトル(及びモデル媒介変数がある場合)を学習する。
【0066】
【数7】
【0067】
ここで、Nはuに隣接するプロダクトの集合、σは非線形活性化、
は連結演算子(concatenation operator)である。この際、σにはsoftplusが使われる。
【0068】
以下、線形GCN(Linear GCN)及びニュートンの冷却法則(Newton’s Law of Cooling)について説明する。
【0069】
実際に、上記数式5は、熱拡散過程の法則(law of thermal diffusive processes)、即ちニュートンの冷却法則を説明する熱方程式(heat equation)に類似する。熱方程式は次の数式8のように表される。
【0070】
【数8】
【0071】
ここで、△はラプラス演算子(Laplace operator)であり、Hτは時間tでグラフ又は離散グリッド(discrete grid)のノード温度を含む熱ベクトル(column vector)である。ラプラス演算子△は単純にラプラシアン行列(Laplacian matrix)又は正規化された隣接行列(normalized adjacency matrix)との行列掛け算である。
【0072】
従って、E 及びE の各要素を温度値として解析すると、上記数式5の右辺は上記数式8のように表される。なぜなら、E 及びE はD次元ベクトルであるため、D個互いに異なる拡散過程が上記数式5に存在するものと見なすことができるためである。これに関連して、LightGCNは離散熱拡散プロセス(discrete thermal diffusive processe)をモデリングする一方、本発明による方法は連続熱拡散プロセス(ontinuous thermal diffusive processe)を説明する。
【0073】
以下、図1図11を通じて本発明による協業フィルタリング推薦装置及び方法について、より詳細に説明する。
【0074】
図1は、本発明による協業フィルタリング推薦システムを説明する図である。
【0075】
図1を参照すると、協業フィルタリング推薦システム100は本発明による学習時間常微分方程式基盤の協業フィルタリング推薦方法を実行するように具現される。このために、協業フィルタリング推薦システム100は、ユーザ端末110、協業フィルタリング推薦装置130、及びデータベース150を含む。
【0076】
ユーザ端末110は、ユーザにより運用される端末装置に該当する。例えば、ユーザはユーザ端末110を通じてデータ生成及び学習に関する動作を処理する。本実施形態で、ユーザは1つ以上のユーザとして理解され、複数のユーザは1つ以上のユーザグループに区分される。
【0077】
また、ユーザ端末110は、協業フィルタリング推薦システム100を構成する1つの装置であって、協業フィルタリング推薦装置130と連動して動作するコンピューティング装置に該当する。例えば、ユーザ端末110は、協業フィルタリング推薦装置130に連結されて動作可能なスマートフォン、ノートブック、又はコンピュータで具現されるが、必ずしもこれに限定されず、タブレットPCなどを含んで多様なデバイスでも具現される。また、ユーザ端末110は協業フィルタリング推薦装置130と連動するための専用プログラム又はアプリケーション(又は、アプリ、app)をインストールして実行することができる。
【0078】
協業フィルタリング推薦装置130は、本発明による学習時間常微分方程式基盤の協業フィルタリング推薦方法を遂行するコンピュータ又はプログラムに該当するサーバで具現される。また、協業フィルタリング推薦装置130は、ユーザ端末110と有線ネットワーク又はブルートゥース(登録商標)、WiFi、LTEなどの無線ネットワークにより連結され、ネットワークを介してユーザ端末110とデータを送受信する。また、協業フィルタリング推薦装置130は、関連動作を遂行するために独立した外部システム(図1に図示せず)に連結されて動作するように具現される。
【0079】
データベース150は、協業フィルタリング推薦装置130の動作過程で必要とする多様な情報を格納する格納装置に該当する。例えば、データベース150は学習過程に使われる学習データに関する情報を格納し、学習のためのモデルや学習アルゴリズムに関する情報を格納するが、必ずしもこれに限定されず、協業フィルタリング推薦装置130は本発明による学習時間常微分方程式基盤の協業フィルタリング推薦方法を遂行する過程で多様な形態に収集又は加工された情報を格納することができる。
【0080】
一方、図1で、データベース150は協業フィルタリング推薦装置130とは独立的な装置として図示しているが、必ずしもこれに限定されず、論理的な格納装置として協業フィルタリング推薦装置130に含まれて具現することができることは勿論である。
【0081】
図2は、本発明による協業フィルタリング推薦装置のシステム構成を説明する図である。
【0082】
図2を参照すると、協業フィルタリング推薦装置130は、プロセッサ210、メモリ230、ユーザ入出力部250、及びネットワーク入出力部270を含む。
【0083】
プロセッサ210は、本発明による学習時間常微分方程式基盤の協業フィルタリング推薦プロシージャを実行し、このような過程で読み取り又は作成されるメモリ230を管理し、メモリ230にある揮発性メモリと不揮発性メモリとの間の同期化時間をスケジュールする。プロセッサ210は、協業フィルタリング推薦装置130の動作の全般を制御し、メモリ230、ユーザ入出力部250、及びネットワーク入出力部270に電気的に連結されて、これらの間のデータの流れを制御する。プロセッサ210は、協業フィルタリング推薦装置130のCPU(Central Processing Unit)で具現される。
【0084】
メモリ230は、SSD(Solid State Disk)又はHDD(Hard Disk Drive)のような不揮発性メモリで具現されて協業フィルタリング推薦装置130に必要なデータの全般を格納することに使われる補助記憶装置を含み、RAM(Random Access Memory)のような揮発性メモリで具現された主記憶装置を含む。また、メモリ230は、電気的に連結されたプロセッサ210により実行されることによって、本発明による学習時間常微分方程式基盤の協業フィルタリング推薦方法を実行する命令の集合を格納する。
【0085】
ユーザ入出力部250は、ユーザの入力を受信するための環境及びユーザに特定の情報を出力するための環境を含み、例えば、タッチパッド、タッチスクリーン、画像キーボード、又はポインティング装置のようなアダプタを含む入力装置及びモニタ、又はタッチスクリーンのようなアダプタを含む出力装置を含む。一実施形態で、ユーザ入出力部250は、遠隔接続を通じて接続されるコンピューティング装置に該当し、そのような場合、協業フィルタリング推薦装置130は独立的なサーバとして遂行される。
【0086】
ネットワーク入出力部270は、ネットワークを介してユーザ端末110に連結されるための通信環境を提供し、例えば、LAN(Local Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)、及びVAN(Value Added Network)などの通信のためのアダプタを含む。また、ネットワーク入出力部270はデータの無線転送のためにWiFi、ブルートゥース(登録商標)などの近距離通信機能や4G以上の無線通信機能を提供するように具現される。
【0087】
図3は、本発明による協業フィルタリング推薦装置の機能的構成を説明する図である。
【0088】
図3を参照すると、協業フィルタリング推薦装置130は、連続的で学習可能な時間変数tを基にしてユーザ及びプロダクト埋め込みに関する共振ODE(co-evolutionaly ODEs)を含んで具現される。図5bに、本発明による方法(LT-OCF)の全体アーキテクチャを示す。協業フィルタリング推薦装置130は、二重ODE階層に基づいたLT-OCFを具現する過程で時間変数tを連続階層変数(continuous layer variable)として解析する。即ち、LT-OCFはtの連続的な特性を用いてより柔軟なアーキテクチャを構築することができる一方、LightGCN及び既存のGCN基盤のCF方法は予め決定された個別アーキテクチャを使用する。また、LT-OCFはtに対して全ての正の実数を使用することができ、このような数字は、本発明の場合、学習が可能である。
【0089】
このための論理的構成として、協業フィルタリング推薦装置130は、初期の埋め込み生成モジュール310、二重共振常微分方程式モジュール330、最終の埋め込み生成モジュール350、及び制御モジュール370を含む。
【0090】
初期の埋め込み生成モジュール310は、第1及び第2の初期の埋め込みを生成する。ここで、第1及び第2の初期の埋め込みの各々はユーザ及びプロダクト埋め込みに対応する。例えば、初期の埋め込み生成モジュール310は第1及び第2の初期の埋め込みとしてE 及びE を生成して次の動作ステップに伝達する。これによって、第1及び第2の初期の埋め込みは、二重共振ODE(dualco-evolutionary ODEs)に伝達され、本発明によるレイヤ組み合わせアーキテクチャを通過することによって、最終の埋め込みが生成される。
【0091】
二重共振常微分方程式モジュール330は、学習時間が経過するにつれて第1及び第2の前の埋め込みの各々の入力を受けて、相互影響を通じて第1及び第2の次の埋め込みを各々出力する過程を特定時間の間繰り返す第1及び第2の常微分方程式処理部材を含む。ここで、第1及び第2の前の埋め込みは初期に第1及び第2の初期の埋め込みに各々該当する。即ち、第1及び第2の常微分方程式処理部材の各々は各反復ステップでユーザ埋め込み及びプロダクト埋め込みを独立的に受信して所定の演算を通じて次のステップのための埋め込みを生成する動作を遂行する。
【0092】
一実施形態で、二重共振常微分方程式モジュール330は学習時間の特定時点でのユーザ埋め込みマトリックス(u(t))を第1の次の埋め込みに出力する。一実施形態で、二重共振常微分方程式モジュール330は学習時間の特定時点でのプロダクト埋め込みマトリックス(p(t))を第2の次の埋め込みに出力する。
【0093】
より具体的に、二重共振常微分方程式モジュール330により遂行される共振プロセス(co-evolutionary process)は次の数式9のように表される。
【0094】
【数9】
【0095】
ここで、
は時間tでユーザ埋め込みマトリックスであり、
は時間tでプロダクト埋め込みマトリックスである。また、f(p(t))は
を出力し、g(u(t))は
を出力する。この際、図5bのように、初期の埋め込みがODEに直接入力されるため、u(0)=E であり、p(0)=E である。
【0096】
一実施形態で、二重共振常微分方程式モジュール330はユーザ埋め込みマトリックスとプロダクト埋め込みマトリックスとで共振常微分方程式の集合を構成する。即ち、(u(t))及び(p(t))は共同進化(co-evolving)を処理するODEの集合に対応する。共同進化によってユーザ埋め込みはプロダクト埋め込みに影響を与え、プロダクト埋め込みはユーザ埋め込みに影響を与える。
【0097】
一実施形態で、二重共振常微分方程式モジュール330はユーザにより設定可能な複数の離散的な時間で複数のユーザ埋め込みマトリックス(u(t),u(t),…,u(t))及び複数のプロダクト埋め込みマトリックス(p(t),p(t),…,p(t))を出力する。これを通じて、二重共振常微分方程式モジュール330は本発明による学習時間アーキテクチャ(learnable-time architecture)を具現する。
【0098】
より具体的に、二重共振常微分方程式モジュール330は学習可能な多数の時点t∈{t,…,t}を適用して(u(t))及び(p(t))を抽出する。ここで、Tはハイパーパラメータ(hyper parameter)であり、全てのiに対して0<t<ti+1である。従って、上記数式9は次の数式10のように表される。
【0099】
【数10】
【0100】
ここで、tは全てのiに対して学習される。各方程式で、右辺の最初の項は残差連結(residual connection)を生成することに使われる(図9のODE内部残留連結(910)参照)
【0101】
一実施形態で、二重共振常微分方程式モジュール330は第1及び第2の常微分方程式の各々を非-パラメータ的な非-時間依存的な常微分方程式で構成する。例えば、最近の線形グラフ畳み込み(linear graph convolution)を基にして2つのODE関数f及びgを次の数式12のように定義する。
【0102】
【数12】
【0103】
ここで、
は対称正規化されたラプラシアンマトリックス(symmetric normalized Laplacian matrix)又は正規化された隣接行列(normalized adjacency matrix)である。LightGCNは後者を使用する一方、連続熱拡散微分方程式(continuous thermal diffusive differential equation)に基づいた本発明による方法は両者を共に使用する。上記数式12のような定義に従って、二重共振常微分方程式モジュール330は、非-パラメータ的で非-時間依存的なODEを構成する。なぜなら、ODE関数は、t、θ、及びθを入力に使用しないためである。
【0104】
最終の埋め込み生成モジュール350は、第1の前の埋め込み及び第1の次の埋め込みを累積合算して第1の最終の埋め込みを生成し、第2の前の埋め込み及び第2の次の埋め込みを累積合算して第2の最終の埋め込みを生成する。即ち、最終の埋め込み生成モジュール350はユーザ埋め込み及びプロダクト埋め込みに対して独立的な演算を通じて各々に関する最終の埋め込みを生成する。
【0105】
一実施形態で、最終の埋め込み生成モジュール350は、複数の離散的な時間で生成された複数のユーザマトリックスを加重合算して第1の最終の埋め込みを生成し、複数の離散的な時間で生成された複数のプロダクトマトリックスを加重合算して第2の最終の埋め込みを生成する。より具体的に、最終の埋め込み生成モジュール350により遂行される最終の埋め込み生成動作は、次の数式11のように表される。
【0106】
【数11】
【0107】
オイラー陽解法が内部的に遂行する動作は連続的な方法により残差連結を一般化するものである。従って、最終の埋め込み生成モジュール350はODEの中間状態(intermediate state)(即ち、t∈{t,…,t}で(u(t))及び(p(t)))を抽出し、上記数式11で二重残差連結(dual residual connection)に対応するより高いレベルのレイヤ組み合わせを生成する。(図9のODE外部レイヤ組み合わせ(930)参照)。
【0108】
一方、他の改善されたODEソルバーを使用する場合、ODEの内部の連結はより精巧になる(例えば、RK4を使用する場合、DenseNet又はFractalNetの連結)。図10には多様なソルバーでの内部及び外部の連結を図示する。
【0109】
また、多数の線形GCNが存在するが、LightGCNは、このような多様な線形GCNモデルの間の類似性を説明し、他の多くの線形モデルをLightGCNの特殊な場合に近似することができることを示した。
【0110】
本発明による方法では、次の設定を仮定する。i)tが学習されていないが、全てのiに対してiに固定される。ii)ステップサイズ媒介変数s=1と共にオイラー陽解法を使用し、iii)残差連結を使用しないが、ODEの内部の線形連結を使用する。上記の設定は次の数式13のように表される。
【0111】
【数13】
【0112】
その後、線形組み合わせは
を導出する。上記数式12におけるODE関数f及びgは上記数式5におけるLightGCNの線形レイヤ定義と同一であるため、上記の最終の埋め込みは上記数式6と同一である。従って、本発明による方法は特定の設定でLightGCNと同一である。結果的に、本発明による方法であるLT-OCFをLightGCN及びLightGCNに近似される他のモデルを含む線形GCNの連続的な一般化と見做すことができる。
【0113】
制御モジュール370は、協業フィルタリング推薦装置130の全体的な動作を制御し、初期の埋め込み生成モジュール310、二重共振常微分方程式モジュール330、及び最終の埋め込み生成モジュール350の間の制御の流れ又はデータの流れを管理する。
【0114】
図4は、本発明による学習時間常微分方程式基盤の協業フィルタリング推薦方法を説明するフローチャートである。
【0115】
図4を参照すると、協業フィルタリング推薦装置130は初期の埋め込み生成モジュール310を通じて第1及び第2の初期の埋め込みを生成する(ステップS410)。協業フィルタリング推薦装置130は、二重共振常微分方程式モジュール330を通じて第1及び第2常微分方程式処理部材を通じて学習時間が経過するにつれて第1及び第2の前の埋め込みの各々の入力を受けて、相互影響を通じて第1及び第2の次の埋め込みを各々出力する過程を特定時間の間繰り返す(ステップS430)。協業フィルタリング推薦装置130は、最終の埋め込み生成モジュール350を通じて第1の前の埋め込み及び第1の次の埋め込みを累積合算して第1の最終の埋め込みを生成し、第2の前の埋め込み及び第2の次の埋め込みを累積合算して第2の最終の埋め込みを生成する(ステップS450)。
【0116】
一方、協業フィルタリング推薦装置130は精巧な技法を含み、これに関する学習アルゴリズムは他の場合よりも複雑である。協業フィルタリング推薦装置130は、多くのCF方法で一般的に使われているLと表現されるBPR損失(Bayesian Personalized Ranking loss)を使用してモデルを学習する。
【0117】
また、協業フィルタリング推薦装置130は共振ODE(co-evolving ODE)及び中間時点(intermediate time point)を交互に学習する。即ち、1つを学習する際、他の部分は修正される。固定されたODE及び時点は学習時点の瞬間に定数と見なされるため、隣接敏感度方法による傾き計算を簡単にすることができる。初期の埋め込みE に対応するu(0)に関する損失傾きは次の数式14のような逆モード積分(reverse-mode integration)を通じて算出される。
【0118】
【数14】
【0119】
ここで、
である。(p(0))に関する損失傾き、即ちプロダクトの初期の埋め込みも同一の方式により算出される。
【0120】
また、隣接敏感度方法を使用する場合、傾き算出過程は空間複雑度ο(1)及び時間複雑度
が必要であり、ここで、sはオイラー方法、RK4、及びDOPRIの変形で固定された値を有する基本ODEソルバーの平均ステップサイズ(average step-size)である。
【0121】
また、tに関する損失傾きは、隣接敏感度方法には含まれないが、次の数式15のように直接定義される。
【0122】
【数15】
【0123】
ここで、全ての時点を学習するための複雑度(complexity)はο(T)である。
【0124】
図11は、本発明による学習アルゴリズムを示し、協業フィルタリング推薦装置130はBPR損失が収束されるまで各部分を交互に学習する。
【0125】
また、コーシー-コワレフスカヤの定理(Cauchy-Kowalevski theorem)によると、
が与えられた場合、fが分析的(又は、地域的にLipschitz連続型)である場合、hの固有な解が存在する。即ち、ODE問題は、fが分析的な場合、より頻繁に提起される。協業フィルタリング推薦装置130は、
をモデリングするための上記数式12で分析的な行列掛け算を使用する。これによって、固定された(p(t))が与えられた場合、又はその反対の場合、(u(t))に対する固有な最適のODEのみ存在する。
【0126】
以下、図12図16を通じて本発明による協業フィルタリング推薦方法に関する実験内容をより詳細に説明する。
【0127】
ここで、全ての実験は次のソフトウェア及びハードウェア環境で遂行される。即ち、Ubuntu 18.04 LTS、Python 3.6.6、Numpy 1.18.5、Scipy 1.5、Matplotlib 3.3.1、PyTorch 1.2.0、CUDA 10.0及びNVIDIA Driver 417.22、 i9 CPU及び NVIDIA RTXタイタンである。
【0128】
先ず、Gowalla、Yelp2018、及びAmazon-Bookの3種類のベンチマークデータセットを修正無しで使用する。該当データセットに関する統計は図12に示す。また、比較のために次のベースライン(baseline)が使用される。
【0129】
(1)MFは、ユーザ-アイテムの直接相互作用のみを相互作用関数(interaction function)の目標値(target value)に活用するベイジアン個人化順位(BPR)の損失により最適化した行列分解(matrix decomposition)である。
【0130】
(2)Neu-MFはニューラル協力フィルタリング方法である。該当方法はユーザ及びアイテム埋め込みの要素別連結の上に多数の隠されたレイヤを使用して非線形特徴相互作用をキャプチャーする。
【0131】
(3)CMNは、最新メモリ基盤のモデルである。該当方法は1次の連結を使用して同一なアイテムと相互作用する類似のユーザを探す。
【0132】
(4)HOP-Recは、グラフ基盤モデルであって、ランダムワーク(random walk)による高次ユーザ-アイテム相互作用を使用して原本訓練データを増加させる。
【0133】
(5)GC-MCは二部相互作用グラフ(bipartite interaction graph)に伝達される微分可能なメッセージを基にするグラフオートエンコーダフレームワークである。該当方法は、ユーザ-アイテム二部グラフにGCNエンコーダを適用し、ユーザとアイテムとの間の直接連結を活用するために1つの畳み込みレイヤを使用する。
【0134】
(6)Mult-VAEはVariational autoencoder基盤のCF方法である。脱落率(drop-outrate)は{0,0.2,0.5}であり、βは{0.2,0.3,0.6,0.8}である。レイヤ別次元は600、200、600である。
【0135】
(7)GRMFはグラフLaplacian regularizerを追加した行列分解(matrix factorization)方法である。公正な比較のためにGRMFの元の損失をBPR損失に変更する。GRMG-normはグラフLaplacianに正規化を追加したGRMFの変形である。
【0136】
(8)NGCFは、代表的なGCN基盤のCF方法であり、特徴変換及び非線形活性化を使用する。
【0137】
(9)LR-GCCF及びLightGCNは線形GCN基盤のCF方法である。
【0138】
また、ここでは2つの標準評価指標であるRecall@20及びNDCG@20が全てのランキングプロトコルと共に使用される。即ち、ユーザと相互作用しない全てのアイテムが推薦候補である。
【0139】
また、本発明による方法及び上記のベースラインモデルには、幾つかの共通的なハイパーパラメータが適用され、実験環境及び条件、そして比較対象になるモデルによって多様な実施形態が適用される。
【0140】
図13には、再現率(recall)及びNDCGの面で、全般的な正確度(accuracy)を示している。非線形GCN基盤の方法であるNGCFは他の非GCN基盤の方法と比較して幾つかの場合に良い性能を示す。何よりもLightGCNは、全てのベースラインのうち、全てのケースで最先端の正確度を示す。例えば、LightGCNによるGowallaの0.1830再現率対Multi-VAEの0.1641再現率のように大きい差で他の方法を凌駕する場合が存在する。一般に、3種類のGCN基盤方法であるNGCF、LR-GCCF、及びLightGCNは他のベースライン方法よりも性能で大きい差を示す。
【0141】
しかし、全ての場合において、最高の正確度は本発明による方法であるLT-OCF(Learnable-Time ODE-based Collaborative Filtering)により表れる。
【0142】
図14で、GowallaでLightGCN及びLTOCFの訓練曲線が示されている。一般に、本発明による方法は、LightGCNよりもエポック(epoch)個数の面でより速い訓練速度を提供することができる。図14の(d)で、学習が進行するにつれて、tが増加(多少の変動と共に)していることを確認することができる。本発明によるモデルは、レイヤ組み合わせを構成する場合、深いレイヤで埋め込みを好むためである。tはより活発に学習され、tは多く学習されない。該当学習パターンによると、レイヤ組み合わせに対して信頼できる初期レイヤを有することがより重要であることが分かる。
【0143】
図15及び図16で、Yelp2018及びAmazon-Bookに対する同一な実験類型の結果が示されている。Amazon-Bookの場合、図16の(a)のようにLT-OCFがLightGCNよりも格段に小さな損失値を示す。図15の(b)と(c)、及び図16の(b)と(c)で、本発明による方法はLightGCNよりも再現率及びNDCGに対してより速い学習を示す。図16の(d)で、t図14の(d)と図15の(d)の他の場合よりも遥かに多く学習される。
【0144】
以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的思想から逸脱しない範囲で多様に変更実施することが可能である。
【符号の説明】
【0145】
100 協業フィルタリング推薦システム
110 ユーザ端末
130 協業フィルタリング推薦装置
150 データベース
210 プロセッサ
230 メモリ
250 ユーザ入出力部
270 ネットワーク入出力部
310 初期の埋め込み生成モジュール
330 二重共振常微分方程式モジュール
350 最終の埋め込み生成モジュール
370 制御モジュール

図1
図2
図3
図4
図5a
図5b
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16