(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024028557
(43)【公開日】2024-03-04
(54)【発明の名称】情報処理装置、情報処理方法、及び記録媒体
(51)【国際特許分類】
G06N 3/09 20230101AFI20240226BHJP
G06Q 10/087 20230101ALI20240226BHJP
【FI】
G06N3/09
G06Q10/087
【審査請求】有
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2024007660
(22)【出願日】2024-01-22
(62)【分割の表示】P 2022206057の分割
【原出願日】2022-12-22
(31)【優先権主張番号】17/564,370
(32)【優先日】2021-12-29
(33)【優先権主張国・地域又は機関】US
(71)【出願人】
【識別番号】399037405
【氏名又は名称】楽天グループ株式会社
(74)【代理人】
【識別番号】100122275
【弁理士】
【氏名又は名称】竹居 信利
(72)【発明者】
【氏名】チェン ウェイテ
(72)【発明者】
【氏名】シア ヤンディ
(72)【発明者】
【氏名】新里 圭司
(57)【要約】
【課題】膨大な種類のタグを対象とした分類タスクを効率的に実行する。
【解決手段】プロセッサと、メモリとを含む情報処理装置であり、このプロセッサが、電子商取引における商品のジャンルと商品に付与するタグとの対応関係を示すリストを参照することでジャンルと対応しない1以上のタグを決定し、商品の商品情報の埋め込み表現に基づき商品にかかる1以上のタグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を、商品のジャンルと対応しない1以上のタグのそれぞれに関わる出力値を除く1以上の出力値の損失関数に基づいて行う。
【選択図】
図1
【特許請求の範囲】
【請求項1】
プロセッサと、メモリとを含む情報処理装置であって、
前記プロセッサが、
電子商取引における商品のジャンルと前記商品に付与するタグとの対応関係を示すリストを参照することで前記ジャンルと対応しない1以上の前記タグを決定し、
前記商品の商品情報の埋め込み表現に基づき前記商品にかかる1以上の前記タグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を、前記商品のジャンルと対応しない1以上の前記タグのそれぞれに関わる前記出力値を除く1以上の前記出力値の損失関数に基づいて行う、
情報処理装置。
【請求項2】
請求項1に記載の情報処理装置であって、
前記商品情報がテキスト情報である情報処理装置。
【請求項3】
請求項1に記載の情報処理装置であって、
前記リストが、商品に対して過去に付与されたタグと、当該商品のジャンルとの関係に基づいて生成される情報処理装置。
【請求項4】
請求項1に記載の情報処理装置であって、
前記リストが、商品に対して付与するタグを決定するごとに更新される情報処理装置。
【請求項5】
請求項1に記載の情報処理装置であって、
前記プロセッサは、予め列挙されたタグの候補を、商品のジャンルごとにクラスタリングして分類して前記リストを生成する情報処理装置。
【請求項6】
プロセッサを用いて、
電子商取引における商品のジャンルと前記商品に付与するタグとの対応関係を示すリストを参照することで前記ジャンルと対応しない1以上の前記タグを決定し、
前記商品の商品情報の埋め込み表現に基づき、前記商品にかかる1以上の前記タグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を、前記商品のジャンルと対応しない1以上の前記タグのそれぞれに関わる前記出力値を除く1以上の前記出力値の損失関数に基づいて行う、
情報処理方法。
【請求項7】
プロセッサを、
電子商取引における商品のジャンルと前記商品に付与するタグとの対応関係を示すリストを参照することで前記ジャンルと対応しない1以上の前記タグを決定する手段と、
前記商品の商品情報の埋め込み表現に基づき、前記商品にかかる1以上の前記タグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を、前記商品のジャンルと対応しない1以上の前記タグのそれぞれに関わる前記出力値を除く1以上の前記出力値の損失関数に基づいて行う手段と、
として機能させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法、及び記録媒体に関する。
【背景技術】
【0002】
入力された商品に関するテキスト情報に対してアノテーションを付与することを目的とする技術として特許文献1に開示のものがある。特許文献1では、アノテーションを付与する文字列(タグ情報)の抽出が適切であるか否かをユーザに指定させ、当該指定の結果に基づく機械学習を行っている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
電子商取引の対象となる商品はますます増大し、また多様化しており、商品に付するべきタグの種類も膨大になっているのが現状である。このため例えば電子商取引の対象となる商品を説明するテキストや画像(動画像を含む)などに基づいて、当該商品に付与するタグを決定する処理などにおいて、膨大な種類のタグを対象とした分類タスクを効率的に実行する必要がある。
【課題を解決するための手段】
【0005】
上記従来例の問題点を解決する本発明の一態様は、プロセッサと、メモリとを含む情報処理装置であり、前記プロセッサが、電子商取引における商品のジャンルと前記商品に付与するタグとの対応関係を示すリストを参照することで前記ジャンルと対応しない1以上の前記タグを決定し、前記商品の商品情報の埋め込み表現に基づき前記商品にかかる1以上の前記タグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を、前記商品のジャンルと対応しない1以上の前記タグのそれぞれに関わる前記出力値を除く1以上の前記出力値の損失関数に基づいて行うこととしたものである。
【図面の簡単な説明】
【0006】
【
図1】本発明の実施の形態に係る情報処理装置の構成例を表すブロック図である。
【
図2】本発明の実施の形態に係る情報処理装置の例を表す機能ブロック図である。
【
図3】本発明の実施の形態に係る情報処理装置で利用する対応関係リストの内容例を表す説明図である。
【
図4】本発明の実施の形態に係る情報処理装置の一例に係る機能ブロック図である。
【
図5】本発明の実施の形態に係る情報処理装置の動作例を表すフローチャート図である。
【発明を実施するための形態】
【0007】
本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において「埋め込み表現」とは、単語や画像などの入力データに対応するテンソル情報(数値の組)を表す。
【0008】
本発明の実施の形態に係る情報処理装置1は、
図1に例示するように、プロセッサ11,メモリ12,入出力ユニット13を含んで構成される。
【0009】
プロセッサ11は、CPUなどのプログラム制御デバイスを少なくとも一つ含む。このプロセッサ11は、GPU(Graphic Processing Unit)その他のプロセッサユニットを含むものであってもよいし、複数のCPUないしCPUやGPUの組み合わせを含むものであってもよい。このプロセッサ11は、メモリ12に格納されたプログラムに従って動作する。本実施の形態の例では、このプロセッサ11は、電子商取引の対象となる商品に係るタグを決定する処理を実行する。すなわち、このプロセッサ11は、電子商取引における商品のジャンルと、当該商品に付与するタグとの対応関係を示すリストを参照することで、上記商品のジャンルと対応しない1以上のタグを決定する。またプロセッサ11は、上記商品の商品情報に関する所定の埋め込み表現に基づき、当該商品にかかる1以上のタグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を実行する。プロセッサ11はこの学習処理においては、上記商品のジャンルと対応しない1以上のタグのそれぞれに関わる出力値を除く、1以上の出力値の損失関数に基づいて学習処理を実行する。このプロセッサ11の詳しい動作については後に述べる。
【0010】
メモリ12は、記憶素子やディスクデバイス等であり、プロセッサ11によって実行されるプログラムを格納する。このプログラムは、コンピュータ可読かつ非一時的な記録媒体に格納されて提供され、このメモリ12に複写されたものであってもよい。
【0011】
入出力ユニット13は、例えばUSB(Universal Serial Bus)インタフェース等を含む。この入出力ユニット13は、キーボードや、マウス等に接続され、ユーザの入力したテキスト等の情報を受け入れる。またこの入出力ユニット13は、ネットワークインタフェース等を含み、他の情報処理装置から商品情報となるテキスト情報や、画像情報、さらには音声情報等、種々の種類の情報を受け入れてもよい。さらに入出力ユニット13は、ディスプレイ等に接続され、プロセッサ11から入力される指示に従って情報をディスプレイ等に出力してもよい。
【0012】
次にプロセッサ11の動作について説明する。このプロセッサ11はメモリ12に格納されたプログラムを実行することで、
図2に示すように、機能的に、学習処理部110と、推論処理部210とを含む構成を実現する。
【0013】
ここで学習処理部110は、入力受入部111と、モデル学習部112と、推定タグ出力部113と、対応関係リスト取得部114と、マスキング部115と、損失演算部116とを含んで構成される。
【0014】
また推論処理部210は、入力受入部211と、推論処理部212と、推定タグ出力部213とを含んで構成される。
【0015】
学習処理部110の入力受入部111は、電子商取引における商品のジャンルの情報と、商品に係る情報(以下商品情報と呼ぶ)と、正解となる少なくとも一つのタグを特定する情報(以下正解情報と呼ぶ)とを受け入れる。ここで商品情報は、商品名や商品説明などのテキスト情報でもよいし、商品の画像や商品の解説動画、商品を説明する音声などの映像・音声情報等であってもよい。
【0016】
モデル学習部112は、機械学習処理の対象となる機械学習モデルの機械学習処理を実行する。本実施の形態の例では、このモデル学習部112によって機械学習される機械学習モデルは、トランスフォーマー・ネットワークを用いるものとし、具体的にはBERT(Bidirectional Encoder Representations from Transformers;J.Devlin, et al., BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, arXiv:1810.04805v2)であるものとする。
【0017】
ここでBERTは、事前に所定の機械学習が行われており、商品情報に基づき当該商品情報の埋め込み表現(embedded expression)を出力可能となっているものとする。
【0018】
もっとも、本実施の形態の情報処理装置1で利用する機械学習モデルは、BERTでなくてもよい。本実施の形態の情報処理装置1が利用する機械学習モデルは、商品情報の埋め込み表現を出力可能となるよう機械学習されたものであり、かつ、当該埋め込み表現に基づいて商品に係る1以上のタグのそれぞれに関する所定の出力値(タグごとの商品情報への適合確率)を決定する分類器を少なくとも一つ含むものであれば、他のものを用いてもよい。
【0019】
例えばこの機械学習モデルは、ELECTRA(https://arxiv.org/abs/2003.10555)や、ViT(Vision Transformer:https://openreview.net/forum?id=YicbFdNTTy)を含んでもよい。
【0020】
モデル学習部112は、入力受入部111が受け入れた商品情報を、機械学習モデルの入力とし、その出力の一つである商品情報の埋め込み表現を得て、推定タグ出力部113に出力する。機械学習モデルがBERTである場合、ここでの埋め込み表現としてはCLSトークン(分類トークン)を用いればよい。もっとも、これは一例であり、ここでの埋め込み表現は、入力された商品情報を適切に表すものであれば、各トークン(単語)の埋め込み表現を平均化したものであってもよい。またこのモデル学習部112は、後に説明する損失演算部116が出力する損失関数の情報に基づき、この機械学習モデルを、商品情報を入力とし、当該入力された商品情報に対するタグごとの適合確率を出力するよう機械学習させる。この機械学習の処理は、例えば、バックプロパゲーションにより、機械学習モデルに含まれるパラメータ情報を更新することで行われる。
【0021】
推定タグ出力部113は、モデル学習部112が出力する商品情報の埋め込み表現に基づいて、予め設定されたタグごとに、入力された商品情報に対する適合確率(各タグを付与するべきと判断される確率)を出力値として出力する。具体的には、この推定タグ出力部113は、機械学習モデルに含まれるニューラルネットワークおよびシグモイド関数などの活性化関数を利用し、当該機械学習モデルが生成する埋め込み表現に近接するタグの適合確率を演算する。機械学習モデルがフィードフォワードネットワークを分類器として含む場合、当該フィードフォワードネットワークを利用することでこの演算を行う。
【0022】
機械学習モデルがフィードフォワードネットワークに代えて全結合層(Fully Connected Layer)を含む場合、推定タグ出力部113は、モデル学習部112が出力する商品情報の埋め込み表現を、当該全結合層に入力し、入力された商品情報に対する適合確率(各タグを付与するべきと判断される確率)を得ればよい。この例では、推定タグ出力部113は、活性化関数の適用を経ずに出力値(適合確率)を決定できる。
【0023】
対応関係リスト取得部114は、電子商取引における商品のジャンルと商品に付与するタグとの対応関係を示すリストである対応関係リストを取得する。本実施の形態の一例では予め、
図3に例示するように、商品のジャンル(G)と、付与されるべきタグ(T)とを関連付けた対応関係リスト(L)を用意して、例えばメモリ12に格納しておく。一例としてこの対応関係リストには、商品のジャンル「衣服」に対して、タグとして赤、青、緑のような色やS、M、Lのようなサイズなどの情報が関連付けて記録されている。この「衣服」の商品ジャンルについては、例えば32インチ、40インチ、43インチのようなテレビ画面サイズや350mL、500mL、1.5Lのような飲料水の容量といったタグが不適合タグとなる。
【0024】
このような対応関係リストを用いる例では、対応関係リスト取得部114は、この対応関係リストから入力受入部111が受け入れた商品のジャンルの情報に関連付けられたタグの情報を取得する。
【0025】
マスキング部115は、推定タグ出力部113が演算したタグごとの適合確率のうち、対応関係リスト取得部114が取得した情報で特定されるタグ以外のタグに係る適合確率を除く適合確率の情報を損失演算部116に出力する。すなわち、このマスキング部115は、入力された商品のジャンルに対応しないタグ(不適合タグ)についての推定タグ出力部113の出力値(タグの適合確率)を「0」(負の大きな値を活性化関数に適用した結果)とする。マスキング部115は、こうして不適合タグに係る出力値を除いた、不適合タグに含まれない1以上のタグについての出力値(一般に「0」より大きい値となる)を選択的に損失演算部116に出力するものである。
【0026】
損失演算部116は、マスキング部115が出力するタグごとの出力値に対してそれぞれ所定の活性化関数(例えばシグモイド関数やソフトマックス関数などの非線形関数)を適用する。そして損失演算部116は、当該活性化関数を適用して得た値と、入力受入部111が受け入れた正解情報とを用いて損失関数を演算する。なお、ここで損失演算部116が演算する損失関数は、二乗和誤差であってもよいし、クロスエントロピー誤差であってもよく、タスクの設定により適切な損失関数が採用される。この損失演算部116が演算した損失関数の値は、モデル学習部112における機械学習モデルの機械学習処理に供される。
【0027】
モデル学習部112は、この損失関数の値を用いて機械学習モデルをファインチューニングすることとなる。
【0028】
またプロセッサ11は、ユーザの指示により推論処理部210として動作する。この推論処理部210の入力受入部211は、商品情報の入力を受け入れて、推論処理部212に出力する。
【0029】
推論処理部212は、学習処理部110によって機械学習された機械学習モデルに、入力受入部211が受け入れた商品情報を入力する。推論処理部212は、機械学習モデルが出力する、タグごとの、商品情報への適合確率の情報を得る。
【0030】
推定タグ出力部213は、機械学習モデルがフィードフォワードネットワークを含む場合、フィードフォワードネットワークの出力を活性化関数に適用することにより推論処理部212が得た、タグごとの適合確率の情報を用いて、入力された商品情報に係るタグを特定し、当該タグを特定する情報を出力する。一例としてこの推定タグ出力部213は、推論処理部212が得た、タグごとの適合確率の情報を参照し、当該適合確率が所定の値を超えるタグを特定する情報を出力する。ここで出力される情報で特定されるタグは一つだけであってもよいし、複数であってもよい。また、全てのタグの適合確率が所定の値を下回る場合、特定されるタグの数は0であってよい。
【0031】
なお、推論処理部212は既に述べたように、フィードフォワードネットワークに代えて全結合層を用いて各タグの適合確率(各タグを付与するべきと判断される確率)を得てもよい。
【0032】
[動作]
本実施の形態の情報処理装置1は、以上の構成を基本的に備えており、次の例のように動作する。なお、以下の例では、情報処理装置1が利用する機械学習モデルはBERTであるものとして説明する。
【0033】
この例では、情報処理装置1は、機能的に、
図4に例示するように、モデル学習部112と、マスキング部115と、非線形関数部1161と、対応関係リストであるタグマスター200とを含む。またモデル学習部112は、機械学習モデル1121、その出力であるCLSトークン1122、及び、単語に係るトークン1123a,1123b…、ネットワーク部1124を含む。
【0034】
ユーザはまず、この情報処理装置1の機械学習モデルに対して機械学習処理(ファインチューニング)を行う。具体的にユーザは機械学習のためのデータとして、電子商取引における複数の商品について、当該商品のジャンルの情報と、商品情報と、対応する正解情報とを組としたデータを情報処理装置1に入力する。
【0035】
情報処理装置1のプロセッサ11は、
図5に例示するように、入力されたデータに含まれる、各商品のジャンルの情報と、商品情報と、対応する正解情報とを順次受け入れる(S11)。そしてプロセッサ11は、例として、受け入れた商品情報を、機械学習モデル1121であるBERTの入力とし、その出力であるCLSトークン1122を、商品情報の埋め込み表現として得る(S12)。
【0036】
プロセッサ11は、ステップS12で得た埋め込み表現を、フィードフォワードネットワークであるネットワーク部1124に入力し、その出力値として、予め設定されたタグごとの、入力された商品情報に対する適合確率(各タグを付与するべきと判断される確率)のベクトルを得る(S13)。
【0037】
一方、プロセッサ11は、受け入れた情報のうち、ジャンルの情報を用いて当該情報で表されるジャンルの商品に付されるべきタグとして予め列挙されたタグの情報を取得する(S14)。本実施の形態の一例では、プロセッサ11は、既に述べたように、商品のジャンルと、付与されるべきタグとを関連付けて保持している対応関係リストであるタグマスター200を参照して、受け入れたジャンルの情報に対応するタグの情報を取得する。
【0038】
プロセッサ11は、ステップS13で得たベクトルの成分のうち、ステップS14で取得した情報が表すタグ以外の不適合タグに係る適合確率を、マスキング部115によりマスキングして取り除く(S15)。ただしプロセッサ11は、成分の値が「0」であるものについてはそのまま「0」の値を出力する。プロセッサ11は、各タグの適合確率と、ステップS11で入力された正解情報のタグに相当する成分を「1」、正解情報に含まれないタグに相当する成分を「0」とした情報との二乗和誤差またはクロスエントロピー誤差等の損失関数の値を、非線形関数部1161で演算する(S16)。この際、プロセッサ11は、マスキングされたタグの適合確率については演算の際に無視する(正解との差を求めず、累算も行わない)。
【0039】
プロセッサ11は、さらに、この損失関数の値に基づき、機械学習モデルの機械学習処理(ファインチューニング)を行い、当該機械学習モデルにおける各パラメータを、更新する(S17)。
【0040】
プロセッサ11は、以下、入力されたデータに含まれる商品ごとにステップS11からS17の処理を繰り返して実行し、入力されたデータに係る商品について処理を完了すると、この機械学習の処理を終了する。
【0041】
[バッチ処理を行う例]
なお、ここでは一つの商品ごとに、機械学習の処理を繰り返し行う例を示したが、複数の商品に係るデータ(バッチ)に基づいて一度の更新を行う、いわゆるバッチ処理によって処理が行われても構わない。
【0042】
この場合、プロセッサ11は、ステップS13においてバッチに含まれる各商品に対応するベクトルを配列したテンソルを得ることとなる。またプロセッサ11は、ステップS14では、バッチに含まれる商品のジャンルに対応して、タグの情報を得ることとなる。そしてステップS15では、プロセッサ11は、ステップS13で得たテンソルに含まれるベクトルのうち、バッチ内の各商品に対応するベクトルの、当該商品のジャンルに対応してステップS14で得たタグの情報に含まれない不適合タグに対応する成分を「0」としてマスキングを行う。以下、損失関数の演算については、バッチ処理における広く知られた方法を用いることができる。
【0043】
[対応関係リストの作成]
また、上述の例でプロセッサ11が使用する対応関係リストは、電子商取引の対象となる商品に対して過去に付与されたタグと、当該商品のジャンルとの関係に基づいて生成されてもよい。
【0044】
例えばプロセッサ11は、過去に電子商取引の対象となった商品に対し、その商品のジャンルの情報と、当該商品に付されたタグの情報とを関連付けて記録したデータを用いて対応関係リストを生成する。一例としてプロセッサ11は、当該データに基づき、例えば商品のジャンルごとに、当該ジャンルの商品に対して予め定めた回数しきい値より多く付されていたタグの情報を見出す。そしてプロセッサ11は、当該商品のジャンルに関連付けて、見出したタグの情報を関連付けて、対応関係リストに含める。
【0045】
[マスキングの他の例]
ここまでの説明において、プロセッサ11はマスキングの対象となるタグの情報(不適合タグの情報)を得るため、商品のジャンルと、付与されるべきタグとを関連付けた対応関係リストを用意しているものとした。しかしながら本実施の形態は、この対応関係リストを利用する例に限られるものではない。
【0046】
例えば、プロセッサ11は、予め列挙されたタグの候補を、商品のジャンルごとにクラスタリングして分類し、商品のジャンルと、付与されるべきタグとを関連付けたリストを生成してもよい。
【0047】
この例では、プロセッサ11は、タグのそれぞれに対してベクトル表現を得る。このベクトル表現は例えば、次のようにして設定したものでよい。まず商品のジャンルの順列G1,G2…を設定しておき、過去に商品に付与したタグについて、当該タグがジャンルGiの商品に付与された回数を、当該ジャンルGiに対応するi番目の成分の値としてベクトル表現を得る。例えばジャンルの順列を、「衣服」,「靴」,「鞄」…のように設定しておき、あるタグTj(j=1,2,…)のベクトル表現Vjを、当該タグTjが「衣服」の商品に付された回数をT1jとし、「靴」の商品に付された回数をT2jとし…と設定して、ベクトル表現Vj=(T1j,T2j,T3j…)を得る。
【0048】
プロセッサ11は、タグごとに得たベクトル表現に対し、k-means法などの所定のクラスタリング処理により複数のクラスタに分割する。そしてプロセッサ11は、クラスタごとに、商品のジャンルの情報を関連付ける。この関連付けは人為的に、クラスタに属するタグを参照しつつ、クラスタごとにジャンルの情報を設定することで行われてもよい。またプロセッサ11は、ジャンルの情報に対するベクトル表現(上述の例であれば、例えばジャンルGiのベクトル表現を、i番目の成分だけ「1」、その他の成分を「0」とするワンホットベクトルとして設定すればよい)をクラスタリング処理の対象に含めておき、タグのベクトル表現とともにクラスタリング処理してもよい。この場合、各クラスタを、当該クラスタに含まれるジャンルの情報に関連付ける。なお、クラスタにジャンルの情報が含まれていなければ、そのクラスタについては当該クラスタの中心から最も近いベクトル表現を有するジャンルの情報に関連付けてもよい。
【0049】
プロセッサ11は、各クラスタに属することとなったタグの情報を、当該クラスタに関連付けられたジャンルの情報に関連付ける。これにより、ジャンルの情報に対応するタグが設定される。プロセッサ11は、この方法で得られたジャンルの情報に対応するタグの対応関係の情報を、予め用意された対応関係リストの代わりに利用してもよいし、あるいは、この方法で得られた対応関係の情報を、対応関係リストとして記録して利用してもよい。
【0050】
[タグの推論動作]
また本実施の形態の情報処理装置1は、上述の処理によって機械学習された状態となった機械学習モデルを用い、次のようにして商品に対して付与するべきタグを選択して、当該選択したタグを特定する情報を出力する。
【0051】
ユーザは、情報処理装置1に対して、タグの付与の対象となる商品の商品情報を入力する。この商品情報は、既に述べたように、商品名や商品説明などのテキスト情報でもよいし、商品の画像や商品の解説動画、商品を説明する音声などの映像・音声情報等であってもよく、機械学習の処理の際に入力したものと同じ種類(テキスト、画像、動画、音声、またはそれらの組み合わせ、などの別)の情報であるものとする。
【0052】
情報処理装置1のプロセッサ11は、当該入力された商品情報を、上記機械学習モデルの入力とし、その出力の一つである商品情報の埋め込み表現を得る。具体的に上記の機械学習モデルがBERTを含む場合、この埋め込み表現としてCLSトークン(分類トークン)を用いる。
【0053】
プロセッサ11は、当該得られた埋め込み表現を、上記機械学習モデルを構成するフィードフォワードネットワークに入力し、その出力値として、予め設定されたタグごとの、入力された商品情報に対する適合確率(各タグを付与するべきと判断される確率)のベクトルを得る。
【0054】
機械学習モデルがフィードフォワードネットワークに代えて全結合層を含む場合、プロセッサ11は、得られた埋め込み表現を当該全結合層に入力し、その出力値として、予め設定されたタグごとの入力された商品情報に対する適合確率(各タグを付与するべきと判断される確率)のベクトルを得てよい。このとき、プロセッサ11は、全結合層を介して、埋め込み表現の次元数をタグ数に応じた次元数に変換する。なお、フィードフォワードネットワークに代えて全結合層が用いられる場合、プロセッサ11は、活性化関数の適用を経ずに出力値(適合確率)を決定する。
【0055】
そしてプロセッサ11は、当該タグごとの適合確率の情報を参照し、当該適合確率が所定の値を超えるタグを特定する情報を、付与するべきタグの情報として出力する。ここで出力される情報で特定されるタグは一つだけであってもよいし、複数であってもよい。
【0056】
さらにプロセッサ11は、付与するべきタグの情報として出力した情報で特定されるタグが、商品に対して付与されたときには、その旨の情報を受けて、当該商品のジャンルと付与したタグとを関連付けて対応関係リストに含め、対応関係リストを更新してもよい。これにより対応関係リストが、商品に対して付与するタグを決定するごとに更新される。
【符号の説明】
【0057】
1 情報処理装置、11 プロセッサ、12 メモリ、13 入出力ユニット、110 学習処理部、111 入力受入部、112 モデル学習部、113 推定タグ出力部、114 対応関係リスト取得部、115 マスキング部、116 損失演算部、200 タグマスター、210 推論処理部、211 入力受入部、212 推論処理部、213 推定タグ出力部、1121 機械学習モデル、1124 ネットワーク部、1161 非線形関数部。
【手続補正書】
【提出日】2024-02-16
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
プロセッサと、メモリとを含む情報処理装置であって、
前記プロセッサが、
予め列挙されたタグの候補のそれぞれに対してベクトル表現を得ておき、タグごとに得たベクトル表現を複数のクラスタに分類して、当該クラスタごとに電子商取引における商品のジャンルを関連付けることで、商品のジャンルと、付与されるべきタグとを関連付け、
前記商品の商品情報の埋め込み表現に基づき、前記商品にかかる1以上の前記タグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を、入力された商品のジャンルと対応しない1以上の前記タグのそれぞれに関わる前記出力値を除く1以上の前記出力値の損失関数に基づいて行う
情報処理装置。
【請求項2】
プロセッサと、メモリとを含む情報処理装置であって、
前記プロセッサが、
予め列挙されたタグの候補のそれぞれに対してベクトル表現を得ておき、タグごとに得たベクトル表現を複数のクラスタに分類して、当該クラスタごとに電子商取引における商品のジャンルを関連付けることで、商品のジャンルと、付与されるべきタグとを関連付け、
前記商品の商品情報の埋め込み表現に基づき、前記商品にかかる1以上の前記タグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を、所定の商品のジャンルに対応するクラスタに分類されない1以上の前記タグのそれぞれに関わる前記出力値を除く1以上の前記出力値の損失関数に基づいて行う
情報処理装置。
【請求項3】
請求項1または2に記載の情報処理装置であって、
前記商品情報がテキスト情報である情報処理装置。
【請求項4】
請求項1または2に記載の情報処理装置であって、
前記プロセッサが前記タグの候補のそれぞれに対してベクトル表現を得るときには、過去に商品に付与したタグについて前記商品のジャンルGi(i=1,2…)ごとに当該タグが付与された回数をi番目の成分としてベクトル表現を設定する情報処理装置。
【請求項5】
請求項1または2に記載の情報処理装置であって、
前記プロセッサが、前記商品のジャンルと、付与されるべきタグとを関連付けるときには、予め列挙されたタグの候補のそれぞれと、電子商取引における商品のジャンルとに対してベクトル表現を得ておき、タグ及び商品のジャンルのベクトル表現を複数のクラスタに分類し、共通のクラスタに属するタグと商品のジャンルとを関連付けることで、商品のジャンルと、付与されるべきタグとを関連付ける情報処理装置。
【請求項6】
プロセッサを用いて、
予め列挙されたタグの候補のそれぞれに対してベクトル表現を得ておき、タグごとに得たベクトル表現を複数のクラスタに分類して、当該クラスタごとに電子商取引における商品のジャンルを関連付けることで、商品のジャンルと、付与されるべきタグとを関連付け、
前記商品の商品情報の埋め込み表現に基づき前記商品にかかる1以上の前記タグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を、入力された商品のジャンルと対応しない1以上の前記タグのそれぞれに関わる前記出力値を除く1以上の前記出力値の損失関数に基づいて行う
情報処理方法。
【請求項7】
プロセッサを、
予め列挙されたタグの候補のそれぞれに対してベクトル表現を得ておき、タグごとに得たベクトル表現を複数のクラスタに分類して、当該クラスタごとに電子商取引における商品のジャンルを関連付けることで、商品のジャンルと、付与されるべきタグとを関連付ける手段と、
前記商品の商品情報の埋め込み表現に基づき前記商品にかかる1以上の前記タグのそれぞれに関わる出力値を決定する分類器を少なくとも含む機械学習モデルの学習処理を、入力された商品のジャンルと対応しない1以上の前記タグのそれぞれに関わる前記出力値を除く1以上の前記出力値の損失関数に基づいて行う手段と、
として機能させるプログラム。