(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024176421
(43)【公開日】2024-12-19
(54)【発明の名称】推定装置
(51)【国際特許分類】
G06Q 30/02 20230101AFI20241212BHJP
【FI】
G06Q30/02
【審査請求】未請求
【請求項の数】1
【出願形態】OL
(21)【出願番号】P 2023094937
(22)【出願日】2023-06-08
(71)【出願人】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(74)【代理人】
【識別番号】100103894
【弁理士】
【氏名又は名称】家入 健
(72)【発明者】
【氏名】村井 千恵
(72)【発明者】
【氏名】中西 亮輔
【テーマコード(参考)】
5L030
5L049
【Fターム(参考)】
5L030BB02
5L049BB02
(57)【要約】
【課題】過去に自社で行っていない施策に対する顧客の反応を精度よく推定することが可能な推定装置を提供すること。
【解決手段】本実施形態にかかる推定装置1は、対象施策に関する施策データ及びユーザデータを含む対象データを取得する対象データ取得部14と、施策に関する施策データ及びユーザデータを含む学習データを入力した場合に、施策の特性及びユーザの特性を出力するように、機械学習などを用いて学習された学習モデル73を用いて、対象データから対象施策の特性及びユーザの特性を取得し、取得した対象施策の特性及びユーザの特性に基づいて、対象施策に対するユーザの反応率を推定する反応推定部と、を備えている、学習データは、自社で実施されていない他社の施策に関する施策データ及びユーザデータを少なくとも含む。
【選択図】
図1
【特許請求の範囲】
【請求項1】
対象施策に関する施策データ及びユーザデータを含む対象データを取得する対象データ取得部と、
施策に関する施策データ及びユーザデータを含む学習データを入力した場合に、施策の特性及びユーザの特性を出力するように学習された学習モデルを用いて、前記対象データから前記対象施策の特性及びユーザの特性を取得し、取得した前記対象施策の特性及びユーザの特性に基づいて、前記対象施策に対するユーザの反応率を推定する反応推定部と、を備え、
前記学習データは、自社で実施されていない他社の施策に関する施策データ及びユーザデータを少なくとも含む
推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、推定装置に関する。
【背景技術】
【0002】
デジタルマーケットで展開されるサービスでは、ユーザのサービス利用促進のために様々な施策が実施されている。それらの施策が実際に期待する効果を出しているか否かを推定することは、以降の施策を検討するために重要である。関連する技術として、特許文献1は、顧客の属性情報から、ダイレクトマーケティングの施策に対する顧客の反応のスコアを算出するためのスコアリングモデルを備えるダイレクトマーケティング支援装置を開示する。当該ダイレクトマーケティング支援装置は、スコアリングモデルに、施策を実施したことがない顧客の属性情報を入力することによって、当該顧客に施策を実施した場合に期待される反応のスコアを算出する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
例えば、過去に自社で実施された施策の情報のみを用いて、施策に対する顧客の反応を推定するための学習モデルを生成したとする。この場合、過去に自社で実施していない施策に対する顧客の反応に対しては、学習モデルの推定精度が低下するおそれがある。
【0005】
本発明は、過去に自社で行っていない施策に対する顧客の反応を精度よく推定することが可能な推定装置を提供するものである。
【課題を解決するための手段】
【0006】
本開示にかかる推定装置は、対象施策に関する施策データ及びユーザデータを含む対象データを取得する対象データ取得部と、施策に関する施策データ及びユーザデータを含む学習データを入力した場合に、施策の特性及びユーザの特性を出力するように学習された学習モデルを用いて、前記対象データから前記対象施策の特性及びユーザの特性を取得し、取得した前記対象施策の特性及びユーザの特性に基づいて、前記対象施策に対するユーザの反応率を推定する反応推定部と、を備える。前記学習データは、自社で実施されていない他社の施策に関する施策データ及びユーザデータを少なくとも含むものである。
【発明の効果】
【0007】
本開示にかかる推定装置は、過去に自社で行っていない施策に対する顧客の反応を精度よく推定することができる。
【図面の簡単な説明】
【0008】
【
図2】推定装置が行う処理の全体的な流れを示すフローチャートである。
【
図3】学習データ取得部が行う学習データの取得処理を示すフローチャートである。
【
図4】学習モデルに入力する情報及び学習モデルから出力される情報の例を示す図である。
【
図5】反応推定部が行う施策反応率の推定処理を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されている。説明の明確化のため、必要に応じて重複説明は省略される。
【0010】
関連する技術では、自社サービス内で過去に実施した施策を基に新規施策の効果を推定するが、過去の事例がない施策の検討時には、類似施策がないために、高い精度での施策効果を推定することが困難である。そこで、本開示にかかる推定装置では、他外サービスの施策に関するデータを特徴量に加えることで、施策に対する顧客の反応率(以下、「施策反応率」と称する場合がある)の推定精度を向上させる。具体的には、本開示にかかる推定装置は、他社サービスのSNS(Social Networking Service)やHP(Home Page)等から発信された施策の言語情報を用いて機械学習モデルを生成する。また、本開示にかかる推定装置は、生成したモデルに検討施策の情報を入力することで、施策の特性やユーザの施策反応率を算出する。
【0011】
(推定装置1の構成)
図1を参照して、実施形態にかかる推定装置1の構成について説明する。
図1は、推定装置1の構成を示すブロック図である。推定装置1は、学習データ取得部11、前処理部12、学習部13、対象データ取得部14、反応推定部15、及び記憶部17を備えている。推定装置1は、図示しない構成としてプロセッサ及びメモリを備えている。また記憶部17は、本実施形態にかかる処理が実装されたプログラムが記憶される記憶装置として機能し得る。プロセッサは、記憶部17からプログラムをメモリへ読み込ませ、当該プログラムを実行する。これにより、プロセッサは、学習データ取得部11等の機能を実現する。学習データ取得部11等は、それぞれが専用のハードウエアで実現されていてもよい。また、推定装置1の各構成要素の一部又は全部は、汎用または専用の回路、プロセッサ等やこれらの組合せによって実現されてもよい。プロセッサとして、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等を用いることができる。
【0012】
学習データ取得部11は、各種DB(DataBase)やSNS、又はHPなどにアクセスして、学習部13での学習に用いられる学習データを取得する。学習データ取得部11は、施策に関する施策データ、及び当該施策に関連するユーザに関するユーザデータを学習データとして取得する。学習データは、自社で実施されていない他社の施策に関する施策データ及びユーザデータを少なくとも含む。施策データは、例えば、自社又は他社が展開するサービスで実施された施策に対応付けられた言語情報や画像情報などを含み得る。施策データは、例えば、施策への参加ユーザ、施策の概要、又はSNSやHP等での施策に関する発信内容などである。
【0013】
ユーザデータは、例えば、ユーザ属性情報、SNSで発信された言語情報、又は自社サービス内でのユーザの行動情報などを含み得る。ユーザ属性情報は、例えば、ユーザの性別、年齢、又は居住地などの情報である。ユーザ属性情報は、各属性を示す属性値により表されてもよい。SNSで発信された言語情報は、SNS等においてユーザが発信した文章などの言語情報である。ユーザの行動情報は、自社又は他社のサービス内におけるユーザの行動を示す情報である。ユーザの行動情報は、例えば、施策に対するエンゲージメント情報、画像情報、又は施策に対する投稿内容などである。エンゲージメント情報は、例えば施策に関するSNSの投稿に対してユーザが行った、高評価を示す反応に関する情報である。高評価を示す反応は、例えば投稿の拡散、「いいね」の回数、投稿への返信などがある。画像情報は、投稿に付与された画像や、ユーザやサービスのプロフィール画像などである。ユーザの行動情報は、ユーザの参加施策、購入商品、又はSNSなどで閲覧したページなどを含んでもよい。
【0014】
学習データ取得部11は、自社のDB又は他社のサーバなどから学習データを取得する。例えば自社サービスに関しては、学習データ取得部11は、自社施策DB71を参照して、当該サービスに関する施策データ及びユーザデータを取得する。また、学習データ取得部11は、他社サービスに関しては、図示しないインターネットなどのネットワークを介して、他社のサービス公式SNSやHPなどからデータを取得する。当該データは、例えば、エンゲージメント情報、画像情報、又は言語情報などを含み得る。なお、ここではSNSやHPの情報を例として用いるが、これらに限らず任意の情報が用いられ得る。学習データ取得部11は、所定のサービスを提供する他社のサーバなどからデータを取得してもよい。学習データ取得部11は、施策の言語情報と、当該施策に対して反応するユーザとが観測できる任意のサービスから学習データを取得することができる。
【0015】
前処理部12は、学習データ取得部11で取得された学習データに学習モデルを適用する前に、データに対し前処理を行う。例えば前処理部12は、データに含まれる言語情報の前処理を行う。具体的には、前処理部12はデータに含まれる文字情報を抽出し、抽出した文字情報を整形する。文字情報の整形は、文字の全角又は半角の統一、又は英語表記若しくは日本語表記の統一などを含む。また、前処理部12は、抽出された文字情報に対し、単語分割を行う。前処理部12は、処理対象外とするストップワードを除去する処理を行ってもよい。また、取得された画像情報内に文字が存在する場合、前処理部12はOCR(Optical Character Recognition)処理を行い、文字情報を抽出する。前処理部12は、抽出した文字情報に対して前処理を行う。
【0016】
学習部13は、前処理部12で前処理が行われたデータを用いて、機械学習モデルの学習を行う。学習部13は、公知の機械学習の手法を用いて学習モデル73を生成し、記憶部17に記憶する。学習部13は、学習モデル73を再学習させてもよい。
【0017】
対象データ取得部14は、施策反応率の推定対象である対象施策に関する施策データ及びユーザデータを含む対象データを取得する。対象データは、例えば、新規施策に関する言語情報などを含む。対象データは、ターゲットとするユーザに関する情報を含んでもよい。
【0018】
反応推定部15は、新規の施策を検討するために、学習部13で得られた学習モデル73を用いて、施策に対するユーザの反応率を算出する。具体的には、反応推定部15は、対象データ取得部14で取得された対象データを学習モデル73に入力する。反応推定部15は、学習モデル73から出力された対象施策の特性及びユーザの特性を取得する。反応推定部15は、取得した対象施策の特性及びユーザの特性を、施策特性情報74及びユーザ特性情報75として記憶部17に記憶する。反応推定部15は、施策特性情報74及びユーザ特性情報75に基づいて、対象施策に対するユーザの反応率を推定する。
【0019】
記憶部17は、自社施策DB71、自社ユーザDB72、学習モデル73、施策特性情報74、及びユーザ特性情報75を記憶する。自社施策DB71及び自社ユーザDB72は、自社サービスに関するデータを蓄積したものである。自社施策DB71及び自社ユーザDB72は、自社サービスにおける施策及びユーザの情報をそれぞれ含む。
【0020】
学習モデル73は、学習部13で学習された学習モデルである。学習モデル73は、施策に関する施策データ及びユーザデータを含む学習データを入力した場合に、施策の特性及びユーザの特性を出力するように学習されている。施策特性情報74は、学習モデル73から出力された施策ごとのトピック分布を蓄積したものである。ユーザ特性DB75は、学習モデル73から出力されたユーザごとのトピック分布を蓄積したものである。記憶部17は上記以外の情報を記憶してもよい。また上記の情報の一部又は全部が、推定装置1の外部に記憶されてもよい。
【0021】
上述した推定装置1の構成は一例に過ぎず、適宜変更されてよい。例えば、推定装置1の各構成要素の一部又は全部は、複数の情報処理装置や回路等により実現され得る。複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
【0022】
(推定装置1の処理)
図2~
図5を参照して、推定装置1が行う処理について説明する。
図2は、推定装置1が行う処理の全体的な流れを示すフローチャートである。
図3は、学習データ取得部11が行う学習データの取得処理を示すフローチャートである。
図4は、学習モデル73に入力する情報及び学習モデル73から出力される情報の例を示す図である。
図5は、反応推定部15が行う施策反応率の推定処理を示すフローチャートである。以下では
図2を参照して全体の流れを説明しながら、各処理の詳細を
図3~
図5を参照して説明する。
【0023】
まず、学習データ取得部11は、学習データの取得処理を行う(S1)。学習データ取得部11は、自社施策DB71及び自社ユーザDB72を参照し、自社の施策に関するデータを取得する。また、学習データ取得部11は、SNSやHPなどから、他社の施策に関するデータを取得する。
【0024】
ここで、
図3を参照して、ステップS1の処理の詳細を説明する。学習データ取得部11は、自社サービス及び他社サービスの全ての施策について、ステップS11~S13の処理を繰り返す。学習データ取得部11は、他社サービスの中から、自社サービスと競合する他社サービスを特定することで処理対象を限定してもよい。
【0025】
まず学習データ取得部11は、推定の対象とする施策が自社の施策であるか否かを判定する(S11)。学習データ取得部11は、自社の施策と所定以上類似するか否かを判定してもよい。自社の施策である場合(S11のYES)、学習データ取得部11は、記憶部17の自社施策DB71からデータを抽出する(S12)。自社の施策でない場合(S11のNO)、学習データ取得部11は、他社サービスの公式SNSなどからデータを取得する(S13)。学習データ取得部11は、自社サービス及び他社サービスの全ての施策について上述の処理が終了すると、学習データの取得処理を終了する。
【0026】
上述した学習データ取得処理において、他社の実施施策におけるSNSやHP等の言語情報の扱いに関しては、以下のような例が考えられる。
(例1)学習データ取得部11は、SNSやHP等で発信された言語情報をそのまま取得する。
(例2)学習データ取得部11は、ユーザの反応(例えば、引用、リプライ、「いいね」など)から、施策に反応しているユーザの情報を取得する。学習データ取得部11は、その施策の言語情報をユーザが生成したものとみなす。例えば、施策の公式アカウントが、所定の飲食店を利用することによりユーザへのキャッシュバックを行うことをSNSに投稿したとする。当該投稿に対し、ユーザa及びbが、投稿の引用や投稿への返信などを行うことにより、投稿に反応したとする。学習データ取得部11は、当該キャッシュバックの施策に反応したユーザa及びbの情報を取得する。学習データ取得部11は、当該キャッシュバックの施策の言語情報をユーザa及びbが生成したとみなす。このように、複数のユーザが施策に反応した場合、学習データ取得部11は、当該施策と反応したユーザ群とを対応付けて取得する。
【0027】
図2に戻り説明を続ける。前処理部12は、学習データ取得部11で取得された学習データに対して前処理を行う(S2)。続いて学習部13は、前処理されたデータを用いて施策特性及びユーザ特性の学習を行う(S3)。学習部13は、施策に関する施策データ及びユーザデータを含む学習データを入力した場合に、施策の特性及びユーザの特性を出力するように学習モデル73を学習させる。例えば、学習部13は、施策やユーザごとの特性(トピック分布)を、オーサートピックモデル(Author-Topic Model)などの機械学習モデルを用いて学習する。学習部13は、生成した学習モデル73を記憶部17に記憶する。
【0028】
学習部13は、異なる入力データを用いて学習モデル73を生成してもよい。以下では、
図4を参照して、2つの異なる入力データを用いて学習モデル73を生成する例を説明する。以下の例1及び例2は、上述した例1及び例2と対応する。
【0029】
(例1)例1では、学習部13は、施策の特性(トピック)を、施策の言語情報から直接学習する。学習部13は、施策の言語情報及びユーザの発信した言語情報を入力とし、施策ごとのトピック分布及びユーザごとのトピック分布を出力とするように学習モデル73を学習させる。
図4の上段及び中段に示される表は、例1において出力される、施策ごとのトピック分布D1及びユーザごとのトピック分布D2を示している。例えば、トピック分布D1において、施策ごとのトピック分布をΦとすると、施策A、B、Cのトピック分布は、それぞれΦ
A、Φ
B、Φ
Cで表される。また、トピック分布D2において、ユーザごとのトピック分布をθとすると、ユーザa、b、cのトピック分布は、それぞれθ
a、θ
b、θ
cで表される。
【0030】
(例2)例2では、学習部13は、SNSなどで施策の発信に反応したユーザを対象に、ユーザの特性を学習する。学習部13は、ユーザが施策に対して反応した場合、その施策の言語情報を当該ユーザが生成したとみなし、ユーザごとに施策の言語情報を取りまとめる。学習部13は、施策の言語情報を入力とし、ユーザごとのトピック分布を出力とするように学習モデル73を学習させる。
図4の下段に示される表は、例2において出力される、ユーザごとのトピック分布D3を示している。トピック分布D2同様、トピック分布D3において、ユーザごとのトピック分布をθとすると、ユーザa、b、cのトピック分布は、それぞれθ
a、θ
b、θ
cで表される。
【0031】
図2に戻り説明を続ける。対象データ取得部14は、推定の対象となる対象データを取得する(S4)。例えば、対象データ取得部14は、推定装置1を運用する運用者から図示しない入力部を介して対象データを取得する。入力部は、例えば、マウスやキーボードなどの入力装置である。ここでは、対象データ取得部14は、自社サービスである新規な施策Xに関する情報を含む対象データを取得したものとする。続いて反応推定部15は、学習モデル73とユーザごとの特性(トピック分布)を用いて、施策Xに対する施策反応率を算出するための推定処理を行う(S5)。
【0032】
ここで、
図5を参照して、ステップS5の処理について説明する。まず、反応推定部15は、対象データから施策Xの言語情報を取得する(S21)。反応推定部15は、施策Xの言語情報を前処理部12に入力して、前処理を行う(S22)。反応推定部15は、学習モデル73を用いて、前処理後の対象データから施策Xの特性を推定する(S23)。反応推定部15は、施策特性情報74を用いて、施策Xの特性をベクトルの確率値Φ
Xとして出力する。反応推定部15は、施策Xへのユーザごとの反応率を算出するために、ユーザ特性情報75を用いて、ユーザの特性θを読み込む(S24)。ユーザの特性は、施策Xの特性と同様に、n個(nは1以上の整数)のトピックに対する確率値であり、ベクトルを用いて表される。
【0033】
続いて反応推定部15は、施策Xの反応率を推定する(S25)。反応推定部15は、施策Xの特性を示す列ベクトルと、ユーザの特性を示す行ベクトルと、を乗算することで、確率値を示すスカラー値を算出する。これにより、反応推定部15は施策Xに対するユーザの反応率を算出する。例えば、施策Xに対するユーザaの反応率PXaは、施策Xの列ベクトルΦXとユーザaの行ベクトルθaと、を用いて以下の式(1)で表される。反応推定部15は、他のユーザについても同様にして施策反応率を推定できる。
PXa=ΦXθa ・・・(1)
【0034】
図2に戻り説明を続ける。反応推定部15は、上記の式(1)で算出された結果を、施策Xに対するユーザaの反応率の推定結果として提示する(S6)。例えば、反応推定部15は、図示しないディスプレイなどの表示部に推定結果を表示させる。
【0035】
以上説明したように、本実施形態にかかる推定装置1では、自社サービスから抽出可能な特徴量に加えて、他社サービスで実施された施策の情報を公式SNSやHP等から取得し入力特徴量に加えている。これにより、推定装置1は、過去に自社で行っていない施策に対する顧客の反応を、自社で実施した施策の情報のみを用いる場合よりも精度よく推定することができる。
【0036】
また、自社サービスにおける新規ユーザについては、推定装置1は、そのユーザのSNS情報を用いてユーザの特性を推定する。事前に自社サービスのデータに基づいてユーザ特性ごとに施策反応率を算出しておくことで、推定装置1は、新規ユーザがどのような特性の施策に反応するかを推定することができる。これにより、新規ユーザ追加時において、施策反応率を高い精度で推定することができる。また上述したように、推定装置1では施策反応率を推定する際に、ユーザの特性を推定するモデルを学習するため、ユーザの特性を推定することができる。
【0037】
上述したプログラムは、コンピュータに読み込まれた場合に、実施形態で説明された機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、非一時的なコンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、又はその他の形式の伝搬信号を含む。
【0038】
なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
【符号の説明】
【0039】
1:推定装置、11:学習データ取得部、12:前処理部、13:学習部、14:対象データ取得部、15:反応推定部、17:記憶部、71:自社施策DB、72:自社ユーザDB、73:学習モデル、74:施策特性情報、75:ユーザ特性情報、D1~D3:トピック分布