(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-13
(45)【発行日】2024-12-23
(54)【発明の名称】学習モデル生成方法、チャレンジ支援システム及びプログラム
(51)【国際特許分類】
G16H 20/00 20180101AFI20241216BHJP
【FI】
G16H20/00
(21)【出願番号】P 2020174773
(22)【出願日】2020-10-16
【審査請求日】2023-09-25
(73)【特許権者】
【識別番号】516002521
【氏名又は名称】谷本 広志
(74)【代理人】
【識別番号】100079108
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【氏名又は名称】内藤 和彦
(72)【発明者】
【氏名】谷本 広志
【審査官】吉田 誠
(56)【参考文献】
【文献】特開2020-091721(JP,A)
【文献】特開2009-157837(JP,A)
【文献】特開2020-170217(JP,A)
【文献】特開2009-003864(JP,A)
【文献】特開2018-5284(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G16H 10/00 - 80/00
G06Q 10/00 - 99/00
(57)【特許請求の範囲】
【請求項1】
ユーザの属性を示す属性情報を参照する属性情報参照部と、
複数の環境要素の組であ
るチャレンジ環境条件を生成する環境条件生成部
であって、前記複数の環境要素は、ユーザのチャレンジに対するインセンティブ及び前記インセンティブに基づく報酬の配分を設定する情報を含む、環境条件生成部と、
前記チャレンジ環境条件において
チャレンジが前記ユーザによって実行された際の前記チャレンジの達成度を参照する達成度参照部と、
前記達成度と前記チャレンジ環境条件と前記属性情報との組を
、前記チャレンジの内容に関連付けて、学習データとして
記憶部に格納する学習データ格納部と、
前記学習データに基づいて、前記属性情報を入力とし、前記チャレンジ環境条件を出力とするように学習される学習モデルを生成する学習モデル生成部と、を備える、学習モデル生成装置。
【請求項2】
請求項1に記載の学習モデル生成装置であって、
前記学習モデル生成部は、前記学習データに基づいて、前記属性情報を入力とし、前記チャレンジの推定された達成度、をさらに出力とするように学習される学習モデルを生成する、学習モデル生成装置。
【請求項3】
請求項
1又は2に記載の学習モデル生成装置であって、
前記ユーザは第1ユーザであって、
前記属性情報は前記第1ユーザの第1属性情報であって、
前記学習モデルは第1学習モデルであって、
前記学習データは第1学習データであって、
前記属性情報参照部は、第2ユーザの第2属性情報をさらに参照し、
前記学習モデル生成装置は、
前記複数の環境要素を参照して、
前記チャレンジ環境条件の候補である複数の環境条件候補を
、前記複数の環境要素をランダムに組み合わせて生成する環境候補生成部と、
前記複数の環境条件候補を前記第2ユーザに提示し、前記複数の環境条件候補における前記第2ユーザの前記チャレンジの前記第2ユーザへの適合度を取得する適合度取得部と、をさらに備え、
前記環境条件生成部は、
前記第2属性情報を第2学習モデルに
入力して、前記チャレンジ環境条件を生成し、
前記第2学習モデルは、前記環境条件候補と前記適合度と前記第2属性情報とを第2学習データとして機械学習され、属性情報の入力に対し、前記複数の環境条件候補に含まれるチャレンジ環境条件を出力する、学習モデル生成装置。
【請求項4】
請求項
3に記載の学習モデル生成装置であって、
前記適合度取得部は、前記複数の環境条件候補のそれぞれにおける複数の前記チャレンジが、前記第2ユーザによって実行された際の前記複数のチャレンジの達成度を、前記適合度として取得する、学習モデル生成装置。
【請求項5】
請求項
4に記載の学習モデル生成装置であって、
前記学習モデル生成部はさらに、前記学習データに基づいて、前記第2学習モデルを再学習する、学習モデル生成装置。
【請求項6】
請求項
3に記載の学習モデル生成装置であって、
前記環境候補生成部は、前記複数の環境条件候補を前記第2ユーザに提示するための提示情報を生成し、
前記適合度取得部は、前記提示情報に基づく前記複数の環境条件候補に対する前記
第2ユーザの受容度を前記適合度として
前記第2ユーザのユーザ端末から取得する、学習モデル生成装置。
【請求項7】
請求項
2に記載の学習モデル生成装置であって、
前記ユーザは第1ユーザであって、
前記属性情報は前記第1ユーザの第1属性情報であって、
前記学習データは第1学習データであって、
前記属性情報参照部は、第2ユーザの第2属性情報を参照し、
前記複数の環境要素を前記第2ユーザに提示する環境要素提示部、をさらに備え、
前記環境条件生成部は、
第2学習モデルに、前記第2属性情報を入力して、前記チャレンジ環境条件を生成し、
前記第2学習モデルは、前記第2ユーザによって選択された前記環境要素の組である前記チャレンジ環境条件と前記第2属性情報とを第3学習データとして機械学習され、属性情報の入力に対し、チャレンジ環境条件を出力する、学習モデル生成装置。
【請求項8】
請求項
1から7のいずれか一項に記載の学習モデル生成装置であって、
前記属性情報参照部は、前記ユーザの認知バイアスに関する情報を含む属性情報を参照する、学習モデル生成装置。
【請求項9】
請求項
1から8のいずれか一項に記載の学習モデル生成装置と、
前記チャレンジを管理するチャレンジ管理装置と、
を備え、
前記学習モデル生成装置の前記属性情報参照部は、第1属性情報参照部であって、
前記チャレンジ環境条件は前記チャレンジの評価方法の情報を含み、
前記チャレンジ管理装置は、
前記学習モデル生成装置によって生成された前記学習モデルが格納されるモデル格納部と、
前記ユーザの前記属性情報を参照する第2属性情報参照部と、
前記学習モデルに前記属性情報を入力し、前記ユーザの前記チャレンジ環境条件を取得するチャレンジ環境条件取得部と、
前記チャレンジの達成条件に対する判定を行うための判定情報を取得する判定情報取得部と、
前記判定情報
と前記評価方法とに基づいて、前記チャレンジ環境条件における前記チャレンジの達成度を算出する達成度算出部と、を備え、
前記学習モデル生成装置では、
前記達成度参照部は、前記達成度算出部が算出した前記達成度を参照して、前記チャレンジ環境条件における前記達成度を取得する、チャレンジ支援システム。
【請求項10】
請求項
9に記載のチャレンジ支援システムであって、
前記チャレンジ管理装置では、
前記チャレンジ環境条件取得部は、前記属性情報に基づいて前記チャレンジの推定された達成度を出力可能な前記学習モデルから、前記チャレンジ環境条件における前記推定された達成度を取得し、前記ユーザが前記推定された達成度を閲覧可能に表示するための情報を生成する、チャレンジ支援システム。
【請求項11】
コンピュータに、
ユーザの属性を示す属性情報を参照する属性情報参照処理と、
複数の環境要素の組であ
るチャレンジ環境条件を生成する環境条件生成処理
であって、前記複数の環境要素は、ユーザのチャレンジに対するインセンティブ及び前記インセンティブに基づく報酬の配分を設定する情報を含む、環境条件生成処理と、
前記チャレンジ環境条件において
チャレンジが前記ユーザによって実行された際の前記チャレンジの達成度を参照する達成度参照処理と、
前記達成度と前記チャレンジ環境条件と前記属性情報との組を
、前記チャレンジの内容に関連付けて、学習データとして
記憶部に格納する学習データ格納処理と、
前記学習データに基づいて、前記属性情報を入力とし、前記チャレンジ環境条件を出力とするように学習される学習モデルを生成する学習モデル生成処理と、を実行させる、プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習モデル生成方法、チャレンジ支援システム及びプログラムに関する。
【背景技術】
【0002】
人々は、達成したいと思いながらなかなか実現できないチャレンジを持っていることがある。チャレンジには、例えば、健康維持・増進のためにウォーキングをすること、健康診断に行くこと、禁煙すること、英会話の勉強をすること等が含まれる。
【0003】
この種のチャレンジの一つとして、健康維持・増進の目的により運動習慣を改善するチャレンジがある。特許文献1には、健康への影響を考慮したリアルタイムな健康管理や運 動計画の立案を可能とし、ユーザが簡単に効率の良いエクササイズを行うことを可能とする運動管理装置が示される。特許文献1に記載の運動管理装置では、ユーザに適した運動を推奨する運動推奨情報を導出するための分析モデルを用いて、ユーザの運動を管理する。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に記載の運動管理装置における継続期間や歩数、速度を含む運動情報などのように、運動計画の具体的なチャレンジの内容は、チャレンジを行うユーザの計画達成の可否に影響を与えうる。
【0006】
あるユーザのチャレンジの達成に関係する要素は、実行するべきチャレンジのみならず、ユーザがチャレンジを行う外部環境による要因が存在する。外部環境とは、ユーザがチャレンジを実行する動機に影響する要素である。すなわち、ある学習モデルを用いてユーザに提示されるチャレンジの内容自体はユーザにとって実行可能であったとしても、ユーザがチャレンジを実行する動機が不足した環境でチャレンジを行うとすると、実行が滞り、結果としてチャレンジが達成されない場合がある。
【0007】
そこで、本発明は、ユーザによるチャレンジが達成される可能性の高いチャレンジ環境を提示可能な学習モデルを生成する学習モデル生成装置を提供することを目的とする。
【課題を解決するための手段】
【0008】
本発明の一態様に係る学習モデル生成装置は、達成すべきチャレンジを有するユーザの属性を示す属性情報を参照する属性情報参照部と、属性情報に基づいて、前記チャレンジを行う環境に関して記憶部に記憶される複数の環境要素の組である環境条件としてチャレンジ環境条件を生成する環境条件生成部と、チャレンジ環境条件においてチャレンジがユーザによって実行された際のチャレンジの達成度を参照する達成度参照部と、達成度とチャレンジ環境条件と属性情報との組を学習データとして記憶部に格納する学習データ格納部と、学習データに基づいて、属性情報を入力とし、チャレンジ環境条件と達成度(推定値)を出力とするように学習される学習モデルを生成する学習モデル生成部と、を備える。
【発明の効果】
【0009】
本発明によれば、ユーザによるチャレンジが達成される可能性の高いチャレンジ環境を提示可能な学習モデルを生成する学習モデル生成装置を提供することができる。
【図面の簡単な説明】
【0010】
【
図1】本実施形態に係るチャレンジ支援システムの概略図である。
【
図2】本実施形態に係る学習モデル生成装置のブロック図である。
【
図3】本実施形態に係る属性要素の一例を示す図である。
【
図4】本実施形態に係る環境要素の一例を示す図である
【
図5】本実施形態に係る環境要素の一例を示す図である
【
図6】本実施形態に係るチャレンジ管理装置のブロック図である。
【
図7】本実施形態に係るチャレンジ情報の一例である。
【
図8】本実施形態に係るチャレンジ支援システムにおける処理の概略を説明する図である。
【
図9】本実施形態に係る学習モデル生成装置における第1学習モデルの生成を説明する図である。
【
図10】達成度に基づく第2学習モデルの生成を説明する図である。
【
図11】受容度に基づく第2学習モデルの生成を説明する図である。
【
図12】ユーザからの入力に基づく第2学習モデルの生成を説明する図である。
【
図13】チャレンジ管理装置におけるチャレンジ管理情報の一例を説明する図である。
【
図14】本実施形態に係る第1学習モデルの更新の処理の概略を説明する図である。
【
図15】チャレンジ管理装置におけるチャレンジ管理情報の他の一例を説明する図である。
【
図16】本実施形態に係る属性情報に基づく推定達成度の表示処理を説明する図である。
【
図18】チャレンジ環境条件の一例を示す図である。
【
図20】チャレンジ環境条件の一例を示す図である。
【発明を実施するための形態】
【0011】
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
【0012】
図1には、本実施形態に係るチャレンジ支援システム10の概略が示される。チャレンジ支援システム10は、学習モデル生成装置101、ユーザ端末102a,102b及びチャレンジ管理装置103を備える。なお、特に区別の必要がない場合、ユーザ端末102a,102bをユーザ端末102という。チャレンジ管理装置103は、学習モデル生成装置101及びユーザ端末102とネットワークNを通じて互いに通信可能に接続される。
【0013】
学習モデル生成装置101は、所定のプログラムを実行することによって、チャレンジ管理装置103において管理されるチャレンジについて、その環境条件を生成する学習モデルの生成を行う情報処理装置である。学習モデル生成装置101は、例えばサーバである。環境条件及び学習モデル生成装置101による学習モデルの生成処理については後述する。
【0014】
ユーザ端末102は、所定のプログラムを実行することによってチャレンジ管理装置103との間で、チャレンジに関して必要な情報の送受信を行う。ユーザ端末102a、102bはそれぞれ、通信部1021a,1021b及び表示部1022a,1022bを備える。通信部1021は、ネットワークNを通じてチャレンジ管理装置103と通信を行う。表示部1022は、チャレンジ管理装置103から取得した情報の表示あるいは、チャレンジ管理装置103に送信する情報の入力に必要な画面を表示する。ユーザ端末102は例えば、スマートフォン、PC、タブレット等の情報処理端末であるが、これらに限られない。ユーザ端末102は、例えばスマートフォンやタブレットであって、アプリケーションとしてインストールされたプログラムによって、チャレンジ管理装置103と情報の送受信を行う。
【0015】
チャレンジ管理装置103は、所定のプログラムを実行することによって、ユーザが挑戦するチャレンジを管理する。チャレンジ管理装置103は、学習モデル生成装置101が生成した学習モデルと、ユーザの属性情報とに基づいて、ユーザのチャレンジにおけるチャレンジ環境条件を、ユーザのチャレンジに関連付けて、チャレンジの管理を行う。
【0016】
チャレンジ管理装置103において管理されるチャレンジは、例えば特許第6762647号公報に記載されているように、ユーザが自身の資金をブロックチェーンネットワーク上に預け、チャレンジの達成可否に応じて、その資金が分配されるように設定されたチャレンジである。あるいは、企業等が従業員に対して資金を提供し、チャレンジ結果に応じて、資金の配分がなされるようなチャレンジであってもよい。
【0017】
図2及び
図3から
図5を参照して、学習モデル生成装置101の各部について説明する。
図2には学習モデル生成装置101のブロック図が示される。学習モデル生成装置101は、通信部201、記憶部202、属性情報参照部203、環境条件生成部204、環境候補生成部205、環境要素提示部206、適合度取得部207、達成度参照部208、学習データ格納部209及び学習モデル生成部210を有する。学習モデル生成装置101の各部は、例えば、学習モデル生成装置101においてメモリ等の記憶領域を用いたり、記憶領域に格納されたプログラムをプロセッサが実行したりすることによって、実現することができる。
【0018】
通信部201は、学習モデル生成装置101の外部の端末及び情報処理装置とのネットワークNを通じた通信を制御する。
【0019】
記憶部202は、学習モデル生成装置101での処理に用いられる各種の情報を記憶する。記憶部202は、学習モデル格納部2021、属性要素記憶部2022環境要素記憶部2023、及び適合度記憶部2024を有する。
【0020】
学習モデル格納部2021には、学習モデル生成装置101が生成した学習モデルM1及び学習モデルM2が記憶される。学習モデルM1,M2については後述する。
【0021】
属性要素記憶部2022には、ユーザの属性を示す属性情報における項目である属性項目が記憶される。属性要素記憶部2022に記憶される属性項目の一例が
図3に示される。
図3では、属性項目Aとして、「基本属性」、「健康」、「性格」、「価値観」、「認知バイアス」等の項目があり、各属性項目Aの項目に対して属性項目Bが小項目として設けられている。
【0022】
各属性項目Bに対応して、各ユーザの情報が値として記憶されることで、あるユーザについての属性情報が学習モデル生成装置101にて記憶される。
【0023】
例えば、「認知バイアス」の項目には、属性項目Bとして、「時間割引」、「確率荷重」、「リスク・損失回避」、「同調傾向」、「サンクコスト」の項目がある。「時間割引」の項目は、ある行動に対する報酬の価値の評価にあたって、現在の価値に比べて時間の経過とともに将来の価値を低く見積もる志向性に関する項目である。「確率荷重」の項目は、ある事象について、低確率で発生する事象を過大評価する一方、高確率で発生する事象を過小評価する志向性に関する項目である。「リスク・損失回避」の項目は、リスクを伴うチャレンジに対して、敬遠するような意思決定をする志向性及び利益より損失に比重を置いて意思決定をする志向性に関する項目である。「同調傾向」の項目は、周囲の人の意見や行動に影響され、同じような行動をとる傾向に関する項目である。「サンクコスト」の項目は、既に回収が不可能である費用に対して、心理的な正当性を求めようとする志向性に関する項目である。すなわち、ここでいう、認知バイアスとは、何らかの行動の実行や、物事に対する判断に影響を与える心理的な気質のことである。
【0024】
環境要素記憶部2023には、ユーザがチャレンジを行うにあたって、ユーザの外部環境を示す環境条件における項目である環境要素が記憶される。環境要素記憶部2023に記憶される環境要素の一例が
図4及び
図5に示される。
【0025】
図4及び
図5では、環境要素Aとして、「資金提供者」、「チャレンジ方法」、「達成度の評価方法」、「応援の仕方」、「インセンティブ」、「インセンティブ配分(成功時)」、「インセンティブ配分(失敗時)」及び「アプリにおける経過表示」の要素を有する。
【0026】
また、環境要素Bは、各環境要素Aに対する中項目であり、各環境要素Aに対応した要素である。環境要素Cは、各環境要素Bに対する小項目であり、各環境要素Bに対応した要素である。
【0027】
「資金提供者」は、チャレンジ達成時に発生するインセンティブの原資の提供者である。例えば、自分自身、家族あるいは会社における関係者等が資金の提供を行うようにできる。
【0028】
「チャレンジ方法」は、ユーザが挑戦するチャレンジへの取り組み方を示す。例えば、環境要素Bが「自分」である場合は、達成の判断を自分一人の結果に基づいて行う場合である。また、環境要素Bが「競争」である場合は、達成の判断を他のユーザの結果と併せて行う場合である。
図4では、企業が従業員への福利厚生の一環としてチャレンジを複数の従業員に提供する場合を想定し、環境要素Cに「部内」、「部門対抗」の要素が設けられている。例えば、チャレンジ方法が「競争」でありかつ「部内」の場合、ある部署において、ある共通のチャレンジを部署のメンバーが行い、各メンバーを順位づけてその順位が一定以上の場合にチャレンジが達成されたと判断するようにできる。「部門対抗」では、少なくとも一人以上のメンバーを含む部門をチームとして、チーム別に競争させることができる。また、環境要素Bが「協力」である場合は、複数人が競争するのではなく、各メンバーがそれぞれのチャレンジを実行し、全員のチャレンジが達成されることを目的とする。すなわち、連帯責任としてひとりでも失敗したら、全員のチャレンジを失敗とする。
【0029】
「達成度の評価方法」は、チャレンジの達成度を評価する方法を示す。例えば、チャレンジがある期間にわたって、一日当たり所定の歩数を、所定の日数歩くチャレンジがあるとする。その場合、達成度の評価方法として以下の例がある。(A):達成日数をチャレンジ期間で除することで達成度を算出する、すなわち、(達成日数)/(所定の日数)×100として達成度を算出する方法。(B):各日数の歩数記録の内、所定の日数分、歩数が多い方から記録を参照し、それらの歩数の合計を、目標が達成された場合の合計歩数で除することで達成度を算出する方法。
【0030】
例えば、「30日間に20日以上、8000歩/日以上歩く」チャレンジがあるとする。ここで、期間中に10日間は4000歩、10日間は6000歩、10日間は10000歩いたとする。このとき、上記(A)の方法によると、達成度は、(10日)/(20日)×100=50%となる。また、上記(B)の方法によると、合計歩数が8000×20で160000歩であることを考慮し、(6000歩×10日+ 8000歩×10日)/160000歩=87.5%となる。
【0031】
また、チャレンジが異なる場合は、他の評価方法をとることができる。例えば、100メートル走のタイムを短縮するチャレンジがあるとする。この場合は評価方法としてタイム減少率によって達成度を評価する。具体的には、(短縮した秒数)/(初期の秒数)×100として達成度を算出する。例えば、100メートル走のタイムが15.0秒の人が、14.5秒に縮まった場合、タイム減少率(達成度)=0.5秒/15.0秒=3.3%となる。
【0032】
このような「達成度の評価方法」が環境要素Cとして記憶されている。ここでは、上記(A)、(B)の方法に対応する方法A、方法Bの2つの環境要素が示されているが、評価方法は、チャレンジに応じて適切に追加・変更可能である。なお、「達成度の評価方法」は、ユーザ別に変更せず、
図7で後述するチャレンジ情報において各チャレンジに予め関連付け、各ユーザに対し共通する達成度の評価方法が用いられるようにしていてもよい。
【0033】
「応援の仕方」は、ユーザのチャレンジを応援する「応援者」、「応援方法」及び「応援頻度」を設定するものである。
図4に示されるような各種選択肢が環境要素Cとして設けられている。
【0034】
図5の「インセンティブ」は、ユーザのチャレンジが達成された場合に獲得できるインセンティブの「種類」、「金額」及び「時間経過による価値減少」を設定するものである。「種類」には、インセンティブの提供形態が環境要素Cとして設けられている。「金額」は、インセンティブとして提供される金額又は提供される物品等が相当する金額が環境要素Cとして設けられている。「時間経過による価値減少」は、チャレンジの達成が遅くなった場合に、インセンティブが減少するような設定をするための環境要素である。例えば、環境要素Cにおいて、「減少しない」、「減少する(20%/週)」及び「減少する(50%/週)」の要素がある。ここで、「減少する(20%/週)」とは、例えば、4週間にわたって行われるチャレンジがある場合に、1週間ごとに、インセンティブの金額を初期金額の20%ずつ減少させるものである。インセンティブを時間経過とともに減少させることで、ユーザがチャレンジを積極的に行うように動機づけることができる。
【0035】
「インセンティブ配分(成功時)」及び「インセンティブ配分(失敗時)」は、インセンティブの配分方法を設定するものである。
図5に示されるような各種選択肢が環境要素Cとして設けられている。
【0036】
「アプリにおける経過表示」は、各ユーザの端末にインストールされるアプリにおける自身のチャレンジの途中経過の表示態様を設定するものである。競争相手や応援者への表示態様を設定するための環境要素が設けられている。競争相手や応援者にチャレンジの途中経過を見せることで力が湧いてくる人がいる。
【0037】
「利用商品・サービス」は、チャレンジの達成のために使用する商品等である。ここでは一例として、環境要素Bの「運動サポート」に含まれる環境要素C「サプリメント」及び「トレーニングメニュー」が示される。例えば、体重を減少させることを目的とするチャレンジにおいて、ユーザがチャレンジ期間中に使用することが推奨されるプロテインがサプリメントとして環境条件に含まれる。あるいは、1日1回10分の筋力トレーニングのメニューが環境条件に含まれる。
【0038】
通信販売会社が、顧客であるユーザに商品のリコメンドを行うとき、そのユーザが望む最適な商品をリコメンドできれば購買に繋がる。またはリコメンドしたときにユーザがその商品に価値を感じなかったとしても、その商品を使った体験を続けることにより、体重減等の効果があったとすると、通信販売会社のリコメンドの信頼性が増し、次なる購入に繋がる。商品に対するユーザの一時的な評価だけでなく、その商品を使った体験によりユーザが得られる価値までも考慮した商品のリコメンドが、ユーザにとっては最適なものであると言える。
【0039】
例えばある属性を持ったユーザAがプロテインA摂取と1日1回10分の筋力トレーニングを実施したときに、ある目標(例えば2kg体重を減らす)の達成度が80%(体重が1.6kg減少)だとすると、通信販売会社は、ユーザAと同じ属性を持つユーザBに対して、ユーザAが摂取したプロテインAの摂取と1日1回10分間の筋力トレーニングをリコメンドすれば、ユーザBの体重を減らすことができる可能性があり、ユーザBの満足度が高いリコメンドであると言える。またユーザBにリコメンドするときに、同時に目標体重減2kgに対して、達成度は80%と推定されると伝えても良い。
【0040】
もしユーザBの実際の体重減が1.8kgだった場合、達成度は90%であり、ユーザBの属性、チャレンジ環境条件(サプリメントA摂取、1日1回10分の筋力トレーニング)、達成度90%という学習データを用いて学習モデルを学習させることができる。このようにユーザが、他の多数のユーザが実際に行ったチャレンジを基に学習されたエビデンスに基づき算出されるリコメンドにより、商品のデザインや広告に過度に惑わされず、自身が求める価値にたどり着くことを支援することができるので、最終的に高い顧客満足度が得られる。
【0041】
各環境要素Cが組み合わせられることによって、あるチャレンジに対する環境条件が作られる。また、環境条件はすべての環境要素Aに対応する環境要素Cが含まれる必要はなく、環境要素を部分的に含むような情報であってもよい。
【0042】
また、環境要素Cの各項目はあくまでも例示であり、ここで示したものに限られない。例えば、
図5に示した「インセンティブ」の配分に関しては、より細かい金額単位で環境要素の項目が設けられていてもよい。また、「インセンティブ配分」についても、ここで例示した、配分比率に限定されない。さらに、2名間の配分ではなくより多くの関係者との間でインセンティブ配分が行われるような設定が可能であってもよい。また「アプリにおける経過表示」についても、環境要素Bにおける途中経過を表示する対象や、環境要素Cにおける表示方法について、ここで示した項目以外の項目が設けられてもよい。
【0043】
適合度記憶部2024には、後述の適合度取得部207によって取得された適合度及び適合度に関係付けられる属性情報及び環境条件候補が学習データとして記憶される。
【0044】
属性情報参照部203は、ユーザ端末102から、ユーザの属性情報を取得する。あるいは、属性情報参照部203は、ユーザの属性情報を記憶して管理する情報処理装置(不図示)にネットワークNを通じてアクセスし、対象ユーザの属性情報を取得する。
【0045】
環境条件生成部204は、属性情報に基づいて、チャレンジを行う環境に関して環境要素記憶部2023に記憶される複数の環境要素の組である環境条件としてチャレンジ環境条件を生成する。環境条件生成部204は、属性情報を入力とし、環境条件を出力するように学習されて学習モデル格納部2021に記憶された学習モデルM2に基づいて、チャレンジ環境条件を生成する。
【0046】
環境候補生成部205は、複数の環境要素を参照して、複数の環境条件を含む環境条件候補を生成する。環境候補生成部205は、学習モデルM2の生成処理に際して機能する部分である。
【0047】
環境要素提示部206は、複数の環境要素を参照して、複数の環境要素をユーザに提示する。環境要素提示部206は、ユーザ端末102の表示部1022に各環境要素を選択するための画面の生成に用いられる情報の生成及びユーザ端末102への送信を行う。
【0048】
適合度取得部207は、複数の環境条件候補を学習モデルM2の生成に関与するユーザに提示し、複数の環境条件候補における当該ユーザのチャレンジの、当該ユーザへの適合度を取得する。適合度とは、あるチャレンジ環境条件を提示されたユーザの、そのチャレンジ環境条件において実際にチャレンジを行ったときの達成度又は当該チャレンジ環境条件をユーザがどの程度受容でき、納得してチャレンジを行うことができるのかを示す受容度である。
【0049】
達成度参照部208は、通信部201を通じてチャレンジ管理装置103にアクセスすることで、チャレンジ管理装置103にて管理される達成度を参照する。達成度には、ユーザが実際にチャレンジを行った結果から算出される達成度(実測達成度)と、後述の推定された達成度(推定達成度)がある。達成度参照部208が参照する達成度は、実測達成度である。
【0050】
学習データ格納部209は、達成度とチャレンジ環境条件と属性情報との組を学習データとして記憶部202に格納する。学習データ格納部209によって記憶された学習データは、学習モデルM1の生成に用いられる。
【0051】
学習モデル生成部210は、学習データに基づいて、属性情報を入力とし、チャレンジ環境条件と推定された達成度を出力とするように学習される学習モデルM1を生成する。
【0052】
また、学習モデル生成部210は、環境条件候補と適合度と属性情報とを学習データとして機械学習され、属性情報を入力とし、チャレンジ環境条件を出力とするように学習される学習モデルM2を生成する。学習モデルM1,M2の生成処理についてはそれぞれ後述する。適合度が達成度の場合、M1とM2は同一である。
【0053】
図6には、チャレンジ管理装置103のブロック図が示される。チャレンジ管理装置103は、通信部601、記憶部602、属性情報参照部603、チャレンジ環境条件取得部604、判定情報取得部605及び達成度算出部606を有する。チャレンジ管理装置103の各部は、例えば、チャレンジ管理装置103においてメモリ等の記憶領域を用いたり、記憶領域に格納されたプログラムをプロセッサが実行したりすることによって、実現することができる。
【0054】
通信部601は、チャレンジ管理装置103の外部の端末及び情報処理装置とのネットワークNを通じた通信を制御する。
【0055】
記憶部602は、チャレンジ管理装置103での処理に用いられる各種の情報を記憶する。記憶部602はチャレンジ記憶部6021及びモデル格納部6022を有する。
【0056】
チャレンジ記憶部6021には、
図7に示されるようなチャレンジ情報が示される。ユーザはこれらのチャレンジを、チャレンジ管理装置103によって設定される環境条件において実行する。なお、チャレンジ情報には、各チャレンジの達成度の評価方法が予め関連付けられていてもよい。また、モデル格納部6022には、学習モデル生成装置101によって生成された学習モデルM1が、学習モデル生成装置101から取得されて記憶される。
【0057】
属性情報参照部603は、ユーザの属性情報を取得する。属性情報参照部603は、ユーザ端末102から、ユーザの属性情報を取得する。あるいは、属性情報参照部603は、ユーザの属性情報を記憶して管理する情報処理装置(不図示)にネットワークNを通じてアクセスし、対象ユーザの属性情報を取得する。
【0058】
チャレンジ環境条件取得部604は、学習モデルM1にユーザの属性情報を入力し、ユーザのチャレンジ環境条件を取得する。
【0059】
判定情報取得部605は、チャレンジ環境条件が設定されたチャレンジを実行するユーザのチャレンジの達成度の算出を含む達成の判定に用いる判定情報を取得する。例えば、歩数に関するチャレンジの場合は、ユーザ端末102から歩数を取得する。歩数の計測には、例えばユーザ端末102がスマートフォンであってそれに歩数計測機能が備わっている場合は、その情報を利用することができる。また、判定情報は、ユーザ端末102以外の端末から取得されてもよい。例えば、チャレンジを実行するユーザとは異なるユーザが判定を行う場合、その判定者や判定機関等の端末から判定情報を取得できる。
【0060】
達成度算出部606は、チャレンジ環境条件に含まれる達成度の評価方法に基づいて、ユーザのチャレンジの達成度を算出する。
【0061】
図8及び
図9から
図11を参照して、学習モデル生成装置101における学習モデルM2の生成処理について説明する。
【0062】
ステップS801において、属性情報参照部203は、属性要素記憶部2022に記憶されている属性要素に基づいて、ユーザの属性情報を取得する。
【0063】
ステップS802において、環境条件生成部204は、環境要素記憶部2023から環境要素を取得する。
【0064】
ステップS803において、適合度取得部207は、適合度を達成度として取得するか否かを判断する。この判断は、学習モデル生成装置101の管理者が予め設定した情報に基づいてなされる。
【0065】
ステップS803にて肯定判断されると、ステップS804において、環境候補生成部205は、環境要素に基づいてランダムな環境条件を生成することで複数の環境条件候補を生成する。
【0066】
ステップS805において、適合度取得部207は、生成された環境条件候補をユーザ端末102及びチャレンジ管理装置103に送信する。
【0067】
ステップS806において、適合度取得部207は、ユーザが各環境条件候補におけるチャレンジを実行した結果としてチャレンジ管理装置103により算出される達成度を、各環境条件候補について取得する。
【0068】
ステップS807において、適合度取得部207は、適合度としての達成度と環境条件候補と属性情報との組を学習データとして適合度記憶部2024に記憶する。達成度には所定の閾値が設けられ、当該閾値に基づいて、学習データの記憶対象が定められてもよい。例えば、達成度には所定の閾値として最低達成度が設けられ、達成度が最低達成度を超える場合に、学習データとして記憶する対象となるようにしてもよい。あるいは、100m走での怪我を抑制するという観点から、「100m走で怪我をする」というチャレンジを行い、「100m走で怪我をする」チャレンジの達成度が5%以下となる練習のための環境条件を出力するようにしてもよい。この場合、達成度には所定の閾値として最高達成度が設けられ、達成度が最高達成度を超えない場合に、学習データとして記憶する対象となるようにしてもよい。
【0069】
ステップS803にて否定判断されると、ステップS808において適合度取得部207は、適合度を環境条件に対するユーザの受容度として取得するか否かを判断する。
【0070】
ステップS808において肯定判断されると、ステップS809において、環境候補生成部205は、環境要素に基づいてランダムな環境条件を生成することで環境条件候補を生成する。
【0071】
ステップS810において、適合度取得部207は、生成された環境条件候補をユーザ端末102に送信する。ここで、チャレンジ管理装置103に環境条件候補を送信する必要がない理由は、受容度は、ユーザの主観的判断によるものであり、チャレンジ管理装置103が算出する達成度を用いる必要がないためである。
【0072】
ステップS811において、適合度取得部207は、ユーザ端末102から各環境条件候補の受容度を取得する。受容度の取得にあたっては、ユーザ端末102は表示部1022に環境条件を表示し、ユーザからその環境条件に対する受容度が入力されるようにしてもよい。
【0073】
ステップS812において、適合度取得部207は、適合度としての受容度と環境条件候補と属性情報との組を学習データとして適合度記憶部2024に記憶する。
【0074】
ステップS808において否定判断されると、ステップS813において、環境要素提示部206は、環境要素記憶部2023を参照して、ユーザ端末102に環境要素の一覧を送信する。
【0075】
ステップS814において、適合度取得部207は、ユーザ端末102に表示される環境要素がユーザにより選択されることで作られる環境条件を、ユーザ端末102から取得する。
【0076】
ステップS815において、適合度取得部207は、属性情報と取得した環境条件との組を学習データとして適合度記憶部2024に記憶する。
【0077】
ステップS816において、学習モデル生成部210は、記憶された学習データに基づいて、学習モデルM2を生成する。学習モデルM2の生成には、一般的な機械学習の手法を用いることができる。例えば、学習モデルM2は、属性情報を入力とし、環境条件及び達成度又は受容度を出力とするようなニューラルネットワークが、学習データに基づいて学習されることで生成される。後述する学習モデルM1の生成も学習モデルM2の生成と同様の方法を用いて、属性情報を入力とし、達成度を出力するような生成方法をとることができる。生成された学習モデルは、学習モデル格納部2021に記憶される。学習モデルM2は、各チャレンジ内容に対して、チャレンジを行うユーザの属性情報に基づいて、チャレンジ環境条件を出力するように構成されている。
【0078】
図9は、適合度が達成度の場合の、あるチャレンジに対する環境条件候補及び達成度を示す情報の一例である。環境条件候補は、環境条件A、環境条件B及び環境条件Cが示されている。なお、各環境条件は、環境要素の一部が例示されている。
図9では、各環境条件における実際のチャレンジの達成度が記録される。
【0079】
なお、環境要素には、チャレンジ内容に応じてチャレンジの達成のために必要なトレーニングメニュー等が含まれてもよい。例えば、チャレンジ内容が100メートル走のタイムを短縮することである場合、必要な筋力トレーニング項目を環境要素として含む環境条件が生成され得る。
【0080】
図10は、適合度が受容度の場合について、同様に各環境条件及び受容度を示す情報の一例である。
図11は、ユーザの選択に基づいて、環境条件を取得した場合の情報の一例である。
図11の場合は、ユーザの選択に基づいているため、便宜上受容度を100%としている。
【0081】
図12を参照してチャレンジ支援システム10における学習モデルM1の生成までの処理を説明する。ここでは、ユーザ端末102aを操作するユーザによってチャレンジが行われるものとする。
【0082】
ステップS1201において、学習モデル生成装置101は、上述の学習モデルM2の生成処理を行う。
【0083】
ステップS1202において、属性情報参照部603は、ユーザ端末102aから、ユーザが挑戦するチャレンジに関する情報及び属性情報を取得する。チャレンジに関する情報とは、ユーザがどの内容のチャレンジに挑戦するかを識別するための情報である。
【0084】
属性情報参照部603が取得した情報に基づいて、チャレンジ管理装置のチャレンジ記憶部6021に記憶されるチャレンジ管理情報が更新される。
図13には、チャレンジ管理情報の一例が示される。
【0085】
チャレンジ管理情報は、「ユーザ名」、「ユーザID」、「属性情報」、「チャレンジID」、「チャレンジ名」、「チャレンジ環境条件」及び「達成度」の項目を有する。
【0086】
「ユーザ名」は、ユーザの氏名又はニックネーム等である。「ユーザID」はユーザを識別するためのIDである。「属性情報」は各ユーザの属性情報である。「チャレンジID」は、各チャレンジを識別するためのIDである。「チャレンジ名」は、
図7に示されたチャレンジ情報のチャレンジ名である。チャレンジ名に基づいて、各ユーザが挑戦するチャレンジの内容が識別される。「チャレンジ環境条件」は、各ユーザの属性情報に基づいて生成された環境条件である。ここで、
図12までの処理によって「チャレンジID」が「CID001」から「CID004」までのチャレンジが生成されたとすると、各環境条件は、学習モデルM2を用いて生成された条件となる。「達成度」は、各チャレンジが実行された際の判定情報に基づいて算出される達成度である。
【0087】
ステップS1202において属性情報参照部603が取得したチャレンジに関する情報及び属性情報に基づいて、「ユーザ名」、「ユーザID」、「属性情報」、「チャレンジ名」、「チャレンジID」の各内容が記録される。
【0088】
ステップS1203において、チャレンジ環境条件取得部604は、学習モデル生成装置101にチャレンジに関する情報及び属性情報を送信する。ステップS1204において、環境条件生成部204は、取得したチャレンジに関する情報及び属性情報に基づいて、学習モデルM2を用いて、チャレンジ環境条件を生成する。ここで、学習モデルM2では、ユーザの属性情報を入力として、適合度が最も高い環境条件が出力されるようにしてチャレンジ環境条件が生成される。
【0089】
ステップS1205において、チャレンジ環境条件取得部604は、生成されたチャレンジ環境条件を取得する。チャレンジ環境条件取得部604は、取得したチャレンジ環境条件に基づいて、チャレンジ管理情報の「チャレンジ環境条件」の内容を記録する。
【0090】
ステップS1206において、チャレンジ環境条件取得部604は、チャレンジ環境条件をユーザ端末102aに送信する。ステップS1207において、ユーザがチャレンジ環境条件におけるチャレンジを実行した際の判定情報がユーザ端末102aによって取得される。
【0091】
ステップS1208において、判定情報取得部605は、ユーザ端末102aから判定情報を取得する。ステップS1209において、達成度算出部606は、判定情報に基づいて達成度を算出する。算出された達成度は、チャレンジ管理情報において、対象のチャレンジに関連付けられて記憶される。
【0092】
なお、判定情報取得部605はユーザ端末102a以外の端末から判定情報を取得するようにしてもよい。この場合、チャレンジ環境条件取得部604は、ユーザ端末102aに対してチャレンジ環境条件を送信し、ユーザ端末102aではその条件の表示が行われるが、判定に必要な情報の取得は行われなくともよい。これは後述の学習モデルM1の更新処理においても同様である。
【0093】
ステップS1210において、達成度参照部208は、チャレンジ管理装置103から達成度を取得する。
【0094】
ステップS1211において、学習データ格納部209は、達成度、チャレンジ環境条件及び属性情報の組を学習データとして、記憶部202に記憶する。達成度には所定の閾値が設けられ、当該閾値に基づいて、学習データの記憶対象が定められてもよい。例えば、達成度には所定の閾値として最低達成度又は最高達成度が設けられ、達成度が最低達成度を超える又は最高達成度を超えない場合に、学習データとして記憶する対象となるようにしてもよい。
【0095】
ここまでの処理は、ユーザ端末102aを操作するユーザとは異なる他の複数のユーザに対して行うことができる。ステップS1211において、学習モデル生成部210は、各ユーザから集められた学習データを用いて、学習モデルM1を生成する。
【0096】
ステップS1213において、学習モデル生成部210はチャレンジ管理装置103に学習モデルM1に関する情報を送信する。ステップS1214において、チャレンジ管理装置103は通信部601を通じて学習モデルM1に関する情報を取得し、モデル格納部6022に学習モデルM1を格納する。
【0097】
なお、ここでは学習モデルM1の生成を、学習モデルM2を用いて行う場合を例に説明したが、学習モデルM1は、例えば、学習モデルM2を用いずに、ユーザから取得したチャレンジ環境条件に基づいて、生成されてもよい。
【0098】
また、学習データ格納部209が記憶部202に記憶する学習データには、例えば、達成度を評価するために用いられる世代別の達成度平均値のような外部情報が含まれてもよい。
【0099】
図14は、学習モデル生成装置101によって学習モデルM2を用いて学習モデルM1の生成がされている場合の学習モデルM1の再学習の処理について説明する図である。この場合、学習モデルM1はモデル格納部6022に記憶されている。ここでは、ユーザ端末102bを操作するユーザがチャレンジを行うことによる学習モデルM1の更新を説明する。
【0100】
ステップS1401において、属性情報参照部603は、ユーザ端末102bから、ユーザが挑戦するチャレンジに関する情報及び属性情報を取得する。
【0101】
ステップS1401において属性情報参照部603が取得したチャレンジに関する情報及び属性情報に基づいて、「ユーザ名」、「ユーザID」、「属性情報」、「チャレンジ名」、「チャレンジID」の各内容が記録される。属性情報参照部603が、各内容を記録することで、チャレンジ管理情報に新たなチャレンジが追加される。チャレンジが追加された後のチャレンジ管理情報の一例を
図15に示す。
【0102】
ステップS1402において、チャレンジ環境条件取得部604は、モデル格納部6022に記憶されている学習モデルM1を用いて、ユーザの属性情報に基づいてチャレンジ環境条件を生成する。ここで、学習モデルM1では、ユーザの属性情報を入力として、達成度が最も高い環境条件及び推定された達成度が出力されるようにしてチャレンジ環境条件が生成される。チャレンジ環境条件取得部604は、生成したチャレンジ環境条件に基づいて、チャレンジ管理情報の「チャレンジ環境条件」の内容を記録する。
【0103】
ステップS1403において、チャレンジ環境条件取得部604は、チャレンジ環境条件をユーザ端末102bに送信する。ステップS1404において、ユーザがチャレンジ環境条件におけるチャレンジを実行した際の判定情報がユーザ端末102bによって取得される。
【0104】
ステップS1405において、判定情報取得部605は、ユーザ端末102bから判定情報を取得する。ステップS1406において、達成度算出部606は、判定情報に基づいて達成度を算出する。算出された達成度は、チャレンジ管理情報において、対象のチャレンジに関連付けられて記憶される。
【0105】
ステップS1407において、達成度参照部208は、チャレンジ管理装置103からチャレンジに関する情報、属性情報、チャレンジ環境条件及び達成度を取得する。
【0106】
ステップS1408において、学習データ格納部209は、達成度、チャレンジ環境条件及び属性情報の組を学習モデルM1の新たな学習データとして記憶する。達成度には所定の閾値が設けられ、当該閾値に基づいて、学習データの記憶対象が定められてもよい。例えば、達成度には所定の閾値として最低達成度又は最高達成度が設けられ、達成度が最低達成度を超える又は最高達成度を超えない場合に、学習データとして記憶する対象となるようにしてもよい。
【0107】
ここまでの処理は、ユーザ端末102bを操作するユーザとは異なる他の複数のユーザに対して行うことができる。ステップS1409において、各ユーザから集められた新たな学習データを用いて、学習モデルM1を更新することができる。
【0108】
ステップS1410において、学習モデル生成部210はチャレンジ管理装置103に学習モデルM1に関する情報を送信する。ステップS1411において、チャレンジ管理装置103は通信部601を通じて学習モデルM1に関する情報を取得し、モデル格納部6022に学習モデルM1を格納する。
【0109】
ユーザの属性情報に基づいて、1つのチャレンジ環境条件が生成されるようにしてもよく、複数のチャレンジ環境条件が生成されるようにしてもよい。複数のチャレンジ環境条件を生成する場合について説明する。例えば、学習モデルM1があるチャレンジ環境条件A0を生成したような場合に、チャレンジ環境条件取得部604は、チャレンジ環境条件A0の一部又は全部を変更したチャレンジ環境条件A1,A2を生成する。チャレンジ環境条件A0の一部又は全部を変更するということは、環境要素A,環境要素B及び環境要素Cをランダムに変更すること、あるいは所定の環境要素Aについて、環境要素B及び環境要素Cをランダムに変更することを含む。
【0110】
すなわち、チャレンジ環境条件取得部604は、学習モデルM1が生成したチャレンジ環境条件A0に基づいて、当該環境条件の一部又は全部を変更したチャレンジ環境条件A1,A2を生成し、チャレンジ環境条件A0及びチャレンジ環境条件A1,A2をユーザに送信する。達成度参照部208は、チャレンジ環境条件A0及びチャレンジ環境条件A1,A2において実際にチャレンジを行ったときの達成度を取得する。学習データ格納部209は、それぞれのチャレンジ環境条件について、達成度、チャレンジ環境条件及び属性情報の組を学習モデルM1の新たな学習データとして記憶する。達成度には所定の閾値が設けられ、当該閾値に基づいて、学習データの記憶対象が定められてもよい。例えば、達成度には所定の閾値として最低達成度又は最高達成度が設けられ、達成度が最低達成度を超える又は最高達成度を超えない場合に、学習データとして記憶する対象となるようにしてもよい。
【0111】
生成されたチャレンジ環境条件A0,A1,A2でユーザがチャレンジを行うことによって、チャレンジ環境条件A0よりも達成度が高いチャレンジ環境条件が生成された場合、そのチャレンジ環境条件が学習モデルM1の学習データになる。よって、学習モデルM1が生成する環境条件を、よりユーザの達成度を高めるようにすることができる。
【0112】
図13及び
図15を参照して、チャレンジ支援システム10における、学習モデルM2を用いたチャレンジ環境条件の設定及び、学習モデルM1を用いたチャレンジ環境条件の設定について説明する。
【0113】
図13において、ユーザAは、チャレンジ1について、属性情報Aに基づいて、学習モデルM2によって生成されたチャレンジ環境条件「環境条件A」の環境でチャレンジを行う。ユーザAによるチャレンジの達成度は70%であった。また、ユーザBは、ユーザAと同様のチャレンジについて、属性情報Bに基づいて、学習モデルM2によって生成されたチャレンジ環境条件「環境条件A」の環境でチャレンジを行う。ユーザBによるチャレンジの達成度は90%であった。
【0114】
この場合、ユーザAの達成度が十分なものでなかったとする。この場合、学習モデルM2に基づくチャレンジ環境条件の推奨を、ユーザAあるいはユーザAと近い属性情報を持つユーザに対して行うことは、達成度を高めるという点で好ましくない。
【0115】
そこで、
図12における処理によって、ユーザAに近い属性情報を持つユーザに適した環境条件を生成する学習モデルM1が得られたとする。学習モデルM1を用いると、ユーザAのチャレンジID「CID101」であるチャレンジにおいて、同一の属性情報に基づいて、チャレンジ環境条件が「環境条件B」として設定される。このようにチャレンジ環境条件を設定した場合、達成度が90%となっている。すなわち、実際の達成度に基づいてモデルを生成・更新する学習モデルM1は、ユーザに対してより適切なチャレンジ環境条件を提供できる。
【0116】
また、学習モデルM1を用いることによって、ユーザの属性情報のうち、可変の属性情報について適切な値を検討することも可能となる。この場合の処理について
図16から
図20を参照して説明する。
【0117】
図16は、当該処理の概略を示す図である。ステップS1601において、属性情報参照部603は、ユーザ端末102から、ユーザが挑戦するチャレンジに関する情報及び属性情報を取得する。
【0118】
ステップS1602において、チャレンジ環境条件取得部604は、学習モデルM1に基づいて、チャレンジ環境条件を生成する。
【0119】
ステップS1603において、チャレンジ環境条件取得部604は、生成したチャレンジ環境条件の推定された達成度(推定達成度)を取得する。
【0120】
ステップS1604において、チャレンジ環境条件取得部604は、ユーザ端末102にチャレンジ環境条件及び推定達成度を送信する。ステップS1605において、表示部1022に、ある属性情報に対しての推定達成度が表示される。
【0121】
例えば、
図17に示されるように、職場環境に関する属性項目Aのうち、福利厚生予算を「5000円」とした場合の属性情報があるとする。なお、他の項目に関しても適切な情報が値として入力され得る。
【0122】
この場合、学習モデルM1を用いて生成されたチャレンジ環境条件及び推定達成度は、
図18に示されるものとなる。
【0123】
続いて、属性情報の値を「4000円」に変更する。この場合、学習モデルM1を用いて生成されたチャレンジ環境条件及び推定達成度は、
図20に示されるものとなる。
【0124】
図18と
図20のそれぞれにおける推定達成度は、
図18の場合が80%、
図20の場合が78%となる。この場合、福利厚生予算の減額幅に対して、推定達成度の減少量が小さいと考えられる。そのため、例えば、従業員の属性情報を企業が管理可能である場合に、企業の担当者がユーザ端末102を操作し、従業員の属性情報を用いて、福利厚生予算を抑えつつ、達成度がある程度確保されるような属性情報の値を検討することが可能となる。また、複数の従業員について、それぞれの属性情報の福利厚生予算を一括して変更した場合の、各従業員の推定達成度の平均値を表示するような態様によって、上記検討を可能としてもよい。
【0125】
以上本実施形態について説明した。本実施形態に係る学習モデル生成装置101は、達成すべきチャレンジを有するユーザの属性を示す属性情報を参照する属性情報参照部203と、属性情報に基づいて、前記チャレンジを行う環境に関して記憶部に記憶される複数の環境要素の組である環境条件としてチャレンジ環境条件を生成する環境条件生成部204と、チャレンジ環境条件においてチャレンジがユーザによって実行された際のチャレンジの達成度を参照する達成度参照部208と、達成度とチャレンジ環境条件と属性情報との組を学習データとして記憶部202に格納する学習データ格納部209と、学習データに基づいて、属性情報を入力とし、チャレンジ環境条件を出力とするように学習される学習モデルM1を生成する学習モデル生成部210と、を備える。
【0126】
環境条件生成部204は、属性情報参照部203が参照した属性情報に基づいて、あるチャレンジ環境条件を生成する。ユーザがそのチャレンジ環境条件においてチャレンジを実行した場合の達成度が、達成度参照部208によって参照される。学習モデル生成部210は、達成度という実際のチャレンジに対する評価結果を含む学習データを用いて、学習モデルM1を生成する。例えば、学習モデルM1は、達成度が最も高くなるようなチャレンジ環境条件を出力するようにすることで、ユーザによるチャレンジが達成される可能性の高いチャレンジ環境を提示可能な学習モデルとして機能する。
【0127】
また、学習モデル生成部210は、学習データに基づいて、属性情報を入力とし、チャレンジの推定された達成度、をさらに出力とするように学習される学習モデルを生成してもよい。これにより、ユーザに対して推定された達成度を表示可能となる。推定された達成度が表示されたユーザは、その数値を目安として自身のチャレンジの達成見込みを知ることができるため、ユーザがチャレンジに積極的に取り組むことが可能になり得る。よって、学習モデルM1は、ユーザによるチャレンジが達成される可能性の高いチャレンジ環境を提示可能な学習モデルとして機能する。
【0128】
また、学習モデル生成装置101では、環境条件生成部204は、属性情報を入力とし、環境条件を出力するように学習されて記憶部202に記憶された学習モデルM2に基づいて、チャレンジ環境条件を出力する。これにより、学習モデルM2を用いて、チャレンジ環境条件を提示するように学習させることで、達成度に基づく学習モデルM1の学習を効果的に行うことができる。
【0129】
また、学習モデル生成装置101では、属性情報参照部203は、第1ユーザとは異なる第2ユーザの第2属性情報を参照し、複数の環境要素を参照して、複数の環境条件を含む環境条件候補を生成する環境候補生成部205と、複数の環境条件候補を第2ユーザに提示し、複数の環境条件候補における第2ユーザのチャレンジの第2ユーザへの適合度を取得する適合度取得部207と、をさらに備え、環境条件生成部204は、環境条件候補と適合度と第2属性情報とを第2学習データとして機械学習され、第2属性情報と環境条件候補を関係づける学習モデルM2に基づいて、チャレンジ環境条件を生成する。
【0130】
これにより、学習モデルM2が、第2ユーザに提示された複数の環境条件候補における第2ユーザのチャレンジの第2ユーザへの適合度を含む学習データを用いて機械学習される。学習モデルM2は、学習モデルM1の生成のためにチャレンジ環境条件をユーザに対して提示するモデルである。学習モデルM2に予めユーザに適合するチャレンジ環境条件を提示するように学習させることで、達成度に基づく学習モデルM1の学習を効果的に行うことができる。
【0131】
また、学習モデル生成装置101では、適合度取得部207は、複数の環境条件候補のそれぞれにおける複数のチャレンジが、第2ユーザによって実行された際の複数のチャレンジの達成度を、適合度として取得する。これによりユーザが実際にチャレンジを実行した場合の達成度を用いて学習モデルM2を学習させることができるので、学習モデルM2がより適切にチャレンジ環境条件を出力できる。
【0132】
また、学習モデル生成装置101では、学習モデル生成部210はさらに、教師データに基づいて、学習モデルM2を再学習する。これにより、学習モデルM2が、ユーザの属性情報に応じたより適切なチャレンジ環境条件の提示を行うことが可能となるため、学習モデルM1を用いた最終的なチャレンジ環境条件の提示もより適切になる。
【0133】
また、学習モデル生成装置101では、環境候補生成部205は、複数の環境条件候補を第2ユーザに提示するための提示情報を生成し、適合度取得部207は、提示情報に基づく複数の環境条件候補に対するユーザの受容度を、適合度として取得する。
【0134】
これにより、ユーザが実際にチャレンジを行うことを要さずに、ユーザにとって受け容れやすいチャレンジ環境条件が受容度に基づいて判断できる。受容度が高い場合、ユーザがチャレンジの遂行のための行動に移りやすく、チャレンジを達成する見込みが高くなる。受容度を用いることで、ユーザが実際にチャレンジを行うことを要さずに学習モデルM2を学習させることで、チャレンジ環境条件に基づく学習モデルM1の学習を効果的に行うことができる。
【0135】
また、学習モデル生成装置101は、複数の環境要素を第2ユーザに提示する環境要素提示部206、をさらに備え、環境条件生成部204は、第2ユーザによって選択された環境要素の組である環境条件と第2属性情報とを第3教師データとして機械学習された学習モデルM2に基づいて、チャレンジ環境条件を生成する。
【0136】
これにより、ユーザが実際にチャレンジを行うことを要さずに、ユーザにとって受け容れやすいチャレンジ環境条件が取得できる。ユーザ自身の選択による環境条件の場合、ユーザはチャレンジ遂行のための行動に移りやすく、チャレンジを達成する見込みが高くなる。ユーザが実際にチャレンジを行うことを要さずに学習モデルM2を学習させることで、チャレンジ環境条件に基づく学習モデルM1の学習を効果的に行うことができる。
【0137】
また、チャレンジ支援システム10は、学習モデル生成装置101と、チャレンジを管理するチャレンジ管理装置103と、を備える。
【0138】
チャレンジ管理装置103は、学習モデル生成装置101によって生成された学習モデルM1が格納されるモデル格納部6022と、ユーザの属性情報を参照する属性情報参照部603と、学習モデルM1に属性情報を入力し、ユーザのチャレンジ環境条件を取得するチャレンジ環境条件取得部604と、チャレンジの達成条件に対する判定を行うための判定情報を取得する判定情報取得部605と、判定情報に基づいて、前記チャレンジ環境条件における前記チャレンジの達成度を算出する達成度算出部606とを備える。学習モデル生成装置101では、達成度参照部208は、達成度算出部606が算出した達成度を参照して、チャレンジ環境条件における達成度を取得する。
【0139】
チャレンジ支援システム10によって、学習モデル生成装置101による学習モデルの生成及びチャレンジ管理装置103による学習モデルを用いたチャレンジ環境条件の生成とチャレンジの管理が可能となる。これにより、ユーザによるチャレンジが達成される可能性の高いチャレンジ環境を提示して、ユーザにチャレンジを実行させることができるため、チャレンジの達成を促すことができる。なお、学習モデル生成装置101の機能とチャレンジ管理装置103の機能とは、一つの装置において一体化されていてもよい。
【0140】
また、チャレンジ環境条件取得部604は、属性情報に基づいてチャレンジの推定された達成度を出力可能な学習モデルM1から、チャレンジ環境条件における推定された達成度を取得し、ユーザが推定された達成度を閲覧可能に表示するための情報を生成してもよい。これにより、これにより、ユーザに対して推定された達成度を表示可能となる。推定された達成度を目安としたユーザが、チャレンジに積極的に取り組むことを可能とし、チャレンジの達成を促すことができる。
【0141】
なお、本実施形態において学習モデル生成装置101を動作させるプログラムは、記憶媒体に格納することができる。当該プログラムを格納した記憶媒体は、非一時的な記憶媒体(Non―transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ又はCD-ROM等の記憶媒体であってもよい。
【0142】
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその条件等は、例示したものに限定されるわけではなく適宜変更することができる。
【符号の説明】
【0143】
10…チャレンジ支援システム、101…学習モデル生成装置、102a,102b…ユーザ端末、103…チャレンジ管理装置、203…属性情報参照部、204…環境条件生成部、205…環境候補生成部、206…環境要素提示部、207…適合度取得部、208…達成度参照部、209…学習データ格納部、210…学習モデル生成部