IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 横河電機株式会社の特許一覧 ▶ 横河ソリューションサービス株式会社の特許一覧

特開2023-92089提供方法、提供装置および機械学習プログラム
<>
  • 特開-提供方法、提供装置および機械学習プログラム 図1
  • 特開-提供方法、提供装置および機械学習プログラム 図2
  • 特開-提供方法、提供装置および機械学習プログラム 図3
  • 特開-提供方法、提供装置および機械学習プログラム 図4
  • 特開-提供方法、提供装置および機械学習プログラム 図5
  • 特開-提供方法、提供装置および機械学習プログラム 図6
  • 特開-提供方法、提供装置および機械学習プログラム 図7
  • 特開-提供方法、提供装置および機械学習プログラム 図8
  • 特開-提供方法、提供装置および機械学習プログラム 図9
  • 特開-提供方法、提供装置および機械学習プログラム 図10
  • 特開-提供方法、提供装置および機械学習プログラム 図11
  • 特開-提供方法、提供装置および機械学習プログラム 図12
  • 特開-提供方法、提供装置および機械学習プログラム 図13
  • 特開-提供方法、提供装置および機械学習プログラム 図14
  • 特開-提供方法、提供装置および機械学習プログラム 図15
  • 特開-提供方法、提供装置および機械学習プログラム 図16
  • 特開-提供方法、提供装置および機械学習プログラム 図17
  • 特開-提供方法、提供装置および機械学習プログラム 図18
  • 特開-提供方法、提供装置および機械学習プログラム 図19
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023092089
(43)【公開日】2023-07-03
(54)【発明の名称】提供方法、提供装置および機械学習プログラム
(51)【国際特許分類】
   G06Q 10/06 20230101AFI20230626BHJP
   G06Q 50/20 20120101ALI20230626BHJP
【FI】
G06Q10/06
G06Q50/20
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2021207087
(22)【出願日】2021-12-21
(71)【出願人】
【識別番号】000006507
【氏名又は名称】横河電機株式会社
(71)【出願人】
【識別番号】513213966
【氏名又は名称】横河ソリューションサービス株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】三枝 澄絵
(72)【発明者】
【氏名】勝木 雅人
(72)【発明者】
【氏名】川尻 幸一
(72)【発明者】
【氏名】黒沢 潤
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049AA06
5L049CC34
(57)【要約】
【課題】PLEアンケートの集計結果をもとに、効果的に組織を改善するための提案をすることができる。
【解決手段】提供方法は、コンピュータが、組織の改善を行う改善策の実行前に実行された学習環境に関するアンケート結果である第1のアンケート結果を取得する処理と、第1のアンケート結果の入力に応じた機械学習モデルの出力結果に基づく改善策の実行後に実行されたアンケート結果である第2のアンケート結果を取得する処理と、第2のアンケート結果に基づき、機械学習モデルの機械学習を実行する処理と、を実行する。
【選択図】図17
【特許請求の範囲】
【請求項1】
コンピュータが、
組織の改善を行う改善策の実行前に実行された学習環境に関するアンケート結果である第1のアンケート結果を取得する処理と、
前記第1のアンケート結果の入力に応じた機械学習モデルの出力結果に基づく前記改善策の実行後に実行された前記アンケート結果である第2のアンケート結果を取得する処理と、
前記第2のアンケート結果に基づき、前記機械学習モデルの機械学習を実行する処理と、
を実行する提供方法。
【請求項2】
前記機械学習を実行する処理は、
前記第2のアンケート結果と目標とする状態とに基づく報酬を用いた強化学習により、前記機械学習モデルの機械学習を実行する、
請求項1に記載の提供方法。
【請求項3】
前記アンケート結果は、
各々が複数の分析カテゴリのいずれかに属する複数のアンケート項目を含み、
前記機械学習を実行する処理は、
前記第1のアンケート結果と前記第2のアンケート結果とを比較し、改善目標とする分析カテゴリに属する複数のアンケート項目の変化を特定し、
前記変化に基づく報酬を用いた強化学習により、前記機械学習モデルの機械学習を実行する、
請求項1に記載の提供方法。
【請求項4】
前記アンケート結果は、
各々が複数の分析カテゴリのいずれかに属する複数のアンケート項目を含み、
前記機械学習を実行する処理は、
前記第1のアンケート結果に含まれる前記複数のアンケート項目を用いた、前記複数の分析カテゴリのスコアを示すグラフと、前記第2のアンケート結果における前記グラフとの差分を特定し、
前記差分に基づく報酬を用いた強化学習により、前記機械学習モデルの機械学習を実行する、
請求項1に記載の提供方法。
【請求項5】
前記アンケート結果は、
各々が複数の分析カテゴリのいずれかに属する複数のアンケート項目を含み、
前記複数の分析カテゴリは、
互いに影響を与えるアンケート項目間の関係性に基づき、因果関係(原因とそれによって生じる結果との関係)が設定されており、
前記機械学習を実行する処理は、
前記複数の分析カテゴリのうちの第1の分析カテゴリを改善する前記改善策の実行後に得られた前記第2のアンケート結果が前記第1のアンケート結果から改善されていない場合に、前記第1の分析カテゴリと因果関係を有する第2の分析カテゴリの改善策を提示するように、前記機械学習モデルの機械学習を実行する、
請求項1に記載の提供方法。
【請求項6】
前記機械学習を実行する処理は、
前記第1の分析カテゴリについて目標とする状態のアンケート結果と前記第2のアンケート結果との差分が、前記目標とする状態のアンケート結果と前記第1のアンケート結果との差分より大きいほど、少ない報酬を用いた強化学習により、前記因果関係に基づく改善対象の分析カテゴリの優先順位が変わるように、前記機械学習モデルの機械学習を実行する、
請求項5に記載の提供方法。
【請求項7】
前記アンケート結果は、(Positive Learning Environment)アンケートに対する回答結果である、
請求項1~6のいずれか1項に記載の提供方法。
【請求項8】
組織の改善を行う改善策の実行前に実行された学習環境に関するアンケート結果である第1のアンケート結果と、前記第1のアンケート結果の入力に応じた機械学習モデルの出力結果に基づく前記改善策の実行後に実行された前記アンケート結果である第2のアンケート結果とを取得する取得部と、
前記第2のアンケート結果に基づき、前記機械学習モデルの機械学習を実行する学習部と、
を備える提供装置。
【請求項9】
コンピュータに、
組織の改善を行う改善策の実行前に実行された学習環境に関するアンケート結果である第1のアンケート結果を取得する処理と、
前記第1のアンケート結果の入力に応じた機械学習モデルの出力結果に基づく前記改善策の実行後に実行された前記アンケート結果である第2のアンケート結果を取得する処理と、
前記第2のアンケート結果に基づき、前記機械学習モデルの機械学習を実行する処理と、
を実行させる機械学習プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、提供方法、提供装置および機械学習プログラムに関する。
【背景技術】
【0002】
従来、組織のパフォーマンスにつながる人員の育成を効果的に実現するために、肯定的学習環境(Positive Learning Environment:PLE)アンケートを組織の人員に行い、PLEアンケートの集計結果をもとに組織の改善策を策定する手法が知られている。ここで、組織において、肯定的学習環境(PLE)が整うことにより、自ら考えて行動できる状態になると、個人の学習への意識が強化され、行動変容が起こり、組織成長の肯定的なスパイラルが形成することが期待できる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2019-133225号公報
【特許文献2】特開2002-328590号公報
【特許文献3】特開2002-196658号公報
【特許文献4】特開2002-072848号公報
【特許文献5】特開2005-092492号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、PLEアンケートの集計結果をもとに、効果的に組織を改善するための提案をすることは難しい。なぜならば、PLEアンケートの各項目は、相互に複雑な関連性を有しており、個々のアンケート項目の結果だけでは、組織の改善点を見つけ出すことが困難だからである。したがって、PLEアンケート結果を用いて、組織の現状の問題点を適切に把握し、かつ効果的な教育方針や人材育成方略を決定するための手法が求められている。
【0005】
本発明は、PLEアンケートの集計結果をもとに、効果的に組織を改善するための提案をすることを目的とする。
【課題を解決するための手段】
【0006】
本発明は、コンピュータが、組織の改善を行う改善策の実行前に実行された学習環境に関するアンケート結果である第1のアンケート結果を取得する処理と、前記第1のアンケート結果の入力に応じた機械学習モデルの出力結果に基づく前記改善策の実行後に実行された前記アンケート結果である第2のアンケート結果を取得する処理と、前記第2のアンケート結果に基づき、前記機械学習モデルの機械学習を実行する処理と、を実行する提供方法を提供する。
【0007】
また、本発明は、組織の改善を行う改善策の実行前に実行された学習環境に関するアンケート結果である第1のアンケート結果と、前記第1のアンケート結果の入力に応じた機械学習モデルの出力結果に基づく前記改善策の実行後に実行された前記アンケート結果である第2のアンケート結果とを取得する取得部と、前記第2のアンケート結果に基づき、前記機械学習モデルの機械学習を実行する学習部と、を備える提供装置を提供する。
【0008】
また、本発明は、コンピュータに、組織の改善を行う改善策の実行前に実行された学習環境に関するアンケート結果である第1のアンケート結果を取得する処理と、前記第1のアンケート結果の入力に応じた機械学習モデルの出力結果に基づく前記改善策の実行後に実行された前記アンケート結果である第2のアンケート結果を取得する処理と、前記第2のアンケート結果に基づき、前記機械学習モデルの機械学習を実行する処理と、を実行させる機械学習プログラムを提供する。
【発明の効果】
【0009】
本発明によれば、PLEアンケートの集計結果をもとに、効果的に組織を改善するための提案をすることができるという効果がある。
【図面の簡単な説明】
【0010】
図1】実施形態1に係る提供システムの構成例を示す図である。
図2】実施形態1に係るPLEアンケートの一例を示す図である。
図3】実施形態1に係る提示情報の一例を示す図である。
図4】実施形態1に係るロジックツリーの一例を示す図である。
図5】実施形態1に係る提供装置の構成例を示すブロック図である。
図6】実施形態1に係る提示情報の一例を示す図である。
図7】実施形態1に係る提示情報の一例を示す図である。
図8】実施形態1に係る提示情報の一例を示す図である。
図9】実施形態1に係る提示情報の一例を示す図である。
図10】実施形態1に係る提示情報の一例を示す図である。
図11】実施形態1に係る提供処理全体の流れを示すフローチャートである。
図12】実施形態2に係る提供システムの構成例を示す図である。
図13】実施形態2に係る学習処理の一例を示す図である。
図14】実施形態2に係る学習処理の一例を示す図である。
図15】実施形態2に係る学習処理の一例を示す図である。
図16】実施形態2に係る学習処理の一例を示す図である。
図17】実施形態2に係る提供装置の構成例を示すブロック図である。
図18】実施形態2に係る提供処理全体の流れを示すフローチャートである。
図19】ハードウェア構成例を説明する図である。
【発明を実施するための形態】
【0011】
以下に、本発明の一実施形態に係る提供方法、提供装置および機械学習プログラムを、図面を参照して詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
【0012】
〔実施形態1〕
以下に、実施形態1に係る提供システム100-1の構成、提供装置10-1の構成、各処理の流れを順に説明し、最後に実施形態1の効果を説明する。
【0013】
[1.提供システム100-1の構成]
図1を用いて、実施形態1に係る提供システム(以下、適宜、本システムともいう)100-1の構成を詳細に説明する。図1は、実施形態に係る提供システムの構成例を示す図である。以下に、本システム100-1全体の構成例を示した上で、本システム100-1の処理について説明する。なお、本実施形態では、企業育成における組織改善策提供システムを一例にして説明するが、対象を限定するものではなく、様々なシステムに適用することができる。
【0014】
(1-1.システム全体の構成例)
本システム100-1は、提供装置10-1を有する。なお、本システム100-1には、複数台の提供装置10-1が含まれてもよい。また、本システム100-1では、提供装置10-1に入力するデータとして、PLEアンケート結果21、また、提供装置10-1が出力するデータとして、分析結果31や提案コメント32を含む提示情報30が関与する。
【0015】
(1-2.システム全体の処理)
このようなシステムにおける提供装置10-1は、学習済みである機械学習モデル14dを有し、機械学習モデル14dを用いて、PLEアンケート結果21から提示情報30を生成して、出力するコンピュータ装置の一例である。以下では、提供装置10-1が有する機械学習モデル14dについて説明した上で、提供装置10-1が実行する入力処理、出力処理の順に説明する。
【0016】
まず、提供装置10-1が有する機械学習モデル14dは、PLEアンケート結果21の入力に応じて提示情報30を生成するように学習されたモデルであり、ニューラルネットワークなどを採用することができる。また、機械学習モデル14dの学習にも様々なアルゴリズムを採用することができる。例えば、提供装置10-1は、学習データ「入力データ、正解情報」として「PLEアンケート結果、提示情報」を機械学習モデル14dに入力し、機械学習モデル14dの出力結果と正解情報とが一致するように、機械学習モデル14dの学習を実行する。そして、提供装置10-1は、このように学習された機械学習モデル14dを用いて、PLEアンケートの集計結果から提示する情報を取得し、効果的に組織を改善するための各種提案を実行する。以下では、各種提案の実行例について説明する。
【0017】
(1-2-1.入力処理)
第1に、提供装置10-1は、PLEアンケート結果21の入力を受け付ける(ステップS1)。このとき、提供装置10-1が入力を受け付けるPLEアンケート結果21は、PLEアンケートの項目ごとに集計されたデータであってもよいし、アンケート回答者の所有する端末装置によって送信された集計前のデータであってもよい。
【0018】
(1-2-2.出力処理)
第2に、提供装置10-1は、機械学習モデル14dから取得した分析結果31や提案コメント32を含む提示情報30を出力する(ステップS2)。このとき、提供装置10-1は、機械学習モデル14dにPLEアンケート結果21を入力し、提示情報30を取得する。例えば、機械学習モデル14dにより、PLEアンケート結果21について、項目ごとの集計、他の部署・部門や他社との結果との比較、分析カテゴリごとの評価、改善が必要な要素について特定等が実行される。そして、出力された分析結果31や提案コメント32を含む提示情報30は、教育前PLEアンケート結果21-1を回答した企業等に提示され、企業育成における組織改善策として活用される。
【0019】
図1の例では、分析結果31として、レーダーチャートを用いて、「A社」と「B社」を所定の分析カテゴリごとに比較した「企業育成状況分析」が表示されているが、分析結果31は、質問別の達成度を示した折れ線グラフ、棒グラフや、分析カテゴリ別の達成度を示した円グラフ、帯グラフ等のグラフで示してもよいし、各種の数値を表で示してもよいし、特に限定されない。また、図1の例では、提案コメント32として、「○○領域に課題がありそうです。特に、△△と□□に改善の余地がありそうです。」と、領域(カテゴリ)やその領域内での要素についてのアドバイスを示しているが、提案コメント32は、複数の分析カテゴリに関わるアドバイスやその優先順位を示したものでもよく、特に限定されない。
【0020】
上述のステップS1~S2の処理を実行することにより、PLEアンケート結果を用いて、組織の現状の問題点を適切に把握し、かつ効果的な教育方針や人材育成方略を決定することができる。
【0021】
(1-3.各処理に関与するデータ例)
図2図4を用いて、上述したステップS1~S2の処理に関与するデータについて説明する。以下では、ステップS1の入力処理に関与するデータ、ステップS2の出力処理に関与するデータ、ステップS1およびS2の入出力処理に関与するデータの順に説明する。
【0022】
(1-3-1.PLEアンケート20)
図2を用いて、ステップS1の入力処理に関与する回答前のPLEアンケート20の具体例について説明する。図2は、実施形態1に係るPLEアンケートの一例を示す図である。図2に示すように、PLEアンケート20は、「質問1」~「質問30」の30項目の質問が用意されており、回答者は匿名で各質問に対して「Yes」か「No」で回答する。例えば、企業の部署・部門ごとに所属する構成員の回答を集計し、「Yes」の数が少ない項目については改善が必要であることがわかる。なお、図2に示すPLEアンケート20は一例であり、アンケートの項目を減らしたり、他の質問を増やしたりすることもできる。また、「Yes」か「No」で回答する形式ではなく、各質問に対して組織の達成度を5段階で回答する形式でもよく、特に限定されない。
【0023】
(1-3-2.提示情報30)
図3を用いて、ステップS2の出力処理に関与する提示情報30の具体例について説明する。図3は、実施形態1に係る提示情報の一例を示す図である。図3に示すように、提示情報30には、分析結果31(31-1、31-2)が含まれる。分析結果31は、例えば分析結果31-1のように、分析カテゴリごとに比較できるレーダーチャート等が提示される。なお、提供装置10-1が出力する分析結果31や提案コメント32を含む提示情報30は、機械学習モデル14dの学習内容によって異なる。以下では、図1の例とは異なる機械学習モデル14dの提示情報30について説明する。
【0024】
ここで、レーダーチャートに表示される各分析カテゴリは、後述するロジックツリーによって分類される関連性を有する要素の集合である。ここで、図3の分析結果31-1の例では、分析カテゴリとして、「職場で求められる目標が示されている」、「目標を達成に紐づく学習方略がある」、「学びが現場で生かされている」、「肯定的な学習環境である」、「学習の成果が評価されている」が示されている。上述したPLEアンケート20の質問は、それぞれ関連性を考慮して分析カテゴリに分類されており、単に各質問のスコアだけではなく、同一の分析カテゴリに分類される質問の達成度によって分析カテゴリのスコアが定まる。
【0025】
また、分析結果31は、例えば分析結果31-2のように、総合的な得点をもとに組織ごとのベンチマーク等が提示される。ここで、図3の分析結果31-2の例では、比較対象であるA社の得点「23点」および順位「11位」と、B社の得点「4点」および順位「85位」が示されている。
【0026】
一方、図3に示すように、提示情報30には、提案コメント32(32-1、32-2)が含まれる。提案コメント32は、例えば提案コメント32-1のように、B社の育成状況を改善するためのコメントである「エグゼクティブ・サマリー」等が提示される。図3の例では、エグゼクティブ・サマリーとして、B社の育成状況が業界平均値よりも低く、改善するためには、分析結果31-1のレーダーチャートにおいて数値が閾値未満である「肯定的な学習環境である」や「学習の成果が評価されている」を改善することを勧めるメッセージが表示されている。
【0027】
なお、エグゼクティブ・サマリーに出力される内容は、機械学習の内容によって変更させることもできる。例えば、機械学習モデル14dの学習時に、学習データの説明変数に各分析カテゴリの評価値、学習データの正解情報(ラベル)にメッセージ内容を含ませることで、機械学習モデル14dは、PLEアンケートの回答の入力に応じてエグゼクティブ・サマリーの内容を自動生成することもできる。この場合、提供装置10-1は、機械学習モデル14dから出力された結果をそのまま表示出力する。
【0028】
また、機械学習モデル14dの学習時に、学習データの説明変数に各分析カテゴリの評価値、学習データの正解情報(ラベル)にキーワードを含ませることで、機械学習モデル14dは、PLEアンケートの回答の入力に応じてキーワードを出力することもできる。この場合、提供装置10-1は、予め用意した定型文に、機械学習モデル14dから出力されたキーワードを入力して表示出力する。
【0029】
また、提案コメント32は、例えば提案コメント32-2のように、B社の教育方針や効果に関するコメントである「ポテンシャル」等が提示される。図3の例では、ポテンシャルとして、分析結果31-1のレーダーチャートにおいて数値が閾値以上である「学びが現場で生かされている」を評価するメッセージが表示されている。
【0030】
なお、ポテンシャルに表示される内容も、上記エグゼクティブ・サマリーと同様に、学習内容により任意に設定変更することができる。例えば、機械学習モデル14dの学習時に、学習データの説明変数に各分析カテゴリの評価値、学習データの正解情報(ラベル)にメッセージ内容を含ませることで、機械学習モデル14dは、PLEアンケートの入力に応じポテンシャルの内容を自動生成することもできる。また、機械学習モデル14dの学習時に、学習データの説明変数に各分析カテゴリの評価値、学習データの正解情報(ラベル)にキーワードを含ませることで、機械学習モデル14dは、PLEアンケートの入力に応じてキーワードを出力することもできる。
【0031】
(1-3-3.ロジックツリー)
図4を用いて、ステップS1およびS2の入出力処理に関与するロジックツリーの具体例について説明する。図4は、実施形態1に係るロジックツリーの一例を示す図である。図4に示すように、ロジックツリーは、アンケートの質問または質問群である要素を関連性がある分析カテゴリに分類し、かつ因果関係や優先順位を示したものである。例えば、分析カテゴリは、PLEアンケート項目を、「革新奨励」、「学習」、「制度」、「場」、「マネージメント組織風土」等に分類したものである。また、例えば、「マネージメント組織風土」は、上記「職場で求められる目標が示されている」に対応し、「制度」は、上記「目標を達成に紐づく学習方略がある」に対応し、「場」は、上記「学びが現場で生かされている」に対応し、「学習」は、上記「肯定的な学習環境である」に対応し、「革新奨励」は、上記「学習の成果が評価されている」に対応する。
【0032】
ここで、図4で示す「カテゴリA」~「カテゴリE」や「要素a」~「要素r」の位置関係は、上部に行くほど達成が困難であることを示す。例えば、「カテゴリA」、「カテゴリB」、「カテゴリC」、「カテゴリE」を達成していない組織は、「カテゴリD」を達成できない。また、例えば、「カテゴリA」を達成するためには、「要素о」→「要素j」→「要素a」の順に改善する必要があることを示す。また、異なるカテゴリに分類される要素であっても、互いに関連する要素があり、例えば「カテゴリC」に分類される「要素q」は、「カテゴリA」の「要素a」や「カテゴリB」の「要素p」や「カテゴリE」の「要素r」と因果関係を有する。
【0033】
上述したステップS1~S2の入出力処理では、提供装置10-1は、PLEアンケート結果21をもとに、事前に設定されたロジックツリーを用いて、各分析カテゴリの達成度をスコアとして算出することができる。また、提供装置10-1の有する機械学習モデル14dは、上記のロジックツリーが示す因果関係や優先順位をもとにした学習済みモデルである。
【0034】
[2.提供装置10-1の構成]
図5図9を用いて、図1に示した提供システム100-1が有する提供装置10-1の機能構成について説明する。以下では、実施形態1に係る提供装置10-1の構成、実施形態1に係る提示情報を詳細に説明する。
【0035】
(2-1.提供装置10-1の構成)
まず、図5を用いて、図1に示した提供装置10-1の構成について説明する。図5は、実施形態1に係る提供装置の構成例を示すブロック図である。提供装置10-1は、入力部11、出力部12、通信部13、記憶部14および制御部15-1を有する。
【0036】
(2-1-1.入力部11)
入力部11は、当該提供装置10-1への各種情報の入力を司る。例えば、入力部11は、マウスやキーボード等で実現され、当該提供装置10-1への設定情報等の入力を受け付ける。
【0037】
(2-1-2.出力部12)
出力部12は、当該提供装置10-1からの各種情報の出力を司る。例えば、出力部12は、ディスプレイ等で実現され、当該提供装置10-1に記憶された設定情報等を出力する。
【0038】
(2-1-3.通信部13)
通信部13は、他の装置との間でのデータ通信を司る。例えば、通信部13は、ルータ等を介して、各通信装置との間でデータ通信を行う。また、通信部13は、図示しないオペレータの端末との間でデータ通信を行うことができる。
【0039】
(2-1-4.記憶部14)
記憶部14は、制御部15-1が動作する際に参照する各種情報や、制御部15-1が動作した際に取得した各種情報を記憶する。記憶部14は、学習データ記憶部14a、アンケート結果記憶部14b、提示情報記憶部14cおよび機械学習モデル14dを有する。ここで、記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置等で実現され得る。なお、図5の例では、記憶部14は、提供装置10-1の内部に設置されているが、提供装置10-1の外部に設置されてもよいし、複数の記憶部が設置されていてもよい。
【0040】
(学習データ記憶部14a)
学習データ記憶部14aは、機械学習モデル14dを学習するための学習データを記憶する。例えば、学習データ記憶部14aは、学習データ「入力データ、正解情報」として「PLEアンケート結果、提示情報」等の機械学習モデル14dに入力するためのデータを記憶する。
【0041】
(アンケート結果記憶部14b)
アンケート結果記憶部14bは、機械学習モデル14dに入力するためのPLEアンケート結果21を記憶する。例えば、アンケート結果記憶部14bは、図2で示したPLEアンケート20に対する会社や部署・部門ごとの回答を記憶する。また、アンケート結果記憶部14bは、図2で示したPLEアンケート20の回答を集計したデータを記憶してもよい。
【0042】
(提示情報記憶部14c)
提示情報記憶部14cは、後述する制御部15-1の提示部15cが機械学習モデル14dから取得した分析結果31や提案コメント32を記憶する。例えば、提示情報記憶部14cは、分析結果31として図1で示した「A社」と「B社」の分析カテゴリごとのスコアを示したレーダーチャートや、提案コメント32として図1で示した「B社」の課題がある領域等を示したコメントを記憶する。
【0043】
(機械学習モデル14d)
機械学習モデル14dは、PLEアンケート結果21の入力に応じて提示情報30を生成するように学習されたモデルである。例えば、機械学習モデル14dは、後述する制御部15-1の生成部15aによって、学習データ記憶部14aに記憶された学習データを用いて生成された学習済みモデルである。
【0044】
(2-1-5.制御部15-1)
制御部15-1は、当該提供装置10-1全体の制御を司る。制御部15-1は、生成部15a、取得部15bおよび提示部15cを有する。ここで、制御部15-1は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路やASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現され得る。
【0045】
(生成部15a)
生成部15aは、機械学習モデル14dに学習データを入力し、学習済みモデルを生成する。例えば、生成部15aは、学習データ「入力データ、正解情報」として「PLEアンケート結果、提示情報」を機械学習モデル14dに入力し、機械学習モデル14dの出力結果と正解情報とが一致するように、機械学習モデル14dの学習を実行する。なお、生成部15aは、学習データを学習データ記憶部14aから取得する。また、上述したように、正解情報を変更することにより、機械学習モデル14dによる分析内容を変更することができる。
【0046】
(取得部15b)
取得部15bは、組織の学習環境に関するアンケートの回答を取得する。例えば、取得部15bは、企業、部署、部門等の所定の組織ごとの構成員が回答したPLEアンケート結果21を取得する。このとき、取得部15bは、構成員が匿名で回答したPLEアンケート結果21のデータを通信部13を介して取得してもよい。また、取得部15bは、組織ごとの構成員が回答したPLEアンケート結果を集計したデータを取得してもよい。
【0047】
(提示部15c)
提示部15cは、アンケート結果21と機械学習モデル14dとを用いて得られた組織の分析結果31及び組織を成長させるための提案コメント32の少なくとも一方を提示する。ここで、機械学習モデル14dは、アンケート結果21に対応するデータが入力されると分析結果31及び提案コメント32の少なくとも一方に対応するデータを出力するように生成部15aによって学習された機械学習モデルである。
【0048】
例えば、提示部15cは、分析結果31として、複数の分析カテゴリそれぞれのスコアを含む結果を提示する。ここで、アンケート結果21は、各々がいずれかの分析カテゴリに属する複数のアンケート項目の回答を含む。また、機械学習モデル14dは、或る1つの分析カテゴリに属するアンケート項目の回答が、当該1つの分析カテゴリのスコアだけでなく他の分析カテゴリのスコアにも反映されるように、分析結果31に対応するデータを出力する。図4の例を用いて説明すると、例えばPLEアンケート結果21において「カテゴリA」に含まれるアンケート項目である「要素a」は、「カテゴリB」に含まれるアンケート項目である「要素b」とも関連性を有している。そのため、機械学習モデル14dは、「カテゴリB」のスコアを出力する際には、「要素b」だけではなく、関連性を有する「要素a」の回答が反映されるように分析結果31を出力する。
【0049】
また、提示部15cは、提案コメント32として、分析カテゴリのスコアを改善するための対策を提案するコメントを提示する。また、機械学習モデル14dは、或る1つの分析カテゴリに属するアンケート項目の回答が、当該1つの分析カテゴリのスコアを改善するための対策の提案だけでなく他の分析カテゴリのスコアを改善するための対策の提案にも反映されるように、提案コメント32に対応するデータを出力する。上述した図4の例を用いて説明すると、機械学習モデル14dは、「カテゴリB」のスコアを改善するための提案を出力する際には、「カテゴリB」の「要素b」や下位層の「要素k」、「要素p」だけではなく、関連性を有する「カテゴリA」の「要素a」や下位層の「要素j」、「要素о」の回答を改善するための対策の提案にも反映されるように提案コメント32を出力する。
【0050】
また、提示部15cは、提案コメント32として、分析結果31を示すグラフに基づいて、分析カテゴリのスコアを改善するための対策を提案するコメントを提示する。例えば、提示部15cは、複数の分析カテゴリのスコアを示すレーダーチャートの面積を大きくするための対策を提案するコメントを提示する。上述した図1の分析結果31の例を用いて説明すると、機械学習モデル14dは、「B社」の「企業育成状況分析」のレーダーチャートの五角形の面積を最大化するように対策を提案するコメントを提示する。また、提示部15cは、提案コメント32として、質問別の達成度を示した折れ線グラフ、棒グラフの高さや面積を大きくしたり、分析カテゴリ別の達成度を示した円グラフ、帯グラフの特定のカテゴリの面積を大きくしたりするための対策を提案するコメントを提示することもできる。
【0051】
また、提示部15cは、分析カテゴリのスコアを改善するための対策として、ルーブリック開発、人財育成戦略策定、ワークショップ、研修設計、実践サポート及びマネージメントへのコーチングの少なくとも1つを含む対策を提案するコメントを提示する。
【0052】
ここで、複数の分析カテゴリとは、革新奨励に関する分析カテゴリ、学習に関する分析カテゴリ、制度に関する分析カテゴリ、場に関する分析カテゴリ及びマネージメント組織風土に関する分析カテゴリを含む。
【0053】
(2-2.提示情報30の具体例)
次に、図6図10を用いて、提示部15cが取得する提示情報30の詳細について説明する。図6図10は、実施形態1の提示情報の一例を示す図である。以下では、提示情報30として、分析結果31、提案コメント32の順に説明する。
【0054】
(2-2-1.分析結果31)
図6を用いて、分析結果31の一例について説明する。図6に示すように、提示部15cは、分析結果31として、PLEアンケート結果21の各質問における「Yes」の回答数や割合を取得する。図6の例では、回答数「n=18」のうち、図2で示したPLEアンケート20の「質問1」~「質問30」の各質問に「Yes」と回答した回答数と割合を示している。
【0055】
図7を用いて、分析結果31の一例について説明する。図7に示すように、提示部15cは、分析結果31として、PLEアンケート結果21を入力された機械学習モデル14dが出力した分析カテゴリごとの評価値の表を取得する。図7の例では、「カテゴリA」~「カテゴリE」ごとに、評価対象の組織の評価値である「今回評価値(%)」と、評価対象の組織の全体の評価値である「全体結果(%)」とを示している。
【0056】
このとき、機械学習モデル14dは、上記の分析カテゴリとして、例えば、革新奨励に関する分析カテゴリ、学習に関する分析カテゴリ、制度に関する分析カテゴリ、場に関する分析カテゴリ及びマネージメント組織風土に関する分析カテゴリ等のスコアを含む分析結果31を出力する。
【0057】
図8を用いて、分析結果31の一例について説明する。図8に示すように、提示部15cは、分析結果31として、PLEアンケート結果21の各質問における「Yes」の回答結果を取得する。図8の例では、図2で示したPLEアンケート20の「質問1」~「質問30」の各質問に「Yes」と回答した割合として、評価対象の組織の割合である「評価結果」(実線で表示)と、評価対象の組織の全体の割合である「全体結果」(破線で表示)とを示している。
【0058】
図9を用いて、分析結果31の一例について説明する。図9に示すように、提示部15cは、分析結果31として、PLEアンケート結果21を入力された機械学習モデル14dが出力した分析カテゴリごとの評価値のレーダーチャートを取得する。図9の例では、「カテゴリA」~「カテゴリE」ごとに、評価対象の組織の評価値である「今回評価値(%)」(実線で表示)と、評価対象の組織の全体の評価値である「全体結果(%)」(破線で表示)とをレーダーチャートを用いて示している。
【0059】
(2-2-2.提案コメント32)
図10を用いて、提案コメント32の一例について説明する。図10に示すように、提示部15cは、提案コメント32として、PLEアンケート結果21を入力された機械学習モデル14dが出力した組織を成長するためのコメントを取得する。図10の例では、第1に、「○○領域(カテゴリ)」に課題が存在し、特に「△△」と「□□」に改善の余地があることをコメントしている。また、第2に、「××領域(カテゴリ)」に課題が存在し、特に「※※」に改善の余地があることをコメントしている。
【0060】
このとき、機械学習モデル14dは、例えば、上記の分析カテゴリのスコアを示すレーダーチャートの面積を大きくするための対策を提案する提案コメント32を出力する。また、機械学習モデル14dは、上記の対策として、例えば、ルーブリック開発、人財育成戦略策定、ワークショップ、研修設計、実践サポート、マネージメントへのコーチング等を含むコメントを出力する。
【0061】
[3.各処理の流れ]
図11を用いて、実施形態1に係る各処理の流れを説明する。図11は、実施形態1に係る提供処理全体の流れを示すフローチャートである。以下では、実施形態1に係るアンケート結果取得処理、提示情報生成処理、情報提示処理の流れの順に説明する。
【0062】
(3-1.アンケート結果取得処理の流れ)
取得部15bは、PLEアンケート結果21を取得し(ステップS101)、PLEアンケート結果21を記憶部14に格納する(ステップS102)。
【0063】
(3-2.提示情報生成処理の流れ)
提示部15cは、機械学習モデル14dが出力した分析結果31を取得し(ステップS103)、機械学習モデル14dが出力した提案コメント32を取得し(ステップS104)、取得した分析結果31、提案コメント32を記憶部14に格納する(ステップS105)。
【0064】
(3-3.情報提示処理の流れ)
提示部15cは、取得した分析結果31、提案コメント32のうち、提示する情報を選択し(ステップS106)、選択した情報を提示し(ステップS107)、処理を終了する。
【0065】
なお、上述したステップS101~S107の処理の順序や実行のタイミングは、動的に、または静的に変更することができる。また、ステップS101~S107の処理のうち、省略される処理があってもよい。
【0066】
[4.実施形態の効果]
第1に、上述した実施形態1に係る処理では、組織の学習環境に関するアンケート結果21を取得し、アンケート結果21と機械学習モデル14dとを用いて得られた組織の分析結果31及び組織を成長させるための提案コメント32の少なくとも一方を提示する。このとき、機械学習モデル14dは、アンケート結果21に対応するデータが入力されると分析結果31及び提案コメント32の少なくとも一方に対応するデータを出力する。このため、本処理では、PLEアンケートの集計結果をもとに、効果的に組織を改善するための提案をすることができる。
【0067】
第2に、上述した実施形態1に係る処理では、分析結果31は、複数の分析カテゴリそれぞれのスコアを含み、アンケート結果21は、各々がいずれかの分析カテゴリに属する複数のアンケート項目の回答を含み、機械学習モデル14dは、或る1つの分析カテゴリに属するアンケート項目の回答が、当該1つの分析カテゴリのスコアだけでなく他の分析カテゴリのスコアにも反映されるように、分析結果31に対応するデータを出力する。このため、本処理では、PLEアンケートの集計結果をもとに分析カテゴリのスコアを算出し、効果的に組織を改善するための提案をすることができる。
【0068】
第3に、上述した実施形態1に係る処理では、分析結果31は、複数の分析カテゴリそれぞれのスコアを含み、アンケート結果21は、各々がいずれかの分析カテゴリに属する複数のアンケート項目の回答を含み、提案コメント32は、分析カテゴリのスコアを改善するための対策を提案し、機械学習モデル14dは、或る1つの分析カテゴリに属するアンケート項目の回答が、当該1つの分析カテゴリのスコアを改善するための対策の提案だけでなく他の分析カテゴリのスコアを改善するための対策の提案にも反映されるように、提案コメント32に対応するデータを出力する。このため、本処理では、PLEアンケートの集計結果をもとに、より効果的に分析カテゴリのスコアを算出し、効果的に組織を改善するための提案をすることができる。
【0069】
第4に、上述した実施形態1に係る処理では、提案コメント32は、分析結果31を示すグラフに基づいて、分析カテゴリのスコアを改善するための対策を提案する。このため、本処理では、PLEアンケートの集計結果をもとに、より定量的に分析カテゴリのスコアを算出し、効果的に組織を改善するための提案をすることができる。
【0070】
第5に、上述した実施形態1に係る処理では、分析カテゴリのスコアを改善するための対策は、ルーブリック開発、人財育成戦略策定、ワークショップ、研修設計、実践サポート及びマネージメントへのコーチングの少なくとも1つを含む。このため、本処理では、PLEアンケートの集計結果をもとに、より具体的に組織を改善するための提案をすることができる。
【0071】
第6に、上述した実施形態1に係る処理では、複数の分析カテゴリは、革新奨励に関する分析カテゴリ、学習に関する分析カテゴリ、制度に関する分析カテゴリ、場に関する分析カテゴリ及びマネージメント組織風土に関する分析カテゴリを含む。このため、本処理では、PLEアンケートの集計結果をもとに、より具体的に分析カテゴリのスコアを算出し、効果的に組織を改善するための提案をすることができる。
【0072】
第7に、上述した実施形態1に係る処理では、アンケート結果は、PLEアンケートに対する回答結果である。このため、本処理では、広く用いられているPLEアンケートの集計結果をもとに、効果的に組織を改善するための提案をすることができる。
【0073】
〔実施形態2〕
ところで、実施形態1で説明した機械学習モデル14dは、強化学習により訓練することで、機械学習モデル14dが出力する提示情報30の精度を高精度に維持することができる。そこで、実施形態2では、提供装置10-2が、機械学習モデル14dにより生成された提示情報30にしたがって教育を行った後のPLEアンケート結果を用いた強化学習により、機械学習モデル14dの精度を維持する例を説明する。
【0074】
以下に、実施形態2に係る提供システム100-2の構成、提供装置10-2の構成、各処理の流れを順に説明し、最後に実施形態2の効果を説明する。なお、上述した実施形態1と同様の構成や処理については、説明を省略する。
【0075】
[1.提供システム100-2の構成]
図12を用いて、実施形態2に係る提供システム(以下、適宜、本システムともいう)100-2の構成を詳細に説明する。図12は、実施形態2に係る提供システムの構成例を示す図である。以下に、本システム100-2全体の構成例を示した上で、本システム100-2の処理について説明する。
【0076】
(1-1.システム全体の構成例)
本システム100-2は、提供装置10-2を有する。なお、本システム100-2には、複数台の提供装置10-2が含まれてもよい。また、本システム100-2では、提供装置10-2に入力するデータとして、教育前PLEアンケート結果21-1や教育後PLEアンケート結果21-2、また、提供装置10-2が出力するデータとして、分析結果31や提案コメント32を含む提示情報30が関与する。
【0077】
(1-2.システム全体の処理)
このようなシステムにおける提供装置10-2は、学習済みである機械学習モデル14dを有し、機械学習モデル14dを用いて、PLEアンケート結果21(21-1、21-2)から提示情報30を生成して、出力するコンピュータ装置の一例である。以下では、提供装置10-2が実行する教育前入力処理、出力処理、教育後入力処理、学習処理の順に説明する。なお、提供装置10-2が有する機械学習モデル14dは、実施形態1の提供装置10-1が有する機械学習モデル14dと共通するため、説明を省略する。
【0078】
(1-2-1.教育前入力処理)
第1に、提供装置10-2は、教育前PLEアンケート結果21-1の入力を受け付ける(ステップS11)。このとき、提供装置10-2が入力を受け付ける教育前PLEアンケート結果21-1は、PLEアンケートの項目ごとに集計されたデータであってもよいし、アンケート回答者の所有する端末装置によって送信された集計前のデータであってもよい。
【0079】
(1-2-2.出力処理)
第2に、提供装置10-2は、機械学習モデル14dから取得した分析結果31や提案コメント32を含む提示情報30を出力する(ステップS12)。このとき、提供装置10-2は、機械学習モデル14dに教育前PLEアンケート結果21-1を入力し、提示情報30を取得する。例えば、機械学習モデル14dにより、PLEアンケート結果21について、アンケート項目ごとの回答の集計、他の部署・部門や他社との結果の比較、分析カテゴリごとの評価、改善が必要な要素についての特定等が実行される。そして、出力された分析結果31や提案コメント32を含む提示情報30は、教育前PLEアンケート結果21-1を回答した企業等に提示され、企業育成における組織改善策として活用される。なお、図12に示す提供装置10-2が出力する提示情報30については、図1に示す提供装置10-1が出力する提示情報30と共通するため、説明を省略する。
【0080】
(1-2-3.教育後入力処理)
第3に、提供装置10-2は、教育後PLEアンケート結果21-2の入力を受け付ける(ステップS13)。例えば、提供装置10-2は、教育前PLEアンケート結果21-1に対応する提示情報30をもとに教育を行った後の企業等から、教育後PLEアンケート結果21-2の入力を受け付ける。また、このとき、提供装置10-2は、提示情報30をもとに教育を行った後の企業等の組織が目標とする分析カテゴリの達成度等の入力を受け付ける。
【0081】
(1-2-4.学習処理)
第4に、提供装置10-2は、教育後PLEアンケート結果21-2に基づいて機械学習モデル14dの学習を行う(ステップS14)。例えば、提供装置10-2は、企業等の組織が目標とする分析カテゴリごとの評価値と教育後PLEアンケート結果21-2との差分をもとに報酬を設定し、機械学習モデル14dに対する強化学習を行う。
【0082】
上述のステップS11~S14の処理を実行することにより、PLEアンケート結果を用いて、組織の現状の問題点を適切に把握し、かつ効果的な教育方針や人材育成方略を決定することができる。特に、上述のステップS13~S14の処理を実行することにより、PLEアンケート結果に基づく機械学習モデルが進化することが期待でき、さらに効果的な教育方針や人材育成方略を決定することができる。
【0083】
(1-3.機械学習モデル14dの学習処理の具体例)
図13図16を用いて、上述したステップS14の学習処理の具体例について説明する。図13図16は、実施形態2に係る学習処理の一例を示す図である。以下では、アンケート項目、レーダーチャート、ロジックツリーに関わる学習処理の順に説明する。
【0084】
(1-3-1.アンケート項目に基づく学習処理)
図13を用いて、上述したステップS14の学習処理の具体例について説明する。図13に示すように、提供装置10-2は、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とを比較し、アンケート項目の回答が改善するように報酬を設定し、強化学習を行う。
【0085】
図13は、同一の回答者(n=31)によるPLEアンケート20の各質問の教育前アンケート結果21-1(網掛けで表示)と教育後アンケート結果21-2(斜線で表示)とを示したものである。例えば、「質問1」では、教育前アンケート結果21-1では31人中25人が「Yes」と回答し、教育後アンケート結果21-2では31人中30人が「Yes」と回答し、教育前後で5人が改善していることがわかる。このように、提案コメント32等の提示情報30を提示することによって、提案コメント32に基づく教育が行われることにより組織改善が行われた場合、各アンケート項目で「Yes」の回答数がより多く増加することが好ましい。
【0086】
ここで、提供装置10-2は、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とを比較し、企業等が改善を目標とする分析カテゴリに属するアンケート項目の「Yes」を選択した回答者数がより増加するように報酬を設定し、強化学習を行う。すなわち、提供装置10-2は、回答者数の増加数が大きいほど高い報酬を与え、回答者数の増加数が小さいほど低い報酬を与えて強化学習を行う。また、提供装置10-2は、回答者数が減少している場合には、マイナスの報酬を与え、強化学習を行うこともできる。すなわち、提供装置10-2は、各アンケート項目の「Yes」の回答数をより増加するための提案コメント32等の提示情報30を出力するように、機械学習モデル14dの学習を行う。
【0087】
(1-3-2.レーダーチャートに基づく学習処理)
図14を用いて、上述したステップS14の学習処理の具体例について説明する。図14に示すように、提供装置10-2は、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とを比較し、分析カテゴリのスコアを示すレーダーチャートの面積が増加するように報酬を設定し、強化学習を行う。
【0088】
図14は、同一の回答者によるPLEアンケート20の各分析カテゴリの教育前のスコア(破線で表示)と教育後のスコア(実線で表示)とをレーダーチャートで示したものである。例えば、「カテゴリA」では、教育前では65%程度の評価値であり、教育後では80%以上の評価値であり、教育前後で15%程度が改善していることがわかる。また、同様にして、「カテゴリB」~「カテゴリE」においても評価値が増加しており、分析カテゴリのスコアが改善することによって、レーダーチャートの五角形の面積が増加することがわかる。このように、提案コメント32等の提示情報30を提示することによって、分析カテゴリのスコアを示すレーダーチャートの面積がより増加することが好ましい。なお、図14のレーダーチャートは一例であり、分析カテゴリの数に応じて四角形や六角形でもよく、レーダーチャートの形状は特に限定されない。
【0089】
ここで、提供装置10-2は、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とを比較し、企業等が改善を目標とする分析カテゴリのスコアが示すレーダーチャートの面積がより増加するように報酬を設定し、強化学習を行う。すなわち、提供装置10-2は、レーダーチャートの増加面積が大きいほど高い報酬を与え、レーダーチャートの増加面積が小さいほど低い報酬を与えて強化学習を行う。また、提供装置10-2は、レーダーチャートの面積が減少している場合には、マイナスの報酬を与え、強化学習を行うこともできる。すなわち、提供装置10-2は、分析カテゴリのレーダーチャートの面積を増加するための提案コメント32等の提示情報30を出力するように、機械学習モデル14dの学習を行う。
【0090】
(1-3-3.ロジックツリーに基づく学習処理)
図15および図16を用いて、上述したステップS14の学習処理の具体例について説明する。図15および図16に示すように、提供装置10-2は、分析カテゴリに属するアンケート項目の関係性に基づき、出力される提示情報30に示される改善策の優先順位を変更するように学習を行う。
【0091】
図15および図16は、分析カテゴリである「カテゴリA」~「カテゴリE」の関係性を示したものである。図4で説明したように、ロジックツリーは、アンケートの質問または質問群である要素を関連性がある分析カテゴリに分類し、かつ因果関係や優先順位を示したものである。例えば、分析カテゴリは、PLEアンケート項目を、「革新奨励」、「学習」、「制度」、「場」、「マネージメント組織風土」等に分類したものである。また、図15および図16で示す「カテゴリA」~「カテゴリE」の位置関係は、上の階層に行くほど組織としての達成が困難であることを示す。例えば、図15において、「カテゴリD」は、階層が下である「カテゴリC」を達成できなければ達成できないことを示している。また、「カテゴリC」を達成するには、「カテゴリA」を達成した後、「カテゴリB」を達成し、かつ「カテゴリE」を達成する必要があることがわかる。このように、上記の分析カテゴリの関係性(因果関係や優先順位)を考慮した提案コメント32等の提示情報30を提示することが好ましい。
【0092】
ここで、提供装置10-2は、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とを比較し、企業等が改善を求める分析カテゴリのスコアが改善していない場合には、異なる分析カテゴリを改善するための提案を提示するように機械学習を行うこともできる。例えば、図15の例を用いて説明すると、提供装置10-2は、企業等が改善を目標とする分析カテゴリが「カテゴリC」であり、「カテゴリC」の改善策を提示した場合に、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とを比較し、「カテゴリC」の分析カテゴリのスコアが改善していないときには、「カテゴリC」と因果関係を有する下位層の「カテゴリB」や「カテゴリE」の改善策を提示するように機械学習モデル14dの学習を行う。このとき、提供装置10-2は、図15に示したロジックツリーの関係性を変更するように機械学習モデル14dの学習を行うこともできる。すなわち、提供装置10-2は、改善策の優先順位を変更し、より好ましい提案コメント32等の提示情報30を出力するように、機械学習モデル14dの学習を行う。
【0093】
また、提供装置10-2は、図15の例で示した学習処理を、報酬を用いた強化学習によって行うこともできる。例えば、図16の例を用いて説明すると、提供装置10-2は、「カテゴリC」の改善するために、「カテゴリB」や「カテゴリE」の改善策を提示しても改善しなかった場合には、低い報酬を与えて強化学習を行う。一方、提供装置10-2は、「カテゴリC」の改善するために、「カテゴリA」の改善策を提示して改善した場合には、高い報酬を与えて強化学習を行う。具体的には、提供装置10-2は、企業等が改善を求める分析カテゴリのスコアの目標値と、教育後PLEアンケート結果21-2に基づく分析カテゴリのスコアの差分が大きいほど低い報酬を設定する。言い換えれば、提供装置10-2は、より企業等が求める達成度に近い改善策を提示する場合には、より高い報酬を与えて強化学習を行う。このとき、提供装置10-2は、図15に示したロジックツリーから、図16に示したロジックツリーの関係性へと変更するように強化学習を行うこともできる。すなわち、提供装置10-2は、強化学習によって改善策の優先順位を変更し、より好ましい提案コメント32等の提示情報30を出力するように、機械学習モデル14dの学習を行う。
【0094】
[2.提供装置10-2の構成]
図17を用いて、図12に示した提供システム100-2が有する提供装置10-2の機能構成について説明する。図17は、実施形態2に係る提供装置の構成例を示すブロック図である。以下では、実施形態2に係る提供装置10-2の構成を詳細に説明する。提供装置10-2は、入力部11、出力部12、通信部13、記憶部14および制御部15-2を有する。なお、入力部11、出力部12、通信部13および記憶部14については、上述した実施形態1と同様の構成および処理であるため、説明を省略する。
【0095】
(制御部15-2)
制御部15-2は、当該提供装置10-2全体の制御を司る。制御部15-2は、生成部15a、取得部15b、提示部15cおよび学習部15dを有する。ここで、制御部15-2は、例えば、CPUやMPU等の電子回路やASICやFPGA等の集積回路により実現され得る。
【0096】
(生成部15a)
生成部15aは、機械学習モデル14dに学習データを入力し、学習済みモデルを生成する。例えば、生成部15aは、学習データ「入力データ、正解情報」として「PLEアンケート結果、提示情報」を機械学習モデル14dに入力し、機械学習モデル14dの出力結果と正解情報とが一致するように、機械学習モデル14dの学習を実行する。なお、生成部15aは、学習データを学習データ記憶部14aから取得する。また、上述したように、正解情報を変更することにより、機械学習モデル14dによる分析内容を変更することができる。
【0097】
(取得部15b)
取得部15bは、組織の改善を行う改善策の実行前に実行された学習環境に関するアンケート結果である第1のアンケート結果(教育前PLEアンケート結果)21-1を取得する。例えば、取得部15bは、企業、部署、部門等の所定の組織ごとの構成員が回答した教育前PLEアンケート結果21-1を取得する。また、第1のアンケート結果の入力に応じた機械学習モデル14dの出力結果に基づく改善策の実行後に実行されたアンケート結果である第2のアンケート結果(教育後PLEアンケート結果)21-2を取得する。例えば、取得部15bは、企業、部署、部門等の所定の組織ごとの構成員が回答した教育後PLEアンケート結果21-2を取得する。
【0098】
このとき、取得部15bは、構成員が匿名で回答したPLEアンケート結果21(21-1、21-2)のデータを通信部13を介して取得してもよい。また、取得部15bは、組織ごとの構成員が回答したPLEアンケート結果21(21-1、21-2)を集計したデータを取得してもよい。
【0099】
(提示部15c)
提示部15cは、PLEアンケート結果21(21-1、21-2)と機械学習モデル14dとを用いて得られた組織の分析結果31及び組織を成長させるための提案コメント32の少なくとも一方を提示する。例えば、提示部15cは、分析結果31として、複数の分析カテゴリそれぞれのスコアを含む結果を提示する。ここで、アンケート結果21は、各々がいずれかの分析カテゴリに属する複数のアンケート項目の回答を含む。また、機械学習モデル14dは、或る1つの分析カテゴリに属するアンケート項目の回答が、当該1つの分析カテゴリのスコアだけでなく他の分析カテゴリのスコアにも反映されるように、分析結果31に対応するデータを出力する。なお、提示部15cの処理や提示部15cが提示する提示情報30は、上述した実施形態1と同様であるため、説明を省略する。
【0100】
(学習部15d)
学習部15dは、教育後PLEアンケート結果21-2と目標とする状態とに基づく報酬を用いた強化学習により、機械学習モデル14dの機械学習を実行する。例えば、学習部15dは、企業等の組織が目標とする分析カテゴリのスコア(評価値)と、教育後PLEアンケート結果21-2が示す分析カテゴリのスコアの差分をもとに報酬を設定し、強化学習を行う。具体的な例を用いて説明すると、学習部15dは、目標とする「カテゴリA」のスコアが90%であり、教育後PLEアンケート結果21-2が示す「カテゴリA」のスコアが85%と80%とである場合には、より90%との差分が小さい85%の方が目標とするスコアを達成したとして、より高い報酬を与えられるように強化学習を行う。
【0101】
ここで、PLEアンケート20は、図4のロジックツリーで示すように各々が複数の分析カテゴリのいずれかに属する複数のアンケート項目を含む。また、同様に、複数の分析カテゴリは、互いに影響を与えるアンケート項目間の関係性に基づき、因果関係(原因とそれによって生じる結果との関係)が設定されている。
【0102】
また、学習部15dは、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とを比較し、改善目標とする分析カテゴリに属する複数のアンケート項目の変化を特定し、変化に基づく報酬を用いた強化学習により、機械学習モデル14dの機械学習を実行する。例えば、学習部15dは、教育前PLEアンケート結果21-1のアンケート項目のスコア(「Yes」の回答者数)と教育後PLEアンケート結果21-2のアンケート項目のスコアとの差分をもとに報酬を設定し、強化学習を行う。具体的な例を用いて説明すると、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とのスコアの差分を比較した場合、差分が「4」であるアンケート項目と差分が「10」であるアンケート項目とでは、差分が「10」であるアンケート項目の方が、より高い報酬を与えられるように強化学習を行う。
【0103】
学習部15dは、教育前PLEアンケート結果21-1に含まれる複数のアンケート項目を用いた、複数の分析カテゴリのスコアを示すグラフと、教育後PLEアンケート結果21-2における当該グラフとの差分を特定し、当該差分に基づく報酬を用いた強化学習により、機械学習モデル14dの機械学習を実行する。例えば、学習部15dは、教育前PLEアンケート結果21-1に含まれる複数のアンケート項目を用いた、複数の分析カテゴリのスコアを示すレーダーチャートの面積より教育後PLEアンケート結果21-2におけるレーダーチャートの面積の方が大きいほど、高い報酬を与える強化学習により、機械学習モデル14dの機械学習を実行する。具体的な例を用いて説明すると、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とのスコアの差分を比較した場合、一定のサイズで比較した場合の面積の差分が「2」であるレーダーチャートと差分が「9」であるレーダーチャートとでは、差分が「9」であるレーダーチャートの方が、より高い報酬を与えられるように強化学習を行う。
【0104】
また、学習部15dは、複数の分析カテゴリのスコアを示すグラフとして、教育前後の折れ線グラフ、棒グラフ、円グラフ、帯グラフ等のグラフの差分を特定し、当該差分に基づく報酬を用いた強化学習により、機械学習モデル14dの機械学習を実行することもできる。例えば、学習部15dは、分析カテゴリ別の達成度を示した折れ線グラフ、棒グラフ、円グラフ、帯グラフ等において、特定のカテゴリの高さや面積を大きくするほど高い報酬を与えるように強化学習を実行することもできる。
【0105】
学習部15dは、複数の分析カテゴリのうちの第1の分析カテゴリを改善する改善策の実行後に得られた教育後PLEアンケート結果21-2が教育前PLEアンケート結果21-1から改善されていない場合に、第1の分析カテゴリと因果関係を有する第2の分析カテゴリの改善策を提示するように、機械学習モデル14dの機械学習を実行する。例えば、学習部15dは、教育後PLEアンケート結果21-2の分析カテゴリのスコアが教育前PLEアンケート結果21-1と比較して改善されていない場合には、異なる分析カテゴリであって、かつ因果関係を有する分析カテゴリの改善策を提示するように機械学習を行う。具体的な例を用いて説明すると、分析カテゴリとして「カテゴリC」を改善したい場合であって、「カテゴリC」の改善策を提示しても改善しなかった場合には、「カテゴリC」と因果関係を有する「カテゴリB」や「カテゴリE」の改善策を提示するように機械学習を行う。
【0106】
学習部15dは、第1の分析カテゴリについて目標とする状態と教育後PLEアンケート結果21-2との差分が、目標とする状態と教育前PLEアンケート結果21-1との差分より大きいほど、少ない報酬を用いた強化学習により、因果関係に基づく改善対象の分析カテゴリの優先順位が変わるように、機械学習モデル14dの機械学習を実行する。例えば、学習部15dは、企業等の組織が目標とする分析カテゴリのスコア(評価値)と、教育前PLEアンケート結果21-1が示す分析カテゴリのスコアとの差分を算出し、同様に、目標とする分析カテゴリのスコア(評価値)と、教育後PLEアンケート結果21-2が示す分析カテゴリのスコアとの差分を算出し、その2つの差分の大小から報酬を設定し、強化学習を行う。具体的な例を用いて説明すると、目標とする「カテゴリA」のスコアが90%であり、教育前PLEアンケート結果21-1が示す「カテゴリA」のスコアが60%であって、教育後PLEアンケート結果21-2が示す「カテゴリA」のスコアが50%であった場合、後者の方が評価値が下がり差分が大きいため適切ではないと判断できる。すなわち、ロジックツリー等の優先順位が適切ではないため、学習部15dは、より低い報酬を与えられるように強化学習を行い、適切なロジックツリーとなるように優先順位を変更する。
【0107】
[3.各処理の流れ]
図18を用いて、実施形態2に係る各処理の流れを説明する。図18は、実施形態2に係る提供処理全体の流れを示すフローチャートである。以下では、実施形態2に係るアンケート結果取得処理、提示情報生成処理、情報提示処理、アンケート結果学習処理の流れの順に説明する。
【0108】
(3-1.アンケート結果取得処理の流れ)
取得部15bは、教育前PLEアンケート結果21-1を取得し(ステップS201)、教育前PLEアンケート結果21-1を記憶部14に格納する(ステップS202)。
【0109】
(3-2.提示情報生成処理の流れ)
提示部15cは、機械学習モデル14dが出力した分析結果31を取得し(ステップS203)、機械学習モデル14dが出力した提案コメント32を取得し(ステップS204)、取得した分析結果31、提案コメント32を記憶部14に格納する(ステップS205)。
【0110】
(3-3.情報提示処理の流れ)
提示部15cは、取得した分析結果31、提案コメント32のうち、提示する情報を選択し(ステップS206)、選択した情報を提示する(ステップS207)。
【0111】
(3-4.アンケート結果学習処理の流れ)
取得部15bは、教育後PLEアンケート結果21-2を取得する(ステップS208)。次に、学習部15dは、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とを比較し(ステップS209)、報酬を付与して強化学習を行う(ステップS210)。その後、学習部15dは、強化学習を終了する場合(ステップS211:Yes)、処理を終了する。一方、学習部15dは、強化学習を終了しない場合(ステップS211:No)、ステップS201の処理に移行する。
【0112】
なお、上述したステップS201~S211の処理の順序や実行のタイミングは、動的に、または静的に変更することができる。また、S201~S211の処理のうち、省略される処理があってもよい。
【0113】
[4.実施形態の効果]
第1に、上述した実施形態2に係る処理では、組織の改善を行う改善策の実行前に実行された学習環境に関するアンケート結果である教育前PLEアンケート結果21-1を取得し、教育前PLEアンケート結果21-1の入力に応じた機械学習モデル14dの出力結果に基づく改善策の実行後に実行されたアンケート結果である教育後PLEアンケート結果21-2を取得し、教育後PLEアンケート結果21-2に基づき、機械学習モデル14dの機械学習を実行する。このため、本処理では、PLEアンケートの集計結果をもとに、さらに効果的に組織を改善するための提案をすることができる。
【0114】
第2に、上述した実施形態2に係る処理では、教育後PLEアンケート結果21-2と目標とする状態とに基づく報酬を用いた強化学習により、機械学習モデル14dの機械学習を実行する。このため、本処理では、PLEアンケートの集計結果をもとに、報酬を用いた強化学習により、さらに効果的に組織を改善するための提案をすることができる。
【0115】
第3に、上述した実施形態2に係る処理では、教育前PLEアンケート結果21-1と教育後PLEアンケート結果21-2とを比較し、改善目標とする分析カテゴリに属する複数のアンケート項目の変化を特定し、当該変化に基づく報酬を用いた強化学習により、機械学習モデル14dの機械学習を実行する。このため、本処理では、PLEアンケートの集計結果をもとに、アンケート項目の変化を考慮した報酬を用いた強化学習により、さらに効果的に組織を改善するための提案をすることができる。
【0116】
第4に、上述した実施形態2に係る処理では、教育前PLEアンケート結果21-1に含まれる複数のアンケート項目を用いた、複数の分析カテゴリのスコアを示すレーダーチャートの面積より教育後PLEアンケート結果21-2における前記レーダーチャートの面積の方が大きいほど、高い報酬を与える強化学習により、機械学習モデル14dの機械学習を実行する。このため、本処理では、PLEアンケートの集計結果をもとに、レーダーチャートの変化を考慮した報酬を用いた強化学習により、さらに効果的に組織を改善するための提案をすることができる。
【0117】
第5に、上述した実施形態2に係る処理では、複数の分析カテゴリのうちの第1の分析カテゴリを改善する改善策の実行後に得られた教育後PLEアンケート結果21-2が教育前PLEアンケート結果21-1から改善されていない場合に、第1の分析カテゴリと因果関係を有する第2の分析カテゴリの改善策を提示するように、機械学習モデル14dの機械学習を実行する。このため、本処理では、PLEアンケートの集計結果をもとに、ロジックツリーを考慮した機械学習により、さらに効果的に組織を改善するための提案をすることができる。
【0118】
第6に、上述した実施形態2に係る処理では、第1の分析カテゴリについて目標とする状態のアンケート結果と教育後PLEアンケート結果21-2が、当該目標とする状態のアンケート結果と教育前PLEアンケート結果21-1との差分より大きいほど、少ない報酬を用いた強化学習により、因果関係に基づく改善対象の分析カテゴリの優先順位が変わるように、機械学習モデル14dの機械学習を実行する。このため、本処理では、PLEアンケートの集計結果をもとに、ロジックツリーを考慮した報酬を用いた強化学習により、さらに効果的に組織を改善するための提案をすることができる。
【0119】
第7に、上述した実施形態2に係る処理では、アンケート結果は、PLEアンケートに対する回答結果である。このため、本処理では、広く用いられているPLEアンケートの集計結果をもとに、さらに効果的に組織を改善するための提案をすることができる。
【0120】
〔システム〕
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
【0121】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0122】
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
【0123】
〔ハードウェア〕
次に、提供装置10(10-1、10-2)のハードウェア構成例を説明する。なお、他の装置も同様のハードウェア構成とすることができる。図19は、ハードウェア構成例を説明する図である。図19に示すように、提供装置10(10-1、10-2)は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図19に示した各部は、バス等で相互に接続される。
【0124】
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図5および図17に示した機能を動作させるプログラムやDBを記憶する。
【0125】
プロセッサ10dは、図5および図17に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図5図17等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、提供装置10-1および提供装置10-2が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、生成部15a、取得部15b、提示部15c、学習部15d等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、生成部15a、取得部15b、提示部15c、学習部15d等と同様の処理を実行するプロセスを実行する。
【0126】
このように、提供装置10-1および提供装置10-2は、プログラムを読み出して実行することで各種処理方法を実行する装置として動作する。また、提供装置10-1および提供装置10-2は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施形態と同様の機能を実現することもできる。なお、この他の実施形態でいうプログラムは、提供装置10-1および提供装置10-2によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
【0127】
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
【符号の説明】
【0128】
10、10-1、10-2 提供装置
11 入力部
12 出力部
13 通信部
14 記憶部
15-1、15-2 制御部
15a 生成部
15b 取得部
15c 提示部
15d 学習部
20 PLEアンケート
21、21-1、21-2 PLEアンケート結果
30 提示情報
31、31-1、31-2 分析結果
32、32-1、32-2 提案コメント
100-1、100-2 提供システム
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19