IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ エヌ・ティ・ティ・コミュニケーションズ株式会社の特許一覧

特開2024-1752処理装置、処理方法及び処理プログラム
<>
  • 特開-処理装置、処理方法及び処理プログラム 図1
  • 特開-処理装置、処理方法及び処理プログラム 図2
  • 特開-処理装置、処理方法及び処理プログラム 図3
  • 特開-処理装置、処理方法及び処理プログラム 図4
  • 特開-処理装置、処理方法及び処理プログラム 図5
  • 特開-処理装置、処理方法及び処理プログラム 図6
  • 特開-処理装置、処理方法及び処理プログラム 図7
  • 特開-処理装置、処理方法及び処理プログラム 図8
  • 特開-処理装置、処理方法及び処理プログラム 図9
  • 特開-処理装置、処理方法及び処理プログラム 図10
  • 特開-処理装置、処理方法及び処理プログラム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024001752
(43)【公開日】2024-01-10
(54)【発明の名称】処理装置、処理方法及び処理プログラム
(51)【国際特許分類】
   G06F 16/9035 20190101AFI20231227BHJP
   G06F 16/904 20190101ALI20231227BHJP
【FI】
G06F16/9035
G06F16/904
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2022100620
(22)【出願日】2022-06-22
(71)【出願人】
【識別番号】399035766
【氏名又は名称】エヌ・ティ・ティ・コミュニケーションズ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】田上 翼
(72)【発明者】
【氏名】太田 光憲
(72)【発明者】
【氏名】泉 博明
(72)【発明者】
【氏名】梅田 建
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175DA01
5B175DA05
5B175HA01
(57)【要約】
【課題】客観的にユーザのプロファイルを作成し、作成したプロファイルを可視化して提供することができる。
【解決手段】処理装置10は、ユーザと他のユーザとの会話の音声データ、及び/または、ユーザと他のユーザとの間におけるチャットデータを取得する取得部131と、会話の音声データ及び/またはチャットデータに基づくデータを用いてユーザの人となりの情報であるプロファイルを予測するプロファイル予測モデル1331に、取得部131が取得した音声データ及び/またはチャットデータに基づくデータを入力し、ユーザのプロファイルを予測するプロファイル予測部133と、ユーザのプロファイルの可視化データを作成する可視化データ作成部136と、を有する。
【選択図】図2
【特許請求の範囲】
【請求項1】
ユーザと他のユーザとの会話の音声データ、及び/または、前記ユーザと他のユーザとの間におけるチャットデータを取得する取得部と、
会話の音声データ及び/またはチャットデータに基づくデータを用いてユーザの人となりの情報であるプロファイルを予測する第1のモデルに、前記取得部によって取得された前記音声データ及び/または前記チャットデータに基づくデータを入力し、前記ユーザのプロファイルを予測する第1の予測部と、
前記ユーザのプロファイルの可視化データを作成する作成部と、
を有することを特徴とする処理装置。
【請求項2】
前記第1のモデルは、訓練対象のユーザから得られたアンケートの回答結果に基づくプロファイル分析結果を、教師データとした機械学習を用いて訓練されることを特徴とする請求項1に記載の処理装置。
【請求項3】
前記取得部によって取得された前記音声データ及び/または前記チャットデータを、所定の特徴量に変換する変換部
をさらに有し、
前記第1の予測部は、前記変換部によって変換された特徴量を前記第1のモデルに入力することを特徴とする請求項1に記載の処理装置。
【請求項4】
前記特徴量は、前記音声データ及び/または前記チャットデータの単語を数値ベクトルに変換した単語ベクトル系特徴量、前記音声データ及び/または前記チャットデータのうち感情を含む発話に関する感情系特徴量、及び/または、前記音声データ及び/または前記チャットデータに含まれる文のタイプを示す文タイプ系特徴量であることを特徴とする請求項3に記載の処理装置。
【請求項5】
会話の音声データ及び/またはチャットデータに基づくデータを用いてユーザの会話時またはチャット時の状態を予測する第2のモデルに、前記取得部によって取得された前記音声データ及び/または前記チャットデータに基づくデータを入力し、前記ユーザの会話時またはチャット時の状態を予測する第2の予測部
をさらに有し、
前記作成部は、前記ユーザの状態を示す可視化データを作成することを特徴とする請求項1に記載の処理装置。
【請求項6】
前記第2のモデルは、訓練対象のユーザから得られたアンケートの回答結果に基づく状態分析結果を、教師データとした機械学習を用いて訓練されることを特徴とする請求項5に記載の処理装置。
【請求項7】
前記取得部によって取得された前記音声データ及び/または前記チャットデータを、所定の特徴量に変換する変換部
をさらに有し、
前記第2の予測部は、前記変換部によって変換された特徴量を前記第2のモデルに入力することを特徴とする請求項5に記載の処理装置。
【請求項8】
前記特徴量は、前記音声データ及び/または前記チャットデータの単語を数値ベクトルに変換した単語ベクトル系特徴量、前記音声データ及び/または前記チャットデータのうち感情を含む発話に関する感情系特徴量、及び/または、前記音声データ及び/または前記チャットデータに含まれる文のタイプを示す文タイプ系特徴量であることを特徴とする請求項7に記載の処理装置。
【請求項9】
前記ユーザのプロファイルと、ロールモデルのプロファイルと比して、前記ユーザに不足する能力をリコメンドするリコメンド情報を作成するリコメンド部
をさらに有し、
前記作成部は、前記リコメンド情報の可視化データを作成することを特徴とする請求項1に記載の処理装置。
【請求項10】
処理装置が実行する処理方法であって、
ユーザと他のユーザとの会話の音声データ、及び/または、前記ユーザと他のユーザとの間におけるチャットデータを取得する工程と、
会話の音声データ及び/またはチャットデータに基づくデータを用いてユーザの人となりの情報であるプロファイルを予測する第1のモデルに、前記取得する工程において取得された音声データ及び/または前記チャットデータに基づくデータを入力し、前記ユーザのプロファイルを予測する工程と、
前記ユーザのプロファイルの可視化データを作成する工程と、
を含んだことを特徴とする処理方法。
【請求項11】
ユーザと他のユーザとの会話の音声データ、及び/または、前記ユーザと他のユーザとの間におけるチャットデータを取得するステップと、
会話の音声データ及び/またはチャットデータに基づくデータを用いてユーザの人となりの情報であるプロファイルを予測する第1のモデルに、前記取得するステップにおいて取得された音声データ及び/または前記チャットデータに基づくデータを入力し、前記ユーザのプロファイルを予測するステップと、
前記ユーザのプロファイルの可視化データを作成するステップと、
をコンピュータに実行させるための処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、処理装置、処理方法及び処理プログラムに関する。
【背景技術】
【0002】
従来、アンケートは、広く利用されている。例えば、多数の回答者から得られたアンケートの回答結果は、マーケティングや商品宣伝に利用される。また、あるユーザにアンケートを回答してもらうことによって、そのユーザの人となりの情報(プロファイル)を生成する方法もある。ユーザのプロファイルは、そのユーザに対する評価や、研修の選定等に利用される。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2020-087427号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
従来技術によって作成されるプロファイルは、ユーザによるアンケート回答に基づくものであり、ユーザの主観によるところが大きい。このため、従来の方法では、ユーザ本人が気づいていない、客観的にユーザのプロファイルを収集することができなかった。したがって、従来技術では、正しくユーザを評価することができない場合や、ユーザ自身の改善点が不明確であり、ユーザのパフォーマンス向上に繋げることができない場合があった。
【0005】
本発明は、上記に鑑みてなされたものであって、客観的にユーザのプロファイルを作成し、作成したプロファイルを可視化して提供することができる処理装置、処理方法及び処理プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上述した課題を解決し、目的を達成するために、処理装置は、ユーザと他のユーザとの会話の音声データ、及び/または、前記ユーザと他のユーザとの間におけるチャットデータを取得する取得部と、会話の音声データ及び/またはチャットデータに基づくデータを用いてユーザの人となりの情報であるプロファイルを予測する第1のモデルに、前記取得部によって取得された前記音声データ及び/または前記チャットデータに基づくデータを入力し、前記ユーザのプロファイルを予測する第1の予測部と、前記ユーザのプロファイルの可視化データを作成する作成部と、を有することを特徴とする。
【発明の効果】
【0007】
本発明によれば、客観的にユーザのプロファイルを作成し、作成したプロファイルを可視化して提供することができる。
【図面の簡単な説明】
【0008】
図1図1は、実施の形態に係る処理装置の処理を説明する図である。
図2図2は、実施の形態に係る処理装置の構成の一例を模式的に示す図である。
図3図3は、プロファイル予測モデル及び状態予測モデルの構築の一例について説明する図である。
図4図4は、プロファイル予測モデル及び状態予測モデルの構築の一例について説明する図である。
図5図5は、文タイプ系特徴量を示す図である。
図6図6は、感情系特徴量を示す図である。
図7図7は、プロファイル予測部が予測するユーザのプロファイル項目を示す図である。
図8図8は、リコメンド情報の一例を示す図である。
図9図9は、実施の形態における訓練処理の処理手順を示す図である。
図10図10は、実施の形態における予測処理の処理手順を示す図である。
図11図11は、プログラムを実行するコンピュータの一例を示す図である。
【発明を実施するための形態】
【0009】
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
【0010】
[実施の形態]
図1は、実施の形態に係る処理装置の処理を説明する図である。本実施の形態に係る処理装置10は、業務におけるコミュニケーション情報、例えば、ユーザと他のユーザとの会話の音声データ、及び/または、ユーザと他のユーザとの間におけるチャットデータを入力とする(図1の(1))。具体的には、処理装置10は、ユーザと他のユーザとのWeb会議での発言データD1、ユーザと他のユーザとの間におけるチャットでの発言データD2を入力とする。
【0011】
処理装置10は、入力された会話の音声データ及び/またはチャットデータに基づくデータを基に、発話者(ユーザ)のプロファイルを予測する(図1の(2))。処理装置10は、入力された会話の音声データ及び/またはチャットデータを基に、ユーザのプロファイルを予測するよう訓練されたプロファイル予測モデル(第1のモデル)を用いる。ユーザのプロファイルは、人となりの情報であり、例えば、ユーザの性格特性、ビジネススキル、技術スキル及び/またはコミュニケーションタイプ等を表す情報である。
【0012】
また、処理装置10は、ユーザと他のユーザとの会話の音声データ、及び/または、ユーザと他のユーザとの間におけるチャットデータに基づくデータを基に、ユーザの状態を予測する。処理装置10は、入力された会話の音声データ及び/またはチャットデータを基に、会話時またはチャット時のユーザの状態を予測するよう訓練された状態予測モデル(第2のモデル)を用いる。
【0013】
そして、処理装置10は、ユーザのプロファイル及び状態を可視化し(図1の(3))、可視化した可視化データを、ユーザやユーザが属する組織に提供する。例えば、ユーザが使用する棚末装置の画面には、ユーザ(社員A)の社員個人の能力・特性を示すプロファイル図30Aが表示される。プロファイル図30Aには、行動力、思考力、マインド、コミュニケーション力及びチャレンジの項目とその数値とを示すテーブル31、テーブル31の数値を項目ごとにグラフ化したグラフ32、コミュニケーションタイプ欄33、ユーザのメンタル状態欄34が表示される。
【0014】
さらに、処理装置10は、ユーザのプロファイルと、ロールモデルのプロファイルとを比較し、ユーザに不足する能力を具体的にはリコメンドする。
【0015】
[処理装置]
図2は、実施の形態に係る処理装置の構成の一例を模式的に示す図である。図2に示すように、処理装置10は、各種情報に関する通信を制御する通信部11、制御部13による各種処理に必要なデータおよびプログラムを格納する記憶部12、及び、種々の処理を実行する制御部13を有する。
【0016】
通信部11は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部11は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置(例えば、ユーザが使用する端末装置)と制御部13(後述)との間の通信を行う。
【0017】
記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の記憶装置である。なお、記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部12は、処理装置10で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部12は、プログラムの実行で用いられる各種情報を記憶する。
【0018】
記憶部12は、ユーザ情報121、音声データ122、チャットデータ123、特徴量情報124、アンケート分析結果125、事後アンケート結果126及びリコメンド作成用情報127を記憶する。
【0019】
ユーザ情報121は、各ユーザの識別情報、属性、所属先、ビジネススキル、技術スキル、業務履歴、過去の処理装置10による予測結果、アンケート回答等を含む。
【0020】
音声データ122は、ユーザ間の会話の音声データであり、例えば、Web会議の音声データである。音声データ122は、予測対象であるユーザと他のユーザとの会話の音声データである。また、音声データ122は、プロファイル予測モデル1331(後述)及び状態予測モデル1341(後述)の訓練用データとして、訓練対象のユーザと他のユーザとの間で行われた会話の音声データを含む。
【0021】
チャットデータ123は、ユーザ間のチャットデータである。チャットデータ123は、予測対象であるユーザと他のユーザとの間のチャットデータを含む。音声データ122は、プロファイル予測モデル1331及び状態予測モデル1341の訓練用データとして、訓練対象のユーザと他のユーザとの間で行われたチャットデータを含む。
【0022】
特徴量情報124は、ユーザ間の会話の音声データの特徴量、及び/または、ユーザ間のチャットデータの特徴量である。特徴量は、例えば、音声データ及び/またはチャットデータの単語を数値ベクトルに変換した単語ベクトル系特徴量、音声データ及び/またはチャットデータのうち感情を含む発話に関する感情系特徴量、及び/または、音声データ及び/またはチャットデータに含まれる文のタイプを示す文タイプ系特徴量である。
【0023】
アンケート分析結果125は、情報収集対象者に対して実施されたアンケートのアンケート回答に基づくプロファイル分析結果である。例えば、アンケート項目として、属性、心理、ヘルスケア、認知バイアスに関する各種項目が設定される。アンケート分析結果125は、例えば、人間情報データベース(登録商標)等が分析した情報収集対象者のプロファイルを含み、プロファイル項目として、行動力、思考力、マインド、コミュニケーション力及びチャレンジの大カテゴリがある。そして、大カテゴリには、プロファイル項目が設定されており、例えば、行動力には、スピード、リーダーシップのプロファイル項目がある。
【0024】
アンケート分析結果125は、アンケートの質問及び回答の文言から変換された各種特徴量と、分析結果である情報収集対象者のプロファイルとが対応付けられたものである。特徴量は、例えば、単語ベクトル系特徴量、感情系特徴量、文タイプ系特徴量である。なお、これらのアンケート回答のうち、個人情報に関する回答については匿名加工等の処理が実行されている。
【0025】
事後アンケート結果126は、訓練対象のユーザと他のユーザとの間の会話(例えば、Web会議)及び/またはチャットの後に、会話及び/またはチャットを実際に行ったユーザに対して、会話及び/またはチャット後に実施されたアンケートの回答結果に基づく状態分析結果である。例えば、アンケート項目として、属性、心理、ヘルスケア、認知バイアスに関する各種項目が設定される。
【0026】
事後アンケート結果126は、アンケートの質問及び回答の文言から変換された各種特徴量と、アンケートに回答したユーザの状態とが、ユーザ毎に対応付けられたものである。特徴量は、例えば、単語ベクトル系特徴量、感情系特徴量、文タイプ系特徴量である。事後アンケート結果126は、状態予測モデル1341の訓練時に使用される。なお、これらのアンケート回答のうち、個人情報に関する回答については匿名加工等の処理が実行されている。
【0027】
リコメンド作成用情報127は、ユーザに不足する能力をリコメンドするリコメンド情報が作成される際に使用されるデータである。リコメンド作成用情報127には、例えば、能力ごとに、所定の閾値或いは比較対象のロールモデルの能力値よりも下回る場合に提示すべきリコメンド情報が予め設定される。リコメンド情報は、ユーザの能力向上のために、ユーザに推奨する具体的な方法を含む情報である。リコメンド情報は、例えば、コミュニケーション力が不足するユーザについては、このユーザが参加するWeb会議中において、所定期間ユーザの発言がない場合には、ユーザが使用する端末装置に、発言を働きかける表示を実行させる等の制御情報を含む。
【0028】
制御部13は、処理装置10全体を制御する。制御部13は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部13は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部13は、各種のプログラムが動作することにより各種の処理部として機能する。
【0029】
制御部13は、取得部131、特徴量変換部132(変換部)、プロファイル予測部133(第1の予測部)、状態予測部134(第2の予測部)、可視化データ作成部136(作成部)、リコメンド部137及び訓練部138を有する。
【0030】
取得部131は、予測処理時には、予測対象であるユーザと他のユーザとの会話の音声データ、及び/または、予測対象であるユーザと他のユーザとの間におけるチャットデータを取得する。取得部131は、プロファイル予測モデル1331及び状態予測モデル1341の訓練時には、プロファイル予測モデル1331及び状態予測モデル1341の訓練用データとしてとして、訓練対象のユーザと他のユーザとの間で行われた会話の音声データ、及び/または、訓練対象のユーザと他のユーザとの間で行われたチャットデータを取得する。この際、取得部131は、会話データ及び/またはチャットデータの発言が、予測対象であるユーザ及び他のユーザのいずれによる発言であるか、誰から誰に対する発言であるかを分類した上で、特徴量変換部132に出力する。
【0031】
特徴量変換部132は、取得部131が取得した音声データ及び/またはチャットデータを、所定の特徴量に変換する。特徴量変換部132は、音声データ及び/またはチャットデータのうち、予測対象であるユーザによる発言についてのみ特徴量変換を行う他、ユーザ及び他のユーザの発言の双方について特徴量変換を行う。そして、特徴量変換部132は、各特徴量に、この特徴量に対応する発言が、予測対象であるユーザ及び他のユーザのいずれによる発言であるか、誰から誰に対する発言であるかを示すfrom-to情報を付与する。
【0032】
特徴量変換部132は、例えば、音声データ及び/またはチャットデータを単語ベクトル系特徴量に変換する。特徴量変換部132は、音声データ及び/またはチャットデータのうち感情を含む発話に関する感情系特徴量を取得する。特徴量変換部132は、例えば、音声データ及び/またはチャットデータを基に、音声データ及び/またはチャットデータに含まれる文のタイプを示す文タイプ系特徴量を取得する。文タイプ系特徴量は、情報提供、情報獲得及び指示に対応する特徴量を含む。
【0033】
プロファイル予測部133は、取得部131が取得した音声データ及び/またはチャットデータに基づくデータを用いて、予測対象であるユーザのプロファイルを予測する。プロファイル予測部133は、会話の音声データ及び/またはチャットデータに基づくデータを用いてユーザのプロファイルを予測するプロファイル予測モデル1331を有する。
【0034】
プロファイル予測部133は、取得部131が取得した予測対象のユーザの音声データ及び/またはチャットデータに基づくデータを、プロファイル予測モデル1331に入力する。
【0035】
プロファイル予測部133は、特徴量変換部132によって変換された特徴量を、プロファイル予測モデル1331に入力する。プロファイル予測モデル1331に入力される各特徴量は、この特徴量に対応する発言が、誰から誰に対する発言であるかを示す情報が付与されている。このため、プロファイル予測モデル1331は、特徴量に付与された情報を基に、どのユーザ間がつながるかを判別することができる。プロファイル予測モデル1331は、入力された各特徴量を基に、ユーザのプロファイルを予測する。プロファイル予測部133は、プロファイル予測モデル1331から出力された、予測対象のユーザのプロファイルを取得する。
【0036】
プロファイル予測モデル1331は、例えば、訓練対象のユーザから得られたアンケートの回答結果に基づくプロファイル分析結果を、教師データとした、機械学習を用いて訓練される。教師データは、会話及び/またはチャットを実際に行った訓練対象のユーザに対して、会話及び/またはチャット後に実施されたアンケートの回答結果を、人間情報データベース等が分析したユーザのプロファイルである。教師データは、例えば、アンケート分析結果125である。アンケート分析結果125は、例えば、アンケートの質問及び回答の文言から変換された各種特徴量と、分析結果であるユーザのプロファイルとが対応付けられたものである。
【0037】
状態予測部134は、取得部131が取得した音声データ及び/またはチャットデータに基づくデータを用いて、予測対象であるユーザの会話時またはチャット時の状態を予測する。状態予測部134は、会話の音声データ及び/またはチャットデータに基づくデータを用いてユーザの会話時またはチャット時の状態を予測する状態予測モデル1341を有する。
【0038】
状態予測部134は、取得部131が取得した予測対象のユーザの音声データ及び/またはチャットデータに基づくデータを、状態予測モデル1341に入力する。状態予測部134は、特徴量変換部132によって変換された特徴量を、状態予測モデル1341に入力する。状態予測モデル1341に入力される各特徴量は、この特徴量に対応する発言が、誰から誰に対する発言であるかを示す情報が付与されている。このため、状態予測モデル1341は、特徴量に付与された情報を基に、どのユーザ間がつながるかを判別することができる。状態予測モデル1341は、入力された各特徴量を基に、ユーザの状態を予測する。状態予測部134は、状態予測モデル1341から出力された、予測対象のユーザの状態を取得する。
【0039】
ユーザの状態を示す項目として、例えば、エンゲージメント、仕事満足度、健康、人間関係、居心地の良さ、の5項目が設定される。状態予測モデル1341は、ユーザの状態として、項目ごとに、スコアを算出し、算出した各項目のスコアを出力する。また、状態予測モデル1341は、スコアではなく、スコアに対応するレベル(例えば、5段階のうちの該当する段階や、良好、普通、または、不良など)を出力してもよい。
【0040】
状態予測モデル1341は、例えば、訓練対象のユーザから得られた事後アンケートの回答結果に基づく状態分析結果を、教師データとした、機械学習を用いて訓練される。教師データは、会話及び/またはチャットを実際に行った訓練対象のユーザに対して、会話及び/またはチャット後に実施された事後アンケートの回答結果を、人間情報データベース等が分析したユーザの状態である。教師データは、例えば、事後アンケート結果126である。事後アンケート結果126は、例えば、アンケートの質問及び回答の文言から変換された各種特徴量と、分析結果であるユーザのプロファイルとが対応付けられたものである。
【0041】
可視化データ作成部136は、プロファイル予測部133によって予測されたユーザのプロファイルの可視化データを作成する。可視化データ作成部136は、状態予測部134によって予測されたユーザの状態を示す可視化データを作成する。可視化データ作成部136は、作成した可視化データを、例えば、予測対象のユーザが使用する端末装置に表示出力させる。
【0042】
可視化データ作成部136は、例えば、図1に示すように、行動力、思考力、マインド、コミュニケーション力及びチャレンジの項目とその数値とを示すテーブル31、テーブル31の数値を項目ごとにグラフ化したグラフ32、コミュニケーションタイプ欄33、ユーザのメンタル状態欄34が表示されるプロファイル図30Aを作成する。また、可視化データ作成部136は、リコメンド部137(後述)によって作成されたリコメンド情報の可視化データを作成し、作成した可視化データを、例えば、予測対象のユーザが使用する端末装置に表示出力させる。
【0043】
リコメンド部137は、予測対象のユーザのプロファイルと、ロールモデルのプロファイルとを比較して、ユーザに不足する能力をリコメンドするリコメンド情報を作成する。リコメンド部137は、リコメンド作成用情報127を参照し、ユーザに不足する能力に対応するリコメンド情報を作成する。リコメンド部137は、ユーザのプロファイルと、ロールモデルのプロファイルとが入力されると、ユーザに不足する能力を示すとともに、ユーザに不足する能力を向上させるために要する具体的な内容を出力するよう訓練されたモデルを用いてもよい。
【0044】
訓練部138は、プロファイル予測モデル1331を、例えば、訓練対象ユーザから得られたアンケートの回答結果に基づくプロファイル分析結果を、教師データとした機械学習を用いて訓練する。また、訓練部138は、例えば、状態予測モデルは、訓練対象のユーザから得られたアンケート(例えば、事後アンケート結果126)の回答結果に基づく状態分析結果を、教師データとした機械学習を用いて訓練する。
【0045】
[モデル構築]
図3及び図4は、プロファイル予測モデル1331及び状態予測モデル1341の構築の一例について説明する図である。プロファイル予測モデル1331及び状態予測モデル1341の構築において、例えば、人間情報データベースを用いたアンケートと、1on1ミーティングでの会話から取得した文字起こしファイルに基づく特徴量とを用いる。
【0046】
具体的には、教師データとして使用するために、ユーザMに、プロファイル取得用のWebアンケートを実施し、その回答を取得する(図3の(1))。この回答を基に、ユーザMのプロファイルが分析される。処理装置10は、分析されたユーザMのプロファイルを、プロファイル予測モデル1331の教師データとして取得する。
【0047】
続いて、処理装置10は、ユーザMと他のユーザとの間のWeb会議データを取得する(図3の(2))。例えば、ユーザMがフォロワーであり、他のユーザがファシリテータとして参加する1on1ミーティングを実施し、各ユーザの発話の音声データを取得する。その後、ユーザM及びファシリテータであるユーザに対し、メンタル等の状態について事後アンケートをWeb上で実施し、その回答を基にユーザMの状態を取得する(図3の(3))。処理装置10は、事後アンケートの回答を基に取得したユーザMの状態を、状態予測モデル1341の教師データとする。
【0048】
そして、処理装置10は、取得したWeb会議での音声データを特徴量に変換する(図3の(4))。処理装置10は、変換した特徴量をプロファイル予測モデル1331及び状態予測モデル1341に入力する。
【0049】
プロファイル予測モデル1331は、入力された音声データの特徴量を基に、ユーザMのプロファイルを予測する。処理装置10は、プロファイル予測モデル1331によるユーザMのプロファイル予測結果が、ユーザMのアンケートの回答によって取得したユーザMのプロファイルに近づくように、プロファイル予測モデル1331のパラメータの更新を行う。
【0050】
また、状態予測モデル1341は、入力された音声データの特徴量を基に、ユーザMの状態を予測する。処理装置10は、状態予測モデル1341によるユーザMの状態予測結果が、事後アンケートの回答を基に取得したユーザMの状態に近づくように、状態予測モデル1341のパラメータの更新を行う。
【0051】
処理装置10は、ユーザM以外の他のユーザについても同様に、アンケートによって取得されたプロファイル、Web会議等の会話データ、事後アンケートによって取得された状態を用いて、プロファイル予測モデル1331及び状態予測モデル1341のパラメータを更新する。このように、処理装置10は、プロファイル予測モデル1331及び状態予測モデル1341を構築する(図3の(5))。
【0052】
この際、処理装置10では、プロファイル予測モデル1331及び状態予測モデル1341については、複数の入力データのパターンに対して複数の機械学習アルゴリズムで精度検証し、予測精度が一番良いモデルを採用した。
【0053】
具体的には、プロファイル予測モデル1331及び状態予測モデル1341への入力データのパターンとして、単語ベクトル系特徴量のみ、感情系特徴量のみ、文タイプ系特徴量のみ、単語ベクトル系特徴量と感情系特徴量と文タイプ系特徴量との全ての4パターンに分けて、特徴量を入力する(図4の(1))。また、プロファイル予測モデル1331及び状態予測モデル1341の訓練において、教師データとして、訓練対象のユーザのプロファイル分析結果及び訓練対象のユーザの状態が用いられる。
【0054】
そして、これらの4パターンの入力データに対し、プロファイル予測モデル1331及び状態予測モデル1341をそれぞれ構築し(図4の(2))、予測及び検証を行う(図4の(3))。モデルの構築では、複数のアルゴリズムを用いて、プロファイル予測モデル1331及び状態予測モデル1341を構築する。例えば、木系アルゴリズムを重点的に用いて各モデルを構築する。
【0055】
そして、処理装置10では、入力する特徴量のパターンと、各アルゴリズムで構築した予測モデルの予測精度を比較し、予測精度が最もよいプロファイル予測モデル1331及び状態予測モデル1341を採用する。
【0056】
[特徴量]
次に、特徴量変換部132が変換する特徴量について説明する。処理装置10において、特徴量として、自然言語処理のモデルであるWord2Vec及びBERT(Bidirectional Encoder Representations from Transformers)を用いて変換した単語ベクトル系特徴量、文タイプ判定器(例えば、“COTOHA-API”, [online],[令和4年4月6日検索],インターネット<URL:https://api.ce-cotoha.com/contents/api-all.html>参照)を用いて判定した文タイプ系特徴量、感情分析器(例えば、“COTOHA-API”, [online],[令和4年4月6日検索],インターネット<URL:https://api.ce-cotoha.com/contents/api-all.html>参照)を用いて分析した感情系特徴量を採用した。
【0057】
特徴量変換部132は、Word2Vecを用いて、音声データ及びチャットデータに含まれる各単語に対し固定長(100次元、300次元)のベクトル量を付与した。特徴量変換部132では、計算に利用する品詞パターンについて、全品詞、名詞と形容詞と動詞、名詞と形容詞、形容詞と動詞、名詞と動詞、名詞のみ、形容詞のみ、動詞のみ、の8通りを用いた。
【0058】
特徴量変換部132は、BERTを用いて、音声データ及びチャットデータに含まれる各単語に対し固定長(768次元)のベクトル量を付与する。BERTは、文脈も考慮したベクトル量付与が可能である。
【0059】
図5は、文タイプ系特徴量を示す図である。特徴量変換部132は、文タイプ特徴量として、図5に示すように、音声データ及びチャットデータに含まれる各文に対し、文の法(叙述/質問/命令)タイプと、挨拶、情報提供などの発話行為タイプとの22次元をラベル付けする。
【0060】
図6は、感情系特徴量を示す図である。特徴量変換部132は、感情系特徴量として、図6に示すように、音声データ及びチャットデータのうち、発話相手への各発言に、19次元の感情をラベル付けする。ラベルには、Positive、Negative、PositiveかつNegativeに加え、喜ぶ、驚く等の特定の感情に対応するラベルがある。特徴量変換部132は、発話相手への総発言数をカウントし、各発言に付与されたラベルを基に、「Positiveの割合」、「Negativeの割合」等を計算してもよい。
【0061】
[プロファイル]
図7は、プロファイル予測部133が予測するユーザのプロファイル項目を示す図である。図7に示すように、大カテゴリとして、行動力、思考力、マインド、コミュニケーション力、チャレンジがある。各大カテゴリには、それぞれプロファイル項目が設定されており、例えば、行動力には、スピード、リーダーシップのプロファイル項目がある。プロファイル予測部133は、図7に示すプロファイル項目の各項目についてプロファイルを予測する。
【0062】
可視化データ作成部136は、図1のプロファイル図30Aに例示するように、大カテゴリごとの予測値及び第カテゴリの数値のグラフとともに、プロファイル予測部133が予測したコミュニケーションタイプ、状態予測部134が予測したユーザの状態を含む可視化データを作成する。可視化データ作成部136は、この際、大カテゴリの一つが選択された場合には、例えば、ポップアップ等によって、大カテゴリに設定された各プロファイル項目の数値が表示されるようにしてもよい。
【0063】
また、可視化データ作成部136は、ユーザが使用する端末装置からの指示情報にしたがって、各ユーザのプロファイル及び/または状態を、カテゴリ或いはプロファイル項目ごと、または、複数のカテゴリ或いはプロファイル項目を組み合わせて、順位付けを行い、その順位順に各ユーザの識別情報を表示した可視化データを作成してもよい。可視化データ作成部136は、ユーザ等が端末装置を介して、順位順に表示されたいずれかのユーザが選択されると、選択されたユーザのプロファイル図の可視化データを作成して、端末装置に表示させる。
【0064】
[リコメンド]
図8は、リコメンド情報の一例を示す図である。図8に示すように、プロファイル予測部133は、ユーザのプロファイルを予測するとともに(図8の(1))、ロールモデルのプロファイルを予測する(図8の(2))。
【0065】
そして、リコメンド部137は、20個のプロファイル項目からなるベクトルの類似度を比較し、ユーザと、ロールモデルとの差が大きい項目をリコメンドするリコメンド情報を作成する(図8の(3))。例えば、リコメンド部137は、図1に例示するプロファイル図30Aが、ユーザが使用するユーザ端末に表示されている際に、このユーザとロールモデルとの差が大きい項目を示すコメントC1をポップアップ表示させる。この際、リコメンド部137は、コメントC1に示すように、「リーダーシップ」でロールモデルとの間に差があることを加えて、「もっと△△△△するようにしてみましょう。」という、ユーザに不足する能力を向上させるために要する具体的な内容をリコメンドする。
【0066】
[訓練処理]
図9は、実施の形態における訓練処理の処理手順を示す図である。図9に示すように、処理装置10では、取得部131が、訓練に必要となる各種データを取得する(ステップS1)。例えば、取得部131は、訓練対象のユーザの音声データ及び/またはチャットデータを取得するとともに、訓練対象のユーザから得られたアンケートの回答結果に基づくプロファイル分析結果及び状態分析結果を教師データとして取得する。
【0067】
特徴量変換部132が、ステップS1において取得された、訓練対象のユーザの音声データ及び/またはチャットデータ、所定の特徴量に変換する(ステップS2)。ステップS2において変換された特徴量は、プロファイル予測モデル1331及び状態予測モデル1341に入力される。
【0068】
プロファイル予測部133では、プロファイル予測モデル1331が、入力された特徴量を基に、訓練対象のユーザのプロファイルを予測する(ステップS3)。訓練部138は、ステップS3における予測結果が、教師データである訓練対象のユーザから得られたアンケートの回答結果に基づくプロファイル分析結果に近づくように、プロファイル予測モデル1331のパラメータの更新を行う(ステップS4)。
【0069】
状態予測部134では、状態予測モデル1341が、入力された特徴量を基に、訓練対象のユーザの状態を予測する(ステップS5)。訓練部138は、ステップS5における予測結果が、教師データである訓練対象のユーザから得られたアンケートの回答結果に基づく状態分析結果に近づくように、状態予測モデル1341のパラメータの更新を行う(ステップS6)。
【0070】
訓練部138は、所定の終了条件を満たすか否かを判定する(ステップS7)。終了条件は、例えば、予測結果と教師データとの間の差が所定の閾値以下となった場合、パラメータの更新回数が所定の回数に到達した場合、パラメータ更新量が所定の閾値以下となった場合などである。
【0071】
所定の終了条件を満たす場合(ステップS7:Yes)、訓練部138は、この訓練対象のユーザについて、プロファイル予測モデル1331及び状態予測モデル1341の訓練を終了する。一方、所定の終了条件を満たさない場合(ステップS7:No)、訓練部138は、ステップS3及びステップS5に戻り、プロファイル予測モデル1331及び状態予測モデル1341の訓練を継続する。
【0072】
[予測処理]
図10は、実施の形態における予測処理の処理手順を示す図である。図10に示すように、処理装置10では、取得部131が、予測対象のユーザの音声データ及び/またはチャットデータを取得する(ステップS11)。
【0073】
特徴量変換部132が、ステップS11において取得された、予測対象のユーザの音声データ及び/またはチャットデータ、所定の特徴量に変換する(ステップS12)。ステップS12において変換された特徴量は、プロファイル予測モデル1331及び状態予測モデル1341に入力される。
【0074】
プロファイル予測部133では、プロファイル予測モデル1331が、入力された特徴量を基に、予測対象のユーザのプロファイルを予測する(ステップS13)。状態予測部134では、状態予測モデル1341が、入力された特徴量を基に、予測対象のユーザの状態を予測する(ステップS14)。
【0075】
可視化データ作成部136は、プロファイル予測部133によって予測されたユーザのプロファイル、及び、状態予測部134によって予測されたユーザの状態を示す可視化データを作成する(ステップS15)。
【0076】
リコメンド部137は、予測対象のユーザのプロファイルと、ロールモデルのプロファイルとを比較して、ユーザに不足する能力をリコメンドするリコメンド情報を作成する(ステップS16)。
【0077】
制御部13は、通信部11を介して、可視化データ作成部136及びリコメンド部137が作成したデータを、例えば、予測対象のユーザが使用するユーザ端末に出力する(ステップS17)。処理装置10は、ユーザ端末のほか、ユーザが所属する組織が使用するサーバや、処理装置10に接続するディスプレイ等に、データを出力してもよい。
【0078】
[実施の形態の効果]
実施の形態に係る処理装置10は、業務におけるコミュニケーション情報、例えば、ユーザと他のユーザとの会話の音声データ、及び/または、ユーザと他のユーザとの間におけるチャットデータに基づくデータを基に、発話者であるユーザのプロファイルを予測する。処理装置10は、ユーザのプロファイル及び状態を可視化し、可視化した可視化データを、ユーザやユーザが属する組織に提供する。
【0079】
このように、処理装置10は、客観的にユーザのプロファイルを予測し、予測したプロファイルを可視化して提供する。処理装置10は、ユーザのプロファイル、言い換えると、ユーザ自身も気づいていないユーザの内面を可視化して提供する。このため、ユーザや組織は、ユーザのプロファイルを基に、ユーザを適切に評価することができる。また、ユーザや組織は、ユーザのプロファイルを基に、ユーザの改善点を客観的に把握することができる。これによって、ユーザや組織は、ユーザ自身が気づいていなかった新たな観点からユーザのパフォーマンス向上の具体的な対策を行うことができる。また、組織は、ユーザのパフォーマンスを発揮できる職種や部署への異動についても、適切に検討することができる。
【0080】
また、処理装置10は、Web会議やチャットの発言など日々積み重ねられていく組織内でのコミュニケーション情報から、ユーザのプロファイルを予測する。このため、ユーザ自身がプロファイル予測のためにアンケートに回答する等の煩雑な処理を行わずとも、ユーザや組織はユーザのプロファイルを簡易に取得することができる。
【0081】
また、処理装置は、ユーザと他のユーザとの会話の音声データ、及び/または、ユーザと他のユーザとの間におけるチャットデータに基づくデータを基に、ユーザの状態を予測する。そして、処理装置10は、ユーザのプロファイル及び状態を可視化し、可視化した可視化データを、ユーザやユーザが属する組織に提供する。
【0082】
このように、ユーザや組織は、処理装置10によって提供されたユーザの状態を基に、ユーザの日ごとの変化を求め、状態スコアの低い日の行動を見直すことで、パフォーマンスの安定化につなげることができる。
【0083】
さらに、処理装置10は、ユーザのプロファイルと、ロールモデルのプロファイルとを比較し、ユーザに不足する能力を具体的にリコメンドする。ユーザや組織は、リコメンドの内容を基に、ユーザのパフォーマンス向上の具体的な対策を迅速に行うことができる。
【0084】
以上のように、処理装置10は、可視化したユーザのプロファイル及び状態を、ユーザ個人や組織に提供することによって、ユーザ個人や組織が抱える多様な課題の解決を支援することができる。
【0085】
また、処理装置10は、音声データ及び/またはチャットデータを、所定の特徴量に変換し、変換した特徴量を、プロファイル予測モデル1331及び状態予測モデル1341に入力して、ユーザのプロファイル及び状態を予測する。このように、処理装置10は、音声データ及び/またはチャットデータを、予測に適した特徴量に加工し、プロファイル予測モデル1331及び状態予測モデル1341に入力することで、安定した予測精度を保持することができる。
【0086】
また、処理装置10は、プロファイル予測モデル1331を、訓練対象のユーザから得られたアンケートの回答結果に基づくネットワーク分析結果を、教師データとした機械学習を用いて訓練する。そして、処理装置10は、状態予測モデル1341を、訓練対象のユーザから得られたアンケートの回答結果に基づく状態分析結果を、教師データとした機械学習を用いて訓練する。このように、処理装置10は、プロファイル予測モデル1331及び状態予測モデル1341を適切に訓練するため、プロファイル予測及び状態予測の精度を適切に保持することができる。
【0087】
[実施の形態のシステム構成について]
処理装置10の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、処理装置10の機能の分散及び統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散または統合して構成することができる。
【0088】
また、処理装置10においておこなわれる各処理は、全部または任意の一部が、CPU、GPU(Graphics Processing Unit)、及び、CPU、GPUにより解析実行されるプログラムにて実現されてもよい。また、処理装置10においておこなわれる各処理は、ワイヤードロジックによるハードウェアとして実現されてもよい。
【0089】
また、実施の形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的に行うこともできる。もしくは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上述及び図示の処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて適宜変更することができる。
【0090】
[プログラム]
図11は、プログラムが実行されることにより、処理装置10が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
【0091】
メモリ1010は、ROM1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
【0092】
ハードディスクドライブ1090は、例えば、OS(Operating System)1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、処理装置10の各処理を規定するプログラムは、コンピュータ1000により実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、処理装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
【0093】
また、上述した実施の形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
【0094】
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
【0095】
以上、本発明者によってなされた発明を適用した実施の形態について説明したが、本実施の形態による本発明の開示の一部をなす記述及び図面により本発明は限定されることはない。すなわち、本実施の形態に基づいて当業者等によりなされる他の実施の形態、実施例及び運用技術等は全て本発明の範疇に含まれる。
【符号の説明】
【0096】
10 処理装置
11 通信部
12 記憶部
13 制御部
121 ユーザ情報
122 音声データ
123 チャットデータ
124 特徴量情報
125 アンケート分析結果
126 事後アンケート結果
127 リコメンド作成用情報
131 取得部
132 特徴量変換部
133 プロファイル予測部
134 状態予測部
136 可視化データ作成部
137 リコメンド部
138 訓練部
1331 プロファイル予測モデル
1341 状態予測モデル
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11