(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022139047
(43)【公開日】2022-09-26
(54)【発明の名称】拡張現実空間におけるジョブマッチング方法
(51)【国際特許分類】
G06Q 10/10 20120101AFI20220915BHJP
【FI】
G06Q10/10 322
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2021039259
(22)【出願日】2021-03-11
(71)【出願人】
【識別番号】319005833
【氏名又は名称】ミイダス株式会社
(74)【代理人】
【識別番号】110002790
【氏名又は名称】One ip弁理士法人
(72)【発明者】
【氏名】東海林 勝進
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049AA11
(57)【要約】 (修正有)
【課題】不特定の人材の中から優秀な人材を予測する方法を提供する。
【解決手段】拡張現実空間において人材を評価するジョブマッチング方法であって、撮像された現実空間に表示された人材の画像データ及び/または音声データを受信し、受信した画像データ及び/または音声データを基に人材の評価情報を生成し、前記評価情報を、撮像された現実空間に、人材とともに表示させる。
【選択図】
図7
【特許請求の範囲】
【請求項1】
拡張現実空間において人材を評価するジョブマッチング方法であって、
撮像された現実空間に表示された人材の画像データ及び/または音声データを受信し、
前記受信した画像データ及び/または音声データを基に前記人材の評価情報を生成し、
前記評価情報を、前記撮像された現実空間に、前記人材とともに表示させる方法。
【請求項2】
前記評価情報は、他の人材の画像データ及び/または音声データ、及び評価データを基に評価することを特徴とする、請求項1に記載の方法。
【請求項3】
前記評価データは、年収、パフォーマンス、職歴、経歴のいずれかを含む、請求項1に記載の方法。
【請求項4】
前記人材の転職ステータス情報を受信し、
前記転職ステータス情報に基づいて、前記人材を識別させるよう表示させる、請求項1に記載の方法。
【請求項5】
求人者端末から求人情報を受信し、
前記求人情報に含まれる条件を基に、前記条件にマッチする人材を識別させるよう表示させる、請求項1に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、拡張現実空間におけるジョブマッチング方法に関する。
方法に関する。
【背景技術】
【0002】
従来、人材評価の手法として様々な方法が用いられている。
【0003】
例えば、特許文献1において、適性検査結果等の特徴情報と上司による評価等の成果情報を基にその人材のパフォーマンスを予測する方法が開示されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1において開示される方法は、特定の人材について予め取得された情報に基づいてその人材に関するパフォーマンスの予測を行うことを実現可能なものの、不特定の人材の中から優秀な人材を発掘することは困難である。
【0006】
そこで、本発明は、不特定の人材の中から優秀な人材を予測する方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の一の実施形態において、拡張現実空間において人材を評価するジョブマッチング方法であって、撮像された現実空間に表示された人材の画像データ及び/または音声データを受信し、前記受信した画像データ及び/または音声データを基に前記人材の評価情報を生成し、前記評価情報を、前記撮像された現実空間に、前記人材とともに表示させる。
【発明の効果】
【0008】
本発明によれば、不特定の人材の中から優秀な人材を予測する方法を提供することを実現することができる。
【図面の簡単な説明】
【0009】
【
図1】第1の実施形態に係るシステム構成図を示す。
【
図2】第1の実施形態に係るサーバの機能構成図を示す。
【
図3】第1の実施形態に係るユーザ端末の機能構成図を示す。
【
図4】第1の実施形態に係る求人者端末の機能構成図を示す。
【
図5】第1の実施形態に係るユーザデータの一例を示す。
【
図6】第1の実施形態に係る求人者データの一例を示す。
【
図7】第1の実施形態に係る、ジョブマッチング方法のフローチャートの一例を示す。
【
図8】第1の実施形態に係る、求人者端末に表示される画面の一例を示す。
【
図9】第2の実施形態に係る、ジョブマッチング方法のフローチャートの一例を示す。
【
図10】第2の実施形態に係る、求人者端末に表示される画面の一例を示す。
【0010】
<第1実施形態>
本発明の第1実施形態に係るジョブマッチング方法の具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
【0011】
図1に、本発明の第1の実施形態に係るシステム構成図を示す。
図1に示すように、本実施形態に係るシステムは、サーバ端末100と、サーバ端末100に、インターネット等のネットワークを介して接続される、ユーザ端末200と求人者端末300とを含む。
図1には、説明の便宜上ユーザ端末200及び求人者端末300を代表例として例示するが、任意の数のユーザ端末及び求人者端末がネットワークに接続可能である。また、本実施形態において、求人者端末300は、求人者ユーザに装着され、ディスプレイを介して拡張現実空間を表示させる、例えば、スマートグラスを想定して以下説明するが、これに限定されず、ヘッドマウントディスプレイやスマートフォンのような情報端末であってもよい。
【0012】
サーバ端末100は、求人者端末200を装着する求人者ユーザに対し、現実空間に表示された不特定のユーザ(以下、「人材」という)のうち、特定のユーザの評価情報を生成し、人材とともに評価情報を表示させることを可能とするサービスを提供することができる。
【0013】
例えば、求人者ユーザは、外を歩きながら、スマートグラス内蔵のカメラにより撮像された人材の各々について、スマートグラスに内蔵されたディスプレイを介して評価情報を視認することができる。
【0014】
例えば、求人者ユーザは、求人者端末300に、サーバ端末100または他のプラットフォームから本サービスアプリケーションをダウンロードし、アプリケーションを介して、サーバ端末100と本サービスに関するデータを送受信することができる。または、求人者ユーザは、求人者端末300に内蔵されたWebブラウザにより、サーバ端末100に格納されるWebアプリケーションにアクセスすることにより、本サービスに関するデータを送受信することもできる。以下の実施形態においては、例示として、ダウンロードされたアプリケーションを介した本サービスの提供方法について説明する。
【0015】
ユーザ端末200は、潜在的な求職者(本実施形態においては、「人材」として説明する)に関連する端末を想定しており、例えばスマートフォン、タブレット、携帯端末その他情報端末としてもよいし、ワークステーションやパーソナルコンピュータのような汎用コンピュータであってもよい。
【0016】
ユーザ端末200は、潜在的な求職者(本実施形態においては、「人材」として説明する)に関連する端末を想定しており、例えば、スマートグラス、ヘッドマウントディスプレイ等の、ユーザの身体に装着し得るウェアラブルデバイスであってもよい。または、スマートフォン、タブレット、携帯端末その他情報端末としてもよいし、ワークステーションやパーソナルコンピュータのような汎用コンピュータであってもよい。
【0017】
図2は、第1実施形態に係るサーバの機能構成図を示す。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。
【0018】
図示されるように、サーバ端末100は、データベース(図示せず)と接続されシステムの一部を構成する。サーバ端末100は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
【0019】
サーバ端末100は、少なくとも、通信部110、記憶部120、制御部130、等を備え、これらはバスを通じて相互に電気的に接続される。
【0020】
制御部130は、サーバ端末100全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えば制御部10はCPU(Central Processing Unit)であり、記憶部120に格納され展開されたプログラム等を実行して各情報処理を実施する。
【0021】
制御部130は、さらに、ユーザ端末200または求人者端末300からリクエストまたはデータ等の情報を受け付ける情報受付部131、人材の画像データまたは音声データを解析し、解析した画像データ等を基にその人材の評価情報を生成する評価情報生成部132、求人者と人材とのマッチングを処理するマッチング処理部133等を有する。
【0022】
記憶部120は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、サーバ端末100の起動時に実行されるBIOS(Basic Input/Output System)、及び各種設定情報等を格納する。また、各処理に用いられるデータを格納したデータベース(図示せず)が記憶部120またはサーバ端末100外部に構築されていてもよい。
【0023】
記憶部120は、さらに、人材に関連するデータを格納するユーザデータ格納部121、求人者に関連するデータを格納する求人者データ格納部122、ユーザから取得した顔または容姿の画像及び/または音声に基づいて生成した学習モデルを格納する学習モデル格納部123を有する。
【0024】
通信部110は、サーバ端末100をネットワークに接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インターフェースを備えていてもよい。
【0025】
なお、サーバ端末100によって格納されるデータまたは実現される機能は、求人者端末300の記憶部または制御部等によってローカルで格納または実現することができる。
【0026】
図3は、第1実施形態に係るユーザ端末の機能構成図を示す。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。
【0027】
ユーザ端末200は、前述の通り、様々な情報端末や汎用コンピュータとすることができるか、以下、スマートフォンを例に説明する。ユーザ端末200は、少なくとも、通信部210、表示操作部220、記憶部230、制御部240等を備え、これらはバスを通じて相互に電気的に接続される。
【0028】
制御部240は、ユーザ端末200全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えば制御部240はCPU(Central Processing Unit)であり、記憶部230に格納され展開されたプログラム等を実行して各情報処理を実施する。
【0029】
記憶部240は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。記憶部240は、制御部240のワークエリア等として使用され、また、ユーザ端末2の起動時に実行されるBIOS(Basic Input/Output System)、及び各種設定情報等を格納する。
【0030】
また、記憶部230は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベース(図示せず)が記憶部230の外部に構築されていてもよい。
【0031】
通信部210は、ユーザ端末200をネットワークに接続する。なお、送受信部23は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インターフェースを備えていてもよい。
【0032】
表示操作部220は、人材が指示を入力し、制御部240からの入力データに応じてテキスト、画像等を表示するために用いられるユーザインターフェースであり、本端末がパーソナルコンピュータで構成されている場合はディスプレイとキーボードやマウスにより構成され、スマートフォンまたはタブレット端末で構成されている場合はタッチパネル等から構成される。表示操作部を介して、人材は、所定の情報の入力のため、キーボードの場合は、キーボードの押下、マウスの場合は、マウスによりカーソルの移動、タッチパネルの場合は、タップ、スワイプ、ピンチ操作等を行うことができる。
【0033】
図4は、第1実施形態に係る求人者端末の機能構成図を示す。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。
【0034】
求人者端末300は、前述の通り、様々な情報端末や汎用コンピュータとすることができるか、以下、求人者ユーザに装着可能な眼鏡状のデバイスであって、グラス部分をディスプレイとして拡張現実空間を表示させるスマートグラスを例に説明する。求人者端末300は、少なくとも、通信部310、ディスプレイ320、記憶部330、カメラ350、制御部360、等を備え、これらはバスを通じて相互に電気的に接続される。
【0035】
制御部360は、求人者端末300全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えば制御部360はCPU(Central Processing Unit)であり、記憶部330に格納され展開されたプログラム等を実行して各情報処理を実施する。
【0036】
記憶部330は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。記憶部240は、制御部240のワークエリア等として使用され、また、ユーザ端末2の起動時に実行されるBIOS(Basic Input/Output System)、及び各種設定情報等を格納する。
【0037】
また、記憶部330は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベース(図示せず)が記憶部330の外部に構築されていてもよい。
【0038】
通信部310は、求人者端末300をネットワークに接続する。なお、送受信部23は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インターフェースを備えていてもよい。
【0039】
ディスプレイ320は、後述のカメラ350によって撮像された現実空間を表示するために用いられるユーザインターフェースであり、現実空間に対してテキストや画像等のデータを重畳して表示させることが可能である。ディスプレイ320は、スマートグラスの場合、例えば、LCDまたは有機EL等のディスプレイとすることができ、ディスプレイ320はまた、カメラ350のファインダとして機能することもできる。
【0040】
さらに、求人者端末300は、カメラ350を備える。カメラ26は、求人者端末300に内蔵され、現実空間を撮像し、通常、求人者端末300を装着する求人者ユーザの視線方向と一致するように備えられる。
【0041】
カメラ350により撮像された現実空間の画像は、(図示しない)画像制御部により、テキストや画像等のデータと合成され、ディスプレイ320により、現実空間の画像にテキストや画像等が重畳して表示される。画像制御部は、例えば、GPU(Graphics Processing Unit)であり、主に画像処理に係る演算処理を実行する。また、求人者端末300は、マイク370を備える。マイク370は、求人者端末300に内蔵され、端末300周辺の音声を集音することができる。
【0042】
その他、図示しないが、求人者端末300は、現在位置情報を測位するGPS(Global Positioning System)を備えることができる。GPSは、GPS衛星から測位用の電波を受信し、絶対位置となる緯度経度情報を測位することができる。また、複数の携帯電話用の基地局から通信電波を受信し、複数基地局測位機能によって現在位置情報を測位することもできる。その他、求人者端末は、図示しない、加速度センサや地磁気センサ等のセンサを備えることもできる。
【0043】
図5は、サーバ端末100に格納されるユーザデータの一例を示す図である。
【0044】
図5に示すユーザデータ1000は、人材に関連する各種データを格納する。
図5において、説明の便宜上、一人材(ユーザID「10001」で識別される人材)の例を示すが、複数の人材の情報を格納することができる。人材に関連する各種データとして、例えば、人材と関連付けられる画像データ(以下、「画像データ」は動画像データも含む)、音声データ等、評価情報(その人材の就職または転職市場における市場価値を示す評価に係る情報)、及びその他の付加的な情報(人材の氏名、連絡先、プロフィール(趣味、特技、嗜好等)、年収、現職または過去の職場におけるパフォーマンス(成果)、職歴、経歴、就職または転職の活動ステータス(就職または転職活動中、就職または転職済等)、適性に関する情報(ヴァイタリティ、人あたり、チームワーク、創造的思考力、問題解決力等))を含むことができる。上記付加的な情報は、人材によりユーザ端末200を介して入力または選択された情報、SNS等のアプリケーション等によって管理される情報をサーバ端末100が受信することで、ユーザデータ1000として格納することができる。また、ユーザデータ1000として取得された、及び/または、求人者によって入力された、人材に関連づけられた顔画像または容姿画像等の画像データまたは音声データによる入力と、評価情報及び/または付加情報として管理される情報による出力を学習データとして生成された学習モデルを学習モデル格納部123に格納することができる。この学習モデルに基づいて、新たな人材に関連付けられた画像データ及び/または音声データを基に評価情報を生成することもできる。
【0045】
図6は、サーバ端末100に格納される求人者データの一例を示す図である。
【0046】
図6に示す求人者データ2000は、求人者に関連する各種データを格納する。
図6において、説明の便宜上、一求人者(求人者ID「20001」で識別される求人者)の例を示すが、複数の利用者の情報を格納することができる。求人者に関連する各種データとして、例えば、求人者の基本情報(会社名、業種、設立年月日、所在地、 従業員数、会社HPのURL、その他会社紹介文等)、求人情報( 求める人物像、勤務時間、年間休日数、待遇(給与等)、福利厚生、勤務地、契約 形態(雇用(正社員 、契約社員)、業務委託 等)等)等の情報を格納することができる。その他、適性試験(求人者企業に属する社員の(企業全体、部署別等の)適性試験のスコア、適性試験によって測られる特性(問題解決力、ヴァイタリティ 、人あたり 、チームワーク 、マネジメント力、ストレス要因 、上下関係性 等)別のスコア)等、各種試験結果、内容等を格納することもできる。これらの情報は、人材に関連して上記付加情報のような人材に関連するより具体的な情報に基づいたジョブマッチングのために用いることができる。
【0047】
<処理の流れ>
図7を参照しながら、本実施形態のシステム1が実行する人材と求人者とのマッチング方法の処理の流れについて説明する。
図7は、本発明の第一実施形態に係る、マッチング方法に係るフローチャートの一例である。
【0048】
ここで、本システム1を利用するために、少なくとも求人者(もしくは求人者企業の社員)は、求人者端末300(もしくは求人者企業のいずれかの部署に属する社員の各々の端末)の各々のウェブブラウザまたはアプリケーション等を利用してサーバ端末100にアクセスし、初めてサービスを利用する場合は、求人者基本情報等を各々入力し、既に求人者のアカウントを取得済の場合は、例えばIDとパスワードを入力する等の所定の認証を受けてログインすることで、サービスが利用可能となる。この認証後、ウェブサイト、アプリケーション等を介して求人者端末300のディスプレイ等において所定のユーザインターフェースが提供され、
図7に示すステップS101へ進む。
【0049】
まず、ステップS101の処理として、サーバ端末100は、通信部110を介して、求人者端末300から画像データ及び/または音声データを受信する。例えば、求人者ユーザが、求人者端末300を装着し、ディスプレイ320を介して一または複数名の人材を視界に捉えることで、求人者端末300のカメラ350により撮像された画像データがサーバ端末100に送信される。また、求人者端末300に内蔵されたマイク370により集音された人材の音声データがサーバ端末100に送信される。
【0050】
続いて、ステップS102の処理として、サーバ端末100の制御部130の評価情報生成部132は、受信した画像データ及び/または音声データを解析する。具体的に、評価情報生成部132は、画像データ及び/または音声データに含まれる各々の人材の画像または音声の特徴量を抽出する。特徴量の抽出するに際しては、既知のアルゴリズム、例えば、SIFT(Scale-Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)が用いられ、画像データ及び/または音声データから特徴点を検出し、画像の場合は、特徴点の画素値や微分値から、また、音声の場合は、特徴点の周波数から、特徴量を算出する。
【0051】
続いて、ステップS103の処理として、サーバ端末100の制御部130の評価情報生成部132は、解析された画像データ及び/または音声データに基づいて、人材の評価情報を生成する。具体的には、評価情報生成部132は、算出された特徴量を入力データとして、学習モデル格納部123に格納された、複数の人材に関連づけられた画像データまたは音声データによる入力データと、評価情報及び/または付加情報として管理される情報による出力データとを学習データとして生成された学習モデルに基づいて、評価情報を生成する。ここで評価情報は、その人材の就職または転職市場における人材的な価値を測る情報をさし、例えば、年収を基準として、「年収850万円クラスの人材」、「年収1000万円クラスの人材」とする評価情報であったり、パフォーマンスを基準として、特定の企業の部門に所属する人材を基準とした、「ハイパフォーマ」、「ローパフォーマ」といった評価情報とすることができる。本システム1は、事前に、学習データとして、サンプルとなる複数の人材に関連するデータ、例えば、人材の画像データ及び/または音声データを入力データとし、その人材の評価に関連する情報、例えば、その人材の職種、所属企業、年収、所属先におけるパフォーマンス、役職、適性試験結果等の情報を出力データとする学習モデルを生成することで、この学習モデルと、新規に撮像した人材の画像データ及び/または集音した人材の音声データの特徴量とに基づいて、その人材の評価情報、例えば、想定年収、パフォーマンス及び/または役職を推論することができる。このように、画像データとして捉えられる人材の身長、外見、動き等に基づいて、類似する人材の年収、パフォーマンス、役職等の評価情報を推論することができる。
【0052】
また、本ステップにおいて、別の例として、事前に取得された、人材とは異なる他のユーザ、例えば、求人企業に所属するハイパフォーマ等の顔画像データ及び/または音声データ、及びコンピタンス等の適性データ(例えば、ヴァイタリティ、人当たり、チームワーク、創造的思考力、問題解決力等)に基づいて生成された学習モデルに基づいて、人材の顔画像データ及び/または音声データを解析することで、その人材のコンピタンスの評価を(例えば、ヴァイタリティ、人当たり、チームワーク、創造的思考力、問題解決力等の各項目を10段階評価にて行うことで)推測し、推測されたコンピタンスに基づいて、求人企業に所属するハイパフォーマのコンピタンスと比較し、類似度を判定することで、求人企業とのマッチ度を算出することができる。そして、人材について推測されたコンピタンスの各項目の評価情報を求人者端末300のディスプレイ320に、人材とともに表示し、さらに、マッチ度を表示させることができる。
【0053】
続いて、ステップS104として、評価情報生成部132は、生成された評価情報を求人者端末300のディスプレイ320に表示させる処理を行う。具体的には、評価情報生成部は、生成された評価情報(例えば、人材の市場価値として、「年収レベルが850万円である」といった情報))を求人者端末300に送信し、求人者端末320は、カメラ350によって撮像され、ディスプレイ320に表示された現実世界における人材とともに、評価情報を表示させる処理を行う。
【0054】
図8に、求人者端末300に表示される評価情報の一例を示す。ディスプレイ320には、求人者端末300のカメラ350によって撮像された、求人者ユーザの視界として捉えられる現実空間が表示され、現実空間内に配置される各々の人材の近傍に、その人材の評価情報、例えば、「市場価値 1000万円」といった情報が表示される。
【0055】
以上のように、本実施形態によれば、求人者ユーザは、例えば、街角のような、不特定の人材が行き来するような日常空間において、求人者の希望条件にマッチするような人材を見つけ出すことができ、潜在的な人材に対して早めにアプローチすることができる。
【0056】
<第2実施形態>
図9は、第2の実施形態に係る、ジョブマッチング方法のフローチャートの一例を示す。本実施形態は、人材に関する情報または求人に関する情報を事前に格納しておくことで、人材の画像データまたは音声データに基づいて、人材の評価情報を生成しながら、求人情報にマッチする人材を抽出し、求人者ユーザに対して識別可能に表示させる機能に関するものである。サーバ端末100、ユーザ端末200、求人者端末300の機能構成については、第1実施形態において説明されたものと実質的に同じであるので、説明を省略する。
【0057】
まず、ステップS201の処理として、サーバ端末100は、通信部110を介して、求人者端末300から画像データ及び/または音声データを受信する。例えば、求人者ユーザが、求人者端末300を装着し、ディスプレイ320を介して一または複数名の人材を視界に捉えることで、求人者端末300のカメラ350により撮像された画像データがサーバ端末100に送信される。また、求人者端末300に内蔵されたマイク370により集音された人材の音声データがサーバ端末100に送信される。
【0058】
続いて、ステップS202の処理として、サーバ端末100の制御部130の評価情報生成部132は、受信した画像データ及び/または音声データを解析する。具体的に、評価情報生成部132は、画像データ及び/または音声データに含まれる各々の人材の画像または音声の特徴量を抽出する。特徴量の抽出するに際しては、既知のアルゴリズム、例えば、SIFT(Scale-Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)が用いられ、画像データ及び/または音声データから特徴点を検出し、特徴点の画素値や微分値から特徴量を算出する。
【0059】
続いて、ステップS203の処理として、サーバ端末100の制御部130の評価情報生成部132は、解析された画像データ及び/または音声データに基づいて、人材の評価情報を生成する。具体的には、評価情報生成部132は、算出された特徴量を入力データとして、学習モデル格納部123に格納された、複数の人材に関連づけられた画像データまたは音声データによる入力データと、評価情報及び/または付加情報として管理される情報による出力データとを学習データとして生成された学習モデルに基づいて、評価情報を生成する。ここで評価情報は、その人材の就職または転職市場における人材的な価値を測る情報をさし、例えば、年収を基準として、「年収850万円クラスの人材」、「年収1000万円クラスの人材」とする評価情報であったり、パフォーマンスを基準として、特定の企業の部門に所属する人材を基準とした、「ハイパフォーマ」、「ローパフォーマ」といった評価情報とすることができる。本システム1は、事前に、学習データとして、サンプルとなる複数の人材に関連するデータ、例えば、人材の画像データ及び/または音声データを入力データとし、その人材の評価に関連する情報、例えば、その人材の職種、所属企業、年収、所属先におけるパフォーマンス、役職等の情報を出力データとする学習モデルを生成することで、この学習モデルと、新規に撮像した人材の画像データ及び/または集音した人材の音声データの特徴量とに基づいて、その人材の評価情報、例えば、想定年収、パフォーマンス及び/または役職を推論することができる。このように、画像データとして捉えられる人材の身長、外見、動き等に基づいて、類似する人材の年収、パフォーマンス、役職等の評価情報を推論することができる。
【0060】
続いて、ステップS204として、評価情報生成部132は、生成された評価情報を基に、ユーザデータ1000または求人者データ2000として格納される情報に基づいて、人材と求人者とをマッチングさせる処理を行う。例えば、上記ステップS203において生成された評価情報が、各々「この人材は年収950万円以上」、「この人材は年収1000万円以上」であるときに、評価情報生成部132は、求人者データ2000を参照し、求人情報に含まれる想定年収(給与)に基づいて、求人者とマッチする人材を抽出する。例えば、求人情報に含まれる想定年収が「900万円以上950万円以下」の範囲であれば、その範囲の評価情報を有する人材を抽出することができる。または、評価情報生成部132は、ユーザデータ1000に含まれる人材の職歴や転職活動ステータスを参照し、また、求人者データ2000に含まれる基本情報や求人情報を参照し、その求人者にマッチする人材を抽出することができる。例えば、求人者データ2000の基本情報に含まれる業種が「IT、ソフトウェア」であって、ユーザデータ1000の付加情報に含まれる職歴において、その人材が同じ業界での就労歴があれば、そのような人材を抽出することができる。また、評価情報生成部132は、ユーザデータ2000の転職活動ステータスを参照し、「転職活動中」の人材のみを抽出することができる。
【0061】
続いて、ステップS205として、評価情報生成部132は、マッチング処理の結果を求人者端末300のディスプレイ320に表示させる処理を行う。具体的には、評価情報生成部は、マッチング処理の結果抽出された人材のみの評価情報(例えば、人材の市場価値として、「年収レベルが950万円である」といった情報))を求人者端末300に送信し、求人者端末320は、カメラ350によって撮像され、ディスプレイ320に表示された現実世界における人材とともに、評価情報を表示させる処理を行う。
【0062】
図10に、求人者端末300に表示される評価情報の一例を示す。ディスプレイ320には、求人者端末300のカメラ350によって撮像された、求人者ユーザの視界として捉えられる現実空間が表示され、現実空間内に配置される各々の人材の近傍に、その人材の評価情報、例えば、「950万円」、「ITコンサルタント」、「転職活動中」といった情報が表示される。ここで、評価情報は、求人者にマッチする人材のみ表示され、求人者は、マッチする人材を容易に見つけ出すことができる。また、表示方法として、所定のアイコン(例えば、
図10に示す矢印)や色彩、演出を用いることで、マッチする人材を識別可能に表示させることもできる。
【0063】
以上のように、本実施形態によれば、評価情報とともに、人材及び/または求人者に関する情報に基づいて、人材と求人者とのマッチング精度を高めつつ、求人者ユーザは、求人者の希望条件にマッチするような人材をより容易に見つけ出すことができ、潜在的な人材に対して早めにアプローチすることができる。
【0064】
また、変形例として、本実施形態を、PCやスマートフォン等の求人者端末300に、ビデオ会議アプリケーション等を介して表示されるユーザの顔画像データ及び/または音声データを取得することで適用することもできる。具体的には、採用面接等の場における候補者ユーザについて、事前に、付加情報として氏名、プロフィール、年収、パフォーマンス、職歴、経歴、適性等の情報を取得し、他のユーザの顔画像及び/または音声データ、及び付加情報に基づいて生成された学習モデルに基づいて、候補者ユーザの顔画像及び/または音声データを解析することで、評価情報を生成し、求人者とのマッチングを行うことができる。このように、拡張現実空間に限らず、PCやスマートフォン等の求人者端末を通じて取得されるユーザの顔画像データ及び/または音声データに基づいて評価情報を生成することができる。
【0065】
上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
【符号の説明】
【0066】
100 サーバ端末
200 ユーザ端末
300 求人者端末