【解決手段】評価支援装置は、面接官と面接した第1の被面接者について得られる第1の非言語情報を入力し、第1の被面接者の評価を出力する評価モデルを記憶する評価モデル記憶部と、面接官と面接した第2の被面接者について得られる第2の非言語情報と、面接官により与えられる第2の被面接者の評価とに基づいて、評価モデルの学習を行う学習部と、学習部による学習後、第1の非言語情報に対し、第1の被面接者の評価を生じさせる要因に関する要因情報を出力する要因情報出力部とを備える。
前記評価モデルは、前記第1の非言語情報を入力する入力ノードと、前記第1の被面接者の評価を出力する出力ノードと、前記入力ノードと前記出力ノードとの間に設けられる中間ノードとを有するニューラルネットワークであり、
前記学習部は、前記入力ノード、中間ノードおよび出力ノード間の重みを更新することによって前記評価モデルの学習を行い、
前記要因情報出力部は、前記重みに基づいて、前記要因情報を出力する、
請求項1に記載の評価支援装置。
面接官と面接した第3の被面接者について得られる第3の非言語情報を前記評価モデルに入力した結果として、前記評価モデルから出力された前記第3の被面接者の評価を取得する評価取得部と、
前記評価モデルを参照し、前記中間ノードの名称を取得する名称取得部と、
取得された前記第3の被面接者の評価と前記中間ノードの名称とを含む評価結果情報を出力する評価結果情報出力部と、
を備える請求項3に記載の評価支援装置。
【発明を実施するための形態】
【0011】
以下、図面を適宜参照して、本発明の一実施の形態について詳細に説明する。
【0012】
図1は、本実施の形態における評価支援装置100の機能構成を示すブロック図である。評価支援装置100は、面接官と被面接者との間で行われる面接(例えば、採用面接)において面接官が被面接者から得られる非言語情報に対する自身の評価基準を把握することを可能にすることによって面接官の評価作業を支援する。
【0013】
図1に示すように、評価支援装置100は、面接情報取得部110、評価モデル記憶部120、学習部130、要因情報出力部140、入力受付部150、名称設定部160、評価取得部170および評価結果情報出力部180を備える。なお、評価取得部170は、本発明の「評価取得部」および「名称取得部」として機能する。
【0014】
評価支援装置100は、図示しないが、例えば、プロセッサとしてのCPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、RAM(Random Access Memory)等の作業用メモリ、および通信回路を有する。この場合、評価支援装置100における各部の機能は、CPUがROMに格納された制御プログラムを実行することにより実現される。
【0015】
面接情報取得部110は、面接官を一意に特定する特定情報(例えば、名前)と、面接官と面接した被面接者(第2の被面接者)について得られる非言語情報(第2の非言語情報)と、面接官により評価項目毎に評価された被面接者の評価値とを含む学習用面接情報を取得する。学習用面接情報は、評価モデル記憶部120に記憶される評価モデルを学習するために使用される。面接情報取得部110は、取得した学習用面接情報を学習部130に出力する。なお、学習用面接情報に含まれる特定情報により特定される面接官の数は、1人である場合もあれば、2人以上である場合もある。
【0016】
また、面接情報取得部110は、面接官を一意に特定する特定情報(例えば、名前)と、面接官と面接した被面接者(第3の被面接者)について得られる非言語情報(第3の非言語情報)を含む評価用面接情報を取得する。評価用面接情報に含まれる非言語情報は、評価モデル記憶部120に記憶される評価モデルを用いて被面接者を評価するために使用される。面接情報取得部110は、取得した評価用面接情報を評価取得部170に出力する。なお、評価用面接情報に含まれる特定情報により特定される面接官の数は、1人である場合もあれば、2人以上である場合もある。
【0017】
非言語情報は、面接官と被面接者との間で行われる面接において、被面接者を撮像した画像(静止画、動画)に基づいて、被面接者が回答する際における顔の傾きや表情、首振り、声の高さや大きさ、視線、目の瞬き、口の動き、身振り手振りなどを物理的に計測して得られる情報である。
【0018】
本実施の形態では、非言語情報は、被面接者を撮像した画像に基づいて、被面接者の表情が、5つの表情(笑顔(喜び)・驚き・怒り・悲しみ・真顔)の何れに該当するかについて推定した表情推定結果を含む。被面接者の表情を推定する方法は、特に限定されないが、例えば、OKAO(登録商標)Vision等の人物の表情を推定するための公知の技術を用いて実現することができる。
【0019】
また、非言語情報は、被面接者を撮像した画像に基づいて、公知のモデルフィッティング技術により被面接者の目・口の位置を素早く検出し、顔の向き(前、左、右、上、下)を推定した顔向き推定結果を含む。被面接者の顔の向きを推定する方法は、特に限定されないが、例えば、OKAO(登録商標)Vision等の人物の顔の向きを推定するための公知の技術を用いて実現することができる。
【0020】
また、非言語情報は、被面接者を撮像した画像に基づいて、被面接者の手の位置(手のひらの座標)、動き(上下左右)、形状(パーの状態/手のひら)を認識し、ハンドジェスチャーの有無を検出したハンドジェスチャー検出結果を含む。被面接者のハンドジェスチャーの有無を検出する方法は、特に限定されないが、例えば、OKAO(登録商標)Vision等の人物のハンドジェスチャーの有無を検出するための公知の技術を用いて実現することができる。
【0021】
なお、非言語情報は、被面接者が発話した音声に基づいて、当該被面接者の声の高さや大きさを検知して得られる情報であっても良い。被面接者の声の高さや大きさを検知する方法は、特に限定されないが、例えば、公知の音声認識技術を用いて実現することができる。
【0022】
評価モデル記憶部120は、面接官と面接した被面接者(第1の被面接者)について得られる非言語情報(第1の非言語情報)を入力し、被面接者の評価値を出力する評価モデルを面接官毎に記憶する。
【0023】
図2は、本実施の形態における評価モデルの構成を示す図である。
図2に示すように、評価モデルは、非言語情報の種類毎に当該非言語情報を入力する入力層を構成する入力ノード200,202,204と、被面接者の評価値(点数)を評価項目毎に出力する出力層を構成する出力ノード220,222と、中間層を構成する中間ノード210,212とを有するニューラルネットワークにより形成される。中間層は、入力ノード200,202,204(入力層)と出力ノード220,222(出力層)との間に設けられる。
【0024】
評価モデルは、被面接者から得られる非言語情報に対する独自の評価基準が面接官毎に存在すると仮定し、当該評価基準をニューラルネットワークで模した非言語情報評価モデルである。具体的には、評価モデルは、被面接者について得られる非言語情報(入力層)と、当該非言語情報が面接官に与える印象(中間層)と、当該印象に起因して与えられた被面接者の評価(出力層)との間の相関を表している。評価モデルは、面接官が過去に実施した面接から得られる学習用面接情報によって機械学習が行われる。その機械学習が行われる毎に、評価モデルに対して、非言語情報に対する面接官独自の評価基準が反映されていくこととなる。
【0025】
入力ノード200,202,204と中間ノード210,212との間、および、中間ノード210,212と出力ノード220,222との間はリンクで接続されており、各リンクは重みW1〜W10(重み係数とも言う)を有する。重みW1〜W10は、各ノード間のつながりの強さ(結合度)を表現する可変数である。
【0026】
入力ノード200は、入力項目としての非言語情報Aに対応する値を入力する。入力ノード202は、入力項目としての非言語情報Bに対応する値を入力する。入力ノード204は、入力項目としての非言語情報Cに対応する値を入力する。
【0027】
中間ノード210は、入力ノード200に入力された非言語情報Aの値に重みW1を掛けた値と、入力ノード202に入力された非言語情報Bの値に重みW3を掛けた値と、入力ノード204に入力された非言語情報Cの値に重みW5を掛けた値とを足し合わせた値を入力し、活性化関数(例えばシグモイド関数)で変換した値を印象Aの値として出力する。
【0028】
中間ノード212は、入力ノード200に入力された非言語情報Aの値に重みW2を掛けた値と、入力ノード202に入力された非言語情報Bの値に重みW4を掛けた値と、入力ノード204に入力された非言語情報Cの値に重みW6を掛けた値とを足し合わせた値を入力し、活性化関数(例えばシグモイド関数)で変換した値を印象Bの値として出力する。
【0029】
なお、印象A,Bは、面接官と面接した被面接者について得られる非言語情報A,B,Cが当該面接官に与える印象の種類を表す。また、中間層を構成する中間ノードの数は、1つでも3つ以上でも良い。
【0030】
出力ノード220は、中間ノード210(印象A)から出力された値に重みW7を掛けた値と、中間ノード212(印象B)から出力された値に重みW9を掛けた値とを足し合わせた値を、入力項目としての評価項目Aの評価値として入力する。そして、出力ノード220は、入力した評価値を、評価項目Aに関する評価モデルの出力値として出力する。
【0031】
出力ノード222は、中間ノード210(印象A)から出力された値に重みW8を掛けた値と、中間ノード212(印象B)から出力された印象Bの値に重みW10を掛けた値とを足し合わせた値を、入力項目としての評価項目Bの評価値として入力する。そして、出力ノード222は、入力した評価値を、評価項目Bに関する評価モデルの出力値として出力する。
【0032】
図3は、本実施の形態における評価モデルの構成例を示す図である。
図3に示すように、入力ノード200は、入力項目である非言語情報Aとして、面接中において被面接者の表情が笑顔である時間的頻度(値)を入力する。入力ノード202は、入力項目である非言語情報Bとして、面接中において被面接者の顔が前を向いている時間的頻度(値)を入力する。入力ノード204は、入力項目である非言語情報Cとして、面接中において被面接者がハンドジェスチャーを行っている時間的頻度(値)を入力する。
【0033】
なお、
図3に示す評価モデルにおける入力ノード200,202,204の入力項目(非言語情報の種類)は、被面接者の表情が笑顔である時間的頻度、被面接者の顔が前を向いている時間的頻度、被面接者がハンドジェスチャーを行っている時間的頻度以外であっても良い。
【0034】
中間ノード210は、入力ノード200に入力された値に重みW1(
図3の例では、0.4)を掛けた値と、入力ノード202に入力された値に重みW3(
図3の例では、0.8)を掛けた値と、入力ノード204に入力された値に重みW5(
図3の例では、0.9)を掛けた値とを足し合わせた値を入力し、活性化関数(例えばシグモイド関数)で変換した値を印象Aの値として出力する。なお、デフォルトでは、中間ノード210の名称は設定されていない。
【0035】
中間ノード212は、入力ノード200に入力された値に重みW2(
図3の例では、0.9)を掛けた値と、入力ノード202に入力された値に重みW4(
図3の例では、0.8)を掛けた値と、入力ノード204に入力された値に重みW6(
図3の例では、0.1)を掛けた値とを足し合わせた値を入力し、活性化関数(例えばシグモイド関数)で変換した値を印象Bの値として出力する。なお、デフォルトでは、中間ノード212の名称は設定されていない。
【0036】
出力ノード220は、中間ノード210から出力された値に重みW7(
図3の例では、0.8)を掛けた値と、中間ノード212から出力された値に重みW9(
図3の例では、0.3)を掛けた値とを足し合わせた値を、評価項目Aの評価値である「被面接者の性格として積極性を有する度合い(値)」として入力する。そして、出力ノード220は、入力した評価値を、評価項目Aに関する評価モデルの出力値として出力する。
【0037】
出力ノード222は、中間ノード210から出力された値に重みW8(
図3の例では、0.1)を掛けた値と、中間ノード212から出力された値に重みW10(
図3の例では、0.7)を掛けた値とを足し合わせた値を、評価項目Bの評価値である「被面接者の性格として素直さを有する度合い(値)」として入力する。そして、出力ノード222は、入力した評価値を、評価項目Bに関する評価モデルの出力値として出力する。
【0038】
なお、
図3に示す評価モデルにおける出力ノード220,222の入力項目(評価項目)は、被面接者の性格として誠実さを有する度合い(値)、被面接者の能力としてコミュニケーション力を有する度合い(値)、被面接者の能力として判断力を有する度合い(値)などであっても良い。
【0039】
学習部130は、面接官と面接した被面接者(第2の被面接者)について得られる非言語情報(第2の非言語情報)と、面接官により与えられた被面接者の評価とに基づいて、評価モデルの学習を行う。
【0040】
具体的には、学習部130は、面接情報取得部110から出力された学習用面接情報に含まれる非言語情報に基づいて、被面接者の表情が笑顔である時間的頻度(値)、被面接者の顔が前を向いている時間的頻度(値)、および被面接者がハンドジェスチャーを行っている時間的頻度(値)を算出する。次に、学習部130は、評価モデル記憶部120に記憶されている評価モデルのうち、学習用面接情報に含まれる特定情報(面接官の名前)に対応する評価モデルを選択する。次に、学習部130は、算出された各時間的頻度を入力とし、学習用面接情報に含まれる評価項目(積極性、素直さ)毎の評価値(被面接者の性格として有する度合い)を正解出力とした誤差逆伝搬法(ニューラルネットワークにおける公知の学習手法)を用いて、選択された評価モデルの学習を行う。この学習により、評価モデルにおける各リンクの重みW1〜W10は、学習用面接情報に含まれる評価項目毎の評価値と評価モデル(出力ノード220,222)の出力値との誤差が小さくなるように更新される。すなわち、評価モデルに対して、非言語情報に対する面接官独自の評価基準が反映される。
【0041】
要因情報出力部140は、学習部130による評価モデルの学習後、当該評価モデルにおいて、入力ノード200,202,204に入力される非言語情報に対し、出力ノード220,222で被面接者の評価値を生じさせる要因に関する要因情報を出力する。
【0042】
本実施の形態では、要因情報出力部140は、評価モデルにおける各リンクの重みW1〜W10に基づいて、入力ノード200,202,204の入力項目(非言語情報)および出力ノード220,222の入力項目(評価項目)と関連が強い中間ノード(印象A,B)を説明する文字列を生成して表示出力する。ここで、関連が強いとは、ノード間のリンクの重みが大きいことを指す。なお、要因情報出力部140は、要因情報を表示出力ではなく音声出力しても良い。
【0043】
図3に示す例では、入力ノード202,204の非言語情報「被面接者の顔が前を向いている時間的頻度」および「被面接者がハンドジェスチャーを行っている時間的頻度」と中間ノード210(印象A)との間、および、中間ノード210(印象A)と出力ノード220の評価項目「被面接者の性格として積極性を有する度合い」との間におけるリンクの重みが予め設定された閾値(例えば、0.8)以上である。そのため、要因情報出力部140は、
図3の太線矢印で示すように、入力ノード202,204と中間ノード210との間、および、中間ノード210と出力ノード220との間で関連が強い(すなわち、何らかの相関があるだろう)と判断する。そして、要因情報出力部140は、例えば『1つ目のノード(印象A)は、評価項目の「被面接者の性格として積極性を有する度合い」に関係があり、「非言語情報の被面接者の顔が前を向いている時間的頻度」および「被面接者がハンドジェスチャーを行っている時間的頻度」に関連があります。このノードにあなたはどのような印象を付けますか?』という文字列からなる要因情報を表示出力する。なお、上記例では、入力ノード202,204および出力ノード220との間で関連が強い1つの中間ノード210に着目して要因情報を表示出力しているが、複数の中間ノード210,212の出力値をベクトルとみなし、そのベクトルの向き(特定の印象)を説明する文字列を生成して表示出力しても良い。
【0044】
要因情報出力部140により表示出力された要因情報を見た面接官は、被面接者から得られる非言語情報に対する自身の評価基準を把握することができる。この評価基準は、
図3の例では、「非言語情報が被面接者の顔が前を向いている時間的頻度」および「被面接者がハンドジェスチャーを行っている時間的頻度」が多い場合、当該非言語情報に起因して何らかの印象を持ち、評価項目の「被面接者の性格として積極性を有する度合い」を高く評価する基準である。例えば、面接官は、その何らかの印象として、被面接者の性格として自信家であることを推測する。
【0045】
入力受付部150は、図示しない操作部(例えば、タッチパネルを有するタッチパネル操作部)を介して、要因情報を見た面接官から名称(
図3の例では、印象Aの名称)の入力指示を受け付ける。そして、入力受付部150は、受け付けた入力に応じた入力信号を名称設定部160に出力する。
【0046】
名称設定部160は、入力受付部150から出力された入力信号に基づいて、要因情報を見た面接官から入力指示された名称(例えば、被面接者の性格として自信家である)を、評価モデルの中間ノード210(印象A)の名称として設定する。
【0047】
評価取得部170は、面接官と面接した新規の被面接者(第3の被面接者)について得られる非言語情報(第3の非言語情報)を評価モデルに入力した結果として、評価モデルから出力された被面接者の評価値を取得する。
【0048】
具体的には、評価取得部170は、面接情報取得部110から出力された評価用面接情報に含まれる非言語情報に基づいて、被面接者の表情が笑顔である時間的頻度(値)、被面接者の顔が前を向いている時間的頻度(値)、および被面接者のハンドジェスチャーが有る時間的頻度(値)を算出する。次に、評価取得部170は、評価モデル記憶部120に記憶されている評価モデルのうち、評価用面接情報に含まれる特定情報(面接官の名前)に対応する評価モデルを選択する。次に、評価取得部170は、算出された各時間的頻度を評価モデルに入力した結果として、評価モデルから出力された被面接者の評価項目(積極性、素直さ)毎の評価値(被面接者の性格として有する度合い)を取得する。
【0049】
また、評価取得部170は、評価モデルを参照し、入力ノード200,202,204の入力項目(非言語情報)および出力ノード220,222の入力項目(評価項目)と関連が強い中間ノード210の名称(被面接者の性格として自信家である)を取得する。そして、評価取得部170は、取得された被面接者の評価項目毎の評価値と中間ノード210の名称とを評価結果情報出力部180に出力する。
【0050】
評価結果情報出力部180は、評価取得部170から出力された被面接者の評価値と中間ノード210の名称とを含む評価結果情報を表示出力する。なお、評価結果情報出力部180は、評価結果情報を表示出力ではなく音声出力しても良い。
【0051】
次に、本実施の形態における評価支援装置100の学習動作例について説明する。
図4は、評価支援装置100の学習動作例を示すフローチャートである。
【0052】
まず、面接情報取得部110は、面接官を一意に特定する特定情報(例えば、名前)と、面接官と面接した被面接者について得られる非言語情報と、面接官により評価項目毎に評価された被面接者の評価値とを含む学習用面接情報を取得する(ステップS100)。面接情報取得部110は、取得した学習用面接情報を学習部130に出力する。なお、面接情報取得部110は、1つの学習用面接情報を取得しても良いし、複数の学習用面接情報を取得しても良い。
【0053】
次に、学習部130は、評価モデル記憶部120に記憶されている評価モデルの中に、学習用面接情報に含まれる特定情報に対応する評価モデルが存在するか否かについて判定する(ステップS120)。判定の結果、評価モデルが存在する場合(ステップS120、YES)、学習部130は、面接官と面接した被面接者(第2の被面接者)について得られる非言語情報(第2の非言語情報)と、面接官により与えられた被面接者の評価とに基づいて評価モデルの学習を行う(ステップS140)。その後、処理はステップS180に遷移する。なお、ステップS140における学習は、大量の学習用面接情報を使用して、学習用面接情報に含まれる評価項目毎の評価値と評価モデル(出力ノード220,222)の出力値との誤差が小さくなる(収束する)まで繰り返し行われても良い。
【0054】
一方、評価モデルが存在しない場合(ステップS120、NO)、学習部130は、学習用面接情報に含まれる特定情報に対応する評価モデルを新規に作成し、面接官と面接した被面接者(第2の被面接者)について得られる非言語情報(第2の非言語情報)と、面接官により与えられた被面接者の評価とに基づいて、当該評価モデルの学習を行う(ステップS160)。なお、学習部130は、
図3に示す評価モデルと同様の構成を有し、重みW1〜W10としてデフォルト値が設定されている評価モデルを新規に作成する。その後、処理はステップS180に遷移する。
【0055】
ステップS180では、要因情報出力部140は、ステップS140またはS160にて学習された評価モデルについて、入力ノード200,202,204に入力される非言語情報に対し、出力ノード220,222から出力される被面接者の評価値を生じさせる要因に関する要因情報を出力する(ステップS180)。
【0056】
次に、入力受付部150は、要因情報を見た面接官から名称(例えば、印象Aの名称)の入力指示を受け付けたか否かについて判定する(ステップS200)。判定の結果、名称の入力指示を受け付けた場合(ステップS200、YES)、入力受付部150は、受け付けた入力に応じた入力信号を名称設定部160に出力する。
【0057】
最後に、名称設定部160は、入力受付部150から出力された入力信号に基づいて、要因情報を見た面接官から入力指示された名称(例えば、被面接者の性格として自信家である)を、評価モデルの中間ノード210の名称として設定する(ステップS220)。ステップS220の処理が完了することによって、評価支援装置100は、
図4における処理を終了する。一方、名称の入力指示を受け付けていない場合(ステップS200、NO)、評価支援装置100は、
図4における処理を終了する。
【0058】
次に、本実施の形態における評価支援装置100の評価動作例について説明する。
図5は、評価支援装置100の評価動作例を示すフローチャートである。
【0059】
まず、面接情報取得部110は、面接官を一意に特定する特定情報(例えば、名前)と、面接官と面接した被面接者(第3の被面接者)について得られる非言語情報(第3の非言語情報)を含む評価用面接情報を取得する(ステップS300)。そして、面接情報取得部110は、取得した評価用面接情報を評価取得部170に出力する。
【0060】
次に、評価取得部170は、面接官と面接した新規の被面接者について得られる非言語情報を評価モデル(評価用面接情報に含まれる特定情報により特定される)に入力した結果として、評価モデルから出力された被面接者の評価値を取得する(ステップS320)。
【0061】
次に、評価取得部170は、評価モデルを参照し、入力ノード200,202,204の入力項目(非言語情報)および出力ノード220,222の入力項目(評価項目)と関連が強い中間ノード210の名称(例えば、被面接者の性格として自信家である)を取得する(ステップS340)。そして、評価取得部170は、取得された被面接者の評価値と中間ノード210の名称とを評価結果情報出力部180に出力する。
【0062】
最後に、評価結果情報出力部180は、評価取得部170から出力された被面接者の評価値と中間ノード210の名称とを含む評価結果情報を表示出力する(ステップS360)。ステップS360の処理が完了することによって、評価支援装置100は、
図5における処理を終了する。
【0063】
以上詳しく説明したように、本実施の形態では、評価支援装置100は、面接官と面接した第1の被面接者について得られる第1の非言語情報を入力し、第1の被面接者の評価を出力する評価モデルを記憶する評価モデル記憶部120と、面接官と面接した第2の被面接者について得られる第2の非言語情報と、面接官により与えられた第2の被面接者の評価とに基づいて評価モデルの学習を行う学習部130と、学習部130による学習後、第1の非言語情報に対し、第1の被面接者の評価を生じさせる要因に関する要因情報を出力する要因情報出力部140とを備える。
【0064】
このように構成した本実施の形態によれば、面接官と面接した第2の被面接者について得られる第2の非言語情報と、面接官により実際に与えられた第2の被面接者の評価とに基づいて学習された評価モデルについて、第1の非言語情報に対し、第1の被面接者の評価を生じさせる要因(具体的には、第1の非言語情報が面接官に与える印象)に関する要因情報が明示化される。そのため、要因情報を確認した面接官は、被面接者から得られる非言語情報と、非言語情報が面接官に与える印象と、面接官が被面接者に対して与える評価との間の相関、すなわち被面接者から得られる非言語情報に対する自身の評価基準を把握することができる。したがって、面接官は、非言語情報に対する自身の評価基準を予め把握した上で、常に同じ評価基準で被面接者から得られる非言語情報を評価することができる。つまり、面接官と面接する複数の被面接者間において面接条件(例えば、面接の順番)が異なっても、面接の公平性を保つことができる。
【0065】
また、本実施の形態では、評価モデルは、第1の非言語情報を入力する入力ノード200,202,204と、第1の被面接者の評価を出力する出力ノード220,222と、入力ノード200,202,204と出力ノード220,222との間に設けられる中間ノード210,212とを有するニューラルネットワークである。また、学習部130は、入力ノード200,202,204、中間ノード210,212および出力ノード220,222間の重みW1〜W10を更新することによって評価モデルの学習を行う。また、要因情報出力部140は、重みW1〜W10に基づいて要因情報を出力する。
【0066】
このように構成した本実施の形態によれば、評価モデルにおける各リンクの重みW1〜W10に基づいて、入力ノード202,204の入力項目(被面接者の顔が前を向いている時間的頻度、被面接者がハンドジェスチャーを行っている時間的頻度)および出力ノード220の評価項目(被面接者の性格として積極性を有する度合い)と関連が強い印象(中間ノード210)の存在を説明する要因情報が出力される。そのため、非言語情報が面接官に与える印象(例えば、被面接者の性格として自信家である)を面接官自身で発見して言語化することを効果的に支援することができる。
【0067】
また、本実施の形態では、評価支援装置100は、面接官に指示された名称を中間ノード210の名称として設定する名称設定部160と、面接官と面接した第3の被面接者について得られる第3の非言語情報を評価モデルに入力した結果として、評価モデルから出力された第3の被面接者の評価を取得する評価取得部170と、評価モデルを参照し、中間ノード210の名称を取得する名称取得部(評価取得部170)と、取得された第3の被面接者の評価と中間ノード210の名称とを含む評価結果情報を出力する評価結果情報出力部180とを備える。
【0068】
このように構成した本実施の形態によれば、面接官Aと面接した第3の被面接者について得られる第3の非言語情報を面接官Bの評価モデルに入力した結果として、評価モデルから出力された第3の被面接者の評価と、中間ノード210の名称とを含む評価結果情報が出力される。この場合、面接官Aと第3の被面接者との面接の場に面接官Bが存在しなくても、面接官Bの評価基準に基づいて、第3の被面接者について得られる第3の非言語情報を評価することができる。さらに、第3の被面接者の評価とともに中間ノード210の名称(すなわち、評価に起因する印象)が出力されるため、それらを確認した第3の被面接者は、納得してその評価を受け入れることができる。一方、面接官A(例えば、後輩の面接官)は、第3の被面接者の評価および中間ノード210の名称を確認することによって、面接官B(例えば、先輩の面接官)との間で非言語情報に対する評価基準の摺り合わせを行うことができる。
【0069】
なお、上記実施の形態では、評価モデルが有する中間層は1層である例について説明したが、本発明はこれに限らない。例えば、評価モデルが有する中間層は2層以上であっても良い。ただし、中間層の層数が多くなるにつれて、非言語情報に対し、被面接者の評価を生じさせる要因に関する要因情報が複雑になるおそれがある。そのため、被面接者から得られる非言語情報に対する自身の評価基準について、面接官が出来るだけ容易に把握できるようにする観点から、中間層の層数はなるべく少ない方が望ましい。
【0070】
また、上記実施の形態において、要因情報出力部140は、評価モデルにおける各リンクの重みW1〜W10に基づいて、入力ノード200,202,204の入力項目(非言語情報)および出力ノード220,222の入力項目(評価項目)と関連が強い中間ノード(印象A,B)を説明する文字列を生成して表示出力する例について説明したが、本発明はこれに限らない。例えば、要因情報出力部140は、入力ノード200,202,204の入力項目(非言語情報)および出力ノード220,222の入力項目(評価項目)と、中間ノード210,212(印象A,B)との関連の強さを説明する文字列を表示出力しても良いし、当該関連の強さをグラフィカルに表示(例えば、ノードの値の大きさでノードの大きさを変えたり、リンクの重みの大きさで線の太さを変えたり)しても良い。
【0071】
また、上記実施の形態では、評価取得部170が本発明の「評価値取得部」および「名称取得部」として機能する例について説明したが、本発明はこれに限らない。すなわち、本発明の「評価値取得部」および「名称取得部」としてそれぞれ機能する構成を別々に設けても良い。
【0072】
また、上記実施の形態において、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。