(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024141286
(43)【公開日】2024-10-10
(54)【発明の名称】学習方法、学習装置、学習プログラム、及び感情推定装置
(51)【国際特許分類】
A61B 5/16 20060101AFI20241003BHJP
A61B 5/18 20060101ALI20241003BHJP
A61B 5/374 20210101ALN20241003BHJP
【FI】
A61B5/16 120
A61B5/18
A61B5/374
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023052840
(22)【出願日】2023-03-29
(71)【出願人】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】110001933
【氏名又は名称】弁理士法人 佐野特許事務所
(72)【発明者】
【氏名】橋本 和真
(72)【発明者】
【氏名】村下 君孝
(72)【発明者】
【氏名】加藤 徹洋
(72)【発明者】
【氏名】長谷川 渉
【テーマコード(参考)】
4C038
4C127
【Fターム(参考)】
4C038PP03
4C038PQ04
4C038PS03
4C038PS05
4C038PS07
4C127AA02
4C127AA03
4C127GG03
4C127GG10
4C127GG11
(57)【要約】
【課題】感情推定用AIモデルの精度向上、汎用性向上を図る。
【解決手段】感情推定AIの学習方法は、同じタイミングで、被験者の生体信号と外観情報を取得し、取得した前記生体信号に基づき感情指標値を算出し、取得した前記外観情報を入力値とし、前記感情指標値を正解値とする教師付き学習データを生成し、生成した前記教師付き学習データでAIモデルを学習する。
【選択図】
図6
【特許請求の範囲】
【請求項1】
同じタイミングで、被験者の生体信号と外観情報を取得し、
取得した前記生体信号に基づき感情指標値を算出し、
取得した前記外観情報を入力値とし、前記感情指標値を正解値とする教師付き学習データを生成し、
生成した前記教師付き学習データでAIモデルを学習する、
学習方法。
【請求項2】
前記生体信号は脳波であり、
前記感情指標値は中枢神経系覚醒度であり、
前記覚醒度は、前記脳波のβ波/α波で算出される、
請求項1記載の学習方法。
【請求項3】
前記生体信号は心拍であり、
前記感情指標値は自律神経系活性度であり、
前記活性度は、前記心拍の波形信号の低周波成分の標準偏差で算出される、
請求項1記載の学習方法。
【請求項4】
被験者の脳波に基づき算出される覚醒度と、被験者の心拍に基づき算出される活性度とを、前記被験者の外観情報から推定するAIモデルの学習方法であって、
同じタイミングで、前記被験者の前記脳波と前記心拍と前記外観情報を取得し、
取得した前記脳波におけるβ波とα波との比に基づき前記覚醒度を算出し、
取得した前記心拍における波形信号の低周波成分の標準偏差に基づき前記活性度を算出し、
取得した前記外観情報を入力値とし、前記覚醒度を正解値とする覚醒度学習用教師付き学習データを生成し、
取得した前記外観情報を入力値とし、前記活性度を正解値とする活性度学習用教師付き学習データを生成し、
生成した前記覚醒度学習用教師付き学習データで前記覚醒度の推定用の前記AIモデルを学習し、
生成した前記活性度学習用教師付き学習データで前記活性度の推定用の前記AIモデルを学習する、
学習方法。
【請求項5】
被験者の生体信号に基づき指標値算出方式を用いて算出される感情推定用の感情指標値を、前記被験者の外観情報から推定するAIモデルの学習方法であって、
同じタイミングで、前記被験者の前記生体信号と前記外観情報を取得し、
取得した前記生体信号に基づき前記指標値算出方式を用いて前記感情指標値を算出し、
取得した前記外観情報を入力値とし、前記感情指標値を正解値とする教師付き学習データを生成し、
生成した前記教師付き学習データで前記AIモデルを学習する、
学習方法。
【請求項6】
同じタイミングで、被験者の生体信号と外観情報を取得し、
取得した前記生体信号に基づき指標値算出方式を用いて感情指標値を算出し、
算出した前記感情指標値を用いて感情を推定し、
取得した前記外観情報を入力値とし、推定した前記感情を正解値とする教師付き学習データを生成し、
生成した前記教師付き学習データでAIモデルを学習する、
学習装置。
【請求項7】
同じタイミングで、被験者の生体信号と外観情報を取得し、
取得した前記生体信号に基づき指標値算出方式を用いて感情指標値を算出し、
取得した前記外観情報を入力値とし、前記感情指標値を正解値とする教師付き学習データを生成し、
生成した前記教師付き学習データでAIモデルを学習する、
学習プログラム。
【請求項8】
被験者の外観情報を取得し、取得した前記外観情報をAIモデルに入力して前記被験者の感情を推定する感情推定装置であって、
前記AIモデルは、
同じタイミングで、前記被験者の生体信号と前記外観情報を取得し、
取得した前記生体信号に基づき感情指標値を算出し、
取得した前記外観情報を入力値とし、前記感情指標値を正解値とする教師付き学習データを生成し、
生成した前記教師付き学習データで学習して生成される、
感情推定装置。
【請求項9】
被験者の外観情報を取得し、取得した前記外観情報をAIモデルに入力して前記被験者の感情を推定する感情推定装置であって、
前記AIモデルは、
同じタイミングで、前記被験者の脳波と心拍と外観情報を取得し、
取得した前記脳波におけるβ波とα波との比に基づき覚醒度を算出し、
取得した前記心拍における波形信号の低周波成分の標準偏差に基づき活性度を算出し、
取得した前記外観情報を入力値とし、前記覚醒度を正解値とする覚醒度学習用教師付き学習データを生成し、
取得した前記外観情報を入力値とし、前記活性度を正解値とする活性度学習用教師付き学習データを生成し、
生成した前記覚醒度学習用教師付き学習データで前記覚醒度の推定用の前記AIモデルを学習し、
生成した前記活性度学習用教師付き学習データで前記活性度の推定用の前記AIモデルを学習して生成される、
感情推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、感情推定AIに係る学習方法、学習装置、学習プログラム、及び感情推定装置に関する。
【背景技術】
【0002】
従来、生体信号(例えば、心拍と脳波)に基づき感情を推定する感情推定システムが知られている(例えば特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、生体信号を用いた感情推定装置では、心拍や脳波といった接触センサによる比較的高精度な数値データが必要であり、またこれら数値データを用いた感情推定のための処理は複雑になる。しかし、感情推定対象者に対する接触センサの装着は面倒であり、特に車載用装置へ適用する場合、運転者等の乗員に接触センサを装着することはあまり現実的ではない。このため、視線や顔の向き、或いは音声等の非接触センサによるデータを感情推定に用いることが望まれる。
【0005】
しかしながら、感情推定の処理は複雑であり、数値化し難いデータであることから感情推定精度にも不安がある。これらの理由から、感情をAIモデルを用いて推定(算出)する方法の採用が期待される。また、感情推定装置は、その利用用途によって、推定対象とする感情の種別が異なったり、適切な感情判定閾値が異なったりする場合等があり、汎用性を有する感情推定用のAIモデルが望まれる。
【0006】
本発明は、上記の課題に鑑み、感情推定装置の利用用途が変わる等しても適切な感情推定ができるような汎用性を有する感情推定用のAIモデルを提供することを目的とする。
【課題を解決するための手段】
【0007】
例示的な本発明の感情推定AIの学習方法は、同じタイミングで、被験者の生体信号と外観情報を取得し、取得した前記生体信号に基づき感情指標値を算出し、取得した前記外観情報を入力値とし、前記感情指標値を正解値とする教師付き学習データを生成し、生成した前記教師付き学習データでAIモデルを学習する。
【発明の効果】
【0008】
本発明によれば、感情に相関があると推定され、遠隔系のセンサで情報を取得できる被験者の外観情報を入力値とし、精度が期待できる生体信号に基づく感情指標値を正解値として学習を行うので、外観情報を入力値として感情指標値を出力する感情推定用の学習済みAIモデルの高精度化が可能となり、またAIモデルの汎用性も期待できる。
【図面の簡単な説明】
【0009】
【
図2】感情推定の複数次元(2次元)モデル(心理平面)の一例を示す図
【
図3】ニュートラル領域を含む心理平面の一例を示す図
【
図5】
図4の感情推定装置のコントローラが実行する感情推定処理を示すフローチャート
【
図8】2人の被験者の感情指標値(覚醒度)の時間変化を示す模式図
【
図10】覚醒度のニュートラル領域を推定するためのタスク実行時の覚醒度の時間変化を示す模式図
【
図11】感情指標値(覚醒度)の時間変化を示す模式図
【
図12】データ蓄積期間に対するニュートラル領域の上限推定値の収束状況を示す図
【
図14】2人の被験者の感情指標値(覚醒度)の時間変化を示す模式図
【
図15】
図7の学習装置のコントローラが実行する感情推定AIの学習処理を示すフローチャート
【発明を実施するための形態】
【0010】
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。なお、本発明は以下に示す実施形態の内容に限定されるものではない。
【0011】
<1.感情推定装置>
まず、感情推定装置について説明する。
図1は、感情推定装置20の概念的構成を示す構成図である。
【0012】
感情推定装置20の感情推定モデル222mは、感情に関する心身状態を示す指標である2つの感情指標値に基づき感情を推定する。本実施形態で用いる感情指標値の1つは、中枢神経系覚醒度(以下、覚醒度と称する)であり、その指標値は「脳波のβ波/α波」で算出することができる。また、他の感情指標値は、自律神経系の活性度(以下、活性度と称する)であり、その指標値は「心拍LF(Low Frequency)成分(心拍波形信号の低周波成分)の標準偏差」で算出することができる。
【0013】
感情推定モデル222mは、覚醒度と活性度とに基づく感情推定用のモデル(算出式や変換データテーブル)により構成される。感情推定モデル222mは、覚醒度と活性度とをパラメータとして感情を推定する複数次元モデル(ここでは覚醒度と活性度とを2軸とする2次元モデル)により構成される。なお、2次元モデルは、複数の各指標と感情との関係(覚醒度・活性度と、感情との関係)を示す医学的エビデンス(論文等)に基づいて作成される。或いは、2次元モデルは、多くの被験者によるアンケート結果(被験者による感情申告とその際の覚醒度・活性度(脳波・心拍計測値に基づく)からなるデータ)に基づいて作成される。なお、感情推定モデル222mを2次元モデルだけでなく、3次元以上の多次元モデルとすることも可能である。
【0014】
図2は、感情推定の複数次元(2次元)モデル(心理平面)の一例を示す図である。心理学に関する各種医学的エビデンスによると、心理は身体状態を示す2種類の指標に基づき推定できるとされる。
図2に示される心理平面は、縦軸が「覚醒度(覚醒-不覚醒)」であり、横軸が「自律神経系の活性度(交換神経活性(強い感情)-副交感神経活性(弱い感情)」である。
【0015】
この心理平面では、縦軸と横軸で分離される4つの象限のそれぞれに、該当する心理状態が割り当てられている。各軸からの距離が、該当する心理状態の強度を示す。第一象限には「楽しい、喜び、怒り、悲しみ」の心理状態が割り当てられている。また、第二象限には「憂鬱」の心理状態が割り当てられている。また、第三象限には「リラックス、落ち着き」の心理状態が割り当てられている。また、第四象限には「不安、恐怖、不愉快」の心理状態が割り当てられている。
【0016】
なお、軸の位置は実験(被験者の覚醒度及び活性度を計測し、統計的処理を施す)等に基づき適宜設定されることになるが、後述(
図10、
図11参照)するニュートラル領域の決定方法において、決定したニュートラル領域の中央を軸とする方法や、後述(
図12参照)する正規化方法において、正規化後の感情指標値の変動範囲を多くの被験者で計測し、それら計測変動範囲の中央値の平均を軸とする方法等が、可能である。
【0017】
そして、生体信号に基づいて得られる2種類の心身状態の指標値(覚醒度及び活性度)を、心理平面にプロットすることにより得られる座標から、心理状態の推定を行うことができる。具体的には、プロットした座標が、心理平面のどの象限に存在するか、象限内のどの位置にあるか、また原点から距離がどの程度であるかに基づき、心理状態とその強度を推定することができる。なお、
図2に示す感情推定モデルは、2次元の平面であるが、使用する指標数に応じて3次元以上の多次元空間となる。
【0018】
なお、感情強度の推定は難しく、比較的大きな誤差を伴い、また使用用途も限られるので、感情指標値が心理平面のどの象限に存在するかに基づき感情種別のみを判定し、当該感情を利用するのが多用される使用方法である。
【0019】
また、感情強度が強い場合、つまり感情指標値が最大値側、最小値側に大きく振れている場合は、感情推定精度は高くなる。しかし、感情強度が弱い場合、つまり感情指標値が中央値付近にある場合は、感情推定精度は低くなる。このため、感情指標値の中央値付近の領域をニュートラル領域として、推定感情無、感情推定不可といった判定をする方法が考えられる。
【0020】
図3は、ニュートラル領域を含む心理平面の一例を示す図である。
図3において、斜線で示す領域NR1、NR2は、ニュートラル領域である。
【0021】
「覚醒度」の感情指標におけるニュートラル領域の上限値及び下限値は、YP及びYNであり、上限値YP及び下限値YNで挟まれる領域が「覚醒度」に対する覚醒度ニュートラル領域NR1である。また「活性度」の感情指標におけるニュートラル領域の上限値及び下限値は、XP及びXNであり、上限値XP及び下限値XNで挟まれる領域が「活性度」に対する活性度ニュートラル領域NR2である。
【0022】
これらニュートラル領域(上限値YP、下限値YN、上限値XP及び下限値XN)の設定は、実験等により適宜設定することも可能である。なお、第1AIモデル121mA及び第2AIモデル121mBの学習時に適当な値を算出するため、当該算出値を適用することもできる。なお、具体的な、ニュートラル領域の決定方法例については、後述(
図10、
図11参照)する。
【0023】
感情推定装置20は、入力された感情指標「覚醒度」と「活性度」とを、このような心理平面で示される感情推定モデル222mに当て嵌めて(座標としてプロットして)用いて感情を推定する。
【0024】
感情推定装置20の感情推定モデル222mは、脳波データ及び心拍データに基づき算出される感情指標の覚醒度及び活性度を使用するため、脳波データ及び心拍データを入力とする。なお、本実施形態では、脳波センサ及び心拍センサにより検出される脳波データ及び心拍データではなく、視線、顔向き、音声からAIモデルにて推定された感情指標の覚醒度及び活性度を入力する。これは、感情推定の対象者に接触センサである脳波センサ及び心拍センサを装着する手間を省くための技術であり、非接触センサであるカメラ、マイク等を用いて視線、顔向き、音声のデータを収集し、AIモデルにて推定された脳波データ及び心拍データを推定するものである。例えば、車両の運転手の感情を推定して、車両の走行制御等に用いる場合等では、運転手に接触センサを装着するのは実用上困難であり、本技術は特に有用になる。
【0025】
つまり、感情指標の算出には、通常生体信号が必要であるが、生体信号は接触型のセンサが大半であり、用途に制限が加わるという課題がある。このため、非接触系のセンサで検出可能な感情推定対象者(被験者)の外観に基づく情報を検出センサの利用が望まれる。なお、ここでの外観情報とは、画像データだけでなく音声等の非接触系センサ(遠隔検出系センサ:カメラ、マイク等)で検出可能な情報も含まれる。
【0026】
図1に示した感情推定装置20の使用例において、ユーザU2は、車両V2の運転者である。当該推定方法で用いられる第1AIモデル121mA及び第2AIモデル121mBは、運転者(ユーザU2)の感情の推定に用いられる。第1AIモデル121mA及び第2AIモデル121mBは、別途学習が行われて、学習済みモデルとして提供され、感情推定装置20に搭載される。なお、感情推定装置20の詳細については後述する。
【0027】
なお、感情推定装置20は、車両V2に搭載されるコンピュータ装置で実現でき、また車両V2とネットワークを介して接続されたサーバでも実現できる。また、当該サーバは、物理サーバであっても、仮想サーバであっても良い。
【0028】
車両V2には、車載センサとして、カメラCと、マイクMとが搭載されている。そして、カメラCの撮影画像に基づくユーザU2(運転者)の視線データ及び顔向きデータと、マイクMの取得したユーザU2(運転者)の音声データとが、第1AIモデル121mA及び第2AIモデル121mBに入力されている。
【0029】
なお、図示の例では、カメラCの撮影画像を画像認識処理等によって処理し、視線データ(眼球部の画像や、視線(向き)を示すテキスト・数値データに加工したデータ)及び顔向きデータ(顔面の画像や、顔面の向きを示すテキスト・数値データに加工したデータ)に加工して、第1AIモデル121mA及び第2AIモデル121mBに入力しているが、カメラCの撮影画像を入力しても良い。なお、入力データ種別に応じた第1AIモデル121mA及び第2AIモデル121mB(入力データ種別に応じて設計され、学習が施されたAIモデル)が、感情推定装置20に搭載されることになる。
【0030】
また、視線データ及び顔向きデータは、感情推定タイミングに合わせたタイミングの静止画データで良い。なお、視線データ及び顔向きデータは、感情推定にはそれらの動きが重要なものとなるので、感情推定タイミングに合わせた期間の動画データ、例えば感情推定タイミングの直前の予め定めた時間長の動画が好ましい。同様に、音声データも感情推定タイミングの直前の予め定めた時間長の動画が好ましい。例えば、感情推定間隔が1秒の場合、感情推定タイミングTaにおいては、時刻Ta-10秒(始点)から時刻Ta(終点)までの顔面の動画像データに基づく視線データ、顔向きデータ、及び音声データを、第1AIモデル121mA及び第2AIモデル121mBに入力する。なお、第1AIモデル121mA及び第2AIモデル121mBは、このようなデータ形態の学習用入力データにより学習されることになる。
【0031】
第1AIモデル121mAは、ユーザU2の視線データ、顔向きデータ、及び音声データを入力して、感情指標の覚醒度を出力するAIモデルであり、当該入出力に適した構造に設計されている。そして、第1AIモデル121mAは、視線データ、顔向きデータ、及び音声データを入力データとし、当該入力データに対応する覚醒度を正解データとする多くの学習データのデータセットで学習されている。
【0032】
また、第2AIモデル121mBは、ユーザU2の視線データ、顔向きデータ、及び音声データを入力して、感情指標の活性度を出力するAIモデルであり、当該入出力に適した構造に設計されている。そして、第2AIモデル121mBは、視線データ、顔向きデータ、及び音声データを入力データとし、当該入力データに対応する活性度を正解データとする多くの学習データのデータセットで学習されている。なお、第1AIモデル121mA及び第2AIモデル121mBの学習方法の詳細については、後述する。
【0033】
そして、第1AIモデル121mA及び第2AIモデル121mBは、ユーザU2の視線データ、顔向きデータ、及び音声データに基づいて推定(出力)した2種類の感情指標である覚醒度及び活性度を、感情推定モデル222mに出力する。感情推定モデル222mは、これら入力された覚醒度及び活性度に基づいて感情を推定する。
【0034】
なお、感情推定モデル222mは、使用用途、つまり推定結果の対象感情種別(上記2次元モデルにおける各座標(領域)に割り当てられる感情種別)によって変化する。例えば、eスポーツに利用される場合には、eスポーツでの利用に適した感情種別が上記2次元モデルに割り当てられることになる。したがって、ユーザU2の視線データ、顔向きデータ、及び音声データに基づき感情を推定するAIモデルを用いる場合と比較して、第1AIモデル121mA及び第2AIモデル121mBを用いて覚醒度及び活性度(感情指標値)を推定し、それら感情指標値を用いて感情を推定する方が汎用性が高まる、つまりいろいろな用途の感情推定装置に適用し易いという利点がある。
【0035】
<2.車両制御システム>
次に、推定された感情データを用いて車両制御を行う車両制御システムについて、
図4を用いて説明する。
図4は、車両制御システム40の構成を示すブロック図である。
図4では、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素の記載は省略されている。
【0036】
図4に示すように、車両制御システム40は、感情推定装置20と、車両制御装置30と、アクチュエータ部41と、報知部42と、を備える。なお、図示は省略するが、車両制御システム40は、キーボード、タッチパネル等の入力装置や、ディスプレイ等の出力装置を備える。
【0037】
<2-1.感情推定装置>
感情推定装置20は、通信部21と、記憶部22と、コントローラ23と、を備える。感情推定装置20は、一般的には制御の即応性が求められるので、本例のように車両V2に搭載されるが、車両V2とネットワークを介して接続されたサーバで構成することも可能である。
【0038】
記憶部22には、
図1で示した学習済みの第1AIモデル121mA及び学習済みの第2AIモデル121mBを記憶する第1AIモデル記憶部221A及び第2AIモデル記憶部221Bが設けられる。
【0039】
なお、第1AIモデル121mA及び第2AIモデル121mBは、例えば、次のようにして第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに記憶される。
【0040】
車両制御システム40の製作者等が、システムの組み立て時等に、学習済み第1AIモデル121mA及び第2AIモデル121mBが書き込まれたメモリを第1AIモデル記憶部221A及び第2AIモデル記憶部221Bとして搭載する。或いは、車両制御システム40の製作者等が、学習済み第1AIモデル121mA及び第2AIモデル121mBが記憶された外部記憶装置を車両制御システム40(感情推定装置20)に接続し、当該第1AIモデル121mA及び第2AIモデル121mBを読み込んで第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに書き込む。或いは、車両制御システム40の製作者等が、ネットワークを介して学習装置10から学習済み第1AIモデル121mA及び第2AIモデル121mBを受信し、第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに書き込む。
【0041】
また、記憶部22には、
図1で示した感情推定モデル222mを記憶する感情推定モデル記憶部222が設けられる。なお、感情推定モデル記憶部222には、感情推定に必要な各種データ、例えば、
図2或いは
図3で示した感情指標値から感情を推定するためのデータである心理平面テーブル224等が記憶される。
【0042】
なお、心理平面テーブル224は、
図2或いは
図3に示した感情推定モデル(心理平面)を形成するデータで、2種類の感情指標値(覚醒度、活性度)と、それに対応する感情情報を関連づけたデータ群となる。また、このような感情推定モデル(感情推定モデルを構成する各種データ)も、第1AIモデル121mA及び第2AIモデル121mBと同様の方法で、感情推定装置20の設計時、或いは組み立て時等に、記憶部22(感情推定モデル記憶部222)に記憶されることになる。
【0043】
コントローラ23は、感情推定装置20の各種動作等を制御するものであり、演算処理等を行うプロセッサを含み、例えばCPUで構成される。コントローラ23は、その機能として、取得部231と、挙動判定部232と、感情推定部233と、提供部234と、を備える。コントローラ23の機能は、記憶部22に記憶されるプログラムに従った演算処理をプロセッサが実行することによって実現される。
【0044】
取得部231は、通信部21を介して、カメラC、及びマイクMによって撮影・集音された感情推定対象者であるユーザU2の各種情報(画像情報、音声情報)を取得する。取得部231は、取得した各種情報を、その後の処理のために必要に応じて記憶部22に形成されたデータテーブルに記憶する。なお、取得部231は、実質的に同時刻におけるこれらの情報を取得して、一つのデータセットとしてデータテーブルに記憶する。そして、これらデータは当該時刻における挙動状態、感情を推定するために使用される。
【0045】
挙動判定部232は、取得部231が取得した、ユーザU2の画像情報及び音声情報に対して解析処理を行うことで、ユーザU2の視線や顔の向き、表情、音声等の予め定めれた種類の挙動を判定する。予め定めれた種類の挙動は、第1AIモデル121mA及び第2AIモデル121mBが入力とするデータ種に対応する挙動であり、本実施形態の場合、具体的には、視線、顔向き、音声(内容)となる。
【0046】
したがって、挙動判定部232は、第1AIモデル121mA及び第2AIモデル121mBの入力仕様(設計条件、学習条件等により定まる)に応じた各種処理を行うことになる。当該各種処理は、例えば、処理対象期間の画像(静止画或いは動画)及び音声データの切り出し処理、カメラCの撮影画像からのユーザU2の顔面や眼球部分の切り出し処理及び向きの検出処理、並びにマイクMの出力信号の周波数解析処理等である。なお、音声データの切り出し処理では、例えば、感情推定タイミングの直前10秒間のデータ等を切り出す。なお、データ種別に応じて時間長を変更しても良い。
【0047】
そして、第1AIモデル121mA及び第2AIモデル121mBは、学習時の入力データと種別(内容・様式)が同じデータの入力に対して適切な推定(正解)データを出力する。このため、挙動判定部232の出力データ種別(内容・様式)は、第1AIモデル121mA及び第2AIモデル121mBの学習時の入力データと同じものとする必要がある。挙動判定部232は、そのようなデータ処理を行うことになる。挙動判定部232のこれらの動作を実現するためのプログラムやデータは、記憶部22に記憶される。
【0048】
感情推定部233は、挙動判定部232の判定した挙動のデータに基づき、ユーザU2の感情を推定する。詳細には、挙動判定部232の判定した挙動のデータを第1AIモデル121mA及び第2AIモデル121mBに入力する。その結果、第1AIモデル121mA及び第2AIモデル121mBは、ユーザU2の視線や顔の向き、表情、音声等に係る挙動情報に基づき推定したユーザU2の感情指標値(覚醒度及び活性度)を出力する。そして、第1AIモデル121mA及び第2AIモデル121mBが出力したユーザU2の推定感情指標値は、感情推定モデル222mに入力される。そして、感情推定モデル222mは、ユーザU2の感情指標値に基づいてユーザU2の感情を推定し、出力する。
【0049】
なお、上述の感情推定に用いる各データ(カメラ撮影画像、マイク集音音声、挙動情報、推定感情指標値等)としては、適当な期間長における複数の各データを統計処理(平均処理、ローパスフィルタ処理等)等したデータを用いて、感情を推定するようにしても良い。この場合、統計処理は、統計処理が行われるデータ種別に応じて、適宜、取得部231、挙動判定部232、或いは感情推定部233で行うことになる。
【0050】
提供部234は、感情推定部233によって推定されたユーザU2の感情を、車両制御装置30に提供する。これにより、車両制御装置30において、ユーザU2の感情に基づく車両V2の制御が行えるようになる。
【0051】
<2-2.車両制御装置、及び他の構成要素>
車両制御装置30は、例えば車両制御用のECU(Electronic Control Unit)であって、車両V2に搭載される。車両制御装置30は、コントローラ31と、記憶部32と、通信部33と、を備える。
【0052】
コントローラ31は、車両V2の運転者であるユーザU2による運転操作や、接続された各種センサ(不図示)、例えば車速センサ、空燃比センサ、操舵角センサ等からの情報に基づき各種車両制御、例えば車両V2の向きや速度等の制御を行う。さらに、コントローラ31は、通信部33を介し、感情推定装置20からユーザU2の感情に係る情報(推定感情)を受信する。そして、コントローラ31は、受信した推定感情情報も利用した車両制御、例えば速度、アクセル感度、ブレーキ感度等の制御を行う。具体的には、コントローラ31は、運転者が興奮した状態では、アクセル感度を低くする(加速し難くする)、ブレーキ感度を高くする(停止し易くする)、最高速度制御の上限を低くする、という安全側に寄せた、つまり運転者の興奮度の影響を抑えたような走行制御を行う。
【0053】
また、推定感情情報自体の報知や、当該推定感情情報に応じた報知を行う。具体的には、コントローラ31は、運転者が興奮した状態では、「落ち着きましょう」と言う表示や音声案内を行い、各種音声案内における音声の質を落ち着いた話し方・表現とする制御を行う。
【0054】
記憶部32は、記憶部12と同様に各種メモリにより構成され、コントローラ31が処理で使用するデータ等、例えばプログラム、処理用係数データ、処理中の一時記憶データ等を記憶する。そして、記憶部32には、感情推定装置20から受信した感情に係る情報と、車両V2の制御信号及び車室内のユーザU2へ報知情報との対応付けがなされた各種処理用の複数のデータテーブルが設けられる。
【0055】
通信部33は、感情推定装置20、アクチュエータ部41、及び報知部42との間でデータの通信を行うためのインタフェースであり、例えばCAN(Controller Area Network)インターフェースである。
【0056】
アクチュエータ部41は、車両の各種動作を実現するモータ等で構成された各種駆動部品で、車両制御装置30によってその動作が駆動制御される。具体的に言えば、例えば、アクチュエータ部41は、車両V2において駆動力を発生させるエンジン及びモータと、車両V2のステアリングを駆動させるステアリングアクチュエータと、車両V2のブレーキを駆動させるブレーキアクチュエータ等である。
【0057】
報知部42は、車両制御装置30からの報知情報を、視覚的、聴覚的方法等により車室内のユーザU2等に報知する。具体的に言えば、例えば、報知部42は、ユーザU2に、文字、画像、映像等によって報知情報を伝える液晶ディスプレイや音声、警告音等によって報知情報を伝えるスピーカ等で構成される。
【0058】
車両制御装置30は、各種センサからの情報、及び感情推定装置20から提供されたユーザU2の感情に基づいて車両V2の制御信号を生成して出力する。具体的に言えば、例えばユーザU2が感情を高揚させている場合や、恐怖を感じている場合に、車両制御装置30は、表示部やスピーカを介して「気持ちを落ち着かせましょう」といったことを表示、音声によって伝える。また、車両制御装置30は、例えば、車速センサや障害物センサ(レーダ等)等からの情報に基づき車両V2の速度制御を行うが、ユーザU2が感情を高揚させている場合には通常の感情に比べで速度を遅くした速度制御を行う。
【0059】
すなわち、車両制御システム40は、車両V2の運転者であるユーザU2の感情を推定し、推定した当該感情も考慮した車両V2の動作、例えば走行制御を行う。この構成によれば、ユーザU2の感情に応じた車両V2の制御を行うことができる。したがって、本実施形態によれば、安全運転に影響のある運転者の感情に応じた車両V2の制御が可能となるので、車両V2の安全運転に寄与することが可能である。
【0060】
<2-3.感情推定装置(コントローラ)の処理>
図5は、
図4の感情推定装置20のコントローラ23が実行する感情推定処理を示すフローチャートである。このフローチャートは、コンピュータ装置に感情推定処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、提供(販売、流通等)される。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0061】
図5に示す処理は、車両V2が始動し、推定感情に基づく各種制御を開始するタイミングで起動し、その後各種制御に対して適当なタイミングで、つまり感情推定が必要なタイミングで、或いは感情推定が必要な時間帯に渡って繰り返し実行される。
【0062】
ステップS111において、コントローラ23(取得部231)は、ユーザU2の挙動を示すデータ、具体的にはユーザU2に対するカメラ撮影画像、マイク集音音声を取得し、ステップS112に移る。取得した各種情報は、必要に応じて記憶部22のデータテーブルに記憶される。
【0063】
ステップS112において、コントローラ23(挙動判定部232)は、ステップS111で取得した(取得部231が取得した)各データ(カメラ撮影画像、マイク集音音声)に基づいてユーザU2の挙動、具体的には視線、顔向き、音声(内容)を判定し、ステップS113に移る。
【0064】
ステップS113において、コントローラ23(感情推定部233)は、ステップS112で判定した挙動判定結果(挙動判定部232による挙動判定結果)に基づく各データを入力値として第1AIモデル121mA及び第2AIモデル121mBに入力し、それぞれ覚醒度及び活性度の感情指標を第1AIモデル121mA及び第2AIモデル121mBに推定させ、ステップS114に移る。
【0065】
ステップS114において、コントローラ23(感情推定部233)は、推定した2種類の感情指標値(覚醒度、活性度)を感情推定モデル222m(心理平面テーブル224のデータ)に適用(入力)して、ユーザU2の感情を推定し、ステップS115に移る。
【0066】
ステップS115において、コントローラ23(提供部234)は、車両制御装置30に感情推定部233が推定したユーザU2の推定感情情報を提供(出力)し、処理を終了する。
【0067】
なお、1回毎の推定された感情は、センサ出力のノイズ等による悪影響(誤判定)があると推定されるので、予め定めた所定期間の平均・最頻値を採用する等、統計的処理を施した推定感情を採用することが好ましい。このため、コントローラ23(提供部234)は、推定感情にタイムスタンプを付加して蓄積し、統計的処理を施した推定感情を車両制御装置30に提供する(ステップS115)ことが好ましい。なお、車両制御装置30が推定感情情報を蓄積して統計的処理を施し、その結果を制御に用いる方法も適用可能である。
【0068】
<3.感情推定用AIの学習方法>
次に、第1AIモデル121ma及び第2AIモデル121mbの学習方法について説明する。なお、学習前と学習後のモデルを識別し易くするために、学習前モデルは第1AIモデル121ma及び第2AIモデル121mbとし、また学習後モデルは第1AIモデル121mA及び第2AIモデル121mBとし、符号の最後尾文字で学習前後を識別できるように表記する。
図6は、感情推定AIの学習方法の一例を示す説明図である。
【0069】
本実施形態において、ユーザU1は、学習データ生成のための被験者であり、感情推定装置20の開発チームにおけるメンバー等が当該被験者となる。なお、使用者が限定される個人専用の感情推定装置20の場合、被験者は使用者であることが好ましいが、他人であっても類似性はあるので、被験者は使用者と他人であっても良い。また、使用者が限定されない汎用の感情推定装置20の場合、被験者は使用者と他人となるが、複数の被験者で学習データを生成すれば、いろいろな特性の被験者による学習データが得られ、汎用性が高い感情推定装置20となることが期待できる。また、本実施形態においては、車載の感情推定装置20を想定しているので、環境が近い車載装置で学習を行うこととしており、被験者のユーザU1は車両V1の運転者である。
【0070】
なお、AIモデルの学習に用いる学習データは、AIモデルの用途によって適切な情報が決まる。例えば、特定の運転者に対するAI適用装置の場合には該当の運転者における情報が適切な情報となり、いろいろな運転者に対するAI適用装置の場合には多種多様な運転者における情報が適切な情報となる。また、運転者に対するAI適用装置の場合には運転者における情報が適切な情報となり、運転者以外の車両各乗員に対するAI適用装置の場合には運転者以外の各種乗員における情報が適切な情報となる。そして、学習データは、AIモデルによる感情推定の精度を高くするために、多くの情報を必要とする。
【0071】
本実施形態においては、AI適用装置を、運転者全般(特定の個人ではなく、一般の運転者)に適用できることとする。それら運転者の感情に基づき車両の制御を行う装置とするため、AI学習のための実験走行試運転は、いろいろなタイプの複数被験者によるいろいろなパターンの実験走行試運転が好ましい。なお、各被験者による学習は同様であるので、ある一人の被験者(運転者)での学習について説明する。
【0072】
また、例えば、AI適用装置が医療機関における診療装置の場合、被験者に適したユーザU1(情報収集対象)は医療機関における患者や医師等になる。また、AI適用装置が教育機関における教育指導装置の場合、被験者に適したユーザU1は生徒や教師等になる。また、AI適用装置がeスポーツ関連装置、エンターテイメントのコンテンツ関連装置の場合、被験者に適したユーザU1はeスポーツのプレイヤーやコンテンツの視聴者等になる。
【0073】
また、学習装置10を車両V1に搭載して学習を行わせることも、また学習装置10を研究開発室等の車両V1以外の場所に設置して学習を行わせることも可能である。後者の場合、車両V1に乗車した被験者のユーザU1の各生体データ等(脳波、心拍、画像、音声等の計測データ)を、記録媒体を介して、或いは通信回線を介して学習装置10に入力する。なお、本実施形態では、学習装置10を車両V1に搭載して学習を行わせる例について説明する。
【0074】
車両V1に搭載された学習装置10の記憶装置(メモリ等)にAIモデルの記憶部が設けられ、学習前の第1AIモデル121ma及び第2AIモデル121mbが記憶される。そして、学習装置10が以下で説明する学習処理を実行することにより、学習前のAIモデルの学習が行われ、学習済AIモデル、つまりAI適用装置に実装される第1AIモデル121mA及び第2AIモデル121mBが生成されることになる。
【0075】
学習後の第1AIモデル121mA及び第2AIモデル121mBは、前述の
図1、
図4に示した感情推定装置20で使用されることになる。したがって、第1AIモデル121maの学習データは、入力データがユーザU1の視線や顔の向き、表情、音声等の挙動情報(感情推定装置20の第1AIモデル121mAの入力データと同じ(種別、様式の)データ)で、正解データが感情指標値の覚醒度である。また、第2AIモデル121mbの学習データは、入力データがユーザU1の視線や顔の向き、表情、音声等の挙動情報(感情推定装置20の第2AIモデル121mBの入力データと同じ(種別、様式の)データ)で、正解データが感情指標値の活性度である。
【0076】
このため、学習装置10が搭載される車両V1には、感情推定装置20で使用される(感情推定装置20に入力される)データを出力する各種の車載センサが設けられる。本実施形態において、具体的には、車載センサは、カメラCと、マイクMとを含む。カメラCは、運転者U1の視線と顔の向きのデータが得られるように、顔面が映った撮影画像情報を出力する。マイクMは、運転者U1が発する発生音等の音声情報を検出する。カメラC及びマイクMは、例えば車両V1のフロントガラス、或いはダッシュボード付近に、運転者U1の方向を撮影方向及び集音方向とするように設置される。
【0077】
そして、カメラC及びマイクMの出力は、
図4の挙動判定部232と同様の構成の挙動判定部134によりの挙動データ化の処理が行われ、視線、顔向き、音声の挙動データに加工される。そして、これらの挙動データが、学習装置の第1AIモデル121ma及び第2AIモデル121mbに入力値として入力されることになる。
【0078】
運転者U1には、生体センサが装着される。本実施形態において、生体センサは、脳波を検出する脳波センサS11と、心拍を検出する心拍センサS12と、である。脳波センサS11は、例えばヘッドギア型の脳波センサが用いられる。心拍センサS12は、例えば胸ベルト型の心電式心拍センサが用いられる。なお、生体センサは、取得したい生体情報、装着性等に応じて他のセンサを追加、変更しても良い。他の生体センサとしては、例えば光学式心拍(脈拍)センサ、血圧計、またはNIRS(Near Infrared Spectroscopy)装置等であっても良い。
【0079】
そして、脳波センサS11が出力する脳波データと、心拍センサS12が出力する心拍データは、感情指標値である覚醒度及び活性度に変換される。具体的には、前述の覚醒度及び活性度の算出方法と同様の方法で、覚醒度は「脳波のβ波/α波」で算出され、活性度は「心拍LF(Low Frequency)成分(心拍波形信号の低周波成分)の標準偏差」で算出される。
【0080】
さらに、各感情指標値は、個人差による影響、環境による影響等を低減するため、正規化処理が施される。そして、正規化された感情指標値の覚醒度は、正解値として第1AIモデル121maに入力される。また、正規化された感情指標値の活性度は、正解値として第2AIモデル121mbに入力される。
【0081】
つまり、第1AIモデル121maは、入力値(例題)が視線、顔向き、及び音声の挙動データであり、正解値が正規化された覚醒度である教師付き学習データセットで学習が行われることになる。したがって、学習済み第1AIモデル121mAは、
図1に示すような入力値を視線、顔向き、音声の挙動データとし、出力を覚醒度とするAIモデルとして生成される。
【0082】
また、第2AIモデル121mbは、入力値(例題)が視線、顔向き、及び音声の挙動データであり、正解値が正規化された活性度である教師付き学習データセットで学習が行われることになる。したがって、学習済み第2AIモデル121mBは、
図1に示すような入力値を視線、顔向き、音声の挙動データとし、出力を活性度とするAIモデルとして生成される。
【0083】
続いて、
図6を参照して、第1AIモデル121ma及び第2AIモデル121mbの学習方法(AIの学習プロセス)の流れを説明する。なお、センサの装着等の具体的な作業は、AIモデルの学習担当作業者、被験者(運転者U1)等が行うことになる。
【0084】
学習装置10の記憶装置(メモリ等)には、視線、顔の向き、音声の情報を入力として覚醒度を推定する第1AIモデル121ma(学習前)と、視線、顔の向き、音声の情報を入力として活性度を推定する第2AIモデル121mb(学習前)が記憶される。なお、第1AIモデル121ma(学習前)及び第2AIモデル121mb(学習前)は、事前にAI設計開発者等が、AI設計用のコンピュータを用いて、またAIモデルの仕様(使用形態、要求性能等)に応じて、別途、作成することになる。
【0085】
運転者U1は、学習装置10が搭載された車両に乗車し、車両に搭載されたカメラC及びマイクMの位置、向き、感度等の調整等を行う。また、運転者U1は、脳波センサS11及び心拍センサS12を装着する。以上のような学習の準備が整うと、運転者U1等が学習装置10を起動し学習が開始される。なお、必要に応じて(車両走行が学習条件であるなど)、運転者U1は車両の運転(操作)を開始する。
【0086】
カメラC及びマイクMは、ユーザU1の画像及び発する音声を検出し、画像情報及び音声情報を学習装置10に出力する。
【0087】
脳波センサS11及び心拍センサS12は、ユーザU1の生体信号である脳波及び心拍を検出し、学習装置10に出力する。
【0088】
そして、学習装置10は、同じタイミングのユーザU1の画像情報及び音声情報と、脳波及び心拍とを対のデータ(1個の学習データ)として、以降の処理を行う。
【0089】
学習装置10は、入力された生体信号の脳波及び心拍を、感情指標値化処理により覚醒度及び活性度に変換する。さらに、学習装置10は、変換生成した覚醒度及び活性度に正規化処理を施し、正規化覚醒度及び正規化活性度を生成する。また、学習装置10は、入力されたユーザU1の画像情報及び音声情報を挙動データ化して、視線、顔の向き、音声の情報を生成する。
【0090】
そして、学習装置10は、視線、顔の向き、音声の情報を入力値とし、正規化覚醒度を正解値とする第1AIモデル121ma用の学習データを生成する。また、学習装置10は、視線、顔の向き、音声の情報を入力値とし、正規化活性度を正解値とする第2AIモデル121mb用の学習データを生成する。そして、学習装置10は、各タイミングにおけるこれら学習データを集合化して、各モデル用の学習データセットを形成する。その後、学習装置10は、生成した当該各学習データセットで、第1AIモデル121ma及び第2AIモデル121mbの学習を行う。
【0091】
具体的には、学習装置10は、生成した各学習データセットの学習データを順次、第1AIモデル121ma及び第2AIモデル121mbに入力する。そして、学習装置10は、誤差逆伝播学習法等の学習アルゴリズムを用いて、第1AIモデル121ma及び第2AIモデル121mbにおける重み等のパラメータを調整する等の学習を行う。
【0092】
これにより、各センサにより順次検出される各データに基づき生成される数多くの教師付き学習データにより、第1AIモデル121ma及び第2AIモデル121mbの学習が行われ、感情推定装置20で使用される学習済み第1AIモデル121mA及び第2AIモデル121mBが生成されることになる。
【0093】
<4.感情推定用AI学習装置の構成>
図7は、学習装置10の一例を示す構成図である。
図7では、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素の記載は省略されている。
【0094】
図7に示すように、学習装置10は、通信部11と、記憶部12と、コントローラ13と、を備える。学習装置10は、いわゆるコンピュータ装置で構成できる。なお、図示は省略するが、学習装置10は、キーボード等の入力装置や、ディスプレイ等の出力装置を備える。
【0095】
通信部11は、通信ネットワークを介して他の装置、各種センサ類との間でデータの通信を行うためのインタフェースである。通信部11は、例えばNIC(Network Interface Card)で構成される。
【0096】
記憶部12は、揮発性メモリ及び不揮発性メモリを含んで構成される。揮発性メモリには、例えばRAM(Random Access Memory)で構成される。不揮発性メモリには、例えばROM(Read Only Memory)、フラッシュメモリ、ハードディスクドライブで構成される。不揮発性メモリには、コントローラ13により読み取り可能なプログラム及びデータが格納される。不揮発性メモリに格納されるプログラム及びデータの少なくとも一部は、有線や無線で接続される他のコンピュータ装置(サーバ装置)、または可搬型記録媒体から取得される構成としても良い。
【0097】
記憶部12には、第1AIモデル記憶部121Aと、第2AIモデル記憶部121Bとが設けられる。第1AIモデル記憶部121Aと第2AIモデル記憶部121Bとのそれぞれには、学習対象の第1AIモデル121maと第2AIモデル121mbとが記憶される。さらに、記憶部12には、各種処理用のデータテーブルとして、タスクテーブル123と、ニュートラル領域テーブル124とが設けられる。タスクテーブル123及びニュートラル領域テーブル124については後述する。
【0098】
コントローラ13は、学習装置10の各種機能を実現するもので、演算処理等を行うプロセッサを含む。プロセッサは、例えばCPU(Central Processing Unit)を含んで構成される。コントローラ13は、1つのプロセッサで構成されても良いし、複数のプロセッサで構成されても良い。複数のプロセッサで構成される場合には、それらのプロセッサは互いに通信可能に接続され、協働して処理を実行する。なお、学習装置10をクラウドサーバで構成することも可能であり、その場合、プロセッサを構成するCPUは仮想CPUであって良い。
【0099】
コントローラ13は、その機能として、取得部131と、指標値算出部132と、正規化部133と、挙動判定部134と、生成部135と、提供部136と、を備える。本実施形態においては、コントローラ13の機能は、記憶部12に記憶されるプログラムに従った演算処理をプロセッサが実行することによって実現される。
【0100】
取得部131は、通信部11を介して、カメラC、マイクM、脳波センサS11、及び心拍センサS12によって検出された各種情報(画像情報、音声情報、脳波情報、心拍情報)を取得する。取得部131は、取得した各種情報を、その後の処理のために必要に応じて記憶部12に形成されたデータテーブルに記憶する。なお、取得部131は、実質的に同時刻におけるこれらの情報を取得して、一つのデータセットとしてデータテーブルにおける一つのデータレコードに記憶する。そして、これらデータは一つの教師付き学習データを生成するために使用される。
【0101】
指標値算出部132は、生体情報の脳波及び心拍のデータに基づき感情指標値である覚醒度及び活性度を算出する。前述したように、覚醒度は「脳波のβ波/α波」で算出することができる。また、活性度は「心拍LF成分の標準偏差」で算出することができる。なお、これら感情指標値の算出に必要な算出式等のデータは、記憶部12に記憶される。
【0102】
正規化部133は、感情指標値に対して正規化処理を施す。脳波情報、心拍情報といった生体信号、特に数値系の(定量的な)生体信号は個人差があり、また周囲環境の影響を受けるので、それらを低減させるために正規化処理を実行する。次に、正規化処理の具体的方法について説明する。
【0103】
図8は、2人の被験者の感情指標値(覚醒度)の時間変化を示す模式図である。
図8に示す4つのグラフにおいて、横軸は時間、縦軸は生体信号に基づく感情指標値である。なお、説明を分かり易くするため、ここでは感情指標値は覚醒度として説明する。
【0104】
図8において、左側(a1、a2)は第1被験者のデータであり、右側(b1、b2)は第2被験者のデータであり、上段(a1、b1)は正規化前のデータであり、下段(a2、b2)は正規化後のデータである。なお、説明を分かり易くするため、各被験者において計測期間内で覚醒度が上限・下限に振れた状態例で説明する。
【0105】
図8(a1、b1)に示すように、第1被験者と第2被験者とのそれぞれの覚醒度の振れ幅は大きく異なり、第1被験者よりも第2被験者のほうが大きくなっている。すなわち、この例では、第1被験者は計測される覚醒度の幅が狭い、換言すれば覚醒度に対する感度が低いと言える。これに対して、第2被験者は計測される覚醒度の幅が広い、換言すれば覚醒度に対する感度が高いと言える。なお、覚醒度に対する感度等は、被験者生来の個人差だけでなく、環境差、例えば周囲の温湿度や照明等の明るさ、被験者の状態、例えば空腹度などの計測時における各種条件の影響も受ける。
【0106】
感情指標値においては、その振れ幅の中央付近にニュートラル状態(中立状態:
図8においてNRで表記)が存在する。覚醒度の場合、覚醒状態と非覚醒状態(睡眠様状態)との間に中立状態、いわゆる通常状態が存在する。このようなニュートラル状態の領域(領域境界)は、特定のタスクの実行により比較的判別(推定)し易い傾向にある。このため、本実施形態では、このニュートラル状態の領域を用いた正規化方法、つまりニュートラル状態の領域を同じにする感情指標値の補正を行う。
【0107】
図8(a1、b1)に示すように、ニュートラル領域NRは、個人差等により各被験者間では、その位置(ニュートラル領域の上下限値:第1被験者ニュートラル上限値Max1、第1被験者ニュートラル下限値Min1、第2被験者ニュートラル上限値Max2、第2被験者ニュートラル下限値Min2)、幅(ニュートラル領域の上下限値の差:第1被験者ニュートラル幅W1(Max1-Min1)、第2被験者ニュートラル幅W2(Max2-Min2))が異なっている。
【0108】
そこで、各被験者のニュートラル領域NRが、予め定めた標準のニュートラル領域NR0と同じ位置、幅(標準上限値Max0、標準下限値Min0、標準幅W0(Max0-Min0))となるように、感情指標値(覚醒度)の補正を行う。具体的には、以下の算出式を用いて感情指標値(覚醒度)の補正を行う。なお、活性度等の他の感情指標値も同様の方法(覚醒度に対する各パラメータを、補正対象感情指標値の対応するパラメータで置き換える)で補正できる。
【0109】
第1被験者覚醒度:計測値に基づく(補正前)覚醒度AW1B、補正後覚醒度AW1A
第2被験者覚醒度:計測値に基づく(補正前)覚醒度AW2B、補正後覚醒度AW2A
AW1A=AW1B×A1+B1
AW2A=AW2B×A2+B2
A1=(Max0-Min0)/(Max1-Min1)
A2=(Max0-Min0)/(Max2-Min2)
B1=((Max0+Min0)-(Max1+Min1)×A1)/2
B2=((Max0+Min0)-(Max2+Min2)×A2)/2
【0110】
なお、第n被験者(ニュートラル上限値Maxn、ニュートラル下限値Minn)で一般化すると、次のようになる。
【0111】
第n被験者覚醒度:計測値に基づく(補正前)覚醒度AWnB、補正後覚醒度AWnA
AWnA=AWnB×An+Bn
An=(Max0-Min0)/(Maxn-Minn)
Bn=((Max0+Min0)-(Maxn+Minn)×An)/2
【0112】
このような正規化方式(算出式)により、第n被験者の覚醒度を正規化する場合、第n被験者覚醒度のニュートラル上限値Maxn、第n被験者ニュートラル下限値Minnを推定する必要がある。このニュートラル領域の推定のために、被験者に特定のタスクを実行させ、その際の覚醒度を計測する。そして、その覚醒度の計測値に基づき第n被験者覚醒度のニュートラル上限値Maxn、第n被験者ニュートラル下限値Minnを推定する。実行されるタスクは、タスクを行った被験者が特定の心身状態(特定状態)となるようなタスクであり、例えば覚醒度がニュートラル上限値を境にして上側で振れる等のタスクであり、医学・心理学等の分野の研究でエビデンスが得られているタスクが何種類か知られている。つまり、これらのタスクを被験者に行わせることで被験者の特定の心身状態とし、当該特定の心身状態における被験者生体信号(値)を用いて正規化処理を実行するという技術思想である。
【0113】
図9は、タスクテーブル123の一例を示す図である。
図9に示すように、タスクテーブル123の項目には、「タスクID」、「対応指標種別」、「タスク内容」、及び「指標値遷移状態」が含まれる。
【0114】
「タスクID」は、タスク情報を識別するための識別情報であるタスクIDデータである。タスクIDデータは、タスクテーブル123におけるデータレコードの主キーでもある。つまりタスクテーブル123では、タスクIDデータごとにデータレコードが構成され、当該データレコードにタスクIDデータに紐づいた各項目のデータが記憶されることになる。
【0115】
「対応指標種別」は、正規化対象の感情指標種別である。例えば、覚醒度、活性度が記憶されることになる。
【0116】
「タスク内容」は、正規化処理のために被験者が実行するタスクの具体的内容である。
【0117】
「指標値遷移状態」は、対応する(同じレコードに記憶された)タスク内容を被験者が実行した場合に対応する感情指標値が遷移すると推定される状態で、例えば「高覚醒度:覚醒度が覚醒側(覚醒度高)側の状態(高指標値状態)になる」といったデータが記憶されることになる。
【0118】
このタスクテーブル123によれば、例えばタスクIDがST01のタスクデータは、対象感情指標が覚醒度であり、覚醒度の状態遷移が高覚醒度であり、そして具体的タスク内容は「表示される数字を暗算加算する」となる。
【0119】
そして、正規化処理の対象、つまり対象の感情指標、及びニュートラル領域の対象境界に応じて、被験者に実行させるタスク内容が選択されることになる。例えば、覚醒度の正規化処理のために覚醒度のニュートラル領域の上側境界を推定する場合は、「対応指標種別」が「覚醒度」、「指標値遷移状態」が「高覚醒度」である「タスク内容」の「表示される数字を暗算加算する」が、被験者に実行させるタスクとして選択されることになる。
【0120】
ニュートラル領域の推定手法の具体例について、
図10を参照しながら説明する。なお、説明を分かり易くするため、感情指標として覚醒度を例にして、また
図9のタスクテーブル123のデータを使用して説明する。
【0121】
図10は、覚醒度のニュートラル領域NR(上下境界値NRU,NRD)を推定するために、タスクテーブル123のタスクST01及びタスクST02が選択された例におけるタスク実行時の覚醒度の時間変化を示す模式図である。そして、グラフの横軸は時間、縦軸は覚醒度である。信号αは、タスクST01のタスク内容「表示される数字を暗算加算する」を被験者が実行した際の覚醒度の時間変化を表す。信号βは、タスクST02のタスク内容「安静にして拳を握る」を被験者が実行した際の覚醒度の時間変化を表す。
【0122】
図10に示すように、被験者が覚醒度が高い状態となるタスクST01を実行している状態では、被験者の覚醒度は高い状態(高指標値状態)にあるため、計測される被験者の覚醒度は高覚醒度の領域内で変化(変動)することが予想される。したがって、タスクST01を実行中(効果のタイムラグを考慮すれば、実行開始からタイムラグ相当時間経過後から、実行終了からタイムラグ相当時間経過後までの期間)における覚醒度の最低値は、覚醒度のニュートラル領域NRの上限値NRUと推定できる。
【0123】
また、被験者が覚醒度が低い状態となるタスクST02を実行している状態では、被験者の覚醒度は低い状態(非覚醒状態、低指標値状態)にあるため、計測される被験者の覚醒度は低覚醒度(非覚醒状態)の領域内で変化することが予想される。したがって、タスクST02を実行中(効果のタイムラグを考慮すれば、実行開始からタイムラグ相当時間経過後から、実行終了からタイムラグ相当時間経過後までの期間)における覚醒度の最高値は、覚醒度のニュートラル領域NRの下限値NRDと推定できる。
【0124】
このような、技術思想に基づいて覚醒度等の感情指標値に対するニュートラル領域を推定する。
【0125】
正規化部133は、上記に方法によりニュートラル領域NRを決定するが、具体的には、第1タスクの実行時に得られる感情指標値(覚醒度:信号α)の時間変化データを統計処理して、ニュートラル領域NRの上限値NRUを決定する。例えば、正規化部133は、第1タスクの実行時に得られる生体信号の時間変化データをスムージング処理し、スムージング処理後の信号αデータの最小値をニュートラル領域NRの上限値NRUとする。
【0126】
また、正規化部133は、第2タスクの実行時に得られる感情指標値(活性度:信号β)の時間変化データを統計処理して、ニュートラル領域NRの下限値NRDを決定する。例えば、正規化部133は、第2タスクの実行時に得られる生体信号の時間変化データをスムージング処理し、スムージング処理後の信号βデータの最大値をニュートラル領域NRの下限値NRDとする。なお、スムージング処理は、例えば、微細なピーク信号のようなノイズ成分等の除去を目的として行われる。
【0127】
なお、正規化部133は、感情指標値の種別ごとにニュートラル領域の上限値及び下限値を決定する。このために、本実施形態では、覚醒度及び活性度のそれぞれのデータについて、上述のようなニュートラル領域上限決定用の第1タスク及びニュートラル領域下限決定用の第2タスクの実行が被験者(ユーザ)に対して要求される。そして、覚醒度及び活性度のそれぞれについて、各タスクの実行時における覚醒度及び活性度の計測(算出)結果に応じて覚醒度及び活性度の各ニュートラル領域の決定処理が行われる。
【0128】
また、以上では、第1タスクの実行時に得られる感情指標値(覚醒度:信号α)の変動範囲である第1変動範囲と、第2タスクの実行時に得られる感情指標値(活性度:信号β)の変動範囲である第2変動範囲とが離れていることを前提として、2つの変動範囲の間をニュートラル領域NRとした(
図10参照)。
【0129】
しかしながら、感情指標値の種類や、タスクの内容によっては、上述の第1変動範囲と第2変動範囲とが重なることもあり得る。このような場合には、第1変動範囲と第2変動範囲との重畳範囲に基づきニュートラル領域を決定しても良い。例えば、第1変動範囲と第2変動範囲との重畳範囲をニュートラル領域とする、第1変動範囲と第2変動範囲との重畳範囲に適当なオフセット(感情の誤判定を防止する観点から適当な値、例えば10%範囲拡大、を設定)を加えて拡大した範囲或いはオフセット(感情の判定不能を防止する観点から適当な値、例えば10%範囲縮小、を設定)を減じて縮小した範囲をニュートラル領域とする、といった方法が可能である。
【0130】
次に、ニュートラル領域の決定処理の第2例について説明する。第2例では、被験者(ユーザU1)に対し、上記第1タスク及び第2タスクといった特定のタスクの実行を要求しない。第2例では、感情指標値の計測(算出)の時系列データの蓄積が進むにつれて、統計処理で推定されるニュートラル領域の上限値と下限値とのそれぞれが一定の値に収束するという点に着目して、ニュートラル領域を決定する。
【0131】
この第2例におけるニュートラル領域を決定する手法について、
図11を参照しながら説明する。
図11は、感情指標値(覚醒度)の時間変化を示す模式図であり、横軸が時間、縦軸が覚醒度である。
【0132】
図11に示すように、人の心身状態は、特定のタスクを与えなくても、時間に伴って変化する環境等の変化に基づき様々な状態に変化する。したがって、統計処理的に相当量の感情指標値の時系列データを蓄積し、蓄積したデータを値の大きさで3つの状態(高覚醒度、ニュートラル、低覚醒度(睡眠様状態))に分けるクラスタ分析を行うことによってニュートラル領域(ニュートラル領域の上限値及び下限値)を推定することができる。クラスタ分析には、公知の手法、例えば、k-means法、大津の多値化手法、混合ガウスモデル等が利用できる。
【0133】
図12は、
図11に示したような統計的手法によりニュートラル領域を決定する場合において、データ蓄積期間(データ蓄積量に比例)に対するニュートラル領域の上限推定値の収束状況を示す図である。なお、ニュートラル領域の下限推定値の収束状況も同様となる。
【0134】
統計的手法を用いたニュートラル領域の上限値の推定に利用されるデータ量は、時間の経過とともに増大する。時間の経過にともなって統計処理に用いるデータ量が増大することにより、推定される上限値は、時間の経過に伴って一定の値に収束していく。この傾向は、下限値でも同様である。収束した上限値及び下限値で特定されるニュートラル領域は、信頼性が高いと解される。このため、統計的手法で算出される上限値及び下限値が収束したと判定された段階で、ニュートラル領域を決定する。なお、収束の判定は、ニュートラル領域の上限値(下限値)の算出値の変動値(例えば、数回の算出値における平均変化値)が、適当に設定された収束判定閾値以下になった場合に収束と判定する、といった方法が可能である。
【0135】
なお、正規化部133は、感情指標値種別(覚醒度及び活性度)ごとにニュートラル領域の上限値及び下限値を決定する。
【0136】
正規化部133は、決定したニュートラル領域の上限値及び下限値を記憶部12のニュートラル領域テーブル124に記憶する。詳細には、正規化部133は、決定したニュートラル領域の上限値及び下限値をデータテーブル化して記憶部12に記憶する。なお、被験者(ユーザ)ごとのニュートラル領域情報を、ニュートラル領域テーブル124に記憶する方法が有効である。その場合、同じ被験者で学習データセットを再作成(追加作成)際に、ニュートラル領域テーブル124に記憶されたニュートラル領域情報を利用することも可能となる。
【0137】
図13は、ニュートラル領域テーブル124の一例を示す図である。
図13に示すように、ニュートラル領域テーブル124の項目には、「ニュートラル情報ID」、「ユーザID」、「感情指標種別」、「上限値」、「下限値」、及び「取得日時」が含まれ、各項目欄(記憶部)には対応するデータが記憶される。
【0138】
「ニュートラル情報ID」は、ニュートラル情報を識別するための識別情報である。ニュートラル情報IDは、ニュートラル領域テーブル124におけるデータレコードの主キーでもある。つまり、ニュートラル領域テーブル124では、ニュートラル情報IDごとにデータレコードが構成され、当該データレコードにニュートラル情報IDに紐づいた各項目のデータが記憶されることになる。
【0139】
「ユーザID」は、ユーザ情報を識別するための識別情報である。つまり、ニュートラル領域の決定に使用される感情指標データ計測に対する被験者のデータである。
【0140】
「上限値」及び「下限値」は、正規化部133により決定されたニュートラル領域の上限値及び下限値の情報である。
【0141】
「取得日時」は、ニュートラル領域の上限値及び下限値の情報が取得(決定・記憶)された日時情報を記憶する。なお、同じユーザID、同じ感情指標種別の「上限値」及び「下限値」と、「取得日時」は、最新の情報が取得されるごとに更新される。
【0142】
他、被験者(ユーザU1)から感情申告に基づき、ニュートラル領域を推定する方法も可能である。
【0143】
具体的には、正規化部133(コントローラ13)は、被験者(ユーザ)に被験者が自覚している感情指標状態に関する質問(例えば、覚醒状態を3段階(覚醒、通常、非覚醒(眠い))のいずれかであるかの質問)を行い、その回答とその際に計測(算出)された感情指標値(覚醒度)を蓄積する。そして、正規化部133は、その蓄積データに統計的処理を施し、ニュートラル領域を推定する。例えば、被験者の回答が「通常」の際に算出された覚醒度の高値10%の平均値と低値10%の平均値をニュートラル領域の上限値、下限値とする。或いは、例えば、被験者の回答が「覚醒」の際に算出された覚醒度の低値10%の平均値から適当なオフセット値を減じた値をニュートラル領域の上限値とし、被験者の回答が「非覚醒」の際に算出された覚醒度の高値10%の平均値から適当なオフセット値を加えた値をニュートラル領域の下限値とする、といった方法が適用可能である。
【0144】
以上の正規化方法は、感情指標値のニュートラル領域に基づき行う方法であるが、別の方法で行うこともできる。次に示す方法は、適当な計測期間内に算出される感情指標値の範囲(上限値及び下限値)に基づき正規化を行う方法である。
【0145】
図14は、2人の被験者の感情指標値(覚醒度)の時間変化を示す模式図である。
図14に示す4つのグラフにおいて、横軸は時間、縦軸は生体信号に基づく感情指標値である。なお、説明を分かり易くするため、ここでは感情指標値は覚醒度として説明する。
【0146】
図14において、左側(a1、a2)は第1被験者のデータであり、右側(b1、b2)は第2被験者のデータであり、上段(a1、b1)は正規化前のデータであり、下段(a2、b2)は正規化後のデータである。なお、説明を分かり易くするため、各被験者において計測期間内で覚醒度が上限・下限に振れた状態例で説明する。
【0147】
図14(a1、b1)に示すように、第1被験者と第2被験者とのそれぞれの覚醒度の振れ幅は大きく異なり、第1被験者よりも第2被験者のほうが大きくなっている。すなわち、この例では、第1被験者は計測される覚醒度の幅が狭い、換言すれば覚醒度に対する感度が低いと言える。これに対して、第2被験者は計測される覚醒度の幅が広い、換言すれば覚醒度に対する感度が高いと言える。なお、覚醒度に対する感度等は、被験者生来の個人差だけでなく、環境差、例えば周囲の温湿度や照明等の明るさ、被験者の状態、例えば空腹度などの計測時における各種条件の影響も受ける。
【0148】
本正規化方法は、適当な計測期間における感情指標値(覚醒度)の変動範囲が、被験者の感情指標値に関する感度及び計測環境に応じて変化するという考えに基づく正規化方法であり、感情指標値(覚醒度)の変動範囲を同じにする感情指標値の補正を行う。
【0149】
図14(a1、b1)に示すように、覚醒度の変動範囲CHは、個人差等により各被験者間では、その位置(変動範囲の上下限値:第1被験者変動範囲上限値Max1、第1被験者変動範囲下限値Min1、第2被験者変動範囲上限値Max2、第2被験者変動範囲下限値Min2)、幅(変動範囲の上下限値の差:第1被験者変動範囲幅W1(Max1-Min1)、第2被験者変動範囲幅W2(Max2-Min2))が異なっている。
【0150】
そこで、各被験者の変動範囲CHが、予め定めた標準の変動範囲CH0と同じ位置、幅(標準上限値Max0、標準下限値Min0、標準幅W0(Max0-Min0))となるように、感情指標値(覚醒度)の補正を行う。具体的には、以下の算出式を用いて感情指標値(覚醒度)の補正を行う。なお、活性度等の他の感情指標値も同様の方法(覚醒度に対する各パラメータを、補正対象感情指標値の対応するパラメータで置き換える)で補正できる。
【0151】
第1被験者覚醒度:計測値に基づく(補正前)覚醒度AW1B、補正後覚醒度AW1A
第2被験者覚醒度:計測値に基づく(補正前)覚醒度AW2B、補正後覚醒度AW2A
AW1A=AW1B×A1+B1
AW2A=AW2B×A2+B2
A1=(Max0-Min0)/(Max1-Min1)
A2=(Max0-Min0)/(Max2-Min2)
B1=((Max0+Min0)-(Max1+Min1)×A1)/2
B2=((Max0+Min0)-(Max2+Min2)×A2)/2
【0152】
なお、第n被験者(変動範囲上限値Maxn、変動範囲下限値Minn)で一般化すると、次のようになる。
【0153】
第n被験者覚醒度:計測値に基づく(補正前)覚醒度AWnB、補正後覚醒度AWnA
AWnA=AWnB×An+Bn
An=(Max0-Min0)/(Maxn-Minn)
Bn=((Max0+Min0)-(Maxn+Minn)×An)/2
【0154】
上記の正規化方法によれば、被験者による特別なタスクの実行やそのタスク実行の際のデータ収集、収集したデータの演算等の必要がない。このため、被験者の負担を軽減することができ、また学習装置の処理負荷、学習の時間削減を図ることができる。
【0155】
図7に戻って、説明を続ける。挙動判定部134は、取得部131が取得した、ユーザU1(
図6参照)の顔を含む画像情報、発生音声に対して解析処理を行うことで、ユーザU1の視線や顔の向き、表情、音声等の予め定められた種類の挙動を判定する。なお、挙動判定部134の行う処理と、
図4の挙動判定部232の行う処理は同等であり、それぞれ同形式の視線、顔の向き、表情、音声のデータを出力する。
【0156】
例えば、ユーザU1の視線に関して、挙動判定部134は、ユーザU1の顔を含む画像からユーザU1の左右の眼球を検知対象物とした特徴量算出、形状判別等の認識処理を行う。挙動判定部134は、当該認識処理の結果に基づき、例えば目頭の位置、眼の虹彩及び瞳孔の中心位置、近赤外照明による角膜反射像(プルキニエ像)の中心位置、眼球の中心位置等を用いた所定の視線検出処理によりユーザU1の視線及び注視点の挙動を判定する。ユーザU1の視線は、例えばユーザU1の前方にユーザU1と正対する仮想平面に設け、ユーザU1の視線ベクトルが仮想平面を貫く位置の二次元座標で表すことができる。
【0157】
また、例えば、ユーザU1の顔の向きに関して、挙動判定部134は、ユーザU1の顔を含む画像からユーザU1の顔を検知対象物とした特徴量算出、形状判別等の認識処理を行う。挙動判定部134は、当該認識処理の結果に基づき、例えば目、鼻、口等のそれぞれの位置、鼻頂部の位置、顔の輪郭、顔の輪郭の幅方向の中心位置等を用いた所定の顔向き検出処理によりユーザU1の顔の向きの挙動を判定する。
【0158】
また、例えば、ユーザU1の表情に関して、挙動判定部134は、ユーザU1の顔を含む画像からユーザU1の顔を検知対象物とした特徴量算出、形状判別等の認識処理を行う。挙動判定部134は、当該認識処理の結果に基づき、例えば口角の角度、眉の角度、目の開き具合等を用いた所定の表情検出処理によりユーザU1の表情の挙動を判定する。
【0159】
また、例えば、ユーザU1の声等の発音を含む音声情報に対して、ユーザU1の、音声音量や発声速度、発言頻度、音声認識結果に基づく発声内容の言語解析結果(例えば喜びや怒り、不安等に関係する単語や文章の出現)に基づき、ユーザU1の音声の挙動を判定する。
【0160】
生成部135は、第1AIモデル121maに、挙動判定部134によって判定されたユーザU1の視線や顔の向き、表情、音声の情報を入力値とし、正規化部133によって正規化された感情指標値の覚醒度を正解値としてそれぞれ入力し、第1AIモデル121maの学習を行う。また、生成部135は、第2AIモデル121mbに、挙動判定部134によって判定されたユーザU1の視線や顔の向き、表情、音声の情報を入力値とし、正規化部133によって正規化された感情指標値の活性度を正解値としてそれぞれ入力し、第2AIモデル121mbの学習を行う。
【0161】
つまり、生成部135は、遠隔系センサ(非接触センサ:カメラ、マイク)の検出した情報に基づくユーザU1の挙動情報を入力データとし、接触系の生体信号センサ(接触センサ:脳波センサ、心拍センサ)によって検出された生体信号に基づき算出され、さらに正規化処理が施された感情指標値(覚醒度及び活性度)を正解データとした教師付き学習データセットを生成する。そして、生成部135は、生成した教師付き学習データセットを用いて第1AIモデル121ma及び第2AIモデル121mbの学習を行う。この学習により、学習済みの第1AIモデル121mA及び第2AIモデル121mBは、挙動情報を入力として覚醒度及び活性度を推定するAIモデルとなる。
【0162】
なお、生成部135は、誤差逆伝播学習法等の学習アルゴリズムを用いて、第1AIモデル121ma及び第2AIモデル121mbにおける重み等のパラメータを調整する等して、第1AIモデル121ma及び第2AIモデル121mbの学習を行う。
【0163】
提供部136は、生成部135によって生成された学習済みの第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を、ネットワークを介して後述する車両V2で用いられる感情推定装置20(
図1及び
図4参照)に提供する。これにより、感情推定装置20は、提供部136によって提供された第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を取り込んで第1AIモデル記憶部221A及び第1AIモデル記憶部221Aに記憶する。これにより、感情推定装置20は、感情推定機能がカメラC及びマイクMが取得した画像、音声情報に基づく感情推定が可能となり、車両V2の各種機能において推定した感情情報を利用することができる。
【0164】
なお、提供部136は、生成部135によって生成された学習済みの第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を、ネットワークを介して感情推定装置20に提供するようにしたが、別の方法で提供することも可能である。例えば、第1AIモデル121mAのデータ及び第2AIモデル121mBのデータをAIプラットホームを形成するLSIに書き込んでAI実行LSIを生成し、当該AI実行LSIを感情推定装置20に組み込むことで、第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を提供することもできる。また、通信以外のデータ伝達媒体、例えばメモリカード、光ディスク記録媒体等を用いて感情推定装置20に提供することも可能である。
【0165】
<5.感情推定AIの学習装置の動作例 >
図15は、
図7の学習装置10のコントローラ13が実行する感情推定AIの学習処理を示すフローチャートである。このフローチャートは、コンピュータ装置に感情推定用のAIモデルの学習処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、提供(販売、流通等)される。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0166】
図15に示す処理は、学習装置10の設計者等が感情推定用のAIモデルの学習処理を実行する際、例えばキーボード等の操作部により学習処理の開始操作が行われたときに実行される。なお、車両運転時の学習データセットを収集、生成するのであれば、作業者或いは被験者等による学習データセットの収集開始操作に基づき処理が実行される。
【0167】
ステップS101において、コントローラ13(取得部131)は、カメラC及びマイクMからカメラ画像及びマイク音声のデータを取得し、また脳波センサS11及び心拍センサS12から生体信号(データ)を取得して記憶部12に記憶し、ステップS102に移る。
【0168】
なお、車載装置が収集した各データを用いて研究開発室等に設置された学習装置10にて学習を行う場合は、無線通信や記録媒体で学習装置10に提供された車載装置が収集、蓄積した各データを用いて、ステップS101及び以降の処理が行われることになる。
【0169】
ステップS102において、コントローラ13(挙動判定部134)は、カメラ画像及びマイク音声のデータの各データに基づき挙動(視線、顔向き、音声)を判定し、ステップS103に移る。
【0170】
ステップS103において、コントローラ13(指標値算出部132)は、生体信号の脳波及び心拍データに基づき、感情指標値の覚醒度及び活性度を算出し、ステップS104に移る。
【0171】
ステップS104において、コントローラ13(正規化部133)は、ステップS103で算出した感情指標値の覚醒度及び活性度の各データに対して正規化処理を施し、ステップS105に移る。
【0172】
ステップS105において、コントローラ13(生成部135)は、判定した挙動の視線、顔向き、音声データを入力値とし、正規化された感情指標値の覚醒度を正解値とする覚醒度学習用教師付き学習データを生成して、ステップS106に移る。
【0173】
ステップS106において、コントローラ13(生成部135)は、判定した挙動の視線、顔向き、音声データを入力値とし、正規化された感情指標値の活性度を正解値とする活性度学習用教師付き学習データを生成して、ステップS107に移る。
【0174】
ステップS107において、コントローラ13(生成部135)は、ステップS105で生成した覚醒度学習用教師付き学習データを学習完了前の第1AIモデル121maに提供して第1AIモデル121maの学習を行い、ステップS108に移る。
【0175】
ステップS108において、コントローラ13(生成部135)は、ステップS106で生成した活性度学習用教師付き学習データを学習完了前の第2AIモデル121mbに提供して第2AIモデル121mbの学習を行い、ステップS109に移る。
【0176】
ステップS109において、各モデルの学習が完了したか、ここでは車両V1の学習用走行が終了したか否かを、例えばイグニッションスィッチ状態や車両運転者(学習作業者、被験者)の操作等に基づいて判断し、終了していれば処理を終え、終了していなければステップS101に戻り、学習を継続する。
【0177】
この後、学習が完了した第1AIモデル121mA及び第2AIモデル121mBは、学習装置10を操作するオペレータの指示等に基づき、
図1に示す車両V2で用いられる感情推定装置20等のAIモデル利用装置に提供される。
【0178】
なお、
図15で示した学習処理においては、各センサからデータを収集する都度、教師付き学習データを生成して各AIモデルの学習を行っている。しかしながら、各センサからデータを収集する都度、教師付き学習データを生成して蓄積し、蓄積した学習データで構成される学習データセットを用いて学習完了前の第1AIモデル121ma及び第2AIモデル121mbの学習を行っても良い。
【0179】
その場合、ステップS107は、ステップS105で生成した覚醒度学習用教師付き学習データを蓄積する。ステップS108は、ステップS106で生成した活性度学習用教師付き学習データを蓄積する。そして、ステップS109は、学習データの作成が完了したかを判断し(例えば、車両V1の学習用走行が終了したか否かを、例えばイグニッションスィッチ状態や車両運転者(学習作業者、被験者)の操作等に基づいて判断し)、終了していれば処理を終え、終了していなければステップS101に戻り、学習データの生成処理を継続することになる。
【0180】
また、上記のAIモデルの学習処理においては、各センサから1計測データ単位で学習データを生成している。しかしながら、適当な期間における複数の各データを統計処理したデータ(センサ出力データ、挙動データ或いは感情指標値を統計処理)を用いて学習データを生成し、学習データとすることも可能である。
【0181】
<6.留意事項等>
本明細書中で実施形態として開示された種々の技術的特徴は、その技術的創作の趣旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではない。本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれる。また、本明細書中で示した複数の実施形態は、可能な範囲で適宜組み合わせて実施して良い。
【0182】
また、上記実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能の少なくとも一部は電気的なハードウェア資源によって実現されて良い。ハードウェア資源としては、例えばASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等であって良い。また逆に、ハードウェア資源によって実現されるとした機能の少なくとも一部は、ソフトウェア的に実現されて良い。
【0183】
また、学習装置10及び感情推定装置20のそれぞれの少なくとも一部の機能をプロセッサ(コンピュータ)に実現させるコンピュータプログラムが含まれて良い。なお、そのようなコンピュータプログラムは、コンピュータ読取り可能な不揮発性記録媒体(例えば上述の不揮発性メモリの他、光記録媒体(例えば光ディスク)、光磁気記録媒体(例えば光磁気ディスク)、USBメモリ、或いはSDカード等)に記憶され提供(販売等)されることが可能で、またインターネット等の通信回線を介してサーバ装置で提供する方法、いわゆるダウンロードによる提供も可能である。
【符号の説明】
【0184】
10、60、80 学習装置
13 コントローラ
20、50、70 感情推定装置
22 記憶部
23 コントローラ
30 車両制御装置
31 コントローラ
40 車両制御システム
41 アクチュエータ部
42 報知部
121mA、121ma 第1AIモデル
121mB、121mb 第2AIモデル
131 取得部
132 指標値算出部
133 正規化部
134 挙動判定部
135 生成部
136 提供部
222m 感情推定モデル
231 取得部
232 挙動判定部
233 感情推定部
234 提供部
NR ニュートラル領域
NR1 覚醒度ニュートラル領域
NR2 活性度ニュートラル領域
U1、U2 ユーザ