(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024179054
(43)【公開日】2024-12-26
(54)【発明の名称】感情推定装置、データ処理方法、車載システム、コンピュータプログラム、及び状態推定装置
(51)【国際特許分類】
A61B 5/18 20060101AFI20241219BHJP
A61B 5/16 20060101ALI20241219BHJP
B60W 40/08 20120101ALI20241219BHJP
【FI】
A61B5/18
A61B5/16 120
B60W40/08
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2023097556
(22)【出願日】2023-06-14
(71)【出願人】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】110001933
【氏名又は名称】弁理士法人 佐野特許事務所
(72)【発明者】
【氏名】加藤 徹洋
(72)【発明者】
【氏名】村下 君孝
(72)【発明者】
【氏名】橋本 和真
【テーマコード(参考)】
3D241
4C038
【Fターム(参考)】
3D241DD02A
4C038PP03
4C038PQ03
(57)【要約】
【課題】時系列データを入力データとするAIモデルの性能が十分に発揮できる技術を提供する。
【解決手段】感情推定装置は、被験者の動きに係る時系列外観情報の入力に基づき前記被験者の感情を推定するAIモデルに、推定対象被験者の前記時系列外観情報を入力して前記推定対象被験者の感情を推定する感情推定装置であって、前記推定対象被験者の動きに係る前記時系列外観情報を取得し、前記AIモデルに入力する前記時系列外観情報の時系列長を、前記AIモデルに対して予め設定された基準時系列長に変換する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
被験者の動きに係る時系列外観情報の入力に基づき前記被験者の感情を推定するAIモデルに、推定対象被験者の時系列外観情報を入力して前記推定対象被験者の感情を推定する感情推定装置であって、
前記推定対象被験者の動きに係る前記時系列外観情報を取得し、
前記AIモデルに入力する前記時系列外観情報の時系列長を、前記AIモデルに対して予め設定された基準時系列長に変換する
感情推定装置。
【請求項2】
前記AIモデルは、前記基準時系列長に変換された前記被験者の動きに係る前記時系列外観情報を入力データとする学習データで学習されている
請求項1に記載の感情推定装置。
【請求項3】
前記AIモデルは、
前記時系列外観情報である前記推定対象被験者の顔面動画像に基づき前記推定対象被験者の感情指標値である中枢神経系の覚醒度と自律神経の活性度を推定する感情指標値推定AIモデルと、
前記感情指標値推定AIモデルにより推定された覚醒度と活性度に基づき感情を推定する感情推定モデルと、
を含む請求項1または請求項2に記載の感情推定装置。
【請求項4】
前記感情指標値推定AIモデルは、
脳波センサにより検出された前記被験者の脳波におけるβ波とα波の比に基づき算出される算出覚醒度と、心拍センサにより検出された前記被験者の心拍における低周波成分に基づき算出される算出活性度を正解データとし、前記被験者に対する固有時系列長の前記時系列外観情報を入力データとする学習データで学習された学習済みAIモデルである
請求項3に記載の感情推定装置。
【請求項5】
前記感情指標値を特定状態とするタスクの実行時における前記被験者の生体信号に基づき前記感情指標値を算出し、
算出した前記感情指標値に基づき前記タスクによる影響がある期間である影響期間を推定し、
推定した前記影響期間に基づき前記基準時系列長を決定する
請求項3に記載の感情推定装置。
【請求項6】
前記時系列外観情報の時系列長を前記基準時系列長に変換する処理は、前記時系列外観情報に対する補完処理、または間引き処理である
請求項1に記載の感情推定装置。
【請求項7】
被験者の動きに係る時系列外観情報の入力に基づき前記被験者の感情を推定するAIモデルに入力する前記時系列外観情報の処理方法であって、
取得した前記推定対象被験者の動きに係る前記時系列外観情報の時系列長を、前記AIモデルに対して予め設定された基準時系列長に変換して、前記AIモデルへの入力する時系列外観情報とする
データ処理方法。
【請求項8】
前記感情に相関のある感情指標値を特定状態とするタスクの実行時における前記被験者の生体信号に基づき前記感情指標値を算出し、
算出した前記感情指標値に基づき前記タスクによる影響がある期間である影響期間を推定し、
推定した前記影響期間に基づき基準時系列長を決定する
請求項6に記載の感情推定装置。
【請求項9】
被験者の動画情報の入力に基づき前記被験者の感情を推定するAIモデルに、車両搭載カメラにより撮影された車両運転者の前記動画情報を入力して前記車両運転者の感情を推定し、推定した前記感情に基づき車載装置の制御を行う車載システムであって、
車両搭載カメラから前記車両運転者の前記動画情報を取得し、
前記AIモデルに入力する前記動画情報の時系列長を、前記AIモデルに対して予め設定された基準時系列長に変換する
車載システム。
【請求項10】
被験者の動きに係る時系列外観情報の入力に基づき前記被験者の感情を推定するAIモデルに、推定対象被験者の前記時系列外観情報を入力して前記推定対象被験者の感情を推定する感情推定装置を実現するコンピュータプログラムであって、
前記推定対象被験者の動きに係る前記時系列外観情報を取得する処理と、
前記AIモデルに入力する前記時系列外観情報の時系列長を、前記AIモデルに対して予め設定された基準時系列長に変換する処理と、
を含むコンピュータプログラム。
【請求項11】
物体の動きに係る時系列外観情報の入力に基づき前記物体の状態を推定するAIモデルに、推定対象物体の前記時系列外観情報を入力して前記物体の状態を推定する感情推定装置であって、
前記推定対象物体の動きに係る前記時系列外観情報を取得し、
前記AIモデルに入力する前記時系列外観情報の時系列長を、前記AIモデルに対して予め設定された基準時系列長に変換する
状態推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、感情推定装置、データ処理方法、車載システム、コンピュータプログラム、及び状態推定装置に関する。
【背景技術】
【0002】
従来、ユーザの顔画像に基づき、ユーザの平静状態を含む感情を推定する感情推定装置が知られている(例えば特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、人工知能(AI)の高性能化、普及が進んでおり、人の感情推定を含む物体の状態推定にもAIの適用が考えられる。物体の状態推定に用いられるAIモデルの作成及び精度向上には、多くの物体の外観画像の時系列データ(例えば、動画)等といった状態推定に係る各種データのサンプリングを行う必要がある。さらに、これらサンプリングデータに基づいて教師付き学習データを作成し、学習前AIモデルに学習させる必要がある。
【0005】
しかしながら、従来、AIモデルの処理に用いる時系列データの時系列長は十分に考慮されておらず、AIモデルの性能が十分に発揮できているとは言えないという課題があった。
【0006】
本発明は、上記の課題に鑑み、時系列データを入力データとするAIモデルの性能が十分に発揮できる技術を提供することを目的とする。
【課題を解決するための手段】
【0007】
例示的な本発明の感情推定装置は、被験者の動きに係る時系列外観情報の入力に基づき前記被験者の感情を推定するAIモデルに、推定対象被験者の前記時系列外観情報を入力して前記推定対象被験者の感情を推定する感情推定装置であって、前記推定対象被験者の動きに係る前記時系列外観情報を取得し、前記AIモデルに入力する前記時系列外観情報の時系列長を、前記AIモデルに対して予め設定された基準時系列長に変換する。
【発明の効果】
【0008】
本発明によれば、AIモデルに入力される時系列データの時系列長を好適なものとすることができ、AIモデルによる推定精度を向上する等の効果が期待できる。
【図面の簡単な説明】
【0009】
【
図1】感情推定装置による感情推定処理を示す概念的説明図
【
図2】感情推定の複数次元(2次元)モデル(心理平面)の一例を示す図
【
図4】
図3の感情推定装置のコントローラが実行する感情推定処理を示すフローチャート
【
図5】学習装置による感情推定AIの学習処理を示す概念的説明図
【
図7A】第1被験者の感情指標値の時間変化を示す模式図
【
図7B】第2被験者の感情指標値の時間変化を示す模式図
【
図9】
図6の学習装置のコントローラが実行する感情推定AIの学習処理を示すフローチャート
【
図12A】
図10のデータ処理装置のコントローラが実行する時系列データの固有時系列長の決定処理を示すフローチャート
【
図12B】
図10のデータ処理装置のコントローラが実行する時系列データの固有時系列長の決定処理を示すフローチャート
【
図13】学習装置による感情推定AIの学習処理を示す概念的説明図
【
図15】感情推定装置による感情推定処理を示す概念的説明図
【発明を実施するための形態】
【0010】
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。なお、本発明は以下に示す実施形態の内容に限定されるものではない。
【0011】
<1.感情推定装置の概念的構成>
まず、感情推定装置について説明する。
図1は、感情推定装置20による感情推定処理を示す概念的説明図である。
【0012】
感情推定装置(生体状態推定装置)20の感情推定モデル222mは、感情に関する心身状態を示す指標である2つの感情指標値に基づき感情を推定する。本実施形態で用いる感情指標値の1つは、中枢神経系覚醒度(以下、覚醒度と称する)であり、その指標値は「脳波のβ波/α波」で算出することができる。また、他の感情指標値は、自律神経系の活性度(以下、活性度と称する)であり、その指標値は「心拍LF(Low Frequency)成分(心拍波形信号の低周波成分)の標準偏差」で算出することができる。
【0013】
感情推定モデル222mは、覚醒度及び活性度に基づく感情推定用のモデル(算出式や変換データテーブル)により構成される。感情推定モデル222mは、覚醒度及び活性度をパラメータとして感情を推定する複数次元モデル(ここでは覚醒度及び活性度を2軸とする2次元モデル)により構成される。なお、2次元モデルは、複数の各指標と感情との関係(覚醒度・活性度と、感情との関係)を示す医学的エビデンス(論文等)に基づいて作成される。或いは、2次元モデルは、多くの被験者によるアンケート結果(被験者による感情申告とその際の覚醒度・活性度(脳波・心拍計測値に基づく)からなるデータ)に基づいて作成される。なお、感情推定モデル222mを2次元モデルだけでなく、3次元以上の多次元モデルとすることも可能である。
【0014】
図2は、感情推定の複数次元(2次元)モデル(心理平面)の一例を示す図である。心理学に関する各種医学的エビデンスによると、心理は身体状態を示す2種類の指標に基づき推定できるとされる。
図2に示される心理平面は、本出願人が考案したものであり、縦軸が「覚醒度(覚醒-不覚醒)」であり、横軸が「自律神経系の活性度(交換神経活性(強い感情)-副交感神経活性(弱い感情)」である。
【0015】
この心理平面では、縦軸と横軸で分離される4つの象限のそれぞれに、該当する心理状態が割り当てられている。各軸からの距離が、該当する心理状態の強度を示す。第一象限には「楽しい、喜び、怒り、悲しみ」の心理状態が割り当てられている。また、第二象限には「憂鬱」の心理状態が割り当てられている。また、第三象限には「リラックス、落ち着き」の心理状態が割り当てられている。また、第四象限には「不安、恐怖、不愉快」の心理状態が割り当てられている。なお、軸の位置は、例えば被験者の覚醒度及び活性度を計測し、統計的処理を施すといった実験等に基づいて適宜設定される。
【0016】
そして、生体信号に基づいて得られる2種類の心身状態の指標値(覚醒度及び活性度)を、心理平面にプロットすることにより得られる座標から、心理状態の推定を行うことができる。具体的には、プロットした座標が、心理平面のどの象限に存在するか、象限内のどの位置にあるか、また原点から距離がどの程度であるかに基づき、心理状態とその強度を推定することができる。なお、
図2に示す感情推定モデルは、2次元の平面であるが、使用する指標数に応じて3次元以上の多次元空間となる。
【0017】
感情推定装置20は、入力された感情指標「覚醒度」及び「活性度」を、このような心理平面で示される感情推定モデル222mに当て嵌めて(座標としてプロットして)用いて感情を推定する。
【0018】
感情推定装置20の感情推定モデル222mは、感情指標の覚醒度及び活性度を使用するため、通常は脳波データ及び心拍データを入力とし、入力された脳波データ及び心拍データから算出された感情指標の覚醒度及び活性度が適用される。しかし、本実施形態では、感情推定装置20は、脳波センサ及び心拍センサにより検出される脳波データ及び心拍データではなく、視線、顔向き、音声のデータを入力する。そして、これら視線、顔向き、音声に基づいて第1AIモデル121mA及び第2AIモデル121mBが推定した感情指標の覚醒度及び活性度を感情推定モデル222mに入力する。
【0019】
これは、感情推定の対象者に接触センサである脳波センサ及び心拍センサを装着する手間を省くための技術である。本技術では、非接触センサであるカメラ、マイク等を用いて視線、顔向き、音声のデータ(外観情報)を収集し、当該データを第1AIモデル121mA及び第2AIモデル121mBに入力して感情指標の覚醒度及び活性度を推定する。例えば、車両の運転手の感情を推定して車両の走行制御等に用いる場合等では、運転手に接触センサを装着するのは実用上困難であり、本技術は特に有用になる。
【0020】
なお、
図2に示す感情推定モデルを使用する場合は、視線、顔向き、音声のデータを入力して感情指標の覚醒度及び活性度を2値化(感情推定モデルにおける各座標軸を閾値とする)した各指標の2値化値を出力する第1AIモデル121mA及び第2AIモデル121mBを用いる。そして、これら第1AIモデル121mA及び第2AIモデル121mBの出力を感情推定モデルに適用(入力)して感情を推定する方法も可能である。
【0021】
また、視線、顔向き、音声のデータから脳波データ及び心拍データを推定するAIモデルを用いて、入力された視線、顔向き、音声のデータに基づき脳波データ及び心拍データを推定する。そして、推定した脳波データ及び心拍データを用いて感情指標の覚醒度及び活性度を算出する技術を適用することも可能である。
【0022】
つまり、感情指標の算出には、通常生体信号が必要であるが、生体信号は接触型のセンサが大半であり、用途に制限が加わるという課題がある。このため、非接触系のセンサで検出可能な感情推定対象者(被験者)の外観に基づく情報を検出するセンサの利用が望まれる。なお、ここでの外観情報とは、画像データだけでなく音声等の非接触系センサ(遠隔検出系センサ:カメラ、マイク等)で検出可能な情報も含まれる。
【0023】
図1に示した感情推定装置20の使用例において、ユーザU2は、車両V2の運転者である。当該推定方法で用いられる第1AIモデル121mA及び第2AIモデル121mBは、運転者(ユーザU2)の感情の推定に用いられる。第1AIモデル121mA及び第2AIモデル121mBは、別途学習が行われて、学習済みモデルとして提供され、感情推定装置20に搭載される。なお、感情推定装置20の詳細については後述する。
【0024】
なお、感情推定装置20は、車両V2に搭載されるコンピュータ装置で実現でき、また車両V2とネットワークを介して接続されたサーバでも実現できる。また、当該サーバは、物理サーバであっても、仮想サーバであっても良い。
【0025】
車両V2には、車載センサとして、カメラCと、マイクMとが搭載されている。そして、カメラCの撮影画像に基づくユーザU2(運転者)の視線データ及び顔向きデータと、マイクMの取得したユーザU2(運転者)の音声データとが、第1AIモデル121mA及び第2AIモデル121mBに入力されている。
【0026】
なお、図示の例では、カメラCの撮影画像を画像認識処理等によって処理し、視線データ(眼球部の画像や、視線(向き)を示すテキスト・数値データに加工したデータ)及び顔向きデータ(顔面の画像や、顔面の向きを示すテキスト・数値データに加工したデータ)に加工して、第1AIモデル121mA及び第2AIモデル121mBに入力しているが、カメラCの撮影画像を入力しても良い。なお、入力データ種別に応じた第1AIモデル121mA及び第2AIモデル121mB(入力データ種別に応じて設計され、学習が施されたAIモデル)が、感情推定装置20に搭載されることになる。
【0027】
なお、感情の変化と、視線及び顔向きの動きは即応性があるので、感情推定に用いる視線データ及び顔向きデータは、感情推定タイミングに合わせた期間の動画データ、例えば感情推定タイミングの直前の動画(時系列画像)であって、感情推定に適した時間長である好適時系列長の動画が好ましい。同様に、音声データも感情推定タイミングの直前の予め定めた好適時系列長の音声が好ましい。例えば、感情推定の好適時系列長が10秒の場合、感情推定タイミングTaに対し、時刻Ta-10秒(始点)から時刻Ta(終点)までの顔面の動画データに基づく視線データ、顔向きデータ、及び音声データを、第1AIモデル121mA及び第2AIモデル121mBに入力する。なお、第1AIモデル121mA及び第2AIモデル121mBは、このようなデータ形態(好適時系列長)の学習用入力データにより学習されることになる。
【0028】
また、過去の行動の検証等の目的で、動画等の記録画像等に基づき過去の感情を事後的に推定する場合には、感情推定タイミング以降のデータも記録されており、利用可能である。このため、感情推定タイミングの直前・直後の動画(或いは音声)で、感情推定に適した時間長である好適時系列長の動画(音声)が好ましい。
【0029】
第1AIモデル121mAは、ユーザU2の視線データ、顔向きデータ、及び音声データを入力して、感情指標の覚醒度を出力するAIモデルであり、当該入出力に適した構造に設計されている。そして、第1AIモデル121mAは、視線データ、顔向きデータ、及び音声データを入力データとし、当該入力データに対応する覚醒度を正解データとする多くの学習データのデータセットで学習されている。
【0030】
第2AIモデル121mBは、ユーザU2の視線データ、顔向きデータ、及び音声データを入力して、感情指標の活性度を出力するAIモデルであり、当該入出力に適した構造に設計されている。そして、第2AIモデル121mBは、視線データ、顔向きデータ、及び音声データを入力データとし、当該入力データに対応する活性度を正解データとする多くの学習データのデータセットで学習されている。
【0031】
なお、第1AIモデル121mA及び第2AIモデル121mBの学習方法の詳細については、後述する。
【0032】
そして、第1AIモデル121mA及び第2AIモデル121mBは、ユーザU2の視線データ、顔向きデータ、及び音声データに基づいて感情指標の覚醒度及び活性度を推定(出力)する。感情推定モデル222mには、第1AIモデル121mA及び第2AIモデル121mBにより推定(出力)された感情指標の覚醒度及び活性度が入力される。感情推定モデル222mは、これら入力された覚醒度及び活性度に基づいて感情を推定する。
【0033】
<2.車両制御システム>
次に、推定された感情データを用いて車両制御を行う車両制御システムについて、
図3を用いて説明する。
図3は、車両制御システム40の構成を示すブロック図である。
図3では、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素の記載は省略されている。
【0034】
図3に示すように、車両制御システム40は、感情推定装置20と、車両制御装置30と、アクチュエータ部41と、報知部42と、を備える。なお、図示は省略するが、車両制御システム40は、キーボード、タッチパネル等の入力装置や、ディスプレイ等の出力装置を備える。
【0035】
<2-1.感情推定システム>
【0036】
感情推定システム(車載システム)20Sは、感情推定装置(生体状態推定装置)20と、カメラCと、マイクMと、を含む。カメラCは、ユーザU2(運転者)を撮影し、ユーザU2の動きに係る画像情報(視線及び顔向きを含む顔画像)を出力する。マイクMは、ユーザU2の声等の発音を集音し、ユーザU2の音声情報を出力する。
【0037】
感情推定装置20は、通信部21と、記憶部22と、コントローラ23と、を備える。感情推定装置20は、一般的には制御の即応性が求められるので、本例のように車両V2に搭載されるが、車両V2とネットワークを介して接続されたサーバで構成することも可能である。
【0038】
記憶部22には、
図1で示した学習済みの第1AIモデル121mA及び学習済みの第2AIモデル121mBを記憶する第1AIモデル記憶部221A及び第2AIモデル記憶部221Bが設けられる。
【0039】
なお、第1AIモデル121mA及び第2AIモデル121mBは、例えば、次のようにして第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに記憶される。
【0040】
車両制御システム40の製作者等が、システムの組み立て時等に、学習済み第1AIモデル121mA及び第2AIモデル121mBが書き込まれたメモリを第1AIモデル記憶部221A及び第2AIモデル記憶部221Bとして搭載する。或いは、車両制御システム40の製作者等が、学習済み第1AIモデル121mA及び第2AIモデル121mBが記憶された外部記憶装置を車両制御システム40(感情推定装置20)に接続し、当該第1AIモデル121mA及び第2AIモデル121mBを読み込んで第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに書き込む。或いは、車両制御システム40の製作者等が、ネットワークを介して学習装置10から学習済み第1AIモデル121mA及び第2AIモデル121mBを受信し、第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに書き込む。
【0041】
また、記憶部22には、
図1に示した感情推定モデル222mを記憶する感情推定モデル記憶部222が設けられる。なお、感情推定モデル記憶部222には、感情推定に必要な各種データ、例えば、
図2に示した感情指標値から感情を推定するためのデータである心理平面テーブル224等が記憶される。
【0042】
なお、心理平面テーブル224は、
図2に示した感情推定モデル222m(心理平面)を形成するデータで、2種類の感情指標値(覚醒度、活性度)と、それに対応する感情情報を関連づけたデータ群となる。また、このような感情推定モデル(感情推定モデルを構成する各種データ)も、第1AIモデル121mA及び第2AIモデル121mBと同様の方法で、感情推定装置20の設計時、或いは組み立て時等に、記憶部22(感情推定モデル記憶部222)に記憶されることになる。
【0043】
なお、感情推定モデル222mは、2種類の感情指標値(覚醒度、活性度)から感情値を算出する演算式や、論理式の形式で形成することも可能である。
【0044】
また、記憶部22には、時系列長を統一する際に用いる基準時系列長の時系列長データを記憶する時系列長記憶部225が設けられる。なお、時系列長記憶部225には、被験者個人毎に、当該被験者の感情推定に適した時系列データの時系列長を示す固有時系列長が記憶される。
【0045】
コントローラ23は、感情推定装置20の各種動作等を制御するものであり、演算処理等を行うプロセッサを含み、例えばCPUで構成される。コントローラ23は、その機能として、取得部231と、時系列長統一部232と、挙動判定部233と、感情推定部234と、提供部235と、を備える。コントローラ23の機能は、記憶部22に記憶されるプログラムに従った演算処理をプロセッサが実行することによって実現される。
【0046】
取得部231は、通信部21を介して、カメラC及びマイクMによって撮影、集音された感情推定対象者であるユーザU2の各種外観情報(画像情報、音声情報)を取得する。取得部231は、取得した各種外観情報を、その後の処理のために必要に応じて記憶部22に形成されたデータテーブルに記憶する。なお、取得部231は、実質的に同時刻におけるこれらの外観情報を取得して、一つのデータセットとしてデータテーブルに記憶する。そして、これらのデータは当該時刻における挙動状態、感情を推定するために使用される。
【0047】
時系列長統一部232は、取得部231によって取得された各種外観情報(画像(動画)データ、音声データ)に対し、時系列長の統一処理を行う。なお、動画や音声は、微小時間間隔(基本的には同一時間間隔)の時刻におけるデータを多数繋げたものである。このため、動画や音声は、時系列長(データの数)で表現しているが、視聴上では動画・音声時間長(フレーム時間×フレーム数)に対応する。
【0048】
被験者の外観情報といった被験者の状態推定に用いる時系列データの最適な時系列長は、被験者が個別に備える固有時系列長であって、個人差があり、また周囲環境の影響を受ける。つまり、感情を変動させる何らかの要因が発生してから被験者の感情(或いは感情指標値)が変化する状況(開始タイミング、変化速度や変動幅等)、また表情や声色等が変化する状況(開始タイミング、変化速度や変動幅等)は、個人や環境により差がある。
【0049】
他方、第1AIモデル121ma及び第2AIモデル121mbの性能面や学習時間の面からは、入力データの時系列長は規定されていた方が有利である。つまり、入力データの形式(時系列長)が同じ方が推定精度が期待でき、また学習においても規定時系列長のデータに絞り込んで学習を行えるので学習データ数(時間)を削減できる。
【0050】
そこで、本実施形態において、時系列長統一部232は、基準時系列長を設定し、被験者の時系列データ(動画等)に補完処理(時系列長増加)、間引き(時系列長減少)処理を施し、被験者の時系列データを基準時系列長の時系列データに変換する時系列長統一処理を行う。そして、後段の各処理部では、基準時系列長の時系列データに基づき処理が行われる。
【0051】
この統一処理に用いる基準時系列長は、例えば第1AIモデル121ma及び第2AIモデル121mbの記憶時に、記憶部22の時系列長記憶部225に記憶される。また、被験者個人毎の固有時系列長は、例えば被験者の登録時(最初の感情推定結果の利用前)に記憶部22の時系列長記憶部225に記憶される。なお、基準時系列長、及び固有時系列長の決定方法については後述する。
【0052】
当該基準時系列長は、後述する学習装置10における第1AIモデル121ma及び第2AIモデル121mb(ともに
図6参照)の学習時にも適用され、モデルの学習時及び感情推定装置20による感情推定時において、同じ時系列長が用いられる。時系列データの時系列長の統一処理の具体的方法については、後述する学習装置10の説明において記載する。
【0053】
挙動判定部233は、取得部231が取得し、時系列長統一部232によって時系列長が基準時系列長Nsに統一された、ユーザU2の画像情報及び音声情報に対して解析処理を行うことで、ユーザU2の視線や顔の向き、表情、音声等の予め定められた種類の挙動を判定する。予め定めれた種類の挙動は、第1AIモデル121mA及び第2AIモデル121mBが入力とするデータ種に対応する挙動であり、本実施形態の場合、具体的には、基準時系列長Nsの視線、顔向き、音声(内容)のデータ(各時系列データ(例えば、視線の時間変化状況データ))となる。
【0054】
したがって、挙動判定部233は、第1AIモデル121mA及び第2AIモデル121mBの入力仕様(設計条件、学習条件等により定まる)に応じた各種処理を行うことになる。当該各種処理は、例えば、基準時系列長の画像(動画(連続した多数の静止画))及び音声データの切り出し処理、基準時系列長の画像からのユーザU2の顔面や眼球部分の切り出し処理及び向きの検出処理、並びに基準時系列長の音声信号の周波数解析処理等である。なお、画像データ及び音声データの切り出し処理では、例えば基準時系列長が10秒の場合(画像データ及び音声データの基準時系列長が同じ場合)、感情推定タイミングの直前10秒間の各データを切り出す。また、画像データ及び音声データに対し、異なる基準時系列長を適用しても良い。
【0055】
そして、第1AIモデル121mA及び第2AIモデル121mBは、学習時の入力データと種別(内容・様式・時系列長)が同じデータの入力に対してより適切な(精度が高い)推定(正解)データを出力する傾向がある。このため、挙動判定部233の出力データ種別(内容・様式)は、第1AIモデル121mA及び第2AIモデル121mBの学習時の入力データと同じものとする必要がある。挙動判定部233は、そのようなデータ処理を行うことになる。挙動判定部233のこれらの動作を実現するためのプログラムやデータは、記憶部22に記憶される。
【0056】
感情推定部234は、挙動判定部233が判定した挙動のデータに基づき、ユーザU2の感情を推定する。詳細に言えば、感情推定部234は、挙動判定部233が判定した挙動のデータを第1AIモデル121mA及び第2AIモデル121mBに入力する。その結果、第1AIモデル121mA及び第2AIモデル121mBは、ユーザU2の視線や顔の向き、表情、音声等に係る挙動情報(外観情報)に基づき推定したユーザU2の感情指標値(覚醒度及び活性度)を出力する。そして、第1AIモデル121mA及び第2AIモデル121mBが出力したユーザU2の推定感情指標値(覚醒度及び活性度)が感情推定モデル222mに入力される。そして、感情推定モデル222mは、ユーザU2の推定感情指標値に基づいてユーザU2の感情を推定し、出力する。
【0057】
上記の構成によれば、第1AIモデル121mA及び第2AIモデル121mBは、学習データの入力データである外観情報の時系列長が基準時系列長である学習データで学習されたAIモデルであって、感情推定時における入力データの外観情報の時系列長が基準時系列長である。したがって、学習時と推定時(使用時)におけるAIモデルの入力データ形式(時系列長)が同等となる。その結果、第1AIモデル121mA及び第2AIモデル121mBにおいて、精度の高い感情推定の実現が期待できる。
【0058】
なお、上述の感情推定に用いる推定感情指標値としては、基準時系列長の複数の各データに基づき推定された複数の推定感情指標値を統計処理(平均処理、ローパスフィルタ処理等)等したデータを用いて、感情を推定するようにしても良い。この場合、統計処理は、感情推定部234(第1AIモデル121mA及び第2AIモデル121mBの後段)で行うことになる。
【0059】
提供部235は、感情推定部234によって推定されたユーザU2の感情を、車両制御装置30に提供する。これにより、車両制御装置30において、ユーザU2の感情に基づく車両V2の制御が行えるようになる。
【0060】
<2-2.車両制御装置、及び他の構成要素>
車両制御装置30は、例えば車両制御用のECU(Electronic Control Unit)であって、車両V2に搭載される。車両制御装置30は、コントローラ31と、記憶部32と、通信部33と、を備える。
【0061】
コントローラ31は、車両V2の運転者であるユーザU2による運転操作や、接続された各種センサ(不図示)、例えば車速センサ、空燃比センサ、操舵角センサ等からの情報に基づき各種車両制御、例えば車両V2の向きや速度等の制御を行う。さらに、コントローラ31は、通信部33を介し、感情推定装置20からユーザU2の感情に係る情報(推定感情)を受信する。そして、コントローラ31は、受信した推定感情情報も利用した車両制御、例えば速度、アクセル感度、ブレーキ感度等の制御を行う。具体的には、コントローラ31は、運転者が興奮した状態では、アクセル感度を低くする(加速し難くする)、ブレーキ感度を高くする(停止し易くする)、最高速度制御の上限を低くする、という安全側に寄せた、つまり運転者の興奮度の影響を抑えたような走行制御を行う。
【0062】
また、推定感情情報自体の報知や、当該推定感情情報に応じた報知を行う。具体的には、コントローラ31は、運転者が興奮した状態では、「落ち着きましょう」という表示や音声案内を行い、各種音声案内における音声の質を落ち着いた話し方・表現とする制御を行う。
【0063】
記憶部32は、記憶部12と同様に各種メモリにより構成され、コントローラ31が処理で使用するデータ等、例えばプログラム、処理用係数データ、処理中の一時記憶データ等を記憶する。そして、記憶部32には、感情推定装置20から受信した感情に係る情報と、車両V2の制御信号及び車室内のユーザU2へ報知情報との対応付けがなされた各種処理用の複数のデータテーブルが設けられる。
【0064】
通信部33は、感情推定装置20、アクチュエータ部41、及び報知部42との間でデータの通信を行うためのインタフェースであり、例えばCAN(Controller Area Network)インターフェースである。
【0065】
アクチュエータ部41は、車両の各種動作を実現するモータ等で構成された各種駆動部品で、車両制御装置30によってその動作が駆動制御される。具体的に言えば、例えば、アクチュエータ部41は、車両V2において駆動力を発生させるエンジン及びモータと、車両V2のステアリングを駆動させるステアリングアクチュエータと、車両V2のブレーキを駆動させるブレーキアクチュエータ等である。
【0066】
報知部42は、車両制御装置30からの報知情報を、視覚的、聴覚的方法等により車室内のユーザU2等に報知する。具体的に言えば、例えば、報知部42は、ユーザU2に、文字、画像、映像等によって報知情報を伝える液晶ディスプレイや音声、警告音等によって報知情報を伝えるスピーカ等で構成される。
【0067】
車両制御装置30は、各種センサからの情報、及び感情推定装置20から提供されたユーザU2の感情に基づいて車両V2の制御信号を生成して出力する。具体的に言えば、例えばユーザU2が感情を高揚させている場合や、恐怖を感じている場合に、車両制御装置30は、表示部やスピーカを介して「気持ちを落ち着かせましょう」といったことを表示、音声によって伝える。また、車両制御装置30は、例えば、車速センサや障害物センサ(レーダ等)等からの情報に基づき車両V2の速度制御を行うが、ユーザU2が感情を高揚させている場合には通常の感情に比べで速度を遅くした速度制御を行う。
【0068】
すなわち、車両制御システム40は、車両V2の運転者であるユーザU2の感情を推定し、推定した当該感情も考慮した車両V2の動作、例えば走行制御を行う。この構成によれば、ユーザU2の感情に応じた車両V2の制御を行うことができる。したがって、本実施形態によれば、安全運転に影響のある運転者の感情に応じた車両V2の制御が可能となるので、車両V2の安全運転に寄与することが可能である。
【0069】
<2-3.感情推定装置の処理>
図4は、
図3の感情推定装置20のコントローラ23が実行する感情推定処理を示すフローチャートである。このフローチャートは、コンピュータ装置に感情推定処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、提供(販売、流通等)される。或いは、当該コンピュータプログラムはネットワークを用いて提供(販売、流通等)される。そして、車両制御システム40の製造者、販売者、ユーザ(使用者)等が、当該コンピュータプログラムを車両制御システム40(感情推定装置20)にインストール等により搭載することになる。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0070】
図4に示す処理は、車両V2が始動し、推定感情に基づく各種制御を開始するタイミングで起動し、その後各種制御に対して適当なタイミングで、つまり感情推定が必要なタイミングで、或いは感情推定が必要な時間帯に渡って繰り返し実行される。
【0071】
ステップS101において、コントローラ23(取得部231)は、ユーザU2の挙動を示すデータ(外観情報)、具体的にはユーザU2に対するカメラ撮影画像、マイク集音音声を取得し、ステップS102に移る。取得した各種情報は、必要に応じて記憶部22のデータテーブルに記憶される。
【0072】
ステップS102において、コントローラ23(時系列長統一部232)は、ステップS101において取得部231が取得した各種データ(カメラ撮影画像、マイク集音音声)に対し、時系列長の統一処理を施し、ステップS103に移る。つまり、ステップS102において、コントローラ23(時系列長統一部232)は、感情推定タイミングに基づく時刻を基準とする基準時系列長(例えば、感情推定タイミングを終了タイミングとする基準時系列長(時間長)のデータ(動画等))のデータを生成する。なお、統一処理の詳細については後述する。
【0073】
ステップS103において、コントローラ23(挙動判定部233)は、ステップS102において時系列長が基準時系列長に統一された各種データ(カメラ撮影画像、マイク集音音声)に基づいてユーザU2の挙動、具体的には視線、顔向き、表情、音声(内容)を判定し、ステップS104に移る。つまり、ステップS103において、コントローラ23(挙動判定部233)は、基準時系列長の顔向き、表情、音声(内容)の時系列データを作成する。なお、ステップS102とステップS103の処理順を入れ替えること、つまり顔向き、表情、音声(内容)の時系列データを作成した後に、この時系列データを基準時系列長に変換する処理とすることも可能である。
【0074】
ステップS104において、コントローラ23(感情推定部234)は、ステップS103で判定した挙動判定部233による挙動判定結果に基づく各データを入力値として第1AIモデル121mA及び第2AIモデル121mBに入力し、それぞれ感情指標値の覚醒度及び活性度を第1AIモデル121mA及び第2AIモデル121mBに推定させ、ステップS105に移る。
【0075】
ステップS105において、コントローラ23(感情推定部234)は、算出した2種類の感情指標値(覚醒度及び活性度)を感情推定モデル222m(心理平面テーブル224のデータ)に適用(入力)してユーザU2の感情を推定し、ステップS106に移る。
【0076】
ステップS106において、コントローラ23(提供部235)は、車両制御装置30に感情推定部234が推定したユーザU2の推定感情情報を提供(出力)し、処理を終了する。
【0077】
なお、1回毎の推定された感情は、センサ出力のノイズ等による悪影響(誤判定)があると推定されるので、予め定めた所定期間の平均・最頻値を採用する等、統計的処理を施した推定感情を採用することが好ましい。このため、コントローラ23(提供部235)は、推定感情にタイムスタンプを付加して蓄積し、統計的処理を施した推定感情を車両制御装置30に提供する(ステップS106)ことが好ましい。なお、車両制御装置30が推定感情情報を蓄積して統計的処理を施し、その結果を制御に用いる方法も適用可能である。
【0078】
<3.感情推定AIの学習方法>
次に、第1AIモデル121ma及び第2AIモデル121mbの学習方法について説明する。なお、学習前と学習後のモデルを識別し易くするために、学習前モデルは第1AIモデル121ma及び第2AIモデル121mbとし、また学習後モデルは第1AIモデル121mA及び第2AIモデル121mBとし、符号の最後尾文字で学習前後を識別できるように表記する。
図5は、学習装置10による感情推定AIの学習処理を示す概念的説明図である。
【0079】
本実施形態において、ユーザU1は、学習データ生成のための被験者であり、感情推定装置20の開発チームにおけるメンバー等が当該被験者となる。なお、使用者が限定される個人専用の感情推定装置20の場合、被験者は使用者であることが好ましいが、他人であっても類似性はあるので、使用者と他人であっても良い。また、使用者が限定されない汎用の感情推定装置20の場合、被験者は使用者と他人となるが、複数の被験者で学習データを生成すれば、いろいろな特性の被験者による学習データが得られる。これにより、感情推定装置20は、汎用性が高い装置となることが期待できる。また、本実施形態においては、車載の感情推定装置20を想定しているので、環境が近い車載装置で学習を行うこととしており、被験者のユーザU1は車両V1の運転者である。
【0080】
なお、AIモデルの学習に用いる学習データは、AIモデルの用途によって適切な情報が決まる。例えば、特定の運転者に対するAI適用装置の場合には該当の運転者における情報が適切な情報となり、いろいろな運転者に対するAI適用装置の場合には多種多様な運転者における情報が適切な情報となる。また、運転者に対するAI適用装置の場合には運転者における情報が適切な情報となり、運転者以外の車両各乗員に対するAI適用装置の場合には運転者以外の各種乗員における情報が適切な情報となる。そして、学習データは、AIモデルによる感情推定の精度を高くするために、多くの情報を必要とする。
【0081】
本実施形態においては、AI適用装置を、運転者全般(特定の個人ではなく、一般の運転者)に適用できることとする。それら運転者の感情に基づき車両の制御を行う装置とするため、AI学習のための実験走行試運転は、いろいろなタイプの複数被験者によるいろいろなパターンの実験走行試運転が好ましい。なお、各被験者による学習は同様であるので、ある一人の被験者(運転者)での学習について説明する。
【0082】
また、例えば、AI適用装置が医療機関における診療装置の場合、被験者に適したユーザU1(情報収集対象)は医療機関における患者や医師等になる。また、AI適用装置が教育機関における教育指導装置の場合、被験者に適したユーザU1は生徒や教師等になる。また、AI適用装置がeスポーツ関連装置、エンターテイメントのコンテンツ関連装置の場合、被験者に適したユーザU1はeスポーツのプレイヤーやコンテンツの視聴者等になる。
【0083】
また、学習装置10を車両V1に搭載して学習を行わせることも、また学習装置10を研究開発室等の車両V1以外の場所に設置して学習を行わせることも可能である。後者の場合、車両V1に乗車した被験者のユーザU1の各生体データ等(脳波、心拍、画像、音声等の計測データ)を、記録媒体を介して、或いは通信回線を介して学習装置10に入力する。なお、本実施形態では、学習装置10を車両V1に搭載して学習を行わせる例について説明する。
【0084】
車両V1に搭載された学習装置10の記憶装置(メモリ等)にAIモデルの記憶部が設けられ、学習前の第1AIモデル121ma及び第2AIモデル121mbが記憶される。そして、学習装置10が以下で説明する学習処理を実行することにより、学習前のAIモデルの学習が行われ、学習済みのAIモデル、つまりAI適用装置に実装される第1AIモデル121mA及び第2AIモデル121mBが生成されることになる。
【0085】
学習済み第1AIモデル121mA及び学習済み第2AIモデル121mBは、前述の
図1、
図3に示した感情推定装置20で使用されることになる。したがって、第1AIモデル121maの学習データは、入力データがユーザU1の視線や顔の向き、表情、音声等の挙動情報(外観情報、感情推定装置20の第1AIモデル121mAの入力データと同じ種別、様式のデータ)であり、正解データが感情指標の覚醒度である。また、第2AIモデル121mbの学習データは、入力データがユーザU1の視線や顔の向き、表情、音声等の挙動情報(外観情報、感情推定装置20の第2AIモデル121mBの入力データと同じ種別、様式のデータ)で、正解データが感情指標の活性度である。なお、入力データとなる挙動情報については、前述の時系列長の統一処理が施され、基準時系列長に統一される。
【0086】
このため、学習装置10が搭載される車両V1には、感情推定装置20で使用される(感情推定装置20に入力される)データを出力する各種の車載センサが設けられる。本実施形態において、具体的には、車載センサは、カメラCと、マイクMとを含む。カメラCは、運転者U1の視線と顔の向きのデータが得られるように、顔面が映った撮影画像情報を出力する。マイクMは、運転者U1が発する発生音等の音声情報を検出する。カメラC及びマイクMは、例えば車両V1のフロントガラス、或いはダッシュボード付近に、運転者U1の方向を撮影方向及び集音方向とするように設置される。
【0087】
そして、カメラC及びマイクMの出力は、時系列データの様式を合わせるため、また個人差による影響、環境による影響等を低減するため、時系列長統一部133Aにより時系列長の統一処理が施される。この統一処理では、動画データと音声データ(時系列データ)の時系列長を予め定めた基準時系列長とする。そして、これら基準時系列長の動画データと音声データは、
図3の挙動判定部233と同様の構成の挙動判定部134によりの挙動データ化の処理が行われ、視線、顔向き、音声の挙動データ(基準時系列長)に加工される。このように生成された基準時系列長に統一された挙動データは、入力値として学習装置の第1AIモデル121ma及び第2AIモデル121mbに入力されることになる。
【0088】
運転者U1には、生体センサが装着される。本実施形態において、生体センサは、脳波を検出する脳波センサS11と、心拍を検出する心拍センサS12と、である。脳波センサS11は、例えばヘッドギア型の脳波センサが用いられる。心拍センサS12は、例えば胸ベルト型の心電式心拍センサが用いられる。なお、生体センサは、取得したい生体情報、装着性等に応じて他のセンサを追加、変更しても良い。他の生体センサとしては、例えば光学式心拍(脈拍)センサ、血圧計、またはNIRS(Near Infrared Spectroscopy)装置等であっても良い。
【0089】
そして、脳波センサS11が出力する脳波データ、及び心拍センサS12が出力する心拍データは、感情指標値が適切に算出できるように、また時系列データの様式を合わせるため、時系列長統一部133Bにより時系列長の統一処理が施される。この統一処理では、脳波データ及び心拍データの時系列長を予め定めた生体信号系の基準時系列長とする。この基準時系列長は、いろいろな時系列長の脳波データ及び心拍データをサンプリングして感情指標値(覚醒度及び活性度)を算出し、被験者の実際の感情指標値(他方法により測定)との差が小さい時系列長を基準時系列長とするといった実験等により決定可能である。なお、脳波及び心拍に基づき算出される感情指標値は、個人の意識により調整できない面等があり、被験者の挙動に比べて個人差による影響、環境による影響等が小さいと考えられる。このため、それらの影響等の抑止策を省略できるが、それらの影響等を低減する場合にはカメラ画像、マイク音声の場合と同様の方法により基準時系列長を決定すれば良い。
【0090】
このように基準時系列長により時系列長が統一された脳波データ及び心拍データは、指標値算出部132に入力される。指標値算出部132は、生体情報の脳波及び心拍のデータに基づき感情指標値である覚醒度及び活性度を算出する。覚醒度は「脳波のβ波/α波」で算出することができる。また、活性度は「心拍LF成分の標準偏差」で算出することができる。そして、指標値算出部132で算出された感情指標値の覚醒度は、正解値として第1AIモデル121maに入力される。また、指標値算出部132で算出された感情指標値の活性度は、正解値として第2AIモデル121mbに入力される。
【0091】
つまり、第1AIモデル121maは、入力値(例題)が基準時系列長の視線、顔向き、及び音声の挙動データ(外観情報)であり、正解値が基準時系列長の脳波データに基づき算出された感情指標値の覚醒度である教師付き学習データセットで学習が行われることになる。したがって、学習済みの第1AIモデル121mAは、
図1に示すような入力値を視線、顔向き、音声の挙動データとし、出力を覚醒度とするAIモデルとして生成される。
【0092】
また、第2AIモデル121mbは、入力値(例題)が基準時系列長の視線、顔向き、及び音声の挙動データ(外観情報)であり、正解値が基準時系列長の心拍データに基づき算出された感情指標値の活性度である教師付き学習データセットで学習が行われることになる。したがって、学習済みの第2AIモデル121mBは、
図1に示すような入力値を視線、顔向き、音声の挙動データとし、出力を活性度とするAIモデルとして生成される。
【0093】
続いて、
図5を参照して、第1AIモデル121ma及び第2AIモデル121mbの学習方法(AIの学習プロセス)の流れを説明する。なお、センサの装着等の具体的な作業は、AIモデルの学習担当作業者、被験者(運転者U1)等が行うことになる。
【0094】
学習装置10の記憶装置(メモリ等)には、視線、顔の向き、音声の外観情報を入力として覚醒度を推定する学習前の第1AIモデル121maと、視線、顔の向き、音声の外観情報を入力として活性度を推定する学習前の第2AIモデル121mbが記憶される。なお、学習前の第1AIモデル121ma及び学習前の第2AIモデル121mbは、事前にAI設計開発者等が、AI設計用のコンピュータを用いて、またAIモデルの仕様(使用形態、要求性能等)に応じて、別途、作成することになる。
【0095】
運転者U1は、学習装置10が搭載された車両に乗車し、車両に搭載されたカメラC及びマイクMの位置、向き、感度等の調整等を行う。また、運転者U1は、脳波センサS11及び心拍センサS12を装着する。以上のような学習の準備が整うと、運転者U1等が学習装置10を起動し学習が開始される。なお、必要に応じて(車両走行が学習条件であるなど)、運転者U1は車両の運転(操作)を開始する。
【0096】
カメラC及びマイクMは、ユーザU1の外観情報である画像及び発する音声を検出し、画像情報及び音声情報を学習装置10に出力する。
【0097】
脳波センサS11及び心拍センサS12は、ユーザU1の生体信号である脳波及び心拍を検出し、脳波及び心拍を学習装置10に出力する。
【0098】
そして、学習装置10は、各情報毎に予め設定されたタイミングのユーザU1の画像情報及び音声情報と、脳波及び心拍とを対のデータ(1個の学習データ)として、以降の処理を行う。
【0099】
具体的には、学習前の第1AIモデル121ma及び学習前の第2AIモデル121mbによる感情指標値の判定(推定)タイミングを基準(終点)とする予め設定した推定用データ期間長前の期間のデータを対のデータとして扱う。より具体的には、本実施形態において、判定タイミングTaの各データに関し、脳波及び心拍はタイミングTa直前の生体信号系の基準時系列長のデータとなり、画像情報及び音声情報はタイミングTa直前の挙動信号系の基準時系列長のデータとなる。そして、このような画像情報及び音声情報と、脳波及び心拍に対する基準時系列長のデータを生成(変換)する処理を、時系列長統一部133A及び時系列長統一部133Bが行う。
【0100】
学習装置10は、時系列長統一部133Bにより時系列長が調整された生体信号の脳波及び心拍を、指標値算出部132により感情指標値化処理を施して覚醒度及び活性度に変換する。なお、ノイズ等の影響を抑制するため、時系列データ(複数の連続した測定値で構成される)の脳波及び心拍のデータを平均化する等の統計処理や、時定数フィルタ(特定周波数域フィルタ)等によるフィルタリング処理が適宜行われる。また、各測定値に対する指標値化処理により算出された複数の覚醒度及び活性度に統計処理やフィルタリング処理を行い、ノイズ等の影響を抑制しても良い。
【0101】
学習装置10は、挙動判定部134により基準時系列長の画像情報及び音声情報を挙動データ化して、視線、顔の向き、音声の情報を生成する。視線の情報は、画像における眼球部分の動きを画像解析する等により生成される。顔の向きの情報は、画像における顔面の複数の部位(目、鼻、耳等)の位置・距離関係を画像解析する等により生成される。音声の情報は、音声を周波数解析したピーク周波数遷移の情報等である。この結果、挙動データは基準時系列長のデータとなる。
【0102】
そして、学習装置10は、基準時系列長の視線、顔の向き、及び音声の挙動データを入力値とし、覚醒度を正解値とする第1AIモデル121ma用の学習データを生成する。また、学習装置10は、基準時系列長の視線、顔の向き、及び音声の挙動データを入力値とし、活性度を正解値とする第2AIモデル121mb用の学習データを生成する。なお、前述したように、学習データは、判定タイミングに対する覚醒度及び活性度と、これら感情指標値の判定タイミングを終点とする基準時系列長の視線、顔の向き、及び音声の挙動データが関連付けられたデータ(入力値及び正解値)となる。
【0103】
そして、学習装置10は、各タイミングにおけるこれら学習データを集合化して、各モデル用の学習データセットを形成する。その後、学習装置10は、生成した当該各学習データセットで、第1AIモデル121ma及び第2AIモデル121mbの学習を行う。
【0104】
具体的には、学習装置10は、生成した各学習データセットの学習データを順次、第1AIモデル121ma及び第2AIモデル121mbに入力する。そして、学習装置10は、誤差逆伝播学習法等の学習アルゴリズムを用いて、第1AIモデル121ma及び第2AIモデル121mbにおける重み等のパラメータを調整する等の学習を行う。
【0105】
これにより、各センサにより順次検出される各データに基づき生成される数多くの教師付き学習データにより、第1AIモデル121ma及び第2AIモデル121mbの学習が行われ、感情推定装置20で使用される学習済み第1AIモデル121mA及び学習済み第2AIモデル121mBが生成されることになる。
【0106】
なお、
図5に示した例は、脳波、心拍、視線、顔の向き、及び音声のデータを収集しながら、第1AIモデル121ma及び第2AIモデル121mbの学習を行っている。なお、タイムスタンプが付与された、画像録画データ、音声録音データ、そして記録生体信号データに基づき学習データの生成し、当該学習データを用いて学習することも可能である。
【0107】
<4.感情推定AIの学習装置の構成>
図6は、学習装置10の構成を示すブロック図である。
図6では、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素の記載は省略されている。
【0108】
図6に示すように、学習装置10は、通信部11と、記憶部12と、コントローラ13と、を備える。学習装置10は、いわゆるコンピュータ装置で構成できる。なお、図示は省略するが、学習装置10は、キーボード等の入力装置や、ディスプレイ等の出力装置を備える。
【0109】
通信部11は、通信ネットワークを介して他の装置、各種センサ類との間でデータの通信を行うためのインタフェースである。通信部11は、例えばNIC(Network Interface Card)で構成される。
【0110】
記憶部12は、揮発性メモリ及び不揮発性メモリを含んで構成される。揮発性メモリには、例えばRAM(Random Access Memory)で構成される。不揮発性メモリには、例えばROM(Read Only Memory)、フラッシュメモリ、ハードディスクドライブで構成される。不揮発性メモリには、コントローラ13により読み取り可能なプログラム及びデータが格納される。不揮発性メモリに格納されるプログラム及びデータの少なくとも一部は、有線や無線で接続される他のコンピュータ装置(サーバ装置)、または可搬型記録媒体から取得される構成としても良い。
【0111】
記憶部12には、第1AIモデル記憶部121Aと、第2AIモデル記憶部121Bとが設けられる。第1AIモデル記憶部121Aと第2AIモデル記憶部121Bとのそれぞれには、学習対象である学習前の第1AIモデル121maと学習前の第2AIモデル121mbとが記憶される。さらに、記憶部12には、各種処理用のデータテーブルとして、タスクテーブル123が設けられる。タスクテーブル123については後述する。
【0112】
コントローラ13は、学習装置10の各種機能を実現するもので、演算処理等を行うプロセッサを含む。プロセッサは、例えばCPU(Central Processing Unit)を含んで構成される。コントローラ13は、1つのプロセッサで構成されても良いし、複数のプロセッサで構成されても良い。複数のプロセッサで構成される場合には、それらのプロセッサは互いに通信可能に接続され、協働して処理を実行する。なお、学習装置10をクラウドサーバで構成することも可能であり、その場合、プロセッサを構成するCPUは仮想CPUであって良い。
【0113】
コントローラ13は、その機能として、取得部131と、指標値算出部132と、時系列長統一部133A、133Bと、挙動判定部134と、生成部135と、提供部136と、を備える。本実施形態においては、コントローラ13の機能は、記憶部12に記憶されるプログラムに従った演算処理をプロセッサが実行することによって実現される。
【0114】
取得部131は、通信部11を介して、カメラC、マイクM、脳波センサS11、及び心拍センサS12によって検出された各種情報(画像(動画)情報、音声情報、脳波情報、心拍情報)を取得する。取得部131は、取得した各種情報を、その後の処理のために必要に応じて記憶部12に形成されたデータテーブルに記憶する。なお、取得部131は、実質的に同時刻におけるこれらの情報を取得して、一つのデータセットとしてデータテーブルにおける一つのデータレコードに記憶する。そして、これらデータは教師付き学習データを生成するために使用される。
【0115】
指標値算出部132は、生体情報の脳波及び心拍のデータに基づき感情指標値である覚醒度及び活性度を算出する。前述したように、覚醒度は「脳波のβ波/α波」で算出することができる。また、活性度は「心拍LF成分の標準偏差」で算出することができる。なお、これら感情指標値の算出に必要な算出式等のデータは、記憶部12に記憶される。
【0116】
時系列長統一部133A、133Bは、取得部131によって取得された画像(動画)データ、音声データ、脳波データ、及び心拍データに対し、時系列長の統一処理を行う。被験者の外観情報及び生体信号といった被験者の状態推定に必要な時系列データの最適な時系列長は、被験者が個別に備える固有時系列長であって、個人差があり、また周囲環境の影響を受ける。特に外観情報はその傾向が強いと思われる。また、感情指標値を算出する場合に用いる脳波データ、心拍データといった生体信号の時系列長についても、感情指標値種別により適切な時系列長がある。また、外観情報から感情指標値を推定する場合も、推定に用いる外観情報の時系列長には適切な時系列長がある。
【0117】
これらの点から、時系列長統一部133A、133Bは、取得された各時系列データに対して時系列長の統一処理を行う。次に、時系列データの時系列長の統一処理の具体的方法について説明する。
【0118】
図7A及び
図7Bは、第1被験者及び第2被験者の感情指標値の時間変化を示す模式図である。
図7A及び
図7Bのそれぞれに含まれるグラフにおいて、横軸は時間、縦軸は感情指標値のレベルである。
図7A及び
図7Bのそれぞれのグラフの下には、グラフの横軸(時間軸)で示されるタイミングで取得される顔画像を模式的に描画した。なお、感情指標値を算出するために取得される生体信号も、感情指標値の変動に対応して変動していることになる。
【0119】
そして、これらのグラフは、第1被験者と第2被験者とが同じタスクAを実行した場合の感情指標値の推移を示している。なお、実行されるタスクは、タスクを行った被験者が特別な心身状態となるタスクであり、例えば感情指標の覚醒度が高い側に振れる等のタスクである。このような心身状態が特定状態となるタスクは、医学・心理学等の分野の研究でエビデンスが得られているタスクが何種類か知られており、適宜そのようなタスクを選択して使用することができる。
【0120】
タスクAを実行した場合、第1被験者及び第2被験者はタスクAに対応した心身状態となる。そして、第1被験者と第2被験者との個人差により、また各被験者の周囲環境に応じて、タスクAの実行による感情指標値の変動状況が変わる。ここでは、時系列長の統一処理に用いる基準時系列長を決めることが主目的であるので、感情指標値の変動の時間的データに注目することになる。タスクAの実行による感情指標値の時間的変動については、タスクAの実行による感情指標値の特徴的変動の継続時間が重要な要素となる。つまり、感情に影響する事象が発生してから各個人に応じた継続時間の期間に渡って事象に対応する感情が継続する。したがって、感情推定タイミング直前の継続時間に渡る感情指標値の計測、つまり生体信号の計測が効果的なデータ計測となる。
【0121】
そこで、多くの被験者について基準時系列長決定のためのデータ収集の実験を行い、このような継続時間を計測し、多くの計測値の統計処理により適当な基準時系列長を決定する。例えば、第1被験者(
図7A)の場合は、タスクAの実行による感情指標値の変動期間L1(Ta-T1)を、タスクAの実行期間直後における生体信号が閾値Ru(タスクAの実行により生体信号値が上回る推定がされる閾値)を上回る期間として検出する。また、第2被験者(
図7B)の場合は、タスクAの実行による感情指標値の変動期間L2(Ta-T2)を、タスクAの実行期間直後における生体信号が閾値Ruを上回る期間として検出する。なお、
図7では、下側の閾値Rdも感情指標値が下側に振れるタスクの場合に使用する例として図示している(Rnはニュートラル領域である)。
【0122】
そして、例えば変動期間L1と変動期間L2との平均値(時系列長が長いと処理負荷が増加するので、精度とのバランスを取る場合)や最大値(時系列長が長いほど精度が期待できるので、精度重視とする場合)を基準時系列長として決定する。なお、被験者数や実験環境種別が多い場合、標準偏差を用いた統計処理(時系列長が長い方、3σに対応する値を基準時系列長とする等)等、適当な統計処理を行って基準時系列長として決定する。
【0123】
また、第1被験者(
図7A)におけるタスクAの実行による感情指標値の変動期間L1(Ta-T1)は、第1被験者個人における感情発生の時間特性と言えるので、第1被験者に対する固有時系列長(推定に適した時系列データの時系列長)として使用することができる。また、第2被験者(
図7B)におけるタスクAの実行による感情指標値の変動期間L2(Ta-T2)は、第2被験者個人における感情発生の時間特性と言えるので、第2被験者に対する固有時系列長として使用することができる。このようにして、他の被験者に対する固有時系列長を決定することができる。
【0124】
なお、上記では、感情指標について基準時系列長と固有時系列長を決定する例を説明した。しかしながら、感情の変化に伴う被験者の状態変化は、状態種別により異なるので、例えば顔面画像、発声音声についての基準時系列長と固有時系列長は感情指標とは通常異なったものになる。このため、同様の方法で被験者の各状態種別毎に基準時系列長と固有時系列長を決定し、各種処理に使用することが好ましい。そして、学習装置10による実質的学習処理(生体データ、画像データ等を入力して学習データを生成し、各AIモデルに当該学習データを入力する)に先立ち、これら基準時系列長と固有時系列長を決定して記憶部12に記憶する。
【0125】
学習装置10による学習処理時における時系列長の統一処理は、具体的には次のような処理となる。なお、各種入力データ(時系列データ)で(時系列長統一部133A、133Bで)同様の処理となるため、ここでは代表して画像入力に対する時系列長の統一処理ついて説明する。また、ここでは被験者個人に適合した学習モデルを生成する場合について、第1被験者(
図7Aの特性)の例を説明する。他の各データについては、基準時系列長及び固有時系列長が各々のデータ種別に対応したものとなる。
【0126】
第1被験者に係る固有時系列長の時間長は、
図7Aの例では期間L1となり、動画データのフレーム(静止画像)数に換算するとN1個となる。基準時系列長のフレーム数をNs個とすると、第1被験者に係る固有時系列長のフレーム数N1からなる動画をNs個にする変換を行う。
【0127】
具体的には、まず学習装置10は、被験者(ここでは第1被験者)に応じた固有時系列長の動画を加工元画像(カメラCから取得し記憶部12に記憶した対応するタイミングの学習用の元画像)から取得する(切り出す)加工を行う。そして、この固有時系列長の動画を基準時系列長の動画にする加工を行う。
【0128】
具体的には、Ns>N1の場合は、Ns-N1個の補完画像を生成して加工元の動画(固有時系列長の動画)のフレーム間に補完画像を挿入する処理、所謂内挿処理を行う。なお、補完画像の生成・挿入箇所は、加工元動画中に均等(等間隔)に分布することが好ましい。また、補完画像の作成は、補完画像挿入箇所の前後画像から合成する一般的な補完画像生成方法を適用できる。
【0129】
また、Ns<N1の場合は、N1-Ns個のフレーム画像を加工元の動画から削除する処理、所謂間引処理を行う。なお、フレーム画像の削除箇所は、加工元動画中に均等(等間隔)に分布することが好ましい。
【0130】
このようにして、時系列長統一部133A、133Bは、固有時系列長の各種データに対し、基準時系列長Nsのデータとする変換をする。したがって、時系列長統一部133A、133Bは、感情推定のために必要な特徴部分を含む固有時系列長の各種データを、基準時系列長Nsの各データとする変換を行うことになる。このため、基準時系列長Nsの各データは、感情推定のために必要な特徴部分を含むデータとなり、感情推定の精度の向上が期待できる。
【0131】
なお、本実施形態にように基準時系列長Nsを、多くのサンプリングデータに基づき感情推定のために必要な特徴部分を含むような適当な時系列長に設定している場合には、固有時系列長のデータを用いず、元画像(撮影画像)から基準時系列長Nsの時系列データを取得して後段の各種処理を行っても良い。この場合、時系列長の個人差を完全に近く吸収できるとまでは言えないが、基準時系列長Nsが多くのサンプリングデータに基づく適当な時系列長となっているので、感情推定のために必要な特徴部分を含むような時系列長データを抽出できることが期待できる。
【0132】
図8は、タスクテーブル123の一例を示す図である。
図8に示すように、タスクテーブル123の項目には、「タスクID」、「生体信号種別」、「対応指標種別」、「タスク内容」、及び「指標値遷移状態」が含まれる。
【0133】
「タスクID」は、タスク情報を識別するための識別情報であるタスクIDデータである。タスクIDデータは、タスクテーブル123におけるデータレコードの主キーでもある。つまりタスクテーブル123では、タスクIDデータごとにデータレコードが構成され、当該データレコードにタスクIDデータに紐づいた各項目のデータが記憶されることになる。
【0134】
「生体信号種別」は、センサにより検出される生体信号に基づく計測値の種別のデータである。ここでは、生体信号種別データは、対応指標種別データの指標を算出するために用いる生体信号と、その算出式とが生体信号種別データとしてタスクテーブル123に記憶されている。
【0135】
「対応指標種別」は、第1AIモデル121ma及び第2AIモデル121mbの学習対象の感情指標種別である。対応指標種別としては、例えば覚醒度、活性度がタスクテーブル123に記憶されることになる。
【0136】
「タスク内容」は、第1AIモデル121ma及び第2AIモデル121mbの学習処理のために被験者が実行するタスクの具体的内容である。
【0137】
「指標値遷移状態」は、対応する(同じレコードに記憶された)タスク内容を被験者が実行した場合に対応する感情指標値が遷移すると推定される状態で、例えば「高覚醒度:覚醒度が覚醒側(覚醒度高)の状態(高指標値状態)になる」といったデータが記憶されることになる。
【0138】
このタスクテーブル123によれば、例えばタスクIDがST01のタスクデータは、生体信号が脳波データであり、感情指標が覚醒度であって脳波のβ波/α波で算出され、具体的タスク内容が「表示される数字を暗算加算する」であり、タスク実行時の被験者の覚醒度の状態遷移が高覚醒度である、というデータとなる。
【0139】
そして、AIモデルの学習処理に用いられる固有時系列長及び基準時系列長の決定の際に、つまり被験者の感情指標値が特定の状態(高覚醒度等)となるように被験者にタスクを実行させる際に、被験者に実行させるタスク内容を決定する処理においてこのタスクテーブル123が使用される。例えば、被験者を高覚醒度状態にする場合には、「指標値遷移状態」が「高覚醒度」である「タスク内容」の「表示される数字を暗算加算する」が、被験者に実行させるタスクとして選択されることになる。
【0140】
図6に戻って、説明を続ける。挙動判定部134は、取得部131が取得し、時系列長統一部133A、133Bによって時系列長が基準時系列長Nsに統一された、ユーザU1(
図5参照)の顔を含む画像情報及び音声情報に対して解析処理を行うことで、ユーザU1の視線や顔の向き、表情、音声等の予め定められた種類の挙動を判定する。その結果、挙動判定部134は、基準時系列長Nsの各挙動データ、つまり例えば基準時系列長Nsの視線の時系列(変動)データを出力する。なお、挙動判定部134の行う処理と、
図3の挙動判定部233の行う処理は同等であり、それぞれ同形式の視線、顔の向き、表情、音声の各データを出力する。
【0141】
例えば、ユーザU1の視線に関して、挙動判定部134は、ユーザU1の顔を含む画像からユーザU1の左右の眼球を検知対象物とした特徴量算出、形状判別等の認識処理を行う。挙動判定部134は、当該認識処理の結果に基づき、例えば目頭の位置、眼の虹彩及び瞳孔の中心位置、近赤外照明による角膜反射像(プルキニエ像)の中心位置、眼球の中心位置等を用いた所定の視線検出処理によりユーザU1の視線及び注視点の挙動を判定する。ユーザU1の視線は、例えばユーザU1の前方にユーザU1と正対する仮想平面に設け、ユーザU1の視線ベクトルが仮想平面を貫く位置の二次元座標で表すことができる。
【0142】
また、例えば、ユーザU1の顔の向きに関して、挙動判定部134は、ユーザU1の顔を含む画像からユーザU1の顔を検知対象物とした特徴量算出、形状判別等の認識処理を行う。挙動判定部134は、当該認識処理の結果に基づき、例えば目、鼻、口等のそれぞれの位置、鼻頂部の位置、顔の輪郭、顔の輪郭の幅方向の中心位置等を用いた所定の顔向き検出処理によりユーザU1の顔の向きの挙動を判定する。
【0143】
また、例えば、ユーザU1の表情に関して、挙動判定部134は、ユーザU1の顔を含む画像からユーザU1の顔を検知対象物とした特徴量算出、形状判別等の認識処理を行う。挙動判定部134は、当該認識処理の結果に基づき、例えば口角の角度、眉の角度、目の開き具合等を用いた所定の表情検出処理によりユーザU1の表情の挙動を判定する。
【0144】
また、例えば、挙動判定部134は、ユーザU1の声等の発音を含む音声情報に対して、ユーザU1の、音声音量や発声速度、発言頻度、音声認識結果に基づく発声内容の言語解析結果(例えば喜びや怒り、不安等に関係する単語や文章の出現)に基づき、ユーザU1の音声の挙動を判定する。
【0145】
生成部135は、第1AIモデル121maに、挙動判定部134によって判定されたユーザU1の視線や顔の向き、表情、音声の各データを入力値とし、指標値算出部132によって算出された感情指標値である覚醒度を正解値としてそれぞれ入力し、第1AIモデル121maの学習を行う。また、生成部135は、第2AIモデル121mbに、挙動判定部134によって判定されたユーザU1の視線や顔の向き、表情、音声の各データを入力値とし、指標値算出部132によって算出された感情指標値である活性度を正解値としてそれぞれ入力し、第2AIモデル121mbの学習を行う。
【0146】
なお、生成部135は、誤差逆伝播学習法等の学習アルゴリズムを用いて、第1AIモデル121ma及び第2AIモデル121mbにおける重み等のパラメータを調整する等して、第1AIモデル121ma及び第2AIモデル121mbの学習を行う。
【0147】
つまり、生成部135は、遠隔系センサ(非接触センサ:カメラ、マイク)の検出した情報に基づき、基準時系列長Nsに統一されたユーザU1の外観情報を入力データとし、接触系の生体信号センサ(接触センサ:脳波センサ、心拍センサ)によって検出され基準時系列長Nsに統一されたユーザU1の生体信号(脳波情報及び心拍情報)に基づき算出された感情指標値(覚醒度及び活性度)を正解データとした教師付き学習データセットを生成する。そして、生成部135は、生成した教師付き学習データセットを用いて第1AIモデル121ma及び第2AIモデル121mbの学習を行う。この学習により、学習済みの第1AIモデル121mA及び第2AIモデル121mBは、ユーザ(運転者)の外観情報を入力とし、感情指標値の覚醒度及び活性度を出力するAIモデルとなる。そして、第1AIモデル121mA及び第2AIモデル121mBは、基準時系列長Nsの外観情報の入力の場合に、効率的に高精度な推定を行うAIモデルとなる。
【0148】
上記の構成によれば、AIモデルによる感情推定に用いる場合に適当な時系列長の個人差等が大きい人の動きに係る外観情報が、基準時系列長Nsに統一され、AIモデルの学習が行われる。したがって、AIモデルは適当な時系列長の時系列データによる個人差等が考慮された学習が施されることになり、個人差等の影響が抑制された精度の高い学習済みAIモデルが生成されることになる。その結果、当該AIモデルを用いた感情推定の精度の向上が期待できる。
【0149】
提供部136は、生成部135によって生成された学習済みの第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を、ネットワークを介して後述する車両V2で用いられる感情推定装置20(
図1及び
図3参照)に提供する。これにより、感情推定装置20は、提供部136によって提供された第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を取り込んで第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに記憶する。したがって、感情推定装置20は、感情推定機能がカメラC及びマイクMが取得した画像情報、音声情報に基づく感情推定が可能となり、車両V2の各種機能において推定した感情情報を利用することができる。
【0150】
なお、提供部136は、生成部135によって生成された学習済みの第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を、ネットワークを介して感情推定装置20に提供するようにしたが、別の方法で提供することも可能である。例えば、第1AIモデル121mAのデータ及び第2AIモデル121mBのデータをAIプラットホームを形成するLSIに書き込んでAI実行LSIを生成し、当該AI実行LSIを感情推定装置20に組み込むことで、第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を提供することもできる。また、通信以外のデータ伝達媒体、例えばメモリカード、光ディスク記録媒体等を用いて感情推定装置20に提供することも可能である。
【0151】
<5.感情推定AIの学習装置の動作例>
図9は、
図6の学習装置10のコントローラ13が実行する感情推定AIの学習処理を示すフローチャートである。このフローチャートは、コンピュータ装置に感情推定AIモデルの学習処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、提供(販売、流通等)される。そして、提供されたコンピュータプログラムが使用者等により学習装置10にインストールされて、学習装置10は、
図9に示すフローチャートの処理を実行することになる。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0152】
図9に示す処理は、学習装置10の設計者等が感情推定AIモデルの学習処理を実行する際、例えばキーボード等の操作部により学習処理の開始操作が行われたときに開始される。なお、車両運転時の学習データセットを収集、生成するのであれば、作業者或いは被験者等による学習データセットの収集開始操作に基づき処理が実行される。この場合、AIモデルの学習は、学習データセットを生成後に、別途当該学習データセットを用いて行われることになる。
【0153】
ステップS111において、コントローラ13(取得部131)は、ユーザU1の外観情報及び生体信号、具体的にはカメラC及びマイクMからカメラ撮影画像及びマイク集音音声のデータを取得し、また脳波センサS11及び心拍センサS12から生体信号(脳波データ及び心拍データ)を取得して記憶部12に記憶し、ステップS112に移る。
【0154】
なお、車載装置が収集した各データを用いて研究開発室等に設置された学習装置10にて学習を行う場合は、無線通信や記録媒体で学習装置10に提供された車載装置が収集、蓄積した各データを用いて、ステップS111及び以降の処理が行われることになる。
【0155】
ステップS112において、コントローラ13(時系列長統一部133A、133B)は、ステップS111において取得部131が取得した各種データ(画像(動画)データ、音声データ、脳波データ、心拍データ)に対し、時系列長の統一処理を施し、ステップS113に移る。なお、時系列長統一処理に必要な基準時系列長及び固有時系列長のデータは、上述の方法により、別途事前に算出し、記憶部12に記憶しておく。
【0156】
ステップS113において、コントローラ13(挙動判定部134)は、ステップS112において時系列長が基準時系列長に統一された画像(動画)データ及び音声データに基づき挙動(視線、顔向き、表情、音声)を判定し(挙動データを生成し)、ステップS114に移る。
【0157】
ステップS114において、コントローラ13(生成部135)は、ステップS112で時系列長が基準時系列長に統一された生体信号の脳波データ及び心拍データに基づき感情指標値の覚醒度及び活性度を生成して、ステップS115に移る。
【0158】
ステップS115において、コントローラ13(生成部135)は、ステップS113で判定した挙動の視線、顔向き、表情、音声データを入力値とし、ステップS114で生成した覚醒度を正解値とする覚醒度学習用の教師付き学習データを生成して、ステップS116に移る。
【0159】
ステップS116において、コントローラ13(生成部135)は、ステップS113で判定した挙動の視線、顔向き、表情、音声データを入力値とし、ステップS114で生成した活性度を正解値とする活性度学習用の教師付き学習データを生成して、ステップS117に移る。
【0160】
ステップS117において、コントローラ13(生成部135)は、ステップS115で生成した覚醒度学習用の教師付き学習データを学習完了前の第1AIモデル121maに提供して第1AIモデル121maの学習を行い、ステップS118に移る。
【0161】
ステップS118において、コントローラ13(生成部135)は、ステップS116で生成した活性度学習用の教師付き学習データを学習完了前の第2AIモデル121mbに提供して第2AIモデル121mbの学習を行い、ステップS119に移る。
【0162】
ステップS119において、各モデルの学習が完了したか、ここでは車両V1の学習用走行が終了したか否かを、例えばイグニッションスィッチ状態や車両運転者(学習作業者、被験者)の操作等に基づいて判断し、終了していれば処理を終え、終了していなければステップS111に戻り、学習を継続する。
【0163】
この後、学習が完了した学習済みの第1AIモデル121mA及び学習済みの第2AIモデル121mBは、学習装置10を操作するオペレータの指示等に基づき、
図1に示す車両V2で用いられる感情推定装置20等のAIモデル利用装置に提供される。
【0164】
なお、
図9で示した学習処理においては、各センサからデータを収集する都度、教師付き学習データを生成して各AIモデルの学習を行っている。しかしながら、各センサからデータを収集する都度、教師付き学習データを生成して蓄積し、蓄積した学習データで構成される学習データセットを用いて学習完了前の第1AIモデル121ma及び第2AIモデル121mbの学習を行っても良い。
【0165】
その場合、ステップS115では、覚醒度学習用の教師付き学習データを生成し、蓄積する。ステップS116では、活性度学習用の教師付き学習データを生成し、蓄積する。そして、ステップS119は、ステップS116の後段の処理となり、学習データの作成が完了したかを判断し(例えば、車両V1の学習用走行が終了したか否かを、例えばイグニッションスィッチ状態や車両運転者(学習作業者、被験者)の操作等に基づいて判断し)、終了していればステップS117及びステップS118の学習処理を行って処理を終え、終了していなければステップS101に戻り、学習データの生成処理を継続することになる。なお、ステップS117及びステップS118の学習処理は、蓄積した学習用の教師付き学習データを用いて任意のタイミングで行っても良い。
【0166】
<6.時系列データの固有時系列長の決定方法>
続いて、個人毎に異なる、感情推定に適した時系列データの固有時系列長の決定方法の別例について説明する。
【0167】
図7A及び
図7Bを用いて説明した方法は、感情指標値を特定の状態にするタスクを被験者に実行させ、そのタスク実行による感情指標値の特定継続時間に基づき固有時系列長を推定した方法である。
【0168】
これに対して、以降に示す方法は、時系列長の異なる時系列データをAIモデルに適用して推定結果を比較し、最も推定結果が良好な時系列長を固有時系列長として決定する方法である。
【0169】
図10は、データ処理装置50の構成を示すブロック図である。詳細に言えば、データ処理装置50は、被験者の状態推定に必要な時系列データの固有時系列長の決定処理を行う処理装置である。
図10では、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素の記載は省略されている。また、
図10において、先に
図5及び
図6を用いて説明した学習装置10と共通する構成要素には、同じ符号または同じ名称を付してその説明を省略する場合がある。
【0170】
図10に示すように、データ処理装置50は、通信部51と、記憶部52と、コントローラ53と、を備える。データ処理装置50は、いわゆるコンピュータ装置で構成できる。なお、図示は省略するが、データ処理装置50は、キーボード等の入力装置や、ディスプレイ等の出力装置を備える。
【0171】
通信部51は、通信ネットワークを介して他の装置、各種センサ類との間でデータの通信を行うためのインタフェースである。通信部51は、例えばNIC(Network Interface Card)で構成される。
【0172】
記憶部52は、揮発性メモリ及び不揮発性メモリを含んで構成される。揮発性メモリには、例えばRAM(Random Access Memory)で構成される。不揮発性メモリには、例えばROM(Read Only Memory)、フラッシュメモリ、ハードディスクドライブで構成される。不揮発性メモリには、コントローラ53により読み取り可能なプログラム及びデータが格納される。不揮発性メモリに格納されるプログラム及びデータの少なくとも一部は、有線や無線で接続される他のコンピュータ装置(サーバ装置)、または可搬型記録媒体から取得される構成としても良い。
【0173】
記憶部52には、AIモデル記憶部521が設けられる。AIモデル記憶部521には、時系列データの固有時系列長の決定処理に用いられる固有時系列長決定用の第1AIモデルm11、第2AIモデルm12、・・・、第nAIモデルm1nが記憶される。これら固有時系列長決定用の各AIモデルは、各々異なった固有の時系列長の時系列データが入力データとして適した構成で設計されている。
【0174】
また、記憶部52には、固有時系列長決定用の各AIモデルの性能評価に用いられる評価用データセット525が記憶される。評価用データセット525は、各AIモデルの学習用のデータと、学習後の各AIモデルの推定性能評価用のデータとが記憶される。また、記憶部52には、タスクテーブル523と、各種処理用のデータテーブル(不図示)とが記憶される。
【0175】
コントローラ53は、データ処理装置50の各種機能を実現するもので、演算処理等を行うプロセッサを含む。プロセッサは、例えばCPU(Central Processing Unit)を含んで構成される。コントローラ53は、1つのプロセッサで構成されても良いし、複数のプロセッサで構成されても良い。複数のプロセッサで構成される場合には、それらのプロセッサは互いに通信可能に接続され、協働して処理を実行する。なお、データ処理装置50をクラウドサーバで構成することも可能であり、その場合、プロセッサを構成するCPUは仮想CPUであって良い。
【0176】
コントローラ53は、その機能として、取得部531と、データ抽出部532と、指標値算出部533と、挙動判定部534と、生成部535と、評価部536と、を備える。本実施形態においては、コントローラ53の機能は、記憶部52に記憶されるプログラムに従った演算処理をプロセッサが実行することによって実現される。
【0177】
取得部531は、通信部51を介して、カメラC、マイクM、脳波センサS11、及び心拍センサS12によって検出された各種情報(画像(動画)情報、音声情報、脳波情報、心拍情報)を取得する。取得部531は、取得した各種情報を、その後の処理のために必要に応じて記憶部52に形成されたデータテーブルに記憶する。なお、取得部531は、実質的に同時刻における各これらの情報を取得して、一つのデータセットとしてデータテーブルにおける一つのデータレコードに記憶する。そして、これらデータは教師付き学習データを生成するために使用される。
【0178】
なお、固有時系列長決定処理の効率化を図るため、取得部531は、被験者に特定のタスク(感情指標値の状態を特定の状態とするタスク)を実行させ(タスク実行案内を行う等)、その後の所定時間(タスクによる感情指標値状態が維持されると推定される時間長(個人差等を考慮した長めのマージンを付与))のデータを取得する。また、取得部531は、被験者によるタスク開始(例えば、被験者がタスク開始のスイッチ操作を行ったタイミング、或いはタスク案内時間に基づき決められたタイミング)をデータ取得タイミングとする。そして、取得部531は、AIモデルの学習や評価に必要な学習データセットを生成できる量のデータの取得を行う。
【0179】
データ抽出部532は、取得部131によって取得された各種情報(画像(動画)データ、音声データ、脳波データ、心拍データ)から、固有時系列長決定用の各AIモデルに適用するデータを抽出する。具体的には、データ抽出部532は、データ取得タイミングを起点に、固有時系列長決定用の第1AIモデルm11、第2AIモデルm12、・・・、第nAIモデルm1nに対応した各時間長L1、L2、・・・、Lnのデータを抽出する。
【0180】
指標値算出部533は、データ抽出部532によって抽出された、固有時系列長決定用の各AIモデルそれぞれに対応した時系列長の生体情報の脳波及び心拍のデータに基づき感情指標値である覚醒度及び活性度を算出する。覚醒度は「脳波のβ波/α波」で算出することができる。また、活性度は「心拍LF成分の標準偏差」で算出することができる。なお、脳波及び心拍のデータは時系列データとなっているので、指標値算出部533は、平均等の統計的処理を行った脳波及び心拍のデータに基づき感情指標値である覚醒度及び活性度を算出する。また、タスク実行タイミングに基づく適当なタイミング(例えば、実験等で適当な感情指標値を算出できるタイミングを決定する)の脳波及び心拍のデータに基づき感情指標値である覚醒度及び活性度を算出すると言った方法も適用可能である。
【0181】
そして、指標値算出部533で算出された感情指標値の覚醒度は、正解値として第1AIモデル121maに入力される。また、指標値算出部132で算出された感情指標値の活性度は、正解値として第2AIモデル121mbに入力される。
【0182】
挙動判定部534は、データ抽出部532によって抽出された、n個の固有時系列長決定用の各AIモデルそれぞれに対応した時系列長の画像データ及び音声データに対して解析処理を行い、被験者の視線や顔の向き、表情、音声等の挙動を判定し、当該挙動に係る各データを出力する。
【0183】
生成部535は、挙動判定部534が出力した挙動データと指標値算出部533で算出された感情指標値(覚醒度、活性度等)とに基づき、固有時系列長決定用の各AIモデルに対応するデータセットを生成し、当該データセット対応する各AIモデルに適用して各AIモデルに学習を行わせる。具体的には、生成部535は、データ抽出部532によって抽出された同じ抽出タイミングの各データに基づき、挙動判定部534によって判定された被験者の視線、顔の向き、表情、音声の各データを入力値とし、指標値算出部533で算出された感情指標値を正解値とする学習データとする。そして、異なる複数の抽出タイミングの各データで同様の処理を行って学習データを生成し、これら生成した複数の学習データを蓄積して学習データセットを生成する。
【0184】
なお、学習データセットの生成は、固有時系列長決定用の各AIモデルそれぞれに対応した各時系列長に対して行われることになる。これら学習データセットは、対応する固有時系列長決定用の第1AIモデルm11、第2AIモデルm12、・・・、第nAIモデルm1nに適用され、各AIモデルは当該学習データセットにより学習を行う。
【0185】
評価部536は、学習後のn個の固有時系列長決定用の各AIモデルのそれぞれの性能評価を行い、その評価結果に基づいて固有時系列長を決定する。
【0186】
具体的には、評価部536は、生成部535における学習データセットの生成と同様の処理により、学習データセットと同様の評価用データセットを生成する。なお、生成部535とは異なるタイミングで取得部531が取得したデータに基づき評価用データセットを生成することが好ましい。
【0187】
そして、評価部536は、固有時系列長決定用の各AIモデルに、対応する時系列長の評価用データセットにおける入力データ(挙動判定部534によって判定された被験者の視線、顔の向き、表情、音声の各データ)を入力し、各AIモデルに感情指標値を推定させる。評価部536は、評価用データセットの各学習データにおける正解データ(感情指標値)と、各AIモデルが推定した推定感情指標値とを比較して差分を算出する。そして、評価部536は、当該差分に統計的処理を施し(例えば、正解値と推定値の一致率)、AIモデルの評価値とする。
【0188】
評価部536は、これらの評価を各AIモデルについて行い、当該評価が最も良く、時系列長が短いAIモデルに対する入力信号の時系列長を固有時系列長に決定する。なお、評価(高い方が精度が良い)と時系列長(短い方が処理負荷が小さい)のバランスをとることになるので、評価と時系列長とをパラメータとし、総合評価を値(出力値)とするデータテーブルを作成しておき、総合評価が高い評価と時系列長に対応するAIモデルの入力データの時系列長を固有時系列長に決定すればよい。
【0189】
上記のように、被験者に関するいろいろな長さの時系列長に対応するAIモデルに対して、実際に対応する時系列長の時系列データで学習する。そして、その学習後のAIモデルに対応する時系列長の時系列データを入力して得られる推定結果の評価に基づき固有時系列長を決定する。したがって、実データに基づいた各個人の特性に対応した最適な長さの固有時系列長を決定することができる。
【0190】
図11は、上記の固有時系列長の決定方法の説明図である。
図11は、各AIモデルの学習時における、被験者の感情指標値の推移、被験者の顔画像の推移、これら推移データ(時系列データ)の各AIモデルへの入力状況が表現されている。なお、被験者の感情指標値の推移、被験者の顔画像の推移のデータは、各AIモデル共に同じデータであり、各AIモデル毎に入力されるデータの時系列長が異なる、つまりデータ抽出部532によるデータ抽出位置(時間帯)が異なる。
【0191】
各AIモデル毎に入力されるデータの開始点Taは、タスク時刻T0に基づき設定される。なお、タスク時刻T0は、タスク実行期間の所定位置であり、ここではタスク終了時点としている。また、データの開始点Taは、マージンを取らずにタスク時刻T0に一致させている。固有時系列長決定用の各AIモデルに対する入力データの時系列長は、第1AIモデルm11では時間長表記で時系列長L11(画像データフレーム数換算でN11)であり、第2AIモデルm12は時系列長L12(画像データフレーム数換算でN12)であり、・・・、第nAIモデルm1nは時系列長L1n(画像データフレーム数換算でN1n)である。
【0192】
固有時系列長決定用の各AIモデルの学習時において、第1AIモデルm11には、時系列長L11の感情指標値の統計処理等で算出された感情指標値を正解値とし、時系列長L11の画像データ(フレーム換算時系列長N11の画像データフレーム)を入力値とする学習データが適用(入力)され、第1AIモデルm11の学習が行われる。
【0193】
また、第2AIモデルm12には、時系列長L12の感情指標値の統計処理等で算出された感情指標値を正解値とし、時系列長L12の画像データ(フレーム換算時系列長N12の画像データフレーム)を入力値とする学習データが適用(入力)され、第2AIモデルm12の学習が行われる。
【0194】
そして、第nAIモデルm1nには、時系列長L1nの感情指標値の統計処理等で算出された感情指標値を正解値とし、時系列長L1nの画像データ(フレーム換算時系列長N1nの画像データフレーム)を入力値とする学習データが適用(入力)され、第nAIモデルm1nの学習が行われる。
【0195】
このような学習処理が、学習データセットにおける各学習データについて行われる。
【0196】
固有時系列長決定用の各AIモデルの評価時において、第1AIモデルm11には、時系列長L11の画像データ(フレーム換算時系列長N11の画像データフレーム)が入力値として入力される。そして、第1AIモデルm11の推定結果(感情指標値)と、時系列長L11の感情指標値の統計処理等で算出された感情指標値を正解値とを比較し、これらの差が無ければ(閾値より小さければ)正推定と判断し、これらに差があれば(閾値より大きければ)誤判定と判断する。
【0197】
また、第2AIモデルm12には、時系列長L12の画像データ(フレーム換算時系列長N12の画像データフレーム)を入力値として入力される。そして、第2AIモデルm12の推定結果(感情指標値)と、時系列長L12の感情指標値の統計処理等で算出された感情指標値を正解値とを比較し、これらの差が無ければ(閾値より小さければ)正推定と判断し、これらに差があれば(閾値より大きければ)誤判定と判断する。
【0198】
そして、第nAIモデルm1nには、時系列長L1nの画像データ(フレーム換算時系列長N1nの画像データフレーム)を入力値として入力される。そして、第nAIモデルm1nの推定結果(感情指標値)と、時系列長L1nの感情指標値の統計処理等で算出された感情指標値を正解値とを比較し、これらの差が無ければ(閾値より小さければ)正推定と判断し、これらに差があれば(閾値より大きければ)誤判定と判断する。
【0199】
そして、各AIモデルにおける評価データセットによる正推定数と誤判定数とに基づく正解率等に基づき、各AIモデルの性能評価を行う。そして、各AIモデルの性能評価と入力データの時系列長とに基づき、当該被験者に対する固有時系列長を決定する。
【0200】
このようにして、個人毎に異なる、状態推定に適した時系列データの固有時系列長が決定され、感情推定AIモデルの学習、及び当該AIモデルを用いた感情推定が行われる。事前に、個人毎に各種データの固有時系列長を決定しておくことで、各個人の特性に対応した長さの時系列データを用いた各種処理を行うことができる。したがって、各個人の特性に対応した精度の高い学習済みAIモデルを生成することが可能になる。さらに、当該AIモデルを用いた感情推定の精度の向上が期待できる。
【0201】
<7.感情推定AIの学習装置の動作例>
図12A及び
図12Bは、
図10のデータ処理装置50のコントローラ53が実行する時系列データの固有時系列長の決定処理を示すフローチャートである。このフローチャートは、コンピュータ装置に時系列データの固有時系列長の決定処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、或いは通信ネット網を介して(所謂ダウンロードにより)提供(販売、流通等)される。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0202】
図12A及び
図12Bに示す処理は、AIモデルの設計者等が、個人毎に異なる、状態推定に必要な時系列データの固有時系列長の決定処理を実行する際、例えばキーボード等の操作部により当該決定処理の開始操作が行われたときに開始される。
【0203】
なお、
図12A及び
図12Bに示す処理は、1個の学習データに基づく固有時系列長の決定処理を示している。複数の学習データに基づく処理の場合は、複数の学習用データによる同様の学習処理を複数回行い、そして複数の評価用データによる同様の評価処理を複数回行って評価結果を統計処理(平均処理等)することになる。
【0204】
ステップS201において、コントローラ53は、被験者に感情指標を特定の状態にする特定タスクを実行させる案内通知を行い、ステップS202に移る。なお、コントローラ53は、特定タスクを実行確認のために、通知した特定タスクを実行した旨の通知を被験者から受信した場合(例えば、被験者によるスィッチ操作)にステップS202に移ることが好ましい。
【0205】
ステップS202において、コントローラ53(取得部531)は、被験者の外観情報及び生体信号、具体的にはカメラC及びマイクMからカメラ撮影画像及びマイク集音音声のデータを取得し、また脳波センサS11及び心拍センサS12から生体信号(脳波データ及び心拍データ)を取得して記憶部52に記憶し、ステップS203に移る。なお、取得された一群のデータに取得順に識別用の番号(1~P)が付与されることになる。説明の便宜上、p番目に取得されたデータを取得データpと表記する。
【0206】
ステップS203において、コントローラ53(取得部531)は、被験者に関するデータの取得数(ステップS202で取得する一群のデータ取得数であり、ステップS202の処理回数と等しくなる)が、予定数P(固有時系列長の決定のために用いるデータ群の数で、装置開発者等が実験等により適当な値に定める)に達したか判断する。被験者に関するデータの取得数が、予定数Pに達していればステップS204に移り、達していなければステップS201に戻る。つまり、ステップS201~S203の処理により、予定数Pの取得データ(1~P)が取得されることになる。
【0207】
ステップS204において、コントローラ53(データ抽出部532)は、取得データの識別番号(取得順)に関する変数pに1を設定して、ステップS205に移る。
【0208】
ステップS205において、コントローラ53(データ抽出部532)は、固有時系列長決定用のAIモデルの識別番号を示す変数qに1を設定して(対応するAIモデルは、第qAIモデルm1qと表記されることになる)、ステップS206に移る。
【0209】
ステップS206において、コントローラ53(データ抽出部532)は、取得データpを記憶部52から読み出し、ステップS207に移る。
【0210】
ステップS207において、コントローラ53(データ抽出部532)は、取得データpの各データから時系列長q(第qAIモデルm1qにおける入力データの時系列長)でデータ抽出を行い、ステップS208に移る。
【0211】
ステップS208において、コントローラ53(指標値算出部533)は、ステップS207で抽出された生体データに基づき感情指標値(覚醒度・活性度等)を算出し、ステップS209に移る。
【0212】
ステップS209において、コントローラ53(挙動判定部534)は、ステップS207で抽出された外観情報(画像データ、音声データ)に基づき挙動データを生成し、ステップS210に移る。
【0213】
ステップS210において、コントローラ53(生成部535)は、入力データをステップS209で生成された挙動データとし、正解データをステップS208で算出された感情指標値とする学習データ(p、q)を生成し、記憶部52に記憶して、ステップS211に移る。
【0214】
ステップS211において、コントローラ53(生成部535)は、変数qに1を加算し、ステップS212に移る。
【0215】
ステップS212において、コントローラ53(生成部535)は、変数qが固有時系列長決定用のAIモデル数n+1に達したか判断し、n+1に達していればステップS213に移り、達していなければステップS207に戻る。つまり、ステップS205~S212の処理で、取得データpに基づく各固有時系列長決定用の全AIモデルに対する学習データが生成され、記憶部52に記憶されることになる。
【0216】
ステップS213において、コントローラ53(生成部535)は、変数pに1を加算し、ステップS214に移る。
【0217】
ステップS214において、コントローラ53(生成部535)は、変数pが取得データ数P+1に達したか判断し、P+1に達していればステップS215に移り、達していなければステップS205に戻る。つまり、ステップS204~S214の処理で、全取得データに関して、各固有時系列長決定用の全AIモデルに対する学習データが生成され、記憶部52に記憶されることになる。
【0218】
ステップS215において、コントローラ53(生成部535)は、学習データ(p、q)を学習用データ(p=1~R-1)と評価用データ(p=R~P)に分配し、ステップS216に移る。
【0219】
ステップS216において、コントローラ53(生成部535)は、変数pに1を設定して、ステップS217に移る。
【0220】
ステップS217において、コントローラ53(生成部535)は、変数qに1を設定して、ステップS218に移る。
【0221】
ステップS218において、コントローラ53(生成部535)は、第qAIモデルm1qを学習データ(p、q)で学習して(学習データをAIモデルに適用して)、ステップS219に移る。
【0222】
ステップS219において、コントローラ53(生成部535)は、変数qに1を加算し、ステップS220に移る。
【0223】
ステップS220において、コントローラ53(生成部535)は、変数qが固有時系列長決定用のAIモデル数n+1に達したか判断し、n+1に達していればステップS221に移り、達していなければステップS218に戻る。つまり、ステップS217~S220の処理で、取得データpに基づく学習データによる全AIモデルの学習が実行されることになる。
【0224】
ステップS221において、コントローラ53(生成部535)は、変数pに1を加算し、ステップS222に移る。
【0225】
ステップS222において、コントローラ53(生成部535)は、変数pが評価用学習データ初期番号Rに達したか判断し、Rに達していればステップS223に移り、達していなければステップS217に戻る。つまり、ステップS216~S222の処理で、全学習データに関して、各固有時系列長決定用の全AIモデルに対する学習が実行されることになる。
【0226】
ステップS223において、コントローラ53(評価部536)は、変数qに1を設定して、ステップS224に移る。
【0227】
ステップS224において、コントローラ53(評価部536)は、第qAIモデルを評価データ(p、q)で評価して、ステップS225に移る。具体的には、評価データ(p、q)における入力データ(挙動データ)を第qAIモデルに入力する。そして、当該入力に対して第qAIモデルが出力(推定)した感情指標値(覚醒度・活性度)と、評価データ(p、q)における正解値の差異を評価値(差異が小さい程、高評価となる)とする。
【0228】
ステップS225において、コントローラ53(評価部536)は、変数qに1を加算し、ステップS226に移る。
【0229】
ステップS226において、コントローラ53(評価部536)は、変数qが固有時系列長決定用のAIモデル数n+1に達したか判断し、n+1に達していればステップS227に移り、達していなければステップS224に戻る。つまり、ステップS223~S226の処理で、取得データpに基づく評価データによる全AIモデルの評価が実行されることになる。
【0230】
ステップS227において、コントローラ53(評価部536)は、変数pに1を加算し、ステップS228に移る。
【0231】
ステップS228において、コントローラ53(評価部536)は、変数pが取得データ数P+1に達したか判断し、P+1に達していればステップS229に移り、達していなければステップS223に戻る。つまり、ステップS223~S228の処理で、全評価データに関して、各固有時系列長決定用の全AIモデルに対する評価が実行されることになる。
【0232】
ステップS229において、コントローラ53(評価部536)は、各AIモデル(第qAIモデルm1q)について評価結果(各評価値)の統計処理(例えば、感情指標値の差異の平均)を行い、ステップS230に移る。
【0233】
ステップS230において、コントローラ53(評価部536)は、各AIモデル(第qAIモデルm1q)についての評価結果の統計処理値、及び対応するAIモデルにおける入力データに対して設定された時系列長に応じて定まる統合評価値に基づき固有時系列長を決定して、処理を終える。
【0234】
なお、統合評価値は、例えば、統計処理値と時系列長をパラメータとし、統合評価値を算出値(パラメータにより決定される値)とするテーブルデータ(設計者等が実験等により生成する)や、計算式(設計者等が実験等により生成する)により算出することができる。
【0235】
そして、このようにして決定された固有時系列長に基づき、取得データの時系列長が調整され、また感情指標値推定用のAIモデルが設定されることになる。
【0236】
また、適切な固有時系列長は被験者特有のデータとなるため、上述の処理は、被験者個人毎に行われ、決定された時系列データの固有時系列長に係るデータは、個人毎に区別されて記憶部52のデータテーブルに記憶される。さらに、このようにして記憶部52に記憶された、個人毎に異なる、状態推定に必要な時系列データの固有時系列長に係るデータは、例えば感情推定AIの学習装置、及び当該感情推定AIを搭載した感情推定装置に提供される。次に、これらの学習装置、感情推定装置について説明する。そして、学習または推定の対象となる個人に対する固有時系列長のデータが読み出されて、学習装置、または感情推定装置で利用されることになる。
【0237】
次に、これらの学習装置、感情推定装置について説明する。
【0238】
<8.固有時系列長のデータを用いた感情推定AIの学習処理>
図13は、学習装置10による感情推定AIの学習処理を示す概念的説明図である。
図14は、学習装置10の構成を示すブロック図である。なお、
図13及び
図14に示す当該実施例において、先に
図5及び
図6を用いて説明した学習装置10と共通する構成要素には、同じ符号または同じ名称を付してその説明を省略する場合がある。
【0239】
図13及び
図14は、一例として、上記第1被験者(ユーザU1)の感情推定を行う感情推定AIの学習装置10を記載している。第1被験者(ユーザU1)の感情推定に必要な時系列データの固有時系列長L1は、上記
図11、
図12A及び
図12Bを用いて説明した決定方法により予め決定されている。固有時系列長L1のデータは、学習装置10の記憶部12のデータテーブルに予め記憶される。また、学習前の第1AIモデル121ma及び学習前の第2AIモデル121mbは、固有時系列長L1の入力データに対して最適な推定動作となるように、実験等に基づき設計されている。
【0240】
図13及び
図14に示すように、学習装置10のコントローラ13は、データ抽出部137を備える。データ抽出部137は、取得部131によって取得された各種情報(画像(動画)データ、音声データ、脳波データ、心拍データ)を、感情推定タイミングにおいてユーザU1の固有時系列長L1で抽出し(切り出し)、指標値算出部132及び挙動判定部134に出力する。挙動判定部134は、ユーザU1の固有時系列長L1の画像データ及び音声データに対して解析処理を行い、ユーザU1の視線や顔の向き、表情、音声等の挙動を判定し、生成部135に出力する。指標値算出部132は、脳波データ及び心拍データに基づき感情指標値(覚醒度及び活性度)を算出し、生成部135に出力する。
【0241】
生成部135は、第1AIモデル121maに、挙動判定部134によって判定されたユーザU1の視線や顔の向き、表情、音声の情報を入力値とし、指標値算出部132により算出された感情指標値の覚醒度を正解値としてそれぞれ入力し、第1AIモデル121maの学習を行う。また、生成部135は、第2AIモデル121mbに、挙動判定部134によって判定されたユーザU1の視線や顔の向き、表情、音声の情報を入力値とし、指標値算出部132により算出された感情指標値の活性度を正解値としてそれぞれ入力し、第2AIモデル121mbの学習を行う。学習装置10は、このような学習処理を学習期間に渡って繰り返し実行して、学習済み第1AIモデル121mA及び学習済み第2AIモデル121mBを生成する。
【0242】
上記の構成によれば、各個人に適した固有時系列長の時系列データを用いて、当該固有時系列長の入力データに適した構成の感情推定AIモデルの学習を行うことができる。したがって、各個人の特性に対応した精度の高い学習済みAIモデルを生成することが可能になる。
【0243】
<9.固有時系列長のデータを用いた感情推定処理>
図15は、感情推定装置20による感情推定処理を示す概念的説明図である。
図16は、車両制御システム40の構成を示すブロック図である。なお、
図15及び
図16に示す当該実施例において、先に
図1及び
図3を用いて説明した感情推定装置20と共通する構成要素には、同じ符号または同じ名称を付してその説明を省略する場合がある。
【0244】
図15及び
図16には、一例として、上記第1被験者(ユーザU1)の感情推定を行う感情推定装置20及び感情推定システム20Sを記載している。第1被験者(ユーザU1)の感情推定に必要な時系列データの固有時系列長L1は、上記
図11、
図12A及び
図12Bを用いて説明した決定方法により予め決定されている。ユーザU1に適した固有時系列長L1のデータは、感情推定装置20の記憶部22のデータテーブルに予め記憶される。また、ユーザU1に適した固有時系列長L1の入力データに適した構成であり、また固有時系列長L1の学習データで学習された学習済み第1AIモデル121mA及び学習済み第2AIモデル121mBが、感情推定装置20に設置(設定)されている。
【0245】
図15及び
図16に示すように、感情推定装置20のコントローラ23は、データ抽出部236を備える。データ抽出部236は、取得部231によって取得された各種外観情報(画像(動画)データ、音声データ)を、感情推定タイミングにおいてユーザU1の固有時系列長L1で抽出し(切り出し)、出力する。挙動判定部233は、ユーザU1の固有時系列長L1の画像データ及び音声データに対して解析処理を行い、ユーザU1の視線や顔の向き、表情、音声等の挙動を判定し、出力する。
【0246】
感情推定部234は、挙動判定部233が判定した挙動のデータを第1AIモデル121mA及び第2AIモデル121mBに入力する。その結果、第1AIモデル121mA及び第2AIモデル121mBは、ユーザU1の感情指標値(覚醒度及び活性度)を推定する。そして、感情推定部234は、当該推定感情指標値を感情推定モデル222mに適用(入力)する。そして、感情推定モデル222mは、当該推定感情指標値に基づいてユーザU1の感情を推定する。そして、感情推定部234は、当該感情推定結果を提供部235に出力する。感情推定結果は、提供部235から車両制御装置30等に提供され、各種制御等に用いられる。
【0247】
上記の構成によれば、感情推定対象者に適した固有時系列長の時系列データを用いて、また感情推定対象者に適した特性(固有時系列長対応)のAIモデルによる感情推定を行うことができる。したがって、各個人の特性に対応した、感情推定の精度の向上が期待できる。
【0248】
<10.時系列データの固有時系列長の再決定>
続いて、感情推定値装置20における固有時系列長の再決定について説明する。
【0249】
各個人に適した時系列データの固有時系列長は、個人の経時的変化や環境変化等の影響により、従前に決定した長さに対して差異が生じることがある。このため、固有時系列長は、例えば定期的にキャリブレーションを行うなどして評価し、信頼性を高めることが好ましい。
【0250】
コントローラ23(固有時系列長再決定部237)は、キャリブレーションとして次のような動作を実行する(各構成要素部に実行させる)。
【0251】
例えば、定期的なキャリブレーション時において、感情推定装置20のコントローラ23(固有時系列長再決定部237)は、ユーザU1に定期キャリブレーションの案内を行うなどして、ユーザU1に生体(脳波・心拍)センサを装着させる。そして、データ抽出部236は、ユーザU1の生体信号を固有時系列長で抽出し、指標値算出部238に出力する。
【0252】
なお、指標値算出部238は、
図13で示した学習装置10における指標値算出部132と同様の構成である。指標値算出部238は、入力された脳波データ及び心拍データに基づき、感情指標値の覚醒度及び活性度を算出する。他方、第1AIモデル121mA及び第2AIモデル121mBは、生体信号検出タイミングと同じ推定タイミングにおける画像(動画)データ、音声データに基づき、感情指標値の覚醒度及び活性度を推定する。
【0253】
コントローラ23(固有時系列長再決定部237)は、指標値算出部238が算出した感情指標値の覚醒度及び活性度と、AIモデルが推定した覚醒度及び活性度とを比較して、生体信号の性能評価(差が大きい程、AIモデルの性能低下が大きいと評価)する。また、コントローラ23(固有時系列長再決定部237)は、感情推定モデル222mが推定した感情精度を、推定した感情をユーザU1に通知した際のユーザU1の反応(感情推定結果が妥当か否かをユーザU1がスィッチ操作入力する等)に基づき推定する。
【0254】
そして、コントローラ23(固有時系列長再決定部237)は、このような感情指標値評価結果と、感情推定結果評価とに基づき、固有時系列長の再決定が必要か否かを判断する。例えば、両方の評価結果が共に判定閾値より悪い場合に、コントローラ23(固有時系列長再決定部237)は、固有時系列長の再決定が必要と判断する。そして、コントローラ23(固有時系列長再決定部237)は、この判断結果に基づき、固有時系列長の再決定の必要性をユーザU1に通知する。ユーザU1は、この通知に基づき、固有時系列長の再決定処理を行うことになる。
【0255】
そして、当該再決定に対し、
図11、
図12A及び
図12Bを用いて説明した固有時系列長の決定方法に基づく処理を再度行うことになる。なお、
図15及び
図16に示した感情推定装置20においては、固有時系列長の決定方法を実行するためのハード構成が略存在する。このため、固有時系列長の決定処理プログラムを感情推定装置20にインストールして、必要なデータを収集することにより、感情推定装置20が固有時系列長の再決定処理を実行できるようにすることも可能である。
【0256】
上記の構成によれば、各個人に適した固有時系列長を、例えば定期的に、或いは任意のタイミングで、最新の適したデータに更新することができる。したがって、各個人の最新の特性に対応した精度の高い学習済みAIモデルを生成でき、各個人の最新の特性に対応した感情推定の精度の向上が期待できる。
【0257】
なお、上記の各実施形態では、AIモデルにより感情指標値(覚醒度、活性度等)を推定するようにしたが、AIモデルにより感情自体、或いは生体信号(脳波、心拍等)を推定することも可能である。感情自体を推定するAIモデルの場合、学習データの正解データは感情(感情指標値(覚醒度、活性度等)を感情推定モデル222mに適用した際の推定出力)となる。また、生体信号(脳波、心拍等)を推定するAIモデルの場合、学習データの正解データは生体信号となる。
【0258】
<11.留意事項等>
本明細書中で実施形態として開示された種々の技術的特徴は、その技術的創作の趣旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではない。本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれる。また、本明細書中で示した複数の実施形態は、可能な範囲で適宜組み合わせて実施して良い。
【0259】
また、上記実施形態では、被験者の動きに係る外観情報を取得し、取得した外観情報をAIモデルに入力して被験者の状態(感情)を推定する生体状態推定装置について説明したが、状態推定の対象は人(被験者)以外の他の動きのある物体であっても良い。当該物体としては、例えば車両、動物等であっても良い。したがって、本発明の技術は、物体(例えば車両)の動きに係る外観情報を取得し、取得した外観情報をAIモデルに入力して物体の状態(例えば、外観には表れない内面状態)を推定する物体状態推定装置として置き換えることができる。
【0260】
これにより、例えば車両の場合、種類(乗用車、トラック等)ごとに動きの特性が異なり、個体差が大きい車両の動きに係る外観情報の時系列長を、基準時系列長に統一することができる。したがって、車両の個体差の影響が抑制された精度の高い学習済みAIモデルを生成でき、当該AIモデルを用いた車両の状態推定の精度の向上が期待できる。
【0261】
また、物体毎に異なる、状態推定に適した時系列データの固有時系列長が決定され、状態推定AIモデルの学習、及び当該AIモデルを用いた物体の状態推定が行われる。事前に、物体毎に各種データの固有時系列長を決定しておくことで、各物体の特性に対応した長さの時系列データを用いた各種処理を行うことができる。したがって、各物体の特性に対応した精度の高い学習済みAIモデルを生成することが可能になる。さらに、当該AIモデルを用いた物体の状態推定の精度の向上が期待できる。
【0262】
また、上記実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能の少なくとも一部は電気的なハードウェア資源によって実現されて良い。ハードウェア資源としては、例えばASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等であって良い。また逆に、ハードウェア資源によって実現されるとした機能の少なくとも一部は、ソフトウェア的に実現されて良い。
【0263】
また、学習装置10及び感情推定装置20のそれぞれの少なくとも一部の機能をプロセッサ(コンピュータ)に実現させるコンピュータプログラムが含まれて良い。なお、そのようなコンピュータプログラムは、コンピュータ読取り可能な不揮発性記録媒体(例えば上述の不揮発性メモリの他、光記録媒体(例えば光ディスク)、光磁気記録媒体(例えば光磁気ディスク)、USBメモリ、或いはSDカード等)に記憶され提供(販売等)されることが可能で、またインターネット等の通信回線を介してサーバ装置で提供する方法、いわゆるダウンロードによる提供も可能である。
【符号の説明】
【0264】
10 学習装置
12 記憶部
13 コントローラ
20 感情推定装置(生体状態推定装置)
20S 感情推定システム(車載システム)
22 記憶部
23 コントローラ
30 車両制御装置
31 コントローラ
40 車両制御システム
41 アクチュエータ部
42 報知部
50 データ処理装置
52 記憶部
53 コントローラ
121ma、121mA 第1AIモデル
121mb、121mB 第2AIモデル
131 取得部
132 指標値算出部
133A、133B 時系列長統一部
134 挙動判定部
135 生成部
136 提供部
137 データ抽出部
222m 感情推定モデル
231 取得部
232 時系列長統一部
233 挙動判定部
234 感情推定部
235 提供部
236 データ抽出部
237 固有時系列長再決定部
525 評価用データセット
531 取得部
532 データ抽出部
533 指標値算出部
534 挙動判定部
535 生成部
536 評価部
C カメラ
M マイク
S11 脳波センサ
S12 心拍センサ
m11 固有時系列長決定用第1AIモデル
m12 固有時系列長決定用第2AIモデル
m1n 固有時系列長決定用第nAIモデル
U1、U2 ユーザ