IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通テン株式会社の特許一覧

特開2024-51307AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム
<>
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図1
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図2
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図3
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図4
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図5
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図6
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図7
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図8
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図9
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図10
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図11
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図12
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図13
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図14
  • 特開-AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024051307
(43)【公開日】2024-04-11
(54)【発明の名称】AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システム
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240404BHJP
   A61B 5/16 20060101ALI20240404BHJP
   B60K 28/02 20060101ALI20240404BHJP
   B60T 8/174 20060101ALI20240404BHJP
【FI】
G06N20/00 130
A61B5/16 120
B60K28/02
B60T8/174 C
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022157390
(22)【出願日】2022-09-30
(71)【出願人】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】110001933
【氏名又は名称】弁理士法人 佐野特許事務所
(72)【発明者】
【氏名】村下 君孝
(72)【発明者】
【氏名】加藤 徹洋
(72)【発明者】
【氏名】橋本 和真
(72)【発明者】
【氏名】長谷川 渉
【テーマコード(参考)】
3D037
3D246
4C038
【Fターム(参考)】
3D037FA01
3D246EA01
3D246GC14
3D246HA13A
3D246HA26A
3D246HA52C
3D246HA86A
3D246JB32
3D246JB56
3D246KA15
4C038PP03
4C038PQ03
4C038PS00
4C038PS03
(57)【要約】
【課題】ユーザに生体信号等の検知センサを装着させることなく、ユーザの感情を精度よく取得する。
【解決手段】AIモデル生成方法は、同じタイミングで、ユーザの外観に基づく第1情報群のデータと、生体信号に基づく第2情報群のデータとを取得し、前記第2情報群のデータに基づいて感情を推定し、前記第1情報群のデータと、推定された前記感情とからなる教師付き学習データを生成し、生成した前記教師付き学習データで感情推定AIモデルを学習する。
【選択図】図1
【特許請求の範囲】
【請求項1】
同じタイミングで、ユーザの外観に基づく第1情報群のデータと、生体信号に基づく第2情報群のデータとを取得し、
前記第2情報群のデータに基づいて感情を推定し、
前記第1情報群のデータと、推定された前記感情とからなる教師付き学習データを生成し、
生成した前記教師付き学習データで感情推定AIモデルを学習する、
AIモデル生成方法。
【請求項2】
感情を推定する感情推定装置であって、
コントローラと、
ユーザの外観に基づく第1情報群のデータと、生体信号に基づく第2情報群のデータに基づいて推定された感情とからなる教師付き学習データで学習済みのAIモデルが記憶された記憶部と、
を備え、
前記コントローラは、
前記第1情報群のデータを取得し、
前記AIモデルに取得した前記第1情報群のデータを入力して、感情を推定する、
感情推定装置。
【請求項3】
前記第1情報群のデータは、ユーザの視線または顔の向きに係る情報を含む、
請求項2に記載の感情推定装置。
【請求項4】
前記第2情報群のデータは、脳波に係る情報と、心拍に係る情報とを含む、
請求項2または請求項3に記載の感情推定装置。
【請求項5】
感情を推定する感情推定装置と、車両を制御する車両制御装置とを含む車両制御システムであって、
前記感情推定装置は、
ユーザの外観に基づく第1情報群のデータと、生体信号に基づく第2情報群のデータに基づいて推定された感情とからなる教師付き学習データで学習済みのAIモデルが記憶された記憶部を有し、
前記第1情報群のデータを取得し、
前記記憶部に記憶された前記AIモデルに取得した前記第1情報群のデータを入力して、感情を推定し、
前記車両制御装置は、
前記感情推定装置によって推定された感情に基づいて車両を制御する、
車両制御システム。
【請求項6】
同じタイミングで、ユーザの外観に基づく第1情報群のデータと、生体信号に基づく第2情報群のデータとを取得し、
前記第2情報群のデータに基づいて感情を推定し、
前記第1情報群のデータと、推定された前記感情とからなる教師付き学習データを生成する、
感情推定AIモデルの学習データ生成方法。
【請求項7】
同じタイミングで、ユーザの外観に基づく第1情報群のデータと、生体信号に基づく第2情報群における複数種類のデータとを取得し、
前記第1情報群のデータと、前記第2情報群における複数種類のデータとからなる複数の教師付き学習データを生成し、
生成した複数の前記教師付き学習データで複数のAIモデルを学習し、
学習済みの複数の前記AIモデルにより、前記第1情報群のデータの入力により感情推定用の前記第2情報群における複数種類のデータを推定するAIモデルを構成する、
AIモデル生成方法。
【請求項8】
感情を推定する感情推定装置であって、
コントローラと、
ユーザの外観に基づく第1情報群のデータと生体信号に基づく第2情報群の第1データとからなる教師付き学習データで学習済みの第1AIモデルと、ユーザの外観に基づく第1情報群のデータと生体信号に基づく第2情報群の第2データとからなる教師付き学習データで学習済みの第2AIモデルと、前記第1データと前記第2データとから感情を推定する感情推定モデルが記憶された記憶部と、
を備え、
前記コントローラは、
前記第1情報群のデータを取得し、
前記第1AIモデルに取得した前記第1情報群のデータを入力して、第1データを推定し、
前記第2AIモデルに取得した前記第1情報群のデータを入力して、第2データを推定し、
前記感情推定モデルに、前記第1AIモデルが推定した前記第1データと前記第2AIモデルが推定した前記第2データとを入力して、感情を推定する、
感情推定装置。
【請求項9】
感情を推定する感情推定装置と、車両を制御する車両制御装置とを含む車両制御システムであって、
前記感情推定装置は、
ユーザの外観に基づく第1情報群のデータと生体信号に基づく第2情報群の第1データとからなる教師付き学習データで学習済みの第1AIモデルと、ユーザの外観に基づく第1情報群のデータと生体信号に基づく第2情報群の第2データとからなる教師付き学習データで学習済みの第2AIモデルと、前記第1データと前記第2データとから感情を推定する感情推定モデルが記憶された記憶部を有し、
前記第1情報群のデータを取得し、
前記第1AIモデルに取得した前記第1情報群のデータを入力して、第1データを推定し、
前記第2AIモデルに取得した前記第1情報群のデータを入力して、第2データを推定し、
前記感情推定モデルに、前記第1AIモデルが推定した前記第1データと前記第2AIモデルが推定した前記第2データとを入力して、感情を推定し、
前記車両制御装置は、
前記感情推定装置によって推定された感情に基づいて車両を制御する、
車両制御システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、AIモデル生成方法、感情推定AIモデルの学習データ生成方法、感情推定装置、及び車両制御システムに関する。
【背景技術】
【0002】
従来、車両状態と運転者の感情状態との間の関連性モデルを学習して更新する人工知能(AI)を有し、当該関連性モデルを車両制御処理にフィードバックする車両運転支援システムが知られている(例えば特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2018-169706号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来技術では、車両状態と感情状態との関連性を学習させたAIモデルを用いており、感情推定の精度の面で課題があった。つまり、感情状態が車両状態に影響を及ぼす過程には、少なくとも、感情状態が身体の各種動作(周辺状況認知動作、周辺状況認知に基づく判断動作、判断に基づく身体動作(運転操作)等)が入るため、運転者の感情状態と車両状態の相関関係がやや低くなると考えられ、精度面での懸念がある。これに対して、運転者の生体信号から感情を推定する方法が考えられるが、運転者に生体信号等の検知センサを装着させることは困難で、また面倒である課題がある。
【0005】
本発明は、上記の課題に鑑み、ユーザに生体信号等の検知センサを装着させることなく、ユーザの感情を精度良く取得することが可能な技術を提供することを目的とする。
【課題を解決するための手段】
【0006】
例示的な本発明のAIモデル生成方法は、同じタイミングで、ユーザの外観に基づく第1情報群のデータと、生体信号に基づく第2情報群のデータとを取得し、前記第2情報群のデータに基づいて感情を推定し、前記第1情報群のデータと、推定された前記感情とからなる教師付き学習データを生成し、生成した前記教師付き学習データで感情推定AIモデルを学習する。
【発明の効果】
【0007】
本発明によれば、生成されたAIモデルは、ユーザの外観から判定される第1情報群を入力することで、感情を正解値として出力するモデルとなる。そして、推定の流れは、比較的精度の高いユーザの外観に基づく第1情報群のデータから生体信号に基づく第2情報群のデータを推定し、そしてその後の、多くの科学的エビデンスに基づき精度が高いと考えられる生体信号に基づく第2情報群のデータからの感情推定となるので、精度の高い感情推定が期待できる。また、ユーザの感情推定時に必要なユーザに関するデータは、ユーザの外観から判定される第1情報群のデータとなるので、ユーザに接触系の生体信号等の検知センサを装着させる必要がない。このため、ユーザが面倒、あるいは鬱陶しいといった感情を生じることなく、感情推定を行うことができ、ユーザ感情を利用した各種制御システム等を現実的なものとすることができる。
【図面の簡単な説明】
【0008】
図1】第1実施形態のAIモデル生成方法の一例を示す説明図
図2】感情推定の複数次元(2次元)モデル(心理平面)の一例を示す図
図3図1に示したAIモデル生成装置の一例を示す構成図
図4】センサテーブルの一例を示す図
図5】心理平面テーブルの一例を示す図
図6図3のAIモデル生成装置のコントローラが実行するAIモデル生成処理を示すフローチャート
図7図1のAIモデル生成方法で生成した(学習させた)AIモデルを用いた感情推定方法の一例を示す説明図
図8図7の感情推定装置を備える車両制御システムの一例を示す構成図
図9図8の感情推定装置のコントローラが実行する感情推定処理を示すフローチャート
図10】第2実施形態のAIモデル生成方法の一例を示す説明図
図11図10に示したAIモデル生成装置の一例を示す構成図
図12図11のAIモデル生成装置のコントローラが実行するAIモデル生成処理を示すフローチャート
図13図10のAIモデル生成方法で生成した(学習させた)第1AIモデル及び第2AIモデルモデルを用いた感情推定方法の一例を示す説明図
図14図13の感情推定装置を備える車両制御システムの一例を示す構成図
図15図14の感情推定装置のコントローラが実行する感情推定処理を示すフローチャート
【発明を実施するための形態】
【0009】
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。なお、本発明は以下に示す実施形態の内容に限定されるものではない。
【0010】
<1.第1実施形態>
<1-1.AIモデル生成方法>
図1は、第1実施形態のAIモデル生成方法の一例を示す説明図である。ここで説明するAIモデル生成方法は、図1に示すAIモデル121mにおけるAIの「学習プロセス」に相当する。
【0011】
本実施形態において、ユーザU1は、車両V1の運転者である。すなわち、当該生成方法で生成されるAIモデル121mは、運転者(ユーザU1)の感情の推定に用いられる。AIモデル121mは、例えばAIモデル生成装置10の記憶器(メモリ等)にAIモデルの記憶部が設けられ、学習前のAIモデルが記憶される。そして、AIモデル生成装置10が以下で説明する方法(生成処理)を実行することにより、学習前のAIモデルの学習が行われ、学習済AIモデル、つまりAI適用製品に実装されるAIモデルが生成されることになる。AIモデル生成装置10の詳細については後述する。
【0012】
なお、AIモデル生成装置10は、車両V1に搭載されるコンピュータ装置であっても良いし、車両V1とネットワークを介して接続されたサーバであっても良い。当該サーバは、物理サーバであっても、仮想サーバであっても良い。
【0013】
AIモデル121mの学習に用いる学習データは、AIモデル121mの用途によって適切な情報が決まる。例えば、特定の運転手に対するAI適用装置の場合には該当の運転手における情報が適切な情報となり、いろいろな運転手に対するAI適用装置の場合には多種多様な運転手における情報が適切な情報となる。また、運転手に対するAI適用装置の場合には運転手における情報が適切な情報となり、車両各乗員に対するAI適用装置の場合には各種乗員における情報が適切な情報となる。そして、学習データは、AIモデル121mの推定精度を高くするために、多くの情報を必要とする。
【0014】
本実施形態においては、AI適用装置を運転者(特定の個人ではなく、一般の運転手に適用)の感情に基づき車両の制御を行う装置とし、AI学習(学習データ収集)のための実験走行試運転(いろいろなタイプの複数被験者による学習データ(一般の運転手に適用する装置向け)の生成)を想定して説明を行う。また、各運転手の車両運転中における各動作等は同様であるので、ある一人の運転手の車両運転中におけるAI学習(学習データ収集)について説明する。なお、AI学習(学習データ収集)は、AI学習対象の全運転手による車両運転の情報に基づき学習することになる。
【0015】
また、例えば、AI適用装置が医療機関における診療装置の場合、ユーザU1(情報収集対象)は医療機関における患者や医師等になる。また、AI適用装置が教育機関における教育指導装置の場合、ユーザU1は生徒や教師等になる。また、AI適用装置がeスポーツ関連装置、エンターテイメントのコンテンツ関連装置の場合、ユーザU1はeスポーツのプレイヤーやコンテンツの視聴者等になる。
【0016】
AIモデル121mの生成方法では、ユーザU1から、第1情報群F1と、第2情報群F2との2つの情報群を取得する。第1情報群F1は、ユーザU1の外観から判定される挙動を示す情報群である。第2情報群F2は、感情との間に相関関係がある生体信号で構成される情報群である。
【0017】
第1情報群F1の情報取得のために、車両V1には、複数の車載センサが設けられる。車載センサは、ユーザ(運転手)U1の外観から判定される挙動を示す情報をセンサ信号として検出する。なお、ここで外観とは、運転手U1の画像(撮影)情報だけでなく、遠隔観測可能な情報、言い換えれば非接触センサで検知可能な情報である。本実施形態において、車載センサは、カメラCと、マイクMとを含む。カメラCは、運転手U1の視線や顔の向き、表情等を含む顔が映った画像情報を検出する。マイクMは、運転手U1の声等の発音を含む音声情報を検出する。カメラC及びマイクMは、例えば車両V1のフロントガラス、或いはダッシュボード付近に設けられ、運転者である運転手U1の方向を指向する。なお、車載センサは、取得したい運転手U1の挙動等に応じて他のセンサを追加、変更しても良い。
【0018】
これら第1情報群F1の情報を取得するセンサ類は遠隔観測系のセンサ(非接触センサ)であるので、車両(車室内装備品)、例えばインストルメントパネル、ステアリングホイール、ルームミラーや車室内壁面等への設置が可能である。AI適用装置においてもこれら情報の取得のためのセンサ類を、直接運転手(ユーザ)に装着する必要はない。
【0019】
なお、これらセンサの情報、例えばカメラCと、マイクMの画像、音声情報を加工した運転手U1の外観から判定される挙動を示す情報を、第1情報群F1の情報として扱っても良い。つまり、例えばカメラCの撮影画像から解析して得られた顔の向きの情報を第1情報群F1の情報としても良い。
【0020】
第2情報群F2の情報取得のために、運転手U1は、生体センサを装着する。生体センサは、運転手U1の生体信号をセンサ信号として検出する。本実施形態において、生体センサは、第1センサS11と、第2センサS12とを含む。第1センサS11は、例えばヘッドギア型の脳波センサである。第2センサS12は、例えば胸ベルト型の心電式心拍センサである。なお、生体センサは、取得したい生体情報等に応じて他のセンサを追加、変更しても良い。他の生体センサとしては、例えば光学式心拍(脈拍)センサ、血圧計、またはNIRS(Near Infrared Spectroscopy)装置等であっても良い。
【0021】
これら第2情報群F1の情報を取得する生体センサは一般的には接触センサである。生体センサとして非接触センサも特殊なものとして存在するが、高額なものであり、また設置条件が厳格なものが多く、AI適用装置への利用としては、非現実的であり、適したものであるとは言えない。
【0022】
続いて、図1を参照して、AIモデル121mの生成方法(AIの学習プロセス)の流れを説明する。
【0023】
カメラC及びマイクMは、第1情報群F1として、ユーザU1の外観から判定される挙動を示す情報(例えば視線、顔の向き、表情を含む画像、音声)を検出し、当該情報をセンサ信号としてAIモデル生成装置10に出力する。第1センサS11及び第2センサS12は、第2情報群F2として、ユーザU1の生体信号(例えば脳波、心拍)を検出し、センサ信号としてAIモデル生成装置10に出力する。AIモデル生成装置10は、同じタイミングの第1情報群F1と、第2情報群F2とを対として扱う。
【0024】
AIモデル生成装置10の記憶器(メモリ等)には、生体信号に基づき感情を推定する感情推定モデルの記憶部が設けられ、そこに感情推定モデル122mが記憶される。感情推定モデル122mは、第2情報群F2の生体信号である第1センサS11及び第2センサS12が検出した脳波情報、心拍情報に基づいて感情を推定する。ここで、感情推定(感情推定モデル122m)について説明する。
【0025】
感情推定モデル122mは、取得した生体信号に基づき、心身状態を示す指標(生理反応)の値である指標値を算出する。本実施形態において、感情推定モデル122mは、脳波及び心拍に関する2つの心身状態を示す指標の指標値を生成する。具体的には、脳波に関する心身状態を示す指標は、中枢神経系覚醒度(以下、単に覚醒度と称する)であり、その指標値は「脳波のβ波/α波」で与えることができる。また、心拍に関する心身状態を示す指標は、自律神経系の活性度(以下、単に活性度と称する)であり、その指標値は「心拍LF(Low Pass Filter)成分(心拍波形信号の低周波成分)の標準偏差」で与えることができる。
【0026】
感情推定モデル122mには、生体信号(脳波情報・心拍情報)に基づく心身状態の指標値の算出用のモデル(算出式や変換データテーブル)が含まれる。さらに、感情推定モデル122mには、複数の指標(覚醒度と活性度)から感情を推定する複数次元モデル(ここでは覚醒度と活性度を2軸とする2次元モデル)が含まれる。2次元モデルは、複数の指標と感情との関係(覚醒度・活性度と、感情との関係)を示す医学的エビデンス(論文等)に基づいて作成される。
【0027】
感情推定モデル122mは、算出した指標値(覚醒度と活性度)と、複数次元モデル(2次元モデル)とを用いて、感情を推定する。
【0028】
図2は、感情推定の複数次元(2次元)モデル(心理平面)の一例を示す図である。心理学に関する各種医学的エビデンスによると、心理は身体状態を示す2種類の指標に基づき推定できるとされる。図2に示される心理平面は、縦軸が「覚醒度(覚醒-不覚醒)」であり、横軸が「自律神経系の活性度(交換神経活性(強い感情)-副交感神経活性(弱い感情)」である。
【0029】
この心理平面では、縦軸と横軸で分離される4つの象限のそれぞれに、該当する心理状態が割り当てられている。各軸からの距離が、該当する心理状態の強度を示す。第一象限には「楽しい、喜び、怒り、悲しみ」の心理状態が割り当てられている。また、第二象限には「憂鬱」の心理状態が割り当てられている。また、第三象限には「リラックス、落ち着き」の心理状態が割り当てられている。また、第四象限には「不安、恐怖、不愉快」の心理状態が割り当てられている。
【0030】
そして、生体信号に基づいて得られる2種類の心身状態の指標値を、心理平面にプロットすることにより得られる座標から、心理状態の推定を行うことができる。具体的には、プロットした座標が、心理平面のどの象限に存在するか、象限内のどの位置にあるか、また原点から距離がどの程度であるかに基づき、心理状態とその強度を推定することができる。なお、図2に示す感情推定モデルは、2次元の平面であるが、使用する指標数に応じて3次元以上の多次元空間となる。
【0031】
図1に戻って、説明を続ける。AIモデル生成装置10は、AIモデル121mに、第1情報群F1のデータを入力値とし、第2情報群F2の生体信号に基づいて感情推定モデル122mが推定した感情を正解値として、それぞれ入力する。つまり、AIモデル生成装置10は、AIモデル121mに対して例題である第1情報群F1のデータと、その正解である感情推定モデル122mが推定した感情データとからなる教師付きデータセットを用いて、AIモデル121mの学習を行う。このような学習により、第1情報群F1を入力値とし、感情を正解(推定)値として出力するAIモデル121mが生成される。
【0032】
上記の方法によれば、生成されたAIモデル121mは、ユーザU1の外観から判定される第1情報群F1のデータを入力することで、感情を正解値として出力する。すなわち、学習済みのAIモデル121mを用いることで、ユーザに生体信号等の検知センサを装着させることなく、ユーザに装着の必要の無い遠隔系のセンサ(非接触センサ)を用いて、ユーザの感情を推定することが可能になる。
【0033】
また、上記の方法では、生体信号に対応する感情を、感情推定モデル122mに基づいて推定する。生体信号と感情とは、医学的エビデンスに基づいてそれらの相関性が比較的高いことが証明されている。このため、この方法によれば、AIモデル121mの学習用のデータセットを良質なもの、つまり正解精度の高い教師付きデータセットとすることができる。したがって、AIモデル生成装置10は、AIモデル121mを良質なデータセットで学習させることができ、効率よく、精度の高いAIモデル121mを生成できる。
【0034】
また、第1情報群F1のデータが、ユーザU1の視線と、顔の向きとに係る情報を含むことで、ユーザU1の顔画像による感情の推定が可能となり、車室内撮影の車載カメラをセンサとして利用できる。車室内撮影の車載カメラはドライブレコーダ等のカメラを兼用することができ、AIモデル生成装置10及びAIモデル適用製品の低コストでの実現が可能となる。
【0035】
また、第2情報群F2のデータが、ユーザU1の脳波の生体信号と、心拍の生体信号とを含むことで、感情推定モデルとして図2に示される覚醒度と活性度とを軸とする心理平面を用いることができる。覚醒度と活性度とを軸とする心理平面は感情推定モデルとして比較的精度が高いものとして広く利用されており、生体信号に基づいて高精度に感情を推定することが可能である。したがって、感情推定モデル122mはAIモデル121mの学習用のデータセットとして正解精度の高い教師付きデータセットを生成することに寄与し、その結果、AIモデル生成装置10は効率よく、精度の高いAIモデル121mを生成できる。
【0036】
<1-2.AIモデル生成装置>
図3は、図1に示したAIモデル生成装置10の一例を示す構成図である。図3では、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素の記載は省略されている。
【0037】
図3に示すように、AIモデル生成装置10は、通信部11と、記憶部12と、コントローラ13と、を備える。AIモデル生成装置10は、いわゆるコンピュータ装置で構成できる。なお、図示は省略するが、AIモデル生成装置10は、キーボード等の入力装置や、ディスプレイ等の出力装置を備える。
【0038】
通信部11は、通信ネットワークを介して他の装置との間でデータの通信を行うためのインタフェースである。通信部11は、例えばNIC(Network Interface Card)である。
【0039】
記憶部12は、揮発性メモリ及び不揮発性メモリを含んで構成される。揮発性メモリには、例えばRAM(Random Access Memory)で構成される。不揮発性メモリには、例えばROM(Read Only Memory)、フラッシュメモリ、ハードディスクドライブで構成される。不揮発性メモリには、コントローラ13により読み取り可能なプログラム及びデータが格納される。不揮発性メモリに格納されるプログラム及びデータの少なくとも一部は、有線や無線で接続される他のコンピュータ装置(サーバ装置)、または可搬型記録媒体から取得される構成としても良い。
【0040】
記憶部12には、上記AIモデル生成方法によって生成されたAIモデル121mを記憶するAIモデル記憶部121が設けられる。さらに、記憶部12は、感情推定モデル記憶部122と、各種処理用の複数のデータテーブルとが設けられる。データテーブルとしては、センサテーブル123と、心理平面テーブル124とが設けられる。図4は、センサテーブル123の一例を示す図である。図5は、心理平面テーブル124の一例を示す図である。
【0041】
図4に示すように、センサテーブル123の項目には、「センサID」、「センサ種別」、「生体信号種別」、「対応指標ID」、「対応指標種別」、及び「指標変換情報」が含まれる。テーブルの項目は、データ記憶セル(記憶枠)に対応する。
【0042】
センサテーブル123の項目「センサID」は、センサテーブル123におけるデータレコードを識別するための識別情報であるセンサIDデータを記憶する。センサIDデータは、センサテーブル123におけるデータレコードの主キーでもある。つまりセンサテーブル123では、センサIDデータごとにデータレコードが構成され、当該データレコードにセンサIDデータに紐づいた各項目のデータが記憶されることになる。
【0043】
センサテーブル123の項目「センサ種別」は、センサ種別を特定するための情報を記憶する。本例では、センサ名称(型番等のデータでも可)が記憶される。
【0044】
センサテーブル123の項目「生体信号種別」は、センサにより検出される生体信号に基づく計測値の種別を記憶する。この生体信号種別データは、対応指標種別データと相関のあるデータである。学術的に、対応指標種別データは、それと対応する生体信号種別データを取得することにより推定(算出)できると認識されている。
【0045】
センサテーブル123の項目「対応指標ID」は、生体信号を検出するセンサの信号に基づき生成(算出)される心身状態指標を識別するための識別情報を記憶する。そして、センサテーブル123の項目「対応指標種別」は、指標の種別(名称等)を記憶する。
【0046】
センサテーブル123の項目「指標変換情報」は、生体信号を検出するセンサから得られる信号に基づき指標値を算出するための変換情報(演算式や変換データテーブル等)を記憶する。つまり、センサIDデータに対応するセンサにより検出された生体信号を、指標変換情報に従って変換処理することにより、対応指標IDで識別される心身状態指標の指標値が推定(算出)されることになる。
【0047】
たとえば、図4で示すセンサテーブル123におけるセンサID「SN01」のデータレコードは、次のような情報を有する。「脳波センサBA」の出力信号により「脳波のβ波/α波」が計測される。そして、この「脳波のβ波/α波」を「FX01」の指標変換情報を用いて変換することによって、「覚醒度」の指標値が得られる。
【0048】
図5に示すように、心理平面テーブル124は、指標種別(具体的には指標IDデータを使用)を縦軸及び横軸のパラメータとする2次元マトリックステーブルである。心理平面テーブル124においては、2種類の指標種別で定まる記憶セル(記憶枠)に、当該2種類の指標種別データで使用できる心理平面種別のデータが記憶されている。例えば、指標として用いる指標種別が、指標種別VSmと指標種別VSnであれば、感情の推定に用いる心理平面は心理平面mnとなる。心理平面mnを用いた処理を行うための情報が読み出され、感情の推定処理に使用されることになる。
【0049】
なお、センサテーブル123と心理平面テーブル124とにおいては、共通の指標IDが用いられる。すなわち、センサテーブル123と心理平面テーブル124とに基づいて、ユーザU1に装着された2種類のセンサに対応する心理平面mnを決定することができる。例えば、ユーザU1に装着されたセンサ種別が「脳波センサBA(指標ID:VS01)」と「心拍センサHA(指標ID:VS02)」であるとする。この場合、「脳波センサBA(指標ID:VS01)」および「心拍センサHA(指標ID:VS02)」に対応する指標IDデータがセンサテーブル123に基づき決定される。そして、心理平面テーブル124に基づき、「覚醒度」(VS01)と「活性度」(VS02)を指標とする心理平面01-02が、感情の推定に用いる心理平面として決定されることになる。
【0050】
図3に戻って、説明を続ける。コントローラ13は、AIモデル生成装置10の各種機能を実現するもので、演算処理等を行うプロセッサを含む。プロセッサは、例えばCPU(Central Processing Unit)を含んで構成される。コントローラ13は、1つのプロセッサで構成されても良いし、複数のプロセッサで構成されても良い。複数のプロセッサで構成される場合には、それらのプロセッサは互いに通信可能に接続され、協働して処理を実行する。なお、AIモデル生成装置10をクラウドサーバで構成することも可能であり、その場合、プロセッサを構成するCPUは仮想CPUであって良い。
【0051】
コントローラ13は、その機能として、取得部131と、挙動判定部132と、感情推定部133と、生成部134と、提供部135と、を備える。本実施形態においては、コントローラ13の機能は、記憶部12に記憶されるプログラムに従った演算処理をプロセッサが実行することによって実現される。
【0052】
取得部131は、通信部11を介して、カメラC、マイクM、第1センサS11である脳波センサ、及び第2センサS12である心拍センサによって検出された各種情報(画像情報、音声情報、脳波情報、心拍情報)を取得する。取得部131は、取得した各種情報を、その後の処理のために必要に応じて記憶部12に形成されたデータテーブルに記憶する。なお、取得部131は、実質的に同時刻におけるこれらの情報を取得して、一つのデータセットとしてデータテーブルに記憶する。そして、これらデータは当該時刻における心身状態、挙動状態、感情を推定するために使用される。
【0053】
挙動判定部132は、取得部131が取得した、ユーザU1の顔を含む画像情報に対して解析処理を行うことで、ユーザU1の視線や顔の向き、表情、音声等の予め定めれた種類の挙動を判定する。これら挙動種別は、脳波情報または心拍情報と相関性のある種類の挙動で、つまりは感情と相関性のある種別の挙動で、ここでは視線、顔の向き、表情、音声を適用している。
【0054】
ユーザU1の視線に関して、挙動判定部132は、ユーザU1の顔を含む画像からユーザU1の左右の眼球を検知対象物とした特徴量算出、形状判別等の認識処理を行う。挙動判定部132は、当該認識処理の結果に基づき、例えば目頭の位置、眼の虹彩及び瞳孔の中心位置、近赤外照明による角膜反射像(プルキニエ像)の中心位置、眼球の中心位置等を用いた所定の視線検出処理によりユーザU1の視線及び注視点の挙動を判定する。ユーザU1の視線は、例えばユーザU1の前方にユーザU1と正対する仮想平面に設け、ユーザU1の視線ベクトルが仮想平面を貫く位置の二次元座標で表すことができる。
【0055】
ユーザU1の顔の向きに関して、挙動判定部132は、ユーザU1の顔を含む画像からユーザU1の顔を検知対象物とした特徴量算出、形状判別等の認識処理を行う。挙動判定部132は、当該認識処理の結果に基づき、例えば目、鼻、口等のそれぞれの位置、鼻頂部の位置、顔の輪郭、顔の輪郭の幅方向の中心位置等を用いた所定の顔向き検出処理によりユーザU1の顔の向きの挙動を判定する。
【0056】
ユーザU1の表情に関して、挙動判定部132は、ユーザU1の顔を含む画像からユーザU1の顔を検知対象物とした特徴量算出、形状判別等の認識処理を行う。挙動判定部132は、当該認識処理の結果に基づき、例えば口角の角度、眉の角度、目の開き具合等を用いた所定の表情検出処理によりユーザU1の表情の挙動を判定する。
【0057】
挙動判定部132は、取得部131が取得した、ユーザU1の声等の発音を含む音声情報に対して解析処理を行うことで、ユーザU1の特徴的な音声を判定する。挙動判定部132は、当該解析処理によって、例えば、ユーザU1の、音声音量や発声速度、発言頻度、音声認識結果に基づく発声内容の言語解析結果(例えば喜びや怒り、不安等に関係する単語や文章の出現)に基づき、ユーザU1の音声の挙動を判定する。
【0058】
感情推定部133は、図1に示した感情推定モデル122mに該当し、生体信号に基づいて感情を推定する。具体的には、感情推定部133は、取得部131が取得した情報に基づいて感情の推定に用いる感情推定モデルを選択する。具体的には、感情推定部133は、取得した情報とセンサテーブル123とを照合して、取得した情報に含まれるセンサ種別及び生体信号種別に対応する「対応指標種別」のデータ(指標種別データ)を抽出する。そして、感情推定部133は、抽出した指標種別データの「指標ID」と心理平面テーブル124とを照合して、感情の推定に用いる感情推定モデル(心理平面)を選択する。例えば、センサIDが「SN01」(センサ種別:脳波センサBA)と「SN02」(センサ種別:心拍センサHA)の場合、対応する指標IDは、「VS01」(指標種別:覚醒度)と「VS02」(指標種別:活性度)となる(図4A参照)。これらに基づき、感情推定部133は、使用する感情推定モデルとして心理平面01-02を選択する。
【0059】
なお、感情推定部133による感情推定は、生体信号(接触センサによる検出信号)による感情推定であるので、図4のセンサテーブル123には生体信号センサ(接触センサ)のデータが記憶され、また図5の心理平面テーブル124はセンサテーブル123に記憶された生体信号から算出される指標種別を縦軸・横軸とする心理平面データが記憶される。
【0060】
また、AIモデル121mの学習データセットを生成するために使用する生体信号センサが決まっている場合(固定されている)場合は、図4のセンサテーブル123と図5の心理平面テーブル124は不要で、当該生体信号センサに関する処理に必要なデータと、当該生体信号センサから算出される指標を軸とする心理平面データが記憶部12に記憶されていれば良く、上記センサテーブル123からのデータ選択処理、また心理平面テーブル124からの心理平面データ選択処理は不要となる。
【0061】
感情推定部133は、心理平面(感情推定モデル)を選択すると、当該心理平面を用いて感情の推定処理を実行する。具体的には、感情推定部133は、取得部131によって取得された生体信号に基づく情報をセンサテーブル123における指標変換情報を用いて指標値に変換する。本実施形態では、第1センサS11(センサ種別:脳波センサBA)と第2センサS12(センサ種別:心拍センサHA)とから得られる情報を用いて、覚醒度の指標値と、活性度の指標値とが求められる。
【0062】
感情推定部133は、心理平面上に、各指標値をプロットして得られる座標の位置に応じて感情の推定を行う。本実施形態では、覚醒度を縦軸とし、活性度を横軸とした心理平面(図2参照)上に、覚醒度の指標値と活性度の指標値とをそれぞれプロットして得られる座標の位置に応じて感情の推定を行う。
【0063】
生成部134は、AIモデル121mに、第1情報群F1の各データを入力値とし、第2情報群F2の生体信号に基づいて推定された感情を正解値としてそれぞれ入力する。これらの入力は、各々同時刻に検出された各センサの検出信号に基づいている。詳細に言えば、生成部134は、AIモデル121mに、挙動判定部132によって判定された、ユーザU1の視線や顔の向き、表情、音声等に係る情報を入力値とし、感情推定部133によって、ユーザU1の生体信号に基づいて推定された感情を正解値としてそれぞれ入力する。
【0064】
なお、第1情報群F1の各データ、第2情報群F2の生体信号、また生体信号に基づいて推定された感情の正解値等の各データについては、同時間帯(適当な時間長)のこれらデータを統計処理(各種平均処理、ローパスフィルタ処理)したデータを用いるのが、ノイズ対策の面等から実用的である。
【0065】
つまり、生成部134は、遠隔系センサ(非接触センサ)の検出した情報に基づき挙動判定部132が判定したユーザU1の挙動情報を入力とし、接触せンサの検出した生体信号に基づき感情推定部133が推定した感情を正解データとした学習用の教師付きデータセットを生成する。そして、生成部134は、生成した教師付きデータセットをAIモデル121mに提供し、AIモデル121mに学習をさせる。
【0066】
提供部135は、生成部134によって生成されたAIモデル121mを、ネットワークを介して後述する車両V2で用いられる感情推定装置20(図7及び図8参照)に提供する。これにより、感情推定装置20は、提供部135によって提供されたAIモデル121m(のデータ)を取り込んで感情推定機能を動作可能とし、車両V2の各種機能において推定した感情情報を利用することができる。
【0067】
なお、提供部135は、生成部134によって生成されたAIモデル121m(のデータ)を、ネットワークを介して感情推定装置20に提供するようにしたが、AIプラットホームを形成するLSIにAIモデル121mのデータを書き込んでAI実行LSIを生成し、当該AI実行LSIを感情推定装置20に組み込む等の方法でAIモデル121m(のデータ)を提供することも可能である。
【0068】
<1-3.AIモデル生成装置の動作例 >
図6は、図3のAIモデル生成装置10のコントローラ13が実行するAIモデル生成処理を示すフローチャートである。このフローチャートは、コンピュータ装置にAIモデル生成処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、提供(販売、流通等)される。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0069】
図6に示す処理は、感情推定装置20(車両制御システム)の設計者等が感情推定AIモデルの生成処理を実行する際、例えばキーボード等の操作部により生成処理開始操作が行われた際に実行される。なお、車両運転時のデータを収集するのであれば、車両走行状態で処理が実行される。
【0070】
ステップS101において、コントローラ13は処理の初期設定を行う。具体的には、なお、データを収集する期間(データ量)を設定する。この期間(データ量)はAIモデルの学習に必要な量のデータセットを作成できる期間(データ量)で、説明上では予め定めた適当な一定間隔でデータを収集するとして、収集データ数Nを収集するデータ数とする。このデータ数Nの値は、設計者等が適当な値をキーボード等を操作して設定することになる。また、処理対象データレコード番号をnとする。なお、ステップS101において、データレコード番号nは1に初期設定される。
【0071】
また、ステップS101では、各センサの種別は設計等の対象とする感情推定装置に応じて設計者等により設定され、それに応じて感情推定用の心身状態指標、心理平面データ等が設定されることになる。なお、例示として、第1情報群F1のデータとしてカメラ画像、マイク音声が、第2情報群F2のデータとして脳波、心拍が設定されたとして説明を行う。
【0072】
ステップS102において、コントローラ13(取得部131)は、第1情報群F1(カメラ画像、マイク音声)及び第2情報群F2(脳波、心拍)の各センサからデータを収集し、記憶部12に収集データのデータレコードnを生成して、各センサのデータを当該データレコードnに記憶し、データレコード番号nに1加算して、ステップS103に移る。
【0073】
ステップS103において、コントローラ13(取得部131)は、データレコード番号nが収集データ数N+1に達したかどうか、つまり収取データ数が必要な数に達したか判断し、達していればステップS104に移り、達していなければステップS102に戻る。
【0074】
ステップS104において、コントローラ13(取得部131)は、データレコード番号nを1に初期化して、ステップS105に移る。
【0075】
ステップS105において、コントローラ13(感情推定部133)は、データレコード番号nのデータレコードの第2情報群F2の生体信号(脳波、心拍)に基づいて感情を推定し、ステップS106に移る。具体的に言えば、感情推定部133は、取得部131が取得した第2情報群F2の生体信号(脳波、心拍)に基づいて感情の推定に用いる心理平面(感情推定モデル)を選択し、当該心理平面に生体信号に基づく心身状態の指標を適用して感情を推定する。
【0076】
ステップS106において、コントローラ13(挙動判定部132)は、データレコード番号nのデータレコードの第1情報群F1のデータ(カメラ画像、マイク音声)に基づき挙動を判定し、ステップS107に移る。
【0077】
ステップS107において、コントローラ13(生成部134)は、データレコード番号nのデータレコードに基づく感情推定結果を正解値とする、また挙動判定結果を入力値とする学習データを、AIモデル121mに入力し、またデータレコード番号nに1加算して、ステップS108に移る。
【0078】
より具体的に言えば、生成部134は、AIモデル121mに、挙動判定部132によって判定された、ユーザU1の視線や顔の向き、表情、音声等に係る情報を入力値とし、感情推定部133によって、ユーザU1の生体信号に基づいて感情推定モデルを用いて推定された感情を正解値とする学習データを入力する。そして、生成部134は、AIモデル121mに関し、第1情報群F1と、第2情報群F2の生体信号に基づいて推定した感情とを結び付ける学習を行う。
【0079】
ステップS108において、コントローラ13(生成部134)は、データレコード番号nが収集データ数N+1に達したか否か、つまりAIモデル121mが収集データ全てについて学習を終了したか否かを判断し、終了していれば処理を終了し、終了していなければステップS105に戻る。
【0080】
この後、学習を終了したAIモデル121m(或いは学習済みAIモデル121mを生成するためのデータ)は、AIモデル生成装置10を操作するオペレータの指示等に基づき、車両V2で用いられる感情推定装置20に提供される。
【0081】
なお、上記AIモデル生成装置10では、挙動判定部132が判定した挙動判定結果でAIモデル121mを学習するようにしたが、この場合は感情推定装置20に搭載したAIモデル121mに挙動判定結果で用いた種別の挙動判定結果を入力する必要がある。このため、感情推定装置20には、挙動判定部132と同等の挙動判定結果を出力する構成、例えばAIモデル生成装置10に接続された各種センサと同種のセンサと、挙動判定部132と同等の挙動判定部を設ける必要がある。そして、挙動判定部132は、省略すること、或いはセンサ入力の整合化(規格化、誤差調整)するだけのものとすることもできる。その場合、感情推定装置20は、挙動判定部132を省略、或いはセンサ入力の整合化機能だけのものとすることとなる。
【0082】
また、上記AIモデル生成装置10では、学習データセットを完成させてから、つまり収集データ数Nの学習データセットを生成してから、AIモデル121mに学習データセットを入力してAIモデル121mの学習を行なったが、対応する感情推定結果と挙動判定結果とを1組毎に、つまりこれらデータを生成する度毎にAIモデル121mに入力して学習させる方法でも良い。
【0083】
また、上記AIモデル生成装置10では、1データレコード単位で学習データを生成しAIモデルに入力しているが、複数データレコードの各データを統計処理したデータを用いて学習データを生成しAIモデルに入力するようにすることも可能である。
【0084】
<1-4.感情推定方法>
図7は、図1のAIモデル生成方法で生成した(学習させた)AIモデル121mを用いた感情推定方法の一例を示す説明図である。また、この説明において、先に説明したAIモデル生成方法と同様の構成要素については、前と同じ符号または同じ名称を付してその説明を省略する場合がある。
【0085】
ユーザU2は、車両V2の運転者である。当該推定方法で用いられるAIモデル121mは、運転者(ユーザU2)の感情の推定に用いられる。AIモデル121mは、AIモデル生成装置10により学習が行われて、学習済みモデルとして提供され、感情推定装置20に搭載される(記憶される)。感情推定装置20の詳細については後述する。
【0086】
なお、感情推定装置20は、車両V2に搭載されるコンピュータ装置で実現でき、また車両V2とネットワークを介して接続されたサーバでも実現できる。また、当該サーバは、物理サーバであっても、仮想サーバであっても良い。
【0087】
このAIモデル121mを用いた感情推定方法では、ユーザU2から、図1のAIモデル生成方法と同じ第1情報群F1のデータを取得する。なお、この感情推定方法では、図1のAIモデル生成方法で使用した第2情報群F2のデータは使用しない。
【0088】
第1情報群F1の情報取得のために、車両V2には、複数の車載センサが設けられる。車載センサは、ユーザ(運転手)U2の外観から判定される挙動を示す情報をセンサ信号として検出する。なお、これら車載センサは、AIモデル生成方法で使用された同じ挙動を検出するセンサ、好ましくは同じ種類、さらには同じ機種のセンサが好ましい。本実施形態において、車載センサは、カメラCと、マイクMとを含む。
【0089】
感情推定装置20は、これらセンサから第1情報群F1のデータを取得し、AIモデル121mに第1情報群F1のデータを入力する。
【0090】
感情推定装置20のAIモデル121mは、AIモデル生成装置10にて第1情報群F1のデータに基づき感情を推定するように学習されたAIモデルである。したがって、感情推定装置20において、AIモデル生成装置10での学習時と同じ種別のデータが入力された場合、つまりカメラ撮影画像やマイク収集音声に基づく視線、顔向き、音声という挙動データが入力された場合、AIモデル121mはAIモデル生成装置10での学習成果(学習した推定プロセス)に基づき感情を推定して出力することになる。
【0091】
なお、AIモデル生成装置10におけるAIモデル121mの学習において、入力として第1情報群F1のデータを挙動判定部132で加工した挙動データを用いているので、感情推定装置20のAIモデル121mへの入力も第1情報群F1のデータを挙動判定部132における処理と同様の処理を施した挙動データとする必要がある。また、AIモデル生成装置10におけるAIモデル121mの学習において、入力として第1情報群F1のデータをそのまま用いた場合は、感情推定装置20のAIモデル121mへの入力も第1情報群F1のデータをそのまま用いることとなる。
【0092】
<1-5.車両制御システム>
図8は、図7の感情推定装置20を備える車両制御システム40の一例を示す構成図である。図8では、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素の記載は省略されている。また、この説明において、先に説明したAIモデル生成装置10と同様の構成要素については、前と同じ符号または同じ名称を付してその説明を省略する場合がある。
【0093】
図8に示すように、車両制御システム40は、感情推定装置20と、車両制御装置30と、アクチュエータ部41と、報知部42と、を備える。なお、図示は省略するが、車両制御システム40は、キーボード、タッチパネル等の入力装置や、ディスプレイ等の出力装置を備える。
【0094】
<1-5-1.感情推定装置>
感情推定装置20は、通信部21と、記憶部22と、コントローラ23と、を備える。感情推定装置20は、一般的には制御の即応性が求められるので、車両V2に搭載されるコンピュータ装置で構成されるが、車両V2とネットワークを介して接続されたサーバで構成することも可能である。
【0095】
記憶部22は、記憶部12と同様に各種メモリにより構成され、コントローラ23が処理で使用するデータ等、例えばプログラム、処理用係数データ、処理中の一時記憶データ等を記憶する。そして、記憶部22には、AIモデル生成装置10によって生成され、AIモデル生成装置10から提供されたAIモデル121m(学習済み)を記憶するAIモデル記憶部221が設けられる。さらに、記憶部22には、各種処理用のデータテーブル等が設けられ、プログラムや処理に必要な各種データが記憶されるようになっている。
【0096】
なお、AIモデル121mは、例えば、次のようにしてAIモデル記憶部221に記憶される。
【0097】
車両制御システムの製作者等が、システムの組み立て時等に、学習済みAIモデル121mが書き込まれたメモリをAIモデル記憶部221として搭載する。車両制御システムの製作者等が、学習済みAIモデル121mが記憶された外部記憶装置を車両制御システム(感情推定装置20)に接続し、当該AIモデル121mを読み込んでAIモデル記憶部221に書き込む。車両制御システムの製作者等が、ネットワークを介してAIモデル生成装置10から学習済みAIモデル121mを受信し、AIモデル記憶部221に書き込む。
【0098】
コントローラ23は、感情推定装置20の各種機能を実現するもので、コントローラ13と同様、演算処理等を行うプロセッサを含み、例えばCPUで構成される。コントローラ23は、その機能として、取得部231と、挙動判定部232と、感情推定部233と、提供部234と、を備える。本実施形態においては、コントローラ23の機能は、記憶部22に記憶されるプログラムに従った演算処理をプロセッサが実行することによって実現される。
【0099】
取得部231は、通信部21を介して、カメラC、及びマイクMによって検出された各種情報(画像情報、音声情報)を取得する。取得部231は、取得した各種情報を、その後の処理のために必要に応じて記憶部22に形成されたデータテーブルに記憶する。なお、取得部231は、実質的に同時刻におけるこれらの情報を取得して、一つのデータセットとしてデータテーブルに記憶する。そして、これらデータは当該時刻における挙動状態、感情を推定するために使用される。
【0100】
挙動判定部232は、取得部231が取得した、ユーザU2の顔を含む画像情報に対して解析処理を行うことで、ユーザU2の視線や顔の向き、表情、音声等の予め定めれた種類の挙動を判定する。予め定めれた種類の挙動は、AIモデル生成装置10の挙動判定部132が判定した種類の挙動で、具体的には、視線、顔向き、音声(内容)となる。
【0101】
感情推定部233は、AIモデル121mに第1情報群F1のデータ、つまり挙動判定部232の判定した挙動のデータを入力値として入力し、その結果、AIモデル121mが出力する正解値を推定感情として取得する。詳細に言えば、感情推定部233は、AIモデル121mに挙動判定部232によって判定されたユーザU2の視線や顔の向き、表情、音声等の挙動情報を入力し、当該挙動情報に基づきAIモデル121mが推定したユーザU2の感情を取得する。
【0102】
なお、適当な期間長における複数の第1情報群F1のデータを統計処理(平均処理、ローパスフィルタ処理等)し、感情推定部233が当該統計処理されたデータを用いて感情を推定するようにしても良い。この場合、統計処理は、取得部231、挙動判定部232あるいは感情推定部233で行うことができる。
【0103】
提供部234は、感情推定部233によってAIモデル121mを用いて推定されたユーザU2の感情を、車両制御装置30に提供する。これにより、車両制御装置30において、ユーザU2の感情に基づく車両V2の制御が行えるようになる。
【0104】
上記の構成によれば、感情推定装置20は、ユーザU2の外観情報から感情を推定する学習済みのAIモデル121mによりユーザU2の感情を推定する。つまり、遠隔系センサ(非接触センサ)により検出可能なユーザU2の外観情報から感情を推定する。また、AIモデル121mは、感情推定の精度が比較的高い接触センサによる生体信号に基づくユーザU1の推定感情と、対となるユーザU1の外観情報とからなる学習データのデータセットにより学習される。その結果、当該学習済みのAIモデル121mは、ユーザU2の外観情報に基づきユーザU2の感情を比較的高精度で推定することが可能となる。したがって、ユーザU2に生体信号を検出する接触系の検知センサを装着させることなく、ユーザU2の感情を高精度で推定できる。
【0105】
<1-5-2.感情推定装置の動作例>
図9は、図8の感情推定装置20のコントローラ23が実行する感情推定処理を示すフローチャートである。このフローチャートは、コンピュータ装置に感情推定処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、提供(販売、流通等)される。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0106】
図9に示す処理は、車両V2が始動し、推定感情に基づく各種制御を開始するタイミングで起動し、その後各種制御に対して適当なタイミング(推定感情を用いた制御を行うタイミング等)で繰り返し実行される。
【0107】
ステップS111において、コントローラ23(取得部231)は、ユーザU2の外観から判定される挙動を示す第1情報群F1のデータ、具体的にはカメラ画像、マイク音声を取得し、ステップS112に移る。取得した各種情報は、必要に応じて記憶部12のデータテーブルに記憶される。
【0108】
ステップS112において、コントローラ23(挙動判定部232)は、第1情報群F1のデータ(カメラ画像、マイク音声)に基づき挙動、具体的には視線、顔向き、音声(内容)を判定し、ステップS113に移る。
【0109】
ステップS113において、コントローラ23(感情推定部233)は、AIモデル121mに挙動判定部232による挙動判定結果を入力値として入力し、AIモデル121mに正解値としてユーザU2の推定感情を出力させ、ステップS114に移る。
【0110】
ステップS114において、コントローラ23(提供部234)は、車両制御装置30に感情推定部233が推定したユーザU2の推定感情を提供し、処理を終了する。
【0111】
なお、1回毎の推定された感情は、センサ出力のノイズ等による悪影響(誤判定)があると推定されるので、予め定めた所定期間の平均・最頻値を採用する等、統計的処理を施した推定感情を採用するのが好ましい。このため、コントローラ23(提供部234)は、推定感情にタイムスタンプを付加して蓄積し、統計的処理を施した推定感情を車両制御装置30に提供する(ステップS114)のが好ましい。なお、車両制御装置30が推定感情情報に統計的処理を施し、その結果を制御に用いる方法も適用可能である。
【0112】
<1-5-3.車両制御装置、及び他の構成要素>
図8に戻って、車両制御装置30は、例えば車両制御用のECU(Electronic Control Unit)であって、車両V2に搭載される。車両制御装置30は、コントローラ31と、記憶部32と、通信部33と、を備える。
【0113】
コントローラ31は、車両V2の運転者であるユーザU2による運転操作や、接続された各種センサ(不図示)、例えば車速センサ、空燃比センサ、操舵角センサ等からの情報に基づき各種車両制御、例えば車両V2の向きや速度等の制御を行う。さらに、コントローラ31は、通信部33を介し、感情推定装置20からユーザU2の感情に係る情報(推定感情)を受信する。そして、コントローラ31は、受信した推定感情情報も利用した車両制御、例えば速度、アクセル感度、ブレーキ感度等の制御を行う。具体的には、コントローラ31は、運転者が興奮した状態では、アクセル感度を低くする(加速し難くする)、ブレーキ感度を高くする(停止し易くする)、最高速度制御の上限を低くする、という制御を行う。
【0114】
また、推定感情情報自体の報知や、当該推定感情情報に応じた報知を行う。具体的には、コントローラ31は、運転者が興奮した状態では、「落ち着きましょう」と言う表示や音声案内を行い、各種音声案内における音声の質を落ち着いた話し方・表現とする制御を行う。
【0115】
記憶部32は、記憶部12と同様に各種メモリにより構成され、コントローラ31が処理で使用するデータ等、例えばプログラム、処理用係数データ、処理中の一時記憶データ等を記憶する。そして、記憶部32には、感情推定装置20から受信した感情に係る情報と、車両V2の制御信号及び車室内のユーザU2へ報知情報との対応付けがなされた各種処理用の複数のデータテーブルが設けられる。
【0116】
通信部11は、感情推定装置20、アクチュエータ部41、及び報知部42との間でデータの通信を行うためのインタフェースである。
【0117】
アクチュエータ部41は、車両の各種動作を実現するモータ等で構成された各種駆動部品で、車両制御装置30によってその動作が駆動制御される。具体的に言えば、例えば、アクチュエータ部41は、車両V2において駆動力を発生させるエンジン及びモータと、車両V2のステアリングを駆動させるステアリングアクチュエータと、車両V2のブレーキを駆動させるブレーキアクチュエータである。
【0118】
報知部42は、車両制御装置30から報知情報を、視覚的、聴覚的方法等により車室内のユーザU2に報知する。具体的に言えば、例えば、報知部42は、ユーザU2に、文字、画像、映像等によって報知情報を伝える液晶ディスプレイや音声、警告音等によって報知情報を伝えるスピーカ等で構成される。
【0119】
車両制御装置30は、各種センサからの情報、及びユーザU2の感情に基づいて車両V2の制御信号を生成して出力する。具体的に言えば、例えばユーザU2が感情を高揚させている場合や、恐怖を感じている場合に、車両制御装置30は、表示部やスピーカを介して「気持ちを落ち着かせましょう」といったことを表示、音声によって伝える。また、車両制御装置30は、例えば、車速センサや障害物センサ(レーダ等)等からの情報に基づき車両V2の速度制御を行うが、ユーザU2が感情を高揚させている場合には通常の感情に比べで速度を遅くした速度制御を行う。
【0120】
すなわち、車両制御システム40は、車両V2の運転者であるユーザU2の感情を推定し、推定した当該感情も考慮した車両V2の動作、例えば走行制御を行う。この構成によれば、ユーザU2の感情に応じた車両V2の制御を行うことができる。さらに、本実施形態によれば、安全運転に影響のある運転者の感情に応じた車両V2の制御が可能となるので、安全運転に寄与することが可能である。
【0121】
<2.第2実施形態>
<2-1.AIモデル生成方法>
図10は、第2実施形態のAIモデル生成方法の一例を示す説明図である。なお、第2実施形態における先に説明した第1実施形態と共通する構成要素には同じ符号または同じ名称を付してその説明を省略する場合がある。ここで説明するAIモデル生成方法は、図10に示す第1AIモデル121mA及び第2AIモデル121mBにおけるAIの「学習プロセス」に相当する。
【0122】
本実施形態においては、感情推定の複数次元(2次元)モデルに入力する指標値を求めるための生体信号(通常は接触センサを用いて測定)を、ユーザU1の外観から判定される挙動により推定するAIモデル121m(学習済み)を、生体信号別に生成する。
【0123】
AIモデル生成装置10は、第1AIモデル121mAに、第1情報群F1(ユーザU1の外観から判定される挙動を示す情報)のデータ(視線、顔向き、音声)を入力値とし、第2情報群F2(接触センサを用いて測定される生体情報)の第1生体信号(脳波)を正解値として、それぞれ入力する。つまり、AIモデル生成装置10は、例題である第1情報群F1のデータと、その正解である第2情報群F2の第1生体信号(脳波)とからなる教師付きデータセットを用いて、第1AIモデル121mAの学習を行う。これにより、第1情報群F1のデータ(視線、顔向き、音声)を入力値とし、第2情報群F2の第1生体信号(脳波)を正解(推定)値として出力する第1AIモデル121mAが生成される。
【0124】
また、AIモデル生成装置10は、第2AIモデル121mBに、第1情報群F1のデータ(視線、顔向き、音声)を入力値とし、第2情報群F2の第2生体信号(心拍)を正解値として、それぞれ入力する。つまり、AIモデル生成装置10は、例題である第1情報群F1のデータと、その正解である第2情報群F2の第2生体信号(心拍)とからなる教師付きデータセットを用いて、第2AIモデル121mBの学習を行う。これにより、第1情報群F1のデータ(視線、顔向き、音声)を入力値とし、第2情報群F2の第1生体信号(心拍)を正解(推定)値として出力する第2AIモデル121mBが生成される。
【0125】
続いて、図10を参照して、第1AIモデル121mA及び第2AIモデル121mBの生成方法(AIの学習プロセス)の流れを説明する。
【0126】
カメラC及びマイクMは、第1情報群F1として、ユーザU1の外観から判定される挙動を示す情報(例えば視線、顔の向き、表情を含む画像、音声)を検出し、当該情報をセンサ信号としてAIモデル生成装置10に出力する。第1センサS11及び第2センサS12は、第2情報群F2として、ユーザU1の生体信号(例えば脳波、心拍)を検出し、センサ信号としてAIモデル生成装置10に出力する。AIモデル生成装置10は、同じタイミングの第1情報群F1と、第2情報群F2とを対として扱う。
【0127】
AIモデル生成装置10の記憶器(メモリ等)には、第1情報群F1のデータに基づき第1生体信号(脳波)を推定する第1AIモデル121mAと、第1情報群F1のデータに基づき第2生体信号(心拍)を推定する第2AIモデル121mBの記憶部が設けられ、そこに第1AIモデル121mAと第2AIモデル121mBが記憶され、学習が行われる。
【0128】
AIモデル生成装置10は、第1AIモデル121mAに、第1情報群F1の各データ(視線、顔の向き、音声)を入力値とし、第2情報群F2のデータのうち脳波の生体信号を正解値としてそれぞれ入力する。また、AIモデル生成装置10は、第2AIモデル121mBに、第1情報群F1の各データを入力値とし、第2情報群F2のデータのうち心拍の生体信号を正解値としてそれぞれ入力する。
【0129】
つまり、AIモデル生成装置10は、第1AIモデル121mA及び第2AIモデル121mBに対し、例題である第1情報群F1のデータと、その正解である第2情報群F2のデータとからなる教師付きデータセットを用いて、学習を行なわせる。
【0130】
これにより、第1情報群F1の各データを入力値とし、脳波の生体信号を正解値として出力する学習済み第1AIモデル121mAが生成される。また、第1情報群F1の各データを入力値とし、心拍の生体信号を正解値として出力する学習済み第2AIモデル121mBが生成される。
【0131】
<2-2.AIモデル生成装置>
図11は、図10に示したAIモデル生成装置10の一例を示す構成図である。なお、図11に示したAIモデル生成装置10の構成は図3に示した構成と略同一であるので、同じ構成についてはその説明を省略する。
【0132】
AIモデル生成装置10の記憶部12には、第1AIモデル121mAと第2AIモデル121mBとを各々記憶する第1AIモデル記憶部121Aと第2AIモデル記憶部121Bとが設けられ、そこに第1AIモデル121mAと第2AIモデル121mBとが記憶される。
【0133】
生成部134は、第1AIモデル121mAに、挙動判定部132によって判定された、ユーザU1の視線や顔の向き、表情、音声等に係る情報を入力値とし、第2情報群F2のうち脳波の生体信号を正解値としてそれぞれ入力する。また、生成部134は、第2AIモデル121mBに、挙動判定部132によって判定された、ユーザU1の視線や顔の向き、表情、音声等に係る情報を入力値とし、第2情報群F2のうち心拍の生体信号を正解値としてそれぞれ入力する。
【0134】
つまり、生成部134は、遠隔系センサ(非接触センサ)の検出した情報に基づき挙動判定部132が判定したユーザU1の挙動情報を入力とし、接触センサの検出した脳波の生体信号を正解データとした学習用の教師付きデータセットを生成する。そして、生成部134は、生成した教師付きデータセットを第1AIモデル121mAに提供し、第1AIモデル121mAに学習をさせる。この学習により、第1AIモデル121mAは、挙動情報を入力として脳波を推定するモデルとなる。
【0135】
また、生成部134は、挙動判定部132が判定したユーザU1の挙動情報を入力とし、接触センサの検出した心拍の生体信号を正解データとした学習用の教師付きデータセットを生成する。そして、生成部134は、生成した教師付きデータセットを第2AIモデル121mBに提供し、第2AIモデル121mBに学習をさせる。この学習により、第2AIモデル121mBは、挙動情報を入力として心拍を推定するモデルとなる。
【0136】
提供部135は、生成部134によって生成された第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を、ネットワークを介して後述する車両V2で用いられる感情推定装置20(図13及び図14参照)に提供する。これにより、感情推定装置20は、提供部135によって提供された第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を取り込んで感情推定機能を動作可能とし、車両V2の各種機能において推定した感情情報を利用することができる。
【0137】
なお、提供部135は、生成部134によって生成された第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を、ネットワークを介して感情推定装置20に提供するようにしたが、AIプラットホームを形成するLSIに第1AIモデル121mAのデータ及び第2AIモデル121mBのデータを書き込んでAI実行LSIを生成し、当該AI実行LSIを感情推定装置20に組み込むようにする等の方法で第1AIモデル121mA(のデータ)及び第2AIモデル121mB(のデータ)を提供するようにすることも可能である。
【0138】
<2-3.AIモデル生成装置の動作例 >
図12は、図11のAIモデル生成装置10のコントローラ13が実行するAIモデル生成処理を示すフローチャートである。このフローチャートは、コンピュータ装置にAIモデル生成処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、提供(販売、流通等)される。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0139】
図12に示す処理は、感情推定装置20(車両制御システム)の設計者等が感情推定AIモデルの生成処理を実行する際、例えばキーボード等の操作部により生成処理開始操作が行われた際に実行される。なお、車両運転時のデータを収集するのであれば、車両走行状態で処理が実行される。
【0140】
ステップS201において、コントローラ13(取得部131)は、第1情報群F1(カメラ画像、マイク音声)及び第2情報群F2(脳波、心拍)の各センサからデータを収集して記憶部12に記憶し、ステップS202に移る。
【0141】
ステップS202において、コントローラ13(挙動判定部132)は、第1情報群F1の各データに基づき挙動を判定し、ステップS203に移る。
【0142】
ステップS203において、コントローラ13(生成部134)は、判定した挙動を入力値とし、第2情報群F2の脳波の生体信号を正解値とする教師データを生成して、ステップS204に移る。
【0143】
ステップS204において、コントローラ13(生成部134)は、判定した挙動を入力値とし、第2情報群F2の心拍の生体信号を正解値とする教師データを生成して、ステップS205に移る。
【0144】
ステップS205において、コントローラ13(生成部134)は、ステップS203で生成した教師データ(挙動と脳波のデータ)を第1AIモデル121mAに提供して第1AIモデル121mAの学習を行い、ステップS206に移る。
【0145】
ステップS206において、コントローラ13(生成部134)は、ステップS204で生成した教師データ(挙動と心拍のデータ)を第2AIモデル121mBに提供して第2AIモデル121mBの学習を行い、ステップS207に移る。
【0146】
ステップS207において、各モデルの学習が完了したか、ここでは車両V1の学習用走行が終了したか否かを、例えばイグニッションスィッチ状態や車両運転者(学習作業者)の操作等に基づいて判断し、終了していれば処理を終え、終了していなければステップS201に戻る。
【0147】
この後、第1AIモデル121mA及び第2AIモデル121mBは、AIモデル生成装置10を操作するオペレータの指示等に基づき、車両V2で用いられる感情推定装置20に提供される。
【0148】
なお、本AIモデル生成処理においては、第1情報群F1及び第2情報群F2の各センサからデータを収集する都度、教師付き学習データを生成して各AIモデルの学習を行っている。しかしながら、図6で示したAIモデル生成処理のように第1情報群F1及び第2情報群F2の各センサからデータを収集して蓄積し、蓄積したデータに基づき複数の教師付き学習データを生成して学習データセットを作成し、当該学習データセットを用いて車両V2以外の場所(車両V2内でも可)、例えば工場内等で各AIモデルの学習を行っても良い。
【0149】
また、本AIモデル生成処理においては、第1情報群F1及び第2情報群F2の各センサからの1データ単位で学習データを生成しAIモデルに入力しているが、適当な期間における複数の各データを統計処理したデータを用いて学習データを生成しAIモデルに入力するようにすることも可能である。
【0150】
<2-4.感情推定方法>
図13は、図10のAIモデル生成方法で生成した(学習させた)第1AIモデル121mA及び第2AIモデル121mBを用いた感情推定方法の一例を示す説明図である。また、この説明において、先に説明したAIモデル生成方法と同様の構成要素については、前と同じ符号または同じ名称を付してその説明を省略する場合がある。
【0151】
ユーザU2は、車両V2の運転者である。当該推定方法で用いられる第1AIモデル121mA及び第2AIモデル121mBは、運転者(ユーザU2)の感情の推定に用いられる。第1AIモデル121mA及び第2AIモデル121mBは、AIモデル生成装置10により学習が行われて、学習済みモデルとして提供され、感情推定装置20に搭載される(記憶される)。感情推定装置20の詳細については後述する。
【0152】
なお、感情推定装置20は、車両V2に搭載されるコンピュータ装置で実現でき、また車両V2とネットワークを介して接続されたサーバでも実現できる。また、当該サーバは、物理サーバであっても、仮想サーバであっても良い。
【0153】
この第1AIモデル121mA及び第2AIモデル121mBを用いた感情推定方法では、ユーザU2から、図10のAIモデル生成方法と同じ第1情報群F1のデータを取得する。なお、この感情推定方法では、図10のAIモデル生成方法で使用した第2情報群F2のデータは使用しない。
【0154】
第1情報群F1の情報取得のために、車両V2には、複数の車載センサが設けられる。車載センサは、ユーザ(運転手)U2の外観から判定される挙動を示す情報をセンサ信号として検出する。なお、これら車載センサは、AIモデル生成方法で使用された同じ挙動を検出するセンサ、好ましくは同じ種類、さらには同じ機種のセンサが好ましい。本実施形態において、車載センサは、カメラCと、マイクMとを含む。
【0155】
感情推定装置20は、これらセンサから第1情報群F1のデータを取得し、第1AIモデル121mA及び第2AIモデル121mBに第1情報群F1のデータを入力する。
【0156】
感情推定装置20の第1AIモデル121mA及び第2AIモデル121mBは、AIモデル生成装置10にて第1情報群F1のデータに基づき生体信号(脳波、心拍)を推定するように学習されたAIモデルである。したがって、感情推定装置20において、AIモデル生成装置10での学習時と同じ種別のデータが入力された場合、つまりカメラ撮影画像やマイク取集音声に基づく視線、顔向き、音声という挙動データが入力された場合、第1AIモデル121mA及び第2AIモデル121mBはAIモデル生成装置10での学習成果(学習した推定プロセス)に基づき生体信号(脳波、心拍)を推定して出力することになる。
【0157】
なお、AIモデル生成装置10におけるAIモデル121mの学習において、入力として第1情報群F1のデータを挙動判定部132で加工した挙動データを用いているので、感情推定装置20の第1AIモデル121mA及び第2AIモデル121mBへの入力も第1情報群F1のデータを挙動判定部132における処理と同様の処理を施した挙動データとする必要がある。また、AIモデル生成装置10における第1AIモデル121mA及び第2AIモデル121mBの学習において、入力として第1情報群F1のデータをそのまま用いた場合は、感情推定装置20の第1AIモデル121mA及び第2AIモデル121mBへの入力も第1情報群F1のデータをそのまま用いることとなる。
【0158】
そして、感情推定装置20は、第1AIモデル121mA及び第2AIモデル121mBで推定した2種類の生体信号を、ここでは脳波及び心拍を、脳波及び心拍の生体信号を用いて感情を推定する感情推定モデル222mに入力し、感情を推定する。なお、感情推定モデル222mは、例えば、図2で説明した心身状態を示す2種類の指標値を座標とする心理平面モデルと同様の感情推定モデル222mを用いれば良い。
【0159】
<2-5.車両制御システム>
図14は、図13の感情推定装置20を備える車両制御システム40の一例を示す構成図である。図14では、本実施形態の特徴を説明するために必要な構成要素が示されており、一般的な構成要素の記載は省略されている。また、この説明において、先に説明したAIモデル生成装置10と同様の構成要素、及び図8に示した車両制御システム40と同様の構成要素については、前と同じ符号または同じ名称を付してその説明を省略する場合がある。
【0160】
図14に示すように、車両制御システム40は、感情推定装置20と、車両制御装置30と、アクチュエータ部41と、報知部42と、を備える。なお、図示は省略するが、車両制御システム40は、キーボード、タッチパネル等の入力装置や、ディスプレイ等の出力装置を備える。
【0161】
<2-5-1.感情推定装置>
感情推定装置20は、通信部21と、記憶部22と、コントローラ23と、を備える。感情推定装置20は、一般的には制御の即応性が求められるので、車両V2に搭載されるコンピュータ装置で構成されるが、車両V2とネットワークを介して接続されたサーバで構成することも可能である。
【0162】
記憶部22には、AIモデル生成装置10によって生成され、AIモデル生成装置10から提供された第1AIモデル121mA(学習済み)及び第2AIモデル121mB(学習済み)を記憶する第1AIモデル記憶部221A及び第2AIモデル記憶部221Bが設けられる。また、記憶部22には、感情推定モデル222mを記憶する感情推定モデル記憶部222が設けられる。
【0163】
なお、第1AIモデル121mA及び第2AIモデル121mBは、例えば、次のようにして第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに記憶される。
【0164】
車両制御システムの製作者等が、システムの組み立て時等に、学習済み第1AIモデル121mA及び第2AIモデル121mBが書き込まれたメモリを第1AIモデル記憶部221A及び第2AIモデル記憶部221Bとして搭載する。車両制御システムの製作者等が、学習済み第1AIモデル121mA及び第2AIモデル121mBが記憶された外部記憶装置を車両制御システム(感情推定装置20)に接続し、当該第1AIモデル121mA及び第2AIモデル121mBを読み込んで第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに書き込む。車両制御システムの製作者等が、ネットワークを介してAIモデル生成装置10から学習済み第1AIモデル121mA及び第2AIモデル121mBを受信し、第1AIモデル記憶部221A及び第2AIモデル記憶部221Bに書き込む。
【0165】
記憶部22には、さらに各種処理用の複数のデータテーブルが設けられる。なお、データテーブルには、感情推定モデル222mを構成するデータを記憶する心理平面テーブル224を含む。なお、心理平面テーブル224に記憶されるデータは、図2に示した感情推定モデル(心理平面)を形成するデータで、2種類の生体信号(脳波、心拍)に基づく心身状態の指標値と、それに対応する感情情報を関連づけたデータ群となる。また、感情推定装置20の設計時、或いは組み立て時等に、推定に用いる心身状態の指標値種別に基づき感情推定モデル222mが選択され、選択された感情推定モデル222mのデータが心理平面テーブル224に記憶されることになる。
【0166】
コントローラ23は、演算処理等を行うプロセッサを含み、例えばCPUで構成される。コントローラ23は、その機能として、取得部231と、挙動判定部232と、感情推定部233と、提供部234と、を備える。本実施形態においては、コントローラ23の機能は、記憶部22に記憶されるプログラムに従った演算処理をプロセッサが実行することによって実現される。
【0167】
取得部231は、通信部21を介して、カメラC、及びマイクMによって検出された各種情報(画像情報、音声情報)を取得する。取得部231は、取得した各種情報を、その後の処理のために必要に応じて記憶部22に形成されたデータテーブルに記憶する。なお、取得部231は、実質的に同時刻におけるこれらの情報を取得して、一つのデータセットとしてデータテーブルに記憶する。そして、これらデータは当該時刻における挙動状態、感情を推定するために使用される。
【0168】
挙動判定部232は、取得部231が取得した、ユーザU2の顔を含む画像情報に対して解析処理を行うことで、ユーザU2の視線や顔の向き、表情、音声等の予め定めれた種類の挙動を判定する。予め定めれた種類の挙動は、AIモデル生成装置10の挙動判定部132が判定した種類の挙動で、具体的には、視線、顔向き、音声(内容)となる。
【0169】
感情推定部233は、第1AIモデル121mA及び第2AIモデル121mBに、第1情報群F1のデータ、つまり挙動判定部232の判定した挙動のデータを入力値として入力し、その結果、第1AIモデル121mA及び第2AIモデル121mBが出力する正解値を2種類の生体信号(脳波、心拍)として取得する。詳細に言えば、感情推定部233は、第1AIモデル121mAに挙動判定部232によって判定された、ユーザU2の視線や顔の向き、表情、音声等に係る挙動情報を入力し、第1AIモデル121mAが推定した脳波の生体信号を取得する。また、感情推定部233は、第2AIモデル121mBに挙動判定部232によって判定された、ユーザU2の挙動情報を入力し、第2AIモデル121mBが推定した心拍の生体信号を取得する。
【0170】
なお、適当な期間長における複数の第1情報群F1のデータを統計処理(平均処理、ローパスフィルタ処理等)し、感情推定部233が当該統計処理されたデータを用いて感情を推定するようにしても良い。この場合、統計処理は、取得部231、挙動判定部232あるいは感情推定部233で行うことができる。
【0171】
感情推定部233は、さらに第1AIモデル121mA及び第2AIモデル121mBから取得した生体信号に基づき、脳波及び心拍に関する2つの心身状態を示す指標値を算出する。なお、これら指標値は、感情推定モデル(心理平面)への入力値(座標値)であり、感情推定モデルで規定された形式の値となる。感情推定部233は、取得した生体信号をこの形式に変換する処理を行う。
【0172】
そして、感情推定部233は、これら算出した指標値を感情推定モデルに適用して、つまりこれら算出した指標値で心理平面テーブル224のデータを照合して、該当する感情データを感情の推定結果とする。
【0173】
提供部234は、感情推定部233によって推定されたユーザU2の感情を、車両制御装置30に提供する。これにより、車両制御装置30において、ユーザU2の感情に基づく車両V2の制御が行えるようになる。
【0174】
上記の構成によれば、感情推定装置20は、ユーザU2の外観情報から心身状態を示す指標値を推定する学習済みの第1AIモデル121mA及び第2AIモデル121mBによりユーザU2の2種類の心身状態を示す指標値を推定する。そして、感情推定装置20は、これら2種類の心身状態を示す指標値に基づき感情推定モデル222m(心理平面テーブル224のデータ)を用いて感情を推定する。つまり、遠隔系センサ(非接触センサ)により検出可能なユーザU2の外観情報から感情を推定する。また、第1AIモデル121mA及び第2AIモデル121mBは、精度が比較的高い接触センサによる生体信号に基づくユーザU1の感情推定用の指標値と、対となるユーザU1の外観情報とからなる学習データのデータセットにより学習される。その結果、当該学習済みの第1AIモデル121mA及び第2AIモデル121mBは、ユーザU2の外観情報に基づきユーザU2の感情推定用の指標値を比較的高精度で推定することが可能となる。このため、ユーザU2の感情推定用の指標値に基づき推定されるユーザU2の感情も比較的精度の高いものとなる。したがって、感情推定装置20は、ユーザU2に生体信号を検出する接触系の検知センサを装着させることなく、ユーザU2の感情を高精度で推定することができる。
【0175】
また、視線と、顔の向きは周囲環境に応じて変わるもので、例えば車両運転中では障害物等の位置関係等による変化する。したがって、車載の感情推定装置で視線や、顔の向きを第1情報群F1のデータとして適用することにより、車両運転に影響のある障害物状況に応じた感情変化を推定でき、車両運転に有用な感情推定が期待できる。つまり、周囲環境における視覚的情報に基づく感情状態を推定でき、周囲環境に応じた感情制御や関連機器の制御に有用となる。
【0176】
また、脳波と心拍は検知技術が成熟しており、高い精度で計測可能で、それらのセンサは広く、また低価格で普及している。また、脳波と心拍による感情推定は、各種センサを用いた感情推定研究において比較的研究が進んでいる分野である。したがって、第2情報群F2として脳波と、心拍との生体信号を利用することで、感情を高精度で推定できるとともに、低価格で感情推定装置を実現できる。
【0177】
<2-5-2.感情推定装置の動作例>
図15は、図14の感情推定装置20のコントローラ23が実行する感情推定処理を示すフローチャートである。このフローチャートは、コンピュータ装置に感情推定処理を実現させるコンピュータプログラムの技術的内容を示す。また、当該コンピュータプログラムは、読み取り可能な各種不揮発性記録媒体に記憶され、提供(販売、流通等)される。当該コンピュータプログラムは、1つのプログラムのみで構成されても良いが、協働する複数のプログラムによって構成されても良い。
【0178】
図15に示す処理は、車両V2が始動し、推定感情に基づく各種制御を開始するタイミングで起動し、その後各種制御に対して適当なタイミングで繰り返し実行される。
【0179】
ステップS211において、コントローラ23(取得部231)は、ユーザU2の外観から判定される挙動を示す第1情報群F1のデータ、具体的にはカメラ画像、マイク音声を取得し、ステップS212に移る。取得した各種情報は、必要に応じて記憶部12のデータテーブルに記憶される。
【0180】
ステップS212において、コントローラ23(挙動判定部232)は、第1情報群F1のデータ(カメラ画像、マイク音声)に基づき挙動、具体的には視線、顔向き、音声(内容)を判定し、ステップS213に移る。
【0181】
ステップS213において、コントローラ23(感情推定部233)は、第1AIモデル121mA及び第2AIモデル121mBに挙動判定部232による挙動判定結果を入力値として入力し、第1AIモデル121mA及び第2AIモデル121mBに正解値として各々生体信号の脳波データと心拍データを推定させ、ステップS214に移る。
【0182】
ステップS214において、コントローラ23(感情推定部233)は、推定された生体信号の脳波データと心拍データに基づき2種類の心身状態の指標値(脳波指標値、心拍指標値)を算出し、ステップS215に移る。
【0183】
ステップS215において、コントローラ23(感情推定部233)は、算出した2種類の心身状態の指標値(脳波指標値、心拍指標値)を感情推定モデル222m(心理平面テーブル224のデータ)に適用して、ユーザU2の感情を推定し、ステップS216に移る。
【0184】
ステップS216において、コントローラ23(提供部234)は、車両制御装置30に感情推定部233が推定したユーザU2の推定感情を提供し、処理を終了する。
【0185】
なお、1回毎の推定された感情は、センサ出力のノイズ等による悪影響(誤判定)があると推定されるので、予め定めた所定期間の平均・最頻値を採用する等、統計的処理を施した推定感情を採用するのが好ましい。このため、コントローラ23(提供部234)は、推定感情にタイムスタンプを付加して蓄積し、統計的処理を施した推定感情を車両制御装置30に提供する(ステップS216)のが好ましい。なお、車両制御装置30が推定感情情報に統計的処理を施し、その結果を制御に用いる方法も適用可能である。
【0186】
<2-5-3.車両制御装置、及び他の構成要素>
図14に戻って、車両制御装置30は、例えば車両制御用のECU(Electronic Control Unit)であって、車両V2に搭載される。車両制御装置30は、コントローラ31と、記憶部32と、通信部33と、を備える。
【0187】
車両制御装置30は、各種センサからの情報、及び感情推定装置20から提供されたユーザU2の感情に基づいて車両V2の制御信号を生成して出力する。すなわち、車両制御システム40は、車両V2の運転者であるユーザU2の感情を推定し、推定した当該感情も考慮した車両V2の動作、例えば走行制御を行う。
【0188】
上記の構成によれば、ユーザU2の感情に応じた車両V2の制御を行うことができる。さらに、本実施形態によれば、安全運転に影響のある運転者の感情に応じた車両V2の制御が可能となるので、車両V2の安全運転に寄与することが可能である。
【0189】
<3.留意事項等>
本明細書中で実施形態として開示された種々の技術的特徴は、その技術的創作の趣旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではない。本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれる。また、本明細書中で示した複数の実施形態は、可能な範囲で適宜組み合わせて実施して良い。
【0190】
また、上記実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能の少なくとも一部は電気的なハードウェア資源によって実現されて良い。ハードウェア資源としては、例えばASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等であって良い。また逆に、ハードウェア資源によって実現されるとした機能の少なくとも一部は、ソフトウェア的に実現されて良い。
【0191】
また、本実施形態の範囲には、AIモデル生成装置10及び感情推定装置20のそれぞれの少なくとも一部の機能をプロセッサ(コンピュータ)に実現させるコンピュータプログラムが含まれて良い。また、本実施形態の範囲には、そのようなコンピュータプログラムを記録するコンピュータ読取り可能な不揮発性記録媒体が含まれて良い。不揮発性記録媒体は、例えば上述の不揮発性メモリの他、光記録媒体(例えば光ディスク)、光磁気記録媒体(例えば光磁気ディスク)、USBメモリ、或いはSDカード等であって良い。
【符号の説明】
【0192】
10 AIモデル生成装置
13 コントローラ
20 感情推定装置
22 記憶部
222m 感情推定モデル
23 コントローラ
30 車両制御装置
31 コントローラ
40 車両制御システム
41 アクチュエータ部
42 報知部
121m AIモデル
121mA 第1AIモデル
121mB 第2AIモデル
F1 第1情報群
F2 第2情報群
U1、U2 ユーザ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15