IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日産自動車株式会社の特許一覧 ▶ ルノー エス.ア.エス.の特許一覧

<>
  • 特開-情報処理方法及び情報処理装置 図1
  • 特開-情報処理方法及び情報処理装置 図2
  • 特開-情報処理方法及び情報処理装置 図3
  • 特開-情報処理方法及び情報処理装置 図4
  • 特開-情報処理方法及び情報処理装置 図5
  • 特開-情報処理方法及び情報処理装置 図6
  • 特開-情報処理方法及び情報処理装置 図7
  • 特開-情報処理方法及び情報処理装置 図8
  • 特開-情報処理方法及び情報処理装置 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024092633
(43)【公開日】2024-07-08
(54)【発明の名称】情報処理方法及び情報処理装置
(51)【国際特許分類】
   G06F 3/01 20060101AFI20240701BHJP
   G06F 3/0346 20130101ALI20240701BHJP
   G06F 3/16 20060101ALI20240701BHJP
   G10L 15/22 20060101ALI20240701BHJP
   H04Q 9/00 20060101ALI20240701BHJP
【FI】
G06F3/01 510
G06F3/0346 423
G06F3/16 610
G06F3/16 650
G06F3/16 690
G10L15/22 453
H04Q9/00 311A
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2022208715
(22)【出願日】2022-12-26
(71)【出願人】
【識別番号】000003997
【氏名又は名称】日産自動車株式会社
(71)【出願人】
【識別番号】507308902
【氏名又は名称】ルノー エス.ア.エス.
【氏名又は名称原語表記】RENAULT S.A.S.
【住所又は居所原語表記】122-122 bis, avenue du General Leclerc, 92100 Boulogne-Billancourt, France
(74)【代理人】
【識別番号】110002468
【氏名又は名称】弁理士法人後藤特許事務所
(72)【発明者】
【氏名】茂田 美友紀
(72)【発明者】
【氏名】高松 敦
(72)【発明者】
【氏名】柳 拓良
【テーマコード(参考)】
5B087
5E555
5K048
【Fターム(参考)】
5B087AA09
5B087AC07
5B087BC32
5B087DD09
5E555AA05
5E555AA08
5E555AA10
5E555AA11
5E555AA44
5E555AA46
5E555AA54
5E555AA64
5E555AA76
5E555BA05
5E555BA06
5E555BA23
5E555BB05
5E555BB06
5E555BB23
5E555BC01
5E555BE09
5E555BE10
5E555CA41
5E555CA42
5E555CA47
5E555CB55
5E555CB56
5E555CB58
5E555CB64
5E555CB65
5E555CB66
5E555CB67
5E555CB69
5E555CC01
5E555CC03
5E555DA01
5E555DA21
5E555DA27
5E555DD02
5E555DD11
5E555EA03
5E555EA05
5E555EA14
5E555EA19
5E555EA20
5E555EA22
5E555EA23
5E555EA27
5E555EA28
5E555FA00
5K048AA04
5K048BA01
5K048BA02
5K048BA07
5K048BA08
5K048DA02
5K048DC01
5K048EB02
5K048GC06
5K048HA21
(57)【要約】
【課題】ユーザと操作対象機器との関係性の深さに応じたより適切な操作支援を実行する。
【解決手段】ユーザU1が操作可能な各操作機器に関するユーザ操作を支援する情報処理方法である。この情報処理方法は、各操作機器の何れにもユーザU1が触れていない状態で、ユーザU1の生体情報、発話、動作のそれぞれの要素情報のうちの少なくとも1つに基づいて、ユーザU1が操作を所望する機器(操作対象機器)を推定する推定処理(ステップS601乃至S611)を含む。その推定処理では、要素情報のうちの少なくとも1つに基づいて操作対象機器の候補(一の機器)を選択する。一方、その一の機器に関する関係値が基準値よりも高い場合には、その一の機器を操作対象機器として推定し、その一の機器に関する関係値が基準値よりも低い場合には、その一の機器の選択時に用いた要素情報以外の他の要素情報を用いて操作対象機器を推定する。
【選択図】図9
【特許請求の範囲】
【請求項1】
ユーザが操作可能な複数の機器に関するユーザ操作を支援する情報処理方法であって、
前記複数の機器の何れにも前記ユーザが触れていない状態で、前記ユーザの生体情報と、前記ユーザの発話と、前記ユーザの動作と、のそれぞれの要素情報のうちの少なくとも1つに基づいて、前記ユーザが操作を所望する機器である操作対象機器を推定する推定処理と、
前記推定処理で推定された前記操作対象機器に関する操作支援を開始する制御処理と、
前記推定処理で推定された推定結果を、前記ユーザの前記複数の機器のそれぞれに対する習熟度合を示す関係情報を機器毎に格納するデータベースに反映させる反映処理と、を含み、
前記推定処理では、
前記要素情報のうちの少なくとも1つに基づいて前記操作対象機器の候補となる一の機器を選択し、
前記一の機器に関する前記データベースにおける前記関係情報が基準よりも高い場合には、当該一の機器を前記操作対象機器として推定し、
前記一の機器に関する前記データベースにおける前記関係情報が前記基準よりも低い場合には、当該一の機器の選択時に用いた要素情報以外の他の要素情報を用いて前記操作対象機器を推定する、
情報処理方法。
【請求項2】
請求項1に記載の情報処理方法であって、
前記制御処理では、前記推定処理で推定された前記操作対象機器に対する操作支援を実行するためのインタラクションを前記ユーザとの間で開始する第1処理と、当該操作対象機器の動作の制御を開始する第2処理とのうちの少なくとも1つを実行する、
情報処理方法。
【請求項3】
請求項1に記載の情報処理方法であって、
前記関係情報は、前記ユーザが前記機器と接した時間の長さを示す値と、前記ユーザが前記機器を操作した回数を示す値と、前記推定処理により推定された推定結果の正答率とのうちの少なくとも1つに基づいて機器毎に設定される、
情報処理方法。
【請求項4】
請求項1に記載の情報処理方法であって、
前記推定処理では、
前記一の機器に関する前記データベースにおける前記関係情報が前記基準よりも高い場合には、当該関係情報が高くなるのに応じて、当該一の機器を前記操作対象機器として推定する推定時間を短くし、
前記一の機器に関する前記データベースにおける前記関係情報が前記基準よりも低い場合には、当該関係情報が低くなるのに応じて、前記操作対象機器を推定する推定時間を長くする、
情報処理方法。
【請求項5】
請求項1に記載の情報処理方法であって、
前記推定処理では、前記要素情報として前記ユーザの視線を用いて前記一の機器を選択し、
前記一の機器に関する前記データベースにおける前記関係情報が前記基準よりも低い場合には、前記要素情報として前記ユーザの視線及び指の各動作を用いて前記操作対象機器を推定する、
情報処理方法。
【請求項6】
請求項5に記載の情報処理方法であって、
前記推定処理では、前記一の機器に関する前記データベースにおける前記関係情報が前記基準よりも低い場合には、前記ユーザの指が当該一の機器に所定距離まで近づいたことを条件に、当該一の機器を前記操作対象機器として推定する、
情報処理方法。
【請求項7】
請求項6に記載の情報処理方法であって、
前記推定処理では、前記一の機器に関する前記データベースにおける前記関係情報が高くなるのに応じて、前記所定距離を長く設定する、
情報処理方法。
【請求項8】
請求項1に記載の情報処理方法であって、
前記推定処理で推定された前記操作対象機器が、前記ユーザが操作を所望する機器であったか否かを判定するための判定情報を前記ユーザから取得する取得処理、をさらに含み、
前記反映処理では、前記判定情報に基づいて、前記推定処理での推定結果が正しいか否かを示す正誤情報を前記データベースに反映させ、
前記推定処理では、前記推定結果が誤っていることが判定された場合には、前記判定情報に基づいて、前記操作対象機器を新たに選択する、
情報処理方法。
【請求項9】
請求項8に記載の情報処理方法であって、
前記ユーザとのインタラクションを行うことが可能なエージェント機器を制御するエージェント制御処理、をさらに含み、
前記エージェント制御処理では、前記判定情報を前記ユーザから取得するための所定情報を前記ユーザに対して出力する出力処理を前記エージェント機器に実行させる、
情報処理方法。
【請求項10】
請求項1に記載の情報処理方法であって、
前記ユーザとのコミュニケーションを行うことが可能なエージェント機器を制御するエージェント制御処理、をさらに含み、
前記エージェント制御処理では、前記推定処理で前記操作対象機器が推定されるまでの間、当該推定に用いる要素情報を認識していることを前記ユーザに対して示す特定動作を前記エージェント機器に実行させる、
情報処理方法。
【請求項11】
請求項10に記載の情報処理方法であって、
前記エージェント機器は、顔部を備える機器であり、
前記エージェント制御処理では、前記推定処理での前記操作対象機器の推定に用いる要素情報を前記エージェント機器の眼が見つめる動きを前記特定動作として実行させる、
情報処理方法。
【請求項12】
請求項10又は11に記載の情報処理方法であって、
前記エージェント制御処理では、前記推定処理での前記操作対象機器の推定に複数の要素情報が用いられる場合には、予め設定されている優先度に基づいて、前記複数の要素情報のうちの少なくとも1つの要素情報を、前記特定動作を実行する対象として選択する、
情報処理方法。
【請求項13】
請求項1に記載の情報処理方法であって、
前記ユーザとのインタラクションを行うことが可能なエージェント機器を制御するエージェント制御処理と、
前記推定処理で推定された前記操作対象機器が、前記ユーザが操作を所望する機器であったか否かを判定するための判定情報を前記ユーザから取得する取得処理と、をさらに含み、
前記エージェント制御処理では、前記判定情報に基づいて前記推定処理での推定結果が誤っていることが判定された場合には、前記エージェント機器の態様を、前記ユーザに対する謝罪を示す態様に遷移させる、
情報処理方法。
【請求項14】
ユーザが操作可能な複数の機器に関するユーザ操作を支援する情報処理装置であって、
前記複数の機器の何れにも前記ユーザが触れていない状態で、前記ユーザの生体情報と、前記ユーザの発話と、前記ユーザの動作と、のそれぞれの要素情報のうちの少なくとも1つに基づいて、前記ユーザが操作を所望する機器である操作対象機器を推定する推定部と、
前記推定部により推定された前記操作対象機器に関する操作支援を開始する制御部と、
前記推定部により推定された推定結果を、前記ユーザの前記複数の機器のそれぞれに対する習熟度合を示す関係情報を機器毎に格納するデータベースに反映させる反映部と、を備え、
前記推定部は、
前記要素情報のうちの少なくとも1つに基づいて前記操作対象機器の候補となる一の機器を選択し、
前記一の機器に関する前記データベースにおける前記関係情報が基準よりも高い場合には、当該一の機器を前記操作対象機器として推定し、
前記一の機器に関する前記データベースにおける前記関係情報が前記基準よりも低い場合には、当該一の機器の選択時に用いた要素情報以外の他の要素情報を用いて前記操作対象機器を推定する、
情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、機器に関するユーザ操作を支援する情報処理方法及び情報処理装置に関する。
【背景技術】
【0002】
従来、機器に関するユーザ操作を支援する技術が存在する。例えば、十字キー等の操作入力部により操作者の入力が受け付けられた際に、操作者の視線上に存在する車載機器を操作対象機器として選択する技術が提案されている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2015-151059号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述した従来技術では、操作対象機器の選択後に、操作対象機器に応じた操作画面を表示装置に出現させ、十字キーにより受け付けられた操作者の入力に基づいてその操作対象機器を操作する。このように、上述した従来技術では、操作対象機器に応じた操作画面を見ながら十字キーを用いて各操作対象機器を操作することが可能である。しかし、このような操作方法に対する習熟度が低いユーザにとっては不慣れな操作となり、その操作に戸惑うおそれがある。また、そのような習熟度が低いユーザに対して、通常の操作支援を実行してもユーザが理解できない不適切な操作支援となるおそれがある。
【0005】
本発明は、ユーザと操作対象機器との関係性の深さに応じたより適切な操作支援を実行することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一態様は、ユーザが操作可能な複数の機器に関するユーザ操作を支援する情報処理方法である。この情報処理方法は、複数の機器の何れにもユーザが触れていない状態で、ユーザの生体情報と、ユーザの発話と、ユーザの動作と、のそれぞれの要素情報のうちの少なくとも1つに基づいて、ユーザが操作を所望する機器(操作対象機器)を推定する推定処理と、その推定処理で推定された操作対象機器に関する操作支援を開始する制御処理と、その推定処理で推定された推定結果を、ユーザの複数の機器のそれぞれに対する習熟度合を示す関係情報を機器毎に格納するデータベースに反映させる反映処理とを含む。その推定処理では、要素情報のうちの少なくとも1つに基づいて操作対象機器の候補となる一の機器を選択し、その一の機器に関するデータベースにおける関係情報が基準よりも高い場合には、その一の機器を操作対象機器として推定する。一方、その一の機器に関するデータベースにおける関係情報が基準よりも低い場合には、その一の機器の選択時に用いた要素情報以外の他の要素情報を用いて操作対象機器を推定する。
【発明の効果】
【0007】
本発明によれば、ユーザと操作対象機器との関係性の深さに応じたより適切な操作支援を実行することができる。
【図面の簡単な説明】
【0008】
図1図1は、車両の車室内の構成例を簡略化して示す図である。
図2図2は、車両の車室内の構成例を簡略化して示す図である。
図3図3は、車両に設置されている情報処理システムのシステム構成の一例を示す図である。
図4図4は、記憶部に記憶されている関係情報DBの格納内容を簡略化して示す図である。
図5図5は、ユーザの視線に基づいて選択された操作対象機器の候補の関係値が基準値未満である場合の遷移例を示す図である。
図6図6は、ユーザの視線に基づいて選択された操作対象機器の候補の関係値が基準値未満である場合の遷移例を示す図である。
図7図7は、ユーザの視線に基づいて選択された操作対象機器の候補の関係値が基準値未満である場合の遷移例を示す図である。
図8図8は、ユーザの視線に基づいて選択された操作対象機器の候補の関係値が基準値以上である場合の遷移例を示す図である。
図9図9は、情報処理装置における制御処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下、添付図面を参照しながら本発明の実施形態について説明する。
【0010】
[エージェント機器の設置例]
図1及び図2は、車両C1の車室内の構成例を簡略化して示す図である。なお、図1では、車両C1の左右方向の右側から見た場合の車両C1の車室内を簡略化して示し、図2では、運転席、助手席(図示省略)よりも前側を、車両C1の前後方向の後側から見た場合の車両C1の車室内を簡略化して示す。また、図1及び図2では、説明を容易にするため、ダッシュボード2、ステアリングホイール3、フロントウインド4、バックミラー5、カメラ101、エージェント機器200、第1操作機器300、第2操作機器400以外の図示は省略する。なお、第1操作機器300、第2操作機器400は、ユーザ操作に基づいて動作が可能であるとともに、情報処理装置110からの制御に基づいて動作が可能な機器である。
【0011】
第1操作機器300は、例えば、IVI(In-Vehicle Infotainment)等の機器である。なお、IVIは、各種情報を提供可能な1又は複数の機器からなる車載システムを意味する。IVIとして、例えば、ナビゲーション機器、オーディオ機器、DVD機器、TVチューナー機器等のうちの少なくとも1つを用いることが可能である。また、IVIは、複数の機器の各機能を備え、これらの各機能をシームレスに切り替え可能とすることが可能である。なお、本実施形態では、第1操作機器300をオーディオ機器とする例を示す。また、第1操作機器300は、各種情報を表示することが可能な表示部301と、各種音声を出力することが可能な音声出力部とを備える例を示す。なお、表示部301として、ユーザU1による接触操作又は近接操作を受け付け可能なタッチパネル等のユーザインタフェースを用いることが可能である。
【0012】
第2操作機器400は、例えば、車両C1内の温度を調整するエアコンを操作するための操作機器である。また、第2操作機器400は、ユーザU1が手動操作するための操作部材401と、各種情報を表示することが可能な表示部402と、各種音声を出力することが可能な音声出力部とを備える例を示す。なお、表示部402として、ユーザU1による接触操作又は近接操作を受け付け可能なタッチパネル等のユーザインタフェースを用いることが可能である。
【0013】
なお、図2では、第1操作機器300、第2操作機器400を例示にするが、他の操作機器についても、本実施形態を適用可能である。例えば、操作部材を備える操作機器、タッチパネルを備える操作機器等について本実施形態を適用可能である。
【0014】
エージェント機器200は、車両C1のダッシュボード2上に設置される小型のロボットである。本実施形態では、人間の顔を模したロボットをエージェント機器200とする例を示す。また、本実施形態では、車両C1のダッシュボード2上に、眼部201が車内側を見る方向にエージェント機器200が設置される例を示す。また、本実施形態では、エージェント機器200がオン状態である場合には、表示部210(図3参照)に顔画像が表示される例を示す。なお、車両C1のオン操作に応じて、エージェント機器200をオン状態とすることが可能である。また、エージェント機器200に関するユーザ操作に応じて、エージェント機器200をオン状態とすることが可能である。なお、車両C1のオンオフ操作は、車両C1の起動又は停止に関するスタートキーのオン操作又はオフ操作を意味する。エージェント機器200は、車両C1におけるインターフェースの一例である。
【0015】
エージェント機器200は、略球状の本体部205から構成される機器であり、本体部205の表面には表示部210(図3参照)が設けられる。また、本体部205には、耳部203、204が設けられる。
【0016】
表示部210は、各種画像を表示することが可能な表示媒体として構成することが可能である。この表示媒体として、例えば、発光シート、液晶表示器、有機EL(Electro Luminescence)等の各種表示媒体を使用可能である。例えば、表示部210には、眼部201、口部202が表示される。なお、本体部205の表面の全部に表示部210を設けてもよく、本体部205の表面のうちの一部に表示部210を設けてもよい。また、本体部205の表面のうちの一部に表示部210を設ける場合には、表示部210が設けられている部分以外の部分には、顔を構成する物理的な各部(例えば、口、眼、鼻)を設けてもよい。
【0017】
本体部205は、エージェント機器200の下部を回動中心として、エージェント機器200の前後方向に回動する。同様に、本体部205は、エージェント機器200の下部を回動中心として、エージェント機器200の左右方向に回動する。同様に、本体部205は、エージェント機器200の下部を回動中心として、硬直方向を軸として回転する方向に回動する。このように、エージェント機器200の下部には、本体部205を駆動させるための駆動部230(図3参照)が設けられる。そして、エージェント機器200の本体部205を左右方向に回転移動させたり、本体部205を前後方向に回転移動させたり、本体部205を左右方向に揺らせたり、本体部205を前後方向に揺らせたりすることが可能となる。
【0018】
例えば、図5図6等に示すように、ユーザU1の視線の先、ユーザU1の指先等を見つめる眼部201を表示部210に表示させることができる。また、例えば、図7(D2)、(E2)に示すように、汗画像SW1を表示部210に表示させることができる。また、例えば、図7(D2)に示すように、顔の上側に相当する部分B1を、謝罪の表情を示す所定色(例えば青色)に変化させることができる。また、本体部205を振動させることにより、エージェント機器200が震えている状態を表現することも可能である。
【0019】
このように、表示部210のうちの少なくとも一部の色を特定色としたり、眼部201、口部202を変形させたりすることにより、エージェント機器200が謝罪の表情、困惑の表情、安堵の表情等をしているような表示態様とすることが可能である。なお、ここで示す表示態様は、一例であり、他の表示態様により各表情を実現してもよい。
【0020】
このように、本実施形態では、エージェント機器200の各部のうちの少なくとも一部を変化させる動作態様と、エージェント機器200の表面のうちの少なくとも一部の表示状態を変化させる表示態様とによりエージェント機器200を変化させることが可能である。また、その変化を見た車両C1の乗員は、エージェント機器200が何らかの動きをしていると認識可能となる。このため、本実施形態では、これらのエージェント機器200の変化をエージェント機器200の動作態様と称して説明する。
【0021】
なお、これらのエージェント機器200の動作態様は、一例であり、他の動作態様とすることも可能である。例えば、ダッシュボード2上の所定範囲内において、エージェント機器200をスライド移動させることも可能である。例えば、エージェント機器200を前後左右方向にスライド移動させることも可能である。また、例えば、エージェント機器200を一時的に浮かせるような演出も可能である。
【0022】
なお、図2図7等では、表示部210の表示態様を変更することにより、各表情を2次元的に表現する例を示すが、物理的に設置された眼部、鼻部、口部等の各部材を変化させることにより、各表情を3次元的に表現して実現してもよい。この場合には、例えば、眼部材を移動させたり、眼部材の表面に黒画像、白画像を表示させたりして眼の動きを表現してもよい。
【0023】
また、本実施形態では、顔部のみを備えるエージェント機器200の例を示すが、他の身体の一部(例えば、手、足)をエージェント機器200に備えてもよい。この場合には、これらの各部(例えば、手、足)を変化させて各態度(例えば、謝罪する態度)を実現してもよい。例えば、手を頭や顔に当てるように変化させたり、足や手をバタバタさせたりする動きを各態度として表現してもよい。
【0024】
なお、これらのエージェント機器200の形状、表示態様、音声出力態様は、一例であり、他の形状、表示態様、音声出力態様とすることも可能である。また、図1図2では、略球状の本体部205が顔部として機能するエージェント機器200を例にして示すが、本発明はこれに限定されない。例えば、平板状の本体部(例えば、平面状の表示パネル)が顔部として機能する機器をエージェント機器200としてもよい。また、例えば、顔部及び身体部を一体の筐体として構成する機器をエージェント機器200としてもよい。また、例えば、顔部及び身体部を別体として構成する機器をエージェント機器200としてもよい。
【0025】
なお、図1及び図2では、ダッシュボード2上にエージェント機器200を設置する例を示すが、これに限定されない。例えば、フロントウインド4の上部にエージェント機器200を設置してもよい。また、本実施形態では、人間の顔を模したロボットをエージェント機器200とする例を示すが、これに限定されない。例えば、人間の全身を模したロボット、ウサギ、豚等のような動物を模したロボット、仮想物の生物(例えばアニメのキャラクターの顔)を模したロボット、他の物体(例えばテレビ型の機器、ラジオ型の機器)を模したロボットをエージェント機器200としてもよい。また、本実施形態では、生き物らしさを表す画像(生き物表示)として顔画像を表示する例を示すが、他の画像(例えば、エージェントの全身、機械的なもの、仮想的な顔)を、生き物らしさを表す画像として表示してもよい。このように、擬生物化されたエージェントをエージェント機器200とすることが可能である。
【0026】
エージェント機器200は、情報処理装置110(図3参照)からの指示に基づいて各種の動作を実行する。例えば、エージェント機器200は、情報処理装置110の制御に基づいて、ユーザU1が運転操作をする際における運転支援、周囲の施設等に関する各種情報を出力する。この運転支援として、前方又は後方の動体の報知等が想定される。例えば、前方の動体の報知として、「この先踏切だから気を付けてよ」と音声出力したり、「前方に人がいるよ」と音声出力したりすることができる。このように、エージェント機器200は、運転支援を実行する。また、例えば、エージェント機器200は、情報処理装置110の制御に基づいて、各種処理を実行する。例えば、エージェント機器200は、ユーザU1からの指示に基づいて、その指示に応じた処理を実行する。また、例えば、エージェント機器200は、各操作機器の操作を所望するユーザU1に対する操作支援を実行する。この操作支援の例を図5乃至図9に示す。
【0027】
カメラ101は、車両C1の内部の天井に設けられ、車両C1の内部の被写体を撮像して画像(画像データ)を生成するものである。なお、カメラ101は、例えば、被写体を撮像することが可能な1又は複数のカメラ機器や画像センサにより構成される。例えば、フロントウインド4の上部、すなわち、バックミラー5の上側にカメラ101を設けることができる。なお、図2では、少なくとも1つのカメラ101を備える例を示すが、2以上の撮像装置を備え、これらの撮像装置のうちの全部又は一部の画像を用いてもよい。また、各撮像装置の設置場所については、図2に示す例に限定されず、適宜変更可能である。また、車両C1の全方位に存在する被写体と、車両C1の内部の被写体とを取得可能な1又は複数の機器、例えば、360度カメラを用いてもよい。
【0028】
[情報処理システムの構成例]
図3は、車両C1に設置されている情報処理システム100のシステム構成の一例を示す図である。
【0029】
情報処理システム100は、カメラ101と、位置情報取得センサ102と、音声入力部103と、センサ類104と、情報処理装置110と、エージェント機器200と、第1操作機器300と、第2操作機器400と、第N操作機器500と、を備える。なお、情報処理装置110は、車載機器の操作介助装置の一例である。
【0030】
なお、情報処理装置110及びエージェント機器200は、有線通信又は無線通信を利用した通信方式によって接続される。また、情報処理装置110は、無線通信を利用した通信方式によってネットワーク20に接続されている。ネットワーク20は、公衆回線網、インターネット等のネットワークである。なお、エージェント機器200についても、無線通信を利用した通信方式によってネットワーク20に接続してもよい。なお、図3では、情報処理装置110及びエージェント機器200を別体として構成する例を示すが、情報処理装置110及びエージェント機器200を一体の機器として構成してもよい。
【0031】
カメラ101は、被写体を撮像して画像(画像データ)を生成するものであり、生成された画像に関する画像情報を情報処理装置110に出力する。カメラ101は、車両C1のうちの少なくとも内部に設けられ、車両C1の内部の被写体を撮像して画像(画像データ)を生成する。なお、図2では、車両C1の内部に設けられているカメラ101を示す。上述したように、カメラ101は、例えば、被写体を撮像することが可能な1又は複数のカメラ機器や画像センサにより構成される。例えば、1つのカメラ101を車両C1の前方に設け、車両C1の前方からの被写体を撮像して画像(画像データ)を生成してもよく、他のカメラ101を車両C1の後方に設け、車両C1からの後方の被写体を撮像して画像(画像データ)を生成してもよい。
【0032】
位置情報取得センサ102は、車両C1が存在する位置に関する位置情報を取得するものであり、取得された位置情報を情報処理装置110に出力する。例えば、GNSS(Global Navigation Satellite System:全球測位衛星システム)を利用して位置情報を取得するGNSS受信機により実現できる。また、その位置情報には、GNSS信号の受信時における緯度、経度、高度等の位置に関する各データが含まれる。また、他の位置情報の取得方法により位置情報を取得してもよい。例えば、周囲に存在するアクセスポイントや基地局からの情報を用いて位置情報を導き出してもよい。また、ビーコンを用いて位置情報を取得してもよい。例えば、位置情報取得センサ102により取得された情報に基づいて、車両C1の状態、例えば、走行中、停止中、後進中を判定可能である。
【0033】
音声入力部103は、車両C1の内部に設けられ、車両C1の内部の音を取得するものであり、取得された音に関する音情報を情報処理装置110に出力する。音声入力部103として、例えば、1又は複数のマイクや音取得センサを用いることができる。
【0034】
センサ類104は、車両C1に設置されている各種のセンサであり、各センサにより取得された検出情報を情報処理装置110に出力する。センサ類は、例えば、LiDAR(Light Detection And Ranging)、RADAR(Radio Detection And Ranging)、Sonar、人感センサ、車速センサ、加速度センサ、着座センサ、シートベルトセンサ、非接触温度センサ等である。なお、これらは一例であり、他のセンサを用いてもよい。また、これらのうちの一部のセンサのみを用いてもよい。
【0035】
人感センサは、車両C1の内部に存在する人の有無、人数、位置、状態等を検出するセンサである。例えば、赤外線、超音波、可視光、撮像素子等を用いる人感センサを用いることが可能である。例えば、運転席、助手席、後部座席の何れかに人が着座している場合には、その人の存在を人感センサにより検出可能である。また、人感センサ及び着座センサの双方を用いることにより、各座席の着座状態の検出精度を高めることが可能である。また、これらにより、エージェント機器200が対象とする人物の座席を特定することが可能である。
【0036】
着座センサ(又はシートセンサ)は、車両C1の各座席に着座している乗員の有無を検出するセンサである。シートベルトセンサは、車両C1の各座席に着座している乗員がシートベルトを着用しているか否かを検出するセンサである。
【0037】
非接触温度センサは、車両C1の乗員の体温を非接触状態で検出するセンサである。例えば、ユーザU1の顔の表面の温度を非接触温度センサにより計測可能である。これらの各センサについては、公知のセンサを用いることが可能である。
【0038】
情報処理装置110は、制御部120と、記憶部130と、通信部140とを備える。通信部140は、制御部120の制御に基づいて、有線通信又は無線通信を利用して、他の機器との間で各種情報のやりとりを行うものである。
【0039】
制御部120は、記憶部130に記憶されている各種プログラムに基づいて各部を制御するものである。制御部120は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の処理装置により実現される。例えば、GPUを用いて画像処理を実行することにより演算速度を速めることが可能である。また、GPUを用いて並列演算を実行することにより演算速度をさらに速めることが可能である。なお、車両C1の車両ECU(Electronic Control Unit)を制御部120としても使用してもよく、車両ECUとは異なる処理装置を制御部120として設けてもよい。なお、制御部120は、文字を音声に変換する変換機能を備える。この変換機能は、例えば、TTS(Text to Speech)により実現される。
【0040】
制御部120は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて各種制御を実行する。例えば、制御部120は、第1操作機器300、第2操作機器400、第N操作機器500を操作するユーザU1に対する操作支援を実行する。また、例えば、制御部120は、第1操作機器300、第2操作機器400、第N操作機器500の動作に関する制御を実行する。また、例えば、制御部120は、エージェント機器200の動作状態を制御する制御処理を実行する。具体的には、制御部120は、情報取得部121と、要素検出部122と、推定部123と、DB制御部124と、エージェント制御部125と、操作機器制御部126とを備える。
【0041】
情報取得部121は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140、第1操作機器300、第2操作機器400、第N操作機器500等から出力された情報を取得するものである。そして、情報取得部121は、取得された各情報を、必要に応じて、要素検出部122、推定部123、DB制御部124、エージェント制御部125、操作機器制御部126に出力する。例えば、車両C1の乗員が発した音声(指示をする音声)が音声入力部103により取得され、この音声に関する音声情報が情報取得部121に出力される。また、例えば、車両C1の乗員が撮像された画像情報がカメラ101により取得され、この画像情報が情報取得部121に出力される。
【0042】
要素検出部122は、カメラ101、音声入力部103、センサ類104、第1操作機器300、第2操作機器400、第N操作機器500等から出力された各情報に基づいて、ユーザU1に関する要素情報を検出するものである。そして、要素検出部122は、その検出結果を推定部123、DB制御部124、エージェント制御部125に出力する。
【0043】
ここで、要素情報は、車両C1に設置されている操作機器(例えば、第1操作機器300、第2操作機器400、第N操作機器500)の操作を所望するユーザU1の各部、その各部の動き、ユーザU1の発話等を意味する。例えば、ユーザU1の視線の方向、ユーザU1の手の動き、指先の動き等を要素情報として用いることが可能である。なお、これらは一例であり、視線、手、指先以外に、ユーザU1の声(例えば、エアコン、寒い)、ユーザU1の表情、車両C1内の人数等を要素情報として用いることが可能である。例えば、要素検出部122は、車両C1に乗車するユーザU1の生体情報と、ユーザU1の発話と、ユーザU1の動作と、のそれぞれの要素情報のうちの少なくとも1つを検出する。すなわち、要素検出部122は、視線検出部、指示位置検出部等の検出部として機能する。なお、ユーザU1の生体情報は、例えば、心拍、体温、顔の表面温度、血流、怒りや安心に関係する情報、身体の各部の動きを特定可能な情報等である。また、ユーザU1の発話内容は、例えば、エアコン、オーディオ等の所定のキーワードである。また、ユーザU1の動作は、例えば、身体の各部の変化、身体の各部の動き(例えば、視線、その動き、指先、その動き、表情、その変化)等である。なお、ユーザU1の生体情報については、カメラ101、非接触温度センサ等により検出可能である。また、ユーザU1の発話内容については、音声入力部103により検出可能である。また、ユーザU1の動作については、カメラ101等により検出可能である。なお、要素情報の検出方法については、図5乃至図9を参照して詳細に説明する。
【0044】
推定部123は、要素検出部122により検出されたユーザU1に関する要素情報のうちの少なくとも1つに基づいて、ユーザU1が操作を所望する操作機器(操作対象機器)を推定するものである。そして、推定部123は、その推定結果をDB制御部124、エージェント制御部125、操作機器制御部126に出力する。例えば、推定部123は、ユーザU1に関する要素情報のうちの少なくとも1つに基づいて、操作対象機器の候補となる一の操作機器を選択する。そして、推定部123は、その一の操作機器に関する関係情報DB150における関係値が基準値よりも高い場合には、その一の機器を操作対象機器として推定する。一方、推定部123は、その一の機器に関する関係情報DB150における関係値が基準値よりも低い場合には、その一の機器の選択時に用いた要素情報以外の他の要素情報を用いて操作対象機器を推定する。なお、関係値、基準値については、図4乃至図9を参照して詳細に説明する。また、操作対象機器の推定方法については、図5乃至図9を参照して詳細に説明する。
【0045】
DB制御部124は、記憶部130に記憶されている各DB(Daba Base)への情報の記録処理及び読出処理を実行するものである。例えば、DB制御部124は、要素検出部122、推定部123等から出力された各処理結果(要素情報、推定結果)を関連付けて関係情報DB150に格納する。また、例えば、DB制御部124は、要素検出部122、推定部123等から出力された各処理結果に基づいて、関係情報DB150に格納されている各情報を抽出し、その抽出された各情報を推定部123に出力する。なお、DB制御部124による記録処理及び読出処理については、図4乃至図9を参照して詳細に説明する。
【0046】
エージェント制御部125は、エージェント機器200の動作状態を制御するものである。具体的には、エージェント制御部125は、情報取得部121、要素検出部122、推定部123、DB制御部124、操作機器制御部126等から出力された各情報と、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報とに基づいて、エージェント機器200の動作状態を制御する。例えば、エージェント制御部125は、擬生物化されたエージェントの顔を構成する各部(例えば、眼部201、口部202)を表示部210に表示させる。また、エージェント制御部125は、車両C1の乗員に報知すべき情報(報知情報)を表示部210に表示させる。また、エージェント制御部125は、擬生物化されたエージェントの音声、車両C1の乗員に報知すべき情報に対応する音声等を音出力部220から出力させる。
【0047】
例えば、エージェント制御部125は、推定部123により推定された操作対象機器を確認するためのインタラクションを実行する。なお、インタラクションは、車両C1の乗員と、エージェント機器200とのやりとり、会話等を意味する。例えば、図5(C)、図6(D1)(E1)、図7(D2)(E2)、図8(B)に示すように、エージェント機器200に所定の演出を実行させることにより、その確認のインタラクションを実行することが可能である。
【0048】
また、例えば、エージェント制御部125は、推定部123により推定された操作対象機器を制御するためのインタラクションを実行する。例えば、図6(F1)、図7(F2)、図8(C)に示すように、エージェント機器200に所定の演出を実行させることにより、その制御のためのインタラクションを実行することが可能である。
【0049】
また、例えば、エージェント制御部125は、推定部123により推定された操作対象機器が正しくなかった場合には、正しい操作対象機器を選択するためのインタラクションを実行する。例えば、図7(D2)(E2)に示すように、エージェント機器200に所定の演出を実行させることにより、正しい操作対象機器を選択するためのインタラクションを実行することが可能である。なお、これらの各演出として、所定の音声出力、所定の振舞い等を実行することが可能である。
【0050】
操作機器制御部126は、車両C1に設置されている各操作機器(例えば、第1操作機器300、第2操作機器400、第N操作機器500)を制御するものである。具体的には、操作機器制御部126は、情報取得部121、要素検出部122、推定部123、DB制御部124から出力された各情報と、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報とに基づいて、各操作機器を制御する。なお、操作機器制御部126による制御処理については、図5乃至図9を参照して詳細に説明する。
【0051】
記憶部130は、各種情報を記憶する記憶媒体である。例えば、記憶部130には制御部120が各種処理を行うために必要となる各種情報(例えば、制御プログラム、エージェント情報DB131、関係情報DB150)が記憶される。また、記憶部130には、通信部140を介して取得された各種情報が記憶される。記憶部130として、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、SRAM(Static Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせを用いることができる。
【0052】
エージェント情報DB131には、エージェント機器200の各種動作を実現するために必要となる情報が格納されている。例えば、表示部210に表示される顔画像情報(例えば、眼部201、口部202、汗画像SW1)と、音出力部220から出力される音声情報とがエージェント情報DB131に格納される。また、例えば、インタラクションを実行する際にエージェント機器200を動作させるための動作情報等がエージェント情報DB131に格納される。
【0053】
関係情報DB150には、車両C1に乗車する各乗員の、車両C1に設置されている各操作機器(例えば、第1操作機器300、第2操作機器400、第N操作機器500)のそれぞれに対する習熟度合を示す関係情報が操作機器毎に格納されている。なお、習熟度合は、車両C1に乗車する乗員が、車両C1に設置されている操作機器にどの程度慣れているかを示す情報であり、乗員及び操作機器の関係性の深さを意味する。また、関係情報DB150には、推定部123により操作対象機器が推定された際における各情報(例えば、推定に用いられた要素情報、その操作対象機器)が順次反映される。なお、関係情報DB150については、図4を参照して詳細に説明する。
【0054】
エージェント機器200は、情報処理装置110からの指示に基づいて各種動作を実行するロボット機器である。エージェント機器200は、表示部210と、音出力部220と、駆動部230とを備える。なお、表示部210、音出力部220及び駆動部230は、エージェント機器200が備える制御部(図示省略)に基づいて制御される。
【0055】
表示部210は、情報処理装置110からの指示に基づいて、各種画像を表示する表示部である。なお、表示部210として、例えば、有機EL(Electro Luminescence)パネル、LCD(Liquid Crystal Display)パネル等の表示パネルを用いることができる。なお、表示部210については、使用者がその指を表示面に接触又は近接することにより操作入力を行うことが可能なタッチパネルとして構成してもよく、別体のユーザインタフェースとして構成してもよい。
【0056】
音出力部220は、情報処理装置110からの指示に基づいて、各種音声を出力するものである。音出力部220として、例えば、1又は複数のスピーカを用いることができる。なお、表示部210及び音出力部220は、ユーザインタフェースの一例であり、これらのうちの一部を省略してもよく、他のユーザインタフェースを用いてもよい。
【0057】
駆動部230は、情報処理装置110からの指示に基づいて、エージェント機器200の本体部205、エージェント機器200の各部を駆動するものである。例えば、駆動部230は、図5乃至図8等に示すように、本体部205を回動させたり、振動させたりする機構を実現する駆動装置である。例えば、駆動部230は、エージェント機器200を移動させたり、本体部205を回動させたりすることが可能なモータ、サーボモータ等により構成される。
【0058】
第1操作機器300、第2操作機器400は、図1図2に示す第1操作機器300、第2操作機器400に対応する。第N操作機器500も同様に、ユーザ操作に基づいて動作が可能であるとともに、情報処理装置110からの制御に基づいて動作が可能な機器である。第N操作機器500は、例えば、室内灯等の機器である。なお、図3では、3の操作機器を例示するが、車両C1における2の操作機器を対象としてもよく、4以上の操作機器を対象としてもよい。
【0059】
[関係情報DBの格納内容例]
図4は、記憶部130に記憶されている関係情報DB150の格納内容を簡略化して示す図である。
【0060】
関係情報DB150は、車両C1に乗車する乗員の各操作機器に対する習熟度合(関係性の深さ)を示す各種情報を管理するためのデータベースである。具体的には、ユーザ識別情報152と、乗車時間153と、操作機器154と、操作回数155と、正答率156と、要素情報157と、FB(Feed Back)情報158とがユーザID(identification)151に関連付けて関係情報DB150に格納される。
【0061】
ユーザID151は、車両C1に乗車するユーザを管理するための識別情報である。なお、図4では、過去に車両C1に3人のユーザが乗車した場合の例を示す。また、図4では、説明を容易にするため、3人のユーザの氏名をユーザID151に格納する例を示す。なお、本実施形態で示すユーザU1は、甲田一郎であるものとする。
【0062】
ユーザ識別情報152は、ユーザID151に格納されている各ユーザを識別するための識別情報である。例えば、各ユーザの顔を識別可能な顔識別情報をユーザ識別情報152に格納しておき、この顔識別情報に基づいて、車両C1に乗車するユーザを識別することが可能である。例えば、要素検出部122は、カメラ101により取得された画像に含まれるユーザの顔画像と顔識別情報とに基づいて、車両C1に乗車するユーザを識別可能である。この場合には、公知の個人認識技術を用いることが可能である。また、例えば、各ユーザが発する音を識別可能な音識別情報をユーザ識別情報152に格納しておき、この音識別情報に基づいて、車両C1に乗車するユーザを識別することが可能である。例えば、要素検出部122は、音声入力部103により取得された音声情報に含まれるユーザの声と音識別情報とに基づいて、車両C1に乗車するユーザを識別可能である。この場合には、公知の音認識技術を用いることが可能である。なお、顔識別処理及び音識別処理を組み合わせてユーザを識別してもよく、顔識別情報、音識別情報以外の他の情報をユーザ識別情報として用いてもよい。図4では、ユーザ識別情報152に顔識別情報を格納する例を示す。また、図4では、説明を容易にするため、顔識別情報として各ユーザの顔画像を模式的に示す。
【0063】
なお、ユーザID151、ユーザ識別情報152については、ユーザ操作に基づいて関係情報DB150に格納してもよく、自動で関係情報DB150に格納してもよい。例えば、車両C1に乗車したユーザを自動で登録する場合には、車両C1に乗車したユーザ毎に識別情報(例えば、通し番号)を付与し、この識別情報をユーザID151に格納する。また、車両C1に乗車したユーザの顔をカメラ101により撮像した顔画像(又はこれに基づいて生成可能な顔識別情報)をユーザ識別情報152に格納する。
【0064】
乗車時間153は、ユーザID151に格納されている各ユーザが車両C1に乗車していた時間を示す情報である。各ユーザが車両C1に乗車していた時間については、ユーザ識別処理による識別結果と、人感センサ、着座センサ、シートベルトセンサ等により取得されたセンサ情報とに基づいて取得が可能である。ここで、ユーザU1が車両C1に乗車した時間は、ユーザU1が各操作機器と過ごした時間を意味する。この時間が長くなるのに応じて、ユーザU1と各操作機器との関係性の深さが高くなると推定することが可能である。
【0065】
なお、ユーザU1が車両C1に乗車した時間は、ユーザU1がエージェント機器200と過ごした時間も意味する。この時間が長くなるのに応じて、ユーザU1の意識におけるエージェント機器200の存在感が大きくなる。また、物理的に設置されているエージェント機器200の場合には、ユーザU1と接する時間が長くなるのに応じて、ユーザU1及びエージェント機器200が仲良くなり、理解しあえると考えられる。すなわち、ユーザU1が車両C1に乗車した時間が長い場合には、ユーザU1及びエージェント機器200の関係性の深さが高くなり、エージェント機器200により操作支援される各操作機器とユーザU1との関係性の深さも高くなると推定することが可能である。
【0066】
操作機器154は、車両C1に乗車するユーザが操作可能な操作機器を示す情報である。図4では、第1操作機器(オーディオ)300、第2操作機器(エアコン)400、第N操作機器(室内灯)500のみを例示するが、これに限定されず、他の操作機器を格納してもよい。
【0067】
操作回数155は、操作機器154に格納されている操作機器が、推定部123により操作対象機器として推定された直後に、その操作機器をユーザが操作した回数を示す情報である。例えば、操作対象機器として推定された第1操作機器300をユーザU1が操作した回数が10回である場合には、第1操作機器300に関連付けて操作回数155に「10回」が格納される。また、例えば、操作対象機器として推定された第2操作機器400をユーザU1が操作した回数が20回である場合には、第2操作機器400に関連付けて操作回数155に「20回」が格納される。なお、各操作機器の操作回数については、各操作機器からのユーザ操作に関する情報に基づいて取得可能である。
【0068】
正答率156は、操作機器154に格納されている操作機器が、推定部123により操作対象機器として推定された場合における推定結果の正答率を示す情報(例えば、正誤情報)である。例えば、操作対象機器として推定された第1操作機器300をユーザU1が操作した回数が10回であり、7回の推定がユーザU1により正しいと判定され、3回の推定がユーザU1により正しくないと判定された場合を想定する。この場合には、推定部123は、ユーザU1による判定結果に基づいて、第1操作機器300の推定に対する正答率として「70%」を算出する。そして、DB制御部124は、第1操作機器300に関連付けて正答率156に「70%」を格納する。また、例えば、操作対象機器として推定された第2操作機器400をユーザU1が操作した回数が20回であり、18回の推定がユーザU1により正しいと判定され、2回の推定がユーザU1により正しくないと判定された場合を想定する。この場合には、推定部123は、ユーザU1による判定結果に基づいて、第2操作機器400の推定に対する正答率として「90%」を算出する。そして、DB制御部124は、第2操作機器400に関連付けて正答率156に「90%」を格納する。なお、図4に示す例では、1つの操作機器について1つの正答率のみを格納する例を示すが、1つの操作機器について推定に用いられた要素情報毎の正答率を格納してもよい。例えば、ユーザU1の視線及び指先を用いて推定された場合の推定結果に対する正答率と、ユーザU1の視線のみを用いて推定された場合の推定結果に対する正答率とを分けて格納してもよい。この場合には、推定に用いられた要素情報に応じて、所定の正答率を用いて関係値を算出することが可能である。
【0069】
要素情報157は、操作機器154に格納されている操作機器が、推定部123により操作対象機器として推定された場合に、その推定に用いられたユーザの視線、指先等の各要素に関する情報である。例えば、第2操作機器400を操作する際に、ユーザU1が視線を第2操作機器400に向け、指先を第2操作機器400に伸ばした場合には、視線、指に関する情報が要素情報157に格納される。なお、後述するように、ユーザU1及び第2操作機器400の関係性が深くなるのに応じて、エージェント機器200の操作支援の開始が早くなる。このため、例えば、第2操作機器400を操作する際に、ユーザU1が視線を第2操作機器400に向けるのみでエージェント機器200の操作支援が開始されることもある。この場合には、視線に関する情報が要素情報157に格納される。
【0070】
なお、各要素に関する詳細情報を要素情報157に格納してもよい。例えば、操作対象機器が推定されるまでの各要素(例えば、指先、視線)の軌道、推定後のユーザの操作機器に対する操作の有無、推定が間違った時の各要素(例えば、指先、視線)の軌道等の各情報を要素情報157に格納してもよい。また、ユーザによる操作機器に対する操作状態を要素情報157に格納してもよい。例えば、操作機器にユーザが接触したときの指(又は手)の軌道、タッチパネルにおけるどの画面の時にどの部分を触ってオーディオを出力させようとしたかを示す情報等を要素情報157に格納してもよい。このように、各要素に関する詳細情報を要素情報157に格納することにより、過去の各ユーザの動き等を学習して操作対象機器を推定することが可能となり、推定精度を高めることが可能となる。
【0071】
FB情報158は、操作機器154に格納されている操作機器が、推定部123により操作対象機器として推定された場合に、その推定結果に対する各ユーザからの反応、評価等を示す情報である。例えば、ユーザU1とエージェント機器200とのインタラクションにより、エージェント機器200が推定に間違えたと指摘されたときの正誤情報をFB情報158に反映させることが可能である。例えば、操作対象機器の推定に失敗したときの根拠、理由が、各ユーザからの反応、評価等に基づいて取得可能な場合には、それらの根拠、理由がFB情報158に格納される。FB情報158に格納されている各情報を参照して操作対象機器を推定することにより、推定精度を高めることが可能となる。
【0072】
このように、関係情報DB150に格納されている各値を用いることにより、操作対象機器を適切に推定することが可能である。また、操作対象機器の推定結果を学習して用いることが好ましい。例えば、操作対象機器の推定に失敗したときには、それを訂正し、その訂正を学習して用いることが可能である。なお、正答率を上げるため、人工知能(AI:Artificial Intelligence)を用いた学習をして関係情報DB150に各値を格納してもよい。
【0073】
なお、図4で示す関係情報は、一例であり、これらのうちの一部を省略してもよく、他の情報を関係情報DB150に格納してもよい。例えば、複数の要素のうちの一部を減らして推定された推定結果が間違っていた場合には、その後のユーザU1からの反応により取得された正しい操作対象機器を、その間違っていた操作対象機器に関連付けて格納することが可能である。そして、これ以降の推定処理では、その間違った操作対象機器を考慮して推定を実行することが可能となる。
【0074】
ここで、関係値について説明する。関係値は、車両C1に乗車する乗員の、車両C1に設置されている各操作機器に対する習熟度合(関係性の深さ)を示す情報(関係情報)である。例えば、ユーザU1が過去にオーディオに触れた回数が少ない場合には、ユーザU1はオーディオに不慣れなことが想定される。また、ユーザU1がオーディオを触る可能性が低いと想定される。また、ユーザが車両C1に乗車した時間が長いと、車両C1の車載機器とユーザU1が接する時間が長くなり、ユーザU1と操作機器との関係性について、全体的な傾向が精度良くなると想定される。そこで、ユーザU1が操作機器の操作を開始した回数、ユーザU1が操作機器に接した時間等を考慮して関係値を求めることができる。
【0075】
例えば、関係値は、ユーザU1が操作機器の操作を開始した回数(操作回数155)と、操作機器の推定結果の正答率(正答率156)と、ユーザU1が操作機器に接した時間(乗車時間153)とうちの少なくとも1つに基づいて設定が可能である。例えば、乗車時間153、操作回数155、正答率156のうちの何れかの値を関係値として用いてもよく、これらの各値について所定の演算をすることにより関係値を求めてもよい。例えば、乗車時間153、操作回数155、正答率156のうちの少なくとも2つの各値に所定の係数を乗算して求めた複数の乗算値を加算した値を関係値とすることが可能である。これらの各関係値については、推定部123により算出される。すなわち、推定部123は、関係情報取得部として機能する。また、後述する基準値については、設定された関係値に応じて適宜設定が可能である。例えば、正答率156を関係値として用いる場合には、基準値として70乃至80(%)程度の値を設定可能である。
【0076】
[操作対象機器の候補の関係値が基準値未満である場合の遷移例]
図5乃至図7は、ユーザU1の視線に基づいて選択された操作対象機器の候補の関係値が基準値未満である場合の遷移例を示す図である。図5には、ユーザU1の視線に基づいてユーザU1が操作を所望する機器(操作対象機器)の候補を選択し、さらに、ユーザU1の指先の動きに基づいて操作対象機器を推定する遷移例を示す。なお、視線は、目線と称することも可能である。
【0077】
図6には、ユーザU1の視線及び指先の動きに基づく操作対象機器の推定結果が正しかった場合の遷移例を示す。図7には、ユーザU1の視線及び指先の動きに基づく操作対象機器の推定結果が正しくなかった場合の遷移例を示す。
【0078】
図5(A)には、車両C1に乗車するユーザU1が第2操作機器400を操作しようとして第2操作機器400の方向を向いた状態を示す。この場合のユーザU1の視線LS1を点線で模式的に示す。
【0079】
要素検出部122は、情報取得部121により取得された各情報に基づいて、ユーザU1の眼の動き等の要素を検出する。例えば、図5(A)に示すように、ユーザU1が第2操作機器400の方向を向いた場合には、ユーザU1の視線LS1を検出する。具体的には、要素検出部122は、カメラ101により取得された画像に基づいて、その画像に含まれるユーザU1の顔及び眼を検出し、この眼の視線LS1を検出する。なお、ユーザU1の視線を検出する検出方法として、公知の視線検出技術を用いることが可能である。
【0080】
図5(A)に示すように、ユーザU1の視線LS1が検出された場合には、推定部123は、ユーザU1の視線LS1と関係情報DB150(図4参照)とに基づいて、ユーザU1が操作を所望する操作対象機器の候補を選択することが可能か否かを判定する。具体的には、ユーザU1の視線LS1の延長上に操作機器が存在する場合には、推定部123は、その操作機器を操作対象機器の候補として選択することが可能である。
【0081】
なお、ユーザU1の視線LS1の延長上に操作機器が存在しなくても、ユーザU1の視線LS1の延長上の位置を基準とする所定範囲内に操作機器が存在する場合についても同様に、推定部123は、その操作機器を操作対象機器の候補として選択することが可能である。この所定範囲は、ユーザU1の視線の延長上に操作機器が存在するか否かを判定するための基準となる範囲である。例えば、ユーザU1の視線LS1の延長上の位置を中心とする円(所定値R1の半径)を所定範囲とすることが可能である。なお、所定値R1は、実験データ等に基づいて適宜設定可能な値である。また、関係値に応じて所定値R1を変更してもよい。例えば、関係値が大きい場合には、所定値R1を大きい値とし、関係値が小さい場合には、所定値R1を小さい値とすることが可能である。すなわち、ユーザU1との関係性が深い操作機器については所定範囲を広くし、ユーザU1との関係性が浅い操作機器については所定範囲を狭くすることが可能である。
【0082】
一方、ユーザU1の視線LS1の延長上(又は、上述した所定範囲内)に操作機器が存在しない場合には、推定部123は、操作対象機器の候補を選択することが不可能であると判定する。なお、ユーザU1の視線の延長上の位置と、各操作機器との関係については、記憶部130に格納しておき、用いることが可能である。
【0083】
図5(A)に示す例では、ユーザU1の視線LS1の延長上に第2操作機器400が存在する。このため、推定部123は、第2操作機器400を操作対象機器の候補として選択する。
【0084】
なお、操作対象機器の候補を選択することが不可能な場合には、操作対象機器の候補を選択することが可能となるまでの間、エージェント制御部125は、エージェント機器200の眼部201がユーザU1の視線の先を見続けるように、エージェント機器200の表示部210の表示状態を制御する。
【0085】
次に、推定部123は、操作対象機器の候補として選択された第2操作機器400に関連付けられている関係情報(関係情報DB150(図4参照))が基準以上であるか否かを判定する。具体的には、推定部123は、第2操作機器400に関連付けられている関係情報を関係情報DB150から取得し、その関係情報を用いて取得可能な値(関係値)と基準値とを比較する。なお、関係値は、上述したように、関係情報に含まれる乗車時間153、操作回数155、正答率156のうちの少なくとも1つを用いて取得可能な値である。なお、基準値は、操作対象機器を推定する際に用いられる基準値であり、実験データ等で適宜設定可能である。
【0086】
そして、推定部123は、その関係値が基準値未満である場合には、関係情報が基準未満であると判定する。この場合には、推定部123は、操作対象機器の候補を選択した際に用いた要素(ユーザU1の視線)以外の他の要素(例えば、ユーザU1の指先の動き)を用いて、操作対象機器を推定する。この例を図5(B)に示す。一方、推定部123は、その関係値が基準値以上である場合には、関係情報が基準以上であると判定する。この場合には、推定部123は、操作対象機器の候補を操作対象機器として推定する。この例を図8に示す。
【0087】
なお、図5(A)に示すように、ユーザU1が第2操作機器400の方向を向いた場合には、エージェント制御部125は、エージェント機器200の眼部201がユーザU1の視線LS1の先を見続けるように、エージェント機器200の動作態様を遷移させる。この場合のエージェント機器200の眼部201の視線LS2、LS3を点線で模式的に示す。なお、エージェント機器200の設置場所によっては、エージェント機器200の眼部201の視線LS2、LS3の方向が第2操作機器400の方向に向かないことも想定される。このような場合でも、エージェント機器200の眼部201が第2操作機器400の方向を向いていることをユーザU1に感じさせるような表示態様とする。
【0088】
図5(B)に示すように、要素検出部122は、ユーザU1の手を検出する検出処理を実行する。すなわち、ユーザU1の手を検出することにより、ユーザU1がどの機器を操作しようとしているかを検出することが可能となる。図5(B)では、ユーザU1が左手を用いて第2操作機器400を操作しようとしている状態を示す。
【0089】
具体的には、要素検出部122は、カメラ101により取得された画像に基づいて、その画像に含まれるユーザU1の手を検出し、この手及び指先を検出する。なお、ユーザU1の手及び指先を検出する検出方法として、公知の検出技術(2次元、3次元運動解析技術)を用いることが可能である。例えば、手の節の3次元的な位置を検出可能な技術を用いることが可能である。この技術では、手の節の3次元的な位置を用いて手の形状を把握することが可能である。この技術で取得された手の形状のうち、例えば、所定の指(例えば、人差し指)の指先を延長して、指先の方向を検出することが可能となる。なお、指先の方向を検出する以外に、他の手の動き、例えば、拡大縮小をするような手の動きも検出が可能となる。
【0090】
そして、ユーザU1の手が検出された場合には、エージェント制御部125は、エージェント機器200の眼部201がユーザU1の手の先を見続けるように、エージェント機器200の表示部210の表示状態を制御する。例えば、図5(B)に示すように、エージェント機器200の眼部201がユーザU1の左手の指先を見続けるように、エージェント機器200の表示部210の表示状態が制御される。なお、図5(B)では、ユーザU1の視線LS4、エージェント機器200の眼部201の視線LS5、LS6を点線で模式的に示す。
【0091】
次に、推定部123は、要素検出部122による検出処理で検出されたユーザU1の指先の延長線上に、何れかの操作機器が存在するか否かを判定する。なお、ユーザU1の指先の延長上の位置と、各操作機器との関係については、記憶部130に格納しておき、用いることが可能である。
【0092】
図5(B)では、ユーザU1の左手の指先の延長上に第2操作機器400が存在する例を示す。この場合には、推定部123は、ユーザU1の指先の延長線上に、第2操作機器400が存在すると判定する。なお、ユーザU1の指先の延長上に操作機器が存在しなくても、ユーザU1の指先の延長上の位置を基準とする所定範囲内に操作機器が存在する場合についても同様に、推定部123は、その操作機器を操作対象機器の候補として選択することが可能である。この所定範囲は、ユーザU1の指先の延長上に操作機器が存在するか否かを判定するための基準となる範囲である。例えば、ユーザU1の指先の延長上の位置を中心とする円(所定値R2の半径)を所定範囲とすることが可能である。なお、所定値R2は、実験データ等に基づいて適宜設定可能な値である。また、関係値に応じて所定値R2を変更してもよい。例えば、関係値が大きい場合には、所定値R2を大きい値とし、関係値が小さい場合には、所定値R2を小さい値とすることが可能である。すなわち、ユーザU1との関係性が深い操作機器については所定範囲を広くし、ユーザU1との関係性が浅い操作機器については所定範囲を狭くすることが可能である。
【0093】
なお、ユーザU1の指先の延長線上(又は、上述した所定範囲内)に何れの操作機器も存在しない場合には、何れかの操作機器が存在すると判定されるまでの間、ユーザU1の手の検出処理、エージェント機器200の眼部201がユーザU1の左手の指先を見続ける制御処理が繰り返し実行される。ただし、ユーザU1が何らかの理由で操作機器を操作しようとする考えを変更し、手を元の位置に戻すことも想定される。このため、ユーザU1の手が検出されなくなった場合には、エージェント機器200の眼部201がユーザU1の視線を見続ける制御処理に戻すようにする。
【0094】
なお、複数の要素情報を用いて操作対象機器の推定処理を実行する場合には、予め優先度を設定しておき、この優先度に基づいて、複数の要素のうちの少なくとも1つの要素を、エージェント機器200の眼部201が見続けるようにすることが可能である。例えば、指先の優先度を視線よりも高く設定しておき、ユーザU1の視線及び指先の双方を要素として用いる場合には、エージェント機器200の眼部201がユーザU1の指先を見続けるようにする。また、操作対象機器からの距離に基づいて優先度を設定してもよい。例えば、操作対象機器から所定範囲以内にユーザU1の指先が存在する場合には、ユーザU1の指先を優先的に見続けるようにする。一方、操作対象機器から所定範囲以内にユーザU1の指先が存在しない場合には、ユーザU1の視線を見続けるようにする。
【0095】
なお、この例では、ユーザU1の左手の指先の延長上に存在する操作機器を検出する例を示すが、ユーザU1の左手(又は指先)が動いている方向に存在する操作機器を検出してもよい。
【0096】
また、ユーザU1の手が検出されない場合には、ユーザU1の手が検出されるまでの間、エージェント制御部125は、エージェント機器200の眼部201がユーザU1の視線の先を見続けるように、エージェント機器200の表示部210の表示状態を制御する。
【0097】
図5(B)に示すように、ユーザU1の指先の延長線上に第2操作機器400が存在すると判定された場合には、エージェント制御部125は、ユーザU1との間でインタラクションを開始するための制御を実行する。このように、ユーザU1の指先の延長線上に第2操作機器400が存在する場合には、ユーザU1が第2操作機器400に手を伸ばして第2操作機器400を操作することを所望していると想定される。そこで、このような場合には、その推定が正しいか否かを判断するため、エージェント機器200が「エアコン見ていた?」とユーザU1に聞くようにする。この例を図5(C)に示す。
【0098】
図5(C)に示すように、エージェント制御部125は、推定部123による操作対象機器の推定が正しいか否かをユーザU1に確認するためのインタラクションをエージェント機器200に開始させるための制御を実行する。例えば、エージェント制御部125は、第2操作機器400の推定が正しいか否かをユーザU1に確認するための音声情報S1(例えば、エアコン見ていた?)を音出力部220から出力させる。この音声情報S1に対するユーザU1の反応に応じて、推定部123は、第2操作機器400の推定が正しいか否かを判定することが可能である。なお、第2操作機器400の推定が正しかった場合の遷移例を図6に示す。また、第2操作機器400の推定が正しくなかった場合の遷移例を図7に示す。
【0099】
図6(D1)には、第2操作機器400の推定が正しいか否かを確認するための音声情報S1(図5(C)参照)に対して、その推定が正しい旨の応答(例えば、うん見ていたよ)がユーザU1からあった場合を示す。この場合には、エージェント制御部125は、第2操作機器400を制御するためのインタラクションを開始する。例えば、図6(E1)、図6(F1)に示すように、エージェント機器200は、第2操作機器400を制御するための音声情報S3乃至S6のやりとりをユーザU1との間で実行する。
【0100】
図6(E1)、図6(F1)に示すようなインタラクションを実行した後に、操作機器制御部126は、第2操作機器400の制御を開始する。例えば、操作機器制御部126は、ユーザU1及びエージェント機器200間でのインタラクションに基づいて、エアコンの温度設定を上げる制御、エアコンの温度設定を下げる制御等を実行する。
【0101】
図7(D2)には、第2操作機器400の推定が正しいか否かを確認するための音声情報S1(図5(C)参照)に対して、その推定が正しくない旨の応答(例えば、いやオーディオを見ていたよ)がユーザU1からあった場合を示す。この場合には、エージェント制御部125は、正しい操作対象機器(第2操作機器400以外の操作機器)を選択するためのインタラクションを開始するための制御を実行する。また、第2操作機器400の推定が誤っていた場合には、エージェント制御部125は、エージェント機器200の態様を、ユーザU1に対する謝罪を示す態様に遷移させる。例えば、図7(D2)、(E2)に示すように、汗画像SW1を表示部210に表示させることができる。また、例えば、図7(D2)に示すように、顔の上側に相当する部分B1を、謝罪の表情を示す所定色(例えば青色)に変化させることができる。このように、第2操作機器400の推定が正しくなかった場合には、謝る演出、申し訳なさそうにする演出を実行する。これにより、ユーザU1に対して理解しようとする演出を実行することができ、間違いに対する受容性を高めることが可能となる。なお、推定に用いる要素を減らした場合の推定結果が間違いだった場合には、各演出(謝る演出、申し訳なさそうにする演出)の動き、音声を大きくしてもよい。これにより、間違いに対する受容性を高めることが可能である。
【0102】
なお、図7(D2)に示す例では、ユーザU1は、推定が正しくない旨の応答として、正しい操作対象機器に関する音声S12を発している。このため、エージェント制御部125は、ユーザU1が発した音声S12に基づいて推定される操作機器が操作対象機器であるか否かを確認するためのインタラクションを順次実行する。
【0103】
例えば、図7(E2)に示すように、エージェント機器200は、音声情報S13「オーディオを見ていたんだ。操作をお手伝いしましょうか?」を発する。これに対する応答として、ユーザU1が、音声S14「ありがとう」を発した場合には、図7(D2)でユーザU1が発した音声S12に含まれるオーディオ(第1操作機器300)が操作対象機器であると推定することが可能である。この場合には、図6に示す例と同様に、エージェント制御部125は、第1操作機器300を制御するためのインタラクションを開始する。例えば、図7(F2)に示すように、エージェント機器200は、第1操作機器300を制御するための音声情報S15、S16のやりとりをユーザU1との間で実行する。
【0104】
図7(E2)、図7(F2)に示すようなインタラクションを実行した後に、操作機器制御部126は、第1操作機器300の制御を開始する。例えば、操作機器制御部126は、ユーザU1及びエージェント機器200間でのインタラクションに基づいて、オーディオでラジオを流す制御、所定の曲を流す制御、音量を調整する制御等を実行する。
【0105】
なお、図6に示すように、第2操作機器400の推定が正しかった場合には、DB制御部124は、その推定の際に用いられた要素情報(ユーザU1の視線及び指先)と、第2操作機器400とを、関係情報DB150に反映させる反映処理を実行する。
【0106】
例えば、ユーザU1の視線及び指先を用いた第2操作機器400の推定処理が1回目である場合には、DB制御部124は、ユーザID151「甲田一郎」及び操作機器154「第2操作機器400」に関連付けて操作回数155に「1回」、正答率156に「100%」をそれぞれ格納する。また、DB制御部124は、ユーザID151「甲田一郎」及び操作機器154「第2操作機器400」に関連付けて要素情報157に「視線」及び「指先」に関する情報を格納する。
【0107】
また、例えば、ユーザU1の視線及び指先を用いた第2操作機器400の推定処理が2回目以降である場合を想定する。この場合には、DB制御部124は、ユーザID151「甲田一郎」及び操作機器154「第2操作機器400」に関連付けて操作回数155、正答率156のそれぞれに各値を格納する。
【0108】
また、図7に示すように、第2操作機器400の推定が正しくなかった場合についても同様に、DB制御部124は、その推定の際に用いられた要素情報(ユーザU1の視線及び指先)と、第2操作機器400とを、関係情報DB150に反映させる反映処理を実行する。例えば、ユーザU1の視線及び指先を用いた第2操作機器400の推定処理が1回目である場合を想定する。この場合には、DB制御部124は、ユーザID151「甲田一郎」及び操作機器154「第2操作機器400」に関連付けて、操作回数155「1回」、正答率156「0%」をそれぞれ格納する。また、DB制御部124は、ユーザID151「甲田一郎」及び操作機器154「第2操作機器400」に関連付けて要素情報157に「視線」及び「指先」に関する情報を格納する。また、ユーザU1の視線及び指先を用いた第2操作機器400の推定処理が2回目以降である場合を想定する。この場合には、DB制御部124は、ユーザID151「甲田一郎」及び操作機器154「第2操作機器400」に関連付けて操作回数155、正答率156のそれぞれに各値を格納する。この場合の正答率156については、正答率が低下した値が格納される。
【0109】
なお、ユーザU1及びエージェント機器200間でのインタラクションにおいて、ユーザU1から何らかのFB情報が取得された場合には、DB制御部124は、ユーザID151「甲田一郎」及び操作機器154「第2操作機器400」に関連付けて、そのFB情報をFB情報158に格納する。
【0110】
[操作対象機器の候補の関係値が基準値以上である場合の遷移例]
図8は、ユーザU1の視線に基づいて選択された操作対象機器の候補の関係値が基準値以上である場合の遷移例を示す図である。
【0111】
図8(A)には、車両C1に乗車するユーザU1が第2操作機器400を操作しようとして第2操作機器400の方向を向いた状態を示す。なお、図8(A)に示す例は、図5(A)と同様であるため、図5(A)と同一の符号を付して、ここでの詳細な説明を省略する。
【0112】
図8(A)に示す例では、ユーザU1の視線LS1の延長上に第2操作機器400が存在する。このため、推定部123は、第2操作機器400を操作対象機器の候補として選択する。
【0113】
次に、推定部123は、操作対象機器の候補として選択された第2操作機器400に関連付けられている関係情報(関係情報DB150(図4参照))が基準以上であるか否かを判定する。図8(A)では、その関係値が基準値以上であると判定された場合の例を示す。この場合には、操作対象機器の候補として選択された第2操作機器400の推定が正しいか否かをユーザU1に確認するためのインタラクションを開始する。この例を図8(B)(C)に示す。
【0114】
図8(B)に示すように、エージェント制御部125は、推定部123による操作対象機器の推定が正しいか否かをユーザU1に確認するためのインタラクションをエージェント機器200に開始させるための制御を実行する。例えば、エージェント制御部125は、第2操作機器400の推定が正しいか否かをユーザU1に確認するための音声情報S21(例えば、エアコンの操作をしますよ)を音出力部220から出力させる。ここで、第2操作機器400に関連付けられている関係値が基準値以上である場合には、その推定結果の精度が高いと想定される。このため、図8(B)に示すエージェント機器200の音声情報S21「エアコンの操作をしますよ」は、図5(C)に示すエージェント機器200の音声情報S1「エアコン見ていた?」よりも自信があるような内容とすることが可能である。この場合には、エージェント機器200に自信があるような演出、振る舞い等を実行させてもよい。
【0115】
図8(B)(C)に示すように、音声情報S21、S23に対するユーザU1の反応(音声S22、S24)に応じて、推定部123は、第2操作機器400の推定が正しいか否かを判定することが可能である。図8では、第2操作機器400の推定が正しかった場合の遷移例を示す。なお、第2操作機器400の推定が正しくなかった場合の遷移例については、図7に示す例と略同様であるため、ここでの図示及び説明を省略する。
【0116】
図8(B)には、第2操作機器400の推定が正しいか否かを確認するための音声情報S21に対して、その推定が正しい旨の応答(例えば、音声S22「ありがとう」)がユーザU1からあった場合を示す。この場合には、エージェント制御部125は、第2操作機器400を制御するためのインタラクションを開始する。例えば、図8(C)に示すように、エージェント機器200は、第2操作機器400を制御するための音声情報S23、S24のやりとりをユーザU1との間で実行する。
【0117】
図8(C)に示すようなインタラクションを実行した後に、操作機器制御部126は、第2操作機器400の制御を開始する。例えば、操作機器制御部126は、ユーザU1及びエージェント機器200間でのインタラクションに基づいて、エアコンの温度設定を上げる制御等を実行する。
【0118】
図8に示すように、第2操作機器400の推定が正しかった場合についても同様に、DB制御部124は、その推定の際に用いられた要素情報(ユーザU1の視線)と、第2操作機器400とを、関係情報DB150に反映させる反映処理を実行する。
【0119】
図8に示すように、関係値が高くなるのに応じて、ユーザU1の視線のみを用いてユーザU1が操作を所望する操作対象機器を推定可能となる。すなわち、操作機器の使用回数が増えたり、操作対象機器の推定の正答率が高くなったり、ユーザU1の車両C1の乗車時間が長くなったりした場合には、ユーザU1の視線のみを用いて操作対象機器を推定可能となる。また、その推定結果にエージェント機器200を反応させることが可能となるため、迅速に操作支援を実行することが可能となる。
【0120】
一方、図7と同様に、操作対象機器の推定にエージェント機器200が失敗した場合でも、その推定を訂正可能とし、その失敗したことを関係情報DB150に反映させることが可能である。このため、次回以降の操作対象機器の推定精度(操作対象機器の推定結果の正答率)を向上させることが可能である。
【0121】
ここで、今まで使用していたインターフェースを急激に変更すると、一般的な操作性は向上させることが可能であるが、急激な変更に対応することが困難なユーザU1にとっては不慣れな操作となることも考えられる。この場合には、ユーザU1が不慣れな操作に戸惑うことも想定される。例えば、ボタン操作及び音声認識操作が可能な操作機器について、ユーザU1が過去にボタン操作をしていた場合を想定する。このような場合において、操作対象機器の推定結果に基づいて、いきなり音声認識で操作可能とすると、一般的は便利な操作となるが、ユーザU1にとっては不慣れな操作となる可能性がある。
【0122】
そこで、本実施形態では、今まで使用していたインターフェースをいきなり変更するのではなく、段階的に変更するようにする。具体的には、ユーザU1が操作を所望する操作機器(例えば、エアコン)に手を伸ばした場合に、補助的に「エアコンですか」、「温度上げますか」等の音声をエージェント機器200が発する。そして、これ以降も、エージェント機器200は、その操作機器とユーザU1との関係性の深さに応じてユーザU1との所定のやりとりを実行することにより、交流を進めていく。また、その操作機器について、これ以降も同様に、その操作機器とユーザU1との関係性の深さに応じてユーザU1との所定のやりとりを順次実行することにより、交流をさらに進めていく。これらの交流の蓄積により、ユーザU1が手を伸ばした場合に、その操作機器の迅速な推定が可能となり、「エアコンですね」、「温度上げますよ」等の制御が可能となる。
【0123】
このように、本実施形態では、最新のインターフェース(例えば、ジェスチャー、視線認識、音声認識)に急激に変更して使用感、使い方を急激に変更するのではなく、段階的に今までの使用感、使い方を変更していく。例えば、手動で操作していた操作機器について、音声認識操作に変更する場合には、その変更の過程で精度を高めつつ徐々に移行するようにすることが可能である。これにより、その操作機器とユーザU1との関係性が低い場合よりも、その操作機器とユーザU1との関係性が高い状態で、音声認識操作を開始できるようになる。これらにより、例えば、ボタン操作及び音声認識操作が可能な操作機器をユーザU1が操作する場合に、その操作機器とユーザU1との関係性の深さに応じた自然な流れで、ボタン操作から音声認識操作にシフトチェンジすることが可能である。
【0124】
また、このように、操作機器とユーザU1との関係性の深さに応じた自然な流れで、操作機器の使用感、使い方を徐々に変更することにより、ユーザU1自身もエージェント機器200が自分自身を徐々に理解していることを容易に認識可能となる。すなわち、ユーザU1とエージェント機器200との交流を続けることにより、エージェント機器200(又は車両C1)が、ユーザU1を理解してくれていることを感じるようになる。
【0125】
また、ユーザU1とエージェント機器200との交流が不足し、エージェント機器200がユーザU1に対して理解しようとする演出が不足していると、エージェント機器200に対するユーザU1の信頼性が低下するおそれがある。例えば、操作対象機器の推定が失敗した場合において、エージェント機器200がユーザU1に対して謝罪する演出が不足していると、エージェント機器200に対するユーザU1の不信感が増加するおそれがある。そこで、本実施形態では、ユーザU1とエージェント機器200との交流を豊かにし、操作対象機器の推定が失敗した場合でも、その推定を訂正できるようなインタラクションを可能にする。また、この場合でも、エージェント機器200がユーザU1に対して理解しようとする演出を実行し、エージェント機器200がユーザU1を理解しようとしているように見せることが可能となる。また、操作対象機器の推定が失敗し、その推定を訂正した場合には、その訂正に関する各情報を関係情報DB150(図4参照)に反映することが可能であるため、次回以降の操作対象機器の推定精度を向上させることが可能である。
【0126】
なお、本実施形態では、ユーザU1が指で操作可能な操作部を備える操作機器を例にして説明したが、音声認識が可能な操作機器、視線認識が可能な操作機器等の非接触での操作が可能な操作機器についても適用可能である。例えば、ユーザU1が指で操作可能な操作部を備えるとともに、非接触での操作が可能な操作機器についても適用可能である。この場合には、最初のうちは、エージェント機器200の操作支援に基づいて、ユーザU1が指を用いて操作をし、ユーザU1が慣れてきたらエージェント機器200の操作支援に基づいて非接触での操作に徐々に移行することが可能である。
【0127】
このように、情報処理装置110は、ユーザU1に対するエージェント機器200のインタラクションの開始を判定するとともに、操作機器の操作内容自体(ユーザU1の操作手段)も変更することが可能である。
【0128】
なお、図5乃至図8では、立体的なエージェント機器200を用いてユーザU1に対する操作支援を実行する例を示したが、エージェント機器200以外の機器を用いてユーザU1に対する操作支援を実行してもよい。例えば、IVI(In-Vehicle Infotainment)等の表示装置、又は、ユーザU1が所持する電子機器(例えば、スマートフォン、タブレット端末)の表示部等にエージェント画像を表示させ、このエージェント画像の表示態様及び音声を用いてユーザU1に対する操作支援を実行することが可能である。例えば、表示装置に表示されるエージェント画像の表示態様を、図5乃至図8に示すエージェント機器200と同じ態様とし、図5乃至図8に示す音声情報と同じ音声を表示装置の音声出力部から出力させることが可能である。また、エージェント機器200及びエージェント画像を用いる代わりに、音声情報のみを用いてユーザU1に対する操作支援を実行してもよい。例えば、スピーカ等の音出力装置、又は、ユーザU1が所持する電子機器(例えば、スマートフォン、タブレット端末)の音出力部等から音声情報を出力させ、この音声情報を用いてユーザU1に対する操作支援を実行することが可能である。例えば、図5乃至図8に示す音声情報と同じ音声を音出力装置から出力させることが可能である。
【0129】
[情報処理装置の動作例]
図9は、情報処理装置110における制御処理の一例を示すフローチャートである。また、この制御処理は、記憶部130に記憶されているプログラムに基づいて制御部120により実行される。また、この制御処理は、情報処理装置110がオン状態である場合に制御周期毎に常時実行される。また、この制御処理では、図1乃至図8を適宜参照して説明する。
【0130】
また、図9では、車両C1にユーザU1のみが乗車している場合の例を示す。この場合には、ユーザ識別情報152(図4参照)に基づいて、要素検出部122によりユーザU1(甲田一郎)が検出される。このため、操作対象機器の推定処理においては、ユーザU1に関連付けられている各情報が関係情報DB150から取得されるものとする。なお、車両C1に複数のユーザが乗車している場合には、操作機器を操作しようとするユーザを識別した後に、図9に示す制御処理が実行される。
【0131】
ステップS601において、推定部123は、車両C1のユーザU1が触れた操作機器が存在するか否かを判定する。例えば、推定部123は、第1操作機器300、第2操作機器400、第N操作機器500のそれぞれから出力された操作情報に基づいて、これらの各操作機器のうちで、ユーザU1が触れた操作機器が存在するか否かを判定する。ユーザU1が触れた操作機器が存在する場合には、ステップS602に進む。一方、ユーザU1が触れた操作機器が存在しない場合には、ステップS603に進む。
【0132】
ステップS602において、推定部123は、ステップS601でユーザU1が触れたと判定された操作機器を操作対象機器として選択する。
【0133】
ステップS603において、要素検出部122は、ユーザU1の視線を検出する検出処理を実行する。すなわち、ユーザU1の視線を検出することにより、ユーザU1がどこを見ているかを検出することが可能となる。具体的には、要素検出部122は、カメラ101により取得された画像に基づいて、その画像に含まれるユーザU1の顔及び眼を検出し、この眼の視線を検出する。この検出処理での視線の検出対象とする範囲は、例えば、エージェント機器200による操作支援の対象とする操作機器を基準とする操作機器周辺の範囲とすることが可能である。すなわち、操作機器にある程度近い範囲を検出対象とすることが可能である。なお、ユーザU1の視線を検出する検出方法として、公知の視線検出技術を用いることが可能である。
【0134】
なお、ユーザU1が車両C1のドライバである場合には、運転時には、ユーザU1の視線は、車両C1の進行方向に向いていると想定される。また、ユーザU1が運転している場合において、ユーザU1が何らかの操作を所望するときには、ユーザU1は、車両C1の進行方向から視線をずらして操作機器を見ることが想定される。そこで、ユーザU1が運転している場合には、ステップS603において、要素検出部122は、ユーザU1が車両C1の進行方向から視線をずらしたことを条件に検出処理を開始してもよい。一方、ユーザU1が運転していない場合(例えば、車両C1が停車中の場合)には、ステップS603において、要素検出部122は、検出処理を常時実行するようにする。
【0135】
ステップS604において、推定部123は、ステップS603で検出されたユーザU1の視線と関係情報DB150(図4参照)とに基づいて、ユーザU1が操作を所望する操作対象機器の候補を選択することが可能か否かを判定する。操作対象機器の候補を選択することが可能である場合には、ステップS605に進む。一方、操作対象機器の候補を選択することが不可能である場合には、ステップS612に進む。
【0136】
例えば、ユーザU1の視線の延長上(又は、上述した所定範囲内)に操作機器が存在し、かつ、その操作機器が操作機器154(図4参照)に格納されている場合には、推定部123は、その操作機器を操作対象機器の候補として選択することが可能である。一方、ユーザU1の視線LS1の延長上(又は、上述した所定範囲内)に操作機器が存在しない場合、又は、その操作機器が操作機器154に格納されていない場合には、推定部123は、操作対象機器の候補を選択することが不可能であると判定する。なお、ユーザU1の視線の延長上の位置と、各操作機器との関係については、記憶部130に格納しておき、用いることが可能である。
【0137】
ステップS605において、推定部123は、ステップS604で選択された操作対象機器の候補に関連付けられている関係値が基準値以上であるか否かを判定する。具体的には、推定部123は、ステップS604で候補として選択された操作対象機器に関連付けられている関係情報を関係情報DB150から取得し、その関係情報に応じた関係値と基準値とを比較する。そして、推定部123は、その関係値が基準値以上である場合には、関係情報が基準値以上であると判定する。一方、推定部123は、その関係値が基準値未満である場合には、関係情報が基準値未満であると判定する。その関係情報が基準値以上である場合には、ステップS606に進む。一方、その関係値が基準値未満である場合には、ステップS607に進む。
【0138】
ステップS606において、推定部123は、ステップS604で選択された操作対象機器の候補を、操作対象機器と推定する。
【0139】
ステップS607において、要素検出部122は、ユーザU1の手を検出する検出処理を実行する。この検出処理については、上述した検出方法と同様である。
【0140】
ステップS608において、要素検出部122は、ステップS607での検出処理によりユーザU1の手が検出されたか否かを判定する。例えば、操作する意思がないときには、ユーザU1は、手を操作機器に移動させていないと想定される。この場合には、ユーザU1の手が検出されない。ユーザU1の手が検出された場合には、ステップS609に進む。一方、ユーザU1の手が検出されない場合には、ステップS612に進む。
【0141】
ステップS609において、エージェント制御部125は、エージェント機器200の眼部201がユーザU1の指先を見続けるように、エージェント機器200の表示部210の表示状態を制御する。例えば、複数の要素(例えば、指、視線)を用いて推定をする場合には、その推定が遅れることが考えられる。そこで、エージェント機器200が、ユーザU1の動作を認識していることを示す動作をする。例えば、エージェント機器200が、ユーザU1の指先を見ることにより、エージェント機器200がユーザU1の動作に気付いていることを示すことができる。また、エージェント機器200が自分を気にしているとユーザU1が認識すると考えられる。このように、ユーザU1に認識されることによりユーザU1及びエージェント機器200の良好な関係構築が可能となる。
【0142】
ステップS610において、推定部123は、ステップS607での検出処理で検出されたユーザU1の指先の延長線上(又は、上述した所定範囲内)に、何れかの操作機器が存在するか否かを判定する。ユーザU1の指先の延長線上(又は、上述した所定範囲内)に、何れかの操作機器が存在する場合には、ステップS611に進む。一方、ユーザU1の指先の延長線上(又は、上述した所定範囲内)に、何れの操作機器も存在しない場合には、ステップS607に戻る。
【0143】
ステップS611において、推定部123は、ステップS610でユーザU1の指先の延長線上(又は、上述した所定範囲内)に存在すると判定された操作機器を操作対象機器と推定する。この操作対象機器については、ステップS604で選択された操作対象機器の候補でもよく、他の操作機器でもよい。
【0144】
なお、図9では、ユーザU1の指先の延長線上(又は、上述した所定範囲内)に何れかの操作機器が存在することを条件に、その操作機器を操作対象機器として推定する例を示すが、他の条件を用いて操作対象機器を推定してもよい。例えば、ユーザU1の指先が何れかの操作機器に所定距離(例えば、数cm乃至数十cm)まで近づいたことを条件に、その操作機器を操作対象機器として推定することが可能である。この場合には、ステップS604で選択された操作対象機器の候補に関連付けられている関係値が高くなるのに応じて、その所定距離を長く設定することが可能である。例えば、関係値が最低値である場合には、所定距離を1cmとし、関係値が高くなるのに応じて所定距離を数cm乃至数十cm等のように長く設定することが可能である。これにより、操作対象機器の候補及びユーザUの関係性が比較的高い場合には、指先が比較的離れている段階でも操作対象機器の推定処理を迅速に実行することができる。また、指先が比較的離れている段階でインタラクションの制御を開始することが可能である。
【0145】
このように、本実施形態では、関係値が基準値未満である場合には、最初はユーザU1の視線に基づいて操作対象機器の候補を選択し、次にユーザU1の指先に基づいて操作対象機器を推定することが可能である。このように、ユーザU1との関係例が浅いと考えられる操作機器については、2以上の要素情報を用いた判定処理を実行することにより、操作対象機器の推定精度を高めることが可能である。
【0146】
なお、ステップS603乃至S611における各推定処理において、ステップS604で候補として選択された操作対象機器を、操作対象機器として推定する推定時間(処理時間)を変更してもよい。例えば、ステップS604で選択された操作対象機器の候補に関連付けられている関係値が基準値以上である場合には、その関係値が高くなるのに応じて、その候補を操作対象機器として推定する推定時間を短くすることが可能である。例えば、操作対象機器の候補がエアコンであり、そのエアコンの関係値が比較的高い場合には、操作対象機器がエアコンと推定するまでの時間をさらに短くすることが可能である。一方、ステップS604で選択された操作対象機器の候補に関連付けられている関係値が基準値未満である場合には、その関係値が低くなるのに応じて、操作対象機器を推定する推定時間を長くすることが可能である。これにより、候補として選択された操作対象機器と、ユーザU1との関係性の深さに応じた適切な操作対象機器の推定処理を実行することが可能である。例えば、操作対象機器の候補及びユーザUの関係性が高い場合には、操作対象機器の推定処理を迅速に実行することができる。一方、操作対象機器の候補及びユーザUの関係性が浅い場合には、操作対象機器の推定精度を高めることができる。
【0147】
ステップS612において、エージェント制御部125は、エージェント機器200の眼部201がユーザU1の視線の先を見続けるように、エージェント機器200の表示部210の表示状態を制御する。すなわち、エージェント機器200は、ユーザU1の視線の先を見続けるような演出を実行する。例えば、図5(A)に示すように、エージェント制御部125は、エージェント機器200の眼部201がユーザU1の視線LS1の先を見続けるように、エージェント機器200の動作態様を遷移させることが可能である。この場合に、ユーザU1の視線の先を見続けるような何らかの振る舞いをエージェント機器200に実行させてもよい。
【0148】
ステップS613において、エージェント制御部125は、ステップS606、S611での操作対象機器の推定が正しいか否かをユーザU1に確認するためのインタラクションを開始するための制御を実行する。例えば、ステップS611で操作対象機器が推定された場合には、図5(C)、図6(D1)(E1)、図7(D2)(E2)に示すようなインタラクションが実行される。一方、ステップS606で操作対象機器が推定された場合には、図8(B)に示すようなインタラクションが実行される。
【0149】
このように、本実施形態では、ユーザU1の動きに基づいて、実際の操作対象機器の制御までのつなぎとしてのインタラクション(ステップS613)を実行する。なお、このインタラクション(ステップS613)の処理期間については、ユーザU1及び操作対象機器の関係性の深さに応じて、徐々に短くしてもよい。例えば、操作対象機器に関連付けられている正答率が低いときには「エアコンを操作したいの」等とエージェント機器200がユーザU1に対して聞き、ユーザU1から「はい」等の回答があれば、その操作対象機器の制御を開始するようにする。一方、操作対象機器に関連付けられている正答率が高いときには、インタラクション(ステップS613)の処理を省略してその操作対象機器の制御をすぐに開始してもよい。すなわち、最終的(例えば、ユーザU1及び操作機器の関係性の深さが基準を超えた場合)には、このインタラクション(ステップS613)の処理を省略してユーザU1の視線等だけの制御を実行可能としてもよい。
【0150】
ステップS614において、推定部123は、ステップS613で実行されたユーザU1とエージェント機器200とのインタラクションにより、ステップS606、S611での操作対象機器の推定が正しいか否かを判定する。操作対象機器の推定が正しい場合には、ステップS615に進む。一方、操作対象機器の推定が正しくなかった場合には、ステップS616に進む。例えば、ユーザU1とエージェント機器200とのインタラクションにおけるユーザU1の生体情報、発話、表情、動作等に基づいて、推定部123は、操作対象機器の推定が正しいか否かを判定することが可能である。
【0151】
例えば、ユーザU1とエージェント機器200とのインタラクションにおいて、ユーザU1から肯定的な音声(例えば、「うんそうだよ」、「見ていたよ」)が発せられた場合には、推定部123は、操作対象機器の選択が正しいと判定することが可能である。また、例えば、ユーザU1とエージェント機器200とのインタラクションにおいて、ユーザU1の表情が肯定的な表情(例えば、嬉しそうさ表情、納得の表情)に変化した場合には、推定部123は、操作対象機器の選択が正しいと判定することが可能である。また、例えば、ユーザU1とエージェント機器200とのインタラクションにおいて、ユーザU1が正しいことを示すジェスチャー(例えば、指でOKを表す、指で丸を表す、うなづく)をした場合には、推定部123は、操作対象機器の選択が正しいと判定することが可能である。また、例えば、ユーザU1とエージェント機器200とのインタラクションにおいて、ユーザU1の体温(生体情報の一例)が一定状態を維持している場合には、推定部123は、操作対象機器の選択が正しいと判定することが可能である。
【0152】
一方、ユーザU1とエージェント機器200とのインタラクションにおいて、ユーザU1から否定的な音声(例えば、「違うよ」、「そうじゃないよ」「違う機器だよ」)が発せられた場合には、推定部123は、操作対象機器の選択が正しくないと判定することが可能である。また、例えば、ユーザU1とエージェント機器200とのインタラクションにおいて、ユーザU1の表情が否定的な表情(例えば、悲しそうさ表情、怒りの表情)に変化した場合には、推定部123は、操作対象機器の選択が正しくないと判定することが可能である。また、例えば、ユーザU1とエージェント機器200とのインタラクションにおいて、ユーザU1が誤りであることを示すジェスチャー(例えば、指でNOを表す、指でバツを表す、顔を左右に振る)をした場合には、推定部123は、操作対象機器の選択が正しくないと判定することが可能である。また、例えば、ユーザU1とエージェント機器200とのインタラクションにおいて、ユーザU1の体温(生体情報の一例)が怒りにより急激に上昇した場合には、推定部123は、操作対象機器の選択が正しくないと判定することが可能である。
【0153】
また、何らかの操作部材を用いてもよい。例えば、正しいことを示すボタン(例えば、ステアリングホイール3に設置されている所定のボタン)を押す動作に基づいて、推定部123は、操作対象機器の選択が正しいと判定することが可能である。一方、誤りを示すボタン(例えば、ステアリングホイール3に設置されている所定のボタン)を押す動作に基づいて、推定部123は、操作対象機器の選択が正しくないと判定することが可能である。
【0154】
ただし、ユーザU1とエージェント機器200とのインタラクションにおいて、何らかの理由でユーザU1が何も発しなかったり、何の動きもしなかったりすることも想定される。このような場合には、ユーザU1の表情が否定的な反応を示さなければ、操作対象機器の選択が正しいと推定することも可能である。そこで、この場合には、所定時間(例えば、数秒乃至数十秒)が経過するまでの間、ステップS613、S614で各処理を繰り返し実行し、所定時間が経過した後に、推定部123は、操作対象機器の選択が正しいと判定してもよい。
【0155】
ステップS615において、エージェント制御部125は、ステップS606、S611で推定された操作対象機器を制御するためのインタラクションを開始するための制御を実行する。例えば、ステップS611で操作対象機器が推定された場合には、図5(C)、図6(F1)、図7(F2)、図8(C)に示すようなインタラクションが実行される。例えば、操作対象機器がエアコンである場合には、「エアコンの温度を上げますか」等の音声出力を実行したり、車両C1の車室内の現在温度を表示したりすることが可能である。また、例えば、操作対象機器がオーディオ機器である場合には、「音楽を変更しますか」等の音声出力を実行したり、現在の音楽を表示したりすることが可能である。また、エージェント機器200の動作態様を、了解を示す態様としてもよい。このように、ステップS606、S611で推定された操作対象機器に対してエージェント機器200が相応の反応を示すようにする。
【0156】
ステップS616において、エージェント制御部125は、ステップS614で推定が正しくなかったと判定された操作機器以外の操作機器であって、正しい操作対象機器を選択するためのインタラクションを開始するための制御を実行する。例えば、ステップS611で操作対象機器が推定された場合には、図7(D2)(E2)に示すようなインタラクションが実行される。この場合に、図7(D2)(E2)に示すように、エージェント機器200の態様を、ユーザU1に対する謝罪を示す態様に遷移させることが可能である。
【0157】
ステップS617において、DB制御部124は、ステップS606、S611での推定処理の際に用いられた要素情報(ユーザU1の視線、指先)と、その推定処理で推定された操作対象機器とを、関係情報DB150に反映させる反映処理を実行する。
【0158】
ステップS618において、エージェント制御部125、操作機器制御部126は、ステップS614で正しいと判定された操作対象機器の制御を開始する。例えば、エージェント制御部125は、推定処理で推定された操作対象機器に対する操作支援を実行するためのインタラクションをユーザU1との間で開始する第1処理を実行する。また、例えば、操作機器制御部126は、その操作対象機器の動作の制御を開始する第2処理を実行する。例えば、操作機器制御部126は、エージェント制御部125により実行されたユーザU1及びエージェント機器200間でのインタラクションに基づいて、エアコンの温度設定を上げる制御、エアコンの温度設定を下げる制御等を実行する。
【0159】
なお、ステップS613、S615、S616におけるインタラクションについては、関係値の大きさに応じて内容を変更してもよい。例えば、関係値が比較的小さい操作対象機器が推定された場合には、その操作対象機器に対するユーザU1の習熟度は低いと考えられる。そこで、その操作対象機器に不慣れなユーザU1に対して、比較的多くのやりとりをして十分なサポートができるようなインタラクションを実行する。一方、関係値が比較的大きい操作対象機器が推定された場合には、その操作対象機器に対するユーザU1の習熟度は高いと考えられる。そこで、その操作対象機器に慣れているユーザU1に対して、比較的少ないやりとりをして迅速なサポートができるようなインタラクションを実行する。
【0160】
例えば、ステップS613、S615におけるインタラクションとして、正答率156(図4参照)の値が高い操作対象機器の場合(例えば、正答率が90%以上)には「じゃあエアコン操作を開始するね」等の音声出力をした後に制御を開始することが可能である。一方、正答率156の値が低い操作対象機器の場合(例えば、正答率が70%未満)には「今、エアコン見てる」「手動でエアコンを操作したいの」等の確認形式から開始し、その後に所定のやりとりをした後に、操作対象機器の制御を開始するようにする。
【0161】
また、インタラクションを行うインターフェースとして、ポップアップ等を表示可能な他の表出装置、他の音声出力装置を用いてもよい。また、表示画面内において、興味のある方向を示すことができるもの(例えば、眼部を有するCG(Computer Graphics)キャラクター)を用いてもよい。
【0162】
なお、図9では、操作対象機器の推定処理に用いる要素情報として、ユーザU1の視線、指先を用いる例を示したが、他の要素情報を用いて操作対象機器の推定処理を実行してもよい。例えば、3以上の要素情報を用いる場合には、3番目に用いる要素情報の推定処理として、ステップS604、S605、S607乃至S611に相当する各処理を、ステップS610の処理後に実行してもよい。また、操作対象機器に関連付けられている関係情報に応じて、推定に用いる要素情報の順序を変更してもよい。
【0163】
また、例えば、車両C1に乗車する人の数を用いて操作対象機器の推定処理を実行してもよい。例えば、車両C1に乗車する人の数が閾値(例えば、3乃至4)以上である場合には、会話を重視してオーディオの音量を下げる、多数の人が好きな曲を流す等の制御を実行することが可能である。このように、各種の車内情報を取得して操作対象機器の推定処理を実行することが可能である。なお、車両C1に乗車する人の数については、カメラ101により取得された画像情報、センサ類104(例えば、人感センサ、着座センサ、シートベルトセンサ)により取得された検出情報等に基づいて検出可能である。また、音声入力部103により取得された音声に基づいて、車両C1に乗車する人の数を推定してもよい。例えば、音声入力部103により取得された音声に基づいて、話している声があった場合には、オーディオの音量を下げる等の制御を実行することが可能である。
【0164】
[車両以外に設置可能なエージェント機器の例]
以上では、車両C1に設置されるエージェント機器200、車両C1に表示されるエージェント画像を用いる例を示した。ただし、車両C1から取り外し可能なエージェント機器、車両以外に設置可能なエージェント機器等についても本実施形態を適用可能である。例えば、携帯型のエージェント機器を所持するユーザが、車両C1に乗車するときには、車両C1のダッシュボード2上にそのエージェント機器を設置し、車両C1から降りる場合には、ユーザがそのエージェント機器を所持して持ち歩くことも想定される。また、ユーザが家庭内でエージェント機器を使用することも想定される。また、エージェント画像(エージェント機器200に相当)を表示させることが可能な各種機器(例えば、ゲーム機器、眼鏡型ディスプレイ、AR(Augmented Reality)グラス)を使用することも想定される。
【0165】
例えば、家庭内では、家庭内に設置されている各機器(例えば、家電、オーディオ機器、情報処理装置)に関する制御を実行することが考えられる。例えば、お風呂を沸かす制御、調理器具での調理の制御、音楽を出力する制御、玄関のドア、窓を開ける制御等を実行することが想定される。これらの場合には、お風呂、各調理器具、ドア、窓、音声出力等に関する報知情報を提供することが想定される。
【0166】
例えば、家に設置されているエージェント機器が、あるユーザの視線に基づいて、操作対象機器の候補を選択することが可能である。この場合には、そのエージェント機器は、その候補に関連付けられている関係値の大きさに基づいて、その候補を操作対象機器として推定するか、他の要素(例えば、指先)を用いて操作対象機器を推定するかを判定することが可能である。また、操作対象機器の推定を確認するためのインタラクション、操作対象機器を制御するためのインタラクション、正しい操作対象機器を選択するためのインタラクション等については、図9等に示す例と同様とすることが可能である。例えば、操作対象機器の候補として、テレビジョンが選択された場合には、操作対象機器の推定を確認するためのインタラクションとして「テレビ見ていたの?」「チャンネルを変えたいの?」等の音声情報をユーザに対して出力することが可能である。
【0167】
なお、エージェント機器が実行する各インタラクションについては、例えば、エージェント画像を表示可能な機器(例えば、ゲーム機器、眼鏡型ディスプレイ、ARグラス)を用いて、エージェント画像に実行させてもよい。なお、これらの場合には、エージェント画像を表示可能な機器がエージェント機器200に相当する。また、音声を出力する音声出力装置を用いて、音声のみによるインタラクションを実行してもよい。
【0168】
[本実施形態の効果例]
このように、本実施形態では、ユーザU1の動作に関する1又は複数の要素(例えば、視線、指先)を用いて、ユーザU1の動作の対象に操作機器が存在すると判定された場合に、その操作機器を操作対象機器として推定する。そして、エージェント機器200は、その操作対象機器に関する各インタラクションをユーザU1との間で開始する。例えば、ユーザU1の視線及び手の指先がエアコンの方向を向いていた場合には、エージェント機器200がユーザU1に対して「エアコン?」と質問する。また、操作対象機器の候補として選択された当該操作対象機器に関連付けられている関係値が基準値以上であるときには、推定に用いる要素を減らして(例えば、視線のみ)推定することが可能である。すなわち、ユーザU1がエアコンを触る回数を重ねると、ユーザU1の視線だけでエアコンの操作を開始できるようになる。これにより、操作機器とユーザU1との関係性の深さに応じた自然な流れで、操作機器の使用感、使い方を徐々に変更することが可能となる。また、ユーザU1と操作対象機器との関係性の深さに応じたより適切な操作支援を実行することが可能となる。
【0169】
また、本実施形態では、操作対象機器の推定に失敗した場合でも、正しい操作対象機器に訂正できるようなインタラクションを実行することが可能である。すなわち、操作対象機器の推定に失敗した場合でも、正しい操作対象機器を適切に選択することが可能である。これにより、次回以降の操作対象機器の推定精度(操作機器の結果の正答率)を向上させることが可能である。
【0170】
また、本実施形態では、推定処理の実行中において、ユーザU1の要素(例えば、視線、指先)を用いた推定処理を実行していることを示すため、エージェント機器200が、ユーザU1の手の位置、手の指先、視線の先等を見つめるようにする。これにより、エージェント機器200がユーザU1の動作を認識していることを示す動作を実行することが可能であり、エージェント機器200がユーザU1の動作に気付いていることを示すことができる。また、エージェント機器200が自分を気にしているとユーザU1に認識されることによりユーザU1及びエージェント機器200の良好な関係構築が可能となる。
【0171】
[他の機器、他のシステムにおいて処理を実行させる例]
なお、以上では、推定処理等を情報処理装置110(又は情報処理システム100)において実行する例を示したが、それらの各処理の全部又は一部を他の機器において実行してもよい。この場合には、それらの各処理の一部を実行する各機器により情報処理システムが構成される。例えば、車載機器、ユーザが使用可能な機器(例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、カーナビゲーション装置、IVI)、インターネット等の所定のネットワークを介して接続可能なサーバ等の各種情報処理装置、各種電子機器を用いて各処理の少なくとも一部を実行させることができる。
【0172】
また、情報処理装置110(又は情報処理システム100)の機能を実行可能な情報処理システムの一部(又は全部)については、インターネット等の所定のネットワークを介して提供可能なアプリケーションにより提供されてもよい。このアプリケーションは、例えばSaaS(Software as a Service)である。
【0173】
[本実施形態の構成例及びその効果]
本実施形態に係る情報処理方法は、ユーザU1が操作可能な第1操作機器300、第2操作機器400、第N操作機器500(複数の機器の一例)に関するユーザ操作を支援する情報処理方法である。この情報処理方法は、第1操作機器300、第2操作機器400、第N操作機器500の何れにもユーザU1が触れていない状態で、ユーザU1の生体情報と、ユーザU1の発話と、ユーザU1の動作と、のそれぞれの要素情報のうちの少なくとも1つに基づいて、ユーザU1が操作を所望する機器(操作対象機器)を推定する推定処理(ステップS601乃至S611)と、その推定処理で推定された操作対象機器に関する操作支援を開始する制御処理(ステップS618)と、その推定処理で推定された推定結果(例えば、推定された操作機器、推定の正答率)を、ユーザU1の第1操作機器300、第2操作機器400、第N操作機器500のそれぞれに対する習熟度合を示す関係情報を機器毎に格納する関係情報DB150(データベースの一例)に反映させる反映処理(ステップS617)とを含む。その推定処理(ステップS603乃至S611)では、要素情報のうちの少なくとも1つに基づいて操作対象機器の候補となる一の機器を選択し、その一の機器に関する関係情報DB150における関係値(関係情報の一例)が基準値(基準の一例)よりも高い場合には、その一の機器を操作対象機器として推定する。一方、その一の機器に関する関係情報DB150における関係値が基準値よりも低い場合には、その一の機器の選択時に用いた要素情報以外の他の要素情報を用いて操作対象機器を推定する。また、本実施形態に係るプログラムは、これらの各処理をコンピュータに実行させるプログラムである。言い換えると、本実施形態に係るプログラムは、情報処理装置110が実行可能な各機能をコンピュータに実現させるプログラムである。
【0174】
この構成によれば、第1操作機器300、第2操作機器400、第N操作機器500とユーザU1との関係性の深さに応じた自然な流れで、各操作機器の使用感、使い方を徐々に変更することが可能となる。これにより、ユーザU1と操作対象機器との関係性の深さに応じたより適切な操作支援を実行することが可能となる。
【0175】
本実施形態に係る情報処理方法において、制御処理(ステップS618)では、推定処理で推定された操作対象機器に対する操作支援を実行するためのインタラクションをユーザU1との間で開始する第1処理と、その操作対象機器の動作の制御を開始する第2処理とのうちの少なくとも1つを実行する。
【0176】
この構成によれば、推定された操作対象機器に対する操作支援等を適切に開始することが可能となる。
【0177】
本実施形態に係る情報処理方法では、関係値(関係情報の一例)は、ユーザU1が機器(第1操作機器300、第2操作機器400、第N操作機器500)と接した時間の長さを示す値(乗車時間153)と、ユーザU1がその機器を操作した回数を示す値(操作回数155)と、推定処理により推定された推定結果の正答率(正答率156)とのうちの少なくとも1つに基づいて機器毎に設定される。なお、車両C1以外に情報処理装置110が設置される場合も想定される。この場合には、ユーザU1が機器と接した時間の長さを示す値として、情報処理装置110及び各機器が設置されている場所にユーザU1が滞在した時間を用いることが可能である。例えば、情報処理装置110及び各機器が家庭内の部屋に設置されている場合には、その部屋にユーザU1が滞在した時間を用いることが可能である。
【0178】
この構成によれば、適切なパラメータを用いて設定された関係値を用いることができるため、操作対象機器の推定精度を高めることが可能である。
【0179】
本実施形態に係る情報処理方法において、推定処理(ステップS603乃至S611)では、一の機器に関する関係情報DB150における関係値(関係情報の一例)が基準値(基準の一例)よりも高い場合には、その関係値が高くなるのに応じて、その一の機器を操作対象機器として推定する推定時間を短くし、その一の機器に関する関係情報DB150における関係値が基準値よりも低い場合には、その関係値が低くなるのに応じて、操作対象機器を推定する推定時間を長くする。
【0180】
この構成によれば、候補として選択された操作対象機器と、ユーザU1との関係性の深さに応じた適切な操作対象機器の推定処理を実行することが可能である。例えば、操作対象機器及びユーザUの関係性が高い場合には、操作対象機器の推定処理を迅速に実行することができ、操作対象機器及びユーザUの関係性が浅い場合には、操作対象機器の推定精度を高めることができる。
【0181】
本実施形態に係る情報処理方法において、推定処理(ステップS603乃至S611)では、要素情報としてユーザU1の視線を用いて一の機器を選択し、一の機器に関する関係情報DB150における関係値(関係情報の一例)が基準値よりも低い場合には、要素情報としてユーザU1の視線及び指の各動作を用いて操作対象機器を推定する。
【0182】
この構成によれば、一の機器及びユーザUの関係性が低い場合には、ユーザU1の視線及び指の各動作を用いて操作対象機器を推定するため、その関係性が低くても、推定精度を向上させることが可能である。
【0183】
本実施形態に係る情報処理方法において、推定処理(ステップS610、S611)では、一の機器に関する関係情報DB150における関係値(関係情報の一例)が基準値(基準の一例)よりも低い場合には、ユーザU1の指がその機器に所定距離まで近づいたことを条件に、その機器を操作対象機器として推定する。
【0184】
この構成によれば、一の機器及びユーザUの関係性が低い場合には、ユーザU1の指がその機器に所定距離まで近づいたことを条件に操作対象機器を推定するため、その関係性が低くても、推定精度を向上させることが可能である。
【0185】
本実施形態に係る情報処理方法において、推定処理(ステップS610、S611)では、一の機器に関する関係情報DB150における関係値(関係情報の一例)が高くなるのに応じて、所定距離を長く設定する。
【0186】
この構成によれば、一の機器及びユーザUの関係性が比較的高い場合には、指先が比較的離れている段階でも操作対象機器の推定処理を迅速に実行することができる。この場合には、指先が比較的離れている段階でインタラクションの制御を開始することが可能である。
【0187】
本実施形態に係る情報処理方法では、推定処理で推定された操作対象機器が、ユーザU1が操作を所望する機器であったか否かを判定するための判定情報(例えば、ユーザU1が発する音声)をユーザU1から取得する取得処理(ステップS613)をさらに含み、反映処理(ステップS617)では、その判定情報に基づいて、推定処理での推定結果が正しいか否かを示す正誤情報を関係情報DB150に反映させ(例えば、正答率156に反映)、推定処理(ステップS616)では、その推定結果が誤っていることが判定された場合には、その判定情報に基づいて、操作対象機器を新たに選択する。
【0188】
この構成によれば、正誤情報を関係情報DB150に反映させることができるため、次回以降の推定精度を高めることが可能である。また、推定結果が誤っている場合でも、ユーザU1からの判定情報に基づいて、正しい操作対象機器を選択することが可能である。
【0189】
本実施形態に係る情報処理方法では、ユーザU1とのインタラクションを行うことが可能なエージェント機器200を制御するエージェント制御処理(ステップS613、S615、S616)をさらに含み、エージェント制御処理(ステップS613)では、判定情報をユーザU1から取得するための所定情報(例えば、音声情報)をユーザU1に対して出力する出力処理(例えば、音声出力処理)をエージェント機器200に実行させる。
【0190】
この構成によれば、ユーザU1が親しみ易いエージェント機器200を用いることが可能であるため、ユーザU1及びエージェント機器200間での自然なやりとりによりユーザU1から判定情報を取得することが可能である。
【0191】
本実施形態に係る情報処理方法では、ユーザU1とのコミュニケーションを行うことが可能なエージェント機器を制御するエージェント制御処理(ステップS609、S612、S613、S615、S616)をさらに含み、エージェント制御処理(ステップS609、S612)では、推定処理で操作対象機器が推定されるまでの間、その推定に用いる要素情報を認識していることをユーザU1に対して示す特定動作をエージェント機器200に実行させる。この特定動作として、例えば、エージェント機器200がユーザU1の指先を見続ける動作、エージェント機器200がユーザU1の視線の先を見続ける動作等を実行することが可能である。
【0192】
この構成によれば、エージェント機器200がユーザU1の動作を認識していることを示す動作を実行することにより、エージェント機器200がユーザU1の動作に気付いていることを示すことができる。また、エージェント機器200が自分を気にしているとユーザU1に認識されることによりユーザU1及びエージェント機器200の良好な関係構築が可能となる。
【0193】
本実施形態に係る情報処理方法では、エージェント機器200は、顔部を備える機器であり、エージェント制御処理(ステップS609、S612)では、推定処理での操作対象機器の推定に用いる要素情報(例えば、視線、指先)をエージェント機器200の眼部201(眼の一例)が見つめる動きを特定動作として実行させる。
【0194】
この構成によれば、ユーザU1に気付かれ易いエージェント機器200の眼部201が、ユーザU1の各部(例えば、視線、指先)を見つめる動きを実行することにより、エージェント機器200がユーザU1の動作に気付いていることを容易に示すことができる。
【0195】
本実施形態に係る情報処理方法において、エージェント制御処理(ステップS609、S612)では、推定処理での操作対象機器の推定に複数の要素情報が用いられる場合には、予め設定されている優先度に基づいて、複数の要素情報のうちの少なくとも1つの要素情報を、特定動作を実行する対象として選択する。例えば、指先の優先度を視線よりも高く設定しておき、ユーザU1の視線及び指先の双方を要素として用いる場合には、エージェント機器200の眼部201がユーザU1の指先を見続けるようにすることが可能である。
【0196】
この構成によれば、特定動作を実行する対象を予め設定しておくことにより、ユーザU1に気付かれ易い特定動作を実現可能となる。
【0197】
本実施形態に係る情報処理方法では、ユーザU1とのインタラクションを行うことが可能なエージェント機器を制御するエージェント制御処理(ステップS613、S615、S616)と、推定処理で推定された操作対象機器が、ユーザU1が操作を所望する機器であったか否かを判定するための判定情報(例えば、音声情報)をユーザU1から取得する取得処理(ステップS613)とをさらに含み、エージェント制御処理(ステップS616)では、その判定情報に基づいて推定処理での推定結果が誤っていることが判定された場合には、エージェント機器200の態様を、ユーザU1に対する謝罪を示す態様に遷移させる。
【0198】
この構成によれば、ユーザU1に対して理解しようとする演出を実行することができ、間違いに対する受容性を高めることが可能となる。
【0199】
情報処理装置110は、ユーザU1が操作可能な第1操作機器300、第2操作機器400、第N操作機器500(複数の機器の一例)に関するユーザ操作を支援する情報処理装置である。情報処理装置110は、第1操作機器300、第2操作機器400、第N操作機器500の何れにもユーザU1が触れていない状態で、ユーザU1の生体情報と、ユーザU1の発話と、ユーザU1の動作と、のそれぞれの要素情報のうちの少なくとも1つに基づいて、ユーザU1が操作を所望する機器(操作対象機器)を推定する推定部123と、推定部123により推定された操作対象機器に関する操作支援を開始するエージェント制御部125、操作機器制御部126(制御部の一例)と、推定部123により推定された推定結果(例えば、推定された操作機器、推定の正答率)を、ユーザU1の第1操作機器300、第2操作機器400、第N操作機器500のそれぞれに対する習熟度合を示す関係情報を機器毎に格納する関係情報DB150(データベースの一例)に反映させるDB制御部124(反映部の一例)とを備える。推定部123は、要素情報のうちの少なくとも1つに基づいて操作対象機器の候補となる一の機器を選択し、その一の機器に関する関係情報DB150における関係値(関係情報の一例)が基準値(基準の一例)よりも高い場合には、その一の機器を操作対象機器として推定する。一方、推定部123は、その一の機器に関する関係情報DB150における関係値が基準値よりも低い場合には、その一の機器の選択時に用いた要素情報以外の他の要素情報を用いて操作対象機器を推定する。なお、情報処理装置110は、エージェント機器200に内蔵される機器としてもよく、エージェント機器200とは異なる機器としてもよい。また、情報処理装置110の代わりに、情報処理装置110により実現される各処理を実行可能な複数の機器により構成される情報処理システムとしてもよい。
【0200】
この構成によれば、第1操作機器300、第2操作機器400、第N操作機器500とユーザU1との関係性の深さに応じた自然な流れで、各操作機器の使用感、使い方を徐々に変更することが可能となる。これにより、ユーザU1と操作対象機器との関係性の深さに応じたより適切な操作支援を実行することが可能となる。
【0201】
なお、本実施形態で示した各処理手順は、本実施形態を実現するための一例を示したものであり、本実施形態を実現可能な範囲で各処理手順の一部の順序を入れ替えてもよく、各処理手順の一部を省略したり他の処理手順を追加したりしてもよい。
【0202】
なお、本実施形態で示した各処理は、各処理手順をコンピュータに実行させるためのプログラムに基づいて実行されるものである。このため、本実施形態は、それらの各処理を実行する機能を実現するプログラム、そのプログラムを記憶する記録媒体の実施形態としても把握することができる。例えば、情報処理装置に新機能を追加するためのアップデート処理により、そのプログラムを情報処理装置の記憶装置に記憶させることができる。これにより、そのアップデートされた情報処理装置に本実施形態で示した各処理を実施させることが可能となる。
【0203】
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。
【符号の説明】
【0204】
100 情報処理システム、110 情報処理装置、120 制御部、121 情報取得部、122 要素検出部、123 推定部、124 DB制御部、125 エージェント制御部、126 操作機器制御部、130 記憶部、131 エージェント情報DB、140 通信部、150 関係情報DB、200 エージェント機器、210 表示部、220 音出力部、230 駆動部、300 第1操作機器、400 第2操作機器、500 第N操作機器
図1
図2
図3
図4
図5
図6
図7
図8
図9