IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日産自動車株式会社の特許一覧 ▶ ルノー エス.ア.エス.の特許一覧

特開2023-167327エージェント機器の制御方法及び制御装置
<>
  • 特開-エージェント機器の制御方法及び制御装置 図1
  • 特開-エージェント機器の制御方法及び制御装置 図2
  • 特開-エージェント機器の制御方法及び制御装置 図3
  • 特開-エージェント機器の制御方法及び制御装置 図4
  • 特開-エージェント機器の制御方法及び制御装置 図5
  • 特開-エージェント機器の制御方法及び制御装置 図6
  • 特開-エージェント機器の制御方法及び制御装置 図7
  • 特開-エージェント機器の制御方法及び制御装置 図8
  • 特開-エージェント機器の制御方法及び制御装置 図9
  • 特開-エージェント機器の制御方法及び制御装置 図10
  • 特開-エージェント機器の制御方法及び制御装置 図11
  • 特開-エージェント機器の制御方法及び制御装置 図12
  • 特開-エージェント機器の制御方法及び制御装置 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023167327
(43)【公開日】2023-11-24
(54)【発明の名称】エージェント機器の制御方法及び制御装置
(51)【国際特許分類】
   G01C 21/36 20060101AFI20231116BHJP
   G08G 1/0962 20060101ALI20231116BHJP
   A63H 11/00 20060101ALI20231116BHJP
【FI】
G01C21/36
G08G1/0962
A63H11/00 Z
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2022078421
(22)【出願日】2022-05-11
(71)【出願人】
【識別番号】000003997
【氏名又は名称】日産自動車株式会社
(71)【出願人】
【識別番号】507308902
【氏名又は名称】ルノー エス.ア.エス.
【氏名又は名称原語表記】RENAULT S.A.S.
【住所又は居所原語表記】122-122 bis, avenue du General Leclerc, 92100 Boulogne-Billancourt, France
(74)【代理人】
【識別番号】110002468
【氏名又は名称】弁理士法人後藤特許事務所
(72)【発明者】
【氏名】茂田 美友紀
(72)【発明者】
【氏名】柳 拓良
(72)【発明者】
【氏名】高松 敦
【テーマコード(参考)】
2C150
2F129
5H181
【Fターム(参考)】
2C150AA05
2C150CA02
2C150ED42
2F129AA03
2F129AA07
2F129BB01
2F129BB20
2F129BB26
2F129DD38
2F129EE43
2F129EE80
2F129EE92
2F129FF12
2F129FF15
2F129GG17
2F129GG25
2F129HH12
5H181AA01
5H181AA12
5H181BB04
5H181BB05
5H181CC04
5H181CC11
5H181FF03
5H181FF25
5H181FF33
5H181LL07
5H181LL15
5H181LL18
(57)【要約】
【課題】エージェント機器を用いて運転支援を実行する場合に、その運転支援を乗員が適切に受け入れ、その運転支援の実効性を高める。
【解決手段】車両C1の乗員の運転を支援するエージェント機器200の制御装置100である。制御装置100は、車両C1の内部又は外部に存在する物体の動作態様を検出する検出部101と、物体の動作態様が検出された場合には、運転の支援とは異なる態様で、物体の動作態様に関連する関連動作をエージェント機器200に実行させる制御部103とを備える。
【選択図】図4
【特許請求の範囲】
【請求項1】
車両の乗員の運転を支援するエージェント機器の制御方法であって、
前記車両の内部又は外部に存在する物体の動作態様を検出する検出処理と、
前記物体の動作態様が検出された場合には、前記運転の支援とは異なる態様で、前記物体の動作態様に関連する関連動作を前記エージェント機器に実行させる制御処理と、を含む、
制御方法。
【請求項2】
請求項1に記載の制御方法であって、
前記検出処理では、前記車両の内部又は外部を撮像した撮像画像に基づいて、前記車両の内部又は外部に存在する物体のうちから、前記エージェント機器の外観のうちの少なくとも一部に類似する形状である類似形状を抽出し、当該抽出された類似形状の動きを前記物体の動作態様として検出し、
前記制御処理では、前記類似形状の動きを真似する真似動作を、前記関連動作として前記エージェント機器に実行させる、
制御方法。
【請求項3】
請求項2に記載の制御方法であって、
前記検出処理では、複数の前記類似形状が抽出された場合には、当該抽出された複数の前記類似形状のうちから予め設定されている優先度に基づいて1の類似形状を選択し、
前記制御処理では、選択された前記類似形状の動きを真似する前記真似動作を前記エージェント機器に実行させる、
制御方法。
【請求項4】
請求項2又は3に記載の制御方法であって、
前記エージェント機器は、棒状体の可動部を備え、
前記類似形状は、前記車両に搭載されている棒状部材と、前記車両の外部に存在する棒状部材と、前記車両に乗車している乗員の腕と、のうちの少なくとも1つであり、
前記制御処理では、前記類似形状の動きを前記可動部に真似させる前記真似動作を実行させる、
制御方法。
【請求項5】
請求項1から3の何れかに記載の制御方法であって、
前記制御処理では、前記関連動作を開始してから所定時間が経過すると当該関連動作を終了させる、
制御方法。
【請求項6】
請求項1から3の何れかに記載の制御方法であって、
前記制御処理では、前記関連動作を開始した後に、予め設定された前記エージェント機器に対する前記運転の支援の制御指示を検出すると、当該関連動作を終了させる、
制御方法。
【請求項7】
請求項1から3の何れかに記載の制御方法であって、
前記エージェント機器は、前記車両のダッシュボードに設置され、
前記車両の乗員の視線を検出し、前記車両の乗員が前記エージェント機器を見たか否かを判定する判定処理を含み、
前記制御処理では、前記関連動作を開始した後に、前記車両の乗員が前記エージェント機器を見たことが検出された場合には、当該関連動作を終了させる、
制御方法。
【請求項8】
請求項1から3の何れかに記載の制御方法であって、
前記エージェント機器は、顔部を備え、前記車両のダッシュボードに設置され、
前記車両の乗員の視線を検出し、前記車両の乗員が前記エージェント機器を見たか否かを判定する判定処理を含み、
前記制御処理では、前記関連動作を開始した後に、前記車両の乗員が前記エージェント機器を見たことが検出された場合には、当該関連動作を終了して前記顔部において恥ずかしさを表現する動作を前記エージェント機器に実行させる、
制御方法。
【請求項9】
請求項1から3の何れかに記載の制御方法であって、
前記エージェント機器は、前記車両のダッシュボードに設置され、
前記車両の乗員の視線を検出し、前記車両の乗員が前記エージェント機器を見ているか否かを判定する判定処理を含み、
前記制御処理では、前記関連動作を開始した後に、前記車両の乗員が前記エージェント機器を見たことが検出された場合には、次回の前記関連動作を予め設定されている制御量よりも大きい制御量とする、
制御方法。
【請求項10】
請求項1から3の何れかに記載の制御方法であって、
前記制御処理では、前記エージェント機器により実行されている前記運転の支援の演算量の負荷が基準よりも低い場合に、前記関連動作を前記エージェント機器に実行させる、
制御方法。
【請求項11】
請求項1から3の何れかに記載の制御方法であって、
前記車両の運転者の運転状況に基づいて、前記車両の運転者の負荷を検出する負荷検出処理をさらに含み、
前記制御処理では、前記車両の運転者の負荷が、予め設定されている基準よりも低い場合に、前記関連動作を前記エージェント機器に実行させる、
制御方法。
【請求項12】
車両の乗員の運転を支援するエージェント機器の制御装置であって、
前記車両の内部又は外部に存在する物体の動作態様を検出する検出部と、
前記物体の動作態様が検出された場合には、前記運転の支援とは異なる態様で、前記物体の動作態様に関連する関連動作を前記エージェント機器に実行させる制御部と、を備える、
制御装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両の乗員の運転を支援するエージェント機器の制御方法及び制御装置に関する。
【背景技術】
【0002】
従来、人間による実作業をロボットに真似させる技術が存在する。例えば、人間が実作業を行うワークとロボットが作業を行うワークとが異なる場合でも、人間の実作業に基づいてロボットの動作を簡易に教示する技術が提案されている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2019-188477号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述した従来技術では、ユーザの指示に応じてロボットにユーザの動作の真似をさせることは可能である。しかし、ユーザの指示に応じて真似するロボットに対しては、自律性及び主体性が感じられず、そのユーザの信頼を高められないことも想定される。また、ユーザの指示に応じて真似するロボットに対しては、ユーザが愛着を持たないことも想定される。
【0005】
ここで、エージェント機器を用いて車両の乗員の運転を支援する場合を想定する。この場合に、エージェント機器に対して信頼性が低かったり、愛着がなかったりする場合には、そのエージェント機器を用いて運転支援を実行してもその運転支援をその乗員が受け入れないことも想定される。そこで、エージェント機器を用いて運転支援を実行する場合に、その運転支援を乗員が適切に受け入れ、その運転支援の実効性を高めることが重要である。
【0006】
本発明は、エージェント機器を用いて運転支援を実行する場合に、その運転支援を乗員が適切に受け入れ、その運転支援の実効性を高めることを目的とする。
【課題を解決するための手段】
【0007】
本発明の一態様は、車両の乗員の運転を支援するエージェント機器の制御方法である。この制御方法は、車両の内部又は外部に存在する物体の動作態様を検出する検出処理と、物体の動作態様が検出された場合には、運転の支援とは異なる態様で、物体の動作態様に関連する関連動作をエージェント機器に実行させる制御処理とを含む。
【発明の効果】
【0008】
本発明によれば、エージェント機器を用いて運転支援を実行する場合に、その運転支援を乗員が適切に受け入れ、その運転支援の実効性を高めることができる。
【図面の簡単な説明】
【0009】
図1図1は、車両の車室内の構成例を簡略化して示す図である。
図2図2は、車両の車室内の構成例を簡略化して示す図である。
図3図3は、エージェント機器の外観構成の一例を簡略化して示す斜視図である。
図4図4は、車両に設置されている情報処理システムのシステム構成の一例を示す図である。
図5図5は、ワイパーの動きに応じて可動部を動作させる場合の例を示す図である。
図6図6は、車両の前方に存在するETC又は駐車場のゲートのバーの開閉に応じて第1可動部、第2可動部を動作させる場合の例を示す図である。
図7図7は、車両の周囲に存在する人による誘導行動の動きに応じて可動部を動作させる場合の例を示す図である。
図8図8は、前照ライトの点灯状態に応じてエージェント機器の眼部を点灯させる場合の例を示す図である。
図9図9は、方向指示器の点滅状態に応じてエージェント機器の眼部を点滅させる場合の例を示す図である。
図10図10は、車両に設置されているサンルーフの開閉に応じて本体部の頭部に帽子をかぶせる場合の例を示す図である。
図11図11は、直線及び曲線を含む道路を走行する車両の状態に応じて本体部を動作させる場合の例を示す図である。
図12図12は、制御装置における機器制御処理の一例を示すフローチャートである。
図13図13は、制御装置における機器制御処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0010】
以下、添付図面を参照しながら本発明の実施形態について説明する。
【0011】
[エージェント機器の設置例]
図1及び図2は、車両C1の車室内の構成例を簡略化して示す図である。なお、図1では、車両C1の左右方向の右側から見た場合の車両C1の車室内を簡略化して示し、図2では、車両C1の前後方向の後側から見た場合の車両C1の車室内を簡略化して示す。また、図1及び図2では、説明を容易にするため、ワイパーW1、W2、ダッシュボード2、ハンドル3、ウインドシールド4、エージェント機器200以外の図示は省略する。
【0012】
エージェント機器200は、車両C1のダッシュボード2上に設置される小型のロボットである。図1及び図2では、ウサギのような動物を模したロボットをエージェント機器200とする例を示す。なお、図1及び図2では、ダッシュボード2上にエージェント機器200を設置する例を示すが、これに限定されない。例えば、ウインドシールド4の上部にエージェント機器200を設置してもよい。また、図1及び図2では、ウサギのような動物を模したロボットをエージェント機器200とする例を示すが、これに限定されない。例えば、他の動物を模したロボット、仮想物の生物(例えばアニメのキャラクターの顔)を模したロボット、他の物体(例えばテレビ型の機器、ラジオ型の機器)を模したロボットをエージェント機器200としてもよい。また、表示部等のユーザインタフェースを備える他の機器(例えばスマートフォン、タブレット端末、カーナビゲーション装置、IVI(In-Vehicle Infotainment))をエージェント機器200として用いてもよい。この場合には、上述したロボットを表示部に表示させ、そのロボットの表示態様を変化させることによりロボットの動作態様を変化させることが可能である。
【0013】
エージェント機器200は、制御装置100(図4参照)からの指示に基づいて各種の動作を実行する。例えば、エージェント機器200は、制御装置100の制御に基づいて、ドライバD1が運転操作をする際における運転支援に関する各種情報を出力する。この運転支援として、道案内、ドライバD1の嗜好にあった立ち寄り地点の提案、注意すべき道路情報の報知等が想定される。例えば、立ち寄り地点の提案では「この先に美味しいプリン店がありますよ」と音声出力することができる。また、注意すべき道路情報の報知として、ドライバD1が周りを見ているかを確認したり、「前の道は狭いから気を付けてよ」と音声出力したり、「この先踏切だから気を付けてよ」と音声出力したりすることができる。このように、エージェント機器200は、運転体験の支援及びドライブ体験の支援を実行する。
【0014】
また、例えば、エージェント機器200の動作態様を変化させることにより、エージェント機器200の見た目に変化を加え、その変化を視覚的に把握させ、運転支援に関する情報を出力する。具体的には、エージェント機器200からの音声出力や、エージェント機器200の顔部の表情、顔部の色、顔部の動作の変化により、運転支援に関する情報を出力することができる。また、例えば、エージェント機器200の表面における各部(例えば眼部、口部)を変化させることにより、顔の表情を変化させることができる。これにより、例えば、ドライバD1が適切な運転操作をした場合には、エージェント機器200がドライバD1を褒める動作や褒める音声を出力することにより、ドライバD1がさらに良い運転操作をしようと心がけるようになり、車両C1の安全性の向上につながる。また、エージェント機器200により褒められたドライバD1は、平常心で落ち着いて、安心して運転操作を継続することができる。
【0015】
また、例えば、エージェント機器200は、制御装置100の制御に基づいて、音取得部140(図4参照)により取得された車外の音を、運転中のドライバD1に知らせる動作を実行する。運転中のドライバD1に知らせる車外の音として、例えば、警音器(クラクション)、緊急車両のサイレンや警告音、警察官による指示等が想定される。エージェント機器200は、これらの音が音取得部140により取得された場合には、これらの音を運転中のドライバD1に通知するように動作を実行する。例えば、エージェント機器200は、それらの音と同じ音を出力する動作や、この出力とともに緊急である旨の動作(例えば、びっくりした表情で大声で話す動作)を行うことができる。このように、ドライバD1が見え易い位置にエージェント機器200が設置され、エージェント機器200の顔部がドライバD1に向けられることで、ドライバD1が運転操作をする際に、適切な運転支援を行うことが可能となる。
【0016】
ここで、ドライバD1が、エージェント機器200に対して信頼性が低いと感じたり、愛着が持てないと感じたりする場合には、エージェント機器200を用いて運転支援を実行してもその運転支援をドライバD1が受け入れないことも想定される。この場合には、エージェント機器200による運転支援の実効性を高めることが困難となるおそれがある。そこで、本実施形態では、ドライバD1が、エージェント機器200に対する信頼性を高くし、愛着が持てるようにするため、車両C1の内部又は外部に存在する物体の動作態様に関連する関連動作、例えば真似動作をエージェント機器200に実行させるようにする。これにより、エージェント機器200を用いた運転支援をドライバD1が適切に受け入れ、その運転支援の実効性を高められるようにする。
【0017】
ここで、関連動作は、車両C1の内部又は外部の何らかの刺激に対して、その刺激に関連する動きを意味する。すなわち、関連動作は、その刺激に関連する違和感のない、適切な動きを意味する。例えば、車両C1の内部又は外部の物体の動作態様に対して、その動作態様をエージェント機器200が真似することにより、同じ動作態様を共有しているという感情を車両C1の乗員に与えることができる。また、エージェント機器200がその場に存在して状況を理解していることを車両C1の乗員に示すことができる。また、エージェント機器200が無意識に真似動作をすることにより、エージェント機器200に愛着がわくことも考えられる。
【0018】
[エージェント機器の外観構成例]
図3は、エージェント機器200の外観構成の一例を簡略化して示す斜視図である。
【0019】
図3(A)には、エージェント機器200の斜視図を示す。図3(B)には、エージェント機器200の正面図を示す。なお、図3(B)に示すエージェント機器200は、図2に示すエージェント機器200に対応する。図3(C)には、エージェント機器200の上面図を示す。図3(D)には、エージェント機器200の側面図を示す。なお、図3(D)に示すエージェント機器200は、図1に示すエージェント機器200に対応する。また、本実施形態では、図3(A)乃至(D)に示すエージェント機器200の状態を通常状態と称して説明する。また、図3(E)乃至(J)には、エージェント機器200の動作態様を変化させた場合の外観構成例を示す。
【0020】
エージェント機器200は、略球状の本体部201に棒状体の第1可動部202、第2可動部203が設けられている機器である。また、本体部201の表面には、各種画像、例えば眼部E1、E2が表示される。本実施形態では、車両C1のダッシュボード2上に、眼部E1、E2が車内側を見る方向にエージェント機器200が設置される例を示す。このため、エージェント機器200における眼部E1、E2が表示される部分を含む一の面を前部又は顔部と称して説明する。また、エージェント機器200の前部をエージェント機器200の前側と称し、エージェント機器200の前部とは反対側をエージェント機器200の後側と称して説明する。また、エージェント機器200において、第1可動部202が設けられている側をエージェント機器200の右側と称し、第2可動部203が設けられている側をエージェント機器200の左側と称して説明する。
【0021】
本体部201は、車両C1のダッシュボード2への取付部分又はこれに近接する部分を回動中心として、エージェント機器200の前後方向、すなわち矢印A1(図3(A)(D)参照)方向に回動する。同様に、本体部201は、車両C1のダッシュボード2への取付部分を回動中心として、エージェント機器200の左右方向、すなわち矢印A4(図3(B)参照)方向に回動する。例えば、図3(E)に示すように、エージェント機器200の右方向、すなわち矢印A10方向に本体部201を回動させることができる。また、例えば、図3(F)に示すように、エージェント機器200の左方向、すなわち矢印A11方向に本体部201を回動させることができる。同様に、本体部201は、車両C1のダッシュボード2への取付部分を回動中心として、硬直方向を軸として回転する方向、すなわち矢印A7(図3(C)参照)方向に回動する。このように、エージェント機器200の下部には、本体部201を駆動させるための駆動装置(図4に示す駆動部270に相当)が設けられる。そして、エージェント機器200の本体部201を左右方向に回転移動させたり、本体部201を前後方向に回転移動させたり、本体部201を左右方向に揺らせたり、本体部201を前後方向に揺らせたりすることが可能となる。
【0022】
第1可動部202は、本体部201における第1可動部202の取付部分を回動中心として、エージェント機器200の前後方向、すなわち矢印A2、A3(図3(A)(D)参照)方向に回動する。また、第1可動部202は、本体部201における第1可動部202の取付部分を回動中心として、エージェント機器200の左右方向、すなわち矢印A5(図3(B)参照)方向に回動する。また、第1可動部202は、本体部201における第1可動部202の取付部分を回動中心として、硬直方向を軸として回転する方向、すなわち矢印A8(図3(C)参照)方向に回動する。
【0023】
同様に、第2可動部203は、本体部201における第2可動部203の取付部分を回動中心として、エージェント機器200の前後方向、すなわち矢印A3(図3(A)(D)参照)方向に回動する。また、第2可動部203は、本体部201における第2可動部203の取付部分を回動中心として、エージェント機器200の左右方向、すなわち矢印A6(図3(B)参照)方向に回動する。また、第2可動部203は、本体部201における第2可動部203の取付部分を回動中心として、硬直方向を軸として回転する方向、すなわち矢印A9(図3(C)参照)方向に回動する。
【0024】
このように、第1可動部202、第2可動部203は、動物の耳又は手、例えばウサギの耳のように、上下左右の何れにも回動可能であるものとする。これにより、動物、例えばウサギが、耳又は手を振っているような動作をエージェント機器200で実現することが可能となる。
【0025】
このように、第1可動部202の取付部分には、第1可動部202を駆動させるための駆動装置(図4に示す駆動部270に相当)が設けられる。そして、第1可動部202を左右方向に回転移動させたり、第1可動部202を前後方向に回転移動させたり、第1可動部202を左右方向に揺らせたり、第1可動部202を前後方向に揺らせたりすることが可能となる。また、第2可動部203についても同様に可動することが可能となる。
【0026】
また、本体部201の表面の少なくとも一部には、各種画像を表示することが可能な表示媒体が設置されている。この表示媒体として、例えば、発光シート、液晶表示器、有機EL(Electro Luminescence)等の各種表示媒体を使用可能である。例えば、図3(A)乃至(F)、(J)に示すように、通常の眼部E1、E2を表示させることができる。また、例えば、図3(G)に示すように、通常の眼の上側に眉毛を追加した眼部B3、B4を表示させることができる。また、例えば、図3(G)に示すように、顔の眼の下の頬に相当する部分CK1、CK2に、所定色、例えば赤色の丸部を表示させることができる。これによりエージェント機器200が恥ずかしい顔(例えば赤面)をしているような表示態様とすることが可能である。なお、第1可動部202又は第2可動部203により眼に相当する部分を隠すような動作を、エージェント機器200が恥ずかしい顔をしているような動作態様としてもよい。このように、本実施形態では、エージェント機器200の各部のうちの少なくとも一部を変化させる動作態様と、エージェント機器200の表面のうちの少なくとも一部の表示状態を変化させる表示態様とによりエージェント機器200を変化させることが可能である。また、その変化を見た車両C1の乗員は、エージェント機器200が何らかの動きをしていると認識可能となる。このため、本実施形態では、これらのエージェント機器200の変化をエージェント機器200の動作態様と称して説明する。
【0027】
また、例えば、図3(H)に示すように、笑顔の眼のように見える眼及び眉毛を含む眼部E5、E6を表示させることができる。また、例えば、図3(H)に示すように、顔の口に相当する部分に、笑顔の口のような口部M1を表示させることができる。これによりエージェント機器200が笑っている顔をしているような動作態様とすることが可能である。
【0028】
また、例えば、図3(I)に示すように、泣き顔の眼のように見える眼、眉毛及び涙を含む眼部E7、E8を表示させることができる。また、例えば、図3(I)に示すように、顔の口に相当する部分に、泣き顔の口のような口部M2を表示させることができる。これによりエージェント機器200が泣いている顔をしているような動作態様とすることが可能である。
【0029】
また、例えば、図3(J)に示すように、帽子をかぶったように見えるように、顔の頭に相当する部分(頭部H1)の色を変化させることができる。これによりエージェント機器200が帽子をかぶったような動作態様とすることが可能である。
【0030】
なお、これらのエージェント機器200の動作態様は、一例であり、他の動作態様とすることも可能である。例えば、ダッシュボード2上の所定範囲内において、エージェント機器200をスライド移動させることも可能である。例えば、エージェント機器200を前後左右方向にスライド移動させることも可能である。また、例えば、エージェント機器200を一時的に浮かせるような演出も可能である。
【0031】
[情報処理システムの構成例]
図4は、車両C1に設置されている情報処理システム10のシステム構成の一例を示す図である。
【0032】
情報処理システム10は、制御装置100と、車両情報取得部110と、センサ類120と、画像取得部130と、音取得部140と、エージェント機器200とを備える。また、制御装置100は、無線通信を利用した通信方式によってネットワーク20に接続されている。ネットワーク20は、公衆回線網、インターネット等のネットワークである。なお、エージェント機器200についても、無線通信を利用した通信方式によってネットワーク20に接続してもよい。なお、制御装置100及びエージェント機器200は、有線通信又は無線通信を利用した通信方式によって接続される。そして、制御装置100は、エージェント機器200を制御する。
【0033】
車両情報取得部110は、車両C1において取得された車両情報を取得するものであり、取得された車両情報を制御装置100に出力する。この車両情報は、例えば、CAN通信に基づいて取得可能な情報であり、車両C1の位置情報、車速、各部材の可動指示信号等が含まれる。
【0034】
センサ類120は、車両C1に設置されている各種のセンサである。また、センサ類120は、各センサにより取得された検出情報等を制御装置100に出力する。センサ類は、例えば、加速度センサ、車速センサ、着座センサ、風速センサ、位置情報取得センサ等である。
【0035】
画像取得部130は、車両C1の内部又は外部の少なくとも一方に設けられ、制御装置100の制御に基づいて、車両C1の内部及び外部の被写体を撮像して画像(画像データ)を生成するものであり、生成された画像に関する画像情報を制御装置100に出力する。なお、画像取得部130は、例えば、被写体を撮像することが可能な1または複数のカメラ機器や画像センサにより構成される。例えば、車両1の全方位に存在する被写体と、車両1の内部の被写体とを取得可能な1または複数の機器、例えば、360度カメラを用いてもよい。
【0036】
音取得部140は、車両C1の内部または外部に設けられ、制御装置100の制御に基づいて、車両C1の周囲の音(車外の音)及び車内の音を取得するものであり、取得された音に関する音情報を制御装置100に出力する。音取得部140として、例えば、1または複数のマイクや音取得センサを用いることができる。
【0037】
制御装置100は、検出部101と、関連動作決定部102と、制御部103と、記憶部104と、通信部105とを備える。
【0038】
検出部101は、車両情報取得部110、センサ類120、画像取得部130及び音取得部140から出力された情報、又は、ネットワーク20を介して取得された情報に基づいて、車両C1の内部又は外部に存在する物体の動作態様を検出するものである。そして、検出部101は、その検出結果を関連動作決定部102及び制御部103に出力する。なお、検出部101は、例えば、CPU(Central Processing Unit)等の処理装置により実現される。
【0039】
例えば、検出部101は、エージェント機器200の外観の少なくとも一部に類似する形状である類似形状を抽出する類似形状抽出処理と、その類似形状の動作態様を検出する動作態様検出処理とを実行する。
【0040】
類似形状抽出処理では、例えば、画像取得部130により取得された画像と、記憶部104に記憶されている関連動作情報DB150とに基づいて、類似形状を抽出することができる。なお、関連動作情報DB150は、車両C1の内部又は外部に存在する物体の動作態様を検出する際に用いられる情報であり、例えば、類似形状に関する情報と、類似形状の動作態様と、関連動作とが関連付けられたデータベースである。例えば、図6に示すETC(Electronic Toll Collection System)レーンのゲートG1に設置されているバーB1を類似形状とする場合には、類似形状に関する情報としてバーB1を抽出するための情報と、類似形状の動作態様としてバーB1が開閉する動作と、関連動作として第1可動部202又は第2可動部203を回動させるための指示情報とが関連付けて関連動作情報DB150に格納される。なお、類似形状に関する情報として、車内及び車外の類似形状の物体のリスト(部品リスト)を保持してもよい。
【0041】
また、類似形状抽出処理では、画像取得部130により取得された画像に含まれる物体を抽出し、その抽出された物体のうち、関連動作情報DB150に含まれる形状又はこれに類似する形状を有する物体を抽出する。なお、物体の抽出処理、同一又は類似形状の物体の抽出処理については、公知の画像認識技術を用いることができる。また、類似形状は、例えば、第1可動部202、第2可動部203に類似する棒状部材の形状とすることができる。棒状部材は、例えば、図2に示すワイパーW1、W2、図6に示すバーB1、図7に示す誘導者U1の腕等とすることができる。
【0042】
次に、動作態様検出処理では、例えば、画像取得部130により取得された画像について、類似形状抽出処理で抽出された類似形状の遷移を比較し、この比較結果に基づいて、類似形状の動作態様を検出することができる。なお、動作態様の検出処理については、公知の動体検出技術を用いることができる。
【0043】
なお、画像に含まれる類似形状の動作態様については、人工知能(AI:Artificial Intelligence)を利用して検出してもよい。例えば、物体の類似形状と、その動作態様とを予め学習しておき、この学習データを検出に用いるようにする。そして、画像取得部130により取得された画像について、その学習データを用いて、その画像に含まれる類似形状を有する物体と、その動作態様とを検出することができる。
【0044】
以上では、画像取得部130により取得された画像に基づいて類似形状の動作態様を検出する例を示したが、他の情報に基づいて類似形状の動作態様を検出してもよい。例えば、音取得部140により取得された音に基づいて、類似形状の動作態様を検出することができる。例えば、特定音を発し、特定の動作を行う棒状部材については、その特定音を音取得部140により取得された音に基づいて取得可能である。また、その特定音が取得可能されたことを条件に、その棒状部材の特定の動作を抽出可能である。
【0045】
以上では、類似形状抽出処理及び動作態様検出処理により類似形状の動作態様を検出する例を示したが、他の方法により、車両C1の内部又は外部に存在する物体の動作態様を検出してもよい。この検出方法については、図5乃至図13を参照して適宜説明する。また、上述した類似形状の動作態様の検出と同様に、車両C1の内部又は外部に存在する物体の動作態様については、人工知能を利用して検出してもよい。
【0046】
関連動作決定部102は、関連動作情報DB150に基づいて、検出部101により検出された物体の動作態様に関連する関連動作を決定するものであり、決定された関連動作を制御部103に出力する。すなわち、関連動作決定部102は、物体の動作態様に関連する関連動作、例えば真似動作を演算する動作演算部として機能する。なお、関連動作決定部102は、例えば、CPU等の処理装置により実現される。また、関連動作決定部102による関連動作の決定処理については、図5乃至図13を参照して詳細に説明する。
【0047】
制御部103は、記憶部104に記憶されている各種プログラムに基づいて各部を制御するものである。制御部103は、例えば、CPU等の処理装置により実現される。なお、車両C1の車両ECU(Electronic Control Unit)を制御部103としても使用してもよく、車両ECUとは異なる処理装置を制御部103として設けてもよい。
【0048】
例えば、制御部103は、関連動作決定部102により決定された関連動作をエージェント機器200に実行させる。すなわち、制御部103は、エージェント機器200に関連動作を反映させる動作反映部として機能する。なお、制御部103による関連動作の制御処理については、図5乃至図13を参照して詳細に説明する。
【0049】
記憶部104は、各種情報を記憶する記憶媒体である。例えば、記憶部104には制御部103が各種処理を行うために必要となる各種情報(例えば、制御プログラム、地図情報、関連動作情報DB150)が記憶される。また、記憶部104には、通信部105を介して取得された各種情報が記憶される。記憶部104として、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、または、これらの組み合わせを用いることができる。なお、記憶部104は、制御装置100における各部と接続され、各情報のやりとりが行われる。
【0050】
通信部105は、制御部103の制御に基づいて、無線通信を利用して、他の機器との間で各種情報のやりとりを行うものである。
【0051】
エージェント機器200は、音取得部210と、画像取得部220と、制御部230と、記憶部240と、音出力部250と、表示部260と、駆動部270とを備える。
【0052】
音取得部210は、エージェント機器200の内部に設けられ、制御部230の制御に基づいて、エージェント機器200の周囲の音を取得するものであり、取得された音に関する音情報を制御部230に出力する。音取得部210として、例えば、1または複数のマイクや音取得センサを用いることができる。
【0053】
画像取得部220は、エージェント機器200の内部に設けられ、エージェント機器200の外部の被写体を撮像して画像(画像データ)を生成するものであり、生成された画像に関する画像情報を制御部230に出力する。なお、画像取得部220は、例えば、被写体を撮像することが可能な1または複数のカメラ機器や画像センサにより構成される。例えば、ドライバD1又は他の乗員の視線を撮像範囲に含むように、エージェント機器200の眼部の付近に画像取得部220を設置することができる。
【0054】
制御部230は、記憶部240に記憶されている各種プログラムに基づいて各部を制御するものである。制御部230は、例えば、CPU等の処理装置により実現される。
【0055】
記憶部240は、各種情報を記憶する記憶媒体である。例えば、記憶部240には制御部230が各種処理を行うために必要となる各種情報(例えば、制御プログラム)が記憶される。また、記憶部240には、制御装置100から出力された各種情報が記憶される。記憶部240として、例えば、ROM、RAM、HDD、SSD、または、これらの組み合わせを用いることができる。なお、記憶部240は、エージェント機器200における各部と接続され、各情報のやりとりが行われる。
【0056】
音出力部250は、制御部230の制御に基づいて、車両C1の内部に音を出力するものである。音出力部250として、例えば、1または複数のスピーカを用いることができる。
【0057】
表示部260は、制御部230の制御に基づいて、エージェント機器200の周囲に各種画像を表示させるものである。表示部260として、上述した表示媒体、例えば、発光シート、液晶表示器、有機EL等の各種表示媒体を使用可能である。
【0058】
駆動部270は、制御部230の制御に基づいて、エージェント機器200の各部、すなわち、本体部201、第1可動部202、第2可動部203を駆動させるものである。駆動部270として、例えば、アクチュエータ、駆動モータ等の各種駆動装置を使用可能である。
【0059】
[エージェント機器の関連動作例]
本実施形態では、車両C1の外部又は内部に存在する物体の動作態様に応じて、その動作態様に関連する関連動作をエージェント機器200に実行させる例を示す。図5乃至図11では、物体の動作態様と、エージェント機器200に実行させる関連動作との対応関係の一例を示す。
【0060】
[ワイパーの動きに応じて可動部を動作させる例]
図5は、ワイパーW1、W2の動きに応じて第1可動部202を動作させる場合の例を示す図である。なお、図5では、説明を容易にするため、ワイパーW1の動きのみを簡略化して示す。
【0061】
図5(A)には、ワイパーW1が停止している状態を示す。この場合に、ドライバD1がワイパーレバーを操作してワイパーW1をオンするものとする。
【0062】
図5(B)には、ワイパーW1がオンされた後に、ワイパーW1の動きが検出された状態を示す。
【0063】
図5(C)には、ワイパーW1の動きに関連する関連動作をエージェント機器200が実行する状態を示す。図5では、エージェント機器200の関連動作として、ワイパーW1の動きに応じて第1可動部202を動作させる例を示す。具体的には、前後方向、すなわち矢印A2方向に第1可動部202を回動させる。このように、第1可動部202を動作させることにより、ワイパーW1の動きを真似しているようなエージェント機器200の関連動作を見たドライバD1は、エージェント機器200が周囲を確認していることを認識することができる。これにより、エージェント機器200の信頼性を高めることができる。
【0064】
なお、検出部101は、CAN通信でワイパーW1、W2の開始指示信号を検出することが可能である。また、ワイパーW1、W2の往復運動の周期、最大角度及び角速度は、予め設定されている値を車両情報として取得可能である。また、検出部101は、画像取得部130により取得された画像に基づいて、ワイパーW1、W2の往復運動の位相、周期、最大角度及び角速度を取得することが可能である。そこで、その取得された位相と、予め設定されているワイパーW1、W2の周期、最大角度及び角速度とに基づいて、第1可動部202を回動させる動作を決定することができる。例えば、ワイパーW1、W2の往復運動の折り返しと、第1可動部202の回動の折り返しとを合わせるようにする。なお、第1可動部202を回動させる代わりに、第2可動部203又は本体部201を回動させてもよく、これらのうちの少なくとも2つを回動させてもよい。
【0065】
[ETC又は駐車場のゲートのバーの動きに応じて可動部を動作させる例]
図6は、車両C1の前方に存在するETC又は駐車場のゲートG1のバーB1の開閉に応じて第1可動部202を動作させる場合の例を示す図である。
【0066】
図6(A)の左側には、車両C1の前方に存在するゲートG1のバーB1が閉じている状態を簡略化して示す。また、図6(A)の右側には、通常状態のエージェント機器200を示す。このように、車両C1の前方にゲートG1のバーB1が存在する場合には、検出部101は、画像取得部130により取得された画像に基づいて、そのバーB1を類似形状として抽出する。この場合に、検出部101は、地図情報に含まれるETC及び駐車場の位置情報を用いてバーB1を抽出してもよい。例えば、検出部101は、地図情報に含まれるETC及び駐車場の位置情報に基づいて、車両C1がETC及び駐車場の位置又はその付近に存在するか否かを判定する。そして、検出部101は、車両C1がETC及び駐車場の位置又はその付近に存在する場合において、画像取得部130により取得された画像に棒状の物体が含まれるときには、その棒状の物体をバーB1として抽出することができる。これにより類似形状の抽出処理の精度を高めることができる。
【0067】
図6(B)の左側には、車両C1の前方に存在するゲートG1のバーB1が開いた状態を簡略化して示す。このように、矢印A21方向にゲートG1のバーB1が開いた場合には、検出部101は、画像取得部130により取得された画像に基づいて、類似形状として抽出されたバーB1の動きを検出する。このように、バーB1の動きが検出された場合には、関連動作決定部102は、関連動作情報DB150に基づいて、第1可動部202に実行させる動作を決定する。例えば、バーB1が動いた角度に応じて第1可動部202を回動させる角度が決定される。例えば、バーB1が動いた角度と同じ角度だけ、矢印A22方向に第1可動部202を回動させることができる。この場合に、バーB1が動いた周期及び角速度と同じ周期及び角速度で、第1可動部202を回動させることができる。
【0068】
このように、バーB1が開いた場合には、第1可動部202に関連動作をさせることにより、バーB1が上に開けられた瞬間に、バーB1を真似してエージェント機器200が手を挙げたような動作態様とすることができる。これにより、車両C1の前方の変化に関連させて、エージェント機器200に関連動作を実行させることが可能である。
【0069】
[人による誘導行動の動きに応じて可動部を動作させる例]
図7は、車両C1の周囲に存在する人による誘導行動の動きに応じて第2可動部203を動作させる場合の例を示す図である。例えば、車両C1が駐車場又はガソリンスタンド等に存在する場合に、車両C1の周囲に誘導行動をする人が存在する場合が想定される。また、何らかの理由により車両C1の周囲に誘導行動をする警官が存在する場合も想定される。なお、人の誘導行動は、例えば、車両C1を誘導するための手信号である。例えば、駐車場の誘導、ガソリンスタンドの誘導では、人の動作による誘導とともに、オーライオーライ等の音声による誘導が行われることが多い。
【0070】
図7(A)の左側には、車両C1の周囲に存在する誘導者U1を簡略化して示す。また、図7(A)の右側には、通常状態のエージェント機器200を示す。このように、車両C1の周囲に誘導者U1が存在する場合には、検出部101は、画像取得部130により取得された画像に基づいて、その誘導者U1の腕又は手に持っている棒状部材B2を類似形状として抽出する。この場合に、画像取得部130により取得された画像に基づいて人間又は人間の顔を検出し、その検出された人間の手を抽出し、その手について類似形状の抽出処理を実行してもよい。また、音取得部140により取得された音(例えばオーライオーライ)に基づいて、誘導者U1が誘導行動をしていることを検出し、その検出がされた後に、画像を用いた類似形状の抽出処理を実行してもよい。これらにより類似形状の抽出処理の精度を高めることができる。
【0071】
図7(B)の左側には、車両C1の周囲に存在する誘導者U1の手が動いた状態を示す。このように、誘導者U1の手が動いた場合には、検出部101は、画像取得部130により取得された画像に基づいて、類似形状として抽出された誘導者U1の手又は手に持っている棒状部材B2の動きを検出する。このように、誘導者U1の手又は手に持っている棒状部材B2の動きが検出された場合には、関連動作決定部102は、関連動作情報DB150に基づいて第2可動部203に実行させる動作を決定する。例えば、誘導者U1の手が動いた角度と同じ角度だけ、第2可動部203を回動させることができる。この場合に、誘導者U1の手が動いた周期と同じ周期で、第2可動部203を回動させることができる。すなわち、ドライバD1が見えるものと同じ動きをエージェント機器200に実行させることが好ましい。
【0072】
このように、誘導者U1の手が動いた場合には、第2可動部203を動作させることにより、誘導者U1の手が動いた瞬間に、エージェント機器200が手を挙げたような動作態様とすることができる。これにより、車両C1の前方の変化に関連させて、エージェント機器200に関連動作を実行させることが可能である。
【0073】
このように、車両C1の前方において、ドライバD1の眼に見える物体に関連する関連動作をエージェント機器200に実行させる場合には、その物体の動きと同じ方向と、同じタイミングと、同じ周期とでエージェント機器200の各部を動かすことが好ましい。すなわち、ドライバD1から見て、タイミングが特徴的な物体の動きや、動き自体が特徴的な物体の動きを真似することにより、ドライバD1の眼に見える物体について、エージェント機器200が車両C1と同じような動きをしているとドライバD1に認識させることが可能となる。これにより、エージェント機器200に対する信頼性を高めることができ、エージェント機器200に愛着を持ちやすくすることが可能となる。
【0074】
なお、図5乃至図7では、第1可動部202又は第2可動部203に関連動作を実行させる例を示したが、本体部201、第1可動部202又は第2可動部203の何れか1つ又は2以上の各部に、上述した関連動作以外の他の関連動作を実行させてもよい。
【0075】
[前照ライトの点灯状態に応じて眼部を点灯させる例]
図8は、前照ライトHL1及びHL2の点灯状態に応じてエージェント機器200の眼部E1、E2を点灯させる場合の例を示す図である。
【0076】
図8(A)の左側には、車両C1の外観を簡略化して示す。また、図8(A)の右側には、通常状態のエージェント機器200を示す。
【0077】
図8(B)の左側には、前照ライトHL1及びHL2が点灯された状態を示す。検出部101は、例えば、CAN通信で前照ライトHL1及びHL2の点灯状態を検出することが可能である。このように、前照ライトHL1及びHL2の点灯が検出された場合には、関連動作決定部102は、関連動作情報DB150に基づいて、エージェント機器200の眼部E1、E2を明るく発光させる動作を決定する。なお、眼部E1、E2を明るく発光させる動作の代わりに、眼部E1、E2を一回点滅させる動作を実行してもよく、眼部E1、E2の眼を見開く表示演出を実行してもよい。
【0078】
このように、前照ライトHL1及びHL2が点灯された場合には、エージェント機器200の眼部E1、E2を明るく点灯させることにより、前照ライトHL1及びHL2の点灯が開始した瞬間に、その点灯にエージェント機器200が気付いて眼を変化させたような動作態様とすることができる。これにより、前照ライトHL1及びHL2の変化に関連させて、エージェント機器200に関連動作を実行させることが可能である。
【0079】
[方向指示器の点滅状態に応じて眼部を点滅させる例]
図9は、方向指示器DI1及びDI2の点滅状態に応じてエージェント機器200の眼部E1、E2を点滅させる場合の例を示す図である。
【0080】
図9(A)の左側には、車両C1の外観を簡略化して示す。また、図9(A)の右側には、通常状態のエージェント機器200を示す。
【0081】
図9(B)の左側には、方向指示器DI1が点滅している状態を示す。検出部101は、例えば、CAN通信で方向指示器DI1の開始指示信号を検出することが可能である。また、方向指示器DI1の点滅の周期は、予め設定されている値を取得可能である。また、検出部101は、方向指示器DI1に関する音、例えば「カチカチ」を音取得部140から取得し、その音に基づいて、方向指示器DI1に関する音の位相、すなわち方向指示器DI1の点滅の位相を取得することが可能である。そこで、予め設定されている方向指示器DI1の点滅の周期とその位相とに基づいて、関連動作決定部102は、方向指示器DI1の点滅の周期に合わせてエージェント機器200の眼部E1を点滅させる動作を決定する。すなわち、方向指示器DI1の点滅の音のピークと、眼部E1の点滅のピークとを合わせるようにする。なお、眼部E1を点滅させる代わりに、眼部E2を点滅させてもよく、眼部E1及びE2の双方を点滅させてもよい。
【0082】
このように、方向指示器DI1の点滅が開始された場合には、エージェント機器200の眼部E1、E2を点滅させることにより、方向指示器DI1の点滅が開始した瞬間に、その点滅にエージェント機器200が気付いて眼を変化させたような動作態様とすることができる。これにより、方向指示器DI1、DI2の変化に関連させて、エージェント機器200に関連動作を実行させることが可能である。
【0083】
なお、図8図9では、前照ライトHL1及びHL2の点灯状態、方向指示器DI1、DI2の点滅状態に応じてエージェント機器200に関連動作を実行させる例を示した。ただし、これらのライト以外の他のライトの点灯状態等に応じてエージェント機器200に関連動作を実行させてもよい。
【0084】
また、図8図9では、前照ライトHL1及びHL2の点灯状態、方向指示器DI1、DI2の点滅状態に応じて実行される関連動作として、眼部E1、E2を点滅又は発光させる例を示した。ただし、眼部E1、E2の点滅又は発光以外の他の関連動作を実行してもよい。例えば、本体部201、第1可動部202又は第2可動部203を用いた関連動作を実行させてもよい。また、これらの関連動作とともに、眼部E1、E2の点滅又は発光の関連動作を実行させてもよい。例えば、図9に示す例では、方向指示器DI1の点滅の音の周期と、本体部201、第1可動部202又は第2可動部203の回動の周期とを合わせるようにした関連動作を実行することができる。これらにより、エージェント機器200に対する信頼性を高めることができ、エージェント機器200に愛着を持ちやすくすることが可能となる。
【0085】
[サンルーフの開閉に応じて本体部の頭部に帽子をかぶせる例]
図10は、車両C1に設置されているサンルーフSR1の開閉に応じて本体部201の頭部H1に帽子をかぶせる場合の例を示す図である。
【0086】
図10(A)の左側には、天井にサンルーフSR1が設置されている車両C1の外観を示す上面図を示す。また、図10(A)の右側には、通常状態のエージェント機器200を示す。
【0087】
図10(B)の左側には、乗員の操作により天井のサンルーフSR1が開けられた場合を示す。このように、天井のサンルーフSR1が開けられた場合には、検出部101は、CAN通信からサンルーフ開信号を検出する。このように、サンルーフ開信号が検出された場合には、関連動作決定部102は、エージェント機器200の本体部201の上部、すなわち頭部H1の色を変化させる決定をする。この頭部H1の色を変化させる動作態様については、図3(J)に示す例と同様である。
【0088】
このように、サンルーフSR1が開けられた場合には、エージェント機器200の本体部201の頭部H1の色を変化させることにより、エージェント機器200が帽子をかぶったような動作態様とすることができる。これにより、車両C1の上部の変化に関連させて、エージェント機器200に関連動作を実行させることが可能である。
【0089】
なお、この例では、エージェント機器200が帽子をかぶったような動作態様を関連動作とする例を示したが、他の関連動作を実行してもよい。例えば、帽子をかぶる手の動きのような動作態様、例えば、第1可動部202又は第2可動部203を下側から上側に回動させる動作態様としてもよい。また、例えば、眼がまぶしい姿を感じさせる動作態様、眼がまぶしいと感じる動作態様、例えば、手を眼に当てる動きのような動作態様としてもよい。例えば、第1可動部202又は第2可動部203を下側から眼部E1、E2の付近まで回動させる動作を、手を眼に当てる動きのような動作態様とすることが可能である。
【0090】
[カーブで車両の状態に応じて本体部を動作させる例]
図11は、直線及び曲線を含む道路R1を走行する車両C1の状態に応じて本体部201を動作させる場合の例を示す図である。
【0091】
図11(A)の左側には、直線状の道路R1を走行する車両C1を示す。この場合には、図11(A)の右側に示すように、エージェント機器200は通常状態とする。
【0092】
図11(B)の左側には、曲線状の道路R1を走行する車両C1を示す。このように、車両C1が、曲線状の道路R1を走行する場合には、その曲線での車両C1の左右方向の傾き、すなわち外側または内側への傾きを、センサ類、例えば加速度センサで検出することが可能である。そして、加速度センサの検出値が所定値以上となる場合には、その所定値を超えた方向の可動部を動作させる。この場合に、ドライバD1から見た場合のカーブの方向と、動作させる可動部とを同じ方向としてもよく、逆方向の可動部を動作させてもよい。又は、加速度センサの検出値が所定値以上となった方向に、本体部201を回動させる関連動作を実行してもよい。図11では、加速度センサの検出値が所定値以上となった矢印A26方向に、本体部201を回動させる関連動作を実行する例を示す。
【0093】
なお、図11では、車両C1が曲線状の道路R1を走行する場合の例を示したが、車両C1の他の動きに基づいて関連動作を実行してもよい。例えば、車両C1の加減速に基づいて関連動作を実行してもよい。例えば、加速度センサの値が所定値以上となった場合に、その所定値を超えた向き、例えばエージェント機器200の前後左右方向に、エージェント機器200を傾かせたり、揺らしたりする関連動作を実行可能である。
【0094】
なお、図5乃至図11で示す車両C1の外部又は内部に存在する物体の動作態様と、エージェント機器200の関連動作との関係は一例であり、他の関係、すなわち物体の動作態様と関連動作との他の関係を実行してもよい。
【0095】
例えば、車両C1自体に存在する物体の動作態様、又はその動きに基づいて、エージェント機器200の関連動作を実行してもよい。又は、車両C1に後付けされた物体、例えばアクセサリの動作態様、又はその動きに基づいて、エージェント機器200の関連動作を実行してもよい。
【0096】
車両C1自体に存在する物体は、例えば、ATのシフトレバー、MTのマニュアルシフトレバー、ワイパーレバー、方向指示器レバー等の棒状部材、ステアリング等の環状部材、ドア、エアコンの操作部材、シートベルト、等である。
【0097】
例えば、ATのシフトレバー、MTのマニュアルシフトレバー、ワイパーレバー、方向指示器レバー等の棒状部材がドライバD1により操作された場合には、検出部101は、画像取得部130により取得された画像に基づいてその操作を検出可能である。また、検出部101は、CAN通信により各操作及び各制御量等を検出可能である。
【0098】
例えば、ATのシフトレバーの場合には、シフトレバーを動かしたタイミング、その傾きを真似するような関連動作をエージェント機器200に実行させることが好ましい。例えば、ATのシフトレバーが動いた相対角度(変化量)及び角速度を検出し、その検出値と同じ角度及び角速度でエージェント機器200の可動部を回動させるようにする。例えば、ATのシフトレバーがPからDに所定角度だけ動いた場合には、その動いた角度、その動きの角速度に対応してエージェント機器200の可動部を回動させるようにする。このように、ATのシフトレバーの角度、速度を少し真似することにより、エージェント機器200がドライバD1と同じような動きをしているとドライバD1に認識させることが可能となる。また、MTのマニュアルシフトレバーの場合には、その動かし方に特徴があるため、その動かし方を真似するような関連動作をエージェント機器200に実行させることが好ましい。
【0099】
また、それらの棒状部材が操作された場合には、各棒状部材の動きに合わせて、本体部201、第1可動部202又は第2可動部203を回動させることができる。例えば、図5乃至図7に示すように、各棒状部材の動きに合わせて、本体部201、第1可動部202又は第2可動部203を回動させることができる。
【0100】
また、例えば、ステアリング等の環状部材がドライバD1により操作された場合には、画像取得部130により取得された画像、又は、CAN通信に基づいてその操作角度を検出可能である。この場合に、例えば、所定角度、例えば90度よりも大きいステアリング操作が検出された場合には、そのステアリング操作と同じ角度だけエージェント機器200の本体部201、第1可動部202、第2可動部203の何れかを回転させることにより、関連動作を実行することが可能である。例えば、ステアリング操作と同じ角度だけエージェント機器200の本体部201を矢印A7(図3(C)参照)方向に回転させることにより、ステアリング等と同じように丸い形状のエージェント機器200がステアリング操作の回転に合わせて回転するような印象をドライバD1に与えることができる。
【0101】
また、車両C1自体に存在する物体として、ドアの動作態様、又はその動きに基づいて、エージェント機器200の関連動作を実行する場合を想定する。この場合には、ドアの開閉により車両C1の揺れが発生した場合には、その揺れに応じて、エージェント機器200の本体部201、第1可動部202、第2可動部203の何れかを揺れさせることにより、関連動作を実行することが可能である。ドアの開閉については、CAN通信に基づいてドアの開閉信号を取得して検出可能である。
【0102】
これにより、ドアの開閉の衝撃でエージェント機器200が揺れているような印象をドライバD1に与えることができる。この例では、エージェント機器200の何れかの部分を揺れさせる例を示したが、他の関連動作を実行してもよい。例えば、開閉されるドアの方向をエージェント機器200が向くように関連動作を実行してもよい。これにより、ドアの開閉の衝撃に応じた反応のような印象をドライバD1に与えることができる。
【0103】
また、車両C1自体に存在する物体として、パワーウインドウの動作態様、又はその動きに基づいて、エージェント機器200の関連動作を実行する場合を想定する。この場合には、パワーウインドウが開閉動作をしている場合に、その開閉動作に応じて、エージェント機器200の本体部201、第1可動部202、第2可動部203の何れかを回動させることにより、関連動作を実行することが可能である。例えば、過去にウインドウを手動で開閉させる場合に使用された手動レバーをクルクル回転させる操作を連想させる動作、例えば、第1可動部202、第2可動部203の何れかの回転動作を関連動作として実行させてもよい。これにより、エージェント機器200の耳がクルクル回っているような印象をドライバD1に与えることが可能となる。
【0104】
また、車両C1自体に存在する物体として、エアコンの動作態様、又はその動きに基づいて、エージェント機器200の関連動作を実行する場合を想定する。この場合には、エアコンが稼働状態となっている場合に、そのエアコンのファンの音に応じて、エージェント機器200の本体部201、第1可動部202、第2可動部203の何れかを動作させることにより、関連動作を実行することが可能である。例えば、第1可動部202又は第2可動部203の何れかを揺らすことにより、エージェント機器200の耳がパタパタしているような印象をドライバD1に与えることが可能となる。
【0105】
また、車両C1自体に存在する物体として、シートベルトの動作態様、又はその動きに基づいて、エージェント機器200の関連動作を実行する場合を想定する。例えば、車両C1の乗員によりシートベルトを締める行動が行われた場合には、その締める行動に応じて、第1可動部202を右上から左下に動かす動作、又は、第2可動部203を左上から右下に動かす動作を、関連動作として実行することが可能である。この関連動作により、エージェント機器200がシートベルトを締める真似をしているような印象を乗員に与えることができる。なお、車両C1の乗員によりシートベルトを締める行動については、画像取得部130により取得された画像に基づいて検出可能である。なお、エージェント機器200がシートベルトを締めるような関連動作をする代わりに、エージェント機器200がシートベルトをした後に、エージェント機器200の本体部201を左右方向に回動させて、周囲を確認するような動作を実行してもよい。
【0106】
なお、車両C1自体に存在する物体として、上述した各物体以外の他の物体や各部品の動作態様、又はその動きに基づいて、エージェント機器200の関連動作を実行してもよい。
【0107】
車両C1に後付けされた物体として、アクセサリの動作態様、又はその動きに基づいて、エージェント機器200の関連動作を実行する場合を想定する。アクセサリは、例えば、交通安全のお守りである。例えば、お守りが揺れた場合には、その揺れに応じて、エージェント機器200の本体部201、第1可動部202、第2可動部203の何れかを揺れさせることにより、関連動作を実行することが可能である。なお、アクセサリの揺れについては、画像取得部130により取得された画像に基づいて取得可能である。また、その画像に基づいて、アクセサリの揺れが所定値以上となった場合に、その関連動作を実行してもよい。
【0108】
また、車両C1自体に存在する物体として、例えば、ドライバD1、他の乗員を対象としてもよい。この場合には、ドライバD1の運転操作、ドライバD1及び他の乗員の動作又はポーズに基づいて、エージェント機器200の関連動作を実行してもよい。例えば、ドライバD1及び他の乗員の動作又はポーズとして、周囲確認する、腕を組む、くしゃみ、眼をこする、寝る等を対象とすることができる。
【0109】
例えば、ドライバD1が周囲確認をする行動に応じて、エージェント機器200の本体部201を左右方向に回動させ、エージェント機器200が左右を確認するような動作を、関連動作として実行することが可能である。この関連動作により、ドライバD1が周囲確認をする動作を真似して、エージェント機器200が左右を確認するような動作をしているような印象をドライバD1又は他の乗員に与えることが可能である。
【0110】
また、例えば、ドライバD1又は他の乗員が腕を組む行動に応じて、第1可動部202及び第2可動部203を下側から前側に移動させ、両者を近づけるような動作を、関連動作として実行することが可能である。この関連動作により、エージェント機器200が腕を組む真似をしているような印象をドライバD1又は他の乗員に与えることが可能である。
【0111】
また、例えば、ドライバD1又は他の乗員が眼をこする動作に応じて、第1可動部202又は第2可動部203を下側から眼部の付近まで移動させるような動作を、関連動作として実行することが可能である。この関連動作により、エージェント機器200が眼をこする真似をしているような印象をドライバD1又は他の乗員に与えることが可能である。
【0112】
例えば、車両C1の周囲に存在する物体の動作態様又はその動き、車両C1の周囲の環境に基づいて、エージェント機器200の関連動作を実行してもよい。例えば、車両C1の周囲の環境として、強い横風を車両C1が受けている場合に、その横風に関連する関連動作を実行することが可能である。車両C1が受ける横風の強さについては、車両C1の外部に風速センサを設置し、その風速センサにより取得された風速値に基づいて取得可能である。また、通信部105、ネットワーク20を介して接続可能な外部機器から天候情報を取得し、その天候情報に含まれる風速及び風向きを利用してもよい。この場合には、位置情報取得センサにより取得された車両C1の位置情報に基づいて、車両C1が走行している場所における天候情報を取得可能である。
【0113】
例えば、車両C1の進行方向に対する横方向の風速が所定値よりも大きいことが検出された場合には、その横方向と風速の強さとに基づいて、エージェント機器200に関連動作を実行させることが可能である。例えば、横方向の風上の方向にエージェント機器200の本体部201が傾くように、本体部201を回動させることが可能である。この関連動作により、エージェント機器200が横風に対して飛ばされないように、体感を整えて踏ん張る動きをしているような印象をドライバD1又は他の乗員に与えることが可能である。これにより、ドライバD1又は他の乗員と、車両C1と、エージェント機器200とが同じ空間を共有しているような印象をドライバD1又は他の乗員に与えることが可能である。
【0114】
[制御装置の動作例]
図12及び図13は、制御装置100における機器制御処理の一例を示すフローチャートである。また、この機器制御処理は、記憶部104に記憶されているプログラムに基づいて制御装置100により実行される。なお、この機器制御処理では、動作態様が検出された物体が類似形状である場合に関連動作を実行する例を示す。また、この機器制御処理は、制御周期毎に常時実行される。また、この機器制御処理では、図1乃至図11を適宜参照して説明する。
【0115】
ステップS501において、制御部103は、車両C1を運転中のドライバD1の運転負荷(作業負荷)が基準以下であるか否かを判定する。例えば、車両C1が特定場所を走行中である場合、または、その特定場所の手前を車両C1が走行中である場合には、ドライバD1の運転負荷が基準よりも高いと判定される。この特定場所は、例えば、車両C1のドライバD1が特に運転に注意が必要となる道路部分又は場所を意味する。例えば、特定場所は、道路の合流地点、車線変更部分、駐車場、交差点等である。この特定場所については、地図情報に関連付けられている属性情報等に基づいて判定可能である。また、車両C1を運転中のドライバD1が何かを聞いている場合、例えば、音楽、ラジオ等を聞いている場合は、ドライバD1の運転負荷が基準よりも高いと判定される。これらは、車両C1に設置されている音出力部(図示省略)からの出力状態を取得することにより判定可能である。ドライバD1の運転負荷が基準以下である場合には、ステップS502に進む。一方、ドライバD1の運転負荷が基準よりも高い場合には、機器制御処理の動作を終了する。
【0116】
ステップS502において、制御部103は、エージェント機器200の制御処理の負荷(演算負荷)が閾値以下であるか否かを判定する。この閾値は、予め設定されている固定値であり、実験データ等により適宜設定可能である。なお、エージェント機器200に指示されている制御処理の内容が、特定の制御であるか否か、例えば、音楽に合わせて踊る制御か否かを判定してもよい。エージェント機器200の制御処理の負荷が閾値以下である場合には、ステップS503に進む。一方、エージェント機器200の制御処理の負荷が閾値よりも大きい場合には、機器制御処理の動作を終了する。
【0117】
なお、エージェント機器200の演算負荷が高いか低いかを判定してもよい。例えば、エージェント機器200に予め設定されたタスクが指示されている場合には、エージェント機器200の演算負荷が高いと判定し、エージェント機器200に予め設定されたタスクが指示されていない場合には、エージェント機器200の演算負荷が低いと判定する。すなわち、予め決まっている実行の指令値(指示)を受け付けている状態では、エージェント機器200の演算負荷が高いと判定し、機器制御処理の動作を終了する。
【0118】
なお、エージェント機器200の関連動作の実行時間が短い場合、例えば、その実行時間が閾値以下となるような場合には、実行中のタスクを一時的に中止して関連動作を行い、その後、再度タスクを実行する制御を実行してもよい。
【0119】
ステップS503において、制御部103は、検出部101により車両C1の外部又は内部に存在する物体の動作態様が検出されたか否かを判定する。なお、検出部101による物体の動作態様の検出処理については、上述した検出処理と同様である。車両C1の外部又は内部に存在する物体の動作態様が検出された場合には、ステップS504に進む。一方、車両C1の外部又は内部に存在する物体の動作態様が検出なかった場合には、機器制御処理の動作を終了する。
【0120】
ステップS504において、関連動作決定部102は、ステップS503で動作態様が検出された物体は類似形状であるか否かを判定する。例えば、図5乃至図7に示すように、ワイパーW1、W2、バーB1、誘導者U1の腕の動作態様が検出された場合には、その動作態様が検出された物体は類似形状であると判定される。動作態様が検出された物体は類似形状である場合には、ステップS504に進む。一方、動作態様が検出された物体は類似形状でない場合には、機器制御処理の動作を終了する。
【0121】
ステップS505において、関連動作決定部102は、ステップS503で検出された類似形状のうちから優先度が高い類似形状を抽出する。
【0122】
ここで、優先度は、エージェント機器200に関連動作を実行させる場合の動作時間、類似形状が車内の物体であるか車外の物体であるか、類似形状がドライバD1の一部であるか否か、等に基づいて設定可能である。例えば、車外の類似形状の動作は一瞬となることが多いため、車外の類似形状の優先度を高くすることが好ましい。ここでは、車内か車外かと、時間の長短との2軸で判定する例を示す。例えば、対象物及び空間を基準とした場合には、車外の物体の類似形状の優先度を最も高くし、車内の乗員の一部の類似形状の優先度を次に高くし、車内の乗員以外の物体の類似形状の優先度を最も低くすることが可能である。また、例えば、時間軸を基準とした場合には、エージェント機器200に関連動作を実行させる場合の動作時間が最も短い類似形状の優先度を最も高し、その動作時間が長くなるのに応じて類似形状の優先度を低くする。
【0123】
例えば、乗員の眼につきやすい動作には、エージェント機器200を反応させることが好ましい。例えば、ETCのバーの動作は一瞬であるため、この動作は、乗員の眼につきやすい動作と考えられる。そこで、ETCのバーの動作は、優先度が高い動作とすることができる。一方、ワイパー、ウインカー等の動作は、長時間繰り返し行われる。このため、ワイパー、ウインカー等の動作は、優先度が低い動作とすることができる。なお、ワイパー、ウインカー等の動作は、ある程度関連動作をしたら、その関連動作を停止するようにする。なお、ステップS504で検出された類似形状が1つである場合には、その類似形状が抽出される。
【0124】
ステップS506において、関連動作決定部102は、ステップS505で抽出された優先度が高い類似形状の動作態様に基づいて、エージェント機器200の関連動作を決定する。例えば、類似形状の動作態様に基づいて、図5乃至図11に示すような関連動作が決定される。
【0125】
ステップS520において、制御部103は、ステップS506で決定された関連動作に基づいて、エージェント機器200の関連動作を制御する関連動作処理を実行する。この関連動作処理については、図13を参照して詳細に説明する。
【0126】
図13に示すように、ステップS521において、制御部103は、ステップS504で抽出された類似形状の動作態様は乗員により知覚可能となっているか否かを判定する。なお、知覚可能となっている状態は、例えば、類似形状が乗員の視界に残っている状態、類似形状が発する音が乗員に聞こえる状態等のように、類似形状の動作態様が乗員により認識可能な状態を意味する。また、知覚可能となっているか否かについては、画像取得部130及び音取得部140から取得された情報に基づいて判定可能である。抽出された類似形状の動作態様が乗員により知覚可能となっている場合には、ステップS522に進む。一方、抽出された類似形状の動作態様が乗員により知覚可能となっていない場合には、関連動作処理の動作を終了する。
【0127】
ステップS522において、制御部103は、ステップS504で抽出された類似形状の動作態様は継続中であるか否かを判定する。抽出された類似形状の動作態様が継続中である場合には、ステップS523に進む。一方、抽出された類似形状の動作態様が継続中でない場合には、関連動作処理の動作を終了する。すなわち、抽出された類似形状の動作態様が終了していたり、停止したりしている場合には、その動作態様の関連動作をエージェント機器200が実行しても、乗員の眼につきにくいと考えられる。そこで、抽出された類似形状の動作態様が終了していたり、停止したりしている場合には、その動作態様の関連動作をエージェント機器200に実行させずに終了する。ただし、一瞬しか行われない動作態様の場合には、ステップS522の判定処理を省略してもよい。例えば、ETCのバーの動作は一瞬しか行われないが、優先度が高いため、ステップS522の判定処理を省略することができる。
【0128】
ステップS523において、制御部103は、ステップS506で決定された関連動作をエージェント機器200に実行させるための処理を実行する。すなわち、制御部103は、ステップS506で決定された関連動作を指示する制御信号をエージェント機器200に出力する。
【0129】
ステップS524において、制御部103は、エージェント機器200に特定処理を指示するか否かを判定する。ここで、特定処理は、エージェント機器200の制御処理の負荷が閾値を超える処理、予め設定されたタスクの処理等である。この判定基準は、ステップS501の判定と同じとしてもよい。なお、予め設定されたタスクの処理は、もっと目立つ動作の実行処理、重要なイベントの実行処理等である。エージェント機器200に特定処理を指示する場合には、ステップS525に進む。一方、特定処理を指示しない場合には、ステップS526に進む。
【0130】
ステップS525において、制御部103は、エージェント機器200の関連動作を終了して特定処理をエージェント機器200に実行させる。すなわち、制御部103は、エージェント機器200の関連動作を終了して特定処理をエージェント機器200に実行させる指示をする制御信号をエージェント機器200に出力する。このように、エージェント機器200の関連動作が開始された後に、エージェント機器200の制御処理の負荷が閾値を超える特定処理が、エージェント機器200に指示される場合には、そのエージェント機器200の演算負荷を考慮して関連動作を終了する。
【0131】
ステップS526において、制御部103は、ステップS513で開始した関連動作の継続時間が、その開始時から第1所定時間を経過したか否かを判定する。関連動作の開始から第1所定時間を経過した場合には、ステップS527に進む。一方、関連動作の開始から第1所定時間を経過していない場合には、ステップS528に進む。
【0132】
ここで、第1所定時間は、関連動作をドライバD1が認識することが可能な程度の時間であり、実験データ等に基づいて適宜設定可能である。第1所定時間として、例えば2乃至3秒程度の値を設定可能である。なお、関連動作の対象となった物体の動作が一瞬で終わったような場合には、その動作の時間だけ関連動作を実行して終了としてもよい。これにより、例えば比較的長く動作が継続する物体の関連動作を実行する場合でも、ドライバD1が認識することが可能な程度の適切な時間だけ関連動作を実行することが可能となる。
【0133】
ステップS527において、制御部103は、飽きる動作をエージェント機器200に所定時間実行させる。なお、飽きる動作は、例えば、実行中の関連動作を中断することにより実現される。このように、ある程度の時間が経過した後に、実行中の関連動作を中断することにより、エージェント機器200が関連動作に飽きたことを表現することができる。これにより、愛着がわくような行動をエージェント機器200に実行させることが可能となる。なお、ステップS527の所定時間は、飽きたことを表現する関連動作をドライバD1が認識することが可能な程度の時間であり、実験データ等に基づいて適宜設定可能である。この所定時間として、例えば1乃至2秒程度の値を設定可能である。
【0134】
ステップS528において、制御部103は、エージェント機器200の関連動作を車両C1の乗員が見たか否かを判定する。具体的には、制御部103は、エージェント機器200の画像取得部220により取得された画像情報を取得し、この画像情報に含まれるドライバD1又は他の乗員の顔における視線の方向を検出する。次に、制御部103は、その検出された視線の方向が、検出対象となった乗員の眼とエージェント機器200とを結ぶ特定方向と一致(又は略一致)するか否かを判定する。そして、その検出された視線の方向が特定方向と一致(又は略一致)すると判定された場合には、制御部103は、エージェント機器200の関連動作を車両C1の乗員が見たと判定する。一方、その検出された視線の方向が特定方向と一致(又は略一致)しないと判定された場合には、制御部103は、エージェント機器200の関連動作を車両C1の乗員が見ていないと判定する。このように、エージェント機器200の関連動作を車両C1の乗員が見たか否かが判定される。なお、顔の検出処理及び視線の検出処理については、公知の画像認識技術を用いることができる。エージェント機器200の関連動作を車両C1の乗員が見た場合には、ステップS529に進む。一方、エージェント機器200の関連動作を車両C1の乗員が見ていない場合には、ステップS530に進む。
【0135】
ステップS529において、制御部103は、恥ずかしがる動作をエージェント機器200に所定時間実行させる。この恥ずかしがる動作は、実行中の関連動作を中断して実行される。例えば、図3(G)に示すような動作を恥ずかしがる動作として実行することができる。これにより、愛着がわくような行動をエージェント機器200に実行させることが可能となる。なお、ステップS529の所定時間は、恥ずかしがる動作をドライバD1が認識することが可能な程度の時間であり、実験データ等に基づいて適宜設定可能である。この所定時間として、例えば1乃至2秒程度の値を設定可能である。
【0136】
なお、図13に示す例では、エージェント機器200の関連動作が車両C1の乗員に見られた場合には、恥ずかしがる動作をエージェント機器200に実行させる例を示す。ただし、エージェント機器200の関連動作が車両C1の乗員が見られた場合には、エージェント機器200の関連動作の速度又は動作量を大きくしてもよい。これにより、エージェント機器200の関連動作が車両C1の乗員に見られたため、恥ずかしさで大袈裟に動作することを表現することができる。また、エージェント機器200の関連動作が車両C1の乗員に見られた場合には、その関連動作を車両C1の乗員に認識されたことになるため、その関連動作を終了して運転支援の制御に遷移してもよい。
【0137】
ステップS530において、制御部103は、ステップS523で開始した関連動作の継続時間が、その開始時から第2所定時間を経過したか否かを判定する。関連動作の開始から第2所定時間を経過した場合には、ステップS531に進む。一方、関連動作の開始から第2所定時間を経過していない場合には、ステップS524に戻る。なお、第2所定時間は、関連動作をドライバD1が認識することが可能な程度の時間であり、実験データ等に基づいて適宜設定可能である。第2所定時間として、例えば第1所定時間と同様に2乃至3秒程度の値を設定可能である。
【0138】
ステップS531において、制御部103は、エージェント機器200の関連動作を終了して次回の関連動作時におけるエージェント機器200の動作量を増加させる設定を行う。この設定は、関連動作決定部102に通知される。また、その設定がされた場合には、関連動作決定部102は、次回に関連動作を決定する際に、エージェント機器200の動作量を基準値よりも増加させるように決定する。なお、この例では、次回の関連動作時における動作量を増加させる設定を行う例を示すが、ステップS531の処理においてエージェント機器200に何らかの動作を実行させてもよい。例えば、図3(I)に示すような動作、すなわち泣いているような動作を実行することができる。これにより、エージェント機器200の関連動作が車両C1の乗員に見られなかったため、悲しくて泣いていることを表現することができる。このような悲しくて泣いているエージェント機器200を見た乗員には、エージェント機器200に対する愛着が増加することが想定される。
【0139】
なお、図12図13で示した各処理手順は、本実施形態を実現するための一例を示したものであり、本実施形態を実現可能な範囲で各処理手順の一部の順序を入れ替えてもよく、各処理手順の一部を省略したり他の処理手順を追加したりしてもよい。
【0140】
ここで、例えば、その場に存在していて、かつ、状況を理解しているように見えないエージェント機器の場合には、ユーザは、そのエージェント機器を信頼し難く、知能が要求される処理を任せにくいと考えることも想定される。また、ユーザは、そのエージェント機器には自律性が感じられないと考えることも想定される。このため、そのエージェント機器に車両の乗員を支援する能力があっても、それを発揮できないおそれがある。
【0141】
一方、その場に存在することと、状況を理解していることを示す振る舞いが目立ちすぎるエージェント機器の場合には、ユーザの注意を惹きつけ過ぎて、ユーザの邪魔となることも想定される。この場合には、ユーザは、そのエージェント機器を信頼し難いと感じることも想定される。
【0142】
そこで、本実施形態では、その場に存在していて、かつ、状況を理解しているように見えるように、車両C1の内部又は外部に存在する物体の動作態様に関連させてエージェント機器200に関連動作を実行させる。これにより、エージェント機器200のユーザに対する信頼性を高めることができ、知能が要求される処理をエージェント機器200に任せたいとユーザが考えることが想定される。また、エージェント機器200に自律性が感じられ、エージェント機器200に愛着がわくことも想定される。このため、エージェント機器200に備えられている車両の乗員を支援する能力を十分に発揮することができる。
【0143】
また、エージェント機器200の関連動作は、目立ち過ぎない動作態様で実行されるため、ユーザの注意を惹きつけ過ぎることがなく、ユーザの邪魔となることも少ない。このため、ユーザは、エージェント機器200の信頼性が高いと感じることも想定される。
【0144】
このように、本実施形態では、エージェント機器200が何かの真似をしたり、しなかったりすることで、自律性と応答性の両方を感じることができ、知能的なソーシャルプレゼンスを感じられ、複雑なタスクをエージェント機器200に任せたいという印象をユーザに与えることができる。また、エージェント機器200は、指示に従って反応するのみではなく、自律性があるため、知能が要求される処理を任せたいという印象をユーザに与えることができる。
【0145】
また、本実施形態では、ユーザからの指示を受けずに、車両C1の周囲(例えば、車両の内部、乗員の状態、車両C1から見える景色)の特徴的な変化を、エージェント機器200が真似する。このため、ユーザは、エージェント機器200が自律性及び応答性を有する印象を持つことができる。
【0146】
なお、例えば、適切なタイミングで同調行為をすると、知性を持つ存在と感じられやすくなると考えられる。また、話を聞いている感じがすることが、知性を持つ存在と感じられやすくなる傾向がある。例えば、犬、赤ちゃんが真似する行動を見た場合には、自律性を有し、知性を持つ存在と感じやすくなり、信頼感を高めることが多い。同様に、エージェント機器200が真似する行動を見た場合には、自律性を有し、知性を持つ存在と感じやすくなり、信頼感が高まることになる。
【0147】
また、適切なタイミングで同調行為をすると、ミラーリング効果を高めることができる。同様に、エージェント機器200が適切なタイミングで同調行為をすることにより、ミラーリング効果を高めることができる。なお、ミラーリング効果は、同調効果又は姿勢反響とも称される。
【0148】
なお、本実施形態では、制御装置100において機器制御処理を実行する例を示したが、その機器制御処理の全部または一部を他の機器において実行してもよい。例えば、エージェント機器200において機器制御処理の全部又は一部を実行してもよい。この場合には、その機器制御処理の一部を実行する各機器により情報処理システムが構成される。また、本実施形態では、関連動作情報DB150を制御装置100において管理する例を示す。ただし、関連動作情報DB150を、制御装置100以外の1または複数の他の機器により管理し、他の機器により管理されている関連動作情報DB150の情報を制御装置100が取得して機器制御処理に用いてもよい。
【0149】
また、制御装置100の機能を実行可能な情報処理システムの一部(または全部)については、インターネット等の所定のネットワークを介して提供可能なアプリケーションにより提供されてもよい。このアプリケーションは、例えばSaaS(Software as a Service)である。
【0150】
なお、本実施形態で示した各処理は、各処理手順をコンピュータに実行させるためのプログラムに基づいて実行されるものである。このため、本実施形態は、それらの各処理を実行する機能を実現するプログラム、そのプログラムを記憶する記録媒体の実施形態としても把握することができる。例えば、制御装置に新機能を追加するためのアップデート処理により、そのプログラムを制御装置の記憶装置に記憶させることができる。これにより、そのアップデートされた制御装置に本実施形態で示した各処理を実施させることが可能となる。
【0151】
[本実施形態の構成及び効果]
本実施形態に係る制御方法は、車両C1の乗員の運転を支援するエージェント機器の制御方法である。この制御方法は、車両C1の内部又は外部に存在する物体の動作態様を検出する検出処理(ステップS503乃至S505)と、物体の動作態様が検出された場合には、運転の支援とは異なる態様で、物体の動作態様に関連する関連動作をエージェント機器200に実行させる制御処理(ステップS506、S520)とを含む。
【0152】
この構成によれば、運転の支援とは異なる態様で、物体の動作態様に関連する関連動作をエージェント機器200に実行させることにより、自律性と応答性の両方を車両C1の乗員に感じさせることができる。これにより、車両C1の乗員は、エージェント機器200に対する信頼性を高め、エージェント機器200に対して愛着を持つことができる。このため、エージェント機器200を用いて運転支援を実行する場合に、その運転支援を乗員が適切に受け入れ、その運転支援の実効性を高めることができる。
【0153】
また、本実施形態に係る制御方法において、検出処理(ステップS503、S504)では、車両C1の内部又は外部を撮像した撮像画像に基づいて、車両C1の内部又は外部に存在する物体のうちから、エージェント機器200の外観のうちの少なくとも一部に類似する形状である類似形状を抽出し、その抽出された類似形状の動きを物体の動作態様として検出し、制御処理(ステップS506、S520)では、類似形状の動きを真似する真似動作を、関連動作としてエージェント機器200に実行させる。
【0154】
この構成によれば、車両C1の内部又は外部に存在する類似形状の動きを真似する真似動作をエージェント機器200に実行させることにより、その真似動作に車両C1の乗員が気付き易くなる。これにより、車両C1の乗員は、エージェント機器200に対する信頼性をさらに高め、エージェント機器200に対してさらに愛着を持つことができるため、エージェント機器200の運転支援を適切に受け入れ、その運転支援の実効性を高めることができる。
【0155】
また、本実施形態に係る制御方法において、検出処理(ステップS505)では、複数の類似形状が抽出された場合には、その抽出された複数の類似形状のうちから予め設定されている優先度に基づいて1の類似形状を選択し、制御処理(ステップS506、S520)では、その選択された類似形状の動きを真似する真似動作をエージェント機器200に実行させる。
【0156】
この構成によれば、複数の類似形状が抽出された場合には、予め設定されている優先度に基づいて1の類似形状を選択し、この類似形状の動きを真似する真似動作をエージェント機器200に実行させる。これにより、例えば、優先度が高い真似動作に車両C1の乗員が気付き易くなる。
【0157】
また、本実施形態に係る制御方法において、エージェント機器200は、棒状体の第1可動部202、第2可動部203(可動部の一例)を備え、類似形状を、車両C1に搭載されている棒状部材(例えば、ワイパーW1、W2(図2参照)、シフトレバー、ワイパーレバー、方向指示器レバー)と、車両C1の外部に存在する棒状部材(例えば、バーB1(図6参照)、誘導者U1の腕(図7参照))と、車両C1に乗車している乗員の腕とのうちの少なくとも1つとし、制御処理(ステップS506、S520)では、その類似形状の動きを第1可動部202、第2可動部203に真似させる真似動作を実行させる。
【0158】
この構成によれば、具体的な類似形状を予め設定しておくことにより、類似形状の抽出処理を迅速に行うことが可能となる。
【0159】
また、本実施形態に係る制御方法において、制御処理(ステップS526、S527)では、関連動作を開始してから第1所定時間(所定時間の一例)が経過するとその関連動作を終了させる。例えば、実行中の関連動作を中断して飽きる動作を表現することができる。
【0160】
この構成によれば、ある程度の時間が経過した後に、実行中の関連動作を終了することにより、エージェント機器200が関連動作に飽きたことを表現することができる。これにより、愛着がわくような行動をエージェント機器200に実行させることが可能となる。
【0161】
また、本実施形態に係る制御方法において、制御処理(ステップS524、S525)では、関連動作を開始した後に、予め設定されたエージェント機器200に対する運転の支援の制御指示(例えば、特定処理の指示)を検出すると、その関連動作を終了させる。
【0162】
この構成によれば、エージェント機器200の関連動作が開始された後に、エージェント機器200の制御処理の負荷が閾値を超えるような運転の支援の制御指示がされた場合には、そのエージェント機器200の演算負荷を考慮して関連動作を終了することができる。これにより、エージェント機器200による運転の支援をより適切に実行することが可能となる。
【0163】
また、本実施形態では、エージェント機器200は、顔部(例えば、眼部E1、E2を含む部分)を備え、車両C1のダッシュボード2に設置される。また、本実施形態に係る制御方法において、車両C1の乗員の視線を検出し、車両C1の乗員がエージェント機器200を見たか否かを判定する判定処理(ステップS528)を含み、制御処理(ステップS529)では、関連動作を開始した後に、車両C1の乗員がエージェント機器200を見たことが検出された場合には、その関連動作を終了させる。
【0164】
この構成によれば、エージェント機器200の関連動作が車両C1の乗員により見られた場合に、その関連動作を終了してエージェント機器200による運転の支援を実行することが可能となる。これにより、エージェント機器200に対する信頼性を高め、エージェント機器200に愛着がわくとともに、エージェント機器200による運転の支援をより適切に実行することが可能となる。
【0165】
また、本実施形態に係る制御方法において、制御処理(ステップS529)では、関連動作を開始した後に、車両C1の乗員がエージェント機器200を見たことが検出された場合には、その関連動作を終了して顔部において恥ずかしさを表現する動作をエージェント機器200に実行させる。例えば、図3(G)に示すような動作を、恥ずかしさを表現する動作として実行することができる。
【0166】
この構成によれば、愛着がわくような行動をエージェント機器200に実行させることが可能となり、エージェント機器200に対する愛着の度合いをさらに高めることができる。
【0167】
また、本実施形態に係る制御方法において、制御処理(ステップS530、S531)では、関連動作を開始した後に、車両C1の乗員がエージェント機器200を見たことが検出された場合には、次回の関連動作を予め設定されている動作量(制御量の一例)よりも大きい動作量とする。
【0168】
この構成によれば、エージェント機器200の関連動作が車両C1の乗員により見られていない場合に、次回の関連動作の動作量を大きくして、関連動作が車両C1の乗員に見られ易くすることができる。
【0169】
また、本実施形態に係る制御方法において、制御処理(ステップS502、S520)では、エージェント機器200により実行されている運転の支援の演算量の負荷が基準よりも低い場合に、関連動作をエージェント機器200に実行させる。
【0170】
この構成によれば、エージェント機器200による運転の支援を優先的に実行することができ、エージェント機器200の演算処理を軽減することができる。
【0171】
また、本実施形態に係る制御方法において、車両C1の運転者の運転状況に基づいて、車両C1の運転者の負荷を検出する負荷検出処理(ステップS501)をさらに含み、制御処理(ステップS520)では、車両C1の運転者の負荷が、予め設定されている基準よりも低い場合に、関連動作をエージェント機器200に実行させる。
【0172】
この構成によれば、車両C1の運転者の負荷が低い場合にのみ、関連動作を実行するため、関連動作が車両C1の乗員に見られ易くすることができる。
【0173】
また、制御装置100は、車両C1の乗員の運転を支援するエージェント機器の制御装置である。制御装置100は、車両C1の内部又は外部に存在する物体の動作態様を検出する検出部101と、物体の動作態様が検出された場合には、運転の支援とは異なる態様で、物体の動作態様に関連する関連動作をエージェント機器200に実行させる制御部103とを備える。
【0174】
この構成によれば、運転の支援とは異なる態様で、物体の動作態様に関連する関連動作をエージェント機器200に実行させることにより、自律性と応答性の両方を車両C1の乗員に感じさせることができる。これにより、車両C1の乗員は、エージェント機器200に対する信頼性を高め、エージェント機器200に対して愛着を持つことができる。このため、エージェント機器200を用いて運転支援を実行する場合に、その運転支援を乗員が適切に受け入れ、その運転支援の実効性を高めることができる。
【0175】
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。
【符号の説明】
【0176】
10 情報処理システム、20 ネットワーク、100 制御装置、101 検出部、102 関連動作決定部、103、230 制御部、104、240 記憶部、105 通信部、110 車両情報取得部、120 センサ類、130、220 画像取得部、140、210 音取得部、250 音出力部、260 表示部、270 駆動部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13