IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日産自動車株式会社の特許一覧 ▶ ルノー エス.ア.エス.の特許一覧

<>
  • 特開-制御方法及び情報処理装置 図1
  • 特開-制御方法及び情報処理装置 図2
  • 特開-制御方法及び情報処理装置 図3
  • 特開-制御方法及び情報処理装置 図4
  • 特開-制御方法及び情報処理装置 図5
  • 特開-制御方法及び情報処理装置 図6
  • 特開-制御方法及び情報処理装置 図7
  • 特開-制御方法及び情報処理装置 図8
  • 特開-制御方法及び情報処理装置 図9
  • 特開-制御方法及び情報処理装置 図10
  • 特開-制御方法及び情報処理装置 図11
  • 特開-制御方法及び情報処理装置 図12
  • 特開-制御方法及び情報処理装置 図13
  • 特開-制御方法及び情報処理装置 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024073110
(43)【公開日】2024-05-29
(54)【発明の名称】制御方法及び情報処理装置
(51)【国際特許分類】
   G06Q 50/10 20120101AFI20240522BHJP
   G08G 1/16 20060101ALI20240522BHJP
   G01C 21/26 20060101ALI20240522BHJP
   A61B 5/18 20060101ALI20240522BHJP
【FI】
G06Q50/10
G08G1/16 F
G01C21/26 A
A61B5/18
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022184141
(22)【出願日】2022-11-17
(71)【出願人】
【識別番号】000003997
【氏名又は名称】日産自動車株式会社
(71)【出願人】
【識別番号】507308902
【氏名又は名称】ルノー エス.ア.エス.
【氏名又は名称原語表記】RENAULT S.A.S.
【住所又は居所原語表記】122-122 bis, avenue du General Leclerc, 92100 Boulogne-Billancourt, France
(74)【代理人】
【識別番号】110002468
【氏名又は名称】弁理士法人後藤特許事務所
(72)【発明者】
【氏名】海老名 亮彦
(72)【発明者】
【氏名】高松 敦
【テーマコード(参考)】
2F129
4C038
5H181
5L049
5L050
【Fターム(参考)】
2F129AA03
2F129BB03
2F129BB05
2F129BB20
2F129BB26
2F129CC03
2F129DD27
2F129DD65
2F129EE43
2F129EE55
2F129EE59
2F129EE78
2F129EE87
2F129EE91
2F129EE96
2F129FF02
2F129FF11
2F129FF20
2F129GG17
2F129HH12
2F129HH20
4C038PP03
4C038PQ04
4C038PS00
4C038PS05
5H181AA01
5H181BB13
5H181CC03
5H181CC04
5H181CC11
5H181CC12
5H181CC14
5H181FF04
5H181FF05
5H181FF12
5H181FF27
5H181FF33
5H181FF35
5H181LL01
5H181LL07
5H181LL20
5L049CC11
5L050CC11
(57)【要約】
【課題】不快の感情が生じたユーザに対して、不快の感情を和らげ、ユーザとの信頼関係を高める。
【解決手段】ユーザU1とのコミュニケーションを行うことが可能なエージェント機器200を制御する制御方法である。この制御方法は、ユーザU1の生体情報と、ユーザU1の発話内容と、ユーザU1の動作と、のうちの少なくとも1つに基づいて、ユーザU1の不快度を推定する不快度推定処理(ステップS503)と、ユーザU1の周囲の状況に基づいてユーザU1の不快の要因である不快要因を推定する不快要因推定処理(ステップS505)と、その不快度に基づいて、不快要因に応じてユーザU1が示す不快反応に関連する共感演出をエージェント機器200に実行させる制御処理(ステップS506乃至S516)とを含む。
【選択図】図14
【特許請求の範囲】
【請求項1】
ユーザとのコミュニケーションを行うことが可能なエージェント機器を制御する制御方法であって、
前記ユーザの生体情報と、前記ユーザの発話内容と、前記ユーザの動作と、のうちの少なくとも1つに基づいて、前記ユーザの不快度を推定する不快度推定処理と、
前記ユーザの周囲の状況に基づいて前記ユーザの不快の要因である不快要因を推定する不快要因推定処理と、
前記不快度に基づいて、前記不快要因に応じて前記ユーザが示す不快反応に関連する共感演出を前記エージェント機器に実行させる制御処理と、を含む
制御方法。
【請求項2】
請求項1に記載の制御方法であって、
前記制御処理では、前記不快反応に関連する発話文の音声出力と、前記発話文の表示と、前記不快反応に関連する振る舞いと、のうちの少なくとも1つを前記共感演出として前記エージェント機器に実行させる、
制御方法。
【請求項3】
請求項2に記載の制御方法であって、
前記制御処理では、前記不快度の大きさと、前記不快度の変化率の大きさとのうちの少なくとも1つに基づいて、前記共感演出の態様を変化させる、
制御方法。
【請求項4】
請求項3に記載の制御方法であって、
前記制御処理では、前記不快度、又は、前記不快度の変化率が大きくなるのに応じて、前記発話文の音声出力として当該音声を大きくする演出と、前記振る舞いとして前記エージェント機器が前記不快要因の方向を速く向く演出と、前記振る舞いとして前記エージェント機器の動きを大きくする演出と、前記振る舞いとして前記エージェント機器の動きの変化を多くする演出とのうちの少なくとも1つを前記エージェント機器に実行させる、
制御方法。
【請求項5】
請求項2に記載の制御方法であって、
前記発話文の音声に前記ユーザが慣れたことを判定する判定処理、をさらに含み、
前記制御処理では、前記発話文の音声を前記エージェント機器から出力させ、前記発話文の音声に前記ユーザが慣れたと判定された後には、前記発話文の音声出力をせずに、前記不快反応に関連する振る舞いを前記エージェント機器に実行させる、
制御方法。
【請求項6】
請求項1に記載の制御方法であって、
前記制御処理では、前記不快度が第1基準よりも大きい場合、又は、前記不快度の変化率が第2基準よりも大きい場合には、前記共感演出を前記エージェント機器に実行させる、
制御方法。
【請求項7】
請求項6に記載の制御方法であって、
前記不快度が前記第1基準よりも大きい場合、又は、前記不快度の変化率が前記第2基準よりも大きい場合における、前記不快要因と、当該不快要因に応じて前記ユーザが示す不快反応に関連する演出情報とを関連付けてデータベースに記録させる記録処理、をさらに含み、
前記制御処理では、前記不快度が前記第1基準よりも大きい場合、又は、前記不快度の変化率が前記第2基準よりも大きい場合において、推定された前記不快要因に対応する情報が前記データベースに格納されているときには、当該不快要因に関連付けられている前記演出情報に基づいて、前記共感演出を前記エージェント機器に実行させ、推定された前記不快要因に対応する情報が前記データベースに格納されていないときには、推定された前記不快要因に対する前記ユーザの不快反応に基づいて、前記共感演出を前記エージェント機器に実行させる、
制御方法。
【請求項8】
請求項6に記載の制御方法であって、
前記制御処理では、前記不快度が前記第1基準よりも大きい状態が所定時間継続したことを条件に、前記共感演出を前記エージェント機器に実行させる、
制御方法。
【請求項9】
請求項6に記載の制御方法であって、
前記不快要因推定処理では、前記不快要因が前記ユーザの周囲に存在するか、前記不快要因が前記エージェント機器に存在するかを判定し、
前記制御処理では、前記不快度が前記第1基準よりも大きい場合、又は、前記不快度の変化率が前記第2基準よりも大きい場合において、前記不快要因が前記ユーザの周囲に存在すると判定されたときには、前記共感演出を前記エージェント機器に実行させ、前記不快要因が前記エージェント機器に存在すると判定されたときには、前記ユーザの不快に対する謝罪演出を前記エージェント機器に実行させる、
制御方法。
【請求項10】
ユーザとのコミュニケーションを行うことが可能なエージェント機器を制御する情報処理装置であって、
前記ユーザの生体情報と、前記ユーザの発話内容と、前記ユーザの動作と、のうちの少なくとも1つに基づいて、前記ユーザの不快度を推定する不快度推定部と、
前記ユーザの周囲の状況に基づいて前記ユーザの不快の要因である不快要因を推定する不快要因推定部と、
前記不快度に基づいて、前記不快要因に応じて前記ユーザが示す不快反応に関連する共感演出を前記エージェント機器に実行させる制御部と、を備える、
情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザとのコミュニケーションを行うことが可能なエージェント機器を制御する制御方法及び情報処理装置に関する。
【背景技術】
【0002】
従来、ユーザとのコミュニケーションを行うことが可能な機器が存在する。例えば、ユーザが抱いている感情を推定するとともに、その感情を引き起こした対象を特定し、その感情がネガティブな感情であるときには、その対象を取り除くための提示情報を情報提示装置により提示する技術が提案されている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2017-201499号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述した従来技術では、不快な感情を引き起こした対象を取り除くための提示情報をユーザに提示することが可能である。しかし、ユーザが不快なときに、ユーザに注意喚起や情報提供をすると、ユーザの不快を余計に促進する可能性がある。このような場合には、ユーザとの信頼関係が失われ、ユーザとの円滑なコミュニケーションを図ることが困難となるおそれがある。
【0005】
本発明は、不快の感情が生じたユーザに対して、不快の感情を和らげ、ユーザとの信頼関係を高めることを目的とする。
【課題を解決するための手段】
【0006】
本発明の一態様は、ユーザとのコミュニケーションを行うことが可能なエージェント機器を制御する制御方法である。この制御方法は、ユーザの生体情報と、ユーザの発話内容と、ユーザの動作と、のうちの少なくとも1つに基づいて、ユーザの不快度を推定する不快度推定処理と、ユーザの周囲の状況に基づいてユーザの不快の要因である不快要因を推定する不快要因推定処理と、その不快度に基づいて、その不快要因に応じてユーザが示す不快反応に関連する共感演出をエージェント機器に実行させる制御処理とを含む。
【発明の効果】
【0007】
本発明によれば、不快の感情が生じたユーザに対して、不快の感情を和らげ、ユーザとの信頼関係を高めることができる。
【図面の簡単な説明】
【0008】
図1図1は、車両の車室内の構成例を簡略化して示す図である。
図2図2は、エージェント機器が報知情報を出力した後に、その報知情報に対してエージェント機器が謝罪する場合の謝罪例を簡略化して示す図である。
図3図3は、エージェント機器の外観構成の一例を簡略化して示す正面図である。
図4図4は、車両に設置されている情報処理システムのシステム構成の一例を示す図である。
図5図5は、センシングの確信度の判定方法の一例を示す図である。
図6図6は、ユーザの不快度の判定方法の一例と、ユーザの不快度及びエージェント機器の振る舞いの関係例とを示す図である。
図7図7は、ユーザ状態DBの格納内容を簡略化して示す図である。
図8図8は、不快状態DBの格納内容を簡略化して示す図である。
図9図9は、振る舞いDBの格納内容を簡略化して示す図である。
図10図10は、ユーザの不快反応に基づくエージェント機器の共感演出例を簡略化して示す図である。
図11図11は、車両の周囲が渋滞時においてユーザが不快反応を示した場合のエージェント機器の遷移例を示す図である。
図12図12は、車両の前方に他の車両が急な割込みをした場合においてユーザが不快反応を示した場合のエージェント機器の遷移例を示す図である。
図13図13は、車両の前方に他の車両が急な割込みをした場合においてユーザが不快反応を示した場合のエージェント機器の遷移例を示す図である。
図14図14は、情報処理装置における共感演出処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下、添付図面を参照しながら本発明の実施形態について説明する。
【0010】
[エージェント機器の設置例]
図1は、車両C1の車室内の構成例を簡略化して示す図である。なお、図1では、運転席、助手席(図示省略)よりも前側を、車両C1の後ろ側から見た場合の外観構成例を示す。また、図1では、説明を容易にするため、ダッシュボード2、ステアリングホイール3、フロントウインド4、バックミラー5、カメラ101、エージェント機器200以外の図示は省略する。
【0011】
エージェント機器200は、車両C1のダッシュボード2上に設置される小型のロボットである。本実施形態では、人間を模したロボットをエージェント機器200とする例を示す。なお、図1では、ダッシュボード2上にエージェント機器200を設置する例を示すが、これに限定されない。例えば、フロントウインド4の上部にエージェント機器200を設置してもよい。また、図1では、人間の顔を模したロボットをエージェント機器200とする例を示すが、これに限定されない。例えば、人間の全身を模したロボット、ウサギ、豚等のような動物を模したロボット、仮想物の生物(例えばアニメのキャラクターの顔)を模したロボット、他の物体(例えばテレビ型の機器、ラジオ型の機器)を模したロボットをエージェント機器200としてもよい。このように、擬生物化されたエージェントをエージェント機器200とすることが可能である。
【0012】
エージェント機器200は、情報処理装置110(図4参照)からの指示に基づいて各種の動作を実行する。例えば、エージェント機器200は、情報処理装置110の制御に基づいて、ユーザが運転操作をする際における運転支援、周囲の施設等に関する各種情報を出力する。この運転支援として、前方又は後方の動体の報知等が想定される。例えば、前方の動体の報知として、「この先踏切だから気を付けてよ」と音声出力したり、「前方に人がいるよ」と音声出力したりすることができる。このように、エージェント機器200は、運転支援を実行する。なお、図1では、XYZ珈琲店の広告を示す音声情報S1を報知情報として出力する例を示す。
【0013】
ここで、報知は、何らかの情報を伝えたり、知らせたりすることを意味する。また、車両C1のユーザ(車両C1の乗員)に報知すべき情報を報知情報と称して説明する。報知情報については、画像表示によりユーザに伝えてもよく、音声出力によりユーザに伝えてもよい。本実施形態では、主に、報知情報を音声出力によりユーザに伝える例を示す。なお、本実施形態で示す報知については、通知、伝達等と称してもよい。
【0014】
また、報知情報として、例えば、車両C1に関する情報、車両C1の運転支援に関する情報、車両C1の周囲に存在する商業施設、観光施設等に関する広告情報等が想定される。車両C1に関する情報は、例えば、バッテリ残量の報知、半ドアの報知等の車両C1自体に関する情報である。また、車両C1の運転支援に関する情報は、例えば、シートベルトの着用の報知、信号機の報知、道案内等のユーザU1が運転する際に必要となる各種情報である。また、車両C1の周囲に存在する商業施設、観光施設等に関する広告情報は、例えば、ショッピングモールの広告、観光地の案内等である。
【0015】
カメラ101は、車両C1の内部の天井に設けられ、車両C1の内部の被写体を撮像して画像(画像データ)を生成するものである。なお、カメラ101は、例えば、被写体を撮像することが可能な1又は複数のカメラ機器や画像センサにより構成される。例えば、フロントウインド4の上部、すなわち、バックミラー5の上側にカメラ101を設けることができる。なお、図1では、少なくとも1つのカメラ101を備える例を示すが、2以上の撮像装置を備え、これらの撮像装置のうちの全部又は一部の画像を用いてもよい。また、各撮像装置の設置場所については、図1に示す例に限定されず、適宜変更可能である。また、車両C1の全方位に存在する被写体と、車両C1の内部の被写体とを取得可能な1又は複数の機器、例えば、360度カメラを用いてもよい。
【0016】
[エージェント機器による報知に対する謝罪例]
図2は、エージェント機器200が報知情報を出力した後に、その報知情報に対してエージェント機器200が謝罪する場合の謝罪例を簡略化して示す図である。なお、図2に示す例は、図1に示す構成例において、エージェント機器200の一部を変更したものであり、エージェント機器200以外の部分については図1と共通する。
【0017】
図2に示すように、エージェント機器200が報知情報を出力した後に、その報知情報又はその報知の態様に対してユーザU1を不快にさせたと判定された場合には、エージェント機器200は、ユーザU1に謝罪をする。例えば、音声出力、エージェント機器200の動きにより、ユーザU1に対する謝罪を表現することが可能である。図2では、エージェント機器200の顔がユーザU1の方向に向いた状態で、音声情報S2を出力することにより、ユーザU1に対する謝罪を表現する例を示す。
【0018】
なお、報知の態様は、例えば、報知の際の音声出力の音量、報知のタイミング、報知の際のエージェント機器200のしぐさ等である。例えば、音声出力の音量が大き過ぎたり、小さ過ぎたりする場合には、ユーザU1に不快感を与えるおそれがある。また、報知すべき対象に対して、報知のタイミングが遅い場合には、ユーザU1に不快感を与えるおそれがある。例えば、報知すべき対象がXYZ珈琲店の案内であり、報知タイミングがXYZ珈琲店を車両C1が通過した後であるような場合には、ユーザU1に不快感を与えるおそれがある。また、例えば、図1に示すように、報知すべき対象がXYZ珈琲店の7時から10時までの朝食セットであり、報知タイミングが10時24分であるような場合には、ユーザU1に不快感を与えるおそれがある。また、報知すべき対象に対して、エージェント機器200の動きや表情が合わない場合には、ユーザU1に不快感を与えるおそれがある。例えば、ユーザU1が珈琲好きで、かつ、報知すべき対象がXYZ珈琲店である場合において、エージェント機器200が悲しい表情で報知したようなときには、ユーザU1に不快感を与えるおそれがある。
【0019】
上述したように、ユーザU1が不快状態であり、その不快の対象がエージェント機器200である場合には、エージェント機器200がユーザU1に対して謝罪をすることにより、ユーザU1に与えた不快感を軽減することが可能である。しかし、ユーザU1の不快の対象がエージェント機器200以外である場合、例えば、渋滞、急な割り込み、車内が暑い等の場合も想定される。このような場合に、エージェント機器200がユーザU1に対して謝罪をすると、ユーザU1に違和感を与え、ユーザU1が受けた不快感を軽減することが困難となるおそれもある。
【0020】
そこで、本実施形態では、ユーザU1が不快状態であり、その不快の対象がエージェント機器200以外である場合には、その不快の対象に対するユーザU1の不快反応と同じような不快反応をエージェント機器200に実行させる。すなわち、ユーザU1の不快反応に共感するように振る舞う共感演出をエージェント機器200に実行させる。このように、ユーザU1が不快状態である場合に、ユーザU1の不快反応と同じような不快反応をエージェント機器200が実行する。これにより、エージェント機器200に対する仲間意識をユーザU1に感じさせることが可能であり、エージェント機器200に対してユーザU1が共感する可能性を高めることが可能となる。また、不快の感情が生じたユーザU1に対して、不快の感情を和らげ、ユーザU1との信頼関係を高めることができ、ユーザU1との円滑なコミュニケーションを図ることができる。
【0021】
なお、ユーザU1の不快度、不快反応については、ユーザU1の生体情報(例えば、心拍、体温)と、ユーザU1の発話内容と、ユーザU1の動作(例えば、動き、表情)と、のうちの少なくとも1つに基づいて推定が可能である。例えば、ユーザU1の表情、ユーザU1の動き、ユーザU1が発する声等に基づいて、ユーザU1の不快反応を検出することが可能である。なお、ユーザU1の表情、ユーザU1の動きについては、カメラ101により取得された画像に基づいて取得可能である。また、ユーザU1の表情には、ユーザU1の視線も含まれる。また、ユーザU1が発する声については、音声入力部103(図4参照)により取得された音声情報に基づいて取得可能である。なお、ユーザU1の不快度の推定方法については、図6等を参照して詳細に説明する。また、ユーザU1の不快反応の推定方法については、図11乃至図13等を参照して詳細に説明する。
【0022】
また、ユーザU1の不快要因については、ユーザU1の周囲の状況に基づいて推定が可能である。なお、ユーザU1の不快要因の推定方法については、図7等を参照して詳細に説明する。
【0023】
なお、本実施形態では、センシングの確信度が基準よりも高いことを条件に、ユーザU1が不快時に、その不快の対象に対するユーザU1の不快反応と同じような不快反応をエージェント機器200に実行させる。ここで、センシングの確信度は、センシングに対する確からしさの度合を表す指標である。また、センシングの確信度は、センシング安定度、CPU稼働率等に基づいて算出可能である。図5では、センシング安定度、CPU稼働率に基づいてセンシングの確信度を算出する例を示す。
【0024】
なお、センシングの確信度は、エージェント機器200を制御する際に用いられる機器における処理の確信度に相当する。エージェント機器200を制御する際に用いられる機器は、例えば、図4に示す各部である。例えば、それらの各機器における処理の確信度が高くなるのに応じて、ユーザU1に関する情報と、車両C1に関する情報とをより正確に取得することが可能となる。
【0025】
なお、本実施形態では、車両C1の乗員として運転席に乗車するユーザU1を例にして説明する。ただし、車両C1に複数の乗員が乗車している場合についても本実施形態を適用可能である。この場合には、共感演出を見せる対象を、運転席に乗車するユーザU1としてもよく、他の乗員としてもよい。また、報知情報の対象とした乗員を、共感演出を見せる対象としてもよい。
【0026】
[エージェント機器の外観構成例]
図3は、エージェント機器200の外観構成の一例を簡略化して示す正面図である。本実施形態では、エージェント機器200がオン状態である場合には、表示部210(図4参照)に顔画像が表示される例を示す。なお、車両C1のオン操作に応じて、エージェント機器200をオン状態とすることが可能である。また、エージェント機器200に関するユーザ操作に応じて、エージェント機器200をオン状態とすることが可能である。なお、車両C1のオンオフ操作は、車両C1の起動又は停止に関するスタートキーのオン操作又はオフ操作を意味する。
【0027】
図3(A)には、エージェント機器200の斜視図を示す。図3(B)には、エージェント機器200の正面図を示す。なお、図3(B)に示すエージェント機器200は、図1に示すエージェント機器200に対応する。図3(C)には、エージェント機器200の上面図を示す。図3(D)には、エージェント機器200の側面図を示す。なお、本実施形態では、図3(A)乃至(D)に示すエージェント機器200の状態を通常状態と称して説明する。また、図3(E)乃至(H)には、エージェント機器200の動作態様として、ユーザU1の不快反応に共感する共感演出を実行する場合の外観構成例を示す。
【0028】
エージェント機器200は、略球状の本体部201から構成される機器であり、本体部201の表面には表示部210が設けられる。表示部210には、各種画像、例えば眼部E1、E2が表示される。なお、本体部201の表面の全部に表示部210を設けてもよく、本体部201の表面のうちの一部に表示部210を設けてもよい。また、本体部201の表面のうちの一部に表示部210を設ける場合には、表示部210が設けられている部分以外の部分には、顔を構成する物理的な各部(例えば、口、鼻)を設けてもよい。
【0029】
本実施形態では、車両C1のダッシュボード2上に、眼部E1、E2が車内側を見る方向にエージェント機器200が設置される例を示す。このため、エージェント機器200における眼部E1、E2が表示される部分を含む一の面を前部又は顔部と称して説明する。また、エージェント機器200の前部をエージェント機器200の前側と称し、エージェント機器200の前部とは反対側をエージェント機器200の後側と称して説明する。また、エージェント機器200において、図3における右側をエージェント機器200の左側と称し、図3における左側をエージェント機器200の右側と称して説明する。
【0030】
本体部201は、車両C1のダッシュボード2への取付部分又はこれに近接する部分を回動中心として、エージェント機器200の前後方向、すなわち矢印A1(図3(A)(D)参照)方向に回動する。同様に、本体部201は、車両C1のダッシュボード2への取付部分を回動中心として、エージェント機器200の左右方向、すなわち矢印A2(図3(B)参照)方向に回動する。同様に、本体部201は、車両C1のダッシュボード2への取付部分を回動中心として、硬直方向を軸として回転する方向、すなわち矢印A3(図3(C)参照)方向に回動する。このように、エージェント機器200の下部には、本体部201を駆動させるための駆動部230(図4参照)が設けられる。そして、エージェント機器200の本体部201を左右方向に回転移動させたり、本体部201を前後方向に回転移動させたり、本体部201を左右方向に揺らせたり、本体部201を前後方向に揺らせたりすることが可能となる。
【0031】
また、表示部210は、各種画像を表示することが可能な表示媒体として構成することが可能である。この表示媒体として、例えば、発光シート、液晶表示器、有機EL(Electro Luminescence)等の各種表示媒体を使用可能である。例えば、図3(A)乃至(D)に示すように、通常の眼部E1、E2を表示させることができる。
【0032】
また、例えば、図3(E)に示すように、伏し目状態の眼部E1、E2とともに、怒りを示す怒り画像AN1を表示させることができる。また、例えば、図3(G)に示すように、通常の眼部E1、E2とともに、湯気が立ったような画像で怒りを示す怒り画像AN2を表示させることができる。また、例えば、図3(F)に示すように、顔の上側に相当する部分B1を、不快な表情を示す所定色(例えば青色)とし、不快な表情を示す縦線画像V1を、その部分B1の一部に表示させることができる。また、例えば、図3(H)に示すように、鼻部N1を表示させるとともに、その鼻をつまむような態様の手H1を表示させることができる。また、図3(E)乃至(H)に示すように、左右方向(矢印A4乃至A7方向)に本体部201を揺らせることにより、さらに不快な態度を強調することが可能である。
【0033】
このように、表示部210のうちの少なくとも一部の色を特定色としたり、眼部E1、E2を変形させたり、鼻をつまむ態様としたりすることにより、エージェント機器200が不快な表情をしているような表示態様とすることが可能である。なお、ここで示す表示態様は、一例であり、他の表示態様により不快な表情、怒りの表情等を実現してもよい。例えば、眼部E1、E2を左右に早く動かしたり、眼部E1、E2をきょろきょろさせたり、本体部201を左右方向に速く動かしたり、本体部201を左右方向にきょろきょろさせたりすることにより不快な表情を実現してもよい。
【0034】
このように、本実施形態では、エージェント機器200の各部のうちの少なくとも一部を変化させる動作態様と、エージェント機器200の表面のうちの少なくとも一部の表示状態を変化させる表示態様とによりエージェント機器200を変化させることが可能である。また、その変化を見た車両C1の乗員は、エージェント機器200が何らかの動きをしていると認識可能となる。このため、本実施形態では、これらのエージェント機器200の変化をエージェント機器200の動作態様と称して説明する。
【0035】
なお、これらのエージェント機器200の動作態様は、一例であり、他の動作態様とすることも可能である。例えば、ダッシュボード2上の所定範囲内において、エージェント機器200をスライド移動させることも可能である。例えば、エージェント機器200を前後左右方向にスライド移動させることも可能である。また、例えば、エージェント機器200を一時的に浮かせるような演出も可能である。
【0036】
なお、図3では、表示部210の表示態様を変更することにより、不快な表情を2次元的に表現する例を示すが、物理的に設置された眼部、鼻部、口部等の各部材を変化させることにより、不快な表情を3次元的に表現して実現してもよい。この場合には、例えば、眼部材を移動させたり、眼部材の表面に黒画像、白画像を表示させたりして眼の動きを表現してもよい。
【0037】
また、本実施形態では、顔部のみを備えるエージェント機器200の例を示すが、他の身体の一部(例えば、手、足)をエージェント機器200に備えてもよい。この場合には、これらの各部(例えば、手、足)を変化させて不快な態度を実現してもよい。例えば、手を頭や顔に当てるように変化させたり、足や手をバタバタさせたりする動きを不快な態度として表現してもよい。
【0038】
なお、これらのエージェント機器200の形状、表示態様、音声出力態様は、一例であり、他の形状、表示態様、音声出力態様とすることも可能である。また、図3では、略球状の本体部201が顔部として機能するエージェント機器200を例にして示すが、本発明はこれに限定されない。例えば、平板状の本体部(例えば、平面状の表示パネル)が顔部として機能する機器をエージェント機器200としてもよい。また、例えば、顔部及び身体部を一体の筐体として構成する機器をエージェント機器200としてもよい。また、例えば、顔部及び身体部を別体として構成する機器をエージェント機器200としてもよい。
【0039】
また、本実施形態では、生き物らしさを表す画像(生き物表示)として顔画像を表示する例を示すが、他の画像(例えば、エージェントの全身、機械的なもの、仮想的な顔)を生き物らしさを表す画像として表示してもよい。
【0040】
[情報処理システムの構成例]
図4は、車両C1に設置されている情報処理システム100のシステム構成の一例を示す図である。
【0041】
情報処理システム100は、カメラ101と、位置情報取得センサ102と、音声入力部103と、センサ類104と、情報処理装置110と、エージェント機器200とを備える。なお、情報処理装置110及びエージェント機器200は、有線通信又は無線通信を利用した通信方式によって接続される。また、情報処理装置110は、無線通信を利用した通信方式によってネットワーク20に接続されている。ネットワーク20は、公衆回線網、インターネット等のネットワークである。なお、エージェント機器200についても、無線通信を利用した通信方式によってネットワーク20に接続してもよい。なお、図4では、情報処理装置110及びエージェント機器200を別体として構成する例を示すが、情報処理装置110及びエージェント機器200を一体の機器として構成してもよい。
【0042】
カメラ101は、情報処理装置110の制御に基づいて、被写体を撮像して画像(画像データ)を生成するものであり、生成された画像に関する画像情報を情報処理装置110に出力する。カメラ101は、車両C1のうちの少なくとも内部に設けられ、車両C1の内部の被写体を撮像して画像(画像データ)を生成する。なお、図1では、車両C1の内部に設けられているカメラ101を示す。上述したように、カメラ101は、例えば、被写体を撮像することが可能な1又は複数のカメラ機器や画像センサにより構成される。例えば、1つのカメラ101を車両C1の前方に設け、車両C1の前方からの被写体を撮像して画像(画像データ)を生成してもよく、他のカメラ101を車両C1の後方に設け、車両C1からの後方の被写体を撮像して画像(画像データ)を生成してもよい。
【0043】
位置情報取得センサ102は、車両C1が存在する位置に関する位置情報を取得するものであり、取得された位置情報を情報処理装置110に出力する。例えば、GNSS(Global Navigation Satellite System:全球測位衛星システム)を利用して位置情報を取得するGNSS受信機により実現できる。また、その位置情報には、GNSS信号の受信時における緯度、経度、高度等の位置に関する各データが含まれる。また、他の位置情報の取得方法により位置情報を取得してもよい。例えば、周囲に存在するアクセスポイントや基地局からの情報を用いて位置情報を導き出してもよい。また、ビーコンを用いて位置情報を取得してもよい。例えば、位置情報取得センサ102により取得された情報に基づいて、車両C1の状態、例えば、走行中、停止中、後進中を判定可能である。
【0044】
また、例えば、車両C1の外部に存在する施設、例えば珈琲店の付近に車両C1が存在することを位置情報取得センサ102により取得された位置情報に基づいて判定可能である。
【0045】
音声入力部103は、車両C1の内部に設けられ、情報処理装置110の制御に基づいて、車両C1の内部の音を取得するものであり、取得された音に関する音情報を情報処理装置110に出力する。音声入力部103として、例えば、1又は複数のマイクや音取得センサを用いることができる。
【0046】
センサ類104は、車両C1に設置されている各種のセンサであり、各センサにより取得された検出情報を情報処理装置110に出力する。センサ類は、例えば、LiDAR(Light Detection And Ranging)、RADAR(Radio Detection And Ranging)、Sonar、人感センサ、車速センサ、加速度センサ、着座センサ、シートベルトセンサ、ドアセンサ、バッテリセンサ、雨滴センサ、明暗センサ、温湿臭気センサ、非接触温度センサ等である。なお、これらは一例であり、他のセンサを用いてもよい。また、これらのうちの一部のセンサのみを用いてもよい。
【0047】
人感センサは、車両C1の内部に存在する人の有無、人数、位置、状態等を検出するセンサである。例えば、赤外線、超音波、可視光、撮像素子等を用いる人感センサを用いることが可能である。例えば、運転席、助手席、後部座席の何れかに人が着座している場合には、その人の存在を人感センサにより検出可能である。また、人感センサ及び着座センサの双方を用いることにより、各座席の着座状態の検出精度を高めることが可能である。また、これらにより、エージェント機器200が対象とする人物の位置を特定することが可能である。
【0048】
着座センサ(又はシートセンサ)は、車両C1の各座席に着座している乗員の有無を検出するセンサである。シートベルトセンサは、車両C1の各座席に着座している乗員がシートベルトを着用しているか否かを検出するセンサである。ドアセンサは、車両C1の各ドアが半ドアであるか否かを検出するセンサである。バッテリセンサは、車両C1に設置されているバッテリの残量を計測するためのセンサである。
【0049】
雨滴センサは、車両C1に降り注ぐ雨の有無を検出するセンサである。明暗センサは、車両C1の周囲における明るさを検出するセンサである。雨滴センサにより車両C1に乗車しているユーザU1が雨等の不快を感じていることを検出可能である。また、明暗センサにより車両C1に乗車しているユーザU1が暗さ等の不快を感じていることを検出可能である。
【0050】
温湿臭気センサは、温度、湿度、臭気を検出するセンサである。温湿臭気センサにより車両C1に乗車しているユーザU1が暑い、蒸している、臭い等の不快を感じていることを検出可能である。温湿臭気センサは、例えば、車両C1のエアコン(エアコンディショナー)において外気又は内気を取り入れるときに、外気又は内気を自動で切り替える場合に使用される。そこで、車両C1のエアコンに使用されている温湿臭気センサを利用することが可能である。
【0051】
非接触温度センサは、車両C1に乗車しているユーザU1の体温を非接触状態で検出するセンサである。例えば、ユーザU1の顔の表面の温度を非接触温度センサにより計測可能である。これらの各センサについては、公知のセンサを用いることが可能である。
【0052】
情報処理装置110は、制御部120と、記憶部130と、通信部140とを備える。通信部140は、制御部120の制御に基づいて、有線通信又は無線通信を利用して、他の機器との間で各種情報のやりとりを行うものである。
【0053】
制御部120は、記憶部130に記憶されている各種プログラムに基づいて各部を制御するものである。制御部120は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の処理装置により実現される。例えば、GPUを用いて画像処理を実行することにより演算速度を速めることが可能である。また、GPUを用いて並列演算を実行することにより演算速度をさらに速めることが可能である。なお、車両C1の車両ECU(Electronic Control Unit)を制御部120としても使用してもよく、車両ECUとは異なる処理装置を制御部120として設けてもよい。なお、制御部120は、文字を音声に変換する変換機能を備える。この変換機能は、例えば、TTS(Text to Speech)により実現される。
【0054】
制御部120は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、エージェント機器200の動作状態を制御する制御処理を実行する。具体的には、制御部120は、不快度判定部121と、不快要因推定部122と、確信度判定部123と、DB制御部124と、エージェント制御部125とを備える。
【0055】
不快度判定部121は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、車両C1に乗車するユーザU1の不快度を判定するものであり、その判定結果をエージェント制御部125に出力する。なお、ユーザU1の不快度の判定方法については、図6等を参照して詳細に説明する。
【0056】
不快要因推定部122は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、車両C1に乗車するユーザU1の不快要因を推定するものであり、その推定結果をエージェント制御部125に出力する。なお、ユーザU1の不快要因の推定方法については、図7等を参照して詳細に説明する。
【0057】
確信度判定部123は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて、センシングの確信度を判定するものであり、その判定結果をエージェント制御部125に出力する。なお、センシングの確信度の判定方法については、図5等を参照して詳細に説明する。
【0058】
DB制御部124は、記憶部130に記憶されている各DB(DabaBase)への情報の記録処理及び読出処理を実行するものである。例えば、DB制御部124は、不快度判定部121、不快要因推定部122等から出力された各処理結果(判定結果、推定結果)を各DBに格納する。また、例えば、DB制御部124は、不快度判定部121、不快要因推定部122等から出力された各処理結果に基づいて、各DBから所定情報を抽出し、その抽出された所定情報をエージェント制御部125に出力する。なお、DB制御部124による記録処理及び読出処理については、図11乃至図13等を参照して詳細に説明する。
【0059】
エージェント制御部125は、不快度判定部121、不快要因推定部122、確信度判定部123による各処理結果と、DB制御部124による抽出結果と、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報とに基づいて、エージェント機器200の動作状態を制御するものである。例えば、エージェント制御部125は、擬生物化されたエージェントの顔を構成する各部(眼部E1、E2)を表示部210に表示させる。また、エージェント制御部125は、車両C1の乗員に報知すべき情報(報知情報)を表示部210に表示させる。また、エージェント制御部125は、擬生物化されたエージェントの音声、車両C1の乗員に報知すべき情報に対応する音声等を音出力部220から出力させる。
【0060】
例えば、エージェント制御部125は、表示部210に表示させる報知情報と、音出力部220から出力させる報知情報とを決定し、それらの報知情報を出力させる制御を実行する。なお、車両C1の内部に存在する対象物に関する報知情報については、報知情報DB132に格納されている。また、報知情報の出力例については、図1に示す。例えば、シートベルトの着用に関する報知情報である場合には、シートベルトの着用に関する音声情報を報知情報として出力する。なお、シートベルトを示す画像を報知情報として表示部210に表示してもよい。また、バッテリ残量に関する報知情報である場合には、バッテリ残量を示す音声情報を報知情報として出力したり、バッテリを示す画像を報知情報として表示部210に表示したりする。また、半ドアに関する報知情報である場合には、半ドアを示す音声情報を報知情報として出力したり、ドアを示す画像を報知情報として表示したりする。
【0061】
また、例えば、エージェント制御部125は、出力された報知情報に対してユーザU1に不快感を与えた場合には、その報知情報の出力に対する謝罪をエージェント機器200に実行させる。例えば、図2に示すように、エージェント機器200に謝罪を実行させる。この謝罪として、音声出力による謝罪、しぐさによる謝罪等を実行することが可能である。
【0062】
また、例えば、エージェント制御部125は、ユーザU1が不快状態である場合には、その不快による不快反応に対応する共感演出をエージェント機器200に実行させる。例えば、図11(C)(D)、図12(C)(D)、図13(C)(D)に示すように、エージェント機器200に共感演出を実行させる。この共感演出として、音声出力による共感、しぐさによる共感等を実行することが可能である。なお、エージェント機器200による共感方法については、図11乃至図13等を参照して詳細に説明する。また、エージェント制御部125は、ユーザU1の不快反応に相当する共感演出を実行するための対応方法を決定する対応方法決定部として機能する。
【0063】
記憶部130は、各種情報を記憶する記憶媒体である。例えば、記憶部130には制御部120が各種処理を行うために必要となる各種情報(例えば、制御プログラム、エージェント情報DB131、報知情報DB132、地図情報DB133、周囲状況DB134、ユーザ状態DB150、不快状態DB160、振る舞いDB170)が記憶される。また、記憶部130には、通信部140を介して取得された各種情報が記憶される。記憶部130として、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、SRAM(Static Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせを用いることができる。
【0064】
エージェント情報DB131には、エージェント機器200の各種動作を実現するために必要となる情報が格納されている。例えば、表示部210に表示される顔画像情報(例えば、眼部E1、E2、鼻部N1、手H1、怒り画像AN1乃至AN4、縦線画像V1)と、音出力部220から出力される音声情報とがエージェント情報DB131に格納される。また、例えば、共感演出の実行時にエージェント機器200を動作させるための動作情報等がエージェント情報DB131に格納される。
【0065】
報知情報DB132には、車両C1の内部又は外部に存在する対象物に関する報知情報を出力するために必要となる情報が格納されている。例えば、半ドアに関する報知情報である場合には、ドアを示す画像情報と半ドアを報知するための音声情報とが報知情報として報知情報DB132に格納される。また、例えば、シートベルトの着用に関する報知情報である場合には、シートベルトを示す画像情報とシートベルトの着用を報知するための音声情報とが報知情報として報知情報DB132に格納される。また、例えば、バッテリ残量に関する報知情報である場合には、バッテリを示す画像情報とシートベルトの着用を報知するための音声情報とが報知情報として報知情報DB132に格納される。
【0066】
地図情報DB133には、車両C1の経路案内に必要となる道路に関する道路情報等の地図情報が格納されている。その地図情報には、道路の勾配、道路の交差点、道路の車線数、道幅情報、道路の起伏情報、悪路状態が含まれる。また、地図情報には、速度制限、一方通行等を示す道路標識、横断歩道、区画線等を示す道路標示も含まれる。また、地図情報には、道路構造物(例えば信号機、電信柱)、建物等の施設情報、周囲の観光案内情報等を含めてもよい。なお、エージェント情報DB131、報知情報DB132、地図情報DB133については、車両C1が備える記憶部130に記憶して用いてもよく、ネットワーク20を介して外部機器から取得して用いてもよい。
【0067】
周囲状況DB134には、車両C1の周囲の状況に関する情報が格納されている。これらの情報は、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて取得されて格納される。
【0068】
周囲状況DB134に格納された情報については、車両C1の周囲の状況に関する情報を検出する際における検出精度を向上させるための学習に使用することが可能である。
【0069】
ユーザ状態DB150には、ユーザU1の状態に関する情報が格納されている。これらの情報は、カメラ101、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて取得されて格納される。なお、ユーザ状態DB150については、図7を参照して詳細に説明する。
【0070】
不快状態DB160には、ユーザU1の不快時における不快状態に関する情報が格納されている。これらの情報は、カメラ101、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて取得されて格納される。なお、不快状態DB160については、図8を参照して詳細に説明する。
【0071】
振る舞いDB170には、ユーザU1の不快度と、この不快度に対するエージェント機器200の共感演出の振る舞いとを関連付けた情報が格納されている。なお、振る舞いDB170については、図9を参照して詳細に説明する。
【0072】
エージェント機器200は、情報処理装置110からの指示に基づいて各種動作を実行するロボット機器である。エージェント機器200は、表示部210と、音出力部220と、駆動部230とを備える。なお、表示部210、音出力部220及び駆動部230は、エージェント機器200が備える制御部(図示省略)に基づいて制御される。
【0073】
表示部210は、情報処理装置110からの指示に基づいて、各種画像を表示する表示部である。なお、表示部210として、例えば、有機EL(Electro Luminescence)パネル、LCD(Liquid Crystal Display)パネル等の表示パネルを用いることができる。なお、表示部210については、使用者がその指を表示面に接触又は近接することにより操作入力を行うことが可能なタッチパネルとして構成してもよく、別体のユーザインタフェースとして構成してもよい。
【0074】
音出力部220は、情報処理装置110からの指示に基づいて、各種音声を出力するものである。音出力部220として、例えば、1又は複数のスピーカを用いることができる。なお、表示部210及び音出力部220は、ユーザインタフェースの一例であり、これらのうちの一部を省略してもよく、他のユーザインタフェースを用いてもよい。
【0075】
駆動部230は、情報処理装置110からの指示に基づいて、エージェント機器200の各部を駆動するものである。例えば、駆動部230は、図3(A)乃至(H)に示すように、本体部201を回動させる機構を実現する駆動装置である。例えば、駆動部230は、本体部201を駆動させることが可能なモータ、サーボモータ等により構成される。
【0076】
[センシングの確信度の判定例]
次に、センシングの確信度の判定方法について説明する。上述したように、センシングの確信度が高い場合には、車両C1の周囲の状況に関する情報、ユーザU1に関する情報の取得精度も高くなり、エージェント機器200を制御する際に用いられる機器における処理の確信度が高くなることが想定される。
【0077】
[センシング安定度に基づくセンシングの確信度の判定例]
図5は、センシングの確信度の判定方法の一例を示す図である。図5(A)には、カメラ101、位置情報取得センサ102、音声入力部103、センサ類104の各センサの検出値と、時間との関係を示す。なお、本実施形態では、説明を容易にするため、カメラ101を構成するイメージセンサを例にして説明する。また、本実施形態では、イメージセンサから出力された画素値(センサ素子値)が0又は最大値(例えば255)になったことを、センサ素子値が張り付いた状態と称する。また、本実施形態では、判定処理のタイミングを基準とする規定期間において、センサ素子値が張り付いた状態の割合に基づいて、センシング安定度を求める例を示す。
【0078】
例えば、0乃至255の画素値を出力するイメージセンサを想定する。なお、画素値が0のときは黒に相当し、画素値が255のときは白に相当する。このイメージセンサでは、入射光が強すぎる場合等には、検出できない値として、例えば0又は255を画素値として出力することがある。このように、イメージセンサから検出できない値が出力されている状態をロスト状態と称することもある。例えば、逆光の場合、光の急激な変化が発生した場合等には、イメージセンサがロスト状態となることがある。この場合には、画素値として0又は255が出力される。すなわち、画素値が0又は255に張り付いてしまう状態となる。このように、イメージセンサがロスト状態となり、画素値として0又は255が出力されている場合には、イメージセンサが不安定になっていると推定される。
【0079】
そこで、本実施形態では、イメージセンサがロスト状態となり、画素値として0又は255が出力されている時間の割合に基づいて、センシング安定度を算出する例を示す。例えば、規定期間(例えば数秒(例えば5秒)程度)において、画素値として0又は255が出力されている時間の割合(画素値が張り付いている時間の割合)を求め、この割合に基づいてセンシング安定度を算出することが可能である。具体的には、以下に示すように、張付き割合を算出し、その張付き割合の値を1から引いた値をセンシング安定度として算出する。
張付き割合=画素値が張り付いている時間/規定期間t
センシング安定度=1-張付き割合
【0080】
例えば、張付き割合が100%の場合には、センシング安定度は0%となり、張付き割合が0%の場合には、センシング安定度は100%となる。また、例えば、張付き割合が60%の場合には、センシング安定度は40%となり、張付き割合が30%の場合には、センシング安定度は70%となる。
【0081】
例えば、画素値として255が5秒間出力され続けた場合には、張付き割合=1となるため、センシング安定度は0%となる。すなわち、強い光を検出し続けているような場合には、センシング安定度は0%となり、カメラ101を用いた適切な検出ができていないと推定される。そこで、このような場合には、センシングの確信度が低いと考えることができる。
【0082】
一般に、イメージセンサは、多数の画素により構成されている。このため、上述したセンシング安定度を算出する場合には、イメージセンサを構成する各画素のうち、一部の画素のみを用いてもよく、全部の画素を用いてもよい。例えば、イメージセンサを構成する各画素のうち、張り付いた画素が1画素でも存在する場合には、その1画素が張り付いている時間を用いてセンシング安定度を算出してもよい。また、例えば、イメージセンサを構成する各画素のうち、センシング安定度の算出に用いる1又は複数の画素を設定しておき、その画素の画素値を用いてセンシング安定度を算出してもよい。
【0083】
図5(A)に示すグラフにおいて、横軸は時間軸を示し、縦軸はセンサ検出値(画素値)を示す。また、イメージセンサからのセンサ検出値として、0乃至最大値MAXの値が出力されるものとする。
【0084】
図5(A)に示す例では、確信度の判定時t3を基準として、その判定時t3からt秒前までの期間(すなわち時刻t1から時刻t3までの期間)を規定期間tとする例を示す。なお、時刻t2は、時刻t1から時刻t3までの期間の半分の値とする。なお、tは、例えば5秒程度の値とすることが可能である。なお、tについては、センサの種類、センシング安定度の精度等に基づいて適宜設定可能である。
【0085】
図5(A)に示す例では、時刻t1までのセンサ検出値SE1が、0から最大値MAXまでの間の値であり、時刻t1から時刻t2までのセンサ検出値SE2が0であり、時刻t2以降のセンサ検出値SE3が、0から最大値MAXまでの間の値である場合を想定して説明する。この場合には、センサ検出値が張り付いた状態は、センサ検出値が0となる時刻t1から時刻t2までの時間帯となる。このため、確信度の判定時t3を基準とする規定期間tにおいて、センサ検出値が張り付いた期間の割合(張付き割合)は、1/2となる。この場合には、センシング安定度は、50%(1-1/2)となる。
【0086】
図5(B)に示すグラフにおいて、横軸は時間軸を示し、縦軸はセンシング安定度を示す。また、図5(B)に示す例では、50%から100%の間に、センシングの確信度を判定するための閾値TH1を設定する例を示す。なお、閾値TH1については、実験データ等に基づいて適宜設定可能である。
【0087】
例えば、図5(A)に示す例では、センシング安定度が50%であるため、閾値TH1未満となる。このため、センシングの確信度は低いと判定される。一方、センシング安定度が閾値TH1以上となる場合には、センシングの確信度は高いと判定される。
【0088】
[CPU稼働率に基づくセンシングの確信度の算出例]
上述したセンシング安定度に基づいて、センシングの確信度を判定することが可能である。しかし、各センサから適切な検出値が出力された場合(すなわちセンシング安定度が高い場合)でも、制御部120の稼働率が高いときには、それらの検出値を用いた演算処理が適切に実行されないことも想定される。そこで、制御部120の稼働率を用いてセンシングの確信度を判定してもよい。なお、本実施形態では、制御部120を構成するCPUの稼働率を用いてセンシングの確信度を判定する例を示す。また、CPUの稼働率については、公知の算出方法を用いて算出可能である。
【0089】
図5(C)に示すグラフにおいて、横軸は時間軸を示し、縦軸はCPUの稼働率を示す。また、図5(C)に示す例では、50%から100%の間に、センシングの確信度を判定するための閾値TH2を設定する例を示す。閾値TH2として、100%に近い値を設定することが可能である。なお、閾値TH2については、実験データ等に基づいて適宜設定可能である。
【0090】
例えば、確信度の判定時t21のCPUの稼働率、又は、その判定時t21を基準とする所定期間におけるCPUの稼働率の平均値を求める。そして、CPUの稼働率(又は、その平均値)が閾値TH2以上の場合には、センシングの確信度は低いと判定される。一方、CPUの稼働率(又は、その平均値)が閾値TH2未満である場合には、センシングの確信度は高いと判定される。
【0091】
なお、以上では、センシング安定度に基づくセンシングの確信度の判定方法と、CPU稼働率に基づくセンシングの確信度の判定方法とについて説明したが、これらの双方の判定方法を用いて、センシングの確信度を判定してもよく、何れか一方の判定方法を用いて、センシングの確信度を判定してもよい。例えば、センシング安定度に基づくセンシングの確信度と、CPU稼働率に基づくセンシングの確信度との双方が高いと判定されたことを条件に、センシングの確信度が高いと判定することが可能である。この場合には、センシング安定度に基づくセンシングの確信度と、CPU稼働率に基づくセンシングの確信度との少なくとも1つが低いと判定された場合には、センシングの確信度が低いと判定する。また、他のセンシングの確信度の判定方法を用いてもよい。
【0092】
[ユーザの不快度の判定例]
次に、ユーザU1の不快度を判定する判定方法について説明する。ユーザU1の不快度は、ユーザU1の生体情報(例えば、心拍、血脈)と、ユーザU1から発せられる音と、ユーザU1の外観(例えば、表情、動き)とに基づいて算出が可能である。
【0093】
例えば、ユーザU1が不快になると、ユーザU1が興奮してユーザU1の心拍が速くなることが想定される。そこで、ユーザU1の心拍を数値化してユーザU1の不快度を算出可能である。また、ユーザU1が不快になると、ユーザU1の顔がむっとしたり、怒ったような表情となったり、目が吊り上がったりすることが想定される。そこで、ユーザU1の顔を含む画像を解析することによりユーザU1の表情の変化を取得し、その変化の程度に基づいて、ユーザU1の不快度を算出可能である。例えば、ユーザU1の表情が急激に変化し、かつ、その変化後の表情が所定の表情(例えば、むっとする表情、怒ったような表情、目が吊り上がる表情)になった場合に、ユーザU1の不快度が高いと判定することが可能である。なお、ユーザU1の顔が所定の表情になった場合に、ユーザU1の不快度が高いと判定することも可能である。なお、ユーザU1の顔を含む画像については、カメラ101(図4参照)により取得可能である。また、表情の判定については、公知の表情認識技術(例えば表情判定プログラム)を用いることが可能である。
【0094】
なお、顔に関する他の情報を用いてユーザU1の不快度を判定してもよい。例えば、ユーザU1が怒った場合には、ユーザU1の顔の表面の温度が高くなることが想定される。そこで、カメラ101により取得された画像(ユーザU1の顔を含む)、非接触温度センサ等に基づいて、ユーザU1の顔の表面の温度を推定し、その温度に基づいて、ユーザU1の不快度を判定することが可能である。例えば、ユーザU1の顔の表面の温度の変化に基づいて、ユーザU1の不快度を算出可能である。例えば、ユーザU1の顔の表面の温度が急激に変化し、かつ、その変化後の温度が所定値以上となった場合に、ユーザU1の不快度が高いと判定することが可能である。なお、温度の推定判定については、公知の温度推定技術を用いることが可能である。
【0095】
また、ユーザU1が不快になると、ユーザU1が興奮して特定のキーワード(例えば、このやろう)を発したり、ユーザU1が声を荒げてユーザU1から発せられる声の音量が高くなったりすることが想定される。そこで、ユーザU1から発せられる声を解析することにより、ユーザU1が発した特定のキーワード(例えば、このやろう)、ユーザU1から発せられる声の音量を取得する。そして、ユーザU1が特定のキーワード(例えば、このやろう)を発した場合、又は、ユーザU1から発せられた声の音量が閾値以上となった場合に、ユーザU1の不快度が高いと判定することが可能である。なお、ユーザU1が発する声については、音声入力部103(図4参照)により取得可能である。また、声の判定については、公知の音認識技術(例えば音判定プログラム)を用いることが可能である。また、表情及び音声を合わせて感情を推定する公知の推定技術を用いることも可能である。例えば、表情及び音声を合わせて感情を推定し、その感情をユーザU1の不快度として数値化することが可能である。この数値化されたユーザU1の不快度を用いる例を図6(A)に示す。なお、ユーザU1の生体情報と、ユーザU1の発話内容と、ユーザU1の動作とのうちの少なくとも1つに基づいて算出が可能なユーザU1の不快度に関する他の数値を用いてもよい。
【0096】
図6(A)は、ユーザU1の不快度の判定方法の一例を示す図である。図6(A)に示すグラフにおいて、横軸は時間軸を示し、縦軸はユーザU1の不快度を示す。この不快度については、上述した算出方法により算出可能である。また、第1閾値TH3、第2閾値TH4を点線で示す。なお、第1閾値TH3は、ユーザU1が不快状態であることを判定するための閾値である。また、第2閾値TH4は、ユーザU1が不快状態であり、かつ、その不快度が高いことを判定するための閾値であり、第1閾値TH3よりも大きい値が設定される。本実施形態では、ユーザU1の不快度が第1閾値TH3以上であり、かつ、第2閾値TH4未満である場合を、ユーザU1の不快度が「中」程度と称する。また、ユーザU1の不快度が第2閾値TH4以上である場合を、ユーザU1の不快度が「高」と称する。なお、ユーザU1の不快度が第2閾値TH4付近(第2閾値TH4を中心とする所定範囲)である場合を、ユーザU1の不快度が「中-高」とも称する。
【0097】
なお、第1閾値TH3、第2閾値TH4は、固定値としてもよく、可変値としてもよい。第1閾値TH3、第2閾値TH4を固定値とする場合には、実験データ等に基づいて適宜可能である。また、第1閾値TH3、第2閾値TH4を可変値とする場合には、時刻t31よりも前の所定期間内のユーザU1の不快度に基づいて、第1閾値TH3、第2閾値TH4を設定することが可能である。例えば、時刻t31よりも前の所定期間(例えば数秒乃至数十秒程度)内のユーザU1の不快度の平均値を算出し、この平均値に所定値を加算した値を第1閾値TH3、第2閾値TH4として設定することが可能である。なお、この場合の所定値については、その平均値に基づいて可変としてもよく、実験データ等に基づいて設定された固定値としてもよい。
【0098】
図6(A)に示すグラフにおいて、ユーザU1の不快度の判定タイミングを時刻t31で示す。また、時刻t31以降におけるユーザU1の不快度の遷移例を線UH1乃至UH3で示す。なお、線UH1乃至UH3は、ユーザU1の不快度が上昇している際にユーザU1が発話(時刻t32)をした後に、その発話に共感してエージェント機器200が発話(時刻t33)をした場合における遷移例を示す。また、線UH2、UH3は、ユーザU1の不快度が上昇し、第1閾値TH3、第2閾値TH4以上となった場合の遷移例を示す。一方、線UH1は、ユーザU1の不快度が上昇し、第1閾値TH3以上となったが、第2閾値TH4未満であった場合の遷移例を示す。具体的には、線UH3は、ユーザU1の不快度が急激に上昇した後に、その不快度が急激に下降する場合の遷移例を示す。また、線UH1は、ユーザU1の不快度が緩やかに上昇した後に、その不快度が緩やかに下降する場合の遷移例を示す。また、線UH2は、線UH1、線UH3の中間程度の変化をする場合の遷移例を示す。
【0099】
図6(A)に示すように、ユーザU1の不快度が上昇している際にユーザU1が発話(時刻t32)をした後に、その発話に共感してエージェント機器200が発話(時刻t33)をすることにより、ユーザU1の不快度を下降させることが可能である。なお、これらのエージェント機器200の遷移例については、図11乃至図13等を参照して詳細に説明する。
【0100】
図6(B)は、ユーザU1の不快度と、エージェント機器200の振る舞いとの関係例を示す図である。図6(B)に示すグラフにおいて、横軸はユーザU1の不快度を示し、縦軸はエージェント機器200の振る舞いの程度を示す。なお、ユーザU1の不快度は、上述した算出方法により算出可能である。また、第1閾値TH3、第2閾値TH4については、図6(A)と同様である。また、エージェント機器200の振る舞いの程度は、振る舞いの大きさ、出力音の大きさ等を示す値である。
【0101】
例えば、線OL1に示すように、第2閾値TH4未満である場合には、エージェント機器200の振る舞いを一定とする。一方、第2閾値TH4以上である場合には、ユーザU1の不快度が上昇に応じて、エージェント機器200の振る舞いを大きくする。例えば、エージェント機器200の動きを大きくしたり、動きを速くしたり、エージェント機器200が発する音の音量を大きくしたりすることが可能である。
【0102】
[ユーザ状態DBの格納内容例]
図7は、ユーザ状態DB150(図4参照)の格納内容を簡略化して示す図である。
【0103】
ユーザ状態DB150は、ユーザU1の不快状態に関する情報を管理するためのデータベースである。具体的には、ユーザの周囲状況152と、ユーザの心理状態153と、ユーザの表情154と、ユーザの心拍155と、ユーザの発話内容156とがユーザの不快度151に関連付けてユーザ状態DB150に格納される。なお、ユーザの不快度151の「中」「中-高」「高」は、図6(A)(B)に示す「中」「中-高」「高」に対応する。また、これらの各項目は、一例であり、他の項目を格納してもよく、これらのうちの一部を省略してもよい。
【0104】
例えば、ユーザU1の周囲の状況(車両C1の周囲の状況)が渋滞であり、ユーザの不快度151が「中」程度である場合を想定する。この場合には、ユーザの心理状態153は「渋滞でイライラ」となり、ユーザの表情154は「口がへの字になる」となり、ユーザの心拍155は「高い」となり、ユーザの発話内容156は「混んでいるなぁ」となる。なお、これらの各情報については、カメラ101、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて取得されて格納される。
【0105】
なお、ユーザU1の周囲の状況が似ていれば、ユーザU1の行動は略同じになることが多い。そこで、本実施形態では、不快状態でのユーザU1の行動、発話内容等を学習して学習データを生成し、その学習データを用いてユーザU1の不快度、不快要因を推定する。また、ユーザU1の不快度、不快要因の推定結果に基づいて、ユーザU1の不快状態に対する不快反応に関連する共感演出をエージェント機器200に実行させる。
【0106】
なお、ユーザの心理状態153については、検出することが困難であることが想定される。そこで、例えば、ユーザの不快度151と、ユーザの周囲状況152と、ユーザの表情154と、ユーザの心拍155と、ユーザの発話内容156とに基づいて、ユーザの心理状態153を推定することが考えられる。例えば、予め設定されている複数の項目と、ユーザU1の要素(ユーザの不快度151、ユーザの周囲状況152、ユーザの表情154、ユーザの心拍155、ユーザの発話内容156)との一致度に基づいて、ユーザの心理状態を推定可能である。
【0107】
例えば、ユーザU1から不快な事象に対する声(例えば、暑い、混んでいるな)が出た場合には、その声に基づいて、ユーザの心理状態153を推定可能である。例えば、渋滞に対する声として「混んでいるな」をユーザU1が発した場合には、その声に基づいて、ユーザの心理状態153「渋滞でイライラ」を推定可能である。また、例えば、車内が暑いに対する声として「暑いな」をユーザU1が発した場合には、その声に基づいて、ユーザの心理状態153「暑くて不快」を推定可能である。
【0108】
なお、ユーザU1から不快な事象に対する声が出ない場合には、発話以外の他の要素でユーザの心理状態153を推定する。例えば、渋滞中の場合には、顔の表情等に基づいて「渋滞でイライラ」を推定可能である。また、車内が暑い場合には、顔の表情等に基づいて「暑くて不快」を推定可能である。なお、これらの双方が略同時に発生することも想定される。この場合には、各事象の割合でユーザの心理状態153を推定可能である。例えば、各事象が発生している時間の割合等も考慮して推定が可能である。
【0109】
このように、ユーザU1の不快度が第1閾値TH3以上となった場合には、ユーザU1の不快度「中」「中-高」「高」に関連付けて、カメラ101、音声入力部103、センサ類104、通信部140等から出力された各情報に基づいて取得された各項目がユーザ状態DB150に格納される。なお、ユーザ状態DB150に既に同等の情報(例えば、ユーザの不快度151、ユーザの周囲状況152が同一)が格納されている場合には、その同等の情報を順次更新することにより、ユーザU1に合わせたデータ更新が可能となる。この更新処理では、例えば、新たな情報を上書して格納してもよく、新たな情報のうちから過去の情報との差分を抽出してその差分のみを追加して格納してもよい。例えば、公知の学習方法によりデータ更新をすることが可能である。このように、ユーザ状態DB150は、ユーザU1に応じた情報を格納するユーザスペシフィックなものとなる。
【0110】
なお、ユーザ状態DB150に情報を格納するタイミングは、ユーザU1の不快度が第1閾値TH3以上であり、かつ、ユーザU1の周囲に特定事象(例えば、渋滞、割込み)が検出されたタイミングとすることが可能である。この場合に、そのタイミングでのユーザU1に関する各情報が格納対象となる。
【0111】
[ユーザの不快要因の推定例]
次に、ユーザU1の不快要因を推定する推定方法について説明する。ユーザU1の不快要因は、ユーザU1の周囲の状況、ユーザU1に関する情報等に基づいて推定が可能である。なお、ユーザU1に関する情報として、ユーザU1の不快度の判定処理で用いた各情報、例えば、ユーザU1の生体情報(例えば、心拍、血脈)、ユーザU1から発せられる音、ユーザU1の外観(例えば、表情、動き)等を用いることが可能である。例えば、ユーザU1の不快度が第1閾値TH3以上となったタイミングにおいて、ユーザU1の周辺において生じた特定事象に基づいて推定可能である。
【0112】
例えば、ユーザU1の周囲の状況に基づいて、車両C1の混雑(渋滞)、車内が暑い、後方から前方への他車の急な割込み、前方のトラックの排気ガス、エージェント機器200等の不快要因を推定可能である。
【0113】
例えば、カメラ101により取得された車両C1の周囲の画像(例えば車両C1の前方の画像)、音声入力部103により取得されたユーザU1の声、センサ類104に含まれる各種センサ(例えば、LiDAR、RADAR、Sonar)、通信部140を介して取得可能な渋滞情報等に基づいて、車両C1の周囲に存在する他の車両を検出可能である。そこで、不快要因推定部122は、それらの各情報に基づいて、車両C1が走行している道路が渋滞であるか否かを判定する。例えば、車両C1の前方の画像、LiDAR、RADAR、Sonar等の各センサからの検出情報等に基づいて、車両C1の前方に多数の車両が並んで停止又は低速走行していることが検出された場合には、車両C1が走行している道路が渋滞であると判定可能である。また、例えば、ユーザU1が「混んでるなぁ」等の声を連続して発しているような場合には、車両C1が走行している道路が渋滞であると判定可能である。
【0114】
そして、不快要因推定部122は、車両C1が走行している道路が渋滞である場合には、ユーザU1の不快要因が渋滞(又は混雑)であると推定することが可能である。なお、渋滞情報については、通信部140を介して他の機器(例えば、道路情報提供サーバ)から取得可能である。また、このように取得された渋滞情報と、位置情報取得センサ102により取得された車両C1の現在地とに基づいて、車両C1の周囲の渋滞状況を把握可能である。
【0115】
また、例えば、カメラ101により取得されたユーザU1の画像(例えばユーザU1の顔を含む画像、ユーザU1の全身又はその一部を含む画像)、センサ類104に含まれる各種センサ(例えば、温度センサ、非接触温度センサ)、通信部140を介して取得可能な天候情報等に基づいて、車両C1の内部の温度を検出可能である。そこで、不快要因推定部122は、それらの各情報に基づいて、車両C1の内部の温度が暑いか否かを判定する。そして、不快要因推定部122は、車両C1の内部の温度が、ユーザU1が暑いと感じる以上の温度である場合には、ユーザU1の不快要因が車内の暑さであると推定することが可能である。なお、天候情報については、通信部140を介して他の機器(例えば、気象情報提供サーバ)から取得可能である。また、このように取得された天候情報と、位置情報取得センサ102により取得された車両C1の現在地とに基づいて、車両C1の周囲の温度状況を把握可能である。また、温度センサは、車両C1の内部の温度を検出可能である。また、非接触温度センサは、ユーザU1の体温(例えば、顔の表面温度)を取得可能である。
【0116】
また、ユーザU1の顔を含む画像に基づいて、ユーザU1の顔の表情を検出可能である。そこで、顔の表情に基づいて、車両C1の内部の温度が暑いか否かを判定可能である。例えば、ユーザU1の顔に汗が流れている場合、ユーザU1が顔の汗を拭く動作をしている場合、ユーザU1の顔が赤くなっている場合等には、車両C1の内部の温度が暑いと判定可能である。
【0117】
また、ユーザU1の全身又はその一部を含む画像に基づいて、ユーザU1が装着している服、ユーザU1の動作を検出可能である。そこで、ユーザU1が装着している服、ユーザU1の動作に基づいて、車両C1の内部の温度が暑いか否かを判定可能である。例えば、ユーザU1が薄着である場合、ユーザU1が顔を扇ぐ動作をしている場合、ユーザU1がエアコンの操作を頻繁にしている場合等には、車両C1の内部の温度が暑いと判定可能である。
【0118】
例えば、カメラ101により取得された車両C1の周囲の画像(例えば車両C1の前方を含む周囲の画像、ユーザU1の顔を含む画像)、センサ類104に含まれる各種センサ(例えば、LiDAR、RADAR、Sonar)等に基づいて、車両C1の後方から車両C1の前方への他車の急な割込みを検出可能である。そこで、不快要因推定部122は、それらの各情報に基づいて、車両C1の後方から車両C1の前方への他車の急な割込みがあったか否かを判定する。そして、不快要因推定部122は、車両C1の後方から車両C1の前方への他車の急な割込みがあった場合には、ユーザU1の不快要因がその割込みであると推定することが可能である。
【0119】
例えば、ユーザU1の顔を含む画像に基づいて、ユーザU1の顔の表情を検出可能である。そこで、顔の表情に基づいて、予想外の行動(例えば、急な割込み)が起こったか否かを判定可能である。例えば、予想外の行動が起こったことに対する、びっくりしたような表情となっている場合等には、予想外の行動が発生したと判定可能である。
【0120】
例えば、カメラ101により取得された車両C1の周囲の画像(例えば車両C1の前方の画像)、音声入力部103により取得されたユーザU1の声、センサ類104に含まれる各種センサ(例えば、LiDAR、RADAR、Sonar、臭気センサ)等に基づいて、車両C1の周囲に存在する他の車両の排気ガスを検出可能である。そこで、不快要因推定部122は、それらの各情報に基づいて、車両C1の周囲に存在する他の車両の排気ガスが多いか否かを判定する。例えば、車両C1の周囲の画像、LiDAR、RADAR、Sonar等の各センサからの検出情報等に基づいて、車両C1の周囲に多量の排気ガスを排出する可能性のある車両(例えば大型トラック)が存在することを検出可能である。また、例えば、車両C1の周囲に大型トラックが存在し、かつ、ユーザU1が「排気ガス臭い」等の声を発しているような場合には、車両C1の周囲に多量の排気ガスを排出する大型トラックが存在すると判定可能である。また、例えば、ユーザU1が「排気ガスくさっ」等の声を連続して発しているような場合には、車両C1の周囲に排気ガスを多量に排出する車両(例えば大型トラック)が存在すると判定可能である。
【0121】
また、臭気センサは、車両C1の内部の臭いを検出可能であるため、臭気センサの検出結果に基づいて、車両C1の周囲に排気ガスを排出する車両(例えば大型トラック)が存在すると判定可能である。また、ユーザU1の顔を含む画像に基づいて、ユーザU1の顔の表情を検出可能である。そこで、顔の表情に基づいて、ユーザU1が臭い顔をしているか否かを判定可能である。例えば、ユーザU1が釣り目となり、臭いトラックに対して怒る表情をしている場合、ユーザU1が臭いトラックに対して眉を顰めている場合、ユーザU1が鼻を摘まむような動作をしている場合、ユーザU1が鼻の前を手で扇ぐ動作をしている場合等には、車両C1の周囲に排気ガスを排出する大型トラックが存在すると判定可能である。
【0122】
例えば、カメラ101により取得されたユーザU1の顔の画像、音声入力部103により取得されたユーザU1の声等に基づいて、ユーザU1の状態を検出可能である。そこで、不快要因推定部122は、それらの各情報に基づいて、ユーザU1がエージェント機器200を不快に感じているか否かを判定する。例えば、ユーザU1の顔の表情がムッとしていて、視線がエージェント機器200の方向に向けられている場合には、ユーザU1がエージェント機器200を不快に感じていると判定可能である。また、例えば、ユーザU1が「エージェント、何言っているんだよ」等の声を発しているような場合には、ユーザU1がエージェント機器200を不快に感じていると判定可能である。
【0123】
そして、不快要因推定部122は、ユーザU1がエージェント機器200を不快に感じている場合には、ユーザU1の不快要因がエージェント機器200であると推定することが可能である。
【0124】
なお、ユーザU1の不快要因、又は、ユーザU1の周囲の状況として、複数の条件が発生することも想定される。すなわち、不快の対象が複数となることも想定される。例えば、渋滞中に車内が臭く、かつ、急な割り込みがあることも想定される。このような場合には、複数の不快要因を判定してもよく、不快の程度が高いと想定される不快要因のみを判定してもよい。
【0125】
[不快状態DBの格納内容例]
図8は、不快状態DB160(図4参照)の格納内容を簡略化して示す図である。
【0126】
不快状態DB160は、ユーザU1の不快状態に関する情報を管理するためのデータベースである。具体的には、ユーザの不快度162と、ユーザの不快要因163と、ユーザの不快の特徴164と、ユーザの発話165と、ユーザの動作166とがパターン161に関連付けて不快状態DB160に格納される。なお、パターン161の「パターン1」「パターン2」は、不快状態DB160への格納順に付与される識別情報である。また、これらの各項目は、一例であり、他の項目を格納してもよく、これらのうちの一部を省略してもよい。
【0127】
上述したように、不快要因推定部122は、ユーザU1の不快度が第1閾値TH3以上となった場合には、その不快の要因を推定する。そして、ユーザU1の不快要因が推定された場合には、DB制御部124は、その不快要因とともに、不快要因に関連する各情報を不快状態DB160に格納する。例えば、ユーザU1の不快度(中、中-高、高)がユーザの不快度162に格納され、ユーザU1の不快要因がユーザの不快要因163に格納される。また、その不快要因を推定する際に用いられた特徴がユーザの不快の特徴164に格納され、その不快要因に対応する不快時にユーザU1が発した声がユーザの発話165に格納され、その不快要因に対応する不快時におけるユーザU1の動作がユーザの動作166に格納される。これにより、ユーザU1の不快時に、ユーザU1に応じた特徴的な不快の状態と、発話と、動作とを不快状態DB160に格納しておくことが可能である。
【0128】
例えば、不快要因163、ユーザの不快の特徴164、ユーザの発話165、ユーザの動作166に格納される各要素を予め準備しておき、これらの各要素のうちから選択された情報を各項目に格納してもよい。また、例えば、不快状態DB160に既に同等のパターン(例えば、ユーザの不快度162、ユーザの不快要因163が同一)が格納されている場合には、その同等のパターンに関連する各情報を順次更新することにより、ユーザU1に合わせたデータ更新が可能となる。例えば、公知の学習方法によりデータ更新をすることが可能である。このように、不快状態DB160は、ユーザU1に応じた情報を格納するユーザスペシフィックなものとなる。
【0129】
なお、ユーザ状態DB150、不快状態DB160に格納される各情報については、人工知能(AI:Artificial Intelligence)を利用して取得してもよい。例えば、ユーザU1の不快度が第1閾値TH3以上となった場合におけるユーザU1の不快状態を予め学習しておき、この学習データをユーザ状態DB150、不快状態DB160に格納することが可能である。そして、ユーザU1の不快度が第1閾値TH3以上となった場合にその学習データを用いて、各センサからの情報に基づいて、エージェント機器200に実行させる共感演出の評価値を算出し、その評価値に基づいて、エージェント機器200に共感演出を実行させることが可能である。
【0130】
[振る舞いDBの格納内容例]
図9は、振る舞いDB170(図4参照)の格納内容を簡略化して示す図である。
【0131】
振る舞いDB170は、エージェント機器200に実行させる共感演出に関する情報を管理するためのデータベースである。具体的には、エージェント機器の振る舞い172として、エージェント機器の動作173、エージェント機器の発話174が、ユーザの不快度171に関連付けて振る舞いDB170に格納される。なお、ユーザの不快度171の「中」「中-高」「高」は、図7図8に示すユーザの不快度151、162に対応する。また、エージェント機器の動作173は、エージェント機器200自体の動き、顔の表情の変化による動き等である。なお、これらの各項目は、一例であり、他の項目を格納してもよく、これらのうちの一部を省略してもよい。
【0132】
図9に示すように、エージェント機器200の振る舞いを、ユーザU1の不快度に応じて変化させる。例えば、ユーザの不快度171が高くなるのに応じて(「中」→「中-高」→「高」)、エージェント機器200の動きを大きくしたり、速くしたり、音量を大きくしたり、バリエーションを変化させたりする。このように決定された振る舞いについては、ステップS510、S511、S515、S516(図14参照)の各処理で実行される。
【0133】
なお、エージェント機器の動作173の「プシューと湯気がたつ」については、エージェント機器200の表示部210に湯気が立つような画像(例えば、怒り画像AN2(図3(G)参照))を表示することにより実現可能である。
【0134】
ここで、所定期間内にユーザU1の不快状態が比較的多く発生することも想定される。例えば、ユーザU1が車両C1に乗車して長距離ドライブをしているような場合には、渋滞、割込み、車内が暑い、等の不快状態が1日に多数発生することも想定される。このように、所定期間内にユーザU1の不快状態が比較的多く発生したような場合でも、ユーザU1の不快度が第1閾値TH3以上となる毎に、エージェント機器200に共感演出を実行させることも考えられる。しかし、所定期間内にエージェント機器200に共感演出を複数回実行させると、その共感演出にユーザU1が慣れてしまい、エージェント機器200の振る舞いに対するユーザU1の関心度が低下するおそれもある。例えば、エージェント機器200の最初の発話に対しては、ユーザU1がうなずく、「そうだよな」等の発話を行う等の何らかの反応が出ることが想定される。しかし、そのようなエージェント機器200の発話が繰り返し実行された場合には、ユーザU1がうなずく、「そうだよな」等の発話をしなくなることも想定される。
【0135】
そこで、所定期間内にエージェント機器200に共感演出を複数回実行させる場合には、その回数が増加する毎に、共感演出の振る舞いを変更するようにすることが好ましい。例えば、所定期間内にエージェント機器200に共感演出を複数回実行させる場合において、その回数が増加して共感演出にユーザU1が慣れたと判定されたときには、エージェント機器200に発話させず、振る舞いのみで共感演出を表現するようにする。例えば、1日で共感演出が数回(例えば、4乃至10回程度)繰り返された場合に、共感演出にユーザU1が慣れたと判定することが可能である。なお、ユーザU1の表情、発話内容等に基づいて、共感演出にユーザU1が慣れたか否かを判定してもよい。
【0136】
[ユーザの不快反応に基づくエージェント機器の共感演出例]
図10は、ユーザU1の不快反応に基づくエージェント機器200の共感演出例を簡略化して示す図である。なお、ユーザの不快度が「中」の場合のユーザU1及びエージェント機器200の遷移例を図11に示す。また、ユーザの不快度が「中-高」の場合のユーザU1及びエージェント機器200の遷移例を図12に示す。また、ユーザの不快度が「高」の場合のユーザU1及びエージェント機器200の遷移例を図13に示す。
【0137】
[ユーザの不快反応に共感してエージェント機器が不快反応を演出する例]
次に、ユーザU1の不快反応に共感してエージェント機器200が不快反応を示す振る舞いを演出する場合の遷移例について説明する。
【0138】
[渋滞時にユーザが不快反応を示した場合の演出例]
図11は、車両C1の周囲が渋滞時においてユーザU1が不快反応を示した場合のエージェント機器200の遷移例を示す図である。なお、図11(A)乃至(C)には、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されていない場合におけるエージェント機器200の遷移例を示す。一方、図11(A)、(D)には、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されている場合におけるエージェント機器200の遷移例を示す。
【0139】
図11(A)には、車両C1が存在する道路R1の周囲において渋滞が発生している状態を示す。また、図11(A)では、ユーザU1の不快度が第1閾値TH3以上、第2閾値TH4未満であり、ユーザU1の不快要因が車両C1の周囲の渋滞である場合の例を示す。すなわち、図11では、不快の対象がエージェント機器200ではない場合の例を示す。
【0140】
上述したように、ユーザU1が不快反応を示した場合において、その不快反応と同等の情報が不快状態DB160に格納されているときには、不快状態DB160に基づいて、エージェント機器200の振る舞いを決定することが可能である。しかし、その不快反応と同等の情報が不快状態DB160に格納されていない場合には、不快状態DB160を用いてエージェント機器200の振る舞いを決定することができない。そこで、その不快反応と同等の情報が不快状態DB160に格納されていない場合には、その不快反応時におけるユーザU1の心理状態、ユーザU1の発話内容等に基づいて、エージェント機器200の振る舞いを決定する。
【0141】
なお、同じような渋滞が発生している状態でも、その渋滞を不快に感じていない人も存在することが想定される。このように、同じような渋滞が発生している状態でも、その渋滞を不快に感じていない人は、その不快度が第1閾値TH3以上とはならない。このため、その渋滞を不快に感じていない人に対しては、図11に示す共感演出処理は実行されない。
【0142】
上述したように、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されていない場合には、ユーザU1の不快の対象をユーザU1の不快反応よりも先に予測できない。このため、図11(B)(C)に示すように、ユーザU1の不快反応にエージェント機器200が共感する共感演出を実行する。
【0143】
一方、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されている場合には、不快状態DB160に基づいて、ユーザU1の不快の対象をユーザU1の不快反応よりも先に予測できる、このため、図11(D)に示すように、ユーザU1の不快反応よりも速くエージェント機器200が不快を示す共感演出を実行可能である。例えば、ユーザU1の不快反応として、周囲の渋滞に対する不快を示す声を発する前に、エージェント機器200が不快を示す共感演出を実行可能である。
【0144】
図11(B)には、車両C1の周囲の渋滞について、ユーザU1が発話と動きにより不快反応を示した場合の例を示す。図11(B)では、不快反応として「混んでいるなぁ」の声S11がユーザU1から発せられ、ユーザU1が周囲を見渡す動作をした場合の例を示す。この場合には、不快要因推定部122は、上述したように、ユーザの不快反応(「混んでいるなぁ」の声S11、ユーザU1の表情、ユーザU1が周囲を見渡す動き(矢印A11で示す))と、ユーザU1の周囲の状況(渋滞)とに基づいて、ユーザU1の不快要因を推定することが可能である。なお、ユーザU1が周囲を見渡す動きは、例えば、矢印A11で示すように、ユーザU1が左右方向に顔を振ったり、目を左右方向に移動させたりする動きを意味する。このように、ユーザU1の不快度が第1閾値TH3以上である場合には、ユーザU1の不快の対象を確認することが可能である。
【0145】
図11(C)には、車両C1の周囲の渋滞時において、ユーザU1の不快反応に応じてエージェント機器200が不快反応に共感する共感演出を実行する場合の例を示す。図11(C)では、図10で示したように、エージェント機器200が共感演出(不快反応)として「混んでいるね」の音声情報S12を出力し、エージェント機器200が周囲を見渡す動作(矢印A12で示す)をする場合の例を示す。この共感演出により、図10に示すように、ユーザU1の負担感を軽減することが可能である。また、ユーザU1の不快状態にエージェント機器200が共感することにより、ユーザU1の不快の感情を和らげることが可能となる。
【0146】
このように、車両C1の周囲において渋滞が発生し、ユーザU1の不快度が第1閾値TH3以上となった場合には、ユーザU1は略同じような不快反応を示すことが想定される。例えば、車両C1の周囲において渋滞が発生し、ユーザU1の不快度が第1閾値TH3以上となった場合には、図11(A)乃至(C)に示すような流れが繰り返し実行されると想定される。このように、ユーザU1の不快度が第1閾値TH3以上となり、かつ、ユーザU1の不快要因が同一(又は略同一)である場合には、同じパターンが繰り返し実行されるため、そのパターンを学習することが可能である。
【0147】
そこで、ユーザU1の不快度が第1閾値TH3以上となった場合には、その不快要因と、その不快の特徴と、その不快時における発話とを関連付けて不快状態DB160に格納しておく。そして、同一条件で同じパターンが繰り返し実行された場合には、そのパターンに基づいてユーザU1の不快反応に関連する演出をエージェント機器200が実行する。例えば、車両C1の周囲において渋滞が発生した場合において、同じパターンの発話、動作が所定回(例えば数回乃至数十回)以上、ユーザU1により実行されたときには、そのユーザU1の発話、動作を、エージェント機器200がユーザU1の不快反応として真似する演出を実行する。また、例えば、車両C1の周囲において渋滞が発生した場合において、同じパターンの発話、動作が所定回(例えば数回乃至数十回)以上、ユーザU1により実行されたときには、それらの内容が不快状態DB160に格納される。
【0148】
このように、ユーザU1の不快状態が学習されている状態になった場合において、ユーザU1が不快状態となったときには、ユーザU1が不快反応を示す前に、その不快反応をエージェント機器200が予測して実行してしまう。例えば、図11(D)に示すように、車両C1の周囲における渋滞によりユーザU1が不快状態となったときには、「混んでいるなぁ」とユーザU1が言う前に、それに先んじて、エージェント機器200が「混んでいるね」と予測して言ってしまう。この場合には、ユーザU1は、エージェント機器200も渋滞で混雑していることをわかっているんだね、と感じ、エージェント機器200に対して仲間意識を感じることになる。また、ユーザU1は、車両C1の周囲における渋滞に対するイライラがある状態で、エージェント機器200に共感してもらうことで、心身のリラックスが得られ、ストレスが抑制される。
【0149】
図11(D)には、車両C1の周囲の渋滞時において、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されている場合に、エージェント機器200が不快反応に共感する共感演出を実行する場合の例を示す。上述したように、DB制御部124は、ユーザの不快度162及びユーザの不快要因163(又は、ユーザの不快の特徴164とともに)に基づいて、パターン161からパターン1(図8参照)を抽出することが可能である。この場合には、DB制御部124は、パターン1に関連付けられているユーザの発話165の内容「混んでいるなぁ」と、ユーザの動作166の内容「周囲を見渡す」とをエージェント制御部125に出力する。そして、エージェント制御部125は、ユーザの発話165の内容「混んでいるなぁ」に基づいて、音声情報S13「混んでいるね」をエージェント機器200に出力させる。また、エージェント制御部125は、ユーザの動作166の内容「周囲を見渡す」に基づいて、周囲を見渡す動作(矢印A13で示す)をエージェント機器200に実行させる。このように、ユーザU1の動き及び発話を合わせて共感することにより、ユーザU1は、エージェント機器200に対して親近感、仲間意識を感じ、エージェント機器200に愛着を感じることになる。
【0150】
なお、エージェント機器200が共感演出として発する言葉は、ユーザU1が発すると予測される言葉と同じ言葉(又は、略同じ言葉、同じニュアンスの言葉)とすることが好ましい。すなわち、ユーザU1がいつも発している言葉と同じ言葉をエージェント機器200が発した方が、自分の考えをエージェント機器200が言ってくれたと、ユーザU1が感じる可能性が高い。これにより、ユーザU1が共感してくれる可能性を高めることができる。
【0151】
ただし、エージェント機器200が共感演出として発する声として、ユーザU1が発する声と同じ声(又は、略同じ声)を発すると、ユーザU1が気持ち悪いと感じる可能性も想定される。そこで、エージェント機器200が共感演出として発する声は、エージェント機器200が通常発している声とすることが好ましい。
【0152】
これらの共感演出により、図10に示すように、負担感を軽減することが可能である。また、ユーザU1の不快状態にエージェント機器200が共感することにより、ユーザU1の不快の感情を和らげることが可能となる。
【0153】
図11(A)乃至(C)に示すように、ユーザU1の不快度が急激に上がり、ユーザU1がその不快について発話をしたような場合には、その発話に共感してエージェント機器200が発話することにより、ユーザU1の不快の感情を和らげることが可能である。また、図11(A)(D)に示すように、ユーザU1の不快状態に相当する情報が不快状態DB160に存在する場合には、ユーザU1がその不快について発話をする前に、その不快状態に共感してエージェント機器200が発話することにより、ユーザU1の不快の感情をさらに和らげることが可能である。これらにより、ユーザU1の不快度を下降させることが可能である。
【0154】
なお、渋滞が長時間継続し、かつ、ユーザU1の不快度が第1閾値TH3以上の状態が継続している場合には、所定時間をおいて、上述した共感演出処理を再度実行してもよい。ただし、同じ条件(渋滞)で短い間隔で連続して同じ振る舞いをして共感した場合には、エージェント機器200が何も考えていないロボットのような印象を与えてしまうおそれがある。この場合には、連続して同じ振る舞いをするエージェント機器200に対して、何も考えていないだろうと、ユーザU1が感じ、ユーザU1の不快の感情を和らげることが困難となることも想定される。そこで、同じ条件(渋滞)で所定時間をおいて共感演出を実行する場合には、異なる振る舞いをして共感することが好ましい。例えば、渋滞中に所定時間が経過した後に共感演出を実行する場合には、「まだ混んでいるね」の音声をエージェント機器200が発してもよい。また、同じ条件(渋滞)で同じような振る舞いをする場合には、比較的長い時間をおいて実行することが好ましい。
【0155】
このように、図11(A)乃至(C)に示す流れがある程度実施された後に、図11(A)(D)に示す流れを実行可能となる。ただし、一般的な学習データを不快状態DB160に事前に格納しておくことにより、一般的なユーザの不快反応に相当する共感演出は可能となる。しかし、ユーザU1の共感をより得るためには、ユーザU1のパーソナリティの学習を実行し、ユーザU1の個人の学習データを生成して、ユーザU1の個人の学習データを用いた共感演出を実行することが重要となる。
【0156】
[解決方法が存在する場合のエージェント機器の動作例]
以上では、ユーザU1の不快度が高い場合に、その不快状態に共感する場合の例を示した。ここで、その不快状態を解決するための解決方法が存在することも想定される。例えば、図11に示すように、車両C1が渋滞中である場合には、その渋滞を回避する渋滞回避ルートを検索し、渋滞回避ルートが存在する場合には、その渋滞回避ルートをユーザU1に提案し、その提案をユーザU1が受け入れることにより、渋滞を回避することが可能となる。
【0157】
そこで、車両C1が渋滞中である場合において、その渋滞を回避する渋滞回避ルートが存在するときには、エージェント制御部125は、エージェント機器200に「ここでリルートすると回避できますがどうしますか」の音声情報を出力させる。この音声情報の出力タイミングは、上述した共感演出の実行後でもよく、上述した共感演出の実行前でもよい。
【0158】
なお、ユーザU1が「お願い」の声を発した場合には、エージェント制御部125は、エージェント機器200(又はナビゲーション装置)を用いて渋滞回避ルートを提供する。一方、ユーザU1が「このままでよいよ」の声を発した場合には、エージェント制御部125は、上述した共感処理を繰り返しエージェント機器200に実行させる。
【0159】
また、エージェント制御部125は、解決方法の提案に対するユーザU1の反応に対して「OK」等の音声情報を出力して、その後の処理を継続して実行する。
【0160】
[前方の割込み車両にユーザが不快反応を示した場合の演出例1]
図12は、車両C1の前方に他の車両が急な割込みをした場合においてユーザU1が不快反応を示した場合のエージェント機器200の遷移例を示す図である。なお、図12(A)乃至(C)には、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されていない場合におけるエージェント機器200の遷移例を示す。一方、図12(A)、(D)には、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されている場合におけるエージェント機器200の遷移例を示す。
【0161】
図12(A)には、車両C1が存在する道路R2において前方の車両C2が急な割り込みをしようとしている状態を示す。例えば、道路R2が少し混んでいるような状態で、前方の車両C2が予想外の行動(急な割込み)をしたことに対して、ユーザU1が比較的高い不快反応を示した場合の例を示す。また、図12(A)では、ユーザU1の不快度が第2閾値TH4付近であり、ユーザU1の不快要因が前方での他車の急な割込みである場合の例を示す。すなわち、図12(A)では、不快の対象がエージェント機器200ではない場合の例を示す。
【0162】
上述したように、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されていない場合には、ユーザU1の不快の対象をユーザU1の不快反応よりも先に予測できない。このため、図12(B)(C)に示すように、ユーザU1の不快反応にエージェント機器200が共感する共感演出を実行する。
【0163】
一方、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されている場合には、不快状態DB160に基づいて、ユーザU1の不快の対象をユーザU1の不快反応よりも先に予測できる。このため、図12(D)に示すように、ユーザU1の不快反応よりも速くエージェント機器200が不快を示す共感演出を実行可能である。例えば、ユーザU1の不快反応として、前方での他車の急な割込みに対する不快を示す声を発する前に、エージェント機器200が不快を示す共感演出を実行可能である。
【0164】
図12(B)には、前方の車両C2の急な割込みについて、ユーザU1が発話と動きにより不快反応を示した場合の例を示す。図12(B)では、不快反応として「うわっ」の声S21がユーザU1から発せられ、ユーザU1がびくっとして車両C2(不快の対象)の方向を向く動作をした場合の例を示す。この場合には、不快要因推定部122は、上述したように、ユーザの不快反応(「うわっ」の声S21、ユーザU1の表情、ユーザU1がびくっとして車両C2(不快の対象)の方向を向く動き(矢印A21で示す))と、ユーザU1の周囲の状況(車両C2の急な割込み)とに基づいて、ユーザU1の不快要因を推定することが可能である。なお、ユーザU1がびくっとして車両C2(不快の対象)の方向を向く動きは、例えば、矢印A21で示すように、ユーザU1が車両C2の方向に顔を向けたり、瞳孔が開いたりする動きを意味する。このように、ユーザU1の不快度が第1閾値TH3以上である場合には、ユーザU1の不快の対象を確認することが可能である。
【0165】
図12(C)には、前方の車両C2の急な割込み時において、ユーザU1の不快反応に応じてエージェント機器200が不快反応に共感する共感演出を実行する場合の例を示す。図12(C)では、図10で示したように、エージェント機器200が共感演出(不快反応)として「あっ、この野郎!」の音声情報S22を出力し、エージェント機器200がびくっとして車両C2(不快の対象)の方向を向く動作(矢印A22で示す)をする場合の例を示す。
【0166】
上述したように、図12に示す例は、道路R2が少し混んでいるような状態で、前方の車両C2が予想外の行動(急な割込み)をしたことに対して、ユーザU1が比較的高い不快反応を示した場合の例である。このため、図12(B)で示したユーザU1の不快反応よりも高い不快時の声、動作を真似して共感するようにする。このように、ユーザU1の不快度の高さに基づいて、エージェント機器200に実行させる共感演出を適宜変更することが可能である。この共感演出により、図10に示すように、ユーザU1の負担感を軽減することが可能である。また、ユーザU1の不快状態にエージェント機器200が共感することにより、ユーザU1の不快の感情を和らげることが可能となる。
【0167】
このように、前方の車両C2の急な割込みが発生し、ユーザU1の不快度が第2閾値TH4付近となった場合には、ユーザU1は略同じような不快反応を示すことが想定される。例えば、前方の車両C2の急な割込みが発生し、ユーザU1の不快度が第2閾値TH4付近となった場合には、図12(A)乃至(C)に示すような流れが繰り返し実行されると想定される。このように、前方の車両C2の急な割込みが発生した場合において、同じパターンの発話、動作が所定回(例えば数回乃至数十回)以上、ユーザU1により実行された場合には、図11に示す例と同様に、それらの内容が不快状態DB160に格納される。
【0168】
また、図11に示す例と同様に、ユーザU1の不快状態が学習されている状態になった場合において、ユーザU1が不快状態となったときには、ユーザU1が不快反応を示す前に、その不快反応をエージェント機器200が予測して実行してしまう。例えば、前方の車両C2の急な割込みによりユーザU1が不快状態となったときには、「うわっ」とユーザU1が言う前に、それに先んじて、エージェント機器200が「うわっ」と予測して言ってしまう。この場合には、ユーザU1は、エージェント機器200も前方の車両C2の急な割込みでびっくりしていることをわかっているんだね、と感じ、エージェント機器200に対して仲間意識を感じることになる。また、ユーザU1は、前方の車両C2の急な割込みに対するイライラがある状態で、エージェント機器200に共感してもらうことで、心身のリラックスが得られ、ストレスが抑制される。
【0169】
図12(D)には、前方の車両C2の急な割込み時において、ユーザU1の不快反応と同等の情報が不快状態DB160に格納されている場合に、エージェント機器200が不快反応に共感する共感演出を実行する場合の例を示す。上述したように、DB制御部124は、ユーザの不快度162及びユーザの不快要因163(又は、ユーザの不快の特徴164とともに)に基づいて、パターン161からパターン2(図8参照)を抽出することが可能である。この場合には、DB制御部124は、パターン2に関連付けられているユーザの発話165の内容「うぁっ」と、ユーザの動作166の内容「不快対象に向きを変える」とをエージェント制御部125に出力する。そして、エージェント制御部125は、ユーザの発話165の内容「うぁっ」に基づいて、音声情報S23「うぁっ」をエージェント機器200に出力させる。また、エージェント制御部125は、ユーザの動作166の内容「不快対象に向きを変える」に基づいて、車両C2(不快の対象)の方向を向く動作(矢印A23で示す)をエージェント機器200に実行させる。このように、ユーザU1の動き及び発話を合わせて共感することにより、ユーザU1は、エージェント機器200に対して親近感、仲間意識を感じ、エージェント機器200に愛着を感じることになる。
【0170】
これらの共感演出により、図10に示すように、負担感を軽減することが可能である。また、ユーザU1の不快状態にエージェント機器200が共感することにより、ユーザU1の不快の感情を和らげることが可能となる。
【0171】
このように、急な割込みの場合の一連の流れの中で、ワンテンポ速くエージェント機器200がユーザU1の発話を真似して怒るようにする。例えば、ユーザU1が特定のキーワード「うぁっ」を出す直前のタイミングで、エージェント機器200がそのキーワード「うぁっ」を発するようにする。
【0172】
[前方の割込み車両にユーザが不快反応を示した場合の演出例2]
図13は、車両C1の前方に他の車両が急な割込みをした場合においてユーザU1が不快反応を示した場合のエージェント機器200の遷移例を示す図である。なお、図13に示す例は、図12に示す例と同様に、車両C1の前方に車両C2が急な割り込みをする場合の例を示す。ただし、図13に示す例は、前方の車両C2の急な割り込みに対して、ユーザU1が怒り、ユーザU1の不快度が第2閾値TH4以上となる場合の例を示す。例えば、車両C1の前方を走行している車両C3と車両C1との間隔が短く、その短い隙間に車両C2がすっと入ってくるような状態が想定される。このように、図13では、前方で急な割り込みをする車両C2の状態と、ユーザU1の心理状態、表情、動き等が、図12に示す例とは異なる場合の例を示す。なお、これら以外については、図12に示す例と同様であるため、図12と共通する部分については、説明を省略する。
【0173】
図13(A)には、車両C1が存在する道路R2において前方の車両C2が急な割り込みをしようとしている状態を示す。また、図13(A)では、ユーザU1の不快度が第2閾値TH4以上であり、ユーザU1の不快要因が前方での他車の急な割込みである場合の例を示す。すなわち、図13(A)では、不快の対象がエージェント機器200ではない場合の例を示す。
【0174】
図13(B)には、前方の車両C2の急な割込みについて、ユーザU1が発話と動きにより不快反応を示した場合の例を示す。図13(B)では、不快反応として強い怒りを示す「急に入ってくるなよ!」の声S31がユーザU1から発せられ、ユーザU1が怒りで車両C2(不快の対象)の方向を向く動作をした場合の例を示す。この場合には、ユーザU1の動作の動きが速くなるとともに大きくなる。
【0175】
不快要因推定部122は、上述したように、ユーザの不快反応(「急に入ってくるなよ!」の声S31、ユーザU1の表情、ユーザU1が怒りで車両C2(不快の対象)の方向を向く動き(矢印A31で示す))と、ユーザU1の周囲の状況(車両C2の急な割込み)とに基づいて、ユーザU1の不快要因を推定することが可能である。なお、ユーザU1が怒りで車両C2(不快の対象)の方向を向く動きは、例えば、矢印A31で示すように、ユーザU1が車両C2の方向に顔を向けたり、目が吊りあがったりする動きを意味する。また、ユーザU1が怒りによりユーザU1の顔の表面温度が高くなる。このように、ユーザU1の不快度が第2閾値TH4以上である場合には、ユーザU1の不快の対象を確認することが可能である。
【0176】
図13(C)には、前方の車両C2の急な割込み時において、ユーザU1の不快反応に応じてエージェント機器200が不快反応に共感する共感演出を実行する場合の例を示す。図13(C)では、図10で示したように、エージェント機器200が共感演出(不快反応)として、ユーザU1の怒りよりも強い怒りを示す「ふざけるな!邪魔だ!」の音声情報S32を出力し、エージェント機器200が怒りで車両C2(不快の対象)の方向を向く動作(矢印A22で示す)をする場合の例を示す。また、エージェント機器200の後頭部に怒りを示す怒り画像AN3を表示させる。この共感演出により、図10に示すように、ユーザU1の負担感を軽減することが可能である。また、ユーザU1の不快状態にエージェント機器200が共感することにより、ユーザU1の不快の感情を和らげることが可能となる。
【0177】
このように、前方の車両C2の急な割込みが発生し、ユーザU1の不快度が第2閾値TH4以上となった場合には、ユーザU1は略同じような不快反応を示すことが想定される。例えば、前方の車両C2の急な割込みが発生し、ユーザU1の不快度が第2閾値TH4以上となった場合には、図13(A)乃至(C)に示すような流れが繰り返し実行されると想定される。このように、前方の車両C2の急な割込みが発生した場合において、同じパターンの発話、動作が所定回(例えば数回乃至数十回)以上、ユーザU1により実行された場合には、図12に示す例と同様に、それらの内容が不快状態DB160に格納される。
【0178】
また、図12に示す例と同様に、ユーザU1の不快状態が学習されている状態になった場合において、ユーザU1が不快状態となったときには、ユーザU1が怒りの不快反応を示す前に、その怒りの不快反応をエージェント機器200が予測して実行してしまう。例えば、前方の車両C2の急な割込みによりユーザU1が不快状態となったときには、「急に入ってくるなよ!」とユーザU1が言う前に、それに先んじて、エージェント機器200が「急に入ってくるなよ!」と予測して言ってしまう。この場合には、ユーザU1は、エージェント機器200も前方の車両C2の急な割込みで怒っていることをわかっているんだね、と感じ、エージェント機器200に対して仲間意識を感じることになる。また、ユーザU1は、前方の車両C2の急な割込みに対するイライラがある状態で、エージェント機器200に共感してもらうことで、心身のリラックスが得られ、ストレスが抑制される。
【0179】
図13(D)には、前方の車両C2の急な割込み時において、ユーザU1の怒りの不快反応と同等の情報が不快状態DB160に格納されている場合に、エージェント機器200が怒りの不快反応に共感する共感演出を実行する場合の例を示す。上述したように、DB制御部124は、ユーザの不快度162及びユーザの不快要因163(又は、ユーザの不快の特徴164とともに)に基づいて、パターン161からパターン3(図8参照)を抽出することが可能である。この場合には、DB制御部124は、パターン3に関連付けられているユーザの発話165の内容「急に入ってくるなよ!」と、ユーザの動作166の内容「不快対象に向きを変える、動きが速く大きい、怒りの表情」とをエージェント制御部125に出力する。そして、エージェント制御部125は、ユーザの発話165の内容「急に入ってくるなよ!」に基づいて、音声情報S33「急に入ってくるなよ!」をエージェント機器200に出力させる。また、エージェント制御部125は、ユーザの動作166の内容「不快対象に向きを変える、動きが速く大きい、怒りの表情」に基づいて、車両C2(不快の対象)の方向を向く動作(矢印A33で示す)をエージェント機器200に実行させる。また、エージェント機器200の後頭部に怒りを示す怒り画像AN4を表示させる。このように、ユーザU1の動き及び発話を合わせて共感することにより、ユーザU1は、エージェント機器200に対して親近感、仲間意識を感じ、エージェント機器200に愛着を感じることになる。
【0180】
図13(C)に示すように、ユーザU1の怒りよりも強い怒りをエージェント機器200が実行するようにする。また、図13(D)に示すように、ユーザU1の怒りよりも速く怒りをエージェント機器200が実行するようにする。これにより、ユーザU1の怒りの対象をエージェント機器200が共有しているようにユーザU1に感じさせることが可能である。これにより、ユーザU1の怒りの負担感を軽減させることが可能である。また、ユーザU1がエージェント機器200の怒る振る舞いを見て冷静になることも想定される。これにより、ユーザU1の不快の感情を和らげることが可能である。
【0181】
例えば、図13(C)(D)に示すように、ユーザU1の怒りにエージェント機器200が共感してエージェント機器200が怒る振る舞いをすることにより、ユーザU1が共感して「そうだよな!」等の声を発することも想定される。これにより、ユーザU1の不快の感情を和らげることが可能である。
【0182】
このように、急な割込みの場合の一連の流れの中で、ワンテンポ速くエージェント機器200がユーザU1の発話を真似して怒るようにする。例えば、ユーザU1が特定のキーワード「急に入ってくるなよ!」を出す直前のタイミングで、エージェント機器200がそのキーワード「急に入ってくるなよ!」を発するようにする。
【0183】
ここで、一般に、他人が激しく怒っている様子を見ると、人は意外と冷静になることが多い。そこで、ユーザU1の怒りにエージェント機器200が共感してエージェント機器200が激しく怒る振る舞いをすることにより、ユーザU1が冷静になり「そこまではないよ」等の声を発することも想定される。
【0184】
なお、図11乃至図13に示す例では、ユーザU1の不快状態を学習をして、その不快を感じたユーザU1が最初に発すると想定される言葉を、エージェント機器200が先に出すようにする。このように、ユーザU1は、自分が言うであろう言葉を、エージェント機器200が先に言ってくれたことに対して、エージェント機器200に共感すると想定される。
【0185】
[情報処理装置の動作例]
図14は、情報処理装置110における共感演出処理の一例を示すフローチャートである。また、この共感演出処理は、記憶部130に記憶されているプログラムに基づいて制御部120により実行される。また、この共感演出処理は、制御周期毎に常時実行される。また、この共感演出処理では、図1乃至図13を適宜参照して説明する。
【0186】
ステップS501において、制御部120は、車両C1の周囲の状況と、ユーザU1とに関するセンシングを実行する。そして、制御部120は、センシングの確信度を算出する。具体的には、確信度判定部123は、各センサから取得された各情報に基づいて、センシングの確信度を算出する。例えば、図5で示したように、センシング安定度、CPU稼働率等に基づいてセンシングの確信度を算出することが可能である。
【0187】
ステップS502において、確信度判定部123は、ステップS501で出力されたセンシングの確信度が基準(例えば、閾値TH1(図5(B)参照)、閾値TH2(図5(C)参照))よりも高いか否かを判定する。センシングの確信度が基準よりも高い場合には、ステップS503に進む。一方、センシングの確信度が基準よりも低い場合には、共感演出処理の動作を終了する。
【0188】
このように、センシングの確信度が高い場合には、そのセンシングに基づく制御部120の各処理の確信度も高いと想定される。一方、センシングの確信度が低い場合には、そのセンシングに基づく制御部120の各処理の確信度も低いと想定される。そこで、センシングの確信度が高い場合には、ユーザU1の不快状態を適切に判定可能となるため、ステップS503に進み、共感処理、謝罪処理を実行する。一方、センシングの確信度が低い場合には、ユーザU1の不快状態を適切に判定することが困難となるため、共感処理、謝罪処理を実行しない。このように、センシングの確信度に基づいて、共感処理、謝罪処理の要否を決定することにより、エージェント機器200がユーザU1に理解できない行動をとるリスクを分岐させておくことが可能である。
【0189】
ステップS503において、不快度判定部121は、各センサから取得された各情報に基づいて、ユーザU1の不快度を推定する。例えば、図6(A)で示したように、ユーザU1の生体情報(例えば、心拍、血脈)と、ユーザU1から発せられる音と、ユーザU1の外観(例えば、表情、動き)とに基づいて、ユーザU1の不快度を算出することが可能である。
【0190】
ステップS504において、不快度判定部121は、ステップS503で推定されたユーザU1の不快度が第1閾値TH3以上であるか否かを判定する。ユーザU1の不快度が第1閾値TH3以上である場合には、ステップS505に進む。一方、ユーザU1の不快度が第1閾値TH3未満である場合には、共感演出処理の動作を終了する。なお、ユーザU1の不快度が第1閾値TH3以上である状態が所定時間(例えば数秒乃至数分)継続したことを条件に、ステップS505に進むようにしてもよい。これにより、共感演出が頻発してユーザU1の信頼性を損なうことを防止することが可能である。
【0191】
ステップS505において、不快要因推定部122は、各センサから取得された各情報に基づいて、ユーザU1の不快要因を推定する。例えば、図7等で示したように、ユーザU1の不快要因を推定することが可能である。
【0192】
ステップS506において、不快要因推定部122は、ユーザU1の不快の対象がエージェント機器200であるか否かを判定する。すなわち、不快要因推定部122は、ステップS505で推定されたユーザU1の不快要因がエージェント機器200であるか、他のものであるかを判定する。ユーザU1の不快の対象がエージェント機器200である場合には、ステップS507に進む。一方、ユーザU1の不快の対象がエージェント機器200以外のものである場合には、ステップS508に進む。
【0193】
ステップS507において、エージェント制御部125は、ユーザU1を不快にしたことを謝罪する謝罪演出をエージェント機器200に実行させる。例えば、図2に示すように、エージェント機器200にユーザU1を不快にしたことを音声出力により謝罪させる。
【0194】
ステップS508において、DB制御部124は、ユーザU1の不快状態と同等の情報が不快状態DB160に存在するか否かを判定する。具体的には、DB制御部124は、ステップS503で推定されたユーザU1の不快度と、ステップS505で推定されたユーザU1の不快要因とに基づいて、ユーザU1の不快状態と同等の情報が不快状態DB160に存在するか否かを判定する。例えば、ユーザU1の不快度が「中」であり、ユーザU1の不快要因が「渋滞」である場合には、パターン1(図8参照)に相当するため、ユーザU1の不快状態と同等の情報が不快状態DB160に存在すると判定される。また、ユーザU1の不快状態と同等の情報が不快状態DB160に存在する場合には、DB制御部124は、その同等の不快情報を不快状態DB160から取得し、エージェント制御部125に出力する。そして、ステップS509に進む。一方、ユーザU1の不快状態と同等の情報が不快状態DB160に存在しない場合には、ステップS512に進む。
【0195】
例えば、車両C1が新車の場合には、ユーザU1に関する情報が不快状態DB160に格納されていない。一方、ユーザU1が車両C1に乗車する回数が増加するのに応じて、ユーザU1に関する情報が不快状態DB160に格納されていく。
【0196】
ステップS509において、不快度判定部121は、ステップS503で推定されたユーザU1の不快度が第2閾値TH4以上であるか否かを判定する。ユーザU1の不快度が第2閾値TH4以上である場合には、ステップS510に進む。一方、ユーザU1の不快度が第2閾値TH4未満である場合には、ステップS511に進む。
【0197】
ステップS510において、エージェント制御部125は、不快度が高いユーザU1がその不快に関する発話をする前に、ユーザU1が示すと想定される不快反応と同等以上の反応をエージェント機器200に実行させる。具体的には、エージェント制御部125は、DB制御部124から出力された不快情報(不快状態DB160の不快情報)に基づいて、ユーザU1が示すと想定される不快反応と同等以上の反応をエージェント機器200に実行させる。例えば、図13(D)に示すように、音声情報S33「急に入ってくるなよ!」がエージェント機器200から出力され、車両C2(不快の対象)の方向を向く動作(矢印A33で示す)がエージェント機器200により実行され、エージェント機器200の後頭部に怒りを示す怒り画像AN4が表示される。
【0198】
ステップS511において、エージェント制御部125は、不快度が高いユーザU1がその不快に関する発話をする前に、ユーザU1が示すと想定される不快反応と同等未満の反応をエージェント機器200に実行させる。具体的には、エージェント制御部125は、DB制御部124から出力された不快情報(不快状態DB160の不快情報)に基づいて、ユーザU1が示すと想定される不快反応と同等未満の反応をエージェント機器200に実行させる。例えば、図11(D)に示すように、音声情報S13「混んでいるね」がエージェント機器200から出力され、周囲を見渡す動作(矢印A13で示す)がエージェント機器200により実行される。
【0199】
このように、ステップS510では、不快反応と同等以上の反応をエージェント機器200に実行させ、ステップS510では、不快反応と同等未満の反応をエージェント機器200に実行させる。この場合に、不快状態DB160に格納されている不快情報に基づいて、不快反応と同等以上の反応、又は、不快反応と同等未満の反応を決定してもよく、これらの反応を振る舞いDB170(図9参照)に基づいて修正してもよい。例えば、不快反応と同等未満の反応として「あーびっくりした」等のマイルドな感じを実現することが可能である。また、比較的低い音量に修正してマイルドな感じを実現することが可能である。一方、不快反応と同等以上の反応として「この野郎」「入ってくるんじゃねえよ」等のけんか腰の感じ、怒っている感じを実現することが可能である。また、比較的高い音量に修正してけんか腰の感じ、怒っている感じを実現することが可能である。また、エージェント機器200の表情を激しくさせたり(例えば、真っ赤にする)、目を吊り上げたり、湯気が出る演出を実行したりしてもよい。このように、不快反応と同等以上の反応として、ユーザU1よりもさらに激しいシチュエーションを用意しておき、実現することが可能である。
【0200】
ステップS512において、不快度判定部121は、ステップS505で推定されたユーザU1の不快要因となる不快の対象に、ユーザU1が不快の声を発したか否かを判定する。例えば、図11(B)に示すように、不快の対象が渋滞である場合において、渋滞に対して「混んでいるなぁ」とユーザU1が発したときには、不快の対象にユーザU1が不快の声を発したと判定される。また、例えば、図12(B)、図13(B)に示すように、不快の対象が車両の急な割込みである場合において、その割込みをした車両に対して「うわっ」「急に入ってくるなよ」とユーザU1が発したときには、不快の対象にユーザU1が不快の声を発したと判定される。不快の対象にユーザU1が不快の声を発した場合には、ステップS513に進む。一方、不快の対象にユーザU1が不快の声を発していない場合には、ユーザU1の不快反応に応じた共感演出を実行できないため、共感演出処理の動作を終了する。なお、この判定処理については、所定時間(例えば、数秒程度)繰り返し実行してもよい。
【0201】
ステップS513において、DB制御部124は、ステップS503で推定されたユーザU1の不快度と、ステップS505で推定されたユーザU1の不快要因と、ステップS512で判定されたユーザU1の不快の声とを関連付けて不快状態DB160に格納する。例えば、図8に示すように、不快状態DB160に各情報が格納される。
【0202】
ステップS514において、不快度判定部121は、ステップS503で推定されたユーザU1の不快度が第2閾値TH4以上であるか否かを判定する。ユーザU1の不快度が第2閾値TH4以上である場合には、ステップS515に進む。一方、ユーザU1の不快度が第2閾値TH4未満である場合には、ステップS516に進む。
【0203】
ステップS515において、エージェント制御部125は、ユーザU1の不快に関する発話に基づいて、ユーザU1の不快反応と同等以上の反応をエージェント機器200に実行させる。例えば、図13(C)に示すように、ユーザU1の怒りよりも強い怒りを示す「ふざけるな!邪魔だ!」の音声情報S32が出力され、怒りで車両C2(不快の対象)の方向を向く動作(矢印A22で示す)がエージェント機器200により実行される。また、エージェント機器200の後頭部に怒りを示す怒り画像AN3が表示される。
【0204】
ステップS516において、エージェント制御部125は、ユーザU1の不快に関する発話に基づいて、ユーザU1の不快反応と同等未満の反応をエージェント機器200に実行させる。例えば、図11(C)に示すように、「混んでいるね」の音声情報S12が出力され、周囲を見渡す動作(矢印A12で示す)がエージェント機器200により実行される。
【0205】
このように、ステップS515では、不快反応と同等以上の反応をエージェント機器200に実行させ、ステップS516では、不快反応と同等未満の反応をエージェント機器200に実行させる。この場合には、不快状態DB160に格納されている不快情報を用いることができないため、不快反応と同等以上の反応、又は、不快反応と同等未満の反応を、振る舞いDB170(図9参照)に基づいて修正するようにする。例えば、ステップS510、S511と同様に、不快反応と同等未満の反応として「あーびっくりした」等のマイルドな感じを実現することが可能である。また、比較的低い音量としてマイルドな感じを実現することが可能である。一方、不快反応と同等以上の反応として「この野郎」「入ってくるんじゃねえよ」等のけんか腰の感じ、怒っている感じを実現することが可能である。また、比較的高い音量としてけんか腰の感じ、怒っている感じを実現することが可能である。また、エージェント機器200の表情を激しくさせたり(例えば、真っ赤にする)、目を吊り上げたり、湯気が出る演出を実行したりしてもよい。このように、不快反応と同等以上の反応として、ユーザU1よりもさらに激しいシチュエーションを用意しておき、実現することが可能である。
【0206】
このように、ステップS510、S511の処理では、マイルドな感じ、激しい感じが学習された学習データを使用することが可能であり、ステップS515、S516の処理では、その場で学習したデータを使用することが可能である。すなわち、ステップS515、S516の処理では、その場でのユーザU1の言葉を真似するように、エージェント機器200が共感演出を実行する。
【0207】
なお、ステップS510、S511、S515、S516の各共感演出処理は、一度の振る舞い、音声出力を実行した後に終了してもよく、振る舞いを所定時間(例えば、数秒程度)継続してもよい。
【0208】
ステップS517において、不快度判定部121は、ユーザU1の不快度が第1閾値TH3以上となる期間が所定値(例えば数分乃至数十分程度)以上継続しているか否かを判定する。ユーザU1の不快度が第1閾値TH3以上となる期間が所定値以上継続している場合には、ステップS518に進む。一方、ユーザU1の不快度が第1閾値TH3以上となる期間が所定値未満であった場合には、共感演出処理の動作を終了する。
【0209】
ステップS518において、制御部120は、ユーザU1の不快を解消する他の処理を実行する。例えば、ユーザU1がリラックスするような音楽を出力させたり、ユーザU1がリラックスするような香りを発生させたりすることが可能である。このように、ユーザU1の不快状態がある程度継続しているような場合には、エージェント機器200からの発話や、エージェント機器200を用いた発話等のコミュニケーションだけではなく、音楽、香り等の別の手段を用いてユーザU1に対応するようにする。
【0210】
例えば、渋滞が継続している場合において、ユーザU1の不快状態が継続することも想定される。このような場合に、エージェント機器200が共感演出を実行しても、ユーザU1は、お前も怒っているが、自分もすっきりしない、と考えることも想定される。そこで、このような場合には、エージェント機器200以外の他の手段を用いてユーザU1に対応するようにする。これにより、ユーザU1の不快状態を軽減させる可能性を高めることが可能である。
【0211】
なお、ステップS504、S509、S514において、ユーザU1の不快度が閾値(第1閾値TH3、第2閾値TH4)以上であるか否かを判定する例を示した。ただし、ユーザU1の不快度が閾値以上であるか否かを判定する判定処理を実行する代わりに、ユーザU1の不快度の変化の傾きが閾値以上であるか否かを判定する判定処理を実行してもよい。例えば、ユーザU1が急激に不快状態となり、ユーザU1の血圧が急激に上昇することも想定される。このような場合には、ユーザU1の不快度が急激に変化するため、ユーザU1の不快度の変化の傾きが急激に高くなる。そこで、このような場合でも、エージェント機器200の共感演出を実行できるように、ユーザU1の不快度の絶対値の閾値ではなく、ユーザU1の不快度の傾きの閾値を使用してもよい。なお、これらの双方の判定処理を実行し、ユーザU1の不快度の絶対値と、ユーザU1の不快度の傾きとのうちの少なくとも1つが閾値を超えたことを条件としてもよい。
【0212】
また、図11で説明したように、ユーザU1の不快状態を解決するための解決方法が存在する場合には、ステップS507、S510、S511、S515、S516での共感演出処理後に、その解決方法を提案する提案処理を実行してもよい。この提案によりユーザU1の不快状態が解消することも想定される。すなわち、ユーザU1の不快状態を軽減させる可能性を高めることが可能である。
【0213】
なお、図14では、ユーザU1の不快度が第1閾値TH3以上、かつ、第2閾値TH4未満の場合にユーザU1の不快度が「中」と判定され、ユーザU1の不快度が第2閾値TH4以上の場合にユーザU1の不快度が「高」と判定される場合の例を示す。ただし、図6(A)(B)と同様に、ユーザU1の不快度が第1閾値TH3以上、かつ、第2閾値TH4付近(第2閾値TH4を中心とする所定範囲)の場合にユーザU1の不快度が「中-高」と判定してもよい。このように、ステップS509、S514の判定処理において、ユーザU1の不快度が「中-高」と判定された後には、ユーザの不快反応と同等程度の反応を演出する共感演出処理を実行することが可能である。
【0214】
例えば、ステップS509の判定処理において、ユーザU1の不快度が「中-高」と判定された場合には、図12(C)に示すように、ユーザU1の不快反応と同等程度の反応を示す「あっ、この野郎!」の音声情報S22が出力され、びくっとして車両C2(不快の対象)の方向を向く動作(矢印A22で示す)がエージェント機器200により実行される。
【0215】
例えば、ステップS514の判定処理において、ユーザU1の不快度が「中-高」と判定された場合には、図12(D)に示すように、ユーザU1の不快反応と同等程度の反応を示す「うぁっ」の音声情報S23が出力され、車両C2(不快の対象)の方向を向く動作(矢印A23で示す)がエージェント機器200により実行される。
【0216】
[エージェント機器を2次元で表現する例]
以上では、3次元のエージェント機器200を例にして説明した。ただし、エージェント機器の生き物らしさを表現することが可能であれば、2次元画像として、エージェント画像を表示して本実施形態を適用してもよい。また、車両C1にHUD(Head Up Display)を実現するための表示媒体が設けられている場合には、その表示媒体にエージェント画像を表示して本実施形態を適用することが可能である。
【0217】
[車両以外に設置可能なエージェント機器の例]
以上では、車両C1に設置されるエージェント機器200の例を示した。ただし、車両C1から取り外し可能なエージェント機器、車両以外に設置可能なエージェント機器等についても本実施形態を適用可能である。例えば、例えば、携帯型のエージェント機器を所持するユーザが、車両C1に乗車するときには、車両C1のダッシュボード2上にそのエージェント機器を設置し、車両C1から降りる場合には、ユーザがそのエージェント機器を所持して持ち歩くことも想定される。また、ユーザが家庭内でエージェント機器を使用することも想定される。また、エージェント画像(エージェント機器200に相当)を表示させることが可能な各種機器(例えば、ゲーム機器、眼鏡型ディスプレイ、AR(Augmented Reality)グラス)を使用することも想定される。
【0218】
例えば、家庭内では、家庭内に設置されている各機器に関する報知情報を出力することが考えられる。例えば、お風呂が沸いたタイミング、調理器具の調理が終了したタイミング等で、その旨を報知することが想定される。また、例えば、玄関のドア、窓が開いた状態の場合に、その旨を報知することが想定される。また、例えば、ガスコンロの火を消し忘れている場合に、その旨を報知することが想定される。これらの場合には、お風呂、各調理器具、ドア、窓等に関する報知情報を提供することが想定される。
【0219】
また、例えば、ユーザU1の不快度が第1閾値TH3以上になった場合には、ユーザU1の不快状態を軽減させるための共感演出、謝罪演出を実行する。なお、ユーザU1の不快度については、上述した例と同様に、ユーザU1の生体情報(例えば、心拍、血脈)と、ユーザU1から発せられる音と、ユーザU1の外観(例えば、表情、動き)とに基づいて算出可能である。また、ユーザU1の不快要因についても、上述した推定方法と同様に推定可能である。また、共感演出、謝罪演出の態様については、使用機器、使用状態に応じて適宜設定が可能である。
【0220】
例えば、ゲーム機器の表示画面において、ゲームの内容とは異なるエージェント画像(エージェント機器200に相当する画像)を表示させる場合を想定する。この場合には、エージェント画像を表示可能なゲーム機器がエージェント機器200に相当する。このゲーム機器において、ゲーム機器において他のプレイヤーがうまくやれてないときに「ちょっと、そっちにいくとやられるぞ!」とエージェント画像が怒ってくれる共感演出を実行する。
【0221】
また、例えば、ゲーム機器とは異なるエージェント機器Aを用いる場合を想定する。例えば、ゲーム機器及びエージェント機器Aは、有線通信又は無線通信を利用して通信が可能であるものとする。この場合には、ゲーム機器において他のプレイヤーがうまくやれてないときに「ちょっと、そっちにいくとやられるぞ!」とエージェント機器Aが怒りの音声情報を出力してくれる共感演出を実行する。このように、ユーザU1の代わりに、ユーザU1が言うよりも先にエージェント画像又はエージェント機器Aが怒ってくれることにより、ユーザU1は、冷静になることが可能であり、その怒りを発する手間を省くことが可能である。また、対戦型ゲームのチーム戦の場合には、「あっちいけ」、「そっちいけ」等の音声情報を出力する共感演出を実行することが可能である。
【0222】
また、例えば、仮想空間において、ユーザU1とは異なるエージェント(エージェント機器200に相当する画像)のアバターを登場させる場合を想定する。この場合には、仮想空間においてエージェントのアバターを登場させる機器がエージェント機器200に相当する。例えば、仮想空間に存在するユーザU1以外のアバターに対して音声情報「ぶつかってくるなよ!」をエージェントのアバターが出力して怒ってくれる共感演出を実行することが可能である。このように、ユーザU1のアバターの代わりに、エージェントのアバターが怒ってくれることにより、ユーザU1の気を収めることが可能となる。この場合には、エージェントのアバターが他のアバターに対して怒ることにより、その相手の怒りの矛先がエージェントのアバターに向くことになるため、その相手の怒りの矛先がユーザU1に向き、ユーザU1が不快な思いをすることを防止することが可能である。
【0223】
また、例えば、ユーザU1がARグラスを着用して、ARグラスにエージェント画像(エージェント機器200に相当する画像)を表示させる場合を想定する。この場合には、ARグラスがエージェント機器200に相当する。例えば、ユーザU1の進行方向に通行に邪魔な人が存在することも想定される。このような場合に、ユーザU1にしか見えない世界でエージェント画像が音声情報「どけよ!」をユーザU1のみに聞こえるように、その邪魔な人に対して出力する共感演出を実行する。このように、ユーザU1の代わりに、エージェント画像が邪魔な人に対して怒ってくれることにより、ユーザU1の胸をすかっとさせたり、すっきりさせたりすることが可能である。なお、この例では、エージェント画像の表示を省略して、エージェントの音声出力のみの演出としてもよい。
【0224】
[本実施形態の効果例]
例えば、渋滞、急な割り込み等によりユーザU1に不快の感情が生じた場合に、ユーザU1に注意喚起や情報提供をすると、ユーザU1の不快を余計に促進する可能性がある。このような場合には、ユーザとの信頼関係が失われ、ユーザとの円滑なコミュニケーションを図ることが困難となるおそれがある。
【0225】
そこで、本実施形態では、ユーザU1に不快の感情が生じた場合には、ユーザU1の不快状態にエージェント機器200が共感して、ユーザU1の不快の感情を和らげるようにする。すなわち、エージェント機器200がユーザU1の不快を共感するようにする。これにより、不快の感情が生じたユーザU1に対して、不快の感情を和らげ、ユーザU1との信頼関係を高めることが可能となる。
【0226】
また、ユーザU1との信頼関係を高め、ユーザU1との円滑なコミュニケーションを図ることが可能となるため、ユーザU1に対する情報提供等を円滑に実行することが可能となる。このため、ユーザU1に対する報知処理等の増加を防止し、報知処理等の演算処理を低減させることが可能となる。
【0227】
このように、本実施形態では、エージェント機器200がユーザU1との共感を高める演出として、仲間意識を感じる共通の動作等を行う共感演出を実行する。これにより、ユーザU1がエージェント機器200に対する愛着を深めることが可能であり、エージェント機器200からの報知情報をユーザU1が適切に受け入れることが可能となる。
【0228】
なお、本実施形態では、ユーザU1がエージェント機器200を不快の対象と感じた場合には、謝罪演出を実行する。一方、ユーザU1がエージェント機器200以外のものを不快の対象としている場合には、エージェント機器200が共感演出を実行する。これにより、ユーザU1が不快の対象とするものが、エージェント機器200であっても、エージェント機器200以外のものであっても、ユーザU1の不快に対する適切な対応を実行することが可能となる。
【0229】
ここで、2者の間で信頼関係を構築する場合には、有能さ(能力)、一生懸命な姿勢(動機づけ)とともに、共感(価値共有)が重要となる。特に、信頼関係が醸成されない時期においては、共感は、有能さ、一生懸命な姿勢よりも効果が高いと考えられている。また、2者の間で信頼関係が醸成された場合でも、共感は、信頼構築に対する貢献が高いと考えられている。そこで、本実施形態では、ユーザU1に不快の感情が生じた場合には、ユーザU1の不快状態にエージェント機器200が共感することにより、ユーザU1に対する信頼構築に貢献することが可能となる。
【0230】
[他の機器、他のシステムにおいて処理を実行させる例]
なお、以上では、共感演出処理等をエージェント機器200、情報処理装置110(又は情報処理システム100)において実行する例を示したが、それらの各処理の全部又は一部を他の機器において実行してもよい。この場合には、それらの各処理の一部を実行する各機器により情報処理システムが構成される。例えば、車載機器、ユーザが使用可能な機器(例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、カーナビゲーション装置、IVI)、インターネット等の所定のネットワークを介して接続可能なサーバ等の各種情報処理装置、各種電子機器を用いて各処理の少なくとも一部を実行させることができる。
【0231】
また、情報処理装置110(又は情報処理システム100)の機能を実行可能な情報処理システムの一部(又は全部)については、インターネット等の所定のネットワークを介して提供可能なアプリケーションにより提供されてもよい。このアプリケーションは、例えばSaaS(Software as a Service)である。
【0232】
[本実施形態の構成例及びその効果]
本実施形態に係る情報処理方法は、ユーザU1とのコミュニケーションを行うことが可能なエージェント機器200を制御する制御方法である。この制御方法は、ユーザU1の生体情報と、ユーザU1の発話内容と、ユーザU1の動作と、のうちの少なくとも1つに基づいて、ユーザU1の不快度を推定する不快度推定処理(ステップS503)と、ユーザU1の周囲の状況に基づいてユーザU1の不快の要因である不快要因を推定する不快要因推定処理(ステップS505)と、その不快度に基づいて、不快要因に応じてユーザU1が示す不快反応に関連する共感演出をエージェント機器200に実行させる制御処理(ステップS506乃至S516)とを含む。また、本実施形態に係るプログラムは、これらの各処理をコンピュータに実行させるプログラムである。言い換えると、本実施形態に係るプログラムは、情報処理装置110が実行可能な各機能をコンピュータに実現させるプログラムである。
【0233】
この構成によれば、不快の感情が生じたユーザU1に対して、その不快状態にエージェント機器200が共感してユーザU1の不快の感情を和らげ、ユーザU1との信頼関係を高めることが可能となる。
【0234】
本実施形態に係る情報処理方法において、制御処理(ステップS510、S511、S515、S516)では、ユーザU1の不快反応に関連する発話文の音声出力と、その発話文の表示と、ユーザU1の不快反応に関連する振る舞いと、のうちの少なくとも1つを共感演出としてエージェント機器200に実行させる。例えば、図11(C)(D)、図12(C)(D)、図13(C)(D)に示すように、共感演出がエージェント機器200により実行される。
【0235】
この構成によれば、エージェント機器200からの音声出力、発話文の表示、エージェント機器200による振る舞い等により、ユーザU1の不快の感情を和らげるための適切な共感演出を実行可能である。
【0236】
本実施形態に係る情報処理方法において、制御処理(ステップS510、S511、S515、S516)では、ユーザU1の不快度の大きさと、ユーザU1の不快度の変化率の大きさとのうちの少なくとも1つに基づいて、共感演出の態様を変化させる。
【0237】
この構成によれば、ユーザU1の不快度の大きさ、その不快度の変化率の大きさ等を用いて共感演出の態様を変化させるため、現在のユーザU1の不快感情に適した共感演出を実行可能である。
【0238】
本実施形態に係る情報処理方法において、制御処理(ステップS510、S511、S515、S516)では、ユーザU1の不快度、又は、ユーザU1の不快度の変化率が大きくなるのに応じて、発話文の音声出力として当該音声を大きくする演出と、振る舞いとしてエージェント機器200がユーザU1の不快要因の方向を速く向く演出と、振る舞いとしてエージェント機器200の動きを大きくする演出と、振る舞いとしてエージェント機器200の動きの変化を多くする演出とのうちの少なくとも1つをエージェント機器200に実行させる。
【0239】
この構成によれば、ユーザU1の不快度、又は、その不快度の変化率が大きくなるほど、エージェント機器200の声を大きくしたり、動きを大きくしたり、速くしたりするため、現在のユーザU1の不快感情に適した共感演出を実行可能である。
【0240】
本実施形態に係る情報処理方法では、エージェント機器200の発話文の音声にユーザU1が慣れたことを判定する判定処理(ステップS510、S511、S515、S516)をさらに含み、制御処理(ステップS510、S511、S515、S516)では、ユーザU1の不快要因に関連する発話文の音声をエージェント機器200から出力させ、その発話文の音声にユーザU1が慣れたと判定された後には、発話文の音声出力をせずに、ユーザU1の不快反応に関連する振る舞いをエージェント機器200に実行させる。
【0241】
この構成によれば、発話文の音声にユーザU1が慣れた場合には、発話文の音声出力をせずに、不快反応に関連する振る舞いをエージェント機器200に実行させることにより、共感演出に対するユーザU1の関心度が低下することを防止することが可能である。
【0242】
本実施形態に係る情報処理方法において、制御処理(ステップS506乃至S516)では、ユーザU1の不快度が第1閾値TH3(第1基準の一例)よりも大きい場合、又は、ユーザU1の不快度の変化率が第2基準よりも大きい場合には、共感演出をエージェント機器200に実行させる。
【0243】
この構成によれば、ユーザU1の不快度の大きさ、又は、ユーザU1の不快度の変化率の大きさを用いて、適切なタイミングで共感演出をエージェント機器200に実行させることが可能となる。
【0244】
本実施形態に係る情報処理方法では、ユーザU1の不快度が第1閾値TH3(第1基準の一例)よりも大きい場合、又は、ユーザU1の不快度の変化率が第2基準よりも大きい場合における、ユーザU1の不快要因と、その不快要因に応じてユーザU1が示す不快反応に関連する演出情報とを関連付けて不快状態DB160(データベースの一例)に記録させる記録処理(ステップS513)をさらに含み、制御処理(ステップS506乃至S516)では、ユーザU1の不快度が第1閾値TH3よりも大きい場合、又は、ユーザU1の不快度の変化率が第2基準よりも大きい場合において、推定された不快要因に対応する情報が不快状態DB160に格納されているときには、その不快要因に関連付けられている演出情報に基づいて、共感演出をエージェント機器200に実行させ、推定されたユーザU1の不快要因に対応する情報が不快状態DB160に格納されていないときには、推定された不快要因に対するユーザU1の不快反応に基づいて、共感演出をエージェント機器200に実行させる。
【0245】
この構成によれば、推定された不快要因に対応する情報が不快状態DB160に格納されている場合には、不快状態DB160に格納されている演出情報を用いて、ユーザU1の不快感情に適した共感演出を実行可能である。また、推定された不快要因に対応する情報が不快状態DB160に格納されていない場合でも、推定された不快要因に対するユーザU1の不快反応を用いて、現在のユーザU1の不快感情に適した共感演出を実行可能である。
【0246】
本実施形態に係る情報処理方法において、制御処理(ステップS506乃至S516)では、ユーザU1の不快度が第1閾値TH3(第1基準の一例)よりも大きい状態が所定時間継続したことを条件に、共感演出をエージェント機器200に実行させる。
【0247】
この構成によれば、ユーザU1の不快状態がある程度の時間継続した場合にのみ、共感演出を実行することにより、共感演出が頻発してユーザU1の信頼性を損なうことを防止することが可能である。
【0248】
本実施形態に係る情報処理方法において、不快要因推定処理(ステップS505)では、ユーザU1の不快要因がユーザU1の周囲に存在するか、ユーザU1の不快要因がエージェント機器200に存在するかを判定し、制御処理(ステップS506乃至S516)では、ユーザU1の不快度が第1閾値TH3(第1基準の一例)よりも大きい場合、又は、ユーザU1の不快度の変化率が第2基準よりも大きい場合において、ユーザU1の不快要因がユーザU1の周囲に存在すると判定されたときには、共感演出をエージェント機器200に実行させ、ユーザU1の不快要因がエージェント機器200に存在すると判定されたときには、ユーザU1の不快に対する謝罪演出をエージェント機器200に実行させる。
【0249】
この構成によれば、ユーザU1の不快要因がユーザU1の周囲に存在する場合でも、その不快要因がエージェント機器200に存在する場合でも、その不快要因に応じた適切な演出(共感演出、謝罪演出)を実行することが可能となる。
【0250】
情報処理装置110は、ユーザU1とのコミュニケーションを行うことが可能なエージェント機器200を制御する情報処理装置である。情報処理装置110は、ユーザU1の生体情報と、ユーザU1の発話内容と、ユーザU1の動作と、のうちの少なくとも1つに基づいて、ユーザU1の不快度を推定する不快度判定部121(不快度推定部の一例)と、ユーザU1の周囲の状況に基づいてユーザU1の不快の要因である不快要因を推定する不快要因推定部122と、その不快度に基づいて、不快要因に応じてユーザU1が示す不快反応に関連する共感演出をエージェント機器200に実行させるエージェント制御部125(制御部の一例)とを備える。なお、情報処理装置110は、エージェント機器200に内蔵される機器としてもよく、エージェント機器200とは異なる機器としてもよい。また、情報処理装置110の代わりに、情報処理装置110により実現される各処理を実行可能な複数の機器により構成される情報処理システムとしてもよい。
【0251】
この構成によれば、不快の感情が生じたユーザU1に対して、その不快状態にエージェント機器200が共感してユーザU1の不快の感情を和らげ、ユーザU1との信頼関係を高めることが可能となる。
【0252】
なお、本実施形態で示した各処理手順は、本実施形態を実現するための一例を示したものであり、本実施形態を実現可能な範囲で各処理手順の一部の順序を入れ替えてもよく、各処理手順の一部を省略したり他の処理手順を追加したりしてもよい。
【0253】
なお、本実施形態で示した各処理は、各処理手順をコンピュータに実行させるためのプログラムに基づいて実行されるものである。このため、本実施形態は、それらの各処理を実行する機能を実現するプログラム、そのプログラムを記憶する記録媒体の実施形態としても把握することができる。例えば、情報処理装置に新機能を追加するためのアップデート処理により、そのプログラムを情報処理装置の記憶装置に記憶させることができる。これにより、そのアップデートされた情報処理装置に本実施形態で示した各処理を実施させることが可能となる。
【0254】
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。
【符号の説明】
【0255】
100 情報処理システム、110 情報処理装置、120 制御部、121 不快度判定部、122 不快要因推定部、123 確信度判定部、124 DB制御部、125 エージェント制御部、130 記憶部、131 エージェント情報DB、132 報知情報DB、133 地図情報DB、134 周囲状況DB、150 ユーザ状態DB、160 不快状態DB、170 振る舞いDB、140 通信部、200 エージェント機器、210 表示部、220 音出力部、230 駆動部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14