(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-24
(45)【発行日】2024-10-02
(54)【発明の名称】情報処理装置、情報処理方法、およびプログラム
(51)【国際特許分類】
G06N 3/008 20230101AFI20240925BHJP
B25J 13/00 20060101ALI20240925BHJP
A63H 11/00 20060101ALI20240925BHJP
【FI】
G06N3/008
B25J13/00 Z
A63H11/00 Z
(21)【出願番号】P 2023172040
(22)【出願日】2023-10-03
(62)【分割の表示】P 2020558154の分割
【原出願日】2019-10-11
【審査請求日】2023-10-19
(31)【優先権主張番号】P 2018218481
(32)【優先日】2018-11-21
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】下江 健晶
(72)【発明者】
【氏名】望月 大介
【審査官】新井 則和
(56)【参考文献】
【文献】国際公開第2018/016461(WO,A1)
【文献】特開2011-54088(JP,A)
【文献】特開2018-165881(JP,A)
【文献】米国特許出願公開第2013/0178982(US,A1)
【文献】特開2013-079861(JP,A)
【文献】米国特許出願公開第2009/0153499(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/008
B25J 13/00
A63H 11/00
(57)【特許請求の範囲】
【請求項1】
少なくとも二つのセンサを備える自律動作体において、
前記センサから収集されたセンサ情報に基づいて、前記自律動作体に対するユーザの接触行為を認識するスキンシップ認識器、
を備え、
前記スキンシップ認識器は、前記自律動作体の各部位に対する前記接触行為に伴う前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、
情報処理装置。
【請求項2】
前記スキンシップ認識器は、前記学習結果と、現時点で収集された前記センサ情報とに基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、
請求項1に記載の情報処理装置。
【請求項3】
前記スキンシップ認識器は、前記センサとして前記自律動作体に備えられるタッチセンサまたは慣性センサが前記自律動作体の各部位に対する前記接触行為に伴って収集した前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、
請求項1に記載の情報処理装置。
【請求項4】
前記自律動作体は、二つの前記センサを含む三つのセンサとして前記自律動作体に備えられる二つの慣性センサおよび一つのタッチセンサを備え、
前記スキンシップ認識器は、二つの前記慣性センサが前記自律動作体の各部位に対する前記接触行為に伴って収集した前記センサ情報の学習結果に基づいて、前記タッチセンサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を認識する、
請求項1に記載の情報処理装置。
【請求項5】
前記自律動作体が実行した振る舞いに対する前記ユーザのフィードバックを認識するフィードバック認識器、
をさらに備え、
前記フィードバック認識器は、前記自律動作体に対する前記ユーザの接触行為および非接触行為の認識結果に基づいて、前記フィードバックの度合いを認識する、
請求項1に記載の情報処理装置。
【請求項6】
前記ユーザの発話情報または前記ユーザを撮影した画像情報に基づいて、前記非接触行為を認識する認識部、
をさらに備える、
請求項5に記載の情報処理装置。
【請求項7】
前記認識部は、前記センサ情報に基づいて、前記ユーザの前記非接触行為が前記自律動作体に対するものか否かを判定する、
請求項6に記載の情報処理装置。
【請求項8】
前記フィードバック認識器は、前記接触行為および前記非接触行為の認識結果に基づいて、前記フィードバックの種別を判定する、
請求項5に記載の情報処理装置。
【請求項9】
前記フィードバック認識器は、前記接触行為の認識結果に基づく前記フィードバックの種別と、前記非接触行為の認識結果に基づく前記フィードバックの種別と、が同一でない場合、前記接触行為の認識結果に重みをおいて最終的な前記フィードバックの種別および度合いを認識する、
請求項5に記載の情報処理装置。
【請求項10】
前記フィードバック認識器は、所定時間内に前記接触行為の認識結果および前記非接触行為の両方の認識結果が取得されない場合、取得された前記接触行為または非接触行為のいずれかの認識結果に基づいて、前記フィードバックの種別および度合いを認識する、
請求項5に記載の情報処理装置。
【請求項11】
前記フィードバック認識器による認識処理の結果に基づいて前記自律動作体に実行させる前記振る舞いを決定する行動計画部、
をさらに備える、
請求項5に記載の情報処理装置。
【請求項12】
前記行動計画部は、前記フィードバック認識器が認識した前記フィードバックの種別および度合いに基づいて前記振る舞いに係るスコアを修正し、前記スコアに基づいて、前記自律動作体に実行させる前記振る舞いを決定する、
請求項11に記載の情報処理装置。
【請求項13】
前記行動計画部は、前記フィードバックの種別および度合いを前記自律動作体の感情に反映する、
請求項12に記載の情報処理装置。
【請求項14】
前記行動計画部は、前記スコアが算出されていない前記振る舞いを優先して前記自律動作体に実行させる、
請求項12に記載の情報処理装置。
【請求項15】
前記ユーザごとに前記フィードバックの態様を学習する学習部、
をさらに備える、
請求項11に記載の情報処理装置。
【請求項16】
前記行動計画部は、前記ユーザが否定的な前記フィードバックを行うことが予測される前記振る舞いを前記自律動作体に実行させ、
前記学習部は、前記振る舞いに対する前記フィードバックに基づいて、前記ユーザの否定的な前記フィードバックの態様を学習する、
請求項15に記載の情報処理装置。
【請求項17】
プロセッサが、
少なくとも二つのセンサを備える自律動作体において、
前記センサから収集されたセンサ情報に基づいて、前記自律動作体に対するユーザの接触行為を認識すること、
を含み、
前記接触行為を認識することは、
前記自律動作体の各部位に対する前記接触行為に伴う前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定すること、
をさらに含む、
情報処理方法。
【請求項18】
コンピュータを、
少なくとも二つのセンサを備える自律動作体において、
前記センサから収集されたセンサ情報に基づいて、前記自律動作体に対するユーザの接触行為を認識するスキンシップ認識器、
を備え、
前記スキンシップ認識器は、前記自律動作体の各部位に対する前記接触行為に伴う前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、
情報処理装置、
として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
【背景技術】
【0002】
近年、各種の認識処理に基づき自律的に動作する装置が開発されている。例えば、特許文献1には、環境やユーザの状態を認識し、当該状態に応じた行動を行うロボット装置が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、特許文献1に記載されるロボット装置等の自律動作体では、実行した行動に対するユーザのフィードバックを精度高く認識し、当該認識の結果を後続する行動に正しく反映させることが重要となる。
【課題を解決するための手段】
【0005】
本開示によれば、少なくとも二つのセンサを備える自律動作体において、前記センサから収集されたセンサ情報に基づいて、前記自律動作体に対するユーザの接触行為を認識するスキンシップ認識器、を備え、前記スキンシップ認識器は、前記自律動作体の各部位に対する前記接触行為に伴う前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、情報処理装置が提供される。
【0006】
また、本開示によれば、プロセッサが、少なくとも二つのセンサを備える自律動作体において、前記センサから収集されたセンサ情報に基づいて、前記自律動作体に対するユーザの接触行為を認識すること、を含み、前記接触行為を認識することは、前記自律動作体の各部位に対する前記接触行為に伴う前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定すること、をさらに含む、情報処理方法が提供される。
【0007】
また、本開示によれば、コンピュータを、少なくとも二つのセンサを備える自律動作体において、前記センサから収集されたセンサ情報に基づいて、前記自律動作体に対するユーザの接触行為を認識するスキンシップ認識器、を備え、前記スキンシップ認識器は、前記自律動作体の各部位に対する前記接触行為に伴う前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、情報処理装置、として機能させるためのプログラムが提供される。
【図面の簡単な説明】
【0008】
【
図1】本開示の第1の実施形態に係る自律移動体のハードウェア構成例を示す図である。
【
図2】同実施形態に係る自律移動体が備えるアクチュエータの構成例である。
【
図3】同実施形態に係る自律移動体が備えるアクチュエータの動作について説明するための図である。
【
図4】同実施形態に係る自律移動体が備えるアクチュエータの動作について説明するための図である。
【
図5】同実施形態に係る自律移動体が備えるディスプレイの機能について説明するための図である。
【
図6】同実施形態に係る自律移動体の動作例を示す図である。
【
図7】同実施形態に係る比較対象である自律動作体がユーザのフィードバックを誤って認識する場合の一例について説明するための図である。
【
図8】同実施形態に係る比較対象である自律動作体がユーザのフィードバックを誤って認識する場合の一例について説明するための図である。
【
図9】同実施形態に係る自律動作体によるフィードバック認識の概要について説明するための図である。
【
図10】同実施形態に係る微細振動に基づく接触部位判別の一例を示す図である。
【
図11】同実施形態に係る情報処理システムの構成例を示す図である。
【
図12】同実施形態に係る自律動作体の機能構成例を示すブロック図である。
【
図13】同実施形態に係る自律動作体の詳細な機能構成例を示すブロック図である。
【
図14】同実施形態に係る慣性センサを用いた接触行為の認識について説明するための図である。
【
図15】同実施形態に係るスキンシップ認識器による接触行為の分類の一例を示す図である。
【
図16】同実施形態に係る音声認識器による接触行為の分類の一例を示す図である。
【
図17】同実施形態に係るフィードバック認識の流れ示すフローチャートである。
【
図18】同実施形態に係る接触行為および非接触行為の認識に基づくフィードバック認識の一例を示す図である。
【
図19】同実施形態に係る振る舞い選択器による処理の流れを示すフローチャートである。
【
図20】同実施形態に係るフィードバック態様の学習について説明するための図である。
【発明を実施するための形態】
【0009】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0010】
なお、説明は以下の順序で行うものとする。
1.実施形態
1.1.自律動作体10の概要
1.2.自律動作体10のハードウェア構成例
1.3.機能概要
1.4.システム構成例
1.5.自律動作体10の機能構成例
1.6.機能の詳細
2.まとめ
【0011】
<1.実施形態>
<<1.1.自律動作体10の概要>>
まず、本開示の一実施形態に係る自律動作体10の概要について説明する。本開示の一実施形態に係る自律動作体10は、収集したセンサ情報に基づく状況推定を実行し、状況に応じた種々の動作を自律的に選択し実行する情報処理装置である。自律動作体10は、単にユーザの指示コマンドに従った動作を行うロボットとは異なり、状況ごとに最適であると推測した動作を自律的に実行することを特徴の一つとする。
【0012】
本開示の一実施形態に係る自律動作体10は、例えば、撮影した画像に基づくユーザ認識や、物体認識などを実行し、認識したユーザや物体などに応じた種々の自律行動を行うことが可能である。また、本実施形態に係る自律動作体10は、例えば、ユーザの発話に基づく音声認識を実行し、ユーザの指示などに基づく行動を行うこともできる。
【0013】
このように、本開示の一実施形態に係る自律動作体10は、ヒトを含む動物と同様に、欲求や感情、また周囲の環境などを総合的に判断して自律動作を決定、実行する。上記の点において、自律動作体10は、指示に基づいて対応する動作や処理を実行する受動的な装置とは明確に相違する。
【0014】
本開示の一実施形態に係る自律動作体10は、空間内を自律的に移動し、種々の動作を実行する自律移動型ロボットであってよい。自律動作体10は、例えば、ヒトやイヌなどの動物を模した形状や、動作能力を有する自律移動型ロボットであってもよい。また、自律動作体10は、例えば、ユーザとのコミュニケーション能力を有する車両やその他の装置であってもよい。本開示の一実施形態に係る自律動作体10の形状、能力、また欲求などのレベルは、目的や役割に応じて適宜設計され得る。
【0015】
<<1.2.自律動作体10のハードウェア構成例>>
次に、本開示の一実施形態に係る自律動作体10のハードウェア構成例について説明する。なお、以下では、自律動作体10がイヌ型の四足歩行ロボットである場合を例に説明する。
【0016】
図1は、本開示の一実施形態に係る自律動作体10のハードウェア構成例を示す図である。
図1に示すように、自律動作体10は、頭部、胴部、4つの脚部、および尾部を有するイヌ型の四足歩行ロボットである。また、自律動作体10は、頭部に2つのディスプレイ510を備える。
【0017】
また、自律動作体10は、種々のセンサを備える。自律動作体10は、例えば、マイクロフォン515、カメラ520、ToF(Time of Flight)センサ525、人感センサ530、測距センサ535、タッチセンサ540、照度センサ545、足裏ボタン550、慣性センサ555を備える。
【0018】
(マイクロフォン515)
マイクロフォン515は、周囲の音を収集する機能を有する。上記の音には、例えば、ユーザの発話や、周囲の環境音が含まれる。自律動作体10は、例えば、頭部に4つのマイクロフォンを備えてもよい。複数のマイクロフォン515を備えることで、周囲で発生する音を感度高く収集すると共に、音源の定位を実現することが可能となる。
【0019】
(カメラ520)
カメラ520は、ユーザや周囲環境を撮像する機能を有する。自律動作体10は、例えば、鼻先と腰部に2つの広角カメラを備えてもよい。この場合、鼻先に配置される広角カメラは、自律動作体の前方視野(すなわち、イヌの視野)に対応した画像を撮像し、腰部の広角カメラは、上方を中心とする周囲領域の画像を撮像する。自律動作体10は、例えば、腰部に配置される広角カメラにより撮像された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
【0020】
(ToFセンサ525)
ToFセンサ525は、頭部前方に存在する物体との距離を検出する機能を有する。ToFセンサ525は、頭部の鼻先に備えられる。ToFセンサ525によれば、種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することが可能となる。
【0021】
(人感センサ530)
人感センサ530は、ユーザやユーザが飼育するペットなどの所在を検知する機能を有する。人感センサ530は、例えば、胸部に配置される。人感センサ530によれば、前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することが可能となる。
【0022】
(測距センサ535)
測距センサ535は、自律動作体10の前方床面の状況を取得する機能を有する。測距センサ535は、例えば、胸部に配置される。測距センサ535によれば、自律動作体10の前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
【0023】
(タッチセンサ540)
タッチセンサ540は、ユーザによる接触を検知する機能を有する。タッチセンサ540は、例えば、頭頂、あご下、背中など、ユーザが自律動作体10に対し触れる可能性が高い部位に配置される。タッチセンサ540は、例えば、静電容量式や感圧式のタッチセンサであってよい。タッチセンサ540によれば、ユーザによる触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことが可能となる。
【0024】
(照度センサ545)
照度センサ545は、自律動作体10が位置する空間の照度を検出する。照度センサ545は、例えば、頭部背面において尾部の付け根などに配置されてもよい。照度センサ545によれば、周囲の明るさを検出し、当該明るさに応じた動作を実行することが可能となる。
【0025】
(足裏ボタン550)
足裏ボタン550は、自律動作体10の脚部底面が床と接触しているか否かを検知する機能を有する。このために、足裏ボタン550は、4つの脚部の肉球に該当する部位にそれぞれ配置される。足裏ボタン550によれば、自律動作体10と床面との接触または非接触を検知することができ、例えば、自律動作体10がユーザにより抱き上げられたことなどを把握することが可能となる。
【0026】
(慣性センサ555)
慣性センサ555は、頭部や胴部の速度や加速度、回転などの物理量を検出する6軸センサである。すなわち、慣性センサ555は、X軸、Y軸、Z軸の加速度および角速度を検出する。慣性センサ555は、頭部および胴部にそれぞれ配置される。慣性センサ555によれば、自律動作体10の頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することが可能となる。
【0027】
以上、本開示の一実施形態に係る自律動作体10が備えるセンサの一例について説明した。なお、
図1を用いて説明した上記の構成はあくまで一例であり、自律動作体10が備え得るセンサの構成は係る例に限定されない。自律動作体10は、上記の構成のほか、例えば、温度センサ、地磁気センサ、GNSS(Global Navigation Satellite System)信号受信機を含む各種の通信装置などをさらに備えてよい。自律動作体10が備えるセンサの構成は、仕様や運用に応じて柔軟に変形され得る。
【0028】
続いて、本開示の一実施形態に係る自律動作体10の関節部の構成例について説明する。
図2は、本開示の一実施形態に係る自律動作体10が備えるアクチュエータ570の構成例である。本開示の一実施形態に係る自律動作体10は、
図2に示す回転箇所に加え、耳部と尾部に2つずつ、口に1つの合計22の回転自由度を有する。
【0029】
例えば、自律動作体10は、頭部に3自由度を有することで、頷きや首を傾げる動作を両立することができる。また、自律動作体10は、腰部に備えるアクチュエータ570により、腰のスイング動作を再現することで、より現実のイヌに近い自然かつ柔軟な動作を実現することが可能である。
【0030】
なお、本開示の一実施形態に係る自律動作体10は、例えば、1軸アクチュエータと2軸アクチュエータを組み合わせることで、上記の22の回転自由度を実現してもよい。例えば、脚部における肘や膝部分においては1軸アクチュエータを、肩や大腿の付け根には2軸アクチュエータをそれぞれ採用してもよい。
【0031】
図3および
図4は、本開示の一実施形態に係る自律動作体10が備えるアクチュエータ570の動作について説明するための図である。
図3を参照すると、アクチュエータ570は、モータ575により出力ギアを回転させることで、可動アーム590を任意の回転位置および回転速度で駆動させることができる。
【0032】
図4を参照すると、本開示の一実施形態に係るアクチュエータ570は、リアカバー571、ギアBOXカバー572、制御基板573、ギアBOXベース574、モータ575、第1ギア576、第2ギア577、出力ギア578、検出用マグネット579、2個のベアリング580を備える。
【0033】
本開示の一実施形態に係るアクチュエータ570は、例えば、磁気式svGMR(spin-valve Giant Magnetoresistive)であってもよい。制御基板573が、メインプロセッサによる制御に基づいて、モータ575を回転させることで、第1ギア576および第2ギア577を介して出力ギア578に動力が伝達され、可動アーム590を駆動させることが可能である。
【0034】
また、制御基板573に備えられる位置センサが、出力ギア578に同期して回転する検出用マグネット579の回転角を検出することで、可動アーム590の回転角度、すなわち回転位置を精度高く検出することができる。
【0035】
なお、磁気式svGMRは、非接触方式であるため耐久性に優れるとともに、GMR飽和領域において使用することで、検出用マグネット579や位置センサの距離変動による信号変動の影響が少ないという利点を有する。
【0036】
以上、本開示の一実施形態に係る自律動作体10が備えるアクチュエータ570の構成例について説明した。上記の構成によれば、自律動作体10が備える関節部の屈伸動作を精度高く制御し、また関節部の回転位置を正確に検出することが可能となる。
【0037】
続いて、
図5を参照して、本開示の一実施形態に係る自律動作体10が備えるディスプレイ510の機能について説明する。
図5は、本開示の一実施形態に係る自律動作体10が備えるディスプレイ510の機能について説明するための図である。
【0038】
(ディスプレイ510)
ディスプレイ510は、自律動作体10の目の動きや感情を視覚的に表現する機能を有する。
図5に示すように、ディスプレイ510は、感情や動作に応じた眼球、瞳孔、瞼の動作を表現することができる。ディスプレイ510は、文字や記号、また眼球運動とは関連しない画像などを敢えて表示しないことで、実在するイヌなどの動物に近い自然な動作を演出する。
【0039】
また、
図5に示すように、自律動作体10は、右眼および左眼にそれぞれ相当する2つのディスプレイ510rおよび510lを備える。ディスプレイ510rおよび510lは、例えば、独立した2つのOLED(Organic Light Emitting Diode)により実現される。OLEDによれば、眼球の曲面を再現することが可能となり、1枚の平面ディスプレイにより一対の眼球を表現する場合や、2枚の独立した平面ディスプレイにより2つの眼球をそれぞれ表現する場合と比較して、より自然な外装を実現することができる。
【0040】
以上述べたように、ディスプレイ510rおよび510lによれば、
図5に示すような自律動作体10の視線や感情を高精度かつ柔軟に表現することが可能となる。また、ユーザはディスプレイ510に表示される眼球の動作から、自律動作体10の状態を直観的に把握することが可能となる。
【0041】
以上、本開示の一実施形態に係る自律動作体10のハードウェア構成例について説明した。上記の構成によれば、
図6に示すように、自律動作体10の関節部や眼球の動作を精度高くまた柔軟に制御することで、より実在の生物に近い動作および感情表現を実現することが可能となる。なお、
図6は、本開示の一実施形態に係る自律動作体10の動作例を示す図であるが、
図6では、自律動作体10の関節部および眼球の動作について着目して説明を行うため、自律動作体10の外部構造を簡略化して示している。同様に、以下の説明においては、自律動作体10の外部構造を簡略化して示す場合があるが、本開示の一実施形態に係る自律動作体10のハードウェア構成および外装は、図面により示される例に限定されず、適宜設計され得る。
【0042】
<<1.3.機能概要>>
次に、本開示の一実施形態に係る自律動作体10が有する機能の概要について説明する。上述したように、自律動作を行う装置では、実行した行動に対するユーザのフィードバックを精度高く認識し、当該認識の結果を後続する行動に正しく反映させることが重要となる。
【0043】
ここで、上記のフィードバックとは、例えば、自律動作体10が行った行動(振る舞い)に対し、ユーザが褒めるまたは叱るなどの反応を示すことを指す。本実施形態に係る自律動作体10は、上記のようなフィードバックを認識することで、ユーザが褒めてもらえる振る舞いをより多く行うようになり、またユーザに叱られる振る舞いを徐々に実行しないようになる。
【0044】
しかし、上記のフィードバックが誤って認識される場合、ユーザの嗜好に合った振る舞いが正しく行われなくなる可能性がある。
図7および
図8は、本実施形態に係る比較対象である自律動作体90がユーザのフィードバックを誤って認識する場合の一例について説明するための図である。
【0045】
例えば、
図7に示す一例の場合、自律動作体90は、「良い子だね」というユーザU1の発話UO1を認識したことにより、ユーザU1が自身を褒めたと認識している。しかし、実際には、ユーザU1の発話UO1は、同一空間に居るユーザU2に向けられたものあり、自律動作体90による上記のフィードバック認識は誤りであるといえる。
【0046】
この場合、自律動作体90は、発話UO1の認識時あるいは直前に行っていた振る舞いをユーザU1が好むと誤認し、以降、当該振る舞いをより多く行うようになる可能性がある。しかし、ここで、例えば、当該振る舞いに対するユーザU1の本来の評価が低い場合には、ユーザ体験を損ねる結果となりかねない。
【0047】
また、
図8に示す一例の場合、自律動作体90は、ユーザU1が頭部を撫でたことを認識したことにより、ユーザU1が自身を褒めたと認識している。しかし、
図8に示す一例では、ユーザU1は、発話UO2に示されるように、外出に際し挨拶代りに自律動作体90の頭部を撫でたにすぎない。
【0048】
この場合も
図7に示した一例の場合と同様に、自律動作体90は、頭部を撫でる行為の認識時あるいは直前に行っていた振る舞いをユーザU1が好むと誤認し、以降、当該振る舞いをより多く行うようになる可能性がある。
【0049】
このように、音声や接触などの一方を用いたフィードバック認識では、ユーザのフィードバックを誤認する可能性があり信頼性に欠けると共に、ユーザの意図に沿わない行動が多発する事態を招く要因となり得る。
【0050】
本開示に係る技術思想は、上記の点に着目して発想されたものであり、自律動作体の振る舞いに対するユーザのフィードバックを精度高く認識することを可能とする。このために、本開示の一実施形態に係る自律動作体10は、例えば、収集した複数のセンサ情報に基づいて、統合的にユーザのフィードバックを認識することを特徴の一つとする。また、この際、本開示の一実施形態に係る自律動作体10は、ユーザのフィードバックの種別および度合いを認識し、後の行動計画に反映してよい。
【0051】
図9は、本実施形態に係る自律動作体10によるフィードバック認識の概要について説明するための図である。
図9に示す一例の場合、ユーザU1は、自律動作体10が行った振る舞いに対し、頭部を撫でると共に、「良い子だね、ジョン」という発話UO3を行っている。
【0052】
この際、本実施形態に係る自律動作体10は、頭部に配置されたタッチセンサ540により頭部が撫でられたことを認識し、またマイクロフォン515が収集した発話UO3を音声認識することで、ユーザU1が褒め言葉を発したことを認識する。
【0053】
この場合、本実施形態に係る自律動作体10は、頭部を撫でる接触行為と、発話UO3による非接触行為の認識結果の両方が、肯定的なフィードバックを示すことから、ユーザU1が自身を褒めていると判断することができる。
【0054】
また、本実施形態に係る自律動作体10は、上記に限らず、収集・認識した各種の情報を利用して統合的にユーザのフィードバックを認識することができる。
図9に示す一例の場合、自律動作体10は、例えば、ユーザU1の笑顔を認識することで、ユーザU1のフィードバックが肯定的である確信を強めることができる。
【0055】
また、例えば、自律動作体10は、発話UO3に褒め言葉と共に自身の名前が含まれていることを認識することで、発話UO3、すなわち肯定的なフィードバックが自身に向けられたものである可能性が極めて高いと判定してもよい。
【0056】
このように、本実施形態に係る自律動作体10は、取集したセンサ情報に基づく各種の認識処理を実行することで、ユーザのフィードバックの種別や度合いを精度高く認識し、当該フィードバックを以降の行動計画に活用することができる。
【0057】
また、一般的な装置では、ユーザの撫でる・叩くなどの接触行為を認識するために、静電式または感圧式のタッチセンサを用いている。ここで、例えば、実際の生物のように、皮膚のどの場所に接触が行われても、当該接触を認識するためには、装置の外装全体にタッチセンサを配置する必要がある。しかし、このようなタッチセンサの配置は、開発コストを増大させることから現実的ではない。このため、従来の装置では、タッチセンサが配置されない部位に対するユーザの接触行為を認識することが困難であった。
【0058】
一方、本実施形態に係る自律動作体10は、立っている状態においても力を分散させるために、各関節に遊びが持たせられている。このため、本実施形態に係る自律動作体10には、どの部位に接触行為があった場合でも、微細な振動が生じることとなる。
【0059】
そこで、本実施形態に係る自律動作体10は、上記の微細な振動を慣性センサ555により検出することで、各部位への接触時に生じる特徴的な振動を特定し、接触行為が行われた部位を判別することが可能である。
【0060】
図10は、本実施形態に係る微細振動に基づく接触部位判別の一例を示す図である。
図10に示す一例の場合、ユーザU1は、自律動作体10の腹部を撫でると共に、「良い子!」という発話UO4を行っている。しかし、本実施形態に係るタッチセンサ540は、自律動作体10の頭部、顎部、および背部にのみ配置されていることから、タッチセンサ540による検出情報のみでは、通常、腹部を撫でられたことを認識することが困難である。
【0061】
しかし、本実施形態に係る自律動作体10は、接触行為により生じる微細振動を慣性センサ555により検出し、また当該微細振動が腹部が撫でられる際に特徴的な振動であることを特定することで、ユーザU1により腹部を撫でられたことを認識することが可能である。
【0062】
このように、本実施形態に係る自律動作体10が有する上記の機能によれば、タッチセンサ540が配置されていない部位であってもユーザの接触行為を認識することが可能となり、フィードバックの認識精度をより効果的に向上させることができる。
【0063】
<<1.4.システム構成例>>
次に、本実施形態に係る情報処理システムの構成例について説明する。
図11は、本実施形態に係る情報処理システムの構成例を示す図である。
図11に示すように、本実施形態に係る自律動作体10および情報処理サーバ20を備える。また、自律動作体10と情報処理サーバ20は、ネットワーク30を介して互いに通信が行えるように接続される。
【0064】
(自律動作体10)
本実施形態に係る自律動作体10は、収集したセンサ情報に基づいて各種の認識処理を実行し、当該認識処理の結果に基づいて自律的に動作を行う情報処理装置である。上述したように、本実施形態に係る自律動作体10は、実行した振る舞いに対するユーザのフィードバックを、多種の認識処理の組み合わせにより精度高く認識することができる。
【0065】
(情報処理サーバ20)
本実施形態に係る情報処理サーバ20は、自律動作体10が収集した各種のセンサ情報や自律動作体10による学習の結果を収集し、集合知として蓄積する情報処理装置である。また、本実施形態に係る情報処理サーバ20は、上記のセンサ情報に基づく認識処理や学習行う機能を有してもよい。
【0066】
(ネットワーク30)
ネットワーク30は、自律動作体10と情報処理サーバ20とを接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
【0067】
以上、本実施形態に係る情報処理システムの構成例について述べた。なお、
図11を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理システムの構成は係る例に限定されない。本実施形態に係る情報処理システムの構成は、仕様や運用に応じて柔軟に変形可能である。
【0068】
<<1.5.自律動作体10の機能構成例>>
次に、本実施形態に係る自律動作体10の機能構成例について述べる。
図12は、本実施形態に係る自律動作体10の機能構成例を示すブロック図である。
図12に示すように、本実施形態に係る自律動作体10は、入力部110、認識部120、学習部130、行動計画部140、動作制御部150、駆動部160、出力部170、およびサーバ通信部180を備える。
【0069】
(入力部110)
入力部110は、ユーザや周囲環境に係る種々の情報を収集する機能を有する。入力部110は、例えば、ユーザの発話や周囲で発生する環境音、ユーザや周囲環境に係る画像情報、および種々のセンサ情報を収集する。このために、入力部110は、
図1に示す各種のセンサを備える。
【0070】
(認識部120)
認識部120は、入力部110が収集した種々の情報に基づいて、ユーザや周囲環境、また自律動作体10の状態に係る種々の認識を行う機能を有する。一例としては、認識部120は、音声認識、接触行為認識、人識別、表情や視線の認識、物体認識、動作認識、空間領域認識、色認識、形認識、マーカー認識、障害物認識、段差認識、明るさ認識などを行ってよい。
【0071】
また、本実施形態に係る認識部120は、上記のような認識処理に基づいて、振る舞いに対するユーザのフィードバックを認識することを特徴の一つとする。本実施形態に係る認識部120が有する機能の詳細については別途後述する。
【0072】
(学習部130)
学習部130は、入力部110が収集したセンサ情報等に基づいて各種の学習を行う機能を有する。学習部130は、例えば、深層学習(Deep Learning)などの機械学習アルゴリズムを用いて、自律動作体10の各部位における接触行為と、当該接触行為により生じる微細振動との関係性を学習する。
【0073】
(行動計画部140)
行動計画部140は、認識部120が出力する各種の認識結果と学習部130が学習した知識とに基づいて、自律動作体10が行動を計画する機能を有する。本実施形態に係る行動計画部140が有する機能の詳細については別途後述する。
【0074】
(動作制御部150)
動作制御部150は、行動計画部140による行動計画に基づいて、駆動部160および出力部170の動作を制御する機能を有する。動作制御部150は、例えば、上記の行動計画に基づいて、アクチュエータ570の回転制御や、ディスプレイ510の表示制御、スピーカによる音声出力制御などを行う。
【0075】
(駆動部160)
駆動部160は、動作制御部150による制御に基づいて、自律動作体10が有する複数の関節部を屈伸させる機能を有する。より具体的には、駆動部160は、動作制御部150による制御に基づき、各関節部が備えるアクチュエータ570を駆動させる。
【0076】
(出力部170)
出力部170は、動作制御部150による制御に基づいて、視覚情報や音情報の出力を行う機能を有する。このために、出力部170は、ディスプレイ510やスピーカを備える。
【0077】
(サーバ通信部180)
本実施形態に係るサーバ通信部180は、ネットワーク30を介して情報処理サーバ20との情報通信を行う。
【0078】
以上、本実施形態に係る自律動作体10の機能構成例について概要を述べた。続いて、
図13を参照して、本実施形態に係る自律動作体10の機能構成をより詳細に説明する。
図13は、本実施形態に係る自律動作体10の詳細な機能構成例を示すブロック図である。なお、
図13において、本実施形態に係るフィードバック認識に関連する構成が中心として記載されている。
【0079】
図示するように、本実施形態に係る入力部110は、タッチセンサ540、慣性センサ555、足裏ボタン550、マイクロフォン515などを含む。タッチセンサ540が検出した頭部、顎部、背部に対する接触情報や、慣性センサ555が検出した姿勢情報および振動情報、足裏ボタン550が検出した接地状況は、認識部120が有するスキンシップ認識器122に入力される。また、マイクロフォン515が収集した音情報は、認識部120が有する音声認識器124に入力される。
【0080】
上述したように、本実施形態に係る認識部120は、入力部110が収集した各種のセンサ情報に基づいて、自律動作体10の行動決定に用いられる各種の認識処理を実行する。本実施形態に係る認識部120は、例えば、スキンシップ認識器122、音声認識器124、およびフィードバック認識器126を有する。
【0081】
本実施形態に係るスキンシップ認識器122は、自律動作体10に対するユーザの接触行為を認識する機能を有する。ここで、上記の接触行為は、例えば、撫でる行為や叩く行為などを含む。この際、本実施形態に係るスキンシップ認識器122は、タッチセンサ540や慣性センサ555が収集したセンサ情報に基づいて上記のような接触行為を認識することができる。本実施形態に係るスキンシップ認識器122が有する機能の詳細については別途後述する。
【0082】
また、本実施形態に係る音声認識器124は、本実施形態に係る非接触行為の一つであるユーザの発話を認識する。本実施形態に係る音声認識器124が有する機能の詳細については別途後述する。
【0083】
また、本実施形態に係るフィードバック認識器126は、自律動作体10が実行した振る舞いに対するユーザのフィーバックを認識する機能を有する。また、本実施形態に係るフィードバック認識器126は、自律動作体10に対するユーザの接触行為および非接触行為の認識結果に基づいて、上記フォードバックの種別や度合いを認識する機能を有する。
【0084】
ここで、上記の接触行為とは、撫でる・叩くなど行為を指す。また、上記の非接触行為とは、自律動作体10が行った振る舞いに対する反応としての発話やジェスチャ、また表情などで有り得る。このような非接触行為は、音声認識器124、認識部120が有するジェスチャ認識器(図示しない)、表情認識器(図示しない)などの構成により認識される。例えば、音声認識器124は、マイクロフォン515が収集した発話情報に基づいて発話を認識し、ジェスチャ認識器や表情認識器は、ユーザを撮影した画像儒法に基づいて、それぞれジェスチャや表情を認識してよい。本実施形態に係るフィードバック認識器126が有する機能の詳細にいては別途後述する。
【0085】
また、本実施形態に係る行動計画部140は、振る舞い選択器142と脊髄反射器144を有する。本実施形態に係る振る舞い選択器142は、フィードバック認識器126が認識したユーザのフィードバックなど、認識部120による各種の認識処理の結果に基づいて自律動作体10に実行させる振る舞いを決定する。本実施形態に係る振る舞い選択器142が有する機能の詳細については別途後述する。
【0086】
また、本実施形態に係る脊髄反射器144は、認識部120が認識した接触行為や非接触行為に基づいて、自律動作体10に行わせる反射的な動作を決定する。当該動作は、振る舞い選択器142が選択した振る舞いと同時に行われてよい。例えば、ユーザの発話が認識された場合、脊髄反射器144は、耳をピクリと動かすような動作を決定してもよい。また、接触行為が認識された場合には、眼やしっぽなど動かす動作を決定してもよい。また、接触行為および非接触行為の両方が認識された場合、脊髄反射器144は、耳、眼、しっぽを同時に動かす動作を決定してもよい。
【0087】
また、本実施形態に係る動作制御部150は、振る舞い選択器142が選択した振る舞いや脊髄反射器144が決定した動作に基づいて、アクチュエータ570や、ディスプレイ510、スピーカ512を制御する。
【0088】
以上、本実施形態に係る自律動作体10の機能構成例について述べた。なお、
図13を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る自律動作体10の機能構成は係る例に限定されない。本実施形態に係る自律動作体10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
【0089】
<<1.6.機能の詳細>>
次に、本実施形態に係る自律動作体10が有する各機能について詳細に説明する。まず、本実施形態に係るスキンシップ認識器122が有する機能について述べる。
【0090】
本実施形態に係るスキンシップ認識器122は、例えば、タッチセンサ540が検出したタッチ情報に基づいて、頭部、顎部、背部に対するユーザの接触行為を認識する。
【0091】
また、上述したように、本実施形態に係るスキンシップ認識器122は、タッチセンサ540が配置されない部位に対するユーザの接触行為を認識することも可能である。
【0092】
図14は、本実施形態に係る慣性センサ555を用いた接触行為の認識について説明するための図である。
図14に示すように、本実施形態に係る自律動作体10は、頭部および胴部にそれぞれ慣性センサ555aおよび555bを備える。
【0093】
上述したように、本実施形態に係る自律動作体10の各関節には遊びが持たされており、また装置内部における構造体の違い等から、接触行為が行われた際に生じる微細振動は、各部位に応じて異なるものとなる。
【0094】
例えば、
図14に示すように、腹部が撫でられた場合を想定する。ここで、本実施形態に係る自律動作体10の腹部には、取り外しが可能な蓋が取り付けられており、また蓋の内側にはバッテリーが配置される。また、腹部と頭部の間には、首の関節を可動させるアクチュエータ570が配置される。
【0095】
さらには、接触行為が行われる腹部と慣性センサ555aとの距離、および腹部と慣性センサ555bとの距離はそれぞれ異なることから、慣性センサ555aおよび555bが検出する微細振動には、図中に例示するように、それぞれ異なる特徴が現れ得る。
【0096】
このため、本実施形態に係るスキンシップ認識器122は、自律動作体10の各部位に対する接触行為に伴い慣性センサ555が収集したセンサ情報の学習の結果と、現時点で収集されたセンサ情報とに基づいて、接触行為が行われた部位を特定してよい。上記の学習は、例えば、ニューラルネットワークを用いた教師あり学習などにより行われる。
【0097】
本実施形態に係るスキンシップ認識器122が有する上記の機能によれば、タッチセンサ540が配置されていない部位に対して接触行為が行われた場合であっても、当該接触行為を認識することが可能となる。
【0098】
なお、スキンシップ認識器122は、自律動作体10が特定の姿勢をとっている場合には、接触行為が行われると予測される箇所に候補を限定することで、より効率的に接触行為を検出することも可能である。例えば、自律動作体10がユーザに腹部を見せている姿勢の場合、ユーザは腹部に対する接触行為を行う可能性が極めて高いと予測される。この場合、スキンシップ認識器122は、上記姿勢を行っている間に微細振動が検出されたことに基づいて、腹部に対する接触行為があったことを認識してもよい。
【0099】
また、本実施形態に係るスキンシップ認識器122は、タッチセンサ540や慣性センサ555が収集したセンサ情報を用いた学習の結果に基づいて、各接触行為が肯定的なフィードバックであるか、否定的なフィードバックであるか、またその度合いを分類できてよい。
【0100】
図15は、本実施形態に係るスキンシップ認識器122による接触行為の分類の一例を示す図である。例えば、スキンシップ認識器122は、図中に示すように、腹部や背部、頭部が強く叩かれた場合、当該接触行為が強い否定的なフォードバック(VERY BAD)に分類してもよい。
【0101】
また、例えば、スキンシップ認識器122は、お腹を見せている間に撫でられた場合、当該接触行為を軽い肯定的なフィードバック(GOOD)に分類してもよい。
【0102】
以上、本実施形態に係るスキンシップ認識器122が有する機能について詳細に説明した。次に、本実施形態に係る音声認識器124が有する機能について説明する。
【0103】
本実施形態に係る音声認識器124は、ユーザの発話に対する音声認識と意味解析を行う。また、本実施形態に係る音声認識器124は、ユーザの発話の方向を推定する音源定位推定機能を有してよい。例えば、音声認識器124は、上記の処理の結果、自身の名前が発話に含まれていることを認識した場合、発話が自律動作体10に対して行われたものであると判定することも可能である。このように、本実施形態に係る認識部120は、入力部110が収集したセンサ情報に基づいて、ユーザの非接触行為が自律動作体10に対するものか否かを判定することが可能である。
【0104】
また、本実施形態に係る音声認識器124は、音声認識および意味解析の結果に基づいて、ユーザの発話が肯定的なフィードバックであるか、否定的なフィードバックであるか、またその度合いを分類できてよい。
【0105】
図16は、本実施形態に係る音声認識器124による接触行為の分類の一例を示す図である。例えば、音声認識器124は、図中に示すように、音声認識と意味解析の結果から発話ごとに分類を行う。例えば、認識した発話が「最高だね」の場合、音声認識器124は、当該発話を強い肯定的なフィードバック(VERY GOOD)に分類してもよい。また、例えば、音声認識器124は、認識した発話が「悪い子」である場合、当該発話を強い否定的なフィードバック(VERY BAD)に分類してもよい。
【0106】
また、音声認識器124は、発話に含まれる単語の意味の他、例えば、発話を行った際のユーザの感情を考慮して分類を行うことも可能である。例えば、「バカ」いう単語が怒りの感情と共に所定以上の音圧で入力された場合、通常時には「バカ」を「BAD」に分類するところを、「VERY BAD」に分類してもよい。
【0107】
また、音声認識器124は、音源定位の情報を分類に利用してもよい。例えば、自律動作体10の正面から「良い子」をいう発話を認識した場合、通常時よりも1ランク分レベルを上げてもよい。これは、人間の子供に対する叱責などの場合と同様に、明確に意図を伝えようとする場合には、正面からの発話が効果的となるためである。
【0108】
以上、本実施形態に係る音声認識器124が有する機能について詳細に説明した。次に、本実施形態に係るフィードバック認識器126が有する機能について説明する。上述したように、本実施形態に係るフィードバック認識器126は、スキンシップ認識器122が認識した接触行為や、音声認識器124などが認識した非接触行為に基づいて、振る舞いに対するユーザのフィードバックを認識する機能を有する。
【0109】
図17は、本実施形態に係るフィードバック認識の流れ示すフローチャートである。なお、
図17に示す一例では、本実施形態に係る非接触行為の一例としてユーザの発話を扱う場合が示されている。
【0110】
図17を参照すると、まず、入力部110が各種のセンサ情報を収集する(S1101)。なお、本実施形態に係るセンサ情報には、音、画像、加速度、角速度などの各種の情報が含まれる。
【0111】
次に、音声認識器124による音声認識(S1102)、およびスキンシップ認識器122による接触行為の認識(S1103)が行われる。
【0112】
次に、本実施形態に係るフィードバック認識器126は、所定時間内に音声認識結果および接触行為認識結果が取得されたか否かを判定する(S1104)。
【0113】
ここで、いずれかの認識結果のみが取得されている場合(S1104:NO)、フィードバック認識器126は、取得された音声認識結果または接触行為認識結果を単独で用いたフィードバック認識を行う(S1106)。すなわち、フィードバック認識器126は、所定時間内に接触行為の認識結果および非接触行為の両方の認識結果が取得されない場合、取得された接触行為または非接触行為のいずれかの認識結果に基づいて、フィードバックの種別および度合いを認識してよい。
【0114】
一方、両者の認識結果が取得されている場合(S1104:YES)、フィードバック認識器126は、音声認識結果および接触行為認識結果の組み合わせによるフィードバック認識を行う(S1105)。
【0115】
図18は、本実施形態に係る接触行為および非接触行為の認識に基づくフィードバック認識の一例を示す図である。例えば、フィードバック認識器126は、接触行為および非接触行為が共に肯定的なフィードバック(GOOD)である認識されている場合、最終的なフィードバックの分類を「VERY GOOD」として認識してよい。
【0116】
また、例えば、フィードバック認識器126は、接触行為および非接触行為が共に否定的なフィードバック(BAD)である認識されている場合、最終的なフィードバックの分類を「VERY BAD」として認識してよい。
【0117】
一方、フィードバック認識器126は、接触行為の認識結果に基づくフィードバックの種別と、非接触行為の認識結果に基づくフィードバックの種別とが同一でない場合、接触行為の認識結果に重みをおいて最終的なフィードバックの種別および度合いを認識する。
【0118】
例えば、
図18に示す一例のように、接触行為が肯定的なフィードバック(GOOD)であると認識されており、非接触行為が否定的なフィードバック(BAD)であると認識されている場合、フィードバック認識器126は、最終的なフィードバックを「GOOD」として認識してもよい。
【0119】
反対に、接触行為が否定的なフィードバック(BAD)であると認識されており、非接触行為が肯定的なフィードバック(GOOD)であると認識されている場合、フィードバック認識器126は、最終的なフィードバックを「BAD」として認識してもよい。
【0120】
本実施形態に係るフィードバック認識器126が有する上記の機能によれば、よりダイレクトなフィードバックである接触行為を優先的に扱うことができ、フィードバック認識の精度の向上が期待される。
【0121】
以上、本実施形態に係るフィードバック認識器126が有する機能の詳細について説明した。なお、上記では、フィードバックの種別が肯定的あるいは否定的の2種であり、それぞれ2つの度合いに分類される場合を例示したが、本実施形態に係るフィードバックの種別および度合いは係る例に限定されない。
【0122】
次に、本実施形態に係る振る舞い選択器142が有する機能について詳細に説明する。本実施形態に係る振る舞い選択器142は、フィードバック認識器126が認識したフィードバックの種別および度合いに基づいて、対応する振る舞いに係るスコアを増減させることにより当該スコアを修正する。また、本実施形態に係る振る舞い選択器142は、上記のように取得したスコアに基づいて、自律動作体10に実行させる振る舞いを決定する。
【0123】
振る舞い選択器142は、例えば、認識されたフィードバックが否定的である場合には該当する振る舞いに係るスコアを減算し、フィードバックが肯定的である場合には該当する振る舞いに係るスコアを加算してよい。また、この場合、振る舞い選択器142は、スコアが高い振る舞いをより優先して選択してよい。
【0124】
本実施形態に係る振る舞い選択器142が有する上記の機能によれば、褒められた振る舞いがより行われやすく、叱られた振る舞いが行われづらい行動計画を実現することができる。これによれば、ユーザの嗜好に合致した振る舞いが多くなることで、ユーザの満足度を向上させることが可能となる。また、連続したフィードバックに基づくスコアの増減により当該スコアが所定の閾値を超えた場合にのみ選択される特別な振る舞いなどを設定することで、ユーザの興味をより引きつけることなども可能である。
【0125】
また、本実施形態に係るフィードバックは、自律動作体10が有する感情に反映されてもよい。本実施形態に係る自律動作体10は、それぞれ感情を有しており、また認識した状況に応じて感情が変化するように設計される。このため、本実施形態に係る振る舞い選択器142が、フィードバックの種別および度合いを自律動作体10の感情に反映することで、ユーザのフィードバックにより自律動作体10の感情が喜びに傾いた場合には、後続する振る舞いを喜びを表現するものとすることや、褒められた振る舞いを繰り返し実行することなどが可能となる。
【0126】
上記のような制御は、例えば、
図19に示す流れで実行され得る。
図19は、本実施形態に係る振る舞い選択器142による処理の流れを示すフローチャートである。
【0127】
図19を参照すると、振る舞い選択器142は、まず、実行された振る舞いに対するフィードバックに基づいて、当該振る舞いに係るスコアを算出する(S1201)。
【0128】
次に、振る舞い選択器142は、感情にフィードバックを反映する(S1202)。
【0129】
次に、振る舞い選択器142は、算出したスコアや感情に基づく振る舞いの選択を行う(S1203)。
【0130】
以上、本実施形態に係る振る舞い選択器142の処理の流れについて説明した。なお、本実施形態に係る振る舞い選択器142は、上記で説明した処理の他にも、スコア等に基づく多様な振る舞い選択を行うことが可能である。
【0131】
例えば、本実施形態に係る振る舞い選択器142は、スコアが算出されていない振る舞いを優先して選択してもよい。本実施形態に係る振る舞い選択器142による上記の制御によれば、ユーザからのフィードバックが未だ得られていない振る舞いを行うことで、例えば、同様の振る舞いばかりが繰り返し実行されることを防止し、ユーザに飽きを生じさせない効果が期待される。
【0132】
また、本実施形態に係る振る舞い選択器142は、ユーザが否定的なフィードバックを行うことが予測される振る舞いを敢えて選択し、自律動作体10に実行させてもよい。係る制御によれば、ユーザが自律動作体10を叱る際、どのようなフィードバックが行うかを観察することが可能である。
【0133】
図20は、本実施形態に係るフィードバック態様の学習について説明するための図である。
図20に示す一例の場合、振る舞い選択器142は、ユーザU1が否定的なフィードバックを行う、すなわち自律動作体10を叱ることが予測される振る舞いとして、大きな声で吠える振る舞いを選択し、自律動作体10に実行させている。
【0134】
また、ユーザU1は、自律動作体10による上記の振る舞いに対し、顔をしかめながら、「止めなさい!」という発話UO5を行い、さらに自律動作体10の頭部を叩いている。
【0135】
このように、本実施形態に係る振る舞い選択器142によれば、ユーザが叱るであろう振る舞いを敢えて自律動作体10に実行させることで、ユーザごとの否定的なフィードバックの態様に係る情報を違和感なく収集することができる。
【0136】
この際、本実施形態に係る学習部130は、上記のような振る舞いに対するフィードバックに基づいて、ユーザの否定的なフィードバックの態様を学習する。これによれば、ユーザごとのフィードバックの態様を学習することができ、より精度の高いフィードバック認識を実現することが可能となる。
【0137】
なお、本実施形態に係る振る舞い選択器142は、ユーザが褒めるであろう振る舞いを敢えて自律動作体10に実行させることで、ユーザごとの肯定的なフィードバックの態様に係る情報収集を行うことも可能である。
【0138】
<2.まとめ>
以上説明した様に、本開示の一実施形態に係る情報処理方法を実現する自律動作体10は、収集されたセンサ情報に基づいて、自律動作体10の行動決定に用いられる認識処理を実行する認識部120を備える。また、本開示の一実施形態に係る認識部120は、自律動作体10が実行した振る舞いに対するユーザのフィードバックを認識するフィードバック認識器126を有する。また、本開示の一実施形態に係るフィードバック認識器126は、自律動作体10に対するユーザの接触行為および非接行為の認識結果に基づいて、フィードバックの度合いを認識すること、を特徴の一つとする。係る構成によれば、自律動作体の振る舞いに対するユーザのフィードバックを精度高く認識することが可能となる。
【0139】
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0140】
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
【0141】
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、自律動作体10が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な非一過性の記録媒体も提供され得る。
【0142】
また、本明細書の自律動作体10の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、自律動作体10の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
【0143】
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
収集されたセンサ情報に基づいて、自律動作体の行動決定に用いられる認識処理を実行する認識部、
を備え、
前記認識部は、前記自律動作体が実行した振る舞いに対するユーザのフィードバックを認識するフィードバック認識器を有し、
前記フィードバック認識器は、前記自律動作体に対する前記ユーザの接触行為および非接触行為の認識結果に基づいて、前記フィードバックの度合いを認識する、
情報処理装置。
(2)
前記認識部は、前記ユーザの発話情報または前記ユーザを撮影した画像情報に基づいて、前記非接触行為を認識する、
前記(1)に記載の情報処理装置。
(3)
前記認識部は、前記接触行為および前記非接触行為の認識結果に基づいて、前記フィードバックの種別を判定する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記認識部は、前記センサ情報に基づいて、前記ユーザの前記非接触行為が前記自律動作体に対するものか否かを判定する、
前記(1)~(3)のいずれかに記載の情報処理装置。
(5)
前記フィードバック認識器は、前記接触行為の認識結果に基づく前記フィードバックの種別と、前記非接触行為の認識結果に基づく前記フィードバックの種別と、が同一でない場合、前記接触行為の認識結果に重みをおいて最終的な前記フィードバックの種別および度合いを認識する、
前記(1)~(4)のいずれかに記載の情報処理装置。
(6)
前記フィードバック認識器は、所定時間内に前記接触行為の認識結果および前記非接触行為の両方の認識結果が取得されない場合、取得された前記接触行為または非接触行為のいずれかの認識結果に基づいて、前記フィードバックの種別および度合いを認識する、
前記(1)~(5)のいずれかに記載の情報処理装置。
(7)
前記認識部は、前記接触行為を認識するスキンシップ認識器、をさらに有する、
前記(1)~(6)のいずれかに記載の情報処理装置。
(8)
前記スキンシップ認識器は、前記自律動作体に備えられるタッチセンサまたは慣性センサが収集したセンサ情報に基づいて、前記接触行為を認識する、
前記(7)に記載の情報処理装置。
(9)
前記スキンシップ認識器は、前記自律動作体の各部位に対する前記接触行為に伴い前記慣性センサが取集したセンサ情報の学習結果に基づいて、前記接触行為が行われた前記自律動作体の部位を特定する、
前記(8)に記載の情報処理装置。
(10)
前記自律動作体は、少なくとも2つの前記慣性センサを備え、
前記スキンシップ認識器は、2つの前記慣性センサが収集したセンサ情報に基づいて、前記タッチセンサが配置されていない部位に対する前記接触行為を認識する、
前記(9)に記載の情報処理装置。
(11)
前記認識部による認識処理の結果に基づいて前記自律動作体に実行させる前記振る舞いいを決定する行動計画部、
をさらに備える、
前記(1)~(10)のいずれかに記載の情報処理装置。
(12)
前記行動計画部は、前記フィードバック認識器が認識した前記フィードバックの種別および度合いに基づいて前記振る舞いに係るスコアを修正し、前記スコアに基づいて、前記自律動作体に実行させる前記振る舞いを決定する、
前記(11)に記載の情報処理装置。
(13)
前記行動計画部は、前記フィードバックの種別および度合いを前記自律動作体の感情に反映する、
前記(12)に記載の情報処理装置。
(14)
前記行動計画部は、前記スコアが算出されていない前記振る舞いを優先して前記自律動作体に実行させる、
前記(12)または(13)に記載の情報処理装置。
(15)
前記ユーザごとに前記フィードバックの態様を学習する学習部、
をさらに備える、
前記(11)~(14)のいずれかに記載の情報処理装置。
(16)
前記行動計画部は、前記ユーザが否定的な前記フィードバックを行うことが予測される前記振る舞いを前記自律動作体に実行させ、
前記学習部は、前記当該振る舞いに対する前記フィードバックに基づいて、前記ユーザの否定的な前記フィードバックの態様を学習する、
前記(15)に記載の情報処理装置。
(17)
プロセッサが、収集されたセンサ情報に基づいて、自律動作体の行動決定に用いられる認識処理を実行すること、
を含み、
前記認識処理を実行することは、前記自律動作体が実行した振る舞いに対するユーザのフィードバックを認識するフィードバック認識器を用い、前記自律動作体に対する前記ユーザの接触行為および非接触認行為の認識結果に基づいて、前記フィードバックの度合いを認識すること、
をさらに含む、
情報処理方法。
(18)
コンピュータを、
収集されたセンサ情報に基づいて、自律動作体の行動決定に用いられる認識処理を実行する認識部、
を備え、
前記認識部は、前記自律動作体が実行した振る舞いに対するユーザのフィードバックを認識するフィードバック認識器を有し、
前記フィードバック認識器は、前記自律動作体に対する前記ユーザの接触行為および非接触認行為の認識結果に基づいて、前記フィードバックの度合いを認識する、
情報処理装置、
として機能させるためのプログラム。
(21)
少なくとも二つのセンサを備える自律動作体において、
前記センサから収集されたセンサ情報に基づいて、前記自律動作体に対するユーザの接触行為を認識するスキンシップ認識器、
を備え、
前記スキンシップ認識器は、前記自律動作体の各部位に対する前記接触行為に伴う前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、
情報処理装置。
(22)
前記スキンシップ認識器は、前記学習結果と、現時点で収集された前記センサ情報とに基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、
前記(21)に記載の情報処理装置。
(23)
前記スキンシップ認識器は、前記センサとして前記自律動作体に備えられるタッチセンサまたは慣性センサが前記自律動作体の各部位に対する前記接触行為に伴って収集した前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、
前記(21)または(22)に記載の情報処理装置。
(24)
前記自律動作体は、二つの前記センサを含む三つのセンサとして前記自律動作体に備えられる二つの慣性センサおよび一つのタッチセンサを備え、
前記スキンシップ認識器は、二つの前記慣性センサが前記自律動作体の各部位に対する前記接触行為に伴って収集した前記センサ情報の学習結果に基づいて、前記タッチセンサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を認識する、
前記(21)または(22)に記載の情報処理装置。
(25)
前記自律動作体が実行した振る舞いに対する前記ユーザのフィードバックを認識するフィードバック認識器、
をさらに備え、
前記フィードバック認識器は、前記自律動作体に対する前記ユーザの接触行為および非接触行為の認識結果に基づいて、前記フィードバックの度合いを認識する、
前記(21)から(24)のいずれか一つに記載の情報処理装置。
(26)
前記ユーザの発話情報または前記ユーザを撮影した画像情報に基づいて、前記非接触行為を認識する認識部、
をさらに備える、
前記(25)に記載の情報処理装置。
(27)
前記認識部は、前記センサ情報に基づいて、前記ユーザの前記非接触行為が前記自律動作体に対するものか否かを判定する、
前記(26)に記載の情報処理装置。
(28)
前記フィードバック認識器は、前記接触行為および前記非接触行為の認識結果に基づいて、前記フィードバックの種別を判定する、
前記(25)から(27)のいずれか一つに記載の情報処理装置。
(29)
前記フィードバック認識器は、前記接触行為の認識結果に基づく前記フィードバックの種別と、前記非接触行為の認識結果に基づく前記フィードバックの種別と、が同一でない場合、前記接触行為の認識結果に重みをおいて最終的な前記フィードバックの種別および度合いを認識する、
前記(25)から(28)のいずれか一つに記載の情報処理装置。
(30)
前記フィードバック認識器は、所定時間内に前記接触行為の認識結果および前記非接触行為の両方の認識結果が取得されない場合、取得された前記接触行為または非接触行為のいずれかの認識結果に基づいて、前記フィードバックの種別および度合いを認識する、
前記(25)から(29)のいずれか一つに記載の情報処理装置。
(31)
前記フィードバック認識器による認識処理の結果に基づいて前記自律動作体に実行させる前記振る舞いを決定する行動計画部、
をさらに備える、
前記(25)から(30)のいずれか一つに記載の情報処理装置。
(32)
前記行動計画部は、前記フィードバック認識器が認識した前記フィードバックの種別および度合いに基づいて前記振る舞いに係るスコアを修正し、前記スコアに基づいて、前記自律動作体に実行させる前記振る舞いを決定する、
前記(31)に記載の情報処理装置。
(33)
前記行動計画部は、前記フィードバックの種別および度合いを前記自律動作体の感情に反映する、
前記(32)に記載の情報処理装置。
(34)
前記行動計画部は、前記スコアが算出されていない前記振る舞いを優先して前記自律動作体に実行させる、
前記(32)または(33)に記載の情報処理装置。
(35)
前記ユーザごとに前記フィードバックの態様を学習する学習部、
をさらに備える、
前記(31)から(34)のいずれか一つに記載の情報処理装置。
(36)
前記行動計画部は、前記ユーザが否定的な前記フィードバックを行うことが予測される前記振る舞いを前記自律動作体に実行させ、
前記学習部は、前記振る舞いに対する前記フィードバックに基づいて、前記ユーザの否定的な前記フィードバックの態様を学習する、
前記(35)に記載の情報処理装置。
(37)
プロセッサが、
少なくとも二つのセンサを備える自律動作体において、
前記センサから収集されたセンサ情報に基づいて、前記自律動作体に対するユーザの接触行為を認識すること、
を含み、
前記接触行為を認識することは、
前記自律動作体の各部位に対する前記接触行為に伴う前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定すること、
をさらに含む、
情報処理方法。
(38)
コンピュータを、
少なくとも二つのセンサを備える自律動作体において、
前記センサから収集されたセンサ情報に基づいて、前記自律動作体に対するユーザの接触行為を認識するスキンシップ認識器、
を備え、
前記スキンシップ認識器は、前記自律動作体の各部位に対する前記接触行為に伴う前記センサ情報の学習結果に基づいて、前記センサが配置されていない部位に対する、前記接触行為が行われた前記自律動作体の部位を特定する、
情報処理装置、
として機能させるためのプログラム。
【符号の説明】
【0144】
10 自律動作体
110 入力部
120 認識部
122 スキンシップ認識器
124 音声認識器
126 フィードバック認識器
130 学習部
140 行動計画部
142 振る舞い選択器
144 脊髄反射器
150 動作制御部