特許第6249247号(P6249247)IP Force 特許公報掲載プロジェクト 2015.5.11 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6249247
(24)【登録日】2017年12月1日
(45)【発行日】2017年12月20日
(54)【発明の名称】制御装置、制御方法、およびプログラム
(51)【国際特許分類】
   B25J 13/08 20060101AFI20171211BHJP
   G06T 1/00 20060101ALI20171211BHJP
【FI】
   B25J13/08 A
   G06T1/00 315
【請求項の数】8
【全頁数】52
(21)【出願番号】特願2016-37022(P2016-37022)
(22)【出願日】2016年2月29日
(62)【分割の表示】特願2011-168922(P2011-168922)の分割
【原出願日】2011年8月2日
(65)【公開番号】特開2016-106038(P2016-106038A)
(43)【公開日】2016年6月16日
【審査請求日】2016年3月23日
(73)【特許権者】
【識別番号】000002185
【氏名又は名称】ソニー株式会社
(74)【代理人】
【識別番号】100121131
【弁理士】
【氏名又は名称】西川 孝
(74)【代理人】
【識別番号】100082131
【弁理士】
【氏名又は名称】稲本 義雄
(72)【発明者】
【氏名】河本 献太
(72)【発明者】
【氏名】岩井 嘉昭
(72)【発明者】
【氏名】清水 悟
【審査官】 貞光 大樹
(56)【参考文献】
【文献】 特開2011−22700(JP,A)
【文献】 特開2004−268148(JP,A)
【文献】 特開平6−96193(JP,A)
【文献】 国際公開第2005/015466(WO,A1)
【文献】 国際公開第2010/131371(WO,A1)
【文献】 特開2007−111854(JP,A)
【文献】 特開2005−4727(JP,A)
【文献】 特開平6−68171(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
B25J 1/00 − 21/02
G06T 1/00
(57)【特許請求の範囲】
【請求項1】
撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体を遠隔で制御する制御装置であって、
前記撮像部により撮像された撮像画像を受信する通信部と、
前記撮像画像から認識された物体の認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像を表示画面に表示させ、前記撮像画像から認識された物体に対応付けて、前記物体の認識の度合いの変化を示す情報を前記表示画面に表示させる制御部と
を含む制御装置。
【請求項2】
前記制御部は、前記撮像画像を、前記表示画面に表示させる
請求項1に記載の制御装置。
【請求項3】
前記制御部は、前記認識に関する閾値に基づいて、前記物体画像の表示方法を変えて、前記表示画面に表示させる
請求項1に記載の制御装置。
【請求項4】
前記通信部は、前記移動体の位置および前記移動体が移動する経路を含む空間図を表す空間情報を受信し、
前記制御部は、前記空間情報に基づいて、前記空間図も前記表示画面に表示させる
請求項1に記載の制御装置。
【請求項5】
前記制御部は、前記撮像画像と前記空間図とを並列で、前記表示画面に表示させる
請求項4に記載の制御装置。
【請求項6】
前記制御部は、前記移動体の位置および前記経路を明確に示した前記空間図を、前記表示画面に表示させる
請求項4に記載の制御装置。
【請求項7】
撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体を遠隔で制御する制御装置の制御方法において、
前記制御装置による、
前記撮像部により撮像された撮像画像を受信し、
前記撮像画像から認識された物体の、認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像とを表示画面に表示させ、
前記撮像画像から認識された物体に対応付けて、前記物体の認識の度合いの変化を示す情報を前記表示画面に表示させる
制御方法。
【請求項8】
撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体を遠隔で制御する制御装置用のコンピュータを、
前記撮像部により撮像された撮像画像を受信する通信部と、
前記撮像画像から認識された物体の、認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像とを表示画面に表示させ、前記撮像画像から認識された物体に対応付けて、前記物体の認識の度合いの変化を示す情報を前記表示画面に表示させる制御部と
して機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、制御装置、制御方法、およびプログラムに関し、例えば、自立型ロボットを容易に予測するための情報を表示するようにした制御装置、制御方法、およびプログラムに関する。
【背景技術】
【0002】
例えば、周囲の状況や、ユーザからの大まかな指示に応じて、自律的に行動(動作する自律型ロボットが一般的なものになりつつある。
【0003】
この自律型ロボットでは、例えば、ユーザが、商品名などを指定せずに、ペットボトル入りのお茶を持ってくるように指示を与えた場合、その指示に応じて、ペットボトル入りのお茶を探して持ってくる動作を、自律的に実行する。
【0004】
すなわち、例えば、自律型ロボットは、複数の、ペットボトル入りのお茶を見つけた場合、自らの判断で、ユーザが所望するペットボトル入りのお茶を選択し、ユーザのところまで持ってくる。
【0005】
なお、ユーザが、物品とその物品の移動先を指定したことに応じて、ロボットに物品を移動先に移動させる技術が存在する(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2004−268148号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
ところで、自律型ロボットは、ユーザからの指示にしたがって行動する場合であっても、周囲の状況や、ユーザによる指示等を誤認識すること等に応じて、ユーザの意図に反した行動をとることが生じ得る。
【0008】
このため、ユーザは、自律型ロボットの行動をある程度、予測できることが望ましい。
【0009】
本開示は、このような状況に鑑みてなされたものであり、自律型ロボットの行動を容易に予測できるようにするものである。
【課題を解決するための手段】
【0010】
本開示の一側面の制御装置は、撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体を遠隔で制御する制御装置であって、前記撮像部により撮像された撮像画像を受信する通信部と、前記撮像画像から認識された物体の、認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像とを表示画面に表示させ、前記撮像画像から認識された物体に対応付けて、前記物体の認識の度合いの変化を示す情報を前記表示画面に表示させる制御部とを含む。
【0011】
前記制御部は、前記撮像画像を、前記表示画面に表示させることができる。
【0012】
前記制御部は、前記認識に関する閾値に基づいて、前記物体画像の表示方法を変えて、前記表示画面に表示させることができる。
【0013】
前記通信部は、前記移動体の位置および前記移動体が移動する経路を含む空間図を表す空間情報を受信し、前記制御部は、前記空間情報に基づいて、前記空間図も前記表示画面に表示させることができる。
【0014】
前記制御部は、前記撮像画像と前記空間図とを並列で、前記表示画面に表示させることができる。
【0015】
前記制御部は、前記移動体の位置および前記経路を明確に示した前記空間図を、前記表示画面に表示させることができる。
【0016】
本開示の一側面の制御方法は、撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体を遠隔で制御する制御装置の制御方法において、前記制御装置による、前記撮像部により撮像された撮像画像を受信し、前記撮像画像から認識された物体の、認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像とを表示画面に表示させ、前記撮像画像から認識された物体に対応付けて、前記物体の認識の度合いの変化を示す情報を前記表示画面に表示させる。
【0017】
本開示の一側面のプログラムは、撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体を遠隔で制御する制御装置用のコンピュータを、前記撮像部により撮像された撮像画像を受信する通信部と、前記撮像画像から認識された物体の、認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像とを表示画面に表示させ、前記撮像画像から認識された物体に対応付けて、前記物体の認識の度合いの変化を示す情報を前記表示画面に表示させる制御部として機能させる。
【0018】
本開示の一側面おいては、撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体の撮像部により撮像された撮像画像が受信され、前記撮像画像から認識された物体の、認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像とが表示画面に表示される。また、前記撮像画像から認識された物体に対応付けて、前記物体の認識の度合いの変化を示す情報が前記表示画面に表示される。
【発明の効果】
【0019】
本開示によれば、自律型ロボットの行動を容易に予測することが可能となる。
【図面の簡単な説明】
【0020】
図1】本開示におけるロボット制御システムの構成例を示す図である。
図2】複数の項目が表示された表示画面の一例を示す図である。
図3】ロボットが行う処理の概要を説明するための図である。
図4】物体の認識状態の一例を示す図である。
図5】指示装置の構成例を示すブロック図である。
図6】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第1の図である。
図7】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第2の図である。
図8】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第3の図である。
図9】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第4の図である。
図10】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第5の図である。
図11】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第6の図である。
図12】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第7の図である。
図13】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第8の図である。
図14】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第9の図である。
図15】物体のスコアの変化を矢印で表示する場合の一例を示す第1の図である。
図16】物体のスコアの変化を矢印で表示する場合の一例を示す第2の図である。
図17】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第10の図である。
図18】指示装置が行う表示処理を説明するためのフローチャートである。
図19】ロボットの構成例を示すブロック図である。
図20】物体の認識状態の遷移の一例を示す状態遷移図である。
図21】物体の認識状態に応じて、ロボット認識情報を生成する生成方法を説明するための図である。
図22】ロボットが行うスコア計算処理を説明するためのフローチャートである。
図23】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第11の図である。
図24】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第12の図である。
図25】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第13の図である。
図26】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第14の図である。
図27】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第15の図である。
図28】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第16の図である。
図29】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第17の図である。
図30】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第18の図である。
図31】ユーザによるフィードバック操作を説明するための図である。
図32】フィードバック操作に応じて、物体の認識状態が遷移する様子の一例を示す図である。
図33】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第19の図である。
図34】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第20の図である。
図35】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第21の図である。
図36】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第22の図である。
図37】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第23の図である。
図38】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第24の図である。
図39】指示装置が行うフィードバック処理を説明するためのフローチャートである。
図40】ロボットが行うスコア再計算処理を説明するためのフローチャートである。
図41】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第25の図である。
図42】ロボットからの情報に基づく表示が表示された表示画面の一例を示す第26の図である。
図43】未検出とされた認識状態を、他の状態に遷移させる場合の一例を示す図である。
図44】撮像画像を用いて、探索範囲又は物体を指定する場合の一例を示す図である。
図45】室内の空間図を用いて、探索範囲を指定する場合の一例を示す図である。
図46】ロボットから指示装置に送信される撮像画像のデータ量を少なくする場合の一例を示す図である。
図47】指示装置が行う領域指定処理を説明するためのフローチャートである。
図48】ロボットが行う探索処理を説明するためのフローチャートである。
図49】コンピュータの構成例を示すブロック図である。
【発明を実施するための形態】
【0021】
以下、本開示における実施の形態(以下、本実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(ロボットの行動を予測するための情報を、指示装置の表示画面に表示する場合の一例)
2.第1の実施の形態の変形例
3.第2の実施の形態(指示装置を用いて、ユーザによるフィードバックをロボットに与える場合の一例)
4.第2の実施の形態の変形例
5.第3の実施の形態(指示装置を用いて、ロボットの探索範囲を指定する場合の一例)
【0022】
<1.第1の実施の形態>
[ロボット制御システムの構成例]
図1は、第1の実施の形態であるロボット制御システム1の構成例を示している。
【0023】
このロボット制御システム1は、表示画面21aを有する指示装置21、及び自律型ロボット22から構成される。
【0024】
指示装置21は、ユーザの操作に応じて、ロボット22に所望の行動(例えば、所定の物体をユーザのところまで持ってくるという行動)をとらせるための指示情報を生成し、無線通信等により、ロボット22に送信する。
【0025】
すなわち、例えば、指示装置21は、図2に示されるように、ユーザにより選択可能な複数の項目「お茶」、「炭酸飲料」、「お菓子」、,,,を、表示画面21aに表示させる。
【0026】
ユーザは、図2に示されるような表示画面21aを参照して、複数の項目の中から、ロボット22に持ってきて欲しい物体の項目を選択(指定)する。なお、表示画面21aには、項目として、例えば、ロボット22に持ってきて欲しい物体のカテゴリが表示される。
【0027】
これに対応して、指示装置21は、ユーザに選択された項目としてのカテゴリ(例えば、「お茶」等)に属する物体をターゲットとして、ユーザのところまで持ってこさせるための指示情報を生成し、無線通信等により、ロボット22に送信する。なお、指示情報には、ユーザに選択された項目としてのカテゴリを表すカテゴリ情報が含まれる。
【0028】
ロボット22は、指示装置21からの指示情報に基づいて、ユーザに選択された項目としてのカテゴリに属する物体をターゲットとして探す動作を、自律的に実行する。
【0029】
なお、ロボット22に指示を与える方法は、指示装置21を用いた上述の方法に限定されず、その他、例えば、ロボット22が、音声認識によりユーザの音声を認識可能である場合には、ユーザが、ターゲット等を音声により指示することができる。
【0030】
この場合、ロボット22は、ユーザからの指示を、音声として認識し、その認識結果に基づいて、ユーザに指示されたターゲットを探す動作を、自律的に実行することとなる。また、例えば、ロボット22が、ユーザのジェスチャやポスチャ等を認識可能である場合には、ユーザが、ジェスチャやポスチャ等により、ターゲット等を指示することができる。
【0031】
ロボット22は、周囲の状況や、ユーザからの大まかな指示(例えば、「お茶」持ってきて欲しいという大まかな指示)などに基づいて、自律的に各種の行動を行う2足歩行型のロボットである。
【0032】
ロボット22は、外部からの刺激を感知するセンサとして、音を感知する「耳」に相当するマイクロホン、及び光を感知する「目」に相当するカメラ等が、それぞれ所定の位置に設けられている。なお、ロボット22の詳細は、図19を参照して後述する。
【0033】
次に、図3は、ロボット22が行う処理の概要を示している。
【0034】
図3には、ロボット22の周囲を撮像して得られる周囲画像31、ロボット22によりターゲットであると認識されている物体を表す物体画像32、ロボット22によりターゲットではないと認識されている物体を表す物体画像33、ロボット22によりターゲットであるかもしれないと認識されている物体を表す物体画像34、ロボット22の撮像により得られた撮像画像の一部分を表す部分画像35が示されている。
【0035】
なお、ロボット22は、例えば、ユーザが居住する部屋36内を自律的に移動して、ターゲットを探索する。
【0036】
ロボット22は、ターゲットの探索中に、内蔵するカメラの撮像により得られた周囲画像31や、部分画像35を、適宜、指示装置21に送信する。なお、周囲画像31や部分画像35は、ユーザが、指示装置21を用いて、ロボット22の探索範囲を指定する場合に用いられる。このことは、主に、図43乃至図47を参照して説明する。
【0037】
また、ロボット22は、部屋36内を移動して、内蔵するカメラにより、物体を撮像して得られる撮像画像に基づいて、その物体が、ターゲットである度合いを表すスコア、つまり、ロボット22の処理対象とされる度合いを表すスコアを計算する。なお、スコアの計算には、物体がターゲットであるか否かを識別するための識別器(を表す関数)が用いられる。
【0038】
そして、ロボット22は、物体のスコアに基づいて、物体の認識状態を決定する。なお、以下では、ロボット22は、内蔵のカメラにより得られる画像を、スコアの計算に用いたり、指示装置21に送信するものとして説明する。
【0039】
しかしながら、スコアの計算に用いる画像や、指示装置21に送信するための画像は、ロボット22に内蔵のカメラにより得られる画像に限定されず、例えば、部屋36の天井等に設置されたカメラにより得られる画像を採用することができる。この場合、部屋36の天井等に設置されたカメラは、撮像により得られる画像を、ロボット22に無線通信により送信するものとなる。
【0040】
次に、図4は、認識状態の一例を示している。
【0041】
図4Aは、ロボット22の認識状態が、「ターゲットである」及び「ターゲットではない」の2種類である場合を示している。
【0042】
図4Bは、ロボット22の認識状態が、「ターゲットである」、「まだ分からない」、「ターゲットではない」の3種類である場合を示している。
【0043】
図4Cは、ロボット22の認識状態が、「ターゲットである」、「ターゲットかもしれない」、「まだ分からない」、及び「ターゲットではない」の4種類である場合を示している。
【0044】
なお、第1の実施の形態では、ロボット22は、図4Cに示されるように、4種類の認識状態のいずれかとして認識するものとする。
【0045】
ロボット22は、例えば、物体のスコアが閾値th1以上である場合、その物体を、「ターゲットである」ものとして認識し、物体のスコアが閾値th1未満であり、閾値th2(<th1)以上である場合、「ターゲットかもしれない」と認識する。
【0046】
また、ロボット22は、例えば、物体のスコアが閾値th2未満であり、閾値th3(<th2)以上である場合、その物体を、ターゲットであるか否か「まだ分からない」ものとして認識し、物体のスコアが閾値th3未満である場合、「ターゲットではない」ものとして認識する。
【0047】
ここで、閾値th1乃至th3は、予め決められてロボット22に保持されているものとする。なお、ロボット22は、物体の認識情報を決定するために、スコアと閾値とを比較するようにしているが、認識情報の決定方法は、これに限定されない。
【0048】
図3に戻り、ロボット22は、例えば、物体「ABC お茶」のスコアが閾値th1以上であると判定した場合、指示装置21の表示画面21aに、物体「ABC お茶」が、「ターゲットである」ものと認識している旨を表示させる。
【0049】
すなわち、例えば、指示装置21の表示画面21aには、図3に示されるように、物体「ABC お茶」を表す物体画像32が、例えば、太線の矩形で囲まれた状態で表示される。この太線の矩形は、ロボット22が、物体「ABC お茶」を「ターゲットである」と認識していることを表すものである。
【0050】
また、例えば、ロボット22は、例えば、図3に示されるように、物体「犬型のロボット」のスコアが閾値th3未満であると判定した場合、指示装置21の表示画面21aに、物体「犬型のロボット」が、「ターゲットではない」ものと認識している旨を表示させる。
【0051】
すなわち、例えば、指示装置21の表示画面21aには、図3に示されるように、物体「犬型のロボット」を表す物体画像33が、例えば、斜線が付加された状態で表示される。この斜線は、ロボット22が、物体「犬型のロボット」を「ターゲットでなない」ものと認識していることを表すものである。
【0052】
さらに、例えば、ロボット22は、例えば、図3に示されるように、物体「オレンジジュース」のスコアが閾値th1未満であり、閾値th2以上であると判定した場合、指示装置21の表示画面21aに、物体「オレンジジュース」が、「ターゲットかもしれない」と認識している旨を表示させる。
【0053】
すなわち、例えば、指示装置21の表示画面21aには、図3に示されるように、オレンジジュースと記載されたペットボトルを表す物体画像34が、例えば、細線の矩形で囲まれた状態で表示される。この細線の矩形は、ロボット22が、物体「オレンジジュース」を、「ターゲットかもしれない」と認識していることを表すものである。
【0054】
また、例えば、ロボット22は、所定の物体のスコアが閾値th2未満であり、閾値th3以上であると判定した場合、指示装置21の表示画面21aに、所定の物体が、ターゲットであるか否か「まだ分からない」ものとして認識している旨を表示させる。
【0055】
すなわち、例えば、指示装置21の表示画面21aには、所定の物体を表す物体画像が、例えば、そのままの状態(矩形で囲まれたり、斜線が付加されない状態)で表示される。そのままの状態で物体画像が表示される場合、ロボット22が、所定の物体を、ターゲットであるか否か「まだ分からない」ものとして認識していることを表すものである。
【0056】
このように、指示装置21の表示画面21aには、ロボット22が認識している情報を表示させるようにしているので、ユーザは、ロボット22の行動を容易に予測できるようになる。
【0057】
なお、表示方法は、これに限定されず、ユーザが、ロボット22の行動を、直感的に理解できるような表示方法であれば、どのような表示方法であってもよい。
【0058】
また、ユーザは、表示画面21aを参照することにより、ターゲットとして好ましくない物体がターゲットとして認識されていると判断した場合、その物体はターゲットでない旨のフィードバック操作を、指示装置21に対して行うことができる。
【0059】
この場合、ロボット22は、ユーザのフィードバック操作に応じて、物体のスコアを再計算し、再計算して得られたスコアに基づいて、自律的に行動する。なお、ユーザのフィードバック操作については、主に、図31乃至図42を参照して後述する。
【0060】
[指示装置21の構成例]
次に、図5は、指示装置21の構成例を示している。
【0061】
この指示装置21は、操作部41、制御部42、表示画面21aを有する表示部43、通信部44、及び記憶部45から構成される。
【0062】
操作部41は、操作キーや操作ボタン等により構成され、例えば、ユーザが、ロボット22に指示を与える場合等に、ユーザにより操作される。操作部41は、ユーザに操作されたことに対応して、ユーザの操作に対応する操作信号を制御部42に供給する。
【0063】
制御部42は、通信部44からのロボット認識情報に基づいて、物体画像を含むロボット認識画像を生成し、表示部43に供給して表示画面21aに表示させる。なお、ロボット認識情報には、表示画面21aの表示に必要な情報として、例えば、物体のスコア等が含まれる。また、表示画面21aの表示例は、図6乃至図17を参照して後述する。
【0064】
また、制御部42は、操作部41からの操作信号に応じて、指示情報や、フィードバック情報、指定範囲情報を生成し、通信部44に供給する。
【0065】
ここで、フィードバック情報とは、指示装置21において、ユーザのフィードバックの内容を表す情報をいう。
【0066】
ユーザは、操作部41を用いて、例えば、ロボット22が「ターゲットである」と認識している物体が、ターゲットではない旨のフィードバック操作を行うことができる。このことは、図31乃至図42を参照して詳述する。
【0067】
また、指定範囲情報とは、例えば、指示装置21の表示画面21aに表示された周囲画像31や部分画像35上の全領域のうち、ユーザの領域指定操作により指定された領域の位置を表す。
【0068】
ユーザは、操作部41を用いて、例えば、周囲画像31や部分画像35上の全領域のうち、ロボット22がターゲットを探索する探索範囲を指定する領域指定操作を行うことができる。このことは、図43乃至図47を参照して詳述する。
【0069】
制御部42は、通信部44からのロボット認識情報を、記憶部45に供給して記憶させる。
【0070】
表示部43は、制御部42からの制御にしたがって、表示画面21aに画像を表示する。
【0071】
なお、指示装置21では、表示部43を含めるように構成しているが、その他、例えば、表示部43を指示装置21に含めないように構成することができる。この場合、制御部42と、外部に設けられた表示部43とは、ケーブル等で接続されるものとなる。
【0072】
通信部44は、ロボット22から送信されるロボット認識情報を受信し、制御部42に供給する。また、通信部44は、制御部42からの指示情報や、フィードバック情報、指定範囲情報を、無線通信等を用いてロボット22に送信する。
【0073】
記憶部45は、例えば、制御部42により実行される制御用プログラム等を予め記憶している。また、例えば、記憶部45は、制御部42からのロボット認識情報を記憶する。
【0074】
[表示画面21aの表示例]
次に、図6乃至図14は、指示装置21が、ロボット22からのロボット認識情報に基づいて、ロボット認識画像を表示した場合の表示画面21aの一例を示している。
【0075】
ロボット22は、指示装置21からの指示情報に基づいて、物体「お茶」を持ってくるように指示された場合、物体「お茶」を探しに出かける。
【0076】
ロボット22は、室内を探索しているが、まだ物体を検知していないため、指示装置21には、ロボット22からロボット認識情報が何も送信されない。
【0077】
したがって、制御部42は、図6に示されるように、例えば、何も写っていないロボット認識画像を、表示画面21aに表示させる。
【0078】
ロボット22は、部屋36の室内を撮像して得られる撮像画像から、物体「鳥の置物」を検知した場合、その撮像画像から、物体「鳥の置物」を表す物体画像51を抽出し、ロボット認識情報に含めて、通信部44に送信する。
【0079】
これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に含まれる物体画像51を、表示部43に供給して表示画面21aに表示させる。
【0080】
これにより、表示画面21aには、図7に示されるように、物体画像51が、図中左側に表示される。このため、ユーザは、ロボット22が、鳥の置物を物体として検知したことを容易に予測することができる。
【0081】
ロボット22は、物体「鳥の置物」がターゲットであるか否かを識別するために、物体「鳥の置物」に近づくように行動する。そして、ロボット22は、物体「鳥の置物」を近くで撮像して得られた撮像画像から、「鳥の置物」を表す物体画像51を抽出し、ロボット認識情報に含めて、通信部44に送信する。
【0082】
これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に含まれる物体画像51を、表示部43に供給して表示画面21aに表示させる。
【0083】
これにより、表示画面21aには、図8に示されるように、図7の場合よりも大きな物体画像51が、図中左側に表示される。なお、ロボット22は、まだ物体「鳥の置物」のスコアを計算してないため、物体「鳥の置物」がターゲットであるか否か「まだ分からない」ものとして認識している。したがって、図8において、物体画像51は、そのままの状態(矩形で囲まれたり、斜線が付加されない状態)で表示される。
【0084】
ロボット22は、物体「鳥の置物」を近くで撮像して得られる撮像画像から、物体「鳥の置物」のスコアを計算する。そして、ロボット22は、計算したスコアに基づいて、物体「鳥の置物」が「ターゲットではない」と認識した場合、「ターゲットではない」旨を表す認識状態(を表す情報)を含むロボット認識情報を、通信部44に送信する。
【0085】
これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に含まれる認識状態に基づいて、斜線が付加された物体画像51を生成し、表示部43に供給して表示画面21aに表示させる。
【0086】
これにより、表示画面21aには、図9に示されるように、斜線が付加された物体画像51が表示される。
【0087】
なお、物体画像51に付加された斜線は、物体画像51上の物体「鳥の置物」が、「ターゲットではない」ものとして、ロボット22に認識されていることを表す。
【0088】
このため、ユーザは、ロボット22が、物体画像51上の「鳥の置物」を「ターゲットではない」と認識していることを容易に予測することができる。
【0089】
ロボット22は、室内を撮像して得られる撮像画像から、物体「十八茶」を検知した場合、その撮像画像から、物体「十八茶」を表す物体画像52を抽出する。
【0090】
ロボット22は、抽出した物体画像52を含むロボット認識情報を、通信部44に送信する。
【0091】
これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に含まれる物体画像52を、表示部43に供給して表示画面21aに表示させる。
【0092】
これにより、表示画面21aには、図10に示されるように、図中左側に、ロボット22により検知された物体「十八茶」の物体画像52が表示される。このため、ユーザは、ロボット22が、物体「十八茶」を検知したことを、容易に予測することができる。
【0093】
また、ロボット22は、物体「十八茶」の近くで撮像して得られる撮像画像から、物体「十八茶」のスコアを計算する。そして、ロボット22は、計算したスコアに基づいて、物体「十八茶」が「ターゲットである」ものと認識した場合、物体「十八茶」が「ターゲットである」旨を表す認識状態を含むロボット認識情報を、通信部44に送信する。
【0094】
これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に基づいて、矩形で囲まれるとともに、三角印で指し示された物体画像52、及び斜線が付加された物体画像51を生成し、表示部43に供給して表示画面21aに表示させる。
【0095】
これにより、表示画面21aには、図11に示されるように、太線の矩形で囲まれ、三角印(図11に示される▲)で指し示された物体画像52が図中左側に表示され、斜線の付加された物体画像51が、物体画像52よりも右側に表示される。
【0096】
なお、物体画像52を囲む太線の矩形は、物体画像52の物体「十八茶」が、「ターゲットである」ものとして、ロボット22に認識されていることを表す。また、物体画像52を指し示す三角印は、ロボット22が、物体画像52の物体「十八茶」を持って帰ろうと思っていることを表す。
【0097】
さらに、いまの場合、制御部42は、物体のスコアが高い順序で、表示画面21aの左側から右方向に、その物体を表す物体画像を表示するようにしている。
【0098】
また、物体画像の表示位置は、物体のスコアに応じた位置とされている。したがって、例えば、第1の物体画像と、第2の物体画像との表示間隔は、第1の物体画像と第2の物体画像それぞれの物体のスコアの差を表すものとなる。
【0099】
このため、ユーザは、物体画像が表示される、表示画面21a上の位置に応じて、物体画像が表す物体のスコアを直感的に把握することができる。
【0100】
図11に示されるような表示画面21aからは、ロボット22が、物体「十八茶」を持ってくる動作を実行することを容易に予測することができる。
【0101】
また、ロボット22は、自律的に移動し、内蔵するカメラの撮像により得られる撮像画像から、新たな物体を検知した場合、上述した場合と同様にして、ロボット認識情報を生成し、通信部44に送信する。
【0102】
これに対して、制御部42は、通信部44からのロボット認識情報に基づいて、表示部43に供給して表示画面21aに表示させる。
【0103】
このように、制御部42は、ロボット22から、通信部44を介して送信されるロボット認識情報に基づいて、表示画面21aの表示を更新することとなる。
【0104】
すなわち、例えば、表示画面21aは、その後、ロボット22の行動に応じて、図12に示されるように、物体「ABC お茶」を表す物体画像53が新たに表示されたものに更新される。また、表示画面21aは、ロボット22の行動に応じて、図13に示されるように、物体「C炭酸ジュース」を表す物体画像54、及び物体「USBメモリ」を表す物体画像55が新たに表示されたものに更新される。さらに、例えば、表示画面21aは、ロボット22の行動に応じて、図14に示されるように、スコアに応じて、各物体画像の位置が変更されたものに更新される。
【0105】
なお、図14の表示画面21aでは、図13に示した表示画面21aで表示されている物体画像51が、表示されないものとなっている。
【0106】
図14においては、表示画面21aの左側に表示されるほどに、物体のスコアが高いものとなっており、物体画像を表示する位置によって、物体のスコアを表すようにしている。
【0107】
このため、物体画像52乃至55を、対応する各物体のスコアに応じた位置で表示させる場合、表示画面21aや物体画像の大きさに起因して、物体画像51を表示できない。
【0108】
なお、図14において、物体画像51の物体「鳥の置物」のスコアは、物体画像55の物体「USBメモリ」のスコアよりも十分に小さいものとする。
【0109】
また、図14において、物体画像53の物体「ABC お茶」のスコアは、物体画像52の物体「十八茶」のスコアよりも小さいものとなっている。
【0110】
しかしながら、三角印は、物体画像53の物体「ABC お茶」を指し示しており、ロボット22は、物体「ABC お茶」を持って帰ろうとしている。これは、ロボット22が、物体のスコアのみならず、物体が存在する位置や、ユーザの好みを加味して、持って帰ろうとする物体を決定することによる。
【0111】
ところで、第1の実施の形態では、図6乃至図14に示したように、物体のスコアが高い順序で、表示画面21aの左側から右方向に並べて表示させるようにした。しかしながら、右方向の他、任意の方向(例えば、右側から左方向)に表示させることができる。
【0112】
また、例えば、第1の実施の形態では、図6乃至図14に示したように、物体のスコアが高い順序で任意の方向に並べて表示するとともに、物体のスコアに応じた位置に、物体画像を表示させるようにしている。
【0113】
しかしながら、表示画面21aには、スコアの順序のみを用いて、物体画像を表示するようにしてもよい。その他、例えば、表示画面21aには、スコアの順序を用いずに、物体のスコアに応じた位置で、物体画像を表示させることができる。
【0114】
また、例えば、物体のスコアに応じて、物体画像の順序、位置、大きさ、明るさ(輝度等)、鮮明度、又は色の少なくとも1つを変更して表示するようにしてもよい。
【0115】
さらに、例えば、物体のスコアを、物体画像に対応付けて表示させるようにしてもよい。なお、スコアは、例えば、棒グラフや、円グラフで表示することができる。スコアの表示として、円グラフを用いる場合、現在、最もスコアが高い物体のスコアに対するパーセンテージを、円グラフとして表示するようにしてもよい。
【0116】
また、例えば、表示画面21aにおいて、物体のスコアの変化を、矢印等で表示するようにしてもよい。
【0117】
具体的には、例えば、図15に示されるように、物体画像54に対応する物体「C炭酸ジュース」のスコアが増加するように変化している場合、表示画面21aにおいて、物体画像54に対応付けて、物体「C炭酸ジュース」のスコアの増加を示す白色の矢印を表示する。
【0118】
また、例えば、図15に示されるように、物体画像52に対応する物体「十八茶」のスコアが減少するように変化している場合、表示画面21aにおいて、物体画像52に対応付けて、物体「十八茶」のスコアの減少を示す黒色の矢印を表示する。
【0119】
さらに、例えば、図15に示されるように、物体画像55に対応する物体「USBメモリ」のスコアが減少するように変化している場合、表示画面21aにおいて、物体画像55に対応付けて、物体「USBメモリ」のスコアの減少を示す黒色の矢印を表示する。
【0120】
表示画面21aにおいて、図15に示されるような内容が表示される場合、ユーザは、ロボット22が、物体「十八茶」ではなく、物体「C炭酸ジュース」を間違えて持ってくることを予測できる。この場合、ロボット22が、物体「C炭酸ジュース」を間違えて持ってくる前に、ユーザは、例えば、物体「十八茶」を持ってくるように明確に指示を与えるようにすることができる。
【0121】
また、表示画面21aにおいて、図16に示されるような内容が表示される場合、ロボット22が、ユーザの所望する物体「十八茶」を持ってくることを予測できる。この場合、ユーザは、ロボット22に指示を与えることなく、ロボット22が物体「十八茶」を持ってくるまで、仕事等に集中することができる。なお、図16は、図15と同様に構成されているため、図16の説明は省略する。
【0122】
さらに、例えば、表示画面21aにおいて、物体のスコアの変化を、矢印等に代えて、棒グラフや、折れ線グラフで表示させるようにしてもよい。その他、例えば、物体のスコアの変化とともに、又は物体のスコアの変化に代えて、スコアの履歴も表示してもよい。
【0123】
スコアの変化や履歴を表示する場合、ユーザは、表示画面21aを参照することにより、物体のスコアの変化や履歴を把握できるようになるので、スコアの順位の変動を容易に予測でき、ひいては、ロボット22の行動を先立って予測することができるようになる。
【0124】
なお、これらの表示は、制御部42が、記憶部45に記憶させたロボット認識情報を参照することにより実現される。
【0125】
また、指示装置21において、スコアの順位の変動が生じたときには、音を鳴らしたり、振動したり、ランプを点滅させるようにして、その旨をユーザに通知することができる。
【0126】
ところで、第1の実施の形態では、図6乃至図14に示したように、ロボット22により、「ターゲットである」ものとして認識された物体の物体画像を、太線の矩形で囲み、「ターゲットかもしれない」と認識された物体の物体画像をそのままの状態で表示する。
【0127】
また、例えば、ロボット22により、ターゲットであるか否か「まだ分からない」と認識された物体の物体画像を、細線の矩形で囲み、「ターゲットではない」と認識された物体の物体画像を、斜線を付加した状態で表示するようにした。
【0128】
しかしながら、それぞれの認識状態を表す表示方法は、矩形や斜線等に限定されない。
【0129】
また、例えば、認識状態を表す表示方法と、物体のスコアを表す表示方法とを併用して用いる他、認識状態を表す表示方法と、物体のスコアを表す表示方法との一方のみを用いて、表示画面21aに表示するようにしてもよい。
【0130】
次に、図17は、表示画面21a上の物体画像に対して、ユーザの選択操作が行われたことに対応して、選択された物体画像の詳細情報を表示する場合の一例を示している。
【0131】
図17に示される表示画面21aには、主に、物体「十八茶」(ペットボトル)の底部分を表す物体画像52a、及び物体「十八茶」の詳細情報として、物体「十八茶」をそれぞれ他の方向から撮像して得られた物体画像52b乃至52eが表示されている。
【0132】
ロボット22は、例えば、表示画面21aに表示される物体画像として、物体を撮像して得られる最新の撮像画像から、物体画像を抽出し、ロボット認識情報に含めて、指示装置21に送信するようにしている。
【0133】
なお、ロボット22は、ロボット認識情報に含める物体画像としては、最新の撮像画像から抽出した物体画像の他、物体が写っている複数の撮像画像のうち、最も解像度の高い撮像画像から抽出した物体画像を採用することができる。
【0134】
また、ロボット認識情報に含める物体画像としては、複数の物体画像のうち、ロボット22により、物体の全体をよく表している抽出画像を採用してもよいし、典型的な抽出画像を採用してもよい。なお、典型的な抽出画像としては、例えば、物体を斜め上45度から撮像した場合の抽出画像が考えられる。
【0135】
例えば、ロボット22が、過去の撮像により、物体画像52b乃至52eを一部分に含む撮像画像を取得しているものの、最新の撮像により、物体画像52aを一部分に含む撮像画像を取得している場合、物体「十八茶」の底部分が写る物体画像52aを含むロボット認識画像が、指示装置21に送信される。
【0136】
そして、指示装置21では、図17に示されるように、物体「十八茶」の底部分が写る物体画像52aが、表示画面21aに表示されることとなる。この場合、ユーザは、表示画面21aに表示された物体画像52aを見て、物体画像52aが表す物体が「十八茶」であると理解できないことが生じ得る。
【0137】
そこで、ロボット22は、物体画像52aの他、物体画像52b乃至52eも含むロボット認識情報を、指示装置21の通信部44に送信するようにしている。この場合、通信部44はロボット22からのロボット認識情報を、制御部42に供給する。
【0138】
制御部42は、通信部44からのロボット認識情報に基づいて、表示部43の表示画面21aに、図17に示されるように、図中左側から、物体「スティックのり」の物体画像、物体「十八茶」の物体画像52a、及び物体「財布」の物体画像を表示させる。
【0139】
また、制御部42は、通信部44からのロボット認識情報を、記憶部45に供給して保持させる。
【0140】
指示装置21において、ユーザが、操作部41を用いて、表示画面21a上の物体画像52aを選択する選択操作を行った場合、操作部41は、ユーザの選択操作に対応する操作信号を、制御部42に供給する。
【0141】
そして、制御部42は、操作部41からの操作信号に応じて、記憶部45に保持済みのロボット認識情報に含まれる物体画像52b乃至52eを読み出し、表示部43に供給して表示画面21aを表示させる。
【0142】
これにより、表示画面21aには、図17に示されるように、物体「十八茶」の詳細情報として、物体画像52b乃至52eが、表示画面21aに表示される。
【0143】
このため、ユーザは、物体画像52aから、物体画像52a上の物体を把握できない場合でも、ユーザの選択操作に応じて表示される物体画像52b乃至52eにより、物体画像52aに写る物体が「十八茶」であることを容易に把握できる。
【0144】
なお、制御部42は、その他、例えば、操作部41からの操作信号に応じて、ユーザの選択操作が行われた場合、物体画像52aを拡大したものを、詳細情報として表示させるようにすることができる。この場合、例えば、制御部42は、記憶部45に保持済みのロボット認識情報に含まれる物体画像52aを読み出し、所定の拡大率で拡大させて、表示画面21aに表示させる。
【0145】
その他、例えば、制御部42は、物体画像52aの詳細情報として、物体画像52a上の物体「十八茶」が検知された3次元位置を、表示画面21aに表示させるようにしてもよい。この場合、記憶部45には、物体画像52aとともに、物体画像52a上の物体「十八茶」の3次元位置も含むロボット認識情報が記憶されているものとする。
【0146】
ところで、指示装置21が、例えば、操作部41としてマウスが接続されたパーソナルコンピュータである場合、ユーザは、マウスを用いて、表示画面21a上の物体画像52a上に、カーソル等を移動させるようにして、物体画像52aを選択する選択操作(マウスオーバー)を行うこととなる。
【0147】
なお、表示画面21aには、複数の物体画像のうち、表示画面21aの画面サイズに応じた所定枚数の物体画像のみが表示される。このため、表示画面21aには、スコアが十分に高い物体画像や、スコアが上位n番までの物体画像、「ターゲットである」又は「ターゲットかもしれない」の少なくとも一方とされた物体画像のみを表示させるようにしている。
【0148】
したがって、表示画面21aには表示されない物体画像が存在するため、ユーザの操作に応じて、そのような物体画像を、表示画面21aに表示できるように構成することが望ましい。
【0149】
すなわち、例えば、ユーザは、マウスに設けられたスクロールボタンを回転させるスクロール操作を行うようにして、表示画面21aに表示される各物体画像を縮小させ、表示画面21aにより多くの物体画像を表示させることができる。
【0150】
この場合、制御部42は、操作部41から、スクロール操作に対応する操作信号が供給されたことに対応して、記憶部45に保持済みのロボット認識情報を読み出す。そして、制御部42は、読み出したロボット認識情報に基づいて、スクロール操作に応じて縮小された各物体画像を生成し、表示部43に供給して表示画面21aに表示させる。
【0151】
また、例えば、ユーザは、スクロール操作により、表示画面21aに表示される各物体画像を拡大させ、表示画面21aにより少ない物体画像を表示させることができる。
【0152】
さらに、表示画面21aは、例えば、その中央に、スコアx1の物体画像を表示させ、スコアx1よりも大きなスコアの物体画像を、左側に表示させ、スコアx1よりも小さなスコアの物体画像を、右側に表示させる。
【0153】
表示画面21aでは、ユーザ操作に応じて、スコアx1よりも小さなスコアx2(<x1)の物体画像を、表示画面21aの中央に表示させ、スコアx2よりも大きなスコアの物体画像を、左側に表示させ、スコアx2よりも小さなスコアの物体画像を、右側に表示させることができる。
【0154】
すなわち、例えば、ユーザが、カーソル等を、スコアx2の物体画像が表示された位置に移動させ、その位置を、表示画面21aの中央の位置とするように操作部41を操作した場合、制御部42において、表示画面21aの中央の位置に、スコアx2の物体画像を表示させるようなロボット認識画像が生成され、表示部43の表示画面21aに表示されることとなる。
【0155】
なお、例えば、ユーザが、スコアx1の物体画像を表示させる位置を、表示画面21aの中央とするように、操作部41を操作した場合、表示画面21aの表示は、その中央に、スコアx1の物体画像が表示される元の表示とされる。
【0156】
また、例えば、ユーザが、操作部41を用いて、表示画面21a上の全領域のうち、所定の領域を拡大して表示させるための拡大操作を行った場合、表示画面21aにおける所定の領域が拡大して表示される。
【0157】
[指示装置21がロボット認識画像を表示する場合の動作説明]
次に、図18のフローチャートを参照して、指示装置21が行う表示処理を説明する。
【0158】
この表示処理は、例えば、ロボット22からロボット認識情報が送信されたときに開始される。
【0159】
ステップS21において、通信部44は、制御部42からの制御にしたがって、ロボット22からのロボット認識情報を受信し、制御部42に供給する。
【0160】
ステップS22において、制御部42は、通信部44からのロボット認識情報に基づいて、ロボット認識画像を生成し、表示部43に供給して表示画面21aに表示させる。
【0161】
また、制御部42は、通信部44からのロボット認識情報を、記憶部45に供給して記憶させる。
【0162】
ステップS23において、制御部42は、操作部41から、ユーザによる選択操作に対応する操作信号が供給されたか否かに応じて、ユーザによる選択操作が行われたか否かを判定する。
【0163】
そして、ステップS23では、制御部42は、ユーザによる選択操作が行われていないと判定した場合、処理をステップS21に戻し、それ以降同様の処理を繰り返す。
【0164】
また、ステップS23において、制御部42は、操作部41から、ユーザによる選択操作に対応する操作信号が供給されたか否かに応じて、ユーザによる選択操作が行われたと判定した場合、処理をステップS24に進める。いまの場合、例えば、図17に示される撮像画像52aの詳細情報を表示させるための選択操作が行われたものとする。
【0165】
この場合、ステップS24において、制御部42は、記憶部45に記憶されているロボット認識情報を読み出し、読み出したロボット認識情報に含まれる物体画像52b乃至52eを、表示部43に供給して表示画面21aに表示させる。その後、処理はステップS21に戻され、それ以降、同様の処理が行われる。なお、この表示処理は、例えば、ロボット22からロボット認識情報が送信されなくなったときに終了される。
【0166】
以上説明したように、表示処理によれば、ロボット22からのロボット認識情報に基づいて、図6乃至図17に示されるような表示画面21aを表示させるようにしたので、ロボット22の行動を容易に予測することが可能となる。
【0167】
また、表示処理によれば、ステップS23において、例えば、図17の物体画像52aを選択する選択操作が行われたことに対応して、ステップS24において、物体画像52aに写る物体を、他の方向から見た場合の物体画像52b乃至52eを表示させるようにした。
【0168】
このため、ユーザは、表示画面21aに表示された物体画像の物体を、より正確に把握することができる。
【0169】
[ロボット22の構成例]
次に、図19は、ロボット22の構成例を示している。
【0170】
このロボット22は、通信部61、カメラ62、距離センサ63、マイクロホン64、スピーカ65、制御部66、駆動部67、及び記憶部68から構成される。
【0171】
通信部61は、指示装置21からの指示情報や、フィードバック情報、指定範囲情報等を受信し、制御部66に供給する。
【0172】
通信部61は、制御部66からのロボット認識情報を、指示装置21に送信する。
【0173】
カメラ62は、光を感知する「目」に相当するものであり、例えば、CCD(Charge Coupled Device)イメージセンサ等により構成される。カメラ62は、ロボット22の周囲を撮像し、その撮像により得られる撮像画像を、制御部66に供給する。
【0174】
距離センサ63は、ロボット22から物体までの距離を測るセンサであり、物体までの距離を測って制御部66に供給する。
【0175】
マイクロホン64は、音を感知する「耳」に相当するものであり、音声を集音し、その集音により得られる音声信号を、制御部66に供給する。
【0176】
スピーカ65は、ロボット22の「口」に相当するものであり、制御部66からの制御にしたがって、所定の音声を出力する。
【0177】
制御部66は、通信部61乃至スピーカ65、及び駆動部67を制御する。すなわち、例えば、制御部66は、カメラ62からの撮像画像、距離センサ63からの距離、マイクロホン64からの音声信号などに基づいて、周囲の状況等を把握し、把握した周囲の状況に応じて、駆動部67を制御する。
【0178】
また、制御部66は、通信部61からの指示情報に基づいて、駆動部67を制御して、ユーザにより指示された行動を自律的に行う。すなわち、例えば、制御部66は、駆動部67を制御して、ロボット22に、指示情報に含まれるカテゴリ情報が表すカテゴリに属する物体を、ターゲットとして自律的に探索させる。
【0179】
さらに、制御部66は、カメラ62からの撮像画像に基づいて、撮像画像上の物体を検知し、検知した物体を表す物体画像を抽出する。また、制御部66は、カメラ62からの撮像画像に基づいて、検知した物体のスコアを計算する。
【0180】
すなわち、例えば、制御部66は、通信部61からの指示情報に基づいて、ターゲットとされる物体の識別器を、記憶部68から読み出す。また、制御部66は、カメラ62からの撮像画像から、検知した物体の特徴を表す特徴量を抽出する。
【0181】
そして、制御部66は、抽出した特徴量に基づいて、読み出した識別器を用いて、検知した物体のスコアを計算する。すなわち、例えば、制御部66は、識別器から得られる識別結果(スコア)を、そのまま、検知した物体のスコアとすることもできるし、時系列的に、識別器から得られる識別結果を統合的に判断して、最終的なスコアを計算することもできる。
【0182】
制御部66は、計算した物体のスコアに基づいて、その物体の認識状態を決定する。なお、認識状態の決定については、図20を参照して後述する。
【0183】
また、制御部66は、計算した物体のスコアや、決定した物体の認識状態に基づいて、表示画面21aに表示させる物体画像を決定する。なお、表示画面21aに表示させる物体画像の決定方法は、図21を参照して後述する。
【0184】
制御部66は、例えば、物体の認識状態に応じて、表示画面21aに表示することに決定した物体画像を変更(例えば、矩形で囲んだり、斜線を付加)し、変更後の物体画像、物体のスコア、表示対象情報等を含むロボット認識情報を生成し、通信部61に供給する。
【0185】
また、制御部66は、距離センサ63を制御して、検知した物体までの距離を計測させる。これにより、距離センサ63は、制御部66が検知した物体までの距離を、制御部66に供給する。
【0186】
制御部66は、カメラ62からの撮像画像や、カメラ62の姿勢(位置及び向き)等に基づいて、カメラ62(ロボット22)の3次元位置を検出する。なお、ロボット22の3次元位置の検出方法の詳細は、例えば、特開2008−304268号公報等に記載されている。
【0187】
なお、制御部66は、例えば、GPS(global positioning system)やWi-Fiを用いた測位技術を用いて、ロボット22の3次元位置を検出するようにしてもよい。
【0188】
制御部66は、検出した3次元位置と、距離センサ63から供給される距離とに基づいて、検知した物体の3次元位置を算出し、その物体が写った撮像画像に対応付けて、記憶部68に供給して記憶させる。
【0189】
また、制御部66は、記憶部68に保持された撮像画像(例えば、図3の周囲画像31や部分画像35)等を読み出し、読み出した撮像画像も含むロボット認識画像を生成し、通信部61に供給する。
【0190】
制御部66は、通信部61からの指定範囲情報と、記憶部68に保持されている撮像画像とに基づいて、ユーザの指定操作により指定された領域を表す指定領域を検出する。
【0191】
また、制御部66は、検出した指定領域上の物体に対応付けられている3次元位置を、記憶部68から読み出し、読み出した3次元位置に基づいて、指定領域に対応する探索範囲を算出する。
【0192】
そして、制御部66は、駆動部67を制御して、ロボット22の手や足に相当する部位を駆動させ、算出した探索範囲内でターゲット(カテゴリ情報が表すカテゴリに属する物体)を探索する動作を実行させる。
【0193】
駆動部67は、制御部66からの制御にしたがって、ロボット22の「手」や「足」に相当する部分を駆動させる。これにより、ロボット22は、自律的に行動する。
【0194】
記憶部68は、例えば、制御部66により実行される制御用プログラムを予め保持する他、制御部66から書込みが指示されたデータ等を記憶(保持)する。
【0195】
また、記憶部68は、複数の項目それぞれの物体毎に、その物体を識別するための識別器を記憶している。この識別器は、物体の特徴量を入力として、物体のスコアを出力する関数である。なお、この識別器は、予め行なわれた学習により生成されて記憶されているものとする。
【0196】
さらに、記憶部68は、制御部66からの撮像画像(撮像画像上の物体の3次元位置が対応付けられている撮像画像であって、例えば、周囲画像31や部分画像35等)を記憶する。
【0197】
次に、図20は、物体の認識状態の状態遷移図の一例を示している。
【0198】
図20には、制御部66が認識する認識状態として、「未検出(検知)」、「まだ分からない」、「ターゲットかもしれない」、「ターゲットである」、及び「ターゲットではない」が示されている。
【0199】
制御部66は、計算した物体のスコアに応じて、その物体を、「まだ分からない」、「ターゲットかもしれない」、「ターゲットである」、又は「ターゲットではない」のいずれの状態として認識する。
【0200】
すなわち、例えば、制御部66は、物体のスコアが閾値th1以上である場合、その物体を、「ターゲットである」ものとして認識し、物体のスコアが閾値th1未満であり、閾値th2(<th1)以上である場合、「ターゲットかもしれない」と認識する。
【0201】
また、例えば、制御部66は、物体のスコアが閾値th2未満であり、閾値th3(<th2)以上である場合、その物体を、ターゲットであるか否か「まだ分からない」ものとして認識し、物体のスコアが閾値th3未満である場合、「ターゲットではない」ものとして認識する。
【0202】
なお、制御部66は、ユーザによるフィードバック操作が行われる場合を除き、物体を「ターゲットである」ものとして認識する際に、必ず、「ターゲットかもしれない」と認識した状態を経由するようにしている。
【0203】
したがって、表示画面21aにおいて、ターゲットであるか否か「まだ分からない」ものとして認識されている物体(細線の矩形で囲まれた物体画像に対応)が、急に「ターゲットである」ものとして認識された物体(太線の矩形で囲まれた物体画像に対応)とされることを防止できる。
【0204】
このため、ユーザは、表示画面21aにおいて、「ターゲットかもしれない」ものとして認識された物体(そのままの状態で表示される物体画像に対応)にのみ、ターゲットに相応しくないものが存在するか否かに注意を払えばよいものとなる。
【0205】
このように、物体を「ターゲットである」ものとして認識する際に、必ず、「ターゲットかもしれない」と認識した状態を経由するようにしているのは、表示画面21aにおいて、ターゲットであるか否か「まだ分からない」ものとして認識されている物体が、急に「ターゲットである」ものとして認識された物体とされる場合、ユーザは、表示画面21aにおいて、すべての物体に注意を払わなければならず、非常に面倒であることによる。
【0206】
次に、図21は、制御部66が、物体のスコアに応じて、表示画面21aに表示させる物体画像を決定する決定方法の一例を示している。
【0207】
図21には、スコアの高い順序で、図中左側から、物体71、物体72、物体73、…物体74が示されている。
【0208】
制御部66は、計算した物体71のスコアに基づいて、物体71を「ターゲットである」と認識している。また、制御部66は、物体72のスコアに基づいて、物体72を「ターゲットかもしれない」と認識している。
【0209】
さらに、制御部66は、物体73のスコアに基づいて、物体73を、ターゲットであるか否か「まだ分からない」ものと認識している。また、制御部66は、物体74のスコアに基づいて、物体74を、「ターゲットではない」と認識している。
【0210】
例えば、制御部66は、図21に示されるように、検知した複数の物体のうち、スコアが高い上位N番までの物体に対応する物体画像を、指示装置21の表示画面21aに表示させるものとして決定することができる。
【0211】
また、例えば、制御部66は、図21に示されるように、検知した複数の物体のうち、「ターゲットである」及び「ターゲットかもしれない」と認識している物体に対応する物体画像を、少なくとも、指示装置21の表示画面21aに表示させるものとして決定してもよい。
【0212】
[ロボット22がスコアを計算するときの動作説明]
次に、図22のフローチャートを参照して、ロボット22が行うスコア計算処理について説明する。
【0213】
このスコア計算処理は、例えば、ロボット22が、指示装置21からの指示情報に基づいて、室内を探索するときに開始される。
【0214】
ステップS41において、カメラ62は、ロボット22の周囲の撮像を行い、その撮像により得られる撮像画像を、制御部66に供給する。
【0215】
ステップS42において、制御部66は、カメラ62からの撮像画像に基づいて、撮像画像上の物体を検知することを試みる。
【0216】
そして、制御部66は、カメラ62からの撮像画像に基づいて、その撮像画像から物体を検知したことに対応して、処理をステップS43に進める。なお、制御部66は、カメラ62からの撮像画像に基づいて、その撮像画像から物体を検知しなかった場合、処理をステップS41に戻し、それ以降同様の処理が行われる。
【0217】
制御部66は、指示装置21から通信部61を介して供給される指示情報に基づいて、ロボット22の処理対象を表すターゲットを判定し、判定したターゲット用の識別器を、記憶部68から読み出す。
【0218】
ステップS43において、制御部66は、カメラ62からの撮像画像から、検知した物体の特徴量を算出する。そして、制御部66は、算出した特徴量に基づいて、記憶部68から読み出した識別器を用いて、物体のスコアを計算する。
【0219】
ステップS44では、制御部66は、計算したスコアや、記憶部68に記憶済みの撮像画像などを含むロボット認識情報を生成し、通信部61に供給する。
【0220】
ステップS45では、通信部61は、制御部61からのロボット認識情報を、指示装置21に送信し、処理はステップS41に戻され、それ以降同様の処理が行われる。
【0221】
なお、スコア計算処理は、例えば、ロボット22がターゲットを見つけて、ユーザのところに持って帰ったときに終了される。
【0222】
以上説明したように、スコア計算処理によれば、検知した物体のスコアを計算し、計算したスコア等を含むロボット認識情報を、指示装置21に送信するようにした。
【0223】
よって、指示装置21の表示画面21aにおいて、図6乃至図17に示されるようなロボット認識画像を表示できるようになるので、ユーザは、ロボット22の行動を容易に予測することが可能となる。
【0224】
<2.第1の実施の形態の変形例>
[ロボット認識画像の他の表示例]
ところで、図6乃至図17を参照して、スコアの高い物体ほど、表示画面21aの左に表示させるようにしたロボット認識画像を説明したが、ロボット認識画像は、これに限定されない。
【0225】
次に、図23は、ロボット認識画像の他の表示例を示している。
【0226】
図23において、表示画面21aの上側の画面を表す上側画面81には、スコアの高い物体の物体画像ほど、表示画面21aの左側に配置されたロボット認識画像が表示される。いまの場合、物体91、物体92、物体93、物体94の順序でスコアが高いものとなっている。
【0227】
また、表示画面21aの上側の画面を表す下側画面82には、カメラ62の撮像により得られた最新の撮像画像が表示される。この撮像画像には、図23に示されるように、上側画面81に表示された物体91(「りんごジュース」)及び物体92(「C炭酸ジュース」)が写っている。
【0228】
表示画面21aにおいて、上側画面81上の物体91及び下側画面82上の物体91(「りんごジュース」)は、点線で接続されており、上側画面81と下側画面82に表示された物体91との対応関係がわかるようになっている。
【0229】
このことは、物体92についても同様である。なお、この場合、ロボット認識情報には、カメラ62の撮像により得られた最新の撮像画像が含まれる。
【0230】
すなわち、図23では、下側画面82に、カメラ62の撮像により得られる最新の撮像画像を表示する点が、図6乃至図17を参照して説明した場合と異なるものとなる。
【0231】
図23において、上側画面81を見ると、物体91及び物体92それぞれの物体画像が太線の矩形で囲まれているため、ロボット22は、物体91及び92をターゲットと認識していることが予測される。また、図23において、下側画面82を見ると、ロボット22は、物体91及び92の近くに存在することが予測される。
【0232】
このため、ユーザは、図23の上側画面81のみを参照する場合と比較して、図23の上側画面81及び下側画面82を参照することにより、ロボット22が、物体91又は物体92の一方を、ターゲットとして持ち帰る行動をとることを、より容易に推測できる。
【0233】
なお、図23において、下側画面82には、カメラ62の撮像により得られた最新の撮像画像を表示するようにしたが、その他、例えば、任意の時刻でカメラ62の撮像により得られた撮像画像を表示することができる。また、カメラ62の撮像により得られた複数の撮像画像を合成して作成した合成画像(パノラマビューのような画像)を表示するようにしてもよい。
【0234】
さらに、例えば、表示画面21aには、カメラ62の撮像により得られた撮像画像上に、太線の矩形等を直接、重畳させる(例えば、撮像画像上のりんごジュースを太線の矩形で囲む)ようにしたものを表示させるようにしてもよい。この場合、表示画面21aには、図23に示した上側画面81に表示される画像は表示されず、撮像画像のみが表示されることとなる。
【0235】
また、例えば、図24に示されるように、カメラ62の撮像により得られる最新の撮像画像に代えて、表示画面21aの下側画面82に、室内の空間を表す空間図を表示させるようにしてもよい。この場合、ロボット認識情報には、室内の空間図を表す空間情報が含まれる。なお、空間情報は、例えば、ロボット22の記憶部68に予め保持されているものとする。
【0236】
また、図24に示されるように、下側画面82に表示される空間図には、ロボット22がこれから移動する経路が、点線101で示されている。なお、図24では、上側画面81に表示された物体と、その物体が存在する空間図上の位置とが点線で接続され、対応関係がわかるようになっている。
【0237】
このため、ユーザは、図24の表示画面21aの上側画面81のみを参照する場合と比較して、図24の表示画面21aの上側画面81及び下側画面82を参照することにより、ロボット22が、物体91(「りんごジュース」)を、ターゲットとして持ち帰るだろうと推測できる。
【0238】
なお、図23及び図24のような表示画面21aを表示させるようにする場合、ロボット22の近くに存在する物体(ロボット22の位置から所定の範囲内に存在する物体)を、物体画像として優先的に表示させることが望ましい。
【0239】
また、表示画面21aには、例えば、図23に示される下側画面82に撮像画像を表示し、図24に示される下側画面82に空間図を表示させるようにしたが、その他、例えば、撮像画像と空間図との両方を表示させるようにしてもよい。
【0240】
この場合、例えば、表示画面21aには、図23に示されるような表示とともに、ロボット22がこれから移動する経路を表す点線101を含む空間図が表示されることとなる。
【0241】
次に、図25は、ロボット認識画像のさらに他の表示例を示している。
【0242】
図25には、表示画面21aに、ロボット22のカメラ62の撮像により得られた最新の撮像画像が表示される。この撮像画像には、主に、ロボット22により検知された物体111乃至114が写っている。
【0243】
そして、物体111及び113には、それぞれ、その物体に対してロボット22が行おうとしている行動が、吹き出し111a乃至113aにより表示されている。
【0244】
吹き出し111aには、行動「捨てる」が表示され、吹き出し112aには、行動「持ってくる」が表示され、吹き出し113aには、行動「持ってくる」が表示され、吹き出し114aには、行動「捨てる」が表示される。なお、図25に示されるような表示画面21aが表示される場合、ロボット22からのロボット認識情報には、物体(例えば、「鳥の置物」)を処理対象とするロボット22の処理(例えば、「捨てる」)を表す処理情報が含まれる。
【0245】
また、吹き出し111a乃至113aの大きさは、例えば、吹き出しが付加された物体のスコアに応じた大きさとされる。なお、スコアは、吹き出しの大きさの他、吹き出しの色で表すようにしてもよい。
【0246】
第1の実施の形態では、ユーザが、指示装置21を用いて、ロボット22に、ターゲットとしての「お茶」を持ってくる旨を指示するようにしたが、指示は、これに限定されず、その他、例えば、ターゲットをゴミ箱に捨てる旨を指示することができる。
【0247】
その他、例えば、ユーザは、指示装置21を用いて、ターゲットを「つかむ」、「拾う」、「片付ける」等の指示を行うことができる。
【0248】
図25では、例えば、ユーザが、指示装置21を用いて、ロボット22に、「ジュース」を持ってくる旨を指示するとともに、「小物」をゴミ箱に捨てる旨を指示した場合に、指示装置21の表示画面21aに表示される表示例である。
【0249】
すなわち、表示画面21aに表示されるロボット認識画像は、ユーザが、ロボット22の行動を直感的に予測できるものであれば、どのような表示方法であってもよい。
【0250】
また、例えば、ユーザは、指示装置21を用いて、ターゲットとして、「お茶」等の他、ターゲットとして人を選択することができる。この場合、ユーザは、指示装置21を用いて、ターゲットとしての人を「呼んでくる」等の指示を行うことができる。
【0251】
この場合、表示画面21aには、例えば、検知された人とともに、その人の名前を表示させるようにしてもよい。なお、人の名前は、例えば、その人を識別するための識別器に対応付けて、ロボット22の記憶部68に予め保持されているものとする。
【0252】
また、表示画面21aに、検知された人を表す名前として、異なる人の名前が表示されている場合には、ユーザは、操作部41を用いて、名前を、検知された人の名前に変更させるようにすることができる。
【0253】
ところで、例えば、指示装置21は、ロボット22からのロボット認識情報に基づいて、図26に示されるように、表示画面21aに、物体画像121乃至124を含むロボット認識画像を表示するようにしている。
【0254】
図26に示される表示画面21aでは、ロボット22が、物体画像121に対応する物体「十八茶」を「ターゲットかもしれない」と認識していることが表示される。
【0255】
さらに、ロボット22が、物体画像122に対応する物体「C炭酸ジュース」及び物体画像123に対応する物体「鉢植え」を、それぞれ、ターゲットであるか否か「まだ分からない」ものとして認識していること、物体画像124に対応する物体「ぬいぐるみ」を、「ターゲットではない」と認識していることが表示される。
【0256】
したがって、ユーザは、図26に示される表示画面21aを参照して、ロボット22の行動を、以下のように推測することができる。すなわち、例えば、ユーザにおいては、ロボット22が、「ターゲットかもしれない」と認識している物体「十八茶」を、いずれ「ターゲットである」ものとして認識するようになり、物体「十八茶」を持って帰るだろうと推測することができる。
【0257】
この場合、ユーザは、ロボット22が、物体「十八茶」を持って帰るまで待つことが考えられる。
【0258】
また、例えば、図27に示される表示画面21aには、ロボット22が、物体画像141に対応する物体「ABC お茶」、及び物体画像142に対応する物体「S茶」のいずれも「ターゲットである」ものとして認識していることを表す太線の矩形が表示される。
【0259】
さらに、例えば、図27に示される表示画面21aには、ロボット22が、物体「ABC お茶」を持って帰ろうとしていることを表す三角印が表示される。
【0260】
したがって、ロボット22は、物体「ABC お茶」及び物体「S茶」のいずれを持って帰ろうか迷っているものの、とりあえず、物体「ABC お茶」を持って帰ろうとしていることが、ユーザにより推測される。
【0261】
ユーザは、物体「ABC お茶」及び物体「S茶」のどちらでもよい場合には、指示装置21を特に操作することなく、ロボット22が、物体「ABC お茶」又は物体「S茶」の一方を持って帰るのを待つこととなる。
【0262】
なお、例えば、図27の表示画面21aにおいて、三角印が表示されておらず、ユーザが、物体「ABC お茶」又は物体「S茶」のどちらでもよいので、早く持ってきて欲しいと思ったときには、ロボット22に、例えば物体「ABC お茶」を持ってくるように指示できることが望ましい。
【0263】
そこで、例えば、指示装置21は、図28に示されるように、表示画面21aに表示された物体画像161乃至165のうち、ユーザが持ってきて欲しいと思っている物体「十八茶」に対応する物体画像162を、ユーザの操作により指示できるようにしている。
【0264】
なお、図28では、表示画面21aにおいて、例えば、三角印が表示されていない場合に、ユーザが持ってきて欲しいと思っている物体「十八茶」に対応する物体画像162が、ユーザの操作により指示されたことに対応して、太線の矩形で囲まれ、三角印で指示された物体画像162が表示されることとなる。
【0265】
また、例えば、図29に示されるような表示画面21aにおいて、物体画像181乃至187のうち、物体画像182に対応する物体「ABC お茶」を指し示す三角印が表示されている場合、ロボット22が、物体「ABC お茶」を持って帰るだろうと推測される。
【0266】
ユーザが、物体「ABC お茶」ではなく、物体「S茶」を持って帰って欲しいと思っている場合、指示装置21の操作部41を操作することにより、物体「ABC お茶」に代えて、物体画像184に対応する物体「S茶」を持ってくるように指示することができる。
【0267】
すなわち、例えば、ユーザは、図30に示されるように、表示画面21a上の物体画像184を、ポインタ(矢印)等により指定するようにして、物体画像184に対応する物体「S茶」を持ってくるように指示することができる。
【0268】
これにより、表示画面21aにおいて、物体画像182に対応する物体「ABC お茶」を指し示していた三角印(図29)に代えて、物体画像184に対応する物体「S茶」を指し示す三角印(図30)が表示されることとなる。
【0269】
<3.第2の実施の形態>
[表示画面21aを見ているユーザが、ロボット22に指示を与える場合の一例]
次に、図31乃至図38は、ユーザが、指示装置21の操作部41を操作して、ロボット22に指示を与えるためのフィードバック操作を行う場合の一例を示している。
【0270】
図31は、ユーザが、指示装置21の表示画面21aを参照して、指示装置21の操作部41を用いて、フィードバック操作を行う場合の一例を示している。
【0271】
図31には、表示画面21aに表示される物体画像201乃至204が示されている。なお、物体画像201及び202は、ロボット22の認識状態が「ターゲットである」であることを示す矩形で囲まれている。
【0272】
また、物体画像203は、そのままの状態で表示され、物体「C炭酸ジュース」に対するロボット22の認識状態が「まだ分からない」ものであることを示している。さらに、物体画像204は、ロボット22の認識状態が「ターゲットではない」ことを示す斜線が付加されている。
【0273】
ユーザは、指示装置21の操作部41を用いて、例えば、物体画像203が表す物体「C炭酸ジュース」の認識状態を、矢印221で示されるように、「まだ分からない」から「ターゲットである」に変更するフィードバック操作を行うことができる。
【0274】
また、例えば、ユーザは、指示装置21の操作部41を用いて、物体画像202が表す物体「十八茶」の認識状態を、矢印222で示されるように、「ターゲットである」から「ターゲットではない」に変更するフィードバック操作を行うことができる。
【0275】
制御部42は、操作部41からの、フィードバック操作に対応する操作信号に応じて、対応するフィードバック情報を生成し、通信部44に供給する。通信部44は、制御部42からのフィードバック情報を、ロボット22に供給する。
【0276】
ロボット22は、通信部44からのフィードバック情報に基づいて、物体のスコアを再計算し、その結果得られるスコアに基づいて、各物体の認識状態を変化させる。
【0277】
次に、図32は、指示装置21からのフィードバック情報に応じて、ロボット22の制御部66が、物体の認識状態を変化させる場合の一例を示している。
【0278】
例えば、指示装置21において、ユーザが、操作部41を用いてフィードバック操作を行った場合、操作部41は、フィードバック操作に対応する操作信号を、制御部42に供給する。
【0279】
制御部42は、操作部41からの操作信号に基づいて、フィードバック情報を生成し、通信部44に供給する。通信部44は、制御部42からのフィードバック情報を、ロボット22に送信する。
【0280】
いまの場合、図31に示したように、例えば、ユーザが、指示装置21の操作部41を用いて、物体画像203が表す物体「C炭酸ジュース」の認識状態を、矢印221で示されるように、「まだ分からない」から「ターゲットである」に変更するフィードバック操作を行った場合を考える。
【0281】
この場合、ロボット22において、制御部66は、指示装置21の通信部44から通信部61を介して供給されるフィードバック情報に基づいて、物体「C炭酸ジュース」のスコアを再計算する。
【0282】
これにより、制御部66は、再計算により得られた新たなスコアに基づいて、物体「C炭酸ジュース」の認識状態を、矢印2211で示されるように、「まだ分からない」から「ターゲットである」に決定(変更)する。
【0283】
なお、フィードバック操作として、物体の認識状態を、「ターゲットかもしれない」から「ターゲットである」に変更するフィードバック操作が行われた場合、制御部66では以下の処理が行われる。すなわち、例えば、制御部66は、通信部61からのフィードバック情報に基づいて、物体の認識状態を、矢印2212で示されるように、「ターゲットかもしれない」から「ターゲットである」に決定する。
【0284】
また、フィードバック操作として、物体の認識状態を、「ターゲットではない」から「ターゲットである」に変更するフィードバック操作が行われた場合、制御部66では以下の処理が行われる。すなわち、例えば、制御部66は、通信部61からのフィードバック情報に基づいて、物体の認識状態を、矢印2213で示されるように、「ターゲットではない」から「ターゲットである」に決定する。
【0285】
さらに、例えば、図31に示したように、ユーザが、指示装置21の操作部41を用いて、物体画像202を表す物体「十八茶」の認識状態を、矢印222で示されるように、「ターゲットである」から「ターゲットではない」に変更するフィードバック操作を行った場合を考える。
【0286】
この場合、制御部66は、図32に示されるように、通信部61からのフィードバック情報に基づいて、物体「十八茶」の認識状態を、矢印222で示されるように、「ターゲットである」から「ターゲットではない」に決定する。
【0287】
[フィードバック操作の一例]
次に、図33乃至図38を参照して、ユーザが、指示装置21の表示画面21aを参照して、フィードバック操作を行う場合について説明する。
【0288】
指示装置21において、制御部42は、ロボット22から通信部44を介して供給されるロボット認識情報に基づいて、表示部43の表示画面21aに、例えば、図33に示されるような、物体画像241乃至244を含むロボット認識画像を表示させる。
【0289】
また、ロボット22が、物体画像242が表す物体「スポドリンク」を「ターゲットである」と認識した場合、制御部42は、ロボット22から通信部44を介して送信されてくるロボット認識情報に基づいて、表示画面21aに、ロボット認識画像を表示させる。
【0290】
これにより、表示画面21aには、図34に示されるように、物体画像241乃至244を含むロボット認識画像が表示される。
【0291】
図34に示される表示画面21aでは、ロボット22が、ユーザが所望する物体「十八茶」(物体画像245が表す物体)とは異なる物体「スポドリンク」(物体画像242が表す物体)を、ターゲットとして認識していることが推測される。
【0292】
そして、ロボット22が、物体「スポドリンク」をターゲットとして持って帰る行動をとる場合、制御部42は、ロボット22から通信部44を介して送信されるロボット認識情報に基づいて、表示画面21aに、ロボット認識画像を表示させる。
【0293】
これにより、表示画面21aは、図35に示されるように、物体「スポドリンク」をターゲットとして持って帰ることを示す三角印が付加された物体画像242を表示する。
【0294】
この場合、ユーザは、図35に示されるように、指示装置21の操作部41を用いて、物体「スポドリンク」はターゲットではない旨を指示するフィードバック操作を行う。このとき、操作部41は、ユーザのフィードバック操作に対応する操作信号を、制御部42に供給する。
【0295】
制御部42は、操作部41からの操作信号に基づいて、フィードバック情報を生成し、通信部44に供給する。通信部44は、制御部42からのフィードバック情報を、ロボット22に送信する。この場合、例えば、ロボット22(制御部66)は、通信部44からのフィードバック情報に基づいて、物体「スポドリンク」のスコアを再計算する。
【0296】
これにより、物体「スポドリンク」のスコアは、例えば、物体「十八茶」のスコアよりも低いスコアとされ、ロボット22は、物体「十八茶」をターゲットとして持って帰るように行動する。また、ロボット22は、再計算したスコアに基づいて、物体「スポドリンク」の認識状態を、「ターゲットである」から「ターゲットではない」に変更する。
【0297】
この場合、指示装置21において、制御部42は、ロボット22から通信部44を介して送信されるロボット認識情報に基づいて、表示画面21aに、ロボット認識画像を表示させる。なお、ロボット認識情報には、少なくとも、ユーザのフィードバック操作に応じたフィードバック情報により再計算されたスコアが含まれる。
【0298】
これにより、表示画面21aは、図36に示されるように、物体「十八茶」をターゲットとして持って帰ることを示す三角印が付加された物体画像245を表示する。
【0299】
なお、ユーザは、物体「スポドリンク」はターゲットではない旨を指示するフィードバック操作を行う他、例えば、図37に示されるように、物体「十八茶」がターゲットである旨を指示するフィードバック操作を行うようにしても良い。
【0300】
この場合、例えば、ロボット22(制御部66)は、通信部44からのフィードバック情報に基づいて、物体「十八茶」のスコアを再計算する。これにより、物体「十八茶」のスコアは、例えば、物体「スポドリンク」のスコアよりも高いスコアとされ、ロボット22は、物体「十八茶」をターゲットとして持って帰るように行動する。
【0301】
これに対して、指示装置21の制御部42は、ロボット22から通信部44を介して送信されるロボット認識情報に基づいて、表示画面21aに、ロボット認識画像を表示させる。
【0302】
これにより、表示画面21aは、図38に示されるように、物体「十八茶」をターゲットとして持って帰ることを示す三角印が付加された物体画像245を表示する。
【0303】
なお、例えば、フィードバック操作により、物体がターゲットではない旨を指示する場合、ユーザは、操作部41を用いて、ターゲットではない物体(の物体画像)を指定し、
指定された物体を、ターゲットであるものとすることが考えられる。
【0304】
この場合、制御部42は、ユーザにより指定された物体がターゲットではない旨を表すフィードバック情報を生成する。
【0305】
また、例えば、フィードバック操作により、物体がターゲットではない旨を指示する場合、ユーザは、操作部41を用いて、ターゲットである物体(の物体画像)を指定し、指定されていない物体を、ターゲットではないものとすることが考えられる。
【0306】
この場合、制御部42は、ユーザにより指定されていない物体がターゲットではない旨を表すフィードバック情報を生成する。
【0307】
なお、物体の指定は、指定したい表示画面21a上の物体を、枠などで囲むようにして指定するようにしてもよい。また、操作部41にマウスが含まれている場合には、指定したい表示画面21a上の物体に、カーソル等を移動させ、マウスの左クリック(シングルクリック又はダブルクリック)で物体を指定してもよい。
【0308】
さらに、指示装置21がパーソナルコンピュータなどであり、操作部41としてコントロールキーやシフトキーが設けられている場合には、コントロールキーやシフトキーを併用して左クリックを行うことにより、同時に、複数の物体を指定することができる。
【0309】
また、例えば、ユーザは、物体を指定した後、マウスを用いた右クリックにより表示される選択肢「ターゲットである」、「ターゲットでない」等のうち、選択肢「ターゲットでない」を選択することにより、指定済みの物体がターゲットではない旨を表すフィードバック操作を行うようにしてもよい。
【0310】
さらに、例えば、ユーザは、指定済みの物体に対して、再度、マウスを用いた左クリックを行うことにより、物体の指定を解除することができる。その他、例えば、ユーザは、物体を、左クリックにより選択して、表示画面21aの枠外に投げ捨てるような投げ捨て操作を、物体が「ターゲットではない」旨を表すフィードバック操作として行うことができる。
【0311】
例えば、操作部41に「Enter」キーが含まれる場合、物体が指定されている状態で「Enter」キーを押下する押下操作を、指定された物体がターゲットである旨を表すフィードバック操作として採用することができる。
【0312】
また、例えば、操作部41に「Delete」キーが含まれる場合、物体が指定された状態で「Delete」キーを押下する押下操作を、指定された物体がターゲットではない旨を表すフィードバック操作として採用することができる。
【0313】
その他、例えば、操作部41に「Tab」キーが含まれる場合、ユーザは、「Tab」キーが押下される毎に、表示画面21a上に表示されるフォーカスを移動させるようにすることができる。
【0314】
これらのことは、指定された物体がターゲットである旨を表すフィードバック操作を行う場合についても同様である。
【0315】
[指示装置21が行うフィードバック処理について]
次に、図39のフローチャートを参照して、指示装置21が行うフィードバック処理について説明する。
【0316】
なお、このフィードバック処理は、例えば、指示装置21の電源がオンされたときに開始される。また、表示画面21aには、物体画像が表示されているものとする。
【0317】
ステップS61において、制御部42は、操作部41から、フィードバック操作に対応する操作信号が供給されたか否かに基づいて、ユーザによるフィードバック操作が行われたか否かを判定し、ユーザによるフィードバック操作が行われたと判定するまで、ステップS61の処理を繰り返して行う。
【0318】
ステップS61において、制御部42は、フィードバック操作に対応する操作信号が供給されたか否かに基づいて、ユーザによるフィードバック操作が行われたと判定した場合、処理をステップS62に進める。
【0319】
ステップS62において、制御部42は、ユーザによるフィードバック操作に基づいて、フィードバック情報を生成し、通信部44に供給する。
【0320】
ステップS63において、通信部44は、制御部42からのフィードバック情報を、無線通信等を用いて、ロボット22に送信し、処理をステップS61に戻し、それ以降、同様の処理が行われる。なお、このフィードバック処理は、例えば、指示装置21の電源がオフされたときに終了される。
【0321】
以上説明したように、フィードバック処理によれば、ユーザによるフィードバック操作に応じて、表示画面21aに表示された物体を、ターゲットである等と指示できるようにした。
【0322】
このため、例えば、ロボット22が、ターゲットではない物体を、ターゲットとして認識している場合等に、指示装置21により、その物体が、ターゲットではないことをロボット22にフィードバックさせることが可能となる。
【0323】
[ロボット22が行うスコア再計算処理について]
次に、図40のフローチャートを参照して、ロボット22が行うスコア再計算処理を説明する。
【0324】
なお、このスコア再計算処理は、例えば、ロボット22の電源がオンされたときに開始される。
【0325】
ステップS81において、通信部61は、指示装置21からのフィードバック情報を受信するまで、ステップS81の処理を繰り返す。そして。ステップS81では、通信部61は、指示装置21からのフィードバック情報を受信した場合、受信したフィードバック情報を、制御部66に供給して、処理をステップS82に進める。
【0326】
ステップS82において、制御部66は、通信部61からのフィードバック情報に基づいて、物体のスコアを再計算して、処理をステップS83に進める。
【0327】
ステップS83において、制御部66は、再計算したスコアに基づいて、ロボット認識情報を生成し、通信部61に供給して、処理をステップS84に進める。
【0328】
ステップS84では、通信部61は、制御部66からのロボット認識情報を、無線通信等により、指示装置21に送信して、処理をステップS81に戻し、それ以降、同様の処理が行われる。なお、このスコア再計算処理は、例えば、ロボット22の電源がオフされたときに終了される。
【0329】
以上説明したように、スコア再計算処理によれば、指示装置21からのフィードバック情報に基づいて、スコアを再計算するようにしたので、ユーザからのフィードバックを反映したスコアを計算することができる。
【0330】
<4.第2の実施の形態の変形例>
第2の実施の形態では、ユーザが、表示画面21aを参照して、所定の物体が、ターゲットである旨又はターゲットではない旨のフィードバック操作を行うようにしたが、ユーザによるフィードバック操作は、これに限定されない。
【0331】
すなわち、例えば、表示画面21aに、図41に示されるようにして、物体261乃至263が1つの物体として表示される場合、ロボット22は、物体261乃至物体263を1つの物体として認識しているものとなる。
【0332】
この場合、ユーザは、指示装置21の操作部41を用いて、例えば、1つの物体が表示された領域を指定するフィードバック操作を行うようにして、ロボット22に、物体261乃至263を、それぞれ、1つの物体として認識させるようにすることができる。
【0333】
なお、1つの物体が表示された領域を指定するフィードバック操作は、例えば、操作部41にマウスが含まれる場合、マウスを用いて、1つの物体が表示された領域を指定し、右クリックにより表示される選択肢「分離」を選択するようにして行われる。
【0334】
そして、制御部42は、操作部41から、フィードバック操作に対応する操作信号が供給されたことに対応して、フィードバック情報を生成し、通信部44に供給する。通信部44は、制御部42からのフィードバック情報を、無線通信等によりロボット22に送信する。
【0335】
ロボット22において、通信部61は、通信部44からのフィードバック情報を制御部66に供給する。制御部66は、通信部61からのフィードバック情報に基づいて、1つの物体として認識していた物体261乃至263を、それぞれ、1つの物体261,262,263として認識する。
【0336】
また、制御部66は、1つの物体として認識した物体261、物体262、物体263についてのスコアを計算し、その計算結果などに基づいて、ロボット認識情報を生成し、通信部61を介して、指示装置21に送信する。
【0337】
指示装置21では、制御部42は、ロボット22の通信部61から、通信部44を介して送信されるロボット認識情報に基づいて、表示部43の表示画面21aに、図42に示されるようなロボット認識画像を表示させる。
【0338】
また、例えば、1つの物体とされるべきもの(例えば、同時に使用されるナイフ、フォーク、及びスプーンのセット等)が、分離して複数の物体として表示画面21aに表示される場合には、ユーザは、指示装置21の操作部41を用いて、例えば、分離して表示された複数の物体を含む領域を指定するフィードバック操作を行うようにして、ロボット22に、分離して表示された複数の物体を、1つの物体として認識させるようにすることができる。
【0339】
なお、分離して表示された複数の物体を含む領域を指定するフィードバック操作は、例えば、操作部41にマウスが含まれる場合、マウスを用いて、各物体が表示された領域をそれぞれ指定し、右クリックにより表示される選択肢「マージ」を選択するようにして行われる。
【0340】
ところで、例えば、第2の実施の形態では、表示画面21aに表示された物体に対して、フィードバック操作を行うようにした。
【0341】
しかしながら、その他、例えば、撮像画像上の物体が、制御部66により検知されていない場合には、撮像画像上の、未検知の物体を含む領域を指定する領域指定操作により、未検知の物体を、物体としてロボット22に検知(認識)させるようにすることができる。
【0342】
これにより、ロボット22は、図43に示されるように、未検知(検出)の物体を検知し、検知した物体の認識状態を、「未検出」から「まだ分からない」に決定することとなる。
【0343】
すなわち、例えば、ユーザは、指示装置21の操作部41を用いて、ロボット22が物体を探索するための探索範囲を指定する領域指定操作を行うようにして、ロボット22に探索範囲内での探索を行わせるようにすることができる。
【0344】
<5.第3の実施の形態>
次に、図44は、撮像画像を用いて、探索範囲を指定する場合の一例を示している。
【0345】
例えば、ロボット認識情報に、撮像画像として、図44Aに示されるような周囲画像31が含まれる場合、指示装置21の制御部42は、そのロボット認識情報に基づいて、表示画面21aに周囲画像31を表示することとなる。
【0346】
この場合、ユーザは、指示装置21の操作部41を用いて、図44Aに示されるように、表示画面21aに表示された周囲画像31上の部分領域281を、ターゲットを探索する探索範囲に対応する領域として指定する領域指定操作を行うことができる。
【0347】
これにより、操作部41は、ユーザの領域指定操作が行われたことに応じて、対応する操作信号を、制御部42に供給する。
【0348】
制御部42は、操作部41からの操作信号に応じて、周囲画像31上の全領域のうち、ユーザの領域指定操作により指定された部分領域281を表す指定範囲情報を生成し、通信部44に供給する。通信部44は、制御部42からの指定範囲情報を、ロボット22に送信する。
【0349】
これに対して、ロボット22の通信部61は、指示装置21の通信部44からの指定範囲情報を受信し、制御部66に供給する。制御部66は、通信部61からの指定範囲情報に基づいて、記憶部68に保持されている周囲画像31上の部分領域281を検出する。
【0350】
そして、制御部66は、部分領域281上の各物体に対応付けられた複数の3次元位置を、記憶部68から読み出し、読み出した複数の3次元位置に基づいて、ターゲットを探索するための探索範囲を算出(特定)する。
【0351】
なお、制御部66が、探索範囲を算出する算出方法は、これに限定されない。すなわち、例えば、制御部66は、部分領域281に3次元位置等が対応付けられていなくても、部分領域281や、カメラ62の有効視野角、有効画素数、位置、及び向き等を表すパラメータから、探索範囲を算出することができる。
【0352】
この場合、記憶部68には、例えば、周囲画像31に対応付けて、撮像により周囲画像31が得られた撮像時刻とともに、撮像時刻におけるカメラ62の位置及び向き等を表す第1のパラメータが、カメラ62の撮像時に、制御部66により記憶されるものとする。また、記憶部68には、カメラ62の有効視野角及び有効画素数等を表す第2のパラメータが予め記憶されているものとする。
【0353】
すなわち、例えば、制御部66は、撮像により周囲画像31が得られた撮像時刻におけるカメラ62の位置及び向き等を表す第1のパラメータと、カメラ62の有効視野角及び有効画素数等を表す第2のパラメータを、記憶部68から読み出す。
【0354】
そして、制御部66は、第1及び第2のパラメータを用いることにより、周囲画像31上を占める部分領域281から、部分領域281に対応する3次元的な視野範囲、つまり、撮像時刻において、部分領域281として撮像された実空間上の領域を特定する。
【0355】
なお、探索範囲としては、視野範囲のうち、ロボット22が行動可能な領域が採用される。
【0356】
制御部66は、駆動部67を制御して、ロボット22の手や足に相当する部位を駆動させ、算出した探索範囲内でターゲットを探索する動作を実行させる。
【0357】
また、例えば、ロボット認識情報に、図44Bに示されるような部分画像35が含まれる場合、指示装置21の制御部42は、そのロボット認識情報に基づいて、表示画面21aに部分画像35を表示することとなる。
【0358】
この場合、ユーザは、指示装置21の操作部41を操作して、表示画面21aに表示された部分画像35上の物体「りんごジュース」を検知させるように、部分画像35上の部分領域282を指定する領域指定操作を行うことができる。
【0359】
これにより、ロボット22は、部分画像35上の部分領域282に対応する探索範囲内でターゲットを探索する動作を実行することとなる。よって、物体「りんごジュース」をロボット22に検知させることができる。
【0360】
なお、部分画像35としては、例えば、ユーザの領域指定操作により指定された領域を、より近距離で撮像した場合に得られる撮像画像や、過去の撮像により得られた撮像画像の一部分の画像を採用することができる。
【0361】
次に、図45は、室内の空間図を用いて、探索範囲を指定する場合の一例を示している。
【0362】
例えば、ロボット認識情報に、図45に示されるような空間画像301(室内の空間図を表す画像)が含まれる場合、指示装置21の制御部42は、そのロボット認識情報に基づいて、表示画面21aに空間画像301を表示することとなる。なお、記憶部45に、予め空間画像301を保持するように構成すれば、制御部42は、記憶部45から空間画像301を読み出して、表示画面21aに表示することとなる。
【0363】
この場合、ユーザは、指示装置21の操作部41を操作して、表示画面21aに表示された空間画像301上の部分領域321を、探索範囲として指定する領域指定操作を行うようことができる。
【0364】
これにより、操作部41は、ユーザの領域指定操作が行われたことに応じて、対応する操作信号を、制御部42に供給する。
【0365】
制御部42は、操作部41からの操作信号に応じて、空間画像301上の全領域のうち、ユーザの領域指定操作により指定された部分領域321を表す指定範囲情報を生成し、通信部44に供給する。通信部44は、制御部42からの指定範囲情報を、ロボット22に送信する。なお、指定範囲情報は、ロボット22が、ターゲットを探索するための探索範囲を特定(把握)するための特定情報として用いられる。
【0366】
これに対して、ロボット22の通信部61は、指示装置21の通信部44からの指定範囲情報を受信し、制御部66に供給する。制御部66は、通信部61からの指定範囲情報に基づいて、記憶部68に保持されている空間画像301上の部分領域321を検出する。
【0367】
そして、制御部66は、部分領域321を構成する各小領域に対応付けられた複数の3次元位置を、記憶部68から読み出し、読み出した複数の3次元位置に基づいて、探索範囲を算出する。
【0368】
制御部66は、駆動部67を制御して、ロボット22の手や足に相当する部位を駆動させ、算出した探索範囲内でターゲットを探索する動作を実行させる。なお、制御部66は、通信部61からの指示情報に基づいて、その指示情報に含まれるカテゴリ情報が表すカテゴリに属する物体を、ターゲットとして、探索範囲内で探索する動作を実行させる。また、例えば、制御部66は、指示装置21から通信部61を介して指示情報を受信していない場合、ターゲットを自律的に決定して、探索範囲内を探索する動作を実行させる。
【0369】
これにより、ロボット22は、空間画像301上の部分領域321に対応する探索範囲内でターゲットを探索する動作を実行することとなる。
【0370】
なお、表示画面21aに空間画像301が表示されている場合、ユーザが、操作部41を用いて、例えば、空間画像301上の全領域のうち、部分領域322を選択したときには、部分領域322内での撮像により得られた撮像画像341を、表示画面21aに表示させることができる。
【0371】
すなわち、例えば、指示装置21において、制御部42は、ロボット22から通信部44を介して送信されてくるロボット認識情報を、記憶部45に供給して記憶させている。
【0372】
したがって、記憶部45には、図45に示されるような空間画像301とともに、撮像画像341が、空間画像301上の部分領域322に対応付けられて記憶されている。
【0373】
このため、制御部42は、ユーザにより部分領域322の選択が行われた場合、記憶部45から、ユーザにより選択された部分領域322に対応する撮像画像341を読み出し、図45に示されるようにして、表示画面21aに表示させる。
【0374】
そして、ユーザは、操作部41を用いて、表示画面21aに表示された撮像画像341に対して、図44Bを参照した場合と同様にして、撮像画像341上の部分領域361を指定する領域指定操作を行うことができる。
【0375】
これにより、ロボット22は、撮像画像341上の部分領域361に対応する探索範囲内でターゲットを探索する動作を実行することとなる。
【0376】
なお、撮像画像341は、ロボット認識情報に含まれた状態で、ロボット22から指示装置21に送信される。
【0377】
ところで、ロボット22から指示装置21に送信されるロボット認識情報は、無線通信等におけるデータの輻輳を避けるために、少ないデータ量であることが望ましい。
【0378】
そこで、例えば、ロボット22が、撮像画像341を、ロボット認識情報に含めて送信する場合には、図46Bに示される高画質な撮像画像341のデータ量を少なくした、図46Aに示されるような低画質の撮像画像341'を送信するようにしてもよい。なお、この撮像画像341'は、ユーザによる領域の指定等には用いられず、例えば、物体「りんごジュース」の物体画像を、表示画面21aに表示する際に用いられる。また、ユーザによる領域の指定等に用いられる撮像画像は、高画質のままで送信され、表示画面21aに表示されることが望ましい。
【0379】
撮像画像341'は、撮像画像341'上の全領域のうち、物体(「りんごジュース」のペットボトル)が写る部分領域381は、物体画像として用いるため、高画質とされ、それ以外の部分(斜線で示される部分)は、低画質とされている。
【0380】
すなわち、例えば、部分領域381は、高解像度又はカラーとされ、部分領域381以外は、低解像度又はモノクロとされる。
【0381】
[指示装置21が行う領域指定処理について]
次に、図47のフローチャートを参照して、指示装置21が行う領域指定処理について説明する。
【0382】
ステップS101において、通信部44は、ロボット22からのロボット認識情報を受信して、制御部42に供給する。なお、ロボット認識情報には、例えば、撮像画像として、周囲画像31が含まれているものとする。
【0383】
ステップS102において、制御部42は、通信部44からのロボット認識情報に含まれる周囲画像31を、表示部43に供給して、表示部43の表示画面21aに表示させる。
【0384】
ステップS103において、制御部42は、操作部41から、ユーザの領域指定操作に対応する操作信号が供給されたか否かに応じて、ユーザによる領域指定操作が行われたか否かを判定する。なお、領域指定操作とは、例えば、表示画面21aに表示された周囲画像31上の全領域のうち、所定の部分領域281を指定する操作をいう。
【0385】
そして、ステップS103では、制御部42は、操作部41からの操作信号に応じて、ユーザの領域指定操作が行われたと判定するまで、ステップS103の処理を繰り返して行う。
【0386】
ステップS103において、制御部42は、ユーザの領域指定操作が行われたと判定した場合、処理をステップS104に進める。この場合、操作部41から制御部42には、ユーザの領域指定操作に対応する操作信号が供給される。
【0387】
ステップS104において、制御部42は、操作部41からの操作信号に応じて、周囲画像31上の、領域指定操作により指定された部分領域281を表す指定範囲情報を生成し、通信部44に供給する。なお、指定範囲情報は、ロボット22が、ターゲットを探索するための探索範囲を特定(把握)するための特定情報として用いられる。
【0388】
ステップS105では、通信部44は、制御部42からの指定範囲情報を、無線通信等を用いて、ロボット22に供給し、ロボット22に、探索範囲で探索を行わせる。以上で、この領域指定処理は終了される。
【0389】
以上説明したように、領域指定処理によれば、ユーザによる領域指定操作により、ロボット22がターゲットを探索する探索範囲を指示できるようにしたので、例えば、ユーザが所望する範囲内を、ロボット22に探索させることが可能となる。
【0390】
特に、例えば、ユーザによる領域指定操作により、ロボット22が未検知の物体を少なくとも含む範囲を、探索範囲として指定することで、ロボット22に、未検知の物体を検知させるようにすることが可能となる。
【0391】
[ロボット22が行う探索処理について]
次に、図48のフローチャートを参照して、ロボット22が行う探索処理について説明する。
【0392】
ステップS121において、通信部61は、指示装置21の通信部44からの指定範囲情報を受信し、制御部66に供給する。なお、ステップS121は、後述するステップa122及びステップS123と並行して行われる。すなわち、例えば、通信部61は、ステップS122又はステップS122の処理が実行中でも、指示装置21の通信部44からの指定範囲情報を受信することができる。
【0393】
ステップS122において、制御部66は、通信部61からの指定範囲情報に基づいて、記憶部68に保持されている周囲画像31上の部分領域281を検出する。
【0394】
そして、制御部66は、部分領域281を構成する各小領域に対応付けられた複数の3次元位置を、記憶部68から読み出し、読み出した複数の3次元位置に基づいて、探索範囲を算出(特定)する。
【0395】
ステップS123において、制御部66は、算出した探索範囲で、ロボット22がターゲットを探索できるように、駆動部67を駆動させる。なお、制御部66は、例えば、通信部61からの指示情報に基づいて、その指示情報に含まれるカテゴリ情報が表すカテゴリに属する物体を、ターゲットとするようにしている。以上で、探索処理は終了される。
【0396】
以上説明したように、探索処理では、ユーザの領域指定操作により指定された探索範囲内で、ターゲットを探索するようにした。
【0397】
このため、例えば、ユーザによる領域指定操作により、ロボット22が未検知の物体を少なくとも含む範囲が、探索範囲として指定された場合、ロボット22により、未検知の物体を検知することが可能となる。
【0398】
なお、物体そのものではなく、ユーザの領域指定操作により探索範囲を指定するようにしているのは、ロボット22が未検知の物体を指定することができないためである。
【0399】
よって、ユーザは、ロボット22が未検知の物体を含む探索範囲を指定することにより、ロボット22に、指定された探索範囲を探索させて、未検知の物体を検知させることができる。
【0400】
また、領域指定処理のステップS103において、例えば、ユーザが、表示画面21aに表示された周囲画像31上の全領域のうち、所定の部分領域281を指定するようにして、探索範囲を指定するようにしたが、探索範囲の指定方法は、これに限定されない。
【0401】
すなわち、例えば、指示装置21が、ユーザを撮像して得られる撮像画像から、ユーザのジェスチャやポスチャ等(以下、ジェスチャ等という)を認識できる場合には、ユーザは、ジェスチャ等により、探索範囲を指定することができる。
【0402】
また、例えば、指示装置21が、音声を認識できる場合には、ユーザは、音声により、探索範囲を指定することができる。この場合、ユーザは、例えば、探索範囲として、「台所」や「ぼくの部屋」等と発話することで、探索範囲を指定することができる。
【0403】
このような場合、その他、例えば、ユーザは、音声やジェスチャ等により、ターゲットとされる物体のカテゴリを指定(指示)することもできる。これにより、指示装置21では、ユーザに指定されたカテゴリを表すカテゴリ情報を含む指示情報が生成される。
【0404】
さらに、例えば、ロボット22が、ユーザを撮像して得られる撮像画像からジェスチャ等を認識できる場合には、ユーザは、ジェスチャ等により、直接に、ロボット22に対して探索範囲を指定することができる。
【0405】
この場合、例えば、制御部66は、カメラ62からの撮像画像に基づいて、ユーザのジェスチャを認識し、その認識結果を、探索範囲を特定するために用いられる特定情報として取得(生成)する。そして、制御部66は、取得した特定情報を用いて、探索範囲を特定し、駆動部67を制御して、特定した探索範囲でロボット22に探索を行なわせる。
【0406】
また、例えば、ロボット22が、音声を認識できる場合には、ユーザは、音声により、直接に、ロボット22に対して探索範囲を指定することができる。
【0407】
この場合、例えば、制御部66は、マイクロホン64から入力されるユーザの音声に基づいて、ユーザの音声を認識し、その認識結果を、特定情報として取得(生成)する。そして、制御部66は、取得した特定情報を用いて、探索範囲を特定し、駆動部67を制御して、特定した探索範囲でロボット22に探索を行なわせる。
【0408】
このような場合、その他、例えば、ユーザは、音声やジェスチャ等により、ターゲットとされる物体のカテゴリを、直接にロボット22に対して指定(指示)することもできる。
【0409】
これにより、制御部66では、ユーザに指定されたカテゴリを表すカテゴリ情報を含む指示情報が生成され、生成された指示情報に含まれるカテゴリ情報が表すカテゴリに属する物体を、ターゲットとしてロボット22に探索を行わせる。
【0410】
ところで、指示装置21としては、例えば、パーソナルコンピュータ等を適用することができる。
【0411】
なお、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、プログラム記録媒体からインストールされる。
【0412】
[コンピュータの構成例]
図49は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアのTを示すブロック図である。
【0413】
CPU(Central Processing Unit)501は、ROM(Read Only Memory)502、又は記憶部508に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)503には、CPU501が実行するプログラムやデータ等が適宜記憶される。これらのCPU501、ROM502、及びRAM503は、バス504により相互に接続されている。
【0414】
CPU501にはまた、バス504を介して入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウス、マイクロホン等よりなる入力部506、ディスプレイ、スピーカ等よりなる出力部507が接続されている。CPU501は、入力部506から入力される指令に対応して各種の処理を実行する。そして、CPU501は、処理の結果を出力部507に出力する。
【0415】
入出力インタフェース505に接続されている記憶部508は、例えばハードディスクからなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、インターネットやローカルエリアネットワーク等のネットワークを介して外部の装置と通信する。
【0416】
また、通信部509を介してプログラムを取得し、記憶部508に記憶してもよい。
【0417】
入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア511が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータ等を取得する。取得されたプログラムやデータは、必要に応じて記憶部508に転送され、記憶される。
【0418】
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録(記憶)する記録媒体は、図49に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア511、又は、プログラムが一時的もしくは永続的に格納されるROM502や、記憶部508を構成するハードディスク等により構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデム等のインタフェースである通信部509を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を利用して行われる。
【0419】
なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0420】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0421】
なお、本開示は、第1乃至第3の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
【0422】
本技術は以下のような構成もとることができる。
(1)撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体を遠隔で制御する制御装置であって、
前記撮像部により撮像された撮像画像を受信する通信部と、
前記撮像画像から認識された物体の、認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像とを表示画面に表示させる制御部と
を含む制御装置。
(2)前記制御部は、前記撮像画像を、前記表示画面に表示させる
前記(1)に記載の制御装置。
(3)前記制御部は、前記認識に関する閾値に基づいて、前記物体画像の表示方法を変えて、前記表示画面に表示させる
前記(1)または(2)に記載の制御装置。
(4)前記通信部は、前記移動体の位置および前記移動体が移動する経路を含む空間図を表す空間情報を受信し、
前記制御部は、前記空間情報に基づいて、前記空間図も前記表示画面に表示させる
前記(1)乃至(3)のいずれかに記載の表示制御装置。
(5)前記制御部は、前記撮像画像と前記空間図とを並列で、前記表示画面に表示させる
前記(1)乃至(4)のいずれかに記載の制御装置。
(6)前記制御部は、前記移動体の位置および前記経路を明確に示した前記空間図を、前記表示画面に表示させる
前記(1)乃至(5)のいずれかに記載の表示制御装置。
(7)撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体を遠隔で制御する制御装置の制御方法において、
前記制御装置による、
前記撮像部により撮像された撮像画像を受信し、
前記撮像画像から認識された物体の、認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像とを表示画面に表示させる
制御方法。
(8)撮像部及び自己の位置移動のための駆動部を少なくとも有する移動体を遠隔で制御する制御装置用のコンピュータを、
前記撮像部により撮像された撮像画像を受信する通信部と、
前記撮像画像から認識された物体の、認識の度合いを示す度合い情報を含む認識情報と前記認識された物体を表す物体画像とを表示画面に表示させる制御部と
して機能させるためのプログラム。
【符号の説明】
【0423】
1 ロボット制御システム, 21 指示装置, 21a 表示画面, 22 ロボット, 41 操作部, 42 制御部, 43 表示部, 44 通信部, 45 記憶部, 61 通信部, 62 カメラ, 63 距離センサ, 64 マイクロホン, 65 スピーカ, 66 制御部, 67 駆動部, 68 記憶部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29
図30
図31
図32
図33
図34
図35
図36
図37
図38
図39
図40
図41
図42
図43
図44
図45
図46
図47
図48
図49