(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024102426
(43)【公開日】2024-07-31
(54)【発明の名称】画像の生成方法、自由視点画像の生成方法、および、提供方法
(51)【国際特許分類】
B25J 3/00 20060101AFI20240724BHJP
【FI】
B25J3/00 Z
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2023006296
(22)【出願日】2023-01-19
(71)【出願人】
【識別番号】000002369
【氏名又は名称】セイコーエプソン株式会社
(74)【代理人】
【識別番号】110000028
【氏名又は名称】弁理士法人明成国際特許事務所
(72)【発明者】
【氏名】溝口 安志
【テーマコード(参考)】
3C707
【Fターム(参考)】
3C707AS07
3C707BS12
3C707JT04
3C707JU03
3C707JU12
3C707KS03
3C707KS04
3C707KS16
3C707KS17
3C707MT01
(57)【要約】
【課題】多数のカメラを使用することなく自由視点画像を生成する。
【解決手段】自由視点画像を生成するための対象物の画像の生成方法は、(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、(b)撮像装置が対象物を撮像することにより撮像画像を取得するステップと、(c)多関節ロボットを制御して、撮像装置の対象物に対する相対位置を、直前に実行されたステップ(b)における相対位置から変えるステップと、(d)ステップ(b)とステップ(c)とを繰り返すステップと、を含む。
【選択図】
図4
【特許請求の範囲】
【請求項1】
自由視点画像を生成するための対象物の画像の生成方法であって、
(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、
(b)前記撮像装置が対象物を撮像することにより撮像画像を取得するステップと、
(c)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップと、
(d)前記ステップ(b)と前記ステップ(c)とを繰り返すステップと、
を含む、
画像の生成方法。
【請求項2】
請求項1に記載の生成方法であって、
前記ステップ(a)は、
(a1)移動体に搭載された前記多関節ロボットであって、前記対象物の周囲を移動可能な自律走行搬送ロボットを準備するステップ、
を含み、
前記ステップ(c)は、
(c1)前記自律走行搬送ロボットを移動させることにより、前記撮像装置の前記対象物に対する前記相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップを含む、
画像の生成方法。
【請求項3】
請求項2に記載の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法であって、
(e)複数の前記撮像画像を用いて、所望の仮想的な視点から見たときの前記対象物の画像を表すことができる自由視点画像を表すデータを生成するステップ、
を含む自由視点画像の生成方法。
【請求項4】
請求項3に記載の自由視点画像の生成方法により生成された自由視点画像を用いた画像の提供方法であって、
(f)前記ステップ(e)が実行されることにより生成された前記自由視点画像をユーザーに提示するステップと、
(g)前記対象物における所望の部位と所望の視点とについての指示を前記ユーザーから受け付けるステップと、
(h)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する前記相対位置を、指示された前記所望の部位を指示された前記所望の視点で撮像できる相対位置に変えるステップと、
(i)前記撮像装置が前記所望の部位を拡大して撮像することにより拡大撮像画像を取得するステップと、
(j)前記拡大撮像画像を表示するステップと、
を含む提供方法。
【請求項5】
請求項4に記載の提供方法であって、
前記ステップ(a)は、
(a2)前記撮像装置が取り付けられ、遠隔地にあるコンピューターと通信可能な前記多関節ロボットを準備するステップ、
を含み、
前記ステップ(g)は、
(g1)前記コンピューターを介して前記遠隔地にいる前記ユーザーから、前記対象物における前記所望の部位と前記所望の視点とについての前記指示を受け付けるステップ、
を含む、
提供方法。
【請求項6】
請求項5に記載の提供方法であって、
前記ステップ(b)は、
(b1)前記撮像装置が、前記対象物を含む限定された範囲以外の範囲を撮像することなく、前記対象物を含む前記限定された範囲を撮像することにより、前記撮像画像を取得するステップ、
を含み、
前記提供方法は、前記限定された範囲以外の範囲を撮像するステップ、を含まない、
提供方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像の生成方法、自由視点画像の生成方法、および、提供方法に関する。
【背景技術】
【0002】
特許文献1には、競技施設において配置された多数のカメラを用いて自由視点画像を生成する技術について記載されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載された技術においては、多数のカメラを用意する必要である。このため、それぞれのカメラの姿勢の調節およびメンテナンスも必要となり、手間がかかる。よって、多数のカメラを使用することなく自由視点画像を生成できる技術が望まれていた。
【課題を解決するための手段】
【0005】
本開示は、以下の形態として実現することが可能である。
【0006】
本開示の第1形態によれば、自由視点画像を生成するための対象物の画像の生成方法が提供される。この画像の生成方法は、(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、(b)前記撮像装置が対象物を撮像することにより撮像画像を取得するステップと、(c)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップと、(d)前記ステップ(b)と前記ステップ(c)とを繰り返すステップと、を含む。
【0007】
本開示の第2形態によれば、上記形態の画像の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法が提供される。この自由視点画像の生成方法は、(e)複数の前記撮像画像を用いて、所望の仮想的な視点から見たときの前記対象物の画像を表すことができる自由視点画像を表すデータを生成するステップ、を含む。
【0008】
本開示の第3形態によれば、上記形態の自由視点画像の生成方法により生成された自由視点画像を用いた画像の提供方法が提供される。この提供方法は、(f)前記ステップ(e)が実行されることにより生成された前記自由視点画像をユーザーに提示するステップと、(g)前記対象物における所望の部位と所望の視点とについての指示を前記ユーザーから受け付けるステップと、(h)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する前記相対位置を、指示された前記所望の部位を指示された前記所望の視点で撮像できる相対位置に変えるステップと、(i)前記撮像装置が前記所望の部位を拡大して撮像することにより拡大撮像画像を取得するステップと、(j)前記拡大撮像画像を表示するステップと、を含む。
【図面の簡単な説明】
【0009】
【
図1】遠隔操作支援システムの全体構成を示す概略図である。
【
図2】自律移動ロボットの主要部および監視装置の概略構成を表すブロック図である。
【
図3】監視装置が実行する処理を表すフローチャートである。
【
図4】
図3に示すステップS10の詳細なフローチャートである。
【
図5】あらかじめ設定されたポイントに配置される撮像装置と、監視対象であるマニピュレーターとの位置関係の一例を示す図である。
【
図6】
図3に示すステップS20の詳細なフローチャートである。
【
図7】視点の切り換えの指示についての説明図である。
【発明を実施するための形態】
【0010】
A.実施形態:
図1は、本実施形態にかかる遠隔操作支援システム1の全体構成を示す概略図である。遠隔操作支援システム1は、ロボットシステムRB1を遠隔地にいるユーザーが監視し、制御することを可能とする。
【0011】
監視対象であるロボットシステムRB1は、6軸ロボットであるマニピュレーター91と、マニピュレーター91に装着されているエンドエフェクター92と、マニピュレーター91を制御するロボットコントローラー93と、作業台94とを備える。エンドエフェクター92は、例えば、ワークW1を把持するグリッパーである。
【0012】
実施形態においては、監視対象のマニピュレーター91は精密な作業を行う。このため、遠隔地にいるユーザーは、遠隔操作支援システム1を利用して、ロボットシステムRB1を観察しながら、ロボットシステムRB1の動作を制御する。監視対象であるロボットシステムRB1を対象物ともよぶ。マニピュレーター91は、自動運転モードと手動運転モードとのいずれかのモードで動作する。自動運転モードでは、マニピュレーター91は、動作の途中でユーザーからの指示を受けることなく自動的に動作する。手動運転モードでは、マニピュレーター91は、ユーザーから逐次受けた指令に応じて動作する。
【0013】
遠隔操作支援システム1は、自律移動ロボット10と、監視装置80とを備える。
【0014】
自律移動ロボット10は、自律走行搬送ロボット(Autonomous Mobile Robot: AMR)である。自律移動ロボット10は、ロボットシステムRB1が設置されている工場内を移動する。自律移動ロボット10は、マニピュレーター20と、撮像装置30と、車両40と、ロボットコントローラー50とを備える。車両40を移動体ともよぶ。
【0015】
マニピュレーター20は、6軸ロボットである。マニピュレーター20は、基台21と、アーム22とを備える。基台21は、アーム22を支持している。基台21は、車両40に固定されている。アーム22が備える6つの関節J1~J6それぞれには、サーボモーターと減速機と角度センサーとがそれぞれ設けられている。サーボモーターは、ロボットコントローラー50から電流を供給され、各関節を駆動するための回転出力を生成する。減速機は、対応するサーボモーターから与えられた回転入力を減速する。角度センサーは、例えば、エンコーダー、ポテンションメーター、レゾルバーである。角度センサーは、対応するサーボモーターの出力軸の回転角度(軸の位置)をその関節の回転角度として検出する。検出された回転角度は、ロボットコントローラー50に出力される。
【0016】
ロボット座標系RCにおけるマニピュレーター20の制御点の位置は、ロボットコントローラー50により制御される。マニピュレーター20の制御点は、例えば、アーム22の先端の決められた位置に設定される。制御点をTCP(Tool Center Point)とよぶことがある。ロボット座標系RCは、基台21の位置に対して固定されている座標系である。ロボット座標系RCは、水平面上において互いに直交するX軸およびY軸と、鉛直上向きを正方向とするZ軸と、によって規定される三次元直交座標系である。ロボット座標系RCにおける位置は、X軸方向の位置と、Y軸方向の位置と、Z軸方向の位置とにより表すことができる。また、ロボット座標系RCにおける姿勢は、X軸回りの回転の角度位置と、Y軸回りの回転の角度位置と、Z軸回りの回転の角度位置とにより表すことができる。
【0017】
撮像装置30は、フルカラーの静止画像またはフルカラーの動画像を撮像できるカメラである。撮像装置30は、マニピュレーター20のアーム22の先端に固定されている。
【0018】
図2は、自律移動ロボット10の主要部および監視装置80の概略構成を表すブロック図である。なお、
図2においてマニピュレーター20の図示を省略している。
【0019】
撮像装置30は、メモリー31と、通信部32と、撮像部33とを備える。メモリー31は、撮像装置30を制御するための各種のデータおよびプログラムを記憶する。通信部32は、無線通信または有線通信により監視装置80と通信する。撮像部33は、監視対象を撮像し、撮像した画像のデータを出力する。撮像された画像のデータは、通信部32により監視装置80に送信される。
【0020】
図1に示すように、車両40は、基台21を支持している。車両40は、マニピュレーター20を床面上の任意の位置に移動させることができる。車両40は、1組の駆動輪DWと、2組の従動輪FW1,FW2と、駆動部41と、車両制御部42と、を備える。1組の駆動輪DWは、駆動部41により回転駆動させられる。従動輪FW1,FW2は、外力を加えられて回転する。
【0021】
駆動部41は、1組の駆動輪DWを駆動する。駆動部41は、一組の駆動輪DWそれぞれを駆動するため、一組のサーボモーターと、一組の減速機と、一組の角度センサーとを備える。一組のサーボモーターそれぞれは、車両制御部42の制御に従って、その出力軸を回転させる。一組の減速機それぞれは、対応するサーボモーターの出力軸の回転を減速させて対応する駆動輪DWに伝達する。一組の角度センサーそれぞれは、例えば、エンコーダー、ポテンションメーター、レゾルバーである。角度センサーは、対応するサーボモーターの出力軸の回転角度を検出する。検出された回転角度は、車両制御部42に出力される。
【0022】
図2に示すように、車両制御部42は、メモリー45と、通信部46と、検知部47と、プロセッサー48とを備える。メモリー45は、車両40を制御するための各種のデータおよびプログラムを記憶する。例えば、メモリー45には、車両40を制御するためのプログラム、自律移動ロボット10が移動する工場内の地図データ、車両40の走行速度の指定値を示す速度データが格納されている。通信部46は、無線通信または有線通信により、ロボットコントローラー50および監視装置80と通信する。検知部47は、車両40の周囲状況を検知する。検知部47は、例えば、LiDAR(Light Detection and Ranging)、カメラ、ソナーである。検知部47は、これらのセンサーのうち2つ以上のセンサーを含んでもよい。プロセッサー48は、メモリー45に記憶されたプログラムを実行することにより様々な機能を実現する。例えば、プロセッサー48は、メモリー45に記憶されたプログラムを実行することにより、車両40が指定された目的地に到達するよう、駆動部41の駆動を制御する。
【0023】
ロボットコントローラー50は、マニピュレーター20の各関節を駆動することによって、マニピュレーター20の位置および姿勢を変化させる。実施形態においては、ロボットコントローラー50がマニピュレーター20を駆動することにより、撮像装置30が指定された位置に指定された姿勢で配される。
図1に示すように、ロボットコントローラー50は、基台21の筐体21aの内部に配置されている。
【0024】
図2に示すように、ロボットコントローラー50は、メモリー51と、通信部52と、プロセッサー53とを備える。メモリー51は、ロボットコントローラー50を制御するための各種のデータおよびプログラムを記憶する。例えば、メモリー51には、マニピュレーター20を動作させるための制御プログラムが格納されている。通信部52は、無線通信または有線通信により、車両制御部42および監視装置80と通信する。プロセッサー53は、メモリー51に格納されている各種のプログラムを実行することにより、様々な機能を実現する。
【0025】
プロセッサー53は、マニピュレーター20の位置および姿勢を算出する。マニピュレーター20の姿勢とは、3次元空間におけるマニピュレーター20全体の位置および姿勢を意味する。具体的には、プロセッサー53は、マニピュレーター20の制御点を与えられた座標が表す位置に移動させるために必要な各関節の回転角度を算出し、各関節の回転角度を制御する。これにより、マニピュレーター20の制御点が与えられた座標が表す位置に移動させられる。
【0026】
監視装置80は、自律移動ロボット10を使用してロボットシステムRB1を遠隔地から監視するコンピューターである。監視装置80は、ロボットシステムRB1および自律移動ロボット10が配置されている工場とは異なる他の施設に設置されている。
【0027】
監視装置80は、メモリー81と、通信部82と、入力装置83と、表示装置84と、プロセッサー85と、を備える。メモリー81は、監視装置80が実行する各種処理に使用される各種のプログラムおよびデータを記憶する。通信部82は、ネットワークNWを介して無線通信または有線通信により、撮像装置30、車両制御部42、および、ロボットコントローラー50と通信する。
図1に示す、ネットワークNWは、例えば、LAN(Local Area Network)、インターネット、専用線である。
図2に示す、入力装置83は、例えば、キーボード、マウスである。表示装置84は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイである。
【0028】
プロセッサー85は、メモリー81に記憶されているプログラムを実行することにより、様々な機能を実現する。プロセッサー85は、メモリー81に記憶されているプログラムを実行することで、画像生成部810と、視点切換部820として機能する。
【0029】
画像生成部810は、複数の視点から撮像されたロボットシステムRB1の複数の画像を用いて、所望の仮想的な視点から見たときのロボットシステムRB1の画像を表すことができる自由視点画像を表すデータを生成する。画像生成部810は、自由視点画像を表すデータに基づいて自由視点画像を表示装置84に表示する。
【0030】
視点切換部820は、ユーザーが所望する視点についての指示を受け付ける。実施形態において、ユーザーは、監視対象であるロボットシステムRB1についての細部を確認するため、表示された指定画像に基づいて所望の部位および所望の視点を決定し、所望の部位および所望の視点を指示する。視点切換部820は、指示された部位を指示された視点でユーザーが視認できるように、自由視点画像の表示を切り換える。また、視点切換部820は、指示された部位を指示された視点でユーザーが視認できるように、マニピュレーター20を制御して、監視対象であるロボットシステムRB1を撮像する。
【0031】
図3は、監視装置80が実行する処理を表すフローチャートである。
図3に示すように、ステップS10において、自由視点画像を生成するための画像が生成される。ステップS20において、自由視点画像が生成される。
図3に示す処理は、画像生成部810と視点切換部820として機能するプロセッサー85により実行される。例えば、ユーザーが入力装置83を介して処理の開始を指示すると、プロセッサー85は
図3に示す処理を開始する。
図3に示す処理の実行の開始前にあらかじめ自律移動ロボット10が準備される。
【0032】
図4は、
図3に示すステップS10の詳細なフローチャートである。以下、自由視点画像を生成するための監視対象の画像の生成方法について説明する。ステップS101において、プロセッサー85は監視対象を指定する指示を受け付けたか否かを判定する。プロセッサー85は監視対象を指定する指示を受け付けた場合(ステップS101;YES)、ステップS102の処理を実行する。以下、ユーザーが監視対象としてロボットシステムRB1を指定した例を説明する。
【0033】
また、ユーザーは、別途、監視対象であるロボットシステムRB1のロボットコントローラー93に対して、マニピュレーター91の動作についての指令を逐次出すものとする。マニピュレーター91の先端には不図示のカメラが備えられており、ユーザーは、マニピュレーター91のカメラが撮像したマニピュレーター91の周囲の状況を表す画像を見ながら指令を出す。よって、マニピュレーター91は指令に応じた動作を行う。
【0034】
ステップS101において、監視対象を指定する指示を受けていない場合、(ステップS101;NO)、プロセッサー85は待機する。
【0035】
ステップS102において、プロセッサー85は、ロボットシステムRB1の工場内における位置を示す情報を目的地として指定した上で、移動の指示を、車両40の車両制御部42に送信する。
【0036】
指示を受けた自律移動ロボット10は、ロボットシステムRB1の工場内における位置を示す情報と、メモリー45に格納されている地図データとを用いて、指定された目的地へ移動する。例えば、車両40は、駆動部41が備えるエンコーダーが検出した回転角度を用いて、SLAM(Simultaneous Localization and Mapping)アルゴリズムにより自己位置を推定しながら目的地に移動する。自律移動ロボット10は、移動が完了すると、移動が完了したことをプロセッサー85に通知する。
【0037】
ステップS103において、プロセッサー85は、自由視点画像を生成するため監視対象の画像の生成を開始する開始条件が満たされたか否かを判定する。実施形態においては、開始条件とは、自律移動ロボット10の移動が完了したこと、および、監視対象であるマニピュレーター91がユーザーから出される逐次の指令に従って動作し、あらかじめ決められた位置および姿勢を取ったこと、を含む。
【0038】
図1に示すように、マニピュレーター91は、例えば、把持したワークWK1を他のワークWK2に形成された穴に差し込む動作を行うものとする。あらかじめ決められた位置および姿勢は、マニピュレーター91がワークWK1をワークWK2に形成された穴に差し込む直前の位置および姿勢である。マニピュレーター91は、ワークWK1をワークWK2に形成された穴の中心に正確に差し込む必要がある。このため、ユーザーは、ワークWK1をワークWK2の穴に差し込む直前にマニピュレーター91の動作を停止させる。
【0039】
図4に示す、ステップS103において、プロセッサー85は、開始条件が満たされていると判定すると(ステップS103;YES)、ステップS104を実行する。一方、開始条件が満たされていない場合、(ステップS103;NO)、プロセッサー85は待機する。
【0040】
ステップS104において、プロセッサー85は、マニピュレーター20が撮像用の動作経路PIに沿って移動するように、ロボットコントローラー50を介してマニピュレーター20を駆動する。
【0041】
図5は、マニピュレーター20が撮像用の動作経路PIに沿って移動することにより、あらかじめ設定された複数のポイントそれぞれに配置される撮像装置30と、監視対象であるロボットシステムRB1のマニピュレーター91との位置関係の一例を示す図である。なお、
図4では、マニピュレーター20を図示していない。複数の視点からマニピュレーター91を撮像することができるポイントが動作経路PIにおいて設定されている。マニピュレーター20が移動することにより、撮像装置30は、あらかじめ設定された撮像のための複数のポイントに順次配置される。また、マニピュレーター20は、撮像用の動作経路PIにおいて設定された複数のポイントに到達するたび、停止するようにプログラムされている。
【0042】
図4に示す、ステップS105において、プロセッサー85は、マニピュレーター20が次のポイントに到達したか否かを判定する。プロセッサー85は、マニピュレーター20が次のポイントに到達したと判定した場合(ステップS105;YES)、ステップS106を実行する。マニピュレーター20が次のポイントに到達していない場合(ステップS105;NO)、プロセッサー85は待機する。
【0043】
ステップS106において、プロセッサー85は、現在のポイントにおける監視対象の画像IM10を取得する。具体的には、プロセッサー85は、撮像装置30により監視対象を撮像させる。画像IM10は、例えば、監視対象であるマニピュレーター91の手先部分と、ワークW1と、ワークW2とが撮像された画像である。さらに、プロセッサー85は、ロボットコントローラー50を介してマニピュレーター20の関節J1~J6それぞれに設けられた角度センサーの検出値をセンサー情報として取得する。プロセッサー85は、現在のポイントを表す情報と、画像IM10と、センサー情報とを対応付けてメモリー81に格納する。
【0044】
ステップS107において、プロセッサー85は、動作経路PIにおいて設定されているすべてのポイントにおいて撮像が行われたかを判定する。すべてのポイントでの撮像が行われた場合(ステップS107;YES)、
図4に示す処理が終了される。一方、すべてのポイントで撮像が行われていない場合(ステップS107;NO)、プロセッサー85は、再びステップS104の処理を実行する。よって、マニピュレーター20は撮像用の動作経路PIに沿って移動する。このようにして、プロセッサー85は、撮像装置30のマニピュレーター91に対する相対位置を、直前に実行された撮像時における撮像装置30のマニピュレーター91に対する相対位置から変更する。今回の撮像と前回の撮像との間に他の撮像が行われていないときに、前回の撮像を直前に実行された撮像という。
【0045】
図4に示す処理が実行されることにより、ロボットシステムRB1についての自由視点画像を生成するための複数の画像IM10が収集される。
【0046】
図6は、
図3に示すステップS20の詳細なフローチャートである。以下、
図4に示す画像の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法、および、生成された自由視点画像を用いた画像の提供方法を説明する。
図6に示す処理が実行される前に、
図4に示す処理が実行されていることを前提とする。
【0047】
ステップS201において、プロセッサー85は、複数のポイントそれぞれで取得された画像IM10および対応するセンサー情報S1をメモリー81から読み出す。プロセッサー85は、撮像が行われた各ポイントにおける、各関節の変位量を用いて順運動学に基づいてそれぞれのポイントにおけるマニピュレーター20の手先の位置および姿勢を表すロボット座標系RCにおける座標値を算出する。
【0048】
ステップS202において、プロセッサー85は、自由視点画像を表すデータを生成する。具体的には、プロセッサー85は、複数の画像IM10とそれぞれについて算出した座標値とを用いて、複数の仮想的な視点それぞれからロボットシステムRB1を見たときの複数の視点画像を生成する。生成された複数の視点画像は、自由視点画像を構成する。プロセッサー85は、生成した視点画像と、複数の画像IM10とを含む、自由視点画像を表すデータをメモリー81に格納する。
【0049】
ステップS203において、プロセッサー85は、自由視点画像を表すデータを用いて、ロボットシステムRB1をあらかじめ設定された初期視点から見た場合の視点画像を表示装置84に表示する。このようにして、生成された自由視点画像がユーザーに提示される。
【0050】
ステップS204において、プロセッサー85は、ユーザーから視点の切り換えについての指示を受けたか否かを判定する。ユーザーは、ロボットシステムRB1の所望の部位を所望の視点で見た場合の画像を表示装置84に表示することを指示するため、入力装置83を用いて視点の切り換え操作を行うことができる。
【0051】
図7は、視点の切り換えの指示についての説明図である。例えば、ステップS203において、プロセッサー85は、
図7の上部に示すように、マニピュレーター91の手先部分の視点画像と、ロール、ピッチ、ヨーそれぞれの回転を調整するためのボタンの画像とを表示装置84に表示する。ユーザーは、入力装置83を用いてボタンを操作し、所望の視点から見た場合のロボットシステムRB1を表示装置84に表示させることができる。例えば、ロールは、ロボットシステムRB1に設定されているロボット座標系におけるY軸まわりの回転である。ピッチは、ロボットシステムRB1に設定されているロボット座標系におけるX軸まわりの回転である。ヨーは、ロボットシステムRB1に設定されているロボット座標系におけるZ軸まわりの回転である。
【0052】
図6に示すように、ステップS204において、プロセッサー85は、ユーザーから視点の切り換えについての指示を受けると(ステップS204;YES)、ステップS205の処理を実行する。プロセッサー85は、ユーザーから視点の切り換えについての指示がない場合(ステップS204;NO)、ステップS206の処理を実行する。
【0053】
ステップS205において、プロセッサー85は、ユーザーが所望する部位を所望の視点で見た場合の視点画像を表示装置84に表示する。例えば、ユーザーの視点の切り換えについての指示に応じて、プロセッサー85は、
図7の下部に示すような画像を表示装置84に表示する。
【0054】
図6に示す、ステップS206において、プロセッサー85は、ユーザーから拡大表示についての指示を受けたか否かを判定する。ユーザーは、ロボットシステムRB1を拡大して撮像した画像を表示装置84に表示することを、入力装置83を用いて指示することができる。
【0055】
図8は、拡大表示の指示についての説明図である。例えば、ステップS203において、プロセッサー85は、
図8の上部に示すように、マニピュレーター91の手先部分の画像と、選択可能な視点方向を示す番号とを重ね合わせた画像を表示装置84に表示する。ユーザーは、入力装置83を用いて所望の視点方向を示す番号を選択することができる。
【0056】
図6に示すように、ステップS206において、プロセッサー85は、ユーザーから拡大表示についての指示を受けると(ステップS206;YES)、ステップS207の処理を実行する。プロセッサー85は、ユーザーから拡大表示についての指示がない場合(ステップS206;NO)、ステップS208の処理を実行する。
【0057】
ステップS207において、プロセッサー85は、マニピュレーター91の所望の部位を所望の視点で拡大して撮像した画像を表示装置84に表示する。まず、プロセッサー85は、ロボットコントローラー50を介してマニピュレーター20を駆動することにより、マニピュレーター91を指定された視点で指定された部位を撮像できる位置および姿勢に、撮像装置30を配置する。その後、プロセッサー85は、撮像装置30にマニピュレーター91を撮像させる。このとき、プロセッサー85は、自由視点画像を生成するために用いられた画像IM10を撮像したときよりも、撮像装置30のズーム倍率を高くするように撮像装置30を制御する。あるいは、プロセッサー85は、自由視点画像を生成するために用いられた画像IM10を撮像したときよりも、撮像装置30とマニピュレーター91との距離が近くなるようにマニピュレーター20を制御してもよい。その後、プロセッサー85は、撮像装置30により撮像された画像を表示装置84に表示する。拡大して撮像された画像を拡大撮像画像ともよぶ。例えば、
図8の上部のような画像が表示装置84に表示されているときに、ユーザーが所望の視点方向として「08」番が選択したとする。この場合、
図8の下部に示すような画像が撮像装置30により撮像され、表示装置84に表示される。
【0058】
よって、ユーザーは、自由視点画像に基づいて監視対象の所望の部位および所望の視点を決定した上で、監視対象であるマニピュレーター91の所望の部位を所望の視点で拡大して見た場合の画像を視認できる。ユーザーは、ロボットコントローラー93を介してマニピュレーター91の動作を再開させる。ユーザーは、拡大された状態で撮像されているマニピュレーター91を確認しながら、マニピュレーター91の動作についての指令をロボットコントローラー93に対して逐次出すことにより、マニピュレーター91にワークWK2をワークWK1に形成された穴に差し込む動作を行わせる。ユーザーは、必要に応じた回数だけ、自由視点画像における視点の切り換えについての指示と、拡大表示についての指示と、を監視装置80に出す。これにより、撮像装置30のマニピュレーター91に対する相対位置が、直前に実行された撮像時における撮像装置30のマニピュレーター91に対する相対位置から変更される。
【0059】
ステップS208において、プロセッサー85は、処理を継続するか否かを判定する。例えば、プロセッサー85は、ユーザーの操作により処理を停止する指示を示す情報が入力されるまで
図6に示す処理を継続すると判定する。プロセッサー85は、ユーザーの操作により処理を停止する指示を示す情報が入力された場合に
図6に示す処理を終了すると判定する。処理を継続する場合(ステップS208;YES)、プロセッサー85は、再びステップS204の処理を実行する。処理を継続しない場合(ステップS208;NO)、プロセッサー85は、
図6に示す処理を終了する。
【0060】
以上説明したように、実施形態においては、多数のカメラを使用することなく、自由視点画像を生成するための、異なる視点から対象物を撮像した複数の撮像画像を得ることができる。よって、多数のカメラを使用することなく、自由視点画像を生成することができる。多数のカメラを用意する態様によれば、個々のカメラの姿勢の調節に加えてメンテナンスも必要となるが、実施形態においては、多数のカメラについての調節、メンテナンス等の手間が不要である。
【0061】
さらに、6軸ロボットであるマニピュレーター20を備える自律移動ロボット10が監視対象の周囲を移動して対象物を撮像することができるので、所望の視点で監視対象を撮像することが容易である。また、ユーザーが遠隔地にいる場合であっても、ユーザーは、自由視点画像に基づいて監視対象の所望の部位および所望の視点を決定した上で、監視対象の所望の部位を所望の視点で拡大された状態で視認できる。また、複数のロボットシステムが監視対象である場合であっても、自律移動ロボット10がそれぞれのロボットシステムの配置位置に移動できるので、ユーザーは、それぞれのロボットシステムを遠隔地から監視できる。
【0062】
B.他の実施形態:
B1.他の実施形態1
また、撮像装置30が撮像できる範囲が限定されてもよい。具体的には、撮像装置30はマニピュレーター91を含む限定された範囲だけを撮像する。例えば、自律移動ロボット10が走行可能な範囲をあらかじめ設定された範囲に限定することにより、撮像装置30がマニピュレーター91を含む限定された範囲だけを撮像するような制御が行われてもよい。あるいは、自律移動ロボット10があらかじめ設定された範囲内に位置しているときだけ、撮像装置30の撮像の機能が有効にされるような制御が行われてもよい。よって、撮像装置30は限定された範囲以外の範囲を撮像しない。これにより、監視対象であるロボットシステムRB1が配置されている工場、施設等において、視認されることが好ましくない設備、情報等をユーザーに視認させない。よって、例えば、営業秘密にかかる設備、情報等が遠隔地から視認されることを防止できる。
【0063】
B2.他の実施形態2
実施形態においては、撮像装置30が取り付けられたマニピュレーター20が、自律移動ロボット10により監視対象の周囲を移動可能である例を説明した。しかしながら、マニピュレーター20は、車両40に支持されておらず、監視対象の周囲を移動できなくてもよい。この場合であっても、マニピュレーター20を、ロボットシステムRB1の近傍であって、マニピュレーター91を撮像することができる位置に配置することで、自由視点画像を生成するための画像を取得することができる。
【0064】
実施形態においては、監視装置80が、ロボットシステムRB1および自律移動ロボット10が配置されている工場とは異なる他の施設に設置されており、ユーザーが遠隔でロボットシステムRB1を監視、制御する例を説明した。しかしながら、ロボットシステムRB1は、遠隔から制御されなくてもよい。この場合、監視装置80は、ロボットシステムRB1および自律移動ロボット10が配置されている工場に設置される。例えば、複数のロボットシステムが監視対象である場合、ユーザーは、監視装置80を使用して、複数のロボットシステムを監視、制御を行うことができる。
【0065】
実施形態においては、1つの撮像装置30がマニピュレーター20に取り付けられている例を説明したが、2つ以上の撮像装置がマニピュレーター20に取り付けられていてもよい。
【0066】
また、自律移動ロボット10が備えるマニピュレーター20が有する関節の数は6つに限られない。また、実施形態のマニピュレーター20は垂直多関節ロボットであったが、マニピュレーター20は水平多関節ロボットであってもよい。
【0067】
監視装置80の機能を実現する手段は、ソフトウェアに限られず、その一部または全部を、専用のハードウェアによって実現してもよい。例えば、専用のハードウェアとして、FPGA(Field Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)に代表される回路を使用してもよい。
【0068】
C.他の形態:
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替え、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
【0069】
(1)本開示の第1形態によれば、自由視点画像を生成するための対象物の画像の生成方法が提供される。この画像の生成方法は、(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、(b)前記撮像装置が対象物を撮像することにより撮像画像を取得するステップと、(c)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップと、(d)前記ステップ(b)と前記ステップ(c)とを繰り返すステップと、を含む。
上記形態によれば、多数のカメラを使用することなく、自由視点画像を生成するための、異なる視点から対象物を撮像した複数の撮像画像が得られる。
【0070】
(2)上記形態において、前記ステップ(a)は、(a1)移動体に搭載された前記多関節ロボットであって、前記対象物の周囲を移動可能な自律走行搬送ロボットを準備するステップ、を含み、前記ステップ(c)は、(c1)前記自律走行搬送ロボットを移動させることにより、前記撮像装置の前記対象物に対する前記相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップを含んでもよい。
この形態によれば、多関節ロボットが対象物の周囲を移動して対象物を撮像することができるので、所望の視点で対象物を撮像することが容易である。
【0071】
(3)本開示の第2形態によれば、上記形態の画像の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法が提供される。この自由視点画像の生成方法は、(e)複数の前記撮像画像を用いて、所望の仮想的な視点から見たときの前記対象物の画像を表すことができる自由視点画像を表すデータを生成するステップ、を含む。
この形態によれば、多数のカメラを使用することなく、自由視点画像を生成することができる。
【0072】
(4)本開示の第3形態によれば、上記形態の自由視点画像の生成方法により生成された自由視点画像を用いた画像の提供方法が提供される。この提供方法は、(f)前記ステップ(e)が実行されることにより生成された前記自由視点画像をユーザーに提示するステップと、(g)前記対象物における所望の部位と所望の視点とについての指示を前記ユーザーから受け付けるステップと、(h)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する前記相対位置を、指示された前記所望の部位を指示された前記所望の視点で撮像できる相対位置に変えるステップと、(i)前記撮像装置が前記所望の部位を拡大して撮像することにより拡大撮像画像を取得するステップと、(j)前記拡大撮像画像を表示するステップと、を含む。
上記形態によれば、ユーザーは、自由視点画像に基づいて、対象物の所望の部位および所望の視点を決定した上で、対象物の所望の部位を所望の視点で拡大された状態で視認できる。
【0073】
(5)上記形態において、前記ステップ(a)は、(a2)前記撮像装置が取り付けられ、遠隔地にあるコンピューターと通信可能な前記多関節ロボットを準備するステップ、を含み、前記ステップ(g)は、(g1)前記コンピューターを介して前記遠隔地にいる前記ユーザーから、前記対象物における前記所望の部位と前記所望の視点とについての前記指示を受け付けるステップ、を含んでもよい。
この形態によれば、遠隔地にいるユーザーが対象物の所望の部位を所望の視点で拡大された状態で視認できる。
【0074】
(6)上記形態において、前記ステップ(b)は、(b1)前記撮像装置が、前記対象物を含む限定された範囲以外の範囲を撮像することなく、前記対象物を含む前記限定された範囲を撮像することにより、前記撮像画像を取得するステップ、を含み、前記提供方法は、前記限定された範囲以外の範囲を撮像するステップ、を含まなくてもよい。
この形態によれば、撮像装置が撮像できる範囲が限定される。例えば、多関節ロボットが配置されている工場、施設等において、撮像装置が撮像できる範囲に、視認されることが好ましくない設備、情報等が含まれないように設定する。これにより、視認されることが好ましくない設備、情報等を遠隔地にいるユーザーに視認させない。よって、例えば、営業秘密にかかる設備、情報等が遠隔地から視認されることを防止できる。
【符号の説明】
【0075】
1…遠隔操作支援システム、10…自律移動ロボット、20…マニピュレーター、21…基台、21a…筐体、22…アーム、30…撮像装置、31…メモリー、32…通信部、33…撮像部、40…車両、41…駆動部、42…車両制御部、45…メモリー、46…通信部、47…検知部、48…プロセッサー、50…ロボットコントローラー、51…メモリー、52…通信部、53…プロセッサー、80…監視装置、81…メモリー、82…通信部、83…入力装置、84…表示装置、85…プロセッサー、91…マニピュレーター、92…エンドエフェクター、93…ロボットコントローラー、94…作業台、810…画像生成部、820…視点切換部、DW…駆動輪、FW1,FW2…従動輪、IM10…画像、NW…ネットワーク、PI…動作経路、RB1…ロボットシステム、RC…ロボット座標系、S1…センサー情報、WK1,WK2…ワーク