IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 凸版印刷株式会社の特許一覧

特開2024-134179操作システム、情報処理方法、及びプログラム
<>
  • 特開-操作システム、情報処理方法、及びプログラム 図1
  • 特開-操作システム、情報処理方法、及びプログラム 図2
  • 特開-操作システム、情報処理方法、及びプログラム 図3
  • 特開-操作システム、情報処理方法、及びプログラム 図4
  • 特開-操作システム、情報処理方法、及びプログラム 図5
  • 特開-操作システム、情報処理方法、及びプログラム 図6
  • 特開-操作システム、情報処理方法、及びプログラム 図7
  • 特開-操作システム、情報処理方法、及びプログラム 図8
  • 特開-操作システム、情報処理方法、及びプログラム 図9
  • 特開-操作システム、情報処理方法、及びプログラム 図10
  • 特開-操作システム、情報処理方法、及びプログラム 図11
  • 特開-操作システム、情報処理方法、及びプログラム 図12
  • 特開-操作システム、情報処理方法、及びプログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024134179
(43)【公開日】2024-10-03
(54)【発明の名称】操作システム、情報処理方法、及びプログラム
(51)【国際特許分類】
   B25J 13/08 20060101AFI20240926BHJP
【FI】
B25J13/08 A
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023044357
(22)【出願日】2023-03-20
(71)【出願人】
【識別番号】000003193
【氏名又は名称】TOPPANホールディングス株式会社
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100139686
【弁理士】
【氏名又は名称】鈴木 史朗
(74)【代理人】
【識別番号】100169764
【弁理士】
【氏名又は名称】清水 雄一郎
(74)【代理人】
【識別番号】100147267
【弁理士】
【氏名又は名称】大槻 真紀子
(72)【発明者】
【氏名】▲高▼瀬 仁翔
【テーマコード(参考)】
3C707
【Fターム(参考)】
3C707AS01
3C707AS21
3C707BS09
3C707DS02
3C707JU03
3C707JU12
3C707JU14
3C707KT01
3C707LT07
(57)【要約】
【課題】人型とは異なる形状や動作をするロボットを操作対象とする場合であってもユーザが違和感なく操作をする。
【解決手段】ユーザによる動作に応じてロボットに作業をさせる操作システムであって、前記ロボットによる作業が行われる実空間が撮像された撮像画像を取得する撮像画像取得部と、前記ユーザの動作を示す動作情報を取得する動作情報取得部と、前記撮像画像取得部によって取得された前記撮像画像、及び前記動作情報取得部によって取得された前記動作情報に基づいて、前記撮像画像に前記ユーザに対応する仮想物体が描画された表示画像を生成する表示画像生成部と、前記動作情報取得部によって取得された前記動作情報に基づいて、前記ロボットを制御する制御情報を生成する制御情報生成部と、を備える。
【選択図】図2
【特許請求の範囲】
【請求項1】
ユーザによる動作に応じてロボットに作業をさせる操作システムであって、
前記ロボットによる作業が行われる実空間が撮像された撮像画像を取得する撮像画像取得部と、
前記ユーザの動作を示す動作情報を取得する動作情報取得部と、
前記撮像画像取得部によって取得された前記撮像画像、及び前記動作情報取得部によって取得された前記動作情報に基づいて、前記撮像画像に前記ユーザに対応する仮想物体が描画された表示画像を生成する表示画像生成部と、
前記動作情報取得部によって取得された前記動作情報に基づいて、前記ロボットを制御する制御情報を生成する制御情報生成部と、
を備える操作システム。
【請求項2】
前記表示画像生成部は、前記撮像画像における前記ロボットが示された対象領域を特定し、前記対象領域における前記ロボットが消去され、前記対象領域に前記仮想物体が描画された前記表示画像を生成する、
請求項1に記載の操作システム。
【請求項3】
前記表示画像生成部は、前記動作情報取得部によって取得された前記動作情報に基づいて前記仮想物体が動く前記表示画像を生成する、
請求項1に記載の操作システム。
【請求項4】
前記表示画像生成部は、前記ユーザによる設定に応じた特徴を反映させた前記仮想物体を生成する、
請求項1に記載の操作システム。
【請求項5】
前記制御情報生成部は、時系列の前記動作情報に基づいて前記ユーザによる動作の開始及び終了を特定し、前記ユーザによる動作が終了した後に、前記ユーザによる動作が開始されてから終了するまでの一連の動作に対応する作業を特定し、特定した作業を前記ロボットに実行させる前記制御情報を生成する、
請求項1に記載の操作システム。
【請求項6】
前記制御情報生成部は、前記ユーザによる動作が終了した後に、前記ユーザによる動作が開始されてから終了するまでの一連の動作に対応する作業が、前記実空間において実現可能か否かに応じて、前記一連の動作に対応する作業を特定する、
請求項5に記載の操作システム。
【請求項7】
前記制御情報生成部は、前記一連の動作に対応する作業が前記実空間において実現可能である場合、前記一連の動作と同等な作業を前記ロボットに実行させる前記制御情報を生成する、
請求項6に記載の操作システム。
【請求項8】
前記撮像画像取得部によって取得された前記撮像画像、及び、前記動作情報取得部によって取得された前記動作情報に基づいて、前記ユーザに触覚刺激を感じさせるための触覚情報を生成する触覚情報生成部をさらに備える、
請求項1に記載の操作システム。
【請求項9】
ユーザによる動作に応じてロボットに作業をさせるサーバ装置であるコンピュータが行う情報処理方法であって、
撮像画像取得部が、前記ロボットによる作業が行われる実空間が撮像された撮像画像を取得し、
動作情報取得部が、前記ユーザの動作を示す動作情報を取得し、
表示画像生成部が、前記撮像画像取得部によって取得された前記撮像画像、及び前記動作情報取得部によって取得された前記動作情報に基づいて、前記撮像画像に前記ユーザに対応する仮想物体が描画された表示画像を生成し、
制御情報生成部が、前記動作情報取得部によって取得された前記動作情報に基づいて、前記ロボットを制御する制御情報を生成する、
情報処理方法。
【請求項10】
ユーザによる動作に応じてロボットに作業をさせるサーバ装置であるコンピュータに、
前記ロボットによる作業が行われる実空間が撮像された撮像画像を取得させ、
前記ユーザの動作を示す動作情報を取得させ、
前記撮像画像、及び前記動作情報に基づいて、前記撮像画像に前記ユーザに対応する仮想物体が描画された表示画像を生成させ、
前記動作情報に基づいて、前記ロボットを制御する制御情報を生成させる、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、操作システム、情報処理方法、及びプログラムに関する。
【背景技術】
【0002】
ロボットなどの操作対象を遠隔地から操作するシステムにおいて、操作者(ユーザ)に違和感なく操作をさせるための技術としてテレイグジスタンスがある(例えば、非特許文献1、及び非特許文献2を参照)。例えば、人型の外観を有するロボットを用いて、操作者の動きとロボットの動きを同期させ、ロボットに人間の身体イメージを重ね易くする。これにより、ユーザはあたかも遠隔地にいて実際に作業しているかのような感覚を体験することができる。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Susumu Tachi、Telexistence 2nd Edition、World Scientific、ISBN 978-981-4618-06-9(2015)
【非特許文献2】渡邊 孝一 他、テレイグジスタンス・マスタスレーブシステムにおける操縦者とスレーブロボットとの間の寸法不一致の影響、日本バーチャルリアリティ学会論文誌、2009年、14巻3号、p.391-394
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、既存のロボットには人型とは異なる形状や動作をするものが多い。このようなロボットを操作対象とする場合であっても、ユーザが違和感なく操作をすることができたほうがよい。
【0005】
本発明は、このような状況に鑑みてなされたものであり、人型とは異なる形状や動作をするロボットを操作対象とする場合であってもユーザが違和感なく操作をすることができる操作システム、情報処理方法、及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の操作システムは、ユーザによる動作に応じてロボットに作業をさせる操作システムであって、前記ロボットによる作業が行われる実空間が撮像された撮像画像を取得する撮像画像取得部と、前記ユーザの動作を示す動作情報を取得する動作情報取得部と、前記撮像画像取得部によって取得された前記撮像画像、及び前記動作情報取得部によって取得された前記動作情報に基づいて、前記撮像画像に前記ユーザに対応する仮想物体が描画された表示画像を生成する表示画像生成部と、前記動作情報取得部によって取得された前記動作情報に基づいて、前記ロボットを制御する制御情報を生成する制御情報生成部と、を備える。
【0007】
本発明の、情報処理方法は、ユーザによる動作に応じてロボットに作業をさせるサーバ装置であるコンピュータが行う情報処理方法であって、撮像画像取得部が、前記ロボットによる作業が行われる実空間が撮像された撮像画像を取得し、動作情報取得部が、前記ユーザの動作を示す動作情報を取得し、表示画像生成部が、前記撮像画像取得部によって取得された前記撮像画像、及び前記動作情報取得部によって取得された前記動作情報に基づいて、前記撮像画像に前記ユーザに対応する仮想物体が描画された表示画像を生成し、制御情報生成部が、前記動作情報取得部によって取得された前記動作情報に基づいて、前記ロボットを制御する制御情報を生成する。
【0008】
本発明の、プログラムは、ユーザによる動作に応じてロボットに作業をさせるサーバ装置であるコンピュータに、前記ロボットによる作業が行われる実空間が撮像された撮像画像を取得させ、前記ユーザの動作を示す動作情報を取得させ、前記撮像画像、及び前記動作情報に基づいて、前記撮像画像に前記ユーザに対応する仮想物体が描画された表示画像を生成させ、前記動作情報に基づいて、前記ロボットを制御する制御情報を生成させる、プログラムである。
【発明の効果】
【0009】
本発明によれば、人型とは異なる形状や動作をするロボットを操作対象とする場合であってもユーザが違和感なく操作をすることができる。
【図面の簡単な説明】
【0010】
図1】実施形態における操作システム1の概要の例を示す概略ブロック図である。
図2】実施形態における操作システム1の構成の例を示すブロック図である。
図3】実施形態の表示画像生成部204が行う処理を説明するための図である。
図4】実施形態の表示画像生成部204が行う処理を説明するための図である。
図5】実施形態の表示画像生成部204が行う処理を説明するための図である。
図6】実施形態の表示画像生成部204が行う処理を説明するための図である。
図7】実施形態の表示画像生成部204が行う処理を説明するための図である。
図8】実施形態の表示画像生成部204が行う処理を説明するための図である。
図9】実施形態の制御情報生成部202が行う処理を説明するための図である。
図10】実施形態の操作システム1が行う処理の流れを示すシーケンス図である。
図11】実施形態の変形例1に係る操作システム1の概要を示す概略ブロック図である。
図12】実施形態の変形例2による操作システム1の概要の例を示す概略ブロック図である。
図13】実施形態の変形例2における操作システム1の構成の例を示すブロック図である。
【発明を実施するための形態】
【0011】
以下、本発明の実施形態について、図面を参照して説明する。
【0012】
(操作システム1の構成について)
操作システム1について、図1を用いて説明する。図1は、実施形態による操作システム1の概要の例を示す概略ブロック図である。
【0013】
操作システム1は、遠隔地にいるロボットをユーザが遠隔操作するためのシステムである。図1に示すように、操作システム1は、例えば、操作端末10と、サーバ装置20と、撮像端末30と、ロボット制御装置40とを備える。操作システム1における構成要素である、操作端末10と、サーバ装置20と、撮像端末30と、ロボット制御装置40とは、通信ネットワークNWを介して通信可能に接続されている。
【0014】
遠隔地としての実空間REには、例えば、実ロボットRR、実対象オブジェクトRT、及び実背景オブジェクトRBが存在する例が示されている。
【0015】
実ロボットRRは、実空間REにおいて作業をするロボットであり、この図の例では、複数の関節を有するアーム(腕)部と、物を掴んだり離したりする把持部を備える、産業用ロボットである。
【0016】
実対象オブジェクトRTは、実空間REにおいて作業される対象物であり、この図の例では、土管である。この図の例では、実ロボットRRが、実対象オブジェクトRTを移動させる作業を行うことを想定している。つまり、実ロボットRRにより、土管が掴まれ、持ち上げられ、移動されるような作業が行われることが想定されている。
【0017】
実背景オブジェクトRBは、実空間REに存在する背景、つまり作業の対象物ではない物体であり、この図の例では、樹木である。
【0018】
ユーザUは、例えば、このような実空間REにいる実ロボットRRを遠隔操作により操作し、実対象オブジェクトRTを移動させる作業を行う。
【0019】
操作端末10は、ユーザUによって操作されるコンピュータである。操作端末10として、例えば、スマートフォン、携帯電話、タブレット端末、PC(Personal Computer)、などを適用することができる。操作端末10は、例えば、HMD(ヘッドマウントディスプレイ)などの表示部101に仮想空間VEを表示させる。操作端末10は、サーバ装置20から通知された表示画像101Aを表示部101に表示させる。
【0020】
ユーザUは、例えば、HMDを装着し、HMDの表示部101に表示された表示画像101Aを視認する。
【0021】
表示画像101Aには、実空間REに基づいて生成された仮想空間VEが表示される。仮想空間VEには、例えば、実空間REに存在する実ロボットRRの代わりに、ユーザUに対応する仮想オブジェクトである仮想ユーザVUが描画されている。
【0022】
仮想空間VEには、実空間REに存在する実対象オブジェクトRTに対応する仮想オブジェクトである仮想対象オブジェクトVTが描画されている。仮想対象オブジェクトVTは、実対象オブジェクトRTの画像(撮像画像)そのものであってもよいし、撮像画像の一部が画像処理などにより加工された仮想オブジェクトであってもよいし、撮像画像に基づいて作成された三次元モデルなどの仮想オブジェクトであってもよい。
【0023】
仮想空間VEには、実空間REに存在する実背景オブジェクトRBに対応する仮想オブジェクトである仮想背景オブジェクトVBが描画されている。仮想背景オブジェクトVBは、仮想対象オブジェクトVTと同様に、実背景オブジェクトRBの画像(撮像画像)そのものであってもよいし、撮像画像の一部が画像処理などにより加工された仮想オブジェクトであってもよいし、撮像画像に基づいて作成された三次元モデルなどの仮想オブジェクトであってもよい。
【0024】
また、操作端末10は、例えば、VR(Virtual Reality)グローブなどの動作情報取得部102を介して、ユーザの動きを示す動作情報を取得する。操作端末10は、取得して動作情報をサーバ装置20に送信する。
【0025】
サーバ装置20は、コンピュータであり、例えば、PC、サーバ装置、クラウドサーバ、などを適用することができる。
【0026】
サーバ装置20は、表示画像101Aを操作端末10に送信する。サーバ装置20は、撮像端末30から、撮像端末30によって撮像された実空間REの画像(撮像画像)を取得する。サーバ装置20は、取得した撮像画像、及び、操作端末10から受信した動作情報に基づいて、表示画像101Aを生成する。サーバ装置20は、生成した表示画像101Aの画像情報を操作端末10に送信する。サーバ装置20が、表示画像101Aを生成する具体的な方法については後述する。
【0027】
サーバ装置20は、ロボットを制御するための制御情報を生成する。サーバ装置20は、操作端末10から受信した動作情報に基づいて制御情報を生成し、生成した制御情報をロボット制御装置40に送信する。サーバ装置20が、制御情報を生成する具体的な方法については後述する。
【0028】
撮像端末30は、撮像画像を撮像するコンピュータである。撮像端末30として、撮像機能と通信機能を有する装置、例えば、スマートフォン、携帯電話、タブレット端末、PC、などを適用することができる。撮像端末30は、実空間REを撮像部301によって撮像し、撮像した撮像画像をサーバ装置20に送信する。
【0029】
ロボット制御装置40は、実ロボットRRを制御するコンピュータである。ロボット制御装置40として、例えば、ロボットを制御するためのAP(アプリケーション)がインストールされた装置、タブレット端末、PC、などを適用することができる。ロボット制御装置40は、サーバ装置20から制御情報を受信し、受信した制御情報に基づいて実ロボットRRを制御する。
【0030】
ここで、操作システム1の各構成要素(操作端末10、サーバ装置20、撮像端末30、及びロボット制御装置40)の構成について、図2を用いて説明する。図2は、実施形態による操作システム1の構成の例を示すブロック図である。
【0031】
(操作端末10について)
図2に示すように、操作端末10は、例えば、表示部101と、動作情報取得部102と、表示画像取得部103と、動作情報出力部104とを備える。
【0032】
表示部101は、表示画像101Aを表示する。例えば、表示部101は、液晶ディスプレイを含む。表示部101は、後述する表示画像取得部103の制御にしたがい、表示画像取得部103がサーバ装置20から取得した表示画像101Aを表示する。
【0033】
動作情報取得部102は、動作情報を取得する。例えば、動作情報取得部102は、VRゴーグルなどユーザUの動きを取得するデバイス(モーションキャプチャ)を含む。また、動作情報取得部102として、マウス、キーボード、タッチパネル、トラックボール、ゲームコントローラなどの入力装置、及びこれらの組合せが適用されてもよい。この場合、動作情報取得部102は、ユーザUがマウス等の入力装置を操作した場合に、その操作に対応する動きを動作情報として取得する。動作情報取得部102は、取得した動作情報を動作情報出力部104に出力する。
【0034】
表示画像取得部103は、表示画像101Aを取得する。表示画像取得部103は、サーバ装置20から操作端末10に送信された表示画像101Aの画像情報を、操作端末10の通信部(不図示)を介して取得する。表示画像取得部103は、取得した表示画像101Aの画像情報を表示部101に出力し、表示部101に表示画像101Aを表示させる。
【0035】
動作情報出力部104は、動作情報を出力する。動作情報出力部104は、動作情報取得部102から動作情報を取得し、取得した動作情報を、操作端末10の通信部を介してサーバ装置20に送信する。
【0036】
(サーバ装置20について)
サーバ装置20は、例えば、動作情報取得部201と、制御情報生成部202と、撮像画像取得部203と、表示画像生成部204と、表示画像出力部205と、制御情報出力部206と、を備える。
【0037】
動作情報取得部201は、動作情報を取得する。動作情報取得部201は、操作端末10からサーバ装置20に送信された動作情報を、サーバ装置20の通信部(不図示)を介して取得する。動作情報取得部201は、取得した動作情報を、制御情報生成部202、及び、表示画像生成部204に出力する。
【0038】
制御情報生成部202は、制御情報を取得する。制御情報生成部202は、動作情報取得部201から取得した動作情報に基づいて、制御情報を生成する。制御情報生成部202は、動作情報に対応するユーザの動作に応じた作業を実ロボットRRが行うように制御情報を生成する。例えば、動作情報において、ユーザUが仮想対象オブジェクトVTを持ち上げて移動させる動作が示されていた場合、制御情報生成部202は、実ロボットRRが実対象オブジェクトRTを持ち上げて移動させる作業をおこなうように制御情報を生成する。
【0039】
制御情報生成部202は、時系列の動作情報に基づいて、ユーザUが行った一連の動作に対応する制御情報を生成するように構成されてもよい。例えば、制御情報生成部202は、定期的に動作情報を取得し、取得した動作情報群に基づいてユーザによる動作の開始及び終了を特定する。例えば、制御情報生成部202は、動作情報においてユーザUが検出されていない状態から動きが検出された状態に変化した時刻を、ユーザによる動作の開始時刻として特定する。また、制御情報生成部202は、開始時刻以降に取得された動作情報においてユーザUが検出されている状態から動きが検出されない状態に変化した時刻を取得する。制御情報生成部202は、その動きが検出されない状態に変化した時刻から、閾値時間以上、動きが検出されない状態が継続した場合、その動きが検出されない状態に変化した時刻を、ユーザによる動作の終了時刻として特定する。
【0040】
制御情報生成部202は、ユーザUによる動作が終了した後に、そのユーザUによる動作が開始されてから終了するまでの一連の動作に対応する作業を特定する。例えば、ユーザUが仮想対象オブジェクトVTを持ち上げて移動させる動作が示されていたとする。この場合、制御情報生成部202は、ユーザUによる一連の動作に対応する作業として、実空間REにおいて実対象オブジェクトRTを持ち上げて移動させる作業を特定する。制御情報生成部202は、このようにして特定した作業を、実ロボットRRに実行させる制御情報を生成する。
【0041】
この場合において、制御情報生成部202は、ユーザUによる動作が終了した後に、ユーザUによる一連の動作に対応する作業が、実空間REにおいて実現可能か否かを判定するようにしてもよい。
【0042】
例えば、動作情報として、ユーザUが仮想対象オブジェクトVTを持ち上げて上空に放り投げるような動作が示されていたとする。これに対し、実対象オブジェクトRTは、重量がある物体、例えば土管であり、実ロボットRRには実対象オブジェクトRTを上空に放り投げるような作業が困難であるとする。このような場合には、制御情報生成部202は、ユーザUによる一連の動作に対応する作業が実現可能でないと判定する。
【0043】
一方、動作情報として、ユーザUが仮想対象オブジェクトVTを持ち上げて移動ような動作が示されていたとする。これに対し、実ロボットRRが実対象オブジェクトRTを持ち上げて移動させる作業が可能であるとする。このような場合には、制御情報生成部202は、ユーザUによる一連の動作に対応する作業が実現可能であると判定する。
【0044】
制御情報生成部202は、実空間REにおいて実現可能か否かに応じて、ユーザUによる一連の動作に対応する作業を特定する。
【0045】
例えば、制御情報生成部202は、ユーザUによる一連の動作に対応する作業が実現可能であると判定した場合、ユーザUによる一連の動作に対応して実ロボットRRに実行させる作業を、そのユーザUによる一連の動作と同等の作業として特定する。例えば、ユーザUが仮想対象オブジェクトVTを持ち上げて移動ような動作が、実空間REにおいても実現可能であると判定した場合、制御情報生成部202は、実ロボットRRが実対象オブジェクトRTを持ち上げて移動させるような動作を、実ロボットRRに行わせる作業として特定する。
【0046】
一方、制御情報生成部202は、ユーザUによる一連の動作に対応する作業が実現可能でないと判定した場合、ユーザUによる一連の動作に対応して実ロボットRRに実行させる作業を、そのユーザUによる一連の動作とは異なる作業として特定する。例えば、ユーザUが仮想対象オブジェクトVTを持ち上げて上空に放り投げるような動作が、実空間REにおいては実現可能でないと判定した場合、制御情報生成部202は、上空に放り投げるような動作に代えて、実ロボットRRが実対象オブジェクトRTを持ち上げて移動させるような動作を、実ロボットRRに行わせる作業として特定する。
【0047】
撮像画像取得部203は、撮像画像203Aを取得する。撮像画像取得部203は、撮像端末30からサーバ装置20に送信された撮像画像203Aを、サーバ装置20の通信部を介して取得する。撮像画像取得部203は、取得した撮像画像203Aを表示画像生成部204に出力する。
【0048】
表示画像生成部204は、表示画像を生成する。表示画像生成部204は、撮像画像取得部203によって取得された撮像画像、及び動作情報取得部201によって取得された動作情報に基づいて、表示画像を生成する。
【0049】
表示画像生成部204は、例えば、撮像画像における実ロボットRRが示された対象領域を特定し、特定した対象領域における実ロボットRRの描画を消去する。更に、表示画像生成部204は、その対象領域に仮想ユーザVU(ユーザUに対応する仮想物体)が描画された表示画像を生成する(図3図5参照)。
【0050】
表示画像生成部204は、動作情報取得部201によって取得された動作情報に基づいて仮想ユーザVUが動く表示画像を生成する。
【0051】
例えば、動作情報においてユーザUが仮想対象オブジェクトVTを持ち上げる動作が示されていた場合、表示画像生成部204は、仮想空間VEにおいて、仮想対象オブジェクトVTを持ち上げている仮想ユーザVUが描画された表示画像を生成する。例えば、動作情報においてユーザUが仮想対象オブジェクトVTを放り投げる動作が示されていた場合、表示画像生成部204は、仮想空間VEにおいて、仮想対象オブジェクトVTを放り投げる仮想ユーザVUが描画された表示画像を生成する。例えば、動作情報においてユーザUが仮想対象オブジェクトVTを移動させる動作が示されていた場合、表示画像生成部204は、仮想空間VEにおいて、仮想対象オブジェクトVTを移動させる仮想ユーザVUが描画された表示画像を生成する。
【0052】
表示画像生成部204は、仮想ユーザVUに、ユーザUの身体的特徴を反映させてもよい。仮想ユーザVUに、ユーザUの身体的特徴が反映されることにより、ユーザは仮想ユーザVUに自身の身体イメージを重ね易くなる。
【0053】
また、表示画像生成部204は、仮想ユーザVUに、ユーザUによる設定に応じた特徴を反映させてもよい。例えば、仮想ユーザVUの身体のサイズを、ユーザUにより自由に設定できるように構成されてもよい。或いは、仮想ユーザVUの外観を、ユーザUにより自由に設定できるように構成されてもよい。例えば、仮想ユーザVUに、ユーザUがロボットに変身したかのような装備をさせてもよい。仮想ユーザVUを、ユーザUが撮像された画像から生成された三次元モデルとしてもよい。
【0054】
また、表示画像生成部204は、仮想ユーザVUに、ユーザUによる設定に応じた能力を持たせてもよい。例えば、仮想ユーザVUが、空中に浮かんだり、地中や水中にもぐったりする能力を有していてもよい。仮想ユーザVUが、人間離れした移動能力を有していてもよい。
【0055】
表示画像生成部204は、ユーザUによる動作が実空間REにおいて実現可能か否かに関わらず、ユーザUの動作に応じて仮想ユーザVUが動く表示画像を生成する。また、表示画像生成部204は、ユーザUの動作に応じて仮想ユーザVUが動くだけではなく、ユーザUの動作に応じて仮想空間VEが変化する表示画像を生成するようにしてもよい。表示画像生成部204は、生成した表示画像を表示画像出力部205に出力する。
【0056】
表示画像出力部205は、表示画像を出力する。表示画像出力部205は、表示画像生成部204によって生成された表示画像の画像情報を取得し、取得した画像情報を、サーバ装置20の通信部を介して、操作端末10に送信する。
【0057】
制御情報出力部206は、制御情報を出力する。制御情報出力部206は、制御情報生成部202によって生成された制御情報を取得し、取得した制御情報を、サーバ装置20の通信部を介して、ロボット制御装置40に送信する。
【0058】
(撮像端末30について)
撮像端末30は、例えば、撮像部301と、撮像画像出力部302と、を備える。撮像部301は、実空間REを撮像する。例えば、撮像部301は、カメラモジュールを含む。撮像部301は、撮像端末30などによって予め設定された撮像条件にて実空間REを撮像する。なお、撮像部301は、静止画像を撮像してもよいし、動画像を撮像してもよい。撮像部301は、撮像した画像(撮像画像)を、撮像画像出力部302に出力する。
【0059】
撮像画像出力部302は、撮像画像を出力する。撮像画像出力部302は、撮像部301によって撮像された撮像画像の画像情報を取得し、取得した画像情報を、撮像端末30の通信部(不図示)を介して、サーバ装置20に送信する。
【0060】
(ロボット制御装置40について)
ロボット制御装置40は、例えば、制御情報取得部401と、ロボット制御部402と、を備える。制御情報取得部401は、制御情報を取得する。例えば、制御情報取得部401は、サーバ装置20からロボット制御装置40に送信された制御情報を、ロボット制御装置40の通信部(不図示)を介して取得する。制御情報取得部401は、取得した制御情報をロボット制御部402に出力する。
【0061】
ロボット制御部402は、実ロボットRRを制御する。ロボット制御部402は、例えば、実ロボットRRを制御するためのAPである。ロボット制御部402は、制御情報取得部401から制御情報を取得し、取得した制御情報に基づいて実ロボットRRを制御する。
【0062】
ここで、サーバ装置20が表示画像を生成する方法について、図3図8を用いて説明する。図3図8は、実施形態の表示画像生成部204が行う処理を説明するための図である。
【0063】
図3には、撮像画像203Aの例が示されている。撮像画像203Aは、実空間REが撮像された画像である。表示画像生成部204は、撮像画像203Aに基づいて、表示画像を生成する。この図の例に示すように、撮像画像203Aには、実ロボットRRと、実対象オブジェクトRT、及び、実背景オブジェクトRBが示されている。
【0064】
図4には、表示画像204Aの例が示されている。表示画像204Aは、表示画像生成部204により作成途中の表示画像である。この図の例に示すように、表示画像生成部204は、撮像画像203Aにおける実ロボットRRを消去する。例えば、表示画像生成部204は、撮像画像203Aにおける実ロボットRRが示された対象領域を特定し、特定した対象領域における実ロボットRRの描画を消去する。
【0065】
ここで、表示画像生成部204は、撮像画像203Aにおける実ロボットRRを消去した領域に、実空間REにおける背景を補う画像処理(背景補完)を行うように構成されてもよい。例えば、表示画像生成部204は、実背景オブジェクトRBに対応する樹木の一部VB1、及び実対象オブジェクトRTに対応する土管の端部VB2などを、背景補完する。
【0066】
例えば、表示画像生成部204は、実ロボットRRを消去した領域に対応する画素の色情報を、その領域の周囲にある画像に置換え、置換えた領域における境界部分の色勾配を調整することによって背景補完を行う。
【0067】
或いは、表示画像生成部204は、実ロボットRRを配置する前の実空間REを撮像した背景画像を予め取得しておき、その背景画像を用いて、背景補完を行うようにしてもよい。また、撮像画像取得部203は、AI(人工知能)などの技術を用いて生成した疑似的な背景を描画することにより背景補完を行うようにしてもよい。
【0068】
また、表示画像生成部204は、実背景オブジェクトRBの一部に背景補完を行う代わりに、実対象オブジェクトRTの全体を、実背景オブジェクトRBに対応する仮想オブジェクト(仮想背景オブジェクトVB)に置換えて描写した表示画像204Aを生成してもよい。
【0069】
一方、表示画像生成部204は、実対象オブジェクトRTについては、作業が行われることを想定し実対象オブジェクトRTの全体を、実対象オブジェクトRTに対応する仮想オブジェクト(仮想対象オブジェクトVT)に置換えて描写した表示画像204Aを生成する。表示画像204Aにおいて仮想対象オブジェクトVTが描画されていることにより、ユーザUの動作に応じてリアルタイムに仮想対象オブジェクトVTを仮想空間VE上で動かすことができる。
【0070】
図5には、表示画像204Bの例が示されている。表示画像204Bは、表示画像生成部204により作成された表示画像である。この図の例に示すように、表示画像生成部204は、撮像画像203Aにおける実ロボットRRを消去した領域に、仮想ユーザVUを描画した画像を、表示画像204Bとする。このような、表示画像204Bが、操作端末10に送信され、表示部101に表示される。
【0071】
図6には、表示画像204Cの例が示されている。表示画像204Cは、図5に示す表示画像と同等の画像である。表示画像204Cにおいて、仮想対象オブジェクトVT1~VT3のそれぞれが、仮想的な作業対象物として描画されている。
【0072】
図7には、表示画像204Dの例が示されている。表示画像204Dは、ユーザUが動作を開始し、その動作の開始に応じて作成された表示画像である。この図の例に示すように、表示画像生成部204は、動作情報に基づいて、ユーザUが屈んで仮想対象オブジェクトVT1を持ち上げるような動作をした場合、仮想ユーザVUが屈んで仮想対象オブジェクトVT1を持ち上げる様子が描画された表示画像204Dを生成する。このような、表示画像204Dが、操作端末10に送信され、表示部101に表示される。これにより、ユーザUは、自身の動作が反映された表示画像を視認することができる。
【0073】
図8には、表示画像204Eの例が示されている。表示画像204Eは、ユーザUが動作を終了し、その動作の終了に応じて作成された表示画像である。この図の例に示すように、表示画像生成部204は、動作情報に基づいて、ユーザUによる仮想対象オブジェクトVT1を移動させる動作が終了した場合、仮想対象オブジェクトVT1が別の場所に移動した様子が描画された表示画像204Eを生成する。このような、表示画像204Dが、操作端末10に送信され、表示部101に表示される。これにより、ユーザUは、自身の動作が反映された表示画像を視認することができる。
【0074】
ここで、サーバ装置20が制御情報を生成する方法について、図9を用いて説明する。図9は、実施形態の表示画像生成部204が行う処理を説明するための図である。
【0075】
図9には、撮像画像203Bの例が示されている。撮像画像203Bは、仮想対象オブジェクトVT1を移動させる動作が完了した際に生成された制御信号に応じて実ロボットRRが作業した後に撮像された撮像画像である。例えば、図6図8に対応するユーザUの一連の動作が完了した後、制御情報生成部202は、ユーザUによって行われた一連の動作に対応する作業として、実対象オブジェクトRT1を移動させる作業を特定する。表示画像生成部204は、実対象オブジェクトRT1を移動させる作業を実ロボットRRに実行させる制御情報を生成し、生成した制御情報を、ロボット制御装置40に送信する。ロボット制御装置40は、サーバ装置20から受信した制御情報に応じて、実ロボットRRを制御する。これにより、実空間REにおいて、実ロボットRRによって、実対象オブジェクトRT1が、実際に、移動される。
【0076】
ここで、操作システム1が行う処理の流れについて、図10を用いて説明する。図10は、実施形態の操作システム1が行う処理の流れを示すシーケンス図である。
【0077】
まず、撮像端末30は、実空間REを撮像し(ステップS10)、実空間REを撮像した撮像画像をサーバ装置20に送信する。サーバ装置20は、撮像端末30から受信した撮像画像を取得する(ステップS11)。
【0078】
一方、操作端末10は、ユーザUの動作に応じた動作情報を取得し(ステップS12)、取得した動作情報を、サーバ装置20に送信する。サーバ装置20は、操作端末10から受信した動作情報を取得する(ステップS13)。
【0079】
サーバ装置20は、ステップS11で取得した撮像画像、及びステップS13で取得した動作情報から表示画像を生成する(ステップS14)。サーバ装置20は、撮像画像における実ロボットRRを消去し、代わりに仮想ユーザVUを描画した表示画像を生成する。サーバ装置20は生成した表示画像を操作端末10に送信する。操作端末10は、サーバ装置20から受信した表示画像を表示部101に表示させる(ステップS15)。
【0080】
サーバ装置20は、ステップS13で取得した動作情報において、ユーザUによる動作が開始された場合、時系列の動作情報を取得し、動作が終了するまでの一連の動作を取得する。例えば、サーバ装置20は、ユーザUにおける最後の動作から、閾値以上、の時間が経過したか否かを判定する(ステップS16)。サーバ装置20は、ユーザUにおける最後の動作から、閾値以上の時間が経過し、その間においてユーザUによる動作が行われていない場合に、ユーザUによる動作が終了したと判定してステップS17に進む。一方、サーバ装置20は、ユーザUにおける最後の動作から、閾値以上の時間が経過する前に、ユーザUによる動作が再開された場合に、ユーザUによる動作が終了していないと判定してステップS13に戻り、時系列の動作情報を取得する処理を継続する。
【0081】
ユーザUによる一連の動作が終了したと判定した場合、サーバ装置20は、一連の動作に応じた作業を特定し、特定した作業を実ロボットRRに実行させる生成を生成し(ステップS17)、生成した制御情報をロボット制御装置40に送信する。ロボット制御装置40は、サーバ装置20から受信した制御情報に基づいて、実ロボットRRを制御する(ステップS18)。制御情報に基づく実ロボットRRによる作業が完了すると、ステップS10に戻り、撮像端末30により実空間REの撮像が実施される。
【0082】
以上説明したように、実施形態の操作システム1は、ユーザUによる動作に応じて実ロボットRRに作業をさせるシステムである。操作システム1は、撮像画像取得部203と、動作情報取得部201と、表示画像生成部204と、制御情報生成部202とを備える。撮像画像取得部203は、撮像画像を取得する。撮像画像は、実空間RE(実ロボットRRによる作業が行われる実空間)が撮像された画像である。動作情報取得部201は、ユーザUの動作を示す動作情報を取得する。表示画像生成部204は、表示画像を生成する。表示画像は、撮像画像取得部203によって取得された撮像画像、及び動作情報取得部201によって取得された動作情報に基づいて、生成される。表示画像は、撮像画像に、仮想ユーザVU(ユーザUに対応する仮想物体)が描画された画像である。表示画像は、撮像画像に撮像された実対象オブジェクトRTに対応する仮想対象オブジェクトVT、及び仮想ユーザVU(ユーザUに対応する仮想物体)が描画された画像であってもよい。制御情報生成部202は、制御情報を生成する。制御情報は、動作情報取得部201によって取得された動作情報に基づいて、ロボットを制御するための情報である。
【0083】
これにより、実施形態の操作システム1では、撮像画像、及び動作情報に基づいて、撮像画像に、仮想ユーザVU(ユーザUに対応する仮想物体)が描画された画像を生成することができる。このため、ユーザUは、仮想空間VEに表示された仮想ユーザVUに、自身の身体イメージを重ねることが容易となる。したがって、人型とは異なる形状や動作をするロボットを操作対象とする場合であってもユーザが違和感なく操作をすることできる。
【0084】
また、実施形態の操作システム1では、表示画像生成部204は、撮像画像における、実ロボットRRが示された対象領域を特定し、その対象領域における実ロボットRRが消去され、その対象領域に仮想ユーザVUが描画された表示画像を生成する。これにより、実施形態の操作システム1では、実ロボットRRがいる場所に、あたかもユーザUが存在しているかのような表示画像204Aを生成することができ、上述した効果と同様の効果を奏することができる。
【0085】
また、実施形態の操作システム1では、表示画像生成部204は、動作情報取得部201によって取得された動作情報に基づいて、仮想ユーザVUが動く表示画像を生成する。これにより、実施形態の操作システム1では、ユーザUの動作に同期して、仮想ユーザVUが動く表示画像204Aを生成することができ、上述した効果と同様の効果を奏することができる。
【0086】
また、実施形態の操作システム1では、表示画像生成部は、前記ユーザによる設定に応じた特徴(例えば、外観や能力など)を反映させた前記仮想物体を生成する。これにより、実施形態の操作システム1では、ユーザUの好みに応じた外観や能力を有する仮想ユーザVUが存在する表示画像204Aを生成することができ、上述した効果と同様の効果を奏することができる。
【0087】
また、実施形態の操作システム1では、制御情報生成部202は、時系列の動作情報に基づいて、ユーザUによる動作の開始及び終了を特定する。制御情報生成部202は、ユーザUによる動作が終了した後に、そのユーザによる動作が開始されてから終了するまでの一連の動作に対応する作業を特定する。制御情報生成部202は、特定した作業を、実ロボットRRに実行させるための制御情報を生成する。これにより、実施形態の操作システム1では、ユーザの動作に応じた動線に関わらず、どの動作の開始と終了とに応じた作業を実ロボットRRに実行させることができる。したがって、産業用ロボットのような、人間の動作とは異なる動きをするようなロボットを用いる場合であっても、実空間REにおける作業をスムーズに実行することができる。
【0088】
また、実施形態の操作システム1では、制御情報生成部202は、ユーザUによる動作が終了した後に、ユーザによる動作が開始されてから終了するまでの一連の動作に対応する作業が、実空間REにおいて実現可能か否かに応じて、その一連の動作に対応する作業を特定する。これにより、実施形態の操作システム1では、実空間REにおいて実現可能でない動作が行われた場合であっても、その動作にある程度、可能な範囲で追従した作業を実施することができる。例えば、仮想対象オブジェクトVTを持ち上げて上空に放り投げるようなユーザUの動作に対し、実空間REにおいて実ロボットRRが実対象オブジェクトRTを持ち上げて移動させるような作業を実行することができる。ただし、仮想対象オブジェクトVTを移動させること自体が危険である場合、仮想対象オブジェクトVTを移動させた移動先が危険である場合は、実空間REにおいてはユーザUの動作に応じた作業を実行することなく、ユーザUに警告を発するようにしてもよい。
【0089】
また、実施形態の操作システム1では、制御情報生成部202は、ユーザUによる一連の動作に対応する作業が、実空間REにおいて実現可能である場合、その一連の動作と同等な作業を実ロボットRRに実行させるような制御情報を生成する。これにより、実施形態の操作システム1では、実空間REにおいて実現可能であることを前提として、ユーザUの動作にしたがった作業が実ロボットRRにより実行されるようにすることができ、上述した効果と同様の効果を奏することができる。
【0090】
(実施形態の変形例1)
ここで、実施形態の変形例1について、図11を用いて説明する。図11は、実施形態の変形例1に係る操作システム1の概要を示す概略ブロック図である。本変形例では、ロボットを操作するユーザ(ユーザSU)とは別に、そのロボットが作業する様子を傍観するユーザ(ユーザTU)が存在する点において、上述した実施形態と相違する。以下では、上述した実施形態と相違する構成のみ説明し、上述した実施形態と同等な構成については同じ符号を付してその説明を省略する。
【0091】
図11に示すように、操作システム1は、例えば、視聴端末50を、さらに備える。
【0092】
サーバ装置20は、操作端末10に通知するための表示画像(以下、第1表示画像という)とは異なる画像を、視聴端末50に通知するための表示画像(以下、第2表示画像という)として生成する。サーバ装置20は、それぞれのユーザの視点に応じた表示画像を生成する。
【0093】
例えば、サーバ装置20は、ユーザSUの手の部分に対応する仮想モデルVSU1が、仮想ユーザVUとして仮想空間VEに存在する表示画像を、第1表示画像として生成する。サーバ装置20は生成した第1表示画像の画像情報を、操作端末10に送信する。
【0094】
一方、サーバ装置20は、ユーザSUの全体に対応する仮想モデルVSU2が、仮想ユーザVUとして仮想空間VEに存在する表示画像を、第2表示画像として生成する。サーバ装置20は生成した第2表示画像の画像情報を、視聴端末50に送信する。
【0095】
視聴端末50は、ロボットが作業する様子を傍観するユーザ(ユーザTU)によって操作されるコンピュータである。視聴端末50として、例えば、スマートフォン、携帯電話、タブレット端末、PC、などを適用することができる。視聴端末50は、例えば、眼鏡型をした装着型のディスプレイなどの表示部501を備える。視聴端末50は、サーバ装置20から視聴端末50に送信された第2表示画像の画像情報を受信し、受信した画像情報に基づいて、第2表示画像(符号501A)を、表示部501に表示させる。
【0096】
以上説明したように、実施形態の変形例1に係る操作システム1では、複数の端末、例えば、操作端末10及び視聴端末50のそれぞれに表示画像を表示させる。サーバ装置20は、それぞれのユーザUの視点に応じた表示画像を生成する。例えば、サーバ装置20は、実ロボットRRを操作るユーザSUの視点に応じて、ユーザSUの身体の一部、手や腕の部分に対応する仮想物体を、仮想ユーザVUとして、第1表示画像に描画する。一方、サーバ装置20は、実ロボットRRによる作業を傍観するユーザTUの視点に応じて、ユーザSUの体全体に対応する仮想物体を、仮想ユーザVUとして、第2表示画像に描画する。これにより、実施形態の変形例1に係る操作システム1では、それぞれのユーザUの視点に応じた表示画像を生成することができ、それぞれのユーザUが、違和感なくロボットを操作したり、そのロボットが行う作業を傍観したりすることができる。
【0097】
(実施形態の変形例2)
ここで、実施形態の変形例2について、説明する。本変形例は、ユーザUに触覚刺激がフィードバックされる点において、上述した実施形態と相違する。以下では、主に、上述した実施形態と相違する構成について説明し、上述した実施形態と同等な構成については同じ符号を付してその説明を省略する。
【0098】
本変形例について、図12及び図13を用いて説明する。図12は、実施形態の変形例2による操作システム1の概要の例を示す概略ブロック図である。図13は、実施形態の変形例2における操作システム1の構成の例を示すブロック図である。
【0099】
図12に示すように、実ロボットRRは、接触センサRSTを備える。接触センサRSTは、接触の有無、及び接触している場合にはその強度などの接触情報を取得するセンサであり、例えば、圧電センサなどを含む。この場合、接触センサRSTは、接触により発生する圧力の大きさを電気信号に変換したものを接触情報として出力する。
【0100】
操作端末10は触覚刺激出力部105を備える。触覚刺激出力部105は、触覚刺激を出力するデバイスである。触覚刺激出力部105は、例えば、装着したユーザに触覚刺激をフィードバックするVRグローブである。
【0101】
図13に示すように、接触センサRSTは、ロボット制御装置40と通信可能に接続する。接触センサRSTは、実ロボットRRが操作される等して、把持部が物を掴んだり離したりする動作に伴う接触を検知し、検知した接触の有無や度合を接触情報として、サーバ装置20に送信する。
【0102】
サーバ装置20は、例えば、接触情報取得部207と、触覚情報生成部208と、触覚情報出力部209とを備える。接触情報取得部207は、ロボット制御装置40から送信された接触情報を、サーバ装置20の通信部(不図示)を介して取得する。触覚情報生成部208は、接触情報、及び動作情報に基づいて、触覚情報を生成する。触覚情報は、ユーザUに触覚刺激としてフィードバックさせる情報であり、触覚の有無や度合を示す情報である。動作情報は、動作情報取得部201によって取得されたユーザUの動きである。
【0103】
まず、触覚情報生成部208は、接触情報を、ユーザUの動きに対応させることにより触覚情報を生成する。例えば、触覚情報生成部208は、接触情報の時系列データから、接触が有りとなってから接触が無くなるまでの一連の作業に対応する接触情報を抽出し、抽出した接触情報を記憶する。
【0104】
触覚情報生成部208は、接触情報が記憶されている場合には、その記憶された接触情報を用いて、動作情報に基づくユーザUの一連の動作に対応させた接触情報を生成する。例えば、ユーザUが仮想対象オブジェクトVTに触れる動作を行った場合、触覚情報生成部208は、記憶された接触情報から、実ロボットRRが実対象オブジェクトRTに接触したタイミングにおける接触情報を抽出する。触覚情報生成部208は、抽出した接触情報に基づいてユーザUに体感させる触覚情報を生成する。触覚情報生成部208は、生成した触覚情報を触覚情報出力部209に出力する。触覚情報出力部209は、触覚情報を、サーバ装置20の通信部(不図示)を介して操作端末10に送信する。
【0105】
一方、触覚情報生成部208は、接触情報が記憶されていない場合、撮像画像に基づいて、動作情報に基づくユーザUの一連の動作に対応させた接触情報を生成する。例えば、触覚情報生成部208は、撮像画像から実対象オブジェクトRTが撮像された領域を特定する。例えば、触覚情報生成部208は、輪郭抽出などの画像処理技術を用いて、実対象オブジェクトRTが撮像された領域を特定する。触覚情報生成部208は、特定した領域のテクスチャに基づいて、触覚情報を生成する。例えば、触覚情報生成部208は、テクスチャと触覚情報とが対応づけられたテーブルを予め記憶させておく。このテーブルには、画像のテクスチャに、そのテクスチャを有する物体を触った時の触覚を示す触覚情報が対応づけられている。例えば、土管が撮像された領域の画像におけるテクスチャには、コンクリートのザラザラした触覚情報が対応づけられている。例えば、ユーザUが仮想対象オブジェクトVTに触れる動作を行った場合、触覚情報生成部208は、テーブルを参照し、実対象オブジェクトRTのテクスチャに対応づけられた触覚情報を抽出する。触覚情報生成部208は、抽出した触覚情報を、サーバ装置20の通信部(不図示)を介して操作端末10に送信する。
【0106】
操作端末10は、例えば、触覚刺激出力部105を備える。触覚刺激出力部105は、触覚刺激を出力するデバイスである。触覚刺激出力部105は、例えば、装着したユーザに触覚刺激をフィードバックするVRグローブである。触覚刺激出力部105は、サーバ装置20から送信された触覚情報を、操作端末10の通信部(不図示)を介して取得する。触覚刺激出力部105は、取得した触覚情報を用いて、触覚刺激を出力する。これにより、ユーザUは、触覚刺激を感じることができる。
【0107】
以上説明したように、実施形態の変形例2に係る操作システム1は、触覚情報生成部208をさらに備える。触覚情報生成部208は、触覚情報を生成する。触覚情報は、触覚刺激出力部105(例えば、VRグローブなど)を介してユーザUに触覚刺激を与えるための情報である。触覚情報生成部208は、撮像画像取得部203によって取得された撮像画像、及び、動作情報取得部201によって取得された動作情報に基づいて、前記ユーザに触覚刺激を感じさせるための触覚情報を生成する。これにより、実施形態の変形例2に係る操作システム1では、触覚情報を生成することができるため、ユーザUに対し、ユーザの動作に応じた触覚刺激を感じさせることが可能となる。
【0108】
上述した実施形態における操作システム1及びサーバ装置20の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
【0109】
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
【符号の説明】
【0110】
1…操作システム
10…操作端末
20…サーバ装置
30…撮像端末
40…ロボット制御装置
101…表示部
102…動作情報取得部
103…表示画像取得部
104…動作情報出力部
201…動作情報取得部
202…制御情報生成部
203…撮像画像取得部
204…表示画像生成部
205…表示画像出力部
206…制御情報出力部
301…撮像部
302…撮像画像出力部
401…制御情報取得部
402…ロボット制御部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13