IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ファナック株式会社の特許一覧

特許7575487拡張現実表示装置、及び拡張現実表示システム
<>
  • 特許-拡張現実表示装置、及び拡張現実表示システム 図1
  • 特許-拡張現実表示装置、及び拡張現実表示システム 図2A
  • 特許-拡張現実表示装置、及び拡張現実表示システム 図2B
  • 特許-拡張現実表示装置、及び拡張現実表示システム 図3
  • 特許-拡張現実表示装置、及び拡張現実表示システム 図4
  • 特許-拡張現実表示装置、及び拡張現実表示システム 図5
  • 特許-拡張現実表示装置、及び拡張現実表示システム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-21
(45)【発行日】2024-10-29
(54)【発明の名称】拡張現実表示装置、及び拡張現実表示システム
(51)【国際特許分類】
   B25J 19/06 20060101AFI20241022BHJP
【FI】
B25J19/06
【請求項の数】 5
(21)【出願番号】P 2022569889
(86)(22)【出願日】2021-12-07
(86)【国際出願番号】 JP2021044866
(87)【国際公開番号】W WO2022131068
(87)【国際公開日】2022-06-23
【審査請求日】2023-05-19
(31)【優先権主張番号】P 2020206847
(32)【優先日】2020-12-14
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】390008235
【氏名又は名称】ファナック株式会社
(74)【代理人】
【識別番号】100106002
【弁理士】
【氏名又は名称】正林 真之
(74)【代理人】
【識別番号】100165157
【弁理士】
【氏名又は名称】芝 哲央
(74)【代理人】
【識別番号】100160794
【弁理士】
【氏名又は名称】星野 寛明
(72)【発明者】
【氏名】中田 洋平
(72)【発明者】
【氏名】本▲高▼ 丈士
【審査官】松浦 陽
(56)【参考文献】
【文献】特開2018-008347(JP,A)
【文献】国際公開第2011/080882(WO,A1)
【文献】国際公開第2019/092792(WO,A1)
【文献】特開2020-121351(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
B25J 1/00 - 21/02
G05B 19/18 - 19/416
G05B 19/42 - 19/427
(57)【特許請求の範囲】
【請求項1】
カメラと、
表示部と、
前記カメラにより撮影されたロボットの画像と、前記ロボットの動作領域の拡張現実画像と、を前記表示部に表示する表示制御部と、
を備える拡張現実表示装置であって、
前記カメラにより撮影された前記ロボットの画像の特徴量と、予め設定された前記ロボットの3次元認識モデルの特徴量とのマッチングに基づいて、ワールド座標系におけるロボット原点の3次元座標を取得する座標取得部と、
前記カメラの3次元座標を取得する情報取得部と、
前記ロボット原点の3次元座標と前記カメラの3次元座標とに基づいて前記ロボットと前記拡張現実表示装置との間の距離を算出する距離算出部と、をさらに備え、
前記表示制御部は、前記座標取得部により取得された前記ロボット原点の3次元座標を基準として前記ロボットの画像に前記ロボットの動作領域の拡張現実画像を配置して前記表示部に表示するとともに、算出された前記ロボットと前記拡張現実表示装置との間の距離に応じて前記ロボットの動作領域の表示形態を変更する拡張現実表示装置。
【請求項2】
外部装置との間で通信する通信部を備え、
前記情報取得部は、前記外部装置から前記ロボットの動作領域を示す設定情報を取得する、請求項1に記載の拡張現実表示装置。
【請求項3】
ユーザからの入力を受け付ける入力部を備え、
前記情報取得部は、前記入力部を介して前記ユーザから前記ロボットの動作領域を示す設定情報を取得する、請求項1又は請求項2に記載の拡張現実表示装置。
【請求項4】
前記情報取得部は、少なくとも前記ロボットの次の目標位置座標を取得し、
前記表示制御部は、前記ロボットの動作領域の拡張現実画像とともに前記次の目標位置座標までの動作軌跡の拡張現実画像を前記表示部に表示する、請求項1から請求項3のいずれか1項に記載の拡張現実表示装置。
【請求項5】
ロボットと、
請求項1から請求項4のいずれか1項に記載の拡張現実表示装置と、
を備える拡張現実表示システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、拡張現実表示装置、及び拡張現実表示システムに関する。
【背景技術】
【0002】
ロボットの動作領域内に安全監視対象である作業者が入る可能性がある場合、作業者の周りにロボットの動作領域が設定され、ロボットが動作領域に侵入した際にロボットの安全動作制御や、緊急停止制御等を行う技術が知られている。例えば、特許文献1参照。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2004-243427号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、作業者がロボットの動作領域を視認できないため、誤って動作領域に侵入してロボットを停止させてしまうことがある。これにより、ロボットの作業効率が低下してしまう。
【0005】
そこで、ロボットの動作領域を容易に確認することが望まれている。
【課題を解決するための手段】
【0006】
(1) 本開示の拡張現実表示装置は、カメラと、表示部と、前記カメラにより撮影されたロボットの画像と、前記ロボットの動作領域の拡張現実画像と、を前記表示部に表示する表示制御部と、を備える。
【0007】
(2) 本開示の拡張現実表示システムは、ロボットと、(1)の拡張現実表示装置と、を備える。
【発明の効果】
【0008】
一態様によれば、ロボットの動作領域を容易に確認することができる。
【図面の簡単な説明】
【0009】
図1】一実施形態に係る拡張現実表示システムの機能的構成例を示す機能ブロック図である。
図2A】動作プログラムの一例を示す図である。
図2B】動作プログラムにおいて教示された目標位置座標のリストの一例を示す図である。
図3】ロボットの動作領域のAR画像の表示の一例を示す図である。
図4】次の目標位置座標までの動作軌跡のAR画像の表示の一例を示す図である。
図5】ロボットの動作領域のAR画像及び次の目標位置座標までの動作軌跡のAR画像の表示の一例を示す図である。
図6】拡張現実表示装置の表示処理について説明するフローチャートである。
【発明を実施するための形態】
【0010】
<一実施形態>
以下、一実施形態について図面を用いて説明する。
図1は、一実施形態に係る拡張現実表示システムの機能的構成例を示す機能ブロック図である。
図1に示すように、拡張現実表示システム1は、ロボット10、及び拡張現実表示装置20を有する。
【0011】
<ロボット10>
ロボット10は、例えば、当業者にとって公知の産業用ロボット等である。ロボット10は、ロボット制御装置(図示しない)からの駆動指令に基づいて、ロボット10に含まれる図示しない複数の関節軸の各々に配置される図示しないサーボモータを駆動することにより、ロボット10の可動部材(図示しない)を駆動する。
【0012】
<拡張現実表示装置20>
拡張現実表示装置20は、例えば、スマートフォン、タブレット端末、拡張現実(AR:Augmented Reality)グラス、複合現実(MR:Mixed Reality)グラス等である。
図1に示すように、本実施形態に係る拡張現実表示装置20は、制御部21、カメラ22、入力部23、表示部24、記憶部25、及び通信部26を有する。また、制御部21は、座標取得部211、情報取得部212、距離算出部213、AR画像生成部214、及び表示制御部215を有する。
【0013】
カメラ22は、例えば、デジタルカメラ等であり、ユーザである作業者の操作に基づいてロボット10を撮影し、カメラ22の光軸に対して垂直な平面に投影した2次元の画像データを生成する。カメラ22により生成される画像データは、RGBカラー画像等の可視光画像でもよい。
【0014】
入力部23は、例えば、後述する表示部24に配置されたタッチパネル(図示しない)等であり、ユーザである作業者からの入力操作を受け付ける。
【0015】
表示部24は、例えば、LCD(Liquid Crystal Display)等である。表示部24は、後述する表示制御部215の制御指令に基づいて、カメラ22が撮影したロボット10の画像と、後述の通信部26を介して後述の情報取得部212がロボット制御装置(図示しない)から取得したロボット10の動作領域の拡張現実画像(AR画像)と、を表示する。
【0016】
記憶部25は、例えば、ROM(Read Only Memory)やHDD(Hard Disk Drive)等であり、後述する制御部21が実行するシステムプログラム及び拡張現実表示アプリケーションプログラム等を格納する。また、記憶部25は、3次元認識モデルデータ251が記憶されてもよい。
3次元認識モデルデータ251は、例えば、予めロボット10の姿勢や方向を変化させ、カメラ22により様々な距離、角度(傾き)で撮影されたロボット10の複数の画像それぞれから抽出されたエッジ量等の特徴量を、3次元認識モデルとして格納する。また、3次元認識モデルデータ251は、各3次元認識モデルの画像が撮影された時のワールド座標系におけるロボット10のロボット座標系の原点(以下、「ロボット原点」ともいう)の3次元座標、及びワールド座標系におけるロボット座標系のX軸、Y軸、Z軸それぞれの方向を示す情報も、3次元認識モデルに対応付けして格納するようにしてもよい。
なお、ワールド座標系の原点、及びX軸、Y軸、Z軸の各方向は、拡張現実表示装置20が上述の拡張現実表示アプリケーションプログラムを実行した時の拡張現実表示装置20の位置、すなわちカメラ22のカメラ座標系の原点、及びX軸、Y軸、Z軸の各方向と一致するように定義される。そして、拡張現実表示アプリケーションプログラムを実行した後に拡張現実表示装置20(カメラ22)が移動すると、カメラ座標系における原点はワールド座標系における原点から移動する。
【0017】
通信部26は、無線LAN(Local Area Network)、Wi-Fi(登録商標)、及び4Gや5G等の規格に準拠した携帯電話網等のネットワークとデータの送受信を行う通信制御デバイスである。通信部26は、ロボット10の動作を制御する、外部装置としてのロボット制御装置(図示しない)と通信するようにしてもよい。
【0018】
<制御部21>
制御部21は、CPU(Central Processing Unit)、ROM、RAM、CMOS(Complementary Metal-Oxide-Semiconductor)メモリ等を有し、これらはバスを介して相互に通信可能に構成される、当業者にとって公知のものである。
CPUは拡張現実表示装置20を全体的に制御するプロセッサである。CPUは、ROMに格納されたシステムプログラム及び拡張現実表示アプリケーションプログラムを、バスを介して読み出し、システムプログラム及び拡張現実表示アプリケーションプログラムに従って拡張現実表示装置20全体を制御する。これにより、図1に示すように、制御部21が、座標取得部211、情報取得部212、距離算出部213、AR画像生成部214、及び表示制御部215の機能を実現するように構成される。RAMには一時的な計算データや表示データ等の各種データが格納される。また、CMOSメモリは図示しないバッテリでバックアップされ、拡張現実表示装置20の電源がオフされても記憶状態が保持される不揮発性メモリとして構成される。
【0019】
<座標取得部211>
座標取得部211は、例えば、カメラ22により撮影されたロボット10の画像に基づいて、ワールド座標系におけるロボット原点の3次元座標を取得する。
具体的には、座標取得部211は、例えば、公知のロボットの3次元座標認識の方法(例えば、https://linx.jp/product/mvtec/halcon/feature/3d_vision.html)を用いて、カメラ22により撮影されたロボット10の画像からエッジ量等の特徴量を抽出する。座標取得部211は、抽出した特徴量と、3次元認識モデルデータ251に格納された3次元認識モデルの特徴量とのマッチングを行う。座標取得部211は、マッチングの結果に基づいて、例えば、一致度が最も高い3次元認識モデルにおけるロボット原点の3次元座標、及びロボット座標のX軸、Y軸、Z軸それぞれの方向を示す情報を取得する。
なお、座標取得部211は、ロボットの3次元座標認識の方法を用いて、ワールド座標系におけるロボット原点の3次元座標、及びロボット座標のX軸、Y軸、Z軸それぞれの方向を示す情報を取得したが、これに限定されない。例えば、座標取得部211は、ロボット10にチェッカーボード等のマーカーを取り付け、公知のマーカー認識技術に基づいてカメラ22により撮影された当該マーカーの画像からワールド座標系におけるロボット原点の3次元座標、及びロボット座標のX軸、Y軸、Z軸それぞれの方向を示す情報を取得するようにしてもよい。
あるいは、ロボット10にUWB(Ultra Wide Band)等の屋内測位デバイスが取り付けられ、座標取得部211は、屋内測位デバイスからワールド座標系におけるロボット原点の3次元座標、及びロボット座標のX軸、Y軸、Z軸それぞれの方向を示す情報を取得するようにしてもよい。
【0020】
<情報取得部212>
情報取得部212は、例えば、拡張現実表示装置20に含まれるGPSセンサや電子ジャイロ等のセンサ(図示しない)からの信号に基づいて、ワールド座標系におけるカメラ22のカメラ座標系の原点の3次元座標(以下、「カメラ22の3次元座標」ともいう)を取得する。
また、情報取得部212は、通信部26を介してロボット制御装置(図示しない)に問い合わせし、ロボット制御装置(図示しない)からロボット10の動作領域を示す設定情報を取得してもよい。なお、ロボット10の動作領域は、ロボット10の一部及びロボット10の全てが通過し得る領域であり、ロボット座標系で予め定義されている。このため、後述するAR画像生成部214は、ワールド座標系におけるロボット原点の3次元座標、及びロボット座標のX軸、Y軸、Z軸の方向に基づいて、ロボット10の動作領域の設定情報をワールド座標系に変換する。
また、情報取得部212は、入力部23を介して作業者の入力操作に応じてロボット10の動作領域の設定情報を取得するようにしてもよい。
【0021】
また、情報取得部212は、通信部26を介してロボット制御装置(図示しない)に問い合わせし、ロボット制御装置(図示しない)から実行している動作プログラムにおいて教示された少なくとも次の目標位置座標を取得するようにしてもよい。
図2Aは、動作プログラムの一例を示す図である。図2Bは、動作プログラムにおいて教示された目標位置座標のリストの一例を示す図である。
例えば、情報取得部212は、ロボット制御装置(図示しない)に次の目標位置座標を問い合わせしたとき、ロボット制御装置(図示しない)は、図2Aのプログラムの「MOVE P2」のブロックを実行している場合、次のブロック「MOVE P3」における目標位置P3の座標を図2Bのリストから読み出す。これにより、情報取得部212は、次の目標位置座標として目標位置P3の座標をロボット制御装置(図示しない)から取得する。
なお、図2Bの目標位置P1~P4等の座標は、ロボット座標系におけるX座標、Y座標、Z座標、X軸周りの回転角R、Y軸周りの回転角P、及びZ軸周りの回転角Wの成分を含む。
【0022】
<距離算出部213>
距離算出部213は、座標取得部211により取得されたワールド座標系におけるロボット原点の3次元座標と、情報取得部212により取得されたワールド座標系におけるカメラ22の3次元座標とに基づいてロボット10と拡張現実表示装置20との間の距離を算出する。
【0023】
<AR画像生成部214>
AR画像生成部214は、例えば、ロボット10のロボット原点の3次元座標、ロボット座標のX軸、Y軸、Z軸の方向、カメラ22の3次元座標、ロボット10の動作領域を示す設定情報、及びロボット10の次の目標位置座標に基づいて、ロボット10の動作領域のAR画像及び次の目標位置座標までの動作軌跡のAR画像を逐次生成する。
具体的には、AR画像生成部214は、例えば、ワールド座標系におけるロボット10のロボット原点の3次元座標、ロボット座標のX軸、Y軸、Z軸の方向に基づいて、ロボット10の動作領域の設定情報を、ロボット座標系からワールド座標系に変換し、ロボット10の動作領域のAR画像を生成する。
また、AR画像生成部214は、例えば、ワールド座標系におけるロボット10のロボット原点の3次元座標、ロボット座標のX軸、Y軸、Z軸の方向に基づいて、ロボット10の次の目標位置座標を、ロボット座標系からワールド座標系に変換し、ロボット10の次の目標位置座標までの動作軌跡のAR画像を生成する。
【0024】
<表示制御部215>
表示制御部215は、例えば、カメラ22により撮影されたロボット10の画像と、AR画像生成部214により生成されたロボット10の動作領域のAR画像と、を表示部24に表示する。
図3は、ロボット10の動作領域のAR画像の表示の一例を示す図である。
図3に示すように、表示制御部215は、例えば、座標取得部211により取得されたワールド座標系におけるロボット原点を基準としてAR画像生成部214により生成されたAR画像の位置及び姿勢をワールド座標系に基づいて調整し、カメラ22が撮影したロボット10の画像と、ロボット10の動作領域のAR画像とを重畳して表示する。
なお、表示制御部215は、距離算出部213により算出されたロボット10と拡張現実表示装置20との距離に基づいて、ロボット10の動作領域のAR画像の表示形態を変更するようにしてもよい。例えば、ロボット10から離れていて安全であることを示す距離αと、ロボット10に近く危険であることを示す距離β(β<α)と、が作業者等のユーザにより予め設定されている場合に、表示制御部215は、ロボット10と拡張現実表示装置20との距離が距離α以上離れている場合、安全であることを示すためにロボット10の動作領域のAR画像を青色で表示するようにしてもよい。また、表示制御部215は、ロボット10と拡張現実表示装置20との距離が距離β以上距離α未満の場合、ロボット10と拡張現実表示装置20とが近いことを示すためにロボット10の動作領域のAR画像を黄色で表示するようにしてもよい。また、表示制御部215は、ロボット10と拡張現実表示装置20との距離が距離β未満の場合、拡張現実表示装置20がロボット10の近傍にいて危険であることを示すためにロボット10の動作領域のAR画像を赤色で表示するようにしてもよい。
そうすることで、作業者が誤ってロボット10の動作領域に侵入することを未然に防ぐことができる。
【0025】
また、表示制御部215は、例えば、カメラ22により撮影されたロボット10の画像と、AR画像生成部214により生成された次の目標位置座標までの動作軌跡のAR画像と、を重畳して表示部24に表示するようにしてもよい。
図4は、次の目標位置座標までの動作軌跡のAR画像の表示の一例を示す図である。
図4に示すように、表示制御部215は、ロボット10の現在の目標位置P2とともに次の目標位置P3の座標も表示する。そうすることで、作業者は、ロボット10の次の動作を予測することができ、ロボット10との衝突を回避することができる。
なお、表示制御部215は、過去の目標位置P1の座標も表示してもよい。この場合、目標位置P1の座標は、目標位置P2、P3の座標と異なる色や形状で表示されることが好ましい。
また、表示制御部215は、例えば、カメラ22により撮影されたロボット10の画像と、AR画像生成部214により生成されたロボット10の動作領域のAR画像及び次の目標位置座標までの動作軌跡のAR画像と、を重畳して表示部24に表示するようにしてもよい。
図5は、ロボット10の動作領域のAR画像及び次の目標位置座標までの動作軌跡のAR画像の表示の一例を示す図である。
【0026】
<拡張現実表示装置20の表示処理>
次に、一実施形態に係る拡張現実表示装置20の表示処理に係る動作について説明する。
図6は、拡張現実表示装置20の表示処理について説明するフローチャートである。ここで示すフローは、表示処理が行われる間繰り返し実行される。
【0027】
ステップS1において、カメラ22は、入力部23を介して作業者の指示に基づいてロボット10を撮影する。
【0028】
ステップS2において、座標取得部211は、ステップS1で撮影されたロボット10の画像と、3次元認識モデルデータ251と、に基づいて、ワールド座標系におけるロボット原点の3次元座標、及びロボット座標のX軸、Y軸、Z軸それぞれの方向を示す情報を取得する。
【0029】
ステップS3において、情報取得部212は、ワールド座標系におけるカメラ22の3次元座標を取得する。
【0030】
ステップS4において、情報取得部212は、通信部26を介してロボット制御装置(図示しない)に問い合わせし、ロボット制御装置(図示しない)からロボット10の動作領域の設定情報を取得する。
【0031】
ステップS5において、情報取得部212は、通信部26を介してロボット制御装置(図示しない)に問い合わせし、ロボット制御装置(図示しない)から実行している動作プログラムにおいて教示された少なくとも次の目標位置座標を取得する。
【0032】
ステップS6において、距離算出部213は、ステップS2で取得されたワールド座標系におけるロボット原点の3次元座標と、ステップS3で取得されたワールド座標系におけるカメラ22の3次元座標と、に基づいてロボット10と拡張現実表示装置20との間の距離を算出する。
【0033】
ステップS7において、AR画像生成部214は、ロボット10のロボット原点の3次元座標、ロボット座標のX軸、Y軸、Z軸の方向、カメラ22の3次元座標、ロボット10の動作領域を示す設定情報、及びロボット10の次の目標位置座標に基づいて、ロボット10の動作領域のAR画像及び次の目標位置座標までの動作軌跡のAR画像を生成する。
【0034】
ステップS8において、表示制御部215は、ステップS1で撮影されたロボット10の画像と、ステップS7で生成されたロボット10の動作領域のAR画像及び次の目標位置座標までの動作軌跡のAR画像と、を表示部24に表示する。
なお、ステップS2からステップS5の処理は、順序に沿って時系列的に行われてもよく、並列に実行されてもよい。
【0035】
以上により、一実施形態に係る拡張現実表示装置20は、ロボット10の動作領域の拡張現実表示で可視化することにより、ロボットの動作領域を容易に確認することができる。これにより、拡張現実表示装置20は、作業者が誤って動作領域に侵入することを防ぎ、高い作業効率を確保しつつ、作業の安全性を向上させることができる。
【0036】
以上、一実施形態について説明したが、上述の実施形態に限定されるものではなく、目的を達成できる範囲での変形、改良等を含む。
【0037】
<変形例1>
上述の一実施形態では、拡張現実表示装置20は、ロボット10の動作領域のAR画像を、ロボット10との距離に応じて色を変更して表示したが、これに限定されない。例えば、拡張現実表示装置20は、ロボット10の動作領域のAR画像とともに、ロボット10との距離に応じた「ロボットの動作領域に近づいています」等のメッセージを表示部24に表示するようにしてもよい。
あるいは、拡張現実表示装置20は、ロボット10の動作領域のAR画像を表示部24に表示するとともに、ロボット10との距離に応じた「ロボットの動作領域に近づいています」等のメッセージや、アラーム音を拡張現実表示装置20に含まれるスピーカ(図示しない)から出力するようにしてもよい。
【0038】
<変形例2>
また例えば、上述の実施形態では、拡張現実表示装置20は、カメラ22の3次元座標を、拡張現実表示アプリケーションプログラムの実行時にワールド座標系と関係付けるとしたが、これに限定されない。例えば、拡張現実表示装置20は、公知の自己位置推定方法を用いて、ワールド座標系におけるカメラ22の3次元座標を取得してもよい。
【0039】
<変形例3>
また例えば、上述の実施形態では、拡張現実表示装置20は、ロボット制御装置(図示しない)から次の目標位置座標を取得したが、全ての目標位置座標を取得するようにしてもよい。
【0040】
なお、一実施形態に係る拡張現実表示装置20に含まれる各機能は、ハードウェア、ソフトウェア又はこれらの組み合わせによりそれぞれ実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
【0041】
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(Non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(Tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(Transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は、無線通信路を介して、プログラムをコンピュータに供給できる。
【0042】
なお、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0043】
以上を換言すると、本開示の拡張現実表示装置、及び拡張現実表示システムは、次のような構成を有する各種各様の実施形態を取ることができる。
【0044】
(1)本開示の拡張現実表示装置20は、カメラ22と、表示部24と、カメラ22により撮影されたロボット10の画像と、ロボット10の動作領域の拡張現実画像と、を表示部24に表示する表示制御部215と、を備える。
この拡張現実表示装置20によれば、ロボットの動作領域を容易に確認することができる。
【0045】
(2) (1)に記載の拡張現実表示装置20において、カメラ22により撮影されたロボット10の画像に基づいて、ロボット原点の3次元座標を取得する座標取得部211を備え、表示制御部215は、取得されたロボット原点を基準としてロボットの画像にロボットの動作領域の仮想現実画像を配置して表示部24に表示してもよい。
そうすることで、拡張現実表示装置20は、ロボット10の実際の動作領域と、AR画像の動作領域と、を対応付けすることができる。
【0046】
(3) (2)に記載の拡張現実表示装置20において、カメラ22の3次元座標を取得する情報取得部212と、ロボット原点の3次元座標とカメラ22の3次元座標とに基づいてロボット10と拡張現実表示装置20との間の距離を算出する距離算出部213と、を備え、表示制御部215は、算出された距離に応じてロボットの動作領域の表示形態を変更してもよい。
そうすることで、拡張現実表示装置20は、作業者が誤ってロボット10の動作領域に侵入することを未然に防ぐことができる。
【0047】
(4) (3)に記載の拡張現実表示装置20において、外部装置との間で通信する通信部26を備え、情報取得部212は、ロボット制御装置からロボット10の動作領域を示す設定情報を取得してもよい。
そうすることで、拡張現実表示装置20は、正確なロボット10の動作領域の設定情報を取得することができる。
【0048】
(5) (3)又は(4)に記載の拡張現実表示装置20において、ユーザからの入力を受け付ける入力部23を備え、情報取得部212は、入力部23を介してユーザからロボット10の動作領域を示す設定情報を取得してもよい。
そうすることで、拡張現実表示装置20は、ユーザが所望する任意のロボット10の動作領域の設定情報を取得することができる。
【0049】
(6) (3)から(5)のいずれかに記載の拡張現実表示装置20において、情報取得部212は、少なくともロボット10の次の目標位置座標を取得し、表示制御部215は、ロボット10の動作領域の拡張現実画像とともに次の目標位置座標までの動作軌跡の拡張現実画像を表示部24に表示してもよい。
そうすることで、拡張現実表示装置20は、ロボット10の次の動作を予測することができ、ロボット10と作業者との衝突を回避することができる。
【0050】
(7) 本開示の拡張現実表示システム1は、ロボット10と、(1)から(6)のいずれかに記載の拡張現実表示装置20と、を備える。
この拡張現実表示システム1は、(1)から(6)と同様の効果を奏することができる。
【符号の説明】
【0051】
1 拡張現実表示システム
10 ロボット
20 拡張現実表示装置
21 制御部
211 座標取得部
212 情報取得部
213 距離算出部
214 AR画像生成部
215 表示制御部
22 カメラ
23 入力部
24 表示部
25 記憶部
251 3次元認識モデルデータ
26 通信部
図1
図2A
図2B
図3
図4
図5
図6