(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024085857
(43)【公開日】2024-06-27
(54)【発明の名称】遠隔支援システム、遠隔支援装置、遠隔支援方法およびプログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20240620BHJP
H04N 21/431 20110101ALI20240620BHJP
H04N 21/442 20110101ALI20240620BHJP
【FI】
G06F3/01 510
H04N21/431
H04N21/442
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2022200633
(22)【出願日】2022-12-15
(71)【出願人】
【識別番号】000006747
【氏名又は名称】株式会社リコー
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】原島 正豪
(72)【発明者】
【氏名】平野 成伸
【テーマコード(参考)】
5C164
5E555
【Fターム(参考)】
5C164FA07
5C164UA31S
5C164UA42S
5C164UB41P
5C164UB88P
5C164YA11
5C164YA21
5E555AA25
5E555AA61
5E555BA02
5E555BA04
5E555BA38
5E555BB02
5E555BB04
5E555BB38
5E555BC04
5E555BC13
5E555BD05
5E555BD07
5E555BE17
5E555CA12
5E555CA42
5E555CA44
5E555CA47
5E555CB05
5E555DA08
5E555DA09
5E555DA23
5E555DB06
5E555DB20
5E555DB57
5E555DC09
5E555DC13
5E555FA00
(57)【要約】 (修正有)
【課題】簡便にキャリブレーションを行う遠隔支援システム、遠隔支援装置、遠隔支援方法及びプログラムを提供する。
【解決手段】遠隔支援システム1において、作業者用端末20は、頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、第1画像を頭部装着型表示装置に送信するAR情報生成部25と、撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する画像送信部23と、被支援者により第1指標を所定のターゲットに合わせたときに、支援者が端末に対する操作により、映像データが表示された第2表示領域におけるターゲットに対応する部分を第2指標で指定したことにより、第2指標の第2表示領域における第2位置を取得する位置情報取得部26と、第2位置から第1位置に座標変換するための変換情報を算出する座標変換算出部27と、を有する。
【選択図】
図7
【特許請求の範囲】
【請求項1】
頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、該第1画像を前記頭部装着型表示装置に送信する生成部と、
前記頭部装着型表示装置に搭載された撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する送信部と、
被支援者により前記第1指標を所定のターゲットに合わせたときに、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域における前記ターゲットに対応する部分を第2指標で指定したことにより、前記第2指標の該第2表示領域における第2位置を取得する取得部と、
前記第2位置から前記第1位置に座標変換するための変換情報を算出する算出部と、
を有する遠隔支援システム。
【請求項2】
前記算出部は、前記第2位置から前記第1位置に座標変換するための座標変換行列を、前記変換情報として算出する請求項1に記載の遠隔支援システム。
【請求項3】
前記取得部は、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域において、作業指示部分を指定したとき、前記第2表示領域における該作業指示部分の第3位置を取得し、
前記取得部により取得された前記第3位置から、前記算出部により算出された前記変換情報を用いて、前記頭部装着型表示装置の前記第1表示領域上の座標を示す第4位置に座標変換する変換部を、さらに備え、
前記生成部は、前記第1表示領域に表示させるための、該第1表示領域における前記第4位置に指示情報を表示する第2画像を生成して、該第2画像を前記頭部装着型表示装置に送信する請求項1に記載の遠隔支援システム。
【請求項4】
前記頭部装着型表示装置は、
前記被支援者の第1音声データを取得する第1音声取得部と、
前記第1音声取得部により取得された前記第1音声データを送信する第1音声送信部と、
を備え、
前記端末は、
前記第1音声送信部により送信された前記第1音声データを音声出力する第1音声出力部と、
前記支援者の第2音声データを取得する第2音声取得部と、
前記第2音声取得部により取得された前記第2音声データを送信する第2音声送信部と、
を備え、
前記頭部装着型表示装置は、前記第2音声送信部により送信された前記第2音声データを音声出力する第2音声出力部を、さらに備えた請求項1に記載の遠隔支援システム。
【請求項5】
前記撮像装置は、奥行の情報を含む前記映像データを撮像する請求項1~4のいずれか一項に記載の遠隔支援システム。
【請求項6】
頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、該第1画像を前記頭部装着型表示装置に送信する生成部と、
前記頭部装着型表示装置に搭載された撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する送信部と、
被支援者により前記第1指標を所定のターゲットに合わせたときに、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域における前記ターゲットに対応する部分を第2指標で指定したことにより、前記第2指標の該第2表示領域における第2位置を取得する取得部と、
前記第2位置から前記第1位置に座標変換するための変換情報を算出する算出部と、
を備えた遠隔支援装置。
【請求項7】
頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、該第1画像を前記頭部装着型表示装置に送信する生成ステップと、
前記頭部装着型表示装置に搭載された撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する送信ステップと、
被支援者により前記第1指標を所定のターゲットに合わせたときに、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域における前記ターゲットに対応する部分を第2指標で指定したことにより、前記第2指標の該第2表示領域における第2位置を取得する取得ステップと、
前記第2位置から前記第1位置に座標変換するための変換情報を算出する算出ステップと、
を有する遠隔支援方法。
【請求項8】
コンピュータに、
頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、該第1画像を前記頭部装着型表示装置に送信する生成ステップと、
前記頭部装着型表示装置に搭載された撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する送信ステップと、
被支援者により前記第1指標を所定のターゲットに合わせたときに、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域における前記ターゲットに対応する部分を第2指標で指定したことにより、前記第2指標の該第2表示領域における第2位置を取得する取得ステップと、
前記第2位置から前記第1位置に座標変換するための変換情報を算出する算出ステップと、
を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、遠隔支援システム、遠隔支援装置、遠隔支援方法およびプログラムに関する。
【背景技術】
【0002】
近年、ヘッドマウントディスプレイ(HMD)およびスマートグラス等のメガネ型の表示デバイス等のウェアラブル装置が提案され、AR(Augmented Reality:拡張現実)の応用分野において使われてきている。光学シースルータイプのARグラスデバイスでは、透過型のグラス部分に形成されるディスプレイ上に表示されたオブジェクトを現実のシーンに重畳させることができ、作業指示の情報の表示等と現実とのインタラクションを実現することができる。ただし、このようなインタラクションを実現するためのアプリケーションによっては、ディプレイ上に表示される表示要素の当該ディスプレイでの座標と、当該表示要素を重畳すべき現実のシーンでの座標とがずれていると、当該表示要素が示そうとする場所をユーザが特定することが困難になるという問題がある。このような問題を解決するために、グラスデバイスに搭載されたカメラによる画像、現実シーンに設置されたマーカ、または眼球位置情報等を利用したキャリブレーションの手法が既に知られている。
【0003】
このような、キャリブレーションの手法に関する技術として、キャリブレーション用画像を表示したグラスデバイスにおけるディスプレイを、別体の撮像装置で撮影して得られた撮影画像に基づいて、当該ディスプレイの当該撮像装置に対する対応関係を取得するという技術が開示されている(例えば特許文献1)。
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載された技術では、簡便にキャリブレーションを行うことができないという問題がある。
【0005】
本発明は、上記に鑑みてなされたものであって、簡便にキャリブレーションを行うことができる遠隔支援システム、遠隔支援装置、遠隔支援方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上述した課題を解決し、目的を達成するために、本発明は、頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、該第1画像を前記頭部装着型表示装置に送信する生成部と、前記頭部装着型表示装置に搭載された撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する送信部と、被支援者により前記第1指標を所定のターゲットに合わせたときに、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域における前記ターゲットに対応する部分を第2指標で指定したことにより、前記第2指標の該第2表示領域における第2位置を取得する取得部と、前記第2位置から前記第1位置に座標変換するための変換情報を算出する算出部と、を有することを特徴とする。
【発明の効果】
【0007】
本発明によれば、簡便にキャリブレーションを行うことができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、実施形態に係る遠隔支援システムの全体構成の一例を示す図である。
【
図2】
図2は、実施形態に係るグラスデバイスの概略構成の一例を示す図である。
【
図3】
図3は、実施形態に係るグラスデバイスの表示部のハードウェア構成の一例を示す図である。
【
図4】
図4は、実施形態に係る作業者用端末のハードウェア構成の一例を示す図である。
【
図5】
図5は、実施形態に係るクラウドサーバのハードウェア構成の一例を示す図である。
【
図6】
図6は、実施形態に係る支援者用端末のハードウェア構成の一例を示す図である。
【
図7】
図7は、実施形態に係る遠隔支援システムの機能ブロックの構成の一例を示す図である。
【
図8】
図8は、実施形態に係る遠隔支援システムのキャリブレーション処理の流れの一例を示すフローチャートである。
【
図9】
図9は、実施形態に係る遠隔支援システムのキャリブレーション処理において支援者用端末に表示されるキャリブレーション用画面の一例を示す図である。
【
図10】
図10は、実施形態に係る遠隔支援システムのキャリブレーション処理において現場作業者がディスプレイに表示されたポインタをターゲットに合わせる動作を説明する図である。
【
図11】
図11は、実施形態に係る遠隔支援システムの遠隔指示処理の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下に、図面を参照しながら、本発明に係る遠隔支援システム、遠隔支援装置、遠隔支援方法およびプログラムの実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
【0010】
また、コンピュータソフトウェアとは、コンピュータの動作に関するプログラム、その他コンピュータによる処理の用に供する情報であってプログラムに準ずるものをいう(以下、コンピュータソフトウェアは、ソフトウェアという)。アプリケーションソフトとは、ソフトウェアの分類のうち、特定の作業を行うために使用されるソフトウェアの総称である。一方、オペレーティングシステム(OS)とは、コンピュータを制御し、アプリケーションソフト等がコンピュータ資源を利用可能にするためのソフトウェアのことである。オペレーティングシステムは、入出力の制御、メモリやハードディスク等のハードウェアの管理、プロセスの管理といった、コンピュータの基本的な管理・制御を行っている。アプリケーションソフトウェアは、オペレーティングシステムが提供する機能を利用して動作する。プログラムとは、コンピュータに対する指令であって、一の結果を得ることができるように組み合わせたものをいう。また、プログラムに準ずるものとは、コンピュータに対する直接の指令ではないためプログラムとは呼べないが、コンピュータの処理を規定するという点でプログラムに類似する性質を有するものをいう。例えば、データ構造(データ要素間の相互関係で表される、データの有する論理的構造)がプログラムに準ずるものに該当する。
【0011】
(遠隔支援システムの全体構成)
図1は、実施形態に係る遠隔支援システムの全体構成の一例を示す図である。
図1を参照しながら、本実施形態に係る遠隔支援システム1の全体構成について説明する。
【0012】
図1に示す遠隔支援システム1は、現場作業者(被支援者)がいる現場とは異なる遠隔地から支援する遠隔支援者(支援者)からの支援者用端末40を介した作業指示等を、現場作業者が装着したグラスデバイス10に形成されたディスプレイに表示させることによって、当該現場作業員の作業を支援するためのシステムである。遠隔支援システム1は、
図1に示すように、グラスデバイス10と、作業者用端末20と、クラウドサーバ30と、支援者用端末40(端末)と、を含む。このうち、作業者用端末20、クラウドサーバ30および支援者用端末40は、ネットワークNを介して互いにデータ通信を行うことができる。ネットワークNは、有線ネットワーク、無線ネットワークのいずれも含んでいてもよい。
【0013】
グラスデバイス10は、現場作業者が装着するスマートグラスまたはグラスデバイス等のAR用の頭部装着型表示装置である。ここで、グラスデバイス10が備える後述の画像表示素子301から出射される画像光が、グラスデバイス10の導光部材における反射により、現場作業者が視認することがきる画像表示領域を、
図1に示すディスプレイDPと称して説明する。グラスデバイス10のレンズ部分(後述する
図2の導光部材100)に形成されるディスプレイDPは、遠隔支援者が支援者用端末40を介して指示した指示情報を表示する画像を表示する。
【0014】
作業者用端末20は、グラスデバイス10と支援者用端末40との間で、音声の送受信および遠隔支援者による指示情報の中継を行うための、現場作業者が携帯するスマートフォンまたはタブレット端末等の情報処理装置である。また、作業者用端末20は、グラスデバイス10のディプレイ上に表示される表示要素の当該ディスプレイでの座標と、当該表示要素を重畳すべき現実のシーンでの座標との位置合わせ処理であるキャリブレーションを行う。
【0015】
クラウドサーバ30は、グラスデバイス10と支援者用端末40との間で、音声の送受信および遠隔支援者による指示情報の中継を行うと共に、例えば支援者用端末40に対して、Webアプリケーションを実行することによる機能および画面の提供を行うアプリケーションサーバである。
【0016】
支援者用端末40は、現場作業者がいる現場とは異なる遠隔地から支援する遠隔支援者の作業指示等を、現場作業者が装着したグラスデバイス10に送信するためのPC(Personal Computer)等の情報処理装置である。
【0017】
(グラスデバイスの概略構成)
図2は、実施形態に係るグラスデバイスの概略構成の一例を示す図である。
図2を参照しながら、本実施形態に係るグラスデバイス10の概略構成について説明する。なお、
図2に示すグラスデバイス10は、一般のメガネと類似の形態を有するが、この形態に限定されるものではない。
【0018】
グラスデバイス10は、
図2に示すように、頭部に装着する頭部装着型表示装置であって、画像表示素子から投射された画像光を、導光部材まで中継する中継光学系および当該導光部材を介して、装着者である現場作業者の眼に入射させる頭部装着型表示装置である。装着者は、眼に導光部材から射出された画像光が入射することによって画像として見ることができる。
【0019】
ここで、中継光学系とは、画像表示素子から投射(出射)した画像光を、当該画像表示素子から離間した導光部材まで中継し、当該画像表示素子と導光部材との間の光路で1以上の中間像を形成するための光学系素子群を示すものとする。したがって、中継光学系は、例えば、画像光を単に平行光として導光部材に入射させるためのコリメータとは異なる。また、中間像とは、画像表示素子から投射(出射)した光が導光部材までの光路の途中で結像することにより形成される像であり、当該画像表示素子が投射する画像と同じ画像のことを示す。ただし、中間像として形成される画像は、当該画像表示素子が投射する画像と大きさが異なってもよい。
【0020】
図2に示すように、グラスデバイス10は、導光部材100a、100bと、筐体フレーム200a、200bと、表示部300a、300bと、カメラ307と、ブリッジ105と、テンプル400a、400bと、を備えている。
【0021】
導光部材100a、100bは、後述する表示部300a、300bの画像表示素子301a、301bから出射され、筐体フレーム200a、200b内の中継光学系201a、201bによりリレーされた(中継された)画像光を導光して、装着者の眼500a、500bに射出させるライトガイドである。また、導光部材100a、100bは透過型のライトガイドであるため、装着者の前方から向かってくる光は、導光部材100a、100bを透過して、それぞれ装着者の眼500a、500bに到達する。したがって、装着者は、グラスデバイス10を装着した状態でも前方を視認しながら、上述の画像光による画像を視認することができる。導光部材100aは、装着者の左眼である眼500a用のライトガイドであり、反射部101aと、導光部102aと、取り出し部103aと、射出部104aと、を有する。導光部材100bは、装着者の右眼である眼500b用のライトガイドであり、反射部101bと、導光部102bと、取り出し部103bと、射出部104bと、を有する。
【0022】
なお、以下、導光部材100a、100b、反射部101a、101b、導光部102a、102b、取り出し部103a、103b、および射出部104a、104bのそれぞれについて、いずれか任意のものを示す場合、または総称する場合、それぞれ単に「導光部材100」、「反射部101」、「導光部102」、「取り出し部103」および「射出部104」と称する。
【0023】
また、筐体フレーム200a、200b、中継光学系201a、201b、表示部300a、300b、画像表示素子301a、301b、および眼500a、500bのそれぞれについて、いずれか任意のものを示す場合、または総称する場合、それぞれ単に「筐体フレーム200」、「中継光学系201」、「表示部300」、「画像表示素子301」および「眼500」と称する。
【0024】
また、導光部材100は、ハーフミラーを用いるタイプ、ホログラム素子を用いるタイプ、または多段反射等の幾何構造を有するタイプ等のいずれであってもよい。
【0025】
反射部101は、筐体フレーム200の中継光学系201から出射した画像光の光線を導光部102へ反射する部位である。導光部102は、反射部101により反射された画像光を全反射させながら導光する部位である。取り出し部103は、導光部102により導光された画像光を、導光部材100の外側に取り出すために反射させる部位である。射出部104は、取り出し部103により導光部材100の外側に取り出すために反射された画像光を、導光部材100の外部に射出させて、眼500に入射させる部位である。なお、反射部101は、導光部材100内で構成されるものに限定されるものではなく、導光部材100とは別のミラー部材によって構成されるものとしてもよい。
【0026】
筐体フレーム200は、通常のメガネのテンプルに相当する部分であり、表示部300の画像表示素子301から出射した画像光をリレーするための中継光学系201を格納する部材である。従来の頭部装着型表示装置(ヘッドマウントディスプレイ)は、画像表示素子が装着者の眼の前にある、または、導光部材と一体型になっているのに対し、本実施形態に係るグラスデバイス10は、画像表示素子301を内蔵する表示部300と、導光部材100とが、筐体フレーム200内の中継光学系201で介されていることにより、表示部300と、導光部材100とが離間して設置されている。
【0027】
中継光学系201は、例えば、4枚1組の凸レンズの組み合わせを有するリレーレンズ群である。中継光学系201は、表示部300の画像表示素子301から出射した画像光が入射され、当該画像光を光路の途中で少なくとも1回、中間像を形成してから、当該画像光をほとんど画像劣化させずに、当該画像光を導光部材100に対して出射する。中継光学系201から出射する画像光は、略平行光または略テレセントリック光となっている。例えば、中継光学系201に含まれる4枚1組の凸レンズのうち、前段の2枚の凸レンズと後段の2枚の凸レンズとの間で中間像が形成される。この場合、中継光学系201を構成する凸レンズは、例えば、直径2mm程度のレンズであっても画像光をリレーすることが可能であり、筐体フレーム200は、一般のメガネと同等の細さまたは軽さを有するフレームとすることが可能である。
【0028】
また、中継光学系201を複数のレンズ群で構成することの利点の1つとして、コストメリットが挙げられる。複数のレンズの組み合わせであるが、各々のレンズは特殊なものではなく、金型を製作して量産すれば単価を抑えることができる。また、中継光学系201を複数のレンズ群で構成することのもう1つの利点として、レンズの直径を比較的自由に設計できることが挙げられる。レンズの直径が大きい方が画像表示素子301の画像光を多く取り込むことができて、光利用効率を向上させることができる。一方で、レンズの直径が大き過ぎると、筐体フレーム200が太くなり、装着者の実視野を塞いでしまうことになる。したがって、例えば、光利用効率の確保の観点からレンズは直径2mm以上であることが望ましく、また、装着者の実視野を確保するためには直径8mm以下であることが望ましい。中継光学系201としてこのようなレンズ群を用いることにより、直径2mmから8mmまでの間で容易に設計することができる。
【0029】
表示部300a、300bは、筐体フレーム200a、200bの中継光学系201a、201bへ向けて画像光を出射させる装置である。表示部300aは、表示部筐体である筐体310a内に、画像表示素子301aと、制御基板302aと、マイク308と、スピーカ309aと、を内蔵する。表示部300bは、表示部筐体である筐体310b内に、画像表示素子301bと、制御基板302bと、スピーカ309bと、を内蔵する。なお、筐体310a、310bは、薄い金属板(アルミニウム、チタン、マグネシウム合金など)で形成されている。
【0030】
なお、制御基板302a、302b、スピーカ309a、309b、および筐体310a、310bのそれぞれについて、いずれか任意のものを示す場合、または総称する場合、単に「制御基板302」、「スピーカ309」および「筐体310」と称する。
【0031】
画像表示素子301は、導光部材100を通じて表示する画像(虚像)の基となる画像光を出射するマイクロディスプレイである。画像表示素子301は、グラスデバイス10を構成する他の部品と比較して、重量を占める部品である。例えば、画素数1280×720を有し、画面サイズが0.5インチ以下のマイクロディスプレイの場合、周辺回路を含めると15mm角程度の大きさとなる。さらに、制御基板302を合わせて表示部300の筐体310としてパッケージングすると1辺が20mm以上の筐体となり、重量も20g以上のものとなる。
【0032】
なお、マイクロディスプレイである画像表示素子301は、例えば、透過型液晶、LCOS(Liquid Crystal On Silicon:反射型液晶)、有機EL(Electro-Luminescence)の一種であるOLED(Organic Light Emitting Diode)またはDMD(Digital Micromirror Device)であるMEMS(Micro Electro Mechanical Systems)型デバイス等のいずれであってもよい。
【0033】
制御基板302は、画像表示素子301の表示動作を制御する回路基板である。
【0034】
マイク308は、筐体310aに内蔵され、グラスデバイス10の装着者が発する音声を集音する集音装置である。なお、マイク308は、表示部300aだけでなく、表示部300bにも内蔵されているものとしてもよい。
【0035】
スピーカ309は、筐体310に内蔵され、支援者用端末40で集音された遠隔支援者の音声であって、クラウドサーバ30および作業者用端末20により中継された音声を出力する音響装置である。なお、スピーカ309a、309bは、いずれか一方のみ備えられているものとしてもよい。
【0036】
カメラ307は、グラスデバイス10を装着した装着者の前方側を撮像し、映像データを得る撮像装置である。カメラ307は、例えば、筐体フレーム200aまたは筐体310aのうち少なくともいずれかに接合して設置されている。なお、カメラ307は、表示部300a側に設置されることに限定されるものではなく、表示部300b側に設置されるものとしてもよい。また、カメラ307は、二次元の画像データに加え、奥行き(デプス)の情報を得ることができるステレオ方式、ToF(Time оf Flight)方式、構造化照明方式等を用いたカメラ等であってもよい。この場合、カメラ307により撮像された映像データには、当該二次元の画像データおよび奥行き(デプス)の情報が含まれる。
【0037】
ブリッジ105は、左右の導光部材100a、100bをつなぎ、装着者の鼻にかかる部材である。また、
図2に図示はしていないが、ブリッジ105には、装着者の鼻を両脇から挟んでグラスデバイス10を支えるためのパッド(鼻あて)が取り付けられている。
【0038】
テンプル400a、400bは、装着者の耳にかかる部材である。テンプル400a、400bは、グラスデバイス10を支えて、装着者の耳からグラスデバイス10が落下することを防止する。なお、テンプル400a、400bについて、いずれか任意のものを示す場合、または総称する場合、単に「テンプル400」と称する。
【0039】
なお、
図2に示したグラスデバイス10は、両眼メガネ型であるが、これに限定されるものではなく、片眼用の装置であってもよい。この場合、例えば、ヘルメットまたは帽子等に取り付けたり、または、ゴーグル等にいれたりして使用してもよい。
【0040】
(グラスデバイスの表示部のハードウェア構成)
図3は、実施形態に係るグラスデバイスの表示部のハードウェア構成の一例を示す図である。
図3を参照しながら、本実施形態に係るグラスデバイス10の表示部300のハードウェア構成について説明する。
【0041】
図3に示すように、本実施形態に係るグラスデバイス10の表示部300は、画像表示素子301と、駆動IC(Integrated Circuit:集積回路)303と、メモリ304と、電源回路305と、バッテリ306と、マイク308と、スピーカ309と、入出力I/F311と、通信I/F312と、を備える。上述の構成要素のうち、メモリ304、入出力I/F311、通信I/F312およびカメラ307は、例えば、
図3に示すようにバスを介して互いにデータ通信可能となっている。この場合、当該バスの通信制御を行う制御装置が備えられていてもよい。
【0042】
なお、画像表示素子301、マイク308、スピーカ309およびカメラ307については、
図2で上述した通りである。また、
図3に示す表示部300の構成の例は、具体的には、表示部300aの構成を示しているが、表示部300bの構成は、
図3に示す表示部300aの構成のうちマイク308を備えない構成となる。ただし、上述のように、表示部300bも、マイク308を備えるものとしてもよい。
【0043】
駆動IC303は、メモリ304に蓄積された画像信号を読み出し、当該画像信号に従って、画像表示素子301に画像光を表示駆動させるICである。
【0044】
メモリ304は、作業者用端末20から通信I/F312により受信された画像情報を蓄積する記憶装置である。
【0045】
電源回路305は、バッテリ306から入力される電圧を、各装置の駆動に対応する電圧に変換して供給する回路である。電源回路305は、
図3に示すように、画像表示素子301、駆動IC303およびメモリ304それぞれに電源(電圧)を供給する。また、電源回路305は、マイク308、スピーカ309、入出力I/F311および通信I/F312それぞれに対しても電源(電圧)を供給する。
【0046】
バッテリ306は、電源回路305に電圧を供給する蓄電池である。
【0047】
入出力I/F311は、音声データを中継するためのインターフェース回路である。具体的には、入出力I/F311は、マイク308で集音された音声データを中継し、通信I/F312に対して当該音声データを作業者用端末20へ送信させる。また、入出力I/F311は、作業者用端末20から通信I/F312により受信された音声データを中継し、スピーカ309から当該音声データを出力させる。
【0048】
通信I/F312は、作業者用端末20等の外部装置とデータ通信するためのインターフェース回路である。例えば、通信I/F312は、USB(Universal Serial Bus)等の規格に準拠した有線式のインターフェース回路であってもよく、Wi-Fi(登録商標)もしくはBluetooth(登録商標)等の無線通信規格、または4GもしくはLTE(Long Term Evolution)等の移動通信網規格のインターフェース回路であってもよい。具体的には、通信I/F312は、マイク308で集音された音声データを入出力I/F311を介して受信し、作業者用端末20へ送信する。また、通信I/F312は、作業者用端末20から受信した音声データを、スピーカ309からの出力のために入出力I/F311へ送信する。また、通信I/F312は、カメラ307により撮像された映像データを受信し、作業者用端末20へ送信する。
【0049】
上述の
図2に示した制御基板302は、例えば、
図3に示す駆動IC303、メモリ304、電源回路305、入出力I/F311および通信I/F312を搭載するものとすればよいが、これに限定されるものではない。
【0050】
なお、
図3に示した表示部300のハードウェア構成は一例を示すものであり、これに限定されるものではなく、例えば、
図3に示した構成要素以外の構成要素を含むものとしてもよい。
【0051】
(作業者用端末のハードウェア構成)
図4は、実施形態に係る作業者用端末のハードウェア構成の一例を示す図である。
図4を参照しながら、本実施形態に係る作業者用端末20のハードウェア構成について説明する。
【0052】
図4に示すように、作業者用端末20は、CPU(Central Processing Unit)601と、ROM(Read Only Memory)602と、RAM(Random Access Memory)603と、EEPROM(Electrically Erasable Programmable Read Only Memory)604と、撮像部605と、撮像I/F606と、加速度・方位センサ607と、GPS(Global Positioning System)受信部608と、を備えている。
【0053】
CPU601は、作業者用端末20全体の動作を制御する演算装置である。ROM602は、IPL(Initial Program Loader)等のCPU601の駆動に用いられるプログラムを記憶する不揮発性記憶装置である。RAM603は、CPU601のワークエリアとして使用される揮発性記憶装置である。EEPROM604は、プログラム等および各種データを記憶する不揮発性記憶装置である。
【0054】
撮像部605は、CPU601による制御に従って、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサにより被写体を撮像して画像データを得る内蔵型の撮像装置である。なお、CMOSのイメージセンサではなく、CCD(Charge Coupled Device)等のイメージセンサであってもよい。撮像I/F606は、撮像部605の駆動を制御するためのインターフェースである。
【0055】
加速度・方位センサ607は、地磁気を検知する電子磁気コンパス、ジャイロコンパス、加速度センサ等の各種センサである。
【0056】
GPS受信部608は、GPS衛星からGPS信号を受信する受信装置である。なお、GPS受信部608の代わりに、GNSS(Global Navigation Satellite System)に基づく測位衛星から測位信号を受信する受信装置を用いてもよい。
【0057】
また、
図4に示すように、作業者用端末20は、さらに、遠距離通信回路610と、アンテナ610aと、近距離通信回路611と、アンテナ611aと、マイク612と、スピーカ613と、音入出力I/F614と、ディスプレイ615と、外部機器接続I/F616と、バイブレータ617と、タッチパネル618と、を備えている。
【0058】
遠距離通信回路610は、ネットワークNを介して、Wi-Fi(登録商標)、等の規格により、アンテナ610aを介して他の機器(クラウドサーバ30等)と無線通信をする通信回路である。
【0059】
近距離通信回路611は、NFC(Near Field Communication)またはBluetooth等の規格により、アンテナ611aを介して他の機器(グラスデバイス10等)と近距離の無線通信をする通信回路である。
【0060】
マイク612は、音を電気信号に変える内蔵型の集音装置である。スピーカ613は、電気信号を物理振動に変えて音楽または音声等の音を出力する内蔵型の音響装置である。音入出力I/F614は、CPU601による制御に従って、マイク612およびスピーカ613との間で音信号の入出力を処理するインターフェースである。なお、マイク612およびスピーカ613は、無線接続されたヘッドセットであってもよい。
【0061】
ディスプレイ615は、被写体の画像、各種アイコン等を表示する液晶ディスプレイまたは有機ELディスプレイ等の表示装置である。外部機器接続I/F616は、各種の外部機器を接続するためのUSB等の規格のインターフェースである。
【0062】
バイブレータ617は、CPU601による制御に従って、物理的な振動を発生させる装置である。
【0063】
タッチパネル618は、利用者がディスプレイ615をタッチ操作することにより、作業者用端末20の各種機能を発揮させるための入力装置である。
【0064】
上述のCPU601、ROM602、RAM603、EEPROM604、撮像I/F606、加速度・方位センサ607、GPS受信部608、遠距離通信回路610、近距離通信回路611、音入出力I/F614、ディスプレイ615、外部機器接続I/F616、バイブレータ617およびタッチパネル618は、アドレスバスおよびデータバス等のバスライン609によって互いに通信可能に接続されている。
【0065】
なお、
図4に示した作業者用端末20のハードウェア構成は一例であり、すべての構成機器を備えている必要はなく、また、他の構成機器を備えているものとしてもよい。
【0066】
(作業者用端末のハードウェア構成)
図5は、実施形態に係るクラウドサーバのハードウェア構成の一例を示す図である。
図5を参照しながら、本実施形態に係るクラウドサーバ30のハードウェア構成について説明する。
【0067】
図5に示すように、クラウドサーバ30は、CPU701と、ROM702と、RAM703と、HD(Hard Disk)704、HDD(Hard Disk Drive)コントローラ705と、ディスプレイ706と、外部機器接続I/F708と、ネットワークI/F709と、キーボード711と、ポインティングデバイス712と、DVD-RW(Digital Versatile Disk Rewritable)ドライブ714と、メディアI/F716と、を備えている。これらの各装置は、データ通信が可能となるようにアドレスバスおよびデータバス等のバスライン710で接続されている。
【0068】
CPU701は、クラウドサーバ30全体の動作を制御する演算装置である。ROM702は、IPL等のCPU701の駆動に用いられるプログラムを記憶する不揮発性記憶装置である。RAM703は、CPU701のワークエリアとして使用される揮発性記憶装置である。
【0069】
HD704は、プログラム等の各種データを記憶する不揮発性の補助記憶装置である。HDDコントローラ705は、CPU701の制御に従って、HD704に対する各種データの読み出しまたは書き込みを制御するコントローラである。なお、HD704およびHDDコントローラ705は、SSD(Solid State Drive)であってもよい。
【0070】
ディスプレイ706は、カーソル、メニュー、ウィンドウ、文字または画像等の各種情報を表示する表示装置である。外部機器接続I/F708は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器としては、例えば、USBメモリまたはプリンタ等が挙げられる。
【0071】
ネットワークI/F709は、ネットワークNを介してデータ通信をするためのインターフェースであり、例えば、イーサネット(登録商標)、およびTCP(Transmission Control Protocol)/IP(Internet Protocol)等に準拠した通信が可能なインターフェースである。
【0072】
キーボード711は、文字、数値、各種指示等の入力のための複数のキーを備えた入力装置である。ポインティングデバイス712は、各種指示の選択、実行、処理対象の選択、カーソルの移動等を行うマウス等の入力装置である。
【0073】
DVD-RWドライブ714は、着脱可能な記録媒体の一例としてのDVD-R(Digital Versatile Disk Recordable)またはDVD-RW等のDVD713に対する各種データの読み出しまたは書き込みを制御する装置である。メディアI/F716は、フラッシュメモリ等のメディア715に対するデータの読み出しまたは書き込み(記憶)を制御するインターフェースである。
【0074】
なお、
図5に示したクラウドサーバ30のハードウェア構成は一例を示すものであり、
図5に示した構成要素をすべて含む必要はなく、または、その他の構成要素を含むものとしてもよい。
【0075】
(支援者用端末のハードウェア構成)
図6は、実施形態に係る支援者用端末のハードウェア構成の一例を示す図である。
図6を参照しながら、本実施形態に係る支援者用端末40のハードウェア構成の詳細について説明する。
【0076】
図6に示すように、本実施形態に係る支援者用端末40は、CPU801と、ROM802と、RAM803と、補助記憶装置805と、入力装置808と、を備えている。
【0077】
CPU801は、支援者用端末40全体の動作を制御する演算装置である。ROM802は、支援者用端末40用のプログラムを記憶している不揮発性記憶装置である。RAM803は、CPU801のワークエリアとして使用される揮発性記憶装置である。
【0078】
補助記憶装置805は、プログラムおよび各種データを記憶するHDDまたはSSD等の不揮発性記憶装置である。
【0079】
入力装置808は、マウスまたはキーボード等の各種情報を入力するための装置である。なお、入力装置808は、タッチパネルまたはペンデバイスであってもよい。
【0080】
また、支援者用端末40は、
図6に示すように、ネットワークI/F811と、音声入出力I/F816と、ディスプレイI/F819と、マイク814と、スピーカ815と、ディスプレイ820と、を備えている。
【0081】
ネットワークI/F811は、ネットワークNを利用してデータを通信するためのインターフェースである。ネットワークI/F811は、例えば、TCP/IPに準拠したNIC(Network Interface Card)等である。
【0082】
音声入出力I/F816は、CPU801の制御に従って、音声を入力するマイク814および音声を出力するスピーカ815との間で音声データの入出力を処理するインターフェースである。マイク814およびスピーカ115は、それぞれ音声入出力I/F116に接続される。
【0083】
ディスプレイI/F819は、CPU801の制御に従って、ディスプレイ820に画像データを伝送するためのインターフェースである。ディスプレイ820は、被写体の画像および操作用アイコン等を表示する液晶または有機EL等によって構成された表示装置である。ディスプレイ820は、ケーブルによってディスプレイI/F119に接続される。当該ケーブルは、アナログRGB(VGA)信号用のケーブルであってもよく、コンポーネントビデオ用のケーブルであってもよく、HDMI(登録商標)(High-Definition Multimedia Interface)またはDVI(Digital Video Interactive)信号用のケーブルであってもよい。
【0084】
上述のCPU801、ROM802、RAM803、補助記憶装置805、入力装置808、ネットワークI/F811、音声入出力I/F816およびディスプレイI/F819は、アドレスバスおよびデータバス等のバスライン810によって互いに通信可能に接続されている。
【0085】
なお、
図6に示した支援者用端末40のハードウェア構成は一例を示すものであり、
図6に示した構成要素以外の構成要素を含むものとしてもよい。また、マイク814およびスピーカ815は、少なくともいずれかは支援者用端末40とは別体の外部機器として用いられるものであってもよい。
【0086】
(遠隔支援システムの機能ブロックの構成および動作)
図7は、実施形態に係る遠隔支援システムの機能ブロックの構成の一例を示す図である。
図7を参照しながら、本実施形態に係る遠隔支援システム1の機能ブロックの構成および動作について説明する。
【0087】
<グラスデバイスの機能ブロックの構成および動作>
図7に示すように、グラスデバイス10は、通信部11(第1音声送信部)と、画像表示部12と、撮像部13と、音声取得部14(第1音声取得部)と、音声出力部15(第1音声出力部)と、を有する。
【0088】
通信部11は、作業者用端末20との間でデータ通信を行う機能部である。通信部11は、
図3に示した通信I/F312によって実現される。
【0089】
画像表示部12は、作業者用端末20から通信部11により受信されたキャリブレーション時におけるポインタを表示する画像、および、支援者用端末40から送信された作業指示を示す指示情報を表示する画像(後述する指示画像)を、ディスプレイDP(第1表示領域)に表示する機能部である。画像表示部12は、
図1および
図2に示した画像表示素子301によって実現される。
【0090】
撮像部13は、グラスデバイス10を装着した装着者の前方側を撮像し、映像データとして取得する機能部である。撮像部13は、
図2および
図3に示したカメラ307によって実現される。なお、撮像部13は、映像データとして、二次元の画像データに加え、奥行き(デプス)の情報を得ることができるものとしてもよい。
【0091】
音声取得部14は、グラスデバイス10の装着者が発する音声を集音して音声データ(第1音声データ)として取得する機能部である。音声取得部14は、
図2および
図3に示したマイク308によって実現される。
【0092】
音声出力部15は、音声を出力する機能部である。例えば、音声出力部15は、支援者用端末40で集音された遠隔支援者の音声データであって、クラウドサーバ30および作業者用端末20により中継され、通信部11により受信された音声データを音声出力する。音声出力部15は、
図2および
図3に示したスピーカ309によって実現される。
【0093】
<作業者用端末の機能ブロックの構成および動作>
図7に示すように、作業者用端末20は、第1通信部21と、第2通信部22と、画像送信部23(送信部の一例)と、音声中継部24と、AR情報生成部25(生成部の一例)と、位置情報取得部26(取得部の一例)と、座標変換算出部27(算出部の一例)と、座標変換部28(変換部の一例)と、記憶部29と、を有する。
【0094】
第1通信部21は、グラスデバイス10との間でデータ通信を行う機能部である。第1通信部21は、
図4に示した近距離通信回路611およびアンテナ611aによって実現される。
【0095】
第2通信部22は、ネットワークNを介してクラウドサーバ30との間でデータ通信を行う機能部である。第2通信部22は、
図4に示した遠距離通信回路610およびアンテナ610aによって実現される。
【0096】
画像送信部23は、第1通信部21により受信されたグラスデバイス10の撮像部13により撮像された映像データを、第2通信部22を介してクラウドサーバ30へ送信する機能部である。画像送信部23は、例えば
図4に示したCPU601によりネイティブアプリケーション等のプログラムが実行されることによって実現される。
【0097】
音声中継部24は、グラスデバイス10とクラウドサーバ30との間で音声データの中継を行う機能部である。例えば、音声中継部24は、グラスデバイス10の音声取得部14で取得された現場作業者の音声データを第1通信部21を介して取得し、当該音声データを第2通信部22を介してクラウドサーバ30へ送信する。また、音声中継部24は、支援者用端末40の後述する音声取得部42で取得された遠隔支援者の音声データを、クラウドサーバ30および第2通信部22を介して取得し、当該音声データを第1通信部21を介してグラスデバイス10へ送信する。音声中継部24は、例えば
図4に示したCPU601によりネイティブアプリケーション等のプログラムが実行されることによって実現される。
【0098】
AR情報生成部25は、支援者用端末40から送信されたキャリブレーション開始信号が、クラウドサーバ30を介して第2通信部22により受信された場合、グラスデバイス10のディスプレイDPの既知である所定の位置Pd(第1位置)に、後述するポインタD(第1指標)を表示する画像(第1画像)を生成し、当該画像を第1通信部21を介してグラスデバイス10へ送信する機能部である。位置Pdとは、例えば、ディスプレイDPの中央位置である。また、AR情報生成部25は、後述するように、座標変換部28により座標変換された位置Pd1に指示情報を表示する画像(指示画像)を生成し、当該指示画像を第1通信部21を介してグラスデバイス10へ送信する。AR情報生成部25は、例えば
図4に示したCPU601によりネイティブアプリケーション等のプログラムが実行されることによって実現される。
【0099】
位置情報取得部26は、クラウドサーバ30から、第2通信部22を介して、支援者用端末40で遠隔支援者により指定された位置(後述する位置Pc、位置Pc1)の情報を取得する機能部である。位置情報取得部26は、例えば
図4に示したCPU601によりネイティブアプリケーション等のプログラムが実行されることによって実現される。
【0100】
座標変換算出部27は、キャリブレーション時に、位置情報取得部26により取得された、支援者用端末40で遠隔支援者により指定された位置Pc(第2位置)から、既知であるディスプレイDP上の位置Pdに座標変換する座標変換行列T(変換情報の一例)を算出する機能部である。例えば、座標変換算出部27は、周知のアフィン変換またはホモグラフィ変換等による座標変換を行うための座標変換行列Tを算出する。座標変換算出部27は、算出した座標変換行列Tを、記憶部29に記憶させる。
【0101】
なお、座標変換算出部27により座標変換行列Tの算出にあたり、位置Pcと位置Pdとの1の組み合わせから座標変換行列Tを算出するものとしていたが、これに限定されるものではなく、位置Pcと位置Pdとの複数の組み合わせから座標変換行列Tを算出してもよい。ここで、例えば、4つの組み合わせを想定した場合の座標変換行列Tの具体的な算出方法の一例を説明する。この場合、座標変換算出部27は、グラスデバイス10のディスプレイDPに表示された既知である4箇所の位置Pdに表示された4つのポインタDに基づいて、それぞれ支援者用端末40で遠隔支援者により指定された4箇所の位置Pcが得られた場合、これらの4つの位置Pcから4つの位置Pdに変換するためのホモグラフィ変換による座標変換行列Tを算出する。ここで、4つの位置Pcの座標を(x11,y11)、(x12,y12)、(x13,y13)、(x14,y14)とし、4つの位置Pdの座標を(x21,y21)、(x22,y22)、(x23,y23)、(x24,y24)とする。ここで、これらの位置Pcのうち任意の位置Pcの座標を(x1,y1)とし、当該(x1,y1)に対応する位置Pdの座標を(x2,y2)とすると、座標x2および座標y2はそれぞれ下記の式(1)および式(2)で表される。
【0102】
【0103】
【0104】
座標変換算出部27は、上述の4つの位置Pcから4つの位置Pdに変換するための上記の式(1)および式(2)のおける係数hijを、下記の式(3)によって算出する。
【0105】
【0106】
そして、座標変換算出部27は、上記の式(3)で算出した係数hijにより下記の式(4)に示す座標変換行列Tを算出する。
【0107】
【0108】
座標変換算出部27は、例えば
図4に示したCPU601によりネイティブアプリケーション等のプログラムが実行されることによって実現される。
【0109】
座標変換部28は、キャリブレーション後に、位置情報取得部26により取得された、支援者用端末40で遠隔支援者により現場作業を指示するために指定された位置Pc1から、座標変換算出部27により算出された座標変換行列Tを用いて、グラスデバイス10のディスプレイDP上の位置Pd1に座標変換する機能部である。この場合、座標変換部28は、座標変換算出部27により算出された座標変換行列Tについては記憶部29から読み出して使用する。座標変換部28は、例えば
図4に示したCPU601によりネイティブアプリケーション等のプログラムが実行されることによって実現される。
【0110】
記憶部29は、座標変換算出部27により算出された座標変換行列Tを記憶する機能部である。記憶部29は、
図4に示したRAM603またはEEPROM604によって実現される。
【0111】
なお、上述の画像送信部23、音声中継部24、AR情報生成部25、位置情報取得部26、座標変換算出部27および座標変換部28は、ネイティブアプリケーションが実行されることによって実現されることに限定されるものではなく、例えば、クラウドサーバ30上で実行されるWebアプリケーションの機能によって実現されるものとしてもよい。
【0112】
また、画像送信部23、音声中継部24、AR情報生成部25、位置情報取得部26、座標変換算出部27および座標変換部28の機能部の一部または全部は、ソフトウェアであるプログラムではなく、FPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等のハードウェア回路(集積回路)によって実現されてもよい。
【0113】
また、
図7に示す作業者用端末20の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、
図7に示す作業者用端末20で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、
図7に示す作業者用端末20で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
【0114】
<クラウドサーバの機能ブロックの構成および動作>
図7に示すように、クラウドサーバ30は、通信部31と、中継部32と、画像提供部33と、を有する。
【0115】
通信部31は、ネットワークNを介して作業者用端末20および支援者用端末40との間でデータ通信を行う機能部である。通信部31は、
図5に示したネットワークI/F709によって実現される。
【0116】
中継部32は、作業者用端末20と支援者用端末40との間でデータの中継を行う機能部である。例えば、中継部32は、グラスデバイス10の音声取得部14で取得された現場作業者の音声データを、作業者用端末20および通信部31を介して取得し、当該音声データを通信部31を介して支援者用端末40へ送信する。また、中継部32は、グラスデバイス10の撮像部13で撮像された映像データを、作業者用端末20および通信部31を介して取得し、当該映像データを通信部31を介して支援者用端末40へ送信する。また、中継部32は、支援者用端末40の音声取得部42で取得された遠隔支援者の音声データを、通信部31を介して取得し、当該音声データを通信部31を介して作業者用端末20へ送信する。また、中継部32は、支援者用端末40から送信されたキャリブレーション開始信号を、通信部31を介して取得し、当該キャリブレーション開始信号を通信部31を介して作業者用端末20へ送信する。また、中継部32は、支援者用端末40で遠隔支援者により指定された位置Pcおよび位置Pc1の情報を、通信部31を介して受信し、当該情報を通信部31を介して作業者用端末20へ送信する。中継部32は、例えば
図5に示したCPU701によりプログラムが実行されることによって実現される。
【0117】
画像提供部33は、支援者用端末40に対して、Webアプリケーションの実行に伴い、当該Webアプリケーションの機能を提供するための画像を、通信部31を介して支援者用端末40へ提供する機能部である。画像提供部33は、例えば
図5に示したCPU701によりプログラムが実行されることによって実現される。
【0118】
なお、中継部32および画像提供部33の機能部の一部または全部は、ソフトウェアであるプログラムではなく、FPGAまたはASIC等のハードウェア回路(集積回路)によって実現されてもよい。
【0119】
また、
図7に示すクラウドサーバ30の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、
図7に示すクラウドサーバ30で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、
図7に示すクラウドサーバ30で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
【0120】
<支援者用端末の機能ブロックの構成および動作>
図7に示すように、支援者用端末40は、通信部41(第2音声送信部)と、音声取得部42(第2音声取得部)と、音声出力部43(第2音声出力部)と、入力部44と、表示制御部45と、位置取得部46と、を有する。
【0121】
通信部41は、ネットワークNを介してクラウドサーバ30との間でデータ通信を行う機能部である。通信部41は、
図6に示したネットワークI/F811によって実現される。
【0122】
音声取得部42は、遠隔支援者が発する音声を集音して音声データ(第2音声データ)として取得する機能部である。音声取得部42は、
図6に示したマイク814によって実現される。
【0123】
音声出力部43は、音声を出力する機能部である。例えば、音声出力部43は、グラスデバイス10で集音された現場作業者の音声データであって、作業者用端末20およびクラウドサーバ30により中継され、通信部41により受信された音声データを音声出力する。音声出力部43は、
図6に示したスピーカ815によって実現される。
【0124】
入力部44は、遠隔支援者の操作入力を受け付ける機能部である。入力部44は、
図6に示した入力装置808によって実現される。
【0125】
表示制御部45は、ディスプレイ820(表示装置)における各種画像・画面の表示動作を制御する機能部である。例えば、表示制御部45は、ディスプレイ820に表示されるブラウザ画面に、グラスデバイス10の撮像部13により撮像された映像データを表示する。表示制御部45は、例えば
図6に示したCPU801によってブラウザ等のプログラムが実行されることによって実現される。
【0126】
位置取得部46は、キャリブレーション時に、ディスプレイ820に表示されるキャリブレーション用の画面に表示された、グラスデバイス10の撮像部13により撮像された映像データにおいて、遠隔支援者により入力部44を介して指定された位置(後述するポインタCの位置)を位置Pcとして取得する機能部である。また、位置取得部46は、キャリブレーション後に、ディスプレイ820に表示される画面に表示された、グラスデバイス10の撮像部13により撮像された映像データにおいて、遠隔支援者により現場作業を指示するために入力部44を介して指定された位置(後述するポインタCの位置)を位置Pc1として取得する。また、位置取得部46は、取得した位置Pcおよび位置Pc1の位置情報を、通信部41を介してクラウドサーバ30へ送信する。位置取得部46は、例えば
図6に示したCPU801によってブラウザで展開されるWebアプリケーションの機能によって実現される。
【0127】
なお、上述の位置取得部46は、クラウドサーバ30上で実行されるWebアプリケーションの機能によって実現されることに限定されるものではなく、例えば、ネイティブアプリケーションが実行されることによって実現されるものとしてもよい。
【0128】
また、表示制御部45および位置取得部46の機能部の一部または全部は、ソフトウェアであるプログラムではなく、FPGAまたはASIC等のハードウェア回路(集積回路)によって実現されてもよい。
【0129】
また、
図7に示す支援者用端末40の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、
図7に示す支援者用端末40で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、
図7に示す支援者用端末40で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
【0130】
また、上述の
図7に示す各機能部は、当該各機能部が属する装置で機能を発揮することに限定されるものではなく、異なる装置で機能を発揮するものとしてもよい。例えば、遠隔支援システム1におけるキャリブレーション処理および座標変換処理の主要な機能部(例えばAR情報生成部25、位置情報取得部26、座標変換算出部27、座標変換部28および記憶部29等)が、作業者用端末20ではなく例えばクラウドサーバ30に含まれるものとしてもよい。また、例えば、座標変換行列Tを算出する座標変換算出部27、および座標変換行列Tを使用して座標変換を行う座標変換部28は、それぞれ別の装置に備えられるものとしてもよい。したがって、作業者用端末20、クラウドサーバ30および支援者用端末40は、それぞれ「遠隔支援装置」の一例である。
【0131】
(遠隔支援システムのキャリブレーション処理)
図8は、実施形態に係る遠隔支援システムのキャリブレーション処理の流れの一例を示すフローチャートである。
図9は、実施形態に係る遠隔支援システムのキャリブレーション処理において支援者用端末に表示されるキャリブレーション用画面の一例を示す図である。
図10は、実施形態に係る遠隔支援システムのキャリブレーション処理において現場作業者がディスプレイに表示されたポインタをターゲットに合わせる動作を説明する図である。
図8~
図10を参照しながら、本実施形態に係る遠隔支援システム1のキャリブレーション処理の流れについて説明する。
【0132】
<ステップS11>
支援者用端末40を使用する遠隔支援者は、入力部44に対する操作により、表示制御部45に対して、
図9に示すブラウザ画面1000にキャリブレーション用の画面を表示させる。
【0133】
図9に示すブラウザ画面1000に表示されるキャリブレーション用の画面は、映像表示領域1100(第2表示領域の一例)と、開始ボタン1101と、を含む。映像表示領域1100は、グラスデバイス10の撮像部13により撮像された映像データを表示する表示領域である。
図9に示す例では、映像表示領域1100には、撮像部13により撮像された物体が、物体OBJ1として表示されている。開始ボタン1101は、キャリブレーション処理を開始するためのボタンである。
【0134】
遠隔支援者により入力部44を介して開始ボタン1101が押下されると、表示制御部45は、キャリブレーション開始信号を、通信部41を介してクラウドサーバ30へ送信する。また、クラウドサーバ30の中継部32は、支援者用端末40から送信されたキャリブレーション開始信号を、通信部31を介して取得し、当該キャリブレーション開始信号を通信部31を介して作業者用端末20へ送信する。また、作業者用端末20のAR情報生成部25は、クラウドサーバ30から送信されたキャリブレーション開始信号が第2通信部22により受信された場合、
図10(a)に示すように、グラスデバイス10のディスプレイDPにおいて、既知である所定の位置Pd(例えばディスプレイDPの中心位置)にポインタDを表示する画像を生成し、当該画像を第1通信部21を介してグラスデバイス10へ送信する。そして、グラスデバイス10の画像表示部12は、作業者用端末20から通信部11により受信されたポインタDを表示する画像を、
図10(a)に示すように、ディスプレイDPに表示する。
図10(a)に示す例では、映像表示領域1100には、上述の
図9に示した映像表示領域1100が写している物体OBJ1が示す物体と同じ物体を示す物体OBJ2が表示されている。そして、ステップS12へ移行する。
【0135】
<ステップS12>
遠隔支援者および現場作業者は、支援者用端末40の音声取得部42および音声出力部43、ならびにグラスデバイス10の音声取得部14および音声出力部15を介して、互いに音声データの送受信により会話を行うことが可能である。当該音声データの流れについては、
図7で説明した通りである。そして、グラスデバイス10を装着している現場作業者は、遠隔支持者の指示に従って、首振り動作をすることにより、ディスプレイDPに表示されているポインタDを、
図10(b)に示すように、遠隔支持者に支持されたターゲット(例えば物体OBJ2の角部分)に合わせ、その旨を遠隔支援者に連絡する。そして、ステップS13へ移行する。
【0136】
<ステップS13>
遠隔支援者は、現場作業者からポインタDをターゲットに合わせた旨の連絡を受けると、入力部44を介して、
図9に示すキャリブレーション用の画面の映像表示領域1100に表示された、グラスデバイス10の撮像部13により撮像された映像データに重畳して表示されたポインタC(第2指標)を当該ターゲットである物体OBJ1の角部分に合わせてクリック操作を行う。そして、ステップS14へ移行する。
【0137】
<ステップS14>
そして、支援者用端末40の位置取得部46は、映像表示領域1100におけるポインタCの位置を位置Pcとして取得する。表示制御部45は、位置Pcの情報を、通信部41およびクラウドサーバ30を介して、作業者用端末20へ送信する。そして、ステップS15へ移行する。
【0138】
<ステップS15>
作業者用端末20の位置情報取得部26は、クラウドサーバ30から、第2通信部22を介して、支援者用端末40で遠隔支援者により指定された位置Pcの情報を取得する。作業者用端末20の座標変換算出部27は、位置情報取得部26により取得された位置Pcから、既知であるディスプレイDP上の位置Pdに座標変換する座標変換行列Tを算出する。座標変換算出部27は、算出した座標変換行列Tを、記憶部29に記憶させる。
【0139】
以上のステップS11~S15の流れにより、遠隔支援システム1によるキャリブレーション処理が行われる。このように、本実施形態に係る遠隔支援システム1では、従来技術のようにキャリブレーションを行うために撮像するグレイコード画像等のような画像を用意する必要がなく、かつ、当該画像を撮像するための撮像装置を別途に準備する必要がない。
【0140】
(遠隔支援システムの遠隔指示処理)
図11は、実施形態に係る遠隔支援システムの遠隔指示処理の流れの一例を示すフローチャートである。
図11を参照しながら、本実施形態に係る遠隔支援システム1の遠隔指示処理の流れについて説明する。なお、遠隔指示処理が実行される前に、既に上述のキャリブレーション処理が完了しているものとする。
【0141】
<ステップS21>
支援者用端末40を使用する遠隔支援者は、入力部44に対する操作により、表示制御部45に対して、現場作業者に対して指示を行うための画面を表示させる。なお、現場作業者を支援するための画面は、上述の
図9に示したブラウザ画面1000のように、グラスデバイス10の映像データを表示する映像表示領域1100を含む画面に準じるものであればよい。そして、遠隔支援者は、入力部44を介して、当該画面に表示されているグラスデバイス10の撮像部13により撮像された映像データにおいて、ポインタを、作業指示のターゲットとなる部分(作業指示部分)に合わせてクリック操作を行う。そして、支援者用端末40の位置取得部46は、当該ポインタの位置を位置Pc1(第3位置)として取得する。表示制御部45は、位置Pc1の情報を、通信部41およびクラウドサーバ30を介して、作業者用端末20へ送信する。そして、ステップS22へ移行する。
【0142】
<ステップS22>
作業者用端末20の位置情報取得部26は、クラウドサーバ30から、第2通信部22を介して、支援者用端末40で遠隔支援者により指定された位置Pc1の情報を取得する。そして、作業者用端末20の座標変換部28は、座標変換算出部27により算出された座標変換行列Tを記憶部29から読み出す。そして、ステップS23へ移行する。
【0143】
<ステップS23>
そして、座標変換部28は、位置情報取得部26により取得された位置Pc1から、座標変換算出部27により算出された座標変換行列Tを用いて、グラスデバイス10のディスプレイDP上の座標を示す位置Pd1(第4位置)に座標変換する。そして、ステップS24へ移行する。
【0144】
<ステップS24>
作業者用端末20のAR情報生成部25は、座標変換部28により座標変換された位置Pd1に指示情報(例えばポインタ等の図形)を表示する指示画像を生成し、当該指示画像を第1通信部21を介してグラスデバイス10へ送信する。そして、ステップS25へ移行する。
【0145】
<ステップS25>
グラスデバイス10の画像表示部12は、作業者用端末20から通信部11により受信された指示画像を、ディスプレイDPに表示させる。これによって、グラスデバイス10を装着した現場作業者は、遠隔支援者が意図するターゲットを認識することができる。そして、遠隔支援者は、現場作業者に対して、指示情報によって示す物体等のターゲットに対する作業指示を行う。
【0146】
以上のステップS21~S25の流れにより、遠隔支援システム1による遠隔指示処理が行われる。
【0147】
以上のように、本実施形態に係る遠隔支援システム1では、AR情報生成部25は、作業者用端末20を利用する現場作業者が装着するグラスデバイス10のディスプレイDPにおける位置PdにポインタDを表示する画像を生成して、当該画像をグラスデバイス10に送信し、画像送信部23は、グラスデバイス10に搭載されたカメラ307により撮像された映像データを、遠隔支援者が利用する支援者用端末40のディスプレイ820のブラウザ画面1000の映像表示領域1100に表示させるために送信し、位置情報取得部26は、現場作業者によりポインタDを所定のターゲットに合わせたときに、遠隔支援者が支援者用端末40に対する操作により、映像データが表示された映像表示領域1100におけるターゲットに対応する部分をポインタCで指定したことにより、ポインタCの当該映像表示領域1100における位置Pcを取得し、座標変換算出部27は、位置Pcから位置Pdに座標変換するための座標変換行列Tを算出するものとしている。これによって、簡便にキャリブレーションを行うことができる。
【0148】
また、本実施形態に係る遠隔支援システム1では、グラスデバイス10は、現場作業者の音声データを取得する音声取得部14と、音声取得部14により取得された音声データを送信する通信部11と、を備え、支援者用端末40は、通信部11により送信された音声データを音声出力する音声出力部43と、遠隔支援者の音声データを取得する音声取得部42と、音声取得部42により取得された音声データを送信する通信部41と、を備え、グラスデバイス10は、通信部41により送信された音声データを音声出力する音声出力部15を、さらに備えるものとしている。これによって、遠隔支援者と現場作業者とは音声によるコミュニケーションをとることができ、キャリブレーションによるポインタDの位置合わせのタイミング、およびキャリブレーション後の作業指示のやりとり等を行うことが可能となる。
【0149】
また、本実施形態に係る遠隔支援システム1では、カメラ307は、奥行の情報を含む映像データを撮像する構成とすることも可能である。これによって、位置Pdの位置として三次元情報を取得することが可能となり、奥行きが異なる位置合わせにも対応可能となる。
【0150】
なお、上述の実施形態において、作業者用端末20、クラウドサーバ30および支援者用端末40の機能の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、上述の実施形態において、作業者用端末20、クラウドサーバ30および支援者用端末40で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD-R(Compact Disk-Recordable)、またはDVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の実施形態において、作業者用端末20、クラウドサーバ30および支援者用端末40で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態において、作業者用端末20、クラウドサーバ30および支援者用端末40で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述の実施形態において、作業者用端末20、クラウドサーバ30および支援者用端末40で実行されるプログラムは、上述した各機能部のうち少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述の記憶装置からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置上にロードされて生成されるようになっている。
【0151】
本発明の態様は、以下の通りである。
<1>頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、該第1画像を前記頭部装着型表示装置に送信する生成部と、
前記頭部装着型表示装置に搭載された撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する送信部と、
被支援者により前記第1指標を所定のターゲットに合わせたときに、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域における前記ターゲットに対応する部分を第2指標で指定したことにより、前記第2指標の該第2表示領域における第2位置を取得する取得部と、
前記第2位置から前記第1位置に座標変換するための変換情報を算出する算出部と、
を有する遠隔支援システムである。
<2>前記算出部は、前記第2位置から前記第1位置に座標変換するための座標変換行列を、前記変換情報として算出する前記<1>に記載の遠隔支援システムである。
<3>前記取得部は、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域において、作業指示部分を指定したとき、前記第2表示領域における該作業指示部分の第3位置を取得し、
前記取得部により取得された前記第3位置から、前記算出部により算出された前記変換情報を用いて、前記頭部装着型表示装置の前記第1表示領域上の座標を示す第4位置に座標変換する変換部を、さらに備え、
前記生成部は、前記第1表示領域に表示させるための、該第1表示領域における前記第4位置に指示情報を表示する第2画像を生成して、該第2画像を前記頭部装着型表示装置に送信する前記<1>または<2>に記載の遠隔支援システムである。
<4>前記頭部装着型表示装置は、
前記被支援者の第1音声データを取得する第1音声取得部と、
前記第1音声取得部により取得された前記第1音声データを送信する第1音声送信部と、
を備え、
前記端末は、
前記第1音声送信部により送信された前記第1音声データを音声出力する第1音声出力部と、
前記支援者の第2音声データを取得する第2音声取得部と、
前記第2音声取得部により取得された前記第2音声データを送信する第2音声送信部と、
を備え、
前記頭部装着型表示装置は、前記第2音声送信部により送信された前記第2音声データを音声出力する第2音声出力部を、さらに備えた前記<1>~<3>のいずれか一項に記載の遠隔支援システムである。
<5>前記撮像装置は、奥行の情報を含む前記映像データを撮像する前記<1>~<4>のいずれか一項に記載の遠隔支援システムである。
<6>頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、該第1画像を前記頭部装着型表示装置に送信する生成部と、
前記頭部装着型表示装置に搭載された撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する送信部と、
被支援者により前記第1指標を所定のターゲットに合わせたときに、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域における前記ターゲットに対応する部分を第2指標で指定したことにより、前記第2指標の該第2表示領域における第2位置を取得する取得部と、
前記第2位置から前記第1位置に座標変換するための変換情報を算出する算出部と、
を備えた遠隔支援装置である。
<7>頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、該第1画像を前記頭部装着型表示装置に送信する生成ステップと、
前記頭部装着型表示装置に搭載された撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する送信ステップと、
被支援者により前記第1指標を所定のターゲットに合わせたときに、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域における前記ターゲットに対応する部分を第2指標で指定したことにより、前記第2指標の該第2表示領域における第2位置を取得する取得ステップと、
前記第2位置から前記第1位置に座標変換するための変換情報を算出する算出ステップと、
を有する遠隔支援方法である。
<8>コンピュータに、
頭部装着型表示装置の第1表示領域における第1位置に第1指標を表示する第1画像を生成して、該第1画像を前記頭部装着型表示装置に送信する生成ステップと、
前記頭部装着型表示装置に搭載された撮像装置により撮像された映像データを、支援者が利用する端末の表示装置の第2表示領域に表示させるために送信する送信ステップと、
被支援者により前記第1指標を所定のターゲットに合わせたときに、前記支援者が前記端末に対する操作により、前記映像データが表示された前記第2表示領域における前記ターゲットに対応する部分を第2指標で指定したことにより、前記第2指標の該第2表示領域における第2位置を取得する取得ステップと、
前記第2位置から前記第1位置に座標変換するための変換情報を算出する算出ステップと、
を実行させるためのプログラムである。
【符号の説明】
【0152】
1 遠隔支援システム
10 グラスデバイス
11 通信部
12 画像表示部
13 撮像部
14 音声取得部
15 音声出力部
20 作業者用端末
21 第1通信部
22 第2通信部
23 画像送信部
24 音声中継部
25 AR情報生成部
26 位置情報取得部
27 座標変換算出部
28 座標変換部
29 記憶部
30 クラウドサーバ
31 通信部
32 中継部
33 画像提供部
40 支援者用端末
41 通信部
42 音声取得部
43 音声出力部
44 入力部
45 表示制御部
46 位置取得部
100、100a、100b 導光部材
101、101a、101b 反射部
102、102a、102b 導光部
103、103a、103b 取り出し部
104、104a、104b 射出部
105 ブリッジ
200、200a、200b 筐体フレーム
201、201a、201b 中継光学系
300、300a、300b 表示部
301、301a、301b 画像表示素子
302、302a、302b 制御基板
303 駆動IC
304 メモリ
305 電源回路
306 バッテリ
307 カメラ
308 マイク
309、309a、309b スピーカ
310、310a、310b 筐体
311 入出力I/F
312 通信I/F
400、400a、400b テンプル
500、500a、500b 眼
601 CPU
602 ROM
603 RAM
604 EEPROM
605 撮像部
606 撮像I/F
607 加速度・方位センサ
608 GPS受信部
609 バスライン
610 遠距離通信回路
610a アンテナ
611 近距離通信回路
611a アンテナ
612 マイク
613 スピーカ
614 音入出力I/F
615 ディスプレイ
616 外部機器接続I/F
617 バイブレータ
618 タッチパネル
701 CPU
702 ROM
703 RAM
704 HD
705 HDDコントローラ
706 ディスプレイ
708 外部機器接続I/F
709 ネットワークI/F
710 バスライン
711 キーボード
712 ポインティングデバイス
713 DVD
714 DVD-RWドライブ
715 メディア
716 メディアI/F
801 CPU
802 ROM
803 RAM
805 補助記憶装置
808 入力装置
810 バスライン
811 ネットワークI/F
814 マイク
815 スピーカ
816 音声入出力I/F
819 ディスプレイI/F
820 ディスプレイ
1000 ブラウザ画面
1100 映像表示領域
1101 開始ボタン
C、D ポインタ
DP ディスプレイ
N ネットワーク
OBJ1、OBJ2 物体
Pc、Pc1、Pd、Pd1 位置
T 座標変換行列
【先行技術文献】
【特許文献】
【0153】