IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 三菱重工業株式会社の特許一覧 ▶ サン電子株式会社の特許一覧

<>
  • 特許-拡張現実表示システム 図1
  • 特許-拡張現実表示システム 図2
  • 特許-拡張現実表示システム 図3
  • 特許-拡張現実表示システム 図4
  • 特許-拡張現実表示システム 図5
  • 特許-拡張現実表示システム 図6
  • 特許-拡張現実表示システム 図7
  • 特許-拡張現実表示システム 図8
  • 特許-拡張現実表示システム 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-02
(45)【発行日】2024-08-13
(54)【発明の名称】拡張現実表示システム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20240805BHJP
   G06F 3/01 20060101ALI20240805BHJP
   G06F 3/04815 20220101ALI20240805BHJP
【FI】
G06T19/00 600
G06F3/01 510
G06F3/04815
【請求項の数】 6
(21)【出願番号】P 2020033105
(22)【出願日】2020-02-28
(65)【公開番号】P2021135878
(43)【公開日】2021-09-13
【審査請求日】2023-02-06
(73)【特許権者】
【識別番号】000006208
【氏名又は名称】三菱重工業株式会社
(73)【特許権者】
【識別番号】000106690
【氏名又は名称】サン電子株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】山▲崎▼ 慎介
(72)【発明者】
【氏名】長尾 哲史
(72)【発明者】
【氏名】鳥本 和孝
(72)【発明者】
【氏名】松久 昌和
(72)【発明者】
【氏名】伊奈 正倫
(72)【発明者】
【氏名】熊谷 貴士
(72)【発明者】
【氏名】梅田 有生
【審査官】渡部 幸和
(56)【参考文献】
【文献】国際公開第2016/203792(WO,A1)
【文献】特開2014-093034(JP,A)
【文献】特開2014-071850(JP,A)
【文献】特開2016-218597(JP,A)
【文献】特開2004-046730(JP,A)
【文献】特開2006-279136(JP,A)
【文献】特開2016-4292(JP,A)
【文献】柴田 直樹,外1名,SumiTag:あまり目立たないARマーカーとGPGPUを利用した読み取り方法,情報処理学会研究報告 2011(平成23)年度▲4▼ [CD-ROM] ,日本,一般社団法人情報処理学会,2011年,Vol.2011-DPS-149, No.7,p.1-9
【文献】Ryuhei Tenmoku,外4名,Visually Elegant and Robust Semi-Fiducials for Geometric Registration in Mixed Reality,2007 6th IEEE and ACM International Symposium on Mixed and Augmented Reality,IEEE,2007年,p.261-262,https://ieeexplore.ieee.org/document/4538857
【文献】Daniel Wagner,外2名,Robust and unobtrusive marker tracking on mobile phones,2008 7th IEEE/ACM International Symposium on Mixed and Augmented Reality,IEEE,2008年,p.121-124,https://ieeexplore.ieee.org/abstract/document/4637337
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
G06F 3/01
G06F 3/04815
(57)【特許請求の範囲】
【請求項1】
現実空間にコンテンツを重ねて表示することで、前記現実空間を仮想的に拡張する拡張現実表示システムにおいて、
第1の識別マークが付されたバーチャルディスプレイと、
前記現実空間を撮像する撮像部と、
前記現実空間に重ねて前記コンテンツを表示する表示部と、
前記表示部への前記コンテンツの表示に関する表示制御を実行する制御部と、を備え、
前記制御部は、
前記撮像部により前記第1の識別マークが撮像されて、前記第1の識別マークを認識すると、前記バーチャルディスプレイの前記現実空間における位置に対応する前記表示部の表示領域に、前記コンテンツを表示しており、
前記現実空間は、作業者により作業が行われる作業空間を含み、
前記作業空間には、第2の識別マークが付されており、
前記制御部は、
前記撮像部により前記第2の識別マークが撮像されて、前記第2の識別マークを認識すると、前記作業空間の位置に応じた前記表示部の表示領域を、前記作業空間を視認可能な可視領域として設定し、
前記可視領域に応じた前記作業空間の位置において、前記第1の識別マークを認識すると、前記バーチャルディスプレイの位置に対応する前記表示部の前記可視領域に、前記コンテンツを表示する拡張現実表示システム。
【請求項2】
前記コンテンツは、3次元モデルを含み、
前記制御部は、前記第1の識別マークの形状に基づいて、前記バーチャルディスプレイの傾きを算出し、算出した前記バーチャルディスプレイの傾きに応じて、前記コンテンツを傾けて表示する請求項1に記載の拡張現実表示システム。
【請求項3】
前記バーチャルディスプレイは、
シート状の本体部と、
前記本体部の縁に沿って枠状に形成される前記第1の識別マークと、を有する請求項1または2に記載の拡張現実表示システム。
【請求項4】
作業者に付された識別情報を取得する識別情報取得部と、
前記識別情報と前記コンテンツとを関連付けて記憶するコンテンツ記憶部と、をさらに備え、
前記制御部は、
前記識別情報取得部により取得した前記識別情報に基づいて、前記コンテンツ記憶部から前記コンテンツを取得し、取得した前記コンテンツを前記表示部に表示する請求項1からのいずれか1項に記載の拡張現実表示システム。
【請求項5】
前記コンテンツは、作業者の作業工程に関するコンテンツであり、
前記制御部は、
前記コンテンツに基づく前記作業者の前記作業工程が実行されたか否かを判定し、前記作業工程が実行されたと判定した場合、前記作業工程が完了したと判定する請求項1からのいずれか1項に記載の拡張現実表示システム。
【請求項6】
前記作業者の前記作業工程に関する作業報告書を記憶する作業報告書記憶部を、さらに備え、
前記制御部は、
前記作業者の前記作業工程に関する作業内容を時系列に沿って取得して前記作業報告書を生成し、生成した前記作業報告書を前記作業報告書記憶部に記憶する請求項に記載の拡張現実表示システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、拡張現実表示システムに関するものである。
【背景技術】
【0002】
従来、3次元物体のモデルデータであるARコンテンツを、撮像装置の一例であるカメラにより撮像された撮像画像に重ねて表示させるAR技術が知られている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2014-215646号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、AR技術を作業現場において用いることが考えられている。特許文献1のAR技術を用いる場合、表示部上に、ARコンテンツとしての作業マニュアルを表示することが考えられる。しかしながら、表示部上に作業マニュアルを表示する場合、作業者は、作業マニュアルの表示に関する操作に慣れていないことから、操作を習熟するまでに時間を要し、作業効率の向上化を図ることが難しいものとなっている。
【0005】
そこで、本開示は、作業者に対して、直感的な操作を促すことができるユーザフレンドリーな拡張現実表示システムを提供することを課題とする。
【課題を解決するための手段】
【0006】
本開示の拡張現実表示システムは、現実空間にコンテンツを重ねて表示することで、前記現実空間を仮想的に拡張する拡張現実表示システムにおいて、第1の識別マークが付されたバーチャルディスプレイと、前記現実空間を撮像する撮像部と、前記現実空間に重ねて前記コンテンツを表示する表示部と、前記表示部への前記コンテンツの表示に関する表示制御を実行する制御部と、を備え、前記制御部は、前記撮像部により前記第1の識別マークが撮像されて、前記第1の識別マークを認識すると、前記バーチャルディスプレイの前記現実空間における位置に対応する前記表示部の表示領域に、前記コンテンツを表示する。
【発明の効果】
【0007】
本開示によれば、作業者に対して、直感的な操作を促すことができるユーザフレンドリーなものとすることができる。
【図面の簡単な説明】
【0008】
図1図1は、本実施形態に係る拡張現実表示システムを模式的に示す概略構成図である。
図2図2は、本実施形態に係る拡張現実表示システムを機能的に示す概略構成図である。
図3図3は、ARデバイスの表示部に関する一例の説明図である。
図4図4は、バーチャルディスプレイを用いたARデバイスの表示部に関する一例の説明図である。
図5図5は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。
図6図6は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。
図7図7は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。
図8図8は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。
図9図9は、本実施形態に係る拡張現実表示システムの作業報告書の生成に関する一例のフローチャートである。
【発明を実施するための形態】
【0009】
以下に、本開示に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能であり、また、実施形態が複数ある場合には、各実施形態を組み合わせることも可能である。
【0010】
[本実施形態]
本実施形態に係る拡張現実表示システム1は、現実空間となる作業空間E1において、作業者が作業対象物16に対して各種作業を実施するときに用いられるシステムである。この拡張現実表示システム1は、作業者に対して各種情報を提供したり、作業内容を記録したりすることで、作業者を支援するシステムとなっている。拡張現実表示システム1は、作業空間E1に対して、コンテンツを重ねて表示するAR(Augmented Reality:拡張現実)技術を用いている。
【0011】
(拡張現実表示システム)
図1は、実施形態に係る拡張現実表示システムを模式的に示す概略構成図である。図2は、本実施形態に係る拡張現実表示システムを機能的に示す概略構成図である。図1及び図2に示すように、拡張現実表示システム1は、バーチャルディスプレイ10と、ARデバイス11と、サーバ12とを備えており、ARデバイス11とサーバ12とは、双方向に通信可能なネットワーク15を介して接続されている。なお、本実施形態の拡張現実表示システム1は、サーバ12を含むシステム構成としたが、サーバ12の機能をARデバイス11に統合して、サーバ12を省いたシステム構成としてもよい。
【0012】
バーチャルディスプレイ10は、シート状の本体部18と、本体部18に付された第1の識別マークM1とを有している。本体部18は、例えば、紙等を用いた方形状のシートであり、ラミネート加工されたものとなっている。第1の識別マークM1は、本体部18の縁に沿って、四方枠状に形成されており、例えば、印刷によってマーキングされたものとなっている。このため、バーチャルディスプレイ10の中央が物で遮られる場合であっても、第1の識別マークM1の認識を行うことが可能となる。第1の識別マークM1には、バーチャルディスプレイ10を特定するためのディスプレイID情報が含まれている。また、詳細は後述するが、第1の識別マークM1は、認識される形状に基づいて本体部18の傾きを導出するためのマークとなっている。なお、本実施形態では、シート状のバーチャルディスプレイ10について説明したが、バーチャルディスプレイ10は、従来の現実のマニュアルのように、複数のシートを見開き可能に束ねた冊子状になっていてもよい。これによれば、1シートのバーチャルディスプレイ10が散在せずに、まとめて管理することができる。また、冊子状のバーチャルディスプレイ10は、従来の現実のマニュアルと異なり、改訂した場合に改訂したページのコンテンツを差し替えることができる。さらに、複数人でコンテンツを見る場合には、ホワイトボードのような大型のボード形状となるバーチャルディスプレイ10としてもよい。
【0013】
ARデバイス11は、例えば、ARグラスであり、透明な表示レンズ上に、コンテンツを表示するデバイスであってもよいし、人の網膜に画像を投影するデバイスであってもよく、特に限定されない。また、表示レンズは透明であることから、ARデバイス11は、表示レンズを介して作業空間E1を視認することが可能なデバイスとなっている。このARデバイス11は、作業者に装着され、作業者は、ARデバイス11を介して、作業空間E1を視認する。
【0014】
ARデバイス11は、表示部21と、撮像部22と、赤外線センサ23と、ID認識部(識別情報取得部)24と、制御部25と、記憶部26とを有している。
【0015】
表示部21は、例えば、表示レンズと、表示レンズに画像を投影するプロジェクタとを含んでいる。表示部21は、表示レンズ上にプロジェクタから画像を投影することで、作業者に対して画像を表示している。画像としては、例えば、作業者に対して提供される作業マニュアルまたは三次元モデル等のコンテンツC(図4参照)である。なお、表示部21は、作業者に対して画像を表示可能なものであればよく、作業者の目に直接画像を投影するプロジェクタを用いることで、表示レンズを省いた構成であってもよい。
【0016】
撮像部22は、例えば、カメラであり、作業者の視野を含む範囲を撮像する。撮像部22は、制御部25に接続されており、制御部25へ向けて撮像した画像の画像データを出力する。
【0017】
赤外線センサ23は、作業者の操作を検知するものである。なお、赤外線センサ23に特に限定されず、作業者の操作を検知するものであれば、いずれのデバイスを適用してもよい。作業者は、表示部21に表示されたコンテンツCに対する操作を現実空間において行う。操作としては、例えば、スワイプ等のジェスチャである。赤外線センサ23は、制御部25に接続されており、制御部25へ向けて、検知した操作に関する操作データを出力する。なお、赤外線センサ23は、作業者の視野(撮像部22の視野)において、バーチャルディスプレイ10と重なる位置で作業者が操作した場合に、操作が有効であるとして検知するようにしてもよい。
【0018】
ID認識部24は、作業者に与えられたID情報(識別情報)D1を認識するものである。作業者には、作業者を識別するための固有のID情報D1が与えられている。ID情報D1は、例えば、ID情報D1が記録されたタグであってもよいし、作業者が記憶している記号であってもよく、特に限定されない。ID認識部24は、作業者から入力されるID情報D1を取得する。ID認識部24は、制御部25に接続されており、制御部25へ向けて、取得したID情報D1を出力する。
【0019】
記憶部26は、制御部25の処理結果を一時的に記憶する作業領域として利用される。記憶部26は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含む。また、記憶部26は、各種プログラム及び各種データを記憶している。例えば、記憶部26は、各種プログラムとして、表示部21の表示制御に関するプログラムが記憶されている。また、記憶部26は、各種データとして、サーバ12から提供されるコンテンツCを記憶している。
【0020】
制御部25は、例えば、CPU(Central Processing Unit)等の集積回路を含んでいる。具体的に、制御部25は、記憶部26に記憶されているプログラムに含まれる命令を実行することによって各種機能を実現する。制御部25は、例えば、表示制御に関するプログラムを実行することにより、表示部21にコンテンツCを表示する。
【0021】
サーバ12は、ネットワーク15を介してARデバイス11にコンテンツCを提供したり、ARデバイス11で取得した各種データを取得したりする。サーバ12は、処理部31と、コンテンツ記憶部32と、作業報告書記憶部33とを有している。
【0022】
コンテンツ記憶部32は、コンテンツCを記憶している。コンテンツCは、ID情報D1と対応付けられて記憶されており、作業者には、予め設定されたコンテンツCが提供される。コンテンツCとしては、例えば、作業者に対して作業工程及び作業手順に関する情報である作業マニュアル等である。
【0023】
作業報告書記憶部33は、ARデバイス11により生成された作業報告書、またはARデバイス11から取得した情報に基づいてサーバ12により生成された作業報告書を記憶している。作業報告書は、作業者の作業工程に関する作業内容を時系列に沿って取得したものである。作業報告書には、例えば、作業対象物16に関する情報、作業結果、作業日時等が記録される。
【0024】
上記の拡張現実表示システム1が用いられる作業空間E1には、図1及び図2に示すように、作業対象物16に対して、第2の識別マークM2が付されている。第2の識別マークM2には、作業対象物16に関する情報が含まれている。作業対象物16に関する情報としては、例えば、作業対象物16を特定するための情報を含む。また、詳細は後述するが、第2の識別マークM2は、作業対象物16の作業空間E1における位置及び範囲を特定するための情報を含んでもよい。ARデバイス11は、第2の識別マークM2を識別することで、作業対象物16の作業空間E1における位置及び範囲を取得する。
【0025】
このように、拡張現実表示システム1は、バーチャルディスプレイ10に付された第1の識別マークM1を識別することで、第1の識別マークM1に基づく表示制御を行ったり、作業対象物16に付された第2の識別マークM2を識別することで、第2の識別マークM2に基づく表示制御を行ったりする。
【0026】
次に、図3を参照して、拡張現実表示システム1において、ARデバイス11の表示部21における表示制御の一例について説明する。図3は、ARデバイスの表示部に関する一例の説明図である。
【0027】
拡張現実表示システム1において、ARデバイス11の制御部25は、撮像部22により作業空間E1の作業対象物16に付された第2の識別マークM2を撮像すると、画像認識によって第2の識別マークM2を識別する。制御部25は、第2の識別マークM2を識別すると、第2の識別マークM2に含まれる情報に基づいて、作業空間E1における作業対象物16の位置及び範囲を取得する。
【0028】
制御部25は、作業空間E1における作業対象物16の位置及び範囲を取得すると、作業空間E1内における作業対象物16の位置及び範囲に基づいて、表示部21上における作業空間E1の位置を取得し、表示部21上の表示領域E2と、表示部21上の作業空間E1とが重なっているか否かを判定する。制御部25は、表示領域E2と作業空間E1とが重なっていると判定すると、作業空間E1と重なった表示領域E2を、作業空間E1を視認可能な可視領域E2aとして設定する(ステップS1)。可視領域E2aは、作業対象物16への作業を行うために、コンテンツCの表示を抑制し、視認性を確保する領域となっている。
【0029】
また、制御部25は、可視領域E2aの外側の表示領域E2に、各種情報を表示している。作業者は、可視領域E2aの外側の表示領域E2を視認する場合、作業空間E1に対する表示部21の位置を変化させる。例えば、作業者は、作業空間E1に対してARデバイス11を図3の左側に移動させると、可視領域E2aの左側の表示領域E2が広がる(ステップS2)。制御部25は、可視領域E2aの左側の表示領域E2に、コンテンツCとして作業対象物16に関する提供情報D2を表示する。提供情報D2としては、例えば、作業工程の手順等に関する情報である。
【0030】
また、例えば、作業者は、作業空間E1に対してARデバイス11を図3の右側に移動させると、可視領域E2aの右側の表示領域E2が広がる(ステップS3)。制御部25は、可視領域E2aの右側の表示領域E2に、コンテンツCとして、作業対象物16の作業工程をチェックするためのチェック情報D3を表示する。チェック情報D3としては、例えば、作業工程が完了した場合に、作業工程が終了したことを入力するための情報である。
【0031】
次に、図4を参照して、拡張現実表示システム1において、ARデバイス11の表示部21における表示制御の一例について説明する。図4は、バーチャルディスプレイを用いたARデバイスの表示部に関する一例の説明図である。
【0032】
拡張現実表示システム1において、ARデバイス11の制御部25は、撮像部22によりバーチャルディスプレイ10に付された第1の識別マークM1を撮像すると、画像認識によって第1の識別マークM1を識別する。制御部25は、第1の識別マークM1を識別すると、第1の識別マークM1に含まれる情報に基づいて、バーチャルディスプレイ10を特定する。ARデバイス11の制御部25は、バーチャルディスプレイ10を特定すると、第1の識別マークM1の枠内に、コンテンツCを表示する。コンテンツCとしては、例えば、作業マニュアルまたは三次元モデル等である。また、ARデバイス11の制御部25は、識別した第1の識別マークM1の形状に基づいて、バーチャルディスプレイ10の本体部18の傾きを算出し、本体部18の傾きに応じてコンテンツCを傾けて、バーチャルディスプレイ10の第1の識別マークM1の枠内に収まるように、表示部21に表示する。
【0033】
なお、制御部25は、表示部21の可視領域E2a内に対応する作業空間E1おいて、第1の識別マークM1を認識した場合、表示部21の可視領域E2a内に、コンテンツCを表示する。
【0034】
次に、図5から図8を参照して、拡張現実表示システム1の表示に関する一例の表示制御について説明する。図5から図8は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。
【0035】
図5は、作業者に対応するコンテンツCを、拡張現実表示システム1の表示部21に表示するフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、ID認識部24により作業者のID情報D1を認識して取得する(ステップS11)。制御部25は、取得したID情報D1に基づき、ネットワーク15を介してサーバ12のコンテンツ記憶部32から、ID情報D1に関連付けられたコンテンツCを取得する(ステップS12)。そして、制御部25は、取得したコンテンツCを表示部21に表示する(ステップS13)。
【0036】
図6は、作業者のジェスチャに応じて、コンテンツCの表示を切り替えるフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、表示部21にコンテンツCを表示した状態において、赤外線センサ23により作業者のジェスチャ(操作)を検出する(ステップS21)。すると、制御部25は、検出した作業者のジェスチャに応じて、コンテンツCの表示を切り替える(ステップS22)。例えば、コンテンツCとして、複数頁からなる作業マニュアルである場合、作業者は、スワイプ操作を行うことにより、制御部25は、作業マニュアルの頁送りに関する表示を行う。なお、制御部25は、検出されたジェスチャが、作業者の視野においてバーチャルディスプレイ10の表示範囲での動作か否かを判断して、コンテンツ操作に反映することとしてもよい。
【0037】
図7は、図4に示すバーチャルディスプレイを用いたARデバイス11の表示部21における表示制御のフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、バーチャルディスプレイ10に付された第1の識別マークM1を識別する(ステップS31)。制御部25は、第1の識別マークM1を識別すると、識別した第1の識別マークM1の形状に基づいて、バーチャルディスプレイ10の本体部18の傾きを算出して取得する(ステップS32)。この後、制御部25は、本体部18の傾きに応じた表示形態となるように、第1の識別マークM1に対応するコンテンツCを表示する(ステップS33)。なお、傾きに応じた表示形態としては、コンテンツCを傾けて表示する形態であったり、コンテンツCを回転させて表示する形態であったりする。
【0038】
図8は、図3に示すARデバイス11の表示部21における表示制御のフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、作業空間E1の作業対象物16に付された第2の識別マークM2を識別する(ステップS41)。制御部25は、第2の識別マークM2を識別すると、第2の識別マークM2に含まれる作業対象物16の位置及び範囲の情報に基づいて、表示部21上における作業空間E1の位置を取得し、表示部21上の表示領域E2と、表示部21上の作業空間E1とが重なっているか否かを判定する(ステップS42)。制御部25は、表示領域E2と作業空間E1とが重なっていると判定する(ステップS42:Yes)と、作業空間E1と重なっている表示部21の表示領域E2を可視領域E2aとして設定する(ステップS43)。一方で、制御部25は、表示領域E2と作業空間E1とが重なっていないと判定する(ステップS42:No)と、後述するステップS46に進む。
【0039】
制御部25は、ステップS43の実行後、可視領域E2a以外の表示領域E2に、提供情報D2またはチェック情報D3を表示可能であるか否かを判定する(ステップS44)。具体的に、ステップS44では、可視領域E2a以外の表示領域E2が、提供情報D2またはチェック情報D3を表示可能な領域の広さとなっているか否かにより判定している。制御部25は、提供情報D2またはチェック情報D3を表示可能であると判定する(ステップS44:Yes)と、提供情報D2またはチェック情報D3を表示する(ステップS45)。一方で、制御部25は、提供情報D2またはチェック情報D3を表示可能でないと判定する(ステップS44:No)と、後述するステップS46に進む。
【0040】
制御部25は、ステップS45の実行後、バーチャルディスプレイ10に付された第1の識別マークM1を識別する(ステップS46)と、ステップS43において可視領域E2aを設定したか否かを判定する(ステップS47)。制御部25は、可視領域E2aを設定していると判定する(ステップS47:Yes)と、第1の識別マークM1に対応するコンテンツCを、可視領域E2aを含む表示領域E2に表示する(ステップS48)。つまり、制御部25は、可視領域E2aを設定している場合であっても、コンテンツCを優先して表示する。一方で、制御部25は、可視領域E2aを設定していないと判定する(ステップS47:No)と、第1の識別マークM1に対応するコンテンツCを、表示領域E2に表示する(ステップS49)。制御部25は、ステップS48及びステップS49の実行後、図8に示す制御を終了する。
【0041】
次に、図9を参照して、拡張現実表示システム1による作業報告書の生成に関する処理について説明する。図9は、本実施形態に係る拡張現実表示システムの作業報告書の生成に関する一例のフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、コンテンツCに基づく作業工程が実行されたか否かを判定する(ステップS51)。ステップS51において、制御部25は、例えば、図3に示すチェック情報D3に基づいて、作業工程が完了したか否かを判定してもよい。
【0042】
制御部25は、作業工程が完了したと判定する(ステップS52:Yes)と、完了した作業工程に関する作業内容を時系列に沿って取得して、作業報告書を自動で生成する(ステップS53)。そして、制御部25は、生成した作業報告書を、ネットワーク15を介してサーバ12の作業報告書記憶部33に記憶する(ステップS54)。ステップS54の実行後、制御部25は、作業報告書の生成に関する処理を終了する。
【0043】
一方で、制御部25は、作業工程が完了していないと判定する(ステップS52:No)と、作業途中の作業内容を記憶部26に記憶し、再び、ステップS51に進んで、作業工程が完了したか否かを判定する。
【0044】
なお、本実施形態では、作業報告書の生成を、ARデバイス11の制御部25において実行したが、サーバ12の処理部31において作業報告書の生成を実行してもよく、特に限定されない。
【0045】
以上のように、本実施形態に記載の拡張現実表示システム1は、例えば、以下のように把握される。
【0046】
第1の態様に係る拡張現実表示システム1は、現実空間にコンテンツを重ねて表示することで、前記現実空間を仮想的に拡張する拡張現実表示システム1において、第1の識別マークM1が付されたバーチャルディスプレイ10と、前記現実空間を撮像する撮像部22と、前記現実空間に重ねて前記コンテンツCを表示する表示部21と、前記表示部21への前記コンテンツCの表示に関する表示制御を実行する制御部25と、を備え、前記制御部25は、前記撮像部22により前記第1の識別マークM1が撮像されて、前記第1の識別マークM1を認識すると、前記バーチャルディスプレイ10の前記現実空間における位置に対応する前記表示部21の表示領域に、前記コンテンツCを表示する。
【0047】
この構成によれば、バーチャルディスプレイ10の第1の識別マークM1が認識されることで、ARデバイス11の表示部21にコンテンツCを表示することができる。このため、例えば、コンテンツCとして作業マニュアルを表示する場合、バーチャルディスプレイ10を仮想の作業マニュアルとして機能させることができ、現実の作業マニュアルと同等の使用方法で、使用することができる。このため、作業者に対して、直感的な操作を促すことができるユーザフレンドリーな拡張現実表示システム1とすることができる。具体的に説明すると、AR技術に慣れていない作業者は、何もない空間に対してジェスチャを行ってコンテンツCを表示する操作を習得することに時間を要することから、作業効率が低下する。一方で、本開示において、作業者は、バーチャルディスプレイ10を手で扱うことができ、バーチャルディスプレイ上でジェスチャを行うことで、コンテンツCを表示させることができるため、より直感的な操作を行うことができる。また、現実空間とコンテンツCとの重畳表示は、コンテンツCの表示時間、表示条件、表示部21上の位置を、バーチャルディスプレイ10を用いることで特定することが可能となる。
【0048】
第2の態様として、前記コンテンツCは、3次元モデルを含み、前記制御部25は、前記第1の識別マークM1の形状に基づいて、前記バーチャルディスプレイ10の傾きを算出し、算出した前記バーチャルディスプレイ10の傾きに応じて、前記コンテンツCを傾けて表示する。
【0049】
この構成によれば、第1の識別マークM1を、傾きを算出するためのマークとして機能させることができる。このため、第1の識別マークM1により、コンテンツCの三次元的な表示を行うことができる。例えば、バーチャルディスプレイ10上に並行してコンテンツCとしての部品の3Dモデルを表示した場合、バーチャルディスプレイ10の傾きを変えれば、部品の3Dモデルも傾きが変わるため、操作者が任意の角度から見ることができ、天地の方向も分かり易いものとなる。
【0050】
第3の態様として、前記現実空間は、作業者により作業が行われる作業空間E1を含み、前記作業空間E1には、第2の識別マークM2が付されており、前記制御部25は、前記撮像部22により前記第2の識別マークM2が撮像されて、前記第2の識別マークM2を認識すると、前記作業空間E1の位置に応じた前記表示部21の表示領域を、前記作業空間E1を視認可能な可視領域E2aとして設定する。
【0051】
この構成によれば、現実空間とコンテンツCとの重畳表示は、作業を却って妨げる場合もあるが、可視領域E2aを設定することで、作業空間E1の視界を確保することができるため、作業空間E1の位置に応じた表示部21の表示領域にコンテンツCが表示されることを抑制することができる。
【0052】
第4の態様として、前記制御部25は、前記可視領域E2aに応じた前記作業空間E1の位置において、前記第1の識別マークM1を認識すると、前記バーチャルディスプレイ10の位置に対応する前記表示部21の前記可視領域E2aに、前記コンテンツCを表示する。
【0053】
この構成によれば、バーチャルディスプレイ10が用いられた場合は、可視領域E2aであっても、バーチャルディスプレイ10の表示を優先的に行うことができる。
【0054】
第5の態様として、前記バーチャルディスプレイ10は、シート状の本体部18と、前記本体部18の縁に沿って枠状に形成される前記第1の識別マークM1と、を有する。
【0055】
この構成によれば、第1の識別マークM1を枠状に形成することで、第1の識別マークM1の枠内にコンテンツCを表示することができる。ここで、コンテンツCは不透明ではない場合があり、この場合、背景の現実空間が透けてしまうことから、コンテンツCと第1の識別マークM1とが重なり合うと、視認性が低下してしまう。このため、第1の識別マークM1の枠内にコンテンツCを表示することで、第1の識別マークM1とコンテンツCとが重なり合うことを抑制することができるため、コンテンツCの視認性を高めることができる。
【0056】
第6の態様として、作業者に付された識別情報を取得する識別情報取得部(ID認識部24)と、前記識別情報(ID情報D1)と前記コンテンツCとを関連付けて記憶するコンテンツ記憶部32と、をさらに備え、前記制御部25は、前記識別情報取得部24により取得した前記識別情報D1に基づいて、前記コンテンツ記憶部32から前記コンテンツCを取得し、取得した前記コンテンツCを前記表示部に表示する。
【0057】
この構成によれば、作業者に対応付けられたコンテンツCのみを表示部21に表示することができるため、作業者に対して必要なコンテンツCを提供することができる。
【0058】
第7の態様として、前記コンテンツは、作業者の作業工程に関するコンテンツであり、前記制御部は、前記コンテンツに基づく前記作業者の前記作業工程が実行されたか否かを判定し、前記作業工程が実行されたと判定した場合、前記作業工程が完了したと判定する。
【0059】
この構成によれば、作業者による作業工程の実行を確認することができる。
【0060】
第8の態様として、前記作業者の前記作業工程に関する作業報告書を記憶する作業報告書記憶部33を、さらに備え、前記制御部は、前記作業者の前記作業工程に関する作業内容を時系列に沿って取得して前記作業報告書を生成し、生成した前記作業報告書を前記作業報告書記憶部33に記憶する。
【0061】
この構成によれば、作業者による作業内容に基づく作業報告書を自動で生成することができるため、作業報告書を作成する作業を低減することができる。
【符号の説明】
【0062】
1 拡張現実表示システム
10 バーチャルディスプレイ
11 ARデバイス
12 サーバ
15 ネットワーク
16 作業対象物
18 本体部
21 表示部
22 撮像部
23 赤外線センサ
24 ID認識部
25 制御部
26 記憶部
31 処理部
32 コンテンツ記憶部
33 作業報告書記憶部
E1 作業空間
E2 表示領域
E2a 可視領域
M1 第1の識別マーク
M2 第2の識別マーク
D1 ID情報
D2 提供情報
D3 チェック情報
C コンテンツ
図1
図2
図3
図4
図5
図6
図7
図8
図9