(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025001523
(43)【公開日】2025-01-08
(54)【発明の名称】データ構造、データ表示プログラム、データ生成プログラム及びデータ蓄積処理装置
(51)【国際特許分類】
G06F 3/01 20060101AFI20241225BHJP
G06T 19/00 20110101ALI20241225BHJP
【FI】
G06F3/01 510
G06T19/00 600
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2023101153
(22)【出願日】2023-06-20
(71)【出願人】
【識別番号】523236858
【氏名又は名称】株式会社ツクリテ
(74)【代理人】
【識別番号】100180275
【弁理士】
【氏名又は名称】吉田 倫太郎
(74)【代理人】
【識別番号】100161861
【弁理士】
【氏名又は名称】若林 裕介
(74)【代理人】
【識別番号】100194836
【弁理士】
【氏名又は名称】長谷部 優一
(72)【発明者】
【氏名】川岸 孝輔
(72)【発明者】
【氏名】村上 亜香子
【テーマコード(参考)】
5B050
5E555
【Fターム(参考)】
5B050AA03
5B050BA06
5B050BA09
5B050BA11
5B050BA13
5B050BA18
5B050BA20
5B050CA08
5B050DA01
5B050EA19
5B050EA26
5B050FA02
5B050FA17
5E555AA04
5E555AA27
5E555AA47
5E555BA05
5E555BB05
5E555BC17
5E555BC18
5E555BD01
5E555BE17
5E555CA12
5E555CA42
5E555CB12
5E555CB14
5E555CB37
5E555CB42
5E555CB45
5E555CB46
5E555CB48
5E555CB52
5E555CB53
5E555CC05
5E555CC19
5E555DB11
5E555DB25
5E555DB43
5E555DB51
5E555DB53
5E555DC09
5E555DC13
5E555DC63
5E555DD04
5E555DD07
5E555EA08
5E555EA22
5E555FA00
(57)【要約】
【課題】 より簡便な操作で対象物についてエンドユーザに説明するARシナリオを生成する。
【解決手段】 本発明は、説明対象となる対象物についての説明をコンピュータ上でAR表示する内容が記述された対象物データのデータ構造に関する。そして、本発明の対象物データのデータ構造は、前記対象物の表面をマッピングした結果得られるマッピングデータと、前記マッピングデータに基づく座標系で、前記対象物の表面に配置されるマーカーの位置を示すマーカー情報と前記マーカー情報に対応する前記対象物に関するコンテンツを含む付与情報の組を1又は複数備えるAR表示データとを備えることを特徴とする。
【選択図】
図1
【特許請求の範囲】
【請求項1】
説明対象となる対象物についての説明をコンピュータ上でAR表示する内容が記述された対象物データのデータ構造において、
前記対象物の表面をマッピングした結果得られるマッピングデータと、
前記マッピングデータに基づく座標系で、前記対象物の表面に配置されるマーカーの位置を示すマーカー情報と前記マーカー情報に対応する前記対象物に関するコンテンツを含む付与情報の組を1又は複数備えるAR表示データとを備える
ことを特徴とするデータ構造。
【請求項2】
前記マッピングデータは、前記対象物の全体を1つのモデルとしてマッピングしたデータであることを特徴とする請求項1に記載のデータ構造。
【請求項3】
前記AR表示データには、いずれの前記マーカー情報にも対応しない付与情報を含むことができることを特徴とする請求項1に記載のデータ構造。
【請求項4】
前記対象物データは、前記対象物に関する複数の前記マッピングデータと前記AR表示データを含むことが可能な構造であることを特徴とする請求項1に記載のデータ構造。
【請求項5】
コンピュータを、請求項1~4のいずれかに記載のデータ構造を備える対象物データに基づいてAR表示するAR表示手段として機能させることを特徴とするデータ表示プログラム。
【請求項6】
コンピュータを、請求項1~4のいずれかに記載のデータ構造を備える対象物データを生成する対象物データ生成手段として機能させることを特徴とするデータ生成プログラム。
【請求項7】
請求項1~4のいずれかに記載のデータ構造を備える対象物データを蓄積して処理する蓄積処理手段を備えることを特徴とするデータ蓄積処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、データ構造、データ表示プログラム、データ生成プログラム及びデータ蓄積処理装置に関し、例えば、AR(Augmented Reality)処理を行うシステムに適用し得る。
【背景技術】
【0002】
従来、AR処理により、ユーザに商品の操作等を誘導する技術として特許文献1のシステムが存在する。
【0003】
特許文献1のシステムでは、設定された順序に沿って静止画像や動画の表示や音声出力を含むARコンテンツが記述された「ARシナリオ」を保持している。そして、特許文献1のシステムでは、カメラ、ディスプレイ、ヘッドホン、マイク、光学センサ等を備えた装着体をユーザの頭部に装着させ、当該装着体をユーザインタフェースとしてARシナリオをユーザに提供している。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、従来のAR処理を行うシステムでは、ユーザへの説明対象となる物体(例えば、操作や使用が可能な物体;以下、単に「対象物」と呼ぶ)についてユーザに説明するARシナリオ(例えば、特許文献1に記載されるようなARシナリオ)を作成するには、対象物を構成するパーツごとの3Dモデリングが必要になる等煩雑な操作が必要となるという問題があった。
【0006】
上記のような問題に鑑みて、より簡便な操作で対象物についてエンドユーザに説明するARシナリオを生成することができる情報処理装置、情報処理プログラム、情報処理方法及びデータ構造が望まれている。
【課題を解決するための手段】
【0007】
第1の本発明は、説明対象となる対象物についての説明をコンピュータ上でAR表示する内容が記述された対象物データのデータ構造において、前記対象物の表面をマッピングした結果得られるマッピングデータと、前記マッピングデータに基づく座標系で、前記対象物の表面に配置されるマーカーの位置を示すマーカー情報と前記マーカー情報に対応する前記対象物に関するコンテンツを含む付与情報の組を1又は複数備えるAR表示データとを備えることを特徴とする。
【0008】
第2の本発明のデータ表示プログラムは、コンピュータを、第1の本発明のデータ構造を備える対象物データに基づいてAR表示するAR表示手段として機能させることを特徴とする。
【0009】
第3の本発明のデータ生成プログラムは、コンピュータを、第1の本発明のデータ構造を備える対象物データを生成する対象物データ生成手段として機能させることを特徴とする。
【発明の効果】
【0010】
本発明によれば、より簡便な操作で対象物についてエンドユーザに説明するARシナリオを生成することができる。
【図面の簡単な説明】
【0011】
【
図1】実施形態に係る各装置の接続構成について示したブロック図である。
【
図2】実施形態に係るユーザ企業端末の全体構成を示すブロック図である。
【
図3】実施形態に係るエンドユーザ端末の全体構成を示すブロック図である。
【
図4】実施形態に係るアプリケーションサーバの内部構成について示したブロック図である。
【
図5】実施形態に係るユーザ企業管理データ管理部で管理されるユーザ企業管理データのデータ構成の例について示した図である。
【
図6】実施形態に係るエンドユーザ端末で、対象物データに基づくARシナリオが再生(表示)される様子について示した図である。
【
図7】実施形態に係る対象物データの論理的構造の例について示したブロック図である。
【
図8】実施形態に係る対象物管理データの構成例について示した図である。
【
図9】実施形態に係るARシーケンスデータのARシーケンス管理データの構成例について示した説明図である。
【
図10】実施形態に係るマーカー情報と付与情報の構成例について示した説明図である。
【
図11】実施形態にXYZ座標系に対象物が配置された例について示している。
【
図12】実施形態に係るAR空間の座標系において原点を設定する例について示している。
【
図13】実施形態に係るエンドユーザ端末(対象物データ表示アプリケーション)において、対象物データに基づくARシナリオを再生する動作の例について示したフローチャートである。
【
図14】実施形態に係る対象物データ表示アプリケーションによりエンドユーザ端末のタッチパネルディスプレイに表示されるAR表示画面の例について示した図(その1)である。
【
図15】実施形態に係る対象物データ表示アプリケーションによりエンドユーザ端末のタッチパネルディスプレイに表示されるAR表示画面の例について示した図(その2)である。
【
図16】実施形態に係るユーザ企業端末(対象物データ生成アプリケーション)において、ユーザ企業のオペレータの操作に応じて対象物に関するARシナリオ(対象物データ)を生成する動作の例について示したフローチャートである。
【
図17】実施形態に係る対象物データ生成アプリケーションによりユーザ企業端末のタッチパネルディスプレイ11に表示されるAR生成画面の例について示した図(その1)である。
【
図18】実施形態に係る対象物データ生成アプリケーションによりユーザ企業端末のタッチパネルディスプレイ11に表示されるAR生成画面の例について示した図(その2)である。
【
図19】実施形態に係る対象物データ生成アプリケーションによりユーザ企業端末のタッチパネルディスプレイ11に表示されるAR生成画面の例について示した図(その3)である。
【
図20】実施形態の変形例に係る対象物データの論理的構造の例について示したブロック図である。
【
図21】変形実施例(その1)に係るユーザ企業端末(対象物データ生成アプリケーション)において、ユーザ企業のオペレータの操作に応じて対象物に関するARシナリオ(対象物データ)を生成する動作の例について示したフローチャートである。
【
図22】変形実施例(その2)に係るユーザ企業端末(対象物データ生成アプリケーション)において、オペレータの操作に応じて対象物データTDを編集する動作の変形例について示したフローチャートである。
【発明を実施するための形態】
【0012】
(A)主たる実施形態
以下、本発明によるデータ構造、データ表示プログラム、データ生成プログラム及びデータ蓄積処理装置の一実施形態を、図面を参照しながら詳述する。
【0013】
(A-1)実施形態の構成
図1は、この実施形態に係る各装置の接続構成について示したブロック図である。
【0014】
図1では、情報処理システム1、ユーザ企業端末10及びエンドユーザ端末20が配置されている。
図1に示す各装置の間はインターネットNWにより相互に通信可能な構成となっているものとする。
【0015】
情報処理システム1は、エンドユーザへの説明対象 となる対象物TOについて、エンドユーザに対して説明するARシナリオ(以下、単に「ARシナリオ」又は「説明ARシナリオ」と呼ぶ)を含むデータ(以下、「対象物データ」又は「ARシナリオデータ」と呼ぶ)を処理するシステムである。
【0016】
この実施形態では、対象物TOについて対象物データに基づいた説明を受けるユーザ(以下、「対象物データ被提供ユーザ」とも呼ぶ)を「エンドユーザ」と呼び、対象物TOについて対象物データを含む対象物データを生成して提供するユーザ(以下、「対象物データ提供ユーザ」とも呼ぶ)を「ユーザ企業」と呼ぶものとする。ここでは、ユーザ企業は、主として対象物TO自体を製造又は販売する企業であり、自社の製造又は販売する対象物TOに関する対象物データを生成してインターネットNW上で提供するものとして説明する。また、ここでは、エンドユーザは、対象物TOを使用するユーザであり、対象物TOの使用にあたって対象物データに基づいた説明を受けるものとして説明する。
【0017】
ユーザ企業端末10は、ARシナリオを処理可能なコンピュータを備えた情報処理端末(例えば、種々のPC、タブレットPC、スマートホン等)に、プログラム(実施形態に係る、「ARシナリオ生成プログラム」又は「データ生成プログラム」を含む)をインストールすることにより構成するようにしてもよい。また、エンドユーザ端末20は、ARシナリオを処理可能なコンピュータを備えた情報処理端末(例えば、種々のPC、タブレットPC、スマートホン等)に、プログラム(実施形態に係る、「ARシナリオ表示プログラム」又は「データ表示プログラム」を含む)をインストールすることにより構成するようにしてもよい。
【0018】
次に、情報処理システム1の構成について説明する。
【0019】
図1に示す情報処理システム1は、アプリケーションサーバ30を有している。なお、情報処理システム1を構成する装置(コンピュータ)の数は限定されないものである。例えば、情報処理システム1は、アプリケーションサーバ30の機能を複数の装置(コンピュータ)を用いて構成するようにしてもよい。そして、
図1に示すアプリケーションサーバ30は、インターネットNWを介して、他の装置(端末)と通信可能となっている。この実施形態の例では、ユーザ企業端末10及びエンドユーザ端末20は、いずれも対象物データを処理可能な各種デバイスを備えるタブレットPCであるものとして説明する。
【0020】
アプリケーションサーバ30は、主として、各端末との間で対象物データの処理を行う装置である。アプリケーションサーバ30は、ユーザ企業(ARシナリオ提供ユーザ)の情報(以下、「ユーザ企業情報」と呼ぶ)等や、エンドユーザ(ARシナリオ被提供ユーザ)の情報(以下、「エンドユーザ情報」と呼ぶ)の管理も行うものとする。
【0021】
図2は、この実施形態のユーザ企業端末10の全体構成を示すブロック図である。
【0022】
図2に示すように、ユーザ企業端末10は、タッチパネルディスプレイ11、カメラ12、情報処理部13、センサ部14、マイクロホン15及びスピーカ16を有している。
【0023】
情報処理部13は、ユーザ企業端末10の全体を制御する機能を担っており、ARシナリオを生成処理する対象物データ生成アプリケーション131(実施形態に係る「データ生成プログラム」を含む)を有している。
【0024】
情報処理部13は、図示しないコンピュータにプログラム(実施形態に係る「データ生成プログラム」を含む)をインストールすることによりソフトウェア的に構成するようにしてもよいし、ハードウェア的に構成(例えば、専用の半導体チップ等を用いて構成)するようにしてもよい。この実施形態では、情報処理部13は、コンピュータを用いてソフトウェア的に構成されているものとして説明する。
【0025】
カメラ12は、対象物TOが配置された現実空間を撮像することが可能な撮像手段である。この実施形態において、カメラ12は、複数のイメージセンサ―(複眼)を備えることにより対象物TOの立体的なスキャニング(3Dスキャニング)が可能な構成であるものとして説明する。なお、ユーザ企業端末10自体に3Dスキャニングを行う必要がない場合は、カメラ12は単眼のカメラであってもよい。
【0026】
タッチパネルディスプレイ11は、ユーザに画像(例えば、操作画面等の画像)を表示出力(提示)することが可能な表示手段(ディスプレイ機能)と、ユーザからの操作を受け付けることが可能な操作手段(タッチパネル機能)を備えている。
【0027】
センサ部14は、当該ユーザ企業端末10の動きを検知するためのセンサ群である。センサ部14には、例えば、加速度センサやジャイロセンサを含むセンサ群(3DスキャニングやAR処理に必要なセンサ群)を適用することができる。
【0028】
図3は、この実施形態のエンドユーザ端末20の全体構成を示すブロック図である。
【0029】
エンドユーザ端末20は、タッチパネルディスプレイ21、カメラ22、情報処理部23、センサ部24、マイクロホン25及びスピーカ26を有している。
【0030】
情報処理部23は、エンドユーザ端末20の全体を制御する機能を担っており、ARシナリオを再生処理する対象物データ表示アプリケーション231(実施形態に係る「データ表示プログラム」に相当するプログラム)を有している。
【0031】
情報処理部23は、図示しないコンピュータにプログラム(実施形態に係る「データ表示プログラム」に相当するプログラム)をインストールすることによりソフトウェア的に構成するようにしてもよいし、ハードウェア的に構成(例えば、専用の半導体チップ等を用いて構成)するようにしてもよい。この実施形態では、情報処理部23は、コンピュータを用いてソフトウェア的に構成されているものとして説明する。
【0032】
この実施形態では、エンドユーザ端末20を構成するその他のデバイス(タッチパネルディスプレイ21、カメラ22、センサ部24、マイクロホン25及びスピーカ26)についてはユーザ企業端末10と同様であるため詳しい説明は省略する。
【0033】
以上のように、ユーザ企業端末10及びエンドユーザ端末20は、ハードウェア的には、例えば、PCやタブレットPC等の情報処理装置を用いて構成することができる。
【0034】
図4は、アプリケーションサーバ30の内部構成について示したブロック図である。
【0035】
アプリケーションサーバ30は、AR処理サーバアプリケーション31及びデータ管理部32を有している。つまり、アプリケーションサーバ30は、対象物データを蓄積して処理するデータ蓄積処理手段として、AR処理サーバアプリケーション31及びデータ管理部32を有している。
【0036】
アプリケーションサーバ30の内部構成は、機能的には
図5のように示すことができる。アプリケーションサーバ30としては、例えば、メモリ及びプロセッサを有するコンピュータ(例えば、PCやワークステーション等)にソフトウェア(実施形態に係る「データ蓄積処理プログラム」を含む)をインストールすることにより構築することができる。
【0037】
AR処理サーバアプリケーション31は、各端末との間で対象物データの処理を行う。AR処理サーバアプリケーション31は、ユーザ企業端末10から供給される対象物データについてデータ管理部32に蓄積して処理する。また、AR処理サーバアプリケーション31は、エンドユーザ端末20からの要求に応じて、対象物データを提供する処理を行う。
【0038】
データ管理部32は、AR処理サーバアプリケーション31の制御に基づいて、対象物データを含むデータの蓄積・管理を行う。データ管理部32は、AR処理サーバアプリケーション31から供給された対象物データ等を蓄積する。また、データ管理部32は、AR処理サーバアプリケーション31から要求された対象物データ等を読み出し、AR処理サーバアプリケーション31に供給する。データ管理部32は、例えば、種々のDBMS(Database Management System)を用いて構築することができる。
【0039】
図4に示すように、データ管理部32には、少なくとも、ユーザ企業を管理するユーザ企業管理データ管理部321と、対象物TOごとの対象物データを含む対象物データTD(TD-1、TD-2、・・・)を管理するための対象物データ管理部322と、対象物TOの形状をマッピングする際に参照されるリファレンスデータRD(RD-1、RD-2、・・・)とを備えている。
【0040】
この実施形態では、対象物データTD-1、TD-2、・・・、に対して、それぞれ対象物データを識別するID(以下、「対象物データID」という)として、1、2、・・・が付与されているものとする。また、この実施形態では、リファレンスデータRD-1、RD-2、・・・、に対して、それぞれリファレンスデータを識別するID(以下、「リファレンスID」と呼ぶ)として、1、2、・・・、が付与されているものとする。
【0041】
図5は、ユーザ企業管理データ管理部321で管理されるユーザ企業管理データのデータ構成の例について示した図である。
【0042】
図5に示すように、ユーザ企業管理データには、ユーザ企業ごとに、少なくともユーザ企業を識別するユーザ企業IDと、ユーザ企業名と、当該ユーザ企業に属する対象物データIDのリストである対象物データリストの項目のデータが登録されている。例えば、
図5では、A社については、ユーザ企業IDとして1が付与されており、対象物データTD-1、TD-2、TD-3が属する旨が登録されていることになる。
【0043】
次に、この実施形態における対象物データの概要について、
図6を用いて説明する。
【0044】
図6は、この実施形態のエンドユーザ端末20で、対象物TOに関する対象物データに基づくARシナリオが再生される様子について示した図である。
【0045】
図6では、タブレット端末で構成されたエンドユーザ端末20と、対象物TOについて図示されている。
図2では、エンドユーザ端末20のタッチパネルディスプレイ21に、対象物TOに対応する対象物データに基づいた画面(以下、「AR表示画面」という)が表示されている。
【0046】
具体的には、
図6では、エンドユーザ端末20の対象物データ表示アプリケーション231が、カメラ22により撮影された撮影画像(対象物TOが写りこんだ撮影画像)に、対象物TOの対象物データに基づくマーカーやコンテンツの画像(以下、「AR画像」と呼ぶ)合成し、タッチパネルディスプレイ21に表示した状態となっている。
【0047】
上記の通り、対象物TOは、エンドユーザに対して説明対象となりえる物体であり、例えば、種々の操作を伴う工業製品(例えば、産業機器、オーディオ機器等)が該当する。通常、操作を伴う物体(例えば、工業製品等)には、操作部分(例えば、ボタン、ハンドル、レバー、ノブ等)や、表示部分(例えば、ランプ、ディスプレイ、各種メータ等)、可動部分(例えば、開閉可能な蓋、駆動機構等)、危険部分(例えば、高熱を発する部分等)等の説明対象となり得る部分(以下、「説明対象部分」と呼ぶ)が含まれている。
【0048】
この実施形態において、対象物データには、対象物TOの操作部分に関する説明を視覚的に分かりやすく表示(AR画像として表示)するコンテンツが含まれているものとする。具体的には、この実施形態において、対象物データには、少なくとも対象物TOのリファレンスデータを所定の座標系でマッピング(例えば、点群等により3Dマッピング)することにより得られるデータ(以下、「マッピングデータ」と呼ぶ)と、マッピングデータにより表現される対象物TOの3Dオブジェクト(点群等により表現された3D空間上のオブジェクト)上の説明対象部分に配置されたマーカーを定義する情報(以下、「マーカー情報」と呼ぶ)と、各マーカー(説明対象部分)に付与(紐づけ)されたコンテンツ(例えば、説明対象部分に関して説明するためのコンテンツ)を含むデータ(以下、「付与情報」と呼ぶ)とが含まれているものとする。つまり、この実施形態において、対象物データには、対象物TOに対応するマッピングデータと、1以上のマーカー情報と、それぞれのマーカー情報に対応する1以上の付与情報(コンテンツ)が含まれているものとする。なお、1つのマーカーに複数の付与情報が対応づけられている場合もあり得る。
【0049】
次に、対象物データTDの論理的なデータ構造の例について
図7を用いて説明する。
【0050】
図7は、対象物データTDの論理的構造の例について示したブロック図である。
【0051】
図7に示すように、対象物データは、システム的に対象物TOを管理するための情報である対象物管理データDDと、1以上のマッピングデータMDと、1以上のARシーケンスデータADが含まれている。
【0052】
ARシーケンスデータADは、いずれかのマッピングデータMDと対応づけられており、当該マッピングデータMD上のマーカー情報PDと付与情報SDの組を1以上備えるデータである。また、
図7に示すように、ARシーケンスデータAD内では、論理的に複数のマーカー情報PDと付与情報SDの組が所定の順序で並べて連結された構造となっており、一連の流れ(以下、この流れを「ARシーケンス」という)を構成している。つまりARシーケンスデータADにおいて、上記のようなARシーケンスの構造を取ることで、網羅的に所定の順序でARのコンテンツ(付与情報SDに基づくコンテンツ)を表示するARシナリオの再生等を可能とする。言い換えると、上記のようなARシーケンスは、ARシナリオの1つのパターンを示しているともいえる。
【0053】
また、
図7では、マッピングデータMDとARシーケンスデータADが1対1となるようなパターンについて示しているが、1つのマッピングデータMDに複数のARシーケンスデータADが紐づくような構成としてもよい。各ARシーケンスデータADに対応するマッピングデータMDが一意に定まっていれば良いためである。なお、この実施形態の例においては、マッピングデータMDとARシーケンスデータADが1対1となるようなパターンについて説明する。
【0054】
また、
図7では、説明を簡易とするために、各マッピングデータMDを生成する際に元となったリファレンスデータRDも図示しているが、既にマッピングデータMDが生成された状態であれば、対象物データTDの処理においてリファレンスデータRDの存在は必須ではない。
【0055】
図7に示す対象物データTDにおいて、マッピングデータMD-1、MD-2、・・・にはそれぞれIDとして1、2、・・・が付与されており、ARシーケンスデータAD-1、AD-2、・・・にはそれぞれIDとして1、2、・・・が付与されているものとする。また、
図7に示すARシーケンスデータAD-1では、マーカー情報PD1-1、PD、1-2、・・・、PD-1-N(Nは1以上の整数)にはそれぞれIDとして1、2、・・・、Nが付与されており、付与情報SD-1-1、SD-1-2、SD-1-M(Mは1以上の整数)にはそれぞれIDとして1、2、・・・、Mが付与されているものとする。
【0056】
図8は、対象物管理データDDの構成例について示した図である。
【0057】
図8に示すように対象物管理データDDには、当該対象物データTDの識別子である「対象物ID」、及び「ユーザ企業ID」(当該対象物データTDが属するユーザ企業のユーザ企業ID)、当該対象物データTDに対応する対象物TOの名称である「対象物名称」が含まれている。
【0058】
図9は、ARシーケンスデータAD-1のARシーケンス管理データARMの構成例について示した説明図である。
【0059】
図9に示すようにARシーケンス管理データARMには、当該ARシーケンスデータADの識別子である「ARシーケンスID」、当該ARシーケンスデータADに対応するマッピングデータのID(マッピングデータID)が設定されている。
【0060】
例えば、
図9では、
図8に示すARシーケンスデータAD-1のARシーケンス管理データARMを示しているので、ARシーケンスIDとしては「1」が設定され、マッピングデータIDとしては対応するマッピングデータMD-1の識別子である「1」が設定されている。
【0061】
図10は、マーカー情報PDと付与情報SDの構成例について示した説明図である。
【0062】
図10では、マーカー情報PD-1-2と、マーカー情報PD-1-2に対応付けられた2つの付与情報SD-1-2、SD-1-3の具体的な構成例について示している。
【0063】
図10に示すようにマーカー情報PDには、対応するマーカーの識別子である「マーカーID」、対応するマーカーの位置(対応するマッピングデータMDの座標系における位置;座標)を示す「マーカー位置」(X、Y、Zの各値)、当該マーカーのサイズを示す「マーカーサイズ」、当該マーカーに対応する付与情報のIDのリストである「付与情報リスト」が含まれている。この実施形態のマーカー情報で定義されるマーカーは、マーカー位置を中心としマーカーサイズを半径とする円形の領域(対象物TOの3Dオブジェクトの表面に沿った領域)であるものとする。マーカーサイズの単位の表現は限定されないものであるが、例えば、マッピングデータMDの座標系の単位としてもよい。例えば、マーカー位置を(X,Y,Z)=(0,0,0)としマーカーサイズを10とすれば、当該マーカーは、例えば原点(0,0,0)を中心とした半径10単位の円となる。マーカーサイズは、固定値としてもよいし、ユーザの操作に応じて変動する値としてもよい。また、マーカーの形状は円形に限定されず矩形等の多角形としてもよい。
【0064】
図10に示すように、付与情報SDには、当該付与情報の識別子である「付与情報ID」と、当該付与情報に対応するコンテンツのタイプを示す「コンテンツタイプ」と、当該コンテンツにアクセスするためのリンク先を示す「コンテンツリンク先」と、当該付与情報の次の順序の付与情報の識別子を示す「ネクストシーケンス」が含まれている。
【0065】
コンテンツタイプには、例えば、テキスト(例えば、txtファイル等)、画像(例えば、JPEGやTIFFファイル等)、動画(例えば、MPEGファイル等)、ホームページ(例えば、HTMLファイル等)を指定可能とすることが挙げられる。コンテンツタイプに指定可能なタイプの種類の数や組み合わせについては限定されないものである。この実施形態の例では、コンテンツタイプは、テキストであることを示す「text」、画像であることを示す「image」、動画であることを示す「movie」、ホームページであることを示す「html」等が設定されるものとして説明する。
【0066】
コンテンツリンク先は、インターネット上のURLとしてもよいし、コンテンツに対応する所定のファイルへアクセスするパス(例えば、ファイルサーバ上のパス等)としてもよい。
【0067】
ネクストシーケンスは、同じマーカー情報PDに複数の付与情報SDが対応している場合の順序(シーケンス)を示している。つまり、ネクストシーケンスは、例えば、エンドユーザ端末20において、同じマーカーに対応する複数のコンテンツを再生する場合の順序(シーケンス)を示すことになる。なお、最後の順序(シーケンス)の付与情報SDのネクストシーケンスは「END」となる。また、1つのマーカー情報PDに1つだけ付与情報SDが対応づけられている場合、当該付与情報SDのネクストシーケンスはENDとなる。例えば、
図10では、付与情報SD1-2のネクストシーケンスは3(付与情報SD-1-3のID)であり、付与情報SD-1-3のネクストシーケンスはENDとなる。つまり、ARシーケンスデータADでは、マーカー情報PDのシーケンス構造と、各マーカー情報PDの配下における付与情報SDのシーケンス構造により木構造のシーケンスが形成されている。
【0068】
次に、各対象物データTDのマッピングデータMDにいて定義される座標系(対象物TOを中心としたAR空間の座標系)の例について
図11、
図12を用いて説明する。
図11、
図12の例では、対象物TOは、操作部分として4つのノブ(ダイアル)を備えるオーディオインタフェースとなっている。
【0069】
図11では、位置P0を原点としたXYZ座標系に対象物TOが配置された例について示している。
図12では、AR空間の座標系において原点P0を設定する例について示している。
図12では、原点P0を、対象物TOのバウンディングボックスBBのいずれかの頂点とする例について示している。
【0070】
(A-2)実施形態の動作
以下、この実施形態に係る各装置(各プログラム)の動作について説明する。
【0071】
図13は、エンドユーザ端末20(対象物データ表示アプリケーション231)において、対象物TOに関するARシナリオを再生する動作の例について示したフローチャートである。
【0072】
なお、
図13に示す対象物データ表示アプリケーション231の処理については、ARに関わるミドルウェア(例えば、ARKit等のミドルウェア)等を用いて実現するようにしてもよい。
【0073】
また、
図14、
図15は、対象物データ表示アプリケーション231によりエンドユーザ端末20のタッチパネルディスプレイ21に表示されるAR表示画面の例について示した図である。
【0074】
まず、ここでは、エンドユーザによりエンドユーザ端末20が操作され、対象物データ表示アプリケーション231が起動したものとする。対象物データ表示アプリケーション231は起動するとカメラ22で撮像した画像をタッチパネルディスプレイ21に表示させる。また、このとき、対象物データ表示アプリケーション231は、
図14(a)に示すように、エンドユーザに対象物TOがカメラ22の視野内に入るように誘導するメッセージ(「対象物が写るようにカメラを向けてください」のようなメッセージ)を表示する。そして、ここでは、対象物データ表示アプリケーション231は、カメラ22で撮影された画像(例えば、複眼のカメラにより撮像された画像)やセンサ部24の検知結果等に基づいて、対象物TOの3Dスキャニングデータを作成してその結果を取得したものとする(S101)。このとき、対象物データ表示アプリケーション231は、対象物TOをスキャニングした結果として、マッピングデータを取得するようにしてもよい。
図14、
図15では、タッチパネルディスプレイ21上に表示された対象物TOの画像(撮影画像)をTOGとしている。
【0075】
次に、対象物データ表示アプリケーション231は、取得したスキャニング結果(マッピングデータ)に基づいて候補となる対象物データTDを特定し、候補となる対象物データTDの対象物名称をユーザに提示して、今回処理対象となる対象物TOの選択を受け付けるものとする(S102)。
【0076】
例えば、対象物データ表示アプリケーション231からAR処理サーバアプリケーション31に、スキャニング結果を送信し、AR処理サーバアプリケーション31側で候補となる対象物データTDを特定するようにしてもよい。スキャニング結果から、候補となる対象物データTDを特定する方法については限定されないものであるが、例えば、スキャニング結果から特徴量(ベクトルデータ)を取得し、類似する(所定以上一致度の高い)マッピングデータを備える対象物データを対象物データ管理部322から1又は複数抽出して、抽出した対象物データTDを候補とするようにしてもよい。対象物データ管理部322からスキャニング結果と類似するマッピングデータを備える対象物データを抽出する処理については、対象物データ表示アプリケーション231がAR処理サーバアプリケーション31に依頼するようにしてもよい。このとき、対象物データ表示アプリケーション231は、
図14(b)に示すような操作画面(対象物名称のリストからいずれかを選択させる操作画面)をエンドユーザに提示していずれかの対象物名称を選択させるようにしてもよい。なお、対象物データ表示アプリケーション231は、候補となる対象物データTDが1つのみの場合は、エンドユーザに選択させるプロセスを省略するようにしてもよい。
【0077】
なお、対象物データ表示アプリケーション231は、対象物TOを特定する識別情報(例えば、型番や名称等の情報)について入力を受けたり、メニュー画面等により対象物TOの選択を受け付けるようにしてもよい。
【0078】
以上のような処理により、対象物データ表示アプリケーション231は、スキャニングした対象物TOに対応する対象物データTD特定して、AR処理サーバアプリケーション31から取得する(S103)。
【0079】
そして、対象物データ表示アプリケーション231は、取得した対象物データTDから、いずれかのARシーケンスデータADを選択し、さらに選択したARシーケンスデータADに対応するマッピングデータMDを取得する。そして、対象物データ表示アプリケーション231は、取得したマッピングデータMDに基づいて、対象物TOの表面をマッピングすると共に、ARシーケンスデータADから取得した各マーカー情報PDに従って、AR表示画面(タッチパネルディスプレイ21)にマーカーの画像を合成表示させる(S104)。
【0080】
図15(a)では、AR表示画面上で、対象物TOの4つのノブ(操作部分)のそれぞれにマーカーM101~M104(ハッチが付された領域)を合成表示させた状態について図示している。
【0081】
そして、対象物データ表示アプリケーション231は、いずれかのマーカーM101~M104が操作(例えば、タッチパネルディスプレイ21上でタッチする操作等)されると、操作されたマーカーに対応する付与情報SDのコンテンツ(コンテンツリンク先のコンテンツ)を、AR表示画面に表示させる(S105)。
【0082】
図15(b)では、マーカーM101が操作され、マーカーM101のマーカー情報PDに対応する付与情報SDのコンテンツ(テキスト表示のポップアップウィンドウ)がAR表示画面に合成表示された状態について図示している。
【0083】
図16は、ユーザ企業端末10(対象物データ生成アプリケーション131)において、ユーザ企業のオペレータの操作に応じて対象物TOに関する対象物データ(ARシナリオデータ)を生成する動作の例について示したフローチャートである。
【0084】
また、
図17~
図19は、対象物データ生成アプリケーション131によりユーザ企業端末10のタッチパネルディスプレイ11に表示される操作画面(以下、「AR生成画面」と呼ぶ)の例について示した図である。
【0085】
なお、
図16に示す対象物データ生成アプリケーション131の処理において、ARに関わるミドルウェア(例えば、ARKit等のミドルウェア)等を用いて実現するようにしてもよい。
【0086】
まず、ここでは、オペレータによりユーザ企業端末10が操作され、対象物データ生成アプリケーション131が起動し、対象物データ生成の処理が開始(例えば、オペレータによる任意のメニュー操作により開始)されたものとする。対象物データ生成アプリケーション131は、対象物データ生成の処理を開始すると、まず、対象物データTDの生成対象となる対象物TOに関する情報(例えば、対象物管理データDDの各項目)の入力受付処理(以下、「情報入力処理」と呼ぶ)を受け付ける(S200)。情報入力処理については、対象物管理データDDの各項目の情報入力を受けることができれば良いため、詳細な画面構成については図示を省略する。
【0087】
次に、対象物データ生成アプリケーション131は、カメラ12で撮像した画像をタッチパネルディスプレイ11に表示させる。また、このとき、対象物データ生成アプリケーション131は、
図17(a)に示すように、エンドユーザに対象物TOがカメラ12の視野内に入るように誘導するメッセージ(「対象物が写るようにカメラを向けてください」のようなメッセージ)を表示する。そして、ここでは、対象物データ生成アプリケーション131は、カメラ12で撮影された画像(例えば、複眼のカメラにより撮像された画像)やセンサ部14の検知結果等に基づいて、対象物TOを3Dスキャニングしてマッピングデータを取得する(S201、S202)。
図17~
図19では、タッチパネルディスプレイ11上に表示された対象物TOの画像(撮影画像)をTOGとしている。
【0088】
次に、対象物データ生成アプリケーション131は、取得したマッピングデータに基づくAR処理により、
図17(b)のようなAR生成画面を表示し、オペレータから設定するマーカー位置(3D座標)の入力を受け付ける処理を行う(S203)。
【0089】
具体的には、対象物データ生成アプリケーション131は、現在カメラ22で撮影されている対象物TOの表面上に、マッピングデータを構成する点群の特徴点をマッピングし、さらに、AR生成画面(タッチパネルディスプレイ21)上の位置(2D座標)と対象物TOの表面上の3D座標とを相互に変換可能とする。これにより、対象物データ生成アプリケーション131は、AR生成画面(タッチパネルディスプレイ21)でタッチされた位置(2D座標)に応じた3D座標(対象物TOの表面上の位置)を、オペレータから入力されたマーカー位置の座標として入力を受け付けることができる。ここでは、
図18(a)に示すように、オペレータにより対象物TOを構成するノブ(ダイアル)が表示された位置P201がタッチされたものとする。なお、このような座標変換の処理については、種々のAR処理のミドルウェアの機能を用いるようにしてもよい。
【0090】
次に、対象物データ生成アプリケーション131は、オペレータから入力されたマーカー位置に対応するコンテンツ(追加データ)の入力を受け付ける処理を行う(S204)。
【0091】
このとき、対象物データ生成アプリケーション131は、マーカー位置に対応するコンテンツ(追加データ)の種類及びその内容の入力を受け付けるGUIウィンドウをAR生成画面に表示するようにしてもよい。例えば、対象物データ生成アプリケーション131は、
図18(b)のように、複数種類のメディアの選択肢(
図18(b)では、「テキスト」、「画像」、「動画」、「音声」・・・の各ボタン)が配置されたポップアップウィンドウを表示することにより、マーカー位置に対応するコンテンツ(追加データ)の種類を受け付け、選択された種類に応じたデータ入力を受け付けるようにしてもよい。例えば、
図18(b)において、マーカー位置に対応するコンテンツ(追加データ)の種類としてテキストが選択された場合、対象物データ生成アプリケーション131は、
図19(a)、
図19(b)に示すようにテキスト入力可能なポップアップウィンドウを追加表示して入力を受け付けるようにしてもよい。対象物データ生成アプリケーション131は、入力されたマーカー位置とコンテンツ(追加データ)を対応付けて一時的に記憶する。
【0092】
次に、対象物データ生成アプリケーション131は、次のマーカー位置の入力の有無を判断し(S205)、次のマーカー位置の入力があった場合上述のステップS203の処理に移行し、そうでない場合は、ステップS204の処理に移行する。例えば、対象物データ生成アプリケーション131は、
図17(b)に示すように、マーカー位置の入力受付の際に、ARシナリオの生成を終了するか否かを受け付けるためのボタン(「終了」と文字が付されたボタン)を配置して、当該ボタンを用いて次のマーカー位置の入力がない旨の入力を受け付けるようにしてもよい。
【0093】
次のマーカー位置の入力がない場合、対象物データ生成アプリケーション131は、ステップS203、S204で入力されたデータ(マーカー位置とコンテンツ(追加データ)の組)に基づいて、ARシーケンスデータを生成し、さらにマッピングデータ(ステップS202で生成したマッピングデータ)及びその他の情報(ステップS201の情報入力処理で取得した情報)等と併せて、
図7に示すような構造の対象物データTDを生成し、アプリケーションサーバ30(AR処理サーバアプリケーション31)に送信(アップロード)する(S206)。また、このとき、対象物データ生成アプリケーション131は、生成したマッピングデータの元となる3Dスキャニングした結果自体についても、アプリケーションサーバ30にリファレンスデータRDとしてアップロードしてもよい。このとき、アプリケーションサーバ30(AR処理サーバアプリケーション31)では、新たな対象物データTDのアップロードを受けると、当該対象物データTDについて新規にIDを付与して対象物データ管理部322に追加登録すると共に、ユーザ企業管理データ管理部321のユーザ企業管理データを更新(対応するユーザ企業IDの対象物データリストに追加した対象物データTDのIDを追加登録)する処理を行う。また、このとき、アプリケーションサーバ30(AR処理サーバアプリケーション31)は、リファレンスデータRDのアップロードも受けている場合には、当該リファレンスデータRDについてリファレンスデータ管理部323に追加登録すると共に、同時にアップロードを受けた対象物データと紐づけて管理する。
【0094】
以上のように対象物データ生成アプリケーション131は、マッピングデータMDとARシーケンスデータADを生成し、対象物データTDとしてアプリケーションサーバ30(AR処理サーバアプリケーション31)に送信する。
【0095】
(A-3)実施形態の効果
この実施形態によれば、以下のような効果を奏することができる。
【0096】
この実施形態の情報処理システム1では、
図7に示すように、対象物データTDを用いてARシナリオを生成・保持するので、
図16に示すような簡便な操作(マーカー設定及び付与情報設定の繰り返し)だけで、生成の受付処理を行うことができる。特に、この実施形態の対象物データTDでは、対象物の部品ごとにマッピングやモデリングすることを要せずに全体を1つの塊のオブジェクトとして捉えたマッピングデータMDで定義したうえで、マーカー情報をオーバーレイし、各マーカー情報に付与情報SD(コンテンツ)をリンクさせるという簡便なデータ構造となっているため、上記のような簡便な操作での対象物データの作成が可能となっている。例えば、従来のARシナリオを定義したデータ構造では、複数の部品を備えるオブジェクトについて部品ごとのマッピングデータを定義し、各部品のマッピングデータについてコンテンツを付与するといったデータ構造になっているため、部品ごとのマッピングデータを取得するという極めて煩雑な処理が必要であった。これに対して、この実施形態の対象物データTDでは、上記の通り対象物TOを1つのオブジェクトとして捉えたマッピングデータMDで定義した上で、1つのマッピングデータMDによって定義される1つのオブジェクト上にマーカー(マーカー情報PD)をマッピングし、各マーカーに付与情報SD(コンテンツ)をリンクするという構造になっている。そのため、この実施形態の対象物データTDは、対象物TOについて、エンドユーザに対して説明するARシナリオのデータを構成する上で、簡便な構造でありながら十分な情報量を付与することが可能となっている。
【0097】
特に、この実施形態の対象物データTDでは、対象物管理データDD、マッピングデータMD及びARシーケンスデータについて別個に管理し、個別に置換や編集が容易な構造となっている。さらに、ARシーケンスデータADの中身自体も同様に、ARシーケンス管理データARM、マーカー情報PD及び付与情報SDについて別個に管理、個別に置換や編集が容易な構造となっている。この実施形態の対象物データTDでは上記のように個別のデータについて容易に置換可能な構造とすることで、上記のような簡便な操作での対象物データの作成を可能としている。なお、通常のARシナリオを構成するデータ(例えば、ARKit等のプラットフォームで通常処理されるデータ形式)は、バイナリーデータの塊となっているため、この実施形態の対象物データTDのように容易に置換可能な構造とはなっていない。
【0098】
また、この実施形態では、対象物データTDによって、実物の製品である対象物TOに対して仮想的な情報を付与することで、エンドユーザ(例えば、工場や生産現場)での、対象物TOの実践的な利用を促すことができる。例えば、この実施形態の対象物データTDに基づくARシナリオの提供を受けるエンドユーザでは、対象物TOに関する効率的な操作やメンテナンスが可能となる。具体的には、例えば、従来はPDFや紙のマニュアルを参照しながら手順を確認して対象物TO(例えば、種々の設備や製品)に関する操作をしていた作業者が、ARによって製品に対して仮想的に映し出された動画、図面、音声、テキスト等のコンテンツにより手順を確認しながら作業を行うことができる。このように、エンドユーザ端末20では、対象物データTDに基づくARシナリオにより必要な情報を瞬時に表示するので、エンドユーザにとって対象物TOの効率的な操作やメンテナンスが可能となり、生産性の向上に繋がる。さらに、エンドユーザは、対象物データTDに基づくARシナリオ(ARサービス)を利用することで、対象物TOを使用した業務のトレーニングを促進することができる。例えば、エンドユーザは、対象物データTDに基づいてAR表示された対象物TOに対して作業を行うことで、実際に対象物TOに触れながらトレーニングを行うことができる。また、上記の通り、この実施形態では、ユーザ企業端末10において、簡便に対象物データTD(ARシナリオ)を作成することができるため、企業内等での対象物TOに関するノウハウの共有がしやすくなる。以上のように、この実施形態のエンドユーザでは、対象物データTDに基づくARシナリオによって従業員のトレーニングや企業内での知識共有が促進され、生産現場におけるスキルアップに繋がる。
【0099】
(B)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
【0100】
(B-1)上記の実施形態の対象物データTDを構成するARシーケンスデータADでは、全ての付与情報SDはいずれかのマーカー情報PDとリンクしているが、一部又は全部の付与情報SDについてマーカー情報とリンクさせない構造(つまり、付与情報SDについてマッピングデータMDと直結した構造)としてもよい。例えば、
図21では、ARシーケンスデータAD-1において付与情報SD-1-2、SD-1-3にはいずれのマーカー情報PDもリンクされていない。この場合、エンドユーザ端末20(対象物データ表示アプリケーション231)では、AR表示画面で、マーカー情報PDとリンクしていない付与情報SD(コンテンツ)について、所定のアクション(例えば、所定のボタンやキーの押下)に応じて、表示する付与情報SD(コンテンツ)を次々と切替(例えば、識別番号やネクストシーケンス等により定まる順序で切替)表示するようにしてもよい。また、この場合、ユーザ企業端末10(対象物データ生成アプリケーション131)では、AR生成画面で、マーカーの位置選択を受け付ける際に所定のアクション(例えば、所定のボタンやキーの押下)に応じて、マーカーとリンクしないコンテンツ(付与情報SD)の入力を受け付けるようにしてもよい。
【0101】
(B-2)上記の実施形態において、ユーザ企業端末10(対象物データ生成アプリケーション131)は、対象物TOを3Dスキャニングしてマッピングデータを取得する処理を行っている(
図16のステップS201、S202参照)が、マッピングデータについて、ARシナリオ作成の対象となる対象物TOと同一又は形状が一致する対象物TOの対象物データTDのマッピングデータを流用(例えば、アプリケーションサーバ30からダウンロードして取得)するようにしてもよい。
【0102】
図21は、ユーザ企業端末10(対象物データ生成アプリケーション131)において、ユーザ企業のオペレータの操作に応じて対象物TOに関する対象物データ(ARシナリオデータ)を生成する動作の変形例(その1)について示したフローチャートである。
【0103】
図21では、上述の
図16と同様の処理のステップについては同じ符号(ステップ番号)を付している。
【0104】
まず、ここでは、オペレータによりユーザ企業端末10が操作され、対象物データ生成アプリケーション131が起動し、対象物データ生成の処理が開始されたものとする。対象物データ生成アプリケーション131は、対象物データ生成の処理を開始すると、まず、情報入力処理(対象物管理データDDの各項目の入力処理)を受け付ける(S200)。なお、ここでのステップS200の処理は、上記の
図16と同様の処理となるため、詳しい説明は省略する。
【0105】
次に、対象物データ生成アプリケーション131は、カメラ22で撮像した画像をタッチパネルディスプレイ21に表示させる。また、このとき、対象物データ生成アプリケーション131は、オペレータに対象物TOがカメラ22の視野内に入るように誘導するメッセージ(「対象物が写るようにカメラを向けてください」のようなメッセージ)を表示する。そして、ここでは、対象物データ生成アプリケーション131は、カメラ22で撮影された画像(例えば、複眼のカメラにより撮像された画像)やセンサ部24の検知結果等に基づいて、対象物TOの3Dスキャニングデータを作成してその結果を取得したものとする(S301)。
【0106】
次に、対象物データ生成アプリケーション131は、取得したスキャニング結果に基づいて候補となる対象物データTDを特定し、候補となる対象物データTDの対象物名称をユーザに提示して、今回処理対象となる対象物TOの選択を受け付けるものとする(S302)。
【0107】
なお、ステップS301、S303の処理は、上述の
図13に示すエンドユーザ端末20(対象物データ表示アプリケーション231)の処理(ステップS101、S102と同様の処理を適用することができるため、詳しい説明を省略する。
【0108】
以上のような処理により、対象物データ生成アプリケーション131は、スキャニングした対象物TOに対応する対象物データTD(マッピングデータMDとARシーケンスデータADの組)特定してAR処理サーバアプリケーション31から取得し、さらに、取得した対象物データTDから対応するマッピングデータMDのみを取得することができる(S303)。なお、特定した対象物データTDに複数のマッピングデータが存在する場合は最もスキャニングした結果(ステップS301で取得したスキャニングデータ)に近いマッピングデータMDを取得するようにしてもよい。
【0109】
図21において以後の処理(マッピングデータの取得以後の処理)であるステップS203~S206については、上述の
図16における同ステップの処理と同様であるため詳しい説明を省略する。
【0110】
以上のように、ユーザ企業端末10(対象物データ生成アプリケーション131)において、ARシナリオを作成する際に、他の対象物データTDのマッピングデータを流用することができる。
【0111】
3Dスキャニングしてマッピングデータを取得する処理は、高精度に実行しようとすると非常に処理量が多く、ユーザ企業端末10のスペックによっては非常に長い時間がかかったり、作業用メモリ等の記憶容量が不足することが予測される。そのため、上記のように、ユーザ企業端末10(対象物データ生成アプリケーション131)において、ARシナリオ作成の際に、ARシナリオ作成の対象となる対象物TOと同一又は形状が一致する対象物TOの対象物データTDのマッピングデータをダウンロードすることで効率的な処理が可能となる。つまり、
図7に示すように、対象物データTDにおいて、対象物管理データDD、マッピングデータMD及びARシーケンスデータADを管理することにより、上記のようなマッピングデータの流用が可能となる。ユーザ企業端末10(対象物データ生成アプリケーション131)において、ARシナリオを作成する際に、他の対象物データTDのマッピングデータを流用する場合、例えば、
図21のようなフローチャートの処理で実現することができる。
【0112】
(B-3)上記の実施形態(上述の
図16、
図21)では、ユーザ企業端末10(対象物データ生成アプリケーション131)が、新規に対象物データTDを生成する処理について説明したが、すでに登録されている対象物データTDについて編集可能とするようにしてもよいし、複数のオペレータ(ユーザ企業端末10)により同時に1つの対象物データTDの編集(例えば、マーカー情報及び付加情報の追加編集削除等)を可能としてもよい。
【0113】
図22は、ユーザ企業端末10(対象物データ生成アプリケーション131)において、ユーザ企業のオペレータの操作に応じて対象物データTDを編集する動作の変形例について示したフローチャートである。
【0114】
まず、ここでは、オペレータによりユーザ企業端末10が操作され、対象物データ生成アプリケーション131が起動し、対象物データの編集処理が開始されたものとする。対象物データ生成アプリケーション131は、対象物データの編集処理を開始すると、カメラ22で撮像した画像をタッチパネルディスプレイ21に表示させる。また、このとき、対象物データ生成アプリケーション131は、オペレータに対象物TOがカメラ22の視野内に入るように誘導するメッセージ(「対象物が写るようにカメラを向けてください」のようなメッセージ)を表示する。そして、ここでは、対象物データ生成アプリケーション131は、カメラ22で撮影された画像(例えば、複眼のカメラにより撮像された画像)やセンサ部24の検知結果等に基づいて、対象物TOの3Dスキャニングデータを作成してその結果を取得したものとする(S401)。
【0115】
次に、対象物データ生成アプリケーション131は、取得したスキャニング結果に基づいて候補となる対象物データTDを特定し、候補となる対象物データTDの対象物名称をユーザに提示して、今回処理対象となる対象物TOの選択を受け付けるものとする(S402)。
【0116】
以上のような処理により、対象物データ生成アプリケーション131は、スキャニングした対象物TOに対応する対象物データTD特定してAR処理サーバアプリケーション31から取得し、さらに、取得した対象物データTDから対応するマッピングデータMDと当該マッピングデータMDに紐づくARシーケンスデータを読み込む(S403)。なお、特定した対象物データTDに複数のマッピングデータが存在する場合は最もスキャニングした結果(ステップS301で取得したスキャニングデータ)に近いマッピングデータMDと当該マッピングデータMDに紐づくARシーケンスデータADを読み込むようにしてもよい。
【0117】
なお、ステップS401~S403の処理は、上述の
図13に示すエンドユーザ端末20(対象物データ表示アプリケーション231)の処理(ステップS101~S103と同様の処理を適用することができるため、詳しい説明を省略する。
【0118】
次に、対象物データ生成アプリケーション131は、取得したマッピングデータMD及びARシーケンスデータADに基づくAR処理により、
図17(b)のようなAR生成画面を表示し、オペレータから設定するマーカー位置(3D座標)の入力を受け付ける処理を行う(S404)。ステップS404の処理は、上述のステップS203と同様の処理であるため詳しい説明を省略する。
【0119】
次に、対象物データ生成アプリケーション131は、オペレータから入力されたマーカー位置に対応するコンテンツ(追加データ)の入力を受け付ける処理を行い、対象物データ生成アプリケーション131は、入力されたマーカー位置とコンテンツ(追加データ)を対応付けて一時的に記憶する(S405)。ステップS405の処理は、上述のステップS204と同様の処理であるため詳しい説明を省略する。
【0120】
次に、対象物データ生成アプリケーション131は、ステップS404で保持したマーカー位置に対応するマーカー情報PDと、ステップS404で保持したコンテンツに対応する付与情報SDを生成し、生成したマーカー情報PDと生成した付与情報SDとを紐づけ(例えば、
図10のように相互に紐づけ)、アプリケーションサーバ30(AR処理サーバアプリケーション31)に送信して、編集対象となる対象物データTDのARシーケンスデータADに追加登録させる(S406)。
【0121】
次に、対象物データ生成アプリケーション131は、次のマーカー位置の入力の有無を判断し(S407)、次のマーカー位置の入力があった場合上述のステップS404の処理に移行し、そうでない場合は対象物データTDの編集処理を終了する。ステップS407の処理については、上述のステップS205と同様であるため詳しい説明を省略する。
【0122】
以上のように、ユーザ企業端末10(対象物データ生成アプリケーション131)において、対象物データTD(ARシーケンスデータAD)について編集を受け付けることができる。なお、
図22では、対象物データTD(ARシーケンスデータAD)に対して新たなマーカー情報PDと付与情報SDの組を追加する例について示したが、削除(例えば、登録済のマーカー情報PDや付与情報SDの削除)や、付与情報SDのみの追加(例えば、登録済のマーカー情報PDへの付与情報SDの追加)や、変更(例えば、マーカー情報PDに設定されたマーカー位置の変更や、マーカー情報PDに付加する付与情報SDの変更)等の種々の編集処理を受付けて、アプリケーションサーバ30(AR処理サーバアプリケーション31)上のデータに反映可能とするようにしてもよい。
【0123】
ユーザ企業端末10(対象物データ生成アプリケーション131)において、対象物データTD(ARシーケンスデータAD)上の各データの編集(追加・削除・変更)については、上記の
図22のフローチャートに示すようなAR処理を伴う操作画面ではなく、単なるデータベースの各項目についてデータ編集操作(
図7に示すような構造のデータベースのデータ編集操作)を受け付けるようにしてもよい。この場合、アプリケーションサーバ30(AR処理サーバアプリケーション31)は、ユーザ企業端末10(対象物データ生成アプリケーション131)の要求に従ったデータベース編集処理(主としてARシーケンスデータを構成するマーカー情報や付与情報の追加・変更・削除の処理)を受け付けるようにしてもよい。
【0124】
以上のように、ユーザ企業端末10(対象物データ生成アプリケーション131)において、簡便な操作で対象物データTD(ARシーケンスデータAD)について編集を受け付けることができるのは、この実施形態の対象物データTDが上記のように個別のデータについて容易に置換可能な構造となっているためである。また、この実施形態の対象物データTDでは、対象物データTDが上記のように個別のデータについて容易に置換可能な構造となっていることで、同時に複数のユーザ企業端末10から編集(マーカー情報PD及び付与情報SDの追加・変更・削除等)を受け付けることができる。
【0125】
(B-4)ユーザ企業端末10(対象物データ生成アプリケーション131)で、対象物データTDを生成する処理(上述の
図16の処理)を行う際に、マッピングデータMDを生成する元となるリファレンスデータRDとして、ユーザ企業端末10自体で取得した3Dスキャニングデータ(カメラやセンサ等の検知結果に基づくスキャニングデータ)を用いているが、これに代えて予め保持した3Dモデリングデータ(例えば、対象物TOを製造する元となるCADデータ等の3Dモデリングデータ)を用いるようにしてもよい。例えば、ステップS201、S202において、ユーザ企業端末10(対象物データ生成アプリケーション131)が、オペレータから3Dモデリングデータの入力を受け付けるようにしてもよい。対象物TOをかたどった3Dモデリングデータは、ユーザ企業端末10自体で取得した3Dスキャニングデータ(カメラやセンサ等の検知結果に基づくスキャニングデータ)よりも精密なリファレンスデータRDであるといえるため、マッピングデータMDの生成に適している。ユーザ企業端末10(対象物データ生成アプリケーション131)において、3Dモデリングデータの形式については限定されないものであり種々の形式(例えば、種々のCAD形式のデータ等)を適用することができる。また、3DモデリングデータからマッピングデータMDの形式に変換する処理については、種々のARミドルウェアと同様の処理を適用することができる。
【符号の説明】
【0126】
1…情報処理システム,10…ユーザ企業端末,11…タッチパネルディスプレイ,12…カメラ,13…情報処理部,14…センサ部,15…マイクロホン,16…スピーカ,20…エンドユーザ端末,21…タッチパネルディスプレイ,22…カメラ,23…情報処理部,24…センサ部,25…マイクロホン,26…スピーカ,30…アプリケーションサーバ,31…AR処理サーバアプリケーション,32…データ管理部,131…対象物データ生成アプリケーション,231…対象物データ表示アプリケーション,321…ユーザ企業管理データ管理部,322…対象物データ管理部,AD…ARシーケンスデータ,AR…対象物説明,AR…説明,ARM…ARシーケンス管理データ,DD…対象物管理データ,MD…マッピングデータ,PD…マーカー情報,RD…リファレンスデータ,SD…付与情報,TD…対象物データ,TO…対象物。