IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ プレティア・テクノロジーズ株式会社の特許一覧

特開2023-3489映像処理システム、映像処理プログラム及び映像処理方法
<>
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図1
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図2
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図3
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図4
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図5
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図6
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図7
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図8
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図9
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図10
  • 特開-映像処理システム、映像処理プログラム及び映像処理方法 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023003489
(43)【公開日】2023-01-17
(54)【発明の名称】映像処理システム、映像処理プログラム及び映像処理方法
(51)【国際特許分類】
   G06T 19/00 20110101AFI20230110BHJP
   G06F 3/04842 20220101ALI20230110BHJP
【FI】
G06T19/00 600
G06F3/0484 120
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2021104594
(22)【出願日】2021-06-24
(71)【出願人】
【識別番号】520204168
【氏名又は名称】プレティア・テクノロジーズ株式会社
(74)【代理人】
【識別番号】100141427
【弁理士】
【氏名又は名称】飯村 重樹
(72)【発明者】
【氏名】牛尾 湧
【テーマコード(参考)】
5B050
5E555
【Fターム(参考)】
5B050BA09
5B050BA17
5B050CA06
5B050CA07
5B050DA01
5B050EA07
5B050EA19
5E555AA79
5E555BA02
5E555BA05
5E555BA06
5E555BA69
5E555BB02
5E555BB05
5E555BB06
5E555BC18
5E555BE17
5E555CA12
5E555CB14
5E555CB45
5E555CC05
5E555DB03
5E555DB32
5E555DC09
5E555FA00
(57)【要約】
【課題】仮想オブジェクトの生成を簡易に行うことができる映像処理システム、映像処理プログラム及び映像処理方法を提供する。
【解決手段】現実空間の映像に仮想オブジェクトを重ね合わせる映像処理システムにおいて、現実空間に対応するマップにアクセス可能であってマップを閲覧可能な閲覧手段と、閲覧手段を介してマップの任意の位置に仮想オブジェクトを重ね合わせることによって重ね合わせた位置に仮想オブジェクトを配置する仮想オブジェクト配置手段とを備える。
【選択図】図3

【特許請求の範囲】
【請求項1】
現実空間の映像に仮想オブジェクトを重ね合わせる映像処理システムにおいて、
前記現実空間に対応するマップにアクセス可能であって前記マップを閲覧可能な閲覧手段と、
該閲覧手段を介して前記マップの任意の位置に仮想オブジェクトを重ね合わせることによって重ね合わせた前記位置に前記仮想オブジェクトを配置する仮想オブジェクト配置手段と、
を備えることを特徴とする映像処理システム。
【請求項2】
前記マップを編集可能なマップ編集手段を備えることを特徴とする請求項1に記載の映像処理システム。
【請求項3】
前記仮想オブジェクトを格納する格納手段を備え、
前記仮想オブジェクト配置手段は、
前記格納手段から抽出した前記仮想オブジェクトを配置する際に前記マップの任意の前記位置にカーソルを重ね合わせることで前記カーソルを重ね合わせた前記マップの前記位置に前記仮想オブジェクトを配置する、
ことを特徴とする請求項1または2に記載の映像処理システム。
【請求項4】
前記閲覧手段は、
ネットワークを経由して前記仮想オブジェクト配置手段にアクセスすることが可能なウェブブラウザである、
ことを特徴とする請求項1~3のいずれか1項に記載の映像処理システム。
【請求項5】
前記仮想オブジェクトが配置された前記マップを加工済みマップとして格納するサーバを備え、
該サーバを介して前記加工済みマップに任意の機能を追加するアプリケーションソフトウェアを作成する開発環境を提供する、
ことを特徴とする請求項1~4のいずれか1項に記載の映像処理システム。
【請求項6】
前記サーバがクラウド環境で実装されることを特徴とする請求項5に記載の映像処理システム。
【請求項7】
現実空間の映像に仮想オブジェクトを重ね合わせる映像処理プログラムにおいて、
前記現実空間に対応するマップにアクセス可能であって前記マップを閲覧可能な閲覧手段を介して前記マップの任意の位置に仮想オブジェクトを重ね合わせることによって重ね合わせた前記位置に前記仮想オブジェクトを配置する仮想オブジェクト配置ステップを実行する、
ことを特徴とする映像処理プログラム。
【請求項8】
現実空間の映像に仮想オブジェクトを重ね合わせる映像処理方法において、
前記現実空間に対応するマップにアクセス可能であって前記マップを閲覧可能な閲覧手段を介して前記マップの任意の位置に仮想オブジェクトを重ね合わせることによって重ね合わせた前記位置に前記仮想オブジェクトを配置する仮想オブジェクト配置ステップを実行する、
ことを特徴とする映像処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像処理システム、映像処理プログラム及び映像処理方法、特に、現実空間の映像に仮想オブジェクトを重ね合わせる映像処理システム、映像処理プログラム及び映像処理方法に関する。
【背景技術】
【0002】
近年、例えばスマートフォンや眼鏡型のウェアラブルデバイスとして実装される端末に表示される現実空間の映像に、コンピュータグラフィックスによる映像を重ね合わせて現実空間と映像との調和を楽しむことが可能な、現実空間が拡張された拡張現実空間を提供する映像処理技術が提案されている。
【0003】
特許文献1には、カメラによって撮影される現実空間の画像に仮想オブジェクトが配置された拡張現実空間をディスプレイに表示するとともに、この拡張現実空間を複数の端末間で共有することができる拡張現実プログラムが開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特許第6548241号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところで、この種の映像処理技術では、仮想オブジェクトを生成する現実空間の位置に対応するマップ上の位置にアンカーを配置して、仮想オブジェクトとアンカーとを関連づけてコーディングすることによって、仮想オブジェクトを配置する手法が採られることがある。
【0006】
しかし、仮想オブジェクトとアンカーとを関連づけてコーディングするとなれば、仮想オブジェクトの配置に手間がかかって作業負担が増大することが懸念されるとともに、作業負担が増大するとなれば、作業コストも増大することが懸念される。
【0007】
本発明は、上記事情に鑑みてなされたものであり、仮想オブジェクトの生成を簡易に行うことができる映像処理システム、映像処理プログラム及び映像処理方法を提供することを課題とするものである。
【課題を解決するための手段】
【0008】
上記目的を達成するための本発明に係る映像処理システムは、現実空間の映像に仮想オブジェクトを重ね合わせる映像処理システムにおいて、現実空間に対応するマップにアクセス可能であってマップを閲覧可能な閲覧手段と、閲覧手段を介してマップの任意の位置に仮想オブジェクトを重ね合わせることによって重ね合わせた位置に仮想オブジェクトを配置する仮想オブジェクト配置手段とを備えることを特徴としている。
【0009】
これによれば、マップの任意の位置に仮想オブジェクトを配置するに際して、閲覧手段を介してマップを閲覧しながら配置することができることから、マップの任意の位置に仮想オブジェクトを容易に位置決めして配置することができる。
【0010】
しかも、仮想オブジェクトをマップの任意の位置に重ね合わせることで仮想オブジェクトをマップに配置することができることから、仮想オブジェクトの配置に際して、仮想オブジェクトとアンカーとを関連づけてコーディングを実行する必要がない。
【0011】
したがって、仮想オブジェクトの生成を簡易に行うことができる。
【0012】
この映像処理システムは、マップを編集可能なマップ編集手段を備え、さらに、仮想オブジェクトを格納する格納手段を備え、仮想オブジェクト配置手段は、格納手段から抽出した仮想オブジェクトを配置する際にマップの任意の位置にカーソルを重ね合わせることでカーソルを重ね合わせたマップの位置に仮想オブジェクトを配置することを特徴としている。
【0013】
さらに、映像処理システムの閲覧手段は、ネットワークを経由して仮想オブジェクト配置手段にアクセスすることが可能なウェブブラウザであることを特徴としている。
【0014】
しかも、映像処理システムは、仮想オブジェクトが配置されたマップを加工済みマップとして格納するサーバを備え、サーバを介して加工済みマップに任意の機能を追加するアプリケーションソフトウェアを作成する開発環境を提供することを特徴としている。
【0015】
ところで、映像処理システムのサーバは、クラウド環境で実装されるものであってもよい。
【0016】
上記目的を達成するための本発明に係る映像処理プログラムは、現実空間の映像に仮想オブジェクトを重ね合わせる映像処理プログラムにおいて、現実空間に対応するマップにアクセス可能であってマップを閲覧可能な閲覧手段を介してマップの任意の位置に仮想オブジェクトを重ね合わせることによって重ね合わせた位置に仮想オブジェクトを配置する仮想オブジェクト配置ステップを実行することを特徴としている。
【0017】
上記目的を達成するための本発明に係る映像処理方法は、現実空間の映像に仮想オブジェクトを重ね合わせる映像処理方法において、現実空間に対応するマップにアクセス可能であっマップを閲覧可能な閲覧手段を介してマップの任意の位置に仮想オブジェクトを重ね合わせることによって重ね合わせた位置に仮想オブジェクトを配置する仮想オブジェクト配置ステップを実行することを特徴としている。
【発明の効果】
【0018】
この発明によれば、仮想オブジェクトの生成を簡易に行うことができる。
【図面の簡単な説明】
【0019】
図1】本発明の実施の形態に係る映像処理システムの構成の概略を説明する図である。
図2】同じく、本実施の形態に係る映像処理システムのサーバ及び開発者端末として実装されるコンピュータの構成の概略を説明するブロック図である。
図3】同じく、本実施の形態に係る映像処理システムのサーバのストレージの構成の概略を説明するブロック図である。
図4】同じく、本実施の形態に係る映像処理システムで処理されるマップデータの構成の概略を説明する図である。
図5】同じく、本実施の形態に係る映像処理システムで処理される仮想オブジェクトデータの構成の概略を説明する図である。
図6】同じく、本実施の形態に係る映像処理システムで処理される加工済みマップデータの構成の概略を説明する図である。
図7】同じく、本実施の形態に係る映像処理システムの仮想オブジェクト配置部の処理の概略を説明するフローチャートである。
図8】同じく、本実施の形態に係る映像処理システムの仮想オブジェクト配置部の処理の概略を説明する図である。
図9】同じく、本実施の形態に係る映像処理システムの映像処理プログラムの画面インターフェースの一例を示す図である。
図10】同じく、本実施の形態に係る映像処理システムのユーザ端末の構成の概略を説明するブロック図である。
図11】同じく、本実施の形態に係る映像処理システムの運用の概略を説明するフローチャートである。
【発明を実施するための形態】
【0020】
次に、図1図11に基づいて、本発明の実施の形態に係る映像処理システムについて説明する。
【0021】
図1は、本実施の形態に係る映像処理システムの構成の概略を説明する図である。図示のように、映像処理システム10は、サーバ20、複数の開発者端末30及び複数のユーザ端末40を主要構成として備え、これらがインターネット網等のネットワーク200を介して互いにアクセス可能に接続される。
【0022】
本実施の形態では、サーバ20は、映像処理システム10を用いたサービスを提供するサービス事業者1に管理され、開発者端末30は、アプリケーションソフトウェアを作成する開発者2に配備される。
【0023】
ユーザ端末40は、開発者2によって開発されたアプリケーションソフトウェアを利用する、あるいは開発者2によって開発されたアプリケーションソフトウェアを用いたサービスを利用するユーザ3に保有される。
【0024】
これらサーバ20及び開発者端末30は、本実施の形態では、ほぼ同様のハードウェア構成を具備するコンピュータ、例えばデスクトップ型あるいはノート型のコンピュータによって実装される。
【0025】
なお、サーバ20は、本実施の形態ではクラウド環境で実装される。
【0026】
図2は、コンピュータの構成の概略を説明するブロック図である。図示のように、コンピュータは、プロセッサ101、メモリ102、ストレージ103、送受信部104及び入出力部105を主要構成として備え、これらが互いにバス106を介して電気的に接続される。
【0027】
プロセッサ101は、コンピュータの動作を制御し、各要素間におけるデータの送受信の制御や、アプリケーションプログラムの実行に必要な処理等を行う演算装置である。
【0028】
このプロセッサ101は、本実施の形態では例えばCPU(Central Processing Unit)であり、後述するストレージ103に格納されてメモリ102に展開されたアプリケーションプログラムを実行して各処理を行う。
【0029】
メモリ102は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える。
【0030】
このメモリ102は、プロセッサ101の作業領域として使用される一方、コンピュータの起動時に実行されるBIOS(Basic Input/Output System)、及び各種の設定情報等が格納される。
【0031】
ストレージ103は、アプリケーションプログラムや各種の処理に用いられるデータ等が格納されている。
【0032】
送受信部104は、コンピュータをネットワーク200に接続する。この送受信部104は、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。
【0033】
入出力部105には、必要に応じて、キーボードやマウスといった情報入力機器やディスプレイ等の出力機器が接続される。本実施の形態では、キーボード、マウス及びディスプレイがそれぞれ接続される。
【0034】
バス106は、接続したプロセッサ101、メモリ102、ストレージ103、送受信部104及び入出力部105の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝達する。
【0035】
図3は、サーバ20のストレージ103の構成の概略を説明するブロック図である。図示のように、ストレージ103は、ストレージ103の記憶領域が区画された格納手段である第1記憶領域21及び第2記憶領域22と、映像処理プログラム23とを備える。
【0036】
第1記憶領域21には、本実施の形態では、マップデータD1及び仮想オブジェクトデータD2が格納され、第2記憶領域22には、本実施の形態では、加工済みマップデータD3が格納される。
【0037】
図4は、マップデータD1の構成の概略を説明する図である。このマップデータD1は、現実空間の任意の領域に対応して作成された三次元メッシュデータからなる三次元マップであって、図示のような二次元の平面図にも展開される。
【0038】
図5は、仮想オブジェクトデータD2の概略を説明する図である。図示のように、仮想オブジェクトデータD2は、本実施の形態では、識別番号がそれぞれ割り当てられた複数のモンスター型の仮想オブジェクトO1~O5等によって構成される。
【0039】
図6は、加工済みマップデータD3の構成の概略を説明する図である。図示のように、加工済みマップデータD3は、マップデータD1の構造物の任意の位置に仮想オブジェクトO1~O5等が配置されたデータである。
【0040】
本実施の形態では、マップデータD1の構造物に例えば仮想オブジェクトO1が配置されて、加工済みマップデータD3が構成される。
【0041】
この加工済みマップデータD3は、本実施の形態では、API(Application Programming Interface)あるいはSDK(Software Development Kit:ソフトウェア開発キット)の形態で、開発者端末30に開発環境として提供される。
【0042】
図3で示す映像処理プログラム23は、本実施の形態では、サーバ20を、マップ編集手段であるマップ編集部23a、仮想オブジェクト配置手段である仮想オブジェクト配置部23b、及びマップ処理部23cとして機能させるプログラムである。
【0043】
マップ編集部23aは、本実施の形態では、マップデータD1を加工したり修正したり、あるいはマップデータD1に新たなマップを追加したり等といったマップデータD1の編集作業を行うものである。
【0044】
仮想オブジェクト配置部23bは、本実施の形態では、マップデータD1の任意の位置に仮想オブジェクトO1~O5等を配置するものである。
【0045】
図7は、仮想オブジェクト配置部23bの処理の概略を説明するフローチャートであり、図8は、仮想オブジェクト配置部23bの処理の概略を説明する図である。
【0046】
図7で示すように、ステップS1において、マップデータD1の任意の位置に配置される任意の例えば仮想オブジェクトO1が、仮想オブジェクトデータD2の中から選択される。
【0047】
続いて、ステップS2において、図8で示すように、選択した仮想オブジェクトO1が配置されるマップデータD1の任意の位置にカーソルCが重ね合わせられる。このカーソルCは、本実施の形態では、サーバ20あるいは開発者端末30の入出力部105に接続されたマウス等の情報入力機器によって操作される。
【0048】
カーソルCがマップデータD1の任意の位置に重ね合わせられて、重ね合わせられた位置において例えばマウス等がクリックされると、重ね合わせられたマップデータD1の位置にカーソルCが位置決めされて、ステップS3において、カーソルCが重ね合わせられた位置に仮想オブジェクトO1が重ね合わせられて配置される。
【0049】
このように、マウス等の情報入力機器によってマップデータD1の所望の位置にカーソルCを位置決めすることによって、仮想オブジェクトO1~O5等をマップデータD1に重ね合わせて配置することができることから、仮想オブジェクトO1~O5等を簡易に配置することができる。
【0050】
マップ処理部23cは、本実施の形態では、マップ編集部23aでの編集作業や仮想オブジェクト配置部23bでの処理の内容をマップデータD1に反映させて、加工済みマップデータD3を構成するものである。
【0051】
これらマップ編集部23a、仮想オブジェクト配置部23b及びマップ処理部23cによる処理を実行する映像処理プログラム23は、本実施の形態では、サーバ20及び開発者端末30のディスプレイに表示され、サーバ20及び開発者端末30で情報の入出力が可能な、例えば図9で示すような画面インターフェースIFによって実装される。
【0052】
この画面インターフェースIFは、本実施の形態では、例えば、マップデータD1が表示される領域A、及び第1記憶領域21に格納された仮想オブジェクトデータD2からマップデータD1の任意の位置に配置するために選択された仮想オブジェクトO1~O5等が表示される領域Bを備える。
【0053】
図1で示す開発者端末30は、ネットワーク200を経由して閲覧手段であるウェブブラウザWBを介してサーバ20の映像処理プログラム23にアクセスすることができる。
【0054】
本実施の形態では、開発者2は、開発者端末30を用いて、ウェブブラウザWBを介して映像処理プログラム23にアクセスしてマップデータD1を編集したり、マップデータD1に仮想オブジェクトO1~O5等を配置したりして、加工済みマップデータD3を作成することができる。
【0055】
したがって、開発者端末30に映像処理プログラム23や映像処理プログラム23で処理される各種のデータを格納することなく、ウェブブラウザWBを介して映像処理プログラム23での処理を実行することができることから、開発者端末30に作業負担が課されることなく、良好な動作環境の下で作業を実行することができる。
【0056】
一方、開発者端末30には、APIあるいはSDKの形態で、加工済みマップデータD3が開発環境として提供されることから、例えば一の開発者2は、他の開発者2が開発者端末30を介して作成した加工済みマップデータD3に任意の機能を追加して、アプリケーションソフトウェアを作成することができる。
【0057】
図1で示すユーザ端末40は、本実施の形態では、携帯型情報端末であるスマートフォンあるいはタブレット型のコンピュータによって実装される。
【0058】
図10は、ユーザ端末40の構成の概略を説明するブロック図である。図示のように、ユーザ端末40は、制御部41、カメラ42、ディスプレイ43及びセンサ類44を主要構成として備える。
【0059】
制御部41は、カメラ42、ディスプレイ43、センサ類44等のユーザ端末40の各部を制御するものであって、例えばプロセッサ、メモリ、ストレージ、送受信部等によって構成される。
【0060】
カメラ42は、任意のあらゆる事物を被写体として撮像して映像あるいは画像として取得するものであって、本実施の形態では、現実空間の映像を実時間で取得する。
【0061】
ディスプレイ43は、カメラ42で取得した映像、画像やユーザ端末40に格納されるアプリケーションプログラムのインターフェース等が表示され、本実施の形態では、現実空間の映像や拡張現実空間の映像が表示される。
【0062】
このディスプレイ43は、本実施の形態では、表示面への接触によって情報の入力を受け付けるものであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される。
【0063】
センサ類44は、本実施の形態では、ジャイロセンサや加速度センサ等によって構成され、現実空間におけるユーザ端末40の位置や向きを検知する。
【0064】
次に、本実施の形態に係る映像処理システム10の運用について説明する。
【0065】
図11は、本実施の形態に係る映像処理システムの運用の概略を説明するフローチャートである。図示のように、まず、ステップS10において、一の開発者2が開発者端末30を用いて、ウェブブラウザWBを介してサーバ20の映像処理プログラム23にアクセスする。
【0066】
続いて、ステップS11において、映像処理プログラム23にアクセスした一の開発者2は、必要に応じて、マップデータD1の加工、修正あるいは新たなマップの追加等といったマップデータD1の編集を任意で実行する。
【0067】
必要に応じたマップデータD1の編集を実行した後、ステップS12において、マップデータD1の任意の位置に仮想オブジェクトO1~O5等を配置する。仮想オブジェクトO1~O5等の配置に際しては、本実施の形態では、仮想オブジェクトデータD2の中から任意の仮想オブジェクトO1~O5等を選択する。
【0068】
仮想オブジェクトO1~O5等を選択した後、本実施の形態では、マップデータD1の任意の位置にカーソルCを重ね合わせて、重ね合わせたマップデータD1の位置にカーソルCを位置決めして、仮想オブジェクトO1~O5等を重ね合わせて配置する。
【0069】
仮想オブジェクトO1~O5等を配置した後、ステップS13において、マップデータD1の編集や仮想オブジェクトO1~O5等の配置をマップデータD1に反映させて、加工済みマップデータD3を作成する。
【0070】
作成した加工済みマップデータD3は、本実施の形態では、APIあるいはSDKの形態で開発環境として提供されることから、ステップS14において、他の開発者2は、必要に応じて、開発者端末30を介して加工済みマップデータD3を用いて任意のアプリケーションソフトウェアを作成する。
【0071】
このように、マップデータD1の任意の位置に仮想オブジェクトO1~O5等を配置するに際して、ウェブブラウザWBを介してマップデータD1を閲覧しながら配置することができることから、マップデータD1の任意の位置に仮想オブジェクトO1~O5等を容易に位置決めして配置することができる。
【0072】
しかも、本実施の形態では、マップデータD1の任意の位置に重ね合わせられたカーソルCを介して、仮想オブジェクトO1~O5等をマップデータD1の任意の位置に重ね合わせることで仮想オブジェクトをマップデータD1に配置することができることから、仮想オブジェクトO1~O5等の配置に際して、仮想オブジェクトO1~O5等とアンカーとを関連づけてコーディングを実行する必要がない。
【0073】
したがって、仮想オブジェクトO1~O5等の生成を簡易に行うことができる。
【0074】
なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲で種々の変更が可能である。
【0075】
上記実施の形態では、カーソルCを介して、仮想オブジェクトO1~O5等をマップデータD1の任意の位置に重ね合わせる場合を説明したが、カーソルCを介在させないで、仮想オブジェクトO1~O5等をマップデータD1の任意の位置に直接的に重ね合わせて配置することができるように構成してもよい。
【0076】
上記実施の形態では、映像処理端末20が携帯型情報端末であるスマートフォンあるいはタブレット型のコンピュータである場合を説明したが、例えば、眼鏡型のウェアラブルデバイス等といった各種の端末で実装されるものであってもよい。
【0077】
上記実施の形態では、サーバがサービス事業者2に管理されるクラウドサーバ40である場合を説明したが、サービス事業者2に配備されるサーバであってもよい。
【符号の説明】
【0078】
2 開発者
10 映像処理システム
20 サーバ
21 第1記憶領域(格納手段)
22 第2記憶領域
23 映像処理プログラム
23a マップ編集部(マップ編集手段)
23b 仮想オブジェクト配置部(仮想オブジェクト配置手段)
30 開発者端末
40 ユーザ端末
C カーソル
D1 マップデータ(マップ)
D2 仮想オブジェクトデータ(仮想オブジェクト)
D3 加工済みマップデータ(加工済みマップ)
O1~O5 仮想オブジェクト
WB ウェブブラウザ(閲覧手段)
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11