IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日立マクセル株式会社の特許一覧

特許7561871拡張現実処理システム、情報表示装置、及び拡張現実処理方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-26
(45)【発行日】2024-10-04
(54)【発明の名称】拡張現実処理システム、情報表示装置、及び拡張現実処理方法
(51)【国際特許分類】
   G06F 3/0484 20220101AFI20240927BHJP
   G06F 3/0481 20220101ALI20240927BHJP
   G06F 3/01 20060101ALI20240927BHJP
   G06T 19/00 20110101ALI20240927BHJP
【FI】
G06F3/0484
G06F3/0481
G06F3/01 510
G06T19/00 600
【請求項の数】 8
(21)【出願番号】P 2022564997
(86)(22)【出願日】2020-11-30
(86)【国際出願番号】 JP2020044503
(87)【国際公開番号】W WO2022113342
(87)【国際公開日】2022-06-02
【審査請求日】2023-04-28
(73)【特許権者】
【識別番号】000005810
【氏名又は名称】マクセル株式会社
(74)【代理人】
【識別番号】110000442
【氏名又は名称】弁理士法人武和国際特許事務所
(72)【発明者】
【氏名】吉澤 和彦
(72)【発明者】
【氏名】橋本 康宣
【審査官】木内 康裕
(56)【参考文献】
【文献】特開2017-033575(JP,A)
【文献】米国特許出願公開第2017/0068323(US,A1)
【文献】国際公開第2018/025511(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/048 - 3/04895
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
拡張現実オブジェクトを表示する情報表示装置と、前記拡張現実オブジェクトの編集操作を受け付ける情報処理装置と、を含む拡張現実処理システムであって、
前記情報表示装置は、第1ディスプレイ、前記情報処理装置と情報を送受信する第1通信器、及び第1プロセッサを備え、
前記情報処理装置は、第2ディスプレイ、前記情報表示装置と情報を送受信する第2通信器、及び第2プロセッサを備え、
前記第1プロセッサは、
実空間を基準とした世界座標系に基づく仮想空間内に配置されている拡張現実オブジェクトに関する情報を、前記第1通信器を介して前記情報処理装置に送信し、
前記第2プロセッサは、
前記拡張現実オブジェクトに関する情報に基づく仮拡張現実オブジェクトを、前記情報表示装置の前記実空間における位置情報と前記拡張現実オブジェクトの前記世界座標系に基づく仮想空間内における位置情報とから算出された第1算出位置情報に基づいて、前記情報処理装置を基準とした端末座標系に基づく作業空間内に配置し、
前記第2ディスプレイに、前記仮拡張現実オブジェクトを表示し、
前記表示された前記仮拡張現実オブジェクトに対する編集操作を受け付け、
前記仮拡張現実オブジェクトに対する編集操作に関する情報を、前記第2通信器を介して前記情報表示装置に送信し、
前記第1プロセッサは、
前記仮拡張現実オブジェクトに対する編集操作に関する情報に基づいて、前記世界座標系に基づく仮想空間内に配置されている前記拡張現実オブジェクトに前記編集操作の内容を反映する、
ことを特徴とする拡張現実処理システム。
【請求項2】
請求項1に記載の拡張現実処理システムにおいて、
前記第プロセッサは、
前記拡張現実オブジェクトを識別可能な識別情報に基づいて、前記世界座標系に基づく仮想空間内に配置されている拡張現実オブジェクトに前記編集操作の内容を反映する、
ことを特徴とする拡張現実処理システム。
【請求項3】
拡張現実オブジェクトを表示する情報表示装置と、前記拡張現実オブジェクトの編集操作を受け付ける情報処理装置と、を含む拡張現実処理システムであって、
前記情報表示装置は、第1ディスプレイ、前記情報処理装置と情報を送受信する第1通信器、及び第1プロセッサを備え、
前記情報処理装置は、第2ディスプレイ、前記情報表示装置と情報を送受信する第2通信器、及び第2プロセッサを備え、
前記第1プロセッサは、
空間を基準とした世界座標系に基づく仮想空間内に配置されている拡張現実オブジェクトに関する情報を、前記第1通信器を介して前記情報処理装置に送信し、
前記第2プロセッサは、
前記第2通信器を介して受信した前記拡張現実オブジェクトに関する情報に基づく仮拡張現実オブジェクトを、前記情報表示装置の実空間における位置情報と前記拡張現実オブジェクトの前記世界座標系に基づく仮想空間内における位置情報とから算出された第1算出位置情報に基づいて、前記情報処理装置を基準とした端末座標系に基づく作業空間内に配置し、
前記第2ディスプレイに、前記仮拡張現実オブジェクトを表示し、
前記表示された前記仮拡張現実オブジェクトに仮追加拡張現実オブジェクトを追加する編集操作を受け付け、
前記作業空間内における前記仮拡張現実オブジェクトと前記仮追加拡張現実オブジェクトとの位置関係を示す情報、及び前記仮追加拡張現実オブジェクトに関する情報を、前記第2通信器を介して前記情報表示装置に送信し、
前記第1プロセッサは、
前記作業空間内における前記仮拡張現実オブジェクトと前記仮追加拡張現実オブジェクトとの位置関係を示す情報と、前記拡張現実オブジェクトの前記世界座標系に基づく仮想空間における位置情報と、に基づいて、前記仮追加拡張現実オブジェクトに関する情報に基づく追加拡張現実オブジェクトを前記世界座標系に基づく仮想空間内に配置し、
前記第1ディスプレイに前記追加拡張現実オブジェクトを表示する、
ことを特徴とする拡張現実処理システム。
【請求項4】
拡張現実オブジェクトを表示する情報表示装置と、前記拡張現実オブジェクトの編集操作を受け付ける情報処理装置と、を含む拡張現実処理システムであって、
前記情報表示装置は、第1ディスプレイ、前記情報処理装置と情報を送受信する第1通信器、前記情報表示装置から実空間に存在する現実オブジェクトまでの距離を測定する測距センサ、及び第1プロセッサを備え、
前記情報処理装置は、第2ディスプレイ、前記情報表示装置と情報を送受信する第2通信器、及び第2プロセッサを備え、
前記第1プロセッサは、
前記測距センサが測定した前記現実オブジェクトまでの距離及び前記情報表示装置の前記実空間における位置情報に基づいて、前記現実オブジェクトの前記実空間を基準とした世界座標系に基づく仮想空間内における位置情報を算出し、
前記現実オブジェクトの画像からなる現実オブジェクトに関する情報を、前記第1通信器を介して前記情報処理装置に送信し、
前記第2プロセッサは、
前記第2通信器を介して受信した前記現実オブジェクトに関する情報に基づく仮拡張現実オブジェクトを、前記情報表示装置の前記実空間における位置情報と前記現実オブジェクトの前記世界座標系に基づく仮想空間内における位置情報とから算出された第1算出位置情報に基づいて、前記情報処理装置を基準とした端末座標系に基づく作業空間内に配置し、
前記第2ディスプレイに、前記仮拡張現実オブジェクトを表示し、
前記表示された前記仮拡張現実オブジェクトに仮追加拡張現実オブジェクトを追加する編集操作を受け付け、
前記作業空間内における前記仮拡張現実オブジェクトと前記仮追加拡張現実オブジェクトとの位置関係を示す情報、及び前記仮追加拡張現実オブジェクトに関する情報を、前記第2通信器を介して前記情報表示装置に送信し、
前記第1プロセッサは、
前記作業空間内における前記仮拡張現実オブジェクトと前記仮追加拡張現実オブジェクトとの位置関係を示す情報と、前記現実オブジェクトの前記世界座標系に基づく仮想空間における位置情報と、に基づいて、前記仮追加拡張現実オブジェクトに関する情報に基づく追加拡張現実オブジェクトを前記世界座標系に基づく仮想空間内に配置し、
前記第1ディスプレイに前記追加拡張現実オブジェクトを表示する、
ことを特徴とする拡張現実処理システム。
【請求項5】
拡張現実オブジェクトの編集と表示を行う情報表示装置であって、
前記情報表示装置は、ディスプレイ及びプロセッサを備え、
前記プロセッサは、
実空間を基準とした世界座標系に基づく仮想空間内に配置されている拡張現実オブジェクトを、前記ディスプレイの表示領域の一部領域からなる仮想空間表示領域に表示し、
前記拡張現実オブジェクトに関する情報に基づく仮拡張現実オブジェクトを、前記情報表示装置の前記実空間における位置情報と前記拡張現実オブジェクトの前記世界座標系に基づく仮想空間内における位置情報とから算出された第1算出位置情報に基づいて、前記情報表示装置を基準とした端末座標系に基づく作業空間内に配置し、
前記ディスプレイの前記仮想空間表示領域とは異なるバーチャルパレット領域に、前記仮拡張現実オブジェクトを表示し、
前記バーチャルパレット領域に表示された前記仮拡張現実オブジェクトに仮追加拡張現実オブジェクトを追加する編集操作を受け付け、
前記作業空間内における前記仮拡張現実オブジェクトと前記仮追加拡張現実オブジェクトとの位置関係を示す情報と、前記拡張現実オブジェクトの前記世界座標系に基づく仮想空間における位置情報と、に基づいて、前記仮追加拡張現実オブジェクトに関する情報に基づく追加拡張現実オブジェクトを前記世界座標系に基づく仮想空間内に配置し、
前記仮想空間表示領域に前記追加拡張現実オブジェクトを表示する、
ことを特徴とする情報表示装置
【請求項6】
情報表示装置で拡張現実オブジェクトを編集して表示する拡張現実処理方法であって、
実空間に存在する現実オブジェクトを前記情報表示装置のディスプレイの一部領域からなる仮想空間表示領域に表示するステップと、
前記情報表示装置から前記現実オブジェクトまでの距離を測定するステップと、
前記測定した前記情報表示装置から前記現実オブジェクトまでの距離及び前記情報表示装置の前記実空間における位置情報に基づいて、前記現実オブジェクトの前記実空間を基準とした世界座標系に基づく仮想空間内における位置情報を算出するステップと、
前記現実オブジェクトに関する情報に基づく仮拡張現実オブジェクトを、前記情報表示装置の前記実空間における位置情報と前記現実オブジェクトの前記世界座標系に基づく仮想空間内における位置情報と、から算出された第1算出位置情報に基づいて、前記情報表示装置を基準とした端末座標系に基づく作業空間内に配置するステップと、
前記ディスプレイの前記仮想空間表示領域とは異なるバーチャルパレット領域に、前記仮拡張現実オブジェクトを表示するステップと、
前記バーチャルパレット領域に表示された前記仮拡張現実オブジェクトに仮追加拡張現実オブジェクトを追加する編集操作を受け付けるステップと、
前記現実オブジェクトの前記世界座標系に基づく仮想空間内における位置と、前記作業空間内における前記仮拡張現実オブジェクトと前記仮追加拡張現実オブジェクトとの位置関係と、に基づいて、前記仮追加拡張現実オブジェクトの情報に基づく追加拡張現実オブジェクトを前記世界座標系に基づく仮想空間内に配置するステップと、
前記追加拡張現実オブジェクトを前記ディスプレイの前記仮想空間表示領域に表示するステップと、
を含むことを特徴とする拡張現実処理方法
【請求項7】
情報表示装置で拡張現実オブジェクトを編集して表示する拡張現実処理方法であって、
実空間を基準とした世界座標系に基づく仮想空間内に配置されている拡張現実オブジェクトを、前記情報表示装置のディスプレイの一部領域からなる仮想空間表示領域に表示するステップと、
前記拡張現実オブジェクトに関する情報に基づく仮拡張現実オブジェクトを、前記情報表示装置の前記実空間における位置情報と前記拡張現実オブジェクトの前記世界座標系に基づく仮想空間内における位置情報とから算出された第1算出位置情報に基づいて、前記情報表示装置を基準とした端末座標系に基づく作業空間内に配置するステップと、
前記ディスプレイの前記仮想空間表示領域とは異なるバーチャルパレット領域に、前記仮拡張現実オブジェクトを表示するステップと、
前記バーチャルパレット領域に表示された前記仮拡張現実オブジェクトに仮追加拡張現実オブジェクトを追加する編集操作を受け付けるステップと、
前記作業空間内における前記仮拡張現実オブジェクトと前記仮追加拡張現実オブジェクトとの位置関係を示す情報と、前記拡張現実オブジェクトの前記世界座標系に基づく仮想空間における位置情報と、に基づいて、前記仮追加拡張現実オブジェクトに基づく追加拡張現実オブジェクトを前記世界座標系に基づく仮想空間内に配置するステップと、
前記追加拡張現実オブジェクトを前記ディスプレイの前記仮想空間表示領域に表示するステップと、
を含むことを特徴とする拡張現実処理方法
【請求項8】
情報表示装置で拡張現実オブジェクトを編集して表示する拡張現実処理方法であって、
空間を基準とした世界座標系に基づく仮想空間内に配置されている拡張現実オブジェクトを、前記情報表示装置のディスプレイの一部領域からなる仮想空間表示領域に表示するステップと、
記拡張現実オブジェクトに関する情報に基づく仮拡張現実オブジェクトを、前記情報表示装置の前記実空間における位置情報と前記拡張現実オブジェクトの前記世界座標系に基づく仮想空間内における位置情報とから算出された第1算出位置情報に基づいて、前記情報表示装置を基準とした端末座標系に基づく作業空間内に配置するステップと、
前記ディスプレイの前記仮想空間表示領域とは異なるバーチャルパレット領域に、前記仮拡張現実オブジェクトを表示するステップと、
前記バーチャルパレット領域に表示された前記仮拡張現実オブジェクトに対する編集操作を受け付けるステップと、
前記仮拡張現実オブジェクトに対する編集操作に関する情報に基づいて、前記世界座標系に基づく仮想空間内に配置されている前記拡張現実オブジェクトに前記編集操作の内容を反映するステップと、
を含むことを特徴とする拡張現実処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、拡張現実処理システム、情報表示装置、及び方法に係り、特に拡張現実(AR:Augmented Reality)オブジェクトの編集操作性の向上に関する。
【背景技術】
【0002】
特許文献1には、「実空間の撮像画像に基づく画像を表示させる表示制御部と、上記画像に対するアノテーションの入力を受け付ける操作部と、上記アノテーションを上記実空間の位置に関連付けるか、上記実空間内に存在する物体に関連付けるかを選択する選択制御部とを含む(要約抜粋)」情報処理装置が開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】国際公開第2014/162823号
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1では、ウェアラブル端末のカメラによって撮像された実空間の映像がタブレット端末にストリーミング配信される(同文献段落0035参照)ため、タブレット端末の表示範囲はウェアラブル端末を装着したユーザの動きに伴って刻々と変化する(同文献段落0059参照)。このため、ウェアラブル端末のユーザとタブレット端末のユーザが同一である場合、アノテーションを付加するためにタブレット端末を注視するとウェアラブル端末が対象物の方向からずれてしまい、対象物がタブレット端末に表示されなくなるため、アノテーションの付加作業が効率的ではない。
【0005】
本発明は上記実情に鑑みてなされたものであり、アノテーションを含むARオブジェクトの編集作業の操作性を向上させることを目的とする。
【課題を解決するための手段】
【0006】
上記課題を解決するために、本発明は、請求の範囲に記載の構成を備える。その一例をあげるならば、本発明は、拡張現実オブジェクトを表示する情報表示装置と、前記拡張現実オブジェクトの編集操作を受け付ける情報処理装置と、を含む拡張現実処理システムであって、前記情報表示装置は、第1ディスプレイ、前記情報処理装置と情報を送受信する第1通信器、及び第1プロセッサを備え、前記情報処理装置は、第2ディスプレイ、前記情報表示装置と情報を送受信する第2通信器、及び第2プロセッサを備え、前記第1プロセッサは、実空間を基準とした世界座標系に基づく仮想空間内に配置されている拡張現実オブジェクトに関する情報を、前記第1通信器を介して前記情報処理装置に送信し、前記第2プロセッサは、前記拡張現実オブジェクトに関する情報に基づく仮拡張現実オブジェクトを、前記情報表示装置の前記実空間における位置情報と前記拡張現実オブジェクトの前記世界座標系に基づく仮想空間内における位置情報とから算出された第1算出位置情報に基づいて、前記情報処理装置を基準とした端末座標系に基づく作業空間内に配置し、前記第2ディスプレイに、前記仮拡張現実オブジェクトを表示し、前記表示された前記仮拡張現実オブジェクトに対する編集操作を受け付け、前記仮拡張現実オブジェクトに対する編集操作に関する情報を、前記第2通信器を介して前記情報表示装置に送信し、前記第1プロセッサは、前記仮拡張現実オブジェクトに対する編集操作に関する情報に基づいて、前記世界座標系に基づく仮想空間内に配置されている前記拡張現実オブジェクトに前記編集操作の内容を反映する、ことを特徴とする。
【0007】
本発明によれば、アノテーションを含むARオブジェクトの編集作業の操作性を向上させることができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
【図面の簡単な説明】
【0008】
図1】本実施形態に係る拡張現実処理システムのシステム構成図。
図2】HMDのハードウェア構成図。
図3A】HMDの上面図。
図3B】HMDの正面図。
図3C】HMDの左側面図。
図4】HMDの機能ブロック図。
図5】タブレット端末のハードウェア構成図。
図6A】タブレット端末の前面図。
図6B】タブレット端末の背面図。
図7】タブレット端末の機能ブロック図。
図8A】ユーザがARオブジェクト表示機能はオフにして現実世界を視認している状態を示す俯瞰図。
図8B】HMDのディスプレイを介したユーザの視界を示す図。
図9A】ユーザがARオブジェクト表示機能をオンにして現実世界を視認している状態を示す俯瞰図。
図9B】HMDのディスプレイを介したユーザの視界を示す図。
図10】HMD、タブレット端末、ARオブジェクトの世界座標系空間における位置(座標)情報及び方位情報を示す俯瞰図。
図11】HMDにおけるARオブジェクト表示処理の流れを示すフローチャート。
図12】HMDにおけるARオブジェクト固定処理の流れを示すフローチャート。
図13A】ARオブジェクト固定指示を行う際のユーザの視界を示す図。
図13B】ARオブジェクト固定処理によりタブレット端末のタッチスクリーンに表示される画像を示す図。
図14】タブレット端末におけるARオブジェクト固定処理の流れを示すフローチャート。
図15】タブレット端末を位置基準とする端末座標系仮想空間(作業空間)内における位置(座標)情報及び方位情報を示す俯瞰図。
図16A】仮ARオブジェクトを編集中のタブレット端末の表示画像を示す図。
図16B】仮ARオブジェクトを編集後のタブレット端末の表示画像を示す図。
図17】タブレット端末における仮ARオブジェクト編集結果反映処理の流れを示すフローチャート。
図18】HMDにおける、タブレット端末で実施された仮ARオブジェクトへの編集処理の結果をARオブジェクトに反映する処理の流れを示すフローチャート。
図19A】仮追加ARオブジェクトと仮ARオブジェクトの端末座標系仮想空間内における位置(座標)情報及び方位情報を示す俯瞰図。
図19B】追加ARオブジェクトとARオブジェクトの世界座標系仮想空間における位置(座標)情報及び方位情報を示す俯瞰図。
図20】HMDのディスプレイを介したユーザの視界を示す図。
図21A】HMDのディスプレイを介したユーザの視界を示す図。
図21B】現実オブジェクト固定処理によりタブレット端末のディスプレイに表示される画像を示す図。
図22】現実オブジェクト固定処理の流れを示すフローチャート。
図23A】HMDのディスプレイを介したユーザの視界を示す図。
図23B】HMDのディスプレイを介したユーザの視界を示す図。
【発明を実施するための形態】
【0009】
以下、図面を用いて本発明の実施形態について説明する。全図を通じて同一の構成には同一の符号を付して重複説明を省略する。以下の説明において、拡張現実をAR(Augmented Reality)と記載することがある。
【0010】
[第1実施形態]
第1実施形態は、情報表示装置から情報処理装置にARオブジェクト情報を転送し、情報処理装置でコメントからなる追加ARオブジェクトをARオブジェクトに関連付けて付加する処理を行った後、情報表示装置に追加ARオブジェクト情報を返送して表示する実施形態である。第1実施形態では、実空間を基準とした世界座標系に基づく仮想空間内に配置されているARオブジェクトを編集対象とする。
【0011】
<システム構成図>
図1は、本実施形態に係る拡張現実処理システム1のシステム構成図である。
【0012】
拡張現実処理システム1は、情報表示装置としてのHMD(Head Mounted Display)100、情報処理装置としてのタブレット端末200、ARオブジェクトサーバ310のそれぞれを通信ネットワーク300に接続して構成される。
【0013】
HMD100とタブレット端末200とは、実空間を基準とする世界座標系を共有する。本実施形態では、世界座標系としてGPS座標系を用いる。よって、位置情報発信装置320から位置情報信号としてGPS信号をHMD100とタブレット端末200とが取得する。しかし世界座標系は、GPS座標系に限らず、実空間を基準とするHMD100とタブレット端末200との共通座標系であればよく、位置情報発信装置320をBlueTooth(登録商標)ビーコン信号を発信するビーコン発信装置とし、ビーコン信号を共有して共通座標系を実現してもよい。
【0014】
図2は、HMD100のハードウェア構成図である。
【0015】
HMD100は、CPUやMCU等を用いたプロセッサ101(第1プロセッサに相当する)、RAM103、ストレージ110、操作入力装置(ユーザ操作インタフェース)120、画像処理部130、音声処理部140、センサ群160、通信I/F170(第1通信器に相当する)、及び拡張I/F180を備え、これらがバス102により互いに接続される。
【0016】
ストレージ110は、Flash ROM、EEPROM、SSD、HDD等の不揮発記憶媒体を用いて構成される。
【0017】
操作入力装置120は、操作キー121、及びタッチセンサ122が含まれる。
【0018】
操作キー121は、例えばSW類、電源キー、音量キー等がある。
【0019】
タッチセンサ122は、例えばタッチパッドにより構成され、HMD100等の操作に使用される。
【0020】
画像処理部130は、ディスプレイ131(第1ディスプレイに相当する)、画像信号処理部132、アウトカメラ133(前方撮影用)、及びインカメラ134(視線検出用)を含んで構成される。
【0021】
ディスプレイ131は、透過型ディスプレイでもよいし、非透過型のディスプレイでもよい。
【0022】
画像信号処理部132は、例えばイメージ(ビデオ)シグナルプロセッサを用いて構成される。
【0023】
音声処理部140は、スピーカ141、音声信号処理部142、及びマイク143を含んで構成される。
【0024】
音声信号処理部142は、例えばオーディオシグナルプロセッサを用いて構成される。
【0025】
センサ群160は、位置センサ151、測距センサ152、ジャイロセンサ161、地磁気センサ162、及び加速度センサ163を含む。
【0026】
位置センサ151は、例えばGPSセンサである。
【0027】
測距センサ152は、距離センサや深度センサでもよい。また、アウトカメラ133を左アウトカメラ133L(図3A参照)、右アウトカメラ133R(図3A参照)を含むステレオカメラとして形成し、視差がある画像を撮像してこの画像を元に被写体までの距離を測定してもよい。この場合、ステレオカメラが測距センサ152に相当するので、アウトカメラ133と測距センサ152とを一つの画像入力デバイスにより構成できる。
【0028】
通信I/F170は、例えば、LAN通信I/F、電話網(Mobile)通信I/F、BlueTooth(登録商標)通信I/Fに相当する。
【0029】
拡張I/F180は、例えばUSB機器接続端子であり、データ送受信や充電等に使用される。
【0030】
バス102は、コマンドやデータの送受信経路を形成する。
【0031】
図3Aは、HMD100の上面図、図3Bは、HMD100の正面図、図3Cは、HMD100の左側面図である。
【0032】
図3A図3B図3Cは、ユーザU1がHMD100を装着した状態を示す。HMD100は、前面にディスプレイ131、左アウトカメラ133L、右アウトカメラ133R、測距センサ152を備える。また左側面にタッチセンサ122、左ステレオスピーカ141L、を備える。アウトカメラ133は、ステレオカメラに限らず、一つのカメラでもよい。また図3では右側面は図示しないが、HMD100の右側面に、右ステレオスピーカと、モノラルマイクと、拡張I/F180の一つである充電端子を備える。
【0033】
左タッチセンサ122Lに代えて右タッチセンサをHMD100の右側面に備えてもよい。タッチセンサの設置個所は左右いずれか一つでもよいし、両側面に備えてもよい。
【0034】
ディスプレイ131は、ディスプレイ131を介して外界を直接視認可能な透過型(光学透過型)でもよいし、アウトカメラ133が入力した映像を筐体裏面側に配置されたディスプレイ131に表示することにより外界を視認可能な非透過型(ビデオ透過型)でもよい。また、半透過型ディスプレイを用いてもよい。
【0035】
図4は、HMD100の機能ブロック図である。
【0036】
HMD100のストレージ110は、OS等の基本的なプログラムを含む基本動作プログラム1001と、本実施形態に係る拡張現実処理システム1の機能を実現するためのアプリケーションプログラム1002と、各種動作設定値や各種情報(動画/静止画/音声等)を記憶しておく領域となる各種データ記憶領域1009とを含む。
【0037】
これらストレージ110に記憶されている基本動作プログラム1001やアプリケーションプログラム1002は、RAM103に展開(ロード)され、プロセッサ101が展開された基本動作プログラム1001やアプリケーションプログラム1002を実行することにより、その機能が実現される。
【0038】
RAM103は、HMD100の基本的な動作を制御する基本動作機能部1101と、位置センサ151からのセンサ出力に基づいてHMD100の実世界上における位置(座標)を算出して位置情報を生成する位置情報算出部1111と、HMD100の実世界上における位置(座標)に関連するARオブジェクト情報を取得するオブジェクト情報取得部1112と、ジャイロセンサ161や地磁気センサ162等、センサ群160からのセンサ出力に基づいてHMD100が実世界上において指向する方向に関する方位を算出して方位情報を生成する方位情報算出部1113と、ARオブジェクト情報に基づいて構成されるARオブジェクトの表示制御、及び連携するタブレット端末200へのARオブジェクト情報の送信制御を行うオブジェクト情報表示制御部1114と、前述の各機能部により作成または取得された各種情報を一時的に記憶する一時記憶領域1199と、を含む。
【0039】
図5は、タブレット端末200のハードウェア構成図である。HMD100と同一の名称の構成要素についての重複説明は省略する。
【0040】
タブレット端末200は、プロセッサ201(第2プロセッサに相当する)、RAM203、ストレージ210、操作入力装置220、画像処理部230、音声処理部240、センサ群260、通信I/F270(第2通信器に相当する)、及び拡張I/F280を含み、これらがバス202により互いに接続される。
【0041】
操作入力装置220は、操作キー221、タッチセンサ222に加えてタッチパネル223を含む。タッチセンサ222は、例えば指紋センサ等である。タッチパネル223は、ディスプレイ231(第2ディスプレイに相当する)に重ねて配置され、タブレット端末200に対する入力操作を受け付ける。
【0042】
画像処理部230は、ディスプレイ231、画像信号処理部232、通常撮影用のアウトカメラ233、自撮りや視線検出に用いるインカメラ234を含む。
【0043】
音声処理部240は、スピーカ241、音声信号処理部242、マイク243を含む。
【0044】
センサ群260は、位置センサ251、ジャイロセンサ261、地磁気センサ262、加速度センサ263、を含む。その他、近接センサや照度センサや測距センサを含んでもよい。
【0045】
通信I/F270は、LAN通信I/F271、電話網(Mobile)通信I/F272、BlueTooth(登録商標)通信I/F273を含む。その他、赤外線通信I/Fがあっても良い。
【0046】
拡張I/F280は、例えばUSB機器接続端子であり、データ送受信、充電、USB機器接続、AV機器接続等に使用する。
【0047】
図6Aは、タブレット端末200の前面図、図6Bは、タブレット端末200の背面図である。
【0048】
図6Aに示すように、タブレット端末200は、上面に電源SW221P(操作キーに相当する)を備える。また底面にモノラルマイク243M、USB端子280U(拡張I/F280に相当する)を備える。
【0049】
更にタブレット端末200の前面には、タッチスクリーン290、LED224、インカメラ234、通話時に用いるモノラルスピーカ241M(スピーカ241に相当する)が備えられる。
【0050】
LED224は、動作状態報知用であり、点滅点灯で動作状態を報知する。
【0051】
タッチスクリーン290は、ディスプレイ231にタッチパネル223が積層されて構成される。
【0052】
また図6Bに示すように、背面に個人認証に用いる指紋センサからなるタッチセンサ222、アウトカメラ233、補助光を発光するストロボ235、AV再生時に使用するステレオスピーカ241Sを備える。
【0053】
図7は、タブレット端末200の機能ブロック図である。
【0054】
ストレージ210は、基本動作プログラム2001、アプリケーションプログラム2002(本実施形態に係る拡張現実処理システム1の機能を実行するアプリやその他のアプリ)、各種データ記憶領域2009を含む。各種データ記憶領域2009は、各種動作設定値や各種情報、例えば動画、静止画、音声等を記憶しておく領域である。
【0055】
ストレージ210に記憶されている基本動作プログラム2001、アプリケーションプログラム2002は、RAM203に展開(ロード)され、プロセッサ201が展開された基本動作プログラム2001、アプリケーションプログラム2002を実行することにより、その機能が実現される。
【0056】
RAM203は、基本動作機能部2101、位置情報算出部2111、方位情報算出部2112、オブジェクト情報表示制御部2113、及び一時記憶領域2199を含む。
【0057】
基本動作機能部2101は、タブレット端末200の基本的な動作を制御する。
【0058】
位置情報算出部2111は、タブレット端末200の実世界上における位置(座標)を算出し、位置情報を出力する。
【0059】
方位情報算出部2112は、タブレット端末200が実世界上において指向する方向に関する方位を算出し、方位情報を出力する。
【0060】
オブジェクト情報表示制御部2113は、ARオブジェクト情報の、連携するHMD100からの送受信、及びARオブジェクト情報に基づいて構成した仮ARオブジェクトの表示、等を制御する。
【0061】
一時記憶領域2199は、前述の各機能部により作成または取得された各種情報の一時的な記憶領域である。
【0062】
<拡張現実処理システム1の処理概要>
図8、9、10を参照して拡張現実処理システム1の処理概要について説明する。
【0063】
図8Aは、ユーザU1がARオブジェクト表示機能はオフにして現実世界を視認している状態を示す俯瞰図である。図8Bは、その際のユーザU1の視界を示す図である。図8A図8Bでは、HMD100のARオブジェクト表示機能はオフなので、実世界の実体物のみを視認している。
【0064】
HMD100のディスプレイ131を介したユーザU1の視野範囲U1Sには、実体物である噴水の画像(映像)からなる現実オブジェクト400が入っている。従って、ユーザU1は、HMD100のディスプレイ131を介して前方にある実体物からなる噴水の現実オブジェクト400を視認する、又はディスプレイ131に表示された噴水の現実オブジェクト400を視認している。
【0065】
図9Aは、ユーザU1がARオブジェクト表示機能をオンにして現実世界を視認している状態を示す俯瞰図である。図9Bは、その際のHMDのディスプレイを介したユーザU1の視界を示す図である。図9A図9Bでは、HMD100のARオブジェクト表示機能はオンなので、実世界の実体物と世界座標系仮想空間に配置されたARオブジェクトの双方を視認している。
【0066】
HMD100のディスプレイ131を介したユーザU1の視野範囲U1Sには、噴水の現実オブジェクト400に加えて自動車のARオブジェクト410が入っている。従って、ユーザU1は、HMD100のディスプレイ131を介して前方にある噴水の現実オブジェクト400を視認し、更にディスプレイ131に表示された自動車のARオブジェクト410も視認している。又はディスプレイ131に表示された噴水の現実オブジェクト400と自動車のARオブジェクト410を同時に視認している。
【0067】
ARオブジェクト410は、世界座標系仮想空間に配置される。世界座標系仮想空間は実世界と位置情報を共有する仮想空間である。実世界と世界座標系仮想空間とをまとめて世界座標系空間と呼称してもよい。
【0068】
図10は、HMD100、タブレット端末200、ARオブジェクト410の世界座標系空間における位置(座標)情報及び方位情報を示す俯瞰図である。
【0069】
以下の説明において、世界座標系空間における位置(座標)情報は、(X,Y)で表記する。“X”は、実世界における経度を軸とし、“Y”は実世界における緯度を軸とする。なお、Z方向(高さ方向)に関しては、説明簡略化のため、以降では図示及び説明を省略する。
【0070】
また、世界座標系空間における方位情報をDで表記する。方位情報は、世界座標系空間の位置情報で指定される座標位置を基準とし、いずれの方向を指向するかを表す。説明簡略化のため、世界座標系空間におけるXY平面内の二次元的な指向方向のみを示すものとする。
【0071】
図10において、HMD100の位置情報及び方位情報は、位置センサ151が検出した世界座標系空間におけるHMD100の基準位置100Pの位置(座標)情報を(X(hmd),Y(hmd))で、センサ群160が取得したHMD100が指向する方向の方位情報100DをD(hmd)で示す。「HMD100が指向する方向」とは、HMD100のディスプレイ131の中心位置に対する法線方向と同義である。
【0072】
タブレット端末200の位置情報及び方位情報は、位置センサ251が検出した世界座標系空間におけるタブレット端末200の基準位置200Pの位置(座標)情報を(X(tab),Y(tab))で、センサ群260が取得したタブレット端末200が指向する方向の方位情報200DをD(tab)で示す。「タブレット端末200が指向する方向」とは、タブレット端末200の筐体背面部の中心位置に対する法線方向と同義である。
【0073】
ARオブジェクト410には、予め基準位置410Pの位置(座標)情報として(X(obj),Y(obj))が、方位情報410DとしてD(obj)が設定されている。基準位置410Pの位置(座標)情報(X(obj),Y(obj))がHMD100のディスプレイ131を介したユーザU1の視野範囲に入る場合は、ディスプレイ131上の、位置(座標)情報(X(obj),Y(obj))に対応する位置に、方位情報D(obj)に対応する向きで、ARオブジェクト410が表示される。
【0074】
図11は、HMD100におけるARオブジェクト表示処理の流れを示すフローチャートである。
【0075】
基本動作機能部1101が、操作入力装置120が受け付けたユーザU1からのARオブジェクト表示機能有効化指示の入力操作に応じて、ARオブジェクト表示機能を有効化する(S101)。基本動作機能部1101が、ARオブジェクト表示機能有効化指示の入力操作を受け付けなかった場合には、以降の処理は行われない。
【0076】
位置情報算出部1111が、位置センサ151を介して位置情報発信装置320から取得した位置情報信号に基づいて、HMD100の実世界上における位置(座標)情報(X(hmd),Y(hmd))を算出する(S102)。
【0077】
方位情報算出部1113が、センサ群160が取得した各種情報(地磁気情報等)に基づいて、HMD100が実世界上において指向する方向に関する方位情報(D(hmd))を算出する(S103)。
【0078】
オブジェクト情報取得部1112が、通信I/F170を介してARオブジェクトサーバ310(図11では「AR-OBJサーバ」と記載する。)に、S102で算出したHMD100の実世界上における位置(座標)情報を送信する(S104)。
【0079】
オブジェクト情報取得部1112が、通信I/F170を介してARオブジェクトサーバ310から、S104の処理で送信した位置(座標)情報に対応して送信されたARオブジェクト情報を取得する(S105)。なお、ARオブジェクトサーバ310では、S104の処理で送信された位置(座標)情報との相対的距離が所定値(例えば、10m)以下となるARオブジェクトに関するARオブジェクト情報のみをHMD100に送信する。
【0080】
オブジェクト情報表示制御部1114が、S105の処理で取得したARオブジェクト情報に基づいて構成されるARオブジェクトのうち、S102の処理で算出したHMD100の位置(座標)情報(X(hmd),Y(hmd))とS103の処理で算出したHMD100の方位情報D(hmd)に基づいて設定されるHMD100を装着したユーザU1の視野範囲U1Sに表示可能なARオブジェクトがあるか否かを判別する(S106)。
【0081】
オブジェクト情報表示制御部1114が、表示可能なARオブジェクトがあると判断すると(S106:Yes)、オブジェクト情報表示制御部1114が、ディスプレイ131にARオブジェクトを表示する(S107:図9Bの状態)。ディスプレイ131に表示されるARオブジェクト410は、HMD100の基準位置100PとARオブジェクト410の基準位置410Pの相対的距離に応じて拡大、または、縮小されて良い。
【0082】
オブジェクト情報表示制御部1114が、表示可能なARオブジェクトがないと判断すると(S106:No)、S108へと進む。
【0083】
基本動作機能部1101が、操作入力装置120がユーザU1の操作指示(ARオブジェクト表示機能無効化指示)を取得したと判別すると(S108:Yes)、オブジェクト情報表示制御部1114が、ディスプレイ131に表示されているARオブジェクトを消去し(S109)、基本動作機能部1101が、ARオブジェクト表示機能を無効化する。ディスプレイ131を介してユーザU1が視認する風景は、図9Bから図8Bへと変わる。
【0084】
基本動作機能部1101が、操作入力装置120がユーザU1の操作指示(ARオブジェクト表示機能無効化指示)を取得していないと判別すると(S108:No)、S102へ戻る。
【0085】
<ARオブジェクト固定処理(HMD100)>
図12図13Aを参照して、HMD100におけるARオブジェクト固定処理について説明する。図12は、HMD100におけるARオブジェクト固定処理の流れを示すフローチャートである。図13Aは、ARオブジェクト固定指示を行う際のユーザU1の視界を示す図である。
【0086】
図12に示すように、HMD100の基本動作機能部1101が、操作指示(ARオブジェクト固定指示)を取得したと判断すると(S201:Yes)、S202へ進む。基本動作機能部1101が、操作指示(ARオブジェクト固定指示)を取得してないと判断した場合は(S201:No)、ARオブジェクト固定処理を行わずに終了する。
【0087】
ARオブジェクト固定指示の入力操作として、例えば下記の操作でもよい。
1)ユーザU1のタッチ操作をタッチセンサ122が受け付ける。
2)ユーザU1が発した音声指示をマイク143が受け付ける。
3)連携するタブレット端末200から送信されたコマンドを、通信I/F170を介して受け付ける。
【0088】
位置情報算出部1111が、位置センサ151を介して位置情報発信装置320から取得した位置情報信号に基づいて、ARオブジェクト固定処理実行時のHMD100の実世界上における位置(座標)情報(X(hmd0),Y(hmd0))を算出する(S202)。
【0089】
方位情報算出部1113が、センサ群160が取得した各種情報(地磁気情報等)に基づいて、ARオブジェクト固定処理実行時のHMD100が実世界上において指向する方向に関する方位情報(D(hmd0))を算出する(S203)。
【0090】
オブジェクト情報表示制御部1114が、インカメラ134が取得したユーザU1の眼部画像に基づいて、ARオブジェクト固定処理実行時のユーザU1の視線がディスプレイ131上のどの位置に対応するかを算出する(S204)。視線位置マーク420(図13A参照)は、S204の処理で算出されたユーザU1の視線位置を示すものであり、ディスプレイ131上に表示される。なお、視線位置マーク420は、ディスプレイ131上に表示されなくてもよい。
【0091】
オブジェクト情報表示制御部1114は、ディスプレイ131に表示されているARオブジェクトのうち、S204で算出したユーザU1の視線位置と重畳する、或いは視線位置に最も近いARオブジェクト410を選択する(S205:図13Aの状態)。
【0092】
オブジェクト情報表示制御部1114が、S205の処理で選択されたARオブジェクト410に関連するARオブジェクト情報を、S202及びS203の処理で算出したHMD100の位置(座標)情報及び方位情報と併せて、連携するタブレット端末200に、通信I/F170を介して送信する(S206)。ARオブジェクト情報の送信に代替して、ARオブジェクト情報を取得するためのURL等の情報を送信しても良い。この場合、連携するタブレット端末200は、URL等の情報に基づいてARオブジェクト情報をARオブジェクトサーバ310から取得する。これで、HMD100でのARオブジェクト固定処理を終了する。
【0093】
<ARオブジェクト固定処理(タブレット端末200)>
図13B図14を参照して、タブレット端末200におけるARオブジェクト固定処理について説明する。図13Bは、ARオブジェクト固定処理によりタブレット端末200のタッチスクリーン290に表示される画像を示す図、図14は、タブレット端末200におけるARオブジェクト固定処理の流れを示すフローチャートである。
【0094】
図14に示すように、タブレット端末200の基本動作機能部2101が、操作入力装置220がユーザU1から操作指示(ARオブジェクト固定指示)を取得したと判断すると(S301:Yes)、S302へ進む。
【0095】
オブジェクト情報表示制御部2113が、通信I/F270を介して、連携するHMD100にコマンド(ARオブジェクト情報送信要求)を送信する(S302)。
【0096】
オブジェクト情報表示制御部2113が、S302の処理で送信したコマンドに対応して、連携するHMD100から送信されたARオブジェクト情報等を、通信I/F270を介して受信する(S303)。その後S306へ進む。
【0097】
一方、タブレット端末200の基本動作機能部2101が、操作入力装置220がユーザU1から操作指示(ARオブジェクト固定指示)を取得していないと判断し(S301:No)、オブジェクト情報表示制御部2113が、通信I/F270を介して、連携するHMD100からARオブジェクト情報等を受信していると判断すると(S304:Yes)、S305へ進む。
【0098】
S305では、オブジェクト情報表示制御部2113が、ディスプレイ231に、連携するHMD100からARオブジェクト情報等を受信した旨を表示し、受信したARオブジェクト情報に基づいて構成される仮ARオブジェクトをディスプレイ231に表示するか否かを、ユーザU1に確認する(S305)。ユーザU1から、仮ARオブジェクトの表示を許可する操作を受け付けた場合は(S305:Yes)、S306へ進む。
【0099】
S306では、オブジェクト情報表示制御部2113が、ディスプレイ231(タッチスクリーン290)に、連携するHMD100から受信したARオブジェクト情報に基づいて構成される仮ARオブジェクトを表示する(S306)。図13Bは、タブレット端末200のディスプレイ231に仮ARオブジェクト430が表示された状態を示す。仮ARオブジェクト430は、図13AのARオブジェクト410が編集可能な状態で表示されたARオブジェクトであり、編集前では仮ARオブジェクト430とARオブジェクト410とは同様のARオブジェクトである。
【0100】
ARオブジェクト情報を受信していない場合(S304:No)、仮ARオブジェクトの表示が許可されない場合(S305:No)、及びS306の実行後は、タブレット端末200におけるARオブジェクト固定処理を終了する。
【0101】
タブレット端末200のARオブジェクト固定処理において、S301⇒S302⇒S303⇒S306と遷移する処理は、タブレット端末200でARオブジェクト固定指示を行った場合の処理である。
【0102】
一方、S301⇒S304⇒S305⇒S306と遷移する処理は、HMD100でARオブジェクト固定指示が行われた場合の処理である。
【0103】
HMD100のディスプレイ131に表示されているARオブジェクト410と、ARオブジェクト固定処理の後にタブレット端末200のディスプレイ231に表示される仮ARオブジェクト430は、同一のARオブジェクト情報に基づいて構成される、異なるARオブジェクトである。ARオブジェクト410は世界座標系仮想空間に継続して配置され、仮ARオブジェクト430は、タブレット端末200を位置基準とする端末座標系仮想空間(作業空間)に作業中のみ配置される。
【0104】
<仮ARオブジェクト表示処理(タブレット端末200)>
図15を参照して、タブレット端末200における仮ARオブジェクト表示処理について説明する。図15は、タブレット端末200を位置基準とする端末座標系仮想空間(作業空間)内における位置(座標)情報及び方位情報を示す俯瞰図である。
【0105】
タブレット端末200のディスプレイ231が表示可能な作業空間内の表示範囲200sは、xy平面内において法線方向200dを基準として角度-θからθの範囲である。なお、端末座標系空間における位置(座標)情報は、(x,y)で表記する。“x”は、タブレット端末200の筐体長手方向を軸とし、“y”はタブレット端末200の筐体背面の法線方向を軸とする。z方向(タブレット端末200の筐体短手方向)に関しては、説明簡略化のため、以降では図示及び説明を省略する。
【0106】
また、端末座標系仮想空間における方位情報をdで表記する。端末座標系仮想空間の位置情報で指定される座標位置を基準とし、いずれの方向を指向するかを表す。説明簡略化のため、端末座標系仮想空間におけるxy平面内の二次元的な指向方向のみを示すものとする。
【0107】
なお、端末座標系仮想空間においては、タブレット端末200の基準位置200pが端末座標系仮想空間の位置基準であり、タブレット端末200の筐体背面部の中心位置の法線方向200dが端末座標系仮想空間の方位基準である。
【0108】
仮ARオブジェクト430は、ARオブジェクト410を構成するARオブジェクト情報に基づいて、タブレット端末200の基準位置200pを位置基準とする端末座標系仮想空間に対応するように、絶対座標系仮想空間での位置(座標)情報及び方位情報が変換されて配置される。
【0109】
<仮ARオブジェクト位置情報及び方位情報算出処理(タブレット端末200)>
図14のS306の処理で仮ARオブジェクト430をディスプレイ231に表示する際の位置(座標)情報及び方位情報算出処理について説明する。
【0110】
仮ARオブジェクト430の端末座標系仮想空間における位置(座標)情報は下式(1)(2)で変換される。
x(obj0)=x(tab0)+{X(obj0)-X(hmd0)}・・・(1)
y(obj0)=y(tab0)+{Y(obj0)-Y(hmd0)}・・・(2)
但し、
(x(obj0),y(obj0)):端末座標系仮想空間における仮ARオブジェクト430の基準位置430pの位置(座標)情報である。
(x(tab0),y(tab0)):端末座標系仮想空間におけるタブレット端末200の基準位置200pの位置(座標)情報であり、端末座標系仮想空間の原点(0,0)とする。
(X(obj0),Y(obj0)):世界座標系空間における、ARオブジェクト固定処理実行時のARオブジェクト410の基準位置410Pの位置(座標)情報である。
(X(hmd0),Y(hmd0)):世界座標系空間における、ARオブジェクト固定処理実行時のHMD100の基準位置100Pの位置(座標)情報である。
【0111】
また、仮ARオブジェクト430の方位情報430dは下式(3)で変換される。
d(obj0)=d(tab0)+{D(obj0)-D(hmd0)}・・・(3)
但し、
d(obj0):端末座標系仮想空間における仮ARオブジェクト430の方位情報である。
d(tab0):端末座標系仮想空間におけるタブレット端末200の方位情報であり、端末座標系仮想空間における方位基準であって回転角度0度とする。
D(obj0):世界座標系空間における、ARオブジェクト固定処理実行時のARオブジェクト410の方位情報である。
D(hmd0):世界座標系空間における、ARオブジェクト固定処理実行時のHMD100の方位情報である。
【0112】
ARオブジェクト固定処理実行後は、世界座標系空間におけるHMD100とARオブジェクト410の位置関係が図10の状態から変化しても、タブレット端末200上における仮ARオブジェクト430の表示状況に影響を及ぼさない。すなわち、ARオブジェクト410がHMD100のディスプレイ131を介した視野範囲U1Sから外れても、仮ARオブジェクト430はタブレット端末200のディスプレイ231に表示され続ける。
【0113】
そして、ARオブジェクト固定処理実行後に、ユーザU1がタブレット端末200の実世界上における位置を変更しても、タブレット端末200のディスプレイ231上における仮ARオブジェクト430の表示状況(ディスプレイ231内における表示位置や表示方向)は変化しない。すなわち、タブレット端末200のディスプレイ231には、仮ARオブジェクト430が、図15の状態の相対的位置関係を保持して表示される。
【0114】
なお、本実施形態の方位情報は、説明を簡単にするため、Y軸(y軸)を方位基準とした角度(時計方向を正とする)で指定されるが、基準位置を始点とする単位ベクトルの終点を指定する、等の他の方法であっても良い。
【0115】
<仮ARオブジェクト編集処理(タブレット端末200)>
図16A図16B図17を参照して、ARオブジェクト固定処理によりタブレット端末200のディスプレイ231に固定した仮ARオブジェクト430の編集処理について説明する。仮ARオブジェクト430の編集処理では、仮ARオブジェクト430の形状、表示色等の変更、仮ARオブジェクト430に関連付けるコメント等の追加等が行える。
【0116】
図16Aは、仮ARオブジェクト430を編集中のタブレット端末200の表示画像を示す図である。
【0117】
ディスプレイ231には、コメント追加アイコン290a、横スクロールアイコン290b、縦スクロールアイコン290c、回転アイコン290dが表示される。
【0118】
コメント追加アイコン290aをタップすることにより、仮ARオブジェクト430に関連付けるコメントを追加できる。
【0119】
横スクロールアイコン290b上をスワイプすることにより、ディスプレイ231の表示範囲をx軸方向にスクロールできる。また縦スクロールアイコン290c上をスワイプすることにより、ディスプレイ231の表示範囲をz軸方向にスクロールできる。これにより、仮ARオブジェクト430のディスプレイ231内における表示位置を変更できる。
【0120】
回転アイコン290d上をスワイプすることにより、仮ARオブジェクト430をスワイプ方向に回転できる。
【0121】
図16Bは、仮ARオブジェクト430を編集後のタブレット端末200の表示画像を示す図である。
【0122】
図16Bは、図16Aの編集中画面において、仮ARオブジェクト編集処理により、仮ARオブジェクト430の近傍の所望の位置にコメントからなる仮追加ARオブジェクト440を追加した後の状態を示す。タブレット端末200のディスプレイ231上で仮ARオブジェクト430の表示形状の変更や仮ARオブジェクトに関連付けるコメント等の追加等を行っても、この時点では元の(世界座標系仮想空間に配置された)ARオブジェクト410の表示形状には影響を及ぼさない。
【0123】
仮ARオブジェクト430の編集中、タブレット端末200は通信I/F270を介してHMD100にコマンド(ARオブジェクト非表示要求)を送信し、HMD100のディスプレイ131へのARオブジェクト410の表示を休止させるようにしても良い。
【0124】
タブレット端末200のディスプレイ231上での仮ARオブジェクト430の編集処理が容易になる。
【0125】
<仮ARオブジェクト編集結果反映処理(タブレット端末200)>
図17は、タブレット端末200における仮ARオブジェクト430の編集結果を世界座標系仮想空間に配置されているARオブジェクト410に反映する処理の流れを示すフローチャートである。
【0126】
タブレット端末200の基本動作機能部2101が操作指示(仮ARオブジェクト編集終了指示)を取得すると(S401:Yes)、オブジェクト情報表示制御部2113が、仮ARオブジェクトの形状や表示色等の変更、仮追加ARオブジェクトの追加があったか否かを確認する(S402)。基本動作機能部2101が操作指示(仮ARオブジェクト編集終了指示)を取得しない場合は(S401:No)、S401を繰り返す。
【0127】
仮ARオブジェクト430の形状や表示色等の変更、仮追加ARオブジェクトの追加があった場合(S402:Yes)、オブジェクト情報表示制御部2113が、仮ARオブジェクト430を基準とした、仮追加ARオブジェクト440(コメント)の相対的位置情報及び相対的方位情報を算出する(S403)。
【0128】
オブジェクト情報表示制御部2113が、仮ARオブジェクト430に実施された形状、表示色等の変更に関する情報、及び、仮ARオブジェクト430に関連して追加された仮追加ARオブジェクト440(コメント)に関する情報と、S403の処理で算出した仮追加ARオブジェクト440の相対的位置情報及び相対的方位情報を、仮ARオブジェクト編集情報として、連携するHMD100に、通信I/F270を介して送信する(S404)。そして仮ARオブジェクト編集結果反映処理を終了する。
【0129】
仮ARオブジェクト430の形状や表示色等の変更、仮追加ARオブジェクトの追加がなかった場合(S402:No)は、仮ARオブジェクト編集結果反映処理を終了する。
【0130】
仮ARオブジェクト編集情報は、仮ARオブジェクトへの形状、表示色等の変更処理と仮追加ARオブジェクトの追加処理のうち、実際に行われた処理に関する情報のみを有する。
【0131】
<仮ARオブジェクト編集結果反映処理(HMD100)>
図18は、HMD100における、タブレット端末200で実施された仮ARオブジェクト430への編集処理の結果をARオブジェクト410に反映する処理の流れを示すフローチャートである。
【0132】
HMD100の基本動作機能部1101が、通信I/F170を介して、連携するタブレット端末200から、仮ARオブジェクト編集情報を受信する(S501)。
【0133】
オブジェクト情報表示制御部1114が、仮追加ARオブジェクト440の相対的位置情報及び相対的方位情報に基づいて、追加ARオブジェクトを世界座標系仮想空間に配置するための位置情報及び方位情報を算出する(S502)。
【0134】
位置情報算出部1111が、位置センサ151を介して位置情報発信装置320から取得した位置情報信号に基づいて、HMD100の実世界上における位置(座標)情報(X(hmd1),Y(hmd1))を算出する(S503)。
【0135】
方位情報算出部1113は、センサ群160が取得した各種情報(地磁気情報等)に基づいて、HMD100が実世界上において指向する方向に関する方位情報(D(hmd1))を算出する(S504)。
【0136】
オブジェクト情報表示制御部1114が、仮追加ARオブジェクト440に関する情報に基づいて構成される追加ARオブジェクトを、S502の処理で算出された位置(座標)情報及び方位情報に基づく位置及び指向方向で世界座標系仮想空間内に配置する(S505)。
【0137】
上述のS502の処理で算出された位置情報に基づく位置が、S503の処理で算出した位置(座標)情報とS504の処理で算出した方位情報に基づいて設定されるHMD100を装着したユーザU1の視野範囲U1Sに含まれる場合、ディスプレイ131に追加ARオブジェクトを表示する。但し、前述の仮ARオブジェクト編集処理において仮ARオブジェクト430への仮追加ARオブジェクト440の追加がなかった場合は、S502及びS505の処理は不要である。
【0138】
オブジェクト情報表示制御部1114が、仮ARオブジェクト430に実施された形状、表示色等の変更に関する情報に基づいて、世界座標系仮想空間に配置されているARオブジェクト410の形状、表示色等を変更する(S506)。形状、表示色等の変更を反映させるARオブジェクト410は、ARオブジェクト識別情報により判別されて良い。
【0139】
また、ARオブジェクト410の現在の位置情報に基づく位置が、S503の処理で算出した位置(座標)情報とS504の処理で算出した方位情報に基づいて設定されるHMD100を装着したユーザU1の視野範囲U1Sに含まれる場合、ディスプレイ131にARオブジェクト410を表示する。なお、前述の仮ARオブジェクト編集処理において仮ARオブジェクト430への形状、表示色の変更等がなかった場合は、S506の処理は不要である。
【0140】
<追加ARオブジェクト位置情報及び方位情報算出処理(HMD100)>
図19Aは、仮追加ARオブジェクト440と仮ARオブジェクト430の端末座標系仮想空間内における位置(座標)情報及び方位情報を示す俯瞰図である。図19Bは、追加ARオブジェクト450とARオブジェクト410の世界座標系仮想空間における位置(座標)情報及び方位情報を示す図である。
【0141】
タブレット端末200の基準位置200pの座標は(x(tab1)y(tab1))であり、端末座標系仮想空間における位置基準として座標(0,0)に設定する。また、タブレット端末200の法線方向200dは、端末座標系仮想空間における方位基準であり、方位d(tab1)を方位0に設定する。
【0142】
上述のS502の処理で、追加ARオブジェクト450(図19B参照)の基準位置450Pの世界座標系仮想空間における位置(座標)情報は下式(4)(5)により求める。
X(com1)=X(obj1)+{x(com1)-x(obj1)}・・・(4)
Y(com1)=Y(obj1)+{y(com1)-y(obj1)}・・・(5)
但し、
(X(com1),Y(com1)):追加ARオブジェクト450の基準位置450P(図19B参照)の世界座標系仮想空間における位置(座標)情報である。
(X(obj1),Y(obj1)):ARオブジェクト410の基準位置410Pの世界座標系仮想空間における位置(座標)情報である。
(x(com1),y(com1)):仮追加ARオブジェクト440の基準位置440p(図19A参照)の端末座標系仮想空間における位置(座標)情報である。
(x(obj1),y(obj1)):仮ARオブジェクト430の基準位置430p(図19A参照)の端末座標系仮想空間における位置(座標)情報である。
【0143】
また、オブジェクト情報表示制御部1114は、仮追加ARオブジェクト440の端末座標系仮想空間における方位情報440dを、下式(6)を用いて、追加ARオブジェクト450の世界座標系仮想空間における方位情報に変換する。
D(com1)=D(obj1)+{d(com1)-d(obj1)}・・・(6)
但し、
D(com1):追加ARオブジェクト450の世界座標系仮想空間における方位情報である。
D(obj1):ARオブジェクト410の世界座標系仮想空間における方位情報である。
d(com1):仮追加ARオブジェクト440の端末座標系仮想空間における方位情報である。
d(obj1):仮ARオブジェクト430の端末座標系仮想空間における方位情報である。
【0144】
仮ARオブジェクト編集結果反映処理実行時のARオブジェクト410の世界座標系仮想空間内における位置が、ARオブジェクト固定処理実行時の位置と異なる場合であっても、追加ARオブジェクト450の位置情報及び方位情報は、仮ARオブジェクト編集結果反映処理実行時のARオブジェクト410の位置情報及び方位情報に基づいて決定される。
【0145】
仮ARオブジェクト430への形状、表示色等の変更を反映したARオブジェクト410は、編集を行ったタブレット端末200の所有者であるユーザU1にのみ視認可能であっても良いし、ユーザU1が指定した特定のユーザ(友人等)のみに視認可能であっても良いし、全てのユーザに視認可能であっても良い。即ち、仮ARオブジェクト430への形状、表示色等の変更を反映したARオブジェクト410は、編集を行ったタブレット端末200と連携するHMD100にのみ表示されるものであっても良いし、全てのHMDに表示されるものであっても良い。
【0146】
<編集結果表示処理(HMD100)>
図20は、上述の仮ARオブジェクト編集結果反映処理を行った後の、ユーザU1の視界を示す図である。
【0147】
図20では、HMD100のARオブジェクト表示機能がオンであり、ユーザU1は実世界上の実体物及び世界座標系仮想空間に配置されたARオブジェクトを視認する。ユーザU1はディスプレイ131を透過して噴水の現実オブジェクト400を視認し、更にディスプレイ131に表示された自動車のARオブジェクト410とコメントからなる追加ARオブジェクト450とを視認する。自動車のARオブジェクト410は、HMD100の位置情報に応じてディスプレイ131に表示される。コメントからなる追加ARオブジェクト450は、HMD100の位置情報に応じてディスプレイ131に表示される。
【0148】
第1実施形態によれば、世界座標系仮想空間に配置されるARオブジェクトに対して、HMD100において固定処理(選択操作)を行ってタブレット端末200を位置基準とする端末座標系仮想空間に仮ARオブジェクトとして送信し、タブレット端末200で仮ARオブジェクトを編集する操作を行う。ARオブジェクトは、タブレット端末200に送信されて表示されると、端末座標系で定義された作業空間内に仮ARオブジェクトとして配置される。作業空間内に配置された仮ARオブジェクトは、世界座標系空間におけるHMD100やタブレット端末200やARオブジェクトの変動の影響をうけずにタブレット端末200に表示し続けられるので、仮ARオブジェクトの形状や表示色の変更、仮ARオブジェクトに関連する仮追加ARオブジェクトの追加等の編集操作を行う際に、HMD100やタブレット端末200の世界座標系空間内における位置や向きを考慮しなくてよいので、編集操作が容易になる。
【0149】
また、編集作業が終わると、タブレット端末200上で仮ARオブジェクトに実施された編集処理の結果をHMD100に送り、端末座標系仮想空間上で実施された編集処理に関する位置(座標)情報及び方位情報を世界座標系仮想空間における位置(座標)情報及び方位情報に変換して、世界座標系仮想空間内のARオブジェクトに、タブレット端末200上で行われた編集処理の結果を反映する。そのため、HMD100からARオブジェクトが配置された位置及び方向を視認すると、タブレット端末200上で端末座標系仮想空間に仮配置された仮ARオブジェクトに対して実施された編集処理が、世界座標系空間に配置されたARオブジェクトに反映され、安定してHMD100で視認することができる。
【0150】
[第2実施形態]
第2実施形態は、実空間に存在する実体物の画像からなる現実オブジェクトにコメントからなる追加ARオブジェクトを付加する実施形態である。
【0151】
<現実オブジェクト固定処理(HMD100)>
図21Aは、HMD100のディスプレイ131を介したユーザU1の視界を示す図である。
【0152】
ユーザU1が現実オブジェクト400を視認すると、オブジェクト情報表示制御部1114が、インカメラ134が取得したユーザU1の眼部画像に基づいて、ユーザU1の視線位置460がディスプレイ131上のどの位置に対応するかを算出する。視線位置460はディスプレイ131上に表示されてもよいし、表示されなくてもよい。視線位置460が現実オブジェクト400に重畳している状態、或いは視線位置460が現実オブジェクト400の近隣にある状態で操作指示(現実オブジェクト固定指示)が行われると、現実オブジェクト固定処理が行われる。
【0153】
図21Bは、現実オブジェクト固定処理によりタブレット端末200のディスプレイ231に表示される仮オブジェクト470の画像を示す図である。
【0154】
タブレット端末200のディスプレイ231には、現実オブジェクト固定処理により、現実オブジェクト400の仮想モデルである仮オブジェクト470が表示される。仮オブジェクト470は、噴水の3Dモデルであり、噴水の現実オブジェクト400の画像情報に基づいて生成した3Dモデルである。仮オブジェクト470は、ユーザU1の操作指示(現実オブジェクト固定指示)に応じて生成され、端末座標系仮想空間に配置されて、ディスプレイ231に表示される。
【0155】
図22は、現実オブジェクト固定処理の流れを示すフローチャートである。
【0156】
HMD100のディスプレイ131を介してユーザU1が現実オブジェクト400を視認した状態で、ユーザU1が現実オブジェクト固定指示(操作指示)を行うと、基本動作機能部1101が操作指示(現実オブジェクト固定指示)を取得し(S601:Yes)、S602へと進む。ユーザU1が現実オブジェクト固定指示(操作指示)を行わず、基本動作機能部1101が操作指示(現実オブジェクト固定指示)を取得しない場合は(S601:No)、現実オブジェクト固定処理を行わずに終了する。
【0157】
現実オブジェクト固定指示の入力操作として、例えば下記の操作でもよい。
1)ユーザU1のタッチ操作をタッチセンサ122が受け付ける。
2)ユーザU1が発した音声指示をマイク143が受け付ける。
3)連携するタブレット端末200から送信されたコマンドを、通信I/F170を介して受け付ける。
【0158】
位置情報算出部1111が、位置センサ151を介して位置情報発信装置320から取得した位置情報信号に基づいて、現実オブジェクト固定処理実行時のHMD100の実世界上における位置(座標)情報(X(hmd2),Y(hmd2))を算出する(S602)。
【0159】
方位情報算出部1113が、センサ群160が取得した各種情報(地磁気情報等)に基づいて、現実オブジェクト固定処理実行時のHMD100が実世界上において指向する方向に関する方位情報(D(hmd2))を算出する(S603)。
【0160】
オブジェクト情報表示制御部1114が、インカメラ134が取得したユーザU1の眼部画像に基づいて、現実オブジェクト固定処理実行時のユーザU1の視線位置460(図21A参照)がディスプレイ131上のどの位置に対応するかを算出する(S604)。
【0161】
オブジェクト情報表示制御部1114は、ディスプレイ131上に表示されている現実オブジェクトのうち、S604の処理で算出したユーザU1の視線位置460に対応する位置に表示されている現実オブジェクト400を選択する(S605:図21A(A)の状態)。
【0162】
測距センサ152が、現実オブジェクト固定処理実行時の、S605の処理で選択された現実オブジェクト400とHMD100との距離を測定し、距離情報を取得する(S606)。
【0163】
オブジェクト情報表示制御部1114が、S602及びS603の処理で算出したHMD100の位置情報及び方位情報、S606の処理で取得した現実オブジェクトに関する距離情報と、から現実オブジェクト固定処理実行時の、S605の処理で選択された現実オブジェクト400に関する位置(座標)情報(X(obj2),Y(obj2))を算出する(S607)。また、S605の処理で選択された現実オブジェクト400に関する方位情報D(obj2)を設定する。現実オブジェクト400の方位情報は、位置情報(X(obj2),Y(obj2))を基準位置としてHMD100を指向する方向を設定する。
【0164】
オブジェクト情報表示制御部1114が、S606の処理で取得した現実オブジェクト400に関する距離情報と、アウトカメラ133が取得した現実オブジェクト画像と、に基づいて、S605の処理で選択された現実オブジェクト400に関する3Dモデル(現実オブジェクト情報)を作成する(S608)。なお、この処理で作成する3Dモデルは、タブレット端末200上で行う仮オブジェクト編集処理でコメント等の仮追加ARオブジェクトの追加を行う際の位置基準として認識できればよく、現実オブジェクト400の形状を正確に再現する必要はない。また、現実オブジェクト情報は、S607の処理で算出した現実オブジェクトに関する位置情報及び方位情報を含む。
【0165】
オブジェクト情報表示制御部1114が、S608の処理で作成された現実オブジェクト情報を、S602及びS603の処理で算出したHMD100の位置情報及び方位情報と併せて、連携するタブレット端末200に通信I/F170を介して送信する(S609)。これで、HMD100における現実オブジェクト固定処理を終了する。
【0166】
<その他の処理>
現実空間に存在する実体物の画像からなる現実オブジェクトにコメント等の追加ARオブジェクトを付加するためのその他の処理である、タブレット端末200で行う現実オブジェクト固定処理、仮オブジェクト編集処理、タブレット端末200及びHMD100で行う編集結果反映処理に関しては、第1実施形態において説明したARオブジェクト固定処理、仮ARオブジェクト編集処理、編集結果反映処理と概略は同様であるので重複説明を省略する。
【0167】
第2実施形態によれば、実空間(世界座標系空間)に配置されている実体物に対して、HMD100において固定処理(選択操作)を行うことにより、実体物の3Dモデルを作成して、タブレット端末200を位置基準とする端末座標系仮想空間に仮オブジェクトとして送信し、タブレット端末200で仮オブジェクトを位置基準として仮オブジェクトに関連する仮追加ARオブジェクトの追加操作を行うことができる。この結果、第1実施形態と同様の操作で、実空間の実体物に対しても追加ARオブジェクトの追加操作、及びHMD100での表示が行える。
【0168】
[第3実施形態]
第3実施形態は、タブレット端末200ではなく、HMD100のディスプレイ131の一部領域に設定したバーチャルパレット領域に作業空間を表示し、そこで仮ARオブジェクトの編集操作を行う。前述のバーチャルパレット領域はHMD100を位置基準とする端末座標系仮想空間を表示する領域に、前述のバーチャルパレット領域を除くディスプレイ131の残りの領域は世界座標系空間(即ち、実空間及びARオブジェクトが配置される世界座標系仮想空間内)を視認する領域に設定する。
【0169】
<ARオブジェクト固定処理>
図23を参照して、ARオブジェクト410を、連携する情報処理装置ではなく、情報表示装置のバーチャルパレット領域131Vに固定する処理について説明する。図23Aは、HMD100のディスプレイ131を介したユーザの視界を示す図である。
【0170】
ユーザは、ディスプレイ131を介して実世界に存在する噴水の現実オブジェクト400を視認している。また、世界座標系仮想空間に配置されてディスプレイ131に表示された自動車のARオブジェクト410も併せて視認している。視線位置マーク420は、オブジェクト情報表示制御部1114が、インカメラ134が取得したユーザU1の眼部画像に基づいて算出した、ユーザU1のディスプレイ131上の視線位置である。ユーザU1の視線位置がARオブジェクト410に重畳している状態で、或いは、ユーザU1の視線位置がARオブジェクト410の近隣にある状態でARオブジェクト固定指示を行うと、ARオブジェクト固定処理が実行される。
【0171】
図23Bは、ARオブジェクト固定処理によりバーチャルパレット領域131Vに仮ARオブジェクト480を固定した状態のHMD100のディスプレイ131を介したユーザの視界を示す図である。本実施形態のARオブジェクト固定処理においては、ARオブジェクト情報を連携する情報処理装置に送信する処理に代替して、前記ARオブジェクト情報に基づいて構成される仮ARオブジェクトをHMD100を位置基準とする端末座標系仮想空間内に配置し、バーチャルパレット領域131Vに表示する。
【0172】
本実施形態によれば、バーチャルパレット領域131Vは、ディスプレイ131の表示領域に確保される。バーチャルパレット領域131Vは、HMD100を位置基準とした端末座標系仮想空間(作業空間)として扱われる。したがって、ユーザU1が指向方向を変更してARオブジェクト410が視野範囲U1Sの範囲外(即ち、ディスプレイ131に表示されない状態)となっても、仮ARオブジェクト480はバーチャルパレット領域131Vに継続して表示される。バーチャルパレット領域131Vにて編集作業を行うことにより、タブレット端末200が不要となる。
【0173】
バーチャルパレット領域131Vをディスプレイ131の他の表示領域(仮想空間が表示される「仮想空間表示領域」に相当する。)と区別するために、バーチャルパレット領域131V内の背景色は濃色としてもよい。ディスプレイ131が透過型ディスプレイの場合は、バーチャルパレット領域131Vでの実世界を表示させる透過度を下げると作業し易くなる。
【0174】
本発明は、上記各実施形態に限定されるものではなく、ある実施形態の構成の一部を他の実施形態に置き換えることが可能である。また、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。これらは全て本発明の範疇に属するものであり、さらに文中や図中に現れる数値やメッセージ等もあくまで一例であり、異なるものを用いても本発明の効果を損なうものでない。
【0175】
また、発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実装しても良い。また、マイクロプロセッサユニット、プロセッサ等が動作プログラムを解釈して実行することによりソフトウェアで実装しても良い。また、ソフトウェアの実装範囲を限定するものでなく、ハードウェアとソフトウェアを併用しても良い。
【0176】
例えば、タブレット端末200で仮ARオブジェクトや仮追加ARオブジェクトを編集する間は、タブレット端末200がHMD100に対してARオブジェクトの表示機能をOFFにする信号、又は編集対象となっているARオブジェクトのみの表示をOFFにする信号を送信してもよい。そして、仮追加ARオブジェクトをHMD100に返信する際に、OFF信号を解除する信号(ON信号)を送信してもよい。
【0177】
また、追加ARオブジェクトはコメントに限らず、ARオブジェクトに関連付けられる任意の図形、テキスト情報、それらの組み合わせでもよい。
【0178】
また、3次元的なコメントは人により見る方向が変わるので、ARオブジェクトを視認する角度に応じて、ARオブジェクトに対するコメント配置やコメントの配置角度を変えてもよい。この場合、ARオブジェクトに対するコメント(追加ARオブジェクト)は、編集処理において位置(座標)情報のみを設定し、方位情報は設定せずにHMD100に対して正対するような方位情報を自動設定するようにすればよい。また、その際、ARオブジェクトをよけるように(見えるように)コメントを配置してもよい。
【符号の説明】
【0179】
1 :拡張現実処理システム
100 :HMD
100D :HMDの世界座標系空間における方位情報
100P :HMDの世界座標系空間における基準位置
101 :プロセッサ
102 :バス
103 :RAM
110 :ストレージ
120 :操作入力装置
121 :操作キー
122 :タッチセンサ
122L :左タッチセンサ
130 :画像処理部
131 :ディスプレイ
131V :バーチャルパレット領域
132 :画像信号処理部
133 :アウトカメラ
133L :左アウトカメラ
133R :右アウトカメラ
134 :インカメラ
140 :音声処理部
141 :スピーカ
141L :左ステレオスピーカ
142 :音声信号処理部
143 :マイク
151 :位置センサ
152 :測距センサ
160 :センサ群
161 :ジャイロセンサ
162 :地磁気センサ
163 :加速度センサ
170 :通信I/F
180 :拡張I/F
200 :タブレット端末
200D :タブレット端末の世界座標系空間における方位情報
200P :タブレット端末の世界座標系空間における基準位置
200d :タブレット端末の端末座標系仮想空間における方位情報
200p :タブレット端末の端末座標系仮想空間における基準位置
200s :タブレット端末の端末座標系仮想空間における表示範囲
201 :プロセッサ
202 :バス
203 :RAM
210 :ストレージ
220 :操作入力装置
221 :操作キー
221P :電源SW
222 :タッチセンサ
223 :タッチパネル
224 :LED
230 :画像処理部
231 :ディスプレイ
232 :画像信号処理部
233 :アウトカメラ
234 :インカメラ
235 :ストロボ
240 :音声処理部
241 :スピーカ
241M :モノラルスピーカ
241S :ステレオスピーカ
242 :音声信号処理部
243 :マイク
243M :モノラルマイク
251 :位置センサ
260 :センサ群
261 :ジャイロセンサ
262 :地磁気センサ
263 :加速度センサ
270 :通信I/F
271 :LAN通信I/F
272 :電話網通信I/F
273 :BT通信I/F
280 :拡張I/F
280U :USB端子
290 :タッチスクリーン
290a :コメント追加アイコン
290b :横スクロールアイコン
290c :縦スクロールアイコン
290d :回転アイコン
300 :通信ネットワーク
310 :ARオブジェクトサーバ
320 :位置情報発信装置
400 :現実オブジェクト
410 :ARオブジェクト
410D :ARオブジェクトの世界座標系仮想空間における方位情報
410P :ARオブジェクトの世界座標系仮想空間における基準位置
420 :視線位置マーク
430 :仮ARオブジェクト
430d :仮ARオブジェクトの端末座標系仮想空間における方位情報
430p :仮ARオブジェクトの端末座標系仮想空間における基準位置
440 :仮追加ARオブジェクト
440d :仮追加ARオブジェクトの端末座標系仮想空間における方位情報
440p :仮追加ARオブジェクトの端末座標系仮想空間における基準位置
450 :追加ARオブジェクト
450D :追加ARオブジェクトの世界座標系仮想空間における方位情報
450P :追加ARオブジェクトの世界座標系仮想空間における基準位置
460 :視線位置マーク
470 :仮オブジェクト
480 :仮ARオブジェクト
1001 :基本動作プログラム
1002 :アプリケーションプログラム
1009 :データ記憶領域
1101 :基本動作機能部
1111 :位置情報算出部
1112 :オブジェクト情報取得部
1113 :方位情報算出部
1114 :オブジェクト情報表示制御部
1199 :一時記憶領域
2001 :基本動作プログラム
2002 :アプリケーションプログラム
2009 :データ記憶領域
2101 :基本動作機能部
2111 :位置情報算出部
2112 :方位情報算出部
2113 :オブジェクト情報表示制御部
2199 :一時記憶領域
U1 :ユーザ
U1S :視野範囲
図1
図2
図3A
図3B
図3C
図4
図5
図6A
図6B
図7
図8A
図8B
図9A
図9B
図10
図11
図12
図13A
図13B
図14
図15
図16A
図16B
図17
図18
図19A
図19B
図20
図21A
図21B
図22
図23A
図23B