(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-04
(45)【発行日】2024-09-12
(54)【発明の名称】ウェアラブル端末装置、プログラム、表示方法および仮想画像配信システム
(51)【国際特許分類】
G06F 3/01 20060101AFI20240905BHJP
G06F 3/04815 20220101ALI20240905BHJP
【FI】
G06F3/01 510
G06F3/04815
(21)【出願番号】P 2023529393
(86)(22)【出願日】2021-06-25
(86)【国際出願番号】 JP2021024081
(87)【国際公開番号】W WO2022269888
(87)【国際公開日】2022-12-29
【審査請求日】2023-07-31
(73)【特許権者】
【識別番号】000006633
【氏名又は名称】京セラ株式会社
(74)【代理人】
【識別番号】100090033
【氏名又は名称】荒船 博司
(74)【代理人】
【識別番号】100093045
【氏名又は名称】荒船 良男
(72)【発明者】
【氏名】伊東 伸悟
(72)【発明者】
【氏名】足立 智和
(72)【発明者】
【氏名】清水 解
【審査官】星野 裕
(56)【参考文献】
【文献】米国特許出願公開第2019/0371279(US,A1)
【文献】特開2021-043476(JP,A)
【文献】中国実用新案第203858414(CN,U)
【文献】米国特許出願公開第2019/0068529(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/048
(57)【特許請求の範囲】
【請求項1】
ユーザが装着して使用するウェアラブル端末装置であって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
空間内に位置する多面体の仮想画像を表示部に表示させ、
前記多面体のうちの第1の面に第1情報
を表示させ、
前記第1情報は、自装置を装着したユーザが視認可能であり、他のウェアラブル端末装置を装着したユーザが視認不可能である、
ウェアラブル端末装置。
【請求項2】
ユーザが装着して使用するウェアラブル端末装置に設けられたコンピュータに、
空間内に位置する多面体の仮想画像を表示部に表示させる処理、
前記多面体のうちの第1の面に
、自装置を装着したユーザが視認可能であり、他のウェアラブル端末装置を装着したユーザが視認不可能な第1
情報を表示させる処理、
を実行させるプログラム。
【請求項3】
ユーザが装着して使用するウェアラブル端末装置における表示方法であって、
空間内に位置する多面体の仮想画像を表示部に表示させ、
前記多面体のうちの第1の面に
、自装置を装着したユーザが視認可能であり、他のウェアラブル端末装置を装着したユーザが視認不可能な第1
情報を表示させる、
表示方法。
【請求項4】
複数のウェアラブル端末装置と、
前記複数のウェアラブル端末装置を管理する管理装置と、
を備え、
前記管理装置は、少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
前記
複数のウェアラブル端末装置が共有する空間内に位置する多面体の仮想画像を、
前記複数のウェアラブル端末装置の表示
部のそれぞれに表示させ、
前記多面体のうちの第1の面に、
前記複数のウェアラブル端末装置のうち、一のウェアラブル端末装置を装着したユーザが視認可能であり、他のウェアラブル端末装置を装着したユーザが視認不可能な第1情報を表示させる、
仮想画像配信システム。
【請求項5】
ユーザが装着して使用するウェアラブル端末装置であって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
空間内に位置する仮想画像を表示部に表示させ、
前記仮想画像は、自装置を装着したユーザが視認可能な画像であり、他のウェアラブル端末装置を装着したユーザが視認不可能な画像である、
ウェアラブル端末装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、ウェアラブル端末装置、プログラム、表示方法および仮想画像配信システムに関する。
【背景技術】
【0002】
従来、ユーザが頭部に装着するウェアラブル端末装置を用いて、仮想画像および/または仮想空間をユーザに体感させる技術として、VR(仮想現実)、MR(複合現実)およびAR(拡張現実)が知られている。ウェアラブル端末装置は、ユーザが装着したときにユーザの視界を覆う表示部を有する。この表示部に、ユーザの位置および向きに応じて仮想画像および/または仮想空間を表示することで、あたかもこれらが存在しているかのような視覚効果を実現する(例えば、米国特許出願公開第2019/0087021号明細書、および米国特許出願公開第2019/0340822号明細書)。
【0003】
MRは、ユーザに現実空間を視認させつつ、現実空間の所定位置に仮想画像が存在しているように見せる表示を行うことで、現実空間と仮想画像とが融合した複合現実を体感させる技術である。また、VRは、MRにおける現実空間に代えて仮想空間をユーザに視認させることで、あたかもユーザが仮想空間にいるように体感させる技術である。
【0004】
VRおよびMRにおいて表示される仮想画像は、ユーザが位置する空間における表示位置が定められており、その表示位置がユーザの視認領域の内部にある場合に表示部に表示されてユーザに視認される。
【発明の概要】
【0005】
本開示の一の態様のウェアラブル端末装置は、ユーザが装着して使用するウェアラブル端末装置であって、少なくとも一つのプロセッサを備える。前記少なくとも一つのプロセッサは、空間内に位置する多面体の仮想画像を表示部に表示させる。前記少なくとも一つのプロセッサは、前記多面体のうちの第1の面に第1情報を表示させる。前記第1情報は、自装置を装着したユーザが視認可能であり、他のウェアラブル端末装置を装着したユーザが視認不可能である。ここで、多面体の仮想画像には、表面と裏面の2面からなる平面状の仮想画像が含まれるものとする。また、本開示の他の態様のウェアラブル端末装置は、ユーザが装着して使用するウェアラブル端末装置であって、少なくとも一つのプロセッサを備える。前記少なくとも一つのプロセッサは、空間内に位置する仮想画像を表示部に表示させる。前記仮想画像は、自装置を装着したユーザが視認可能な画像であり、他のウェアラブル端末装置を装着したユーザが視認不可能な画像である。
【0006】
また、本開示のプログラムは、ユーザが装着して使用するウェアラブル端末装置に設けられたコンピュータに、空間内に位置する多面体の仮想画像を表示部に表示させる処理を実行させる。前記プログラムは、前記コンピュータに、前記多面体のうちの第1の面に、自装置を装着したユーザが視認可能であり、他のウェアラブル端末装置を装着したユーザが視認不可能な第1情報を表示させる処理を実行させる。
【0007】
また、本開示の表示方法は、ユーザが装着して使用するウェアラブル端末装置における表示方法である。当該表示方法では、空間内に位置する多面体の仮想画像を表示部に表示させる。当該表示方法では、前記多面体のうちの第1の面に、自装置を装着したユーザが視認可能であり、他のウェアラブル端末装置を装着したユーザが視認不可能な第1情報を表示させる。
【0008】
また、本開示の仮想画像配信システムは、複数のウェアラブル端末装置と、前記複数のウェアラブル端末装置を管理する管理装置と、を備える。前記管理装置は、少なくとも一つのプロセッサを備える。前記少なくとも一つのプロセッサは、前記複数のウェアラブル端末装置が共有する空間内に位置する多面体の仮想画像を、前記複数のウェアラブル端末装置の表示部のそれぞれに表示させる。前記少なくとも一つのプロセッサは、前記多面体のうちの第1の面に、前記複数のウェアラブル端末装置のうち、一のウェアラブル端末装置を装着したユーザが視認可能であり、他のウェアラブル端末装置を装着したユーザが視認不可能な第1情報を表示させる。
【図面の簡単な説明】
【0009】
【
図1】第1の実施形態に係るウェアラブル端末装置の構成を示す模式斜視図である。
【
図2】ウェアラブル端末装置を装着しているユーザが視認する視認領域および仮想画像の例を示す図である。
【
図4】ウェアラブル端末装置の主要な機能構成を示すブロック図である。
【
図5】仮想画像表示処理の制御手順を示すフローチャートである。
【
図6】ユーザにとってウィンドウ画面の仮想画像の表面と裏面のどちらが視認し易い状態にあるかの判定方法を説明する図である。
【
図7】ユーザにとってウィンドウ画面の仮想画像の表面と裏面のどちらが視認し易い状態にあるかの判定方法を説明する図である。
【
図8】ユーザにとってウィンドウ画面の仮想画像の表面と裏面のどちらが視認し易い状態にあるかの判定方法を説明する図である。
【
図9】ウィンドウ画面の仮想画像の表面の表示態様を示す図である。
【
図10】
図9に示す仮想画像の裏面の表示態様を示す図である。
【
図11】
図9に示す仮想画像の裏面の表示態様の他の例を示す図である。
【
図12】一のユーザと他のユーザとが共有する空間内に位置するウィンドウ画面の仮想画像を当該一のユーザが表面側から視認するとともに当該他のユーザが裏面側から視認している状態を示す図である。
【
図13】一のユーザと他のユーザとが共有する空間内に位置するウィンドウ画面の仮想画像を当該一のユーザが表面側から視認したときの表示態様を示す図である。
【
図14】
図13に示す仮想画像を他のユーザが裏面側から視認したときの表示態様を示す図である。
【
図15】一のユーザと他のユーザとが共有する空間内に位置するウィンドウ画面の仮想画像を当該一のユーザが表面側から視認したときの表示態様を示す図である。
【
図16】
図15に示す仮想画像を他のユーザが裏面側から視認したときの表示態様を示す図である。
【
図17】一のユーザと他のユーザとが共有する空間内に位置するウィンドウ画面の仮想画像を当該一のユーザが表面側から視認したときの表示態様を示す図である。
【
図18】
図17に示す仮想画像を他のユーザが裏面側から視認したときの表示態様を示す図である。
【
図19】一のユーザと他のユーザとが共有する空間内に位置するウィンドウ画面の仮想画像を当該一のユーザが表面側から視認したときの表示態様を示す図である。
【
図20】
図19に示す仮想画像を他のユーザが裏面側から視認したときの表示態様を示す図である。
【
図21】
図19に示す仮想画像を他のユーザが裏面側から視認したときの表示態様の他の例を示す図である。
【
図22】第2の実施形態に係る表示システムの構成を示す模式図である。
【
図23】情報処理装置の主要な機能構成を示すブロック図である。
【発明を実施するための形態】
【0010】
以下、実施の形態を図面に基づいて説明する。ただし、以下で参照する各図は、説明の便宜上、実施形態を説明する上で必要な主要部材のみを簡略化して示したものである。したがって、本開示のウェアラブル端末装置10および情報処理装置20は、参照する各図に示されていない任意の構成部材を備え得る。
【0011】
〔第1の実施形態〕
図1に示すように、ウェアラブル端末装置10は、本体部10a、および当該本体部10aに取り付けられたバイザー141(表示部材)などを備える。
【0012】
本体部10aは、その周長を調整可能な環状の部材である。本体部10aの内部には、深度センサー153およびカメラ154などの種々の機器が内蔵されている。本体部10aを頭部に装着すると、ユーザの視界がバイザー141によって覆われるようになっている。
【0013】
バイザー141は、光透過性を有する。ユーザは、バイザー141を通して現実空間を視認することができる。バイザー141のうちユーザの目に対向する表示面には、本体部10aに内蔵されたレーザースキャナー142(
図4参照)から仮想画像等の画像が投影されて表示される。ユーザは、表示面からの反射光により仮想画像を視認する。このとき、ユーザは、併せてバイザー141越しに現実空間も視認しているため、あたかも現実空間に仮想画像が存在しているかのような視覚効果が得られる。
【0014】
図2に示すように、仮想画像30が表示された状態では、ユーザは、空間40における所定位置に、所定方向を向いた仮想画像30を視認する。本実施形態では、空間40は、ユーザがバイザー141越しに視認する現実空間である。仮想画像30は、光透過性を有するバイザー141に投影されているため、現実空間に重なる半透明の画像として視認される。
図2では、仮想画像30として平面状のウィンドウ画面を例示しているが、これに限られず、仮想画像30は、例えば各種の立体画像であってもよい。仮想画像30がウィンドウ画面である場合には、仮想画像30は表面(第1の面)30Aおよび裏面(第2の面)30Bを有し、この表面30Aおよび裏面30Bのいずれにも必要な情報が表示されるようになっている。なお、ウィンドウ画面の仮想画像30に関しては、当該仮想画像30が所定の厚みを上限とする範囲内において厚みを有する場合があるものとする。
【0015】
ウェアラブル端末装置10は、空間40におけるユーザの位置および向き(言い換えると、ウェアラブル端末装置10の位置および向き)に基づいて、ユーザの視認領域41を検出する。
図3に示すように、視認領域41は、空間40のうち、ウェアラブル端末装置10を装着しているユーザUの前方に位置する領域である。例えば、視認領域41は、ユーザUの正面から左右方向および上下方向にそれぞれ所定角度範囲内の領域である。この場合、視認領域41の形状に相当する立体を、ユーザUの正面方向に垂直な平面で切り取ったときの切り口の形状は矩形である。なお、視認領域41の形状は、当該切り口の形状が矩形以外(例えば、円形または楕円形等)となるように定められていてもよい。視認領域41の形状(例えば、正面から左右方向および上下方向の角度範囲)は、例えば以下の方法で特定することができる。
【0016】
ウェアラブル端末装置10では、初回起動時等の所定のタイミングにおいて、所定の手順で視野の調整(以下、キャリブレーションと記す)が行われる。このキャリブレーションにより、ユーザが視認できる範囲が特定され、以降、当該範囲内に仮想画像30が表示される。このキャリブレーションにより特定された視認可能な範囲の形状を、視認領域41の形状とすることができる。
【0017】
また、キャリブレーションは、上記の所定の手順で行われるものに限られず、ウェアラブル端末装置10の通常の操作を行っている中で自動的にキャリブレーションが行われてもよい。例えば、ユーザからのリアクションがなされるべき表示に対してリアクションがなされない場合に、当該表示を行っている範囲をユーザの視野の範囲外であるとみなして視野(および視認領域41の形状)を調整してもよい。また、視野の範囲外として定められている位置に試験的に表示を行い、当該表示に対するユーザのリアクションがあった場合に、当該表示を行っている範囲をユーザの視野の範囲内であるとみなして視野(および視認領域41の形状)を調整してもよい。
【0018】
なお、視認領域41の形状は、出荷時等において、視野の調整結果に基づかずに予め定められて固定されていてもよい。例えば、視認領域41の形状は、表示部14の光学設計上、最大限表示可能な範囲に定められていてもよい。
【0019】
仮想画像30は、ユーザの所定の操作に応じて、空間40における表示位置および向きが定められた状態で生成される。ウェアラブル端末装置10は、生成された仮想画像30のうち、視認領域41の内部に表示位置が定められている仮想画像30をバイザー141に投影させて表示する。
図2においては、視認領域41が鎖線で示されている。
【0020】
バイザー141における仮想画像30の表示位置および向きは、ユーザの視認領域41の変化に応じてリアルタイムに更新される。すなわち、「設定された位置および向きで空間40内に仮想画像30が位置している」とユーザが認識するように、視認領域41の変化に応じて仮想画像30の表示位置および向きが変化する。例えば、ユーザが仮想画像30の表側から裏側に向かって移動すると、この移動に応じて表示される仮想画像30の形状(角度)が徐々に変化する。また、ユーザが仮想画像30の裏側に回り込んだ後で当該仮想画像30の方向を向くと、仮想画像30の裏面30Bが視認されるように裏面30Bが表示される。また、視認領域41の変化に応じて、表示位置が視認領域41から外れた仮想画像30は表示されなくなり、表示位置が視認領域41に入った仮想画像30があれば当該仮想画像30が新たに表示される。
【0021】
図2に示すように、ユーザが手(または指)を前方にかざすと、手を伸ばした方向がウェアラブル端末装置10により検出され、当該方向に延びる仮想線51と、ポインタ52とがバイザー141の表示面に表示されてユーザに視認される。ポインタ52は、仮想線51と仮想画像30との交点に表示される。仮想線51が仮想画像30と交差しない場合には、仮想線51と空間40の壁面等との交点にポインタ52が表示されてもよい。ユーザの手と仮想画像30との距離が所定の基準距離以内である場合に、仮想線51の表示を省略して、ユーザの指先の位置に応じた位置にポインタ52を直接表示させてもよい。
【0022】
ユーザが手を伸ばす方向を変えることで、仮想線51の方向およびポインタ52の位置を調整することができる。仮想画像30に含まれる所定の操作対象(例えば、機能バー31、ウィンドウ形状変更ボタン32、およびクローズボタン33等)にポインタ52が位置するように調整した状態で所定のジェスチャーを行うことで、当該ジェスチャーがウェアラブル端末装置10により検出され、操作対象に対する所定の操作を行うことができる。例えば、ポインタ52をクローズボタン33に合わせた状態で、操作対象を選択するジェスチャー(例えば、指先をつまむジェスチャー)を行うことで、仮想画像30を閉じる(削除する)ことができる。また、ポインタ52を機能バー31に合わせた状態で選択するジェスチャーを行い、選択状態のまま手を前後左右に移動させるジェスチャーを行うことで、仮想画像30を奥行方向および左右方向に移動させることができる。仮想画像30に対する操作はこれらに限られない。
【0023】
このように、本実施形態のウェアラブル端末装置10は、あたかも現実空間に仮想画像30が存在するかのような視覚効果を実現し、仮想画像30に対するユーザの操作を受け付けて仮想画像30の表示に反映させることができる。すなわち、本実施形態のウェアラブル端末装置10はMRを提供する。
【0024】
次に、
図4を参照してウェアラブル端末装置10の機能構成について説明する。
ウェアラブル端末装置10は、CPU11(Central Processing Unit)と、RAM12(Random Access Memory)と、記憶部13と、表示部14と、センサー部15と、通信部16などを備え、これらの各部はバス17により接続されている。
図4に示す構成要素のうち表示部14のバイザー141を除いた各部は、本体部10aに内蔵されており、同じく本体部10aに内蔵されているバッテリーから供給される電力により動作する。
【0025】
CPU11は、各種演算処理を行い、ウェアラブル端末装置10の各部の動作を統括制御するプロセッサである。CPU11は、記憶部13に記憶されたプログラム131を読み出して実行することで、各種制御動作を行う。CPU11は、プログラム131を実行することで、例えば視認領域検出処理および表示制御処理などを実行する。このうち視認領域検出処理は、空間40内におけるユーザの視認領域41を検出する処理である。また、表示制御処理は、空間40における位置が定められた仮想画像30のうち、視認領域41の内部に位置が定められている仮想画像30を表示部14に表示させる処理である。
【0026】
なお、
図4では単一のCPU11が図示されているが、これに限られない。CPU等のプロセッサが2以上設けられていてもよく、本実施形態のCPU11が実行する処理を、これらの2以上のプロセッサが分担して実行してもよい。
【0027】
RAM12は、CPU11に作業用のメモリ空間を提供し、一時データを記憶する。
【0028】
記憶部13は、コンピュータとしてのCPU11により読み取り可能な非一時的な記録媒体である。記憶部13は、CPU11により実行されるプログラム131、および各種設定データなどを記憶する。プログラム131は、コンピュータ読み取り可能なプログラムコードの形態で記憶部13に格納されている。記憶部13としては、例えばフラッシュメモリを備えたSSD(Solid State Drive)などの不揮発性の記憶装置が用いられる。
【0029】
記憶部13に記憶されるデータとしては、仮想画像30に係る仮想画像データ132などがある。仮想画像データ132は、仮想画像30の表示内容に係るデータ(例えば画像データ)、表示位置のデータ、および向きのデータなどを含む。
【0030】
表示部14は、バイザー141と、レーザースキャナー142と、当該レーザースキャナー142から出力された光をバイザー141の表示面に導く光学系とを有する。レーザースキャナー142は、CPU11からの制御信号に従って、画素ごとにオン/オフが制御されたパルス状のレーザー光を所定方向にスキャンしつつ光学系に照射する。光学系に入射したレーザー光は、バイザー141の表示面において2次元の画素マトリクスからなる表示画面を形成する。レーザースキャナー142の方式は、特には限られないが、例えばMEMS(Micro Electro Mechanical Systems)によりミラーを動作させてレーザー光をスキャンする方式を用いることができる。レーザースキャナー142は、例えばRGBの色のレーザー光を射出する3つの発光部を有する。表示部14は、これらの発光部からの光をバイザー141に投影することでカラー表示を行うことができる。
【0031】
センサー部15は、加速度センサー151、角速度センサー152、深度センサー153、カメラ154およびアイトラッカー155などを備える。なお、センサー部15は、
図4に示されていないセンサーをさらに有していてもよい。
【0032】
加速度センサー151は、加速度を検出して検出結果をCPU11に出力する。加速度センサー151による検出結果から、ウェアラブル端末装置10の直交3軸方向の並進運動を検出することができる。
【0033】
角速度センサー152(ジャイロセンサー)は、角速度を検出して検出結果をCPU11に出力する。角速度センサー152による検出結果から、ウェアラブル端末装置10の回転運動を検出することができる。
【0034】
深度センサー153は、ToF(Time of Flight)方式で被写体までの距離を検出する赤外線カメラであり、距離の検出結果をCPU11に出力する。深度センサー153は、視認領域41を撮影できるように本体部10aの前面に設けられている。空間40においてユーザの位置および向きが変化するごとに深度センサー153による計測を繰り返し行って結果を合成することで、空間40の全体の3次元マッピングを行う(すなわち、3次元構造を取得する)ことができる。
【0035】
カメラ154は、RGBの撮像素子群により空間40を撮影し、撮影結果としてカラー画像データを取得してCPU11に出力する。カメラ154は、視認領域41を撮影できるように本体部10aの前面に設けられている。カメラ154からの出力画像は、ウェアラブル端末装置10の位置および向きなどの検出に用いられるほか、通信部16から外部機器に送信されて、ウェアラブル端末装置10のユーザの視認領域41を外部機器において表示するためにも用いられる。
【0036】
アイトラッカー155は、ユーザの視線を検出して検出結果をCPU11に出力する。視線の検出方法は、特には限られないが、例えば、ユーザの目における近赤外光の反射点をアイトラッキングカメラで撮影し、その撮影結果と、カメラ154による撮影画像とを解析してユーザが視認している対象を特定する方法を用いることができる。アイトラッカー155の構成の一部は、バイザー141の周縁部などに設けられていてもよい。
【0037】
通信部16は、アンテナ、変復調回路、信号処理回路などを有する通信モジュールである。通信部16は、所定の通信プロトコルに従って外部機器との間で無線通信によるデータの送受信を行う。
【0038】
このような構成のウェアラブル端末装置10において、CPU11は、以下のような制御動作を行う。
【0039】
CPU11は、深度センサー153から入力された被写体までの距離データに基づいて空間40の3次元マッピングを行う。CPU11は、ユーザの位置および向きが変化するたびにこの3次元マッピングを繰り返し行い、都度結果を更新する。また、CPU11は、一繋がりの空間40を単位として3次元マッピングを行う。よって、壁などにより仕切られた複数の部屋の間をユーザが移動する場合には、CPU11は、それぞれの部屋を1つの空間40と認識し、部屋ごとに別個に3次元マッピングを行う。
【0040】
CPU11は、空間40内におけるユーザの視認領域41を検出する。詳しくは、CPU11は、加速度センサー151、角速度センサー152、深度センサー153、カメラ154およびアイトラッカー155による検出結果と、蓄積されている3次元マッピングの結果と、に基づいて、空間40におけるユーザ(ウェアラブル端末装置10)の位置および向きを特定する。そして、特定した位置および向きと、予め定められている視認領域41の形状と、に基づいて視認領域41を検出(特定)する。また、CPU11は、ユーザの位置および向きの検出をリアルタイムで継続して行い、ユーザの位置および向きの変化に連動して視認領域41を更新する。なお、視認領域41の検出は、加速度センサー151、角速度センサー152、深度センサー153、カメラ154およびアイトラッカー155のうちの一部による検出結果を用いて行われてもよい。
【0041】
CPU11は、ユーザの操作に応じて仮想画像30に係る仮想画像データ132を生成する。すなわち、CPU11は、仮想画像30の生成を指示する所定の操作(ジェスチャー)を検出すると、仮想画像の表示内容(例えば画像データ)、表示位置、および向きを特定し、これらの特定結果を表すデータを含む仮想画像データ132を生成する。
【0042】
CPU11は、視認領域41の内部に表示位置が定められている仮想画像30を表示部14に表示させる。CPU11は、仮想画像データ132に含まれる表示位置の情報に基づいて視認領域41の内部に表示位置が定められている仮想画像30を特定し、その時点における視認領域41と、特定された仮想画像30の表示位置との位置関係に基づいて、表示部14に表示させる表示画面の画像データを生成する。CPU11は、この画像データに基づいてレーザースキャナー142にスキャン動作を行わせ、バイザー141の表示面に、特定された仮想画像30を含む表示画面を形成させる。すなわち、CPU11は、バイザー141を通して視認される空間40に仮想画像30が視認されるように、仮想画像30をバイザー141の表示面に表示させる。CPU11は、この表示制御処理を連続して行うことで、ユーザの動き(視認領域41の変化)に合わせて表示部14による表示内容をリアルタイムで更新する。ウェアラブル端末装置10が電源オフ状態となっても仮想画像データ132が保持される設定となっている場合には、次にウェアラブル端末装置10が起動したときには、既存の仮想画像データ132が読み込まれ、視認領域41の内部に位置する仮想画像30があれば表示部14に表示される。
【0043】
なお、通信部16を介して外部機器から取得した指示データに基づいて仮想画像データ132を生成し、当該仮想画像データ132に基づいて仮想画像30を表示させてもよい。あるいは、通信部16を介して外部機器から仮想画像データ132そのものを取得し、当該仮想画像データ132に基づいて仮想画像30を表示させてもよい。例えば、遠隔指示者が操作する外部機器にウェアラブル端末装置10のカメラ154の映像を表示させるとともに、外部機器から仮想画像30を表示する指示を受け付け、指示された仮想画像30をウェアラブル端末装置10の表示部14に表示させてもよい。これにより、例えば、作業対象物の近傍に作業内容を示す仮想画像30を表示させて、遠隔指示者からウェアラブル端末装置10のユーザに対して作業を指示するといった動作が可能となる。
【0044】
CPU11は、深度センサー153およびカメラ154による撮像画像に基づいてユーザの手(および/または指)の位置および向きを検出し、検出した方向に延びる仮想線51と、ポインタ52とを表示部14に表示させる。また、CPU11は、深度センサー153およびカメラ154による撮像画像に基づいてユーザの手(および/または指)のジェスチャーを検出し、検出したジェスチャーの内容と、その時点におけるポインタ52の位置とに応じた処理を実行する。
【0045】
次に、視認領域41の内部に仮想画像30があるときのウェアラブル端末装置10の動作について説明する。
【0046】
上述のとおり、ウェアラブル端末装置10では、視認領域41の内部に表示位置が定められている仮想画像30が表示部14に表示され、ユーザに視認されるようになっているが、従来、ウィンドウ画面の仮想画像30が表示部14に表示された場合、当該仮想画像30の裏面には何の情報も表示されていなかった。
【0047】
そこで、本実施形態のウェアラブル端末装置10のCPU11は、ウィンドウ画面の仮想画像30を表示部14に表示させた際に、当該仮想画像30の表面30Aに第1情報を有する第1画像を表示させ、裏面に第2情報を有する第2画像を表示させる。これにより、ウィンドウ画面の仮想画像30の裏面を有効活用することができる。以下、ウィンドウ画面の仮想画像30の表示の例を、
図5~
図21を参照して説明する。
【0048】
まず、
図5のフローチャートを参照して、本開示の一側面に係る仮想画像表示処理のCPU11による制御手順について説明する。
図5の仮想画像表示処理は、ウィンドウ画面の仮想画像30を表示部14に表示させた際に、当該仮想画像30の表面30Aに第1情報を有する第1画像を表示させ、裏面に第2情報を有する第2画像を表示させる特徴を少なくとも含むものである。
【0049】
図5に示す仮想画像表示処理が開始されると、CPU11は、ユーザの位置および向きに基づいて視認領域41を検出する(ステップS101)。
【0050】
次いで、CPU11は、検出した視認領域41の内部に表示位置が定められている仮想画像30があるか否かを判別する(ステップS102)。
【0051】
ステップS102において、検出した視認領域41の内部に表示位置が定められている仮想画像30がないと判別された場合(ステップS102;NO)、CPU11は、処理をステップS109に進める。
【0052】
また、ステップS102において、検出した視認領域41の内部に表示位置が定められている仮想画像30があると判別された場合(ステップS102;YES)、CPU11は、当該仮想画像30を表示部14に表示させる(ステップS103)。
【0053】
次いで、CPU11は、表示部14に表示された仮想画像30のなかに表面と裏面の2面からなる仮想画像30があるか、すなわちウィンドウ画面の仮想画像30があるか否かを判別する(ステップS104)。
【0054】
ステップS104において、表示部14に表示された仮想画像30のなかに表面と裏面の2面からなる仮想画像30がないと判別された場合(ステップS104;NO)、CPU11は、処理をステップS109に進める。
【0055】
また、ステップS104において、表示部14に表示された仮想画像30のなかに表面と裏面の2面からなる仮想画像30すなわちウィンドウ画面の仮想画像30があると判別された場合(ステップS104;YES)、CPU11は、ユーザにとって当該仮想画像30の表面30Aが視認し易い状態にあるか否かを判別する(ステップS105)。
【0056】
ここで、ユーザにとってウィンドウ画面の仮想画像30の表面30Aと裏面30Bのどちらが視認し易い状態にあるかの判定方法について説明する。
【0057】
第1の判定方法としては、例えば、
図6に示すように、ユーザUがウィンドウ画面の仮想画像30の表面30Aと対向する位置に存する場合であって、アイトラッカー155により検出されるユーザUの視線と当該仮想画像30との交わる箇所が当該仮想画像30の表面30A側である場合、CPU11は、ユーザUにとって当該仮想画像30の表面30Aが視認し易い状態であると判定する。一方、例えば、ユーザUが当該仮想画像30の表面30Aの側から裏面30Bの側へ回り込み、アイトラッカー155により検出されるユーザUの視線と当該仮想画像30との交わる箇所が当該仮想画像30の裏面30Bの側となった場合、CPU11は、ユーザUにとって当該仮想画像30の裏面30Bが視認し易い状態であると判定する。これにより、当該判定を正確に行うことができる。
なお、判定方法は、上記の方法に限定されるものではなく、下記の第2の判定方法や第3の判定方法を採用してもよい。
【0058】
第2の判定方法としては、例えば、
図7に示すように、ユーザUがウィンドウ画面の仮想画像30の表面30Aと対向する位置に存する場合であって、ユーザが手を伸ばした方向に延びる仮想線51と当該仮想画像30との交わる箇所が当該仮想画像30の表面30Aの側である場合、CPU11は、ユーザUにとって当該仮想画像30の表面30Aが視認し易い状態であると判定する。一方、例えば、ユーザUが当該仮想画像30の表面30Aの側から裏面30Bの側へ回り込み、ユーザUが手を伸ばした方向に延びる仮想線51と当該仮想画像30との交わる箇所が当該仮想画像30の裏面30Bの側となった場合、CPU11は、ユーザUにとって当該仮想画像30の裏面30Bが視認し易い状態であると判定する。これにより、当該判定を正確に行うことができる。
【0059】
また、第3の判定方法としては、例えば、
図8に示すように、ユーザUがウィンドウ画面の仮想画像30の表面30Aと対向する位置に存する場合、すなわち表面30Aと裏面30Bとの境界を基準としてユーザUが表面30Aの側に位置する場合、CPU11は、ユーザUにとって当該仮想画像30の表面30Aが視認し易い状態であると判定する。一方、例えば、当該仮想画像30の境界を跨いで表面30Aの側から裏面30Bの側へ移動したことにより、ユーザUが当該境界を基準として裏面30Bの側に位置するようになった場合、ユーザUが当該仮想画像30の裏面30Bを視認しているか否かに関わらず、CPU11は、ユーザUにとって当該仮想画像30の裏面30Bが視認し易い状態であると判定する。これにより、当該判定を正確に行うことができる。
【0060】
仮想画像表示処理の制御手順の説明に戻り、ステップS105において、ユーザにとって上記仮想画像30の表面30Aが視認し易い状態にあると判別された場合(ステップS105;YES)、CPU11は、当該仮想画像30の表面30Aに所定の第1画像(第1情報を有する第1画像)を表示させる(ステップS106)。また、かかる場合に、CPU11は、上記仮想画像30の裏面30Bに対するユーザ操作を無効とするとともに、当該仮想画像30の表面30Aと裏面30Bとを反転させるユーザ操作を無効とする。そして、CPU11は、処理をステップS107に進める。
【0061】
また、ステップS105において、ユーザにとって上記仮想画像30の表面30Aが視認し易い状態にないと判別された場合(ステップS105;NO)、CPU11は、ステップS106をスキップして、処理をステップS107に進める。
【0062】
次いで、CPU11は、ユーザにとって上記仮想画像30の裏面30Bが視認し易い状態にあるか否かを判別する(ステップS107)。
【0063】
ステップS107において、ユーザにとって上記仮想画像30の裏面30Bが視認し易い状態にあると判別された場合(ステップS107;YES)、CPU11は、当該仮想画像30の裏面30Bに所定の第2画像(第2情報を有する第2画像)を表示させる(ステップS108)。また、かかる場合に、CPU11は、上記仮想画像30の表面30Aに対するユーザ操作を無効とするとともに、当該仮想画像30の表面30Aと裏面30Bとを反転させるユーザ操作を無効とする。そして、CPU11は、処理をステップS109に進める。
【0064】
また、ステップS107において、ユーザにとって上記仮想画像30の裏面30Bが視認し易い状態にないと判別された場合(ステップS107;NO)、CPU11は、ステップS108をスキップして、処理をステップS109に進める。
【0065】
次いで、CPU11は、ウェアラブル端末装置10による表示動作を終了させる指示がなされたか否かを判別する(ステップS109)。
【0066】
ステップS109において、ウェアラブル端末装置10による表示動作を終了させる指示がなされていないと判別された場合(ステップS109;NO)、CPU11は、処理をステップS101に戻し、それ以降の処理を繰り返し行う。
【0067】
また、ステップS109において、ウェアラブル端末装置10による表示動作を終了させる指示がなされたと判別された場合(ステップS109;YES)、CPU11は、仮想画像表示処理を終了させる。
【0068】
以下では、ステップS106における仮想画像30の表面30Aへの表示動作がなされた際の具体的な表示態様と、ステップS108における当該仮想画像30の裏面30Bへの表示動作がなされた際の具体的な表示態様と、について説明する。
【0069】
ユーザにとって仮想画像30の表面30Aが視認し易い状態にあると判別された場合、CPU11は、
図9に示すように、当該仮想画像30の表面30Aに所定の第1画像(第1情報を有する第1画像)として或るウェブページを表示させる。一方、ユーザにとって上記仮想画像30の裏面30Bが視認し易い状態にあると判別された場合、CPU11は、
図10に示すように、当該仮想画像30の裏面30Bにも上記ウェブページ(第1画像と同一内容の画像)を表示させる。これにより、上記仮想画像30の表面30A側からでも裏面30B側からでも上記ウェブページを視認できるので、ユーザが当該ウェブページを視認することを目的として当該仮想画像30の周囲を移動する手間を省くことができる。
【0070】
他の表示態様としては、ユーザにとって仮想画像30の表面30Aが視認し易い状態にあると判別された場合、CPU11は、
図9に示すように、当該仮想画像30の表面30Aに所定の第1画像(第1情報を有する第1画像)として或るウェブページを表示させる。一方、ユーザにとって上記仮想画像30の裏面30Bが視認し易い状態にあると判別された場合、CPU11は、
図11に示すように、当該仮想画像30の裏面30Bにブラウザアイコン(当該ウェブページに関するアイコン)34を表示させる。このブラウザアイコン34にポインタ52が当たるようにユーザ操作が行われると、CPU11は、上記仮想画像30の表面30Aに表示させたウェブページを裏面30Bにも表示させる。これにより、ユーザが上記仮想画像30の裏面30B側に存する場合に、当該仮想画像30の表面30Aに何が表示されているかを推測できる。また、上記のユーザ操作によって、上記仮想画像30の表面30Aに表示させたウェブページを裏面30Bにも表示させることができるので、ユーザが当該ウェブページを視認することを目的として上記仮想画像30の裏面30B側から表面30A側へ移動する手間を省くことができる。
【0071】
また、他の表示態様としては、
図12に示すように、ユーザU1にとって仮想画像30の表面30Aが視認し易い状態にあると判別された場合、CPU11は、当該仮想画像30の表面30Aに所定の第1画像(第1情報を有する第1画像)として、ユーザU1が装着して使用するウェアラブル端末装置10Aにおいて視認可能な画像を表示させる。一方、ユーザU1にとって上記仮想画像30の裏面30Bが視認し易い状態にあると判別された場合、CPU11は、当該仮想画像30の裏面30Bに、ユーザU1とは別のユーザU2が装着して使用するウェアラブル端末装置10Bにおいて視認可能な画像を表示させる。
なお、上記仮想画像30の表面30Aに表示されるユーザU1が装着して使用するウェアラブル端末装置10Aにおいて視認可能な画像は、ユーザU2が装着して使用するウェアラブル端末装置10Bにおいては視認できないようになっている。したがって、ウェアラブル端末装置10Bを装着したユーザU2が上記仮想画像30の裏面30B側から表面30A側に回り込んで当該表面30Aを視認しても、当該表面30Aの上記画像を視認できないようになっている。この場合、仮想画像30の表面30Aがウェアラブル端末装置10Aにおいて視認可能であり、ウェアラブル端末装置10Bにおいては視認できない旨が、ウェアラブル端末装置10AによってユーザU1に、ウェアラブル端末装置10BによってユーザU2に、それぞれ報知されてもよい。
【0072】
ここで、ユーザU1が装着して使用するウェアラブル端末装置10Aは通信部16を介してユーザU2が装着して使用するウェアラブル端末装置10Bと通信接続されており、ウェアラブル端末装置10Aが通信部16を介して上記仮想画像30に係る仮想画像データ132をウェアラブル端末装置10Bに送信することにより当該仮想画像30をウェアラブル端末装置10Aとウェアラブル端末装置10Bとで共有できるようになっている。
図12の例では、1台のウェアラブル端末装置10Bが示されているが、ウェアラブル端末装置10Bは複数台であってもよい。すなわち複数のユーザU2がそれぞれウェアラブル端末装置10Bを装着して使用することによって上記仮想画像30の裏面30Bに表示された画像を視認できるようにしてもよい。
【0073】
なお、上記仮想画像30の共有方法は、上述のようにウェアラブル端末装置10Aが通信部16を介して上記仮想画像30に係る仮想画像データ132をウェアラブル端末装置10Bに送信する方法に限られない。例えば、ウェアラブル端末装置10Aとウェアラブル端末装置10Bとを管理する管理装置(図示省略)がそれぞれのウェアラブル端末装置10A,10Bに対して上記仮想画像30に係る仮想画像データを配信することによって当該仮想画像30を共有するようにしてもよい。かかる場合、管理装置のCPU(図示省略)によって、ユーザU1とユーザU2とが共有する空間内に位置するウィンドウ画面の仮想画像30を、ウェアラブル端末装置10Aの表示部とウェアラブル端末装置10Bの表示部とのそれぞれに表示させ、当該仮想画像30の表面30AにユーザU1がウェアラブル端末装置10Aにおいて視認可能な画像を表示させ、裏面30BにユーザU2がウェアラブル端末装置10Bにおいて視認可能な画像を表示させるようにする。
【0074】
以下では、ウェアラブル端末装置10Aとウェアラブル端末装置10Bとで共有される上記仮想画像30の表面30Aと裏面30Bのそれぞれに表示される画像の具体的な表示態様について説明する。
【0075】
図13に示すように、CPU11は、ウェアラブル端末装置10Aとウェアラブル端末装置10Bとで共有される上記仮想画像30の表面30Aに、プレゼンテーション用のアプリケーションに関する画像であって、例えば、プレゼンテーション資料の作成を行うための作業画面のように当該アプリケーションにおける各種の機能を選択可能な画像を表示させる。一方、
図14に示すように、CPU11は、上記仮想画像30の裏面30Bに、例えば“プレゼン準備中”の文字を表した画像を表示させる。なお、表面30Aに表示させる画像は、プレゼンテーション用のアプリケーションに関する画像に限られず、例えば、文書作成アプリケーションや表作成アプリケーションに関する画像であってもよい。また、裏面30Bに表示させる画像は、上記のプレゼンテーション用のアプリケーションに関係しない画像、または当該アプリケーションにおける各種の機能を選択不可能な画像であればよく、例えば予め指定されたスクリーンセーバーや動画像などでもよい。
【0076】
また、他の表示態様としては、
図15に示すように、CPU11は、ウェアラブル端末装置10Aとウェアラブル端末装置10Bとで共有される上記仮想画像30の表面30Aに、メモ領域を含むプレゼンテーション用のアプリケーションに関する画像を表示させる。この画像はプレゼンテーション中に発表者(ユーザU1)が利用する画像である。一方、
図16に示すように、CPU11は、上記仮想画像30の裏面30Bに、プレゼンテーションを行う際に聞き手(ユーザU2)に見せるスライドのように上記メモ領域を含まないプレゼンテーション用のアプリケーションに関する画像を表示させる。
【0077】
また、他の表示態様としては、
図17に示すように、CPU11は、ウェアラブル端末装置10Aとウェアラブル端末装置10Bとで共有される上記仮想画像30の表面30Aに、プレゼンテーション用のアプリケーションに関する画像を表示させている際に、例えば、ユーザU1の操作に応じて、裏面30Bに表示させる所望のデータを指定する一連の指定操作画面を表示させる。一方、
図18に示すように、CPU11は、表面30Aにおいて所望のデータ(例えば、ファイルA)が指定された場合、上記仮想画像30の裏面30Bに、当該所望のデータに関する画像を表示させる。
【0078】
また、他の表示態様としては、ユーザU1の操作に応じて、所謂テキスト変換アプリケーションが起動された場合、
図19に示すように、CPU11は、ウェアラブル端末装置10Aとウェアラブル端末装置10Bとで共有される上記仮想画像30の表面30Aに、発話を促すマイクアイコン35を表示させる。一方、
図20に示すように、CPU11は、ウェアラブル端末装置10Aが備える音声データ取得手段としてのマイク(図示省略)により取得されたユーザU1の音声データ(例えば「私は佐藤太郎です。」の音声データ)を文字データに変換し、上記仮想画像30の裏面30Bに、当該文字データ(例えば「私は佐藤太郎です。」の文字データ)を表示させる。なお、ユーザU1の操作ではなく、ユーザU2の操作に応じてテキスト変換アプリケーションが起動されて、ユーザU1の音声データの文字データへの変換、および、当該文字データの裏面30Bへの表示が実行されてもよい。
【0079】
また、他の表示態様としては、ユーザU1の操作に応じて、所謂翻訳アプリケーションが起動された場合、
図19に示すように、CPU11は、ウェアラブル端末装置10Aとウェアラブル端末装置10Bとで共有される上記仮想画像30の表面30Aに、発話を促すマイクアイコン35を表示させる。一方、
図21に示すように、CPU11は、ウェアラブル端末装置10Aが備える音声データ取得手段としてのマイク(図示省略)により取得されたユーザU1の音声データ(例えば「私は佐藤太郎です。」の音声データ)に基づいて、所定の言語(例えば、英語)の文字データに翻訳し、上記仮想画像30の裏面30Bに、翻訳後の当該文字データ(例えば「I am Taro Sato.」の文字データ)を表示させる。なお、ユーザU1の操作ではなく、ユーザU2の操作に応じて翻訳アプリケーションが起動されて、ユーザU1の音声データの文字データへの翻訳、および、当該翻訳後の文字データの裏面30Bへの表示を実行されてもよい。
【0080】
〔第2の実施形態〕
次に、第2の実施形態に係る表示システム1の構成について説明する。第2の実施形態は、第1の実施形態においてウェアラブル端末装置10のCPU11が実行していた処理の一部を外部の情報処理装置20が実行する点で第1の実施形態と異なる。以下では、第1の実施形態との相違点について説明し、共通する点については説明を省略する。
【0081】
図22に示すように、表示システム1は、ウェアラブル端末装置10と、当該ウェアラブル端末装置10に通信接続された情報処理装置20(サーバ)とを備える。ウェアラブル端末装置10と情報処理装置20との間の通信経路の少なくとも一部は、無線通信によるものであってもよい。ウェアラブル端末装置10のハードウェア構成は、第1の実施形態と同様とすることができるが、情報処理装置20が実行する処理と同一の処理を行うためのプロセッサは省略してもよい。
【0082】
図23に示すように、情報処理装置20は、CPU21と、RAM22と、記憶部23と、操作表示部24と、通信部25などを備え、これらの各部はバス26により接続されている。
【0083】
CPU21は、各種演算処理を行い、情報処理装置20の各部の動作を統括制御するプロセッサである。CPU21は、記憶部23に記憶されたプログラム231を読み出して実行することで、各種制御動作を行う。
【0084】
RAM22は、CPU21に作業用のメモリ空間を提供し、一時データを記憶する。
【0085】
記憶部23は、コンピュータとしてのCPU21により読み取り可能な非一時的な記録媒体である。記憶部23は、CPU21により実行されるプログラム231、および各種設定データなどを記憶する。プログラム231は、コンピュータ読み取り可能なプログラムコードの形態で記憶部23に格納されている。記憶部23としては、例えばフラッシュメモリを備えたSSD、またはHDD(Hard Disk Drive)などの不揮発性の記憶装置が用いられる。
【0086】
操作表示部24は、液晶ディスプレイ等の表示装置と、マウスおよびキーボードといった入力装置とを備える。操作表示部24は、表示装置において表示システム1の動作ステータスや処理結果等の各種表示を行う。ここで、表示システム1の動作ステータスには、ウェアラブル端末装置10のカメラ154によるリアルタイムの撮影画像が含まれてもよい。また、操作表示部24は、入力装置に対するユーザの入力操作を操作信号に変換してCPU21に出力する。
【0087】
通信部25は、ウェアラブル端末装置10と通信を行ってデータを送受信する。例えば、通信部25は、ウェアラブル端末装置10のセンサー部15による検出結果の一部または全部を含むデータ、およびウェアラブル端末装置10が検出したユーザの操作(ジェスチャー)に係る情報などを受信する。また、通信部25は、ウェアラブル端末装置10以外の他の装置との通信が可能であってもよい。
【0088】
このような構成の表示システム1において、情報処理装置20のCPU21は、第1の実施形態においてウェアラブル端末装置10のCPU11が実行していた処理の少なくとも一部を実行する。例えば、CPU21は、深度センサー153による検出結果に基づいて空間40の3次元マッピングを行ってもよい。また、CPU21は、センサー部15の各部による検出結果に基づいて空間40内におけるユーザの視認領域41を検出してもよい。また、CPU21は、ウェアラブル端末装置10のユーザの操作に応じて仮想画像30に係る仮想画像データ132を生成してもよい。また、CPU21は、深度センサー153およびカメラ154による撮像画像に基づいてユーザの手(および/または指)の位置および向きを検出してもよい。
【0089】
CPU21による上記の処理結果は、通信部25を介してウェアラブル端末装置10に送信される。ウェアラブル端末装置10のCPU11は、受信した処理結果に基づいてウェアラブル端末装置10の各部(例えば表示部14)を動作させる。また、CPU21は、ウェアラブル端末装置10に制御信号を送信して、ウェアラブル端末装置10の表示部14の表示制御を行ってもよい。
【0090】
このように、情報処理装置20において処理の少なくとも一部を実行することで、ウェアラブル端末装置10の装置構成を簡素化することができ、また製造コストを低減することができる。また、より高性能な情報処理装置20を用いることで、MRに係る各種の処理を高速化および高精度化することができる。よって、空間40の3Dマッピングの精度を高めたり、表示部14による表示品質を高めたり、ユーザの動作に対する表示部14の反応速度を高めたりすることができる。
【0091】
〔その他〕
なお、上記実施形態は例示であり、様々な変更が可能である。
例えば、上記の各実施形態では、ユーザに現実空間を視認させるために、光透過性を有するバイザー141を用いたが、これに限られない。例えば、遮光性を有するバイザー141を用い、カメラ154により撮影された空間40の画像をユーザに視認させてもよい。すなわち、CPU11は、カメラ154により撮影された空間40の画像、および当該空間40の画像に重ねられた仮想画像30を表示部14に表示させてもよい。このような構成によっても、現実空間に仮想画像30を融合させるMRを実現できる。
【0092】
また、カメラ154による現実空間の撮影画像に代えて、予め生成された仮想空間の画像を用いることで、仮想空間にいるように体感させるVRを実現できる。このVRにおいても、ユーザの視認領域41が特定されて、仮想空間のうち視認領域41の内部に表示位置が定められている仮想画像30が表示される。
【0093】
ウェアラブル端末装置10は、
図1に例示した環状の本体部10aを有するものに限られず、装着時にユーザが視認可能な表示部を有していれば、どのような構造であってもよい。例えば、ヘルメットのように頭部全体を覆う構成であってもよい。また、メガネのように、耳に掛けるフレームを有し、フレーム内に各種機器が内蔵されていてもよい。
【0094】
ユーザのジェスチャーを検出して入力操作として受け付ける例を用いて説明したが、これに限られない。例えば、ユーザが手に持ったり、体に装着したりして使用するコントローラにより入力操作が受け付けられてもよい。
【0095】
上記実施形態では、ウェアラブル端末装置10Aとウェアラブル端末装置10Bとで共有されるウィンドウ画面の仮想画像30の表面30Aと裏面30Bのそれぞれに表示される画像の表示態様を例示したが、その他の例として、当該仮想画像30の表面30Aにコメント領域を含む文書作成アプリケーションに関する画像を表示させ、裏面30Bにコメント領域を含まない文書作成アプリケーションに関する画像を表示させるようにしてもよい。また、当該仮想画像30の表面30Aに特定のシートを含む表作成アプリケーションに関する画像を表示させ、裏面30Bに特定のシートを含まない表作成アプリケーションに関する画像を表示させるようにしてもよい。
【0096】
また、上記実施形態では、例えば、
図15および
図16で示したように、ウェアラブル端末装置10Aとウェアラブル端末装置10Bとで共有される上記仮想画像30の表面30Aに、メモ領域を含むプレゼンテーション用のアプリケーションに関する画像を表示させるとともに、裏面30Bに、メモ領域を含まないプレゼンテーション用のアプリケーションに関する画像を表示させた際、ユーザU1による表面30Aへの所定の操作に応じて、このとき裏面30Bに表示されているメモ領域を含まないプレゼンテーション用のアプリケーションに関する画像を表面30Aに表示できるようにしてもよい。なお、
図13と
図14、
図17と
図18、
図19と
図20、
図19と
図21の各組において説明した表示態様のケースにおいても、ユーザU1による表面30Aへの所定の操作に応じて、このとき裏面30Bに表示されている画像を表面30Aに表示できるようにしてもよい。
【0097】
また、上記実施形態の仮想画像表示処理(
図5参照)では、第1の面としての表面30Aと第2の面としての裏面30Bの2面からなる仮想画像30(ウィンドウ画面の仮想画像30)に限定して、当該仮想画像30の表面30Aに所定の第1画像を表示させ、裏面30Bに所定の第2画像を表示させる制御手順としたが、第1の面に所定の第1画像を表示させ、第2の面に所定の第2画像を表示させる対象の仮想画像30は、上記の表面30Aと裏面30Bの2面からなる仮想画像30に限られず、四面体や六面体などの仮想画像であってもよい。例えば、仮想画像が六面体である場合、所定の第2画像を表示させる第2の面は、所定の第1画像を表示させる第1の面と辺を共有する面であってよいし、当該第1の面と辺を共有しない面であってもよい。
【0098】
その他、上記実施の形態で示した構成および制御の具体的な細部は、本開示の趣旨を逸脱しない範囲において適宜変更可能である。また、本開示の趣旨を逸脱しない範囲において、上記実施の形態で示した構成および制御を適宜組み合わせ可能である。
【産業上の利用可能性】
【0099】
本開示は、ウェアラブル端末装置、プログラム、表示方法および仮想画像配信システムに利用することができる。
【符号の説明】
【0100】
1 表示システム
10,10A,10B ウェアラブル端末装置
10a 本体部
11 CPU(プロセッサ)
12 RAM
13 記憶部
131 プログラム
132 仮想画像データ
14 表示部
141 バイザー(表示部材)
142 レーザースキャナー
15 センサー部
151 加速度センサー
152 角速度センサー
153 深度センサー
154 カメラ
155 アイトラッカー
16 通信部
17 バス
20 情報処理装置
21 CPU
22 RAM
23 記憶部
231 プログラム
24 操作表示部
25 通信部
26 バス
30 仮想画像
30A 表面(第1の面)
30B 裏面(第2の面)
31 機能バー
32 ウィンドウ形状変更ボタン
33 クローズボタン
40 空間
41 視認領域
51 仮想線
52 ポインタ
U ユーザ
U1 ユーザ(一のユーザ)
U2 ユーザ(他のユーザ)