(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023166504
(43)【公開日】2023-11-21
(54)【発明の名称】位置指示装置及びコンピュータ
(51)【国際特許分類】
G06F 3/04883 20220101AFI20231114BHJP
G06F 3/01 20060101ALI20231114BHJP
G06F 3/0346 20130101ALI20231114BHJP
G06F 3/04815 20220101ALI20231114BHJP
G06T 19/00 20110101ALI20231114BHJP
【FI】
G06F3/04883
G06F3/01 514
G06F3/01 510
G06F3/0346
G06F3/04815
G06T19/00 A
【審査請求】有
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2023143460
(22)【出願日】2023-09-05
(62)【分割の表示】P 2019556165の分割
【原出願日】2018-11-02
(31)【優先権主張番号】P 2017223497
(32)【優先日】2017-11-21
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000139403
【氏名又は名称】株式会社ワコム
(74)【代理人】
【識別番号】110004277
【氏名又は名称】弁理士法人そらおと
(74)【代理人】
【識別番号】100130982
【弁理士】
【氏名又は名称】黒瀬 泰之
(72)【発明者】
【氏名】宗像 博史
(72)【発明者】
【氏名】玉野 浩
(72)【発明者】
【氏名】陳 元昊
(57)【要約】
【課題】ユーザによる空中での筐体を把持する力に応じて変化する圧力に基づいて、仮想現実空間における3Dオブジェクトの描画を制御できるようにする。
【解決手段】本発明による位置指示装置は、サーフェイスから離れた空中でのユーザによる操作に応じて変わる圧力に基づいて仮想現実空間における3Dオブジェクトを制御するための位置指示装置であり、筐体と、前記仮想現実空間における前記3Dオブジェクトの描画を制御するときに前記ユーザによる前記空中での前記筐体を把持する力に応じて変化する第1の圧力を検出する第1のセンサと、前記第1のセンサによって検出された前記第1の圧力に関する情報を送信する第1の通信部と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
サーフェイスから離れた空中でのユーザによる操作に応じて変わる圧力に基づいて仮想現実空間における3Dオブジェクトを制御するための位置指示装置であり、
筐体と、
前記仮想現実空間における前記3Dオブジェクトの描画を制御するときに前記ユーザによる前記空中での前記筐体を把持する力に応じて変化する第1の圧力を検出する第1のセンサと、
前記第1のセンサによって検出された前記第1の圧力に関する情報を送信する第1の通信部と、
を備える位置指示装置。
【請求項2】
前記第1の通信部は、前記第1の圧力に関する情報を外部装置に送信する通信部である、
請求項1に記載の位置指示装置。
【請求項3】
前記外部装置は、前記第1の圧力に関する情報に基づいて前記仮想現実空間における前記3Dオブジェクトの描画を制御する装置を含む、
請求項2に記載の位置指示装置。
【請求項4】
前記筐体は、ペン型の筐体である、
請求項1に記載の位置指示装置。
【請求項5】
前記筐体の先端に加わる第2の圧力を検出する第2のセンサをさらに備え、
前記第1の通信部は、前記第2のセンサによって検出された前記第2の圧力に関する情報を送信する通信部である、
請求項1に記載の位置指示装置。
【請求項6】
前記第2の圧力は、前記先端が前記サーフェイスに接触する場合に前記サーフェイスによって前記先端に加えられる圧力である、
請求項5に記載の位置指示装置。
【請求項7】
前記第1の通信部は、前記第2の圧力に関する情報を外部装置に送信する通信部である、
請求項5に記載の位置指示装置。
【請求項8】
前記第1の通信部は、前記先端が外部装置のサーフェイスに接触する場合に前記第2の圧力に関する情報を前記外部装置に送信する通信部である、
請求項5に記載の位置指示装置。
【請求項9】
前記筐体の先端に加わる第2の圧力を検出する第2のセンサと、
前記第2のセンサによって検出された前記第2の圧力に関する情報を送信する通信部であり前記第1の通信部と異なる第2の通信部と、
をさらに備える請求項1に記載の位置指示装置。
【請求項10】
前記第2の圧力は、前記先端が前記サーフェイスに接触する場合に前記サーフェイスによって前記先端に加えられる圧力である、
請求項9に記載の位置指示装置。
【請求項11】
前記第2の通信部は、前記第2の圧力に関する情報を外部装置に送信する通信部である、
請求項9に記載の位置指示装置。
【請求項12】
前記第2の通信部は、前記先端が外部装置のサーフェイスに接触する場合に前記第2の圧力に関する情報を前記外部装置に送信する通信部である、
請求項9に記載の位置指示装置。
【請求項13】
前記外部装置は、前記第2の圧力に関する情報に基づいて前記仮想現実空間における前記3Dオブジェクトの描画を制御する装置を含む、
請求項11に記載の位置指示装置。
【請求項14】
サーフェイスから離れた空中でのユーザによる操作に応じて変わる圧力に基づいて仮想現実空間における3Dオブジェクトを制御するための位置指示装置であり、筐体と、前記仮想現実空間における前記3Dオブジェクトの描画を制御するときに前記ユーザによる前記空中での前記筐体を把持する力に応じて変化する第1の圧力を検出する第1のセンサと、を有する位置指示装置と通信可能なコンピュータであって、
前記第1のセンサによって検出された第1の圧力に関する情報を受信する通信部と、
前記通信部によって受信した前記第1の圧力に関する情報に基づいて前記仮想現実空間における前記3Dオブジェクトの描画を制御する制御部と、
を有するコンピュータ。
【請求項15】
前記通信部は、前記位置指示部の先端に加わる圧力であり第2のセンサによって検出された第2の圧力に関する情報を受信する通信部であり、
前記制御部は、前記通信部によって受信した前記第2の圧力に関する情報に基づいて前記仮想現実空間における前記3Dオブジェクトの描画を制御する、
請求項14に記載のコンピュータ。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、仮想現実(VR:Virtual Reality、AR:Augmented Reality、MR:Mixed Realityを含む)空間内において3Dオブジェクトをレンダリングするレンダリング装置及びレンダリング方法に関する。
【背景技術】
【0002】
近年、仮想現実空間の中で立体視しながら各種製品をデザインしたい、というニーズが高まっている。
【0003】
特許文献1は、AR空間において、電子ペンを用いてタブレット端末に入力した2Dオブジェクトをベースにして3Dオブジェクトを生成する技術を開示している。以下、平面上で電子ペンを移動させることによって行う入力の方法を「2D入力」と称する。
【0004】
非特許文献1は、3D入力用のコントローラをVR空間中で動かすことによって3Dオブジェクトを入力する技術を開示している。以下、このような3D入力用のコントローラを利用する入力の方法を「3D入力」と称する。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】米国特許出願公開第2016/0343174号明細書
【非特許文献】
【0006】
【非特許文献1】Google、「Tilt Brush: Painting from a new perspective」、[online]、平成28年5月3日、[平成29年10月5日検索]、インターネット〈URL:https://www.youtube.com/watch?v=TckqNdrdbgk〉
【発明の概要】
【発明が解決しようとする課題】
【0007】
上述した2D入力によれば、電子ペンの位置が既知の平面内に固定されることから、3D入力に比して高い精度を得ることができる。しかしながら一方で、2D入力には、平面内での描画に限られるため、3D入力に比べて直感的な操作が難しいという問題がある。
【0008】
これに対し、3D入力によれば、直感的な操作が可能になる。一方で、コントローラの位置の自由度が高いことから、デザインの用途に用いる技術としては精度が不十分であるという問題がある。
【0009】
したがって、本発明の目的の一つは、仮想現実空間において直感的で精度の高い描画を実現できるレンダリング装置及びレンダリング方法を提供することにある。
【課題を解決するための手段】
【0010】
本発明の第1の側面は、仮想現実ディスプレイ上に表示される仮想現実空間内において3Dオブジェクトをレンダリングするレンダリング装置に係り、前記3Dオブジェクトを仮想現実空間座標系における3D表示の3Dオブジェクトとしてレンダリングする3Dレンダリングステップと、前記3Dオブジェクトを平面座標系における2D表示の3Dオブジェクトとしてレンダリングする2Dレンダリングステップと、前記3Dレンダリングステップのレンダリング結果により前記仮想現実ディスプレイの表示を更新する3D表示モードと、前記2Dレンダリングステップのレンダリング結果により前記仮想現実ディスプレイの表示を更新する2D表示モードとを有する表示更新ステップと、を実行するレンダリング装置である。
【0011】
本発明の第2の側面は、コンピュータを、仮想現実ディスプレイ上に表示される仮想現実空間内において3Dオブジェクトをレンダリングするレンダリング装置として機能させるためのレンダリング方法に係り、前記コンピュータに、前記3Dオブジェクトを仮想現実空間座標系における3D表示の3Dオブジェクトとしてレンダリングする3Dレンダリングステップと、前記3Dオブジェクトを平面座標系における2D表示の3Dオブジェクトとしてレンダリングする2Dレンダリングステップと、前記3Dレンダリングステップのレンダリング結果により前記仮想現実ディスプレイの表示を更新する3D表示モードと、前記2Dレンダリングステップのレンダリング結果により前記仮想現実ディスプレイの表示を更新する2D表示モードとを有する表示更新ステップと、を実行させるレンダリング方法である。
【発明の効果】
【0012】
本発明によれば、3Dオブジェクトの仮想現実空間内における表示方法(3D表示又は2D表示)をユーザの選択に応じて切り替えることができるので、仮想現実空間において直感的で精度の高い描画を実現することが可能になる。
【図面の簡単な説明】
【0013】
【
図1】本発明の第1の実施の形態による3Dオブジェクトレンダリングシステム1の構成を示す図である。
【
図2】タブレット面座標系と仮想現実空間座標系の関係を説明する図である。
【
図3】
図1に示した制御部2aが行う処理を示すフロー図である。
【
図4】
図2に示した位置情報等取得処理の詳細を示すフロー図である。
【
図5】
図2に示したタブレット端末表示処理の詳細を示すフロー図である。
【
図6】本発明の第1の実施の形態による仮想現実空間において3Dオブジェクトを2D入力している状態を示す図である。
【
図7】本発明の第1の実施の形態による仮想現実空間において3Dオブジェクトを3D入力している状態を示す図である。
【
図8】本発明の第2の実施の形態による仮想現実空間において3Dオブジェクトを2D入力している状態を示す図である。
【
図9】本発明の第2の実施の形態による制御部2aが行う処理の一部を示すフロー図である。
【発明を実施するための形態】
【0014】
以下、添付図面を参照しながら、本発明の実施の形態について詳細に説明する。
【0015】
図1は、本発明の第1の実施の形態による3Dオブジェクトレンダリングシステム1の構成を示す図である。同図に示すように、本実施の形態による3Dオブジェクトレンダリングシステム1は、コンピュータ2と、仮想現実ディスプレイ3と、タブレット4と、電子ペン5と、グローブユニット6と、ライトニングハウス7a,7bと、位置センサ8a~8dとを含んで構成される。なお、位置センサ8a,8c,8dはそれぞれ、タブレット4、電子ペン5、及びグローブユニット6に取り付けられ、位置センサ8bは仮想現実ディスプレイ3に設けられる。位置センサ8cが取り付けられることにより、電子ペン5は、スタイラスとして機能するとともにコントローラとしても機能する。なお、位置センサ8cを電子ペン5に内蔵することとしてもよい。
【0016】
図1に示した各装置は、原則として部屋の中に配置される。3Dオブジェクトレンダリングシステム1においては、この部屋のほぼ全体が仮想現実空間として利用されうる。
【0017】
コンピュータ2は、制御部2a(コントローラ)と、制御部2aと協働するメモリ2bとを含む。後述するコンピュータ2が行う各処理は、制御部2aがメモリ2bと協働することにより(より具体的には、メモリ2b内に記憶されるプログラムを読み出して実行することにより)実現され得る。
【0018】
コンピュータ2は、仮想現実ディスプレイ3及びライトニングハウス7a,7bのそれぞれと、有線又は無線により接続される。
図1には、コンピュータ2と仮想現実ディスプレイ3及びライトニングハウス7a,7bのそれぞれとがUSBなどの有線通信規格により接続される例を示している。また、詳しくは後述するが、タブレット4が通信機能を有する装置である場合、コンピュータ2は、タブレット4とも有線又は無線により接続される。
図1には、コンピュータ2とタブレット4とが例えばブルートゥース(登録商標)などの近距離無線通信規格により接続される例を示している。なお、タブレット4や仮想現実ディスプレイ3がコンピュータとしての機能を内蔵する場合には、そのコンピュータによりコンピュータ2を構成することとしてもよい。
【0019】
コンピュータ2は、仮想現実ディスプレイ3上に仮想現実空間を表示する機能を有して構成される。この仮想現実空間は、VR(Virtual Reality)空間であってもよいし、AR(Augmented Reality)空間であってもよいし、MR(Mixed Reality)空間であってもよい。VR空間を表示する場合、仮想現実ディスプレイ3を装着したユーザは、仮想現実を認識し、現実世界と切り離される。一方、AR空間又はMR空間を表示する場合、仮想現実ディスプレイ3を装着したユーザは、仮想現実と現実世界とが混合した空間を認識することになる。
【0020】
コンピュータ2は、ライトニングハウス7a,7bの位置を基準として仮想現実空間を設定し、設定した仮想現実空間内において様々な3Dオブジェクトをレンダリングするレンダリング装置として機能するよう構成される。コンピュータ2は、レンダリングの結果により、仮想現実ディスプレイ3の表示を更新する。これにより、仮想現実ディスプレイ3上に表示される仮想現実空間内には、様々な3Dオブジェクトが現れることになる。
【0021】
コンピュータ2によるレンダリングは、メモリ2b内に記憶される3Dオブジェクトに基づいて実行される。3Dオブジェクトは、コンピュータ2により設定された仮想現実空間を示す仮想現実空間座標系における3Dオブジェクトの形状、位置、及び向きを示す情報であり、レンダリング対象の3Dオブジェクトごとにメモリ2b内に記憶される。
【0022】
コンピュータ2によりレンダリングされる3Dオブジェクトには、
図1に示したタブレット4、電子ペン5、及びグローブユニット6のそれぞれを表す3Dオブジェクトが含まれる。これらの3Dオブジェクトをレンダリングするにあたり、コンピュータ2はまず、仮想現実空間座標系における位置センサ8a~8dそれぞれの位置及び向きを検出する。そして、検出した位置センサ8bの位置及び向きに基づいてユーザの視点を示す視点情報を取得し、取得した視点情報と、記憶している各3Dオブジェクトの形状と、検出した位置センサ8a,8c,8dそれぞれの位置及び向きに基づき、タブレット4、電子ペン5、及びグローブユニット6のそれぞれを示す3Dオブジェクトを仮想現実空間内にレンダリングするよう構成される。
【0023】
コンピュータ2はさらに、位置センサ8c,8dの位置を検出することによって仮想現実空間内でユーザが行った操作を検出し、その結果に基づいて3Dオブジェクトを新規に作成し、又は、既に保持している3Dオブジェクトを更新可能に構成される。
【0024】
仮想現実ディスプレイ3は、人間の頭部に装着して用いるVRディスプレイ(ヘッドマウントディスプレイ)である。一般に市販される仮想現実ディスプレイには、「透過型」又は「非透過型」、「メガネ型」又は「帽子型」など各種のものがあるが、仮想現実ディスプレイ3としては、そのいずれを用いることも可能である。
【0025】
仮想現実ディスプレイ3は、位置センサ8a,電子ペン5(位置センサ8cを含む)、及びグローブユニット6(位置センサ8dを含む)のそれぞれと有線又は無線により接続される。位置センサ8a,8c,8dは、この接続を通じて、後述する受光レベル情報を仮想現実ディスプレイ3に通知するよう構成される。仮想現実ディスプレイ3は、位置センサ8a,8c,8dのそれぞれから通知された受光レベル情報を、自身に内蔵している位置センサ8bの受光レベル情報とともにコンピュータ2に通知するよう構成される。コンピュータ2は、こうして通知された受光レベル情報に基づき、仮想現実空間座標系における位置センサ8a~8dそれぞれの位置及び向きを検出する。また、電子ペン5及びグローブユニット6は、上記接続を通じて、後述する操作情報を仮想現実ディスプレイ3に通知するよう構成される。仮想現実ディスプレイ3は、こうして通知された操作情報をコンピュータ2に転送するよう構成される。
【0026】
タブレット4は、タブレット面4aを有する。タブレット面4aは平らな表面であることが好ましく、電子ペン5のペン先を滑らせるのに適した材料によって構成されうる。一例では、タブレット4はいわゆるデジタイザであり、タッチ面内における電子ペン5の指示位置を検出するタッチセンサと、検出した指示位置をコンピュータ2に通知する通信機能とを有して構成される。この場合のタブレット面4aは、デジタイザのタッチ面によって構成される。他の一例では、タブレット4はいわゆるタブレットコンピュータであり、ディスプレイと、このディスプレイの表示面内における電子ペン5の指示位置を検出するタッチセンサと、検出した指示位置をコンピュータ2に通知する通信機能とを有して構成される。この場合のタブレット面4aは、ディスプレイの表示面によって構成される。さらに他の一例では、タブレット4は、電子ペン5の指示位置を検出する機能を有しない物理的物体(単なる板、テーブル、電子ペン5の指示位置を検出する機能を有しないディスプレイ又はコンピュータなどを含む)である。この場合のタブレット面4aは、タブレット4の表面に設けられた平面によって構成される。
【0027】
位置センサ8aは、タブレット4の表面に固定設置される。したがって、コンピュータ2によって検出される位置センサ8aの位置及び向きは、仮想現実空間座標系におけるタブレット面4aの位置及び向きを示している。
【0028】
電子ペン5及びグローブユニット6は、ユーザが仮想現実空間内の位置を指示するためのものである。電子ペン5は、ペン型の形状を有して構成される。グローブユニット6は、ユーザの手に装着される手袋としての形状を有している。
【0029】
電子ペン5の表面又は内部には、スイッチ等の各種センシングデバイスが設けられる。ここでいうセンシングデバイスとしては、オンオフいずれかの状態を取る切り替えスイッチの他、任意の物理量を検出可能に構成されたセンサを含む。電子ペン5に設けられるスイッチの例としては、ユーザによるオンオフ操作を受け付け可能に構成されたサイドスイッチ又はテールスイッチが挙げられる。また、電子ペン5に設けられる他のスイッチの例として、電子ペン5のペン先に加わる圧力(筆圧)を検出する容量センサなども挙げられる。電子ペン5は、自身に設けられたスイッチの出力(押下状態又は検出された物理量)を検出し、検出結果の全部又は一部を自身の操作情報として仮想現実ディスプレイ3に通知するよう構成される。
【0030】
電子ペン5に設けられるセンシングデバイスとしては、ユーザによる電子ペン5の把持力を検出するフォースセンサ(荷重センサ)を含むこととしてもよい。この場合、フォースセンサの出力は本来筆圧を示すものではないが、フォースセンサの出力の通知を受けたコンピュータ2は、これを筆圧を示すデータ(筆圧データ)として取り扱うこととしてもよい。こうすることで、ユーザが電子ペン5を空中で操作する場合においても、筆圧を描画結果に反映させることが可能になる。
【0031】
タブレット4がタッチセンサを有している場合、電子ペン5の位置はこのタッチセンサによっても検出される。タッチセンサによって検出される位置は、仮想現実空間座標系における位置ではなく、タブレット面4a上に規定されるタブレット面座標系における位置となる。タッチセンサは、検出した電子ペン5の位置をコンピュータ2に通知するよう構成される。
【0032】
一般に、タッチセンサによって検出される位置は位置センサ8cを用いて検出される位置よりも高精度である。したがって、コンピュータ2は、タッチセンサから電子ペン5の位置が通知されている場合には、位置センサ8cを通じて検出された位置ではなく、タッチセンサから通知された位置を電子ペン5の位置として取得することが好ましい。この場合、コンピュータ2は、位置センサ8aを用いて検出しているタブレット面4aの位置及び向きに基づいてタブレット面座標系を仮想現実空間座標系に対応付けることにより、タッチセンサから通知された位置を仮想現実空間座標系における位置に変換することが好ましい。
【0033】
図2は、タブレット面座標系と仮想現実空間座標系の関係を説明する図である。同図には、仮想現実空間10の中にタブレット面4aが位置している状態を示している。仮想現実空間座標系は3つの軸VRX,VRY,VRZによって規定され、タブレット面座標系は3つの軸TRX,TRY,TRZによって規定される。ただし、軸TRZはタブレット面4aの法線方向である。図示した位置Pがタブレット面座標系における位置(x,y,z)としてタッチセンサにより検出された場合(zは、例えばホバー位置を示す)、コンピュータ2は所定の変換処理により、この(x,y,z)を仮想現実空間座標系における位置(X,Y,Z)に変換する。これにより、タッチセンサから通知された位置を仮想現実空間座標系における位置に変換することが可能になる。
【0034】
ここで、タッチセンサによる電子ペン5の位置検出は、電磁誘導方式を用いてもよいし、アクティブ静電方式を用いてもよい。アクティブ静電方式を用いる場合、タッチセンサは、タッチ面内に配置されるセンサ電極(図示せず)から所定の時間間隔でビーコン信号を送出するよう構成される。ビーコン信号には、タッチセンサから電子ペン5を制御するためのコマンドが含まれる。コマンドによる制御の内容には、例えば、電子ペン5のペン先に加わる圧力を示す筆圧データ(容量センサによって検出されたもの)を送信させること、電子ペン5に設けられる各種スイッチ(図示せず)の押下状態を送信させること、電子ペン5に予め格納されている固有IDを送信させることなどが含まれる。
【0035】
アクティブ静電方式に対応する電子ペン5は、上記ビーコン信号を検出すると、応答信号としてペン信号を送出する。ペン信号は、無変調の搬送波であるバースト信号と、上記コマンドに応じたデータによって搬送波を変調することにより得られるデータ信号とを含む信号である。タッチセンサは、上記センサ電極によってバースト信号の検出を試み、検出結果に基づいて電子ペン5の位置を検出する。また、上記センサ電極によってデータ信号を検出して復調することにより、コマンドに応じて電子ペン5が送信したデータを受信する。タブレット4は、こうして取得した電子ペン5の位置及び電子ペン5が送信したデータを、コンピュータ2に対して送信するよう構成される。コンピュータ2は、こうして通知された位置を上述したようにして仮想現実空間座標系における位置に変換するとともに、通知されたデータを上述した操作情報の一部として取得するよう構成される。
【0036】
ライトニングハウス7a,7bは、3Dオブジェクトレンダリングシステム1で使用される位置検出のための信号送信装置であり、それぞれ、コンピュータ2による制御に従って方向を変えながら信号、この例ではレーザー光、を射出可能に構成される。位置センサ8a~8dはそれぞれ複数の受光センサによって構成されており、ライトニングハウス7a,7bのそれぞれが照射した信号(レーザー光)を各受光センサによって受光し、それぞれの受光レベルを含む受光レベル情報を取得するよう構成される。取得された受光レベル情報は、上述したように、各位置センサ8a~8dからコンピュータ2に通知され、これらの位置及び向きを検出するために用いられる。
【0037】
以上、3Dオブジェクトレンダリングシステム1の全体概要について説明した。このような3Dオブジェクトレンダリングシステム1においてユーザが新たな3Dオブジェクトの入力を行う場合、これまでは、電子ペン5及びグローブユニット6を用いて3D入力を行うか、或いは、タブレット4をタブレットコンピュータとし、このタブレットコンピュータに対して電子ペン5を用いて2D入力を行うか、のいずれかであった。しかしながら、上述したように、3D入力には、直感的な操作が可能になるという長所がある一方で精度が不十分であるという短所があり、また、2D入力には、高い精度を得ることができる一方で直感的な操作が難しいという短所があった。
【0038】
本実施の形態による3Dオブジェクトレンダリングシステム1は、このような従来の入力方法の問題点に鑑み、3Dオブジェクトの仮想現実空間内における表示方法(3D表示又は2D表示)をユーザの選択により切り替えられるようにすることで、仮想現実空間において直感的で精度の高い描画を実現することを可能にしたものである。以下、この点について、コンピュータ2の制御部2aが行う処理のフロー図を参照しながら詳しく説明する。
【0039】
図3は、コンピュータ2の制御部2aが行う処理を示すフロー図である。この処理は、ユーザが電子ペン5及びグローブユニット6の少なくとも一方を用いて3Dオブジェクトの入力を行うときに実行されるもので、ユーザが電子ペン5及びグローブユニット6を用いて所定の操作を行い、それを制御部2aが検出することによって開始される。
【0040】
図3に示すように、制御部2aはまず、仮想現実空間座標系における入力中オブジェクトの形状、位置、及び向きを示す3Dオブジェクトの記憶領域をメモリ2b内に確保する(ステップS1)。3Dオブジェクトの具体的な形式は特に限定されないが、例えばVRML形式やX3D形式のデータとすることが好適である。
【0041】
次に制御部2aは、位置情報等取得処理を実行する(ステップS2)。
【0042】
図4は、ステップS2で実行される位置情報等取得処理の詳細を示すフロー図である。同図に示すように、制御部2aは、視点情報を取得するステップ(ステップS20)、タブレット面情報を取得するステップ(ステップS21)、コントローラ情報(第1の情報)を取得するステップ(ステップS22。コントローラ情報取得ステップ。第1情報取得処理)、電子ペン情報(第2の情報)を取得するステップ(ステップS23。電子ペン情報取得ステップ。第2情報取得処理)のそれぞれを実行することにより、位置情報等取得処理を実行する。なお、ステップS20~S23の実行順は特に限定されない。
【0043】
視点情報は、仮想現実空間座標系におけるユーザの視点を表す情報であり、具体的には仮想現実ディスプレイ3の位置及び向きによって示される。制御部2aは、位置センサ8bについて検出した位置及び向きに基づき、視点情報を取得するよう構成される。具体的な視点情報は、例えば、1つの3次元座標を始点とするベクトル情報によって構成される。
【0044】
タブレット面情報は、仮想現実空間座標系におけるタブレット面4aの形状、位置、及び向きを示す情報であり、3Dオブジェクトの1つとしてメモリ2b内に記憶される。制御部2aは、位置センサ8aについて検出した位置及び向きと、予め記憶しているタブレット4の形状とに基づき、タブレット面情報を取得する。
【0045】
コントローラ情報は、仮想現実空間座標系における3Dコントローラ(電子ペン5及びグローブユニット6を含む)の位置及び向き、並びに該3Dコントローラの操作情報を示す情報である。制御部2aは、位置センサ8c,8dについて検出した位置及び向きと、仮想現実ディスプレイ3を介して受信した電子ペン5及びグローブユニット6それぞれの操作情報とに基づき、コントローラ情報を取得する。
【0046】
電子ペン情報は、タブレット面座標系における電子ペン5の指示位置、及び、電子ペン5の操作情報を示す情報である。タブレット4がタッチセンサを有している場合、制御部2aは、タッチセンサからタブレット面座標系における電子ペン5の指示位置を取得する。一方、タブレット4がタッチセンサを有していない場合、制御部2aは、位置センサ8cから取得した位置(仮想現実空間座標系における位置)に変換処理(
図2を参照して説明した変換処理の逆処理)を施すことによって、タブレット面座標系における電子ペン5の指示位置を取得する。また、制御部2aは、タッチセンサから電子ペン5の操作情報を取得できる場合(例えば、電子ペン5がアクティブ静電方式に対応している場合)には、タッチセンサから電子ペン5の操作情報(容量センサの出力を含む)を取得する。一方、タッチセンサから電子ペン5の操作情報を取得できない場合、制御部2aは、仮想現実ディスプレイ3経由で電子ペン5の操作情報(フォースセンサの出力を含む)を取得する。
【0047】
図3に戻り、位置情報等取得処理を実行した制御部2aは、続いてタブレット面等表示処理を実行する(ステップS3)。この処理は、タブレット面を示すタブレット面画像と、入力中の3Dオブジェクトを2D表示するための表示面を示す表示面画像とを仮想現実空間内に表示するための処理である。
【0048】
図5は、ステップS3で実行されるタブレット面等表示処理の詳細を示すフロー図である。同図に示すように、制御部2aはまず、仮想現実空間内においてユーザが選択した位置又は入力中の3Dオブジェクトと接触する位置に基づいて、表示面画像のレンダリングを実施する(ステップS30。表示面画像レンダリングステップ(処理))。ユーザによる位置の選択は、例えば、ユーザが電子ペン5に設けられたスイッチを押下し、そのことを示す操作情報が制御部2aに通知されることによって実行される。表示面画像は、ディスプレイを模したものであってもよいし、単なる矩形の枠であってもよい。なお、制御部2aは、
図4のステップS20で取得した視点情報に基づき、表示面画像の法線方向がユーザの視線方向と一致するように表示面画像をレンダリングすることが好ましい。
【0049】
次に制御部2aは、仮想現実空間座標系と、表示面上に規定される表示面座標系(第1の平面座標系)との対応関係を示す第1の対応情報を取得する(ステップS31)。第1の対応情報は、具体的には、仮想現実空間座標系と表示面座標系とを相互に変換するための変換規則である。
【0050】
続いて制御部2aは、仮想現実空間座標系と、タブレット面座標系(第2の平面座標系)との対応関係を示す第2の対応情報を取得する(ステップS32)。第2の対応情報は、具体的には、仮想現実空間座標系とタブレット面座標系とを相互に変換するための変換規則である。
【0051】
最後に制御部2aは、タブレット面情報及び視点情報に基づいて、タブレット面4aを示すタブレット面画像のレンダリングを実施する(ステップS33。タブレット面画像レンダリングステップ(処理))。タブレット面画像は、タブレット端末のタッチ面を模したものであってもよいし、単なる矩形の枠であってもよい。なお、制御部2aは、
図4のステップS20で取得した視点情報に基づき、ユーザの視線方向とタブレット面4aとのなす角度(俯角)が所定の値となるようにタブレット面画像をレンダリングすることが好ましい。
【0052】
図3に戻り、タブレット面等表示処理を実行した制御部2aは、続いてユーザによる動作モードの選択操作を受け付ける(ステップS4)。この選択は、例えば、ユーザが電子ペン5に設けられたスイッチを押下することによって実行されてもよいし、ユーザがタブレット面4aと電子ペン5の間の距離を変化させることによって実行されることとしてもよい。例えば、タブレット面4aと電子ペン5の間の距離が所定距離よりも近づいた場合に2D表示に切り替え、タブレット面4aと電子ペン5の間の距離が所定距離以上に遠ざかった場合に3D表示に自動的に切り替えてもよい。後者の場合において、タブレット面4aと電子ペン5の間の距離は、タッチセンサが検出することとしてもよいし、タブレット面画像の表示位置と位置センサ8cを用いて検出されている電子ペン5の位置とに基づいて制御部2aが検出することとしてもよい。ステップS4で選択操作を受け付けた制御部2aは、選択内容に応じて、3D表示モード又は2D表示モードのいずれか一方にエントリする処理(すなわち、3D表示又は2D表示のいずれか一方を選択する表示選択処理)を行う(ステップS5。モード選択ステップ)。
【0053】
ステップS5で3D表示モードにエントリした場合、制御部2aは、仮想現実空間座標系における3Dオブジェクトを仮想現実ディスプレイ3上にレンダリングする3Dレンダリングステップ(処理)を実行する。具体的に説明すると、制御部2aはまず、メモリ2b内に記憶している3Dオブジェクトと、
図4のステップS20で取得した視点情報とに基づいて、入力中オブジェクト及び他の3Dオブジェクトのレンダリングを実施する(ステップS6)。そして、その結果により仮想現実ディスプレイ3への出力(表示)を更新する(ステップS7。表示更新ステップ(処理))。このとき、
図5のステップS30でレンダリングした表示面画像、
図5のステップS33でレンダリングしたタブレット面画像など、仮想現実空間内における他の表示も同時に更新される。これによりユーザは、3D入力により入力中オブジェクトを編集することが可能になる。
【0054】
制御部2aはさらに、
図4のステップS22で取得したコントローラ情報に基づき、メモリ2b内に記憶している入力中オブジェクトの3Dオブジェクトを更新する(ステップS8。3Dオブジェクト更新ステップ(処理))。その後、ステップS2に戻って処理を継続する。
【0055】
ここで、ステップS8及び後述するステップS14における3Dオブジェクトの更新は、電子ペン5から通知されている操作情報にも基づいて実行される。例えば、電子ペン5から容量センサの出力又はフォースセンサの出力を示すデータが通知されている場合、コンピュータ2は、このデータを筆圧データとして取得し、取得した筆圧データに基づいて入力中オブジェクトの線幅や透明度を決定する。そして、その決定結果を3Dオブジェクトに反映させる。
【0056】
ステップS5で2D表示モードにエントリした場合の制御部2aは、3Dオブジェクトを表示面座標系における2D表示の3Dオブジェクトとして仮想現実ディスプレイ3上にレンダリングする2Dレンダリングステップ(処理)を実行する。具体的には、まず、
図5のステップS31で取得した第1の対応情報に基づき、メモリ2b内に記憶している入力中オブジェクトの3Dオブジェクトを、表示面座標系における入力中オブジェクトの形状、位置、及び向きを示す2Dオブジェクトに変換する(ステップS10。第1の変換ステップ)。そして、得られた2Dオブジェクトと、
図4のステップS20で取得した視点情報とに基づき、入力中オブジェクトのレンダリングを実施し(ステップS11)、その結果により仮想現実ディスプレイ3への出力(表示)を更新する(ステップS12。表示更新ステップ(処理))。このときにも、ステップS7と同様、
図5のステップS30でレンダリングした表示面画像、
図5のステップS33でレンダリングしたタブレット面画像など、仮想現実空間内における他の表示が同時に更新される。これによりユーザは、2D入力により入力中オブジェクトを編集することが可能になる。
【0057】
続いて制御部2aは、
図5のステップS32で取得した第2の対応情報に基づき、
図4のステップS23で取得した電子ペン情報により示される指示位置を仮想現実空間座標系における位置に変換する(ステップS13。第2の変換ステップ)。そして、得られた指示位置を含む電子ペン情報に基づき、メモリ2b内に記憶している入力中オブジェクトの3Dオブジェクトを更新する(ステップS14。3Dオブジェクト更新ステップ)。上述したように、この更新は、電子ペン5から通知されている操作情報にも基づいて実行される。制御部2aは、その後、ステップS2に戻って処理を継続する。
【0058】
図6は、仮想現実空間において3Dオブジェクトを2D入力している状態(
図3のステップS4でユーザが2D表示モードを選択している状態)を示す図であり、
図7は、仮想現実空間において3Dオブジェクトを3D入力している状態(
図3のステップS4でユーザが3D表示モードを選択している状態)を示す図である。
【0059】
図6に示すように、2D表示モードにおいては、仮想現実空間10内に表示された矩形の表示面画像11の中に入力中オブジェクト13が2D表示される。なお、表示面画像11に示した3つの軸DRX,DRY,DRZは、表示面座標系を表している。3軸のうちの軸DRZは、表示面画像11の法線方向である。また、矩形のタブレット面画像12が表示され、ユーザは、このタブレット面画像12内で電子ペン5を動かすことにより、入力中オブジェクト13の編集を行う。この編集は、平面上で電子ペン5を移動させることによって行われるので、2D入力である。仮想現実ディスプレイ3を装着しているユーザには見えないが、タブレット面画像12が表示されている位置には実際にタブレット面4aが存在しているので、ユーザは、タブレット面4aの手応えを感じながら、タブレット面画像12内で電子ペン5を動かすことができる。
【0060】
一方、
図7に示すように、3D表示モードにおいては、入力中オブジェクト13が仮想現実空間10内に3D表示される。ユーザは、この仮想現実空間10内で電子ペン5及びグローブユニット6を動かすことにより、入力中オブジェクト13の編集を行う。この編集は、3D入力用のコントローラを利用して行われるので、3D入力である。
【0061】
以上説明したように、本実施の形態による3Dオブジェクトレンダリングシステム1によれば、3Dオブジェクトの仮想現実空間内における表示方法(3D表示又は2D表示)をユーザの選択により切り替えることができるので、仮想現実空間において直感的で精度の高い描画を実現することが可能になる。また、2D表示を行っている間には2D入力による3Dオブジェクトの編集が可能となり、3D表示を行っている間には3D入力による3Dオブジェクトの編集が可能となるので、表示方法に適した入力方法で3Dオブジェクトの編集を行うことが可能になる。
【0062】
また、本実施の形態による3Dオブジェクトレンダリングシステム1によれば、仮想現実空間中で電子ペン5により3Dオブジェクトを入力することが可能になる。
【0063】
次に、本発明の第2の実施の形態による3Dオブジェクトレンダリングシステム1について、説明する。本実施の形態による3Dオブジェクトレンダリングシステム1は、表示面座標系とタブレット面座標系とを同一の座標系とする点で、これらが互いに異なる座標系であった第1の実施の形態による3Dオブジェクトレンダリングシステム1と相違する。その他の点では第1の実施の形態による3Dオブジェクトレンダリングシステム1と同一であるので、第1の実施の形態と同一の構成には同一の符号を付し、以下では第1の実施の形態との相違点に着目して説明する。
【0064】
図8は、本実施の形態による仮想現実空間において3Dオブジェクトを2D入力している状態を示す図である。初めにこの
図8を参照して本実施の形態の概要を説明すると、本実施の形態による制御部2aは、
図1に示したタブレット4(タブレット端末)を示すタブレット端末画像14を仮想現実空間内にレンダリングするよう構成される。タブレット端末画像14に含まれるタブレット面画像14aは、第1の実施の形態で説明したタブレット面画像及び表示面画像の両方に対応しており、したがって、本実施の形態においてはタブレット面座標系(軸TRX,TRY,TRZ)が表示面座標系を兼ねている。結果として、2D表示モードにおいては、
図8に示すように、タブレット面画像14a内に入力中オブジェクト13が2D表示されることになる。
【0065】
図9は、本実施の形態による制御部2aが行う処理の一部を示すフロー図である。
図9(a)は、
図5に示したフロー図を置き換えるものである。一方、
図9(b)は、
図3に示したステップS10を置き換えるものである。
【0066】
図9(a)に示すように、本実施の形態による制御部2aは、
図5に示したステップS30,S31を実行せず、ステップS33に代えてステップS33aを実行するよう構成される。ステップS33aでは、タブレット面情報及び視点情報に基づいて、
図1に示したタブレット4(タブレット端末)を示すタブレット端末画像のレンダリングを実施する(タブレット端末画像レンダリングステップ(処理))。これにより、
図8に示したように、現実のタブレット4(タブレット端末)と同様のタブレット端末(タブレット端末画像14)が仮想現実空間10内に現れることになる。
【0067】
また、本実施の形態による制御部2aは、
図9(b)に示すように、2D表示モードにおいて入力中オブジェクトをレンダリングする際に使用する2Dオブジェクト情報を得るために、第1の対応情報ではなくステップS32で取得した第2の対応情報に基づき、メモリ2b内に記憶している入力中オブジェクトの3Dオブジェクトを、表示面座標系における入力中オブジェクトの形状、位置、及び向きを示す2Dオブジェクトに変換する処理を行う(ステップS10a)。その結果、
図8に示したように、入力中オブジェクト13(すなわち、コントローラ情報取得ステップ(ステップS22)によって取得された仮想現実空間座標系における電子ペン5の位置)がタブレット面画像14a内に表示されることになる。
【0068】
本実施の形態による3Dオブジェクトレンダリングシステム1によっても、3Dオブジェクトの仮想現実空間内における表示方法(3D表示又は2D表示)をユーザの選択により切り替えることができるので、仮想現実空間において直感的で精度の高い描画を実現することが可能になる。また、2D表示を行っている間には2D入力による3Dオブジェクトの編集が可能となり、3D表示を行っている間には3D入力による3Dオブジェクトの編集が可能となるので、表示方法に適した入力方法で3Dオブジェクトの編集を行うことが可能になる。
【0069】
加えて本実施の形態によれば、ユーザは、仮想現実空間内においてタブレット端末への入力体験を得ることが可能になる。したがって、あたかも通常のタブレット端末で入力操作を行うかのように、3Dオブジェクトの入力操作を行うことが可能になる。
【0070】
以上、本発明の好ましい実施の形態について説明したが、本発明はこうした実施の形態に何等限定されるものではなく、本発明が、その要旨を逸脱しない範囲において、種々なる態様で実施され得ることは勿論である。
【符号の説明】
【0071】
1 3Dオブジェクトレンダリングシステム
2 コンピュータ
2a 制御部
2b メモリ
3 仮想現実ディスプレイ
4 タブレット
4a タブレット面
5 電子ペン
6 グローブユニット
7a,7b ライトニングハウス
8a~8d 位置センサ
10 仮想現実空間
11 表示面
12 タブレット面画像
13 入力中オブジェクト
14 タブレット端末画像
14a タブレット面画像