(58)【調査した分野】(Int.Cl.,DB名)
入力操作用のアイコンを含む複数の仮想表面であって、かつ複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい前記複数の仮想表面を、前記操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させる制御部と、
前記操作者の視点の位置を取得する視点取得部と、
前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する仮想表面に含まれる前記アイコンを選択する選択部と、
を備え、
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の奥行き位置であって、かつ前記選択部により選択された前記アイコンとは異なる位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する、
入力装置。
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の表示の鮮明度合いが他の仮想表面の鮮明度合いに比べ高くなるように制御する
請求項1〜請求項4の何れか1項に記載の入力装置。
複数の前記仮想表面に含まれる前記アイコンの各々は、前記アイコンの少なくとも一部分が、前記アイコンを含む前記仮想表面とは異なる他の仮想表面に含まれる前記アイコンと重ならないように配置される
請求項1〜請求項6の何れか1項に記載の入力装置。
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、隣に配置された前記アイコンとの間隔が広い、
請求項1〜請求項7の何れか1項に記載の入力装置。
入力操作用のアイコンを含む複数の仮想表面であって、かつ複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい前記複数の仮想表面を、前記操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の奥行き位置であって、かつ選択された前記アイコンとは異なる位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する、
処理をコンピュータに実行させる入力プログラム。
入力操作用のアイコンを含む複数の仮想表面であって、かつ複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい前記複数の仮想表面を、前記操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の奥行き位置であって、かつ選択された前記アイコンとは異なる位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する、
処理をコンピュータに実行させる入力方法。
【発明を実施するための形態】
【0009】
以下、図面を参照して開示の技術の一例を詳細に説明する。
【0010】
<本実施形態の概要>
まず、各実施形態の詳細を説明する前に、本実施形態の概要について説明する。
【0011】
オフィス、屋外での作業中、または公共の場所など様々な環境下で、スムーズな入力操作が必要となる状況が増加している。例えば、両手を他の作業に使用していることにより入力デバイスを操作できない場合、混雑状況下で入力デバイスを操作できない場合、また、身体障害等により両手を使用できない場合など、両手を使えない状態で入力操作が必要とされる場合がある。そのため、両手を使わずに、スムーズに入力操作できる技術が求められている。
【0012】
本実施形態は、情報端末における入力操作技術に関し、特に、両手を使用しないまたは使用出来ない環境における入力操作技術に関するものである。
【0013】
図1に操作者の視線の移動を説明するための図を示す。
図1に示すように、複数のアイコン4が1つの表示面1Aに配置されている場合、アイコン4の配置の記憶は困難になる。そのため、操作者が目的のアイコン4を探索する場合に、操作者は多くのアイコン4を識別する必要が生じ、操作者の視線の移動の経路2Aは長くなる。また、目的のアイコン4以外での視線の滞留時間が長くなる。
【0014】
一方、
図1の表示面1Bに示すように、1面あたりのアイコン数を少なくすることにより、操作者がアイコン4の配置を記憶することが容易になる。そのため、識別対象となるアイコンの数が減少し、目的のアイコン4以外での視線の滞留時間が短くなる。また、操作者の視線の移動の経路2Bは短くなる。
【0015】
そこで、本実施形態では、両眼立体視が生じる3D表示部を用いて、入力に必要となる入力操作用の多数のアイコンを、奥行き方向を含めて3次元的に表示する。そして、視線を検出する視線検出部を用いて、操作者の3次元の視点の位置を検出し、操作者が選択しているアイコンを特定する。
【0016】
例えば、本実施形態では、
図2に示すような操作用の3次元表示画像5を操作者に対して表示する。
図2に示すように、操作用の3次元表示画像5には、複数の奥行き方向の位置に対応して各々設定した仮想的な表示面(以下、仮想表面と称する。)5A,5B,5C,5Dが含まれている。
図2では、仮想表面が4つである場合を示している。操作用の3次元表示画像5は、3次元空間において複数のアイコン4を複数の仮想表面に配置して半透過で表示する。また、3次元表示画像5は、入力表示面5Nを含む。入力表示面5Nによって、操作者の操作に応じて入力された文字等が表示される。
【0017】
また、本実施形態では、1つの仮想表面あたりに含まれるアイコンの数を少なくし、かつアイコン1つあたりのサイズを大きくする。
【0018】
本実施形態のように、半透過で表示されたアイコン4を3次元配置することにより、以下の(1)〜(3)の効果が期待される。
【0019】
(1)一覧性の向上
本実施形態では、半透過で表示されたアイコンを3次元に配置することにより、操作者は、全てのアイコンを一度に目視可能となる。更に、奥行き方向に並ぶアイコンをずらして配置することにより、見かけ上のアイコンの重なりが削減される。また、後述する運動視差を利用することにより、操作者は少し頭を動かす自然な動作で、奥行き方向に重なったアイコンも分離して見ることができる。このように、多数のアイコンの表示の一覧性を向上させ、表示ページの切り替えを伴わない直接的な選択と入力操作を可能にする。
【0020】
(2)探索し易さの向上
本実施形態では、従来の上下左右方向のアイコンの探索方向に加えて、奥行き方向の自由度が追加される。すなわち、奥行き方向を探索してから上下左右方向を探索する場合と、上下左右方向を探索してから奥行き方向を探索する場合との2つの探索方法が考えられる。これにより、各操作者の記憶状態、好み、探索対象のアイコンなどの相違によって、その時々の探索し易さに応じて、両方の探索方法を使い分けることができる。
【0021】
(3)選択性の向上
本実施形態では、「見る」という行為だけでアイコンの選択が可能なため、選択の迷いや間違いが少ない。例えば、アイコンの選択に複数回の選択及び確定操作が必要な場合、必要な選択を完全に記憶していないときや操作上などで誤選択してしまったときには、戻って選びなおす必要がある。
【0022】
例えば、表示ページの切り替え操作や、コンテキストメニューやフリック入力などの連続した複数回の選択及び確定操作や、テンキーでの文字入力のような選択後の連続確定操作などが、アイコンの選択に複数回の選択及び確定操作が必要な場合として挙げられる。
【0023】
しかし、本実施形態では、「見る」という行為だけでアイコンの選択が可能なため、選択の迷いや間違いが少なく、上記のような、誤選択及び戻って選び直すことが少ない。
【0024】
また、1面に全てのアイコンを配置するよりも、複数面に分割して配置した方が、操作者はアイコンの配置を記憶し易く、また操作者にとって探索し易い。また、1面あたりのアイコンの数が少ない方が、操作者がアイコンの配置を記憶し易く探索し易いため、視線の移動が少なくなる。
【0025】
視線の移動の観点から、複数の仮想表面を奥行き方向に配置することの優位性について説明する。例えば、複数の表示面を3次元に配置する場合と、分割した表示面を同一平面上に配置する場合とを比較すると、複数の表示面を3次元に配置する場合は、以下の(1)及び(2)の点で優位である。
【0026】
(1)複数のアイコンを入力する場合の、1選択あたりの平均的な視線の角度と移動量とが少なくて済む。
(2)検出すべき視線角度の範囲が狭くて済む。
【0027】
また、複数の表示面を3次元に配置する場合と、複数の表示面を同一奥行面上において表示を切り替える場合とを比較すると、複数の表示面を同一奥行面上において表示を切り替える場合は、以下の点で不利である。すなわち、表示されていない表示面については、入力したいアイコンがどの面にあるのかを操作者が記憶しておくか、実際に表示の切り替えをして確認する必要があり、操作者の負担が増加する。
【0028】
以上説明したように、3D表示を用いて、アイコンを含む仮想表面を3次元的に配置して表示し、3次元で操作者の視点の位置を検出して操作対象のアイコンを特定することで、多数のアイコンの一覧性と選択性とを向上させることができる。
【0029】
更に、本実施形態では、操作者から入力される複数種類の入力操作が判別される。例えば、カメラによって取得された口の形の変化や、咽頭マイクによって取得された小音量の発声音パターンなどに基づいて、入力操作が判別される。
【0030】
これにより、選択されたアイコンの素早い入力の確定のほか、使用頻度の高い入力操作(例えば、かな・漢字変換、Backspace(BS)、カーソル移動など)については、アイコンの選択を必要としない直接操作を可能にする。そのため、よりスムーズで多様な入力操作が実現される。
【0031】
以下、実施形態について詳述する。なお、以下の各実施形態では、操作者の視点の位置に応じてアイコンを選択する入力装置を例に説明する。
【0032】
<第1実施形態>
図3に示すように、第1実施形態に係る入力装置50は、3D表示部52と、視線検出部54と、操作入力部56と、制御部58とを備えている。
【0033】
3D表示部52は、複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の仮想表面を透過させて3次元表示する。仮想表面の各々は、入力操作用のアイコン4を含んでいる。3D表示部52は、後述する表示処理部60によって生成された3次元表示画像を表示することにより、複数の仮想表面を3次元表示する。例えば、3D表示部52によって、上記
図2に示すような複数の仮想表面(5A,5B,5C,5D)が3次元表示される。なお、最下層の仮想表面は透過させて表示してもよいし、透過させずに表示してもよい。例えば、上記
図2に示す最下層の仮想表面5Dは、透過させて表示してもよいし、透過させずに表示してもよい。
【0034】
仮想表面に含まれる入力操作用のアイコンの一例を
図4A及び
図4Bに示す。
図4Aに示す複数の仮想表面5A,5B,5C,5D,5Eでは、主としてひらがなとアイコン4とが対応付けられている。また、仮想表面に含まれるアイコン「切替」が選択されることによって、
図4Bに示す複数の仮想表面5A,5B,5C,5D,5Eに切り替わる。複数の仮想表面5A,5B,5C,5D,5Eでは、英字及び記号がアイコン4に対応付けられている。また、同様に、仮想表面5A,5B,5C,5D,5Eに含まれるアイコン「切替」が選択されることによって、ひらがなはカタカナに切り替わる。
【0035】
また、入力操作用のアイコン4の他の例を
図5に示す。
図5に示す複数の仮想表面5A,5B,5C,5Dでは、主としてローマ字とアイコン4とが対応付けられている。
図5に示すアイコン4が選択されることによって、ローマ字入力が行われる。
【0036】
3D表示部52は、例えば、両眼Head Mounted Display(HMD)表示型のディスプレイや、裸眼立体視型のディスプレイによって実現される。
【0037】
図6に、両眼HMD表示型のディスプレイ52Aの一例を示す。両眼HMD表示型のディスプレイとしては、非透過型HMDと透過型HMDとがある。非透過型HMDについては、操作者6が非透過型HMDを装着すると外の様子を見ることはできない。一方、透過型HMDについては、操作者6が透過型HMDを装着しても外の様子を見ることができる。
【0038】
非透過型HMDは、四肢の身体障害者向けや、VRゲーム向け(例えば、両手は、ゲーム操作のコントローラに使用される。)などでの、文字入力や操作入力の際に用いられる。
【0039】
透過型HMDは、保守、点検、又は組立など作業者向け(例えば、両手は工具等のために使用される。)のAugmented Reality(AR)作業支援システムでの、文字入力や操作入力の際に用いられる。また、透過型HMDは、競技場でのスポーツ観戦時の、目視内容(カメラ付きHMDの場合)やAR情報表示に対するソーシャルネットワークコミュニケーション向けの文字入力や操作入力の際に用いられる。
【0040】
裸眼立体視型のディスプレイとしては、例えば、レンチキュラレンズ式3Dディスプレイや、ホログラム式立体映像表示装置や、複数の透明ディスプレイを使用する方式などがある。
【0041】
図7に、レンチキュラレンズ式3Dディスプレイ52Bの一例を示す。レンチキュラレンズ式3Dディスプレイ52Bは、
図7に示すように、ディスプレイ52C上にレンズ52Dを備え、操作者の両眼立体視が生じるような構成となっている。
【0042】
また、
図8に、複数の透明ディスプレイ52Eを使用する方式の一例を示す。複数の透明ディスプレイ52Eは、操作者の両眼立体視が生ずるような構成となっている。
【0043】
裸眼立体視型のディスプレイは、四肢の身体障害者向けや、TVゲーム向け(例えば、両手は、ゲーム操作のコントローラに使用される。)などでの、文字入力や操作入力の際に用いられる。また、裸眼立体視型のディスプレイは、デジタルサイネージや観光案内表示板などでのインタラクティブ操作のほか、特定の施設(例えば、エンターテインメントなど)での、表示物に対する情報表示や入力などの操作の際に用いられる。
【0044】
視線検出部54は、操作者の視線を表す情報を取得する。例えば、視線検出部54は、操作者の視線を表す情報として、操作者の両眼の画像を取得する。
【0045】
3D表示部52として両眼HMD表示型のディスプレイを用いる場合、視線検出部54は3D表示部52に備えられる。
【0046】
また、3D表示部52として裸眼立体視型のディスプレイを用いる場合、3D表示部52に固定される方式や、装着型の両眼アイマークレコーダを使用する方式などがある。
【0047】
例えば、視線検出部54が3D表示部52に固定される方式を用いる場合、可動式ズームカメラを用いて操作者の視線に関する情報を取得する。なお、入力装置50に全景撮影用カメラが備えられている場合には、全景撮影用カメラを高解像度カメラとし、全景撮影用カメラと視線検出用カメラとを兼ねる構成としてもよい。
【0048】
図9に、装着型の両眼アイマークレコーダ54Aの一例を示す。両眼アイマークレコーダ54Aには、右眼用のセンサ54Bと左眼用のセンサ54Cとが備えられており、操作者の両眼の角膜反射の撮像画像が取得される。
【0049】
図10〜
図13に、3D表示部52と視線検出部54との構成例を示す。
【0050】
図10及び
図11は、3D表示部52として透過型HMD52Aを用いた場合の例である。
【0051】
図10に示すように、透過型HMD52Aによって仮想表面が表示され、操作者6によって作業コメント等が入力される。本実施形態の入力装置50によって作業者の支援が行われるため、両手で作業をしながらコメントを入力することができる。
【0052】
また、
図11に示すように、透過型HMD52Aによって仮想表面が表示され、操作者6によってメータ23の値等が入力される。
図11に示すような構成例は、例えば、工場施設や機体整備など保守点検業務の端末として用いられる。
【0053】
図12及び
図13は、3D表示部52として裸眼立体視型のディスプレイ52Bを用いた場合の例である。
【0054】
図12に示すように、案内表示板としての裸眼立体視型のディスプレイ52Bが3D表示部52として機能し、操作者6が案内表示板を目視し、付加情報を取得したり、質問を入力すること等ができる。なお、操作者の視線はカメラ54Dによって取得される。
【0055】
また、
図13に示すように、案内表示板としての裸眼立体視型のディスプレイ52Bが3D表示部52として機能し、デジタルサイネージや、施設案内端末等として用いることができる。なお、操作者の視線はカメラ54Dによって取得される。
【0056】
本実施形態では、3D表示部52が裸眼立体視型のディスプレイ52Bによって実現される場合を例に説明する。また、本実施形態では、視線検出部54がカメラ54Dによって実現され、かつ3D表示部52に固定される場合を例に説明する。
【0057】
操作入力部56は、操作者の意思表示を表す情報を取得する。例えば、操作入力部56は、操作者を表す画像又は操作者が発した音を取得する。操作入力部56は、開示の技術の意思取得部の一例である。
【0058】
操作入力部56は、操作者の顔面撮影用のカメラ、咽頭マイク、又は呼気スイッチ等によって実現される。
【0059】
顔面撮影用のカメラによって操作入力部56が実現される場合、操作入力部56は、操作者の顔を表す画像を取得する。
【0060】
操作入力部56が咽頭マイクによって実現される場合、操作入力部56は、操作者が発した音を取得する。咽頭マイクは、操作者が発する単純音を取得する。
【0061】
咽頭マイクと単純音とを用いることにより、口を閉じたままなど、はっきりした発声をすることなく、小音量による操作入力が実現される。例えば、オフィス程度の騒音環境より環境音が大きい場所であれば、ほぼ周囲に迷惑かけることなく操作が可能となる。
【0062】
操作入力部56が呼気スイッチによって実現される場合、操作入力部56は、操作者が発した呼気を取得する。
【0063】
なお、操作入力部56としては複数のボタンスイッチによって実現してもよい。例えば、手による操作の通常ボタン、足による操作の通常ボタン、指の引っ張りの動きを取得するグローブ型などのウェアラブル入力装置によって実現されていてもよい。
【0064】
本実施形態では、操作入力部56が顔面撮影用のカメラによって実現される場合を例に説明する。
【0065】
制御部58は、視線検出部54によって取得された操作者の顔を表す画像と、操作入力部56によって取得された操作者の意思表示を表す情報とに基づいて、3D表示部52の表示を制御する。制御部58は、
図3に示すように、表示処理部60と、視点取得部62と、判定処理部64と、表示データ処理部66と、入力処理部68とを備えている。表示データ処理部66は、開示の技術の選択部の一例である。判定処理部64は、開示の技術の判定部の一例である。
【0066】
表示処理部60は、後述する表示データ処理部66及び入力処理部68によって出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部60は、生成した3次元表示画像を3D表示部52に対し出力する。
【0067】
操作用の3次元表示画像では、複数の仮想表面が、操作者から見て奥行き方向に並べて配置されている。また、複数の仮想表面は透過されて表示される。
【0068】
視点取得部62は、視線検出部54によって取得された操作者の両眼を表す画像に基づいて、3次元空間における操作者の視点の位置を取得する。
【0069】
図14に、操作者の視点の位置の取得方法を説明するための図を示す。
図14に示すように、操作者の両眼中心位置を原点とする直交三軸座標系のx軸、y軸、z軸上の単位ベクトルをそれぞれi,j,kとし、右眼の視線方向を示す単位ベクトルをu=(l,m,n)とすると、右眼の視線方向を示す直線は以下の(1)式で示される。なお、(x0,y0,z0)は操作者の視点の位置、2Eは操作者の両眼間距離である。
【0071】
上記(1)式におけるi,j,kは一次独立であるから、
【0073】
となる。l,m,nは視線方向を示す直線の方向余弦とする。同様に、左眼の視線方向を示す単位ベクトルをv=(p,q,r)とすると、左眼の視線方向を示す直線は、
【0075】
となる。上記(2)、(3)式より、以下の(4)式が成立する。
【0077】
そして、係数行列をH、右辺の定数項の行列をCとおくと、以下に示す(5)式となる。
【0079】
なお、上記(5)式におけるTは転置行列を示す。
【0081】
したがって、視点取得部62は、上記(6)式を計算することで、操作者の視点の位置(x0,y0,z0)を算出する。
【0082】
なお、座標系は、両眼中心位置を原点とするものに限らず、固定の表示装置や地点を基準にする場合や、操作開始時点の両眼中心を用いて頭部の位置の角度変化を反映させるなどしてもよい。本実施形態では、上記(6)式に従って算出された視点の位置を、世界座標系の視点の位置に変換し、世界座標系の視点の位置を後述する処理において用いる。
【0083】
判定処理部64は、操作入力部56によって取得された操作者の意思表示に関する情報に基づいて、操作者の操作の種別を判定する。操作の種別の判定内容としては、例えば、以下の(1)〜(5)が挙げられる。
【0084】
(1)選択されたアイコンの入力の確定
(2)かな漢字変換
(3)1文字削除(Back Space)
(4)カーソル移動(上、下、左、右)
(5)コンテキストメニュー表示
【0085】
顔面撮影用のカメラによって操作入力部56が実現される場合、例えば、判定処理部64は、操作入力部56によって取得された画像に基づいて、
図15に示すように、口の形の変化を検出する。そして、判定処理部64は、口の形に応じて予め対応付けられた操作の種別に基づいて、操作者の操作の種別を判定する。
【0086】
例えば、選択されたアイコンの入力の確定が「あ」の形に対応付けられ、入力の変換が「い」の形に対応付けられ、1文字削除(Back Space)が舌出しに対応付けられている。なお、顔面撮影用のカメラは、視線検出用のカメラと兼用してもよいし、別のカメラを用意してもよい。
【0087】
図16に、操作入力部56Aが顔面撮影用のカメラによって実現される場合の処理の流れの概要を示す。
図16に示すように、操作入力部56Aの顔面撮影用のカメラによって操作者の顔を表す画像が取得され、判定処理部64Aによって、顔検出、口パーツ抽出、及び口形状の識別の各処理が行われる。
【0088】
操作入力部56が咽頭マイクによって実現される場合、判定処理部64は、操作入力部56によって取得された単純音に基づいて、操作者の操作を判定する。
【0089】
例えば、判定処理部64は、以下に示す(1)〜(5)に示すように単純音と操作の種別とが予め対応付けられた情報と、操作者が発した単純音とに基づいて、操作者の操作の種別を判定する。
【0090】
操作判定処理(判定割り当て例)
(1)選択されたアイコンの入力の確定:低音かつ短音 「ン"」
(2)1文字削除(Back Space):高音かつ短音 「ム」
(3)変換:低音かつ中長音 「ヴン"」
(4)カーソル移動左←:低音かつ長音 「ヴーーー」
(5)カーソル移動右→:高音かつ長音 「ムーーー」
【0091】
図17に、操作入力部56が咽頭マイクによって実現される場合の処理の流れの概要を示す。
図17に示すように、操作入力部56Bの咽頭マイクによって操作者が発した音が取得され、判定処理部64Bによって、入力された音を判定する音入力判定、及び判定された音に対応付けられた操作の種別を判定する操作音識別の各処理が行われる。
【0092】
操作入力部56が呼気スイッチによって実現される場合、判定処理部64は、操作入力部56によって取得された呼気に基づいて、操作者の操作を判定する。
【0093】
例えば、判定処理部64は、以下に示す(1)〜(5)に示すように割り当てられた、操作者が発した呼気と操作とに応じて、操作者の操作を判定する。
【0094】
操作判定処理(判定割り当て例)
(1)選択されたアイコンの入力の確定:吐く(短) 「フ」
(2)1文字削除(Back Space):吸う(長く) 「スーー」
(3)変換:吸う(短) 「スゥ」
(4)カーソル移動左←:吐く(長く) 「フー」
(5)カーソル移動右→:吐く(短連続で2回) 「フフ」
【0095】
図18に、操作入力部56が呼気スイッチによって実現される場合の処理の流れの概要を示す。
図18に示すように、操作入力部56Cの呼気スイッチを構成する圧電素子によって操作者が発した呼気が電圧値に変換されて取得される。そして、判定処理部64Cによって、取得された電圧値に基づく加圧パターンが示す呼気に対応付けられた操作の種別を判定する加圧パターン識別の処理が行われる。
【0096】
本実施形態では、判定処理部64は、操作入力部56Aによって取得された画像に基づいて、上記
図15に示すように、操作者の口の形を検出する。そして、判定処理部64Aは、操作者の口の形に基づいて、上記
図16に示すように、操作者の操作の種別を判定する。
【0097】
表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置と、判定処理部64によって判定された操作の種別とに基づいて、表示処理部60によって生成される3次元表示画像を制御する。
【0098】
例えば、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、操作者の視点の位置に対応するアイコン4を選択する。そして、表示データ処理部66は、選択されたアイコン4が選択状態であることを表す操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。
【0099】
また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置と、判定処理部64によって判定された操作の種別とに基づいて、アイコン4の選択を確定するか否かを判定する。例えば、表示データ処理部66は、操作の種別が「確定」である場合には、アイコン4の選択を確定する。
【0100】
そして、表示データ処理部66は、アイコン4が確定状態であるような3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。また、表示データ処理部66は、選択が確定されたアイコン4に対応するキーの情報(例えば文字「A」等)を、入力処理部68へ出力する。
【0101】
一方、表示データ処理部66は、操作の種別が「確定」以外である場合(例えば、「入力の変換」「1文字削除」等)である場合には、操作の種別に応じた情報を、入力処理部68へ出力する。
【0102】
また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に応じて仮想表面の透過の度合いが変更された3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。
【0103】
具体的には、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、視点の位置に対応する仮想表面とは異なる他の仮想表面の透過の度合いが高くなるように制御する。
【0104】
例えば、表示データ処理部66は、操作者の視点の位置の奥行き方向の位置x0で対応する仮想表面より手前の仮想表面の透過度を高くするように制御する。そして、表示データ処理部66は、操作者の視点の位置が手前に戻れば、手前の仮想表面の透過度を元に戻すというように制御を行う。なお、仮想表面の100%の透過は、透過表示した層を再度「見る」ことが出来なくなるため、例えば、仮想表面の枠のみが100%透過しないように制御される。
【0105】
また、例えば、表示データ処理部66は、視点の位置の仮想表面より手前の仮想表面のアイコン4の背景面(例えば、ウィンドウ)を透過度100%になるように制御する。アイコン4本体と背景面の透過度を個別に変更し、奥側の表示面を注視し易くしながら、手前側のアイコン4の選択も容易になる。
【0106】
また、例えば、表示データ処理部66は、視点の位置の奥行き方向の位置x0で対応する仮想表面より手前、またはその他の仮想表面のアイコン4内の表示(例えば、文字刻印など)の透過度を高くするように制御する。
【0107】
また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に応じて仮想表面の透過の度合いが変更された3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。
【0108】
また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、操作者の視点の位置の奥行き方向の位置x0で対応する仮想表面の位置に応じて、入力表示面の位置を制御する。例えば、表示データ処理部66は、
図19Aに示すように、文字入力のための入力表示面5Nの奥行き方向の位置を、視点の位置の仮想表面の奥行き位置に移動させるように制御する。
図19Aに示すように、操作者の視点の位置が仮想表面5Aに含まれるアイコン4に対応している場合、表示データ処理部66は、視点の位置に対応する仮想表面5Aの奥行き位置に、入力表示面5Nが表示されるように制御する。また、操作者の視点の位置が仮想表面5Aから仮想表面5Bのアイコン4へ移動した場合、表示データ処理部66は、仮想表面5Bの奥行き位置に入力表示面5Nが表示されるように制御する。選択状態のアイコン4の仮想表面と入力表示面の奥行き方向の位置を合わせることで、不要な奥行き方向の視線移動が防止される。
【0109】
図19Bに、表示データ処理部66の処理の一例を説明するための説明図を示す。
【0110】
まず、
図19Bの場面7Aに示すように、操作者の視点の位置が視点取得部62によって取得される。場面7Aでは、操作者の視点が、操作者から見て最も手前の仮想表面5Aに位置していると検出される。
【0111】
そして、場面7Aに示すように、操作者の視点によって「a」に対応するアイコン4が選択され、操作者の入力の確定操作によりアイコン4の文字「a」が入力される。
【0112】
この場合、
図19Bの場面7Aに示すように、「a」に対応するアイコン4が選択状態であることを表す3次元表示画像が操作者に対して表示された後、「a」に対応するアイコン4が確定状態であることを表す操作用の3次元表示画像が操作者に対して表示される。また、上記
図19Aにおいて説明したように、入力表示面5Nは、仮想表面5Aと同じ奥行き位置に表示される。
【0113】
次に、
図19Bの場面7Bにおいて、操作者の視点の位置が手前から2層目の仮想表面5Bへ移動したことが視点取得部62によって検出されると、表示データ処理部66は、1層目の仮想表面5Aの透過の度合いを引き上げるように制御する。また、表示データ処理部66は、上記
図19Aにおいて説明したように、入力表示面5Nの表示位置を、操作者の視点の位置に合わせて1層目の仮想表面5Aから2層目の仮想表面5Bの奥行き位置に移動させるように制御する。
【0114】
場面7Bの例では、操作者の視点の位置が2層目の仮想表面5Bに移動した場合、表示データ処理部66は、1層目の仮想表面5Aの背景の透過の度合いを100%、1層目の仮想表面5Aのアイコン4上の文字の透過の度合いを引き上げるように制御する。
【0115】
なお、場面7Bに示すように、「k」に対応するアイコン4が選択状態であることを表す操作用の3次元表示画像が操作者に対して表示される。なお、
図19Aでは、アイコン内に示される斜線が選択状態であることを表し、アイコン内に示されるドットが確定状態を表す。
【0116】
次に、場面7Bにおいて選択された「k」に対応するアイコン4に対する、操作者の入力の確定操作が行われることなく、場面7Cに示すように、操作者の視点の位置が2層目の仮想表面5B上で移動し、アイコン4「o」が選択される。また、入力表示面5Nの表示位置が、仮想表面5Bの奥行き位置に表示されるように制御される。そして、「o」が選択状態であることを表す操作用の3次元表示画像が表示される。そして、操作者の入力の確定操作によって、アイコン4の文字「o」が入力表示面5Nに反映される。
【0117】
また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、視点の位置の奥行き方向の位置x0に対応する仮想表面の透過の度合いが低くなるように制御してもよい。
【0118】
また、表示データ処理部66は、複数の仮想表面に含まれるアイコン4の各々は、仮想表面の位置が操作者から見て奥行き方向に位置するほど、アイコン4の大きさが大きくなるように、仮想表面の表示を制御してもよい。また、表示データ処理部66は、複数の仮想表面に含まれるアイコン4の各々は、仮想表面の位置が操作者から見て奥行き方向に位置するほど、隣に配置されたアイコン4との間隔が広くなるように、仮想表面の表示を制御してもよい。
【0119】
図20に、奥行き方向に位置するほど、アイコン4の大きさが大きくなり、かつ隣に配置されたアイコン4との間隔が広くなるように制御された仮想表面の一例を示す。
図20に示すように、1層目の仮想表面5Aのアイコン4、2層目の仮想表面5Bのアイコン4、及び3層目の仮想表面5Cのアイコン4は、仮想表面の階層に応じて大きさが制御されている。
【0120】
図20に示すように仮想表面を制御することにより、奥行き方向の視点先のアイコン4の検出が容易になる。操作者の視点の位置が奥行き方向に行くほど、アイコン4のサイズと間隔を広くすることにより、遠い位置でのアイコン4間の視線の移動角度が大きくなる。すなわち、手前にある仮想表面上での視線の移動量と、奥行き方向に遠い位置にある仮想表面上での視線の移動量とを同等にすることができ、視点の位置の検出が容易になる。
【0121】
また、表示データ処理部66は、アイコン4の少なくとも一部分が、アイコン4を含む仮想表面とは異なる他の仮想表面に含まれるアイコン4と重ならないように配置するように、仮想表面の表示を制御してもよい。
【0122】
図21に、アイコン4が重ならないように配置された仮想表面の一例を示す。
図21は、複数の仮想表面を真正面から見た場合の、見かけ上のアイコン4の配置の例である。
図21では、アイコン4のカッコ内の表記が各仮想表面(5A〜5E)に対応し、例えばアイコン4(5A)は、仮想表面5Aに含まれるアイコン4を表す。
図21に示すように、操作者の視線上において、各仮想表面のアイコン4があまり重ならないように配置される。
【0123】
図22に、アイコン4が重ならないように配置された各層の仮想表面の例を示す。
図22に示すように、各仮想表面の表示サイズは異なり、操作者から見て手前の仮想表面のアイコン4は小さく表示され、操作者から見て奥の仮想表面のアイコン4は大きく表示されるように制御される。
【0124】
また、アイコン4の種類に応じてアイコン4が複数の仮想表面に分類されて配置されていてもよい。例えば、1層目にはひらがなのアイコン4を含む仮想表面が表示され、2層目には英字のアイコン4を含む仮想表面が表示され、3層目には数字を含む仮想表面が表示されるようにしてもよい。
【0125】
また、アイコン4の各々の形状又は色が、アイコン4の選択によって入力される情報の種類に応じて定められているようにしてもよい。
【0126】
さらに、アイコン4の各々の形状又は色が、仮想表面内のアイコン4の位置に応じて定められているようにしてもよい。
【0127】
図23に、アイコン4の各々の形状及び色が、アイコン4の選択によって入力される情報の種類に応じて定められ、かつ仮想表面内のアイコン4の位置に応じて定められている場合の一例を示す。
【0128】
人間の視覚認識特性により、形と色とは独立して処理される。また、文字よりも、形と色の方が速く認識される。この特性を利用して、文字毎に異なる形状と色のアイコン4を使用することで、操作者の文字とアイコン4との配置の関連付け記憶が促進され、選択操作のアイコン探索の時間短縮が可能になる。
【0129】
また、異なる表示画面においては、同じ色や形が使われていても、識別への影響が少ないという特性がわかっている。この特性を利用して、奥行き方向に異なる表示面では、他の表示面と同じ色や形状を使ってもアイコン識別への影響が少なくて済む。
【0130】
従って、操作者によるアイコン4の識別が向上する。
【0131】
入力処理部68は、表示データ処理部66によって選択が確定されたアイコン4に対応するキーの情報を取得する。そして、入力処理部68は、選択が確定されたアイコン4に対応するキーが、入力表示面に表示されるように、表示処理部60へ制御信号を出力する。
【0132】
また、入力処理部68は、表示データ処理部66によって出力された操作の種別に応じた状態を入力表示面に反映するように、表示処理部60へ制御信号を出力する。
【0133】
入力装置50の制御部58は、例えば
図24に示すコンピュータ80で実現することができる。コンピュータ80はCPU81、一時記憶領域としてのメモリ82、及び不揮発性の記憶部83を備える。また、コンピュータ80は、入出力I/F84と、記録媒体89に対するデータの読み込み及び書き込みを制御するread/write(R/W)部85と、インターネット等のネットワークに接続されるネットワークI/F86とを備える。CPU81、メモリ82、記憶部83、入出力I/F84、R/W部85、及びネットワークI/F86は、バス87を介して互いに接続される。
【0134】
記憶部83は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部83には、コンピュータ80を入力装置50の制御部58として機能させるための入力プログラム90が記憶される。入力プログラム90は、表示処理プロセス92と、視点取得処理プロセス93と、判定処理プロセス94と、表示データ処理プロセス95と、入力処理プロセス96とを有する。
【0135】
CPU81は、入力プログラム90を記憶部83から読み出してメモリ82に展開し、入力プログラム90の各々が有するプロセスを順次実行する。
【0136】
CPU81は、表示処理プロセス92を実行することで、
図3に示す表示処理部60として動作する。また、CPU81は、視点取得処理プロセス93を実行することで、
図3に示す視点取得部62として動作する。また、CPU81は、判定処理プロセス94を実行することで、
図3に示す判定処理部64として動作する。また、CPU81は、表示データ処理プロセス95を実行することで、
図3に示す表示データ処理部66として動作する。また、CPU81は、入力処理プロセス96を実行することで、
図3に示す入力処理部68として動作する。
【0137】
このように、入力プログラム90を実行したコンピュータ80が、入力装置50として機能することになる。
【0138】
なお、入力プログラム90により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
【0139】
次に、
図25を参照して、本実施形態に係る入力装置50の作用について説明する。
【0140】
図25は、入力装置50の制御部58で実行される制御処理のフローの一例を示す。
【0141】
入力装置50の3D表示部52によって操作用の3次元表示画像が表示され、視線検出部54によって操作者の両眼の画像が逐次取得され、操作入力部56によって操作者の顔画像が逐次取得されているときに、
図25に示す制御処理ルーチンが実行される。
【0143】
ステップS10において、視点取得部62は、視線検出部54によって取得された操作者の両眼を表す画像を取得する。
【0144】
ステップS12において、視点取得部62は、上記ステップS10で取得された操作者の両眼を表す画像に基づいて、上記(1)式〜(3)式に従って、操作者の視線ベクトルを検出する。
【0145】
ステップS14において、視点取得部62は、上記ステップS12で検出された視線ベクトルに基づいて、上記(4)式〜(6)式に従って、操作者の視点の位置を算出する。
【0146】
ステップS16において、視点取得部62は、上記ステップS14で算出された操作者の視点の位置に基づいて、世界座標系の視点の位置を算出する。
【0147】
ステップS18において、表示データ処理部66は、上記ステップS16で算出された操作者の視点の位置に基づいて、視点の位置に対応する位置に、操作可能なアイコン4が表示されているか否かを判定する。視点の位置に対応する位置に、操作可能なアイコン4が表示されている場合には、ステップS20へ進む。一方、視点の位置に対応する位置に、操作可能なアイコン4が表示されていない場合には、ステップS22へ進む。
【0148】
ステップS20において、表示データ処理部66は、上記ステップS16で算出された操作者の視点の位置に対応するアイコン4を選択する。そして、表示データ処理部66は、選択されたアイコン4が選択状態であることが表示された操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。表示処理部60は、出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部60は、生成した操作用の3次元表示画像を3D表示部52に対し出力する。そして、3D表示部52は、表示処理部60によって生成された操作用の3次元表示画像を操作者に対し表示する。
【0149】
ステップS22において、表示データ処理部66は、上記ステップS16で得られた操作者の視点の位置に基づいて、仮想表面の透過の度合いを変更する。また、表示データ処理部66は、上記ステップS16で得られた操作者の視点の位置に応じて仮想表面の透過の度合いが変更された操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。表示処理部60は、出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部60は、生成した操作用の3次元表示画像を3D表示部52に対し出力する。3D表示部52は、表示処理部60によって生成された操作用の3次元表示画像を操作者に対し表示する。
【0150】
ステップS24において、判定処理部64は、操作入力部56によって取得された操作者の画像を取得する。
【0151】
ステップS26において、判定処理部64は、上記ステップS24で取得された画像に基づいて、操作者の操作を判定する。操作者の操作の種別が判定された場合には、ステップS28へ進む。一方、何れの操作の種別にも判定されなかった場合には、操作者の操作が無いと判断し、ステップS10へ戻る。
【0152】
ステップS28において、判定処理部64は、上記ステップS26での判定結果に基づいて、操作の種別は入力の確定の操作であるか否かを判定する。操作の種別が入力の確定の操作である場合には、ステップS30へ進む。一方、操作の種別が入力の確定の操作でない場合には、ステップS34へ進む。
【0153】
ステップS30において、表示データ処理部66は、上記ステップS20で選択された選択中のアイコンがあるか否かを判定する。選択状態のアイコンがある場合には、ステップS32へ進む。一方、選択中のアイコン4がない場合には、ステップS10へ戻る。
【0154】
ステップS32において、表示データ処理部66は、上記ステップS16で取得された操作者の視点の位置に対応する、選択状態のアイコン4の表示が確定状態であるような3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。また、表示データ処理部66は、選択が確定されたアイコン4に対応するキーの情報を、入力処理部68へ出力する。
【0155】
ステップS34において、入力処理部68は、上記ステップS32で出力されたキーの情報を取得する。そして、入力処理部68は、選択が確定されたアイコン4に対応するキーが、入力表示に表示されるように、表示処理部60へ制御信号を出力する。また、入力処理部68は、上記ステップS28で出力された操作の種別に応じた状態を入力表示面に反映するように、表示処理部60へ制御信号を出力する。
【0156】
ステップS36において、表示処理部60は、上記ステップS34で出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部60は、生成した表示画像を3D表示部52に対し出力する。
【0157】
3D表示部52は、生成された操作用の3次元表示画像を操作者に対し表示する。
【0158】
以上説明したように、本実施形態の入力装置50は、入力操作用のアイコン4を含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の仮想表面を透過させて3次元表示部に表示させる。そして、入力装置50は、操作者の視点の位置に基づいて、視点の位置に対応するアイコン4を選択する。これにより、操作者は、入力操作をスムーズに行うことができる。
【0159】
また、本実施形態の入力装置50は、多様な入力操作に対応する多数のアイコン4を、一覧性及び選択性が向上するように配置するため、操作者はアイコン4をスムーズに選択して操作することができる。
【0160】
<第2実施形態>
次に、第2実施形態に係る入力装置について説明する。第2実施形態では、仮想表面がタブ領域を有している。なお、第2実施形態に係る入力装置の構成は、
図3に示す第1実施形態に係る入力装置50の構成と同様であるため、同一符号を用いて、異なる部分について説明する。
【0161】
第2実施形態では、仮想表面毎にタブ領域が設けられ、操作者がタブ領域に視線を向けることで、操作者による視線の奥行き方向の注視が容易になる。なお、各仮想表面のタブ領域は他の仮想表面と重ならない部分に設けられる。
【0162】
図26に、第2実施形態の仮想表面の一例を示す。
図26に示すように、仮想表面の各々は、当該仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域34を有している。
【0163】
第2実施形態の表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、当該視点の位置の奥行き方向の位置x0で対応する仮想表面とは異なる他の仮想表面の透過の度合いを制御する。例えば、表示データ処理部66は、タブ領域が操作者によって注視された場合、当該タブ領域34を有する仮想表面より手前の仮想表面の透過の度合いを高くするように制御する。
【0164】
なお、表示データ処理部66は、仮想表面の透過の度合いを変更した場合も、タブ領域34の透過の度合いは変化させないように制御してもよい。これにより、視点を合わせた仮想表面より手前の仮想表面に視点を戻すのが容易になる。
【0165】
なお、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、当該視点の位置の奥行き方向の位置x0に対応する仮想表面の透過の度合いが低くなるように制御してもよい。
【0166】
そして、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に応じて、仮想表面の透過の度合いが変更された操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。
【0167】
図26を参照して、第2実施形態の表示データ処理部66の処理の一例を説明する。
【0168】
まず、
図26の場面30に示すように、操作者の視点の位置が視点取得部62によって取得される。場面30では、操作者の視点が、操作者から見て最も手前の仮想表面5Aに位置していると検出される。
【0169】
そして、場面30に示すように、操作者の視点によって「a」に対応するアイコン4が選択され、操作者の入力の確定操作により、選択されたアイコン4の文字「a」が入力される。
【0170】
この場合、
図26の場面30に示すように、「a」に対応するアイコン4が選択状態であることを表す操作用の3次元表示画像が操作者に対して表示される。その後、「a」に対応するアイコン4が確定状態であることを表す操作用の3次元表示画像が操作者に対して表示される。また、入力表示面5Nは、仮想表面5Aと同じ奥行き位置に表示される。
【0171】
次に、
図26の場面31において、操作者の視点の位置が手前から2層目の仮想表面5Bへ移動したことが視点取得部62によって検出されると、表示データ処理部66は、1層目の仮想表面5Aの透過の度合いを引き上げるように制御する。また、表示データ処理部66は、入力表示面5Nの表示位置を、操作者の視点の位置に合わせて1層目の仮想表面5Aから2層目の仮想表面5Bの奥行き位置に移動させるように制御する。
【0172】
場面31の例では、操作者の視点の位置が2層目の仮想表面5Bに移動した場合、表示データ処理部66は、1層目の仮想表面5Aの背景の透過の度合いを100%、1層目の仮想表面5Aのアイコン4上の文字の透過の度合いを引き上げるように制御する。なお、タブ領域34の透過の度合いは変更しない。
【0173】
なお、場面31に示すように、「k」のアイコン4が選択状態であることを表す操作用の3次元表示画像が操作者に対して表示される。
【0174】
次に、場面31において選択されたアイコン4「k」に対する操作者の入力の確定操作が行われることなく、場面32に示すように、操作者の視点の位置が2層目の仮想表面5B上で移動し、「o」のアイコン4が選択される。そして、「o」が選択状態であることを表す操作用の3次元表示画像となる。そして、操作者の入力の確定操作によって、選択されたアイコン4の文字「o」が入力表示面5Nに反映される。
【0175】
次に、場面33に示すように、操作者の視点の位置が、2層目の仮想表面5Bから4層目の仮想表面5Dのタブ領域34に移動する。
【0176】
そして、場面35に示すように、1層目の仮想表面5Aと同様に、2層目の仮想表面5B及び3層目の仮想表面5Cの透過度が高くなるように制御される。また、入力表示面5Nも4層目の仮想表面5Dの奥行き位置に移動される。
【0177】
なお、
図27に示すように、タブ領域34を仮想表面の中央部に配置してもよい。タブ領域34が中央部に配置されることにより、アイコン4の背景面外側にタブ領域34が配置された場合に比べ、タブ領域34を見るときの視線の上下左右移動が少なくなり、奥行き方向の素早い注視移動が可能となる。
【0178】
次に、第2実施形態に係る入力装置の作用について、第1実施形態と異なる点を説明する。
【0179】
上記第1実施形態では、上記
図25の制御処理ルーチンにおいて、ステップS20で操作者の視点の位置に対応するアイコンの選択が行われた後に、ステップS22において仮想表面の透過の度合いの制御が行われる。しかし、第2実施形態では、操作者の視点の位置に対応するタブ領域を含む仮想表面と異なる仮想表面の透過の度合いが制御される点が、第1実施形態の処理フローと異なる。
【0180】
以上説明したように、第2実施形態に係る入力装置において、仮想表面の各々は、当該仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域を有する。そして、入力装置は、操作者の視点の位置に基づいて、視点の位置に対応するタブ領域を有する仮想表面とは異なる他の仮想表面の透過の度合いを制御する。これにより、入力操作をスムーズに行うことができる。
【0181】
また、操作者はタブ領域に視線を向ければよいため、奥行き方向の注視が容易になる。そのため、入力操作をスムーズに行うことができる。
【0182】
<第3実施形態>
次に、第3実施形態に係る入力装置について説明する。第3実施形態では、仮想表面の表示の鮮明度合いを制御する。なお、第3実施形態に係る入力装置の構成は、
図3に示す第1又は第2実施形態に係る入力装置50の構成と同様であるため、同一符号を用いて、異なる部分について説明する。
【0183】
第3実施形態の表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、仮想表面の表示の鮮明度合いを制御する。
【0184】
例えば、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、視点の位置の奥行き方向の位置x0に対応する仮想表面の表示の鮮明度合いが高くなるように制御する。また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、視点の位置の奥行き方向の位置x0に対応する仮想表面とは異なる他の仮想表面の表示の鮮明度合いが低くなるように制御する。
【0185】
第3実施形態では、操作者の視点の位置の奥行き方向の位置x0に対応する仮想表面以外の仮想表面の鮮明度を低下させ、視点が対応する仮想表面を注視し易くする。鮮明度を変更する方法としては、例えば、アンシャープネスフィルタ処理を用いる。
【0186】
図28に、仮想表面の表示の鮮明度の変更を説明するための図を示す。
図28の例は、視点の位置の奥行き方向の位置x0に対応する仮想表面と他の仮想表面の各々との距離に応じて、他の仮想表面の各々の表示の鮮明度が変更された例である。また、
図28の例は、仮想表面の表示をぼかすためのフィルタとして、ガウスフィルタが使用された例である。
【0187】
図28の場面37に示すように、1層目の仮想表面5Aに操作者の視点の位置が対応しているため、2層目、3層目、4層目の仮想表面5B〜5Dの鮮明度が低くなるように制御される。また、
図28の場面37の下段に示すように、視点の位置の奥行き方向の位置x0に対応している仮想表面から遠い仮想表面ほど、鮮明度が低くなるように制御される。
【0188】
次に、
図28の場面38において、2層目の仮想表面5Bに操作者の視点の位置が対応しているため、1層目、3層目、4層目の仮想表面5A、5C、5Dの鮮明度が低くなるように制御される。また、同様に、
図28の場面38の下段に示すように、視点の位置が対応している仮想表面から遠い仮想表面ほど、鮮明度が低くなるように制御される。
【0189】
図28の場面39において、4層目の仮想表面5Dのタブ領域34に操作者の視点の位置が対応し、1層目、2層目、3層目の仮想表面5A〜5Cの鮮明度が低くなるように制御される。また、同様に、
図28の場面39の下段に示すように、視点の位置が対応している仮想表面から遠い仮想表面ほど、鮮明度が低くなるように制御される。
【0190】
以上説明したように、第3実施形態に係る入力装置において、操作者の視点の位置に基づいて、仮想表面の表示の鮮明度合いを制御する。これにより、入力操作をスムーズに行うことができる。
【0191】
また、視点が対応する仮想表面以外の仮想表面の鮮明度を低下させ、視点に対応する仮想表面が注視し易くなることにより、操作者は入力操作をスムーズに行うことができる。
【0192】
<第4実施形態>
次に、第4実施形態に係る入力装置について説明する。第4実施形態では、操作者の頭部の位置に応じて仮想表面の表示を制御する。なお、第4実施形態に係る入力装置において、第1〜第3実施形態に係る入力装置と同様の部分には、同一符号を付して詳細な説明を省略する。
【0193】
図29に示すように、第4実施形態に係る入力装置450は、3D表示部52と、視線検出部54と、操作入力部56と、頭部位置角度検出部457と、制御部458とを備えている。頭部位置角度検出部457は、開示の技術の頭部状態取得部の一例である。
【0194】
頭部位置角度検出部457は、操作者の頭部の位置及び角度を取得する。頭部位置角度検出部457は、様々な方式によって実現される。
図30に、頭部位置角度検出部457を実現する方式の例を示す。
【0195】
図30に示すように、例えば、操作者が装着するHMDの通信部42Aと所定の箇所に固定された複数の通信部42Bとが、無線によって通信を行うことにより、操作者の頭部の位置及び角度を取得することができる。
【0196】
また、
図30に示すように、操作者が装着するHMDの予め定めた位置に付されたマーカ(図示省略)と、固定側カメラ43によって撮像された画像とに基づく方式により、操作者の頭部の位置及び角度を取得することができる。具体的には、固定側カメラ43がHMDのマーカ(図示省略)を撮像し、マーカの位置に応じて、操作者の頭部の位置及び角度を取得することができる。
【0197】
また、
図30に示すように、操作者が装着するHMDのカメラ44と、固定側マーカ46とに基づく方式により、操作者の頭部の位置及び角度を取得することができる。具体的には、HMDのカメラ44が固定側マーカ46を撮像し、固定側マーカ46の位置に応じて、操作者の頭部の位置及び角度を取得することができる。
【0198】
また、
図30に示すように、操作者が装着するHMDのカメラ44と周囲の固定物の特徴点検出に基づく方式により、操作者の頭部の位置及び角度を取得することができる。具体的には、HMDのカメラ44が周囲の固定物の特徴点を検出し、特徴点の位置に応じて、操作者の頭部の位置及び角度を取得することができる。
【0199】
また、
図30に示すように、例えば、操作者が装着するHMDに備えられた所定のセンサ45に基づく方式により、操作者の頭部の位置及び角度を取得することができる。例えば、センサ45は、加速度センサ、ジャイロセンサ、地磁気センサなどであり、センサ45によって得られた値に基づいて、操作者の頭部の位置及び角度が取得される。
【0200】
制御部458は、
図29に示すように、表示処理部460と、視点取得部62と、判定処理部64と、視線位置変動算出部467と、表示データ処理部466と、入力処理部68とを備えている。
【0201】
視線位置変動算出部467は、頭部位置角度検出部457によって取得された操作者の頭部の位置及び角度に基づいて、操作者の眼の位置の変動を算出する。
【0202】
表示データ処理部466は、視線位置変動算出部467によって算出された操作者の眼の位置の変動に基づいて、複数の仮想表面の表示位置を制御する。
【0203】
図31に、仮想表面の位置の制御方法を説明するための説明図を示す。例えば、
図31に示すように、操作者が頭部を移動させると、眼の位置が変動し対象物の見え方が変化する。
【0204】
従って、表示データ処理部466は、視線位置変動算出部467によって算出された操作者の眼の位置の変動に基づいて、複数の仮想表面の見え方が変化するように、複数の仮想表面の位置を制御する。そして、表示データ処理部466は、複数の仮想表面の見え方が変化した操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。
【0205】
表示処理部60は、表示データ処理部66から出力された制御信号に応じて、操作用の3次元表示画像を生成する。
【0206】
入力装置450の制御部458は、例えば
図32に示すコンピュータ480で実現することができる。コンピュータ480はCPU81、一時記憶領域としてのメモリ82、及び不揮発性の記憶部483を備える。また、コンピュータ480は、入出力I/F84と、記録媒体89に対するデータの読み込み及び書き込みを制御するread/write(R/W)部85と、インターネット等のネットワークに接続されるネットワークI/F86とを備える。CPU81、メモリ82、記憶部483、入出力I/F84、R/W部85、及びネットワークI/F86は、バス87を介して互いに接続される。
【0207】
記憶部483は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部483には、コンピュータ480を入力装置450の制御部458として機能させるための入力プログラム490が記憶される。入力プログラム490は、表示処理プロセス492と、視点取得処理プロセス93と、判定処理プロセス94と、表示データ処理プロセス495と、入力処理プロセス96と、視線位置変動算出プロセス497とを有する。
【0208】
CPU81は、入力プログラム490を記憶部83から読み出してメモリ82に展開し、入力プログラム490の各々が有するプロセスを順次実行する。
【0209】
CPU81は、表示処理プロセス492を実行することで、
図29に示す表示処理部460として動作する。また、CPU81は、視点取得処理プロセス93を実行することで、
図29に示す視点取得部62として動作する。また、CPU81は、判定処理プロセス94を実行することで、
図29に示す判定処理部64として動作する。また、CPU81は、表示データ処理プロセス495を実行することで、
図29に示す表示データ処理部466として動作する。また、CPU81は、入力処理プロセス96を実行することで、
図29に示す入力処理部68として動作する。また、CPU81は、視線位置変動算出プロセス497を実行することで、
図29に示す入力処理部68として動作する。
【0210】
このように、入力プログラム490を実行したコンピュータ80が、入力装置450として機能することになる。
【0211】
なお、入力プログラム490により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
【0212】
次に、
図33を参照して、本実施形態に係る入力装置450の作用について説明する。
【0213】
図33は、入力装置450の制御部458で実行される制御処理のフローの一例を示す。
【0214】
入力装置450の3D表示部52によって3次元表示画像が表示され、視線検出部54によって操作者の両眼の画像が逐次取得され、操作入力部56によって操作者の顔画像が逐次取得される。そして、頭部位置角度検出部457によって操作者の頭部の位置及び角度が逐次検出されているときに、
図33に示す制御処理ルーチンが実行される。
【0216】
ステップS410において、視線位置変動算出部467は、頭部位置角度検出部457によって取得された操作者の頭部の位置及び角度を取得する。
【0217】
ステップS412において、視線位置変動算出部467は、上記ステップS410で取得された操作者の頭部の位置及び角度に基づいて、操作者の眼の位置の変動を算出する。
【0218】
ステップS414において、表示データ処理部466は、上記ステップS412で算出された操作者の眼の位置の変動に基づいて、複数の仮想表面の見え方が変化するように、複数の仮想表面の位置を制御する。そして、表示データ処理部466は、複数の仮想表面の見え方が変化した操作用の3次元表示画像を生成するように、表示処理部460へ制御信号を出力する。そして、表示処理部460は、表示データ処理部466から出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部460は、生成した3次元表示画像を3D表示部52に対し出力する。3D表示部52は、表示処理部460によって生成された3次元表示画像を操作者に対し表示する。
【0219】
以上説明したように、第4実施形態に係る入力装置において、操作者の頭部の位置及び角度に基づいて、操作者の眼の位置の変動を算出する。これにより、複数の仮想表面の見え方が変化し、操作者は入力操作をスムーズに行うことができる。
【0220】
次に、実施の形態の変形例を説明する。
【0221】
第2実施形態では、操作者の視点の位置に基づいて、当該視点の位置の奥行き方向の位置x0で対応する仮想表面に応じて、仮想表面の透過の度合いを制御する場合を例に説明したがこれに限定されるものではない。例えば、操作者の視点の位置(y0,z0)に対応するタブ領域を有する仮想表面に応じて、仮想表面の透過の度合いを制御してもよい。また、当該視点の位置の奥行き方向の位置x0で対応する仮想表面に応じて、仮想表面の透過の度合いを制御すると共に、仮想表面上の視点の位置(y0,z0)に対応するタブ領域を有する仮想表面に応じて、仮想表面の透過の度合いを制御してもよい。この場合には、視点の位置の奥行き方向の位置x0で対応する仮想表面、及び視点の位置(y0,z0)に対応するタブ領域を有する仮想表面の何れか一方を優先して、仮想表面の透過の度合いを制御するようにすればよい。
【0222】
また、上記実施形態では、操作者からの文字の入力を受け付ける入力装置を例に説明したが、これに限定されるものではない。例えば、複雑な操作入力に関する入力装置(例えば、航空機の操作系、管制塔に備えられた機器の操作等)であってもよい。
【0223】
また、上記実施形態では、操作者からの操作入力を受け付ける入力装置を例に説明したが、これに限定されるものではない。操作入力は必須ではないため、例えば、入力装置は、操作者の視点の位置に対応する仮想表面に含まれるアイコンを選択する処理のみを行ってもよい。
【0224】
また、上記実施形態では、仮想表面の数が3層〜5層である場合を例に説明したが、これに限定されるものではなく、仮想表面は何層であってもよい。
【0225】
なお、上記実施形態では、操作者の視点の位置に対応するアイコンが選択され、アイコンが含まれる仮想表面の手前の仮想表面の透過の度合い(又は鮮明度合い)が制御される場合を例に説明したが、処理の流れはこれに限定されるものではない。例えば、操作者の視点の位置に対応する仮想表面が特定され、当該仮想表面の透過の度合いが制御され、その後の視点の移動に応じて、特定された仮想表面上のアイコンの選択されるように制御してもよい。
【0226】
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
入力操作用のアイコンを含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させる制御部と、
前記操作者の視点の位置を取得する視点取得部と、
前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する仮想表面に含まれる前記アイコンを選択する選択部と、
を備えた入力装置。
【0227】
(付記2)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の透過の度合いを制御する
付記1に記載の入力装置。
【0228】
(付記3)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の透過の度合いが低くなるように制御する
付記2に記載の入力装置。
【0229】
(付記4)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より手前の仮想表面の透過の度合いが高くなるように制御する
付記2又は付記3に記載の入力装置。
【0230】
(付記5)
前記仮想表面の各々は、前記仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域を有する
付記1〜付記4の何れか1項に記載の入力装置。
【0231】
(付記6)
前記操作者の意思表示に関する情報を取得する意思取得部と、
前記意思取得部によって取得された前記操作者の意思表示に関する情報に基づいて、前記操作者の操作の種別を判定する判定部とを更に含み、
前記選択部は、前記選択された前記アイコンと、前記判定部によって判定された前記操作の種別とに基づいて、前記アイコンの選択を確定するか否かを判定する
付記1〜付記5の何れか1項に記載の入力装置。
【0232】
(付記7)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の表示の鮮明度合いを制御する
付記1〜付記6の何れか1項に記載の入力装置。
【0233】
(付記8)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の表示の鮮明度合いが他の仮想表面の鮮明度合いに比べ高くなるように制御する
付記7に記載の入力装置。
【0234】
(付記9)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面とは異なる他の仮想表面の表示の鮮明度合いが低くなるように制御する
付記7又は付記8に記載の入力装置。
【0235】
(付記10)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面に対応する位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する
付記1〜付記9の何れか1項に記載の入力装置。
【0236】
(付記11)
前記操作者の頭部の位置及び角度を取得する頭部状態取得部を更に含み、
前記制御部は、前記頭部状態取得部によって検出された前記位置及び前記角度に基づいて、複数の前記仮想表面の表示位置を制御する
付記1〜付記10の何れか1項に記載の入力装置。
【0237】
(付記12)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい
付記1〜付記11の何れか1項に記載の入力装置。
【0238】
(付記13)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、隣に配置された前記アイコンとの間隔が広い
付記1〜付記12の何れか1項に記載の入力装置。
【0239】
(付記14)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記アイコンの少なくとも一部分が、前記アイコンを含む前記仮想表面とは異なる他の仮想表面に含まれる前記アイコンと重ならないように配置される
付記1〜付記13の何れか1項に記載の入力装置。
【0240】
(付記15)
前記アイコンの種類に応じて前記アイコンが複数の前記仮想表面に分類されて配置される
付記1〜付記14の何れか1項に記載の入力装置。
【0241】
(付記16)
前記アイコンの各々の形状及び色の少なくとも一方は、前記アイコンの選択によって入力される情報の種類に応じて定められている
付記1〜付記15の何れか1項に記載の入力装置。
【0242】
(付記17)
前記アイコンの各々の形状及び色の少なくとも一方は、前記仮想表面内の前記アイコンの位置に応じて定められている
付記1〜付記16に記載の入力装置。
【0243】
(付記18)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より奥の仮想表面の透過の度合いが高くなるように制御する
付記1〜付記17の何れか1項に記載の入力装置。
【0244】
(付記19)
入力操作用のアイコンを含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択する、
処理をコンピュータに実行させる入力プログラム。
【0245】
(付記20)
取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の透過の度合いを制御する処理をコンピュータに実行させる
付記19に記載の入力プログラム。
【0246】
(付記21)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の透過の度合いが低くなるように制御する処理をコンピュータに実行させる
付記20に記載の入力プログラム。
【0247】
(付記22)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より手前の仮想表面の透過の度合いが高くなるように制御する処理をコンピュータに実行させる
付記20又は付記21に記載の入力プログラム。
【0248】
(付記23)
前記仮想表面の各々は、前記仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域を有する
付記19〜付記22の何れか1項に記載の入力プログラム。
【0249】
(付記24)
前記操作者の意思表示に関する情報を取得し、
前記取得部によって取得された前記操作者の意思表示に関する情報に基づいて、前記操作者の操作の種別を判定し、
選択された前記アイコンと、判定された前記操作の種別とに基づいて、前記アイコンの選択を確定するか否かを判定する処理をコンピュータに実行させる
付記19〜付記23の何れか1項に記載の入力プログラム。
【0250】
(付記25)
取得された前記操作者の視点の位置に基づいて、前記仮想表面の表示の鮮明度合いを制御する処理をコンピュータに実行させる
付記19〜付記24の何れか1項に記載の入力プログラム。
【0251】
(付記26)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の各々の表示の鮮明度合いが他の仮想表面の鮮明度合いに比べ高くなるように制御する処理をコンピュータに実行させる
付記19〜付記25の何れか1項に記載の入力プログラム。
【0252】
(付記27)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面とは異なる他の仮想表面の表示の鮮明度合いが低くなるように制御する処理をコンピュータに実行させる
付記26に記載の入力プログラム。
【0253】
(付記28)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面に対応する位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する処理をコンピュータに実行させる
付記26又は付記27に記載の入力プログラム。
【0254】
(付記29)
前記操作者の頭部の位置及び角度を取得する頭部状態取得部によって検出された前記位置及び前記角度に基づいて、複数の前記仮想表面の表示位置を制御する処理をコンピュータに実行させる
付記19〜付記28の何れか1項に記載の入力プログラム。
【0255】
(付記30)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい
付記19〜付記29の何れか1項に記載の入力プログラム。
【0256】
(付記31)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、隣に配置された前記アイコンとの間隔が広い
付記19〜付記30の何れか1項に記載の入力プログラム。
【0257】
(付記32)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記アイコンの少なくとも一部分が、前記アイコンを含む前記仮想表面とは異なる他の仮想表面に含まれる前記アイコンと重ならないように配置される
付記19〜付記31の何れか1項に記載の入力プログラム。
【0258】
(付記33)
前記アイコンの種類に応じて前記アイコンが複数の前記仮想表面に分類されて配置される
付記19〜付記32の何れか1項に記載の入力プログラム。
【0259】
(付記34)
前記アイコンの各々の形状及び色の少なくとも一方は、前記アイコンの選択によって入力される情報の種類に応じて定められている
付記19〜付記33の何れか1項に記載の入力プログラム。
【0260】
(付記35)
前記アイコンの各々の形状及び色の少なくとも一方は、前記仮想表面内の前記アイコンの位置に応じて定められている
付記19〜付記34の何れか1項に記載の入力プログラム。
【0261】
(付記36)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より奥の仮想表面の透過の度合いが高くなるように制御する処理をコンピュータに実行させる
付記19〜付記35の何れか1項に記載の入力プログラム。
【0262】
(付記37)
入力操作用のアイコンを含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択する、
処理をコンピュータに実行させる入力方法。
【0263】
(付記38)
取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の透過の度合いを制御する処理をコンピュータに実行させる
付記37に記載の入力方法。
【0264】
(付記39)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の透過の度合いが低くなるように制御する処理をコンピュータに実行させる
付記38に記載の入力方法。
【0265】
(付記40)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より手前の仮想表面の透過の度合いが高くなるように制御する処理をコンピュータに実行させる
付記38又は付記39に記載の入力方法。
【0266】
(付記41)
前記仮想表面の各々は、前記仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域を有する
付記37〜付記40の何れか1項に記載の入力方法。
【0267】
(付記42)
前記操作者の意思表示に関する情報を取得し、
前記取得部によって取得された前記操作者の意思表示に関する情報に基づいて、前記操作者の操作の種別を判定し、
選択された前記アイコンと、判定された前記操作の種別とに基づいて、前記アイコンの選択を確定するか否かを判定する処理をコンピュータに実行させる
付記37〜付記41の何れか1項に記載の入力方法。
【0268】
(付記43)
取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の表示の鮮明度合いを制御する処理をコンピュータに実行させる
付記37〜付記42の何れか1項に記載の入力方法。
【0269】
(付記44)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の表示の鮮明度合いが他の仮想表面の鮮明度合いに比べ高くなるように制御する処理をコンピュータに実行させる
付記43に記載の入力方法。
【0270】
(付記45)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面とは異なる他の仮想表面の表示の鮮明度合いが低くなるように制御する処理をコンピュータに実行させる
付記43又は付記44に記載の入力方法。
【0271】
(付記46)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面に対応する位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する処理をコンピュータに実行させる
付記37〜付記45の何れか1項に記載の入力方法。
【0272】
(付記47)
前記操作者の頭部の位置及び角度を取得する頭部状態取得部によって検出された前記位置及び前記角度に基づいて、複数の前記仮想表面の表示位置を制御する処理をコンピュータに実行させる
付記37〜付記46の何れか1項に記載の入力方法。
【0273】
(付記48)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい
付記37〜付記47の何れか1項に記載の入力方法。
【0274】
(付記49)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、隣に配置された前記アイコンとの間隔が広い
付記37〜付記48の何れか1項に記載の入力方法。
【0275】
(付記50)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記アイコンの少なくとも一部分が、前記アイコンを含む前記仮想表面とは異なる他の仮想表面に含まれる前記アイコンと重ならないように配置される
付記37〜付記49の何れか1項に記載の入力方法。
【0276】
(付記51)
前記アイコンの種類に応じて前記アイコンが複数の前記仮想表面に分類されて配置される
付記37〜付記50の何れか1項に記載の入力方法。
【0277】
(付記52)
前記アイコンの各々の形状及び色の少なくとも一方は、前記アイコンの選択によって入力される情報の種類に応じて定められている
付記37〜付記51の何れか1項に記載の入力方法。
【0278】
(付記53)
前記アイコンの各々の形状及び色の少なくとも一方は、前記仮想表面内の前記アイコンの位置に応じて定められている
付記37〜付記52の何れか1項に記載の入力方法。
【0279】
(付記54)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より奥の仮想表面の透過の度合いが高くなるように制御する処理をコンピュータに実行させる
付記37〜付記53の何れか1項に記載の入力方法。
【0280】
(付記55)
入力操作用のアイコンを含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択する、
処理をコンピュータに実行させる入力プログラムを記憶した記憶媒体。