(58)【調査した分野】(Int.Cl.,DB名)
前記第1のセンサーは、正のz軸空間内の入力を感知するためにのみ有効であり、第2のセンサーは負のz軸空間内の入力を感知するためにのみ有効である、請求項1に記載の方法。
第3の入力を感知する第3のセンサーを利用するステップをさらに備え、前記第3の入力を感知することにより、第1のセンサーまたは第2のセンサーにより受信された入力が意図された入力であるとする推論が可能になる、請求項1に記載の方法。
ユーザーインターフェースを表示するためのディスプレイをさらに備え、前記ユーザーインターフェースが、前記第1のセンサーおよび前記第2のセンサーによる前記非デバイス接触ユーザージェスチャーの感知に応答して更新可能である、請求項10に記載のデバイス。
コンピューター実行可能命令を具体化した1つまたは複数のコンピューター記憶媒体であって、前記コンピューター実行可能命令が、プロセッサーおよびメモリーを有するコンピューティングシステムによって実行されると、前記コンピューティングシステムに方法を実行させ、前記方法が、
非デバイス接触ジェスチャーである第1の入力を検出するために、第1の光学ベースのセンサーを利用して、デバイスの正のz軸空間内のz軸における第1の運動を検出するステップであって、前記正のz軸空間は、前記デバイスの第1表面のx軸及びy軸により定義される第1平面に垂直に延びており、前記第1表面はデバイスのディスプレイからなる、ステップと、
非デバイス接触ジェスチャーである第2の入力を検出するために、第2の光学ベースのセンサーを利用して、前記デバイスの負のz軸空間内のz軸における第2の運動を検出するステップであって、前記負のz軸空間は、第1表面と反対のデバイスの第2表面のx軸及びy軸により定義される第2の平面に垂直なz軸に延びており、前記非デバイス接触ユーザージェスチャーは、負のz軸空間における第1の指と正のz軸空間における第2の指との間の距離がz軸に沿って減少されている、挟むようなジェスチャーである、ステップと、
前記正のz軸空間内の前記第1の入力と、前記負のz軸空間内の前記第2の入力との相対位置を決定することに応答して、デバイスのディスプレイ上に提示されるユーザーインターフェースを更新するステップと
を含み、前記第1の入力および前記第2の入力が、前記x軸と実質的に平行な軸及びy軸と実質的に平行な軸の少なくとも1つの軸のほぼ周りの回転ジェスチャーから生じる、コンピューター記憶媒体。
【発明を実施するための形態】
【0006】
[0013]本発明の実施形態の主題は、法的要件を満たすために、本明細書に具体的に説明される。しかしながら、説明自体は、本発明の範囲を限定することを意図されない。むしろ、本発明者らは、特許請求された主題は、他の現在のまたは将来の技術と組み合わせた、本文書に記載されたものと同様の工程または工程の組み合わせを含む、他の方法で実施されてもよいと考えた。
【0007】
[0014]本発明の実施形態は、デバイスを取り囲むが常には接触しない領域を含むように、物理的デバイスを超えた空間内のユーザージェスチャーを検出するためのシステム、方法、およびコンピューター記憶媒体に関する。例えば、態様は、ハンドヘルドデバイスの前方のユーザージェスチャーを第1のセンサーで検出する工程と、また、ハンドヘルドデバイスの背後のユーザージェスチャーを第2のセンサーで検出する工程とを含むことができる。非デバイス接触ジェスチャーであってよいジェスチャーの検出の結果として、ユーザーインターフェースは、ジェスチャーに基づいて、入力を反映するように更新されてよい。
【0008】
[0015]したがって、一態様では、本発明は、プロセッサーおよびメモリーを利用するコンピューティング環境で、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するための方法を提供する。方法は、第1の入力を検出するために、デバイスの正のz軸空間で感知するデバイスの第1のセンサーを利用する工程を含む。第1の入力は、非デバイス接触ジェスチャーである。方法は、また、第2の入力を検出するために、デバイスの負のz軸空間で感知するデバイスの第2のセンサーを利用する工程を含む。さらに、方法は、正のz軸空間での第1のセンサーによる第1の入力の検出、および、負のz軸空間での第2のセンサーによる第2の入力の検出に応答して、ディスプレイ上に提示されたユーザーインターフェースを更新する工程を含む。
【0009】
[0016]別の態様では、本発明は、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するためのデバイスを提供する。デバイスは、前側および反対の後側を有するデバイス本体で構成される。前側は、正のz軸空間の方に向けられ、後側は、負のz軸空間の方に向けられる。デバイスは、デバイス本体に結合された、デバイスの正のz軸空間内の非デバイス接触ユーザージェスチャーを検出するための第1のセンサーからも構成される。センサーの結合は、デバイスの1つまたは複数の部分(例えば、ディスプレイ)へのセンサーの組み込みを含むことができる。デバイスはさらに、デバイス本体に結合された、デバイスの負のz軸空間内の非デバイス接触ユーザージェスチャーを検出するための第2のセンサーで構成される。加えて、デバイスは、デバイス本体に結合された、デバイスの正のz軸空間内の非デバイス接触ユーザージェスチャーを感知する第1のセンサーからの第1の入力を処理し、デバイスの負のz軸空間内の非デバイス接触ユーザージェスチャーを感知する第2のセンサーからの第2の入力を処理するためのプロセッサーで構成される。プロセッサーは、デバイスの回路ボードまたは他の構成要素へ組み込まれることによって、プロセッサーが、デバイス本体に効果的に結合されるように、本体に間接的に結合されてよい。
【0010】
[0017]本発明の第3の態様は、コンピューター実行可能命令が埋め込まれたコンピューター記憶媒体を提供し、コンピューター実行可能命令は、プロセッサーおよびメモリーを有するコンピューティングシステムによって実行されると、コンピューティングシステムに方法を実行させる。方法は、第1の光学系センサーを利用して、デバイスの正のz軸空間内の非デバイス接触ユーザージェスチャーを検出する工程で構成される。方法は、さらに、第2の光学系センサーを利用して、デバイスの負のz軸空間内の非デバイス接触ユーザージェスチャーを検出する工程で構成される。方法は、加えて、正のz軸空間内で第1のセンサーにより検出された非デバイス接触ユーザージェスチャー、および負のz軸空間内で第2のセンサーにより検出された非デバイス接触ユーザージェスチャーが第1の入力であることを、プロセッサーにより判定する工程で構成される。方法は、また、正のz軸空間内および負のz軸空間内の非デバイス接触ジェスチャーが、第1の入力であるということの判定に応答して、ディスプレイ上のユーザーインターフェースを調整する工程で構成される。
【0011】
[0018]したがって、本発明の態様は、デバイスを取り囲む空間の体積内のユーザーの相互作用(例えば、非接触ジェスチャー)を検出することを考えた。例えば、デバイスから外側に延びる球状領域は、ユーザーがデバイスと相互作用することができるが、依然としてデバイスを越えて相互作用する空間を定義することができる。以下で論じられるように、デバイスを取り囲む空間は、デバイス内/上の点のような点から正と負の両方向に延びるように、少なくとも部分的に定義されてよい。このように、本明細書で提供されるいくつかの態様は、正の空間および負の空間(例えば、正のz軸および負のz軸)内の相互作用を感知することに言及し、これは、デバイスを取り囲む空間の体積内のデバイスとの相互作用を検出する概念を包含する。
【0012】
[0019]本発明の実施形態の概要を簡単に説明し、本明細書の実施形態を実施するのに適した例示的な動作環境が、以下で説明される。
[0020]全体的に図面を、具体的には最初に
図1を参照し、本発明の実施形態を実施するのに適した例示的な動作環境が、コンピューティングデバイス100として全体的に示され、指定される。コンピューティングデバイス100は、適切なコンピューティング環境の一例に過ぎず、本発明の使用または機能の範囲についていかなる限定を示唆することも意図されない。また、コンピューティングデバイス100は、図示されたモジュール/構成要素のいずれかまたは組み合わせに関するいかなる依存性または要件を有すると解釈されるべきではない。
【0013】
[0021]実施形態は、パーソナルデーターアシスタントまたは他のハンドヘルドデバイスのようなコンピューターまたは他のマシンによって実行される、プログラムモジュールのようなコンピューター実行可能命令を含む、コンピューターコードまたは機械使用可能な命令の一般的な文脈で説明され得る。一般に、ルーチン、プログラム、オブジェクト、モジュール、データー構造、などを含むプログラムモジュールは、特定のタスクを実行する、または、特定の抽象データー型を実装するコードを指す。実施形態は、ハンドヘルドデバイス、民生用電子機器、汎用コンピューター、特殊コンピューティングデバイス、などを含む、様々なシステム構成で実施されてよい。実施形態は、通信ネットワークを介してリンクされるリモート処理デバイスによってタスクが実行される、分散コンピューティング環境で実施されてもよい。
【0014】
[0022]引き続き
図1を参照し、コンピューティングデバイス100は、以下のデバイス、すなわち、メモリー112、1つまたは複数のプロセッサー114、1つまたは複数のプレゼンテーションモジュール116、入力/出力(I/O)ポート118、I/Oモジュール120、および説明的な電源122を、直接または間接的に結合するバス110を含む。バス110は、(アドレスバス、データーバス、またはこれらの組み合わせのような)1つまたは複数のバスであってよいものを表す。
図1の様々なブロックは、明瞭にする目的のため、線で示されるが、様々なモジュールの輪郭を描くことは、それほど明確ではなく、比喩的に、線は、より正確には、グレーでファジーである。例えば、表示装置のようなプレゼンテーションモジュールを、I/Oモジュールであるように考えることができる。また、プロセッサーは、メモリーを有する。本発明者らは、それが技術の性質であることを認識し、
図1の図が、1つまたは複数の実施形態に関連して使用され得る例示的なコンピューティングデバイスの単なる例示であると、反復して述べる。すべては、
図1の範囲内で、「コンピューター」または「コンピューティングデバイス」への参照と考えられるため、「ワークステーション」、「サーバー」、「ラップトップ」、「ハンドヘルドデバイス」、などのようなカテゴリ間で区別は行われない。
【0015】
[0023]コンピューティングデバイス100は、典型的に、様々なコンピューター可読媒体を含む。例として、限定ではなく、コンピューター可読媒体は、ランダムアクセスメモリー(RAM)、読み取り専用メモリー(ROM)、電子的に消去可能な読み取り専用メモリー(EEPROM)、フラッシュメモリーもしくは他のメモリー技術、CDROM、デジタル多用途ディスク(DVD)もしくは他の光もしくはホログラフィック媒体、磁気カセット、磁気テープ、磁気ディスクストレージもしくは他の磁気記憶装置、または、所望の情報を符号化するために使用可能で、コンピューティングデバイス100によってアクセス可能な、任意の他の媒体を含むことができる。
【0016】
[0024]メモリー112は、揮発性および/または不揮発性メモリーの形態の、非一時的コンピューター記憶媒体を含む。メモリーは、リムーバブル、非リムーバブル、またはこれらの組み合わせであってよい。例示的なハードウェアデバイスは、固体メモリー、ハードドライブ、光ディスクドライブ、などを含む。コンピューティングデバイス100は、メモリー112またはI/Oモジュール120のような様々な実体からデーターを読み取る1つまたは複数のプロセッサーを含む。プレゼンテーションモジュール(複数可)116は、ユーザーまたは他のデバイスにデーター表示を提示する。例示的なプレゼンテーションモジュールは、表示装置、スピーカ、印刷モジュール、振動モジュール、などを含む。I/Oポート118は、コンピューティングデバイス100が、そのいくつかが組み込まれてよいI/Oモジュール120を含む他のデバイスに論理的に結合されることを可能にする。例示的なモジュールは、マイクロホン、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナー、プリンター、無線デバイス、などを含む。
【0017】
[0025]
図2は、本発明の実施形態による、正のz軸空間と負のz軸空間の両方でデバイスの周囲の入力を感知することができる例示的なデバイス200を示す。デバイス200は、例示的な実施形態では、携帯電話、コントローラー、ゲームデバイス、および/または他の電子デバイスのようなハンドヘルドデバイスである。例えば、デバイス200は、少なくとも部分的に、無線通信ネットワーク(例えば、Wi−Fi、CDMA、GSM(登録商標)、PCS、およびUMTS)を利用して通信することができるモバイル通信デバイスであると考えられる。加えて、デバイス200は、例示的な実施形態では、1つまたは複数の追加のコンピューティングデバイス(例えば、ビデオゲームコンソール、パーソナルコンピューター、セットトップボックス、別のハンドヘルドデバイス)のための入力デバイスであると考えられる。したがって、デバイス200は、正のz軸空間内と負のz軸空間内の両方での検出可能な入力を利用することができる(
図1に関連して上述したような)任意のコンピューティングデバイスであってよい。
【0018】
[0026]
図2のデバイス200は、デバイス200に対する空間の体積を定義するために使用可能な例示的なデカルト軸を示す。具体的には、x軸208、y軸210、およびz軸202が、デバイス200に対して示される。しかしながら、本明細書で説明されるように、軸(例えば、z軸)は、デバイスの周囲の任意の空間でジェスチャーの検出を可能にするために、デバイスに対して任意の場所および任意の向きで配置されてよいと考えられる。したがって、ジェスチャー入力は、任意の(および、すべての)面の360度で検出されてよく、結果として、デバイスの周囲の全方向ジェスチャー検出をもたらすと考えられる。
図2に示すようなデバイス200は、y軸210と実質的に平行な垂直側面218を有する。また、
図2に示すようなデバイス200は、x軸208と実質的に平行な水平上面216を有する。デバイス200は、また、前面212および背面214で構成される。前面212は、例示的な実施形態では、ディスプレイのようなユーザーインターフェース(「UI」)にアクセスするための面である。加えて、前面212は、(接触活性化型ディスプレイおよび/またはディスプレイとは独立した物理的ボタンとしてUIが組み込まれた)1つまたは複数のボタンで構成されてよい。さらにまた、前面212は、1つもしくは複数のオーディオ出力構成要素(例えば、スピーカ)、および/または、1つもしくは複数のオーディオ入力構成要素(例えば、マイクロホン)で構成されてよいと考えられる。
【0019】
[0027]
図2は、正のz軸204および負のz軸206を有するデバイス200を示す。正のz軸は、原点201から、デバイス200の前面212側でx軸208およびy軸210によって画定される平面に対して垂直に延びる。逆に、負のz軸は、原点201から、デバイス200の背面214上のx軸208およびy軸210によって画定される平面に対して垂直に延びる。正のz軸204方向に、x軸208およびy軸210によって画定される平面から外側に延びる空間の体積は、本明細書では、正のz軸空間と呼ばれる。同様に、負のz軸206方向に、x軸208およびy軸210によって画定される平面から外側に延びる空間の体積は、本明細書では、負のz軸空間と呼ばれる。結果として球状領域のような空間の体積は、ユーザーが(例えば、非接触ジェスチャーを使用して、および/または、接触ジェスチャーを使用して)デバイスと相互作用することができる領域を確定するように、デバイスから外向きに延びることができる。
【0020】
[0028]一般に、z軸は、デバイス200に対して任意の向きおよび任意の場所で配向されてよい。例えば、前面212から延びるとのは対照的に、正のz軸空間は、代わりに、側面218または上面216から延びることができる。以下の一貫した議論を容易にするために、
図2に示す様々な軸の全体的な向きは、維持されることになる。しかしながら、様々な軸の配向は、デバイス(例えば、デバイス200)に対する様々な場所および向きで考えられ、したがって、本発明の実施形態に適合することが理解される。結果として、z軸という用語が、本明細書で使用されるが、z軸は、デバイスの任意の軸を表すことができることが理解され、したがって、デバイスに対する特定の方向とは独立した、デバイスの周囲の任意の広げられた相互作用空間で、ジェスチャーを最終的に検出するために、デバイスの第1の側およびデバイスの第2の側でジェスチャーを検出することが考えられる。
【0021】
[0029]
図3は、本発明の実施形態によるデバイス300の正面斜視図を示す。デバイス300は、上述した
図2のデバイス200と同様であってよい。デバイス300は、上端302、左側面304、右側面306、および下端308で構成されてよい。デバイス300は、実質的に矩形の幾何学的形状で示されるが、任意の幾何学的形状が実現されてよいことが理解される。例えば、デバイス300は、改善された人間的要素、感触、市場性、などのために、1つまたは複数の有機的幾何学的形状を組み込むことができる。例えば、ゲーミングコンピューターコンソールと通信するゲームコントローラーは、デバイスの予想される意図される使用シナリオ(例えば、可搬性、保管、ユーザーの一次的接触)に少なくとも部分的に基づいて、スマートフォンと異なる幾何学的形状を有することができる。
【0022】
[0030]デバイス300は、さらに、ディスプレイ310で構成される。ディスプレイ310は、UIの1つまたは複数の要素を表示することができる。例えば、スマートフォンの例では、UIは、スマートフォンのオペレーティングシステムによって生成される1つまたは複数のグラフィカル要素を含むことができる。加えて、ディスプレイ310は、接触応答性スクリーンであることが考えられる。例えば、ディスプレイ310は、ユーザーの接触を登録するために、1つまたは複数の接触ベースの入力検出機構(または、スタイラスのような他の入力デバイス)を含むことができる。例は、容量性タッチスクリーン、抵抗性タッチスクリーン、および/または、スクリーンでユーザーが提供する入力を検出することができる同様のものを利用することを含むことができる。追加の例示的な実施形態では、ディスプレイ310は、単に、追加の機能的応答性なしに、情報の1つまたは複数の部分を提示することができる。
【0023】
[0031]本発明の例示的な実施形態では、ディスプレイ310は、デバイス300の正のz軸空間(または、負のz軸空間)内の1つまたは複数のユーザージェスチャーを少なくとも部分的に検出するために機能すると考えられる。例えば、ディスプレイ310は、様々な技術を利用して、非接触ユーザージェスチャーを検出することができる。例示的な技術は、表示面(例えば、正のz軸空間内に漂うユーザの手)に提示されるような画像を、ディスプレイの1つまたは複数のエッジに転写する制御された屈折光学入力機構を含むことができる。この概念は、例示的な実施形態では、ワシントン州レドモンドのマイクロソフトコーポレーションによって展開される「ウェッジ(Wedge(登録商標))」を利用して達成されてよい。しかしながら、追加の技術が同様に考えられる(例えば、非接触ジェスチャーに対して感度がよい容量性スクリーン)。
【0024】
[0032]デバイス300は、さらに、1つまたは複数のジェスチャーセンサーで構成される。ジェスチャーセンサーは、ユーザー入力としてジェスチャーを少なくとも部分的に検出することができる感知構成要素である。4つのジェスチャーセンサーが、
図3のデバイス300の前面に示される。しかしながら、無しを含む任意の数が実装されてよいことが理解される。例えば、ジェスチャーセンサーは、既存の構成要素(例えば、ディスプレイ310、オーディオ入力デバイスおよびオーディオ出力デバイス、デバイス300の本体)に組み込まれてよい。ジェスチャーセンサー312、314、316、および318は、デバイス300の周縁部に隣接して配置されているように示される。しかしながら、ジェスチャーセンサーは、デバイス300の任意の場所に配置されてよいことが理解される。例示的な実施形態では、正のz軸空間内のユーザージェスチャーを検出するための単一のジェスチャーセンサーが、デバイス300に組み込まれてよい。この例では、ジェスチャーセンサーは、カメラのような光学デバイスであると考えられる。例えば、モバイル通信デバイスに慣例的であるように、静止画または動画を撮影することができるカメラが、さらにユーザージェスチャーを取り込むように適合されてよい。
【0025】
[0033]加えて、ジェスチャーセンサーは、深さ情報の1つまたは複数の部分を取り込むことができると考えられる。例えば、深度カメラ(例えば、ワシントン州レドモンドのマイクロソフトコーポレーションから利用可能なキネクト(Kinect(登録商標))に関連して使用されるカメラ)が、意図された入力としてユーザージェスチャーを検出するために利用されてよい。さらにまた、ジェスチャーセンサーは、既存の感知技術(例えば、デバイスに内蔵されたカメラ)を利用することができる。例えば、カメラによって撮影され得る「画素」を、所望の空間(例えば、正の軸および/または負の軸方向にデバイスから外側に延びる半球状体積)を取り込むパターンに分散させるために、1つまたは複数の導波路が、デバイスに組み込まれてよいと考えられる。1つまたは複数の技術が、取り込まれる領域を、カメラの意図される範囲を越えて広げることができるため、所望の解像度を提供するために、画素を時間多重化することが利用されてよいと考えられる。
【0026】
[0034]したがって、ジェスチャーセンサーは、光学ベースの技術(例えば、カメラ)、容量ベースの技術、抵抗ベースの技術、温度ベースの技術、超音波ベースの技術、圧力ベースの技術、などであってよい。技術(および、同様の技術)の様々な組み合わせが、組み合わせで実装されてよい。例えば、近接感知技術(例えば、容量性)が、z軸の第1の方向のジェスチャーのために使用されてよく、第2の技術(例えば、光学的)が、z軸の第2の方向で利用されてよいと考えられる。さらに、様々な感知技術が、意図された入力としてジェスチャーを検出するために、共通のz軸空間(例えば、正、負)で利用されてよいと考えられる。
【0027】
[0035]
図4は、本発明の実施形態によるデバイス300の背面斜視図を示す。負のz軸空間が、
図4の背面斜視図の結果として示されてよい。複数のジェスチャーセンサーが、
図4に示される。例えば、ジェスチャーセンサー402、404、406、408、および410が示される。
図3に関連して上述したように、ジェスチャーセンサーの数、位置、および向きは、単に、本質的に例示であるように提供され、限定ではない。したがって、ジェスチャーセンサーは、デバイス300の負のz軸空間内のジェスチャーを感知するのに適した任意の場所でデバイス300に結合されてよいと考えられる。例えば、別のデバイスの独立したセンサー(例えば、リモートカメラ、リモートセンサー)のようなジェスチャーセンサーが、デバイス300にリモートで結合されてよい。加えて、
図3に関連して説明したように、任意の組み合わせの任意のタイプのジェスチャーセンサーが、利用されてよいと考えられる。さらに、
図3および4のジェスチャーセンサーは、カメラタイプのセンサーとして示されるが、ジェスチャーセンサーは、任意のサイズ、形状、および外観のものであってよいと考えられる。したがって、ジェスチャーセンサーは、視覚的に識別可能である別個の構成要素でさえなくてもよいが、代わりに、デバイスの1つまたは複数の構成要素(例えば、既存の構成要素、デバイス本体)に一体化されてもよい。
【0028】
[0036]ジェスチャーセンサー(複数可)の場所は、予想されるユーザーモードに依存してよい。例えば、ユーザーが、右手でデバイスの正および負のz軸空間内でジェスチャーの大部分を実行すると予想される場合、ジェスチャーセンサーは、ジェスチャーに近いデバイスのエッジの方へのジェスチャー活動を検出することに有利な場所に配置されてよい。しかしながら、デバイスのジェスチャーセンサーの可能な場所を決定する際、デバイスの向き(例えば、縦、横)も、考慮されてよい。
【0029】
[0037]ジェスチャーセンサーは、非接触ジェスチャー、接触ジェスチャーを検出することができるセンサー、および、デバイスの内部姿勢/向きを検出することができるセンサーを含むことができる。例えば、非接触ジェスチャーセンサーは、適合されたレンズを利用するカメラを含むことができる。例示的な態様では、適合されたレンズは、魚眼レンズのような、分散された角度の視野を提供することができる。
【0030】
[0038]実装され得る追加の感知技術は、少なくとも部分的に、例えば、デバイスのエッジに沿って配置されてよい近接赤外線センサーを含む(近接IR感知技術は、その全体が参照により本明細書に組み込まれる米国特許出願第11/948,802号でさらに論じられる)。実装され得る追加の感知技術は、少なくとも部分的に、以下でより詳細に論じられる光導波路または光学くさびを含む。さらに、非接触ジェスチャーを検出することができる容量性センサーが実装されてよいと考えられる。さらに、1つまたは複数の構成要素(例えば、スピーカー、マイクロホン)を使用する、人間の耳によって聞くことができない音の感知は、様々な実施形態では、同様に、近接感知を提供することができると考えられる。
【0031】
[0039]
図5は、本発明の実施形態によるデバイス500の側面形状を示す。デバイス500は、上面502、底面504、前面506、および背面508で構成される。使用中、ユーザーは、典型的に、デバイス500のディスプレイを見るために、前面506と相互作用する。前面506は、前面510と一致し、平行である前額面(frontal plane)510を画定することができる。例示的なz軸が前額面510と交差する点は、正のz軸512および負のz軸514が互いから離れる基準原点を提供する。例えば、正のz軸空間は、この例では、背面508を通過することなく、デバイス500から離れて広がる。原点、ならびに、したがって、正および負のz軸が互いから離れる点は、z軸に沿った任意の点に配置されてよいと考えられる。
【0032】
[0040]本発明の例示的な実施形態では、デバイス500は、正のz軸空間内のジェスチャーを感知する機能の第1のジェスチャーセンサーで構成される。加えて、本発明の例示的な実施形態では、デバイス500は、負のz軸空間内のジェスチャーを感知する機能の第2のジェスチャーセンサーで構成される。追加の例示的な実施形態では、第1のジェスチャーセンサーは、負のz軸空間内のジェスチャーを検出するための機能ではない。同様に、例示的な実施形態では、第2のジェスチャーセンサーは、正のz軸空間内のジェスチャーを検出するための機能ではない。言い換えれば、第1のジェスチャーセンサーおよび第2のジェスチャーセンサーは、この例示的な実施形態では、正のz軸と負のz軸の両空間でのジェスチャーを検出するために、組み合わせて使用されなければならない。
【0033】
[0041]
図6は、本発明の実施形態による、使用中の向き600でのデバイス601を示す。
図6は、第1の手608(例えば、右手)および第2の手610(例えば、左手)でデバイス601を操作するユーザーを示す。第1の手608は、デバイス601のy軸604の周りを回転して表示される。例えば、回転方向インジケーター624は、y軸604の周りで第1の手608によって行われる回転運動を示すために示される。y軸604に垂直なx軸602も、デバイス601のディスプレイ606を横切って水平に示される。
【0034】
[0042]第1の手608は、第1指612および親指614で構成される。第2の手は、第1指618および親指616で構成される。
図6の例示的な向きに示されるように、第2の手610は、第1指618を使用して第1の点622で、および、親指616を使用して第2の点620で、第1の側に沿ってデバイス601と接触している。後述するように、デバイス601は、意図されるジェスチャー、デバイス601の向き、および/または、ジェスチャーの予想されるタイプを決定するのを助けるために、接触の場所を検出するための1つまたは複数の接触センサー(または、任意のタイプのセンサー)を含むことができる。第1の手608は、デバイス601の上方に配向され、第1指612および親指614は、互いに分離され、捻るタイプのジェスチャーでy軸604の周りを回転させるために動作可能である。
【0035】
[0043]y軸604の周りの第1の手608の回転は、手の部分(例えば、第1指612、親指614)を、正のz軸空間から負のz軸空間に(または、その逆に)移行させる。例えば、第1の手608は、「蓋」の中心が、ほぼy軸に配置されるように、瓶の蓋を、締め付けるのと同様のジェスチャーを行うことができる。このジェスチャーを成し遂げるために、第1指612および親指614は、正のz軸空間および負のz軸空間内で蓋を「掴み」、物理的な蓋を掴むときに指/親指の組み合わせが進むことになる経路をまねるように、回転ジェスチャーを開始する。
【0036】
[0044]代わりに、第2の手610が、y軸604の周りでデバイス601を回転させながら、第1の手608は、実質的に静止状態に保持されてよいと考えられる。1つまたは複数のジェスチャーセンサーは、デバイス601の移動または第1の手608の移動の間の違いを認識することができないが、他の感知技術が、差別化を助けることができる。例えば、デバイス601は、回転運動の見かけを生成するために、デバイス601が移動しているかどうか、または、第1の手608が移動しているかどうかを検出することができる1つまたは複数の加速度計を組み込むことができる。加えて、ジェスチャーセンサー自体が(プロセッサーとの組み合わせで)、デバイス601または第1の手608が動く物体であるかどうかを決定することもできる。例えば、ジェスチャーセンサーが光学的である場合、ジェスチャーが検出されている間、背景の風景が実質的に一定のままである場合、第1の手608が移動していることを示すことができるという推論が行われてよい。代わりに、背景の風景が、検出された動きと実質的に同様に動いているように見える場合、デバイス601は、操作されていることを示すことができる。
【0037】
[0045]いずれかの手が、デバイス601を保持するために使用されてよく、別の手が、1つまたは複数のジェスチャーを提供するために利用されてよいと考えられる。同様に、追加のジェスチャーが、図示の例示的構成で考えられる。例えば、第1指612および親指614は、正と負の両方のz軸空間(デバイス601の前面と背面の両方)の空間を組み込む、挟むようなジェスチャー(例えば、第1指612および親指614間の距離を減少させる)を実行することができる。
【0038】
[0046]前述のように、デバイス601は、1つまたは複数の追加のセンサーを組み込むことができる。例えば、感知技術は、接触入力を検出するために利用されてよい。接触ジェスチャーは、デバイスおよび入力機構(例えば、スタイラス、指)の物理的接触を結果としてもたらすジェスチャーである。非デバイス接触ジェスチャーは、入力/ジェスチャーを受信するデバイスに物理的に接触しないものである。例えば、非デバイス接触ジェスチャーは、例えば、デバイスの表面から1mmまたはさらに離れた距離で、ユーザーによって実行されてよい。他の距離(より大きいまたはより小さい)は、非デバイス接触ジェスチャーの定義の範囲内にあると考えられる。利用され得る追加のセンサーは、加速度計、磁力計、ジャイロセンサー、全地球測位システム(例えば、GPS)、電磁センサー、などを含むことができる。
【0039】
[0047]接触入力を検出するための第3のセンサーを利用する例示的な態様に戻る。第3のセンサーは、上述した任意のタイプのセンサーであってよい。例えば、容量性タッチセンサーが、接触の場所が決定され得るように、デバイスの1つまたは複数の部分に組み込まれてよい。したがって、ユーザーが、デバイスを保持するために(または、入力を提供するために)デバイスに接触する場合、デバイスは、接触ジェスチャーが提供されたこと、および、それが提供された場所を決定することができてよい。
【0040】
[0048]例えば、1つまたは複数のセンサーが、デバイスの周囲(または側面)に沿って(例えば、
図6の近接点622および点620)、デバイスと結合されてよい。接触センサーは、次に、デバイスが、1つまたは複数のセンサーに対応するこれらの場所で接触されていることを識別することができる。したがって、ユーザーが、デバイスに対してどのように配向されるかについて、推論が行われてよい。例えば、接触が、点622と620の両方に登録される場合、同じ手の別の指が、反対側でデバイスと接触することができる場所と比較して、親指が、慣例的には側面に沿ってより低い点でデバイス601と接触することができるように、左手がデバイス601を掴んでいることの決定がなされてよい。加えて、特定のユーザーが、経時的にどのようにデバイスと相互作用するのかを学習するために、学習アルゴリズムが導入されてよいと考えられる。さらに、ユーザーがデバイスを保持/操作する特定の方法を識別するために、1つまたは複数の追加のセンサー(例えば、加速度計、深度カメラ、カメラ)が、単独または組み合わせて利用されてもよい。
【0041】
[0049]したがって、ジェスチャーセンサーが、1つまたは複数の接触センサー(および、内部姿勢/配向センサーのような、デバイスの1つまたは複数の追加のセンサー)が組み合わされる場合、デバイスは、例示的な実施形態では、検出される非デバイス接触ジェスチャーが、意図される入力である場合を推論することができる。例えば、接触センサーは、ジェスチャーセンサーによって検出されるジェスチャーが、意図される入力であり、単に検出されたノイズではないという推論を活性化するような、モード選択機構であってよい。同様に、デバイスは、例示的な実施形態では、ジェスチャーセンサー(例えば、非デバイス接触ジェスチャーを検出するように機能するセンサー)および/またはデバイスの追加のセンサーによって感知される情報に基づいて、接触入力が、意図された入力である場合を推論する機能のものである。実際には、デバイスは、入力/ジェスチャーの意図について決定を行う場合、1つまたは複数のプロセッサーを利用する。
【0042】
[0050]
図7は、本発明の実施形態による、使用中の向き700でのデバイス701を示す。
図7は、第1の手708(例えば、右手)および第2の手710(例えば、左手)でデバイス701を操作するユーザーを示す。第1の手708は、デバイス701のx軸702の周りを回転して示される。例えば、回転方向インジケーター724は、x軸702の周りで第1の手708によって行われる回転運動を示すために示される。x軸702に垂直なy軸704も、デバイス701のディスプレイ706を横切って垂直に示される。
【0043】
[0051]第1の手708は、x軸702の周りの回転の非デバイス接触ジェスチャーを実行する過程にある親指714および指712で構成される。第1の手708(および、取り付けられた親指714および指712)の回転は、正のz軸空間(例えば、デバイスの前面側)と負のz軸空間(例えば、デバイスの背面側)の両方を横切る。したがって、デバイスの前面の慣例的な相互作用空間、ならびに、デバイスの背後の空間の両方を横切る3次元ジェスチャーが取り込まれることが可能であり、これは、以前には利用できない方法で、ユーザーがデバイスと相互作用する能力を提供する。
【0044】
[0052]第2の手710は、この例では、親指716が、点720でデバイス701と接触しているように、デバイス701と接触している。加えて、指718は、点722でデバイス701と接触している。例示的な態様では、デバイス701は、点720での接触を検出するために機能するセンサー、および、点718での接触を検出するために機能するセンサーで構成される。前述したように、これらの点での接触の検出は、第2の手710が、デバイス701を保持しており、第1の手708が、1つまたは複数の非デバイス接触ジェスチャーを提供するために動作可能であることを推論するために使用可能であってよい。したがって、デバイス701は、一般的に手708によるもののような、検出されたジェスチャーが、デバイス701の1つまたは複数の態様(例えば、ディスプレイ706に提示されるUI)を操作するための意図された入力であることを推論することができる。
【0045】
[0053]デバイス701、第1の手708、第2の手710、および/または他の部材(例えば、スタイラス、ポインター)の追加の向きが考慮される。さらに、追加のセンサー、センサーの場所、感知技術、および上記の組み合わせが、本発明の範囲内で考慮される。
【0046】
[0054]上記で論じたように、本発明の態様は、向き、ジェスチャー、ならびに/または、デバイスおよび/もしくはユーザーの意図を識別するために、非接触センサー(例えば、深度カメラ、可視光カメラ、IRカメラ、容量、超音波、など)、接触センサー、および/または、デバイス姿勢/配向センサー(例えば、加速度計、磁力計、ジャイロ、GPS、電磁センサー、など)を、任意の組み合わせで使用することを考慮する。例えば、接触センサー、非接触センサー、および、内部姿勢/配向センサーは、ユーザーのどの手がデバイスを保持しているか、デバイスが移動しているかどうか、ユーザーがジェスチャーを提供しているかどうか、などを識別することができる。
【0047】
[0055]
図8は、本発明の実施形態による、使用中の向き800でのデバイス801を示す。
図8は、第1の手810(例えば、右手)および第2の手812(例えば、左手)でデバイス801を操作するユーザーを示す。さらに、x軸は、デバイス801に沿って水平に横切っているように示される。z軸は、x軸802に対して垂直に垂直方向に延びるように示される。一般に、
図8に示されるユーザーは、正のz軸空間806と負のz軸空間808の両方で様々なジェスチャーを提供している。様々なジェスチャーは、正および負のz軸空間内で移動する第1の手810および第2の手812の1つまたは複数の部分を含む。しかしながら、1つの非デバイス接触ジェスチャーのみが、正のz軸空間および負のz軸空間の各々で1つの手の1つの部分によって実行されると考えられる。しかし、本発明の実施形態は、デバイス801に対する様々な場所で生じる様々なジェスチャーを考える。
【0048】
[0056]第1の手810は、親指814が、正のz軸空間内に配置され、指816が、負のz軸空間内に配置されるように配置される。同様に、第2の手812の親指820は、正のz軸空間806内に配置され、第2の手812の指822は、デバイス801の負のz軸空間808内に配置される。さらに、この例では、第1の手のひら部分818が、場所826でデバイス801と接触している。第2の手のひら部分824も、デバイス801と接触しているが、第2の手のひら部分824は、デバイス801上の場所828でデバイス801と接触している。この例では、親指814および820、ならびに指816および822によるジェスチャーは、デバイス801が、この例では、826および828に近い位置で接触を検出する場合、意図された入力として推測されてよい。場所826および828は、本質的に例示的であり、1つまたは複数の非デバイス接触ジェスチャーが意図されたジェスチャーであるという推論を提供するために、追加の接触領域が使用されてよい。
【0049】
[0057]
図8に示される例示的な使用中の向きを続けて、ユーザーは、正のz軸空間806と負のz軸空間808の一方または両方での非デバイス接触ジェスチャーで、1つまたは複数の手の1つまたは複数の部分を操作することができる。例えば、親指814および指816は、共通の時間に、共通の方向に移動することができると考えられる。逆に、親指814および指816は、共通の時間中に、異なる方向に移動することができると考えられる。例えば、親指814は、デバイス801の方に(すなわち、下向きに)移動することができ、指816は、同時に、デバイス801の方でもある反対方向に(すなわち、上向きに)移動すると考えられる。別の例は、親指814が、デバイス801のディスプレイ表面803によって画定される平面と実質的に平行な平面内で移動する間、z軸804と実質的に平行な方向に移動する指816を含むことができる。別の例は、仮想物体の一部が、負のz軸空間内に知覚され、仮想物体の別の部分が、正のz軸空間内に知覚されるように、x、y、および/またはz軸方向に仮想物体を移動させる意図で、仮想物体を親指814および指816間に挟むことを含む。手の任意の部分は、正および/または負のz軸空間の任意の部分内で、任意の時間に、任意の方向に移動することができると考えられる。
【0050】
[0058]第1の手810と同様に、第2の手812は、任意の組み合わせで、任意の時間に、正および/または負のz軸空間の任意の部分を操作することができる。さらに、第1の手810および第2の手812は、調和して作業すると考えられる。例えば、負のz軸空間と正のz軸空間の両方の一部であるとしてユーザーによって知覚される仮想物体が、第1の手810および/または第2の手812の部分によって、摘まれ、引き伸ばされ、圧縮され、掴まれ、および別な方法で操作されてよい。
【0051】
[0059]例示的な実施形態では、ディスプレイ803は、3次元UIとしてユーザーによって知覚されるUIを提供する機能のものであると考えられる。例えば、ディスプレイは、ディスプレイ803およびユーザーの目(複数可)間に配置される1つまたは複数のレンズと組み合わされてよい。ディスプレイおよびレンズの組み合わせは、当該技術分野で既知の3次元パースペクティブを提供することができる。3次元視覚的体験を提供するための他の技術(例えば、ホログラム、裸眼3次元ディスプレイ、3次元視野のための適合された視覚的出力を有するウェッジ)が考えられる。
【0052】
[0060]前述のように、正のz軸空間806内で感知する少なくとも第1のジェスチャーセンサー、および、負のz軸空間808内で感知する少なくとも第2のジェスチャーセンサーと組み合わせて、追加のセンサーが使用されてよい。例えば、1つまたは複数の場所(例えば、場所826、場所828、およびディスプレイ803)での接触を検出するために、デバイス801に結合された1つまたは複数の接触センサー。非デバイス接触ジェスチャーを検出するため、および、検出されたジェスチャーの意図を決定する際に支援するために使用されてよい追加のセンサーは、ビデオカメラ、スチルカメラ、加速度計、などを含むことができる。
【0053】
[0061]さらに、
図8は、第1の手810および第2の手812間に縦方向の向きに配置されたデバイス801を示すが、デバイス801は、任意の代わりの向き(例えば、横方向)であってよいと考えられる。
【0054】
[0062]
図9は、本発明の実施形態による、使用中の側面形状の向き900でのデバイス901を示す。
図9は、第1の手910(例えば、右手)および第2の手912(例えば、左手)でデバイス901を操作するユーザーを示す。
図9は、z軸904に対して垂直なx軸902も示す。z軸904は、示された向きでデバイス901から上方に離れてx軸から延びる正のz軸空間906を画定する。同様に、z軸904は、示された向きでデバイス901から下方に離れてx軸から延びる負のz軸空間908を画定するために利用可能である。
【0055】
[0063]第2の手912は、デバイス901と接触するように示され、第1の手910は、正のz軸空間906と負のz軸空間908の両方で1つまたは複数の非デバイス接触ジェスチャーを提供するように示される。再び、上述したように、デバイス901は、正のz軸空間906内の非デバイス接触ジェスチャーを感知する第1のセンサー、負のz軸空間908内の非デバイス接触ジェスチャーを感知する第2のセンサー、場所920でデバイス901と接触する指922を感知する第3のセンサーで構成されてよい。少なくとも、場所920(および、併せて追加の場所が考えられる)でデバイス901と接触する指922を感知することに基づいて、ユーザーがデバイス901をどのように操作(例えば、相互作用、保持)しているかについての推論が行われてよい。デバイス901がどのように操作されているかについての決定に基づいて、第1のセンサーおよび/または第2のセンサーによって検出されたジェスチャーが、入力として使用されるように意図されたジェスチャーであるかどうかについての推論が行われてよい。
【0056】
[0064]親指914および指916の様々な運動が考えられる。例えば、上述したように、それらは、互いに協調して、または、協調せずに移動することができる。同様に、手の第2の部分が、UIの要素を操作しながら、手の第1の部分(例えば、親指、指)が、特定のジェスチャー、場所、またはジェスチャーの欠如に基づいて、モードセレクターとして機能することができると考えられる。
【0057】
[0065]
図10は、本発明の実施形態による、使用中の向き1000でのデバイス1001を示す。
図10は、ディスプレイ1002を覆う第1の手1004(例えば、右手)、および、デバイス1001の背面に配置された第2の手1006(例えば、左手)でデバイス1001を操作するユーザーを示す。x軸1010、および、直交するy軸1008も示される。正のz軸空間は、第1の手1004の手のひら領域に向かってデバイス1001から外向きに延びる。負のz軸空間は、第2の手1006の手のひら領域に向かってデバイス1001から後向きに延びる。
【0058】
[0066]
図10の向きは、デバイス1001の周囲を、接触することなく、掴んでいる第1の手1004を示す例示的な状況である。例えば、デバイス1001の正のz軸空間内の非デバイス接触ジェスチャーを感知する第1のセンサーは、第1の手1004およびデバイス1001間のz軸距離を閉じる第1の手1004を取り込むことができる。結果として、デバイス1001は、第1の手1004の1つまたは複数の部分が、負のz軸空間を通過することを予想することができる。したがって、負のz軸空間内のジェスチャーを検出するために機能する第2の非デバイス接触センサーからの入力が、意図された入力として推測されてよい。さらに、正のz軸空間で検出された入力と、負のz軸空間で検出された入力の両方を利用することが、正または負の軸方向の一方からの入力のみを利用することに比較して、低い誤りの正の入力、および、低い誤りの負の入力を提供するために、組み合わせて用いられてよい。
【0059】
[0067]
図11は、本発明の実施形態による、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するための方法1100を示すブロック図である。ブロック1102では、第1のセンサーが、正のz軸空間内の非デバイス接触ジェスチャーを感知するために利用される。例えば、デバイスの正のz軸空間内のジェスチャーを検出することができる1つまたは複数のセンサーが、一体型カメラのようなデバイスに結合されると考えられる。第1のセンサーによるジェスチャーの検出は、次に、デバイスのための入力として解釈されてよい。上述したように、非デバイス接触ジェスチャーは、手のジェスチャーが、入力を提供するために、実際のデバイスと接触しないように、デバイスを超える空間の体積内で行われる手のジェスチャーを含むことができる。
【0060】
[0068]ブロック1104では、第2のセンサーが、デバイスの負のz軸空間内である第2の入力を検出するために利用される。例示的な実施形態では、第2の入力は、非デバイス接触ジェスチャーである。しかしながら、第2の入力は、第1の入力が、意図された入力であると推論するために、デバイスによって使用可能な接触ジェスチャーであってよい。さらに、第1の入力および第2の入力は、x軸またはy軸(または、正と負の両方のz軸空間での入力になる任意のライン)の周りの手の回転のような、連続的なジェスチャーから結果として生じると考えられる。第1の入力および第2の入力を生成する一様なジェスチャーの別の例は、上記で
図6〜10に関連して説明したそれらのジェスチャーを含む。
【0061】
[0069]例示的な実施形態では、第1のセンサーは、正のz軸空間内の入力を感知するためにのみ有効である。同様に、例示的な実施形態では、第2のセンサーは、負のz軸空間内の入力を感知するためにのみ有効である。例えば、カメラの開口部が、デバイスの前面と実質的に平行な平面内にあるようにデバイスに結合されたカメラは、上記構成を有するデバイスの裏側での入力を検出することができない可能性がある。したがって、負のz軸空間内で生じるジェスチャーを取り込むために、第2のセンサーが利用されてよい。
【0062】
[0070]ブロック1106では、UIは、正のz軸空間内のジェスチャー/入力を感知/検出する第1のセンサーに応じて、および、負のz軸空間内のジェスチャー/入力を感知/検出する第2のセンサーに応じて更新される。例えば、UIの更新は、第1の入力および/または第2の入力に基づいて、1つまたは複数のオブジェクトの変化を反映するために、UIによって提示される画像をリフレッシュすることを含むことができる。UIの更新は、感知すべき正のz軸空間からの第1の入力と負のz軸空間からの第2の入力の両方が完了されることを必要とすることができる。
【0063】
[0071]上述したように、方法1100の追加のステップは、第3の入力を検出することを含むことが考えられる。第3の入力は、第3のセンサーで検出されてよい。第3のセンサーは、(例えば、容量性技術ベースの)接触を感知するための機能であってよい。例えば、第3のセンサーは、デバイスを保持する第2の手を検出することができ、第1および第2のセンサーは、デバイスの正および負のz軸空間内で生じる非デバイス接触ジェスチャーを検出することができる。したがって、例示的な実施形態では、第3の入力を検出する第3のセンサーに基づいて、第1の入力および第2の入力が意図された入力であることを判定するために、プロセッサーが利用される。さらにまた、第3のセンサーは、マルチタッチディスプレイのように、複数の入力を検出することができることが考えられる。したがって、第3のセンサーは、他の手による接触のような、第4の入力を検出することができる。この例では、デバイスは、デバイスが1つまたは複数の手によって保持されていることを意味する接触入力である第3の入力および第4の入力を検出することができ、第1および第2の入力は、次に、3次元ジェスチャーからの意図的な入力として推論されてよい。
【0064】
[0072]追加のステップが、方法1100に関連して実行されてよいと考えられる。加えて、(ブロックによって示されるが、
図11に示されない)1つまたは複数のステップが、任意の順序およびシーケンスで実行されてよいことが考えられる。
【0065】
[0073]
図12は、本発明の実施形態による、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するための例示的な方法1200のブロック図を示す。ブロック1202は、第1の光学ベースのセンサーを利用して、デバイスの正のz軸空間内の非デバイス接触ユーザージェスチャーを検出するステップを示す。例えば、深度カメラのようなカメラが、ディスプレイおよびユーザー間のような、デバイスの前面で生じるユーザーの手のジェスチャーを検出するために機能的であることが考えられる。
【0066】
[0074]ブロック1204では、第2の光学ベースのセンサーで、デバイスの負のz軸空間内の同じ非デバイス接触ジェスチャーを検出するためのステップが示される。例えば、正と負の両方のz軸空間で実行される同じジェスチャーは、
図6〜10に関連して上述したもの(例えば、つまむ、回転させる)のいずれかを含むことができる。例えば、ジェスチャーが、仮想物体を操作しているかのように、ユーザーの単一の手によって実行されるジェスチャーは、正のz軸空間と負のz軸空間の両方で生じる共通のジェスチャーの例である。
【0067】
[0075]ブロック1206では、第1および第2の光学ベースのセンサーで検出された非デバイス接触ジェスチャーが、デバイスへの第1の入力であることを判定するためのステップが示される。例えば、正のz軸空間内の運動と共に負のz軸空間内の運動の組み合わせは、共通の(しかし、依然として潜在的に複合的な)入力として解されてよい。入力は、デバイスのディスプレイによって、またはさらに外部のディスプレイ(例えば、テレビジョン、モニター)によって提示されるオブジェクトを操作するために意図されてよい。さらに、第1のジェスチャーおよび第2のジェスチャーの組み合わせが、意図された入力である高い可能性を有することの判定が実行されると考えられる。このような判定は、学習プロセス、第3の入力の追加、などを介して行われてよい。
【0068】
[0076]ブロック1208は、正のz軸空間および負のz軸空間内の非デバイス接触ジェスチャーが、第1の入力であることの判定に応じて、ディスプレイ上のUIを調整するためのステップを示す。例えば、デバイスは、外部ディスプレイによって表示される1つまたは複数のオブジェクトに影響を与えるために、ユーザーによって操作されるビデオゲームコンソールであってよい。第1の入力(例えば、回転、つまむ、引き伸ばすジェスチャー)に基づいて、UIのオブジェクトは、適切な変形(例えば、オブジェクトを回転させる、オブジェクトを圧縮する、オブジェクトを引き伸ばす)によって操作されてよい。追加の例示的な実施形態では、UIは、モバイル通信デバイス(例えば、携帯電話)を備えるなどのデバイス自体の一部として提供されてよいと考えられる。したがって、3次元非デバイス接触ジェスチャーでの提示されたオブジェクトの操作は、オブジェクトが、入力に応じて調整されることを可能にすることができる。
【0069】
[0077]図示された様々な構成要素の多くの異なる配置、ならびに図示されない構成要素は、本発明の要旨および範囲から逸脱することなく、可能である。本発明の実施形態は、限定的ではなく例示的であることを意図して説明されている。その範囲から逸脱しない代わりの実施形態は、当業者には明らかになるであろう。当業者は、本発明の範囲から逸脱することなく、上記の改善を実現する代わりの手段を開発することができる。
【0070】
[0078]特定の特徴および部分的組み合わせは、有用であり、他の特徴および部分的組み合わせへの参照なしに用いられてよく、特許請求の範囲内であると考えられることが理解されるであろう。様々な図面に記載されたすべてのステップが、記載された特定の順序で実行される必要はない。