【文献】
ADOBE ENCORE CS4 ユーザーガイド,日本,Adobe,2008年12月12日,pp.75,76,URL,http://help.adobe.com/archive/ja_JP/encore/cs4/encore_cs4_help.pdf
【文献】
瀧口範子,ビジネスモデルの破壊者たち,DIAMONDonline,DIAMOND,INC,2010年 5月 7日,URL,http://diamond.jp/articles/print/8054
(58)【調査した分野】(Int.Cl.,DB名)
前記発生する段階は、更に、装置のディスプレイ上で前記少なくとも1つのグラフィックユーザインターフェイスオブジェクトのバーチャル3D描写に適当なパースペクティブ変換を適用することを含み、前記変換は、前記決定された3D基準フレーム及び前記光学データに少なくとも一部分基づく、請求項1に記載のグラフィックユーザインターフェイス方法。
前記装置のタッチスクリーンインターフェイスからデータを受け取る段階を更に備え、前記タッチスクリーンインターフェイスから受け取られたデータは、ユーザが相互作用することを望むバーチャル3Dオペレーティングシステム環境における1つ以上の位置を表わす、請求項1から3のいずれかに記載のグラフィックユーザインターフェイス方法。
前記装置のディスプレイ上の位置に視覚指示子を表示する段階を更に備え、前記視覚指示子の位置は、ユーザが相互作用することを望むバーチャル3Dオペレーティングシステム環境における位置を表わす、請求項4に記載のグラフィックユーザインターフェイス方法。
視差の問題に対し前記視覚指示子が表示される前記装置のディスプレイ上の位置を修正する段階を更に備え、前記修正される位置は、前記装置の前記決定された3D基準フレームに少なくとも一部分基づく、請求項5に記載のグラフィックユーザインターフェイス方法。
ユーザの位置に対する前記装置の移動に応答して前記装置のディスプレイ上で少なくとも1つのグラフィックユーザインターフェイスオブジェクトの前記発生されたバーチャル3D描写を調整する段階を更に備えた、請求項1から6のいずれかに記載のグラフィックユーザインターフェイス方法。
前記調整する段階は、更に、前記装置のディスプレイ上で前記少なくとも1つのグラフィックユーザインターフェイスオブジェクトのバーチャル3D描写に適当なパースペクティブ変換を適用することを含み、前記変換は、前記装置の現在決定された3D基準フレーム及び前記光学データに少なくとも一部分基づく、請求項7に記載のグラフィックユーザインターフェイス方法。
前記装置の位置に対する前記装置のユーザの動きに応答して前記装置のディスプレイ上で少なくとも1つのグラフィックユーザインターフェイスオブジェクトの前記発生されたバーチャル3D描写を調整する段階を更に備えた、請求項1から8のいずれかに記載のグラフィックユーザインターフェイス方法。
前記調整する段階は、更に、前記装置のディスプレイ上で前記少なくとも1つのグラフィックユーザインターフェイスオブジェクトのバーチャル3D描写に適当なパースペクティブ変換を適用することを含み、前記変換は、前記装置の現在決定された3D基準フレーム及び前記光学データに少なくとも一部分基づく、請求項9に記載のグラフィックユーザインターフェイス方法。
前記タッチスクリーンインターフェイスから受け取られるデータは、前記ビュー表面のユーザが相互作用することを望むバーチャル3Dオペレーティングシステム環境における1つ以上の位置を表わす、請求項13に記載のグラフィックユーザインターフェイス。
前記ビュー表面上に1つ以上の視覚指示子を含み、前記1つ以上の視覚指示子は、前記ビュー表面のユーザが相互作用することを望むバーチャル3Dオペレーティングシステム環境における1つ以上の位置を表わす、請求項14に記載のグラフィックユーザインターフェイス。
前記ビュー表面上の1つ以上の視覚指示子の位置は、視差の問題に対して修正され、その修正される位置の決定は、前記ビュー表面の決定された3D基準フレームに少なくとも一部分基づく、請求項15に記載のグラフィックユーザインターフェイス。
前記ビュー表面上の1つ以上のグラフィックユーザインターフェイスオブジェクトの描写は、1つ以上のグラフィックユーザインターフェイスオブジェクトに、次の視覚効果、即ち陰影、輝き、ボケ、及びアルファマスキング、のうちの1つ以上を適用することを含む、請求項12から16のいずれかに記載のグラフィックユーザインターフェイス。
前記1つ以上の位置センサが、コンパス、加速度計、ジャイロメーター、及びグローバルポジショニングシステム(GPS)モジュールのうちの1つの以上を含むことを特徴とする請求項18に記載の装置。
前記受け取られた光学データに少なくとも一部分基づいてユーザの位置を決定するためのインストラクションは、ユーザから装置のディスプレイまでの距離を計算すること、ユーザの顔を検出すること及びユーザの環境における周囲光源の位置を特定することの1つ以上を実行するためのインストラクションを含んでいることを特徴とする請求項21に記載の装置。
前記装置が、移動電話、パーソナルデータアシスタント(PDA)、ポータブル音楽プレーヤ、テレビジョン、ゲームコンソール、ポータブルゲーム装置、並びにラップトップ、デスクトップ及びタブレットコンピュータのうちの1つ以上を含むことを特徴とする請求項18ないし22のいずれか1つの請求項に記載の装置。
【発明を実施するための形態】
【0017】
本開示は、ディスプレイを有する電子装置の移動、並びにそのような電子装置のユーザの環境における照明条件、及びそのような電子装置のユーザの動き、特に、装置ユーザの目の位置を連続的に追跡するための技術に関する。ユーザの目の位置、及び電子装置のディスプレイの連続的な3D基準フレームで、装置のディスプレイ上にオブジェクトのより現実的なバーチャル3D描写を生成して相互作用することができる。本開示は、パーソナル電子装置のディスプレイ上にオブジェクトのより現実的なバーチャル3D描写を生成するための新規な技術について述べるが、当業者であれば、ここに開示する技術は、他の環境及び用途にも適用できることが明らかであろう。ここに開示する技術は、位置センサ、接近センサ及び/又はデジタル画像センサを伴う多数の電子装置、例えば、デジタルカメラ、デジタルビデオカメラ、移動電話、パーソナルデータアシスタント(PDA)、ポータブル音楽プレーヤ、テレビジョン、ゲームコンソール、ポータブルゲーム装置、デスクトップ、ラップトップ及びタブレットコンピュータ、並びにゲームコントローラに適用することができる。ARM(登録商標)v7−AアーキテクチャーのCortex(登録商標)A8のような埋め込み型のプロセッサは、ここに開示する技術を実行するのに使用される多様性のある頑健なプログラマブルコントロール装置をなす。(CORTEX(登録商標)及びARM(登録商標)は、英国のARMリミテッドカンパニーの登録商標である。)
【0018】
明瞭化のため、本明細書では実際の具現化の全ての特徴を説明するのではない。もちろん、そのような実際の具現化の開発において(開発プロジェクトのような)、開発者特有の目標(例えば、システム及びビジネス関連制約との適合)を達成するために多数の判断をしなければならず且つそれらの目標は、具現化ごとに変化することが明らかであろう。
そのような開発努力は、複雑で且つ時間のかかるものであるが、本開示の利益を得る当業者にとって日常行うべきものであることが明らかである。更に、本開示に使用される言語は、主に、読み易さ及び説明の目的で選択されたもので、本発明の要旨を限定又は制限するために選択されたものではなく、そのような本発明の要旨を決定することは特許請求の範囲に依存する。本明細書において「1つの実施形態」又は「一実施形態」を言及することは、実施形態に関連して述べる特定の特徴、構造又は特性が本発明の少なくとも1つの実施形態に含まれることを意味し、そして「1つの実施形態」又は「一実施形態」を何回も言及することは、必ずしも全てが同じ実施形態を言及すると理解してはならない。
【0019】
図1を参照すれば、規範的な従来のパーソナル電子装置100が示されている。
図1のパーソナル電子装置100は、移動電話として描かれているが、ここに述べる技術が具現化されるのは、この形式の装置だけではない。装置100は、グラフィックオブジェクトを表示しそしてユーザからタッチ入力を受け取ることのできる容量性タッチスクリーンインターフェイスであるディスプレイ102を有するものとして描かれている。又、装置100は、前面カメラ112と、例えば、赤外線センサを含む接近センサ114とを有するものとして描かれている。前面カメラ112は、装置100のユーザを探し、以下に詳細に述べるように、ユーザの目の凝視の位置及び方向に加えて、装置100のディスプレイ102に対するユーザの距離を推定するのに使用される。接近センサ114は、この分野で知られて使用されている多数の良く知られた接近センサの1つでよく、例えば、物理的な接触なしに近傍の物体の存在を検出するのに使用される。この分野で知られているように、接近センサは、多くの場合、電磁界又は静電界、或いは電磁放射ビームを放射する。
前面カメラ112及び接近センサ114は、ユーザの周囲環境における光レベルを測定しそしてユーザの環境において光源を探すのにも使用される。以下に述べるように、そのような情報は、「実際の世界」に置かれた光源に「反応する」ように見えるグラフィックユーザインターフェイスの現実的なバーチャル3D描写を行うのに有用である。
図1において、ディスプレイ102は、多数のグラフィックユーザインターフェイスオブジェクト、例えば、アイコン104を表示するように示されている。アイコン104は、そのアイコンがユーザにより選択されたときに装置が実行できるプログラム、ファイル又は他のアプリケーションを表わす。又、ディスプレイ102には、オブジェクトスプリングボード110も示されている。従来技術では、アイコン106は、3Dオペレーティングシステム環境にあるという見掛けを与えるためにスプリングボード110の表面に着座されるものとして描かれている。アイコン104/106の3D見掛けを更に向上させるため、アイコン104/106には、輝き113及び/又は反射108のような付加的なビジュアルキューが追加される。ある実施形態では、この向上された2D表現は、ここでは、2 1/2 Dと称される。
【0020】
図2を参照すれば、1つの実施形態により、2 1/2 Dオペレーティングシステム環境モードにおいて動作するパーソナル電子装置により使用される規範的な3D UI技術が示されている。
図2において、アイコン202は、3つの異なるバーチャル照明環境208a−cで表現されている。各環境において、陰影層200は、バーチャル光源204がアイコン202により現実的な影を投げるという錯覚を生じさせるようにアイコン202の下に適当に再配置される。例えば、バーチャル照明環境208aでは、バーチャル光源204aがアイコン202aの真上に配置される。従って、陰影層200は、アイコン202aの真下にあり、即ちオフセットはない。これは、バーチャル照明環境208aにおいて陰影層200の左下角を表わす座標206aにより指示される。バーチャル照明環境208aにおける位置に比してバーチャル照明環境208b及び208cにおける陰影層200の再配置を示すために仮説座標(x、y)が座標206aに指定されている。
【0021】
バーチャル照明環境208bにおいて、バーチャル光源204bがアイコン202bの上及び左に配置されている。従って、陰影層200は、アイコン202bの下にあり、右へ若干オフセットされる。オフセット量sは、バーチャル光源とアイコンの位置及びそれらの間の距離に基づいて決定され、そしてアイコン202bに現実的な照明効果を生成する。オフセットsは、バーチャル照明環境208bにおける陰影層200の左下角を表わし且つ仮説座標(x+s、y)を有する座標206bにより指示される。
【0022】
バーチャル照明環境208cにおいて、バーチャル光源204cがアイコン202cの上及び右に配置されている。従って、陰影層200は、アイコン202cの下にあり、左へ若干オフセットされる。オフセット量sは、バーチャル光源とアイコンの位置及びそれらの間の距離に基づいて決定され、そしてアイコン202cに現実的な照明効果を生成する。オフセットsは、バーチャル照明環境208cにおける陰影層200の左下角を表わし且つ仮説座標(x−s、y)を有する座標206cにより指示される。
【0023】
ここに開示する技術を使用するパーソナル電子装置によって使用されるバーチャル照明環境におけるバーチャル光源204の位置は、例えば、装置のオペレーティングシステムによりプログラムで決定されるか、装置のユーザにより手動で選択されるか、又はユーザ環境において検出される周囲光源の位置を模擬するように装置のオペレーティングシステムにより配置される。即ち、装置のユーザの真上に明るい光源が置かれる場合には、装置のオペレーティングシステムは、バーチャル光源をバーチャル照明環境の真上に配置し、ユーザ環境における照明条件を正確に模擬する。更に、複数の光源がバーチャル照明環境において検出され及び模擬され、そしてそのような検出された光源の強度も正確に模擬される。
【0024】
2 1/2 Dオペレーティングシステム環境技術、例えば、
図2を参照して上述した技術は、アップル社のCORE ANIMATION(登録商標)フレームワークのような適当なグラフィックプログラミングフレームワークを使用することにより比較的計算上安価に且つ融通性のある仕方でレンダリングされる。(CORE ANIMATION(登録商標)は、アップル社の登録商標である。)例えば、陰影層200は、バーチャル光源が移動したという錯覚を生じさせるためにバーチャル照明環境における希望の位置に単に再配置される個別のグラフィック層の一例である。ここに記述する再配置技術の1つの効果は、例えば、ユーザの環境における装置の移動又は照明条件の変化のために、グラフィック層の再配置が必須であると装置のオペレーティングシステムが決定するたびに、グラフィック層を構成するピクセルを再レンダリングする必要がないことである。「輝きマップ(shine map)」として知られている別の形式のグラフィック層も、個別のグラフィック層として具現化され、そして異なるバーチャル照明シナリオの錯覚生じさせるためにアイコン又は他のグラフィックユーザインターフェイスオブジェクトの上に再配置される。この場合にも、この技術の1つの効果は、グラフィック層の再配置が必須であると装置のオペレーティングシステムが決定するたびに、輝きマップの下のアイコン又は他のグラフィックユーザインターフェイスオブジェクトのコンテンツを再レンダリングする必要がないことである。
【0025】
図3を参照すれば、1つの実施形態により、模擬即ちバーチャル光源304により照明されるグラフィックユーザインターフェイスオブジェクト106のバーチャル3D描写306を提示するパーソナル電子装置100が示されている。又、
図3は、バーチャル3Dオペレーティングシステム環境300の側面図も示す。
図1に示された二次元アイコン104/106は、バーチャル3Dオペレーティングシステム環境300内の同じアイコンオブジェクトのバーチャル3D表現105/107に置き換えられている。
図3に示すように、アイコンオブジェクトは、スプリングボード110に静止着座している。
図3において、軸320で示すように、X軸は、ディスプレイ102の巾に沿ってページに向かって延び、Y軸は、ディスプレイ102の長さに沿って延び、そしてZ軸は、ディスプレイ102の表面から垂直に離れるように延びる。
図1においてディスプレイ102に描かれたアイコンの付加的な3つの列は、
図3ではX軸に沿ってページに向かって延びるので見えない。又、ある実施形態では、バーチャル3Dオペレーティングシステム環境300における各々のグラフィックユーザインターフェイスオブジェクトが装置100のディスプレイ102に描かれることも理解されたい。ここでは、簡単化及び明瞭化のために、単一のグラフィックユーザインターフェイスオブジェクト、即ちアイコン107の表現のみに焦点を当てる。
【0026】
3Dグラフィック技術で知られているように、バーチャル光源304は、装置のプロセッサにより生成され、そしてバーチャル3Dオペレーティングシステム環境300において種々のスポットに「置かれ」、装置ディスプレイ102に表示されるオブジェクトに対して現実的な陰影及び輝き効果を発生することができる。
図3に示すように、光源304は、バーチャル3Dオペレーティングシステム環境300の頂部中央に置かれるが、そのような配置は、厳密に必要とされるのではない。破線318は、バーチャルグラフィックユーザインターフェイスオブジェクト107から光源304までの経路を示す。破線318の経路を使用することは、レイトレーシングの幾つかの観点を、装置ディスプレイ102にユーザインターフェイスオブジェクトの現実的な3D描写をレンダリングすることに関連して述べるときに、後で重要となる。
【0027】
装置100のユーザの目が、
図3に要素302で表されている。破線308は、ユーザの目から装置100の前面カメラ112までの経路を示す。上述したように、前面カメラ112は、破線318の長さ(即ち、ユーザの目から装置までの距離)を推定し、ユーザの顔を検出し(及び潜在的に認識し)、ユーザの瞳孔間の現在距離を測定し、又はユーザ環境における光源を探すのに使用される。更に、接近センサ114は、ユーザ環境における周囲光レベルを計測するのに使用される。更に、ユーザ環境における光源は、ユーザの目の瞳孔からの鏡面反射を測定することにより検出されてもよい。
【0028】
ベクトル310は、ディスプレイ102から垂直方向を指す従法線ベクトルを表わす。
ベクトル312は、ディスプレイ102からX軸に沿ってユーザの目302の中心の位置へと直接延びるベクトルを表わす。破線314は、ディスプレイ102に対してX軸の方向にユーザの目302の位置を示す上で助けとなるように描かれている。ベクトル310とベクトル312との間の角度316は、ユーザがおそらくディスプレイ102を見るところの角度を決定するために装置100によって使用される。
図3に示すように、ユーザは、従法線ベクトル310の若干左にいて、即ちページの「中へ」より深くではなく、ページの「紙面」に若干接近しているように思われる。又、
図3におけるユーザの現在位置は、グラフィックユーザインターフェイスオブジェクト306の描写において、
図3に示すユーザの現在方向及び位置についてその左側部307が装置ディスプレイ102上に若干見えることで反映されている。ユーザの目302が装置100のディスプレイ102に対して益々左へ遠く移動するにつれて、即ち角度316が増加するにつれて、ユーザは、グラフィックユーザインターフェイスオブジェクト306の左側部307を益々多く見ることができる。このような技術の適用から得られる3D効果を理解する1つの仕方は、ハンドヘルド装置100のディスプレイスクリーン102を3D空間300への「ウインドウ」として想像することである。実世界におけるウインドウと同様に、観察者がウインドウに接近し又は遠ざかり、或いはウインドウを通して異なる角度で見たとき、観察者は、異なるオブジェクト、異なる角度のオブジェクト、等を見ることができる。これらの効果を得るために、レイトレーシング(ray tracing)として知られている技術を利用することができる。
【0029】
レイトレーシングは、この分野で知られたように、光子が光源から、観察者が見ているオブジェクトへと移動し、次いで、観察者の目へと、逆の順序のみで、反射される経路を模擬することを含む。従って、このプロセスは、時々「後方レイトレーシング」とも称される。レイトレーシングプロセスの1つの実施形態において、ディスプレイ102のピクセルごとに、光線304が、観察者の目から所与のピクセルを通してバーチャル3Dオペレーティングシステム環境300へと延びる。どんなバーチャル3Dオブジェクトが、バーチャル3D環境への光線の投影により「突き通され」ても、それが、次いで、ディスプレイ102において対応ピクセルで表示される。このプロセスの結果、観察者がウインドウを通してバーチャル3D環境を見た場合に得たものと同じである光景をディスプレイスクリーン上に生成する。
【0030】
バーチャル3D環境への光線の投影によりバーチャル3Dオブジェクトが「突き通され」ると、更に別のステップが具現化される。より詳細には、第2の光線318がバーチャル3Dオブジェクトからバーチャル光源304の位置へと延びる。第2の光線318が光源304へと延びるときにその第2の光線により別のオブジェクトが突き通される場合には、そのピクセルに陰影を付けるためのグラフィックレンダリングエンジンへのキューとなる。
図3のケースでは、光線318がアイコンオブジェクト105及び109に交差すると思われ、これは、ユーザがアイコンオブジェクト107の頂面を見ることができるように自身の位置(又は装置の位置)を調整する場合にアイコンオブジェクト107がその頂面に陰影を投げることを示す。レンダリングされるピクセルと光源との間にオブジェクトが検出されない場合には、光源への相対的な距離及び光源の強度を使用して、所与のピクセルが装置ディスプレイ102に表示されるときにその輝度強度を計算することができる。これらの技術を使用することで、バーチャル3Dオブジェクトが実際に実世界設定にある場合にそれらオブジェクトに照明が及ぼす効果を正確に描写するバーチャル3D環境レンダリングを生じることができる。
【0031】
図3を参照して上述した技術は、装置のGPUが、装置のディスプレイ上の少なくとも1つのグラフィックユーザインターフェイスオブジェクトのバーチャル3D描写に適当な照明及びパースペクティブ変換を適用できるようにし、それにより、装置ユーザのためのより現実的な没入型のバーチャル3D経験を生じさせる。
【0032】
図4を参照すれば、1つの実施形態により、代表的な周囲光源400により照明されたグラフィックユーザインターフェイスオブジェクト107のバーチャル3D描写406を提示するパーソナル電子装置100が示されている。
図3を参照して上述した実施形態と同様に、バーチャル3Dオペレーティングシステム環境300の現実的なバーチャル3D描写を提示するために装置100のGPUによりレイトレーシング技術が使用される。しかしながら、
図4では、バーチャル3Dオペレーティングシステム環境300の光源は、装置のオペレーティングシステムにより任意に生成されるバーチャル光源ではなく、むしろ、バーチャル3Dオペレーティングシステム環境300は、実世界の周囲光源400により照明されるかのように描写される。従って、バーチャル3Dオペレーティングシステム環境からオブジェクト107に対して周囲光源400へトレースバックされる光線は、破線408で表されている。装置100の前面カメラ112又は接近センサ114を使用して、最も明るい実世界の周囲光源400への距離(破線402で表わされた)及びその相対的な位置、並びにその実世界の周囲光源400の強度を決定することができる。この情報が確認されると、GPUは、3Dグラフィック技術における良く知られた照明及び陰影付け技術に基づきバーチャル3Dオペレーティングシステム環境300においてオブジェクトを照明することができる。
【0033】
図4に示すように、周囲光源400は、装置ディスプレイ102の若干右にあり、即ちX軸に沿ってページの「中へ」若干遠くにある。又、
図4の周囲光源400の現在位置は、グラフィックユーザインターフェイスオブジェクト406の描写において、
図4に示す周囲光源400の現在方向及び位置について陰影407の左側部が装置ディスプレイ102上に若干見えることで反映されている。周囲光源400が装置100のディスプレイ102に対して益々右へ遠く移動するにつれて、即ち周囲光源400がX軸に沿ってページの中へ益々深く移動するにつれて、バーチャル3Dオペレーティングシステム環境300においてグラフィックユーザインターフェイスオブジェクト105/107の左側部に益々大きな陰影404が生成される。もちろん、バーチャル3Dオペレーティングシステム環境におけるグラフィックユーザインターフェイスオブジェクトのこのような陰影の変化も、グラフィックユーザインターフェイスオブジェクトの陰影付けされた側部がユーザの目302の有利な点から見えるように装置100及び/又はユーザが位置し且つ方向を向いた場合に、装置ディスプレイ102上でのオブジェクトのレンダリングに同様に反映される。
【0034】
これらの技術を使用することに加えて、装置のオペレーティングシステムソフトウェアは、前面カメラの視野を分析することによりユーザ環境において幾つかの光源位置を決定することができる。より詳細には、装置は、前面カメラの視野において最も明るいエリアを探すように試みる。鏡面反射(例えば、眼鏡の反射)を光源として誤って識別するのを回避するために、前面カメラから受信した画像は、標準偏差3.0のガウスのボケを伴う小さな半径を使用してぼかされ、それにより、小さな鏡面反射が目立たないようにする。
1つの実施形態において、最も明るい5%の画像は、所定の輝度値より明るい場合には、画像処理の分野で知られた技術である画像のスレッシュホールド処理によって光源として認識され、位置付けられる。スレッシュホールド処理されると、光源の形状、即ちアルファマスク、及びセントロイドが計算される。計算されたセントロイドを使用して、実世界の3D空間における光源の包囲方向を決定することができる。更に、前面カメラ画像のルミナンススレッシュホールドバージョンを使用して、バーチャル3Dオペレーティングシステム環境におけるカーブしたオブジェクトのレンダリングに現実的な反射を入れることができる。更に、充分な輝度の周囲光源がユーザの環境に置かれていない場合には、
図3のようなバーチャル光源を使用することをデフォールトとする。
【0035】
装置を屋外で使用する場合、ユーザ環境における実世界の光源として太陽の位置を計算することもできる。これは、グリニッチ標準時(GMT)、装置のGPS位置、及びコンパスの方位、並びにローカル地理座標システムにおける装置のフレネットフレームを使用することにより行うことができる。地球上の既知の点における太陽の相対的位置を計算する技術は、良く知られている。太陽の位置は、それが計算されると、太陽の現在位置を表わすバーチャル3Dオペレーティングシステム環境のためのバーチャル光源を発生するのに使用される。
【0036】
図5を参照すれば、1つの実施形態によるパーソナル電子装置100のフレネットフレーム500が示されている。上述したように、数学では、フレネットフレームは、三次元空間における連続的な微分可能な曲線に沿って移動する粒子に対して接線、法線及び従法線単位ベクトルにより定義され、これらは、多くの場合、
図5に示すように、T、N及びBベクトルと称される。Tは、曲線に正接する単位ベクトルで、運動の方向を指し、Nは、曲線の弧長パラメータに対するTの導関数をその長さで除算したものであり、そしてBは、T及びNのクロス積である。
図5に示すように、Tは、ディスプレイのY軸に整列され、Nは、ディスプレイのX軸に整列され、そしてBは、ディスプレイの平面に直角である。フレネットフレームのT、N及びBベクトルは、一緒に、ディスプレイ座標システムを実世界の座標システムに結合する。
【0037】
コンパス、マイクロ・エレクトロ・メカニカルシステム(MEMS)加速度計、GPSモジュール、及びMEMSジャイロメーターのような装置100の種々の位置センサを使用することにより、装置100の3D基準フレームを推測することができる。実際には、現在、装置のフレネットフレームをリアルタイムで追跡して、ハンドヘルド装置の連続的な3D基準フレームを与えることができる。ユーザの目の位置に加えて、装置の連続的な基準フレームが分かると、
図6を参照して以下に述べるように、装置ディスプレイにオブジェクトのより現実的なバーチャル3D描写を生成して相互作用することができる。
【0038】
図6を参照すれば、1つの実施形態により、グラフィックユーザインターフェイスオブジェクト107のバーチャル3D描写606を提示するパーソナル電子装置100に対する装置移動600の効果が示されている。
図6において方向付けされた装置100のフレネットフレーム608は、
図5において方向付けされた装置100のフレネットフレーム500とは実質的に異なることに注意されたい。より詳細には、装置100は、ユーザの目302がバーチャル3Dオペレーティングシステム環境602へと若干下方を見るように傾斜されている。矢印600は、
図5と
図6との間の装置100の位置の差を表わす。
ユーザの目302から装置ディスプレイ102の平面を通してバーチャル3Dオペレーティングシステム環境602へと延びる投影光線軌跡604から明らかなように、グラフィックユーザインターフェイスオブジェクト107の描写607は、装置ディスプレイ102上にグラフィックユーザインターフェイスオブジェクト107の頂面607を僅かに示している。これは、
図4に示すグラフィックユーザインターフェイスオブジェクト107の描写406とは対照的であり、バーチャル3Dオペレーティングシステム環境300への「ウインドウ」(即ち、装置100のディスプレイ102である「ウインドウ」)は、バーチャル3Dオペレーティングシステム環境におけるアイコンオブジェクトの垂直スタックの方向に対して更に平行であり、従って、ユーザは、グラフィックユーザインターフェイスオブジェクト107の頂面を見ることができない。これらの技術を適用すると、ユーザは、装置及び/又は自分の目の位置を調整して、グラフィックユーザインターフェイスオブジェクトの側面、又はグラフィックユーザインターフェイスオブジェクトの後部も見ることができることが明らかであろう。
【0039】
図7を参照すれば、1つの実施形態により、グラフィックユーザインターフェイスオブジェクト107のバーチャル3D描写700を提示するパーソナル電子装置100に対するユーザの動きの効果が示されている。
図3と同様に、破線712は、ユーザの目から、装置100の前面カメラ112への経路を示す。上述したように、前面カメラ112は、破線712の長さ(即ち、ユーザの目から装置までの距離)を推定し、ユーザの顔を検出し(及び潜在的に認識し)、ユーザの瞳孔間の現在距離を測定し、又はユーザ環境における光源を探すのに使用される。ベクトル706は、ディスプレイ102から垂直方向を指す従法線ベクトルを表わす。ベクトル708は、ディスプレイ102からX軸に沿ってユーザの目702の中心の位置へと直接延びるベクトルを表わす。破線710は、ディスプレイ102に対してX軸の方向にユーザの目602の位置を示す上で助けとなるように描かれている。ベクトル706とベクトル708との間の角度704は、ユーザがおそらくディスプレイ102を見るところの角度を決定するために装置100により使用される。
図7に示すように、ユーザは、従法線ベクトル706の若干左にいて、即ちページの「中へ」より深くではなく、ページの「紙面」に若干接近しているように思われる。
【0040】
図3に比して、
図7におけるユーザの目702は、装置100のディスプレイ102から非常に離れている。従って、ディスプレイ102へのグラフィックユーザインターフェイスオブジェクト107の光線軌跡及び投影(破線714で表された)は、グラフィックユーザインターフェイスオブジェクト107の描写700を、
図3におけるグラフィックユーザインターフェイスオブジェクト107の描写206より、
図7におけるディスプレイ102において下方の位置に配置させる。これは、ユーザが「ウインドウ」を通してバーチャル3Dオペレーティングシステム環境300を見る効果を生じることと一貫したものである。ユーザの目702の位置に加えて、装置100の位置を監視し続けることで、強制的なそして現実的なバーチャル経験を与えることができる。しかしながら、時間と共に装置のフレネットフレーム変化のみを監視することで(即ち、ユーザの位置に関連せずに)、多くの場合に、現実的な3D UI効果を生成する装置のオペレーティングシステムソフトウェアにとって充分な情報を与えることに注意されたい。ユーザの厳密な位置を知らずに3D UI効果を生成することは、装置に対する典型的なユーザ位置を仮定することにより可能となる。例えば、人間工学的に、パーソナル電子装置のディスプレイを見るのに有用な位置の数は少ないことが認識される。小さな装置は、一般的に、ユーザの目の近くに保持され、そして大きな装置は、一般的に、ユーザの目から離して保持される。
更に、ユーザの凝視は、一般的に、装置のディスプレイ表面の中心に焦点が合わされる。
【0041】
図8を参照すれば、1つの実施形態により、パーソナル電子装置100のバーチャル3D環境812内のくぼんだ「弁当箱」フォームファクタが示されている。ユーザが装置100の周りを動くときには、ディスプレイ102に描かれる陰影814も動き、ユーザにより認知できる3D効果を高める。又、種々の他の3D効果を使用して、ユーザにより認知される3D効果を高めることもできる。例えば、バーチャル3D環境812内のオブジェクト802が丸み付けされた場合には、オブジェクトから反射される輝き816も対応的に変化する。オブジェクト812が拡散する場合には、それらの陰影が、装置100の移動と共に変化する。
【0042】
又、パーソナル電子装置100のバーチャル3D環境812内のくぼんだ「弁当箱」フォームファクタは、サブボックス800の各グループ内の個々のインターフェイスオブジェクト802で構成される。
図8に示すように、3つのサブボックス800a/800b/800cがある。各サブボックス800は、くぼんだサブボックス800の境界を形成する側壁818のセットを有する。ユーザが各サブボックス800の「中を見る」ために装置100の方向を変えたときに、破線804及び破線円806で示された「スポットライト」が、ユーザの視野が現在向けられているサブボックスにハイライトを当てる。ある実施形態では、ユーザが特定のサブボックスを見ているかどうかの判断は、例えば、そのサブボックス800の全ての壁800がユーザに対して前を向いており、従って、目に見えることに基づく。
【0043】
図8に示すように、ユーザ808aは、装置100の上に留まって、視線810aで示すように装置100のディスプレイ102を見降ろしており、現在レンダリングされているディスプレイ102では、グラフィックユーザインターフェイスオブジェクト802/803/805/807の側面が見えない。ユーザ808aの場合、スポットライト効果804/806がサブボックス800aのエリアにおいてディスプレイ102に適用され、グラフィックユーザインターフェイスオブジェクト802及び803の表現にハイライトを当てるように働く。スポットライト806は、バーチャル3Dオペレーティングシステム環境において、例えば、
図8のサブボックス800aのような特定のグラフィックユーザインターフェイスオブジェクト又はエリアに向けられる集中型バーチャル光源であると考えられる。グラフィックの分野では、表示されるオブジェクトのカラーは、光源の色及び強度にディスプレイオブジェクトの色を乗算することで計算される。スポットライトは、光が向けられる位置から光源の位置を減算することにより計算される中心の光ベクトルからの距離又は角度変位の関数として光の強度が減衰する光源として表わされる。この関数は、例えば、指数関数的に減衰することを特徴とする関数である。
【0044】
ユーザ808b及び808cは、ユーザがバーチャル3D環境812を見るよう試みる別の位置を表わす。視線810bに沿って見ているユーザ808bの観点から、サブボックス800bの全ての壁818は、ユーザ808bにとって前を向いており、従って、スポットライト効果804/806がサブボックス800bのエリアでディスプレイ102に適用されて、グラフィックユーザインターフェイスオブジェクト805の表現にハイライトを当てるように働く。視線810cに沿って見ているユーザ808cの観点から、サブボックス800cの全ての壁818は、ユーザ808cにとって前を向いており、従って、スポットライト効果804/806がサブボックス800cのエリアでディスプレイ102に適用されて、グラフィックユーザインターフェイスオブジェクト807の表現にハイライトを当てるように働く。くぼんだ「弁当箱」フォームファクタに対する他の変形例も、本開示の教示の範囲内に入り、そして装置の3D基準フレーム及び/又はユーザの目の位置を追跡し続けて、ユーザにとってより現実的なバーチャル3D経験を生み出すという利点を取り入れるように、同様に具現化できることを理解されたい。
【0045】
図9を参照すれば、1つの実施形態により、バーチャル3Dオペレーティングシステム環境300へレイトレーシング(904)されるパーソナル電子装置101のタッチスクリーンディスプレイ102との接触点902が示されている。装置ディスプレイ102上のタッチ接触点902の位置をバーチャル3Dオペレーティングシステム環境300へとレイトレーシングし(
図3を参照して述べたように)、そしてバーチャル3D環境906におけるタッチ点の領域を、それがヒットするオブジェクト(1つ又は複数)と交差させることにより、ユーザは、2Dタッチスクリーンインターフェイスを経て3D環境と相互作用することを知覚し、より豊富で且つより現実的なユーザ経験を与えることができる。
図9に示したように、ユーザ900がタッチスクリーンディスプレイ102にタッチした位置は、バーチャル3D環境300におけるタッチ点906に対応し、グラフィックユーザインターフェイスオブジェクト107と交差する。従って、接触点902を生じるユーザ900によるタッチは、バーチャル3Dオペレーティングシステム環境300におけるオブジェクト107に動き又は作用を適用して、バーチャル3Dオペレーティングシステム環境300におけるオブジェクト107を、装置が慣習的な“2D”モードで動作する場合に振舞うのと同様に振る舞わせる。例えば、ここに開示する技術は、サイズ変更、押圧、トグル、ドラグ、プッシュ、プル、衝突効果、及びバーチャル3Dオペレーティングシステム環境300内での現実性についての他の物理的な明示をより強制的で且つ現実的な仕方で模擬できるようにする。3D UI「押圧」効果、例えば、ボタン又はアイコン107のようなグラフィックユーザインターフェイスオブジェクトの押圧を模擬する場合には、その効果は、ユーザの指900の検出位置902に応答して具現化される。これが行える理由は、ユーザの指900のタッチ位置902が、例えば、
図9に破線円906で表されたように、バーチャル3D環境300にあるときに、そのタッチ位置が、あるグラフィックユーザインターフェイスオブジェクトの平面、例えば、アイコン107の前面に交差することが分かり、そしてタッチの動きがその平面へと変換されるか、又はその特定のグラフィックユーザインターフェイスオブジェクトの潜在的な動き自由度に関して解釈されるからである。例えば、あるオブジェクトは、内方に「押圧」することしかできないが、他のものは、多数の方向に自由に動くことができる。
【0046】
別の実施形態では、ユーザ900の指先の陰影又は他の指示子902が、ディスプレイ102に描かれるバーチャル3Dオペレーティングシステム環境300の2Dレンダリングにおいて適当な場所に表示される。ユーザ900の指先の位置に関する情報は、各々この分野で知られたタッチスクリーン又は近フィールド感知技術から報告される接触情報から得ることができる。このようにして、装置100のユーザは、実際に、バーチャル3D環境300の「中に到達した」かのように感じる。近フィールド感知技術を使用すると、「実世界」における指の位置は、当該グラフィックユーザインターフェイスオブジェクトがディスプレイの「ウインドウ」内のバーチャル3D世界に対してある「距離」にあるときでも、装置のディスプレイから指までの距離を、バーチャル3Dオペレーティングシステム環境における当該グラフィックユーザインターフェイスオブジェクトから指までの距離として解釈し直すことにより、バーチャル3Dオペレーティングシステム環境における指の位置へと変換することができる。例えば、ここに開示する技術を使用すると、ユーザの指がディスプレイ102から1cmであると感知された場合には、バーチャル3Dオペレーティングシステム環境におけるユーザタッチ点の位置の当該指示、例えば、
図9の破線円906は、当該グラフィックユーザインターフェイスオブジェクトの「前方」に陰を投げるか又は他の視覚指示子を表示して、それらが当該グラフィックユーザインターフェイスオブジェクトとまだ相互作用しないという指示をユーザに与えるが、ユーザがその指をディスプレイの「ウインドウ」、即ちタッチ表面ディスプレイ102に近づけるように動かす場合には、希望のグラフィックユーザインターフェイスオブジェクトと相互作用することができる。ユーザの望ましいタッチ位置の視覚指示子、例えば、「陰影オフセット」の使用は、向上した3D UI効果だけではない。むしろ、装置の3D基準フレームが分かると、タッチスクリーンの視差の問題、即ちタッチ点と表示される意図されたタッチ位置との不整列を良好に考慮できるので、
図9を参照してここに述べた技術は、グラフィックユーザインターフェイスオブジェクトが「現実」のオブジェクトであった場合にユーザが経験する相互作用の良好な表現を装置のユーザに与えることもできる。
【0047】
図10を参照すれば、1つの実施形態により、パーソナル電子装置100のディスプレイ102をアクチベートしてバーチャル3Dオペレーティングシステム環境モードで動作するための規範的ジェスチャー1002が示されている。上述したように、3D情報のレンダリング又はレイトレーシングのために装置のGPUを常時使用するのは、計算費用が高くなり且つバッテリも消耗する。ある実施形態では、装置は、デフォールトにより2D又は2 1/2 Dモードで動作する。従って、ジェスチャーを使用して、2D又は2 1/2 Dディスプレイを「解凍」して、3Dモードで動作することができる。1つの潜在的な「アクチベーションジェスチャー」は、いわゆる「プリンセスウェイブ」、即ちY軸1000の周りでの装置の波動回転である。例えば、バーチャル3Dオペレーティングシステム環境モードは、1つの軸1000に沿った10−20°の変調1002の4つ以上の波が、所定のスレッシュホールド時間、例えば、1秒以内に生じたときに、ターンオンすることができる。位置の静止、例えば、装置を、少なくとも所定のスレッシュホールド時間、例えば、2ないし3秒間比較的静止状態に保つことは、装置100を2D又は2 1/2 Dオペレーティングシステム環境モードに凍結して戻し、そしてオブジェクトの表示を慣習的な2D表現に回復するための1つの潜在的なキューである。このように、ユーザからの明確なコントロール及び意図がなしに装置100を3Dモードに入れ得ることは、おそらくない。又、装置が充分長時間放置される場合に、計算上安価な2D又は2 1/2 Dモードに自動的に復帰させることはあり得る。
【0048】
1つの実施形態において、パーソナル電子装置のディスプレイ102をアクチベートするための適当なアクチベートジェスチャー1002が検出され、そしてバーチャル3Dオペレーティングシステム環境モードがターンオンすると、装置のディスプレイ上のグラフィックユーザインターフェイスオブジェクトの各々が「解凍」して、オブジェクトの3D描写となり、例えば、オブジェクトの2D描写とほぼ同じで、3Dオブジェクトの見掛けを表わす陰影、輝き反射1012、及び/又はテクスチャを伴う描写となる。例えば、
図10の装置100のディスプレイ102上に示されたようなスプリングボード110上のアイコン1006の各々は、アイコンの2D表現から3D「ルーサイト(Lucite)」キューブ1004/1006、即ち透明プラスチック又はガラス状材料で作られたように見えそしてその底部に絵を有するキューブへと変化する。(LUCITE(登録商標)は、ルーサイトインターナショナルインクの登録商標である。)アイコンが3Dモードへと解凍されたとき、アイコンキューブ1004/1006の底部の絵は、適当に屈折して歪み、視覚的に異なる印象を与える。又、キューブは、それらの前面が若干丸み付けされることも考えられる。これは、アイコンをそれらの下で拡大し、そしてディスプレイがユーザの凝視に対して方向付けし直されたときにそれら表面からの反射「光」を捕えるために行うことができる。
【0049】
図11を参照すれば、パーソナル電子装置をバーチャル3Dオペレーティングシステム環境モードで動作するためのプロセスの一実施形態がフローチャートの形態で示されている。第1に、プロセスは、ステップ1100において開始する。次いで、パーソナル電子装置内の1つ以上のプロセッサ又は他のプログラム可能なコントロール装置がバーチャル3Dオペレーティングシステム環境を定義する(ステップ1102)。次いで、プロセッサ(1つ又は複数)が、ハンドヘルド装置内に配置された1つ以上の位置センサからデータを受け取る(ステップ1104)。次いで、プロセッサは、その受け取った位置データに基づいて装置の3D基準フレームを決定する(ステップ1106)。次いで、プロセッサは、ハンドヘルド装置内に配置された1つ以上の光学的センサ、例えば、画像センサ、接近センサ、又はビデオカメラからデータを受け取る(ステップ1108)。次いで、プロセッサは、その受け取った光学データに基づいて装置ユーザの目の位置を決定する(ステップ1110)。別の実施形態では、ステップ1110を省略して、ユーザの固定の、仮定した位置が、プロセッサにより使用されてもよい。例えば、人間工学的に、パーソナル電子装置のディスプレイを見るのに有用な位置は、少数であることが認識されている。
小さな装置は、一般的に、ユーザの目の近くに保持され、そして大きな装置は、一般的に、ユーザの目から離して保持される。更に、ユーザの凝視は、一般的に、装置のディスプレイ表面の中心に焦点が合わされる。最終的に、プロセッサは、次いで、バーチャル3Dオペレーティングシステム環境の視覚表現を、決定された3D基準フレーム及び装置ユーザの目の決定された位置に基づいて、装置のグラフィックユーザインターフェイスディスプレイに投影し、即ちレンダリングする(ステップ1112)。上述したように、このプロセスは、例えば、移動電話等のハンドヘルドパーソナル電子装置であるユーザ装置のディスプレイにバーチャル3Dオペレーティングシステム環境の個別のより現実的な表現を与えることができる。
【0050】
図12を参照すれば、パーソナル電子装置を、バーチャル3Dオペレーティングシステム環境モードでの動作と、非バーチャル3Dオペレーティングシステム環境モード、例えば、2Dモードでの動作との間でトグルするためのプロセスの一実施形態が、フローチャート形態で示されている。先ず、このプロセスは、ステップ1200で始まる。次いで、パーソナル電子装置内の1つ以上のプロセッサ又は他のプログラム可能なコントロール装置が、装置のグラフィックユーザインターフェイスディスプレイにオペレーティングシステム環境の2D表現を表示する(ステップ1202)。次いで、プロセッサ(1つ又は複数)は、バーチャル3D表示モード、例えば、充分な度数の装置の1軸正弦波変調に充分短い時間以内に入るためのユーザの希望を表わすジェスチャーを装置において受け取ったかどうか検出する(ステップ1204)。そのようなジェスチャーを受け取らない場合には、プロセスは、ステップ1202へ戻り、オペレーティングシステム環境の2D表現を表示し続ける。そうではなくて、プロセッサがそのようなジェスチャーを受け取った場合には、プロセスは、ステップ1206へ進み、
図11に示すプロセス、即ち、即ちバーチャル3Dオペレーティングシステム環境モードでパーソナル電子装置を動作するプロセスを遂行するようにプロセッサに指示する。バーチャル3Dオペレーティングシステム環境モードで動作する間に、プロセッサは、2D表示モード、例えば、静止状態(あるスレッシュホールド時間量に対してあるスレッシュホールド運動量より少ない)へ復帰するためのユーザの希望を表わすジェスチャーを装置において「聴取」し続ける(ステップ1208)。そのようなジェスチャーを受け取らない場合には、プロセスは、ステップ1206へ復帰し、
図11に示すプロセスに基づいてオペレーティングシステム環境のバーチャル3D表現を表示し続ける。そうではなく、2D表示モードへ復帰するためのユーザの希望を表わすジェスチャーを受け取ったことをプロセッサが検出すると、プロセスは、ステップ1202、即ちパーソナル電子装置を2D表示モードで動作するプロセスへ復帰する。
【0051】
図13を参照すれば、ユーザの目の位置を表わすスポットライトをパーソナル電子装置のバーチャル3Dオペレーティングシステム環境に投影するためのプロセスの一実施形態がフローチャートの形態で示されている。先ず、このプロセスは、ステップ1300で始まる。次いで、パーソナル電子装置内の1つ以上のプロセッサ又は他のプログラム可能なコントロール装置がバーチャル3Dオペレーティングシステム環境を定義する(ステップ1302)。次いで、プロセッサ(1つ又は複数)は、バーチャル3Dオペレーティングシステム環境の視覚表現を装置のグラフィックユーザインターフェイスディスプレイに投影し、即ちレンダリングする(ステップ1304)。次いで、プロセッサは、ハンドヘルド装置内に配置された1つ以上の光学的センサ、例えば、画像センサ、接近センサ、又はビデオカメラからデータを受け取る(ステップ1306)。次いで、プロセッサは、その受け取った光学的データに基づき装置ユーザの目の位置を決定する(ステップ1308)。最後に、プロセッサは、その決定された装置ユーザの目の位置に基づいて「スポットライト」の視覚表現をバーチャル3Dオペレーティングシステム環境に投影し即ちレンダリングし(ステップ1310)、この時点で、プロセスは、ステップ1306に復帰し、ここで、プロセッサは、ユーザの目が動いてディスプレイの異なるエリアに焦点を合わせ続けるときに装置のディスプレイを適宜に更新できるようにハンドヘルド装置内に配置された1つ以上の光学的センサから連続的なデータを受け取る。
【0052】
図14を参照すれば、装置の環境において検出される周囲光源及び装置の相対的位置に基づきパーソナル電子装置のディスプレイに対するグラフィックユーザインターフェイス効果を具現化するプロセスの一実施形態がフローチャートの形態で示されている。先ず、このプロセスは、ステップ1400で始まる。次いで、パーソナル電子装置内の1つ以上のプロセッサ又は他のプログラム可能なコントロール装置は、装置のバーチャル“2 1/2 D”オペレーティングシステム環境を定義し、即ち陰影及び/又は反射のような幾つかの付加的な視覚キューをアイコン、ツールバー、ウインドウ、等にもつオペレーティングシステム環境の改善型2D表現を定義し、その付加的なキューは、2Dアイコンの「3D見掛け」を更に増強するのに使用される。ある実施形態では、
図14を参照して述べる技術は、バーチャル3Dオペレーティングシステム環境にも適用できる(ステップ1402)。次いで、プロセッサ(1つ又は複数)は、装置のグラフィックユーザインターフェイスディスプレイにバーチャル2 1/2 Dオペレーティングシステム環境の視覚表現を投影し即ちレンダリングする(ステップ1404)。次いで、プロセッサは、ハンドヘルド装置内に配置された1つ以上の光学的センサ、例えば、画像センサ、接近センサ、又はビデオカメラからデータを受け取る(ステップ1406)。次いで、プロセッサは、その受け取った光学データに基づいて1つ以上の周囲光源の位置を決定する(ステップ1408)。次いで、プロセッサは、ハンドヘルド装置内に配置された1つ以上の位置センサからデータを受け取る(ステップ1410)。次いで、プロセッサは、その受け取った位置データに基づいて装置の3D基準フレームを決定する(ステップ1412)。最後に、プロセッサは、周囲光源の決定された位置及び/又は装置の決定された3D基準フレームに基づいて、バーチャル2 1/2 Dオペレーティングシステム環境におけるオブジェクトにUI効果(例えば、輝き、陰影)を適用する(ステップ1414)。
図2を参照して上述したように、陰影及び輝きマップのような種々のグラフィック層は、装置の位置及び/又は周囲光源の位置に基づいて再レンダリングされることなく、連続的に及び動的に再配置される。更に、ディスプレイが既に見えるもの以上に「3D的」に見えるようにするため種々のグラフィックユーザインターフェイスオブジェクトに対してスケール及び位置の調整を行うこともできる。
【0053】
図15を参照すれば、一実施形態による代表的なパーソナル電子装置1500、例えば、前面カメラ112のようなカメラ装置をもつ移動電話の簡単な機能的ブロック図が示されている。パーソナル電子装置1500は、プロセッサ(1つ又は複数)1516と、記憶装置1514と、ユーザインターフェイス1518と、ディスプレイ1520と、コーダ/デコーダ(CODEC)1502と、バス1522と、メモリ1512と、通信回路1510と、スピーカ又はトランスジューサ1504と、マイクロホン1506と、位置センサ1524と、接近センサ1526と、関連カメラハードウェアを伴う画像センサ1508と、を備えている。プロセッサ1516は、GPUを含む適当なプログラム可能なコントロール装置であり、そして上述した3Dユーザインターフェイス効果のような多数の機能、並びにパーソナル電子装置1500により遂行される他の機能の動作をコントロールすることができる。プロセッサ1516は、ディスプレイ1520を駆動し、そしてユーザインターフェイス1518からユーザ入力を受け取ることができる。ある実施形態では、装置1500は、異なる処理義務を果たすための1つ以上のプロセッサを備えている。
【0054】
記憶装置1514は、メディア(例えば、写真及びビデオファイル)、ソフトウェア(例えば、装置1500上で種々の機能を具現化するための)、好み情報(例えば、メディア再生の好み)、パーソナル情報、及び他の適当なデータを記憶する。記憶装置1514は、例えば、ハードドライブ、ROMのような永久的メモリ、RAMのような半永久的メモリ、又はキャッシュを含めて、1つ以上の記憶媒体を含む。
【0055】
メモリ1512は、装置の機能を遂行するのに使用される1つ以上の異なる形式のメモリを含む。例えば、メモリ1512は、キャッシュ、ROM、及び/又はRAMを含む。
バス1522は、少なくとも記憶装置1514、メモリ1512及びプロセッサ1516へ、又はそれらから、或いはそれらの間で、データを転送するためのデータ転送経路をなす。CODEC1502は、デジタルオーディオ信号をアナログ信号に変換してスピーカ1504を駆動し、ボイス、音楽及び他の同様のオーディオを含むサウンドを発生するために含まれる。又、CODEC1502は、マイクロホン1506からのオーディオ入力を、メモリ1512又は記憶装置1514に記憶するためのデジタルオーディオ信号へと変換することもできる。CODEC1502は、デジタル及び/又はアナログビデオ信号を処理するためのビデオCODECを含む。
【0056】
ユーザインターフェイス1518は、ユーザがパーソナル電子装置1500と相互作用するのを許す。例えば、ユーザ入力装置1518は、ボタン、キーパッド、ダイヤル、クリックホイール、又はタッチスクリーンのような種々の形態をとることができる。通信回路1510は、ワイヤレス通信(例えば、ショートレンジ及び/又はロングレンジ通信)のための回路を含む。例えば、ワイヤレス通信回路は、802.11規格の1つに基づきワイヤレス通信を許すWi−Fi(登録商標)イネーブル回路である。(Wi−Fi(登録商標)は、Wi−Fiアリアンスの登録商標である。)識別されたプロトコルとは別に又は識別されたプロトコルに加えて、他のワイヤレスネットワークプロトコル規格を使用することもできる。他のネットワーク規格は、BLUETOOH(登録商標)、移動通信用のグローバルシステム(GSM(登録商標))、及びコード分割多重アクセス(CDMA)ベースのワイヤレスプロトコルを含む。(BLUETOOH(登録商標)は、ブルーツースSIGインクの登録商標であり、そしてGSM(登録商標)は、GSMアソシエーションの登録商標である。)又、通信回路1510は、装置1500を別の装置(例えば、コンピュータ又はアクセサリ装置)に電気的に結合して、その別の装置と通信できるようにする回路も含む。
【0057】
1つの実施形態において、パーソナル電子装置1500は、オーディオ及びビデオのようなメディアを処理及び表示することのできるパーソナル電子装置である。例えば、パーソナル電子装置1500は、メディアプレーヤのようなメディア装置、例えば、移動電話、MP3プレーヤ、ゲームプレーヤ、リモートコントローラ、ポータブル通信装置、リモートオーダリングインターフェイス、オーディオツアープレーヤ、又は他の適当なパーソナル装置である。又、パーソナル電子装置1500は、バッテリ作動式で且つ高度なポータブル性があり、ユーザが、音楽を聞いたり、ゲーム又はビデオをプレイしたり、ビデオを録画したり、ビデオをストリーミングしたり、写真を撮ったり、他のものと通信したり、バーチャルオペレーティングシステム環境と相互作用したり、及び/又は他の装置をコントロールしたりできるようにする。更に、パーソナル電子装置1500は、ユーザのポケットや手に比較的容易に適合するサイズにされる。ハンドヘルドであることにより、パーソナルコンピューティング装置1500は、比較的小型で、ユーザが容易に手に持って使用することができ、従って、実際にユーザがどこに旅行しても携帯することができる。
【0058】
上述したように、ある形式のパーソナル電子装置1500、例えば、パーソナルメディア装置の比較的小さなフォームファクタは、ユーザが装置の位置、方向及び移動を容易に操作できるようにする。従って、パーソナル電子装置1500は、そのような位置、方向及び移動の変化を感知して、そのような変化に作用することで、ユーザが装置1500にインターフェイスし又はそれをコントロールできるようにする改良された技術を提供する。例えば、位置センサ1524は、コンパス、加速度計、ジャイロメーター、又はGPSユニットを含む。更に、装置1500は、装置1500の動作に関連したユーザへの運動、振動及び/又は移動情報の送信を容易にするために、例えば、プロセッサ1516のコントロールのもとで振動源を備えている。パーソナル電子装置1500は、選択された時間に及び/又は選択された条件のもとで装置1500が画像又は一連の画像、即ちビデオを連続的又は周期的に捕獲できるようにする画像センサ及び関連カメラハードウェア1508を備えている。又、パーソナル電子装置1500は、装置1500の周囲の実世界環境において装置1500が光源を特徴付け且つ識別できるようにすると共に、例えば、ユーザ又はユーザの指が装置1500のディスプレイ1520に接近しているかどうかの決定を行えるようにする接近センサ1526も備えている。
【0059】
以上の説明は、本出願人が考える発明の概念の範囲又は適用性を限定又は制約するものではない。一例として、本開示は、バーチャルオペレーティングシステム環境に対する3Dユーザインターフェイス効果に焦点を当てたが、本開示の教示は、他の状況、例えば、デジタル写真、デジタルビデオ、テレビ、ビデオゲーム、バイオメトリック又は監視にも適用できることが明らかであろう。ここに含まれる発明の概念を開示することと引き換えに、本出願人は、特許請求の範囲により与えられる全ての特許権利を希望する。それ故、特許請求の範囲は、請求項又はその等効物の範囲内に入る限り全ての修正や変更を網羅するものとする。