(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6404120
(24)【登録日】2018年9月21日
(45)【発行日】2018年10月10日
(54)【発明の名称】モバイル・デバイスにおける完全な3D対話
(51)【国際特許分類】
G06F 3/048 20130101AFI20181001BHJP
G06F 3/041 20060101ALI20181001BHJP
G06F 3/042 20060101ALI20181001BHJP
H04M 1/00 20060101ALI20181001BHJP
【FI】
G06F3/048
G06F3/041 480
G06F3/041 530
G06F3/041 595
G06F3/042 473
H04M1/00 R
【請求項の数】31
【全頁数】13
(21)【出願番号】特願2014-547174(P2014-547174)
(86)(22)【出願日】2011年12月27日
(65)【公表番号】特表2015-506033(P2015-506033A)
(43)【公表日】2015年2月26日
(86)【国際出願番号】US2011067376
(87)【国際公開番号】WO2013100900
(87)【国際公開日】20130704
【審査請求日】2014年6月16日
【審判番号】不服2017-5709(P2017-5709/J1)
【審判請求日】2017年4月20日
(73)【特許権者】
【識別番号】593096712
【氏名又は名称】インテル コーポレイション
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100091214
【弁理士】
【氏名又は名称】大貫 進介
(72)【発明者】
【氏名】ダーラム,レニトラ エム.
(72)【発明者】
【氏名】ダーラム,デイヴィッド
(72)【発明者】
【氏名】シャルマ,サンギタ
【合議体】
【審判長】
▲吉▼田 耕一
【審判官】
稲葉 和生
【審判官】
松田 岳士
(56)【参考文献】
【文献】
米国特許出願公開第2010/0053151(US,A1)
【文献】
特開2009−187426(JP,A)
【文献】
特開2005−4580(JP,A)
【文献】
特開2005−178473(JP,A)
【文献】
特開2010−183378(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F3/048
G06F3/01
(57)【特許請求の範囲】
【請求項1】
画面と、
モーション・センサ及び前方画像センサのうちの1つ又は複数を含む、センサと、
ロジックと、
を備える、モバイル・デバイスであって、
前記モーション・センサ及び/又は前記前方画像センサは、当該モバイル・デバイスの動きをパン操作及び/又はズーム操作に変換するために後方画像センサと連動して働き、
前記ロジックは、
前記画面を介して3次元(3D)環境を表示し、
当該モバイル・デバイスの背後の領域に関する第1のユーザ対話であって、前記3D環境内の関心領域と仮想オブジェクトとのうちの1つ又は複数の選択を含む、第1のユーザ対話を識別し、
前記モーション・センサと前記前方画像センサと前記後方画像センサのうちの少なくとも1つからの1つ又は複数の信号を使用して、当該モバイル・デバイスの動きを識別し、
当該モバイル・デバイスの動き及び前記第1のユーザ対話に少なくとも部分的に基づいて、前記3D環境を修正する、
モバイル・デバイス。
【請求項2】
前記第1のユーザ対話は、前記3D環境が空中環境であるときに前記関心領域と前記仮想オブジェクトのうちの1つ又は複数に関連付けられる空中位置と、前記3D環境が外部表面に固定されるときに前記関心領域と前記仮想オブジェクトのうちの1つ又は複数に関連付けられる前記外部表面と、のうちの少なくとも1つに接触する手の動きを含む、請求項1に記載のモバイル・デバイス。
【請求項3】
空気ノズルを更に含み、前記ロジックは、前記第1のユーザ対話が空中位置に対する手の動きである場合、前記空気ノズルを使用して触覚フィードバックを提供するものである、請求項1に記載のモバイル・デバイス。
【請求項4】
前記ロジックは、前記後方画像センサからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別するものである、請求項1に記載のモバイル・デバイス。
【請求項5】
マイクロフォンを更に含み、前記ロジックは、前記マイクロフォンからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別するものである、請求項1に記載のモバイル・デバイス。
【請求項6】
前記ロジックは、前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正するために、カーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作のうちの1つ又は複数を実行するものである、請求項1に記載のモバイル・デバイス。
【請求項7】
前記ロジックは、
前記モーション・センサからの1つ又は複数の信号を使用して、パン操作のための前記関心領域と前記仮想オブジェクトのうちの1つ以上に対する当該モバイル・デバイスの傾斜と、ズーム操作のための前記関心領域と前記仮想オブジェクトのうちの1つ以上に対する距離の変更とを含む、当該モバイル・デバイスの動きを識別し、
前記前方画像センサからの1つ又は複数の信号を使用して、パン操作のための、前記画面を介して前記3D環境を見ることになるユーザに対する当該モバイル・デバイスの傾斜と、ズーム操作のための、前記画面を介して前記3D環境を見ることになるユーザに対する距離の変更とを含む、前記モバイル・デバイスの動きを識別するものである、請求項1に記載のモバイル・デバイス。
【請求項8】
前記3D環境は、当該モバイル・デバイスの前記画面より概して大きい仮想デスクトップ・コンピュータ環境を含む、請求項1に記載のモバイル・デバイス。
【請求項9】
前記センサは、当該モバイル・デバイスのユーザ・インターフェースを含み、
前記ロジックは、
当該モバイル・デバイスの前記ユーザ・インターフェースからの1つ又は複数の信号を使用して、当該モバイル・デバイスの前記ユーザ・インターフェースの動きを識別し、
当該モバイル・デバイスの前記ユーザ・インターフェースの動き及び前記第1のユーザ対話に少なくとも部分的に基づいて、前記3D環境を修正する、
請求項1に記載のモバイル・デバイス。
【請求項10】
ロジックを備える装置であって、
前記ロジックは、
モバイル・デバイスの画面を介して3次元(3D)環境を表示し、
前記モバイル・デバイスの背後の領域に関する第1のユーザ対話であって、前記3D環境内の関心領域と、仮想オブジェクトとのうちの1つ又は複数の選択を含む、第1のユーザ対話を識別し、
モーション・センサと前方画像センサと後方画像センサのうちの少なくとも1つからの1つ又は複数の信号を使用して、前記モバイル・デバイスの動きを識別し、前記モーション・センサ及び/又は前記前方画像センサは、前記モバイル・デバイスの動きをパン操作及び/又はズーム操作に変換するために前記後方画像センサと連動して働き、
前記モバイル・デバイスの動き及び前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正する、
装置。
【請求項11】
前記第1のユーザ対話は、前記3D環境が空中環境であるときに前記関心領域と前記仮想オブジェクトのうちの1つ又は複数に関連付けられる空中位置と、前記3D環境が外部表面に固定されるときに前記関心領域と前記仮想オブジェクトのうちの1つ又は複数に関連付けられる前記外部表面と、のうちの少なくとも1つに接触する手の動きを含む、請求項10に記載の装置。
【請求項12】
前記ロジックは、前記モバイル・デバイスの後方画像センサ及びマイクロフォンのうちの少なくとも1つからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別するものである、請求項10に記載の装置。
【請求項13】
前記ロジックは、前記第1のユーザ対話が空中位置に対する手の動きである場合、前記モバイル・デバイスの空気ノズルを使用して触覚フィードバックを提供するものである、請求項10に記載の装置。
【請求項14】
前記ロジックは、前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正するために、カーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作のうちの1つ又は複数を実行するものである、請求項10に記載の装置。
【請求項15】
前記3D環境は、前記モバイル・デバイスの前記画面より概して大きい仮想デスクトップ・コンピュータ環境を含む、請求項10に記載の装置。
【請求項16】
前記ロジックは、
前記モバイル・デバイスのユーザ・インターフェースからの1つ又は複数の信号を使用して、前記モバイル・デバイスの前記ユーザ・インターフェースの動きを識別し、
前記モバイル・デバイスの前記ユーザ・インターフェースの動き及び前記第1のユーザ対話に少なくとも部分的に基づいて、前記3D環境を修正する、
請求項10に記載の装置。
【請求項17】
前記クリック操作が、コンピュータ・マウスのクリック操作を含む、請求項14に記載の装置。
【請求項18】
プロセッサによって実行されると、モバイル・デバイスに、
前記モバイル・デバイスの画面を介して3次元(3D)環境を表示することと、
前記モバイル・デバイスの背後の領域に関する第1のユーザ対話であって、前記3D環境内の関心領域と、仮想オブジェクトとのうちの1つ又は複数の選択を含む、第1のユーザ対話を識別することと、
モーション・センサと前方画像センサと後方画像センサのうちの少なくとも1つからの1つ又は複数の信号を使用して、前記モバイル・デバイスの動きを識別することであって前記モーション・センサ及び/又は前記前方画像センサは、前記モバイル・デバイスの動きをパン操作及び/又はズーム操作に変換するために前記後方画像センサと連動して働くことと、
前記モバイル・デバイスの動き及び前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正することと、
を実行させる、コンピュータプログラム。
【請求項19】
前記第1のユーザ対話は、前記3D環境が空中環境であるときに前記関心領域と前記仮想オブジェクトのうちの1つ又は複数に関連付けられる空中位置と、前記3D環境が外部表面に固定されるときに前記関心領域と前記仮想オブジェクトのうちの1つ又は複数に関連付けられる前記外部表面と、のうちの少なくとも1つに接触する手の動きを含む、請求項18に記載のコンピュータプログラム。
【請求項20】
実行されると、前記モバイル・デバイスに、前記モバイル・デバイスの後方画像センサ及びマイクロフォンのうちの少なくとも1つからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別させる、請求項18に記載のコンピュータプログラム。
【請求項21】
実行されると、前記モバイル・デバイスに、前記第1のユーザ対話が空中位置に対する手の動きである場合、前記モバイル・デバイスの空気ノズルを使用して触覚フィードバックを提供させる、請求項18に記載のコンピュータプログラム。
【請求項22】
実行されると、前記モバイル・デバイスに、前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正するために、カーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作のうちの1つ又は複数を実行させる、請求項18に記載のコンピュータプログラム。
【請求項23】
前記3D環境は、前記モバイル・デバイスの前記画面より概して大きい仮想デスクトップ・コンピュータ環境を含む、請求項18に記載のコンピュータプログラム。
【請求項24】
実行されると、前記モバイル・デバイスに、
前記モバイル・デバイスのユーザ・インターフェースからの1つ又は複数の信号を使用して、前記モバイル・デバイスの前記ユーザ・インターフェースの動きを識別することと、
前記モバイル・デバイスの前記ユーザ・インターフェースの動き及び前記第1のユーザ対話に少なくとも部分的に基づいて、前記3D環境を修正することと、
を実行させる、請求項18に記載のコンピュータプログラム。
【請求項25】
請求項18乃至24のいずれか一項に記載のコンピュータプログラムを記録するコンピュータ読取可能記録媒体。
【請求項26】
モバイル・デバイスの画面を介して3次元(3D)環境を表示することと、
前記モバイル・デバイスの背後の領域に関する第1のユーザ対話であって、前記3D環境内の関心領域と、仮想オブジェクトとのうちの1つ又は複数の選択を含む、第1のユーザ対話を識別することと、
モーション・センサと前方画像センサと後方画像センサのうちの少なくとも1つからの1つ又は複数の信号を使用して、前記モバイル・デバイスの動きを識別することであって、前記モーション・センサ及び/又は前記前方画像センサは、前記モバイル・デバイスの動きをパン操作及び/又はズーム操作に変換するために前記後方画像センサと連動して働くことと、
前記モバイル・デバイスの動き及び前記第1のユーザ対話に少なくとも部分的に基づいて前記3D環境を修正することと
を含む、コンピュータで実施される方法。
【請求項27】
前記第1のユーザ対話は、前記3D環境が空中環境であるときに前記関心領域と前記仮想オブジェクトのうちの1つ又は複数に関連付けられる空中位置と、前記3D環境が外部表面に固定されるときに前記関心領域と前記仮想オブジェクトのうちの1つ又は複数に関連付けられる前記外部表面と、のうちの少なくとも1つに接触する手の動きを含む、請求項26に記載の方法。
【請求項28】
前記モバイル・デバイスの後方画像センサ及びマイクロフォンのうちの少なくとも1つからの1つ又は複数の信号を使用して前記第1のユーザ対話を識別することと、
前記第1のユーザ対話が空中位置に対する手の動きである場合、前記モバイル・デバイスの空気ノズルを使用して触覚フィードバックを提供することと、
を更に含む、請求項26に記載の方法。
【請求項29】
前記3D環境を修正することは、カーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作のうちの1つ又は複数を実行することを含む、請求項26に記載の方法。
【請求項30】
前記3D環境は、前記モバイル・デバイスの前記画面より概して大きい仮想デスクトップ・コンピュータ環境を含む、請求項26に記載の方法。
【請求項31】
前記モバイル・デバイスのユーザ・インターフェースからの1つ又は複数の信号を使用して、前記モバイル・デバイスの前記ユーザ・インターフェースの動きを識別することと、
前記モバイル・デバイスの前記ユーザ・インターフェースの動き及び前記第1のユーザ対話に少なくとも部分的に基づいて、前記3D環境を修正することと
を更に含む、請求項26に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
実施形態は、一般にモバイル・デバイスの対話性に関する。より具体的に、実施形態は、モバイル・デバイスの対話性を強化するための3次元(3D)環境の使用に関する。
【背景技術】
【0002】
従来のスマートフォンは、画面上に表示されているコンテンツと比較して小さい画面(例えばディスプレイ)を有することがある。例えば典型的なデスクトップ環境は、典型的なスマートフォン上で見ることが困難な可能性がある、いくつかのウィンドウを含むことができる。
【発明の概要】
【発明が解決しようとする課題】
【0003】
比較的小さな画面サイズに適応するためにいくつかのソリューションが開発されてきている可能性があるが、依然としてかなりの改良の余地が残されている。例えば表示された画像を横切ってパン(panning)するための従来の技法は、ユーザがその部分で指を「スワイプ」させる必要があり、この場合、ユーザの指が画面上のコンテンツを塞ぐ可能性がある。同様に、画像の拡大縮小には、指による「ピンチ(pinch)」が必要な可能性があり、これもユーザがコンテンツの少なくとも一部を見るのを妨げる。
【課題を解決するための手段】
【0004】
実施形態は、画面を介して3次元(3D)環境を表示するための画面及びロジックを有するモバイル・デバイスを含み得る。ロジックは、モバイル・デバイス背後の領域との第1のユーザ対話を識別し、第1のユーザ対話に少なくとも部分的に基づいて3D環境を修正することもできる。
【0005】
実施形態は、モバイル・デバイスの画面を介して3D環境を表示し、モバイル・デバイス背後の領域との第1のユーザ対話を識別するロジックを有する装置も含むことができる。ロジックは、第1のユーザ対話に少なくとも部分的に基づいて3D環境を修正するようにも構成され得る。
【0006】
加えて、実施形態は、プロセッサによって実行されると、モバイル・デバイスに、該モバイル・デバイスの画面を介して3D環境を表示させ、モバイル・デバイス背後の領域との第1のユーザ対話を識別させる、命令セットを有する、持続性コンピュータ読取可能記憶媒体を含むことができる。命令は、モバイル・デバイスに、第1のユーザ対話に少なくとも部分的に基づいて3D環境を修正させることも可能である。
【0007】
他の実施形態は、モバイル・デバイスの画面を介して3D環境を表示する、コンピュータ実装方法を含み得る。方法は、モバイル・デバイス背後の領域との第1のユーザ対話を識別することと、第1のユーザ対話に少なくとも部分的に基づいて3D環境を修正することとを提供することもできる。
【0008】
本発明の実施形態の様々な利点は、本明細書の下記及び添付の特許請求の範囲を読むこと、及び以下の図面を参照することにより、当業者に明らかとなろう。
【図面の簡単な説明】
【0009】
【
図1】一実施形態に従った、モバイル・デバイスの画面を介して表示される3次元(3D)仮想デスクトップ環境の例を示す透視図である。
【
図2】一実施形態に従った、モバイル・デバイスの画面を介して表示される代替の3D仮想環境の例を示す透視図である。
【
図3】一実施形態に従った、ユーザがモバイル・デバイスと対話できるようにするために3D仮想環境を使用する方法の例を示すフローチャートである。
【
図4】一実施形態に従った、モバイル・デバイスの例を示すブロック図である。
【発明を実施するための形態】
【0010】
図1に進むと、モバイル・デバイス10が示されている。モバイル・デバイス10は、ユーザ14が見ることのできる画面12(例えば液晶ディスプレイ/LCD、タッチ・スクリーン、立体ディスプレイ等)を有する。モバイル・デバイス10は、例えばスマートフォン、モバイル・インターフェース・デバイス(MID)、ノート型コンピュータ又は画面12のサイズが比較的小さい他の同様のデバイスとすることができる。図示された例において、3D環境16は、モバイル・デバイス10の前から見たときにモバイル・デバイス10背後のある程度の距離に配置されているように見えるように、画面12上に表示される。3D環境16は、例えば複数のウィンドウ18(18a、18b)が画面12よりもかなり大きく見える、仮想デスクトップ環境を含んでもよい。ウィンドウ18の位置は、「空中(in-air)」にある(例えば浮いている)か、物理デスクトップや壁等のモバイル・デバイス10背後の何らかの外部表面に「固定(pinned)」されることが可能である。
【0011】
一般に、ユーザ14は、モバイル・デバイス10を一方の手に保持し、もう一方の「空いている手」20で、3D環境16と対話することがある。3D環境16とのユーザ対話は、例えばカーソル移動操作、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作、オブジェクト回転操作等に関連する、アクティビティを含むことが可能であり、操作を実行するモードは環境に応じて変化することがある。例えば3D環境16が物理デスクトップなどの外部表面に固定される場合、ユーザ14は、空いている手20の人差し指(又は他の指)を用いて外部表面をタップすることによって、ウィンドウ18を選択する可能性がある。こうしたケースでは、モバイル・デバイス10は、タッピング(例えばユーザ対話)を検出し、3D環境16において適切なクリック及び/又は選択操作を実行するための、後方画像センサ及び/又はマイクロフォン(図示せず)を含むことがある。例えば後方画像センサは、パターン/オブジェクト認識技法を使用して、タッピング対話に対応する様々な手の形状及び/又は動きを識別する可能性がある。同様に、マイクロフォンは、タッピング対話に対応する音声周波数コンテンツを識別することが可能な場合がある。ドラッグ・アンド・ドロップ動作及びピンチ動作のような他のユーザ対話を、後方画像センサ及び/又はマイクロフォンを使用して識別してもよい。
【0012】
したがって、図示されたウィンドウ18bが現在(例えば環境の最前部にある)アクティブ・ウィンドウであり、空いている手20の人差し指が他のウィンドウ18aに対応する位置で外部表面をタップする場合、モバイル・デバイス10は、他のウィンドウ18aをアクティブ・ウィンドウにすること(例えば環境の最前部に移動すること)によって、応答することができる。特に注目すべきことは、こうした手法によって、外部表面がユーザ14に触覚フィードバックを提供できる場合があることである。以下でより詳細に説明するように、3D環境16が空中環境である(例えば外部表面に固定されていない)場合、触覚フィードバックは、ユーザ対話の検出に応答して、空いている手20に空気をひと吹きするように構成されるデバイス上の空気ノズルのような、別の構成要素によって提供されることもある。
【0013】
ユーザ14は、空いている手20の人差し指を所望の位置まで移動させ、モバイル・デバイス10を保持している手を使用して、3D環境16内で1つ又は複数の操作をトリガするボタン22のようなモバイル・デバイス10のユーザ・インターフェース(UI)と対話することも可能である。したがって、ユーザ14の空いている手20をマウスの位置調整機構として機能させながら、ボタン22はマウスの左及び/又は右クリック・ボタンとして、有効に機能することができる。例えばボタン22は、ウィンドウ18をクリックするか又は他の方法で選択するために、外部表面をタップするための代替として使用される可能性もある。したがって、ユーザ14は、単に空いている手20を移動させて3D環境16内の所望の位置へポイントし、他方の手を使用してボタン22を押し、クリック/選択操作を開始してもよい。加えてボタン22は、ドラッグ・アンド・ドロップ又はピンチ操作のような、1つ又は複数の複雑な操作を実行するために使用されてもよい。
【0014】
すでに述べたように、別の方法として、3D環境16は特定の外部表面に固定されない空中環境として実装されてもよい。こうしたケースでは、空いている手20の動きを、3D環境16内のウィンドウ18及び他のオブジェクトに対応する空中の位置に関連させることができる。モバイル・デバイス10は、3D環境16とのユーザ対話に応答して触覚フィードバックを提供する、空気ノズル(図示せず)も備えてもよい。
【0015】
図示されたモバイル・デバイス10は、パン及びズーム操作に固有の手法の実装も可能にすることができる。特に、ユーザ14は、単に空いている手20をシーンの縁部まで所望の方向に移動することによって、3D環境16にわたってパン(例えば左、右、上又は下のスクロール)することが可能であり、この場合、後方画像センサが、空いている手20のモーションを検出してもよい。パンの他の手法は、ユーザ14が、モバイル・デバイス10を関心のある方向へ傾斜/移動させることとしてよく、この場合、モバイル・デバイス10は、モバイル・デバイス10の動きをパン操作に変換するために後方画像センサと連動して働くことが可能な、モーション・センサ及び/又は前方画像センサ(図示せず)を備えることも可能である。いずれの手法も、画面12を介して表示される仮想環境が、画面12よりもかなり大きく見えるようにすることができる。
【0016】
さらに、モーション・センサ及び/又は前方画像センサは、モバイル・デバイス10の動きをズーム操作に変換するために後方画像センサと連動して働くことがある。特に、前方画像センサは、モバイル・デバイス10とユーザ14の顔との間の距離を決定することが可能であり、後方画像センサは、モバイル・デバイス10とユーザ14の空いている手20及び/又は外部表面との間の距離を決定することが可能であり、この場合、これらの距離の変化をズーム操作に変換することができる。したがって、ユーザ14は、モバイル・デバイス10をユーザ14の顔から遠くへ、3D環境内の関心領域の方へ移動させることによって、(拡大鏡を用いるように)3D環境16の特定の領域にズームインすることができる。同様にユーザ14は、モバイル・デバイスをユーザ14の顔に向かって、問題の領域から遠くへ移動させることによって、3D環境16の特定の領域をズームアウトすることができる。ズーム操作を実行するためのこうした手法により、比較的大きい仮想環境が画面12を介して表示されることも更に可能になる。さらに、例示された手法は、3D環境の修正がモバイル・デバイス10の背後で発生するユーザ対話に基づいていることによって、空いている手20の指がユーザ対話中に表示されるコンテンツを塞ぐことに対するいかなる懸念をも取り除く。
【0017】
図2は、1つ又は複数の3Dオブジェクト26(26a〜26f)がモバイル・デバイス10の画面12を介して表示される、別の3D環境24を示す。図示された例では、ユーザの空いている手20は、モバイル・デバイス10の背後の領域と対話することによって、オブジェクト26を選択、回転及び他の方法で操作することができる。ゲーム環境、ワークフロー環境等のような多様な仮想環境を、示された様式でレンダリングし、修正してもよい。
【0018】
次に
図3に移ると、ユーザがモバイル・デバイスと対話できるようにするために3D環境を使用する方法30が示されている。方法30は、モバイル・プラットフォームのようなモバイル・デバイス10(
図1及び
図2)内で、機械又はコンピュータ読取可能記憶媒体内に記憶されるロジックの命令セットとして実装され得る。機械又はコンピュータ読取可能記憶媒体は、例えば特定用途向け集積回路(ASIC)、相補型金属酸化膜半導体(CMOS)又はトランジスタ・トランジスタ論理(TTL)技術、あるいはこれらの組み合わせのような回路技術を使用する固定機能性論理ハードウェア内の、例えばプログラマブル論理アレイ(PLA)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、複合プログラマブル論理デバイス(CPLD)のような構成可能ロジックにおける、ランダム・アクセス・メモリ(RAM)、読取専用メモリ(ROM)、プログラマブルROM(PROM)、ファームウェア、フラッシュ・メモリ等である。例えば方法30に示された動作を実施するためのコンピュータ・プログラム・コードは、Java(登録商標)、Smalltalk、C++等のようなオブジェクト指向プログラミング言語、並びに「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1つ又は複数のプログラミング言語の任意の組み合わせで書かれることがある。
【0019】
一般に、方法30のデバイス部分32は、デバイスの動きに基づいて3D環境をレンダリング及び修正することを含み、方法30の対話部分34は、ユーザ対話に基づいて3D環境をレンダリング及び修正することを含むことが可能である。図示される処理ブロック36は、フレーム・バッファを獲得することを提示する。ここで、フレーム・バッファ・データを、モバイル・デバイス10の画面を介して3D環境の1つ又は複数の画像/ビデオ・フレームをレンダリングするのに使用されるピクセル・データに関連付けることができる。外部表面の位置及び配向は、ブロック38において決定することができる。あるいは、仮想環境は空中位置でレンダリングされてもよく、この場合、ブロック38での決定はバイパスされ得る。
【0020】
ブロック40は、外部表面の配向に一致するようにフレーム・バッファ・データの遠近感及び位置を調整することを提示することができる。したがって、例えば外部表面がユーザに対してある角度(例えば45°)に配置された物理デスクトップである場合、フレーム・バッファ・データも同じ/同様の角度で傾斜させてよい。モバイル・デバイスの動き及び/又は再配向はブロック42で検出され得る。ここで、動きの検出は、すでに論じたようなモバイル・デバイスのモーション・センサ、後方画像センサ、前方画像センサ等からの1つ又は複数の信号を使用することにより達成され得る。図示されたブロック44は、デバイスの動き/再配向に基づいてフレーム・バッファを更新する。したがって更新は、左右のパン、ズームイン/アウト、外部表面の配向に対する適切な遠近感の維持等を含むことがある。
【0021】
方法10の対話部分34において、ブロック46は手/指の位置(例えば空中、デバイス上、外部表面上)を検出することを提示することができ、ブロック48において、手/指の位置に基づいてカーソル移動操作を実行することができる。加えて、後方画像センサ、マイクロフォン及び/又はモバイル・デバイス(例えばUI、ボタン等)からの1つ又は複数の信号を使用して、ブロック50において、ユーザの一部での1つ又は複数の指のジェスチャを識別することができる。ブロック52において、ジェスチャが検出されたと決定された場合、図示されたブロック54において、3D環境内で適切なアクションを実行する。したがってブロック54は、クリック操作、ドラッグ・アンド・ドロップ操作、ピンチ操作、選択操作及びオブジェクト回転操作等を実行することを含むことができる。ブロック56は、仮想環境対話プロセスの終了が要求されたかどうかを決定することを提示する。終了が要求されていないか、又はいかなるジェスチャも検出されない場合、図示された方法30は、デバイスの動き及び手の動きを追跡するために反復され、それに応じて3D環境を更新する。
【0022】
図4は、モバイル・デバイス60を示す。モバイル・デバイス60は、コンピューティング機能(例えば携帯情報端末/PDA、ラップトップ、スマート・タブレット)、通信機能(例えばワイヤレス・スマートフォン)、イメージング機能、メディア再生機能(例えばスマート・テレビジョン/TV)、又はそれらの任意の組み合わせ(例えばモバイル・インターネット・デバイス/MID)を有する、プラットフォームの一部とすることができる。モバイル・デバイス60は、すでに論じたようなモバイル・デバイス10(
図1及び
図2)に容易に置き換え可能である。図示された例では、デバイス60は、システム・メモリ66と通信可能な統合型メモリ・コントローラ(IMC)64を有するプロセッサ62を含む。例えばシステム・メモリ66は、例えばデュアル・インライン・メモリ・モジュール(DIMM)、スモール・アウトラインDIMM(SODIMM)等のような1つ又は複数のメモリ・モジュールとして構成される、動的ランダム・アクセス・メモリ(DRAM)を含むことがある。
【0023】
図示されたデバイス60は、ホスト・デバイスとして機能し、例えば前方画像センサ70、後方画像センサ72、空気ノズル74、マイクロフォン76、画面78、モーション・センサ79及び大容量ストレージ80(例えばハード・ディスク・ドライブ/HDD、光ディスク、フラッシュ・メモリ等)と通信可能な、チップセットのサウスブリッジとも呼ばれることがある、プラットフォーム・コントローラ・ハブ(PCH)68も含む。図示されたプロセッサ62は、画面78を介して3D環境を表示し、モバイル・デバイス60の背後の領域とのユーザ対話を識別し、ユーザ対話に少なくとも部分的に基づいて3D環境を修正するように構成された、ロジック82を実行することができる。3D環境は、モバイル・デバイス60の動きに基づいて修正されることもあり、この場合、前方画像センサ70、後方画像センサ72、マイクロフォン76及び/又はモーション・センサ79からの1つ又は複数の信号を使用して、ユーザ対話及び/又はモバイル・デバイスの動きを識別することができる。加えて、モバイル・デバイス60とのユーザ対話は、すでに論じたように、画面78(例えばタッチ・スクリーン)を介して実装されるUIから、又はボタン22(
図1)のような他の適切なインターフェースからの1つ又は複数の信号に基づいて識別され得る。さらに、ロジック82は、ノズル74を使用して、ユーザ対話に応答して触覚フィードバックをユーザに提供することがある。
【0024】
したがって、本明細書で説明される技法は、スマートフォンのような小型フォーム・ファクタ・モバイル・デバイスを使用して、完全なデスクトップ・コンピュータ体験を可能にすることができる。3D表示技術及び/又は3Dレンダリング機構を使用することによって、ユーザが、デバイスの画面の上、背後、下、及び横のスペースと対話しながら、モバイル・デバイスを介して対話すること、その画面に目を向けることを可能にすることができる。加えて画面は、画面に直接目を向けている個人に対してのみ見えるので、(例えばラップトップ・ディスプレイ用に設計され得るプライバシー・フィルタと同様に)ユーザ対話に関するプライバシーを向上させる。
【0025】
本発明の実施形態は、すべてのタイプの半導体集積回路(「IC」)チップとともに使用するように適用可能である。これらのICチップの例は、プロセッサ、コントローラ、チップセット構成要素、プログラマブル論理アレイ(PLA)、メモリ・チップ、ネットワーク・チップ、システム・オン・チップ(SoC)及びSSD/NANDコントローラASIC等を含むが、これらには限定されない。加えて、図面の一部では、信号導体線が線で表されている。いくつかは、主要な情報フローの方向を示すために、異なること、より多くの構成信号経路を示すこと、番号ラベルを有すること、複数の構成信号経路を示すこと、並びに/あるいは1つ又は複数の端部に矢印を有することがある。しかしながらこれは、限定的に解釈されるべきではない。むしろこうした追加の詳細は、回路をより容易に理解できるようにするために、1つ又は複数の例示の実施形態に関して使用することができる。表された全ての信号線は実際には、追加の情報を有するか否かにかかわらず、複数の方向に進行可能であり、例えば差動ペアとともに実装されるデジタル又はアナログ線、光ファイバ線及び/又はシングル・エンド線等の、任意の適切なタイプの信号スキーマで実装され得る、1つ又は複数の信号を備えてよい。
【0026】
例示のサイズ/モデル/値/領域を所与のものとしていることがあるが、本発明はこれらに限定されない。製造技術(例えばフォトリソグラフィ)は経時的に成長するため、より小さなサイズのデバイスが製造可能となることが予測される。加えて、ICチップ及び他の構成要素への周知の電気/接地接続は、図面及び議論をより単純にするため、及び本発明の実施形態の特定の態様を不明瞭にしないようにするために図面内に示されていても、示さなくてもよい。さらに、配置構成がブロック図の形で示されることがあるが、これは、本発明の実施形態を不明瞭にすることを避けるためであり、また、こうしたブロック図の配置構成の実装を伴う細部が、実施形態が実装されることになるプラットフォームに大幅に依存している、すなわちこうした細部が当業者の周知の範囲内にある、という事実に鑑みたものでもある。本発明の例示の実施形態を説明するために特定の細部(例えば回路)が示される場合、当業者であれば、本発明の実施形態がこれらの特定の細部を用いずに又はそれらの変形を用いて、実施可能であることが明らかとなろう。したがって本説明は、限定的ではなく例示的なものとみなされるべきである。
【0027】
「結合される」という用語は、本明細書では、問題となっている構成要素間の直接又は間接的な任意のタイプの関係を指すのに使用されることがあり、電気、機械、流体、光、電磁、電気機械又は他の接続に適用してよい。加えて、本明細書において「第1」、「第2」等の用語は、議論を容易にするために使用されており、特に指示されていない限り、特定の時間的又は経時的な意味を伝えるものではない。
【0028】
当業者であれば、上記の説明から、本発明の実施形態の広義な技法が様々な形で実装可能であることを理解されよう。したがって、本発明の実施形態は、その特定の例に関連して説明されているが、図面、明細書及び以下の特許請求の範囲を検討することで他の修正が当業者に明らかになることから、本発明の実施形態の真の範囲はそれらに限定されるべきではない。