(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022092745
(43)【公開日】2022-06-23
(54)【発明の名称】拡張現実におけるジェスチャによる操作方法及びヘッドマウントディスプレイシステム
(51)【国際特許分類】
G06F 3/01 20060101AFI20220616BHJP
G06F 3/0482 20130101ALI20220616BHJP
G06T 7/20 20170101ALI20220616BHJP
【FI】
G06F3/01 570
G06F3/0482
G06T7/20 300A
【審査請求】未請求
【請求項の数】9
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2020205628
(22)【出願日】2020-12-11
(71)【出願人】
【識別番号】518427524
【氏名又は名称】未來市股▲ふん▼有限公司
(74)【代理人】
【識別番号】100081961
【弁理士】
【氏名又は名称】木内 光春
(74)【代理人】
【識別番号】100112564
【弁理士】
【氏名又は名称】大熊 考一
(74)【代理人】
【識別番号】100163500
【弁理士】
【氏名又は名称】片桐 貞典
(74)【代理人】
【識別番号】230115598
【弁護士】
【氏名又は名称】木内 加奈子
(72)【発明者】
【氏名】郭 勝修
【テーマコード(参考)】
5E555
5L096
【Fターム(参考)】
5E555AA64
5E555BA38
5E555BB38
5E555BC04
5E555BE17
5E555CA42
5E555CB45
5E555CB55
5E555CB66
5E555CC01
5E555DA08
5E555DB16
5E555DB53
5E555DC11
5E555DC13
5E555DC19
5E555DC21
5E555DD02
5E555EA19
5E555EA20
5E555EA22
5L096AA06
5L096CA04
5L096DA02
5L096FA12
5L096FA69
5L096GA55
5L096HA11
5L096JA22
5L096KA04
(57)【要約】
【課題】拡張現実(XR)におけるジェスチャによる操作方法及びヘッドマウントディスプレイ(HMD)システムを提供する。
【解決手段】
この方法では、第1ジェスチャは、第1画像で識別される。第1ジェスチャは、ユーザの手に対応する。インタラクティブ領域に配置された仮想手と第1インタラクティブオブジェクトは、第1ジェスチャの識別された結果に応答して表示される。仮想手が第1ジェスチャを行う。第2ジェスチャは、第2画像で識別される。第2ジェスチャはユーザの手に対応し、第1ジェスチャとは異なる。第2ジェスチャは、インタラクティブ領域の第1インタラクティブオブジェクトと相互動作する。仮想手と第2インタラクティブオブジェクトは、第2ジェスチャの識別された結果に応答してディスプレイに表示される。仮想手が第2ジェスチャを行う。従って、直感的なジェスチャ制御が提供される。
【選択図】
図2
【特許請求の範囲】
【請求項1】
第1画像において、ユーザの手に対応する第1ジェスチャを識別するステップと、
第1ジェスチャの識別された結果に応答して、インタラクティブ領域に配置された仮想手及び第1インタラクティブオブジェクトを表示し、前記仮想手が前記第1ジェスチャを行うステップと、
第2画像において、前記ユーザの手に対応し且つ前記第1ジェスチャと異なる第2ジェスチャを識別し、前記第2ジェスチャは、前記インタラクティブ領域において前記第1インタラクティブオブジェクトと相互作用するステップと、
前記第2ジェスチャの識別された結果に応答して前記仮想手と第2インタラクティブオブジェクトを表示し、前記仮想手が前記第2ジェスチャを行うステップと、
を含む、拡張現実(XR)におけるジェスチャによる操作方法。
【請求項2】
画像をキャプチャする画像キャプチャデバイスと、
ディスプレイと、
前記画像キャプチャデバイス及び前記ディスプレイに結合され、
前記画像キャプチャデバイスによってキャプチャされた第1画像において、ユーザの手に対応する第1ジェスチャを識別し、
第1ジェスチャの識別された結果に応答して、インタラクティブ領域に配置された仮想手及び第1インタラクティブオブジェクトを前記ディスプレイに表示し、前記仮想手が前記第1ジェスチャを行い、
前記画像キャプチャデバイスによってキャプチャされた第2画像において、ユーザの手に対応し且つ前記第1ジェスチャと異なる第2ジェスチャを識別し、前記第2ジェスチャは、前記インタラクティブ領域において前記第1インタラクティブオブジェクトと相互作用し、
前記第2ジェスチャの識別された結果に応答して前記仮想手と第2インタラクティブオブジェクトを前記ディスプレイに表示し、前記仮想手が前記第2ジェスチャを行う、
ように構成されたプロセッサと、
を備えるヘッドマウントディスプレイシステム。
【請求項3】
前記第1ジェスチャ又は前記第2ジェスチャを識別するステップは、
前記第1画像又は前記第2画像から前記ユーザの手の関節を識別することと、
ジェスチャ分類子によって前記第1画像又は前記第2画像及び前記ユーザの手の識別された関節に基づいて前記ユーザの手のジェスチャを予測し、前記ジェスチャ分類子は、機械学習アルゴリズムによって訓練されることと、
を含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記第1画像又は前記第2画像から前記ユーザの手の関節を識別し、
前記ジェスチャ分類子によって、前記第1画像又は前記第2画像と前記ユーザの手の識別された関節に基づいて前記ユーザの手のジェスチャを予測し、前記ジェスチャ分類子は、機械学習アルゴリズムによって訓練される、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。
【請求項4】
前記ユーザの手のジェスチャを予測するステップは、
前記ユーザの手の識別された関節なしで、単に前記第1画像又は前記第2画像に基づいて、ジェスチャを予測することと、
前記ユーザの手の識別された関節に基づいて予測されたジェスチャを確定することと、
を含む請求項3に記載の操作方法、
又は、
前記プロセッサは、更に、
前記ユーザの手の識別された関節なしで、単に前記第1画像又は前記第2画像に基づいて、ジェスチャを予測し、
前記ユーザの手の識別された関節に基づいて予測されたジェスチャを確定する、
ように構成される請求項3に記載のヘッドマウントディスプレイシステム。
【請求項5】
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクトを非表示にするステップを更に含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクトを非表示にする、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。
【請求項6】
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクト及び前記第2インタラクティブオブジェクトを非表示にするステップを更に含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクト及び前記第2インタラクティブオブジェクトを非表示にする、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。
【請求項7】
前記第1ジェスチャ又は前記第2ジェスチャを識別するステップは、
前記ユーザの右手と左手の一方を識別することを含み、前記第2インタラクティブオブジェクトを表示するステップは、
右手が識別されたことに応答して第1メニューを表示することと、
左手が識別されたことに応答して前記第1メニューとは異なる第2メニューを表示し、前記第2インタラクティブオブジェクトは、前記第1メニュー及び前記第2メニューを含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記ユーザの右手と左手の一方を識別し、
右手が識別されたことに応答して前記ディスプレイに第1メニューを表示し、
左手が識別されたことに応答して前記ディスプレイに前記第1メニューとは異なる前記第2メニューを表示し、前記第2インタラクティブオブジェクトは、前記第1メニュー及び前記第2メニューを含む、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。
【請求項8】
前記第1メニューは、クイック設定メニューに対応し、前記第2メニューは、メインメニューに対応する、
請求項7に記載の操作方法、
又は、
請求項7に記載のヘッドマウントディスプレイシステム。
【請求項9】
前記第1ジェスチャは、掌を上に向けるジェスチャであり、前記第2ジェスチャは、拳ジェスチャである、
請求項1に記載の操作方法、
又は、
請求項2に記載のヘッドマウントディスプレイシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、一般に、仮想シミュレーション、特に、拡張現実(XR)におけるジェスチャによる操作方法及びヘッドマウントディスプレイシステムに関する。
【背景技術】
【0002】
仮想現実(virtual reality,VR)、拡張現実(augmented reality,AR)、複合現実(mixed reality,MR)などの感覚、知覚及び/又は環境をシミュレートするための拡張現実(Extended reality,XR)技術が最近流行している。前述の技術は、ゲーム、軍事訓練、ヘルスケア、リモートワークなど、複数の分野に適用することができる。XRでは、ユーザがヘッドマウントディスプレイ(HMD)を着用した場合、ユーザは、自分の手を使用してジェスチャを行い、さらに特定の機能をトリガすることができる。その機能は、ハードウェア又はソフトウェアの制御に関連するものであり得る。従って、ユーザが自分の手でヘッドマウントディスプレイシステムを制御することが簡単となっている。
【発明の概要】
【発明が解決しようとする課題】
【0003】
幾つかのジェスチャは、直感的に機能をトリガするものでない可能性がある。従って、本開示は、直観的なジェスチャ制御を提供するXRにおけるジェスチャによる操作方法及びヘッドマウントディスプレイシステムを対象とする。
【課題を解決するための手段】
【0004】
一例示的実施形態において、XRにおけるジェスチャによる操作方法は、これに限定するものではないが、以下のステップを含む。第1ジェスチャは、第1画像において識別される。前記第1ジェスチャは、ユーザの手に対応する。インタラクティブ領域に位置する仮想手と第1インタラクティブオブジェクトは、前記第1ジェスチャの識別された結果に応答して表示される。前記仮想手は、前記第1ジェスチャを行う。第2ジェスチャは、第2画像において識別される。前記第2ジェスチャは、前記ユーザの手に対応し、前記第1ジェスチャとは異なる。前記第2ジェスチャは、前記インタラクティブ領域の前記第1インタラクティブオブジェクトと相互作用する。前記仮想手及び第2インタラクティブオブジェクトは、前記第1ジェスチャ及び前記第2ジェスチャの識別された結果に応答してディスプレイに表示される。前記仮想手が前記第2ジェスチャを行う。前記仮想手の数は、1つ又は2つであることができる。前記仮想手は、XRでは全身又は半身のアバターの手であることができる。
【0005】
一例示的実施形態において、ヘッドマウントディスプレイシステムは、これに限定するものではないが、画像キャプチャデバイス、ディスプレイ、及びプロセッサを含む。前記画像キャプチャデバイスは、画像をキャプチャする。前記プロセッサは、前記画像キャプチャデバイス及び前記ディスプレイに結合される。前記プロセッサは、次のステップを実行するように構成される。前記プロセッサは、前記画像キャプチャデバイスによってキャプチャされた第1画像における第1ジェスチャを識別する。前記第1ジェスチャは、ユーザの手に対応する。前記プロセッサは、前記第1ジェスチャの識別された結果に応答して、前記ディスプレイのインタラクティブ領域に位置する仮想手と第1インタラクティブオブジェクトを表示する。前記仮想手が前記第1ジェスチャを行う。前記プロセッサは、前記画像キャプチャデバイスによってキャプチャされた第2画像における第2ジェスチャを識別する。前記第2ジェスチャは、前記ユーザの手に対応し、前記第1ジェスチャとは異なり、前記第2ジェスチャは、インタラクティブ領域の第1インタラクティブオブジェクトと相互作用する。前記プロセッサは、前記第1ジェスチャ及び前記第2ジェスチャの識別された結果に応答して、前記ディスプレイ上に前記仮想手及び第2インタラクティブオブジェクトを表示する。前記仮想手が前記第2ジェスチャを行う。前記仮想手の数は1つ又は2つであることができる。前記仮想手は、XRでは全身又は半身のアバターの手であることができる。
【発明の効果】
【0006】
上記に照らして、操作方法及びヘッドマウントディスプレイシステムによれば、2つの連続するジェスチャが2つの画像で識別され、ジェスチャの組み合わせがディスプレイをトリガして、異なるインタラクティブオブジェクトを表示することができる。更に、仮想手と更に相互作用するために、1つのインタラクティブオブジェクトが提供される。従って、ヘッドマウントディスプレイシステムを制御するための便利で興味深い方法が提供される。
【0007】
理解されるべきこととして、この概要は、本開示の全ての態様及び実施形態を含むとは限らず、いかなる方法にも制限又は限定することを意味するものではなく、本明細書に開示される発明は、それに対する自明な改良及び修正を含むものであると当業者により理解されるものである。
【図面の簡単な説明】
【0008】
【
図1】本開示の一例示的実施形態によるヘッドマウントディスプレイシステムを示すブロック図である。
【
図2】本開示の一例示的実施形態による拡張現実(XR)におけるジェスチャによる操作方法を示すフローチャートである。
【
図3】本開示の一例示的実施形態によるジェスチャ分類子の予測を示す概略図である。
【
図4B】本開示の一例示的実施形態によるジェスチャによるインタラクティブオブジェクトのトリガーを示す概略図である。
【
図5B】本開示の一例示的実施形態によるジェスチャによるインタラクティブオブジェクトのトリガーを示す概略図である。
【
図6B】本開示の一例示的実施形態によるジェスチャによるインタラクティブオブジェクトのトリガーを示す概略図である。
【発明を実施するための形態】
【0009】
本開示の好適実施形態を詳細に参照し、その例を添付の図面に示す。可能な限り、図面及び説明で同じ参照番号を使用して同じ又は類似の部材を参照している。
【0010】
図1は、本開示の一例示的実施形態によるヘッドマウントディスプレイシステム100を示すブロック図である。
図1を参照し、ヘッドマウントディスプレイ(HMD)システム100は、これらに限定しないが、メモリ110、ディスプレイ120、画像キャプチャデバイス130、及びプロセッサを含む。HMDシステム100は、XR又はその他の現実シミュレーション関連技術に適用される。
【0011】
メモリ110は、任意のタイプの固定又は可動のランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、類似のデバイス、又は上記デバイスの組み合わせであることができる。メモリ110は、プログラムコード、デバイス構成、バッファーデータ、又は永続データ(画像、ジェスチャ分類子、事前定義されたジェスチャ、設定等)を記録し、これらのデータについては、後述する。
【0012】
ディスプレイ120は、LCD、LEDディスプレイ、又はOLEDディスプレイであることができる。
【0013】
画像キャプチャデバイス130は、モノクロカメラ又はカラーカメラ、ディープカメラ、ビデオレコーダ等のカメラ、又は他の画像をキャプチャすることができる画像キャプチャデバイスであることができる。
【0014】
プロセッサ150は、メモリ110、ディスプレイ120、及び画像キャプチャデバイス130に結合される。プロセッサ150は、メモリ110に格納されたプログラムコードをロードして、本開示の例示的実施形態の手順を実行するように構成される。
【0015】
幾つかの実施形態では、プロセッサ150は、CPU(central processing unit)、マイクロプロセッサ、マイクロコントローラ、グラフィックス処理ユニット(GPU)、デジタル信号処理(DSP)チップ、フィールドプログラマブルゲートアレイ(FPGA)であることができる。プロセッサ150の機能は、独立した電子デバイス又は集積回路(IC)によって実行されることもでき、プロセッサ150の動作は、ソフトウェアによって実施されることもできる。
【0016】
一実施形態において、HMD又はデジタル眼鏡は、メモリ110、ディスプレイ120、画像キャプチャデバイス130、及びプロセッサ150を含む。幾つかの実施形態では、プロセッサ150は、ディスプレイ120及び/又は画像キャプチャデバイス130と同じ装置に配置されない場合がある。しかしながら、それぞれディスプレイ120、画像キャプチャデバイス130、及びプロセッサ150を備えた装置は、ブルートゥース(登録商標)、Wi‐Fi、及びIR無線通信などの互換性のある通信技術を備えた通信トランシーバ、又は物理的な伝送ラインをさらに含み、お互いにデータを受信することができる。例えば、プロセッサ150は、HMD内に配置され、一方で、画像キャプチャデバイス130は、HMDの外側に配置されることができる。別の例では、プロセッサ150がコンピューティングデバイス内に配置され、一方で、ディスプレイ120がコンピューティングデバイスの外側に配置されることができる。
【0017】
本開示の1つ又は複数の実施形態で提供される動作プロセスをよりよく理解するために、幾つかの実施形態を以下に例示して、ヘッドマウントディスプレイシステム100を詳しく説明する。ヘッドマウントディスプレイシステム100のデバイスとモジュールは、次の実施形態に適用され、ここで提供されるXRにおけるジェスチャによる操作方法を説明する。その方法の各ステップは、実際の実装状況に応じて調整することができ、ここで説明するものに限定するものではない。
【0018】
図2は、本開示の一例示的実施形態による、拡張現実(XR)におけるジェスチャによる操作方法を示すフローチャートである。
図2を参照すると、プロセッサ150は、画像キャプチャデバイス130によってキャプチャされた第1画像における第1ジェスチャを識別することができる(ステップS210)。具体的には、第1ジェスチャは、掌を上に向ける、掌を下に向ける、手を振る、拳ジェスチャなどの事前定義されたジェスチャである。第1ジェスチャは、ユーザの手に対応する。第一に、プロセッサ150は、画像の手を識別することができる。次に、プロセッサ150は、第1画像においてユーザの手によって行われたジェスチャを識別し、識別されたジェスチャが事前定義された第1ジェスチャであるかどうかを比較することができる。
【0019】
一実施形態では、プロセッサ150は、第1画像からユーザの手の関節を識別し、ジェスチャ分類子を介して第1画像及び識別されたユーザの手の関節に基づいてユーザの手のジェスチャを予測することができる。具体的には、手の関節の位置は手のジェスチャに関連している。さらに、画像の輪郭、サイズ、テクスチャ、形状、及びその他の特徴は、手のジェスチャに関連している。設計者は、事前定義されたジェスチャを含む多くの画像を訓練サンプルとして準備し、訓練サンプルを使用して、ジェスチャ認識機能で構成されている機械学習アルゴリズム(深層学習、人工ニューラルネットワーク(ANN)、サポートベクターマシン(SVM)等)によってジェスチャ分類子を訓練することができる。更に、これらの訓練サンプルでは手関節が識別され、手関節は同じジェスチャ分類子又は別のジェスチャ分類子を訓練するための別の訓練サンプルになる。次に、訓練されたジェスチャ分類子を使用して、入力画像で行われるジェスチャを判定することができる。
【0020】
幾つかの実施形態では、プロセッサ150は、ユーザの手の識別された関節なしで、単に第1画像に基づいて、ジェスチャを予測し、それから、ユーザの手の識別された関節に基づいて予測されたジェスチャを確定することができる。例えば、
図3は、本開示の一例示的実施形態によるジェスチャ分類子の予測を示す概略図である。
図3を参照し、ジェスチャを含む画像OMがジェスチャ分類子に入力されると、その特徴が画像OMから抽出される(ステップS301、即ち、特徴抽出)。例えば、ステップS301では、プロセッサ150は、画像OMのピクセル値を含むフィルターで畳み込み計算を実行し、対応するカーネルを使用して特徴マップを出力する。特徴は、テクスチャ、コーナー、エッジ、又は形状であることができる。次に、プロセッサ150は、特徴マップ等のステップS301から抽出された特徴を分類することができる(ステップS302、即ち、分類)。なお、1つのジェスチャ分類子は、1つ以上のラベル(即ち、本実施形態の1つ以上のジェスチャ)で構成されている場合がある。ジェスチャ分類子は、判定されたジェスチャを出力することができる。
【0021】
単に画像OMに基づいて1つ又は複数のジェスチャが判定された後、手関節Jを識別した画像OMが、同じ又は別のジェスチャ分類子に入力される。同様に、プロセッサ150は、手関節Jを識別した画像OMに対して特徴抽出(ステップS301)及び分類(ステップS302)を実行し、判定されたジェスチャを出力することができる。次いで判定されたジェスチャは、最初に判定されたジェスチャの正しさをチェックするために使用される。例えば、両方の判定されたジェスチャが同じである場合、プロセッサ150は、そのジェスチャを確定することができる。判定されたジェスチャが異なる場合、プロセッサ150は、別の画像において、そのジェスチャを判定することができる。
【0022】
一実施形態では、プロセッサ150は、更にユーザの右手及び左手を識別することができる。これは、プロセッサ150が、どちらの手が、ジェスチャを行うか、又は画像キャプチャデバイス130にキャプチャされるかを認識していることを意味する(即ち、手は画像キャプチャデバイス130の視野(FOV)内に配置される)。幾つかの実施形態では、プロセッサ150は、ユーザの右手と左手にそれぞれ異なる事前定義ジェスチャ又は同じ事前定義ジェスチャを定義することができる。例えば、1つの機能は、右手又は左手での親指を立てるジェスチャによってトリガされる。別の例では、別の機能が、右手で人差し指を上げるジェスチャによってトリガされ、同じ機能が、左手で小指を上げるジェスチャによってトリガされる。
【0023】
なお、例えば、3Dモデルベースのアルゴリズム、骨格ベースのアルゴリズム、外観ベースのモデル、筋電図ベースのモデル等、多くのジェスチャ認識アルゴリズムが存在する。これらのアルゴリズムは、実際の要件に合わせて実装できる。
【0024】
プロセッサ150は、第1ジェスチャの識別された結果に応答して、ディスプレイ120上のインタラクティブ領域に配置された仮想手及び第1インタラクティブオブジェクトを表示することができる(ステップS230)。具体的には、識別された結果が第1画像のジェスチャが第1ジェスチャと同一である場合、ユーザの手に対応する仮想手が第1ジェスチャを行う。プロセッサ150は、ディスプレイ120上に第1ジェスチャを行う仮想手を表示することができ、それにより、ユーザは、彼/彼女が正しいジェスチャを行っているかどうかを認識することができる。但し、第1画像の識別されたジェスチャが第1ジェスチャではない場合でも、プロセッサ150は識別されたジェスチャをディスプレイ120に表示することができる。更に、第1ジェスチャは、ディスプレイ120をトリガし、第1インタラクティブオブジェクトを表示することに用いられる。これは、ユーザが第1ジェスチャを行うまで、第1インタラクティブオブジェクトがディスプレイ120に表示されなくすることができることを意味する。第1インタラクティブオブジェクトは、画像、ビデオ、仮想ボール、又はその他の仮想オブジェクトである。第1インタラクティブオブジェクトは、仮想手又はアバターの手のインタラクティブ領域に位置する。これは、仮想の手の指、掌、又はその他の部分が、インタラクティブ領域に位置する任意のオブジェクトと相互作用可能となり得ることを意味する。例えば、インタラクティブ領域において、指が仮想キーに触れたり、又は掌が仮想ボールを持ったりすることができる。なお、インタラクティブ領域の形状と位置は、実際の要求に応じて変更されることができる。更に、仮想手の数は1つ又は2つであることができる。仮想手は、XRでは全身又は半身のアバターの手であることができる。
【0025】
一実施形態では、第1インタラクティブオブジェクトは、相互作用できることをユーザに通知し、ユーザに別のジェスチャの実行を試行させる。即ち、第1インタラクティブオブジェクトは、後続のジェスチャのヒントに関連している。例えば、第1インタラクティブオブジェクトは、仮想ボールであり、ユーザは仮想ボールを持ったり、掴んだりすることを試行することができる。
【0026】
プロセッサ150は、第2画像における第2ジェスチャを識別することができる(ステップS250)。具体的には、第2ジェスチャは、掌を上に向ける、掌を下に向ける、交差させた指、又は拳ジェスチャ等の別の事前定義されたジェスチャであるが、第1ジェスチャとは異なるものである。第2ジェスチャも、ユーザの手に対応する。プロセッサ150は、第2画像においてユーザの手によって行われたジェスチャを識別し、識別されたジェスチャが事前定義された第2ジェスチャであるかどうかを比較することができる。
【0027】
一実施形態では、ステップS210で詳細に述べたように、プロセッサ150は、第2画像からユーザの手の関節を識別し、ジェスチャ分類子を介して第2画像及び識別されたユーザの手の関節に基づいてユーザの手のジェスチャを予測することができる。幾つかの実施形態では、ステップS210で詳細に述べたように、プロセッサ150は、ユーザの手の識別された関節なしで、単に第2画像に基づいて、ジェスチャを予測し、次に、ユーザの手の識別された関節に基づいて予測されたジェスチャを確定することができる。
【0028】
プロセッサ150は、第2ジェスチャの識別された結果に応答して、ディスプレイ120上に仮想手及び第2インタラクティブオブジェクトを表示することができる(ステップS270)。具体的には、識別された結果が、第2画像のジェスチャが第2ジェスチャと同一であるという場合、ユーザに対応する仮想手が第2ジェスチャを行う。プロセッサ150は、ディスプレイ120上に第2ジェスチャを行う仮想手を表示することができ、第2ジェスチャを有する手は、インタラクティブ領域内の第1インタラクティブオブジェクトと相互作用することができる。例えば、仮想手が仮想ボールを掴む。幾つかの実施形態では、第1インタラクティブオブジェクトの変形のアニメーションがディスプレイ120に表示されることができる。例えば、仮想ボールが握り潰される。但し、第2画像の識別されたジェスチャが第2ジェスチャではない場合でも、プロセッサ150は、識別されたジェスチャをディスプレイ120に表示することができる。更に、第1インタラクティブオブジェクトは、間違ったジェスチャのために非表示にされることができる。
【0029】
更に、第1ジェスチャと第2ジェスチャの組み合わせを使用して、ディスプレイ120をトリガして第2インタラクティブオブジェクトを表示し、第1インタラクティブオブジェクトを非表示にする。これは、ユーザが第1ジェスチャを実行してから第2ジェスチャを実行するまで、第2インタラクティブオブジェクトがディスプレイ120に表示されないようにできることを意味する。第1画像で第1ジェスチャが識別された後に第2ジェスチャとは異なる第3ジェスチャが第2画像で識別された場合、第1インタラクティブオブジェクトは、引き続きディスプレイ120に表示され、第2インタラクティブオブジェクトは表示されない。第2インタラクティブオブジェクトは、画像、ビデオ、メニュー、又はその他の仮想オブジェクトであることができる。一方、第2ジェスチャが識別されるため、第2ジェスチャのヒントである第1インタラクティブオブジェクトは、表示される必要はない。従って、第1インタラクティブオブジェクトは、ユーザが第1ジェスチャと第2ジェスチャを直感的に組み合わせることを補助することができる。
【0030】
例えば、
図4A及び
図4Bは、本開示の一例示的実施形態によるジェスチャによるインタラクティブオブジェクトのトリガを示す概略図である。
図4Aを参照し、第1ジェスチャとして定義される掌を上に向けるジェスチャは、第1時点で左手を有する第1画像において識別される。掌を上に向けるジェスチャを備えた仮想左手LHと仮想ボールio1(即ち、第1インタラクティブオブジェクト)がディスプレイ120に表示される。
図4Bを参照し、第2ジェスチャとして定義される拳ジェスチャは、第2時点で左手を有する第2画像において識別される。拳ジェスチャのある仮想左手LHとメインメニューio2(即ち、第2インタラクティブオブジェクト)が、ディスプレイ120に表示される。メインメニューio2は、友達リスト、地図、アプリストアのアイコン等の複数のアイコンを含む。
【0031】
一実施形態では、第2インタラクティブオブジェクトは、第1メニューと第2メニューを含む。第2メニューは、第1メニューとは異なる。プロセッサ150は、右手が識別された場合は、ディスプレイ120に第1メニューを表示し、左手が識別された場合は、ディスプレイ120に第2メニューを表示する。これは、第1ジェスチャと第2ジェスチャの組み合わせが右手によって行われた場合、第1メニューがディスプレイ120に表示されるが、第1ジェスチャと第2ジェスチャの組み合わせが左手で行われた場合、ディスプレイ120に第2メニューが表示されることを意味する。
【0032】
例えば、
図4Bに示すように、第2メニューはメインメニューio2である。
図5A及び
図5Bは、本開示の一例示的実施形態に基づくジェスチャによるインタラクティブオブジェクトのトリガを示す概略図である。
図5Aを参照し、第1ジェスチャとして定義される掌を上に向けるジェスチャは、第3時点で右手を有する第1画像において識別される。掌を上に向けるジェスチャと仮想ボールio3を備えた仮想右手RH(即ち、第1インタラクティブオブジェクト)がディスプレイ120に表示される。
図5Bを参照し、第2ジェスチャとして定義される拳ジェスチャは、第4時点で左手を有する第2画像において識別される。第1ジェスチャを有する仮想右手RH及びクイック設定メニューio4(即ち、第2インタラクティブオブジェクト又は第1メニュー)がディスプレイ120に表示される。クイック設定メニューio4は、カメラのオン/オフ、仮想手での特定の動作、メッセージングのアイコン等の複数のアイコンを含む。
【0033】
一実施形態では、第2ジェスチャが検出された場合、プロセッサ150はディスプレイ120上の第1インタラクティブオブジェクトを更に非表示にすることができる。これは、後続のジェスチャを更に指示する必要がなく、第1インタラクティブオブジェクトが表示されないことを意味する。従って、第2インタラクティブオブジェクトのみがディスプレイ120に表示される。
図5A及び5Bを例にとると、拳ジェスチャが識別された後、仮想ボールio3は非表示にされる。
【0034】
別の実施形態では、第2インタラクティブオブジェクトがディスプレイ120に表示され、第1ジェスチャと第2ジェスチャの識別結果が確定された場合(即ち、第1ジェスチャと第2ジェスチャの組み合わせがユーザによって行われた場合)、プロセッサ150はディスプレイ120上の第1インタラクティブオブジェクトと第2インタラクティブオブジェクトを非表示にすることができる。従って、ジェスチャによってメニューをオフにすることができる。
【0035】
例えば、
図6A及び
図6Bは、本開示の一例示的実施形態に基づくジェスチャによるインタラクティブオブジェクトのトリガを示す概略図である。
図6Aを参照し、クイック設定メニューio4がディスプレイ120に表示されている。仮想ボールio3は、右手RHでの掌を上に向けたジェスチャのために表示される。
図6Bを参照し、右手RHでの拳ジェスチャのため、仮想ボールio3とクイック設定メニューio4の両方が非表示にされている。
【0036】
なお、
図4A~
図6Bの第1インタラクティブオブジェクト及び第2インタラクティブオブジェクト及びジェスチャは、実際の要求に応じて変更されることができ、実施形態は、それに限定するものではない。
【0037】
要約すると、上記の例示的実施形態は、XRにおけるジェスチャによる操作方法及びヘッドマウントディスプレイシステムを示した。ジェスチャの組み合わせは2つの画像で識別され、ディスプレイで第2インタラクティブオブジェクトを表示するために用いられる。更に、第2ジェスチャを行うようにさらに促すために、第1ジェスチャが識別された後に第1インタラクティブオブジェクトが表示されることができる。従って、直感的なジェスチャ制御が提供される。
【0038】
当業者であれば明らかであるように、本開示の範囲又は精神から逸脱することなく、本開示の構造に対して様々な修正及び変形を行うことができる。前述の観点において、本開示は、それらが後述の特許請求の範囲及びそれらの均等の範囲内にあるという条件で、本開示の修正及び変形を含むことが意図される。
【産業上の利用可能性】
【0039】
ジェスチャによる操作方法とヘッドマウントディスプレイシステムは、拡張現実に適用できる。
【符号の説明】
【0040】
100 ヘッドマウントディスプレイシステム
110 メモリ
120 ディスプレイ
130 画像キャプチャデバイス
150 プロセッサ
S210~S270、S301~S302 ステップ
OM 画像
J 関節
LH 仮想左手
io1 仮想ボール
io2 メインメニュー
RH 仮想右手
io3 仮想ボール
io4 クイック設定メニュー
【外国語明細書】