特許第6861311号(P6861311)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ グーグル インコーポレイテッドの特許一覧

特許6861311レーダーシステムを備えるスマートフォン、システムおよび方法
<>
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000002
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000003
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000004
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000005
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000006
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000007
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000008
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000009
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000010
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000011
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000012
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000013
  • 特許6861311-レーダーシステムを備えるスマートフォン、システムおよび方法 図000014
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6861311
(24)【登録日】2021年3月31日
(45)【発行日】2021年4月21日
(54)【発明の名称】レーダーシステムを備えるスマートフォン、システムおよび方法
(51)【国際特許分類】
   G06F 3/01 20060101AFI20210412BHJP
   G06F 3/0484 20130101ALI20210412BHJP
   G06F 3/0488 20130101ALI20210412BHJP
【FI】
   G06F3/01 570
   G06F3/0484 120
   G06F3/0484 150
   G06F3/0488
【請求項の数】20
【外国語出願】
【全頁数】32
(21)【出願番号】特願2020-90667(P2020-90667)
(22)【出願日】2020年5月25日
(62)【分割の表示】特願2020-517425(P2020-517425)の分割
【原出願日】2019年8月5日
(65)【公開番号】特開2020-173817(P2020-173817A)
(43)【公開日】2020年10月22日
【審査請求日】2020年6月15日
(31)【優先権主張番号】16/112,130
(32)【優先日】2018年8月24日
(33)【優先権主張国】US
【早期審査対象出願】
(73)【特許権者】
【識別番号】502208397
【氏名又は名称】グーグル エルエルシー
【氏名又は名称原語表記】Google LLC
(74)【代理人】
【識別番号】110001195
【氏名又は名称】特許業務法人深見特許事務所
(72)【発明者】
【氏名】ジュスティ,レオナルド
(72)【発明者】
【氏名】プピレフ,アイバン
(72)【発明者】
【氏名】アミフッド,パトリック・エム
【審査官】 岩橋 龍太郎
(56)【参考文献】
【文献】 特開平11−338120(JP,A)
【文献】 米国特許出願公開第2016/0041617(US,A1)
【文献】 米国特許出願公開第2011/0181509(US,A1)
【文献】 特開2012−048720(JP,A)
【文献】 特開2013−125328(JP,A)
【文献】 米国特許出願公開第2015/0370443(US,A1)
【文献】 米国特許出願公開第2018/0120946(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/033−3/038
G06F 3/048−3/0489
G06T 1/00
G06T 11/60−13/80
G06T 17/05
G06T 19/00−19/20
(57)【特許請求の範囲】
【請求項1】
システムであって、
ディスプレイを含む電子デバイスと、
ハードウェアで少なくとも部分的に実現されるレーダーシステムとを備え、前記レーダーシステムは、
レーダーフィールドを提供し、
記レーダーフィールド内のオブジェクトからの反射を検知し、
前記レーダーフィールド内の前記オブジェクトからの前記反射を分析し、および、
前記反射の前記分析に基づいて、レーダーデータを提供するように構成され、前記システムはさらに、
1つ以上のコンピュータプロセッサと、
前記1つ以上のコンピュータプロセッサによる実行に応じてレーダーベースアプリケーションを実現する命令が記憶された、1つ以上のコンピュータ可読媒体とを備え、前記レーダーベースアプリケーションは、
前記電子デバイスの前記ディスプレイを通して拡張現実(AR)要素を呈示し、
記電子デバイスの前記ディスプレイを介してなされるタッチ入力を受信し、前記タッチ入力は前記AR要素を選択するのに有効であり、
前記AR要素の選択の後に、前記レーダーデータに基づいて、前記レーダーフィールド内の前記オブジェクトによるジェスチャを判断し、および、
判断された前記ジェスチャに対応する、前記選択されたAR要素に関連するアクションを行うように構成されており
前記レーダーシステムは、さらに、デジタルビームフォーマと角度推定器とを備え、
前記デジタルビームフォーマは、前記反射からビームフォーミングデータを生成し、
前記角度推定器は、前記ビームフォーミングデータを分析して、前記オブジェクトに関する角度確率データを生成する、システム。
【請求項2】
判断された前記ジェスチャは3次元(3D)ジェスチャである、請求項1に記載のシステム。
【請求項3】
前記オブジェクトはユーザの体の一部である、請求項1または請求項2に記載のシステム。
【請求項4】
判断された前記ジェスチャは、前記オブジェクトと前記レーダーシステムとの間の距離を変更することを含む、請求項1〜請求項3のいずれか1項に記載のシステム。
【請求項5】
前記オブジェクトと前記レーダーシステムとの間で増加した距離である、変更された前記距離に対応する前記アクションは、ユーザに近接する、選択された前記AR要素の移動であり、
前記オブジェクトと前記レーダーシステムとの間で減少した距離である、変更された前記距離に対応する前記アクションは、前記ユーザから離れる、選択された前記AR要素の移動である、請求項4に記載のシステム。
【請求項6】
前記ユーザに近接する、選択された前記AR要素の移動は、増加した前記距離に比例し、
前記ユーザから離れる、選択された前記AR要素の移動は、減少した前記距離に比例する、請求項5に記載のシステム。
【請求項7】
判断された前記ジェスチャは、ユーザの体の一部と前記電子デバイスの前記ディスプレイの平面との間の距離と実質的に同じ距離を維持しつつ、前記レーダーシステムに対する前記オブジェクトの位置を変更することを含む、請求項1〜請求項6のいずれか1項に記載のシステム。
【請求項8】
第1の方向における前記位置の変更に対応する前記アクションは、選択された前記AR要素の軸の周囲での第1の回転方向における選択された前記AR要素の回転であり、
第2の方向における前記位置の変更に対応する前記アクションは、前記軸の周囲での第2の回転方向における選択された前記AR要素の回転である、請求項7に記載のシステム。
【請求項9】
記レーダーシステムは、約−90°〜約90°の視野における角度を監視するように構成されている、請求項1〜請求項8のいずれか1項に記載のシステム。
【請求項10】
前記レーダーシステムは、−45°〜45°の視野を超える範囲の角度を監視するように構成されている、請求項1〜請求項9のいずれか1項に記載のシステム。
【請求項11】
前記レーダーシステムは、約−180°〜約180°の視野までの範囲の角度を監視するように構成されている、請求項10に記載のシステム。
【請求項12】
前記システムはスマートフォンによって構成される、請求項1〜請求項11のいずれか1項に記載のシステム。
【請求項13】
ディスプレイ、レーダーシステム、および1つ以上のコンピュータプロセッサを備える電子デバイスによって実行される方法であって、
前記レーダーシステムによって、レーダーフィールドを提供するステップと、
前記レーダーシステムによって、前記レーダーフィールド内のオブジェクトからの反射を検知するステップと、
前記レーダーシステムによって、前記レーダーフィールド内の前記オブジェクトからの前記反射を分析するステップと、
前記レーダーシステムによって、前記反射の前記分析に基づいて、レーダーデータを提供するステップと、
前記1つ以上のコンピュータプロセッサによって、前記ディスプレイを通して拡張現実(AR)要素を呈示するステップと、
前記1つ以上のコンピュータプロセッサによって、前記電子デバイスの前記ディスプレイを介してなされるタッチ入力を受信し、前記タッチ入力は前記AR要素を選択するのに有効であり、
前記AR要素の選択の後に、前記1つ以上のコンピュータプロセッサによって、前記レーダーデータに基づいて、前記レーダーフィールド内の前記オブジェクトによるジェスチャを判断するステップと、
前記1つ以上のコンピュータプロセッサによって、判断された前記ジェスチャに対応する、前記選択されたAR要素に関連するアクションを行うステップと、を備え
前記方法は、さらに、
前記反射からビームフォーミングデータを生成するステップと、
前記ビームフォーミングデータを分析して、前記オブジェクトに関する角度確率データを生成するステップと、を備える方法。
【請求項14】
前記ビームフォーミングデータの生成および前記オブジェクトに関する前記角度確率データの生成によって、約−90°〜約90°の視野における角度が監視される、請求項13に記載の方法。
【請求項15】
前記ビームフォーミングデータの生成および前記オブジェクトに関する前記角度確率データの生成によって、−45°〜45°の視野を超える範囲の角度が監視される、請求項13または請求項14に記載の方法。
【請求項16】
前記ビームフォーミングデータの生成および前記オブジェクトに関する前記角度確率データの生成によって、約−180°〜約180°の視野までの範囲の角度が監視される、請求項15に記載の方法。
【請求項17】
判断された前記ジェスチャは3次元(3D)ジェスチャである、請求項13〜請求項16のいずれか1項に記載の方法。
【請求項18】
前記オブジェクトはユーザの体の一部である、請求項13〜請求項17のいずれか1項に記載の方法。
【請求項19】
判断された前記ジェスチャは、前記オブジェクトと前記レーダーシステムとの間の距離を変更することを含む、請求項13〜請求項18のいずれか1項に記載の方法。
【請求項20】
判断された前記ジェスチャは、ユーザの体の一部と前記電子デバイスの前記ディスプレイの平面との間の距離と実質的に同じ距離を維持しつつ、前記レーダーシステムに対する前記オブジェクトの位置を変更することを含む、請求項13〜請求項19のいずれか1項に記載の方法。
【発明の詳細な説明】
【背景技術】
【0001】
背景
通信、ナビゲーション、買い物、ゲームプレー、拡張現実(AR)インタラクション、および他の多くの機能のために、スマートフォンなどの電子デバイスが用いられる。ユーザは、タッチ入力で電子デバイス上のアプリケーションとインタラクトすることが典型的である。これらのアプリケーションが提供可能な機能は広範囲にわたるため、多段階、または他の態様では複雑な入力をユーザが提供する必要がますます一般的になってきている。ジェスチャ認識技術は、ジェスチャがタッチスクリーンおよびタッチパッドなどのデバイスの表面を通して行われる場合、電子デバイスとのより複雑でないジェスチャインタラクションを可能にしている。しかしながら、タッチ入力インターフェースでさらに複雑な入力を提供するための電子デバイスとのインタラクションは、不便で、効果的でなく、不愉快なことがある。
【発明の概要】
【発明が解決しようとする課題】
【0002】
AR環境は特に、ユーザに難題をもたらすことがある。2次元(2D)タッチスクリーンを用いた3次元(3D)オブジェクトの操作は難しいことがある。たとえば、特定のリアルオブジェクトに関する3DのARオブジェクトを操作するために、ユーザは、2Dタッチスクリーンを介してARオブジェクトとインタラクトするために一方の手を用いつつ、電子デバイスを安定した状態に保つために、他方の手を用いなければならない(そのため、ARオブジェクトはディスプレイ内でフレーム化されたままである)。これは、不満、不快、および不正確または不完全な入力につながることがある。ユーザはそれゆえ、タッチ入力方法に限界があるために、電子デバイスの全潜在能力を実現できない場合がある。
【課題を解決するための手段】
【0003】
概要
本明細書は、レーダーシステムを備えるスマートフォン、システム、および方法を可能にする技術ならびにシステムについて説明する。これらの技術およびシステムは、レーダーフィールドを用いて、スマートフォンなどの電子デバイスのディスプレイに呈示される拡張現実(AR)オブジェクトとインタラクトするために使用可能な3次元(3D)ジェスチャを正確に求める。これらの技術によって、ユーザは、遠くから3Dジェスチャを行うことが可能になる、つまり、ユーザは、スクリーンをタッチしながら電子デバイスを安定して保持する必要がなく、ジェスチャは、ディスプレイに呈示されるARオブジェクトのユーザの視点を遮ることはない。
【0004】
以下で説明される態様は、ディスプレイと、レーダーシステムと、1つ以上のコンピュータプロセッサと、1つ以上のコンピュータ可読媒体とを備えるスマートフォンを含む。レーダーシステムは、ハードウェアで少なくとも部分的に実現され、レーダーフィールドを提供する。レーダーシステムはまた、レーダーフィールド内のオブジェクトからの反射を検知し、レーダーフィールド内のオブジェクトからの反射を分析する。レーダーシステムはさらに、反射の分析に基づいてレーダーデータを提供する。1つ以上のコンピュータ可読媒体は、レーダーベースアプリケーションを実現するために1つ以上のコンピュータプロセッサによって実行可能な、記憶された命令を含む。レーダーベースアプリケーションは、スマートフォンのディスプレイを通して拡張現実(AR)要素を呈示する。AR要素は、タッチ入力コントローラを含み、リアルオブジェクトに関連する。リアルオブジェクトの画像が、スマートフォンのディスプレイに呈示される。レーダーデータに基づく、
レーダーフィールド内のオブジェクトがディスプレイに向かって移動しているという判断に応じて、レーダーベースアプリケーションは、ディスプレイの固定場所にタッチ入力コントローラを維持する。
【0005】
また、以下で説明される態様は、ディスプレイを含む電子デバイスと、レーダーシステムと、1つ以上のコンピュータプロセッサと、1つ以上のコンピュータ可読媒体とを備えるシステムを提供する。レーダーシステムは、ハードウェアで少なくとも部分的に実現され、レーダーフィールドを提供する。レーダーシステムは、第1の時間に、レーダーフィールド内のオブジェクトからの反射を検知する。また、レーダーシステムは、レーダーフィールド内のオブジェクトからの反射を分析し、反射の分析に基づいて、レーダーデータを提供する。1つ以上のコンピュータ可読媒体は、レーダーベースアプリケーションを実現するために1つ以上のコンピュータプロセッサによって実行可能な、記憶された命令を備える。レーダーベースアプリケーションは、電子デバイスのディスプレイを通して拡張現実(AR)要素を呈示する。また、レーダーベースアプリケーションは、第1の時間よりも後の第2の時間に、AR要素を選択する入力を受信する。さらに、レーダーベースアプリケーションは、レーダーデータに基づいて、レーダーフィールド内のオブジェクトによるジェスチャを判断し、選択されたAR要素に関連するアクションを行う。行われたアクションは、判断されたジェスチャに対応する。
【0006】
また、以下で説明される態様は、ディスプレイ、レーダーシステム、およびレーダーベースアプリケーションを含む電子デバイスで実現される方法を含む。方法は、レーダーシステムが、レーダーフィールドを提供することと、レーダーシステムが、レーダーフィールド内のオブジェクトからの反射を検知することとを備える。方法はまた、レーダーフィールド内のオブジェクトからの反射を分析することと、反射の分析に基づいて、レーダーシステムがレーダーデータを提供することとを備える。方法はまた、レーダーベースアプリケーションが、拡張現実(AR)要素を、電子デバイスのディスプレイを通して呈示することを備える。AR要素は、タッチ入力コントローラを含み、かつ、リアルオブジェクトに関連し、リアルオブジェクトの画像がディスプレイに呈示される。レーダーデータに基づく、レーダーフィールド内のオブジェクトがディスプレイに向かって移動しているという判断に応じて、タッチ入力コントローラは、ディスプレイ上の固定場所に維持される。
【0007】
また、以下で説明される態様は、電子デバイスと、レーダーフィールドを提供し、かつ、レーダーフィールド内のオブジェクトが電子デバイスに向かって移動していると判断するための手段とを備えるシステムを含む。システムは、電子デバイスのディスプレイを通して、拡張現実(AR)要素を呈示する。AR要素は、タッチ入力コントローラを含み、リアルオブジェクトに関連し、リアルオブジェクトの画像が電子デバイスのディスプレイに呈示される。システムはさらに、レーダーフィールド内のオブジェクトがディスプレイに向かって移動しているという判断に応じて、電子デバイスのディスプレイ上の固定場所にタッチ入力コントローラを維持するための手段を備える。
【0008】
この概要は、レーダーシステムを備えるスマートフォン、システム、および方法に関する簡潔な概念を導入するために提供され、詳細な説明および図面において以下でさらに説明される。この概要は、クレームに記載された対象の実質的な特徴を特定するために使用されるものでもなければ、クレームに記載された対象の範囲を決定する際に使用されることを意図されたものでもない。
【0009】
レーダーシステムを備えるスマートフォン、システム、および方法の1つ以上の態様が、以下の図面を参照して本明細書において詳細に説明される。図面を通して、同じ番号は、同様の特徴及び構成要素を参照するために使用される。
【図面の簡単な説明】
【0010】
図1】レーダーシステムを備えるスマートフォン、システム、および方法を可能にする技術を実現可能な環境の例を示す図である。
図2】レーダーシステムを備え、レーダーシステムを備えるスマートフォン、システム、および方法を実現可能な、図1のスマートフォンの実現例を示す図である。
図3図2のレーダーシステムの実現例を示す図である。
図4図3のレーダーシステムのための受信アンテナ要素の配置例を示す図である。
図5図2のレーダーシステムの実現例の追加的な詳細を示す図である。
図6図2のレーダーシステムによって実現可能な方式の例を示す図である。
図7】レーダーシステムを備えるスマートフォン、システム、および方法を可能にする技術を実現可能な環境の他の例を示す図である。
図8図7のレーダーシステムの実現例を示す図であり、3次元(3D)ジェスチャを用いて、レーダーシステムを備えるスマートフォン、システム、および方法を可能にするレーダーシステムの能力に関する追加な詳細を説明する図である。
図9図7のレーダーシステムの他の実現例を示す図であり、3次元(3D)ジェスチャを用いて、レーダーシステムを備えるスマートフォン、システム、および方法を可能にするレーダーシステムの能力に関する追加的な詳細を説明する図である。
図10】レーダーシステムを備えるスマートフォン、システム、および方法を可能にする方法の例を示す図である。
図11】レーダーシステムを備えるスマートフォン、システム、および方法を可能にする方法の他の例を示す図である。
図12図10および図11の方法の追加的な詳細を示す図である。
図13】レーダーシステムを備えるスマートフォン、システム、および方法を実現可能な、または、これらを可能にする技術が実現され得るコンピューティングシステムの例を示す図である。
【発明を実施するための形態】
【0011】
詳細な説明
概観
本明細書は、レーダーシステムを備えるスマートフォン、システム、および方法を可能にする技術およびシステムについて説明する。説明されるように、2次元(2D)タッチスクリーンを用いて3次元(3D)オブジェクトを操作するのは困難なため、タッチ入力インターフェースを用いて拡張現実(AR)アプリケーションのための複雑な入力を行うことは難しいことがある。それゆえ、タッチ入力方法に限界があるために、ユーザは、ARアプリケーションの全潜在能力を実現できない場合がある。これらの技術およびシステムは、3次元(3D)ジェスチャ(たとえば、レーダーフィールドによって照射される3D空間内の任意の方向の1つ以上の移動を含むジェスチャ)を正確に判断するために、レーダーフィールドを用いる。3Dジェスチャは、拡張現実(AR)オブジェクトとインタラクトするために使用可能である。特定の文脈で他の態様で示されていない限り、高い精度は洗練の度合いが高いこと、真実により適合すること、または、洗練の度合いが高いことと真実により適合することとの両方を表す。これらの技術およびシステムは、電子デバイスに電子デバイスの周囲の3D空間において行われるジェスチャを認識させるためにレーダーフィールドを用いるため、ユーザは、スクリーンをタッチする必要がない、または、ディスプレイに呈示されるオブジェクトの視点を遮る必要もない。
【0012】
これらの技術およびシステムは、電子デバイスに、AR環境における3Dジェスチャと2次元(2D)タッチ入力との両方を認識させることができる。ARコンテンツがリアルオブジェクトに関連していることがある。それゆえ、ユーザがAR可能なリアルオブジェ
クトを見るためにデバイスを回りに動かすと、ARコンテンツは、2Dタッチ入力コントローラとしてディスプレイに呈示され得る一方で、リアルオブジェクトはディスプレイにおいてフレーム化される。たとえば、家具店における観葉植物についてのARコンテンツは、製品情報と購入選択とを含み得る。上述の技術を有するレーダーフィールドを用いて、電子デバイスは、ユーザがディスプレイ上の2Dタッチ入力コントローラに向かっていると判断し、タッチ入力コントローラを特定の場所において2Dタッチスクリーンに固定またはロックすることができる。これによって、ユーザは、リアルオブジェクトがディスプレイにおいてフレーム化されなくなるように電子デバイスを移動させる場合であっても、コントローラとインタラクションが可能である。さらに、これらの技術およびシステムによって、デバイスは、3次元でARオブジェクトを操作するために使用可能な3Dジェスチャを判断可能である。それによって、これらの技術は、ユーザの視点を遮ることなく、3Dオブジェクトとインタラクトするための便利で自然な3Dジェスチャを可能にすることによってARアプリケーションを用いるときの、ユーザの効率、ワークフロー、および楽しみを改善する。
【0013】
たとえば、買い物をするときに追加の機能を提供するARインターフェースを有するレーダーベースアプリケーションを含む電子デバイスを考える。たとえば、レーダーベースアプリケーションによって、ユーザは、リアルオブジェクトを店内で眺め、ユーザがリアルオブジェクトを仮想ショッピングカートに追加できる仮想値札またはリンクなどの、リアルオブジェクトと関連付けられたARオブジェクトを表示することができる。この例では、電子デバイスは、ARインターフェースを可能にするために複数のカメラを含み得る。従来のARインターフェースは、主に「発見」(たとえば、ARコンテンツを利用可能なものは何でも実環境の周囲でパンして表示する)のために構成されている。それゆえ、ユーザは、実環境においてデバイスを動かすことが可能になり、タッチによって起動された、スクリーンに表示されたリアルオブジェクトに関するARコンテンツが、表示されたリアルオブジェクト(たとえば、「カートに追加」ボタン)付近のスクリーンに呈示可能になる。しかしながら、従来のARインターフェースは、タッチスクリーン上のタッチインタラクションにとって便利でないことが典型的である。たとえば、ARコンテンツとインタラクトするために、ユーザは、一方の手をデバイスに向かって伸ばしつつ、他方の手でデバイスを安定させた状態に保持しようとしなければならない。これによってディスプレイのユーザの視点が遮られることがある、または、リアルオブジェクトが表示されなくなるように、ユーザはデバイスを動かさなければならないことがあり、このため、レーダーベースアプリケーションに、ARコンテンツの表示を停止させることがある。常に困難または不便なARインターフェースとのインタラクションによって、ユーザの効率、ジェスチャの効果、およびデバイスとアプリケーションとを用いたユーザの体験の質が低減することがある。
【0014】
これらの従来技術を、いくつかの領域において効率および有用性を改善可能な、本明細書で説明されるシステムおよび技術と比較する。たとえば、上述の例では、ユーザは第1の手で実環境においてデバイスを動かしており、リアルオブジェクトに関連するタッチ起動されたARコンテンツが、表示されたリアルオブジェクト(たとえば、「カートに追加」ボタン)付近のスクリーンに呈示されている。この状況では、電子デバイスは、デバイスの周囲の領域(たとえば、デバイスの周囲の5または8フィート半径、ほとんどの場合、領域はユーザの他方の手を包含する「カメラの背後の」空間を含む)内に延在するレーダーフィールドを提供可能なレーダーシステムを備え得る。レーダーセンサーは、電子デバイスに向かって伸ばしているユーザの他方の手を検出するために、レーダーフィールドに入るオブジェクトから反射されたレーダー信号を用いることが可能である。このように手を伸ばしていることを検出すると、電子デバイスは、ユーザがデバイスを動かし続けている場合でもARコンテンツが移動または消失しないように、特定の場所でARコンテンツを固定可能である。
【0015】
このように、説明される技術およびシステムによって、タッチベースARコンテンツとアプリケーションとのインタラクションが容易になり、便利になる。ユーザは、ARアプリケーションの発見特性を楽しむことが可能であり、依然として容易にタッチベースARコンテンツとインタラクション可能である。これによって、効率を改善可能であり、ARコンテンツにアクセスするためにオブジェクトをリフレームする必要があるといった、ユーザの不満を減らすことが可能であり、これによって、ユーザの体験の質が向上する。さらに、複数のカメラを使用して、ARインターフェースを提供し、ユーザが電子デバイスに向かっているかどうかを判断可能ないくつかの従来の技術と比較して、レーダーシステムの消費電力が大幅に少なくなり得る。
【0016】
これらは、ユーザに3Dジェスチャと2Dジェスチャとの両方でARアプリケーションおよびオブジェクトとインタラクションさせるために、本明細書で説明されるこれらの技術およびデバイスを使用可能な態様のいくつかの例にすぎない。それらの他の例および実現について、本明細書で説明される。システム、装置、方法、および構成要素の例についての説明が行われた後で、本明細書は次に環境の例について説明する。
【0017】
動作環境
図1は、レーダーシステムを備えるスマートフォン、システム、および方法を可能にする技術を実現可能な環境の例100を示す図である。環境の例100は、レーダーシステム104、レーダーベースアプリケーション106、およびディスプレイ108を備える、またはこれらと関連付けられたスマートフォン102を含む。レーダーシステム104のいくつかの実施形態は、低電力の必要性、処理効率の必要性、アンテナ要素の間隔および配置における制限などの問題ならびに他の問題などが集まる、スマートフォン102などのスマートフォンの文脈において適用されると特に有利であり、特に、細かい手のジェスチャのレーダー検出が望まれるスマートフォンの文脈でさらに有利である。実施形態は、レーダーで検出された手のジェスチャを必要とするスマートフォンの上述の文脈で特に有利であるが、本発明の特徴および利点の適用可能性は必ずしもそのように限定されておらず、他の種類の電子デバイスを含む他の実施形態も本発明の教示の範囲内であることが認められるべきである。
【0018】
環境の例100では、レーダーシステム104は、図3図6を参照して以下で説明されるような1つ以上のレーダー信号および波形を送信することによって、レーダーフィールド110を提供する。レーダーフィールド110は、そこからレーダーシステム104がレーダー信号または波形(たとえば、空間の容積におけるオブジェクトで反射されたレーダー信号または波形)の反射を検出可能な空間の容積である。また、レーダーシステム104は、スマートフォン102に、レーダーフィールド110内のオブジェクト112からの反射の検出および分析を行わせることができる。オブジェクト112は、木材、プラスチック、金属、繊維、または人間の体の一部(たとえば、スマートフォン102のユーザの手)などからの反射の検知および分析を行うことができる、さまざまなオブジェクトのうちいずれかであり得る。図3図6を参照して以下で説明されるように、レーダーシステム104は反射の分析に基づいて、レーダーフィールド110と関連付けられた様々な種類の情報およびオブジェクト112からの反射を含むレーダーデータを提供可能である(たとえば、レーダーシステム104は、レーダーベースアプリケーション106などの他のエンティティに、レーダーデータを渡すことが可能である)。さらに、レーダーデータに基づいて、レーダーシステム104、レーダーベースアプリケーション106、または他のエンティティは、レーダーフィールド110内のオブジェクト112が(網掛け矢印114によって示されるように)ディスプレイ108に向かって移動していると判断可能である。
【0019】
なお、レーダーフィールド110内のオブジェクト112からの検出および分析された反射に基づいて、経時的に連続してまたは周期的にレーダーデータが提供され得る。オブジェクト112の位置は経時的に変化可能であり(たとえば、オブジェクト112は、レーダーフィールド110内で移動可能であり)、レーダーデータは、変化した位置、反射、および分析に応じて経時的に変化可能である。レーダーデータは経時的に変化し得るため、レーダーシステム104は、異なる期間に対応するレーダーデータの1つ以上のサブセットを含むレーダーデータを提供し得る。たとえば、レーダーシステム104は、第1の期間に対応するレーダーデータの第1のサブセットと、第2の期間に対応するレーダーデータの第2のサブセットなどを提供し得る。
【0020】
また、レーダーベースアプリケーション106は、ディスプレイ108を通して拡張現実(AR)要素116を呈示可能である。AR要素116は、タッチ入力コントローラ118を含み、ディスプレイ108を通して見えるリアルオブジェクト120−1に関連する。タッチ入力コントローラ118は、タッチされると、リアルオブジェクト120−1についての追加的な詳細(たとえば、寸法、重量、または技術仕様)、リアルオブジェクト120−1を購入するためのリンク、またはリアルオブジェクト120−1に関連するアイテムのリストを提供し得る。図1に示すように、AR要素116は、タッチ入力コントローラ118を含む仮想値札である。このように、ユーザはAR要素116にタッチすることが可能であり、タッチ入力コントローラ118は、追加のARコンテンツを呈示する。
【0021】
いくつかの実現例では、レーダーベースアプリケーション106は、ディスプレイ108に、リアルオブジェクト120−1の画像とリアルオブジェクト120−1に関連するAR要素116との両方を呈示可能なARアプリケーションでもよい。たとえば、図1に示すように、リアルオブジェクト120−1は、実環境において示される、およびディスプレイ108上の画像120−2として示される観葉植物である(画像120−2は、破線矢印で示される)。いくつかの実施形態では、レーダーベースアプリケーション106は、リアルタイム(または、ニアリアルタイム)でリアルオブジェクト120−1の画像120−2を呈示する。リアルタイムまたはニアリアルタイムでの表示は、たとえば、スマートフォン102と共に含まれる、またはこれとは隔離しているものと通信している1つ以上の撮像デバイスを介して実現されてもよい。
【0022】
レーダーフィールド110内のオブジェ112がディスプレイ108に向かって移動しているという判断に応じて、レーダーベースアプリケーション106は、スマートフォン102のタッチスクリーン上の固定場所においてタッチ入力コントローラ118を提供可能である。いくつかの実施形態では、レーダーベースアプリケーション106は、リアルオブジェクト120−1の画像120−2そのものがディスプレイ108において見えなくなったときでも、タッチ入力コントローラ118の固定場所を維持可能である。さらに、レーダーベースアプリケーション106は、レーダーフィールド110内のオブジェクト112がディスプレイ108に向かって移動しているという判断の閾値時間内に固定場所においてタッチ入力コントローラ118がタッチされていないことに応じて、固定場所におけるタッチ入力コントローラの提供を停止し得る。たとえば、タッチ入力コントローラ118が閾値時間内にタッチされないことに基づいて、レーダーベースアプリケーション106はデフォルトモードに戻ってもよく、レーダーベースアプリケーション106は、タッチ入力コントローラ118の呈示を中止してもよい(たとえば、タッチ入力コントローラが消失する)、または、レーダーベースアプリケーション106は、固定場所ではなく、ディスプレイ108に呈示されているコンテンツに適切などの場所でも、タッチ入力コントローラ118の呈示を続けてもよい。閾値時間は、1.5秒(s)、2s、または3sなど、任意の適切な時間でもよい。さらに他の実現例では、レーダーベースアプリケーション106は、レーダーフィールド110内のオブジェクト112が閾値速度(た
とえば、0.25フィート/秒(fps)、0.5fps、または0.75fps)を超える速度でディスプレイ108に向かって移動していると判断されると、固定場所でタッチ入力コントローラを提供可能である。それゆえ、スマートフォン102は、レーダーシステム104およびレーダーベースアプリケーション106と連携して、ARアプリケーションのユーザに、効果的におよび便利にAR環境においてタッチ入力を使用させることができる。
【0023】
たとえば、スマートフォン102は、AR特徴および機能を含むアプリケーションを備えると仮定する。AR機能のうち少なくとも一部にアクセスするために、ユーザは、さまざまなタッチ入力コントローラを起動するようにディスプレイ108に手を伸ばし、これにタッチする一方で、スマートフォン102のディスプレイ108においてリアルオブジェクトをフレーム化された状態に維持する。これは、ユーザにいくつか難題を提示することがある。なぜなら、ディスプレイ108に向かうことは、ディスプレイ108のユーザの視点を遮って、コントローラとのインタラクションを困難にすることがあるからである。また、一部のユーザは、いくつかのデバイス、とりわけ大きなまたは重いデバイスを安定して保持することが難しいことがある。さらに、リアルオブジェクトがフレーム化されなくなるようにユーザがスマートフォン102を移動させると、ARコントローラも表示されなくなる。対照的に、レーダーシステム104について考える。このレーダーシステム104は、レーダーシステム104(または、レーダーベースアプリケーション106などの他のエンティティ)に、ユーザがディスプレイ108に向かい絶え間なく自動的にディスプレ108上でコントローラをフリーズまたは固定する時を自動的に判断させるレーダーフィールド110を提供する。容易に明らかなように、レーダーシステム104は、ARインターフェースの使用を実質的にさらに容易に、およびさらに便利にすることができ、従来のARインターフェースを使用するデバイスと比較して、改良された体験を提供することができる。
【0024】
より詳細に、(レーダーシステム104、レーダーベースアプリケーション106、およびディスプレイ108を含む)スマートフォン102の実現例200を示す図2を考える。図2のスマートフォン102は、携帯電話102−1、タブレット102−2、ラップトップ102−3、デスクトップコンピュータ102−4、コンピューティングウォッチ102−5、コンピューティングめがね102−6、ゲーム機102−7、電子レンジ102−8、および自動車102−9を含む、レーダーシステムを備えるスマートフォン、システム、および方法を実現可能な他のデバイスの例を含むが、これらに限定されないことが示されている。他の電子デバイスは、テレビ、娯楽システム、オーディオシステム、ドローン、トラックパッド、スケッチブック、ネットブック、電子書籍リーダー、家庭自動化および制御システム、ホームセキュリティーシステム、および他の家電も含み得る。なお、説明された技術を実現可能な電子デバイスは、ウェアラブルでも、ウェアラブルではないが携帯型でも、または比較的固定したもの(たとえば、デスクトップおよび機器)でもよい。
【0025】
スマートフォン102の例示的な全横寸法は、たとえば、約8センチメートル×約15センチメートルでもよい。レーダーシステム104の例示的なフットプリントは、さらに制限されてもよく、たとえば、アンテナを含めて約4ミリメートル×6ミリメートルでもよい。レーダーシステム104の例示的な消費電力は、約2、3ミリワット(mW)〜数mW(たとえば、約2mW〜12mWの間)でもよい。電力および処理の制限と組み合わされたそのような空間が制限された実装(たとえば、カメラ、指紋センサ、ディスプレイ108など)におけるスマートフォン102の他の多くの所望の特徴に対応するのに必要な、レーダーシステム104についてのそのように制限されたフットプリントの必要条件は、レーダージェスチャ検出の精度および効力における妥協につながることがあるが、そのうち少なくとも一部は、本明細書の教示を考慮して克服可能である。
【0026】
また、スマートフォン102は、1つ以上のコンピュータプロセッサ202および1つ以上のコンピュータ可読媒体204を含み、メモリ媒体および記憶媒体を含む。コンピュータ可読指令としてコンピュータ可読媒体204で実現されるアプリケーションおよび/またはオペレーティングシステム(図示せず)は、本明細書で説明される機能のうち一部を提供するために、コンピュータプロセッサ202によって実行可能である。また、スマートフォン102は、ネットワークインターフェースを含み得る。スマートフォン102は、有線、無線、または光ネットワークを利用してデータを伝達するために、ネットワークインターフェース206を使用可能である。限定的ではないが一例として、ネットワークインターフェース206は、ローカルエリアネットワーク(LAN)、無線ローカルエリアネットワーク(WLAN)、パーソナルエリアネットワーク(PAN)、広域ネットワーク(WAN)、イントラネット、インターネット、ピアツーピアネットワーク、ポイントツーポイントネットワーク、またはメッシュネットワークを利用して、データを伝達可能である。
【0027】
レーダーシステム104のさまざまな実現は、システムオンチップ(SoC)、1つ以上の集積回路(IC)、埋め込まれたプロセッサ指令を有するまたはメモリに記憶されたプロセッサ命令にアクセスするように構成されたプロセッサ、埋め込まれたファームウェアを有するハードウェア、さまざまなハードウェアコンポーネントを有するプリント基板、またはそれらの任意の組合せを含み得る。レーダーシステム104は、それ自体のレーダー信号の送受信によって、モノスタティックレーダーとして動作する。いくつかの実現例では、レーダーシステム104はまた、バイスタティックレーダー、マルチスタティックレーダー、またはネットワークレーダーを実現するために、外部環境内の他のレーダーシステムと協調可能である。説明したように、スマートフォン102の制約または制限は、レーダーシステム104の設計に影響を与えることがある。スマートフォン102はたとえば、レーダーを動作するのに利用可能な制限された電力、制限された計算能力、サイズの制約、配置の制限、レーダー信号を減衰または歪ませる外側筐体などを有し得る。レーダーシステム104は、図3を参照して以下でさらに説明されるように、高度なレーダー機能および高性能がこれらの制約がある場合に実現可能になる複数の特徴を含む。なお、図2では、レーダーシステム104は、スマートフォン102の一部として示されている。他の実現例では、レーダーシステム104は、スマートフォン102とは別でもよい、またはこれと離れていてもよい。
【0028】
これらおよび他の性能および構成、ならびに図1のエンティティが作動しインタラクトする方法が、以下でさらに詳細に説明される。これらのエンティティは、たとえば、さらに分割されても、組合わされてもよい。図1の環境100および図2図12の詳細な図示は、説明された技術を用いることが可能な多くの可能性のある環境およびデバイスのうちの一部を示す。図3図6は、レーダーシステム104の付加的な詳細および特徴を説明する図である。図3図6において、レーダーシステム104は、スマートフォン102の文脈で説明されるが、上述のように、上述のシステムおよび技術の特徴および利点の適用可能性は必ずしもそのように制限されるわけではなく、他の種類の電子デバイスを含む他の実施形態も、本発明の教示の範囲内であり得る。
【0029】
図3は、レーダーシステムを備えるスマートフォン、システム、および方法を可能にするために使用可能なレーダーシステム104の実現例300を示す図である。例300では、レーダーシステム104は、以下のコンポーネント、すなわち、通信インターフェース302、アンテナアレイ304、トランシーバ306、プロセッサ308、およびシステム媒体310(たとえば、1つ以上のコンピュータ可読記憶媒体)のうち各々のいずれか1つを含む。プロセッサ308は、デジタル信号プロセッサ、制御部、アプリケーションプロセッサ、他のプロセッサ(たとえば、スマートフォン102のコンピュータプロセ
ッサ202)、またはこれらの組合わせとして実現可能である。スマートフォン102のコンピュータ可読媒体204内に含まれ得る、またはこれとは別であり得るシステム媒体310は、以下のモジュール、すなわち、減衰ミティゲータ314、デジタルビームフォーマ316、角度推定器318、または電力マネージャ320のうち1つ以上を含む。これらのモジュールは、スマートフォン102内のレーダーシステム104の統合を補償可能、またはその効果を緩和可能であり、それによって、レーダーシステム104は、小さいまたは複雑なジェスチャの認識、ユーザの異なるオリエンテーションの区別、連続した外部環境の監視、または誤警報率の認識が可能である。これらの特徴によって、レーダーシステム104は、図2に示すデバイスのようなさまざまな異なるデバイス内で実現可能である。
【0030】
通信インターフェース302を用いて、レーダーシステム104は、レーダーベースアプリケーション106にレーダーデータを提供可能である。通信インターフェース302は、スマートフォン102とは別に実現されている、またはこの内部で統合されているレーダーシステム104に基づく無線または有線インターフェースでもよい。用途によって、レーダーデータは、生のまたは最小限に処理されたデータ、同相直交(I/Q)データ、範囲ドップラーデータ、目標位置情報(たとえば、範囲、方位、高度)を含む処理データ、クラッタマップデータなどを含み得る。一般に、レーダーデータは、 レーダーシス
テムを備えるスマートフォン、システム、および方法を実現するためにレーダーベースアプリケーション106によって利用可能な情報を含む。
【0031】
アンテナアレイ304は、少なくとも1つの送信アンテナ要素(図示せず)および(図4に示すような)少なくとも2つの受信アンテナ要素を含む。いくつかの例では、アンテナアレイ304は、一度に複数の別個の波形(たとえば、送信アンテナ要素ごとに異なる波形)を送信可能な多入力多出力(MIMO)レーダを実現するために、複数の送信アンテナを含み得る。複数の波形を用いることによって、レーダーシステム104の測定精度を増大し得る。受信アンテナ要素は、1次元形状(たとえば、線)または3つ以上の受信アンテナ要素を含む実現のために2次元形状で位置決めされ得る。1次元形状によって、レーダーシステム104は、1つの角度寸法(たとえば、方位または高度)を計測することができる一方で、2次元形状によって、2つの角度寸法を計測することができる(たとえば、方位と高度との両方)。受信アンテナ要素の2次元配置の例がさらに、図4に関して説明される。
【0032】
図4は、受信アンテナ要素402の配置例400を示す図である。アンテナアレイ304が少なくとも4つの受信アンテナ要素402を含む場合、たとえば、受信アンテナ要素402は、図4の中間に示された方形配置404−1で配置可能である。代替的に、アンテナアレイ304が少なくとも3つの受信アンテナ要素402を含む場合、三角配置404−2またはL字形状配置404−3が用いられ得る。
【0033】
スマートフォン102のサイズまたは配置の制約のため、受信アンテナ要素402間の要素の間隔または受信アンテナ要素402の量は、レーダーシステム104が監視する角度にとって理想的ではないことがある。特に、要素の間隔は、従来のレーダーが目標の角位置を推定するのを困難にする角度の曖昧さを生じる場合がある。そのため、従来のレーダーは、角度の曖昧さを有する曖昧なゾーンを避けて誤検出を減らすために、視野(たとえば、監視される角度)を制限し得る。たとえば、従来のレーダーは、5ミリメートル(mm)の波長と要素の3.5mm(たとえば、要素の間隔が波長の70%である)の間隔とを用いて、発生する角度の曖昧さを避けるために、視野を約−45°〜45°の間の角度に制限してもよい。その結果、従来のレーダーは、視野の45°の制限を超える目標を検出することができない場合がある。対照的に、レーダーシステム104は、角度の曖昧さを解消し、かつ、レーダーシステム104に45°の制限を超える角度、たとえば約−
90°〜90°、または最大で約−180°〜180°の角度を監視させるデジタルビームフォーマ316と角度推定器318とを含む。これらの角度範囲は、1つ以上の方向(たとえば、方位および/または高度)にわたって適用可能である。したがって、レーダーシステム104は、レーダー信号の中央波長の半分よりも小さい、大きい、またはこれと等しい要素の間隔を含む、さまざまな異なるアンテナアレイ設計について低い誤警報率を実現可能である。
【0034】
アンテナアレイ304を用いて、レーダーシステム104は、方向付けられたまたは方向付けられていない、広いもしくは狭い、または形成された(たとえば、半球、立方体、扇、円錐、または円柱)ビームを形成可能である。一例では、1つ以上の送信アンテナ要素(図示せず)は、方向付けられていない全方向放射パターンを有し得る、または、広域送信ビーム406などの広域ビームを生成し得る。これらの技術のいずれかによって、レーダーシステム104は、広い空間体積を照射できる。しかしながら、目標角度精度および角度分解能を得るために、受信アンテナ要素402およびデジタルビームフォーマ316は、狭域受信ビーム408などの数千の狭い方向付けられたビーム(たとえば、2000ビーム、4000ビーム、または6000ビーム)を生成するために使用可能である。このように、レーダーシステム104は、効率的に外部環境を監視することができ、正確に外部環境内の到達反射角度を求めることができる。
【0035】
図3に戻って、トランシーバ306は、アンテナアレイ304を介してレーダー信号の送受信を行うための回路およびロジックを含む。トランシーバ306のコンポーネントは、レーダー信号を調整するための増幅器、周波数混合器、スイッチ、アナログデジタル変換器、フィルタなどを含み得る。また、トランシーバ306は、変調または復調などの同相直交位相(I/Q)演算を行うためにロジックを含み得る。トランシーバ306は、連続波レーダー演算またはパルスレーダー演算のために構成され得る。直線周波数変調、三角周波数変調、段階周波数変調、または位相変調などのさまざまな変調が、レーダー信号を生成するために使用可能である。
【0036】
トランシーバ306は、1ギガヘルツ(GHz)〜400GHz、4GHz〜100GHz、または57GHz〜63GHzといった、周波数範囲(たとえば、周波数スペクトル)内のレーダー信号を生成可能である。周波数スペクトルは、類似の帯域幅または異なる帯域幅を有する複数のサブスペクトルに分割できる。帯域幅は、約500メガヘルツ(MHz)、1GHz、2GHzなどでもよい。一例では、異なる周波数サブスペクトルは、約57GHz〜59GHz、59GHz〜61GHz、または61GHz〜63GHzの周波数を含み得る。同じ帯域幅を有し隣接していてもよい、または隣接していなくてもよい複数の周波数サブスペクトルも、整合性を得るために選択可能である。複数の周波数サブスペクトルは、1つのレーダー信号または複数のレーダー信号を用いて時間内に同時に送信可能である、または分離可能である。隣接する周波数サブスペクトルによって、レーダー信号は広帯域幅を有することができる一方で、隣接しない周波数サブスペクトルはさらに、角度推定器318が角度の曖昧さを解消できるような振幅および位相の相違を強調することができる。図5および図6に関してさらに説明されるように、減衰ミティゲータ314または角度推定器318によって、レーダーシステム104の性能を改善するために、トランシーバ306に、1つ以上の周波数サブスペクトルを利用させることができる。
【0037】
電力マネージャ320によって、レーダーシステム104は、スマートフォン102内で内部にまたは外部に電力を保存することができる。内部に、たとえば、電力マネージャ320は、レーダーシステム104に、所定の電力モードまたは特定のデューティサイクルを用いてデータを収集させる。電力マネージャ320は、低電力モードまたは高電力モードのいずれかで動作するのではなく、応答遅延および消費電力が環境内のアクティビテ
ィに基づいて一緒に管理されるように、異なる電力モード間で動的に切替える。一般に、電力マネージャ320は、電力がいつどのように保存されるかを決定し、徐々に消費電力を調節して、レーダーシステム104をスマートフォン102の電力制限内で操作させることができる。いくつかの例では、電力マネージャ320は、残っている利用可能な電力量を監視することができ、それに応じてレーダーシステム104の動作を調節することができる。たとえば、残りの電力量が少ない場合、電力マネージャ320は、より高い電力モードに切替えるのではなく、低電力モードで動作を続けることができる。
【0038】
たとえば、低電力モードは、約数ヘルツ(たとえば、約1Hzまたは5Hz未満)の低デューティサイクルを使用可能であり、これによって、消費電力が数ミリワット(mW)(たとえば、約2mW〜5mW)に低減する。一方、高電力モードは、約数十ヘルツ(Hz)(たとえば、約20Hzまたは10Hzより大きい)の高デューティサイクルを使用可能であり、これによって、レーダーシステム104は、約数ミリワット(たとえば、約8mW〜20mW)の電力を消費する。低電力モードは外部環境の監視または接近するユーザの検出に使用可能である一方で、電力マネージャ320は、ユーザがジェスチャを行い始めているとレーダーシステム104が判断した場合、高電力モードに切替え可能である。異なるトリガによって、電力マネージャ320は、異なる電力モード間で切替え可能である。トリガの例としては、動きがあることまたはないこと、ユーザが現れることまたは消えること、ユーザが指定された領域(たとえば、範囲、方位、または高度によって規定される領域)内または外に移動すること、ユーザと関連付けられた動きの速度変化、または(たとえば、レーダー断面の変化による)反射信号強度の変化が挙げられる。一般に、スマートフォン102とインタラクトしているユーザのより低い確率またはより長い応答遅延を用いてデータを収集するプリファランスを示すトリガは、節電のためにより低い電力モードを起動させ得る。
【0039】
電力マネージャ320は、非活動期間にトランシーバ306内の1つ以上のコンポーネント(たとえば、電圧によって制御される振動器、多重装置、アナログデジタル変換器、位相ロックループ、または水晶振動子)をオフにすることによって、節電することも可能である。レーダーシステム104がマイクロ秒(μs)、ミリ秒(ms)、または秒(s)オーダーのこともあるレーダー信号を活発に送信または受信していない場合、これらの非活動期間が発生する。さらに、電力マネージャ320は、節電のために、レーダーシステム104内の異なるハードウェアコンポーネントの使用を制御可能である。プロセッサ308が低電力プロセッサと高電力プロセッサ(たとえば、異なるメモリ量および計算能力を有するプロセッサ)とを含む場合、たとえば、電力マネージャ320は、低レベル分析(たとえば、検出動き、ユーザの位置の決定、または環境の監視)について低電力プロセッサの使用、高忠実度または正確なレーダーデータがレーダーベースアプリケーション106によって必要とされる状況について(たとえば、ジェスチャ認識またはユーザオリエンテーションについて)、高電力プロセッサの使用との間で切替えることができる。
【0040】
上述の内部の節電技術に加えて、電力マネージャ320はまた、スマートフォン102内の他の外部コンポーネントまたはセンサを起動または停止することによって、スマートフォン102内での節電が可能である。これらの外部コンポーネントは、スピーカ、カメラセンサ、全地球測位システム、無線通信トランシーバ、ディスプレイ、ジャイロスコープ、または加速度計を含み得る。レーダーシステム104はわずかな電力量を用いて環境を監視することができるため、電力マネージャ320は、ユーザのいる場所またはユーザが行っている事に基づいて、これらの外部コンポーネントを適宜オフにすることができる。このように、スマートフォン102は、途切れることなくユーザに応答することが可能であり、停止タイマの利用またはスマートフォン102に物理的にタッチしているもしくはスマートフォン102を口頭で制御しているユーザを必要とせずに節電が可能である。
【0041】
図5は、スマートフォン102内のレーダーシステム104の実現例500の追加的な詳細を示す図である。例500では、アンテナアレイ304は、グラスカバーまたは外部ケースといった、スマートフォン102の外部筐体の下に位置している。材料特性に応じて、外部筐体は、レーダーシステム104によって送受信されるレーダー信号を減衰または変形させる減衰器502として動作し得る。減衰器502は異なる種類のガラスまたはプラスチックを含んでもよく、それらのうち複数は、スマートフォン102のディスプレイスクリーン、外部筐体、または他のコンポーネント内において見られることがあり、約4〜10の誘電率(たとえば、比誘電率)を有し得る。そのため、減衰器502はレーダー信号506に対して不透明または半透明であり、送信または受信されたレーダー信号506の一部を(反射部分504によって示されるように)反射させてもよい。従来のレーダーの場合、減衰器502は、監視可能な有効距離を減らすこと、小さな目標が検出されるのを防ぐこと、または全体的な精度を減少させることができる。
【0042】
レーダーシステム104の送信パワーが制限されており、かつ、外部筐体の再設計が好ましくないと仮定すると、レーダー信号506の1つ以上の減衰依存特性(たとえば、周波数サブスペクトル508またはステアリング角510)または減衰器502の減衰依存特性(たとえば、減衰器502とレーダーシステム104との間の距離512または減衰器502の厚さ514)が、減衰器502の効果を緩和するために調節される。これらの特性のいくつかは、製造中に設定可能である、または、レーダーシステム104の動作中に減衰ミティゲータ314によって調節可能である。たとえば、減衰ミティゲータ314は、トランシーバ306に、選択された周波数サブスペクトル508またはステアリング角510を用いてレーダー信号506を送信させることができ、距離512を変更するために、プラットフォームにレーダーシステム104を減衰器502の近くにまたは遠くに移動させることができ、減衰器502の厚さ514を増大させるために他の減衰器を適用するように、ユーザを促すことができる。
【0043】
適切な調節は、減衰器502の所定の特性(たとえば、スマートフォン102のコンピュータ可読媒体204にまたはシステム媒体310内に記憶された特性)に基づいて減衰ミティゲータ314によって、または、減衰器502の1つ以上の特性を測定するためにレーダー信号506の処理復帰によって、行うことができる。減衰依存特性のうち一部が固定または制約されている場合であっても、減衰ミティゲータ314は、これらの制限を考慮して各パラメータのバランスをとり、目標レーダー性能を得ることができる。その結果、減衰ミティゲータ314は、レーダーシステム104に、精度を増大させ、減衰器502の反対側に位置するユーザの検出およびトラッキングに効果的な範囲を広くすることができる。これらの技術によって、レーダーシステム104の消費電力を増大させる送信電力の増加、または、一旦デバイスが製造されると困難で高価になることがある減衰器502の材料特性の変化の代替が提供される。
【0044】
図6は、レーダーシステム104によって実現される方式の例600を示す図である。この方式600の部分は、プロセッサ308、コンピュータプロセッサ202、または他のハードウェア回路によって行われ得る。方式600は、異なる種類の電子デバイスおよびレーダーベースアプリケーション106に対応するようにカスタマイズ可能であり、レーダーシステム104に、設計の制約にかかわらず、目標角度精度を実現させる。
【0045】
トランシーバ306は、受信されたレーダー信号に対する受信アンテナ要素402の個々の応答に基づいて、生データ602を生成する。受信されたレーダー信号は、角度の曖昧さの解消を容易にするために、角度推定器318によって選択された1つ以上の周波数サブスペクトル604と関連付けられ得る。周波数サブスペクトル604は、たとえば、サイドローブの量を減らすために、またはサイドローブの振幅を減らす(たとえば、0.5dB、1.0dBまたはそれ以上振幅を減らす)ために選択可能である。周波数サブス
ペクトルの量は、レーダーシステム104の目標角度精度または演算の制限に基づいて求めることができる。
【0046】
生データ602は、ある期間のデジタル情報(たとえば、同相直交位相データ)、異なる波数、および受信アンテナ要素402とそれぞれ関連付けられた複数のチャネルを含む。前処理データ608を生成するために、高速フーリエ変換(FFT)606が生データ602に対して行われる。前処理データ608は、異なる範囲(たとえば、レンジビン)について、および複数のチャネルについて、期間にわたるデジタル情報を含む。レンジドップラーデータ612を生成するために、ドップラーフィルタリング処理610が前処理データ608に対して行われる。ドップラーフィルタリング処理610は、複数のレンジビン、複数のドップラー周波数について、および複数のチャネルについて、振幅および位相情報を生成する他のFFTを含み得る。デジタルビームフォーマ316は、レンジドップラーデータ612に基づいて、ビームフォーミングデータ614を生成する。ビームフォーミングデータ614は、異なるステアリング角またはビームがデジタルビームフォーマ316によって形成される視野を表す、一連の方位および/または高度についてのデジタル情報を含む。図示されていないが、デジタルビームフォーマ316は、前処理データ608に基づいてビームフォーミングデータ614を代替的に生成してもよく、ドップラーフィルタリング処理610は、ビームフォーミングデータ614に基づいて、レンジドップラーデータ612を生成してもよい。演算の品質を下げるために、デジタルビームフォーマ316は、対象のレンジ、時間、またはドップラー周波数間隔に基づいて、レンジドップラーデータ612または前処理データ608の一部を処理してもよい。
【0047】
デジタルビームフォーマ316は、シングルルックビームフォーマ616、マルチルック干渉計618、またはマルチルックビームフォーマ620を用いて実現可能である。一般に、シングルルックビームフォーマ616は、決定論的なオブジェクト(たとえば、1つの位相中心を有する点光源目標)について使用可能である。非決定論的目標(たとえば、複数の位相中心を有する目標)について、シングルルックビームフォーマ616に対する精度を向上するために、マルチルック干渉計618またはマルチルックビームフォーマ620が使用される。人間は、非決定論的目標の例であり、624−1および624−2で示すような異なるアスペクト角に基づいて変化可能な複数の位相中心622を有する。複数の位相中心622によって生成される建設的干渉または相殺的干渉の変化によって、従来のレーダーが角位置を正確に求めることが困難になる場合がある。しかしながら、マルチルック干渉計618またはマルチルックビームフォーマ620は、ビームフォーミングデータ614の精度を増大するためにコヒーレントな平均化を行うことができる。マルチルック干渉計618はコヒーレントに、2つのチャネルの平均をとって、角度情報を正確に求めるために使用可能な位相情報を生成する。他方で、マルチルックビームフォーマ620は、フーリエ、カポン、多重信号分類(MUSIC)、または最小分散無歪応答(MVDR)などの線形または非線形ビームフォーマを用いて、コヒーレントに2つ以上のチャネルの平均をとることができる。マルチルックビームフォーマ620またはマルチルック干渉計618を介して提供される精度の増大によって、レーダーシステム104は、小さなジェスチャの認識、またはユーザの複数の部分の区別が可能になる。
【0048】
角度推定器318は、ビームフォーミングデータ614を分析して、1つ以上の角位置を推定する。角度推定器318は、信号処理技術、パターンマッチング技術、または機械学習を利用可能である。また、角度推定器318は、レーダーシステム104の設計またはレーダーシステム104が監視する視野から生じ得る角度の曖昧さを解消する。角度の曖昧さの例が、振幅プロット626(たとえば、振幅応答)内に示されている。
【0049】
振幅プロット626は、目標の異なる角位置について、および異なるステアリング角510について生じ得る振幅の相違を表す。第1の振幅応答628−1(実線で示される)
が、第1の角位置630−1に位置する目標について示される。同様に、第2の振幅応答628−2(点線で示される)が、第2の角位置630−2に位置する目標について示される。この例では、これらの相違は、−180°〜180°の角度にわたって考慮される。
【0050】
振幅プロット626において示されるように、2つの角位置630−1および630−2について、曖昧なゾーンが存在する。第1の振幅応答628−1は、第1の角位置630−1で最高ピークを有し、第2の角位置630−2でそれよりも小さなピークを有する。最高ピークが目標の実際の位置に対応している間、それよりもピークが小さいと、目標が第1の角位置630−1または第2の角位置630−2にあるかを従来のレーダーが確信を持って求めることができないであろう何らかの閾値内にあるため、第1の角位置630−1が曖昧になる。対称的に、第2の振幅応答628−2は、第2の角位置630−2でより小さなピークを有し、第1の角位置630−1でより高いピークを有する。この場合、より小さいピークは、目標の場所に対応する。
【0051】
角位置を求めるために最高ピーク振幅を用いるように従来のレーダーを制限し得る間、角度推定器318は替わりに、振幅応答628−1および628−2の形状の微妙な差異を分析する。形状の特徴は、たとえば、ロールオフ、ピークもしくは空白幅、ピークもしくは空白の角位置、ピークおよび空白の高さもしくは深さ、サイドローブの形状、振幅応答628−1もしくは628−2内の対称性、または振幅応答628−1もしくは628−2内の対称性の欠如を含み得る。類似の形状特性が位相応答において分析可能であり、これによって、角度の曖昧さを解消するための付加的な情報を提供可能である。そのため、角度推定器318は、固有の角度シグネチャまたはパターンを角位置にマッピングする。
【0052】
角度推定器318は、電子デバイスの種類(たとえば、演算能力または電力制限)に応じて選択可能な一連のアルゴリズムもしくはツール、またはレーダーベースアプリケーション106についての目標角度分解能を含み得る。いくつかの実現例では、角度推定器318は、ニューラルネットワーク632、畳み込みニューラルネットワーク(CNN)634、または長短期記憶(LSTM)ネットワーク636を含み得る。ニューラルネットワーク632は、隠れ層(たとえば、3個の隠れ層、5個の隠れ層、または10個の隠れ層)のさまざまな深さまたは量を有することができ、また、異なる量の接続を含むこともできる(たとえば、ニューラルネットワーク632は、完全に接続されたニューラルネットワークまたは部分的に接続されたニューラルネットワークを含み得る)。場合によっては、角度推定器318の演算速度を増大させるために、CNN634を使用可能である。LSTMネットワーク636は、角度推定器318にターゲットのトラッキングを行わせるために使用可能である。機械学習技術を用いて、振幅応答628−1または628−2の形状を分析するために、および、ユーザまたはユーザの一部が角度ビン内にある可能性を示す、角度確率データ638を生成するために、角度推定器318は非線形機能を採用する。角度推定器318は、目標がスマートフォン102の左側または右側に位置する確率を提供するための2つの角度ビンなどのいくつかの角度ビンについて、または数千の角度ビン(たとえば、連続角度測定について角度確率データ638を提供するために)、角度確率データ638を提供し得る。
【0053】
角度確率データ638に基づいて、追跡モジュール640は、目標の角位置を特定する角位置データ642を生成する。追跡モジュール640は、角度確率データ638において最も高い確率を有する角度ビンに基づいて、または予測情報(たとえば、以前に測定された角位置情報)に基づいて、目標の角位置を求め得る。また、追跡モジュール640は、レーダーシステム104に確信をもって目標を区別または特定させるために、1つ以上の移動している目標のトラッキングを続けてもよい。範囲、ドップラー、速度、または加
速度を含む角位置を求めるために、他のデータも使用可能である。場合によっては、追跡モジュール640は、アルファベータトラッカー、カルマンフィルタ、多重仮説トラッカー(HMT)などを含み得る。
【0054】
量子化モジュール644は、角位置データ642を取得し、データを量子化して、量子化角位置データ646を生成する。量子化は、レーダーベースアプリケーション106についての目標角度分解能に基づいて行うことができる。状況によっては、量子化角位置データ646が目標がスマートフォン102の右側か左側か示すように、または目標が位置している90°象限を特定するように、より低い量子化レベルを用いてもよい。これは、ユーザ近接検出など、いくつかのレーダーベースアプリケーション106にとって十分であり得る。他の状況では、量子化角位置データ646がコンマ1°、1°、5°などの精度内の対象の角位置を示すように、多数の量子化レベルを使用可能である。この分解能は、ジェスチャ認識などの、分解能がより高いレーダーベースアプリケーション106について使用可能である。いくつかの実現例では、デジタルビームフォーマ316、角度推定器318、追跡モジュール640、および量子化モジュール644は、1つの機械学習モジュールにおいて一緒に実現される。
【0055】
これらおよび他の能力ならびに構成、同様に図1図6のエンティティが作用しインタラクトする態様について、以下で説明する。説明されるエンティティは、たとえば、さらに分割されても、結合されても、他のセンサまたはコンポーネントと共に使用されてもよい。このように、レーダーシステムを備えるスマートフォン、システム、および方法を実現するために、レーダーシステム104および非レーダーセンサの異なる構成を有する電子デバイス(たとえば、スマートフォン102)の異なる実現を用いることができる。図1の動作環境の例100および図2図6の詳細な説明は、説明された技術を採用可能な多数の考えられる環境およびデバイスの一部のみを示す。
【0056】
システムの例
また、上述のように、本明細書で説明される技術およびシステムは、拡張現実(AR)オブジェクトを操作するために使用可能な3次元(3D)ジェスチャをデバイスに判断させることができる。
【0057】
図7は、レーダーシステムを備えるスマートフォン、システム、および方法を可能にする技術を実現可能な別の環境の例700を示す図である。動作環境の例700は、レーダーシステム104、ディスプレイ108、およびレーダーベースアプリケーション702を含む、またはこれらと関連付けられたスマートフォン102を備える。動作環境の例700はスマートフォン102の文脈で示されており、図1および図2を参照して上述されたように、他の電子デバイスも、図7図9を参照して説明される特徴および技術を実現するために使用し得る。環境の例700では、レーダーシステム104は、図1図6を参照して説明されたレーダーフィールド110を提供する。レーダーシステム104はまた、スマートフォン102に、レーダーフィールド110におけるオブジェクト704からの反射の検知および分析を行わせる。図7に示されるように、オブジェクト704は人間の手であり、オブジェクト704は、木材、プラスチック、金属、繊維、または有機材料(たとえば、ユーザの体の一部)などからの反射の検知および分析を行うことができる。反射の分析に基づいて、レーダーシステム104は、図1図6を参照して上述されたようなレーダーデータを提供可能である。たとえば、レーダーシステム104は、レーダーベースアプリケーション702など他のエンティティに、レーダーデータを渡すことができる。
【0058】
レーダーベースアプリケーション702は、ディスプレイ108を通じたAR要素706の呈示およびAR要素706を選択する入力の受信が可能なさまざまなAR対応アプリ
ケーション(たとえば、レーダーベースアプリケーション106)のうちいずれかでもよい。AR要素706を選択するために受信された入力は、スマートフォン102のタッチスクリーンを通して受信された音声入力またはタッチ入力でもよい。さらに、レーダーベースアプリケーション702は、レーダーデータに基づいて、レーダーフィールド110(たとえば、ユーザの手または体の他の一部)内のオブジェクト704によって行われたジェスチャを判断可能であり、判断されたジェスチャに対応する、選択されたAR要素706に関連する動作を行い得る。ジェスチャを判断するために用いられるレーダーデータは、AR要素706を選択する入力がレーダーベースアプリケーション702によって受信された後に受信される反射の分析に基づくレーダーデータである。いくつかの実現例では、判断されたジェスチャは、3Dジェスチャ(たとえば、レーダーフィールド110によって照射された3D空間内における、いずれかの方向の1つ以上の移動を含むジェスチャ)でもよい。
【0059】
3Dジェスチャは、水平方向寸法に沿って(たとえば、スマートフォン102の左側からスマートフォン102の右側に)スマートフォン102上方で手を移動させることによって行われるスクローリングジェスチャ、肘の周囲で回転するユーザの腕によって行われる手を振るジェスチャ、垂直方向寸法に沿って(たとえば、スマートフォン102の底面側からスマートフォン102の上面側に)スマートフォン102上方でユーザの手を移動させることによって行われる手を押すジェスチャを含む、さまざまなジェスチャのうちいずれかを含み得る。ユーザの手をスマートフォン102に向かって動かすことによって行われる手を伸ばすジェスチャ、仮想のドアノブを握るためにユーザの手の指を曲げ、仮想のドアノブを回転させる動作をまねるために時計回りまたは反時計回りに回転させることによって行われる、ノブを回すジェスチャ、ならびに、親指および少なくとも他の1つの指を一緒にこすることによって行われる、スピンドルをねじるジェスチャなど、他の種類の3Dジェスチャまたは動きも行うことができる。これらの例のジェスチャの種類の各々は、レーダーシステム104によって検出し得る。スマートフォン102は、これらのジェスチャの各々を検出すると、新しいコンテンツの表示、カーソルの移動、1つ以上のセンサの起動、アプリケーションのオープン、またはAR要素の操作などの動作を行い得る。このように、レーダーシステム104は、スマートフォン102のタッチフリー制御を提供する。例示的な3Dジェスチャおよび対応するアクションについて、図8および図9を参照して以下で説明する。
【0060】
レーダーベースアプリケーション702はまた、レーダーデータに基づく3Dジェスチャの判断に関連する情報と、3Dジェスチャに対応するアクションに関連する情報とを記憶可能な3Dジェスチャモジュール708を含む。このように、説明された装置および技術によって、ARアプリケーションのユーザは、AR環境においてタッチ入力と3Dジェスチャとの両方を連続して便利に使用可能である。
【0061】
他の例として、実現例800および900をそれぞれ示す図8および図9を考える。実現例800および900は、レーダーシステム104が3Dジェスチャを用いてレーダーシステムを備えるスマートフォン、システム、および方法を可能にする能力に関する付加的な詳細について説明する。
【0062】
図8の詳細図800−1において、環境の例800は、レーダーフィールド110(図示せず)を提供しているレーダーシステム104を含むスマートフォン102を示す図である。詳細図800−1では、ユーザが、たとえばタッチ入力を介してAR要素802を選択することによって、AR要素802を既に選択していると仮定する。ユーザの体の一部804(この例ではユーザの手804)はレーダーフィールド110内にあり、レーダーシステム104は、ユーザの手804によって行われる3Dジェスチャを判断可能である。
【0063】
詳細図800−2では、ユーザは、ユーザの手804とレーダーシステム104(たとえば、手を伸ばすジェスチャ)との間の距離を変更することによって、ジェスチャを行っている。詳細図800−2では、矢印806で示すように、ユーザの手804とレーダーシステム104との間の距離を増加させるためにユーザの手804を移動することによって距離が変更される。このジェスチャに対応するアクションは、選択されたAR要素802の拡大されたサイズとして詳細図800−2示される、選択されたAR要素802のユーザに近づく移動である。同様に、図8に示されていないが、ユーザは、ユーザの手804とレーダーシステム104との間の距離を減少させるためにユーザの手804を移動することによって、ジェスチャを行い得る。このような場合、このジェスチャに対応するアクションは、選択されたAR要素802のユーザから遠ざかる移動である。
【0064】
いくつかの実現例では、選択されたAR要素802をユーザに近づける移動は、ユーザの手804とレーダーシステム104との間の増加した距離に比例する。同様に、選択されたAR要素802をユーザから遠ざける移動は、ユーザの手804とレーダーシステム104との間の減少した距離に比例する。他の実現例では、選択されたAR要素802の移動は、速度もしくは角度などのレーダーデータから求めることができるジェスチャの他の側面、またはジェスチャのさまざまな側面の組合せに比例し得る。
【0065】
図9の詳細図900−1では、環境の例900は、レーダーフィールド110(図示せず)を提供しているレーダーシステム104を含むスマートフォン102を示す。詳細図900−1では、ユーザは、たとえばタッチ入力を介してAR要素902を選択することによって、AR要素902を既に選択していると仮定する。ユーザの体の一部904(この例ではユーザの手904)はレーダーフィールド110内にあり、レーダーシステム104は、ユーザの手904によって行われる3Dジェスチャを判断可能である。
【0066】
詳細図900−2では、ユーザは、ユーザの手904とディスプレイ108の平面などの参照物との間で実質的に同様の距離を保ちつつ、レーダーシステム104に対するユーザの手904の位置を変更することによって、ジェスチャ(たとえば、スクローリングジェスチャ)を行っている。詳細図900−2では、ユーザの手904の変更された位置は、矢印906によって示されるような、右側から左側への動きである。このジェスチャに対応するアクションは、矢印908および約90°回転するAR要素902(「X」で印が付けられている)の印を付けられた、選択されたAR要素902の軸周りの一方向における、選択されたAR要素902の回転である。同様に、図9では示されていないが、ユーザは、ユーザの手904を左側から右側に移動することによってジェスチャを行い得る。このような場合、このジェスチャに対応するアクションは、軸周りの反対方向における選択されたAR要素902の回転である。
【0067】
いくつかの実現例では、選択されたAR要素902の軸周りの回転の速度および量はそれぞれ、ユーザの手904の一方の側から他方の側への動きの速度または距離に比例する。他の実現例では、AR要素902の回転は、ユーザの手904の形状または表面積などのレーダーデータから求めることができるジェスチャの他の側面に、またはジェスチャのさまざまな側面の組合せに比例し得る。
【0068】
実現例800および900は、レーダーシステムを備えるスマートフォン、システム、および方法を可能にする上述の技術、システム、および装置を用いて可能な多くの実現可能なジェスチャのうちの2つの例にすぎない。たとえば、ユーザは、AR環境において3Dオブジェクトを選択するためにタッチ入力を用いてもよく、その後、3Dオブジェクトをより小さくするために、さらにオブジェクトを削除するために、3Dピンチジェスチャを用いてもよい。同様に、ユーザは、AR環境において選択された3Dオブジェクトを投
入するために、フリック動作を用いてもよい。
【0069】
さらに、上述の技術は、他の種類のアプリケーション(たとえば、非AR)またはARアプリケーションの非AR特徴と共に用いることもできる。たとえば、ユーザは、図画ベースまたはテキストベースアプリケーションおよび特徴とインタラクトするために、混合された制御(たとえば、3Dジェスチャと組合わされたタッチまたは音声入力)を用いてもよい。一例では、ユーザは、デバイスのタッチスクリーンに指をタッチし、その後指をタッチスクリーンに沿ってスライドすることによって、アプリケーションに線を引いてもよい。その後、ユーザは、タッチスクリーンから指を離し、仮想ダイアルを回すといった、3Dジェスチャを用いて、線の太さまたは他の特性を変更することができる。他の例では、ユーザは、タッチスクリーン上でテキストの選択、コピー、およびペーストが可能である。たとえば、ユーザは、表示されたテキストの一部を選択するために、タッチスクリーン上でタッチ−ピンチジェスチャを行うことができる。ユーザはその後、テキストをコピーするために3Dピンチジェスチャを行ってタッチ入力にもう一度切り替えることができ、カーソルをタッチスクリーン上で位置決めすることができる。他の3Dピンチジェスチャによって、選択されたテキストが新しい場所にペーストされる。このように、レーダーシステムを備えるスマートフォン、システム、および方法によって、タッチおよび3Dジェスチャの連続した統合が可能になり、ARアプリケーションと非ARアプリケーションとの両方の機能性およびユーザの楽しみが改善される。
【0070】
方法の例
図10および図11は、レーダーシステムを備えるスマートフォン、システム、および方法を可能にする方法の例1000を示す図である。方法1000は、レーダーフィールドを提供するためにレーダーシステムを用いる電子デバイスを用いて行うことができる。レーダーフィールドは、レーダーフィールド内のオブジェクトがレーダーシステムに向かって移動していると判断するために用いられ、さまざまなタッチ入力コントローラの場所を、オブジェクトがレーダーシステムに向かって移動しているという判断に応じて特定の場所に固定することができる。方法100は、行われる動作を指定するがそれぞれのブロックによる動作を行うために示された順番または組合せに必ずしも限定されない、一連のブロックとして示されている。さらに、広範囲の付加的なおよび/または代替的な方法を提供するために、動作の1つ以上の繰返し、組合せ、認識、または関連付けが行われ得る。以下の説明の部分では、図1の動作環境の例100または図2図9に詳細に説明されているようなエンティティもしくはプロセスが参照されてもよいが、それらの参照は例示に過ぎない。これらの技術は、1つのデバイスで動作する1つのエンティティまたは複数のエンティティによる実行に制限されない。
【0071】
1002において、レーダーフィールドが提供される。このレーダーフィールドは、ディスプレイ(たとえば、ディスプレイ108)、レーダーシステム(たとえば、レーダーシステム104)、およびレーダーベースアプリケーション(たとえば、レーダーベースアプリケーション106または702)を含む、さまざまな電子デバイス(たとえば、上述のスマートフォン102)のうちのいずれかによって提供することができる。さらに、レーダーフィールドは、上述のレーダーフィールド110などのさまざまな種類のレーダーフィールドのうちいずれかでもよい。
【0072】
1004において、レーダーフィールド内のオブジェクトからの反射が、レーダーシステムによって検知される。オブジェクトは、木材、プラスチック、金属、繊維、または有機材料など、さまざまなオブジェクトのうちいずれかでもよい。たとえば、オブジェクトは、上述のオブジェクト112、704、804、または904のうち1つなど、人間の体の一部(たとえば、手)でもよい。
【0073】
1006において、レーダーフィールド内のオブジェクトからの反射が分析される。この分析は、さまざまなエンティティ(たとえば、レーダーシステム104、または本明細書で説明されるレーダーベースアプリケーションのうちいずれか)のうちいずれかによって行われてもよく、図3図6を参照して説明されたもののような、さまざまな動作および判断を含み得る。
【0074】
1008において、反射の分析に基づいて、図3図6を参照して説明されたレーダーデータなどのレーダーデータが提供される。レーダーデータは、レーダーシステム104などのさまざまなエンティティのうちいずれか、または本明細書で説明されるレーダーベースアプリケーションのうちいずれかによって提供されてもよい。いくつかの実現例では、レーダーシステムは、レーダーデータを提供し、レーダーデータを他のエンティティ(たとえば、説明されたレーダーベースアプリケーションのうちいずれか)に渡し得る。方法1000の説明は、図10のブロック1008の後の文字「A」によって示されるように、図11において続いており、この「A」は、図11のブロック1010の前の「A」に対応する。
【0075】
1010において、レーダーベースアプリケーションは、ディスプレイ(たとえば、ディスプレイ108)を通して拡張現実(AR)要素を呈示する。AR要素は、上述のAR要素116など、さまざまな種類のAR要素のうちいずれかでもよい。AR要素は、上述のタッチ入力コントローラ118などのタッチ入力コントローラを含み、リアルオブジェクト(たとえば、上述のリアルオブジェクト120−1)に関連し、リアルオブジェクトの画像は、ディスプレイに呈示される。
【0076】
1012において、レーダーフィールド内のオブジェクトがレーダーシステムに向かって移動しているという判断に応じて、タッチ入力コントローラは、電子デバイスのタッチスクリーン上の固定場所に提供され、ここで維持される。固定場所は、タッチ入力コントローラが最初に表示される場所でもよく、ディスプレイ上の他の場所でもよい。レーダーフィールド内のオブジェクトがレーダーシステムに向かって移動しているという判断は、レーダーシステムまたはレーダーベースアプリケーションなど、さまざまなエンティティのうちいずれかによって行われてもよい。
【0077】
いくつかの実現例では、タッチ入力コントローラは、リアルオブジェクトの画像がディスプレイに呈示されなくなると、固定場所で維持される。たとえば、関連するリアルオブジェクトが電子デバイスのディスプレイにおいて見える状態であり、かつ、ユーザがディスプレイに向かっている間に、ディスプレイの特定のコーナーにAR要素でタッチ入力コントローラが呈示されていると仮定する。何らかの理由で(たとえば、ユーザがタッチ入力コントローラに手を伸ばしつつフリアルオブジェクトをフレーム化された状態に維持していなかったために)リアルオブジェクトの画像がディスプレイ上に呈示されなくなると、タッチ入力コントローラは、ディスプレイの特定のコーナー(または、別の場所)で維持され続けることが可能であり、ユーザは、タッチ入力コントローラとインタラクトすることができる。
【0078】
たとえば、方法1000の付加的な詳細を説明する環境の例1200を示す図12を考える。図12の詳細図1200−1では、環境の例1200は、レーダーフィールド110(図示せず)を提供しているレーダーシステム104を含む電子デバイス(この場合、スマートフォン102)を示す。詳細図1200−1は、スマートフォンを片手(たとえば、左手1202)に保持するユーザが、スマートフォン102−1で実行しているレーダーベースアプリケーション106のARインターフェースにおいてリアルオブジェクト120−1をフレーム化していることを示す。図示するように、レーダーベースアプリケーション106は、リアルオブジェクト120−1の画像(たとえば、画像120−2)
をディスプレイ108に呈示している(画像120−2は、破線矢印で示されている)。レーダーベースアプリケーション106はまた、タッチ入力コントローラ118を含むAR要素116を、ディスプレイ108のコーナー付近の場所に呈示している。
【0079】
詳細図1200−2では、ユーザは、斜線矢印1206によって示されるように、他の手(たとえば、右手1204)をタッチ入力コントローラ118に向かって伸ばし始めている。ユーザはスマートフォン102に向かって手を伸ばしていると判断された(たとえば、レーダーベースアプリケーション106または他のエンティティが、レーダーデータを用いて、スマートフォン102に向かって右手1204を延ばしていると判断した)と仮定する。ユーザはまた、右手1204をタッチ入力コントローラ118に向けて延ばしつつ、リアルオブジェクト120−1の画像120−2がディスプレイ108を通して見えなくなるように、スマートフォン102を移動させている。この移動は、点線矢印1208によって示されている。説明された技術を用いて、レーダーベースアプリケーション106は依然として、AR要素116およびタッチ入力コントローラ118を、ディスプレイ108のコーナー付近でほぼ同じ場所に維持している。
【0080】
詳細図1200−3では、ユーザがタッチ入力コントローラ118を(たとえば、右手1204によるタッチ入力を介して)起動させていると仮定する。これに応じて、レーダーベースアプリケーション106は、ユーザにリアルオブジェクト120−1に関する情報を提供可能な付加的なタッチ入力コントローラ1212と共に、リアルオブジェクト120−1(図示せず)の他の画像120−2を示す2Dインターフェース1210を呈示している。
【0081】
いくつかの実現例では、固定場所に提供されているタッチ入力コントローラ118は、レーダーフィールド内のオブジェクトがディスプレイ108に向かって移動しているという判断から閾値時間内にタッチされない場合、タッチ入力コントローラは、固定場所に提供されなくなってもよい。閾値時間は、1.5秒(s)、2s、または3sなどさまざまな時間でもよく、前もって設定可能である、または、ユーザが選択可能である。さらに他の実現例では、レーダーベースアプリケーション106は、ユーザの手が閾値速度を超える速度でディスプレイ108に向かって移動していると判断される場合のみ、固定場所にタッチ入力コントローラを提供してもよい。閾値速度は、0.25フィート/秒(fps)、0.5fps、または0.75fpsなどの任意の速度でもよい。
【0082】
コンピューティングシステムの例
図13は、レーダーシステムを備えるスマートフォン、システム、および方法を実現するために、前述の図1図12を参照して説明されるいずれかの種類のクライアント、サーバ、および/または電子デバイスとして実現可能なコンピューティングシステムの例1300のさまざまなコンポーネントを示す図である。
【0083】
コンピューティングシステム1300は、デバイスデータ1304(たとえば、レーダーデータ、3Dジェスチャデータ、認証データ、参照データ、受信データ、受信中のデータ、ブロードキャスト予定のデータ、データのデータパケット)の有線および/または無線通信を可能にする通信デバイス1302を備える。デバイスデータ1304または他のデバイスは、デバイスの設定項目、デバイスに記憶されたメディアコンテンツ、および/またはデバイスのユーザと関連付けられた情報(たとえば、レーダーフィールド内の人の識別)を含み得る。コンピューティングシステム1300に記憶されたメディアコンテンツは、任意の種類のレーダー、バイオメトリック、音声、映像、および/または画像データを含み得る。コンピューティングシステム1300は、人間の発声、レーダーフィールドとのインタラクション、タッチ入力、(明示的または暗示的な)ユーザが選択可能な入力、メッセージ、音楽、テレビメディアコンテンツ、記録された映像コンテンツ、および
任意のコンテンツおよび/またはデータソースから受信された他の種類の音声、映像、および/または画像データなどの、それを介して任意の種類のデータ、メディアコンテンツ、および/または入力を受信可能な1つ以上のデータ入力1306を含む。
【0084】
また、コンピューティングシステム1300は通信インターフェース1308を備え、これらの通信インターフェースは、直列および/または並列インターフェース、無線インターフェース、任意の種類のネットワークインターフェース、モデムのいずれか1つ以上として、および他の種類の通信インターフェースとして実現可能である。通信インターフェース1308は、コンピューティングシステム1300と、他の電子、計算、および通信デバイスがコンピューティングシステム1300とデータを通信する通信ネットワークとの間に接続および/または通信リンクを提供する。
【0085】
コンピューティングシステム1300は、コンピューティングシステム1300の動作を制御し、レーダーシステムを備えるスマートフォン、システム、および方法のための技術を可能にする、またはこれを実現可能にするために、さまざまなコンピュータ実行可能な命令を処理できる1つ以上のプロセッサ1310(たとえば、マイクロプロセッサ、制御部、または他の制御部)を備える。代替的にまたは付加的に、コンピューティングシステム1300は、一般に1312で特定される処理および制御回路に関連して実現されるハードウェア、ファームウェア、または固定論理回路のうちいずれか1つまたはこれらの組合せで実現可能である。図示されないが、コンピューティングシステム1300は、デバイス内のさまざまなコンポーネントを結合するシステムバスまたはデータ転送システムを備え得る。システムバスは、メモリバスまたはメモリ制御部、周辺バス、ユニバーサルシリアルバス、および/または、さまざまなバスアーキテクチャのいずれかを用いるプロセッサもしくはローカルバスのうちいずれか1つ、またはこれらの組合せを備え得る。
【0086】
コンピューティングシステム1300はまた、永続的なおよび/または非一時的なデータ記憶(すなわち、単なる信号の送信とは対称的である)を可能にする1つ以上のメモリデバイスなどのコンピュータ可読媒体1314を備え、その例としては、ランダムアクセスメモリ(RAM)、不揮発性メモリ(たとえば、読出し専用メモリ(ROM)、フラッシュメモリ、EPROM、EEPROMなどのうちいずれか1つ以上)、およびディスク記憶装置を含む。ディスク記憶装置は、ハードディスクドライブ、記録可能および/または書換え可能なコンパクトディスク(CD)、任意の種類のデジタル多用途ディスク(DVD)などの、任意の種類の磁気または光学記憶装置として実現可能である。コンピューティングシステム1300は、大容量記憶媒体デバイス(記憶媒体)1316も備え得る。
【0087】
コンピュータ可読媒体1314は、デバイスデータ1304、ならびにさまざまなデバイスアプリケーション1318およびコンピューティングシステム1300の動作状況に関連する他の種類の情報および/またはデータを記憶するために、データ記憶装置メカニズムを提供する。たとえば、オペレーティングシステム1320は、コンピュータ可読媒体1314を有するコンピュータアプリケーションとして維持可能であり、プロセッサ1310で実行可能である。デバイスアプリケーション1318は、任意の形式の制御アプリケーション、ソフトウェアアプリケーション、信号処理および制御モジュール、特定のデバイスに固有のコード、抽象モジュール、ジェスチャ認識モジュール、ならびに他のモジュールなどのデバイスマネージャを含み得る。デバイスアプリケーション1318は、レーダーシステム104、レーダーベースアプリケーション106、またはレーダーベースアプリケーション702(3Dジェスチャモジュール708を含む)などの、レーダーシステムを備えるスマートフォン、システム、および方法を実現するために、システムコンポーネント、エンジン、またはマネージャも含み得る。また、コンピューティングシステム1300は、1つ以上の機械学習システムを含み得る、またはこれらへのアクセスを
有し得る。
【0088】
いくつかの例について、以下で説明する。
例1:スマートフォンであって、ディスプレイと、ハードウェアで少なくとも部分的に実現されるレーダーシステムとを備え、レーダーシステムは、レーダーフィールドを提供し、レーダーフィールド内のオブジェクトからの反射を検知し、レーダーフィールド内のオブジェクトからの反射を分析し、および、反射の分析に基づいて、レーダーデータを提供するように構成され、スマートフォンはさらに、1つ以上のコンピュータプロセッサと、1つ以上のコンピュータプロセッサによる実行に応じてレーダーベースアプリケーションを実現する命令が記憶された、1つ以上のコンピュータ可読媒体とを備え、レーダーベースアプリケーションは、スマートフォンのディスプレイを通して、タッチ入力コントローラを含みリアルオブジェクトに関連する拡張現実(AR)要素を呈示するように構成され、リアルオブジェクトの画像がディスプレイに呈示され、レーダーベースアプリケーションはさらに、レーダーデータに基づく、レーダーフィールド内のオブジェクトがディスプレイに向かって移動しているという判断に応じて、タッチ入力コントローラをディスプレイ上の固定場所に維持する。
【0089】
例2:レーダーフィールド内のオブジェクトはユーザであり、これによって、リアルオブジェクトの画像がディスプレイ上で不安定に移動している際であっても、タッチ入力コントローラとのユーザのインタラクションの容易さおよび精度が、固定場所にタッチ入力コントローラを維持することによって高められる、例1に記載のスマートフォン。
【0090】
例3:レーダーベースアプリケーションはさらに、ユーザがスマートフォンを第1の手で保持する間、タッチ入力コントローラを含む拡張現実(AR)要素を呈示するように構成されている、例1または2に記載のスマートフォン。
【0091】
例4:レーダーフィールド内のオブジェクトがディスプレイに向かって移動しているという判断は、ユーザが第2の手をスマートフォンに向かって伸ばしているという判断を含み、スマートフォンは、リアルオブジェクトの画像がディスプレイに呈示されなくなるように位置決めされており、レーダーベースアプリケーションはさらに、リアルオブジェクトの画像がディスプレイに呈示されなくなるように、AR要素とタッチ入力コントローラとを、ユーザがスマートフォンを移動させる前に呈示される場所とほぼ同じディスプレイ上の場所で維持するように構成されている、前述の例の少なくとも1つに記載のスマートフォン。
【0092】
例5:タッチ入力コントローラは、第2の手による以前のタッチ入力を介して起動されており、レーダーベースアプリケーションはさらに、タッチ入力コントローラの起動に応じて、2次元(2D)インターフェースをディスプレイに呈示するように構成されており、2次元(2D)インターフェースは、リアルオブジェクトの他の画像と、リアルオブジェクトについての情報をユーザに提供する他のタッチ入力コントローラとを含む、前述の例の少なくとも1つに記載のスマートフォン。
【0093】
例6:レーダーベースアプリケーションはさらに、リアルオブジェクトの画像がディスプレイに呈示されなくなると、タッチ入力コントローラの固定場所を維持するように構成されている、前述の例の少なくとも1つに記載のスマートフォン。
【0094】
例7:レーダーベースアプリケーションはさらに、固定場所におけるタッチ入力コントローラが閾値時間内にタッチされないことに応じて、固定場所においてタッチ入力コントローラを提供することを中止するように構成されている、前述の例の少なくとも1つに記載のスマートフォン。
【0095】
例8:レーダーベースアプリケーションはさらに、レーダーフィールド内のオブジェクトが閾値速度を超える速度でディスプレイに向かって移動している場合、固定位置においてタッチ入力コントローラを提供するように構成されている、前述の例の少なくとも1つに記載のスマートフォン。
【0096】
例9:スマートフォンは撮像デバイスを備え、レーダーベースアプリケーションは、撮像デバイスを介して、リアルオブジェクトの画像をリアルタイムまたはニアリアルタイムで呈示する、前述の例の少なくとも1つに記載のスマートフォン。
【0097】
例10:レーダーシステムはさらに、レーダーデータに基づいて、レーダーフィールド内のオブジェクトがディスプレイに向かって移動していると判断するように構成されている、前述の例の少なくとも1つに記載のスマートフォン。
【0098】
例11:レーダーベースアプリケーションはさらに、レーダーデータに基づいて、レーダーフィールド内のオブジェクトがディスプレイに向かって移動していると判断するように構成されている、前述の例の少なくとも1つに記載のスマートフォン。
【0099】
例12:レーダーフィールド内のオブジェクトは、ユーザの体の一部である、前述の例の少なくとも1つに記載のスマートフォン。
【0100】
例13:システムであって、ディスプレイを含む電子デバイスと、ハードウェアで少なくとも部分的に実現されるレーダーシステムとを備え、レーダーシステムは、レーダーフィールドを提供し、第1の時間に、レーダーフィールド内のオブジェクトからの反射を検知し、レーダーフィールド内のオブジェクトからの反射を分析し、および、反射の分析に基づいて、レーダーデータを提供するように構成され、システムはさらに、1つ以上のコンピュータプロセッサと、1つ以上のコンピュータ可読媒体とを備え、1つ以上のコンピュータ可読媒体には、1つ以上のコンピュータプロセッサによる実行に応じてレーダーベースアプリケーションを実現する命令が記憶されており、レーダーベースアプリケーションは、電子デバイスのディスプレイを通して拡張現実(AR)要素を呈示し、第1の時間よりも後の第2の時間に、AR要素を選択する入力を受信し、レーダーデータに基づいて、レーダーフィールド内のオブジェクトによるジェスチャを判断し、および、判断されたジェスチャに対応する、選択されたAR要素に関連するアクションを行うように構成されている、または、1つ以上のコンピュータ可読媒体とを備え、1つ以上のコンピュータ可読媒体には、1つ以上のコンピュータプロセッサによる実行に応じてレーダーベースアプリケーションを実現する命令が記憶されており、レーダーベースアプリケーションは、スマートフォンのディスプレイを通して、タッチ入力を含みリアルオブジェクトに関連する拡張現実(AR)要素を呈示するように構成され、リアルオブジェクトの画像がディスプレイに呈示され、レーダーベースアプリケーションはさらに、レーダーデータに基づく、レーダーフィールド内のオブジェクトがディスプレイに向かって移動しているという判断に応じて、タッチ入力コントローラをディスプレイの固定場所に維持するように構成されている、システム。
【0101】
例14:AR要素を選択する入力はタッチ入力である、例13に記載のシステム。
例15:判断されたジェスチャは3次元(3D)ジェスチャである、例13または14に記載のシステム。
【0102】
例16:オブジェクトはユーザの体の一部である、例13〜15の少なくとも1つに記載のシステム。
【0103】
例17:判断されたジェスチャは、オブジェクトとレーダーシステムとの間の距離を変更することを含む、例13〜16の少なくとも1つに記載のシステム。
【0104】
例18:オブジェクトとレーダーシステムとの間で増加した距離である、変更された距離に対応するアクションは、ユーザに近接する、選択されたAR要素の移動であり、オブジェクトとレーダーシステムとの間で減少した距離である、変更された距離に対応するアクションは、ユーザから離れる、選択されたAR要素の移動である、例17に記載のシステム。
【0105】
例19:ユーザに近接する、選択されたAR要素の移動は、増加した距離に比例し、ユーザから離れる、選択されたAR要素の移動は、減少した距離に比例する、例18に記載のシステム。
【0106】
例20:判断されたジェスチャは、体の一部と電子デバイスのディスプレイの平面との間の距離と実質的に同じ距離を維持しつつ、レーダーシステムに対するオブジェクトの位置を変更することを含む、例13〜19の少なくとも1つに記載のシステム。
【0107】
例21:第1の方向における位置の変更に対応するアクションは、選択されたAR要素の軸の周囲での第1の回転方向における選択されたAR要素の回転であり、第2の方向における位置の変更に対応するアクションは、軸の周囲での第2の回転方向における選択されたAR要素の回転である、例20に記載のシステム。
【0108】
例22:レーダーシステムはさらに、デジタルビームフォーマと角度推定器とを備え、レーダーシステムは、約−90°〜約90°の視野における角度を監視するように構成されている、例13〜21の少なくとも1つに記載のシステム。
【0109】
例23:ディスプレイ、レーダーシステム、およびレーダーベースアプリケーションを含む電子デバイスで実現される方法であって、レーダーシステムが、レーダーフィールドを提供することと、レーダーシステムが、レーダーフィールド内のオブジェクトからの反射を検知することと、レーダーフィールド内のオブジェクトからの反射を分析することと、反射の分析に基づいて、レーダーデータを提供することと、レーダーベースアプリケーションが、タッチ入力コントローラを含みリアルオブジェクトに関連する拡張現実(AR)要素を、電子デバイスのディスプレイを通して呈示することとを備え、リアルオブジェクトの画像がディスプレイに呈示され、方法はさらに、レーダーデータに基づく、レーダーフィールド内のオブジェクトがディスプレイに向かって移動しているという判断に応じて、タッチ入力コントローラをディスプレイ上の固定場所に維持することを備える、方法。
【0110】
例24:レーダーデータに基づく、レーダーフィールド内のオブジェクトがディスプレイに向かって移動しているという判断は、レーダーシステムによって、またはレーダーベースアプリケーションによって行われる、例23に記載の方法。
【0111】
例25:電子デバイスはハンドヘルドデバイスであり、レーダーフィールド内のオブジェクトはユーザであり、方法はさらに、リアルオブジェクトの画像がディスプレイ上で不安定に移動している際であっても、タッチ入力コントローラを固定場所に維持し、これによって、タッチ入力コントローラとのユーザのインタラクションの容易さおよび精度が高められることを備える、例23または24に記載の方法。
【0112】
例26:ユーザが電子デバイスを第1の手で保持している間、レーダーベースアプリケーションが、タッチ入力コントローラを含む拡張現実(AR)要素を呈示することをさら
に備える、例23〜25の少なくとも1つに記載の方法。
【0113】
例27:レーダーフィールド内のオブジェクトがディスプレイに向かって移動しているという判断は、ユーザが第2の手を電子デバイスに向かって伸ばしていると判断することを含み、電子デバイスは、リアルオブジェクトの画像がディスプレイに呈示されなくなるように位置決めされており、方法はさらに、レーダーベースアプリケーションが、リアルオブジェクトの画像がディスプレイに呈示されなくなるように、ユーザが電子デバイスを移動させる前に呈示されている場所とほぼ同じディスプレイ上の場所で、AR要素とタッチ入力コントローラとを維持することを備える、例23〜26の少なくとも1つに記載の方法。
【0114】
例28:タッチ入力コントローラは、第2の手による以前のタッチ入力を介して起動されており、方法はさらに、タッチ入力コントローラの起動に応じて、レーダーベースアプリケーションが、ディスプレイに2次元(2D)ユーザインターフェースを表示することを備え、2Dユーザインターフェースは、リアルオブジェクトの他の画像と、リアルオブジェクトについての情報をユーザに提供する他のタッチ入力コントローラとを含む、例23〜27の少なくとも1つに記載の方法。
【0115】
むすび
レーダーシステムを備えるスマートフォン、システム、および方法のための技術、ならびにこれらを可能にする装置の実現例について、特徴および/または方法に特有の言語で説明したが、添付の請求項の範囲の主題が必ずしも上述の特定の特徴または方法に制限されるわけではない。そうではなく、特定の特徴および方法は、レーダーシステムを備えるスマートフォン、システム、および方法を可能にする実現例として開示されている。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13