(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-07-26
(54)【発明の名称】ウェアラブルコンピューティングデバイスの画像ベースフィッティング
(51)【国際特許分類】
G06F 3/01 20060101AFI20240719BHJP
【FI】
G06F3/01 510
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024501805
(86)(22)【出願日】2022-07-12
(85)【翻訳文提出日】2024-02-07
(86)【国際出願番号】 US2022073642
(87)【国際公開番号】W WO2023288221
(87)【国際公開日】2023-01-19
(32)【優先日】2021-07-15
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】502208397
【氏名又は名称】グーグル エルエルシー
【氏名又は名称原語表記】Google LLC
【住所又は居所原語表記】1600 Amphitheatre Parkway 94043 Mountain View, CA U.S.A.
(74)【代理人】
【識別番号】110001195
【氏名又は名称】弁理士法人深見特許事務所
(72)【発明者】
【氏名】アリーム,イドリス・サイド
(72)【発明者】
【氏名】シモンズ,リース・アンウィル・サミュエル
(72)【発明者】
【氏名】ガウィッシュ,アーメッド
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA26
5E555AA62
5E555BA04
5E555BA21
5E555BA38
5E555BB04
5E555BB38
5E555BC04
5E555BE09
5E555CA42
5E555CB65
5E555DB41
5E555DD02
5E555EA22
5E555FA00
(57)【要約】
既知のスケールを有する既知の基準デバイスを含む、ユーザの頭部の画像データに基づいて、ユーザのための頭部取付式ウェアラブルコンピューティングデバイスをサイジングおよびフィッティングするためのシステムおよび方法が提供される。システムおよび方法は、頭部取付式ウェアラブルコンピューティングデバイスのためにフィットされるユーザの顔を含む画像データをキャプチャすることを含んでよい。既知のスケールを有する既知の基準デバイスは、スケーリングファクタを決定するために画像データにおいて検出された特徴と比較される。スケーリングファクタは、画像データにおいて検出された顔特徴をサイジングするまたはこれに測定値を割り当てるために使用される。ユーザの頭部の三次元モデルが、キャプチャされた画像データから生成されてよい。
【特許請求の範囲】
【請求項1】
ディスプレイデバイスを含む頭部取付式ウェアラブルコンピューティングデバイスをフィッティングする、コンピュータが実行する方法であって、
コンピューティングデバイス上で実行されるアプリケーションを介して、既知の基準デバイスに関連した少なくとも1つの測定値を受信することと、
前記アプリケーションを介して、前記コンピューティングデバイスによってキャプチャされた画像データを受信することと
を含み、
前記画像データは、ユーザの頭部および前記既知の基準デバイスを含み、
前記方法は、
受信された前記画像データにおいて前記既知の基準デバイスを検出することと、
前記画像データ内の前記既知の基準デバイスにスケールを関連付けることと、
受信された前記画像データにおいて前記ユーザの前記頭部の複数の特徴を検出することと、
前記画像データ内の前記既知の基準デバイスに関連付けられた前記スケールに基づいて前記ユーザの前記頭部の検出された前記複数の特徴のためのそれぞれの複数の測定値を決定することと、
前記ユーザの前記頭部の前記複数の特徴の前記複数の測定値に基づいて前記ユーザの前記頭部の三次元モデルを作成することと
をさらに含み、
前記頭部の前記複数の特徴の前記複数の測定値は、前記既知の基準デバイスに関連付けられた前記スケールに基づき、
前記方法は、
シミュレーションエンジンから、前記ユーザの前記頭部の前記三次元モデルに基づいて前記ユーザのための前記頭部取付式ウェアラブルコンピューティングデバイスの構成を受信することをさらに含む、
方法。
【請求項2】
前記既知の基準デバイスは、少なくとも1つの既知の物理的特徴を含むウェアラブルデバイスであり、前記既知の基準デバイスに関連した前記少なくとも1つの測定値を受信することは、
前記コンピューティングデバイスによってキャプチャされた前記画像データにおいて前記少なくとも1つの既知の物理的特徴を検出することと、
検出された前記少なくとも1つの既知の物理的特徴に既知の測定値を関連付けることとを含む、請求項1に記載の方法。
【請求項3】
前記既知の基準デバイスは、前記コンピューティングデバイスによってキャプチャされた前記画像データにおける前記ユーザによって着用されたウェアラブルデバイスであり、前記既知の基準デバイスに関連した前記少なくとも1つの測定値を受信することは、
前記ウェアラブルデバイスのフレームのレンズ部分の幅に対応する第1の測定値を受信することと、
前記フレームのブリッジ部分の幅に対応する第2の測定値を受信することと、を含み、前記フレームの正面幅測定値は、前記第1の測定値の2倍に前記第2の測定値を足したものに等しく、
前記フレームのテンプルアーム部分の長さに対応する第3の測定値を受信することを含む、請求項1または請求項2に記載の方法。
【請求項4】
受信された前記画像データにおいて前記既知の基準デバイスを検出することおよび前記画像データ内の前記既知の基準デバイスに前記スケールを関連付けることは、
前記画像データ内で、前記フレームの第1の縁部分と第1のテンプルアーム部分とが結合されている第1のヒンジ領域を検出することと、
前記画像データ内で、前記フレームの第2の縁部分と第2のテンプルアーム部分とが結合されている第2のヒンジ領域を検出することと、
前記第1のヒンジ領域と前記第2のヒンジ領域との間の前記画像データにおける距離を前記既知の正面幅測定値と比較することと、
前記比較に基づいてスケーリングファクタを決定することと、を含む、請求項3に記載の方法。
【請求項5】
受信された前記画像データにおいて前記既知の基準デバイスを検出することおよび前記画像データ内の前記既知の基準デバイスに前記スケールを関連付けることは、
前記画像データにおいて前記既知の基準デバイスの少なくとも1つの特徴を検出することと、
検出された前記少なくとも1つの特徴に既知の測定値を関連付けることと、
検出された前記少なくとも1つの特徴に関連付けられた前記既知の測定値を、検出された前記少なくとも1つの特徴の前記画像内の検出されたサイズと比較することと、
前記比較に基づいてスケーリングファクタを決定することと、を含む、先行する請求項のいずれか1項に記載の方法。
【請求項6】
前記三次元モデルを作成することは、前記ユーザの前記頭部の検出された前記複数の特徴に前記スケーリングファクタを適用することを含む、請求項5に記載の方法。
【請求項7】
前記既知の基準デバイスは、前記ユーザによって着用された眼鏡であり、前記既知の基準デバイスに関連した前記少なくとも1つの測定値を受信することは、
前記眼鏡のフレームの前側幅測定値を受信することと、
前記眼鏡の前記フレームのテンプルアーム測定値を受信することと、を含む、先行する請求項のいずれか1項に記載の方法。
【請求項8】
前記コンピューティングデバイスによってキャプチャされた画像データを受信することは、前記ユーザの前記頭部の正面画像および前記既知の基準デバイス、ならびに前記ユーザの前記頭部の横顔画像および前記既知の基準デバイスを含む画像データを受信することを含む、先行する請求項のいずれか1項に記載の方法。
【請求項9】
前記ユーザの前記頭部の前記三次元モデルを作成することは、
前記コンピューティングデバイスのプロセッサによって前記ユーザの前記頭部の前記三次元モデルを作成すること、または
前記コンピューティングデバイスによって、前記画像データを外部コンピューティングデバイスへ送信すること、および
前記コンピューティングデバイスによって、前記外部コンピューティングデバイスから前記ユーザの前記頭部の前記三次元モデルを受信すること、
のうちの1つを含む、先行する請求項のいずれか1項に記載の方法。
【請求項10】
受信された前記画像データにおいて複数の光学測定値を検出することをさらに含み、前記複数の光学測定値は、瞳孔高さ、瞳孔間距離、左瞳孔距離、右瞳孔距離、頂点間距離または前傾角のうちの少なくとも1つを含む、先行する請求項のいずれか1項に記載の方法。
【請求項11】
前記コンピューティングデバイス上で実行される前記アプリケーションは、セルフポートレート動作モードを起動し、前記ユーザによって操作される前記コンピューティングデバイスの前面カメラの動作を開始する、先行する請求項のいずれか1項に記載の方法。
【請求項12】
コンピューティングデバイスの少なくとも1つのプロセッサによって実行されると前記少なくとも1つのプロセッサに、
前記コンピューティングデバイスにおいて実行されるアプリケーションを介して、既知の基準デバイスに関連した少なくとも1つの測定値を受信させ、
前記コンピューティングデバイスのカメラによってキャプチャされた画像データを受信させ、前記画像データは、ユーザの頭部を表す画像データおよび前記既知の基準デバイスを表す画像データを含み、
受信された前記画像データにおいて前記既知の基準デバイスを検出させ、
前記画像データ内の前記既知の基準デバイスにスケールを関連付けさせ、
受信された前記画像データにおいて前記ユーザの前記頭部の複数の特徴を検出させ、
前記画像データ内の前記既知の基準デバイスに関連付けられた前記スケールに基づいて前記ユーザの前記頭部の検出された前記複数の特徴のためのそれぞれの複数の測定値を決定させ、
前記既知の基準デバイスに関連付けられた前記スケールに基づいて決定された前記ユーザの前記頭部の前記複数の特徴の前記複数の測定値に基づいて前記ユーザの前記頭部の三次元モデルを作成させ、
前記ユーザの前記頭部の前記三次元モデルに基づいて前記ユーザのための頭部取付式ウェアラブルコンピューティングデバイスの構成を出力させる
ように構成されている実行可能な命令を記憶する非一時的コンピュータ可読媒体。
【請求項13】
前記既知の基準デバイスは、少なくとも1つの既知の物理的特徴を含むウェアラブルデバイスであり、前記命令は、前記少なくとも1つのプロセッサに前記少なくとも1つの測定値を受信させ、
前記コンピューティングデバイスによってキャプチャされた前記画像データにおいて前記少なくとも1つの既知の物理的特徴を検出することと、
検出された前記少なくとも1つの既知の物理的特徴に既知の測定値を関連付けることとを含む、請求項12に記載の非一時的コンピュータ可読媒体。
【請求項14】
前記命令は、前記少なくとも1つのプロセッサに、受信された前記画像データにおいて前記既知の基準デバイスを検出させかつ前記画像データ内の前記既知の基準デバイスに前記スケールを関連付けさせ、
前記画像データにおいて前記既知の基準デバイスの少なくとも1つの特徴を検出することと、
検出された前記少なくとも1つの特徴に既知の測定値を関連付けることと、
検出された前記少なくとも1つの特徴に関連付けられた前記既知の測定値を、検出された前記少なくとも1つの特徴の前記画像内の検出されたサイズと比較することと、
前記比較に基づいてスケーリングファクタを決定することとを含む、請求項12または請求項13に記載の非一時的コンピュータ可読媒体。
【請求項15】
前記既知の基準デバイスは、前記コンピューティングデバイスによってキャプチャされた前記画像データにおける前記ユーザによって着用されたウェアラブルデバイスであり、前記命令は、前記少なくとも1つのプロセッサに、前記既知の基準デバイスに関連付けられた前記少なくとも1つの測定値を受信させ、
前記画像データにおける前記ユーザによって着用された前記ウェアラブルデバイスのフレームのレンズ部分の幅に対応する第1の測定値を受信することと、
前記フレームのブリッジ部分の幅に対応する第2の測定値を受信することと、
前記フレームのテンプルアーム部分の長さに対応する第3の測定値を受信することとを含む、請求項14に記載の非一時的コンピュータ可読媒体。
【請求項16】
前記命令は、前記少なくとも1つのプロセッサに前記三次元モデルを作成させ、
決定された前記スケーリングファクタを前記ユーザの前記頭部の検出された前記複数の特徴に適用することを含む、請求項15に記載の非一時的コンピュータ可読媒体。
【請求項17】
前記命令は、前記少なくとも1つのプロセッサに、
受信された前記画像データにおいて複数の光学測定値を検出させ、前記複数の光学測定値は、瞳孔高さ、瞳孔間距離、左瞳孔距離、右瞳孔距離、頂点間距離または前傾角のうちの少なくとも1つを含む、請求項12~請求項16のいずれか1項に記載の非一時的コンピュータ可読媒体。
【請求項18】
ディスプレイデバイスを含む頭部取付式ウェアラブルコンピューティングデバイスをフィッティングする、コンピュータが実行する方法であって、
コンピューティングデバイス上で実行されるアプリケーションを介して、前記コンピューティングデバイスによってキャプチャされた画像データを受信すること
を含み、
前記画像データはユーザの頭部を含み、
前記方法は、
前記アプリケーションを介して、前記ユーザの既知の瞳孔間距離測定値を受信することと、
前記コンピューティングデバイスによってキャプチャされた前記画像データにおいて、前記ユーザの第1の瞳孔および前記ユーザの第2の瞳孔の位置を検出することと、
受信された前記瞳孔間距離および前記画像データにおける前記第1の瞳孔の検出された位置と前記第2の瞳孔の検出された位置との間の距離に基づいてスケーリングファクタを決定することと、
受信された前記画像データにおいて前記ユーザの前記頭部の複数の特徴を検出することと、
決定された前記スケーリングファクタに基づいて前記ユーザの前記頭部の検出された前記複数の特徴のためのそれぞれの複数の測定値を決定することと、
前記ユーザの前記頭部の前記複数の特徴の前記複数の測定値に基づいて前記ユーザの前記頭部の三次元モデルを作成することと
をさらに含み、
前記頭部の前記複数の特徴の前記複数の測定値は、前記既知の瞳孔間距離および前記画像データにおいて検出された前記第1の瞳孔と前記第2の瞳孔との間の前記距離に関連した前記スケーリングファクタに基づき、
前記方法は、
シミュレーションエンジンから、前記ユーザの前記頭部の前記三次元モデルに基づいて前記ユーザのための前記頭部取付式ウェアラブルコンピューティングデバイスの構成を受信すること
をさらに含む、方法。
【請求項19】
前記三次元モデルを作成することは、前記ユーザの前記頭部の検出された前記複数の特徴に前記スケーリングファクタを適用することを含む、請求項18に記載の方法。
【請求項20】
受信された前記画像データにおいて複数の光学測定値を検出することをさらに含み、前記複数の光学測定値は、瞳孔高さ、瞳孔間距離、左瞳孔距離、右瞳孔距離、頂点間距離または前傾角のうちの少なくとも1つを含み、
前記方法は、
検出された前記複数の光学測定値に前記スケーリングファクタを適用することをさらに含む、請求項18または請求項19に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願との相互参照
本願は、その開示の全体が参照により本明細書に組み込まれる、2021年7月15日に出願された米国出願第17/305,834号の継続出願であり、その利益を主張する。
【0002】
技術分野
本説明は、概して、画像データからのウェアラブルデバイスのフィッティング、特に、画像データにおける既知のスケールを有する既知の基準デバイスの検出に基づくウェアラブルデバイスのフィッティングに関する。
【背景技術】
【0003】
背景
ウェアラブルデバイスは、例えば、スマート眼鏡、ヘッドセット、イヤバッド等を含む頭部装着型デバイス、スマートウォッチ、スマートブレスレット、スマートリング等の手首および/または手装着型デバイス、スマートペンダント、フィットネストラッカ、カメラ、ボディセンサ、ならびにその他のこのようなデバイスを含んでよい。幾つかの例において、ユーザは、フィットおよび/または機能のためにウェアラブルデバイスを選択および/またはカスタマイズしたい場合がある。例えば、ユーザは、フレームの選択、処方レンズの組込み、およびその他のこのような特徴を含むためにスマート眼鏡を選択および/またはカスタマイズしたい場合がある。これらのタイプのウェアラブルデバイスの調達のための既存のシステムでは、特に小売店へのアクセスなしには、正確なフィッティングおよびカスタマイズを提供できない。
【発明の概要】
【0004】
概要
1つの一般的な態様において、ディスプレイデバイスを含む頭部取付式ウェアラブルコンピューティングデバイスをフィッティングする、コンピュータが実行する方法は、コンピューティングデバイス上で実行されるアプリケーションを介して、既知の基準デバイスに関連した少なくとも1つの測定値を受信することと、アプリケーションを介して、コンピューティングデバイスによってキャプチャされた画像データを受信することと、を含み、画像データは、ユーザの頭部および既知の基準デバイスを含み、方法は、受信された画像データにおいて既知の基準デバイスを検出することと、画像データ内の既知の基準デバイスにスケールを関連付けることと、受信された画像データにおいてユーザの頭部の複数の特徴を検出することと、画像データ内の既知の基準デバイスに関連したスケールに基づいてユーザの頭部の検出された複数の特徴のためのそれぞれの複数の測定値を決定することと、ユーザの頭部の複数の特徴の複数の測定値に基づいてユーザの頭部の三次元モデルを作成することと、をさらに含み、頭部の複数の特徴の複数の測定値は、既知の基準デバイスに関連したスケールに基づき、方法は、シミュレーションエンジンから、ユーザの頭部の三次元モデルに基づいてユーザのための頭部取付式ウェアラブルコンピューティングデバイスの構成を受信することをさらに含む。
【0005】
幾つかの実装において、既知の基準デバイスは、少なくとも1つの既知の物理的特徴を含むウェアラブルデバイスである。既知の基準デバイスに関連した少なくとも1つの測定値を受信することは、コンピューティングデバイスによってキャプチャされた画像データにおいて少なくとも1つの既知の物理的特徴を検出することと、検出された少なくとも1つの既知の物理的特徴に既知の測定値を関連付けることと、を含んでよい。
【0006】
幾つかの実装において、既知の基準デバイスは、コンピューティングデバイスによってキャプチャされた画像データにおけるユーザによって着用されたウェアラブルデバイスである。既知の基準デバイスに関連した少なくとも1つの測定値を受信することは、ウェアラブルデバイスのフレームのレンズ部分の幅に対応する第1の測定値を受信することと、フレームのブリッジ部分の幅に対応する第2の測定値を受信することと、を含んでよく、フレームの正面幅測定値は、第1の測定値の2倍に第2の測定値を足したものに等しく、フレームのテンプルアーム部分の長さに対応する第3の測定値を受信することを含んでよい。受信された画像データにおいて既知の基準デバイスを検出することおよび画像データ内の既知の基準デバイスにスケールを関連付けることは、画像データ内で、フレームの第1の縁部分と第1のテンプルアーム部分とが結合されている第1のヒンジ領域を検出することと、画像データ内で、フレームの第2の縁部分と第2のテンプルアーム部分とが結合されている第2のヒンジ領域を検出することと、第1のヒンジ領域と第2のヒンジ領域との間の画像データにおける距離を既知の正面幅測定値と比較することと、比較に基づいてスケーリングファクタを決定することと、を含んでよい。
【0007】
幾つかの実装において、受信された画像データにおいて既知の基準デバイスを検出することおよび画像データ内の既知の基準デバイスにスケールを関連付けることは、画像データにおいて既知の基準デバイスの少なくとも1つの特徴を検出することと、検出された少なくとも1つの特徴に既知の測定値を関連付けることと、検出された少なくとも1つの特徴に関連付けられた既知の測定値を、検出された少なくとも1つの特徴の画像内の検出されたサイズと比較することと、比較に基づいてスケーリングファクタを決定することと、を含む。三次元モデルを作成することは、ユーザの頭部の検出された複数の特徴にスケーリングファクタを適用することを含んでよい。
【0008】
幾つかの実装において、既知の基準デバイスは、ユーザによって着用された眼鏡であり、既知の基準デバイスに関連した少なくとも1つの測定値を受信することは、眼鏡のフレームの前側幅測定値を受信することと、眼鏡のフレームのテンプルアーム測定値を受信することと、を含む。
【0009】
幾つかの実装において、コンピューティングデバイスによってキャプチャされた画像データを受信することは、ユーザの頭部の正面画像および既知の基準デバイス、ならびにユーザの頭部の横顔画像および既知の基準デバイスを含む画像データを受信することを含む。幾つかの実装において、ユーザの頭部の三次元モデルを作成することは、コンピューティングデバイスのプロセッサによってユーザの頭部の三次元モデルを作成すること、またはコンピューティングデバイスによって、画像データを外部コンピューティングデバイスへ送信すること、およびコンピューティングデバイスによって、外部コンピューティングデバイスからユーザの頭部の三次元モデルを受信すること、のうちの1つを含む。
【0010】
幾つかの実装において、方法は、受信された画像データにおいて複数の光学測定値を検出することも含み、複数の光学測定値は、瞳孔高さ、瞳孔間距離、左瞳孔距離、右瞳孔距離、頂点間距離または前傾角のうちの少なくとも1つを含む。幾つかの実装において、コンピューティングデバイス上で実行されるアプリケーションは、セルフポートレート動作モードを起動し、ユーザによって操作されるコンピューティングデバイスの前面カメラの動作を開始する。
【0011】
別の一般的な態様において、非一時的コンピュータ可読媒体は、コンピューティングデバイスの少なくとも1つのプロセッサによって実行されると少なくとも1つのプロセッサに、コンピューティングデバイスにおいて実行されるアプリケーションを介して、既知の基準デバイスに関連した少なくとも1つの測定値を受信させ、コンピューティングデバイスのカメラによってキャプチャされた画像データを受信させ、画像データは、ユーザの頭部を表す画像データおよび既知の基準デバイスを表す画像データを含み、受信された画像データにおいて既知の基準デバイスを検出させ、画像データ内の既知の基準デバイスにスケールを関連付けさせ、受信された画像データにおいてユーザの頭部の複数の特徴を検出させ、画像データ内の既知の基準デバイスに関連付けられたスケールに基づいてユーザの頭部の検出された複数の特徴のためのそれぞれの複数の測定値を決定させ、既知の基準デバイスに関連付けられたスケールに基づいて決定されたユーザの頭部の複数の特徴の複数の測定値に基づいてユーザの頭部の三次元モデルを作成させ、ユーザの頭部の三次元モデルに基づいてユーザのための頭部取付式ウェアラブルコンピューティングデバイスの構成を出力させる、ように構成されている実行可能な命令を記憶する。
【0012】
幾つかの実装において、既知の基準デバイスは、少なくとも1つの既知の物理的特徴を含むウェアラブルデバイスであり、命令は、少なくとも1つのプロセッサに少なくとも1つの測定値を受信させ、コンピューティングデバイスによってキャプチャされた画像データにおいて少なくとも1つの既知の物理的特徴を検出することと、検出された少なくとも1つの既知の物理的特徴に既知の測定値を関連付けることと、を含む。命令は、少なくとも1つのプロセッサに、受信された画像データにおいて既知の基準デバイスを検出させかつ画像データ内の既知の基準デバイスにスケールを関連付けさせてもよく、画像データにおいて既知の基準デバイスの少なくとも1つの特徴を検出することと、検出された少なくとも1つの特徴に既知の測定値を関連付けることと、検出された少なくとも1つの特徴に関連付けられた既知の測定値を、検出された少なくとも1つの特徴の画像内の検出されたサイズと比較することと、比較に基づいてスケーリングファクタを決定することと、を含む。
【0013】
幾つかの実装において、既知の基準デバイスは、コンピューティングデバイスによってキャプチャされた画像データにおけるユーザによって着用されたウェアラブルデバイスであり、命令は、少なくとも1つのプロセッサに、既知の基準デバイスに関連付けられた少なくとも1つの測定値を受信させ、画像データにおけるユーザによって着用されたウェアラブルデバイスのフレームのレンズ部分の幅に対応する第1の測定値を受信することと、フレームのブリッジ部分の幅に対応する第2の測定値を受信することと、フレームのテンプルアーム部分の長さに対応する第3の測定値を受信することと、を含む。命令は、少なくとも1つのプロセッサに三次元モデルを作成させてよく、決定されたスケーリングファクタをユーザの頭部の検出された複数の特徴に適用することを含む。
【0014】
幾つかの実装において、命令は、少なくとも1つのプロセッサに、受信された画像データにおいて複数の光学測定値を検出させ、複数の光学測定値は、瞳孔高さ、瞳孔間距離、左瞳孔距離、右瞳孔距離、頂点間距離または前傾角のうちの少なくとも1つを含む。
【0015】
別の一般的な態様において、ディスプレイデバイスを含む頭部取付式ウェアラブルコンピューティングデバイスをフィッティングする、コンピュータが実行する方法は、コンピューティングデバイス上で実行されるアプリケーションを介して、コンピューティングデバイスによってキャプチャされた画像データを受信することを含み、画像データはユーザの頭部を含み、方法は、アプリケーションを介して、ユーザの既知の瞳孔間距離測定値を受信することと、コンピューティングデバイスによってキャプチャされた画像データにおいて、ユーザの第1の瞳孔およびユーザの第2の瞳孔の位置を検出することと、受信された瞳孔間距離および画像データにおける第1の瞳孔の検出された位置と第2の瞳孔の検出された位置との間の距離に基づいてスケーリングファクタを決定することと、受信された画像データにおいてユーザの頭部の複数の特徴を検出することと、決定されたスケーリングファクタに基づいてユーザの頭部の検出された複数の特徴のためのそれぞれの複数の測定値を決定することと、ユーザの頭部の複数の特徴の複数の測定値に基づいてユーザの頭部の三次元モデルを作成することと、を含み、頭部の複数の特徴の複数の測定値は、既知の瞳孔間距離および画像データにおいて検出された第1の瞳孔と第2の瞳孔との間の距離に関連したスケーリングファクタに基づき、方法は、シミュレーションエンジンから、ユーザの頭部の三次元モデルに基づいてユーザのための頭部取付式ウェアラブルコンピューティングデバイスの構成を受信することを含む。この態様の方法は、さらに上記で説明されている態様による方法の特徴のうちの1つまたは複数、例えば、全てを含んでよい。
【0016】
幾つかの実装において、三次元モデルを作成することは、ユーザの頭部の検出された複数の特徴にスケーリングファクタを適用することを含む。幾つかの実装において、方法は、受信された画像データにおいて複数の光学測定値を検出することも含み、複数の光学測定値は、瞳孔高さ、瞳孔間距離、左瞳孔距離、右瞳孔距離、頂点間距離または前傾角のうちの少なくとも1つをさらに含み、方法は、検出された複数の光学測定値にスケーリングファクタを適用することをさらに含む。
【0017】
1つまたは複数の実装の詳細は、添付の図面および以下の説明に示されている。その他の特徴が、説明および図面、ならびに請求項から明らかになるであろう。
【図面の簡単な説明】
【0018】
【
図1A】本明細書で説明されている実装による例示的なシステムを示す図である。
【
図1B】本明細書で説明されている実装による、
図1Aに示された例示的なウェアラブルコンピューティングデバイスの正面図である。
【
図1C】本明細書で説明されている実装による、
図1Aに示された例示的なウェアラブルコンピューティングデバイスの後面図である。
【
図3】本明細書で説明されている実装による、システムのブロック図である。
【
図4A】本明細書で説明されている実装による、例示的な基準デバイスを着用するユーザを示す図である。
【
図4B】本明細書で説明されている実装による、既知の基準デバイスに関連した既知のスケールの指示を示す図である。
【
図4C】本明細書で説明されている実装による、既知の基準デバイスに関連した既知のスケールの指示を示す図である。
【
図4D】本明細書で説明されている実装による、既知の基準デバイスに関連した既知のスケールの指示を示す図である。
【
図5A】本明細書で説明されている実装による、例示的な画像キャプチャモードを示す図である。
【
図5B】本明細書で説明されている実装による、例示的な画像キャプチャモードを示す図である。
【
図6-1】
図6A-
図6Cは、本明細書で説明されている実装による、既知の基準デバイスに関連した情報を提供するための例示的なプロセスを示す図である。
【
図6-2】
図6D-
図6Fは、本明細書で説明されている実装による、既知の基準デバイスに関連した情報を提供するための例示的なプロセスを示す図である。
【
図7-1】
図7A-
図7Cは、本明細書で説明されている実装による、画像データをキャプチャするための例示的なプロセスを示す図である。
【
図7-2】
図7D-
図7Gは、本明細書で説明されている実装による、画像データをキャプチャするための例示的なプロセスを示す図である。
【
図7-3】
図7Hは、本明細書で説明されている実装による、画像データをキャプチャするための例示的なプロセスを示す図である。
【
図7-4】
図7Iは、本明細書で説明されている実装による、画像データをキャプチャするための例示的なプロセスを示す図である。
【
図7-5】
図7Jは、本明細書で説明されている実装による、画像データをキャプチャするための例示的なプロセスを示す図である。
【
図8】本明細書で説明されている実装による、例示的な方法のフローチャートである。
【
図9】本明細書で論じられているコンピューティングシステムの例示的なコンピューティングデバイスを示す図である。
【発明を実施するための形態】
【0019】
詳細な説明
本開示は、ウェアラブルコンピューティングデバイスに関連したウェアラブルフィットパラメータ、ディスプレイフィットパラメータおよび眼科フィットパラメータの決定を含む、ウェアラブルコンピューティングデバイスの選択およびフィッティングのためのシステムおよび方法に関する。本明細書で説明されている実装によるシステムおよび方法は、ユーザの正確な三次元モデルを生成する際に使用される既知の寸法またはスケールを有する既知の基準オブジェクトまたはデバイスを使用してウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットの決定を提供する。本明細書で説明されている実装によるシステムおよび方法は、ユーザによって操作されるコンピューティングデバイス上で動作するアプリケーションを介してキャプチャされる画像データからユーザの物理的属性の測定値の検出を提供する。本明細書で説明されている実装によるシステムおよび方法は、ユーザの物理的属性に関連した測定値を導き出すために、画像データ内で検出された、既知の寸法またはスケールを有する既知の基準オブジェクトまたはデバイスを使用する。物理的属性の測定値を導き出すための既知の寸法またはスケールを有する既知の基準オブジェクトまたはデバイスの使用は、改善された精度を有する測定値を生じてよく、これにより、決定されるウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットを改善する。既知の寸法またはスケールを有する既知の基準オブジェクトまたはデバイスの使用は、自主的な、または監視されない、または監督されない形式でのユーザによるこれらの測定値のキャプチャおよび検出を容易にし得る。本明細書で説明されている実装によるシステムおよび方法は、検出された物理的属性および関連する測定値に基づいて、ユーザ、例えば、ユーザの頭部の三次元モデルの生成を提供する。
【0020】
幾つかの例において、本明細書で説明されているようなシステムおよび方法は、ディスプレイデバイスを含むスマート眼鏡の形態のウェアラブルコンピューティングデバイスのための、画像キャプチャデータからのウェアラブルフィット測定値および/またはディスプレイフィット測定値および/または眼科フィット測定値の収集を提供してよい。幾つかの例において、スマート眼鏡の形態のウェアラブルコンピューティングデバイスは、ユーザの特定の物理的属性、ニーズおよび好みのためにカスタマイズされた補正/処方レンズを含む。幾つかの実装において、既知のスケールを提供する既知の基準デバイスは、個人的な眼鏡を着用するユーザの画像において既知の測定可能な寸法を提供する個人的な眼鏡であってよい。幾つかの実装において、既知のスケールを提供する既知の基準デバイスは、キャプチャされた画像と共に処理するための、ユーザによって提供される、瞳孔間距離などの既知の眼科測定値であってよい。幾つかの実装において、既知のスケールを有する既知の基準デバイスは、関連する既知のサイズまたはスケールを有する多数の他のタイプのデバイスであってよく、ユーザのキャプチャされた画像に含まれ得る。本明細書で説明されている実装によるシステムおよび方法は、これらの測定値の決定および三次元モデルの生成のための画像データのキャプチャを監督者または代理人が監視する必要なく、自主的な、または監視されない形式で、ユーザによって操作されるコンピューティングデバイス上で動作するアプリケーションを介して画像データのキャプチャを提供する。この形式における測定値データの収集は、比較的正確な測定値データを生じてよく、物理的な小売店にアクセスする必要なく、例えば、スマート眼鏡およびその他のこのようなウェアラブルコンピューティングデバイスなどのウェアラブルコンピューティングデバイスが、特定のユーザに関連した特定のニーズ、好みおよび機能のためにカスタマイズされることを可能にし得る。
【0021】
以下では、本明細書で説明されている実装によるシステムおよび方法が、例えば、ディスプレイデバイスを含むスマート眼鏡などの頭部取付式ディスプレイデバイスの形態のウェアラブルコンピューティングデバイスの選択およびフィッティングに関して説明される。このような頭部取付式ディスプレイデバイスにおいて、ディスプレイデバイスによって表示されるコンテンツは、ウェアラブルコンピューティングデバイスを着用するユーザによって見られ得る/ユーザに見える。以下では、本明細書で説明されている実装によるシステムおよび方法が、ユーザによって操作されるコンピューティングデバイス上で動作するアプリケーションを介して収集された画像キャプチャデータ内における、既知のスケール、例えば、計量スケールを有する既知の基準オブジェクトまたはデバイスの検出に基づく、ウェアラブルコンピューティングデバイスの選択およびフィッティングのための測定値の検出に関して説明される。ユーザが、補正レンズを含むウェアラブルコンピューティングデバイスから恩恵を受ける状況において、これらのシステムおよび方法は、眼科フィット測定値の収集を提供してよい。眼科フィット測定値に基づく、ユーザのための眼科フィットの決定は、ウェアラブルコンピューティングデバイスへの補正/処方レンズの組込みを可能にし得る。眼科フィット測定値に基づくユーザのための眼科フィットの決定は、ウェアラブルコンピューティングデバイスのためのディスプレイデバイスを構成する際に補正/処方レンズの特徴が考慮されることを可能にし得る。即ち、本明細書で説明されている実装によるシステムおよび方法は、ウェアラブルコンピューティングデバイスへのディスプレイデバイスのフィッティングのために、およびディスプレイデバイスによって表示されたコンテンツがウェアラブルコンピューティングデバイスを着用したユーザに見えるようにウェアラブルコンピューティングデバイスへの補正/処方レンズの組込みのために、ウェアラブルコンピューティングデバイスのフレーム選択を提供するための既知の基準オブジェクトならびに画像ベースキャプチャシステムおよび方法を使用してウェアラブルフィット測定値および/またはディスプレイフィット測定値および/または眼科フィット測定値を検出してよい。
【0022】
図1Aは、ユーザが1つまたは複数のモバイルコンピューティングデバイスを操作してよく、ネットワーク1200を介して1つまたは複数の外部リソース1100へアクセスすることができるシステムを示す。
図1Aは、モバイルコンピューティングデバイスの様々な例を含む、周囲環境1000におけるユーザの三人称視点を提供する。
図1Aに示された例において、例示的なモバイルコンピューティングデバイスは、第1の頭部装着型ウェアラブルコンピューティングデバイス100、第2の頭部装着型ウェアラブルコンピューティングデバイス190、手首装着型コンピューティングデバイス180、および手持ち式コンピューティングデバイス200を含む。幾つかの例において、第1の頭部装着型ウェアラブルコンピューティングデバイス100は、スマート眼鏡またはヘッドセットの形式の、頭部取付式ディスプレイデバイスなどにおいて、例えば、ディスプレイ、周囲環境の画像をキャプチャすることができるカメラ、オーディオ入力/出力機能、ユーザ入力機能等を含む様々な構成要素を含むことができる。幾つかの例において、第2の頭部装着型コンピューティングデバイス190は、ヘッドホンまたはイヤバッドなどの耳装着型コンピューティングデバイスであることができ、オーディオ入力/出力機能、周囲環境の画像をキャプチャすることができるカメラ、ユーザ入力機能等を含むことができる。幾つかの例において、手首装着型コンピューティングデバイス180は、スマートウォッチまたはリストバンドなどにおける、ディスプレイ、周囲環境の画像をキャプチャすることができるカメラ、オーディオ入力/出力機能、ユーザ入力機能等を含むことができる。幾つかの例において、手持ち式コンピューティングデバイス200は、スマートフォンなどにおいて、ディスプレイ、周囲環境の画像をキャプチャすることができるカメラ、オーディオ入力/出力機能、ユーザ入力機能等を含むことができる。
図1Aは、モバイルコンピューティングデバイスの幾つかの例のみを示す。本明細書に記載される原理は、
図1Aに明確に示されていないその他のタイプのモバイルコンピューティングデバイスに適用されてもよい。幾つかの例において、
図1Aに示された例示的なコンピューティングデバイスを含むモバイルコンピューティングデバイスは、情報を交換するため、入力および/または出力を受信および送信するなどのために、互いにおよび/または外部リソース1100と通信することができる。
【0023】
図1Bは、スマート眼鏡または拡張現実眼鏡の形式の、
図1Aに示された例示的なウェアラブルコンピューティングデバイス100の正面図、
図1Cは後面図である。以下では、本明細書に説明された実装によるシステムおよび方法は、単に議論および例示を容易にするために、スマート眼鏡の形態のウェアラブルコンピューティングデバイス100に関して説明される。本明細書に説明される原理は、その他のタイプのウェアラブルコンピューティングデバイスおよび/または協働するモバイル/ウェアラブルコンピューティングデバイスの組合せに適用することができる。
【0024】
図1Bに示されているように、例示的なウェアラブルコンピューティングデバイス100は、フレーム102を含む。
図1Bおよび
図1Cに示された例において、フレーム102は、ガラス部分またはレンズ107を包囲する縁部分103、およびそれぞれの縁部分103に結合されたアーム部分105を含む。幾つかの例において、レンズ107は、補正/処方レンズであってよい。幾つかの例において、レンズ107は、補正/処方パラメータを必ずしも組み込んでいないガラス部分であってよい。幾つかの例において、ブリッジ部分109は、フレーム102の縁部分103を接続している。ディスプレイデバイス104は、フレーム102の部分内に、または部分へと結合されていてよい。
図1Aおよび
図1Bに示された例において、ディスプレイデバイス104は、フレーム102のアーム部分105において結合されている。
図1Aおよび
図1Bに示された例において、ディスプレイデバイス104は、フレーム102の2つのアーム部分105のうちの一方に結合されている。幾つかの例において、ディスプレイデバイス104は、フレーム102の2つのアーム部分105のそれぞれに結合されている。アイボックス104が、出力カプラ144におけるコンテンツの出力のために、レンズ107に向かって延びており、出力カプラ144において、ディスプレイデバイス104によって出力されたコンテンツがユーザに見えてよい。幾つかの例において、出力カプラ144は、実質的にレンズ107と一致していてよい。
【0025】
幾つかの実装において、ディスプレイデバイス104は、シースルーニアアイディスプレイを含んでよい。例えば、ディスプレイデバイス104は、所定の角度(例えば、30~45度)で着座させられたビームスプリッタとして機能するテレプロンプタガラスの一部へディスプレイソースから光を投射するように構成されていてよい。ビームスプリッタは、ディスプレイソースからの光を部分的に反射させる一方で残りの光が透過させられ得るような反射および透過値を可能にしてよい。このような光学的設計は、ディスプレイデバイス104によって生成されたコンテンツ(例えば、デジタル画像、ユーザインターフェースエレメント、バーチャルコンテンツ等)の隣に、例えば、レンズ107を通して実世界における物理的なアイテムを両方ともユーザが見ることを可能にしてよい。幾つかの実装において、ディスプレイデバイス104上にコンテンツを描くために導波路光学が使用されてよい。
【0026】
ウェアラブルコンピューティングデバイス100は、オーディオ出力デバイス106(例えば、1つまたは複数のスピーカ)、照明デバイス108、センシングシステム110、制御システム112、少なくとも1つのプロセッサ114、および外向き画像センサ116またはカメラ116も含んでよい。幾つかの実装において、ウェアラブルコンピューティングデバイス100は、視線方向および移動を検出および追跡するために、例えば、1つまたは複数のセンサ125を含む視線追跡デバイス120を含んでよい。センサ125によってキャプチャされたデータは、ユーザ入力として視線方向および移動を検出および追跡するために処理されてよい。幾つかの実装において、センシングシステム110は様々なセンシングデバイスを含んでよく、制御システム112は、例えば、制御システム112の構成要素に動作可能に結合された1つまたは複数のプロセッサ114を含む、様々な制御システムデバイスを含んでよい。幾つかの実装において、制御システム112は、ウェアラブルコンピューティングデバイス100とその他の外部デバイスとの間の情報の通信および交換を提供する通信モジュールを含んでよい。
【0027】
図1A~
図1Cに示された例示的なスマート眼鏡などのウェアラブルコンピューティングデバイス100を特定のユーザのためにサイジングおよびフィッティングするときに、多くの異なるサイジングおよびフィッティング測定値および/またはパラメータが考慮されてよい。これは、例えば、ウェアラブルフィットパラメータまたはウェアラブルフィット測定値を含んでよい。ウェアラブルフィットパラメータ/測定値は、特定のフレーム102が特定のユーザにおいてどのようにフィットするかおよび/または見えるかおよび/または感じるかを考慮してよい。ウェアラブルフィットパラメータ/測定値は、例えば、フレーム102がこめかみに関して快適であるように十分に幅広いが同時にユーザによって装着されたときにフレーム102が比較的静止したままであることができない(即ち、大きすぎるまたは広すぎる)ほど広くもないかどうかなど、多くの要因を考慮してよい。ウェアラブルフィットパラメータ/測定値は、ブリッジ部分109がユーザの鼻の鼻梁上に快適に静止することができるように縁部分103およびブリッジ部分109がサイズ決めされているかどうか、ユーザの耳に快適に静止するようにアーム部分105がサイズ決めされているかどうか、およびその他のこのような快適性関連考慮など、その他の要因を考慮してよい。ウェアラブルフィットパラメータ/測定値は、例えば、頭部姿勢など、ユーザがどのように自然にフレーム102を装着するか/ユーザがどのように自然に頭部を保持するか、ユーザがどのようにフレームを顔に対して位置決めするかなどを含む装着時考慮を考慮してよい。ウェアラブルフィットパラメータ/測定値は、フレーム102のサイズおよび/または形状および/または輪郭がユーザにとって美観的に好ましいかどうか、およびユーザの顔の特徴に合うかどうかを考慮してよい。幾つかの例において、ウェアラブルフィットパラメータ/測定値は、ディスプレイ領域がユーザの自然な視野と調和させられ得るように、特定のフレーム構成に関連したフィットがディスプレイデバイスの組み込みを提供することができるかどうかを考慮してよい。幾つかの例において、ウェアラブルフィットパラメータは、特定のフレーム構成に関連したアイトラッキングカメラ配列がユーザの眼の視線および動きを有効に追跡することができるかどうかを考慮してよい。
【0028】
ディスプレイフィットパラメータまたはディスプレイフィット測定値が、ウェアラブルコンピューティングデバイス100を特定のユーザのためにサイジングおよびフィッティングするときに考慮されてよい。ディスプレイフィットパラメータ/測定値は、ディスプレイデバイス104によって表示されるコンテンツがユーザに見えるように、特定のユーザのためのフレーム102のセットのためにディスプレイデバイス104を構成するために使用されてよい。例えば、ディスプレイフィットパラメータ/測定値は、ディスプレイデバイス104によって表示されるコンテンツが少なくともユーザの視野の設定された部分内にキャプチャされるようにディスプレイデバイス104の配置の指示を提供してよい。例えば、ディスプレイフィットパラメータ/測定値は、ユーザの視野の周辺部(例えば、最も見えづらい角)において設定された輝度レベルおよび設定された瞳孔サイズにおいてユーザに見えるコンテンツの表示の量、または部分、またはパーセンテージに対応する、ゲイザビリティの少なくとも設定されたレベルを提供するようにディスプレイデバイス104を構成するために使用されてよい。ディスプレイフィットパラメータ/測定値は、フレーム102の特定のセットのためのユーザにコンテンツの表示の可能な限り最善の配置を提供するようにディスプレイデバイス104を構成するために使用されてよい。
【0029】
幾つかの例において、眼科フィットパラメータまたは眼科フィット測定値は、処方または補正レンズ107を含むウェアラブルコンピューティングデバイス100をサイジングおよびフィッティングするときに考慮されてよい。幾つかの例示的な眼科フィット測定値は、
図2A~
図2Dに示されている。眼科フィット測定値は、例えば、左側瞳孔高さおよび右側瞳孔高さを含む瞳孔高さPH(瞳孔の中心からレンズ107の底部までの距離)を含んでよい。眼科フィット測定値は、瞳孔間距離IPD(瞳孔の間の距離)を含んでよい。IPDは、単眼瞳孔距離、例えば、左側瞳孔距離LPD(鼻の鼻梁の中央部分から左側瞳孔までの距離)および右側瞳孔距離RPD(鼻の鼻梁の中央部分から右側瞳孔までの距離)によって特徴づけられてよい。眼科フィット測定値は、前傾角PA(垂直に対するレンズ107の傾斜によって定義される角度)を含んでよい。眼科フィット測定値は、例えば、左側頂点間距離および右側頂点間距離を含む、頂点間距離V(角膜からレンズ107までの距離)を含んでよい。眼科フィット測定値は、上記で説明されているようなディスプレイデバイス104を含む頭部取付式ウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングを提供するその他のこのようなパラメータまたは測定値を含んでよい。
図2Cは、比較的より低い視度のレンズ107に関連した頂点間距離Vを示す。
図2Dは、比較的より高い視度のレンズ107に関連した頂点間距離Vを示す。眼科フィット測定値は、ユーザのために、ディスプレイデバイス104を含むウェアラブルコンピューティングデバイス100をフィッティングするときに考慮されてよい。例えば、眼科フィット測定値は(ディスプレイフィット測定値と共に)、コンテンツの表示がユーザの視野内およびユーザの補正された視野内にあり、したがって、ユーザに見える、レンズ107とユーザの目との間に延びる三次元体積によって定義されるアイボックス内へのディスプレイデバイス104によるコンテンツの表示の配置を提供してよい。
【0030】
上記で説明されているように、本明細書において説明された実装によるシステムおよび方法において、画像データ(上記で説明されているコンピューティングデバイス200など、ユーザによって操作されるコンピューティングデバイス上で実行されるアプリケーションを介してキャプチャされる)は、ユーザのためのウェアラブルコンピューティングデバイス100(ディスプレイデバイス104および/または補正レンズ107を含む)をサイジングおよびフィッティングするために、ウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィット測定値を決定するために使用されてよい。ユーザの頭部の三次元モデルは、キャプチャされた画像データ内で検出される測定値(例えば、ユーザの物理的属性の測定値)に基づいて、作成、または生成、または定義されてよい。コンピューティングデバイス200が深度センシング機能を含まない状況において、これらの物理的属性の測定値の精度は、上記のように、既知のスケールを有する基準デバイスの使用により改善され得る。三次元モデルの精度は、ウェアラブルコンピューティングデバイス100の正確なサイジングおよび/またはフィッティング、ならびにディスプレイデバイス104および/または補正レンズ107を含むウェアラブルコンピューティングデバイス100の改良された機能を提供してよい。
【0031】
サイジングおよび/またはフィッティングされるウェアラブルコンピューティングデバイス100が、
図1A~
図1Cに関して上記で説明されているスマート眼鏡の形態の頭部取付式ディスプレイデバイスであるという状況において、基準デバイスは、画像データのキャプチャの少なくとも一部の間にユーザによって着用される眼鏡であることができる。幾つかの例において、眼鏡は、ユーザの個人用の眼鏡、またはユーザがアクセス可能な別の眼鏡であってよい。幾つかの例において、標準的な寸法は、基準デバイスとして使用される眼鏡の物理的特徴に関連している。眼鏡に関連した標準的な寸法は、ウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングのために、スケールが正確なユーザの頭部の三次元モデルを生成、または定義、または作成する際に使用することができる、既知のスケールを提供することができる。上記のように、画像データは、例えば、上記で説明されているモバイルコンピューティングデバイス200などの、ユーザのモバイルコンピューティングデバイス上で動作するアプリケーションを使用して、ユーザによってキャプチャされてよい。幾つかの例において、モバイルコンピューティングデバイス200の画像センサまたはカメラは、深度センサによって収集されるデータに依存することなく、画像データをキャプチャするために使用されてよい。コンピューティングデバイス200が深度センサを含む例において、画像データは、深度センサによってキャプチャされた深度データを含んでよい。
【0032】
図3は、本明細書に説明されている実装による、ウェアラブルコンピューティングデバイスのためのウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィット測定値を決定するための例示的なシステムのブロック図である。システムは、1つまたは複数のコンピューティングデバイス300を含んでよい。コンピューティングデバイス300は、例えば、サーバコンピュータシステム、プロセッサ、データベース、メモリストレージ等の外部リソース302へアクセスするためにネットワーク306を介して選択的に通信することができる。コンピューティングデバイス300は、制御システム370の制御下で作動することができる。コンピューティングデバイス300は、直接(有線および/または無線通信を介して)、またはネットワーク306を介して、1つまたは複数の外部コンピューティングデバイス304(別のウェアラブルコンピューティングデバイス、別のモバイルコンピューティングデバイス等)と通信することができる。コンピューティングデバイス300は、外部通信を容易にするために通信モジュール380を含んでよい。コンピューティングデバイス300は、例えば、1つまたは複数の画像センサ322、1つまたは複数の位置/向きセンサ324(例えば、慣性測定ユニット、加速度計、ジャイロスコープ、磁力計等を含む)、オーディオ入力を検出することができる1つまたは複数のオーディオセンサ326、およびその他のこのようなセンサを含む、様々なセンシングシステム構成要素を含むセンシングシステム320を含むことができる。コンピューティングデバイス300は、より多いまたはより少ないセンシングデバイスおよび/またはセンシングデバイスの組合せを含むことができる。
【0033】
幾つかの実装において、コンピューティングデバイス300は、1つまたは複数の画像センサまたはカメラ360を含んでよい。カメラ360は、例えば、コンピューティングデバイス300の外側の環境の静止画および/または動画データをキャプチャすることができる、アウトワードフェイシングカメラ、ワールドフェイシングカメラ等を含むことができる。幾つかの実装において、1つまたは複数のカメラ360は、深度センサを含んでよい。静止画および/または動画データは、出力システム340のディスプレイデバイスによって表示されてよく、ならびに/または通信モジュール380およびネットワーク306を介して外部へ送信されてよく、ならびに/またはコンピューティングデバイス300のメモリ330に記憶されてよい。コンピューティングデバイス300は、1つまたは複数のプロセッサ350を含んでよい。プロセッサ350は、様々な機能を行うように構成された様々なモジュールまたはエンジンを含んでよい。幾つかの例において、プロセッサ350は、物体認識モジュール、パターン認識モジュール、構成識別モジュールおよびその他のこのようなプロセッサを含む。プロセッサ350は、1つまたは複数の機械実行可能命令またはソフトウェア、ファームウェアもしくはそれらの組合せを実行するように構成された基板に形成されてよい。プロセッサ350は、デジタルロジックを行うことができる半導体材料を含む半導体ベースであることができる。メモリ330は、プロセッサ350によって読み取るおよび/または実行することができるフォーマットにおいて情報を記憶するあらゆるタイプのストレージデバイスを含んでよい。メモリ330は、プロセッサ350によって実行されると、あるオペレーションを行う、アプリケーションおよびモジュールを記憶してよい。幾つかの例において、アプリケーションおよびモジュールは、外部ストレージデバイスに記憶され、メモリ330内へロードされてよい。
【0034】
図4Aは、本明細書に説明された実装による、ユーザのためのウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングのための、既知のスケールを有する既知の基準デバイス400として使用される個人用眼鏡を着用しているユーザを示す。上記で説明されているように、個人用眼鏡の使用は、画像データにおいて、既知のスケール、例えば、既知のメトリックスケールを提供し得、画像データから、ウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングのためにその他の測定値が決定されてよい。幾つかの状況において、この目的のための個人用眼鏡の使用は、個人用眼鏡が既知の快適なウェアラブルフィットを提供し得るという点において、ユーザのための比較的正確な基準点を提供し得る。幾つかの状況において、この目的のための個人用眼鏡の使用は、ウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングのためにユーザの頭部および/または顔の三次元モデルを生成、または定義、または作製するためにパラメータを決定する際の比較的正確な基準点を提供し得る。幾つかの状況において、既知のスケールを有する既知の基準デバイスとして使用される個人用眼鏡は、例えば、小売店において、ユーザのために前にフィットされた、またはユーザによって前に購入された眼鏡であってよい。幾つかの状況において、既知の基準デバイスとして使用される個人用眼鏡は、必ずしもユーザのために特別にフィットされていないが、ユーザがアクセス可能な眼鏡であってよい。この状況において、既知の基準デバイスとして使用される眼鏡の既知のスケールは、依然として、上記で説明されているように三次元モデルおよび測定値の決定を生成、または定義、または作成する際に依存されてよい。
【0035】
本明細書に説明された実装による、システムおよび方法は、議論および例示のために、既知のスケールを有する既知の基準デバイスとしての眼鏡の使用を含む。ユーザの画像データ内にキャプチャされ得る、関連した既知の測定値またはスケールを有するその他のデバイスが、既知の基準デバイスとして機能してよい。
【0036】
図4Aおよび
図4Bに示された既知の基準デバイス400を定義する例示的な眼鏡は、縁部分403と、縁部分403のそれぞれの外側部分に結合されたテンプルアーム部分405とを含むフレーム402を含む。ガラス部分またはレンズ407が、縁部分403に位置決めされている。ブリッジ部分409は、縁部分403のそれぞれの内側部分の間に延びている。
図4Aに示された例示的なフレーム402は、フレーム402の設定された特性に関連した測定値インジケータ415を含む。
図4Aに示された例において、測定値インジケータ415は、単に議論および例示のために、テンプルアーム部分405のうちの一方の内側に設けられている。測定値インジケータ415は、フレーム402上の他の位置に設けられてもよい。測定値インジケータ415は、測定値インジケータ415が設けられている特定のフレーム402に関連した、設定された特性を定義してよい。
図4Aおよび
図4Bに示されているように、測定値インジケータ415は、フレーム402の縁部分403に収容されるレンズ407の幅を表す第1の測定値Xを含んでよい。測定値インジケータ415は、フレーム402のブリッジ部分409の幅を表す第2の測定値Yを含んでよい。測定値インジケータ415は、フレーム402のテンプルアーム部分405の長さを表す第3の測定値Zを含んでよい。幾つかの例において、フレーム402の前側幅W、または全幅Wは、第1の測定値Xおよび第2の測定値Yに基づいて計算されてよい。前側幅Wは、ユーザの頭部/顔における眼鏡の適切なウェアラブルフィットの決定において、およびウェアラブルコンピューティングデバイス100の適切なウェアラブルフィットの決定において重要な要因であるパラメータを表し得る。すなわち、前側幅W、または全幅Wは、2X+Y、すなわちレンズ407の幅の2倍とブリッジ部分409の幅とを足したものに等しくてよい。幾つかの実装において、測定値X、Y、Zは、ミリメートル単位で提供されてよい。幾つかの状況において、レンズ107の周縁部分(比較的小さな周縁部分)は、対応する縁部分103の内側周縁部分における対応するベゼルに係合させられてよく、したがって、縁部分103とレンズ107との間の比較的小さな重なり合いを生じる。レンズ107とそれぞれの縁部分103との間のこの(比較的小さな)重なり合いは、第1の測定値Xによって表されるレンズ107の幅と、正面図から見えるレンズ107の観察される幅との間の比較的僅かな食い違いを生じ得る。幾つかの実装において、このわずかな食い違いは、サイジング/フィッティングプロセスにおいて考慮されてよい。幾つかの状況において、このわずかな食い違いは、サイジング/フィッティングプロセスにおいて無視できるものであってよい。測定値インジケータ415は、製造プロセスの一部として、製造業者によってフレーム402に含まれてよい。ユーザによって着用された既知の基準デバイス400として機能する眼鏡に関連した第1の測定値X、第2の測定値X(the second measurement X)および第3の測定値Zならびに/または前側幅Wは、ユーザの頭部/顔の三次元モデル、ならびにユーザのためのウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングにおけるウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットの決定を生成するために使用されるアルゴリズムへの入力であってよい。第1、第2および第3の測定値X、Y、Zならびに/または全幅Wは、ユーザによって操作されるコンピューティングデバイス上で実行されるアプリケーションを介してキャプチャされる画像データ内で既知のスケールを提供してよい。キャプチャされた画像内の既知のスケールは、次に、測定値を、ユーザの頭部の三次元モデルを生成するための検出された頭蓋/顔特徴およびユーザのためのウェアラブルコンピューティングデバイス100のサイジング/フィッティングに関連付けるために使用されてよい。
【0037】
幾つかの状況において、既知の基準デバイス400としての使用のために選択されたフレーム402は、
図4Aおよび
図4Bに関して上記で説明されているように測定値インジケータを含まなくてよい。この状況において、フレーム402の測定値は、
図4Cおよび
図4Dに示されているように決定されてよい。
図4Cおよび
図4Dに示されているように決定される測定値は、ユーザの頭部/顔の三次元モデル、ならびにユーザのためのウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングにおけるウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットの決定を生成するために使用されるアルゴリズムへの入力として提供されてよい。
【0038】
図4Cおよび
図4Dに示されているように、第1のヒンジ410Aは、フレーム402の第1のテンプルアーム部分405Aと第1の縁部分403Aとを回転可能または枢動可能に結合してよい。第2のヒンジ410Bは、フレーム402の第2のテンプルアーム部分405Bと第2の縁部分403Bとを回転可能または枢動可能に結合してよい。
図4Aおよび
図4Bに関して上記で説明されているような測定値インジケータが存在しないため、前側幅Wまたは全幅Wは、
図4Cに示されているように、第1のヒンジ410Aと第2のヒンジ410Bとの間でユーザによって測定されてよい。この例において、テンプルアーム部分405A、405Bの長さを表す第3の測定値Zは、それぞれのヒンジ410A、410Bに対応するテンプルアーム部分405A、405Bの第1の端部と、テンプルアーム部分405A、405Bのそれぞれの耳サドルポイント部分415A、415Bに対応するテンプルアーム部分405A、405Bの第2の端部との間でユーザによって測定されてよい。各テンプルアーム部分405A、405Bの耳サドルポイント部分415A、415Bは、ユーザの耳に載置されるように設計されてよい。幾つかの例において、テンプルアーム部分405A、405Bの長さに対応する測定値Zは、代わりに、ヒンジ部分410A、410Bから、曲がり移行部を通って耳サドルポイント部分415A、415Bへと延びる、テンプルアーム部分405A、405Bの輪郭全体を辿ってよい。テンプルアーム部分405A、405Bの長さに対応する測定値Z、上記で説明されているように決定される前側幅Wに対応する測定値XおよびY、ならびにブリッジ部分409の位置決め/ブリッジ部分409の幅に対応する第2の測定値Yは、ユーザの顔における眼鏡の適切な着座、ユーザの視線におけるアイボックス/レンズの整列等を提供してよい。幾つかの例において、前側幅Wもしくは全幅W、および/またはテンプルアーム部分405の長さに対応する第3の測定値Zは、定規、テープメジャー、キャリパ等の測定デバイスを使用して測定されてよい。幾つかの例において、前側幅Wもしくは全幅Wおよび/またはテンプルアーム部分405の長さに対応する第3の測定値Zは、ミリメートル単位で測定されてよい。
【0039】
上記のように、ユーザは、ウェアラブルコンピューティングデバイス100のフィッティングのための既知のスケールを有する既知の基準デバイス400としての眼鏡を含む画像をキャプチャするために、上記で説明されたコンピューティングデバイス300などのコンピューティングデバイスを操作してよい。画像は、ユーザによって操作されるコンピューティングデバイス300上で実行されるアプリケーションを介してキャプチャされてよく、これによってユーザは、仮想または対面のいずれかの代理店との予約の必要なく、監視なし、または監督なし、または自主的な形式でウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングのために依存される情報をキャプチャすることが可能になる。
【0040】
図5Aは、スマートフォンなどの手持ち式コンピューティングデバイス300Aの形態の例示的なコンピューティングデバイスを示す。
図5Bは、ラップトップコンピューティングデバイス300Bの形態の例示的なコンピューティングデバイスを示す。
図5Aに示された例において、ユーザの頭部および顔、ならびに既知のスケールを有する既知の基準デバイス400がコンピューティングデバイス300Aのカメラ360Aの視野に入るように、ユーザが、例示的な手持ち式コンピューティングデバイス300Aを保持している。この配置において、カメラ360Aは、既知の基準デバイス400を含む、ユーザの頭部および顔の画像をキャプチャすることができる。キャプチャされた画像は、コンピューティングデバイス300Aのディスプレイデバイス342A上でユーザに表示されてよく、これにより、ユーザは、自分の頭部および顔ならびに既知の基準デバイス400がカメラ360Aの視野内にキャプチャされていることを確認することができる。同様に、
図5Bに示されているように、ユーザの頭部および顔ならびに既知の基準デバイス400がコンピューティングデバイス300Bのカメラ360Bの視野内にキャプチャされるように、例示的なラップトップコンピューティングデバイス300Bがユーザに対して位置決めされ、カメラ360Bは、既知の基準デバイス400と共に、ユーザの頭部および顔の画像をキャプチャすることができる。キャプチャされた画像は、コンピューティングデバイス300Bのディスプレイデバイス342B上でユーザに表示されてよく、これにより、ユーザは、自分の頭部および顔、ならびに既知の基準デバイス400がカメラ360Bの視野内にキャプチャされていることを確認することができる。
【0041】
図5Aおよび
図5Bに示された例示的な配置において、上記で説明されているような基準デバイス400に関連した測定データと共に、カメラ360によってキャプチャされた画像データは、ユーザの頭部の三次元モデルが生成、または定義、または作成され、ウェアラブルコンピューティングデバイス100のウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットが特定のユーザのために決定されるプロセスへの入力として働いてよい。これらの入力は、ウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットパラメータを決定するために既知の基準デバイス400によって提供される既知のスケールに基づいて(例えば、
図3に示されているような外部プロセッサの認識エンジンおよびシミュレーションエンジンによって)処理されてよい。これらの入力は、例えば、ユーザのための
図1Bおよび
図1Cに示された頭部取付式ウェアラブルコンピューティングデバイス100などのウェアラブルコンピューティングデバイスのカスタマイズのために、例えば、フレームおよび/またはレンズのサイジング、フィッティング、輪郭付け等、ディスプレイデバイス構成等を決定するために処理されてよい。
【0042】
図5Aおよび
図5Bは、画像データをキャプチャするために使用されてよいコンピューティングデバイス300の2つの例を提供する。キャプチャされた画像データは、
図4A~
図4Bおよび/または
図4C~
図4Dに関して上記で説明された形式で取得された、既知の基準デバイス400に関連した測定値情報と共に、処理されてよい。既知の測定値情報は、スケールを提供してよく、このスケールは、ユーザの頭部の三次元モデルを正確に生成し、本明細書に説明されているシステムおよび方法によるウェアラブルデバイスを、サイジングシミュレータまたはフィットシミュレータによってサイジングおよび/またはフィッティングするために使用されてよい。本明細書に説明される原理は、その他のタイプのコンピューティングデバイス、特に、特定のユーザのためにウェアラブルコンピューティングデバイスをカスタマイズするためにウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットを収集および処理するために画像キャプチャ機能、ディスプレイ機能、ならびに外部通信および処理を利用するためにアプリケーションを実行することができるコンピューティングデバイスによって、実行されてよい。
【0043】
本明細書に説明されている実装によるシステムおよび方法は、ユーザによって操作されるコンピューティングデバイスによってキャプチャされた画像データに基づいてユーザの顔および/または頭部のモデル、例えば、三次元モデルを生成、または定義、または作成してよい。画像データは、既知のスケールを有する既知の基準デバイスを含んでよい。システムは、ユーザのためのウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングのためのウェアラブルフィットパラメータおよび/またはディスプレイフィットパラメータおよび/または眼科フィットパラメータの決定に関連した、測定値、例えば、光学測定値および/または顔測定値および/または頭蓋測定値等を決定するために、既知の基準デバイスに関連した既知のスケールに依存してよい。幾つかの例において、シミュレーションは、ユーザのための頭部取付式ウェアラブルコンピューティングデバイスを選択するために、三次元モデルにおいて頭部取付式ウェアラブルコンピューティングデバイスの構成を仮想的にフィットするために、モデル、例えば、三次元モデルに適用される。キャプチャされた画像データから正確な光学および/または顔および/または頭蓋測定値を次に決定するための既知のスケールを有する既知の基準デバイス400の使用は、比較的正確な三次元モデルならびに特定のユーザのためのウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットの比較的正確な決定を生じ得る。
【0044】
幾つかの例において、フィッティングシミュレーションは、三次元モデルにおける検出可能な特徴と、ユーザのための頭部取付式ウェアラブルコンピューティングデバイスをフィットするための利用可能な頭部取付式ウェアラブルコンピューティングデバイスの既知の特徴とを利用する。幾つかの例において、シミュレーションの出力は、頭部取付式ウェアラブルコンピューティングデバイスのディスプレイデバイスによって出力されたコンテンツをユーザが見ることを可能にするウェアラブルフィットおよびディスプレイフィットを作成してよい1つまたは複数のフレーム選択を含んでよい。幾つかの例において、シミュレーションは、眼科フィット測定値を組み込むために、ユーザの顔上に選択されたフレームの三次元モデルを生成してよい。これは、ディスプレイデバイスを含む頭部取付式ウェアラブルコンピューティングデバイスが補正/処方レンズを収容するように構成されることを可能にしてよい。上記のように、幾つかの例において、画像データ(既知の基準デバイス400を含む)は、ユーザによって操作されるコンピューティングデバイス(上記で説明されているコンピューティングデバイス300など)によってキャプチャされてよい。これは、小売店へのアクセスに依存することなく、また画像データのキャプチャを監督するためのおよび/または画像データをキャプチャするための監督者に依存することなく、画像データがキャプチャされ、シミュレーションが実行され、かつ頭部取付式ウェアラブルコンピューティングデバイスがユーザのためにフィットされることを可能にし得る。ユーザによって操作されるコンピューティングデバイス300が深度センサを含まない例において、ユーザの顔/頭部の三次元モデルおよび/または深度マップは、キャプチャされた画像および既知の基準デバイス400によって提供される既知のスケールに基づいて生成されてよい。
【0045】
上記のように、本明細書に説明された実装によるシステムおよび方法は、ユーザが、画像(既知の基準デバイスを含む)をキャプチャするために、例えば、
図5Aおよび
図5Bに示されているようなスマートフォンまたはラップトップコンピュータ、またはその他の適切に装備されたパーソナルコンピューティングデバイスなどの、パーソナルコンピューティングデバイスを使用することを可能にし、その画像からウェアラブルフィットパラメータおよび/またはディスプレイフィットパラメータおよび/または眼科フィットパラメータが導き出され得る。ユーザは、例えば、仮想的にまたは対面で/小売店においてのいずれかで、例えば、監督者またはコンサルタントとの予約においてではなく、パーソナルコンピューティングデバイスにおいて実行されるアプリケーションを使用して、監視されない、または監督されない形式でこれらの画像をキャプチャするためにパーソナルコンピューティングデバイスを使用することを選択してよい。この形式で頭部取付式ウェアラブルコンピューティングデバイスのフィッティングを達成することができることは、頭部取付式ウェアラブルコンピューティングデバイスの選択および購入のために便利で、複雑でない、正確かつ確実なプロセスをユーザに提供し得る。以下では、議論および例示の目的で、
図1Bおよび
図1Cに示された例示的なスマート眼鏡100に関して、頭部取付式ウェアラブルコンピューティングデバイスの選択および購入のためのプロセスが説明される。本明細書に説明される原理は、他のタイプの頭部取付式ウェアラブルコンピューティングデバイスに適用されてよい。
【0046】
幾つかの例において、
図3、
図5Aおよび
図5Bに示された例示的なコンピューティングデバイス300などのコンピューティングデバイス上で実行されるアプリケーションの特徴は、ユーザのための、
図1Bおよび
図1Cに示された例示的なスマート眼鏡100などの頭部取付式ウェアラブルコンピューティングデバイスをフィッティングする際にサイジング/フィットシミュレータによって使用するための、入力のユーザ実装入力、既知の基準デバイス400を含む画像データのキャプチャ等を容易にしてよい。例えば、幾つかの実装において、システムは、画像キャプチャを開始する前に既知の基準デバイス400に関連した入力を提供することをユーザに促してよい。幾つかの実装において、システムは、画像キャプチャが完了した後に既知の基準デバイス400に関連した入力を提供することをユーザに促してよい。幾つかの実装において、システムは、ユーザが、画像キャプチャを開始する前に既知の基準デバイス400に関連した幾つかの入力を提供し、画像キャプチャの完了後に幾つかの入力を提供することを要求してよい。既知の基準デバイス400に関連した入力は、例えば、
図4A~
図4Dに関して上記で説明されているように、例えば、既知の基準デバイス400に関連したスケールデータまたは測定値データを含んでよい。
【0047】
図6A~
図6Fおよび
図7A~
図7Jは、ユーザのためのウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングのための、ユーザによって着用された既知の基準デバイス400、および既知の基準デバイス400に関連した既知のスケールまたは測定値データを含む、画像データをキャプチャするための例示的なプロセスを示す。
図6A~
図6Fは、コンピューティングデバイス300上で実行されるアプリケーションによって生成され、コンピューティングデバイス300のディスプレイデバイス342によって表示されてよい、例示的なユーザインターフェースを示す。
図6A~
図6Fに示されたユーザインターフェースは、議論および例示の目的で提供されている。その他のユーザインターフェース、ユーザインターフェースの組合せ、ユーザインターフェースの順序付け等は、ユーザが所有する眼鏡の形態の既知の基準デバイス400に関連して既知のスケールデータをユーザが入力する(およびシステムが受信する)ことを可能にするためにアプリケーションによって生成および表示されてよい。
【0048】
図6Aにおいて、ユーザは、コンピューティングデバイス300上でアプリケーションを起動しており、第1のユーザインターフェーススクリーン610が表示されており、仮想フィッティングを開始するためにユーザがメニューアイテム611を選択することを可能にしている。メニューアイテム611の選択に応答して、
図6Bに示されているように、第2のユーザインターフェーススクリーン620が表示される。第2のユーザインターフェーススクリーン620は、第1のメニューアイテム621の選択を提供し、ユーザが、既知の基準デバイス400として働く眼鏡に関連する測定値を入力することを可能にする。特に、第3のユーザインターフェーススクリーン630は、第2のユーザインターフェーススクリーン620からの第1のメニューアイテム621の選択に応答して生成および表示されてよい。第3のユーザインターフェーススクリーン630は、眼鏡が、
図4Aおよび
図4Bに関して上記で説明されているような測定値インジケータ415を含む場合に、既知の基準デバイス400として働く眼鏡に関する測定値のユーザ入力を提供する第1のセクション631を含む。第3のユーザインターフェーススクリーン630は、眼鏡が、測定値インジケータ415を含まず、代わりに、ユーザが、
図4Cおよび
図4Dに関して上記で説明されているような眼鏡の測定値を取得した場合に、既知の基準デバイスとして働く眼鏡に関する測定値のユーザ入力を提供する第2のセクション632を含む。
【0049】
幾つかの実装において、コンピューティングデバイス300上で実行されるアプリケーションは、ユーザによるこれらの測定値の手動入力ではなく、既知の基準デバイス400として働く眼鏡に設けられた測定値インジケータ415の光学スキャニングおよび検出を可能にしてよい。
【0050】
図6Bに示された例において、第2のユーザインターフェーススクリーン620は、第2のメニューアイテム622も含む。第2のメニューアイテム622の選択は、既知の瞳孔間距離(IPD)のユーザ入力を提供する。即ち、幾つかの状況において、ユーザは、例えば、視力検査、眼鏡の以前のフィッティング等の間に取得およびドキュメント化された瞳孔間距離測定値を以前に有していてよい。幾つかの実装において、既知の瞳孔間距離は、キャプチャされた画像データにおいて既知のスケールを提供してよく、このデータから、その他の光学的/顔/頭蓋測定がスケールされ、三次元モデルが生成され、ウェアラブルコンピューティングデバイス100がユーザのためにフィッティングされてよい。
【0051】
図6A~
図6Cに示された例において、ユーザは、第2のユーザインターフェーススクリーン620から第1のメニューアイテム621を選択しており、上記で説明されているように(第3のユーザインターフェーススクリーン630の第1のセクション631または第2のセクション632のいずれかを介して)第3のインターフェーススクリーン630において既知の基準デバイス400として働く眼鏡に関連した測定値を入力することに進む。この例において、第3のインターフェーススクリーン630を介した測定値の入力の完了に応答して、第4のインターフェーススクリーン640は、
図6Dに示されているように表示されてよく、利用可能である場合、既知の瞳孔間距離を提供するための別の機会を提供する。幾つかの状況において、既知の基準デバイス400として働く眼鏡に関連した測定値に加えて、知られているならば、既知の瞳孔間距離の入力は、三次元モデルを生成、または定義、または作成する際に改善された精度を提供してよく、また、ユーザのためのウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットの決定における改善された精度を提供してよい。
【0052】
この例において、第3のインターフェーススクリーン630を介して既知の測定値の入力および/または第4のインターフェーススクリーン640を介した既知の瞳孔間距離の入力の完了に応答して、
図6Eに示されているように、第5のインターフェーススクリーン650が表示されてよい。第5のインターフェーススクリーン650は、光学的処方/補正レンズパラメータのユーザ入力を提供してよい。幾つかの実装において、第5のユーザインターフェーススクリーン650は、追加的または代替的に、補正レンズの必要性を確認する処方文書のアップロードまたはスキャニングを提供してよい。処方/補正レンズパラメータの入力および/またはアップロードは、ユーザのためのウェアラブルコンピューティングデバイス100のウェアラブルフィットおよび/またはディスプレイフィットの構成において処方/補正レンズ要求が考慮されることを可能にしてよい。
図6Fに示されているように、入力された測定値および/またはIPDおよび/または処方パラメータが正しく受信およびセーブされたことのユーザへの指示を含む、第6のユーザインターフェーススクリーン660が出力されてよい。第6のユーザインターフェーススクリーン660は、このポイントに入力された情報をユーザがセーブすることを可能にする第1のメニューアイテム661、ならびにウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングのための画像データのキャプチャへ進むための第2のメニューアイテム662を含んでよい。
図7A~
図7Jは、ウェアラブルコンピューティングデバイス100のウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットの決定のために、既知の基準デバイス400を含む画像データのユーザキャプチャを容易にし得る、コンピューティングデバイス300上で実行されるアプリケーションの例示的な特徴を示す例示的なプロセスを提供する。
【0053】
図7Aにおいて、第1のユーザインターフェーススクリーン710が表示されてよく、システムは、例えば、ユーザがコンピューティングデバイス300を目の高さに位置決めすることを促す視覚的プロンプト711などのプロンプトを出力し、コンピューティングデバイス300のカメラ360を作動させてよい。
図7Aに示された例において、プロンプト711は、コンピューティングデバイス300のディスプレイデバイス342上に表示された視覚的プロンプトである。幾つかの例において、プロンプトは、例えば、オーディオ出力デバイス344またはコンピューティングデバイス300のスピーカ344によって出力される可聴プロンプトであってよい。第1のユーザインターフェーススクリーン710は、メニューアイテム712も含んでよく、カメラ360が作動させられ、ユーザの頭部および既知の基準デバイス400がカメラ360の視野内に位置決めされるようにコンピューティングデバイス300が位置決めされると、画像キャプチャプロセスを開始するために、ユーザがメニューアイテム712を選択してよい。幾つかの状況において、コンピューティングデバイス300の位置も維持しながらユーザがコンピューティングデバイス300のディスプレイデバイス342においてタッチ入力(即ち、メニューアイテム712の選択)を提供することは困難であり得る。したがって、幾つかの例において、画像キャプチャプロセスを開始するためのユーザ入力は、オーディオ入力デバイス326またはコンピューティングデバイス300のマイクロフォン326によって検出される可聴コマンドまたは音声コマンドの形態であってよい。
図7Aに示された例において、カメラ360によってキャプチャされたユーザの画像がディスプレイデバイス342上に表示され、これにより、ユーザは、画像キャプチャプロセスの開始を生じる入力を提供する前にコンピューティングデバイス300/カメラ360が、既知の基準デバイス400として働く眼鏡を着用するユーザの顔/頭部の画像をキャプチャするために適切に位置決めされていることを確認してよい。
【0054】
図7Bに示されているように、画像キャプチャプロセスの開始に応答して第2のユーザインターフェーススクリーン720が表示されてよい。システムは、画像キャプチャプロセスが正しく開始され、正面画像データのキャプチャが進行中であることを示すインジケータ721を出力してよい。
図7Bに示された例は、視覚的インジケータ721を含む。幾つかの例において、システムは、例えば、オーディオ出力デバイス344またはスピーカ344を介した可聴インジケータなどの別のタイプのインジケータを出力してよい。
【0055】
幾つかの例において、進捗インジケータは、進捗の指示および画像キャプチャの完了を提供するために出力されてよい。
図7Bに示された例において、例えば、進捗バー725A、進捗メータ725Bの形態の視覚的進捗インジケータが表示されている。例えば、表示された画像における色変化、インジケータ721の点滅およびその他のこのような視覚的インジケータを含むその他のタイプの視覚的インジケータが出力されてよい。幾つかの例において、進捗インジケータは、進捗および完了の指示を提供する、コンピューティングデバイス300のスピーカ344によって出力される可聴インジケータであってよい。幾つかの例において、完了の検出は、例えば、インジケータ721の出力から所定の期間が経過したことの検出など、
図7Bに示された画像キャプチャモードにおける設定された時間のしきい値に達することに基づいてよい。幾つかの例において、設定されたしきい値は、コンピューティングデバイス300の検出された動きに基づいて(例えば、コンピューティングデバイス300の位置および向きセンサによって提供されるデータに基づいて)測定されてよい。幾つかの例において、設定されたしきい値は、インジケータ721の出力後の設定された量の時間にわたる検出された静止位置に基づいて測定されてよい。幾つかの例において、設定されたしきい値は、1つまたは複数の設定された特徴の検出されたキャプチャに基づいて測定されてよい。幾つかの例において、1つまたは複数の設定された特徴は、例えば、既知の基準デバイス400に関連した検出された特徴を含んでよい。
【0056】
図7Cに示されているように、正面画像データのキャプチャの検出された完了に応答して、第3のインターフェーススクリーン730がコンピューティングデバイス300のディスプレイデバイス342によって表示されてよい。第3のインターフェーススクリーン730は、正面画像データのキャプチャが完了したことの指示をユーザに提供するインジケータ731を含んでよい。第3のインターフェーススクリーン730上のインジケータ731は、正面画像データに加えて、追加的な画像データ、例えば、横顔画像データをキャプチャするためにユーザにオプションを提供してよい。幾つかの状況において、横顔画像データなどの追加的な画像データは、ユーザの顔/頭部の三次元モデルを生成、または定義、または作成する際およびウェアラブルコンピューティングデバイス100のフィッティングにおけるさらなる精度を提供してよい。これは、特に、画像データにおいてキャプチャされた既知の基準デバイス400に関連した既知のスケールが既知のテンプルアーム測定値(例えば、
図4A~
図4Dに関して上記で説明されているような第3の測定値Z)を含むときにあてはまる。この追加的なデータは、例えば、コンピューティングデバイス300のカメラ360が深度センシング機能を含まないときにも有用であり得る。
【0057】
追加的な画像データをキャプチャするためのオプションの選択に応答して、
図7Dに示されているように、第4のユーザインターフェーススクリーン740が表示されてよい。例示的な第4のユーザインターフェーススクリーン740は、左横顔画像データをキャプチャするために、ユーザが前方を見続ける一方でコンピューティングデバイス300をユーザの頭部の左側へ周回させるようにユーザに指示する例示的なプロンプト741を含む。
図7Dに示された例において、プロンプト741は、視覚的プロンプトである。しかしながら、プロンプトは、オーディオ出力デバイス344またはコンピューティングデバイス300のスピーカ344によって出力される可聴プロンプトであってよい。第5のユーザインターフェーススクリーン750が、右横顔(right profile)画像データのキャプチャの検出された完了に応答して出力されてよく、
図7Eに示されているように、右横顔データをキャプチャするために、コンピューティングデバイス300を、再び中央部分を通って右側へ、ユーザの頭部の右側へと周回させるようにユーザに指示するプロンプト751を含む。
図7Eに示された例において、プロンプト751は、例示の目的で、視覚的プロンプトである。しかしながら、プロンプトは、オーディオ出力デバイス344またはコンピューティングデバイス300のスピーカ344によって出力された可聴プロンプトであってよい。
図7Fに示されているように、右横顔画像データのキャプチャの検出された完了に応答して、第6のユーザインターフェーススクリーン760が出力されてよい。第6のユーザインターフェーススクリーン760は、デバイスを、再び中央または正面位置へ周回させるようにユーザに指示するプロンプト761を含んでよい。
図7Fに示された例において、プロンプト761は、視覚的プロンプトである。しかしながら、プロンプトは、オーディオ出力デバイス344またはコンピューティングデバイス300のスピーカ344によって出力された可聴プロンプトであってよい。ユーザに通知するインジケータ771を含む、第7のユーザインターフェーススクリーン770が出力されてよい。
【0058】
図7D~
図7Gに関して説明されているように右および左の横顔画像データのキャプチャにおいて、ユーザの視線は、前方へ焦点を合わされたままであり、これにより、ユーザの耳、耳サドルポイント、既知の基準デバイス400として働く眼鏡のテンプルアーム部分の位置決め、前傾角、頂点間距離などの特徴、およびその他のこのような特徴が、横顔画像においてキャプチャされてよい。この配置において、ディスプレイデバイス342によって出力される視覚的プロンプトは、必ずしも容易にユーザに見えるわけではない。したがって、上記で説明されている例示的な視覚的プロンプトに加えてまたはその代わりに、可聴プロンプトの出力が、
図7D~
図7Gに関して説明されているような横顔画像データのキャプチャにおいて特に有用であり得る。
【0059】
幾つかの例において、システムは、画像データが完全にキャプチャされていないおよび/または正確にキャプチャされていない等の検出に応答して、ユーザ補正、再方向付け等を提供してよい。例えば、位置センサ、向きセンサ等を例えば含むコンピューティングデバイス300のセンサによって提供されるデータは、画像データと共に、ユーザの顔/頭部に対するコンピューティングデバイス300の向きの補正の必要性、ユーザの顔/頭部からの距離等を指示してよい。例えば、コンピューティングデバイス300の位置および/または向きセンサによって提供されるデータに基づいて、1つまたは複数のプロンプトがユーザに出力されてよい。これらの追加的なプロンプトは、例えば、画像データのキャプチャを改善するために、ユーザがコンピューティングデバイス300をより直立した、または真っ直ぐな、または鉛直の位置に保持することを指示するプロンプト、キャプチャ領域がユーザの顔の中央に来るようにユーザがコンピューティングデバイス300を移動させることを指示するプロンプト、ユーザがコンピューティングデバイス300をユーザの顔のより近くへまたはユーザの顔から離れるように移動させることを指示するプロンプト、ユーザがコンピューティングデバイス300を鉛直方向で上方または下方へ移動させることを指示するプロンプト、およびその他のこのようなプロンプトを含んでよい。同様に、追加的なプロンプトは、画像キャプチャシーケンスのうちの1つまたは複数を反復することをユーザに指示するプロンプトを含んでよい。
【0060】
幾つかの例において、コンピューティングデバイス300上で実行されるアプリケーションは、例えば、瞳孔間距離および/または単眼瞳孔距離、瞳孔高さ等の測定値の検出を提供する画像データのさらなるキャプチャにおいてガイダンスを提供してよい。幾つかの例において、これは、以前にキャプチャされた画像内でスケールを確立するために既知の基準デバイス400が使用され、三次元モデルが生成された後に、行われてよい。したがって、追加的な画像キャプチャおよび追加的な測定値は、既知の基準デバイス400として働く眼鏡をユーザがもはや着用していない間に達成されてよい。このデータの検出に関する画像は、アプリケーションが、自然な頭の位置を確立する際にユーザをガイドし、次いで、収集された画像データから関連する測定値が取得され得るようにユーザの視線方向をガイドする配置において、取得されてよい。
【0061】
例えば、そこから追加的なデータ、例えば、光学的データを抽出することができる画像データをキャプチャする際にユーザにガイダンスを提供するために、第8のユーザインターフェーススクリーン780がコンピューティングデバイス300のディスプレイデバイス342上に表示されてよい。
図7Hに示された例において、第8のユーザインターフェーススクリーン780は、ユーザがその視線をカメラ360に向けるように案内する例示的なプロンプト781を含む。
図7Hに示された例において、プロンプト781は、ユーザによるカメラ360の配置を容易にするためにカメラ360を指す矢印を含む。即ち、幾つかの例において、カメラ360は、コンピューティングデバイス300のベゼル部分に位置決めされてよく、フィッティングセッションの目的で補正レンズを取り外したユーザにとってカメラ360を配置することを特に困難にしている。幾つかの例において、プロンプトは、オーディオ出力デバイス344またはコンピューティングデバイスのスピーカ344によって出力される可聴プロンプトであってよい。幾つかの例において、画像データのキャプチャの進捗および完了の指示を提供するために、進捗インジケータが出力されてよい。
図7Hに示された例は、進捗バー785の形式の視覚的進捗インジケータを含む。表示された画像における色変化、プロンプト781の点滅、およびその他のこのような視覚的インジケータなどの、その他のタイプの視覚的インジケータが表示されてよい。幾つかの例において、インジケータは、進捗および完了の指示を提供する、コンピューティングデバイス300のスピーカ344によって出力される可聴インジケータであってよい。幾つかの例において、設定されたしきい値は、プロンプト781の出力から経過した設定された期間に基づいて測定されてよい。幾つかの例において、設定されたしきい値は、(例えば、コンピューティングデバイス300の位置および向きセンサによって提供されるデータに基づいて)コンピューティングデバイス300の検出された滞在時間に基づいて測定されてよい。幾つかの例において、設定されたしきい値は、ユーザ視線が安定したことを示すプロンプト781の出力後の設定された量の時間にわたる、キャプチャされた画像データにおける静止位置における設定された特徴の検出に基づいて、測定されてよい。
【0062】
幾つかの例において、ユーザ視線が特にカメラ360に向けられていない状況において光学データを検出することができる。例えば、コンピューティングデバイスに関する既知の構成情報(モデル、ディスプレイデバイス342の解像度、カメラ360の位置、およびその他のこのような情報)を前提として、三次元の視線位置を決定することができる。
図7Iは、そこから光学データおよび測定値を抽出することができる画像データをキャプチャする際にユーザにガイダンスを提供するために、第8のユーザインターフェーススクリーン780の代わりにまたは第8のユーザインターフェーススクリーン780に加えて表示されてよい第9のユーザインターフェーススクリーン790を示す。
図7Iに示された例において、ディスプレイデバイス342上に表示されたアイコン792に視線を向けるようにユーザをガイドする例示的なプロンプト791が表示されている。幾つかの状況において、アイコン792は、比較的容易な焦点の対象を提供してよく、視線固定が比較的迅速に得られ得る。幾つかの例において、プロンプトは、ユーザが視線をアイコン792に向けるように促す、オーディオ出力デバイス344またはコンピューティングデバイス300のスピーカ344によって出力される可聴プロンプトであってよい。幾つかの例において、例えば、進捗バー795、または例えば、表示された画像における色変化、プロンプト791および/またはアイコン792の点滅、ならびにその他のこのような視覚的インジケータを含むその他のタイプの視覚的インジケータの形式の進捗インジケータが出力されてよい。幾つかの例において、インジケータは、コンピューティングデバイス300のスピーカ344によって出力された可聴インジケータであってよい。幾つかの例において、設定されたしきい値は、プロンプト791の出力から経過した設定された期間に基づいて測定されてよい。幾つかの例において、設定されたしきい値は、(例えば、コンピューティングデバイス300の位置および向きセンサによって提供されるデータに基づいて)コンピューティングデバイス300の検出された滞在時間に基づいて測定されてよい。幾つかの例において、設定されたしきい値は、ユーザ視線が安定したことを示す、プロンプト791の出力後の設定された量の時間にわたるキャプチャされた画像データにおける静止位置における設定された特徴の検出に基づいて測定されてよい。
【0063】
幾つかの例において、コンピューティングデバイス300上で実行されるアプリケーションは、
図7Jに示されているように、画像データのキャプチャの間、例えば、実質的に白いディスプレイスクリーンなどのモノクロームのディスプレイスクリーンをディスプレイデバイス342に出力させてよい。モノクロームのディスプレイスクリーンは、コンピューティングデバイス300を凝視するユーザの瞳孔において反射されてよい。画像データの分析において、モノクロームのディスプレイスクリーンの反射がユーザの瞳孔の中心に合っていないことが決定されると、ユーザの視線が適切にカメラ360に焦点合わせされていないまたは向けられていないことが決定されてよい。この状況において、システムは、画像データの再キャプチャを開始するようにユーザを促すこと、
図7Hおよび/または
図7Iに示されているようにプロンプティングを提供すること、などを行ってよい。
【0064】
図6A~
図7Jは、コンピューティングデバイス300を操作するユーザのための頭部取付式ウェアラブルコンピューティングデバイス100のフィッティングのためにコンピューティングデバイス300上で実行されるアプリケーションの例示的なユーザインターフェーススクリーンを示す。ユーザインターフェーススクリーンは、頭部取付式ウェアラブルコンピューティングデバイス100のフィッティングのために画像データが収集されるとき、フィッティングセッションの間にコンピューティングデバイス300のディスプレイデバイス342上でユーザに表示されてよい。
図6A~
図7Jに示された例示的なユーザインターフェーススクリーンの幾つかにおいて、単にコンピューティングデバイス300/カメラ360に対するユーザの頭部および視線の位置を示すために、ユーザの例示的な画像が、コンピューティングデバイス300のディスプレイデバイス342上に示されている。例示的なユーザインターフェーススクリーンの実装において、特に画像の表示がユーザにその視線を逸らせる場合、ユーザの画像は、コンピューティングデバイス300のディスプレイデバイス342上に必ずしも表示されてもされなくてもよい。
【0065】
自然な頭部位置またはポーズ、即ちユーザがその頭部を自然に保持する形式を含む画像データのキャプチャは、ユーザの顔/頭部の正確な三次元モデルを生成する際、ならびにユーザのための頭部取付式ウェアラブルコンピューティングデバイス100の正確なサイジングおよび/またはフィッティングにおける構成要素であってよい。幾つかの例において、ユーザの自然な頭部位置を表す画像データのキャプチャは、ユーザによって操作されるコンピューティングデバイス300上で実行されるアプリケーションとのユーザ相互作用によって容易にされてよい。上記で説明されている例において、コンピューティングデバイス300は、セルフポートレートモードまたはセルフィモードの動作を起動する、コンピューティングデバイス300のカメラ360がユーザに向いた状態で、ユーザによって保持される。ユーザのための頭部取付式ウェアラブルコンピューティングデバイス100のサイジングおよび/またはフィッティングのためにコンピューティングデバイス300上で実行されるアプリケーションは、ユーザの顔/頭部の画像をキャプチャするために、画像データのキャプチャのためにこの動作モードを起動してよい。
【0066】
図6A~
図7Jに関して上記で説明されているような例示的なコンピューティングデバイスのユーザ操作を介してキャプチャされた画像データは、ユーザの顔/頭部の三次元モデルを生成するために使用されてよい。幾つかの例において画像データは、既知の基準デバイス400の特徴を検出および識別するために分析されてよい。上記で説明されている例において、画像データは、例えば、フレーム402のブリッジ部分409、それぞれの縁部分403とテンプルアーム部分405とが結合されているおよび/またはフレーム402が方向を変化させるヒンジ領域等、眼鏡の特徴を検出するために分析されてよい。次いで、これらの特徴に関連した既知の測定値が、画像データ内で検出されたその他の特徴に関連した測定値の決定に適用されてよい。幾つかの例において、サイジング/フィットシミュレータは、ユーザのためのウェアラブルコンピューティングデバイス100をフィッティングする際に使用されるための頭部ポーズ情報および視線情報を抽出および/または生成するために、コンピューティングデバイス300によって提供された画像データおよび/または三次元モデルを分析してよい。
【0067】
三次元モデルに関連したデータに基づいて、シミュレータは、ユーザのウェアラブルフィットおよび/またはディスプレイフィットニーズを満たし得る、
図1Bおよび
図1Cに示されたスマート眼鏡100の例示的なフレーム102などの1つまたは複数のフレームを識別してよい。幾つかの例において、1つまたは複数のフレームは、フィッティングのために利用可能な複数の異なるモデルのフレームの在庫から選択されてよい。既知の構成情報(サイジング/フィット、寸法、形状、輪郭、傾斜角およびその他のこのような構成情報)は、異なるモデルのフレームに関連してデータベースに予め記憶されてよい。例えば、構成情報は、
図3に示されているようなコンピューティングデバイス300と通信する外部リソース302におけるような、シミュレータによってアクセス可能なデータベースに記憶されてよい。シミュレータは、コンピューティングデバイス300を操作するユーザによってキャプチャされた画像データにおいて検出された顔/頭蓋特徴/測定値、光学特性等を、データベースに記憶された異なるモデルのフレームの既知の構成情報と比較してよい。比較に基づいて、シミュレータは、一致しているとし得るか、または1つもしくは複数のフレームがユーザのためのフィット(ウェアラブルフィットおよび/またはディスプレイフィット)を提供し得ることを決定してよい。
【0068】
上記で説明されているように検出された測定値に基づく、ユーザの頭部の三次元モデルの生成、ならびにウェアラブルコンピューティングデバイスのフィッティングのためのシミュレータとの通信およびシミュレータの動作のより詳細な説明は、参照によりその全体が本明細書に組み込まれる米国出願第17/302,108号および米国出願第17,302,487号にて見られる。
【0069】
図8は、本明細書に説明された実装による例示的な方法800のフローチャートである。例示的な方法において、コンピューティングシステムは、三次元モデルの生成のために既知のスケールをキャプチャされた画像データ内の顔および/または頭蓋および/または光学的特徴に適用するために、ならびに三次元モデルに基づいてユーザのためのウェアラブルコンピューティングデバイスをフィットするために、コンピューティングデバイスによってキャプチャされた画像データ内の既知のスケールを有する既知の基準デバイスを検出するように動作させられる。
【0070】
上記で説明されているように、コンピューティングデバイス(例えば、上記で説明されているコンピューティングデバイス300)を操作するユーザは、コンピューティングデバイスにアプリケーションを実行させてよい(ブロック810)。アプリケーションは、画像データのキャプチャ、既知のスケールを有する既知の基準デバイスの検出、ならびにキャプチャされた画像データからのウェアラブルフィット測定値および/またはディスプレイフィット測定値および/または眼科フィット測定値の決定を提供してよい。アプリケーションは、既知の基準デバイスに関連した1つまたは複数の測定値のユーザ入力をシステムが受信することを可能にするモジュールの動作を実行させてよい(ブロック815、ブロック820)。例えば、既知の基準デバイスに関連した1つまたは複数の測定値は、既知の基準デバイスの1つまたは複数のサイズを示してよい。上記で説明されている例におけるように、既知の基準デバイスが眼鏡である例において、既知の測定値は、例えば、レンズ幅および/またはブリッジ幅および/またはテンプルアーム長さおよび/または正面幅を含んでよい。アプリケーションは、瞳孔間距離を含む光学測定値のユーザ入力をシステムが受信することを可能にするモジュールの動作を実行してよい(ブロック825、ブロック830)。アプリケーションは、ユーザ入力、または視力矯正パラメータのアップロード、またはユーザの視力矯正処方をシステムが受信することを可能にするモジュールの動作を実行してよい(ブロック835、ブロック840)。ユーザ指示された画像キャプチャプロセスの間にキャプチャされた画像データが、受信されてよい(ブロック850)。画像データは、既知の基準デバイスを着用したユーザの画像を含んでよい。したがって、画像データは、ユーザの頭部を含んでよい(即ち、ユーザの頭部の1つまたは複数の画像を含んでよい)。画像データは、既知の基準デバイスを含んでよい(即ち、既知の基準デバイスの1つまたは複数の画像を含んでよい)。システムは、既知の/関連する測定値を有する既知の基準デバイスを検出するために画像データを分析してよい(ブロック860)。システムは、画像データ内のユーザに関連した特徴を検出するために画像データを分析してよい(ブロック870)。検出された特徴は、例えば、顔特徴/ランドマーク/輪郭、例えば、瞳孔高さ、瞳孔間距離、左/右単眼瞳孔距離、目の内側および/または外側の角(眼角、または眼瞼交連)等を含む光学特徴を含んでよい。システムは、画像データにおいて検出された顔および/または光学特徴に関連した測定値を決定するために、既知の基準デバイスに関連した既知のスケールを適用してよい(ブロック880)。これらの測定値は、ユーザの顔/頭部の三次元モデルを生成、または定義、または作成するために使用されてよい。システムは、ウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィットパラメータを決定するためにこの三次元モデルを使用してよい(ブロック890)。決定されたフィットパラメータは、ユーザのための頭部取付式ウェアラブルコンピューティングデバイスを選択およびフィットするために使用されてよい(ブロック895)。システムは、利用可能な頭部取付式ウェアラブルデバイスのデータベースからのフィットパラメータ、および複数の利用可能な頭部取付式ウェアラブルデバイスに関連した構成情報に基づいて、複数の頭部取付式ウェアラブルデバイスからの1つまたは複数の頭部取付式ウェアラブルデバイスをユーザニーズおよび好みに一致させてよい。システムは、複数の利用可能な頭部取付式ウェアラブルデバイスに関連した構成情報を、キャプチャされた画像情報において検出されたディスプレイフィット測定値および/または眼科フィット測定値と比較してよい。システムは、ウェアラブルフィットおよび/またはディスプレイフィットおよび/または眼科フィット要求を満たす1つまたは複数の頭部取付式ウェアラブルコンピューティングデバイスを提供するために比較の結果を使用してよい。
【0071】
図9は、(例えば、上記で説明されているクライアントコンピューティングデバイスおよび/またはサーバコンピューティングデバイスおよび/またはプロバイダリソースを実装するために)本明細書で説明されている技術と共に使用されてよい、コンピュータデバイス900およびモバイルコンピュータデバイス950の例を示す。コンピューティングデバイス900は、プロセッサ902、メモリ904、ストレージデバイス906、メモリ904および高速拡張ポート910に接続される高速インターフェース908、ならびに低速バス914およびストレージデバイス906に接続される低速インターフェース912を含む。構成要素902、904、906、908、910および912の各々は、様々なバスを使用して相互接続されており、共通のマザーボード上または必要に応じてその他の形式でマウントされてよい。プロセッサ902は、高速インターフェース908に結合されたディスプレイ916などの外部入力/出力デバイス上のGUIのためのグラフィカル情報を表示するために、メモリ904またはストレージデバイス906に記憶された命令を含む、コンピューティングデバイス900内での実行のための命令を処理することができる。その他の実装において、多数のメモリおよび多数のタイプのメモリと共に、必要に応じて、多数のプロセッサおよび/または多数のバスが使用されてよい。また、多数のコンピューティングデバイス900が接続されてよく、各デバイスは(例えば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要なオペレーションの部分を提供する。
【0072】
メモリ904は、コンピューティングデバイス900内に情報を記憶する。1つの実装において、メモリ904は、1つまたは複数の揮発性メモリユニットである。別の実装において、メモリ904は、1つまたは複数の不揮発性メモリユニットである。メモリ904は、磁気または光学ディスクなどの別の形態のコンピュータ可読媒体であってもよい。
【0073】
ストレージデバイス906は、コンピューティングデバイス900のためのマスストレージを提供することができる。1つの実装において、ストレージデバイス906は、フロッピディスクデバイス、ハードディスクデバイス、光学ディスクデバイス、もしくはテープデバイス、フラッシュメモリもしくはその他の類似のソリッドステートメモリデバイス、またはストレージエリアネットワークもしくはその他の構成におけるデバイスを含むデバイスのアレイなどのコンピュータ可読媒体であってよいか、またはこれらを含んでよい。コンピュータプログラム製品は、情報キャリアにおいて有形的に具体化され得る。コンピュータプログラム製品は、実行されると、上記で説明されているものなどの1つまたは複数の方法を実行する命令を含んでもよい。情報キャリアは、メモリ904、ストレージデバイス906、またはメモリオンプロセッサ902などのコンピュータ可読または機械可読媒体である。
【0074】
高速コントローラ908は、コンピューティングデバイス900のための帯域幅集中オペレーションを管理するのに対し、低速コントローラ912は、より低い帯域幅集中オペレーションを管理する。このような機能の割り当ては単なる例である。1つの実装において、高速コントローラ908は、メモリ904、ディスプレイ916(例えば、グラフィックスプロセッサまたはアクセラレータを介して)、および様々な拡張カード(図示せず)を受け入れてよい高速拡張ポート910に結合されている。実装において、低速コントローラ912は、ストレージデバイス906および低速拡張ポート914に結合されている。様々な通信ポート(例えば、USB、Bluetooth(登録商標)、Ethernet(登録商標)、無線Ethernet)を含んでよい低速拡張ポートは、例えば、ネットワークアダプタを介して、キーボード、ポインティングデバイス、スキャナ、またはスイッチもしくはルータなどのネットワーキングデバイスなどの、1つまたは複数の入力/出力デバイスに結合されてよい。
【0075】
コンピューティングデバイス900は、図示されているように、多数の異なる形式で実装されてよい。例えば、コンピューティングデバイス900は、標準的なサーバ920として、または複数回このようなサーバのグループにおいて実装されてよい。コンピューティングデバイス900は、ラックサーバシステム924の一部として実装されてもよい。加えて、コンピューティングデバイス900は、ラップトップコンピュータ922などのパーソナルコンピュータにおいて実装されてよい。代替的に、コンピューティングデバイス900の構成要素は、デバイス950などのモバイルデバイス(図示せず)におけるその他の構成要素と組み合わされてよい。このようなデバイスの各々は、コンピューティングデバイス900、950のうちの1つまたは複数を含んでよく、システム全体は、互いに通信する多数のコンピューティングデバイス900、950から構成されてよい。
【0076】
コンピューティングデバイス950は、他の構成要素の中でも特に、プロセッサ952、メモリ964、ディスプレイ954などの入力/出力デバイス、通信インターフェース966、およびトランシーバ968を含む。デバイス950には、追加的なストレージを提供するために、マイクロドライブまたはその他のデバイスなどのストレージデバイスが設けられてもよい。構成要素950、952、964、954、966、および968の各々は、様々なバスを使用して相互接続されており、幾つかの構成要素は、共通のマザーボード上または必要に応じてその他の形式でマウントされてよい。
【0077】
プロセッサ952は、メモリ964に記憶された命令を含む、コンピューティングデバイス950内で命令を実行することができる。プロセッサは、別々の多数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実装されてよい。プロセッサは、例えば、ユーザインターフェースの制御、デバイス950によって動作させられるアプリケーション、およびデバイス950による無線通信など、デバイス950のその他の構成要素の調整を提供してよい。
【0078】
プロセッサ952は、制御インターフェース958およびディスプレイ954に結合されたディスプレイインターフェース956を介してユーザと通信してよい。ディスプレイ954は、例えば、TFT LCD(薄膜トランジスタ液晶ディスプレイ)、およびLED(発光ダイオード)もしくはOLED(有機発光ダイオード)ディスプレイ、またはその他の適切なディスプレイ技術であってよい。ディスプレイインターフェース956は、グラフィカルおよびその他の情報をユーザに提供するようにディスプレイ954を駆動するための適切な回路を含んでよい。制御インターフェース958は、ユーザからコマンドを受信し、それらをプロセッサ952への提出のために変換してよい。加えて、外部インターフェース962は、その他のデバイスとのデバイス950のニアエリア通信を可能にするために、プロセッサ952と通信するように設けられてよい。外部インターフェース962は、例えば、幾つかの実装において有線通信、またはその他の実装において無線通信を提供してよく、多数のインターフェースが使用されてもよい。
【0079】
メモリ964は、コンピューティングデバイス950内に情報を記憶する。メモリ964は、1つもしくは複数のコンピュータ可読媒体、1つもしくは複数の揮発性メモリユニット、または1つもしくは複数の不揮発性メモリユニットのうちの1つまたは複数として実装され得る。拡張メモリ974が設けられ、拡張インターフェース972を介してデバイス950に接続されてもよく、拡張インターフェース972は、例えば、SIMM(シングルインラインメモリモジュール)カードインターフェースを含んでよい。このような拡張メモリ974は、デバイス950のための余分なストレージ空間を提供してよいか、またはデバイス950のためのアプリケーションもしくはその他の情報も記憶してよい。特に、拡張メモリ974は、上記で説明されているプロセスを実行または補足するための命令を含んでよく、安全な情報も含んでよい。したがって、例えば、拡張メモリ974は、デバイス950のためのセキュリティモジュールとして設けられてよく、デバイス950の安全な使用を可能にする命令でプログラムされてよい。加えて、安全なアプリケーションは、ハッキング不能な形式でSIMMカード上の識別情報を配置するなど、追加的な情報と共に、SIMMカードを介して提供されてよい。
【0080】
メモリは、例えば、以下で論じられるように、フラッシュメモリおよび/またはNVRAMメモリを含んでよい。1つの実装において、コンピュータプログラム製品は、情報キャリアにおいて有形的に具体化されている。コンピュータプログラム製品は、実行されると、上記で説明されているものなどの1つまたは複数の方法を実行する命令を含む。情報キャリアは、例えば、トランシーバ968または外部インターフェース962上で受信されてよい、メモリ964、拡張メモリ974、またはメモリオンプロセッサ952などのコンピュータ可読または機械可読媒体である。
【0081】
デバイス950は、必要なところでデジタル信号処理回路を含んでよい、通信インターフェース966を介して無線で通信してよい。通信インターフェース966は、特に、GSM(登録商標)音声電話、SMS、EMS、もしくはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSなどの、様々なモードまたはプロトコル下での通信を提供してよい。このような通信は、例えば、高周波トランシーバ968を介して行われてよい。加えて、Bluetooth、Wi-Fi、またはその他のこのようなトランシーバ(図示せず)などを使用して、短距離通信が行われてよい。加えて、GPS(全地球測位システム)レシーバモジュール970は、追加的なナビゲーション関連およびロケーション関連の無線データをデバイス950に提供してよく、これは、必要に応じて、デバイス950上で動作するアプリケーションによって使用されてよい。
【0082】
デバイス950は、ユーザから音声情報を受信し、この音声情報を使用可能なデジタル情報に変換してよいオーディオコーデック960を使用して、聞こえるように通信してもよい。オーディオコーデック960は、同様に、例えば、デバイス950の携帯電話機における、スピーカなどを介して、ユーザのための可聴音を生成してよい。このような音は、音声電話コールからの音を含んでよく、記録された音(例えば、音声メッセージ、音楽ファイル等)を含んでよく、デバイス950上で動作するアプリケーションによって生成された音も含んでよい。
【0083】
コンピューティングデバイス950は、図示したように、多数の異なる形態で実装されてよい。例えば、コンピューティングデバイス950は、携帯電話980として実装されてよい。コンピューティングデバイス950は、スマートフォン982、パーソナルデジタルアシスタント、またはその他の類似のモバイルデバイスの一部として実装されてもよい。
【0084】
本明細書で説明されているシステムおよび技術の様々な実装は、デジタル電子回路、集積回路、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せにおいて実現することができる。これらの様々な実装は、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信しかつこれらへデータおよび命令を送信するために結合された、専用または汎用であってよい、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行可能および/または解釈可能な1つまたは複数のコンピュータプログラムにおける実装を含むことができる。
【0085】
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても知られる)は、プログラマブルプロセッサのための機械命令を含み、高レベル手続き型および/もしくはオブジェクト指向プログラミング言語において、ならびに/またはアセンブリ/マシン語において実装され得る。本明細書において使用されているように、「機械可読媒体」、「コンピュータ可読媒体」という用語は、機械可読信号として機械命令を受信する機械可読媒体を含む、プログラマブルプロセッサに機械命令および/またはデータを提供するために使用される、あらゆるコンピュータプログラム製品、装置および/またはデバイス(例えば、磁気ディスク、光学ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指す。「機械可読信号」という用語は、プログラマブルプロセッサに機械命令および/またはデータを提供するために使用されるあらゆる信号を指す。
【0086】
ユーザとの相互作用を提供するために、本明細書で説明されているシステムおよび技術は、ユーザに情報を表示するためのディスプレイデバイス(LED(発光ダイオード)、またはOLED(有機LED)、またはLCD(液晶ディスプレイ)モニタ/スクリーン)、ならびにそれによってユーザがコンピュータに入力を提供することができるキーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)を有するコンピュータにおいて実装され得る。ユーザとの相互作用を提供するためにその他の種類のデバイスもまた使用することができる。例えば、ユーザに提供されるフィードバックはあらゆる形態の感覚フィードバック(例えば、視覚的フィードバック、聴覚フィードバック、または触覚フィードバック)であることができ、ユーザからの入力は音響、音声、または触覚入力を含むあらゆる形態において受信することができる。
【0087】
本明細書で説明されているシステムおよび技術は、バックエンド構成要素(例えば、データサーバとして)を含む、またはミドルウェア構成要素(例えば、アプリケーションサーバ)を含む、またはフロントエンド構成要素(例えば、それを通じてユーザが、本明細書で説明されているシステムおよび技術の実装と相互作用することができるグラフィカルユーザインターフェースまたはウェブブラウザを有するクライアントコンピュータ)を含む、またはこのようなバックエンド、ミドルウェア、もしくはフロントエンド構成要素のあらゆる組合せを含むコンピューティングシステムにおいて実装され得る。システムの構成要素は、あらゆる形態または媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、およびインターネットを含む。
【0088】
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントおよびサーバは、一般的に、互いに離れており、典型的には、通信ネットワークを介して相互作用する。クライアントおよびサーバの関係は、それぞれのコンピュータ上で動作しかつ互いにクライアント-サーバ関係を有するコンピュータプログラムによって生じる。
【0089】
幾つかの実装において、図に示されたコンピューティングデバイスは、物理的空間内で挿入されたコンテンツを見るための拡張環境を生成するためにARヘッドセット/HMDデバイス990とインターフェースするセンサを含むことができる。例えば、図に示されたコンピューティングデバイス950またはその他のコンピューティングデバイスに含まれた1つまたは複数のセンサは、ARヘッドセット990に入力を提供することができるか、または一般的に、AR空間に入力を提供することができる。センサは、これらに限定されないが、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、バイオメトリックセンサ、温度センサ、湿度センサ、および周囲光センサを含むことができる。コンピューティングデバイス950は、AR空間におけるコンピューティングデバイスの絶対位置および/または検出された回転を決定するためにセンサを使用することができ、それらは、次いで、AR空間への入力として使用され得る。例えば、コンピューティングデバイス950は、コントローラ、レーザポインタ、キーボード、ウェポン等の仮想オブジェクトとしてAR空間に組み込まれてよい。AR空間に組み込まれたときのユーザによるコンピューティングデバイス/仮想オブジェクトのポジショニングは、ユーザが、AR空間においてある形式で仮想オブジェクトを見るためにコンピューティングデバイスを位置決めすることを可能にすることができる。例えば、仮想オブジェクトがレーザポインタを表す場合、ユーザは、それが実際のレーザポインタであるかのようにコンピューティングデバイスを操作することができる。ユーザは、コンピューティングデバイスを左右、上下、円形などにおいて動かすことができ、レーザポインタを使用するのと類似の形式でデバイスを使用することができる。幾つかの実装において、ユーザは、仮想レーザポインタを使用して標的位置を狙うことができる。
【0090】
幾つかの実装において、コンピューティングデバイス950に含まれたまたは接続された1つまたは複数の入力デバイスは、AR空間への入力として使用され得る。入力デバイスは、これらに限定されないが、タッチスクリーン、キーボード、1つもしくは複数のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイクロフォン、入力機能を備えるイヤホンもしくはイヤバッド、ゲーミングコントローラ、またはその他の接続可能な入力デバイスを含むことができる。コンピューティングデバイスがAR空間に組み込まれているときにコンピューティングデバイス950に含まれる入力デバイスと相互作用するユーザは、AR空間において特定の動作を生じさせることができる。
【0091】
幾つかの実装において、コンピューティングデバイス950のタッチスクリーンは、AR空間においてタッチパッドとしてレンダリングされ得る。ユーザは、コンピューティングデバイス950のタッチスクリーンと相互作用することができる。相互作用は、例えばARヘッドセット990において、AR空間におけるレンダリングされたタッチパッドにおける動きとしてレンダリングされる。レンダリングされた動きは、AR空間において仮想オブジェクトを制御することができる。
【0092】
幾つかの実装において、コンピューティングデバイス950に含まれた1つまたは複数の出力デバイスは、AR空間においてARヘッドセット990のユーザに出力および/またはフィードバックを提供することができる。出力およびフィードバックは、視覚的、触覚的、または聴覚的であることができる。出力および/またはフィードバックは、これらに限定されないが、振動、1つまたは複数のライトまたはストロボのオンおよびオフまたは点滅および/またはフラッシング、アラームを鳴らす、チャイムを鳴らす、曲を再生する、ならびにオーディオファイルの再生を含むことができる。出力デバイスは、これらに限定されないが、振動モータ、振動コイル、圧電デバイス、静電デバイス、発光ダイオード(LED)、ストロボ、およびスピーカを含むことができる。
【0093】
幾つかの実装において、コンピューティングデバイス950は、コンピュータ生成された3D環境における別のオブジェクトとして現れてよい。コンピューティングデバイス950とのユーザによる相互作用(例えば、回転、振動、タッチスクリーンに触れる、タッチスクリーンに沿って指を滑らせる)は、AR空間におけるオブジェクトとの相互作用として解釈することができる。AR空間におけるレーザポインタの例において、コンピューティングデバイス950は、コンピュータ生成された3D環境において仮想レーザポインタとして現れる。ユーザがコンピューティングデバイス950を操作しながら、AR空間におけるユーザは、レーザポインタの動きを見る。ユーザは、コンピューティングデバイス950またはARヘッドセット990上でのAR環境におけるコンピューティングデバイス950との相互作用からのフィードバックを受信する。コンピューティングデバイスとのユーザの相互作用は、制御可能なデバイスのためにAR環境において生成されたユーザインターフェースとの相互作用に変換されてよい。
【0094】
幾つかの実装において、コンピューティングデバイス950は、タッチスクリーンを含んでよい。例えば、ユーザは、制御可能なデバイスのためのユーザインターフェースと相互作用するためにタッチスクリーンと相互作用することができる。例えば、タッチスクリーンは、制御可能なデバイスの特性を制御することができるスライダなどのユーザインターフェースエレメントを含んでよい。
【0095】
コンピューティングデバイス900は、これらに限定されないが、ラップトップ、デスクトップ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、およびその他の適切なコンピュータを含む、様々な形態のデジタルコンピュータおよびデバイスを表すことが意図されている。コンピューティングデバイス950は、パーソナルデジタルアシスタント、携帯電話、スマートフォン、およびその他の類似のコンピューティングデバイスなどの、様々な形態のモバイルデバイスを表すことが意図されている。本明細書に示されている構成要素、それらの接続および関係、およびそれらの機能は、例でしかないことが意図されており、本文書において説明および/または請求された発明の実装を限定することは意図されていない。
【0096】
多数の実施形態が説明されている。しかしながら、明細書の趣旨および範囲から逸脱することなく様々な修正がなされ得ることが理解されるであろう。
【0097】
加えて、図面に示されたロジックフローは、所望の結果を達成するために、示された特定の順序または順次を要求しない。加えて、その他のステップが提供されてよく、または説明されているフローからステップが排除されてよく、およびその他の構成要素が、説明されているシステムに追加されてよいか、または説明されているシステムから除去されてよい。したがって、その他の実施形態は、後述の請求項の範囲内である。
【0098】
上記の説明に加えて、ユーザは、本明細書に説明されているシステム、プログラムまたは特徴がユーザ情報(例えば、ユーザの社会的ネットワーク、社会的動作、または活動、職業、ユーザの好み、またはユーザの現在位置)の収集を可能にし得るかどうかおよびいつこれを可能にするか、ならびにユーザにサーバからコンテンツまたは通信が送信されるかどうかの両方に関してユーザが選択を行うことを可能にする制御が提供されてよい。加えて、あるデータは、個人的に識別可能な情報が除去されるように、記憶または使用される前に1つまたは複数の方法で処理されてよい。例えば、ユーザのアイデンティティは、個人的に識別可能な情報がユーザのために決定されることができないように処理されてよい、またはユーザの特定の位置が決定されることができないように、位置情報が取得されるところでユーザの地理的位置が(都市、郵便番号、または州レベルなどに)一般化されてよい。したがって、ユーザは、どの情報がユーザについて収集されるか、どのようにその情報が使用されるか、およびどの情報がユーザに提供されるかについての制御を有し得る。
【0099】
説明されている実装のある特徴は、本明細書に説明されているように例示されているが、多くの修正、代用、変更および均等物が今や当業者に想起されるであろう。したがって、添付の請求項は、実装の範囲に含まれるような全てのこのような修正および変更をカバーすることが意図されていることを理解すべきである。実装は限定ではなく例としてのみ提供されており、形態および詳細における様々な変更がなされ得ることを理解すべきである。本明細書で説明されている装置および/または方法のあらゆる部分は、相互に排他的な組合せを除き、あらゆる組合せで組み合わされてよい。本明細書で説明されている実装は、説明されている異なる実装の機能、構成要素および/または特徴の様々な組合せおよび/または副組合せを含むことができる。
【手続補正書】
【提出日】2024-03-12
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
コンピュータが実行する方法であって、
コンピューティングデバイス上で実行されるアプリケーションを介して
、基準デバイスに関連した少なくとも1つの測定値を受信することと、
前記アプリケーションを介して、前記コンピューティングデバイスによってキャプチャされた画像データを受信することと
を含み、
前記画像データは、ユーザの頭部および前
記基準デバイスを含み、
前記方法は、
受信された前記画像データにおいて前
記基準デバイスを検出することと、
前記画像データ内の前
記基準デバイスにスケールを関連付けることと、
前記画像データにおいて前記ユーザの前記頭部の複数の特徴を検出することと、
前記画像データ内の前
記基準デバイスに関連付けられた前記スケールに基づいて前記ユーザの前記頭部
の前記複数の特徴のためのそれぞれの複数の測定値を決定することと、
前記ユーザの前記頭部の前記複数の特徴の前記複数の測定値に基づいて前記ユーザの前記頭部の三次元モデルを作成することと
をさらに含み、
前記頭部の前記複数の特徴の前記複数の測定値は、前
記基準デバイスに関連付けられた前記スケールに基づき、
前記方法は、
シミュレーションエンジンから、前記ユーザの前記頭部の前記三次元モデルに基づいて前記ユーザのため
のウェアラブルコンピューティングデバイスの構成を受信することをさらに含む、
方法。
【請求項2】
前
記基準デバイスは、少なくとも1つ
の物理的特徴を含むウェアラブルデバイスであり、前
記基準デバイスに関連した前記少なくとも1つの測定値を受信することは、
前記コンピューティングデバイスによってキャプチャされた前記画像データにおいて前記少なくとも1つ
の物理的特徴を検出することと、
前記少なくとも1つ
の物理的特徴に既知の測定値を関連付けることとを含む、請求項1に記載の方法。
【請求項3】
前
記基準デバイスは、前記コンピューティングデバイスによってキャプチャされた前記画像データにおける前記ユーザによって着用されたウェアラブルデバイスであり、前
記基準デバイスに関連した前記少なくとも1つの測定値を受信することは、
前記ウェアラブルデバイスのフレームのレンズ部分の幅に対応する第1の測定値を受信することと、
前記フレームのブリッジ部分の幅に対応する第2の測定値を受信することと、を含み、前記フレームの正面幅測定値は、前記第1の測定値の2倍に前記第2の測定値を足したもの
であり、
前記フレームのテンプルアーム部分の長さに対応する第3の測定値を受信することを含む、請求項1または請求項2に記載の方法。
【請求項4】
前記画像データにおいて前
記基準デバイスを検出することおよび前記画像データ内の前
記基準デバイスに前記スケールを関連付けることは、
前記画像データ内で、前記フレームの第1の縁部分と第1のテンプルアーム部分とが結合されている第1のヒンジ領域を検出することと、
前記画像データ内で、前記フレームの第2の縁部分と第2のテンプルアーム部分とが結合されている第2のヒンジ領域を検出することと、
前記第1のヒンジ領域と前記第2のヒンジ領域との間の前記画像データにおける距離を前
記正面幅測定値と比較することと、
前記比較に基づいてスケーリングファクタを決定することと、を含む、請求項3に記載の方法。
【請求項5】
受信された前記画像データにおいて前
記基準デバイスを検出することおよび前記画像データ内の前
記基準デバイスに前記スケールを関連付けることは、
前記画像データにおいて前
記基準デバイスの少なくとも1つの特徴を検出することと、
前記少なくとも1つの特徴に既知の測定値を関連付けることと、
前記少なくとも1つの特徴に関連付けられた前記既知の測定値を
、前記少なくとも1つの特徴の前記画像
データ内
で検出されたサイズと比較することと、
前記比較に基づいてスケーリングファクタを決定することと、を含む
、請求項
1または請求項2に記載の方法。
【請求項6】
前記三次元モデルを作成することは、
前記画像データ内で検出された前記ユーザの前記頭部
の前記複数の特徴に前記スケーリングファクタを適用することを含む、請求項5に記載の方法。
【請求項7】
前
記基準デバイスは、前記ユーザによって着用された眼鏡であり、前
記基準デバイスに関連した前記少なくとも1つの測定値を受信することは、
前記眼鏡のフレームの前側幅測定値を受信することと、
前記眼鏡の前記フレームのテンプルアーム測定値を受信することと、を含む
、請求項
1または請求項2に記載の方法。
【請求項8】
前記コンピューティングデバイスによってキャプチャされた画像データを受信することは、前記ユーザの前記頭部の正面画像および前
記基準デバイス、ならびに前記ユーザの前記頭部の横顔画像および前
記基準デバイスを含む画像データを受信することを含む
、請求項
1または請求項2に記載の方法。
【請求項9】
前記ユーザの前記頭部の前記三次元モデルを作成することは、
前記コンピューティングデバイスのプロセッサによって前記ユーザの前記頭部の前記三次元モデルを作成すること、または
前記コンピューティングデバイスによって、前記画像データを外部コンピューティングデバイスへ送信すること、および
前記コンピューティングデバイスによって、前記外部コンピューティングデバイスから前記ユーザの前記頭部の前記三次元モデルを受信すること、
のうちの1つを含む
、請求項
1または請求項2に記載の方法。
【請求項10】
受信された前記画像データにおいて複数の光学測定値を検出することをさらに含み、前記複数の光学測定値は、瞳孔高さ、瞳孔間距離、左瞳孔距離、右瞳孔距離、頂点間距離または前傾角のうちの少なくとも1つを含む、請求項
1または請求項2に記載の方法。
【請求項11】
前記コンピューティングデバイス上で実行される前記アプリケーションは、セルフポートレート動作モードを起動し、前記ユーザによって操作される前記コンピューティングデバイスの前面カメラの動作を開始する
、請求項
1または請求項2に記載の方法。
【請求項12】
コンピューティングデバイスの少なくとも1つのプロセッサによって実行されると前記少なくとも1つのプロセッサに、
前記コンピューティングデバイスにおいて実行されるアプリケーションを介して
、基準デバイスに関連した少なくとも1つの測定値を受信させ、
前記コンピューティングデバイスのカメラによってキャプチャされた画像データを受信させ、前記画像データは、ユーザの頭
部および前
記基準デバイ
スを含み、
前記画像データにおいて前
記基準デバイスを検出させ、
前記画像データ内
で検出された前
記基準デバイスにスケールを関連付けさせ、
前記画像データにおいて前記ユーザの前記頭部の複数の特徴を検出させ、
前記画像データ内
で検出された前
記基準デバイスに関連付けられた前記スケールに基づいて前記ユーザの前記頭部
の前記複数の特徴のためのそれぞれの複数の測定値を決定させ、
前
記基準デバイスに関連付けられた前記スケールに基づいて決定された前記ユーザの前記頭部の前記複数の特徴の前記複数の測定値に基づいて前記ユーザの前記頭部の三次元モデルを作成させ、
前記ユーザの前記頭部の前記三次元モデルに基づいて前記ユーザのため
のウェアラブルコンピューティングデバイスの構成を出力させる
ように構成されている実行可能な命令を
含む、プログラム。
【請求項13】
前
記基準デバイスは、少なくとも1つ
の物理的特徴を含むウェアラブルデバイスであり、前記命令は、前記少なくとも1つのプロセッサに前記少なくとも1つの測定値を受信させ、
前記少なくとも1つの測定値を受信することは、
前記コンピューティングデバイスによってキャプチャされた前記画像データにおいて前記少なくとも1つ
の物理的特徴を検出することと、
前記画像データ内で検出された前記少なくとも1つ
の物理的特徴に既知の測定値を関連付けることとを含む、請求項12に記載の
プログラム。
【請求項14】
前記命令は、前記少なくとも1つのプロセッサに、受信された前記画像データにおいて前
記基準デバイスを検出させかつ前記画像データ内の前
記基準デバイスに前記スケールを関連付けさせ、
前記基準デバイスを検出することおよび前記画像データ内の前記基準デバイスに前記スケールを関連付けることは、
前記画像データにおいて前
記基準デバイスの少なくとも1つの特徴を検出することと、
前記少なくとも1つの特徴に既知の測定値を関連付けることと、
前記少なくとも1つの特徴に関連付けられた前記既知の測定値を
、前記少なくとも1つの特徴の前記画像
データ内の検出されたサイズと比較することと、
前記比較に基づいてスケーリングファクタを決定することとを含む、請求項12または請求項13に記載の
プログラム。
【請求項15】
前
記基準デバイスは、前記コンピューティングデバイスによってキャプチャされた前記画像データにおける前記ユーザによって着用されたウェアラブルデバイスであり、前記命令は、前記少なくとも1つのプロセッサに、前
記基準デバイスに関連付けられた前記少なくとも1つの測定値を受信させ、
前記基準デバイスに関連付けられた前記少なくとも1つの測定値を受信することは、
前記画像データにおける前記ユーザによって着用された前記ウェアラブルデバイスのフレームのレンズ部分の幅に対応する第1の測定値を受信することと、
前記フレームのブリッジ部分の幅に対応する第2の測定値を受信することと、
前記フレームのテンプルアーム部分の長さに対応する第3の測定値を受信することとを含む、請求項14に記載の
プログラム。
【請求項16】
前記命令は、前記少なくとも1つのプロセッサに前記三次元モデルを作成させ、
前記三次元モデルを作成することは、
前記スケーリングファクタを前記ユーザの前記頭部
の前記複数の特徴に適用することを含む、請求項15に記載の
プログラム。
【請求項17】
前記命令は、前記少なくとも1つのプロセッサに、
前記画像データにおいて複数の光学測定値を検出させ、前記複数の光学測定値は、瞳孔高さ、瞳孔間距離、左瞳孔距離、右瞳孔距離、頂点間距離または前傾角のうちの少なくとも1つを含む、請求項12
または請求項
13に記載の
プログラム。
【請求項18】
ディスプレイデバイスを含む頭部取付式ウェアラブルコンピューティングデバイスをフィッティングする、コンピュータが実行する方法であって、
コンピューティングデバイス上で実行されるアプリケーションを介して、前記コンピューティングデバイスによってキャプチャされた画像データを受信すること
を含み、
前記画像データはユーザの頭部を含み、
前記方法は、
前記アプリケーションを介して、前記ユーザの既知の瞳孔間距離測定値を受信することと、
前記コンピューティングデバイスによってキャプチャされた前記画像データにおいて、前記ユーザの第1の瞳孔および前記ユーザの第2の瞳孔の位置を検出することと、
受信された前記
既知の瞳孔間距離
測定値および前記画像データにおける前記第1の瞳孔の
前記位置と前記第2の瞳孔の
前記位置との間の距離に基づいてスケーリングファクタを決定することと、
前記画像データにおいて前記ユーザの前記頭部の複数の特徴を検出することと、
前記スケーリングファクタに基づいて前記ユーザの前記頭部の検出された前記複数の特徴のためのそれぞれの複数の測定値を決定することと、
前記ユーザの前記頭部の前記複数の特徴の前記複数の測定値に基づいて前記ユーザの前記頭部の三次元モデルを作成することと
をさらに含み、
前記頭部の前記複数の特徴の前記複数の測定値は、前記既知の瞳孔間距離
測定値および前記画像データにおいて検出された前記第1の瞳孔と前記第2の瞳孔との間の前記距離に関連した前記スケーリングファクタに基づき、
前記方法は、
シミュレーションエンジンから、前記ユーザの前記頭部の前記三次元モデルに基づいて前記ユーザのための前記頭部取付式ウェアラブルコンピューティングデバイスの構成を受信すること
をさらに含む、方法。
【請求項19】
前記三次元モデルを作成することは、前記ユーザの前記頭部
の前記複数の特徴に前記スケーリングファクタを適用することを含む、請求項18に記載の方法。
【請求項20】
前記画像データにおいて複数の光学測定値を検出することをさらに含み、前記複数の光学測定値は、瞳孔高さ、瞳孔間距離、左瞳孔距離、右瞳孔距離、頂点間距離または前傾角のうちの少なくとも1つを含み、
前記方法は、
検出された前記複数の光学測定値に前記スケーリングファクタを適用することをさらに含む、請求項18または請求項19に記載の方法。
【請求項21】
コンピューティングデバイスの少なくとも1つのプロセッサによって実行されると前記少なくとも1つのプロセッサに、請求項18または請求項19に記載の方法を実施させる実行可能な命令を含む、プログラム。
【国際調査報告】