(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-01-30
(54)【発明の名称】拡張現実デバイス及び仮想現実デバイスのための逆パスススルー眼鏡
(51)【国際特許分類】
H04N 13/307 20180101AFI20240123BHJP
H04N 13/332 20180101ALI20240123BHJP
H04N 13/275 20180101ALI20240123BHJP
H04N 13/268 20180101ALI20240123BHJP
H04N 5/222 20060101ALI20240123BHJP
H04N 23/60 20230101ALI20240123BHJP
G02B 27/02 20060101ALI20240123BHJP
G02B 30/10 20200101ALI20240123BHJP
G09G 5/00 20060101ALI20240123BHJP
G09G 5/36 20060101ALI20240123BHJP
G06T 19/00 20110101ALI20240123BHJP
【FI】
H04N13/307
H04N13/332
H04N13/275
H04N13/268
H04N5/222 400
H04N23/60
G02B27/02 Z
G02B30/10
G09G5/00 550C
G09G5/36 500
G09G5/00 510A
G06T19/00 F
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023538972
(86)(22)【出願日】2021-12-23
(85)【翻訳文提出日】2023-08-18
(86)【国際出願番号】 US2021065054
(87)【国際公開番号】W WO2022140658
(87)【国際公開日】2022-06-30
(32)【優先日】2020-12-23
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2021-01-27
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2021-12-17
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】515046968
【氏名又は名称】メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー
【氏名又は名称原語表記】META PLATFORMS TECHNOLOGIES, LLC
(74)【代理人】
【識別番号】110002974
【氏名又は名称】弁理士法人World IP
(72)【発明者】
【氏名】マツダ, ネイサン
(72)【発明者】
【氏名】ウィールライト, ブライアン
(72)【発明者】
【氏名】ヘグランド, ジョエル
(72)【発明者】
【氏名】サラギ, ジェーソン
(72)【発明者】
【氏名】ロンバルディ, スティーヴン アンソニー
(72)【発明者】
【氏名】サイモン クロイツ, トマス
(72)【発明者】
【氏名】齋藤 隼介
(72)【発明者】
【氏名】ソルフーファー, マイケル
(72)【発明者】
【氏名】ヘイズ, ジェームズ ヘンリー
(72)【発明者】
【氏名】ラジ, アミット
【テーマコード(参考)】
2H199
5B050
5C122
5C182
【Fターム(参考)】
2H199BA20
2H199BA48
2H199BA49
2H199BB02
2H199BB05
2H199CA02
2H199CA12
2H199CA42
2H199CA85
2H199CA92
2H199CA94
2H199CA97
5B050AA03
5B050BA09
5B050BA11
5B050BA12
5B050BA13
5B050CA07
5B050CA08
5B050DA04
5B050DA07
5B050EA04
5B050EA26
5B050FA02
5B050FA05
5B050FA06
5C122DA16
5C122DA30
5C122EA59
5C122FA18
5C122FK09
5C122HB01
5C182AA04
5C182AA31
5C182AB33
5C182AC46
5C182BA04
5C182BA14
5C182BA27
5C182BA55
5C182BA56
(57)【要約】
ヘッドセットディスプレイのユーザの逆パススルービューを見物人に提供するためのデバイスは、光学面の第1の側でユーザに画像を提供するように構成された光学面を備える接眼レンズを含む。デバイスはまた、第1の視野内の光学面から反射されたユーザの顔の一部の画像を収集するように構成された第1のカメラと、光学面に隣接し、ユーザの顔の画像を前方に投影するように構成されたディスプレイと、ディスプレイから光を受け、ユーザの顔の画像を見物人に提供するように構成されたスクリーンとを含む。
【選択図】
図1B
【特許請求の範囲】
【請求項1】
デバイスであって、
対象に画像を提供するように構成されたニアアイディスプレイと、
前記対象の画像を収集するように構成されたアイイメージングシステムと、
前記対象の三次元モデルの自動立体視画像を見物人に提供するように構成されたライトフィールドディスプレイであって、前記自動立体視画像は、前記ライトフィールドディスプレイの視野内の複数の視点からの前記対象のパースペクティブ補正されたビューを含む、ライトフィールドディスプレイと
を備える、デバイス。
【請求項2】
前記ライトフィールドディスプレイは、画素アレイ及びマルチレンズレットアレイを含み、前記画素アレイは、前記対象のセグメント化されたビューを前記マルチレンズレットアレイに提供するように構成され、前記セグメント化されたビューは、選択された視点における前記ライトフィールドディスプレイの視野の複数の部分を含む、請求項1に記載のデバイス。
【請求項3】
前記アイイメージングシステムが、前記対象の両眼視界を収集するための2つのカメラを備える、請求項1又は2に記載のデバイス。
【請求項4】
1つ又は複数のプロセッサと、前記1つ又は複数のプロセッサによって実行されたときに前記対象の前記画像から前記対象の三次元表現を生成する命令を記憶するメモリとを更に備え、及び/又は好ましくは、前記ニアアイディスプレイは、前記見物人を含む環境の三次元表現を前記対象に提供する、請求項1~3のいずれか一項に記載のデバイス。
【請求項5】
前記アイイメージングシステムは、前記ライトフィールドディスプレイに隣接するダイクロイックミラーから反射モードで前記対象からの前記画像を受信する赤外線カメラを含む、請求項1~4のいずれか一項に記載のデバイス。
【請求項6】
ライトフィールドディスプレイは、前記見物人のために、2つの視点についての前記パースペクティブ補正されたビュー間のクロストークを回避するために、予め選択されたピッチを有する二次元パターンに配置された複数のマイクロレンズを有するマイクロレンズアレイを備える、請求項1~5のいずれか一項に記載のデバイス。
【請求項7】
前記ライトフィールドディスプレイは、マイクロレンズアレイに隣接するイマースストップを更に備え、前記イマースストップは複数の開口部を含み、各開口部が前記マイクロレンズアレイ内の各マイクロレンズの中心と位置合わせされる、請求項1~6のいずれか一項に記載のデバイス。
【請求項8】
前記ライトフィールドディスプレイは、複数のアクティブセグメントに分割された画素アレイを含み、前記画素アレイ内の各アクティブセグメントは、マルチレンズレットアレイ内の屈折要素の直径に対応する寸法を有し、及び/又は好ましくは、1つ又は複数のプロセッサと、前記1つ又は複数のプロセッサによって実行されたときに前記ライトフィールドディスプレイに、画素アレイを複数のアクティブセグメントに分割させる命令を記憶するメモリとを更に備え、各アクティブセグメントは、前記見物人のための選択された視点で前記ライトフィールドディスプレイの視野の一部を提供するように構成される、請求項1~7のいずれか一項に記載のデバイス。
【請求項9】
コンピュータ実装方法であって、
1つ又は複数のヘッドセットカメラから、ヘッドセットユーザである対象の少なくとも2つ以上の視野を有する複数の画像を受信することと、
学習可能な重みのセットを用いて前記画像から複数の画像特徴を抽出することと、
前記学習可能な重みのセットを用いて前記対象の三次元モデルを形成することと、
前記対象の前記三次元モデルを、前記対象の画像投影と見物人のための選択された観察点とを関連付ける自動立体視ディスプレイフォーマットにマッピングすることと、
デバイスディスプレイ上で、前記見物人が前記選択された観察点に位置するときに、前記対象の前記画像投影を提供することと
を含む、コンピュータ実装方法。
【請求項10】
画像特徴を抽出することは、前記画像の各々を収集するために用いられるヘッドセットカメラの固有の特性を抽出することを含む、請求項9に記載のコンピュータ実装方法。
【請求項11】
前記対象の前記三次元モデルを自動立体視ディスプレイフォーマットにマッピングすることは、第1の観察点に関連する特徴マップを第2の観察点に関連する特徴マップで補間することを含み、又は、好ましくは、前記対象の前記三次元モデルを自動立体視ディスプレイフォーマットにマッピングすることは、前記選択された観察点の方向に沿って複数の画素の前記画像特徴を集約することを含み、又は、好ましくは、前記対象の三次元モデルを自動立体視ディスプレイフォーマットにマッピングすることは、順列不変の組合せで前記ヘッドセットカメラの各々によって生成された複数の特徴マップを連結することを含み、前記ヘッドセットカメラの各々は固有の特性を有する、請求項9又は請求項10に記載のコンピュータ実装方法。
【請求項12】
前記対象の前記画像投影を提供することは、前記見物人が第1の観察点から第2の観察点に移動する際に、前記デバイスディスプレイ上に第2の画像投影を提供することを含む、請求項9~11のいずれか一項に記載のコンピュータ実装方法。
【請求項13】
複数の合成ビューを生成することを含む、仮想現実ヘッドセット内の自動立体視ディスプレイに対象のビューを提供するようにモデルを訓練することのためのコンピュータ実装方法であって、
複数のユーザの顔から、複数のグランドトゥルース画像を収集することと、
記憶され、較正された立体視画像のペアを用いて前記グランドトゥルース画像を修正することと、
前記対象の三次元モデルを、前記対象の画像投影と見物人のための選択された観察点とを関連付ける自動立体視ディスプレイフォーマットにマッピングすることと、
前記グランドトゥルース画像と前記対象の前記画像投影との間の差に基づいて損失値を決定することと、
前記損失値に基づいて前記対象の前記三次元モデルを更新することと
を含む、コンピュータ実装方法。
【請求項14】
複数の合成ビューを生成することは、選択された観測方向に沿って前記グランドトゥルース画像の各々から画像特徴を投影することと、順列不変の組合せにおいて前記グランドトゥルース画像の各々によって生成された複数の特徴マップを連結することとを含み、前記グランドトゥルース画像の各々は固有の特性を有し、及び/又は好ましくは、前記対象の前記三次元モデルを訓練することは、前記グランドトゥルース画像と前記対象の前記画像投影との間の前記差を示す損失関数の値に基づいて、複数の特徴のそれぞれについて学習可能な重みのセットのうちの少なくとも1つを更新することを含み、又は、好ましくは、前記対象の前記三次元モデルを訓練することは、前記複数のグランドトゥルース画像から投影された画素背景値に基づいて、前記グランドトゥルース画像内の複数の画素の各々について背景値を訓練することを含む、請求項13に記載のコンピュータ実装方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、ユーザの顔の特徴の現実的なビューを前方の見物人に提供する逆パススルー機能を含む拡張現実(AR)及び仮想現実(VR)デバイスに関する。より具体的には、本開示は、AR/VRヘッドセットユーザの見物人のための自動立体視外部ディスプレイを提供する。
【背景技術】
【0002】
AR及びVRデバイスの分野では、デバイスのユーザに表示されている画像を見物人に提供する外向きディスプレイを含むデバイスもある。これらの構成は、AR又はVRデバイスのユーザが経験していることを見物人にとってより理解しやすくする一方で、ユーザがパススルーモードを使用して見物人に話しかけようとしており、それ以外の方法で仮想現実環境に参加していない場合など、ユーザの心理状態又はユーザの注意の的が何であるかを見物人が知らないままにしてしまう。更に、外向きディスプレイを有するこのようなデバイスの場合、このデバイスは、通常、従来の二次元ディスプレイであり、デバイス内のユーザの顔や頭部の正確な奥行きや距離を描写するなど、ユーザの顔や頭部の少なくとも一部の全身画像の現実的なビューが欠けている。
【発明の概要】
【0003】
本開示の第1の態様に従って、対象に画像を提供するように構成されたニアアイディスプレイと、対象の画像を収集するように構成されたアイイメージングシステムと、対象の三次元モデルの自動立体視画像を見物人に提供するように構成されたライトフィールドディスプレイとを備えたデバイスが提供されるが、自動立体視画像は、ライトフィールドディスプレイの視野内の複数の視点からの対象のパースペクティブ補正されたビューを含む。
【0004】
いくつかの実施形態において、ライトフィールドディスプレイは、画素アレイとマルチレンズレットアレイとを備え、画素アレイは、対象のセグメント化されたビューをマルチレンズレットアレイに提供するように構成され、セグメント化されたビューは、選択された視点におけるライトフィールドディスプレイの視野の複数の部分を含む。
【0005】
いくつかの実施形態では、アイイメージングシステムは、対象の両眼視界を収集するために2つのカメラを備える。
【0006】
いくつかの実施形態では、デバイスは、1つ又は複数のプロセッサと、1つ又は複数のプロセッサによって実行されたときに対象の画像から対象の三次元表現を生成する命令を記憶するメモリとを更に備える。
【0007】
いくつかの実施形態では、ニアアイディスプレイは、見物人を含む環境の三次元表現を対象に提供する。
【0008】
いくつかの実施形態では、アイイメージングシステムは、ライトフィールドディスプレイに隣接するダイクロイックミラーから反射モードで対象から画像を受信する赤外線カメラを含む。
【0009】
いくつかの実施形態では、ライトフィールドディスプレイは、見物人のために、2つの視点に対するパースペクティブ補正されたビュー間のクロストークを回避するために、予め選択されたピッチを有する二次元パターンに配置された複数のマイクロレンズを有するマイクロレンズアレイを備える。
【0010】
いくつかの実施形態では、ライトフィールドディスプレイは、マイクロレンズアレイに隣接するイマースストップを更に備え、イマースストップは、各開口部がマイクロレンズアレイ内の各マイクロレンズの中心と位置合わせされるように複数の開口部を含む。
【0011】
いくつかの実施形態では、ライトフィールドディスプレイは、複数のアクティブセグメントに分割された画素アレイを含み、画素アレイ内の各アクティブセグメントは、マルチレンズレットアレイ内の屈折素子の直径に対応する寸法を有する。
【0012】
いくつかの実施形態では、デバイスは、1つ又は複数のプロセッサと、1つ又は複数のプロセッサによって実行されたときにライトフィールドディスプレイに画素アレイを複数のアクティブセグメントに分割する命令を記憶するメモリとを更に備え、各アクティブセグメントは、見物人のための選択された視点でライトフィールドディスプレイの視野の一部を提供するように構成される。
【0013】
本開示の第2の態様に従って、1つ又は複数のヘッドセットカメラから、ヘッドセットユーザである対象の少なくとも2つ以上の視野を有する複数の画像を受信することと、学習可能な重みのセットを使用して、画像から複数の画像特徴を抽出することと、学習可能な重みのセットを使用して、対象の三次元モデルを形成することと、対象の三次元モデルを対象の画像投影と見物人のための選択された観察点とを関連付ける自動立体視ディスプレイフォーマットにマッピングすることと、見物人が選択された観察点に位置するときに対象の画像投影をデバイスのディスプレイに提供することとを含む、コンピュータ実装方法が提供される。
【0014】
いくつかの実施形態では、画像特徴を抽出することは、各画像を収集するために使用されるヘッドセットカメラの固有の特性を抽出することを含む。
【0015】
いくつかの実施形態では、対象の三次元モデルを自動立体視ディスプレイフォーマットにマッピングすることは、第1の観察点に関連付けられた特徴マップを第2の観察点に関連付けられた特徴マップで補間することを含む。
【0016】
いくつかの実施形態では、対象の三次元モデルを自動立体視ディスプレイフォーマットにマッピングすることは、選択された観察点の方向に沿って複数の画素の画像特徴を集約することを含む。
【0017】
いくつかの実施形態では、対象の三次元モデルを自動立体視ディスプレイフォーマットにマッピングすることは、順列不変の組合せで各ヘッドセットカメラによって生成された複数の特徴マップを連結することを含み、各ヘッドセットカメラは固有の特性を有する。
【0018】
いくつかの実施形態では、対象の画像投影を提供することは、デバイスディスプレイ上に、見物人が第1の観察点から第2の観察点に移動するときに第2の画像投影を提供することを含む。
【0019】
本開示の第3の態様によれば、仮想現実ヘッドセット内の自動立体視ディスプレイに対象のビューを提供するためにモデルを訓練するためのコンピュータ実装方法であって、複数のユーザの顔から複数のグランドトゥルース画像を収集することと、グランドトゥルース画像を、記憶され、較正された対の立体視画像を用いて修正することと、対象の三次元モデルを、対象の画像投影と見物人のための選択された観察点とを関連付ける自動立体視ディスプレイフォーマットにマッピングすることと、グランドトゥルース画像と対象の画像投影との間の差に基づいて損失値を決定することと、損失値に基づいて対象の三次元モデルを更新することとを含む、方法を提供する。
【0020】
いくつかの実施形態では、複数の合成ビューを生成することは、選択された観測方向に沿ってグランドトゥルース画像の各々から画像特徴を投影することと、各グランドトゥルース画像によって生成された複数の特徴マップを順列不変の組合せで連結することとを含み、各グランドトゥルース画像は固有の特性を有する。
【0021】
いくつかの実施形態では、対象の三次元モデルを訓練することは、グランドトゥルース画像と対象の画像投影との間の差を示す損失関数の値に基づいて、複数の特徴のそれぞれに対する学習可能な重みのセットのうちの少なくとも1つを更新することを含む。
【0022】
いくつかの実施形態では、対象の三次元モデルを訓練することは、複数のグランドトゥルース画像から投影された画素背景値に基づいて、グランドトゥルース画像内の複数の画素のそれぞれについて背景値を訓練することを含む。
【0023】
本開示の第4の態様によれば、命令を記憶する第1の手段と、方法を実施するために命令を実行する第2の手段とを含むシステムが提供され、本方法は、対象の少なくとも2つ以上の視野を有する複数の二次元画像を受信することと、学習可能な重みのセットを使用して二次元画像から複数の画像特徴を抽出することと、対象の三次元モデルと見物人のための選択された観察点との間の方向に沿って画像特徴を投影することと、見物人に対象の三次元モデルの自動立体視画像を提供することとを含む。
【0024】
本発明の1つ又は複数の態様又は実施形態への組込みに好適であるとして本明細書で説明される任意の特徴は、本開示の任意の及び全ての態様及び実施形態にわたって一般化可能であるものとすることが理解されよう。本開示の他の態様が、本開示の発明を実施するための形態、特許請求の範囲、及び図面に照らして当業者によって理解され得る。上記の概略的な説明及び以下の発明を実施するための形態は、例示的及び説明的なものにすぎず、特許請求の範囲を限定しない。
【図面の簡単な説明】
【0025】
【
図1A】いくつかの実施形態による、自動立体視外部ディスプレイを含むAR又はVRデバイスを示す。
【
図1B】いくつかの実施形態による、前方の見物人から見たAR又はVRデバイスのユーザを示す。
【
図2】いくつかの実施形態による、ユーザの顔の逆パススルービューを前方の見物人に提供するように構成されたAR又はVRデバイス用の接眼レンズの詳細図である。
【
図3A】いくつかの実施形態による、AR又はVRデバイスユーザの逆パススルービューを前方の見物人に提供するために使用されるマイクロレンズアレイの異なる態様及び構成要素を示す。
【
図3B】いくつかの実施形態による、AR又はVRデバイスユーザの逆パススルービューを前方の見物人に提供するために使用されるマイクロレンズアレイの異なる態様及び構成要素を示す。
【
図3C】いくつかの実施形態による、AR又はVRデバイスユーザの逆パススルービューを前方の見物人に提供するために使用されるマイクロレンズアレイの異なる態様及び構成要素を示す。
【
図3D】いくつかの実施形態による、AR又はVRデバイスユーザの逆パススルービューを前方の見物人に提供するために使用されるマイクロレンズアレイの異なる態様及び構成要素を示す。
【
図4】いくつかの実施形態による、AR又はVRデバイスユーザの広角高解像度のビューを前方の見物人に提供するための、ライトフィールドディスプレイを通るレイトレーシングビューを示す。
【
図5A】いくつかの実施形態による、AR又はVRデバイスのユーザの広角高解像度ビューを提供するために使用されるマイクロレンズアレイにおける分解能特性の異なる態様を示す。
【
図5B】いくつかの実施形態による、AR又はVRデバイスのユーザの広角高解像度ビューを提供するために使用されるマイクロレンズアレイにおける分解能特性の異なる態様を示す。
【
図5C】いくつかの実施形態による、AR又はVRデバイスのユーザの広角高解像度ビューを提供するために使用されるマイクロレンズアレイにおける分解能特性の異なる態様を示す。
【
図5D】いくつかの実施形態による、AR又はVRデバイスのユーザの広角高解像度ビューを提供するために使用されるマイクロレンズアレイにおける分解能特性の異なる態様を示す。
【
図6】いくつかの実施形態による、AR又はVRデバイスユーザの顔の一部の3Dレンディションを示す。
【
図7】いくつかの実施形態による、VR/ARヘッドセットユーザの顔の一部の3Dレンディションに使用されるモデルアーキテクチャのブロック図である。
【
図8A】いくつかの実施形態による、仮想現実ヘッドセットの自動立体視ディスプレイにユーザの顔の一部のビューを提供するためにモデルを訓練する方法における要素及びステップを示す。
【
図8B】いくつかの実施形態による、仮想現実ヘッドセットの自動立体視ディスプレイにユーザの顔の一部のビューを提供するためにモデルを訓練する方法における要素及びステップを示す。
【
図8C】いくつかの実施形態による、仮想現実ヘッドセットの自動立体視ディスプレイにユーザの顔の一部のビューを提供するためにモデルを訓練する方法における要素及びステップを示す。
【
図8D】いくつかの実施形態による、仮想現実ヘッドセットの自動立体視ディスプレイにユーザの顔の一部のビューを提供するためにモデルを訓練する方法における要素及びステップを示す。
【
図9】いくつかの実施形態による、VR/ARヘッドセットユーザの顔の自動立体視ビューを提供するための方法におけるフローチャートを示す。
【
図10】ユーザの顔の一部の複数の二次元(2D)画像からユーザの顔の一部の三次元(3D)ビューをレンダリングするための方法におけるフローチャートを示す。
【
図11】いくつかの実施形態による、ユーザの顔の一部の複数の二次元(2D)画像からユーザの顔の一部の三次元(3D)ビューをレンダリングするためにモデルを訓練する方法のフローチャートを示す。
【
図12】いくつかの実施形態による、AR又はVRデバイスを使用するための方法の少なくともいくつかを実施するように構成されたコンピュータシステムを示す。
【発明を実施するための形態】
【0026】
図面では、特に明記しない限り、同様の要素にはその説明に従って同様のラベルを付している。
【0027】
以下の詳細な説明では、本開示の完全な理解を提供するため、多数の具体的な詳細が説明される。しかしながら、本開示の実施形態はこれらの具体的な詳細のいくつかがなくても実践できることが、当業者には明白となるであろう。他の例では、よく知られている構造及び技法については、本開示の妨げとならないよう、詳細には示していない。
【0028】
AR及びVRデバイス及びその使用の分野では、ユーザと環境との間に存在する断絶は、ユーザやその近くにいる他の人にとって危険ではないにしても、ユーザを取り囲む人々にとって煩わしい可能性がある。いくつかのシナリオでは、ユーザが会話又は注意のために1人又は複数の見物人に関与することが望ましい場合がある。現在のAR及びVRデバイスには、見物人が関与し、ユーザの注目の的を確認する機能が欠けている。
【0029】
通常、広角視野ディスプレイや三次元ディスプレイを、奥行きのある焦点距離と調和させようとするディスプレイ用途では、ディスプレイの空間解像度を妥協する必要がある。1つの手法は、解像度を上げるためにディスプレイ内の画素のサイズを小さくすることであるが、現在の最先端技術での画素サイズは、可視光及び近赤外光の回折限界に達しつつあり、達成できる究極の解像度には限界がある。AR及びVRデバイスの場合、空間解像度と角度解像度の間のこの妥協は、これらのデバイスに関連するフォームファクタや角度寸法に関連する制限範囲を考えると、あまり厳しくはない。
【0030】
AR/VRデバイスの望ましい特徴は、小さなフォームファクタを有することである。したがって、より薄いデバイスが望ましい。これを達成するために、マルチレンズレットアレイ(MLA)ライトフィールドディスプレイは、作動距離が短く、ホログラフィックパンケーキレンズの簡易な設計を使用することによって、解像度損失を抑制しつつVRヘッドセットの薄い断面を提供する。
【0031】
AR/VRデバイスの別の望ましい特徴は、高解像度を提供することである。これは焦点深度に制限を与えるが、複雑な風景を撮影するために使用される光学系では一般的なこの制限は、被写界深度が外部ディスプレイとユーザの顔との間のほとんど変化しない相対位置によって制限されるため、本明細書に開示される外部ディスプレイについてはあまり厳しくない。
【0032】
本明細書で開示される実施形態は、VRヘッドセットを装着している1人又は複数の人々がVRヘッドセットを装着していない1人又は複数の人々と対話する多種多様な用途のために、VRヘッドセットを使用した対面対話の品質を向上させる。本明細書で説明するような実施形態は、VRユーザと見物人や他のVRユーザとの間の摩擦を取り除き、VRとARのギャップを埋め、これは、シースルーARの共存の利点と、VRシステムのより精巧でより高い没入感を実現する。したがって、本明細書に開示される実施形態は、魅力的でより自然なVR体験を提供する。
【0033】
より一般的には、本明細書で開示される実施形態は、見物人には標準的なシースルー眼鏡のように見えるAR/VRヘッドセットを提供し、AR/VRユーザと周囲環境とのより良い関わりを可能にする。これは、AR/VRユーザが他の人々又は見物人と対話するシナリオにおいて非常に有用である。
【0034】
図1Aは、いくつかの実施形態による、自動立体視外部ディスプレイ110Aを含むヘッドセット10Aを示す。ヘッドセット10Aは、ユーザの頭部に装着されるように構成されたAR又はVRデバイスであってもよい。ヘッドセット10Aは、ストラップ15によって機械的に結合され、ユーザの頭部の後ろに電子部品20を保持するための可撓性マウントを有する2つの接眼レンズ100Aを含む。フレックスコネクタ5は、接眼レンズ100Aを電子部品20と電子的に結合することができる。接眼レンズ100Aの各々は、選択された視野(FOV)内の光学面から反射されたユーザの顔の一部の画像を収集するように構成されたアイイメージングシステム115-1及び115-2(以下、総称して「アイイメージングシステム115」と呼ぶ)を含む。アイイメージングシステム115は、ユーザの顔の少なくとも一部の三次元立体視を生成するように、異なるFOVでユーザの眼の2つの画像を収集するデュアルアイカメラを含むことができる。アイイメージングシステム115は、瞳孔の位置及び動きに関する情報を電子部品に提供することができる。接眼レンズ100Aはまた、光学面に隣接し、ユーザの顔の自動立体視画像をユーザから前方に投影するように構成された外部ディスプレイ110A(例えば、ライトフィールドディスプレイ)を含むことができる。
【0035】
いくつかの実施形態では、電子部品20は、命令を記憶するメモリ回路112と、命令を実行してアイイメージングシステム115からユーザの顔の一部の画像を受信し、ユーザの顔の自動立体視画像を外部ディスプレイ110Aに提供するプロセッサ回路122とを含むことができる。更に、電子部品20はまた、1つ又は複数のアイカメラからユーザの顔の一部からの画像を受信し、画像解析を応用して、外景又は仮想現実ディスプレイの態様に対するユーザの視線、輻輳、及び焦点を評価することもできる。いくつかの実施形態では、電子部品20は、ネットワークと通信するように構成された通信モジュール118を含む。通信モジュール118は、メモリ112及びプロセッサ122を外部ネットワーク又は何らかの他のデバイスと無線通信するための無線周波数ソフトウェア及びハードウェアを含むことができる。したがって、通信モジュール118は、無線アンテナ、トランシーバ、及びセンサ、並びにWi-Fi、Bluetooth、近距離無線通信(NFC)などの複数の無線プロトコルのいずれか1つによる信号処理するためのデジタル処理回路も含むことができる。更に、通信モジュール118はまた、ヘッドセット10Aと協働する他の入力ツール及びアクセサリ(例えば、ハンドルスティック、ジョイスティック、マウス、無線ポインタなど)と通信してもよい。
【0036】
いくつかの実施形態では、接眼レンズ100Aは、ユーザのためにシーンの正面図を撮影するための1つ又は複数の外部カメラ125-1及び125-2(以下、総称して「外部カメラ125」という)を含むことができる。外部カメラ125は、デュアルアイカメラによって提供されるユーザの顔の部分の画像から導出され得るユーザの視界の視線、輻輳、及び他の特徴に基づいて、ユーザが特に関心を持ち得る正面視界の態様に焦点を合わせるか、又は(例えば、プロセッサ122によって、)向けられ得る。
【0037】
図1Bは、いくつかの実施形態による、前方の見物人によって見られるヘッドセット10Bを示す。いくつかの実施形態では、ヘッドセット10Bは、「シュノーケル」構成のAR又はVRデバイスであり得る。以下、ヘッドセット10A、10Bを総称して「ヘッドセット10」と呼ぶ。いくつかの実施形態では、バイザ100Bは、ユーザ101のビューを見物人102に提供する単一の前方ディスプレイ110Bを含むことができる。ディスプレイ110Bは、ユーザ101の両眼、鼻の一部、眉毛、及びその他の顔の特徴を有する顔の一部を含む。更に、ユーザの顔の自動立体視画像111は、ユーザの眼の正確かつリアルタイムの位置などの詳細を含み、ユーザ101の視線方向及び輻輳、又は注意の的を示すことができる。これは、ユーザが発言された何かに、又はユーザの注意を引くことができる何らかの他の環境外乱又は感覚入力に、注意を向けているかどうか見物人102に対して示し得る。
【0038】
いくつかの実施形態では、自動立体視画像111は、ユーザの顔の3Dレンダリングを提供する。したがって、見物人102は、ユーザの顔、更にはユーザの頭の全身ビューを有し、見物人102が画角を変更するにつれて視点が変化する。いくつかの実施形態では、外向きに投影されたディスプレイ110Bは、ユーザの顔の一部の画像に追加の画像特徴を含めることができる。例えば、いくつかの実施形態では、外向きに投影されたディスプレイは、ユーザの顔の画像に重ね合わされた画像内の仮想要素(例えば、ユーザが実際に見ている仮想画像、又は環境内の実際の光源の反射又はグレア)を含むことができる。
【0039】
図2は、いくつかの実施形態による、前方の見物人(接眼レンズ100A及びシュノーケル式バイザ100Bを参照)にユーザの顔の逆パススルービューを提供するように構成されたAR又はVRデバイス用の接眼レンズ200の詳細図を示す。接眼レンズ200は、光学面220の第1の側(左側)のユーザに画像を提供するように構成された光学面220を含む。いくつかの実施形態では、ユーザへの画像は前方カメラ225によって提供されてもよく、光学面220は前方カメラ225に結合されたディスプレイを含んでもよい。いくつかの実施形態では、光学面220内の画像は、メモリ(例えば、VRデバイスの場合、メモリ112及びプロセッサ122)に記憶された命令を実行するプロセッサによって提供される仮想画像であってもよい。いくつかの実施形態(例えば、ARデバイスの場合)では、ユーザへの画像は、少なくとも部分的に、透明光学部品(例えば、レンズ、導波路、プリズムなど)を介して接眼レンズ200の前面から送信された画像を含むことができる。
【0040】
接眼レンズ200はまた、2つの異なるFOVでユーザの顔の第1及び第2の画像(例えば、ユーザの眼)を収集するように構成された第1のアイカメラ215A及び第2のアイカメラ215B(以下、総称して「アイカメラ215」と呼ぶ)を含む。いくつかの実施形態では、アイカメラ215は、ホットミラーアセンブリ205から反射モードでユーザの顔の画像を収集する赤外線カメラであってもよい。照明リング211は、アイカメラ215によって撮像されようとしているユーザの顔の部分に照明を当てることができる。したがって、光学面220は、アイカメラ215によって操作される光の波長(例えば、赤外線領域)では反射性であり、ユーザに画像を提供する光、例えば、赤色(R)、青色(B)、及び緑色(G)の画素を含む可視領域では透過性であるように構成され得る。前方ディスプレイ210Bは、ユーザの顔の自動立体視画像を見物人(図の右端)に投影する。
【0041】
図3A~
図3Dは、いくつかの実施形態による、AR又はVRデバイス内の、ユーザの逆パススルービューを前方の見物人に提供するためのスクリーンとして使用されるマイクロレンズアレイ300の異なる態様及び構成要素を示す。いくつかの実施形態では、マイクロレンズアレイ300は、画素アレイ320から光を受け、ユーザの顔の画像を見物人に提供する。いくつかの実施形態では、ユーザの顔の画像は、見物人の画角によるが、ユーザの顔の3Dレンディションの斜視図である。
【0042】
図3Aは、マイクロレンズアレイ300の詳細図であり、ピッチ305を有する二次元パターン302に配列された複数のマイクロレンズ301-1、301-2、301-3(以下、総称して「マイクロレンズ301」と呼ぶ)を含む。いくつかの実施形態では、開口部マスク315は、1つの開口部が各マイクロレンズ301と位置合わせされるように、マイクロレンズアレイに隣接して配置され、見物人の視点からの異なる画角のクロストークを回避することができる。
【0043】
例示のみを目的として、パターン302は、1ミリメートル未満(例えば、500μm)のピッチ305を有するマイクロレンズ301の六角形の格子である。マイクロレンズアレイ300は、マイクロレンズ301を形成する凹部を含む第1の面及び第2の面310を含むことができ、第1及び第2の面310は透過性基板307(例えば、N-BK7ガラス、プラスチックなど)によって分離されている。いくつかの実施形態では、透過性基板307は、約200μmの厚さを有することができる。
【0044】
図3Bは、いくつかの実施形態による、逆パススルーヘッドセットで使用するためのライトフィールドディスプレイ350の詳細図である。ライトフィールドディスプレイ350は、マイクロレンズアレイ(例えば、マイクロレンズアレイ300)に隣接する画素アレイ320を含み、そのうちのマイクロレンズ301のみが例示を目的として示されている。画素アレイ320は、マイクロレンズ301に向けられる光ビーム323を生成する複数の画素321を含む。いくつかの実施形態では、画素アレイ320とマイクロレンズ301との間の距離303は、マイクロレンズ301の焦点距離にほぼ等しくなり得、したがって、出射光ビーム325は、出射画素321の特定の位置に応じて、異なる方向にコリメートされ得る。したがって、画素アレイ320内の異なる画素321は、見物人の位置に応じて、ユーザの顔の3D表現の異なる画角を提供することができる。
【0045】
図3Cは、マイクロレンズアレイ300の平面図であり、ハニカムパターンを示す。
【0046】
図3Dは、開口部マスク315の開口部がマイクロレンズアレイ300の中心になるように、開口部マスク315が隣接して配置されたマイクロレンズアレイ300を示す。いくつかの実施形態では、開口部マスク315は、(図示のように)500μmのヘキサパックピッチにわたって約400μmの開口部を有するクロムを含むことができる。開口部マスク315は、マイクロレンズアレイ300のいずれかの側、又は両方の側で、第1の面又は第2の面310と整列することができる。
【0047】
図4は、いくつかの実施形態による、AR/VRデバイスのユーザの顔の逆パススルー画像を見物人に提供するためのライトフィールドディスプレイ450の光線追跡図を示す。ライトフィールドディスプレイ450は、いくつかの実施形態によれば、AR又はVRデバイスのユーザの顔の広角で高解像度のビューを前方の見物人に提供するために使用されるマイクロレンズアレイ400を含む。マイクロレンズアレイ400は、本明細書に開示されるように、二次元パターンに配置された複数のマイクロレンズ401を含む。画素アレイ420は、AR又はVRデバイスのユーザの顔の少なくとも一部の3Dレンディションを生成するためにマイクロレンズアレイ400を透過する光線423を提供する複数の画素421を含むことができる。マイクロレンズアレイ400は、開口部マスク415を含んでもよい。開口部マスク415は、マイクロレンズアレイ400の各マイクロレンズの縁部付近に遮蔽要素を設ける。遮蔽要素は、見物人用にユーザの顔の正面図を形成する光線425Aに対して光線425B及び425Cの量を減少させる。これにより、スクリーンの前に位置し、ユーザの顔の3Dレンディション(
図4によると下向き)を見ている見物人のクロストーク及びゴースト効果が低減される。
【0048】
図5A~
図5Cは、いくつかの実施形態による、AR又はVRデバイスのユーザの顔の広角で高解像度のビューを提供するための、マイクロレンズアレイにおける分解能特性500A、500B、及び500C(以下、総称して「分解能特性500」)の異なる態様を示す。分解能特性500の横軸521(X軸)は、ユーザの顔(例えば、ユーザの眼)とマイクロレンズアレイとの間の画像距離(mm)を示す。分解能特性500における縦座標522(Y軸)は、AR又はVRデバイスを装着したユーザから約1メートル離れた位置にいる見物人が見たときの周波数値、例えば、ミリメートル当りのディスプレイ上の特徴サイクル(サイクル/mm)で与えられる、光ディスプレイ及びスクリーンを含む光学系の解像度である。
【0049】
図5Aは、見物人がディスプレイと区別することができる最高周波数であるカットオフ値を含む分解能特性500Aを示す。曲線501-1A及び501-2A(以下、総称して「曲線501A」と呼ぶ)は、2つの異なるヘッドセットモデル(それぞれ、モデル1及びモデル2と呼ぶ)に関連付けられる。具体的な解像度は、画像距離、及びマイクロレンズアレイのピッチ(例えば、ピッチ305)などのスクリーンに関する他のパラメータに依存する。一般に、ユーザの目と画面との間の距離が大きいほど、解像度カットオフは単調に減少する(横軸521に沿って右へ)。これは、曲線501-2Aのカットオフ値510-2A(約0.1サイクル/mm)と曲線501-1Aのカットオフ値510-1A(約0.25サイクル/mm)との差によって示される。実際、曲線501-2Aのヘッドセットモデルの画像距離は、曲線501-1Aのヘッドセットモデル(ユーザの眼とディスプレイとの間は約5cm)よりも長い(ユーザの顔とディスプレイとの間は10cmに近い)。また、ピッチの広いマイクロレンズアレイ(モデル2、500μmピッチ)の場合、ピッチの狭いマイクロレンズアレイ(モデル1、200μmピッチ)と比較して、解像度カットオフが低下する。
【0050】
図5Bは、点510Bにおいて約5cmの画像距離で約0.3サイクル/mmの空間周波数を提供するライトフィールドディスプレイモデル(モデル3)の曲線501Bを含む分解能特性500Bを示す。
【0051】
図5Cは、曲線501-1C、501-2C、501-3C、501-4C(以下、総称して「曲線501C」と呼ぶ)を含む分解能特性500Cを示す。分解能特性500Cの横軸521C(X軸)は、ヘッドセットの奥行き(例えば、ユーザの眼/顔とライトフィールドディスプレイとの間の距離に類似)を示し、縦軸522C(Y軸)はライトフィールドディスプレイ内の画素アレイの画素ピッチ(ミクロン単位、μm)を示す。曲線501Cのそれぞれは、各ライトフィールドディスプレイモデルについてのサイクル数/mmカットオフ解像度を示す。点510Bは、高密度画素充填(ピッチは10μm未満)及び約25mm(例えば、約1インチ以下)の接近したヘッドセットの奥行きを有するライトフィールドディスプレイモデル(モデル4)の点510Cで得られる、より良好な解像度と比較して示されている。
【0052】
図5Dは、ライトフィールドディスプレイモデルの各々について、見物人によるヘッドセットを着用しているユーザの画像510-1D及び510-2Dを示す。画像510-1Dはモデル3で得られ、画像510-2Dはモデル4で得られる(それぞれ、点510B及び510Cを参照)。モデル4の解像度性能は、モデル3よりも確実に優れており、本開示と矛盾することなく、モデル設計に関して他のトレードオフを考慮した上で、所望の解像度に対応する幅広い可能性があることを示している。
【0053】
図6は、いくつかの実施形態による、AR又はVRデバイスのユーザの顔の一部の3Dレンディション621A及び621B(以下、総称して「3Dレンディション621」と呼ぶ)を示す。いくつかの実施形態では、3Dレンディション621は、ユーザの顔の少なくとも一部(例えば、眼)の複数の2D画像611上で動作するモデル650によって提供され、AR又はVRデバイス(アイイメージングシステム115及びアイカメラ215を参照)のアイイメージングシステムによって提供される。モデル650は、ニューラルネットワーク(NN)、畳み込みニューラルネットワーク(CNN)、機械学習(ML)モデル、及び人工知能(AI)モデルなどの線形及び/又は非線形アルゴリズムを含んでもよい。モデル650は、メモリ回路に記憶され、プロセッサ回路によって実行される命令を含む。メモリ回路及びプロセッサ回路は、AR又はVRデバイスの背面に格納されてもよい(例えば、電子部品20内のメモリ112及びプロセッサ122)。したがって、複数の2D画像611がアイイメージングシステムから受信され、モデル650を作成、更新、及び改善する。複数の2D画像は、少なくとも2つの異なるFOVを含み、例えば、アイイメージングシステム内の2つの異なる立体視カメラのそれぞれから来たものであり、モデル650は、3Dレンディション621を形成するために、どの画像がどのカメラから来たかを決定することができる。次いで、モデル650は、2D画像入力と、2つのアイカメラのFOV間の差の詳細な知識(例えば、カメラ方向ベクトル)とを使用して、AR又はVRデバイスのユーザの顔の少なくとも一部の3Dレンディション621を提供する。
【0054】
図7は、いくつかの実施形態による、VR/ARヘッドセットユーザの顔部分の3Dレンディションに使用されるモデルアーキテクチャ700のブロック図を示す。モデルアーキテクチャ700は、画素整列ボリュメトリックアバター(PVA)モデルである。PVAモデル700は、複数の2D入力画像701-1、701-2、及び701-n(以下、総称して「入力画像701」と呼ぶ)を生成する多視点画像コレクションから学習される。入力画像701のそれぞれは、その特定の画像に対するユーザの顔の視野方向を示すカメラビューベクトルv
i(例えば、v
1、v
2及びv
n)に関連付けられる。ベクトルv
iのそれぞれは、カメラ固有パラメータK
i及び回転R
i(例えば、{K
i、[R|t]
i})に関連する既知の視点711である。カメラ固有のパラメータK
iは、輝度、カラーマッピング、センサ効率、及び他のカメラ依存パラメータを含むことができる。回転R
iは、カメラに対する対象の頭の向き(及び距離)を示す。カメラセンサが異なると、同じカメラモデルであるという事実にもかかわらず、同じ入射ラディアンスに対する応答がわずかに異なる。これに対処するために何も行われない場合、強度差は最終的にシーン表現Nに焼き付けられ、特定の視点から画像が不自然に明るくなったり暗くなったりする。これに対処するために、カメラごとのバイアス及びゲイン値を学習する。これにより、システムはデータのばらつきを説明する「より簡単な」方法を有することができる。
【0055】
「n」の値は純粋に例示的なものであり、当業者であれば、任意の数のn個の入力画像701を使用できることを理解するであろう。PVAモデル700は、ヘッドセットユーザのボリュメトリックレンディション721を生成する。ボリュメトリックレンディション721は、ターゲットの視点から対象の2D画像を生成するために使用することができる3Dモデル(例えば、「アバター」)である。この2D画像は、ターゲットの視点が変わると(例えば、見物人がヘッドセットユーザの周りを移動すると)変化する。
【0056】
PVAモデル700は、畳み込みエンコーダ-デコーダ710A、レイマーチングステージ710B、及びラディアンスフィールドステージ710C(以下、総称して「PVAステージ710」と呼ぶ)を含む。PVAモデル700は、最急降下法を使用して、マルチアイデンティティ訓練コーパスから選択された入力画像701で訓練される。したがって、PVAモデル700は、複数の対象からの予測画像と対応するグランドトゥルースとの間で定義される損失関数を含む。これにより、PVAモデル700は、対象とは無関係に正確なボリュメトリックレンディション721をレンダリングすることができる。
【0057】
畳み込みエンコーダ-デコーダネットワーク710Aは、入力画像701を取り込み、画素整列された特徴マップ703-1、703-2、及び703-n(以下、総称して「特徴マップ703」と呼ぶ)を生成する。レイマーチングステージ710Bは、{Kj、[R|t]j}によって定義されるターゲットのビューjの光線に沿って各画素を追跡し、各点においてラディアンスフィールドステージ710Cによって生成された色、c、及び光学濃度(「不透明度」)を累積する。ラディアンスフィールドステージ710C(N)は、3D位置と画素整列された特徴を色と不透明度に変換し、ラディアンスフィールド715(c、σ)をレンダリングする。
【0058】
入力画像701は、方向viに沿ってカメラで収集された2D画像に対応する高さ(h)及び幅(w)を有し、色画素R、G、Bごとに3層の深さを有する3Dオブジェクトである。特徴マップ703は、寸法がh×w×dである3Dオブジェクトである。エンコーダ-デコーダネットワーク710Aは、学習可能な重み721-1、721-2...721-n(以下、総称して「学習可能な重み721」と呼ぶ)を使用して入力画像701を符号化する。レイマーチングステージ710Bは、ワールドからカメラへの投影723、バイリニア補間725、位置の符号化727、及び特徴の集約729を実施する。
【0059】
いくつかの実施形態では、コンディショニングビューv
i∈R
h×w×3の場合、特徴マップ703は、以下のように関数として定義され得る。
【0060】
ここで、φ(X):R
3→R
6×lは、2×l個の異なる基底関数を有する点730(X∈R
3)の位置の符号化である。点730(X)は、対象の2D画像から特定の視点731、r
0に向けられた光線に沿った点である。特徴マップ703(f
(i)∈R
h×w×d)は、カメラ位置ベクトルv
iと関連付けられ、ここで、dは特徴チャネルの数、h及びwは画像の高さ及び幅、f
X∈R
dは点Xと関連付けられた集約された画像特徴である。各特徴マップf
(i)に対して、レイマーチングステージ710Bは、その特定の視点のカメラ固有(K)のパラメータ及び外部(R,t)パラメータを使用して、光線に沿って3D点Xを投影することによってf
X∈R
dを得る。
【0061】
ここで、Πはカメラ画素座標への透視投影関数であり、F(f、x)は画素位置xにおけるfのバイリニア補間725である。レイマーチングステージ710Bは、ラディアンスフィールドステージ710Cのために、複数の画像から画素整列された特徴f(i)
Xを組み合わせる。
【0062】
カメラintrinsic関数K
j、回転と平行移動R
j、t
jを有する所与の訓練画像v
jに対して、カメラと中心731(r
0)∈R
3の焦点面における所与の視点についての画素p∈R
2の予測色は、「カメラから世界への投影行列」P
-1=[R
i|t
i]
-1K
-1
iを使用してシーンに光線(ray)を行進(march)させることによって得られ、光線の方向は次式で与えられる。
【0063】
レイマーチングステージ710Bは、t∈[t
near、t
far]に対してr(t)=r
0+tdによって定義される光線735に沿って、以下のように、ラディアンスと不透明度の値を累積する。
【0064】
【0065】
いくつかの実施形態では、レイマーチングステージ710Bは、n
s点の集合t~[t
near、t
far]を均一にサンプリングする。X=r(t)と設定することにより、求積規則を用いて積分6、7を近似することができる。関数I
α(p)は、以下のように定義することができる。
【0066】
ここで、αi=1-exp(-δi・σi)であり、δiは、光線735に沿ったi+1番目とi番目のサンプル点との間の距離である。
【0067】
既知のカメラ視点v
iと固定数のコンディショニングビューとを持つ多視点設定では、レイマーチングステージ710Bは、単純な連結によって特徴を集約する。具体的には、{R
i}
n
i=1と{ti}ni=1で与えられる対応する回転行列と平行移動行列を有するn個のコンディショニング画像{v
i}
n
i=1に対して、式(3)のように各点Xに対して特徴{f
(i)
x}
n
i=1を用いて、レイマーチングステージ710Bにより以下のように最終特徴が生成される。
【0068】
ここで、
は深度次元に沿った連結を表す。これは、視点からの特徴情報{vi}
n
i=1を保存し、PVAモデル700が最良の組合せを決定し、コンディショニング情報を採用するのに役立つ。
【0069】
いくつかの実施形態では、PVAモデル700は、視点及びコンディショニングビューの数に依存しない。上記のような単純な連結は、この場合、コンディショニングビューの数が事前に分からず、推論時間中に異なる特徴寸法(d)をもたらす可能性があるため、不十分である。多視点設定の特徴を要約すると、いくつかの実施形態は、任意の並べ替えψに対して、以下が成り立つように、順列不変関数G:Rn×d→Rdを含む。
G(f(1)...,f(n))=G([fψ(1),fψ(2)...,fψ(n)])
【0070】
特徴集約のための単純な順列不変関数は、サンプリングされた特徴マップ703の平均である。この集約手順は、訓練中に深度情報が利用可能な場合において望ましい可能性がある。しかしながら、深度の曖昧さがある場合(例えば、サンプリング前に特徴マップ703に投影された点の場合)、上記の集約はアーチファクトをもたらす可能性がある。これを回避するために、いくつかの実施形態は、ラディアンスフィールドステージ710Cにおける効果的なコンディショニングを含むようにカメラ情報を考慮する。したがって、いくつかの実施形態は、特徴ベクトルf
(i)
X、及びカメラ情報(ci)を取り込み、カメラ要約特徴ベクトルf’
(i)
Xを生成するコンディショニング関数ネットワークN
cf:R
d+7→R
d’を含む。次いで、これらの修正されたベクトルは、以下のように複数又は全てのコンディショニングビューにわたって平均化される。
【0071】
この手法の利点は、特徴平均が実施される前に、カメラによって要約された特徴がオクルージョンの可能性を考慮できることである。カメラ情報は、4D回転クォータニオン及び3Dカメラ位置として符号化される。
【0072】
いくつかの実施形態はまた、シーン表現における背景の一部の学習を回避するために、背景推定ネットワークNbgを含めることもできる。背景推定ネットワークNbgは、Nbg:Rnc:→Rh×w×3と定義することができ、カメラごとに固定背景を学習する。いくつかの実施形態では、ラディアンスフィールドステージ710Cは、Nbgを使用して、最終画像画素を以下のように予測することができる。
Ip=Irgb+(1-Iα)・Ibg(11)
【0073】
カメラc
iに対して
である。ここで、
はインペイントを用いて抽出された背景の初期推定値、I
αは式(8)で定義される通りである。これらの塗りつぶされた背景はしばしばノイズが多く、人の頭の周りに「ハロー」効果をもたらす。これを回避するために、N
bgモデルは、インペイントされた背景に対する残差を学習する。これは、バックグラウンドを考慮するために大容量ネットワークを必要としないという利点を有する。
【0074】
ターゲットのグランドトゥルース画像v
jについて、PVAモデル700は、単純なフォトメトリック再構成損失を使用して、ラディアンスフィールドステージ710Cと特徴抽出ネットワークの両方を訓練する。
【0075】
図8A~
図8Dは、いくつかの実施形態による、仮想現実ヘッドセット内の自動立体視ディスプレイにユーザの顔の一部のビューを提供するようにモデルを訓練するための方法における要素及びステップを示す図である。接眼レンズ800は、複数のユーザからの複数の訓練画像811で訓練される。画像の特徴833-1B、833-2B、及び833Cの細部を復元するために、テクスチャマップ及び深度マップ(以下、総称して「テクスチャ深度マップ833」と呼ぶ)を含む、各ユーザの3Dモデル821が作成される。3Dモデル821が生成されると、ユーザの顔の三次元再構成の自動立体視画像がライトフィールドディスプレイの画素アレイに提供される。ライトフィールドディスプレイは、アクティブ画素の複数のセグメントに分離され、各セグメントは、見物人のための選択された画角で3Dモデル821の視野の一部を提供する。
【0076】
図8Aは、いくつかの実施形態による、複数の訓練画像811を接眼レンズ800上に収集するためのセットアップ850を示す。訓練画像811は、ディスプレイによって提供され、接眼レンズがヘッドセット内に組み立てられたときにホットミラーがあるのと同じ位置に配置されたスクリーン812上に投影され得る。1つ又は複数の赤外線カメラ815は反射モードで訓練画像811を収集し、1つ又は複数のRGBカメラ825は透過モードで訓練画像を収集する。セットアップ850は、全ての訓練画像811に対して固定された、画像ベクトル801-1、IRカメラベクトル801-2、及びRGBカメラベクトル801-3(以下、総称して「位置決めベクトル801」と呼ぶ)を有する。位置決めベクトル801は、3Dモデル821に関連するサイズ、距離、及び画角を正確に評価するためにアルゴリズムモデルによって使用される。
【0077】
図8Bは、いくつかの実施形態による、テクスチャ画像833-1B及び深度画像833-2Bを示す。RGBカメラ825を使用した訓練画像の撮影からテクスチャ画像833-1B取得してもよく、IRカメラ815を使用した訓練画像から深度画像833-2Bを取得してもよい。
【0078】
図8Cは、いくつかの実施形態による、IRカメラ815で収集された深度画像833Cを示す。
図8Dは、いくつかの実施形態による、接眼レンズ800に関連して形成された3Dモデル821を示す。
【0079】
図9は、いくつかの実施形態による、VR/ARヘッドセットユーザの顔の自動立体視ビューを提供するための方法900におけるフローチャートを示す。方法900のステップは、メモリに記憶された命令を実行するプロセッサによって少なくとも部分的に実施されてもよく、プロセッサ及びメモリは、本明細書に開示されるヘッドセットの電子部品(例えば、メモリ112、プロセッサ122、電子部品20、及びヘッドセット10)の一部である。更に他の実施形態では、方法900と一致する方法のステップのうちの少なくとも1つ又は複数は、メモリに記憶された命令を実行するプロセッサによって実施されてもよく、プロセッサ及びメモリのうちの少なくとも1つは、クラウドサーバ内に遠隔配置され、ヘッドセットデバイスは、ネットワークに結合された通信モジュール(通信モジュール118を参照)を介してクラウドサーバに通信可能に結合される。いくつかの実施形態では、方法900は、本明細書で開示されるように(例えば、モデル650、モデルアーキテクチャ700)、機械学習又は人工知能アルゴリズムにニューラルネットワークアーキテクチャを含むモデルを用いて実施することができる。いくつかの実施形態では、本開示と一致する方法は、異なる順序で、同時に、準同時に、又は時間的に重複して実施される、方法900からの少なくとも1つ又は複数のステップを含むことができる。
【0080】
ステップ902は、ヘッドセットユーザである対象の少なくとも2つ以上の視野を有する複数の画像を1つ又は複数のヘッドセットカメラから受信することを含む。
【0081】
ステップ904は、学習可能な重みのセットを用いて画像から複数の画像特徴を抽出することを含む。いくつかの実施形態では、ステップ904は、走査線に沿って画像特徴を照合して、第1の解像度設定でコストボリュームを構築し、粗い視差推定を提供することを含む。いくつかの実施形態では、ステップ904は、第1の解像度設定よりも高い第2の解像度設定で、小さな細部や薄い構造を含む1つ又は複数の画像特徴を復元することを含む。いくつかの実施形態では、ステップ904は、画像特徴に基づいてユーザの顔の部分のテクスチャマップ及びユーザの顔の部分の深度マップを生成することを含み、テクスチャマップは画像特徴の色詳細を含み、深度マップは画像特徴の深度位置を含む。いくつかの実施形態では、ステップ904は、各画像を収集するために用いられるヘッドセットカメラの固有の特性を抽出することを含む。
【0082】
ステップ906は、学習可能な重みを用いて対象の三次元モデルを形成することを含む。
【0083】
ステップ908は、対象の三次元モデルを、対象の画像投影と見物人のための選択された観察点とを関連付ける自動立体視ディスプレイフォーマットにマッピングすることを含む。いくつかの実施形態では、ステップ908は、ライトフィールドディスプレイの1つのセグメントに、見物人のための選択された視点におけるユーザの顔の視野の一部を提供することを含む。いくつかの実施形態では、ステップ908は、1人又は複数の見物人を追跡して画角を特定し、1人又は複数の見物人のそれぞれに対して視野を最適化するライトフィールドディスプレイを修正することを更に含む。いくつかの実施形態では、ステップ908は、第1の観察点と関連付けられた特徴マップを、第2の観察点と関連付けられた特徴マップで補間することを含む。いくつかの実施形態では、ステップ908は、選択された観察点の方向に沿って複数の画素の画像特徴を集約することを含む。いくつかの実施形態では、ステップ908は、順列不変の組合せで各ヘッドセットカメラによって生成された複数の特徴マップを連結することを含み、各ヘッドセットカメラは固有の特性を有する。
【0084】
ステップ910は、見物人が選択された観察点に位置するときに対象の画像投影をディスプレイに提供することを含む。いくつかの実施形態では、ステップ910は、見物人が第1の観察点から第2の観察点に移動する際に、デバイスディスプレイ上に、第2の画像投影を提供することを含む。
【0085】
図10は、ユーザの顔の一部の複数の二次元(2D)画像からユーザの顔の一部の三次元(3D)ビューをレンダリングするための方法1000におけるフローチャートを示す。方法1000のステップは、メモリに記憶された命令を実行するプロセッサによって少なくとも部分的に実施されてもよく、プロセッサ及びメモリは、本明細書に開示されるヘッドセットの電子部品(例えば、メモリ112、プロセッサ122、電子部品20、及びヘッドセット10)の一部である。更に他の実施形態では、方法1000と一致する方法におけるステップのうちの少なくとも1つ又は複数は、メモリに記憶された命令を実行するプロセッサによって実施されてもよく、プロセッサ及びメモリのうちの少なくとも1つは、クラウドサーバ内に遠隔配置され、ヘッドセットデバイスは、ネットワークに結合された通信モジュール(通信モジュール118を参照)を介してクラウドサーバに通信可能に結合される。いくつかの実施形態では、方法1000は、本明細書で開示されるように、機械学習又は人工知能アルゴリズムにニューラルネットワークアーキテクチャを含むモデル(例えば、モデル650、モデルアーキテクチャ700)を用いて実施され得る。いくつかの実施形態では、本開示と一致する方法は、異なる順序で、同時に、準同時に、又は時間的に重複して実施される方法1000からの少なくとも1つ又は複数のステップを含むことができる。
【0086】
ステップ1002は、複数のユーザの顔から複数のグランドトゥルース画像を収集することを含む。
【0087】
ステップ1004は、記憶され較正された立体視画像のペアを用いてグランドトゥルース画像を補正することを含む。いくつかの実施形態では、ステップ1004は、学習可能な重みのセットを用いて二次元画像から複数の画像特徴を抽出することを含む。いくつかの実施形態では、ステップ1004は、二次元画像を収集するために使用されるカメラの固有の特性を抽出することを含む。
【0088】
ステップ1006は、対象の三次元モデルを、対象の画像投影と見物人のための選択された観察点とを関連付ける自動立体視ディスプレイフォーマットにマッピングすることを含む。いくつかの実施形態では、ステップ1006は、対象の三次元モデルと見物人のための選択された観察点との間の方向に沿って画像特徴を投影することを含む。いくつかの実施形態では、ステップ1006は、第1の方向に関連付けられた特徴マップを第2の方向に関連付けられた特徴マップで補間することを含む。いくつかの実施形態では、ステップ1006は、対象の三次元モデルと選択された観察点との間の方向に沿った複数の画素について画像特徴を集約することを含む。いくつかの実施形態では、ステップ1006は、複数のカメラの各々によって生成された複数の特徴マップを順列不変の組合せで連結することを含み、複数のカメラの各々は固有の特性を有する。
【0089】
ステップ1008は、グランドトゥルース画像と対象の画像投影との間の差に基づいて損失値を決定することを含む。いくつかの実施形態では、ステップ1008は、対象の三次元モデルの自動立体視画像を見物人に提供することを含む。いくつかの実施形態では、ステップ1008は、対象の三次元モデルの自動立体視画像と対象のグランドトゥルース画像との間の差に基づいて損失関数を評価することと、損失関数に基づいて学習可能な重みのセットの少なくとも1つを更新することとを含む。
【0090】
ステップ1010は、損失値に基づいて対象の三次元モデルを更新することを含む。
【0091】
図11は、いくつかの実施形態による、ユーザの顔の一部の複数の二次元(2D)画像からユーザの顔の一部の三次元(3D)ビューをレンダリングするモデルを訓練するための方法1100におけるフローチャートを示す。方法1100のステップは、メモリに記憶された命令を実行するプロセッサによって少なくとも部分的に実施されてもよく、プロセッサ及びメモリは、本明細書に開示されるヘッドセットの電子部品(例えば、メモリ112、プロセッサ122、電子部品20、及びヘッドセット10)の一部である。更に他の実施形態では、方法1100と一致する方法におけるステップのうちの少なくとも1つ又は複数は、メモリに記憶された命令を実行するプロセッサによって実施されてもよく、プロセッサ及びメモリのうちの少なくとも1つは、クラウドサーバ内に遠隔配置され、ヘッドセットデバイスは、ネットワークに結合された通信モジュール(通信モジュール118を参照)を介してクラウドサーバに通信可能に結合される。いくつかの実施形態では、方法1100は、本明細書で開示されるように、機械学習又は人工知能アルゴリズムにニューラルネットワークアーキテクチャを含むモデル(例えば、モデル650、モデルアーキテクチャ700)を使用して実施することができる。いくつかの実施形態では、本開示と一致する方法は、異なる順序で、同時に、準同時に、又は時間的に重複して実施される方法1100からの少なくとも1つ又は複数のステップを含むことができる。
【0092】
ステップ1102は、複数のユーザの顔から複数のグランドトゥルース画像を収集することを含む。
【0093】
ステップ1104は、記憶され較正された立体視画像のペアを用いてグランドトゥルース画像を補正することを含む。
【0094】
ステップ1106は、三次元顔モデルを用いて、対象の複数の合成ビューを生成することを含み、対象の合成ビューは、対象の複数のビューに対応する異なる方向に沿って投影された複数の特徴マップの補間を含む。いくつかの実施形態では、ステップ1106は、選択された観察方向に沿ってグランドトゥルース画像の各々から画像特徴を投影することと、順列不変の組合せでグランドトゥルース画像の各々によって生成された複数の特徴マップを連結することとを含み、グランドトゥルース画像の各々は固有の特性を有する。
【0095】
ステップ1108は、グランドトゥルース画像と対象の合成ビューとの間の差に基づいて三次元顔モデルを訓練することを含む。いくつかの実施形態では、ステップ1108は、グランドトゥルース画像と対象の合成ビューとの間の差を示す損失関数の値に基づいて、特徴マップ内の複数の特徴のそれぞれに対する学習可能な重みのセット内の少なくとも1つを更新することを含む。いくつかの実施形態では、ステップ1108は、複数のグランドトゥルース画像から投影された画素背景値に基づいて、グランドトゥルース画像内の複数の画素の各々の背景値を訓練することを含む。
【0096】
ハードウェアの概要
図12は、ヘッドセット10、並びに方法900、1000、及び1100を実施することができる例示的なコンピュータシステム1200を示すブロック図である。特定の態様では、コンピュータシステム1200は、専用のサーバにあるか、別の実体に統合されているか、又は複数の実体に分散されているかのいずれかで、ハードウェア、又はソフトウェアとハードウェアの組合せを用いて実装され得る。コンピュータシステム1200は、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、ファブレット、スマートフォン、フィーチャフォン、サーバコンピュータ、その他を含み得る。サーバコンピュータは、データセンタ内に遠隔配置されてもよく、又は、ローカルに格納されてもよい。
【0097】
コンピュータシステム1200は、情報を通信するためのバス1208又は他の通信機構と、情報を処理するためにバス1208に結合されたプロセッサ1202(例えば、プロセッサ122)とを含む。例として、コンピュータシステム1200は、1つ又は複数のプロセッサ1202を用いて実現され得る。プロセッサ1202は、汎用マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックデバイス(PLD)、コントローラ、ステートマシン、ゲーテッド論理、ディスクリートハードウェア構成要素、又は計算もしくは情報の他の操作を実施することができる任意の他の適切な実体であってもよい。
【0098】
コンピュータシステム1200は、ハードウェアに加えて、当該コンピュータプログラムの実行環境を作り出すコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステムを構成するコード、又はランダムアクセスメモリ(RAM)、フラッシュメモリ、読み出し専用メモリ(ROM)、プログラマブル読み出し専用メモリ(PROM)、消去可能PROM(EPROM)、レジスタ、ハードディスク、リムーバブルディスク、CD-ROM、DVD、又はプロセッサ1202によって実行される情報及び命令を記憶するためにバス1208と結合された任意の他の適切な記憶装置など、含まれるメモリ1204(例えば、メモリ112)に記憶されたコードのうちの1つ又は複数の組合せを含むことができる。プロセッサ1202及びメモリ1204は、専用論理回路によって補完されるか、又は専用論理回路に組み込まれ得る。
【0099】
命令は、メモリ1204に記憶され、1つ又は複数のコンピュータプログラム製品、例えば、コンピュータシステム1200による実行のための、又はその動作を制御するためのコンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1つ又は複数のモジュールで実装されてもよく、データ指向言語(例えば、SQL、dBase)、システム言語(例えば、C、Objective-C、C++、アセンブリ)、アーキテクチャ言語(例えば、Java、.NET)、及びアプリケーション言語(例えば、PHP、Ruby、Perl、Python)などのコンピュータ言語を含むがこれらに限定されない、当業者に周知の任意の方法に従って実装されてもよい。命令はまた、アレイ言語、アスペクト指向言語、アセンブリ言語、オーサリング言語、コマンドラインインタフェース言語、コンパイル言語、並列言語、カーリーブラケット言語、データフロー言語、データ構造化言語、宣言型言語、難解言語、拡張言語、第四世代言語、機能言語、対話型モード言語、解釈型言語、反復型言語、リストベース言語、リトル言語、論理ベース言語、機械言語、マクロ言語、メタプログラミング言語、マルチパラダイム言語、数値解析、非英語ベース言語、オブジェクト指向クラスベース言語、オブジェクト指向プロトタイプベース言語、オフサイドルール言語、手続き型言語、反射型言語、ルールベース言語、スクリプト言語、スタックベース言語、同期型言語、構文処理言語、視覚型言語、ワースト言語、及びXMLベース言語などのコンピュータ言語で実装されてもよい。メモリ1204はまた、プロセッサ1202によって実行される命令の実行中に一時変数又は他の中間情報を記憶するために使用されてもよい。
【0100】
本明細書で説明されるコンピュータプログラムは、必ずしもファイルシステム内のファイルに対応するとは限らない。プログラムは、他のプログラム又はデータを保持するファイルの一部(例えば、マークアップ言語文書に記憶された1つ又は複数のスクリプト)、問題のプログラム専用の単一のファイル、又は複数の調整ファイル(例えば、1つ又は複数のモジュール、サブプログラム、又はコードの一部を記憶するファイル)に記憶することができる。コンピュータプログラムは、1台のコンピュータ上で実行されるか、又は1つのサイトに配置された、又は複数のサイトに分散され、通信ネットワークによって相互接続された複数のコンピュータ上で実行されるように展開することができる。本明細書で説明するプロセス及び論理フローは、1つ又は複数のコンピュータプログラムを実行する1つ又は複数のプログラマブルプロセッサによって実施され、入力データに対して動作し、出力を生成することによって機能を果たすことができる。
【0101】
コンピュータシステム1200は、情報及び命令を記憶するためにバス1208と結合された、磁気ディスク又は光ディスクなどのデータ記憶装置1206を更に含む。コンピュータシステム1200は、入力/出力モジュール1210を介して様々なデバイスに結合され得る。入力/出力モジュール1210は、任意の入力/出力モジュールであり得る。例示的な入力/出力モジュール1210は、USBポートなどのデータポートを含む。入力/出力モジュール1210は、通信モジュール1212に接続するように構成される。例示的な通信モジュール1212は、イーサネットカード及びモデムなどのネットワーキングインタフェースカードを含む。特定の態様では、入力/出力モジュール1210は、入力デバイス1214及び/又は出力デバイス1216などの複数のデバイスに接続するように構成される。例示的な入力デバイス1214には、キーボードやポインティングデバイス、例えば、マウス又はトラックボールが含まれ、これにより消費者はコンピュータシステム1200に入力を提供することができる。他の種類の入力デバイス1214も、触覚入力デバイス、視覚入力デバイス、音声入力デバイス、又は脳コンピュータインタフェースデバイスなど、消費者との対話を提供するために使用することができる。例えば、消費者に提供されるフィードバックは、例えば、視覚的フィードバック、聴覚的フィードバック、又は触覚的フィードバックなど、任意の形態の感覚フィードバックであり得、消費者からの入力を、音響入力、音声入力、触覚入力、又は脳波入力を含む任意の形態で受け取ることができる。例示的な出力デバイス1216には、消費者に情報を表示するためのLCD(液晶ディスプレイ)モニタなどの表示装置が含まれる。
【0102】
本開示の一態様によれば、ヘッドセット10は、プロセッサ1202がメモリ1204に含まれる1つ又は複数の命令の1つ又は複数のシーケンスを実行することに応答して、少なくとも部分的にコンピュータシステム1200を使用して実装され得る。このような命令は、データ記憶装置1206などの別の機械可読媒体からメモリ1204に読み込まれてもよい。メインメモリ1204に含まれる命令シーケンスの実行により、プロセッサ1202は本明細書で説明するプロセスステップを実施する。メモリ1204に含まれる命令シーケンスを実行するために、マルチ処理構成の1つ又は複数のプロセッサを採用することもできる。代替的な態様では、本開示の様々な態様を実施するために、ソフトウェア命令の代わりに、又はソフトウェア命令と組み合わせて、ハードワイヤード回路を使用することができる。したがって、本開示の態様は、ハードウェア回路とソフトウェアとの特定の組合せに限定されない。
【0103】
本明細書で説明する主題の様々な態様は、データサーバなどのバックエンド構成要素を含む、又はアプリケーションサーバなどのミドルウェア構成要素を含む、又はフロントエンド構成要素、例えば、消費者が本明細書で説明する主題の実装と対話することができるグラフィカル消費者インタフェース又はウェブブラウザを有するクライアントコンピュータを含むコンピューティングシステムで実装することができ、又は1つ又は複数のこのようなバックエンド、ミドルウェア、もしくはフロントエンド構成要素の任意の組合せで実装することができる。システムの構成要素は、任意の形態又は媒体のデジタルデータ通信、例えば、通信ネットワークによって相互接続することができる。通信ネットワークは、例えば、LAN、WAN、インターネットなどのうちのいずれか1つ又は複数を含むことができる。更に、通信ネットワークは、例えば、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スターバスネットワーク、ツリー又は階層ネットワークなどを含む、以下のネットワークトポロジのいずれか1つ又は複数を含むことができるが、これらに限定されない。通信モジュールは、例えば、モデムやイーサネットカードであり得る。
【0104】
コンピュータシステム1200は、クライアント及びサーバを含むことができる。クライアント及びサーバは、一般に、互いに遠隔にあり、通常、通信ネットワークを介して対話する。クライアントとサーバとの関係は、それぞれのコンピュータ上で作動するコンピュータプログラムが互いにクライアント-サーバの関係を有することによって生じる。コンピュータシステム1200は、例えば、限定はしないが、デスクトップコンピュータ、ラップトップコンピュータ、又はタブレットコンピュータであり得る。コンピュータシステム1200はまた、例えば、限定するものではないが、携帯電話、PDA、モバイルオーディオプレーヤ、全地球測位システム(GPS)受信機、ビデオゲームコンソール、及び/又はテレビセットトップボックスなどの別のデバイスに組み込むこともできる。
【0105】
本明細書で使用される「機械可読記憶媒体」又は「コンピュータ可読媒体」という用語は、実行のためにプロセッサ1202に命令を提供することに関与する任意の1つ又は複数の媒体を指す。そのようなメディアは、不揮発性メディア、揮発性メディア、および送信メディアを含むがそれらには限定されない多くの形態を取ることが可能である。不揮発性媒体は、例えば、データ記憶装置1206などの光ディスク又は磁気ディスクを含む。揮発性媒体は、メモリ1204などのダイナミックメモリを含む。伝送媒体は、バス1208を形成するワイヤを含む、同軸ケーブル、銅線、及び光ファイバを含む。機械可読媒体の一般的な形態には、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、その他の任意の磁気媒体、CD-ROM、DVD、その他の任意の光学媒体、パンチカード、紙テープ、孔のパターンを有するその他の任意の物理媒体、RAM、PROM、EPROM、FLASH EPROM、その他の任意のメモリチップもしくはカートリッジ、又はコンピュータが読取り可能なその他の任意の媒体がある。機械可読記憶媒体は、機械可読記憶デバイス、機械可読記憶基板、メモリデバイス、機械可読伝播信号に影響を及ぼす物質の組成物、又はそれらの1つもしくは複数の組合せであり得る。
【0106】
ハードウェアとソフトウェアの互換性を説明するために、様々な例示的なブロック、モジュール、構成要素、方法、動作、命令、及びアルゴリズムなどの項目は、これらの機能性の観点から一般的に説明してきた。このような機能性がハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組合せとして実装されるかどうかは、特定の用途及びシステム全体に課される設計制約に依存する。当業者は、特定の用途ごとに様々な方法で説明された機能を実装することができる。
【0107】
本明細書で使用する場合、「及び」又は「又は」という用語で項目のいずれかを区切り、一連の項目に先行する「少なくとも1つ」という表現は、リストの各メンバー(例えば、各項目)ではなく、リスト全体を修飾する。「少なくとも1つの」という語句は、少なくとも1つの項目を選択することを要するのではなく、それよりもむしろ、この語句により、項目のいずれか1つの少なくとも1つ、及び/又は項目のいずれかの組合せの少なくとも1つ、及び/又は項目それぞれの少なくとも1つを含むという意味を可能にしている。例として、「A、B、及びCのうち少なくとも1つ」又は「A、B、又はCのうち少なくとも1つ」という語句はそれぞれ、Aのみ、Bのみ、又はCのみ、A、B、及びCの任意の組合せ、並びに/あるいはA、B、及びCそれぞれのうち少なくとも1つを指す。
【0108】
「例示」という語句は、本明細書では、「例、実例、又は例示としての役割を果たす」ことを意味するのに使用される。本明細書において「例示」として記載されるあらゆる実施形態は、必ずしも他の実施形態よりも好ましいか又は有利なものとして解釈されるものではない。一態様、その態様、別の態様、いくつかの態様、1つ又は複数の態様、一実装、その実装、別の実装、いくつかの実装、1つ又は複数の実装、一実施形態、その実施形態、別の実施形態、いくつかの実施形態、1つ又は複数の実施形態、一構成、その構成、別の構成、いくつかの構成、1つ又は複数の構成、主題技術、開示、本開示、これらの他の変形などの語句は、便宜上のものであり、このような語句に関連する開示が主題技術に必須であること、又はこのような開示が主題技術の全ての構成に適用されることを意味するものではない。このような語句に関する開示は、全ての構成又は1つもしくは複数の構成に適用することができる。このような語句に関する開示は、1つ又は複数の例を提供することができる。1つの態様又はいくつかの態様などの語句は、1つ又は複数の態様を指すことができ、その逆も同様であり、これは他の前述の語句にも同様に適用される。
【0109】
単数形での要素の参照は、具体的に規定されていない限り、「唯1つのもの」であることを意味しようとするものではなく、「1つ又は複数」を意味する。「いくつかの」という用語は、1つ又は複数を指す。下線及び/又は斜体の見出し及び小見出しは、便宜上のみ使用されており、主題技術を限定するものではなく、主題技術の説明の解釈に関連して言及されるものではない。第1、第2などの関係用語は、ある実体や行為を別の実体や行為から区別するために使用されることがあるが、このような実体や行為間の実際のこのような関係や順序を必ずしも必要としたり、示唆したりするものではない。本開示を通じて説明される様々な構成の要素に対する構造的及び機能的等価物のうち、当業者に公知であるか、又は後に公知となるものは全て、本主題技術に包含される。更に、本明細書で開示されるものは、このような開示が上記の説明で明示的に述べられているか否かにかかわらず、一般に公開されることを意図したものではない。請求項のいかなる要素も、その要素が「のための手段(means for)」という語句を使用して明示的に記載されていない限り、又は方法請求項の場合は、その要素が「のためのステップ(step for)」という語句を使用して記載されていない限り、35U.S.C.§112の第6パラグラフの規定に基づいて解釈されない。
【0110】
本明細書には多くの詳細が含まれるが、これらは、説明され得る事項の範囲に対する制限として解釈されるべきではなく、むしろ主題の特定の実施態様の説明として解釈されるべきである。別個の実施形態の文脈において本明細書に記載される特定の特徴は、単一の実施形態において組合せで実現することもできる。逆に、単一の実施形態の文脈において記載される様々な特徴を、複数の実施形態において別個に、または任意の好適な下位の組合せで実現することもできる。更に、上記では、特徴が特定の組合せで作用するものとして説明され、当初はそのように説明されることさえあるが、場合によっては、説明された組合せからの1つ又は複数の特徴をその組合せから除外することができ、説明された組合せは、下位の組合せ又は下位の組合せの変形に向けられることがある。
【0111】
本明細書の主題を特定の態様について説明してきたが、他の態様も実施することができ、以下の特許請求の範囲内にある。例えば、動作は特定の順序で図面に示されるが、これは、所望の結果を達成するのに、かかる動作が図示される特定の順序又は連続順序で実施されること、あるいは図示される全ての動作が実施されることを要するものと理解されるべきではない。特許請求の範囲で列挙される行動は、異なる順序で実施し、かつ依然として望ましい結果を達成することができる。一例として、添付図面に示されるプロセスは、所望の結果を達成するのに、図示される特定の順序又は連続順序を必ずしも要するものではない。特定の状況では、マルチタスキング及び並列処理が有利であってもよい。更に、上述した態様における様々なシステム構成要素の分離は、全ての態様においてかかる分離を要するものと理解されるべきではなく、記載するプログラム構成要素及びシステムを、一般に、単一のソフトウェア製品で互いに統合するか、又は複数のソフトウェア製品にパッケージングすることができるものと理解されるべきである。
【0112】
表題、背景、図面の簡単な説明、要約、及び図面は、本明細書によって本開示に組み込まれ、限定的な説明としてではなく、本開示の例示的な例として提供される。特許請求の範囲又は意味を限定するために使用されないことを理解して提出される。更に、詳細な説明では、説明は例示的な例を提供し、様々な特徴は本開示を簡素化する目的で様々な実施態様で一緒にグループ化されることが分かる。本開示の方法は、説明された主題が各請求項に明示的に記載されているよりも多くの特徴を必要とするという意図を反映すると解釈されるべきではない。むしろ、特許請求の範囲が反映するように、本発明の主題は、開示された単一の構成又は動作の全ての特徴にあるわけではない。これにより、特許請求の範囲は詳細な説明に組み込まれ、各請求項は別個に説明される主題として独立して成立する。
【0113】
特許請求の範囲は、本明細書に記載された態様に限定されることを意図するものではなく、言語特許請求の範囲と一致する全範囲が与えられ、全ての法的同等物を包含するものとする。それにもかかわらず、特許請求の範囲のいずれも、適用される特許法の要件を満たさない主題を包含するものではなく、そのように解釈されるべきでもない。
【国際調査報告】