IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ オキュラス ブイアール,エルエルシーの特許一覧

<>
  • 特開-様式化されたアバターへの表情の転送 図1
  • 特開-様式化されたアバターへの表情の転送 図2
  • 特開-様式化されたアバターへの表情の転送 図3
  • 特開-様式化されたアバターへの表情の転送 図4
  • 特開-様式化されたアバターへの表情の転送 図5
  • 特開-様式化されたアバターへの表情の転送 図6
  • 特開-様式化されたアバターへの表情の転送 図7
  • 特開-様式化されたアバターへの表情の転送 図8A
  • 特開-様式化されたアバターへの表情の転送 図8B
  • 特開-様式化されたアバターへの表情の転送 図9
  • 特開-様式化されたアバターへの表情の転送 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024014861
(43)【公開日】2024-02-01
(54)【発明の名称】様式化されたアバターへの表情の転送
(51)【国際特許分類】
   G06T 13/40 20110101AFI20240125BHJP
   G06F 3/01 20060101ALN20240125BHJP
【FI】
G06T13/40
G06F3/01 510
【審査請求】未請求
【請求項の数】20
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2023119676
(22)【出願日】2023-07-24
(31)【優先権主張番号】63/391,645
(32)【優先日】2022-07-22
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】18/056,986
(32)【優先日】2022-11-18
(33)【優先権主張国・地域又は機関】US
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
2.JAVA
3.PYTHON
(71)【出願人】
【識別番号】515046968
【氏名又は名称】メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー
【氏名又は名称原語表記】META PLATFORMS TECHNOLOGIES, LLC
(74)【代理人】
【識別番号】110002974
【氏名又は名称】弁理士法人World IP
(72)【発明者】
【氏名】オカンポ, クリストファー ジョン
(72)【発明者】
【氏名】カドガン, ミルトン
(72)【発明者】
【氏名】クオ, ペイホン
【テーマコード(参考)】
5B050
5E555
【Fターム(参考)】
5B050AA10
5B050BA09
5B050BA12
5B050CA07
5B050CA08
5B050DA04
5B050EA09
5B050EA13
5B050EA19
5B050EA27
5E555AA27
5E555AA48
5E555BA01
5E555BA04
5E555BA08
5E555BA87
5E555BB01
5E555BB04
5E555BB08
5E555BD07
5E555BE17
5E555CA42
5E555CB67
5E555DA08
5E555DA09
5E555DB32
5E555DC85
5E555EA04
5E555EA14
5E555EA22
5E555EA25
5E555FA00
(57)【要約】      (修正有)
【課題】強化現実アプリケーションのために様式化されたアバターをパーソナライズするコンピュータ実装方法及びシステムを提供する。
【解決手段】ネットワークアーキテクチャにおいて方法は、第1の対象の顔面表情の画像をキャプチャすることと、画像において、第1の対象の個人的特性を示す1つ以上の特徴を識別することと、人物モデルにおける標準的な表情のセットから、第1の対象の顔面表情に基づいて選択された表情を識別することと、第1の対象の個人的特性を示す1つ以上の特徴を、人物モデルにおける選択された表情に転送することと、クライアントデバイス上に表示するために没入型現実アプリケーションに人物モデルを提供することと、を含む。該方法は、命令を記憶するメモリ、プロセッサ及び命令を実行する際にプロセッサを含むシステムにより実施される。
【選択図】図9
【特許請求の範囲】
【請求項1】
第1の対象の顔面表情の画像をキャプチャすることと、
前記画像において、前記第1の対象の個人的特性を示す1つ以上の特徴を識別することと、
人物モデルにおける標準的な表情のセットから、前記第1の対象の前記顔面表情に基づいて選択された表情を識別することと、
前記第1の対象の前記個人的特性を示す前記1つ以上の特徴を、前記人物モデルにおける前記選択された表情に転送することと、
クライアントデバイス上に表示するために没入型現実アプリケーションに前記人物モデルを提供することと
を含む、コンピュータ実装方法。
【請求項2】
前記第1の対象が、強化現実ヘッドセットのユーザであり、前記第1の対象の前記顔面表情の前記画像をキャプチャすることが、前記強化現実ヘッドセットに装着されたカメラを用いて前記画像をキャプチャすることを含む、請求項1に記載のコンピュータ実装方法。
【請求項3】
前記第1の対象の個人的特性を示す前記1つ以上の特徴を識別することが、前記第1の対象の前記顔面表情の前記画像に重畳されたメッシュから、選択された閾値よりも大きい量だけ移動した頂点のグループを選択することを含む、請求項1に記載のコンピュータ実装方法。
【請求項4】
前記第1の対象の個人的特性を示す1つ以上の特徴を識別することが、前記第1の対象の前記顔面表情の前記画像に対するメッシュの運動に関連する微分テンソル内の1つ以上の臨界点を見つけることを含む、請求項1に記載のコンピュータ実装方法。
【請求項5】
前記第1の対象の個人的特性を示す前記1つ以上の特徴を識別することが、前記第1の対象の前記画像に関連する三次元メッシュ内の1つ以上のキーポイントの変位を識別することを含む、請求項1に記載のコンピュータ実装方法。
【請求項6】
前記第1の対象の前記顔面表情に基づいて選択された表情を識別することが、前記第1の対象の前記顔面表情に関連するメッシュ内の複数の頂点と、前記選択された表情を有する前記人物モデルに関連するメッシュ内の複数の頂点との間の距離の尺度を見つけることを含む、請求項1に記載のコンピュータ実装方法。
【請求項7】
前記人物モデルを前記人物モデルの様式化されたアバターとして選択することをさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項8】
前記第1の対象の個人的特性を示す前記1つ以上の特徴を前記人物モデルの前記選択された表情に転送することが、前記第1の対象に関するメッシュ内の頂点のグループの動きを、前記人物モデルに関するメッシュ内の対応する頂点のグループにコピーすることを含む、請求項1に記載のコンピュータ実装方法。
【請求項9】
前記クライアントデバイスが、ユーザと共にあり、前記ユーザの顔面表情で修正された第2の様式化された人物モデルを、前記第1の対象と共にある第2のクライアントデバイス上に表示するために前記没入型現実アプリケーションに提供することをさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項10】
前記没入型現実アプリケーションが、前記第1の対象と第2の対象との間で共有され、前記第2の対象の顔面表情で修正された第2の様式化された人物モデルを、前記クライアントデバイス上のディスプレイに提供することをさらに含む、請求項1に記載のコンピュータ実装方法。
【請求項11】
複数の命令を記憶するメモリと、
動作を実施させるために前記命令を実行するように構成された1つ以上のプロセッサと、
を備える、システムであって、前記動作が、
第1の対象の顔面表情の画像をキャプチャすることと、
前記画像において、前記第1の対象の個人的特性を示す1つ以上の特徴を識別することと、
人物モデルにおける標準的な表情のセットから、前記第1の対象の前記顔面表情に基づいて選択された表情を識別することと、
前記第1の対象の前記個人的特性を示す前記1つ以上の特徴を、前記人物モデルにおける前記選択された表情に転送することと、
クライアントデバイス上に表示するために没入型現実アプリケーションに前記人物モデルを提供することと
を含む、
システム。
【請求項12】
前記第1の対象は強化現実ヘッドセットのユーザであり、前記第1の対象の前記顔面表情の前記画像をキャプチャするために、前記1つ以上のプロセッサが、前記強化現実ヘッドセットに装着されたカメラを用いて前記画像をキャプチャする命令を実行する、請求項11に記載のシステム。
【請求項13】
前記第1の対象の個人的特性を示す前記1つ以上の特徴を識別するために、前記1つ以上のプロセッサが、前記第1の対象の前記顔面表情の前記画像に重畳されたメッシュから、選択された閾値よりも大きい量だけ移動した頂点のグループを選択する命令を実行する、請求項11に記載のシステム。
【請求項14】
前記第1の対象の個人的特性を示す1つ以上の特徴を識別するために、前記1つ以上のプロセッサが、前記第1の対象の前記顔面表情の前記画像に対するメッシュの運動に関連する微分テンソル内の1つ以上の臨界点を見つける命令を実行する、請求項11に記載のシステム。
【請求項15】
前記第1の対象の個人的特性を示す前記1つ以上の特徴を識別するために、前記1つ以上のプロセッサが、前記第1の対象の前記画像に関連する三次元メッシュ内の1つ以上のキーポイントの変位を識別する命令を実行する、請求項11に記載のシステム。
【請求項16】
前記第1の対象の前記顔面表情に基づいて選択された表情を識別するために、前記1つ以上のプロセッサが、前記第1の対象の前記顔面表情に関連するメッシュ内の複数の頂点と、前記選択された表情を有する前記人物モデルに関連するメッシュ内の複数の頂点との間の距離の尺度を見つける命令を実行する、請求項11に記載のシステム。
【請求項17】
前記1つ以上のプロセッサが、前記人物モデルを、前記人物モデルの様式化されたアバターとして選択する命令をさらに実行する、請求項11に記載のシステム。
【請求項18】
前記第1の対象の個人的特性を示す前記1つ以上の特徴を、前記人物モデルにおける前記選択された表情に転送するために、前記1つ以上のプロセッサが、前記第1の対象に関するメッシュにおける頂点のグループの動きを、前記人物モデルに関するメッシュにおける対応する頂点のグループにコピーする命令を実行する、請求項11に記載のシステム。
【請求項19】
前記クライアントデバイスがユーザと共にあり、前記1つ以上のプロセッサが、前記ユーザの顔面表情で修正された第2の様式化された人物モデルを、前記第1の対象と共にある第2のクライアントデバイス上に表示するために前記没入型現実アプリケーションに提供する命令をさらに実行する、請求項11に記載のシステム。
【請求項20】
前記没入型現実アプリケーションが、前記第1の対象と第2の対象との間で共有され、前記1つ以上のプロセッサが、前記クライアントデバイス上の前記ディスプレイに、前記第2の対象の顔面表情で修正された第2の様式化された人物モデルを提供する命令をさらに実行する、請求項11に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本開示は、2022年7月22日に出願されたChristopher J.OCAMPOらによるEXPRESSION TRANSFER TO STYLIZED AVATARSと題された米国特許出願公開第63/391,645号に関し、米国特許法第119条(e)に基づいたその優先権を主張し、その内容はあらゆる目的のために、その全体が参照により本明細書に組み込まれる。
【0002】
分野
本開示は、強化現実アプリケーションのための様式化されたアバターのパーソナライズに関する。より具体的には、本開示は、対象のパーソナライズされたモデルを作成するための、対象から様式化されたアバターへのパーソナライズされた顔ジェスチャの転送に関する。
【背景技術】
【0003】
関連技術
様式化されたアバターおよびその標準化された顔ジェスチャは、強化現実環境を再現するために一般的に使用される。これにより、アプリケーションの計算コストが大幅に削減され、現在の技術を使用したその広範な使用および適応が可能になる。様式化されたアバターは、周知の漫画キャラクタを使用して没入型アプリケーションで対象を表現することができる三次元人物モデルにも使用される。しかしながら、結果は、特定の対象のすべての個人的特性が様式化されたモデルでは失われるので、かなり単純である。したがって、没入型アプリケーションに真の臨場感と表情を提供し、ユーザと関連付けられたアバターとの間の親和性を高めるために、異なる対象のより現実的な表現が望ましい。
【発明の概要】
【0004】
第1の実施形態では、コンピュータ実装方法は、第1の対象の顔面表情の画像をキャプチャすることと、画像において、第1の対象の個人的特性を示す1つ以上の特徴を識別することと、人物モデルにおける標準的な表情のセットから、第1の対象の顔面表情に基づいて選択された表情を識別することと、第1の対象の個人的特性を示す1つ以上の特徴を、人物モデルにおける選択された表情に転送することと、クライアントデバイス上に表示するために没入型現実アプリケーションに人物モデルを提供することとを含む。
【0005】
第2の実施形態では、システムは、複数の命令を記憶するメモリと、命令を実行して動作を実施させるように構成された1つ以上のプロセッサとを含む。動作は、第1の対象の顔面表情の画像をキャプチャすることと、画像において、第1の対象の個人的特性を示す1つ以上の特徴を識別することと、人物モデルにおける標準的な表情のセットから、第1の対象の顔面表情に基づいて選択された表情を識別することと、第1の対象の個人的特性を示す1つ以上の特徴を、人物モデルにおける選択された表情に転送することと、クライアントデバイス上に表示するために没入型現実アプリケーションに人物モデルを提供することとを含む。
【0006】
他の実施形態では、非一時的コンピュータ可読媒体は、プロセッサによって実行されるとコンピュータに方法を実施させる命令を記憶する。方法は、第1の対象の顔面表情の画像をキャプチャすることと、画像において、第1の対象の個人的特性を示す1つ以上の特徴を識別することと、人物モデルにおける標準的な表情のセットから、第1の対象の顔面表情に基づいて選択された表情を識別することと、第1の対象の個人的特性を示す1つ以上の特徴を、人物モデルにおける選択された表情に転送することと、クライアントデバイス上に表示するために没入型現実アプリケーションに人物モデルを提供することとを含む。
【0007】
さらに他の実施形態では、システムは、命令を記憶する第1の手段と、システムに方法を実施させるために命令を実行する第2の手段とを含む。方法は、第1の対象の顔面表情の画像をキャプチャすることと、画像において、第1の対象の個人的特性を示す1つ以上の特徴を識別することと、人物モデルにおける標準的な表情のセットから、第1の対象の顔面表情に基づいて選択された表情を識別することと、第1の対象の個人的特性を示す1つ以上の特徴を、人物モデルにおける選択された表情に転送することと、クライアントデバイス上に表示するために没入型現実アプリケーションに人物モデルを提供することとを含む。
【0008】
これらおよび他の実施形態は、以下の開示を考慮することで当業者には明らかになるであろう。
【図面の簡単な説明】
【0009】
図1】いくつかの実施形態による、パーソナライズされた表情を様式化されたアバターに転送するように構成されたネットワークアーキテクチャを示す図である。
図2】いくつかの実施形態による、図1のアーキテクチャで使用するためのクライアントデバイスおよびサーバを示すブロック図である。
図3】いくつかの実施形態による、様式化されたアバターにおける複数の標準的な表情を示す図である。
図4】いくつかの実施形態による、対象の顔のビデオキャプチャにおけるパーソナライズされた表情の追跡を示す図である。
図5図4の対象に従って成形された、パーソナライズおよび様式化されたアバターの出力セットを示す図である。
図6】いくつかの実施形態による、対象の個人的な特徴または表情が、異なる人物モデルに基づいて様式化されたアバターに統合されるブレンドステップを示す図である。
図7】いくつかの実施形態による、合成されたアバターにおける、対象からモデルへのパーソナライズされた表情の転送の比較を示す図である。
図8A】いくつかの実施形態による、パーソナライズされたモデルを作成するために、対象の表情を様式化されたアバターモデルに転送するためのより例示的な実施形態を含む図である。
図8B】いくつかの実施形態による、パーソナライズされたモデルを作成するために、対象の表情を様式化されたアバターモデルに転送するためのより例示的な実施形態を含む図である。
図9】いくつかの実施形態による、パーソナライズされた表情を様式化されたアバターに転送するための方法におけるステップを示すフローチャートである。
図10】いくつかの実施形態による、本明細書に開示する方法を実施するためのコンピュータシステム内の構成要素を示すブロック図である。
【発明を実施するための形態】
【0010】
図面では、特に明記しない限り、同じまたは類似の参照番号は、同じまたは類似の特徴または属性に関連付けられている。
【0011】
以下の詳細な説明では、本開示の完全な理解を提供するために、多数の具体的な詳細が記載される。しかしながら、当業者には、本開示の実施形態がこれらの具体的な詳細の一部なしで実践され得ることが明らかであろう。他の例では、本開示を不明瞭にしないように、周知の構造および技術は詳細に示されていない。
【0012】
全体的な注意
いくつかの実施形態では、VR/ARアプリケーションに使用されるアバターおよび他のモデルは、人間の頭部の写実的モデルの高解像度レンダリングのために計算集約的すぎる可能性がある。しかしながら、リアルタイムで使用されるそのようなモデル化の制約は、計算能力および関連する電力要件ならびに時間遅延およびオフセットの点でコストがかかる。一方、人間の顔の三次元(3D)描出のための様式化されたアバターまたはモデルの使用は、大幅に簡単である。ここでの欠点は、様式化されたモデルが、表現される任意の対象について同じである表情の所与のセットを有することである(場合により、1つの関連する区別である性別の合致は伴っている)。この問題は、2人の異なる人物が同じ様式化されたアバターによってレンダリングされているときに非常に関連性が高くなる可能性がある。次に、2人の個人を区別するパーソナライズ方式が含まれない限り、紛らわしいシーンが無意識に再現される可能性がある。
【0013】
上記の問題を解決するために、本開示は、特定の対象を識別する、様式化されたアバターを単一の様式で修正するための所与の対象の表情フィッティングを含む。
【0014】
いくつかの構成では、対象からパーソナライズされた特徴を有する様式化されたアバターは、スタイル上または審美的な理由から望ましい場合がある。例えば、1人以上の対象が、周知のスーパーヒーローまたはキャラクタを用いて、ロールプレイング、漫画的なバージョンまたはシーンに関与することを望む場合がある。したがって、異なるキャラクタのための様式化されたアバターが、イベントの異なる参加者に割り当てられ、それに応じてパーソナライズされる場合がある。これにより、ユーザとそのアバターとの間のより強いつながり感が作成され、したがって、没入型現実体験が向上し、より独特かつ特徴的になる。上記の機能を提供する没入型現実体験は、幅広いユーザコミュニティに強くアピールする。
【0015】
例示的なシステムアーキテクチャ
図1は、いくつかの実施形態による、アバターエンジンにアクセスするのに適した例示的なアーキテクチャ100を示す。アーキテクチャ100は、ネットワーク150を介してクライアントデバイス110および少なくとも1つのデータベース152と通信可能に結合されたサーバ130を含む。複数のサーバ130のうちの1つは、プロセッサによって実行されると、サーバ130に本明細書で開示される方法のステップの少なくともいくつかを実施させる命令を含むメモリをホストするように構成される。いくつかの実施形態では、プロセッサは、ソーシャルネットワークアプリケーションを用いてアバターエンジンにアクセスするクライアントデバイス110のうちの1つのユーザのためのグラフィカルユーザインターフェース(GUI)を制御するように構成される。したがって、プロセッサは、GUIを介してユーザに構成要素およびグラフィック結果を表示するように構成されたダッシュボードツールを含むことができる。負荷分散の目的のために、複数のサーバ130は、1つ以上のプロセッサへの命令を含むメモリをホストすることができ、複数のサーバ130は、履歴ログと、アバターエンジンに使用される複数の訓練アーカイブを含むデータベース152とをホストすることができる。さらに、いくつかの実施形態では、クライアントデバイス110の複数のユーザは、ソーシャルネットワーク内で1つ以上の検索を行うために同じアバターエンジンにアクセスすることができる。いくつかの実施形態では、単一のクライアントデバイス110を有する単一のユーザは、画像およびデータを提供して、1つ以上のサーバ130で並列に行われる1つ以上の機械学習モデルを訓練することができる。したがって、クライアントデバイス110およびサーバ130は、ネットワーク150、およびデータベース152内のデータなどのネットワーク150の中に位置するリソースを介して互いに通信することができる。
【0016】
サーバ130は、関連する複数のツールを含むアバターエンジンをホストするための適切なプロセッサ、メモリ、および通信機能を有する任意のデバイスを含むことができる。アバターエンジンは、ネットワーク150を介して様々なクライアント110によってアクセス可能であってもよい。クライアントデバイス110は、例えば、デスクトップコンピュータ、モバイルコンピュータ、タブレットコンピュータ(例えば、電子書籍リーダを含む)、モバイルデバイス(例えば、スマートフォンまたはPDA)、またはサーバ130のうちの1つ以上のアバターエンジンにアクセスするための適切なプロセッサ、メモリ、および通信機能を有する任意の他のデバイスとすることができる。いくつかの実施形態では、クライアントデバイス110は、サーバ130のうちの1つ以上によってサポートされる没入型現実アプリケーションを起動するように構成されたVR/ARヘッドセットを含むことができる。ネットワーク150は、例えば、ローカルエリアツール(LAN)、ワイドエリアツール(WAN)、インターネットなどのいずれか1つ以上を含むことができる。さらに、ネットワーク150は、これらに限定されないが、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スターバスネットワーク、ツリーまたは階層ネットワークなどを含むツールトポロジのいずれか1つ以上を含むことができる。
【0017】
図2は、本開示の特定の態様による、アーキテクチャ100からの例示的なサーバ130、クライアントデバイス110、およびデータベース152を示すブロック図200である。クライアントデバイス110およびサーバ130は、それぞれの通信モジュール218-1および218-2(以下、「通信モジュール218」と総称する)を介して、ネットワーク150を介して通信可能に結合される。通信モジュール218は、ネットワーク150を介して他のデバイスにデータ、要求、応答、およびコマンドなどの情報を送信および受信するためにネットワーク150とインターフェースするように構成される。通信モジュール218は、例えば、モデムまたはイーサネットカードとすることができ、(例えば、無線周波数(RF)、近距離無線通信(NFC)、Wi-Fi、およびBluetooth無線技術などの電磁照射を介した)無線通信のための無線ハードウェアおよびソフトウェアを含むことができる。ユーザは、入力デバイス214および出力デバイス216を介してクライアントデバイス110と対話することができる。入力デバイス214は、マウス、キーボード、ポインタ、タッチスクリーン、マイクロフォン、ジョイスティック、仮想ジョイスティックなどを含むことができる。いくつかの実施形態では、入力デバイス214は、カメラ、マイクロフォン、ならびにセンサ、例えば、タッチセンサ、音響センサ、慣性運動ユニット(IMU)、およびVR/ARヘッドセットに入力データを提供するように構成された他のセンサを含むことができる。例えば、いくつかの実施形態では、入力デバイス214は、VR/ARヘッドセット内のユーザの瞳孔の位置を検出するための視線追跡デバイスを含むことができる。出力デバイス216は、画面ディスプレイ、タッチスクリーン、スピーカなどであってもよい。クライアントデバイス110は、メモリ220-1と、プロセッサ212-1とを含むことができる。メモリ220-1は、クライアントデバイス110内で行われ、入力デバイス214および出力デバイス216と結合するように構成されたアプリケーション222およびGUI225を含むことができる。アプリケーション222は、ユーザによってサーバ130からダウンロードされてもよく、サーバ130によってホストされてもよい。いくつかの実施形態では、クライアントデバイス110はVR/ARヘッドセットであり、アプリケーション222は没入型現実アプリケーションである。いくつかの実施形態では、クライアントデバイス110は、ビデオまたは画像収集アプリケーション222を使用してビデオまたは画像を収集し、かつサーバ130にアップロードして、訓練データベース152に記憶するために使用される携帯電話である。
【0018】
サーバ130は、メモリ220-2と、プロセッサ212-2と、通信モジュール218-2とを含む。以下、プロセッサ212-1および212-2、ならびにメモリ220-1および220-2をそれぞれ、「プロセッサ212」、「メモリ220」と総称する。プロセッサ212は、メモリ220に記憶された命令を実行するように構成される。いくつかの実施形態では、メモリ220-2は、アバターエンジン232を含む。アバターエンジン232は、スタイル設定、パーソナライズ、およびアニメーションに関連する複数のツール、またはアバターエンジン232で検索されたアバターを使用する設計アプリケーション(例えば、アプリケーション222)を含む、特徴およびリソースをGUI225に共有または提供することができる。ユーザは、クライアントデバイス110のメモリ220-1にインストールされたアプリケーション222を介して、アバターエンジン232にアクセスすることができる。したがって、GUI225を含むアプリケーション222は、サーバ130によってインストールされ、複数のツールのいずれか1つを介してサーバ130によって提供されるスクリプトおよび他のルーチンを実施することができる。アプリケーション222の実行は、プロセッサ212-1によって制御されてもよい。
【0019】
アバターエンジン232は、メッシュツール240と、スタイルツール242と、表情エンコーダツール244と、識別情報エンコーダツール246と、ニューラルネットワークツール248とを含むことができる。メッシュツール240は、対象のキャプチャ画像または様式的表現に基づいて対象のソリッドモデル(例えば、アバター)を形成する三次元(3D)メッシュを生成する。様式的表現は、異なる方向からの対象の異なるビューの手書きの図またはコンピュータ生成図面であってもよい。スタイルツール242は、所与の対象がアバターで表現されるスタイルを判定または分類する。表情エンコーダツール244は、アバターに顔面表情を組み込む。いくつかの実施形態では、データベース152に記憶された、処理可能な選択された数の表情がある。識別情報エンコーダツール246は、モデルに固有の識別情報を提供するアバターの識別特徴を判定する。例えば、識別情報エンコーダツール246は、特定の対象が一般的な笑いの表情のために顔のいくつかの領域を広げることを識別することができる。ニューラルネットワークツール248は、アバターエンジン232内のメッシュツール240、スタイルツール242、表情エンコーダツール244、および識別情報エンコーダツール246を訓練して、VR/ARアプリケーション222のためのパーソナライズおよび様式化されたアバターを提供する。
【0020】
いくつかの実施形態では、ニューラルネットワークツール248は、データベース252に記憶された1つ以上の機械学習モデルの一部であってもよい。データベース252は、アプリケーション222を介したユーザの入力に従って、機械学習モデルの訓練においてアバターエンジン232によって使用され得る訓練アーカイブおよび他のデータファイルを含む。さらに、いくつかの実施形態では、少なくとも1つ以上の訓練アーカイブまたは機械学習モデルをメモリ220のいずれか1つに記憶することができ、ユーザはアプリケーション222を介してそれらにアクセスすることができる。
【0021】
ニューラルネットワークツール248は、そこに含まれるエンジンおよびツールの特定の目的のために訓練されたアルゴリズムを含むことができる。アルゴリズムは、ニューラルネットワークアルゴリズムまたは多変量回帰アルゴリズムなどの任意の線形または非線形アルゴリズムを利用する機械学習または人工知能アルゴリズムを含むことができる。いくつかの実施形態では、機械学習モデルは、ニューラルネットワーク(NN)、畳み込みニューラルネットワーク(CNN)、敵対的生成ニューラルネットワーク(GAN)、深層強化学習(DRL)アルゴリズム、深層リカレントニューラルネットワーク(DRNN)、古典的な機械学習アルゴリズム、例えば、ランダムフォレスト、k近傍法(KNN)アルゴリズム、k平均クラスタリングアルゴリズム、またはそれらの任意の組み合わせを含むことができる。より一般的には、機械学習モデルは、訓練ステップおよび最適化ステップを伴う任意の機械学習モデルを含むことができる。いくつかの実施形態では、訓練データベース252は、機械学習モデルの所望の結果に従って係数を修正するための訓練アーカイブを含むことができる。したがって、いくつかの実施形態では、アバターエンジン232は、機械学習モデルの入力として文書およびアーカイブを検索するために訓練データベース252にアクセスするように構成される。いくつかの実施形態では、アバターエンジン232、それに含まれるツール、および訓練データベース252の少なくとも一部は、サーバ130またはクライアントデバイス110によってアクセス可能な異なるサーバでホストすることができる。
【0022】
図3は、いくつかの実施形態による、様式化されたアバター302における複数の標準表情344を有するパネル300を示す。いくつかの実施形態では、VR/ARアプリケーションは、人間の頭部の異なる顔面筋の周知の運動または収縮によって生成される、とりわけ最大72個(72以上)の顔面表情344-1、344-2、および344-3(以下、「表情344」と総称する)を含んでもよい。表情344の各々は、人間のキャラクタの特定の気分、ジェスチャ、または反応を示す、顔の筋肉の活性化の周知の組み合わせを示す。例えば、驚きの表情344-1は、目を大きく開いた状態の顎を落とす特徴を含むことができる。他の表情344は、「疑問のある」表情344-2またはニヤニヤ笑い(smirk)344-3を含んでもよい。各表情344のスタイルおよび特定の態様は一般的であってもよいが(例えば、表情を表す異なる対象とは無関係に)、多くが同じ一般的な表情344を実施しても、各個人に固有のパーソナライズされた特徴がある。
【0023】
対象の顔のリアルタイムキャプチャでは、システムは、一般的なアバターの表情344内の最も近い一致を見つける(例えば、表情エンコーダ244を使用する)。次いで、システムは、対象のパーソナライズされた特徴の少なくとも1つ以上との最も近い一致を修正し(例えば、識別情報エンコーダ246を使用する)、修正された最も近い一致を没入型現実アプリケーションのモデルとしてレンダリングする。したがって、対象の様式化された描出は、パーソナライズされており、対象に固有であり、対象が非常に望ましいまたは魅力的であると感じることができる合理化された表現を提供する。
【0024】
図4は、いくつかの実施形態による、対象の顔の画像401-1および401-2のビデオキャプチャにおけるパーソナライズされた表情441-1および441-2(以下、「表情441」と総称する)の追跡400を示す(以下、(「ソース画像401」と総称する)。様式化されたアバター402-1および402-2(以下、「アバター402」と総称する)上のメッシュ内の注目点411の数は、位置決めおよび動きに関して追跡される。点411は、変位量または変位速度によって選択されてもよく、変位量または変位速度は、対象に関連するパーソナライズされた特徴を示すことができる。
【0025】
図5は、対象(例えば、アバター402)に従って成形されたパーソナライズおよび様式化されたアバター502aの出力セット500を示す。これは、ユーザ固有のブレンド形状セットを表すために組み合わされたユーザの「表情フィッティング」(表情エンコーダ244を参照)および「識別情報フィッティング」(識別エンコーダ446を参照)の出力セットである。とりわけ、表情546-1、546-2、および546-3(以下、「パーソナライズされた表情546」と総称する)は、スタイルツール(スタイルツール242を参照)によって判定されるアバター502aのスタイルに従ってパーソナライズされることを除いて、表情344と同じである。また、図には、パーソナライズおよび様式化されたアバター502b上の本明細書に開示されるツール(メッシュツール240を参照)によって提供される表面メッシュ540が示されている。メッシュ540は、その位置および動きが、対象のパーソナライズされたジェスチャ、ティック(ticks)、および他の顔特性を示すことができる点を含む。
【0026】
図6は、いくつかの実施形態による、対象の個人的な特徴または表情646が、異なる人物モデルまたはアバター602aに基づいた様式化されたアバター602bに統合されるブレンドステップを示す。パーソナライズされた特徴のいくつかは、パーソナライズされた表情646に変換されるモデル602aの眉毛の動き644を含むことができる。したがって、眉毛の動き644は、アバター602bの眉を寄せた様子を示すジェスチャ646でパーソナライズすることができる。ジェスチャは同じであるが、アバター602bは、アバター602bが基づく個人に特有の眉毛のスタイルを示し、したがってアバター602aのジェスチャ644とは異なる。他の表情は、額の特定の筋肉の膨らみを含むことができ、口および/または鼻孔を用いた顔ジェスチャは、第1のモデル602aについてキャプチャされ、様式化されたアバター602bの人物モデルに統合されることができる。
【0027】
図7は、いくつかの実施形態による、対象アバター701(例えば、VR/ARヘッドセットのユーザ)からターゲットアバター702におけるパーソナライズされた表情746-1、746-2、および746-3(以下、「パーソナライズされた表情746」と総称する)への表情744-1、744-2、および744-3(以下、「表情744」と総称する)の転送を示す。見て分かるように、ターゲットアバター702のパーソナライズされた表情746に転送された各表情744は、ターゲットアバター702のパーソナライズされた表情のニュアンスおよび詳細を含む。
【0028】
図8A図8Bは、いくつかの実施形態による、表情844を対象アバター801からターゲットアバター802-1および802-2(以下、「ターゲットアバター802」と総称する)に転送して、パーソナライズされた表情846-1および846-2(以下、「パーソナライズされた表情846」と総称する)を作成するための、より例示的なパネル800A-1、800A-2、800A-3、800A-4、800B-1、800B-2および800B-3(以下、「パネル800」と総称する)を含む。
【0029】
対象アバター801は、第1の識別情報(例えば、VR/ARヘッドセットの第1のユーザ)に属し、ターゲットアバター802は、第2の識別情報(例えば、第2のVR/ARヘッドセットの第2のユーザ)に属する。アバター802-1の場合、表情844の転送は包括的であり、第2の識別情報の個人的なニュアンスの多くは、転送された表情846-1ではキャプチャされない。一方、アバター802-1の場合、表情844の転送は、パーソナライズされた表情846-2がより一層ニュアンスがあり、第2の識別情報を反映するようにパーソナライズされる。
【0030】
第2の識別情報における顔面表情からの多くのニュアンスは、様式化されたモデル802-2に転送され、次いで、パーソナライズされた表情846-2にキャプチャされる。いくつかの実施形態では、パーソナライズされたモデルは、対象とモデルアバターとの間の「平均化された」形状を使用するので、より一般的な表情を含む。したがって、パーソナライズされたモデルは、モデル特徴のいくつかを依然としてキャプチャしながら、第2の識別情報に基づくよりパーソナライズされた表情846-2、例えば、パネル800A-1の顎の圧縮、パネル800A-4、800B-1、および800B-2の溝、パネル800B-3の唇の緊張、アバター802-1の欠落などを含む。
【0031】
図9は、いくつかの実施形態による、没入型現実アプリケーションのためのパーソナライズおよび様式化されたアバターを作成するための方法900のステップを含むフローチャートである。いくつかの実施形態では、方法900の1つ以上のステップは、本明細書で開示されるように、ネットワークを介して通信可能に結合されたコンピュータ、クライアントデバイス、サーバ、またはデータベース内のメモリ回路に記憶された命令を実行するプロセッサ回路によって実施されてもよい(プロセッサ212、メモリ220、クライアントデバイス110、サーバ130、データベース152、およびネットワーク150を参照)。いくつかの実施形態では、メモリ回路は、本明細書で開示されるように、メッシュツール、スタイルツール、表情エンコーダツール、識別情報エンコーダツール、およびニューラルネットワークツールを有するアバターエンジンを含むことができる(アバターエンジン232、メッシュツール240、スタイルツール242、表情エンコーダツール244、識別情報エンコーダツール246、およびニューラルネットワークツール248を参照)。方法900のステップは、コンピュータのメモリ回路に記憶された命令を実行する、コンピュータ内のプロセッサ回路によって実施されてもよい。いくつかの実施形態では、本開示と一致する方法は、異なる順序で、同時に、準同時に、または時間的に重複して実施される、方法900のステップの少なくとも1つ以上を含むことができる。
【0032】
ステップ902は、第1の対象の顔面表情の画像をキャプチャすることを含む。いくつかの実施形態では、第1の対象は強化現実ヘッドセットのユーザであり、ステップ902は強化現実ヘッドセットに装着されたカメラを用いて画像をキャプチャすることを含む。
【0033】
ステップ904は、画像内で、第1の対象の個人的特性を示す1つ以上の特徴を識別することを含む。いくつかの実施形態では、ステップ904は、第1の対象の顔面表情の画像に重畳されたメッシュから、選択された閾値よりも大きい量だけ移動した頂点のグループを選択することを含む。いくつかの実施形態では、ステップ904は、第1の対象の顔面表情の画像に対するメッシュの運動に関連する微分テンソル内の1つ以上の臨界点を見つけることを含む。いくつかの実施形態では、ステップ904は、第1の対象の画像に関連する三次元メッシュ内の1つ以上のキーポイントの変位を識別することを含む。
【0034】
ステップ906は、人物モデルにおける標準的な表情のセットから、第1の対象の顔面表情に基づいて選択された表情を識別することを含む。いくつかの実施形態では、ステップ906は、第1の対象の顔面表情に関連するメッシュ内の複数の頂点と、選択された表情を有する人物モデルに関連するメッシュ内の複数の頂点との間の距離の尺度を見つけることを含む。いくつかの実施形態では、ステップ906は、人物モデルを人物モデルの様式化されたアバターとして選択することを含む。
【0035】
ステップ908は、第1の対象の個人的特性を示す1つ以上の特徴を、人物モデルにおける選択された表情に転送することを含む。いくつかの実施形態では、ステップ908は、第1の対象のメッシュ内の頂点のグループの動きを、人物モデルのメッシュ内の対応する頂点のグループにコピーすることを含む。
【0036】
ステップ910は、クライアントデバイス上に表示するために人物モデルを没入型現実アプリケーションに提供することを含む。いくつかの実施形態では、クライアントデバイスはユーザを伴い、ステップ910は、第1の対象と共にある第2のクライアントデバイスに表示するために、ユーザの顔面表情で修正された第2の様式化された人物モデルを没入型現実アプリケーションに提供することをさらに含む。いくつかの実施形態では、没入型現実アプリケーションは、第1の対象と第2の対象との間で共有され、ステップ910は、第2の対象の顔面表情で修正された第2の様式化された人物モデルを、クライアントデバイス上のディスプレイに提供することをさらに含む。
【0037】
ハードウェアの概要
図10は、ヘッドセットおよび他のクライアントデバイス110、ならびに方法900を実装することができる例示的なコンピュータシステム1000を示すブロック図である。特定の態様では、コンピュータシステム1000は、専用のサーバにあるか、または別のエンティティに統合されているか、または複数のエンティティに分散されているかのいずれかで、ハードウェア、またはソフトウェアとハードウェアの組み合わせを用いて実装されてもよい。コンピュータシステム1000は、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、ファブレット、スマートフォン、フィーチャーフォン、サーバコンピュータなどを含むことができる。サーバコンピュータは、データセンタ内に遠隔に位置してもよく、またはローカルに記憶されてもよい。
【0038】
コンピュータシステム1000は、情報を通信するためのバス1008または他の通信機構と、情報を処理するためにバス1008に結合されたプロセッサ1002(例えば、プロセッサ212)とを含む。例として、コンピュータシステム1000は、1つ以上のプロセッサ1002を用いて実装されてもよい。プロセッサ1002は、汎用マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックデバイス(PLD)、コントローラ、ステートマシン、ゲーテッドロジック、個別のハードウェア構成要素、または情報の計算もしくは他の操作を実施することができる任意の他の適切なエンティティであってもよい。
【0039】
コンピュータシステム1000は、ハードウェアに加えて、問題のコンピュータプログラムの実行環境を作成するコード、例えば、プロセッサファームウェア、プロトコールスタック、データベース管理システム、オペレーティングシステムを構成するコード、または含まれるメモリ1004(例えば、メモリ220)、例えば、ランダムアクセスメモリ(RAM)、フラッシュメモリ、読み出し専用メモリ(ROM)、プログラマブル読み出し専用メモリ(PROM)、消去可能PROM(EPROM)、レジスタ、ハードディスク、リムーバブルディスク、CD-ROM、DVD、またはプロセッサ1002によって実行されるべき情報および命令を記憶するためにバス1008に結合された任意の他の適切な記憶デバイスに記憶されたコードのうちの1つ以上の組み合わせを含むことができる。プロセッサ1002およびメモリ1004は、専用論理回路によって補完されても、または専用論理回路に組み込まれてもよい。
【0040】
命令は、メモリ1004に記憶され、1つ以上のコンピュータプログラム製品、例えば、コンピュータシステム1000による実行のための、またはコンピュータシステム1000の動作を制御するためのコンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1つ以上のモジュールで、これらに限定されないが、データ指向言語(例えば、SQL、dBase)、システム言語(例えば、C、Objective-C、C++、Assembly)、アーキテクチャ言語(例えば、Java、.NET)、およびアプリケーション言語(例えば、PHP、Ruby、Perl、Python)などのコンピュータ言語を含む、当業者に周知の任意の方法に従って実装されてもよい。命令はまた、コンピュータ言語、例えば、アレイ言語、アスペクト指向言語、アセンブリ言語、オーサリング言語、コマンドラインインターフェース言語、コンパイル言語、並列言語、カーリーブラケット原語、データフロー言語、データ構造化言語、宣言型言語、難解言語、拡張言語、第4世代言語、機能言語、対話型モード言語、解釈型言語、反復言語、リストベース言語、小言語、論理ベース言語、機械言語、マクロ言語、メタプログラミング言語、マルチパラダイム言語、数値解析、非英語ベース言語、オブジェクト指向クラスベース言語、オブジェクト指向プロトタイプベース言語、オフサイドルール言語、手続き型言語、反射型言語、ルールベース言語、スクリプト言語、スタックベース言語、同期言語、構文処理言語、視覚型言語、ヴィルト(wirth)言語、およびXMLベース言語で実装されてもよい。メモリ1004はまた、プロセッサ1002によって実行される命令の実行中に一時変数または他の中間情報を記憶するために使用されてもよい。
【0041】
本明細書で説明されるコンピュータプログラムは、必ずしもファイルシステム内のファイルに対応するとは限らない。プログラムは、他のプログラムまたはデータ(例えば、マークアップ言語文書に記憶された1つ以上のスクリプト)を保持するファイルの一部、問題のプログラム専用の単一のファイル、複数の協調ファイル(例えば、1つ以上のモジュール、サブプログラム、またはコードの一部を記憶するファイル)に記憶することができる。コンピュータプログラムは、1つのコンピュータ上で、または1つのサイトに位置する、もしくは複数のサイトに分散されて通信ネットワークによって相互接続された複数のコンピュータ上で実行されるように展開することができる。本明細書で説明されるプロセスおよび論理フローは、入力データを操作して出力を生成することによって機能を実施する1つ以上のコンピュータプログラムを実行する1つ以上のプログラマブルプロセッサによって実施することができる。
【0042】
コンピュータシステム1000は、情報および命令を記憶するためのバス1008に結合された、磁気ディスクまたは光ディスクなどのデータ記憶デバイス1006をさらに含む。コンピュータシステム1000は、入力/出力モジュール1010を介して様々なデバイスに結合されてもよい。入力/出力モジュール1010は、任意の入力/出力モジュールとすることができる。例示的な入力/出力モジュール1010は、USBポートなどのデータポートを含む。入力/出力モジュール1010は、通信モジュール1012に接続するように構成される。例示的な通信モジュール1012は、イーサネットカードおよびモデムなどのネットワーキングインターフェースカードを含む。特定の態様では、入力/出力モジュール1010は、入力デバイス1014および/または出力デバイス1016などの複数のデバイスに接続するように構成される。例示的な入力デバイス1014は、消費者がコンピュータシステム1000に入力を提供することができるキーボードおよびポインティングデバイス、例えばマウスまたはトラックボールを含む。触覚入力デバイス、視覚入力デバイス、音声入力デバイス、または脳コンピュータインターフェースデバイスなどの他の種類の入力デバイス1014も、消費者との対話を提供するために使用することができる。例えば、消費者に提供されるフィードバックは、任意の形態の感覚フィードバック、例えば視覚フィードバック、聴覚フィードバック、または触覚フィードバックとすることができ、消費者からの入力は、音響入力、音声入力、触覚入力、または脳波入力を含む任意の形態で受け取ることができる。例示的な出力デバイス1016は、消費者に情報を表示するためのLCD(液晶ディスプレイ)モニタなどの表示デバイスを含む。
【0043】
本開示の一態様によれば、ヘッドセットおよびクライアントデバイス110は、少なくとも部分的に、メモリ1004に含まれる1つ以上の命令の1つ以上のシーケンスを実行するプロセッサ1002に応答して、コンピュータシステム1000を使用して実装することができる。そのような命令は、データ記憶デバイス1006などの別の機械可読媒体からメモリ1004に読み込まれてもよい。メインメモリ1004に含まれる命令シーケンスの実行は、プロセッサ1002に本明細書に記載のプロセスステップを実施させる。メモリ1004に含まれる命令のシーケンスを実行するために、マルチ処理構成の1つ以上のプロセッサを採用することもできる。代替的な態様では、本開示の様々な態様を実装するために、ソフトウェア命令の代わりに、またはソフトウェア命令と組み合わせて、ハードワイヤード回路を使用することができる。したがって、本開示の態様は、ハードウェア回路とソフトウェアとの特定の組み合わせに限定されない。
【0044】
本明細書に記載の主題の様々な態様は、バックエンド構成要素、例えばデータサーバを含む、もしくはミドルウェア構成要素、例えばアプリケーションサーバを含む、もしくはフロントエンド構成要素、例えば、消費者が本明細書に記載の主題の実装と対話し得るグラフィカル消費者インターフェースもしくはウェブブラウザを有するクライアントコンピュータを含むコンピューティングシステム、または1つ以上のそのようなバックエンド、ミドルウェア、もしくはフロントエンド構成要素の任意の組み合わせで実装することができる。システムの構成要素は、任意の形態または媒体のデジタルデータ通信、例えば通信ネットワークによって相互接続することができる。通信ネットワークは、例えば、LAN、WAN、インターネットなどのいずれか1つ以上を含むことができる。さらに、通信ネットワークは、これらに限定されないが、例えば、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スターバスネットワーク、ツリーまたは階層ネットワークなどを含むネットワークトポロジのいずれか1つ以上を含むことができる。通信モジュールは、例えば、モデムまたはイーサネットカードとすることができる。
【0045】
コンピュータシステム1000は、クライアントおよびサーバを含むことができる。クライアントおよびサーバは、一般に、互いに遠隔にあり、通常、通信ネットワークを介して対話する。クライアントとサーバとの関係は、それぞれのコンピュータ上で行われ、互いにクライアント-サーバ関係を有するコンピュータプログラムによって生じる。コンピュータシステム1000は、例えば、これらに限定されないが、デスクトップコンピュータ、ラップトップコンピュータ、またはタブレットコンピュータとすることができる。コンピュータシステム1000はまた、例えば、これらに限定されないが、携帯電話、PDA、モバイルオーディオプレーヤ、全地球測位システム(GPS)受信機、ビデオゲームコンソール、および/またはテレビセットトップボックスなどの別のデバイスに埋め込むこともできる。
【0046】
本明細書で使用される「機械可読記憶媒体」または「コンピュータ可読媒体」という用語は、実行のためにプロセッサ1002に命令を提供することに関与する任意の媒体を指す。そのような媒体は、不揮発性媒体、揮発性媒体、および伝送媒体を含むがこれらに限定されない多くの形態をとることができる。不揮発性媒体は、例えば、データ記憶デバイス1006などの光ディスクまたは磁気ディスクを含む。揮発性媒体は、メモリ1004などのダイナミックメモリを含む。伝送媒体は、バス1008を形成するワイヤを含む、同軸ケーブル、銅線、および光ファイバを含む。機械可読媒体の一般的な形態は、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、任意の他の磁気媒体、CD-ROM、DVD、任意の他の光学媒体、パンチカード、紙テープ、穴のパターンを有する任意の他の物理媒体、RAM、PROM、EPROM、FLASH EPROM、任意の他のメモリチップもしくはカートリッジ、またはコンピュータが読み取ることができる任意の他の媒体を含む。機械可読記憶媒体は、機械可読記憶デバイス、機械可読記憶基板、メモリデバイス、機械可読伝播信号に影響を及ぼす物質の組成物、またはそれらの1つ以上の組み合わせであってもよい。
【0047】
一態様では、方法は、動作、命令、または機能であってもよく、その逆であってもよい。一態様では、請求項は、1つ以上の請求項、1つ以上の単語、1つ以上の文、1つ以上の句、1つ以上の段落、および/または1つ以上の請求項のいずれかに列挙された単語(例えば、命令、操作、機能、または構成要素)の一部またはすべてを含むように補正することができる。
【0048】
ハードウェアとソフトウェアとの互換性を説明するために、様々な例示的なブロック、モジュール、構成要素、方法、動作、命令、およびアルゴリズムなどの項目は、それらの機能性に関して一般的に説明されている。そのような機能性がハードウェア、ソフトウェア、またはハードウェアとソフトウェアとの組み合わせとして実装されるかどうかは、特定の用途およびシステム全体に課される設計制約に依存する。当業者は、特定の用途ごとに様々な方法で、説明された機能性を実装することができる。
【0049】
本明細書で使用される場合、一連の項目の後の「のうちの少なくとも1つ」という語句(the phrase “at least one of” preceding a series of items)は、項目のいずれかを分離するための「および」または「または」という用語と共に、リストの各メンバ(例えば、各項目)ではなく、リスト全体を修飾する。「のうちの少なくとも1つ」という語句は、少なくとも1つの項目の選択を必要とせず、むしろ、語句は、項目のいずれか1つの少なくとも1つ、および/または項目の任意の組み合わせの少なくとも1つ、および/または項目の各々の少なくとも1つを含む意味を可能にする。例として、「A、B、およびCの少なくとも1つ」または「A、B、またはCの少なくとも1つ」という語句はそれぞれ、Aのみ、Bのみ、もしくはCのみ、A、B、およびCの任意の組み合わせ、ならびに/またはA、BおよびCの各々の少なくとも1つを指す。
【0050】
「例示的」という用語は、本明細書では「例、事例、または例示としての役割を果たす」ことを意味するために使用される。本明細書で「例示的」として説明される任意の実施形態は、必ずしも他の実施形態よりも好ましいまたは有利であると解釈されるべきではない。1つの態様(an aspect)、その態様(the aspect)、別の態様、いくつかの態様、1つ以上の態様、1つの実装形態(an implementation)、その実装形態(the implementation)、別の実装形態、いくつかの実装形態、1つ以上の実装形態、1つの実施形態(an embodiment)、その実施形態(the embodiment)、別の実施形態、いくつかの実施形態、1つ以上の実施形態、1つの構成(a configuration)、その構成(the configuration)、別の構成、いくつかの構成、1つ以上の構成、ユーザ技術、本開示(the disclosure)、本開示(the present disclosure)、それらの他の変形などの語句は、便宜上のものにすぎず、そのような語句に関する開示がユーザ技術に不可欠であることも、そのような開示がユーザ技術のすべての構成に適用されることも意味しない。そのような語句に関する開示は、すべての構成または1つ以上の構成に適用することができる。そのような語句に関する開示は、1つ以上の例を提供することができる。1つの態様またはいくつかの態様などの語句は、1つ以上の態様を指すことができ、その逆も同様であり、これは他の前述の語句にも同様に適用される。
【0051】
単数形の要素への言及は、特に明記しない限り、「1つかつ1つのみ」を意味するものではなく、むしろ「1つ以上」を意味するものである。男性の頭字語(例えば、彼の)には、女性および中性の性別(例えば、彼女の、およびその)が含まれ、逆もまた同様である。「いくつか」という用語は、1つ以上を指す。下線および/または斜体の見出しおよび小見出しは、便宜上のみ使用され、ユーザ技術を限定するものではなく、ユーザ技術の説明の解釈に関連して参照されるものではない。第1および第2などの関係用語は、あるエンティティまたは動作を別のエンティティまたは動作から区別するために使用することができ、そのようなエンティティまたは動作間の実際のそのような関係または順序を必ずしも必要とせず、暗示もしない。当業者に公知の、または後に当業者に知られるようになる、本開示を通して説明される様々な構成の要素に対するすべての構造的および機能的同等物は、参照により本明細書に明示的に組み込まれ、ユーザ技術に包含されることが意図される。さらに、本明細書に開示されたものは、そのような開示が上述の説明に明示的に記載されているかどうかにかかわらず、公衆に供されることを意図していない。請求項のいかなる要素も、要素が「のための手段(means for)」という語句を使用して明示的に列挙されるか、または方法請求項の場合、要素が「のためのステップ(step for)」という語句を使用して列挙されていない限り、米国特許法第112条の第6段落の規定の下で解釈されるべきではない。
【0052】
本明細書は多くの詳細を含んでいるが、これらは記載され得るものの範囲に対する限定として解釈されるべきではなく、むしろユーザ事項の特定の実装形態の説明として解釈されるべきである。別個の実施形態の文脈で本明細書に記載されている特定の特徴は、単一の実施形態において組み合わせて実装することもできる。逆に、単一の実施形態の文脈で説明される様々な特徴は、複数の実施形態において別々に、または任意の適切な部分的組み合わせで実装することもできる。さらに、特徴は、特定の組み合わせで作用するものとして上述され、最初にそのように記載されてもよいが、記載された組み合わせからの1つ以上の特徴は、場合によっては、組み合わせから切り取られてもよく、記載された組み合わせは、部分的組み合わせまたは部分的組み合わせの変形に向けられてもよい。
【0053】
本明細書のユーザ事項は、特定の態様に関して説明されてきたが、他の態様も実装することができ、上記の特許請求の範囲内にある。例えば、動作は特定の順序で図面に示されているが、これは、望ましい結果を達成するために、そのような動作が示された特定の順序で、もしくは連続した順序で実施されること、または示されたすべての動作が実施されることを必要とすると理解されるべきではない。特許請求の範囲に記載の動作は、異なる順序で実施することができ、それでもなお望ましい結果を達成することができる。一例として、添付の図面に示されているプロセスは、望ましい結果を達成するために、示されている特定の順序、または連続する順序を必ずしも必要としない。特定の状況では、マルチタスク処理および並列処理が有利である可能性がある。さらに、上記の態様における様々なシステム構成要素の分離は、すべての態様においてそのような分離を必要とすると理解されるべきではなく、記載されたプログラム構成要素およびシステムは、一般に、単一のソフトウェア製品に一緒に統合されるか、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。
【0054】
表題、背景、図面およびそれらの説明は、本明細書によって本開示に組み込まれ、限定的な説明としてではなく、本開示の例示的な例として提供される。特許請求の範囲または意味を限定するために使用されないことを理解するものとして提出される。さらに、詳細な説明では、説明は例示的な例を提供し、様々な特徴は、本開示を簡素化する目的で様々な実装形態で一緒にグループ化されることが分かる。本開示の方法は、記載されたユーザ事項が各請求項に明示的に記載されているよりも多くの特徴を必要とするという意図を反映すると解釈されるべきではない。むしろ、特許請求の範囲が反映するように、本発明のユーザ事項は、単一の開示された構成または動作のすべての特徴よりも少ないものにある。特許請求の範囲は、本明細書により詳細な説明に組み込まれ、各請求項は、別個に記載されたユーザ事項として独立している。
【0055】
特許請求の範囲は、本明細書に記載された態様に限定されることを意図するものではなく、特許請求の範囲の文言と一致する全範囲が与えられ、すべての法的均等物を包含するものである。それにもかかわらず、特許請求の範囲のいずれも、適用される特許法の要件を満たさないユーザ事項を包含することを意図しておらず、そのように解釈されるべきでもない。
図1
図2
図3
図4
図5
図6
図7
図8A
図8B
図9
図10
【外国語明細書】