(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-11-22
(54)【発明の名称】意味特徴の学習を介したUnseenドメインからの顔認識
(51)【国際特許分類】
G06T 7/00 20170101AFI20231115BHJP
G06N 3/0464 20230101ALI20231115BHJP
G06N 3/088 20230101ALI20231115BHJP
【FI】
G06T7/00 510F
G06N3/0464
G06N3/088
G06T7/00 350C
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2023525981
(86)(22)【出願日】2021-11-08
(85)【翻訳文提出日】2023-04-27
(86)【国際出願番号】 US2021058404
(87)【国際公開番号】W WO2022103682
(87)【国際公開日】2022-05-19
(32)【優先日】2020-11-10
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2021-11-05
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2020-11-16
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】504080663
【氏名又は名称】エヌイーシー ラボラトリーズ アメリカ インク
【氏名又は名称原語表記】NEC Laboratories America, Inc.
(74)【代理人】
【識別番号】100123788
【氏名又は名称】宮崎 昭夫
(74)【代理人】
【識別番号】100127454
【氏名又は名称】緒方 雅昭
(72)【発明者】
【氏名】ファラキ、 マスード
(72)【発明者】
【氏名】ユ、 シアン
(72)【発明者】
【氏名】ツァイ、 イ-シューアン
(72)【発明者】
【氏名】ス、 ユミン
(72)【発明者】
【氏名】チャンドラカー、 マンモハン
【テーマコード(参考)】
5B043
5L096
【Fターム(参考)】
5B043BA04
5B043FA07
5B043GA02
5L096HA11
5L096KA04
(57)【要約】
Unseenドメインからの顔認識を改良するための方法であって、複数のデータセットからアイデンティティが関連付けられた顔画像を取得し、モデルを訓練するために複数のデータセットのうちの2つのデータセットをランダムに選択し、バッチ顔画像とそれに対応するラベルをサンプリングし、1つのアンカー顔画像、同じアイデンティティからのサンプル顔画像及び1つのアンカー顔画像とは異なるアイデンティティからのサンプル顔画像を含むトリプレットサンプルをサンプリングし、選択された2つのデータセットのサンプルを用いてフォワードパスを実行し、バックボーン畳み込みニューラルネットワーク(CNN)を用いて顔画像の表現を見つけ、顔画像の表現とバックボーンCNNから、ポジティブペアとネガティブペアを用いて異なる空間で作成される共分散を生成し、共分散を用いてクロスドメイン類似度損失関数を計算する。
【選択図】
図8
【特許請求の範囲】
【請求項1】
意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための方法であって、
複数のデータセットからアイデンティティが関連付けられた顔画像を取得し(1001)、
モデルを訓練するために複数のデータセットのうちの2つのデータセットをランダムに選択し(1003)、
バッチ顔画像とそれに対応するラベルをサンプリングし(1005)、
1つのアンカー顔画像、同じアイデンティティからのサンプル顔画像及び前記1つのアンカー顔画像とは異なるアイデンティティからのサンプル顔画像を含むトリプレットサンプルをサンプリングし(1007)、
選択された2つのデータセットのサンプルを用いてフォワードパスを実行し(1009)、
バックボーン畳み込みニューラルネットワーク(CNN)を用いて顔画像の表現を見つけ(1011)、
前記顔画像の表現と前記バックボーンCNNから、ポジティブペアとネガティブペアを用いて異なる空間で作成される共分散を生成し(1013)、
前記共分散を用いてクロスドメイン類似度損失関数を計算する(1015)、方法。
【請求項2】
前記共分散は、前記選択された2つのデータセットの基本的な分布をエンコードする、請求項1に記載の方法。
【請求項3】
前記ポジティブペアは同じアイデンティティからの顔画像であり、ネガティブペアは異なるアイデンティティからの顔画像である、請求項1に記載の方法。
【請求項4】
前記クロスドメイン類似度損失関数は、1つのドメインに存在する類似度メトリックを転送し、別のドメインからアイデンティティのコンパクトクラスタを学習する、請求項1に記載の方法。
【請求項5】
前記クロスドメイン類似度損失関数は、2つのドメインからの入力を受け入れ、第1ドメインからポジティブ及びネガティブペアの基本的な残差分布を推定し、第2ドメインのポジティブサンプルとネガティブサンプルとの間の距離を測定する、請求項1に記載の方法。
【請求項6】
Nが観測数であり、
【数1】
がテンソルベクトルであり、
【数2】
であるとき、前記ポジティブペアの共分散行列は、
【数3】
で与えられる、請求項1に記載の方法。
【請求項7】
Nが観測数であり、
【数4】
がテンソルベクトルであり、
【数5】
であるとき、前記ネガティブペアの共分散行列は、
【数6】
で与えられる、請求項1に記載の方法。
【請求項8】
意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するためのコンピュータで読み取り可能なプログラムを含む、非一時的なコンピュータで読み取り可能な記録媒体であって、
前記コンピュータで読み取り可能なプログラムが前記コンピュータで実行されると、前記コンピュータに、
複数のデータセットからアイデンティティが関連付けられた顔画像を取得させ(1001)、
モデルを訓練するために複数のデータセットのうちの2つのデータセットをランダムに選択させ(1003)、
バッチ顔画像とそれに対応するラベルをサンプリングさせ(1005)、
1つのアンカー顔画像、同じアイデンティティからのサンプル顔画像及び前記1つのアンカー顔画像とは異なるアイデンティティからのサンプル顔画像を含むトリプレットサンプルをサンプリングさせ(1007)、
選択された2つのデータセットのサンプルを用いてフォワードパスを実行させ(1009)、
バックボーン畳み込みニューラルネットワーク(CNN)を用いて顔画像の表現を見つけさせ(1011)、
前記顔画像の表現と前記バックボーンCNNから、ポジティブペアとネガティブペアを用いて異なる空間で作成される共分散を生成させ(1013)、
前記共分散を用いてクロスドメイン類似度損失関数を計算させる(1015)、非一時的なコンピュータで読み取り可能な記録媒体。
【請求項9】
前記共分散は、前記選択された2つのデータセットの基礎となる分布を符号化する、請求項8に記載の非一時的なコンピュータで読み取り可能な記録媒体。
【請求項10】
前記ポジティブペアは同じアイデンティティからの顔画像であり、ネガティブペアは異なるアイデンティティからの顔画像である、請求項8に記載の非一時的なコンピュータで読み取り可能な記録媒体。
【請求項11】
前記クロスドメイン類似度損失関数は、1つのドメインに存在する類似度メトリックを転送して、別のドメインからアイデンティティのコンパクトクラスタを学習する、請求項8に記載の非一時的なコンピュータで読み取り可能な記録媒体。
【請求項12】
前記クロスドメイン類似度損失関数は、2つのドメインからの入力を受け入れ、第1のドメインから前記ポジティブ及びネガティブペアの基礎となる残差分布を推定し、ポジティブサンプルとネガティブサンプルとの間の距離を測定する、請求項8に記載の非一時的なコンピュータで読み取り可能な記録媒体。
【請求項13】
Nが観測数であり、
【数7】
がテンソルベクトルであり、
【数8】
であるとき、前記ポジティブペアの共分散行列が、
【数9】
で与えられる、請求項8に記載の非一時的なコンピュータで読み取り可能な記録媒体。
【請求項14】
Nが観測数であり、
【数10】
がテンソルベクトルであり、
【数11】
であるとき、前記ネガティブペアの共分散行列が、
【数12】
で与えられる、請求項8に記載の非一時的なコンピュータで読み取り可能な記録媒体。
【請求項15】
意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するためのシステムであって、
メモリと、
複数のデータセットからアイデンティティが関連付けられた顔画像を取得し(1001)、
モデルを訓練するために複数のデータセットのうちの2つのデータセットをランダムに選択し(1003)、
バッチ顔画像とそれに対応するラベルをサンプリングし(1005)、
1つのアンカー顔画像、同じアイデンティティからのサンプル顔画像及び前記1つのアンカー顔画像とは異なるアイデンティティからのサンプル顔画像を含むトリプレットサンプルをサンプリングし(1007)、
選択された2つのデータセットのサンプルを用いてフォワードパスを実行し(1009)、
バックボーン畳み込みニューラルネットワーク(CNN)を用いて顔画像の表現を見つけ(1011)、
前記顔画像の表現と前記バックボーンCNNから、ポジティブペアとネガティブペアを用いて異なる空間で作成される共分散を生成し(1013)、
前記共分散を用いてクロスドメイン類似度損失関数を計算する(1015)ように構成された、前記メモリと通信する1つまたは複数のプロセッサと、
を有するシステム。
【請求項16】
前記ポジティブペアは同じアイデンティティからの顔画像であり、ネガティブペアは異なるアイデンティティからの顔画像である、請求項15に記載のシステム。
【請求項17】
前記クロスドメイン類似度損失関数は、1つのドメインに存在する類似度メトリックを転送して、別のドメインからアイデンティティのコンパクトクラスタを学習する、請求項15に記載のシステム。
【請求項18】
前記クロスドメイン類似度損失関数は、2つのドメインからの入力を受け入れ、第1のドメインから前記ポジティブ及びネガティブペアの根底にある残差分布を推定し、前記第2のドメインのポジティブサンプルとネガティブサンプルとの間の距離を測定する、請求項15に記載のシステム。
【請求項19】
Nが観測数であり、
【数13】
がテンソルベクトルであり、
【数14】
であるとき、前記ポジティブペアの共分散行列が、
【数15】
で与えられる、請求項15に記載のシステム。
【請求項20】
Nが観測数であり、
【数16】
がテンソルベクトルであり、
【数17】
であるとき、前記ネガティブペアの共分散行列が、
【数18】
で与えられる、請求項15に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
この出願は、2020年11月10日に出願された米国仮特許出願第63/111,842号、2020年11月16日に出願された米国仮特許出願第63/114,013号及び2021年11月16日に出願された米国特許出願第17/519,950号を基礎とする優先権を主張し、それぞれの開示の全てをここに取り込む。
【0002】
本発明は、顔認識モデルに関し、より具体的には、意味特徴の学習を介したUnseenドメインからの顔認識を改良することに関する。
【背景技術】
【0003】
深層ニューラルネットワークを利用した顔認識は、一般的な評価ベンチマークにおいて有望な結果を示している。現在の方法の多くは訓練データとテストデータの分布が類似しているという前提に基づいている。しかしながら、実際のシナリオに展開すると、これらのモデルでは、多くの場合、未知の統計値でデータをテストするためにうまく一般化されない。顔認識アプリケーションにおいて、このことは訓練データと評価データの間で民族、性別、年齢等の属性が変化することを意味する場合がある。一方、少数しか存在しない属性に従ってより多くのデータを収集してラベル付けするには、コストを要する。したがって、既存のデータを考慮して、普遍的な顔の表現を生成し、そのような多様なシナリオに適用できる訓練アルゴリズムが必要である。
【発明の概要】
【0004】
意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための方法が提示される。本方法は、複数のデータセットからアイデンティティが関連付けられた顔画像を取得し、モデルを訓練するために複数のデータセットのうちの2つのデータセットをランダムに選択し、バッチ顔画像とそれに対応するラベルをサンプリングし、1つのアンカー顔画像、同じアイデンティティからのサンプル顔画像及び前記1つのアンカー顔画像とは異なるアイデンティティからのサンプル顔画像を含むトリプレットサンプルをサンプリングし、選択された2つのデータセットのサンプルを用いてフォワードパスを実行し、バックボーン畳み込みニューラルネットワーク(CNN)を用いて顔画像の表現を見つけ、顔画像の表現とバックボーンCNNから、ポジティブペアとネガティブペアを用いて異なる空間で作成される共分散を生成し、共分散を用いてクロスドメイン類似度損失関数を計算する。
【0005】
意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するためのコンピュータで読み取り可能なプログラムを含む、非一時的なコンピュータで読み取り可能な記録媒体が提示される。コンピュータで読み取り可能なプログラムは、コンピュータで実行されると、コンピュータに、複数のデータセットからアイデンティティが関連付けられた顔画像を取得させ、モデルを訓練するために複数のデータセットのうちの2つのデータセットをランダムに選択させ、バッチ顔画像とそれに対応するラベルをサンプリングさせ、1つのアンカー顔画像、同じアイデンティティからのサンプル顔画像及び前記1つのアンカー顔画像とは異なるアイデンティティからのサンプル顔画像を含むトリプレットサンプルをサンプリングさせ、選択された2つのデータセットのサンプルを用いてフォワードパスを実行させ、バックボーン畳み込みニューラルネットワーク(CNN)を用いて顔画像の表現を見つけさせ、顔画像の表現とバックボーンCNNから、ポジティブペアとネガティブペアを用いて異なる空間で作成される共分散を生成させ、共分散を用いてクロスドメイン類似度損失関数を計算させる。
【0006】
意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するためのシステムが提示される。本システムは、メモリと、複数のデータセットからアイデンティティが関連付けられた顔画像を取得し、モデルを訓練するために複数のデータセットのうちの2つのデータセットをランダムに選択し、バッチ顔画像とそれに対応するラベルをサンプリングし、1つのアンカー顔画像、同じアイデンティティからのサンプル顔画像及び1つのアンカー顔画像とは異なるアイデンティティからのサンプル顔画像を含むトリプレットサンプルをサンプリングし、選択された2つのデータセットのサンプルを用いてフォワードパスを実行し、ックボーン畳み込みニューラルネットワーク(CNN)を用いて顔画像の表現を見つけ、顔画像の表現とバックボーンCNNから、ポジティブペアとネガティブペアを用いて異なる空間で作成される共分散を生成し、共分散を用いてクロスドメイン類似度損失関数を計算する(1015)ように構成された、メモリと通信する1つまたは複数のプロセッサと、を有する。
【0007】
これら及び他の特徴並びに利点は、以下の典型的な実施形態の詳細な説明を添付の図面と併せて読むことで明らかになるであろう。
【0008】
本開示では、後述するように、以下の図面を参照しながら好ましい実施形態について詳細に説明する。
【図面の簡単な説明】
【0009】
【
図1】
図1は、本発明の一実施形態による、訓練データにおける特定の変動にバイアスの無い特徴量を出力できるフェアモデルを学習するための例示的な概略のブロック/フロー図である。
【0010】
【
図2】
図2は、本発明の一実施形態による、別のドメインからサンプリングしたコンパクトなクラスタを学習するために、各ドメインから類似度メトリック行列を作成及び転送するための例示的な概略のブロック/フロー図である。
【0011】
【
図3】
図3は、本発明の一実施形態による、例示的な訓練プロセスのブロック/フロー図である。
【0012】
【
図4】
図4は、本発明の一実施形態による、クロスドメイントリプレット損失の例示的な概略のブロック/フロー図である。
【0013】
【
図5】
図5は、本発明の一実施形態による、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための例示的な数式のブロック/フロー図である。
【0014】
【
図6】
図6は、本発明の一実施形態による、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための例示的な実際のアプリケーションである。
【0015】
【
図7】
図7は、本発明の一実施形態による、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための例示的な処理システムである。
【0016】
【
図8】
図8は、本発明の一実施形態による、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための例示的な方法のブロック/フロー図である。
【発明を実施するための形態】
【0017】
ドメイン汎化は、特定の課題に対処するために世に出たが、主に限られた数のクラスによるオブジェクトの分類に使用される。ドメイン汎化は、異なる分布を有する複数のラベル付けされたソースドメインを用いて、テスト時にUnseenターゲットデータを適切に汎化するモデルを学習することを目的とする。但し、多くのドメイン汎化法はクローズドセットのシナリオに合わせて適合されているため、ドメインのラベル空間がバラバラである場合は直接適用できない。汎化された顔認識は、非常に大規模なカテゴリを有するオープンセットアプリケーションの顕著な例であり、この分野でのさらなる研究の必要性を奨励している。
【0018】
例示的な実施形態は、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識に起因して提示される問題を改良するアプローチを導入する。モデルの訓練では、様々なソースからの訓練データ間の意味的一致性の概念を活用することが有益である。結果として、例示的な実施形態は、クロスドメイントリプレット(CDT:Cross-Domain Triplet)損失、すなわちトリプレット方針に基づく損失を導入し、2つのドメインを採用することで有用な特徴量を学習し、一方のドメインは類似度メトリックを提供し、アイデンティティのコンパクトな特徴量クラスタを他方のドメインから学習する。類似度メトリックは、共分散行列によってエンコードされる。
【0019】
本発明の例示的な実施形態は、2つの観察されたドメインに共に含まれる情報を用いて、ドメインのより良い整列を提供するCDT損失を導入する。CDT損失は、最初に1つのデータ分布の類似度メトリックを考慮し、次に別のドメインに属するアイデンティティのコンパクトな特徴量クラスタを適用するために、トリプレット損失と同様の方法でメトリックを使用する。直感的に、CDT損失は、ネットワーク内で最小化される統合損失関数において、あるドメインから取得された明示的なメトリックを別のドメインからのトリプレットサンプルと識別的に相関させ、それが訓練ドメインのより良い整列につながる。例示的な実施形態は、またメタ学習パイプラインに損失を組み込み、ドメインシフト下で汎化された特徴量を学習するためにネットワークパラメータをさらに適用する。
【0020】
クラス固有の共分散行列を使用する代わりに、例示的な実施形態は、ポジティブ及びネガティブペアの特徴量残余空間に問題をキャストし、その後、1つのドメインにおいて、ポジティブ及びネガティブペアの類似度メトリックを推定する。次に、例示的な実施形態は、別のドメインのトリプレットを利用して、個々のコンパクトなクラスタを学習する。理論的洞察及び実験的評価によって裏付けられているように、CDT損失は2つのドメインを特徴的な方法で整列する。さらに、メタ学習フレームワークでは、ドメインシフトで汎化された特徴量を学習するために、ネットワークパラメータがさらに適用される。
【0021】
この分野における最近の研究努力は、メタ顔認識(MFR:Meta Face Recognition)であり、この場合、損失は、ハードネガティブ及びポジティブサンプルの距離、アイデンティティの分類及びドメイン中心間の距離から構成される。さらに、単にドメインの平均を実施しても、必ずしもドメインの分布が整列するとは限らず、例えば、異なるドメインからの異なるクラスのサンプルが整列する等、望ましくない影響が生じる可能性がある。結果として、この損失要素が必ずしも該認識を改良するとは限らない。
【0022】
要約すると、例示的な実施形態は、1つのドメインに存在する類似度メトリックを明示的に転送する効果的なCDT損失関数を導入し、別のドメインからアイデンティティのコンパクトなクラスタを学習する。これにより、Unseenドメインから顔認識のための意味的に意味のある表現を学習することになる。より汎化された特徴量が得られるドメインシフトにネットワークパラメータを顕在化するために、例示的な実施形態は、モデルにとらわれない学習パイプラインに新しい損失を組み込む。
【0023】
特に、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識の問題を改良するアプローチが提示される。モデルの訓練では、異なる分布からのデータ間の意味的一致性の概念を活用することが有益である。例示的な方法は、あるドメインからアイデンティティのコンパクトなクラスタを実施することで、意味的に意味のある特徴量を学習する。コンパクトさは、異なる統計を備える別のドメインに属する基本的な類似度メトリックによって測定される。実際、例示的な実施形態は、異なるラベル空間を有するドメインにわたる類似度メトリックとしてエンコードされた知見を抽出する。
【0024】
例示的なアーキテクチャは、画像/顔認識設計に従う。例示的なアーキテクチャは、θ
rでパラメータ化された表現学習ネットワーク
【数1】
、θ
eでパラメータ化された埋め込みネットワーク
【数2】
及びθ
cでパラメータ化された分類器ネットワーク
【数3】
を含む。
【数4】
は、テスト時に汎化された特徴量を抽出するために最終的に使用されるバックボーンである。
【数5】
は、例えば、
【数6】
から入力を受け取る1組の全結合層である、どちらも軽いネットワークである。より具体的には、
【数7】
を介して画像Iを転送すると、テンソル
【数8】
が出力される。このテンソルは、平滑化された後、分類器
【数9】
及び埋め込みネットワーク
【数10】
に対する入力として機能する。
【0025】
より詳細な内容に触れる前に、定式化で使用される幾つかの基本的な概念を説明する。複数のソースドメインから汎化された特徴量を学習するための機能が提供され、メタ学習を用いてソリューションがモデルに依存しないアルゴリズムに組み込まれる。
【0026】
太字の小文字(例えば、
【数11】
は、列ベクトルを示すために使用され、太字の大文字(例えば、
【数12】
は行列に使用される。d×dの恒等行列は
【数13】
で表される。テンソル
【数14】
により、次数kの多次元アレイは、例えば
【数15】
で示唆される。
【数16】
は、
【数17】
の位置
【数18】
にある要素を示す。
【0027】
リーマン幾何学において、ユークリッド空間
【数19】
は、
【数20】
で定義される内積を備えたリーマン多様体である。
【数21】
におけるマハラノビス距離のクラスは次のように表される。
【数22】
【0028】
ここで、
【数23】
は半正定値(PSD:Positive Semi-Definite)行列である。これは、メトリック行列が
【数24】
として選択された場合、ユークリッド
【数25】
距離に要約される。マハラノビスメトリック学習の背後にある動機付けは、
【数26】
における軸を拡大または縮小することで
【数27】
が特定の有用なプロパティを与えるように
【数28】
を決定することである。
【0029】
メトリック学習に関する一般的な深層ニューラルネットワークにおいて、減次元空間へのデータの埋め込みを提供するために、損失層(例えば、対照またはトリプレット)の直前の重み行列
【数29】
を有するFC層に依存する。
【数30】
がPSD行列であり、
【数31】
として分解できるという事実を考えると、ネットワークを通過する(バッチの)2つのサンプルxとyの間の2乗
【数32】
距離は、次のように計算される。
【数33】
【0030】
ここで、
【数34】
は、画像x上のネットワークの機能を表す。
【0031】
正式には、d×d共分散行列(dは特徴量マップの次元である)は、次のような、N個の観測値(特徴ベクトル)
【数35】
のセットから構築される。
【数36】
【0032】
【0033】
共分散行列は、その入力特徴ベクトルの二次統計をエンコードする。これは、このような単一のコンパクトな表現でデータの基本的な分布を推定する動機付けになる。少数ショット学習(few-shot learning)に関する最近の研究では、クラス固有の共分散行列を利用して、クエリサンプルと特定のクラスサンプル間の分布の一致性を測定する利点も示されている。例示的な実施形態は、ポジティブ(ネガティブ)の画像ペアを用いて、等しい(異なる)アイデンティティを有する顔画像を表す。さらに、トリプレット(アンカー、ポジティブ、ネガティブ)には、1つのアンカー顔画像、同じアイデンティティの別のサンプル及び別のアイデンティティの1つの画像が含まれる。
【0034】
クロスドメイン類似度学習に関して、例示的な実施形態は、訓練中にそれぞれ民族等の異なる属性を有するm個のソースドメインが観察される顔認識シナリオに取り組む。テスト時に、様々なアイデンティティと属性を有する個人のサンプルを含む新しいターゲットドメインがネットワークに提示される。例示的な実施形態は、この問題を、クロスドメイントリプレット(CDT:Cross-Domain Triplet)損失と呼ばれるトリプレット損失目的関数に基づく新規の損失を用いてネットワークを最適化しながら定式化する。
【0035】
クロスドメイントリプレット損失は、2つのドメイン
【数38】
からの入力を受け入れ、1つのドメイン(例えば、
【数39】
からポジティブペアとネガティブペアの基本的な残差分布を推定し、他のドメイン(例えば、
【数40】
の(アンカー、ポジティブ)サンプルと(アンカー、ネガティブ)サンプルとの間の距離を測定する。計算された距離と予め定義されたマージンとを用いて、標準のトリプレット損失関数が適用されて、2つの分布を整列する。
【0036】
一例において、
【数41】
は、j
【数42】
番目のドメインからのB
jトリプレットのバッチを表し、そこからポジティブサンプル
【数43】
を考えることができる。簡単にするために、例示的な方法では、上付き文字jを省略する。例示的な方法は、共分散行列によって基本的な分布を推定するために、各画像の全ての局所記述子を組み合わせる。具体的には、例示的な実施形態は、特徴量テンソル表現
【数44】
を取得するために、
【数45】
を介して各ポジティブ画像ペア(a、p)を転送する。例示的な実施形態は、ペアワイズ差分の空間に問題をキャストする。
【0037】
したがって、テンソルは
【数46】
として定義される。例示的な実施形態は、得られたテンソル
【数47】
をベクトル
【数48】
に平滑化する。
【0038】
これにより、ペアワイズ差分空間におけるポジティブペアの共分散行列は次のように計算できる。
【数49】
【0039】
【0040】
同様に、Bネガティブペア
【数51】
のバッチを用いて、例示的な方法は、各(a,n)について
【数52】
を見出し、
【数53】
をベクトル
【数54】
に平滑化する
【0041】
これにより、ネガティブペアの共分散行列を次のように定義できる。
【数55】
【0042】
【0043】
画像のバッチが適切なサンプルを有することを考慮すると、各顔画像は共分散計算においてHWサンプルを有するため、有効なPSD共分散行列が確実に得られる。さらに、大きなバッチサイズからのサンプルは、ドメイン分布を十分に近似できる。
【0044】
CDT損失は、上記で定義されたマハラノビス距離関数
【数57】
を利用することで、同様の方法で機能し、別のドメインからの類似度メトリックを使用してサンプルの距離を計算する。ドメイン
【数58】
からのトリプレット画像
【数59】
とドメイン
【数60】
からの
【数61】
がそれぞれポジティブペアとネガティブペアの共分散行列を介して計算されると、次のように定義される。
【数62】
【0045】
ここで、τは所定のマージンであり、
【数63】
はヒンジ関数である。
【0046】
例示的な方法は、ロングテール認識問題においてより効果的であることが示されているため、クラス平衡サンプリングを利用して、共分散及びCDT損失計算の両方に入力を提供する。
【0047】
提案の中心は、異なる分布を有する2つのドメインのサンプルで定義された
【数64】
の形式の距離である。rが正規分布から引き出された場合、Σを乗算すると、経験的共分散行列に従って距離が得られる。ここで、ポイント全体の最適化はドメインの整列を意味する。より具体的には、ΣがSPDであると仮定すると、例えば、
【数65】
の固有値分解が存在する。本項を拡張すると、次のようになる。
【数66】
【0048】
これは、rを対応する固有値によって重み付けされたΣの固有ベクトルと相関させる。これは、rが経験的共分散行列Σの主要な固有ベクトルの方向にあるときに最大となる。つまり、Σの固有ベクトルは入力データの分散が最大になる方向であるため、この項をr個のベクトルにわたって最小化すると、2つのデータソースの整列が生じる。以下で説明する
図4は、損失の基本的なプロセスを示している。
【0049】
ドメイン汎化タスクの最近の傾向に従って、例示的な実施形態は、モデルにとらわれない学習フレームワーク下で勾配ベースのメタ訓練/メタテストエピソードを用いて、最適化プロセスを分布シフトに公開する。以下に再現されたアルゴリズム1は、全体的な訓練プロセスをまとめたものである。より具体的には、訓練の各ラウンドで、例示的な実施形態は、入力ソースドメインを1つのメタテストドメインと残りのメタ訓練ドメインに分割する。例示的な実施形態は、損失を計算するために、各ドメインからB個のトリプレットをランダムにサンプリングする。
【表1】
【0050】
最初に、例示的な実施形態は、分類及びトリプレット損失L
sの合計に基づいて、2つの共分散行列Σ
+及びΣ
-、並びにパラメータの一時的なセット
【数67】
を計算する。ネットワークは、提供されたメタテストドメインで意味的に適切に機能するように訓練されているため、Σ
+、Σ
-及び
【数68】
を用いて、メタテストドメインでの損失L
tを計算する。この損失には、ドメインアラインメントのためのクロスドメイン類似度も含む、追加のCDT損失I
cdtを有する。最終的に、モデルパラメータは、L
sとL
tの両方の累積勾配によって更新される。これは、オリジナルのモデルに依存しないメタ学習(MAML)よりも効果的であることが示されているためである。例示的な実施形態において、累積損失L
tは、モデルをより高次の勾配で更新するために追加の正則化を提供する。
【0051】
分類訓練信号を有することは、顔認識アプリケーションにとって有益である。結果として、例示的な方法は、以下のようにアイデンティティ分類損失としてラージマージンコサイン損失(LMCL:Large Margin Cosine Loss)を使用する。
【数69】
【0052】
ここで、y
iは画像I
iのグラウンドトゥルースアイデンティティであり、
【数70】
は分類器ネットワークであり、w
yiはアイデンティティy
iの重みベクトルであり、sはスケーリング乗数であり、mはマージンである。
【0053】
例示的な実施形態は、f
rネットワークがドメインからのアイデンティティに従って局所的にコンパクトな意味特徴を学習することをさらに促進する。この目的のために、例示的な方法はトリプレット損失を使用する。標準の
【数71】
距離関数
【数72】
を使用する場合、トリプレット損失関数は、aとnの間の距離が、aとpの間の距離に予め定義されたマージンpを加えたものよりも大きくなるような、各トリプレットに関する訓練信号を提供する。より正式には
【数73】
である。
【0054】
w
y、f
c(I)及びf
e(I)は、損失を計算する前に
【数74】
正規化されることに留意されたい。さらに、
【数75】
は、
【数76】
によって抽出された表現に影響する。
【0055】
要約すると、例示的な方法は、クロスドメイントリプレット(CDT)損失と呼ばれるクロスドメインメトリック学習損失を導入し、Unseenドメインにおける顔認識を改良する。CDT損失は、1つのドメインからのアイデンティティのコンパクトな機能クラスタを実施することにより、意味的に意味のある特徴の学習を促進する。コンパクトさは、異なる統計を有する別の訓練ドメインに属する基本的な類似度メトリックによって測定される。直感的に、CDT損失は、ネットワーク内で最小化される統合損失関数において、1つのドメインから導出された明示的なメトリックを別のドメインからのトリプレットサンプルと識別的に相関させ、訓練ドメインのより良い整列につながる。モデルに依存しない学習パイプラインにおいて、ドメインシフト下で汎化された特徴量を学習するために、ネットワークパラメータがさらに適用される。メタ顔認識の最近の研究とは異なり、例示的な方法では、訓練中に入念なハードペアサンプルマイニング及びフィルタリング戦略を必要としない。
【0056】
図1は、本発明の一実施形態による、訓練データの特定の変動にバイアスの無い特徴量を出力できるフェアモデルを学習するための例示的な概略のブロック/フロー図である。
【0057】
深層ニューラルネットワークを使用した顔認識は、一般的な評価ベンチマークで有望な結果を示している。現在の方法の多くは、訓練データとテストデータがデータ分布を共有するという前提に基づいている。但し、実際のシナリオに展開すると、これらのモデルは、統計が不明なテストデータを処理できないため、失敗することがよくある。顔認識アプリケーションでは、これは訓練データ及び評価データの民族、性別、年齢等の属性の変化を意味する。一方、少数しか存在しない属性に従ってより多くのデータを収集してラベル付けするには、コストを要する。したがって、既存のデータを考慮して、普遍的な顔の表現を生成し、そのような多様なシナリオに適用可能な普遍的な顔の表現を実現できる訓練アルゴリズムが必要である。ここで、例示的な実施形態は、訓練中に民族及び性別等の異なる属性をそれぞれが有する幾つかのソースドメインが観察される顔認識シナリオに取り組む。テスト時に、様々なアイデンティティと属性を有する個人のサンプルを含む新しいターゲットドメインがネットワークに提示される。
図1で示すように、例示的な実施形態は、民族110等の訓練データの特定の変動にバイアスの無い特徴量130を出力できるフェアモデル120を学習することを目的とする。
【0058】
モデルは、多様なデータ分布を含む複数のデータセットを用いて訓練されるため、試験データが未知の分布、例えば民族からのものである場合、様々なシナリオを扱うことができる。したがって、最終的なモデルは、新しい環境(新しい国等)に展開されたときにロバストなパフォーマンスを生み出すことができる。
【0059】
図2は、本発明の一実施形態による、別のドメインからサンプルのコンパクトなクラスタを学習するために、各ドメインから類似度メトリック行列を作成及び転送するための例示的な概略150のブロック/フロー図である。
【0060】
例示的な方法は、モデルを訓練する際に、異なる分布から到来するデータ間の意味的一致性の概念を利用することが有益であることを示している。例示的な実施形態は、1つのドメインからアイデンティティのコンパクトなクラスタを適用することで意味的に意味のある特徴量を学習する。コンパクトさは、異なる統計を有する別のドメインに属する基本的な類似度メトリックによって測定される。実際、例示的な実施形態は、異なるラベル空間を有するドメインにわたる類似度メトリックとしてエンコードされた知見を抽出する。
【0061】
より具体的には、例示的な方法は、新しいトリプレット損失目的関数を用いてネットワークを最適化するものとして、Unseenドメインからの顔認識の問題を定式化する。新しい目的関数は、1つのデータ分布で学習した類似度を考慮に入れ、別のドメインで意味上の類似度を学習して、より汎化可能な特徴量を学習する。例示的な方法は、ドメインのサンプルの共分散行列をデータ分布として利用する。例示的な方法は、定義された分布を他のドメインに転送し、アンカーとポジティブサンプル間の距離を小さくすると同時に、アンカーとネガティブサンプル間の距離を大きくする。新規な損失は、クロスドメイン類似度損失と呼ばれる。これは、マハラノビス距離関数と同様の方法で機能し、トリプルワイズ訓練戦略で別のドメインからの類似度メトリックを用いてサンプルの距離を計算する。
【0062】
図3は、本発明の一実施形態による、例示的な訓練プロセスのブロック/フロー図である。
【0063】
訓練データセット160に関して、入力顔画像は、データセット1、データセット2、…、データセットNとして示されるN個のデータセットから得られる。各データセットは、関連付けられたアイデンティティを有する顔画像を含む。各アイデンティティに関し、幾つかのサンプルがある場合がある(例えば、同じ人物のサンプル画像)。
【0064】
バックボーン畳み込みニューラルネットワーク(CNN)174及びサンプリング172に関して、全ての利用可能なN個のソースデータセット160から、モデルを訓練するために2つのデータセットがランダムに選択される。次に、バッチ画像とそれに対応するラベルがサンプリングされる。次に、例示的な方法は、1つのアンカー顔画像、同じアイデンティティからの別のサンプル画像及びアンカー画像とは異なるアイデンティティからの1つのサンプルを含むトリプレットサンプルをサンプリングする。
【0065】
例示的な方法は、2つのデータセットのサンプルを使用してフォワードパスを実行し、バックボーンCNN174を使用して画像の表現を見つける。
【0066】
損失構成180、特に共分散構成182に関して、例示的な方法は、1つのデータセットからのバックボーンCNN174の出力表現を使用して、データの基本的な分布をエンコードする共分散行列を生成する。実際、例示的な方法は、(アンカー、ポジティブ)ペア(例えば、同じアイデンティティからの顔画像)及び(アンカー、ネガティブ)ペア(例えば、異なるアイデンティティからの顔画像)を使用して差分空間で共分散を行う。
【0067】
クロスドメイン類似度損失関数184に関して、例示的な方法は、2つの共分散を用いて、他のデータセットから得られる(アンカー、ポジティブ)ペアと(アンカー、ネガティブ)ペアとの間の距離を見つける。例示的な方法は、アンカーとポジティブサンプルとの間の距離を小さくすると同時に、アンカーとネガティブサンプルとの間の距離を大きくする。
【0068】
図4は、本発明の一実施形態による、クロスドメイントリプレット損失200の例示的な概略のブロック/フロー図である。
【0069】
関連するラベルを有する2つのドメインi及びjのサンプルが与えられると、ドメインiのポジティブ及びネガティブペアの差分空間における共分散行列が計算され、ドメインjのポジティブペアを近くし、ネガティブペアを遠くするために使用される。これにより、分布を揃えながらアイデンティティのコンパクトなクラスタが作成される。ポジティブ及びネガティブペアの整列は統一された方法で同時に行われることに留意されたい。
【0070】
図5は、本発明の一実施形態による、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための例示的な式のブロック/フロー図である。
【0071】
式250は、ポジティブペアの共分散行列、ネガティブペアの共分散行列及びクロスドメイントリプレット損失を含む。
【0072】
図6は、本発明の一実施形態による、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための実用的なアプリケーションのブロック/フロー
図800である。
【0073】
1つの実施例において、第1のカメラ802は第1のアイデンティティの第1の人物806を検出でき、第2のカメラ804は第2のアイデンティティの第2の人物808を検出できる。特徴量806及び808は、ポジティブペアの共分散行列210及びネガティブペアの共分散行列220を用いて、クロスドメイン類似度損失関数200によって処理される。結果810(例えば、アイデンティティ)は、ユーザ814に取り扱われるユーザインタフェース812に提供または表示できる。
【0074】
図7は、本発明の一実施形態による、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための例示的な処理システムである。
【0075】
処理システムは、システムバス902を介して他のコンポーネントと動作可能に接続された少なくとも1つのプロセッサ(CPU)904を含む。システムバス902には、GPU905、キャッシュ906、読み取り専用メモリ(ROM)908、ランダムアクセスメモリ(RAM)910、入出力(I/O)アダプタ920、ネットワークアダプタ930、ユーザインタフェースアダプタ9400及び/またはディスプレイアダプタ960が動作可能に接続されている。さらに、クロスドメイン類似度損失関数200は、ポジティブペアの共分散行列210及びネガティブペアの共分散行列220で使用できる。
【0076】
記憶装置922は、I/Oアダプタ920によってシステムバス902と動作可能に接続されている。記憶装置922は、ディスク記憶装置(例えば、磁気または光ディスク記憶装置)、固体磁気装置等のいずれであってもよい。
【0077】
トランシーバ932は、ネットワークアダプタ930によってシステムバス902に動作可能に接続されている。
【0078】
ユーザ入力装置942は、ユーザインタフェースアダプタ940によってシステムバス902に動作可能に接続されている。ユーザ入力装置942は、キーボード、マウス、キーパッド、イメージキャプチャ装置、モーションセンシング装置、マイクロホン、あるいはこれらの装置のうちの少なくとも2つの装置の機能を組み込んだ装置等のいずれであってもよい。もちろん、本発明の原理の主旨を維持しながら、他のタイプの入力装置を使用することもできる。ユーザ入力装置942は、同じタイプのユーザ入力装置であってもよく、異なるタイプのユーザ入力装置であってもよい。ユーザ入力装置942は、処理システムに情報を入力し、処理システムから情報を出力するために使用される。
【0079】
ディスプレイ装置952は、ディスプレイアダプタ950によってシステムバス902に動作可能に接続されている。
【0080】
もちろん、処理システムは、当業者であれば容易に思いつくような他の要素(図示せず)を含んでもよく、特定の要素を省略することも可能である。例えば、当業者であれば容易に理解できるが、処理システムには、その特定の実装に応じて他の様々なタイプの入力装置及び/または出力装置を含むことができる。例えば、無線及び/または有線による様々な入力装置及び/または出力装置を使用できる。さらに、当業者であれば容易に理解できるが、様々な構成の追加プロセッサ、コントローラ、メモリ等を使用することも可能である。処理システムの上記及び他の変形例は、本明細書で提供される本原理の教示によって当業者であれば容易に考えられるであろう。
【0081】
図8は、本発明の一実施形態による、意味的に意味のある表現を学習することで、Unseenドメインからの顔認識を改良するための例示的な方法のブロック/フロー図である。
【0082】
ブロック1001において、複数のデータセットからアイデンティティが関連付けられた顔画像を取得する。
【0083】
ブロック1003において、複数のデータセットのうちの2つのデータセットをランダムに選択してモデルを訓練する。
【0084】
ブロック1005において、バッチ顔画像及びそれらに対応するラベルをサンプリングする。
【0085】
ブロック1007において、1つのアンカー顔画像、同じアイデンティティからのサンプル顔画像及び1つのアンカー顔画像とは異なるアイデンティティからのサンプル顔画像を含むサンプルトリプレットをサンプリングする。
【0086】
ブロック1009において、選択された2つのデータセットのサンプルを用いてフォワードパスを実行する。
【0087】
ブロック1011において、バックボーン畳み込みニューラルネットワーク(CNN)を用いて顔画像の表現を見つける。
【0088】
ブロック1013において、顔画像の表現とバックボーンCNNから共分散を生成する。共分散はポジティブペアとネガティブペアを用いて異なる空間で作成される。
【0089】
ブロック1015において、共分散を用いてクロスドメイン類似度損失関数を計算する。
【0090】
本明細書で用いる「データ」、「コンテンツ」、「情報」及び同様の用語は、様々な例示的な実施形態によって取得され、送信され、受信され、表示され、及び/または保存可能なデータを示すために、交換可能に使用できる。したがって、これらの用語の使用は、開示の主旨及び範囲を制限するものと解釈されるべきではない。さらに、本明細書に別の計算デバイスからデータを受信するための計算デバイスが記載されている場合、データは、別の計算デバイスから直接受信してもよく、1つ以上の中間計算デバイス、例えば1つ以上のサーバ、リレー、ルータ、ネットワークアクセスポイント、基地局等を介して間接的に受信してもよい。同様に、本明細書にデータを別の計算デバイスに送信するための計算デバイスが記載されている場合、データは、別の計算データに直接送信してもよく、例えば、1つ以上のサーバ、リレー、ルータ、ネットワークアクセスポイント、基地局及び/または同様のもの等の1つ以上の中間計算デバイスを介して間接的に送信してもよい。
【0091】
当業者であれば理解するように、本発明の態様は、システム、方法またはコンピュータプログラム製品として実施してもよい。したがって、本発明の態様は、全体としてハードウェアの実施形態であってもよく、全体としてソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)であってもよく、本明細書において、一般に「回路」、「モジュール」、「計算機」、「装置」または「システム」と呼ぶことができる、ソフトウェアとハードウェアの態様を組み合わせた実施の形態を採用してもよい。さらに、本発明の態様は、コンピュータで読み取り可能なプログラムコードを有する、1つまたは複数のコンピュータで読み取り可能な媒体で具現化された、コンピュータプログラム製品の形態を採用してもよい。
【0092】
1つまたは複数のコンピュータで読み取り可能な媒体の任意の組合せを用いてもよい。コンピュータで読み取り可能な媒体は、コンピュータで読み取り可能な信号媒体またはコンピュータで読み取り可能な記録媒体であってもよい。コンピュータで読み取り可能な記録媒体は、例えば、電子、磁気、光学、電磁気、赤外線または半導体システム、装置またはデバイス、あるいは前述の任意の適切な組合せとすることができるが、これらに限定されない。コンピュータで読み取り可能な記録媒体のより具体的な例(以下に限定されない)は、1つ以上のワイヤ、携帯用コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ)、光ファイバ、携帯用コンパクトディスクリードオンリーメモリ(CD-ROM)、光データ記憶装置、磁気データ記憶装置または前述した任意の適切な組み合わせを含む。本文書のコンテキストにおいて、コンピュータで読み取り可能な記録媒体は、命令実行システム、装置またはデバイスによって、またはそれに関連して使用するためのプログラムを含む、またはそれを記憶できる、任意の有形媒体であってもよい。
【0093】
コンピュータで読み取り可能な信号媒体には、例えば、ベースバンドで、または搬送波の一部として、コンピュータで読み取り可能なプログラムコードが具現化された伝搬データ信号を含むことができる。そのような伝播信号は、電磁、光学またはそれらの任意の適切な組み合わせを含むが、それらに限定されない、任意の様々な形態がある。コンピュータ読み取り可能な信号媒体は、コンピュータ読み取り可能な記録媒体ではなく、命令実行システム、装置または装置によって、またはそれに関連して使用するためにプログラムを通信、伝播、または移送できる、任意のコンピュータ読み取り可能な媒体であってもよい。
【0094】
コンピュータで読み取り可能な媒体で具現化されるプログラムコードは、無線、有線、光ファイバケーブル、RF等、あるいは前述した任意の適切な組合せを含むが、これらに限定されない、任意の適切な媒体を用いて送信される。
【0095】
本発明の態様に関する処理を実行するためのコンピュータプログラムコードは、Java、Smalltalk、C++等のオブジェクト指向プログラミング言語及び「C」プログラミング言語または類似のプログラミング言語等の従来の手続き型プログラミング言語を含む、1つ以上のプログラミング言語の任意の組み合わせで書くことができる。プログラムコードは、全体的にユーザのコンピュータで実行されてもよく、スタンドアロンソフトウェアパッケージとして部分的にユーザのコンピュータで実行されてもよく、部分的にユーザのコンピュータで実行され、かつ部分的にリモートコンピュータで実行されてもよく、全体的にリモートコンピュータまたはサーバで実行されてもよい。後者のシナリオにおいて、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータと接続されてもよく、(例えば、インターネットサービスプロバイダを利用したインターネットを介して)外部コンピュータと接続されてもよい。
【0096】
本発明の態様について、本発明の実施形態による方法、装置(システム)、並びにコンピュータプログラム製品のフローチャート及び/またはブロック図を参照して以下で説明する。フローチャート及び/またはブロック図の各ブロック、並びにフローチャート及び/またはブロック図のブロックにおける組合せは、コンピュータプログラム命令によって実施できることを理解されたい。これらのコンピュータプログラム命令は、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサを通して実行される命令が、フローチャート及び/またはブロック図の1つまたは複数のブロックまたはモジュールに指定される機能/動作を実施するための手段を作り出すようなマシンを生成するために、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサに提供される。
【0097】
これらのコンピュータプログラム命令は、コンピュータで読み取り可能な媒体に保存された命令が、フローチャート及び/またはブロック図の1つまたは複数のブロックまたはモジュールに指定された機能/動作を実装する命令を含む製品を生成するように、コンピュータ、他のプログラマブルデータ処理装置または他のデバイスに、特定の方法で機能するように指示できるコンピュータで読み取り可能な媒体に保存できる。
【0098】
コンピュータプログラム命令は、またコンピュータ、他のプログラマブルデータ処理装置または他のデバイスにロードされて、一連の動作ステップがコンピュータ、他のプログラマブル装置または他のデバイスで実行され、コンピュータまたは他のプログラマブル装置で実行される命令が、フローチャート及び/またはブロック図のブロックまたはモジュールに指定された機能/動作を実装するためのプロセスを提供するように、コンピュータ実装プロセスを生成できる。
【0099】
本明細書で使用する「プロセッサ」という用語は、例えばCPU(central processing unit)及び/または他の処理回路を含むもの等、任意の処理装置を含むことを意図している。また、「プロセッサ」という用語は1つ以上の処理装置を指すことが可能であり、処理装置に関連する様々な要素は、他の処理装置によって共有されることも理解されたい。
【0100】
本明細書で使用する「メモリ」という用語は、例えば、RAM、ROM、固定メモリデバイス(例えば、ハードドライブ)、リムーバブルメモリデバイス(例えば、ディスケット)、フラッシュメモリ等、プロセッサまたはCPUに関連するメモリを含むことを意図している。このようなメモリは、コンピュータで読み取り可能な記録媒体と考えることができる。
【0101】
さらに、本明細書で使用する「入力/出力装置」または「I/O装置」という用語は、例えば、処理ユニットにデータを入力するための1つまたは複数の入力装置(例えば、キーボード、マウス、スキャナ等)及び/または処理ユニットに関連する、結果を提示するための1つまたは複数の出力装置(例えば、スピーカ、ディスプレイ、プリンタなど)を含むことを意図する。
【0102】
上記は、あらゆる観点において説明的かつ典型的であって限定的でないものと理解されるべきであり、本明細書で開示する本発明の範囲は、詳細な説明から決定されるべきではなく、特許法で認められた最大限の広さに基づいて解釈される特許請求の範囲から決定されるべきである。本明細書中に図示及び記載されている実施形態は、本発明の原理を説明するものにすぎず、本発明の範囲及び主旨から逸脱することなく当業者は様々な変更を実施することができることを理解されたい。当業者は、本発明の範囲及び精神から逸脱することなく、様々な他の特徴の組み合わせを実施できる。以上、本発明の態様について、特許法で要求される細部及び詳細な事項と共に説明したが、特許証で保護されることを要求する特許請求の範囲は、添付の特許請求の範囲に示されている。
【国際調査報告】