IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 維沃移動通信有限公司の特許一覧

特許7450668顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体
<>
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図1
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図2
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図3
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図4
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図5
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図6
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図7
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図8
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図9
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図10
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図11
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図12
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図13
  • 特許-顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-03-07
(45)【発行日】2024-03-15
(54)【発明の名称】顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体
(51)【国際特許分類】
   G06T 7/00 20170101AFI20240308BHJP
   G06T 7/593 20170101ALI20240308BHJP
   G06V 10/143 20220101ALI20240308BHJP
   G06V 40/16 20220101ALI20240308BHJP
【FI】
G06T7/00 510F
G06T7/00 660A
G06T7/593
G06V10/143
G06V40/16 A
【請求項の数】 12
(21)【出願番号】P 2022106098
(22)【出願日】2022-06-30
(65)【公開番号】P2024005748
(43)【公開日】2024-01-17
【審査請求日】2022-06-30
(73)【特許権者】
【識別番号】517372494
【氏名又は名称】維沃移動通信有限公司
【氏名又は名称原語表記】VIVO MOBILE COMMUNICATION CO., LTD.
【住所又は居所原語表記】No.1, vivo Road, Chang’an, Dongguan,Guangdong 523863, China
(74)【代理人】
【識別番号】100099759
【弁理士】
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【弁理士】
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100092624
【弁理士】
【氏名又は名称】鶴田 準一
(74)【代理人】
【識別番号】100114018
【弁理士】
【氏名又は名称】南山 知広
(74)【代理人】
【識別番号】100153729
【弁理士】
【氏名又は名称】森本 有一
(72)【発明者】
【氏名】萩原 泰文
(72)【発明者】
【氏名】伊藤 康幸
(72)【発明者】
【氏名】近藤 克博
【審査官】片岡 利延
(56)【参考文献】
【文献】中国特許出願公開第111091063(CN,A)
【文献】中国特許出願公開第111079470(CN,A)
【文献】中国特許出願公開第111741281(CN,A)
【文献】特開2020-150331(JP,A)
【文献】特開2020-106283(JP,A)
【文献】特開2020-193946(JP,A)
【文献】特開2020-171057(JP,A)
【文献】特開2005-284775(JP,A)
【文献】国際公開第2021/193238(WO,A1)
【文献】国際公開第2018/147059(WO,A1)
【文献】国際公開第2017/159312(WO,A1)
【文献】国際公開第2014/148031(WO,A1)
【文献】米国特許出願公開第2022/0044442(US,A1)
【文献】中国特許出願公開第113724308(CN,A)
【文献】中国特許出願公開第112488018(CN,A)
【文献】中国特許出願公開第112926464(CN,A)
【文献】中国特許出願公開第114613017(CN,A)
【文献】中国特許出願公開第111079576(CN,A)
【文献】中国特許出願公開第114333078(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06T 7/593
G06V 10/143
G06V 40/16
(57)【特許請求の範囲】
【請求項1】
少なくとも一つのRGBカメラで撮影した第1の顔画像と、少なくとも一つのNIRカメラで撮影した第2の顔画像とを取得し、前記RGBカメラの撮影方向が前記NIRカメラの撮影方向と異なっていること、
前記第1の顔画像と前記第2の顔画像に対して画像融合処理を行い、顔融合画像を取得すること、
前記第1の顔画像と前記第2の顔画像とに基づいてステレオマッチングを行い、三次元深度情報を取得すること、
前記顔融合画像と前記三次元深度情報とに基づいて顔認識を行い、顔認識信頼度を特徴付ける値を取得すること、を含み、
前記顔融合画像と前記三次元深度情報とに基づいて顔認識を行い、顔認識信頼度を特徴付ける値を取得することは、
前記顔融合画像と前記三次元深度情報とに基づいて、顔の特徴点を検出すること、
検出された顔の特徴点に基づき、顔の特徴を抽出すること、
前記顔の特徴を、あらかじめ設定された顔データベースと特徴マッチングし、顔認識信頼度を特徴付ける値を得ること、を含む
ことを特徴とする顔認識方法。
【請求項2】
前記第1の顔画像と前記第2の顔画像に対して画像融合処理を行い、顔融合画像を取得することは、
前記第1の顔画像の輝度領域Y成分画像、色領域U成分画像および色領域V成分画像を取得すること、
前記第2の顔画像の輝度領域Y成分画像を取得すること、
前記第1の顔画像の輝度領域Y成分画像と第2の顔画像の輝度領域Y成分画像を画像融合処理し、画像融合後のY成分画像を得ること、
前記画像融合後のY成分画像、前記第1の顔画像の色領域U成分画像および前記第1の顔画像の色領域V成分画像に対してRGB変換を行い、顔融合画像を得ること、を含む
ことを特徴とする請求項1に記載の顔認識方法。
【請求項3】
前記少なくとも一つのRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラを含み、前記少なくとも一つのNIRカメラは、顔の第一側面方向に顔画像を撮影する第1のNIRカメラ、および/または、顔の第二側面方向に顔画像を撮影する第2のNIRカメラを含み、
前記第1の顔画像と前記第2の顔画像に対して画像融合処理を行い、顔融合画像を取得することは、
前記第1のNIRカメラで撮影した第2の顔画像および前記第2のNIRカメラで撮影した第2の顔画像のうちの少なくとも一つの第2の顔画像と、前記第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔正面融合画像を得ること、
前記第1のNIRカメラで撮影した第2の顔画像と、前記第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔第一側面融合画像を得ること、
前記第2のNIRカメラで撮影した第2の顔画像と、前記第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔第二側面融合画像を得ること、を含む
ことを特徴とする請求項1に記載の顔認識方法。
【請求項4】
前記少なくとも一つのRGBカメラは複数のRGBカメラを含み、前記少なくとも一つのNIRカメラは複数のNIRカメラを含み、前記RGBカメラと前記NIRカメラは、交互に分布しており、異なる方向に顔画像を撮影し、複数のRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラと、顔の側面方向に顔画像を撮影する少なくとも一つの第2のRGBカメラとを含み、
前記第1の顔画像と前記第2の顔画像に対して画像融合処理を行い、顔融合画像を取得することは、
前記第1のRGBカメラで撮影した第1の顔画像と、前記第1のRGBカメラの位置に隣接するNIRカメラで撮影した第2の顔画像とを画像融合処理し、顔正面融合画像を取得すること、
前記第2のRGBカメラの各々に対して、前記第2のRGBカメラで撮影した第1の顔画像と、前記第2のRGBカメラの位置に隣接するNIRカメラで撮影した第2の顔画像とを画像融合処理し、顔側面融合画像を取得すること、を含む
ことを特徴とする請求項1に記載の顔認識方法。
【請求項5】
前記第1の顔画像と前記第2の顔画像とに基づいてステレオマッチングを行い、三次元深度情報を取得することは、
前記第1の顔画像と前記第2の顔画像の各々に対して歪補正を行い、補正後の第1の顔画像と補正後の第2の顔画像を得ること、
前記補正後の第1の顔画像と前記補正後の第2の顔画像に対してステレオマッチングを行い、三次元深度情報を取得すること、を含む
ことを特徴とする請求項1に記載の顔認識方法。
【請求項6】
少なくとも一つのRGBカメラで撮影した第1の顔画像と、少なくとも一つのNIRカメラで撮影した第2の顔画像とを取得するための第1取得ブロックであって、前記RGBカメラの撮影方向が前記NIRカメラの撮影方向と異なっている第1取得ブロック、
前記第1の顔画像と前記第2の顔画像に対して画像融合処理を行い、顔融合画像を取得するための第1処理ブロック、
前記第1の顔画像と前記第2の顔画像とに基づいてステレオマッチングを行い、三次元深度情報を取得するための第2処理ブロック、
前記顔融合画像と前記三次元深度情報とに基づいて顔認識を行い、顔認識信頼度を特徴付ける値を取得するための顔認識ブロック、を含み、
前記顔認識ブロックは、
前記顔融合画像と前記三次元深度情報とに基づいて、顔の特徴点を検出するための特徴点検出手段、
検出された顔の特徴点に基づき、顔の特徴を抽出するための特徴抽出手段、
前記顔の特徴を、あらかじめ設定された顔データベースと特徴マッチングし、顔認識信頼度を特徴付ける値を得るための特徴マッチング手段、を含む
ことを特徴とする顔認識装置。
【請求項7】
前記第1処理ブロックは、
前記第1の顔画像の輝度領域Y成分画像、色領域U成分画像および色領域V成分画像を取得するための第1取得手段、
前記第2の顔画像の輝度領域Y成分画像を取得するための第2取得手段、
前記第1の顔画像の輝度領域Y成分画像と前記第2の顔画像の輝度領域Y成分画像を画像融合処理し、画像融合後のY成分画像を得るための第1処理手段、
前記画像融合後のY成分画像、前記第1の顔画像の色領域U成分画像および前記第1の顔画像の色領域V成分画像に対してRGB変換を行い、顔融合画像を得るための第2処理手段、を含む
ことを特徴とする請求項に記載の顔認識装置。
【請求項8】
前記少なくとも一つのRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラを含み、前記少なくとも一つのNIRカメラは、顔の第一側面方向に顔画像を撮影する第1のNIRカメラ、および/または、顔の第二側面方向に顔画像を撮影する第2のNIRカメラを含み、
前記第1処理ブロックは、
前記第1のNIRカメラで撮影した第2の顔画像および前記第2のNIRカメラで撮影した第2の顔画像のうちの少なくとも一つの第2の顔画像と、前記第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔正面融合画像を得るための第3処理手段、
前記第1のNIRカメラで撮影した第2の顔画像と、前記第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔第一側面融合画像を得るための第4処理手段、および/または、
前記第2のNIRカメラで撮影した第2の顔画像と、前記第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔第二側面融合画像を得るための第5処理手段、を含む
ことを特徴とする請求項に記載の顔認識装置。
【請求項9】
前記少なくとも一つのRGBカメラは複数のRGBカメラを含み、前記少なくとも一つのNIRカメラは複数のNIRカメラを含み、前記RGBカメラと前記NIRカメラは、交互に分布しており、異なる方向に顔画像を撮影し、複数のRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラと、顔の側面方向に顔画像を撮影する少なくとも一つの第2のRGBカメラとを含み、
前記第1処理ブロックは、
前記第1のRGBカメラで撮影した第1の顔画像と、前記第1のRGBカメラの位置に隣接するNIRカメラで撮影した第2の顔画像とを画像融合処理し、顔正面融合画像を取得するための第6処理手段、
前記第2のRGBカメラの各々に対して、前記第2のRGBカメラで撮影した第1の顔画像と、前記第2のRGBカメラの位置に隣接するNIRカメラで撮影した第2の顔画像とを画像融合処理し、顔側面融合画像を取得するための第7処理手段、を含む
ことを特徴とする請求項に記載の顔認識装置。
【請求項10】
前記第2処理ブロックは、
前記第1の顔画像と前記第2の顔画像の各々に対して歪補正を行い、補正後の第1の顔画像と補正後の第2の顔画像を得るための歪補正手段、
前記補正後の第1の顔画像と前記補正後の第2の顔画像に対してステレオマッチングを行い、三次元深度情報を取得するためのマッチング処理手段、を含む
ことを特徴とする請求項に記載の顔認識装置。
【請求項11】
プロセッサと、メモリと、前記メモリに記憶されて前記プロセッサで動作可能なプログラムまたはコマンドとを含み、
前記プログラムまたはコマンドが前記プロセッサにより実行されたときに、請求項1~のいずれか1項に記載の顔認識方法のステップが実現される、
ことを特徴とする電子機器。
【請求項12】
プログラムまたはコマンドが記憶されており、
前記プログラムまたはコマンドがプロセッサにより実行されたときに、請求項1~のいずれか1項に記載の顔認識方法のステップが実現される、
ことを特徴とする読み取り可能記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理技術分野に関し、特に顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体に関する。
【背景技術】
【0002】
現在、顔認識システムには、画像のみを取り込む二次元顔認識と、赤外線カメラによって顔を立体的に認識する三次元顔認識がある。二次元顔認識は、画像における顔の目、鼻および口の位置を検出して、データベースにおける人物情報と照合することにより特定の人物を認識する方法である。三次元顔認識は、二次元顔認識システムの仕組みに赤外線センサーを加え、顔を三次元データとして認識する機能を付加したものである。
【0003】
従来の顔認識方法は、照明、顔の表情および顔の向きによる影響を受けることによって、顔認識精度が低い課題を抱えている。
【発明の概要】
【0004】
本発明の少なくとも一つの実施例は、異なる波長を有する複数のカメラが異なる方向から撮影した顔画像を用いて顔認識を行うことで、顔認識精度を向上することができる顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体を提供する。
【0005】
上述した技術的課題を解決するために、本発明は、以下のようになされたものである。
【0006】
第一の面では、本発明の実施例は、
少なくとも一つのRGBカメラで撮影した第1の顔画像と、少なくとも一つのNIRカメラで撮影した第2の顔画像とを取得し、前記RGBカメラの撮影方向が前記NIRカメラの撮影方向と異なっていること、
前記第1の顔画像と前記第2の顔画像に対して画像融合処理を行い、顔融合画像を取得すること、
前記第1の顔画像と前記第2の顔画像とに基づいてステレオマッチングを行い、三次元深度情報を取得すること、
前記顔融合画像と前記三次元深度情報とに基づいて顔認識を行い、顔認識信頼度を特徴付ける値を取得すること、を含む顔認識方法を提供する。
【0007】
第二の面では、本発明の実施例は、
少なくとも一つのRGBカメラで撮影した第1の顔画像と、少なくとも一つのNIRカメラで撮影した第2の顔画像とを取得するための第1取得ブロックであって、前記RGBカメラの撮影方向が前記NIRカメラの撮影方向と異なっている第1取得ブロック、
前記第1の顔画像と前記第2の顔画像に対して画像融合処理を行い、顔融合画像を取得するための第1処理ブロック、
前記第1の顔画像と前記第2の顔画像とに基づいてステレオマッチングを行い、三次元深度情報を取得するための第2処理ブロック、
前記顔融合画像と前記三次元深度情報とに基づいて顔認識を行い、顔認識信頼度を特徴付ける値を取得するための顔認識ブロック、を含む顔認識装置を提供する。
【0008】
第三の面では、本発明の実施例は、
少なくとも一つのRGBカメラと、少なくとも一つのNIRカメラと、プロセッサとを含み、
前記プロセッサは、前記RGBカメラの各々に接続されているとともに、前記NIRカメラの各々に接続されており、
前記RGBカメラの撮影方向は前記NIRカメラの撮影方向と異なっており、
前記プロセッサは、
少なくとも一つのRGBカメラで撮影した第1の顔画像と、少なくとも一つのNIRカメラで撮影した第2の顔画像とを取得し、
前記第1の顔画像と前記第2の顔画像に対して画像融合処理を行い、顔融合画像を取得し、
前記第1の顔画像と前記第2の顔画像とに基づいてステレオマッチングを行い、三次元深度情報を取得し、
前記顔融合画像と前記三次元深度情報とに基づいて顔認識を行い、顔認識信頼度を特徴付ける値を取得するためのものである、顔認識システムを提供する。
【0009】
第四の面では、本発明の実施例は、
プロセッサと、メモリと、前記メモリに記憶されて前記プロセッサで動作可能なプログラムまたはコマンドとを含み、
前記プログラムまたはコマンドが前記プロセッサにより実行されたときに、第一の面に記載の顔認識方法のステップが実現される、電子機器を提供する。
【0010】
第五の面では、本発明の実施例は、
プログラムまたはコマンドが記憶されており、
前記プログラムまたはコマンドがプロセッサにより実行されたときに、第一の面に記載の顔認識方法のステップが実現される、読み取り可能記憶媒体を提供する。
【0011】
従来技術と比べて、本発明の実施例が提供する顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体は、異なる波長を有する複数のカメラが異なる方向から撮影した顔画像を用いて顔認識を行うことで、顔認識精度を向上することができる。
【図面の簡単な説明】
【0012】
図1図1は、本発明の実施例に係る顔認識方法の概略流れ図である。
図2図2は、本発明の実施例に係る撮像装置の概略構成図である。
図3図3は、本発明の実施例に係る顔認識装置の全体のブロック図である。
図4図4は、本発明の実施例に係る顔正面画像のイメージフュージョンブロックの概略図である。
図5図5は、本発明の実施例に係る顔右側画像のイメージフュージョンブロックの概略図である。
図6図6は、本発明の実施例に係るDepth Mapブロックの概略図である。
図7図7は、本発明の実施例に係る顔認識ブロックの概略図である。
図8図8は、本発明の別の実施例に係る撮像装置の概略構成図である。
図9図9は、本発明のまた別の実施例に係る顔認識装置の全体のブロック図である。
図10図10は、本発明のさらに別の実施例に係る撮像装置の概略構成図である。
図11図11は、本発明の実施例に係る撮像装置の出力した画像に基づいて融合画像を生成する入力画像の組み合わせの概略図である。
図12図12は、本発明のさらに別の実施例に係る顔認識装置の全体のブロック図である。
図13図13は、本発明の実施例に係る顔認識装置の概略ブロック図である。
図14図14は、本発明の実施例に係る電子機器の概略構成図である。
【発明を実施するための形態】
【0013】
以下は、本出願の実施例に係る図面に合せて、本出願の実施例に係る技術案を明確且つ完全に記述し、記述されている実施例が本出願の実施例の一部であり、全てではないことは明らかである。本出願に係る実施例に基づいて、当業者が創造的な労働を払わない前提で得られた他の実施例の全てはいずれも、本出願の保護する範囲に属する。
【0014】
本出願の明細書および特許請求の範囲における「第1」、「第2」などの用語は、類似のオブジェクトを区別するために用いられるものであり、特定の順序または前後順序を記述するためのものではない。このように用いられるデータは、本出願の実施例がここで図示または記述されているこれらの順序以外の順序で実施され得るように、適切な場合において互いに置き換え可能であり、そして、「第1」、「第2」などで区別されるオブジェクトは、通常同類のものであり、オブジェクトの数を限定するものではなく、例えば、第1のオブジェクトは、一つでもよく、複数でもよいと理解されるべきだ。また、明細書および請求項における「及び/又は」は、接続されるオブジェクトのうちの少なくとも一つを表しており、「/」という記号は、一般的に、前後の関連オブジェクトが「または」の関係にあることを表している。
【0015】
図1に示すように、本発明の実施例は、顔認識方法を提供し、当該顔認識方法は、具体的に以下のステップを含むことができる。
【0016】
ステップ101:少なくとも一つのRGBカメラで撮影した第1の顔画像と、少なくとも一つのNIRカメラで撮影した第2の顔画像とを取得し、RGBカメラの撮影方向がNIRカメラの撮影方向と異なっている。
【0017】
ステップ101では、RGBカメラはカラーカメラとも呼ばれ、RGBカメラが撮影した画像はカラー画像である。Rは赤色を、Gは緑色を、Bは青色を表している。赤色、緑色、青色の3原色を異なる割合で重ね合わせて、さまざまな色を発現させることができる。RGBカメラは、可視光を受光するためのものである。
【0018】
近赤外線(Near InfraRed(NIR))のカメラは、近赤外光を受光するためのものである。近赤外光は、可視光と中赤外光との間に介在する電磁波であって、人間の目では視認できない。NIRカメラは、近赤外光の波長範囲が必要な環境、すなわち光照射条件の悪い環境に適用される。
【0019】
RGBカメラが複数である場合、各々のRGBカメラで撮影した第1の顔画像を取得する。NIRカメラが複数である場合、各々のNIRカメラで撮影した第2の顔画像を取得する。ここで、複数は、二つ以上を指す。
【0020】
ステップ102:第1の顔画像と第2の顔画像に対して画像融合処理を行い、顔融合画像を取得する。
【0021】
第1の顔画像は可視域波長の画像であり、第2の顔画像は近赤外線の画像である。可視域波長では色情報が得られ、近赤外域波長ではより詳細な情報のディテイルが得られる。特に、暗いところでは、可視域波長で得られた画像のコントラストが低下する一方、近赤外域波長では、得られた画像のコントラストが向上できる。このため、可視域波長の画像と近赤外線の画像とを画像融合することにより、互いを補完しあうような画像を得ることができる。
【0022】
また、第1の顔画像と第2の顔画像は、カメラが異なる撮影方向から撮影した顔画像であり、異なる撮影方向から撮影された顔画像の融合画像を用いることにより、顔の表情の変化や顔の向きがズレた顔画像においても、高精度の顔認識を行うことも可能である。
【0023】
ステップ103:第1の顔画像と第2の顔画像とに基づいてステレオマッチングを行い、三次元深度情報を取得する。
【0024】
具体的には、第1の顔画像と第2の顔画像とに基づき、ステレオマッチングアルゴリズムにより視差情報(例えば、視差マップ)を取得し、さらに三次元深度情報(例えば、デプスマップ)を取得することができる。
【0025】
ステップ104:顔融合画像と三次元深度情報とに基づいて顔認識を行い、顔認識信頼度を特徴付ける値を取得する。
【0026】
複数のカメラで撮影した顔画像から得られた三次元深度情報に加えて、異なる撮影方向から撮影された顔画像の融合画像を用いることにより、暗部における顔認識精度をさらに向上させることができる。
【0027】
本発明の一実施例では、上述したステップ102は、以下のステップを含むことができる。
【0028】
ステップ1021a:第1の顔画像の輝度領域Y成分画像、色領域U成分画像および色領域V成分画像を取得する。
【0029】
具体的には、第1の顔画像に対してRGBからYUVへの変換を行い、第1の顔画像のY成分画像、U成分画像およびV成分画像を取得する。ここで、Yは輝度を、UとVは色度を表している。
【0030】
ステップ1022a:第2の顔画像の輝度領域Y成分画像を取得する。
【0031】
ステップ1023a:第1の顔画像の輝度領域Y成分画像と第2の顔画像の輝度領域Y成分画像を画像融合処理し、画像融合後のY成分画像を得る。
【0032】
第1の顔画像のY成分画像と第2の顔画像のY成分画像を画像融合することにより、暗部での感度を向上してノイズを低減すると同時に、輝度の解像度を向上させる。
【0033】
ステップ1024a:画像融合後のY成分画像、第1の顔画像の色領域U成分画像および第1の顔画像の色領域V成分画像に対してRGB変換を行い、顔融合画像を得る。
【0034】
顔融合画像はRGBカラー画像である。
【0035】
選択的には、ステップ102は、ステップ1021aの実行前に、以下のステップをさらに含む。
【0036】
ステップ1020a:前記第1の顔画像と前記第2の顔画像の各々に対して画像補正を行い、補正後の第1の顔画像と補正後の第2の顔画像を得る。
【0037】
その後、ステップ1021a~ステップ1024aで述べた第1の顔画像と第2の顔画像はいずれも補正後の顔画像である。
【0038】
本実施例は、画像融合処理の具体的なステップを重視するものである。
【0039】
本発明の一実施例では、上述したステップ103は、以下のステップを含むことができる。
【0040】
ステップ1031:第1の顔画像と第2の顔画像の各々に対して歪補正を行い、補正後の第1の顔画像と補正後の第2の顔画像を得る。
【0041】
具体的には、あらかじめRGBカメラキャリブレーションから得られた第1のパラメータに依拠して、第1の顔画像に対し歪補正を行い、補正後の第1の顔画像を得る。あらかじめNIRカメラキャリブレーションから得られた第2のパラメータに依拠して、第2の顔画像に対し歪補正を行い、補正後の第2の顔画像を得る。
【0042】
ステップ1032:補正後の第1の顔画像と補正後の第2の顔画像に対してステレオマッチングを行い、三次元深度情報を取得する。
【0043】
具体的には、補正後の第1の顔画像と補正後の第2の顔画像とに基づき、ステレオマッチングアルゴリズムにより視差情報(例えば、視差マップ)を取得し、さらに三次元深度情報(例えば、デプスマップ)を取得することができる。
【0044】
本発明の一実施例では、上述したステップ104は、以下のステップを含むことができる。
【0045】
ステップ1041:顔融合画像と三次元深度情報とに基づいて、顔の特徴点を検出する。
【0046】
検出された顔の特徴点から、顔のランドマーク、例えば、目、鼻および口などを認識することができる。
【0047】
ステップ1042:検出された顔の特徴点に基づき、顔の特徴を抽出する。
【0048】
ステップ1043:顔の特徴を、あらかじめ設定された顔データベースと特徴マッチングし、顔認識信頼度を特徴付ける値を得る。
【0049】
あらかじめ設定された顔データベースは、あらかじめ用意または登録された顔データベースである。
【0050】
本発明の一実施例では、少なくとも一つのRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラを含み、少なくとも一つのNIRカメラは、顔の第一側面方向に顔画像を撮影する第1のNIRカメラ、および/または、顔の第二側面方向に顔画像を撮影する第2のNIRカメラを含む。
【0051】
相応に、ステップ102は、以下のステップを含むことができる。
【0052】
ステップ1021b:第1のNIRカメラで撮影した第2の顔画像および第2のNIRカメラで撮影した第2の顔画像のうちの少なくとも一つの第2の顔画像と、第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔正面融合画像を得る。
【0053】
ステップ1022b:第1のNIRカメラで撮影した第2の顔画像と、第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔第一側面融合画像を得る。
【0054】
および/または、ステップ1023b:第2のNIRカメラで撮影した第2の顔画像と、第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔第二側面融合画像を得る。
【0055】
なお、上述したステップ1021b、ステップ1022bおよびステップ1023bで言及された画像融合処理の具体的な処理ステップのすべてについては、上述したステップ1021a~ステップ1024aを参照することができ、ここで再度述べない。
【0056】
本実施例では、少なくとも一つのRGBカメラと少なくとも一つのNIRカメラとからなる撮像装置は、具体的に2種類の実施態様を含むことができる。一つの実施態様の撮像装置は、一つのRGBカメラ(第1のRGBカメラ)と一つのNIRカメラ(第1のNIRカメラ、または、第2のNIRカメラ)とを含む。別の実施態様の撮像装置は、一つのRGBカメラ(第1のRGBカメラ)と二つのNIRカメラ(第1のNIRカメラ、および、第2のNIRカメラ)とを含む。
【0057】
以下の二つの示例により、上述した2種類の実施態様の撮像装置に対応する顔認識方法の実施プロセスをそれぞれに説明する。
【0058】
示例一
図2には、撮像装置(110)が一つのRGBカメラと二つのNIRカメラとを含む実施態様は示されている。RGBカメラ(111)は、顔の正面画像を取得するためのものであり、NIRカメラ(113)とNIRカメラ(112)は、それぞれRGBカメラ(111)の左右両側に位置し、それぞれ顔の左右両側の画像を取得する。
【0059】
図3には、上述した三つのカメラで画像を出力する顔認識装置(100)の全体のブロック図は示されている。まず、RGBカメラ(111)は、フラッシュ(120)を用いて顔の正面画像を取得する。NIRカメラ(113)とNIRカメラ(112)は、それぞれ顔の左側画像と顔の右側画像を取得する。その後、イメージフュージョンブロック(130)にてRGBカメラ(111)と二つのNIRカメラ(112,113)で取得した異なる波長と異なる向きの画像を用いて画像融合処理を行う。Depth Mapブロック(140)で三つのカメラで取得した画像を用いて三次元深度情報を取得する。最後に、イメージフュージョンブロック(130)から取得された顔の正面融合画像、左側融合画像および右側融合画像とDepth Mapブロック(140)から取得された三次元深度情報とを、顔認識ブロック(150)にてあらかじめ用意された顔データベースと照合し、信頼度の値を出力する。
【0060】
信頼度の値が高いほど、取得した画像とデータベースの顔の一致度が高いことを示す。
【0061】
図4は、イメージフュージョンブロック(130)における顔正面画像のイメージフュージョンブロック(131)の概略図を示す。
【0062】
三つのカメラで取得した画像は、画角、光軸および視差の差異により、補正ブロック(131a)で補正される。RGBカメラ(111)で取得した顔の正面画像は、RGBからYUVへの変換(131b)を経て、信号がY信号とUV信号に分離される。その後、画像融合処理(131c)は、RGBカメラ(111)からのY信号と二つのNIRカメラ(112,113)からのY信号を用いて行われる。最後に、画像融合したY信号とRGBカメラ(111)からのUV信号を用いてRGBカラー画像に変換(131d)して出力する。
【0063】
RGBカメラで取得した画像とNIRカメラで取得した画像との融合により、暗部での感度を向上してノイズを低減すると同時に、輝度の解像度を向上させる。
【0064】
また、この画像融合処理において、色ずれ、アーティファクト、偽色、画像歪などの補正も可能である。
【0065】
図5は、イメージフュージョンブロック(130)における顔右側画像のイメージフュージョンブロック(132)、または、顔左側画像のイメージフュージョンブロック(133)の概略図を示す。
【0066】
このプロセスは、顔正面画像のイメージフュージョンブロック(131)と類似している。顔右側画像のイメージフュージョンブロック(132)は、RGBカメラ(111)で取得した顔の正面画像とNIRカメラ(112)で取得した顔の右側画像とを用いる。
【0067】
具体的には、まず、RGBカメラ(111)で取得した顔の正面画像とNIRカメラ(112)で取得した顔の右側画像は、補正ブロック(132a)で補正される。RGBカメラ(111)で取得した顔の正面画像は、RGBからYUVへの変換(132b)を経て、信号がY信号とUV信号に分離される。その後、画像融合処理(132c)は、RGBカメラ(111)からのY信号とNIRカメラ(112)からのY信号を用いて行われる。最後に、画像融合したY信号とRGBカメラ(111)からのUV信号を用いてRGBカラー画像に変換(132d)して出力する。
【0068】
顔左側画像のイメージフュージョンブロック(133)は、RGBカメラ(111)で取得した顔の正面画像とNIRカメラ(113)で取得した顔の左側画像とを用いる。具体的な画像融合処理のプロセスは、上述した顔右側画像のイメージフュージョンブロック(132)と類似しており、ここで再度述べない。
【0069】
図6は、Depth Mapブロック(140)の概略図を示す。あらかじめカメラキャリブレーションから得られたパラメータを用いて、三つのカメラから取得した画像に対し歪補正(140a)を行う。その後、ステレオマッチング(140b)を行って、三次元深度(構成)情報を取得する。
【0070】
図7は、顔認識ブロック(150)の概略図を示す。イメージフュージョンブロック(130)から取得された顔の正面融合画像、左側融合画像および右側融合画像と、Depth Mapブロック(140)から取得された三次元深度情報とを用いて、顔認識を行う。
【0071】
まず、顔のランドマークである目、鼻および口を検出する(150a)。その後、人それぞれの顔の特徴を抽出(150b)し、あらかじめ用意(登録)された顔データベースと特徴マッチング(150c)し、信頼度を得る。
【0072】
示例二
本示例は、一つのRGBカメラと一つのNIRカメラとを用いて顔認識を行うものであり、示例一と比べて、処理の負荷を低減する。
【0073】
図8には、撮像装置(310)が一つのRGBカメラと一つのNIRカメラとを含む実施態様は示されている。RGBカメラ(311)は、顔の正面画像を取得するためのものであり、NIRカメラ(312)は、RGBカメラ(311)の左側または右側に位置し、顔の左側画像または顔の右側画像を取得する。
【0074】
図9には、上述した二つのカメラで画像を出力する顔認識装置(300)の全体のブロック図は示されている。まず、RGBカメラ(311)は、フラッシュ(320)を用いて顔の正面画像を取得する。NIRカメラ(312)は、顔の右側画像を取得する。その後、イメージフュージョンブロック(330)にてRGBカメラ(311)とNIRカメラ(312)で取得した異なる波長と異なる向きの画像を用いて画像融合処理を行う。Depth Mapブロック(340)で二つのカメラで取得した画像を用いて三次元深度(構成)情報を取得する。最後に、イメージフュージョンブロック(330)から取得された顔の正面融合画像、右側融合画像とDepth Mapブロック(340)から取得された三次元深度情報とを、顔認識ブロック(350)にてあらかじめ用意された顔データベースと照合し、信頼度の値を出力する。
【0075】
本発明の別の実施例では、少なくとも一つのRGBカメラは複数のRGBカメラを含み、少なくとも一つのNIRカメラは複数のNIRカメラを含み、RGBカメラとNIRカメラは、交互に分布しており、異なる方向に顔画像を撮影し、複数のRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラと、顔の側面方向に顔画像を撮影する少なくとも一つの第2のRGBカメラとを含む。
【0076】
相応に、ステップ102は、以下のステップを含むことができる。
【0077】
ステップ1021c:第1のRGBカメラで撮影した第1の顔画像と、第1のRGBカメラの位置に隣接するNIRカメラで撮影した第2の顔画像とを画像融合処理し、顔正面融合画像を取得する。
【0078】
ステップ1022c:第2のRGBカメラの各々に対して、第2のRGBカメラで撮影した第1の顔画像と、第2のRGBカメラの位置に隣接するNIRカメラで撮影した第2の顔画像とを画像融合処理し、顔側面融合画像を取得する。
【0079】
なお、上述したステップ1021cおよびステップ1022cで言及された画像融合処理の具体的な処理ステップのすべてについては、上述したステップ1021a~ステップ1024aを参照することができ、ここで再度述べない。
【0080】
本実施例では、RGBカメラとNIRカメラの数を増やすことで顔認識の正確性をさらに向上させることができる。
【0081】
理解の便宜のために、以下の示例三により、本実施例に係る顔認識方法の実施プロセスを説明する。
【0082】
示例三
図10には、撮像装置(210)が複数のRGBカメラと複数のNIRカメラとを含む実施態様は示されている。RGBカメラとNIRカメラは、交互に分布している。本示例は、示例一と比べて、RGBカメラとNIRカメラの数を増やすことで顔認識の正確性をさらに向上させることができる。
【0083】
図11には、複数のRGBカメラと複数のNIRカメラから取得された画像を用いて融合画像を生成する入力画像の組み合わせは示されている。
【0084】
顔の正面融合画像は、中央(Center1)のRGBカメラとその左右両側(右1,左1)のNIRカメラを用いて得られる。また、顔の右側で中央から一番目の融合画像は、RGBカメラ(右1)とNIRカメラ(右1,2)の画像を用いて得られる。また、顔の右側画像で中央からN番目の融合画像は、RGBカメラ(右N)とNIRカメラ(右N-1,右N)の画像を用いて得られる。顔の左側融合画像(1~N)も右側と同様な方式で得られる。
【0085】
図12には、複数のRGBカメラと複数のNIRカメラとで画像を出力する顔認識装置(200)の全体のブロック図は示されている。これらのカメラ(210)において、フラッシュ(220)を用いてRGBカメラ(211)で顔の正面画像(中央1)と顔の左右の画像(右1~N, 左1~N)を取得する。その後、イメージフュージョンブロック(230)にて、RGBカメラ(211)とNIRカメラ(212,213)で取得した異なる波長と異なる向きの画像を用いて画像融合処理を行う。Depth Mapブロック(240)にて、RGBカメラ(211)とNIRカメラ(212,213)で取得した画像を用いて三次元深度(構成)情報を取得する。最後に、イメージフュージョンブロック(230)から取得された顔の正面融合画像、左側の複数の融合画像および右側の複数の融合画像とDepth Mapブロック(240)から取得された三次元深度情報とを、顔認識ブロック(250)にてあらかじめ用意された顔データベースと照合し、信頼度の値を出力する。
【0086】
当該示例における画像融合処理のプロセスは示例一と異なり、当該示例における画像融合処理の全ては示例一に係るイメージフュージョンブロック(130)における顔正面画像のイメージフュージョンブロック(131)のフローで行うことができる。ただし、歪補正、位置合わせおよび視差補正のパラメータは異なるので、それぞれ算出して処理する必要がある。
【0087】
図13に示すように、本発明の実施例は、さらに、顔認識装置を提供する。
【0088】
当該顔認識装置は、具体的に、
少なくとも一つのRGBカメラで撮影した第1の顔画像と、少なくとも一つのNIRカメラで撮影した第2の顔画像とを取得するための第1取得ブロック1301であって、RGBカメラの撮影方向がNIRカメラの撮影方向と異なっている第1取得ブロック1301、
第1の顔画像と第2の顔画像に対して画像融合処理を行い、顔融合画像を取得するための第1処理ブロック1302、
第1の顔画像と第2の顔画像とに基づいてステレオマッチングを行い、三次元深度情報を取得するための第2処理ブロック1303、
顔融合画像と三次元深度情報とに基づいて顔認識を行い、顔認識信頼度を特徴付ける値を取得するための顔認識ブロック1304、を含むことができる。
【0089】
選択的には、第1処理ブロック1302は、
第1の顔画像の輝度領域Y成分画像、色領域U成分画像および色領域V成分画像を取得するための第1取得手段、
第2の顔画像の輝度領域Y成分画像を取得するための第2取得手段、
第1の顔画像の輝度領域Y成分画像と第2の顔画像の輝度領域Y成分画像を画像融合処理し、画像融合後のY成分画像を得るための第1処理手段、
画像融合後のY成分画像、第1の顔画像の色領域U成分画像および第1の顔画像の色領域V成分画像に対してRGB変換を行い、顔融合画像を得るための第2処理手段、を含む。
【0090】
選択的には、少なくとも一つのRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラを含み、少なくとも一つのNIRカメラは、顔の第一側面方向に顔画像を撮影する第1のNIRカメラ、および/または、顔の第二側面方向に顔画像を撮影する第2のNIRカメラを含む。
【0091】
相応に、第1処理ブロック1302は、
第1のNIRカメラで撮影した第2の顔画像および第2のNIRカメラで撮影した第2の顔画像のうちの少なくとも一つの第2の顔画像と、第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔正面融合画像を得るための第3処理手段、
第1のNIRカメラで撮影した第2の顔画像と、第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔第一側面融合画像を得るための第4処理手段、および/または、
第2のNIRカメラで撮影した第2の顔画像と、第1のRGBカメラで撮影した第1の顔画像とを画像融合処理し、顔第二側面融合画像を得るための第5処理手段、を含む。
【0092】
選択的には、少なくとも一つのRGBカメラは複数のRGBカメラを含み、少なくとも一つのNIRカメラは複数のNIRカメラを含み、RGBカメラとNIRカメラは、交互に分布しており、異なる方向に顔画像を撮影し、複数のRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラと、顔の側面方向に顔画像を撮影する少なくとも一つの第2のRGBカメラとを含む。
【0093】
相応に、第1処理ブロック1302は、
第1のRGBカメラで撮影した第1の顔画像と、第1のRGBカメラの位置に隣接するNIRカメラで撮影した第2の顔画像とを画像融合処理し、顔正面融合画像を取得するための第6処理手段、
第2のRGBカメラの各々に対して、第2のRGBカメラで撮影した第1の顔画像と、第2のRGBカメラの位置に隣接するNIRカメラで撮影した第2の顔画像とを画像融合処理し、顔側面融合画像を取得するための第7処理手段、を含む。
【0094】
選択的には、第2処理ブロック1303は、
第1の顔画像と第2の顔画像の各々に対して歪補正を行い、補正後の第1の顔画像と補正後の第2の顔画像を得るための歪補正手段、
補正後の第1の顔画像と補正後の第2の顔画像に対してステレオマッチングを行い、三次元深度情報を取得するためのマッチング処理手段、を含む。
【0095】
選択的には、顔認識ブロック1304は、
顔融合画像と三次元深度情報とに基づいて、顔の特徴点を検出するための特徴点検出手段、
検出された顔の特徴点に基づき、顔の特徴を抽出するための特徴抽出手段、
顔の特徴を、あらかじめ設定された顔データベースと特徴マッチングし、顔認識信頼度を特徴付ける値を得るための特徴マッチング手段、を含む。
【0096】
本発明の実施例に係る顔認識装置が持つメリットは、顔認識方法の実施例が持つメリットと同じであり、ここで再度述べない。
【0097】
本発明の実施例は、少なくとも一つのRGBカメラと、少なくとも一つのNIRカメラと、プロセッサとを含み、プロセッサがRGBカメラの各々に接続されているとともに、NIRカメラの各々に接続されており、RGBカメラの撮影方向がNIRカメラの撮影方向と異なっている、顔認識システムをさらに提供する。
【0098】
プロセッサは、少なくとも一つのRGBカメラで撮影した第1の顔画像と、少なくとも一つのNIRカメラで撮影した第2の顔画像とを取得し、第1の顔画像と第2の顔画像に対して画像融合処理を行い、顔融合画像を取得し、第1の顔画像と第2の顔画像とに基づいてステレオマッチングを行い、三次元深度情報を取得し、顔融合画像と三次元深度情報とに基づいて顔認識を行い、顔認識信頼度を特徴付ける値を取得するためのものである。
【0099】
選択的には、少なくとも一つのRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラを含み、少なくとも一つのNIRカメラは、顔の第一側面方向に顔画像を撮影する第1のNIRカメラ、および/または、顔の第二側面方向に顔画像を撮影する第2のNIRカメラを含む。
【0100】
選択的には、少なくとも一つのRGBカメラは複数のRGBカメラを含み、少なくとも一つのNIRカメラは複数のNIRカメラを含み、RGBカメラとNIRカメラは、交互に分布しており、異なる方向に顔画像を撮影し、複数のRGBカメラは、顔の正面方向に顔画像を撮影する第1のRGBカメラと、顔の側面方向に顔画像を撮影する少なくとも一つの第2のRGBカメラとを含む。
【0101】
図14に示すように、本発明の実施例は、電子機器1400をさらに提供する。電子機器1400は、プロセッサ1401と、メモリ1402と、前記メモリ1402に記憶されて前記プロセッサ1401で動作可能なプログラムまたはコマンドとを含み、前記プログラムまたはコマンドが前記プロセッサ1401により実行されたときに、上述した顔認識方法の実施例における各プロセスが実現され、かつ、同様な技術的効果が達成され得る。重複を避けるために、ここで再度述べない。
【0102】
なお、本願の実施例における電子機器としては、携帯型の電子機器と非携帯型の電子機器とが含まれる。
【0103】
さらに、本発明の実施例は、読み取り可能記憶媒体をさらに提供する。前記読み取り可能記憶媒体には、プログラムまたはコマンドが記憶されており、前記プログラムまたはコマンドがプロセッサにより実行されたときに、上述した顔認識方法の実施例における各プロセスが実現され、かつ、同様な技術的効果が達成され得る。重複を避けるために、ここで再度述べない。
【0104】
以上、図面に合せて、本発明に係る実施例について記述したが、本発明は上述した具体的な実施形態に限られず、上述した具体的な実施形態は例示的なものだけであり、限定的なものではない。当業者は、本発明による啓示のもとで、本発明の主旨および請求項で保護する範囲を逸脱しない場合、さまざまな形態をさらになさることができ、それらはいずれも本発明の保護に属する。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14