IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 三星電子株式会社の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-10-11
(45)【発行日】2023-10-19
(54)【発明の名称】コンピューティング装置及び方法
(51)【国際特許分類】
   G06T 7/00 20170101AFI20231012BHJP
   G06T 1/00 20060101ALI20231012BHJP
   G06V 40/16 20220101ALI20231012BHJP
【FI】
G06T7/00 510F
G06T1/00 340A
G06T7/00 350C
G06T7/00 660A
G06V40/16 A
【請求項の数】 20
(21)【出願番号】P 2022037052
(22)【出願日】2022-03-10
(62)【分割の表示】P 2018016589の分割
【原出願日】2018-02-01
(65)【公開番号】P2022071195
(43)【公開日】2022-05-13
【審査請求日】2022-04-08
(31)【優先権主張番号】10-2017-0036646
(32)【優先日】2017-03-23
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2017-0050653
(32)【優先日】2017-04-19
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2017-0056145
(32)【優先日】2017-05-02
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】390019839
【氏名又は名称】三星電子株式会社
【氏名又は名称原語表記】Samsung Electronics Co.,Ltd.
【住所又は居所原語表記】129,Samsung-ro,Yeongtong-gu,Suwon-si,Gyeonggi-do,Republic of Korea
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100091214
【弁理士】
【氏名又は名称】大貫 進介
(72)【発明者】
【氏名】韓 承 周
(72)【発明者】
【氏名】高 民 守
(72)【発明者】
【氏名】金 徳 相
(72)【発明者】
【氏名】韓 在 濬
【審査官】合田 幸裕
(56)【参考文献】
【文献】特開2017-010543(JP,A)
【文献】国際公開第2015/076846(WO,A1)
【文献】特開2007-135149(JP,A)
【文献】米国特許出願公開第2015/0347822(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06T 1/00
G06V 40/16
IEEE Xplore
JSTPlus(JDreamIII)
(57)【特許請求の範囲】
【請求項1】
コンピューティング装置において、
映像を取得するカメラと、
1つ以上のプロセッサと、
を含み、
前記1つ以上のプロセッサは、
前記コンピューティング装置がロック状態である間に、前記カメラを用いてユーザの顔に対する前記映像を取得し、前記取得された映像から顔領域を検出し、前記顔領域の検出に基づいて有効なユーザの予め登録された情報及び前記検出された顔領域に対する比較を行うことによって顔認証を実行し、
前記顔認証が成功した場合、前記コンピューティング装置にアクセスしようとする前記ユーザに前記コンピューティング装置のロック状態を解除し、
前記1つ以上のプロセッサは、前記顔認証を実行する場合に、検出された顔領域から特徴を抽出し、その抽出された特徴と、前記予め登録された情報のうち部分顔のタイプに対応する登録特徴との間の比較結果に基づいて、前記顔認証の成否を決定し、
前記コンピューティング装置は、前記顔認証が実行される間に、前記ユーザが見ることのできる前記コンピューティング装置の表示画面に前記取得された映像を表示しない、コンピューティング装置。
【請求項2】
前記予め登録された情報は、予め定義された部分顔の各タイプに対応する登録特徴として登録されている、請求項1に記載のコンピューティング装置。
【請求項3】
前記1つ以上のプロセッサは、前記映像の前記顔領域の正規化を介して顔映像を生成し、前記生成された顔映像から前記特徴を抽出する、請求項2に記載のコンピューティング装置。
【請求項4】
前記1つ以上のプロセッサは、
前記検出された顔領域に対して顔のランドマークを検出し、
前記顔のランドマーク検出の結果に基づいて、顔の大きさ調整及び位置マッチングを介して、前記検出された顔領域のためのイメージデータの変換を介して前記顔映像を生成する、請求項3に記載のコンピューティング装置。
【請求項5】
前記1つ以上のプロセッサは、ACM(Active Contour Model)、ASM(Active Shape Model)、AAM(Active Appearance model)、SDM(Supervised Descent Method)、又はニューラルネットワークモデルを用いて前記顔のランドマークを検出する、請求項4に記載のコンピューティング装置。
【請求項6】
前記変換は、アフィン変換(affine transformation)を介して行われる、請求項5に記載のコンピューティング装置。
【請求項7】
前記1つ以上のプロセッサは、
前記映像の正規化を介して取得された顔映像から前記検出された顔領域の顔映像を生成し、
前記顔認証を行うために用いられるニューラルネットワークに前記生成された顔映像を提供する、請求項1に記載のコンピューティング装置。
【請求項8】
前記1つ以上のプロセッサは、顔のランドマークの位置が示すベクトル空間を他のベクトル空間に対応させる変換を行う、請求項7に記載のコンピューティング装置。
【請求項9】
前記1つ以上のプロセッサは、前記映像から前記検出された顔領域の大きさを変更及びクロップのうち少なくとも1つを行う、請求項7に記載のコンピューティング装置。
【請求項10】
前記1つ以上のプロセッサは、
前記映像から正規化を介して顔映像を生成し、
前記検出された顔領域から特徴を抽出する場合に、前記生成された顔映像の映像情報と基準映像との間の差に基づいて、前記生成された顔映像の特徴を抽出する、請求項1に記載のコンピューティング装置。
【請求項11】
コンピューティング装置によって行われる方法において、
前記コンピューティング装置がロック状態である間に、カメラを用いてユーザの顔に対する映像を取得するステップと、
前記取得された映像から顔領域を検出するステップと、
前記顔領域の検出に基づいて有効なユーザの予め登録された情報及び前記検出された顔領域に対する比較を実行することによって顔認証を行うステップと、
前記顔認証が成功した場合、前記コンピューティング装置にアクセスしようとする前記ユーザに前記コンピューティング装置のロック状態を解除するステップと、
を含み、前記顔認証を行うステップは、検出された顔領域から特徴を抽出するステップと、その抽出された特徴と、前記予め登録された情報のうち部分顔のタイプに対応する登録特徴との間の比較結果に基づいて、前記顔認証の成否を決定するステップとを含み、
前記コンピューティング装置は、前記顔認証が行われる間に、前記ユーザが見ることのできる前記コンピューティング装置の表示画面に前記取得された映像を表示しない、方法。
【請求項12】
前記予め登録された情報は、予め定義された部分顔の各タイプに対応する登録特徴として登録されている、請求項11に記載の方法。
【請求項13】
前記特徴を抽出するステップは、前記映像の前記顔領域の正規化を介して顔映像を生成し、前記生成された顔映像から前記特徴を抽出するステップを含む、請求項12に記載の方法。
【請求項14】
前記特徴を抽出するステップは、
前記検出された顔領域に対して顔のランドマークを検出するステップと、
前記顔のランドマーク検出の結果に基づいて、顔の大きさ調整及び位置マッチングを介して前記検出された顔領域のためのイメージデータの変換を通じて前記顔映像を生成するステップと、
を含む、請求項13に記載の方法。
【請求項15】
前記顔のランドマークを検出するステップは、ACM(Active Contour Model)、ASM(Active Shape Model)、AAM(Active Appearance model)、SDM(Supervised Descent Method)、又はニューラルネットワークモデルを用いて前記顔のランドマークを検出するステップを含む、請求項14に記載の方法。
【請求項16】
前記変換は、アフィン変換(affine transformation)を介して行われる、請求項15に記載の方法。
【請求項17】
前記顔認証を行うステップは、
前記映像の正規化を介して取得された顔映像から前記検出された顔領域の顔映像を生成するステップと、
前記顔認証を行うために用いられるニューラルネットワークに前記生成された顔映像を提供するステップと、
を含む、請求項11に記載の方法。
【請求項18】
前記顔映像を生成するステップは、顔のランドマークの位置が示すベクトル空間を他のベクトル空間に対応させる変換を行うステップを含む、請求項17に記載の方法。
【請求項19】
前記顔映像を生成するステップは、前記映像から前記検出された顔領域の大きさを変更及びクロップのうち少なくとも1つを行うステップを含む、請求項17に記載の方法。
【請求項20】
前記顔認証を行うステップは、前記映像から正規化を介して顔映像を生成するステップを含み
前記検出された顔領域から特徴を抽出するステップは、前記生成された顔映像の映像情報と基準映像との間の差に基づいて、前記生成された顔映像の特徴を抽出するステップを含む、請求項11に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
以下の説明は顔認証技術に関する。
【背景技術】
【0002】
生体認証技術のうちの1つである顔認証技術は、静画又は動画に示された顔に基づいてユーザが正当なユーザであるか否かを決定する認証技術である。顔認証技術は、認証対象者を非接触に確認できるという利点がある。最近では、顔認証技術の利便性及び効率性のためにセキュリティーシステム、モバイル認証、及びマルチメディアデータ検索などの様々な応用分野で顔認証技術が幅広く活用されている。
【発明の概要】
【発明が解決しようとする課題】
【0003】
本発明の目的は、部分顔に基づいて顔認証が実行されても顔認証をより正確に行うことのできる顔認証技術を提供することにある。
【課題を解決するための手段】
【0004】
一実施形態に係る顔認証方法は、入力映像から顔領域を検出するステップと、前記顔領域に示された入力顔が部分顔であるか否かを決定するステップと、前記入力顔が部分顔であるという決定に応答して、基準映像と前記顔領域の顔映像を合成して合成映像を生成するステップと、前記合成映像に基づいて認証の成否を決定するステップとを含む。
【0005】
一実施形態に係る顔認証方法において、前記入力顔が部分顔であるか否かを決定するステップは、前記入力映像から検出された前記顔領域の位置に基づいて前記入力顔が部分顔であるか否かを決定し得る。
【0006】
一実施形態に係る顔認証方法において、前記入力顔が部分顔であるか否かを決定するステップは、前記検出された顔領域が前記入力映像の境界のうち一部分を含む場合、前記入力顔が部分顔であると決定し得る。
【0007】
一実施形態に係る顔認証方法において、前記合成映像を生成するステップは、前記検出された顔領域に基づいて前記基準映像の映像情報と前記顔映像の映像情報を合成することで前記合成映像を生成し、前記基準映像の映像情報は、全体顔に対応する顔領域から前記検出された顔領域を除いた残りの顔領域に対応する領域の映像情報であり得る。
【0008】
一実施形態に係る顔認証方法において、前記入力顔が部分顔であるか否かを決定するステップは、前記顔領域から顔のランドマークを検出するステップと、前記検出された顔領域から、予め定義された顔部位領域のうち少なくとも1つに対応するランドマークが検出されない場合、前記入力顔が部分顔であると決定するステップとを含み得る。
【0009】
一実施形態に係る顔認証方法において、前記合成映像を生成するステップは、前記ランドマークが検出されない顔領域に対応する前記基準映像の対応領域の映像情報と前記顔映像の映像情報を合成することで前記合成映像を生成し得る。
【0010】
一実施形態に係る顔認証方法において、前記認証の成否を決定するステップは、特徴抽出器を用いて前記入力顔に対する特徴を抽出するステップと、登録特徴のうち前記部分顔のタイプに対応する登録特徴と前記抽出された特徴との間の比較結果に基づいて認証の成否を決定するステップとを含み得る。
【0011】
一実施形態に係る顔認証方法は、前記顔映像に示された入力顔に閉塞領域が存在するか否かを決定するステップと、前記閉塞領域が存在するという決定に応答して、前記基準映像で前記閉塞領域に対応する対応領域の映像情報と前記顔映像の映像情報を合成することで合成映像を生成するステップとをさらに含み得る。
【0012】
一実施形態に係る顔認証装置は、プロセッサを含み、前記プロセッサは、入力映像から顔領域を検出し、前記顔領域に示された入力顔が部分顔であるか否かを決定し、前記入力顔が部分顔であるという決定に応答して、基準映像と前記顔領域の顔映像を合成して合成映像を生成し、前記合成映像に基づいて認証の成否を決定する。
【0013】
一実施形態に係るニューラルネットワークモデルが含まれた装置は、顔映像が入力されて中間特徴を出力する共通特徴抽出器と、前記共通特徴抽出器に接続され、前記顔映像がユーザの全体顔情報を含む場合に前記中間特徴が入力されて顔認証に用いられる特徴を抽出する第1特徴抽出器と、前記共通特徴抽出器に接続され、前記顔映像がユーザの部分顔情報を含む場合に前記中間特徴が入力されて顔認証に用いられる特徴を抽出する第2特徴抽出器とを含む。
【0014】
一実施形態に係るコンピューティング装置は、ユーザの顔映像を取得するカメラと、前記取得された顔映像と登録された顔映像とを比較して顔認証を行うプロセッサとを含み、前記コンピューティング装置は、前記顔認証が実行される間に前記ユーザが見ることのできる前記コンピューティング装置の表示画面に前記取得された顔映像を表示しなくてもよい。
【発明の効果】
【0015】
一実施形態によると、部分顔に基づいて顔認証が実行されても顔認証をより正確に行うことができる。
【0016】
一実施形態によると、顔に閉塞領域が存在しても顔認証をより正確に行うことができる。
【0017】
一実施形態によると、顔撮影のためのプレビュー映像が提供されなくても顔認証を行うことができる。
【図面の簡単な説明】
【0018】
図1A】一実施形態に係る顔認証を説明するための図である。
図1B】一実施形態に係る顔認証を説明するための図である。
図2A】部分顔が撮影された映像の一例を示す図である。
図2B】部分顔が撮影された映像の一例を示す図である。
図2C】部分顔が撮影された映像の一例を示す図である。
図2D】部分顔が撮影された映像の一例を示す図である。
図3】一実施形態に係る顔認証方法を説明するためのフローチャートである。
図4】一実施形態に係る顔認証方法を説明するためのフローチャートである。
図5】一実施形態に係る顔認証方法を説明するためのフローチャートである。
図6】一実施形態に係る顔登録の過程と顔認証過程の一例を説明するための図である。
図7A】一実施形態に係る顔登録の過程で登録特徴を抽出する一例を説明するための図である。
図7B】一実施形態に係る顔登録の過程で登録特徴を抽出する一例を説明するための図である。
図7C】一実施形態に係る顔登録の過程で登録特徴を抽出する一例を説明するための図である。
図7D】一実施形態に係る顔登録の過程で登録特徴を抽出する一例を説明するための図である。
図8A】一実施形態に係る顔認証過程で合成映像を生成する一例を説明するための図である。
図8B】一実施形態に係る顔認証過程で合成映像を生成する一例を説明するための図である。
図9】一実施形態に係る部分顔のタイプに応じる合成映像の一例を示す図である。
図10】他の実施形態に係る顔認証方法を説明するためのフローチャートである。
図11】一実施形態に係る入力映像に閉塞領域が存在する場合に合成映像を生成する一例を説明するための図である。
図12】一実施形態に係る顔認証装置の構成を示す図である。
図13】一実施形態に係るコンピューティング装置の構成を示す図である。
図14】一実施形態に係る学習装置の構成を示す図である。
【発明を実施するための形態】
【0019】
本明細書に開示されている本発明の概念による実施形態に対して特定の構造的又は機能的な説明は、単に本発明の概念による実施形態を説明するための目的として例示されたものであり、本発明の概念による実施形態は様々な形態で実施され、本明細書に説明された実施形態に限定されることはない。
【0020】
第1又は第2などの用語を複数の構成要素を説明するために用いることができるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。また、いずれかの構成要素が他の構成要素に「連結されて」いると言及された場合、その次の構成要素に直接的に連結されてもよく、又は中間に他の構成要素が存在することもあり得ると理解されなければならない。一方いずれかの構成要素が他の構成要素に「直接連結されて」いるか「直接連結されて」いと言及される場合には、中間に他の構成要素が存在しないものとして理解されなければならない。構成要素間の関係を説明する表現、例えば「~間に」と「すぐ~の間に」、又は「~に隣接する」と「~に直接に隣接する」などのように解釈されなければならない。
【0021】
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
【0022】
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
【0023】
以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。
【0024】
図1Aは、一実施形態に係る顔認証を説明するための図である。
【0025】
顔認証は、認証を試みたユーザの顔情報に基づいて当該のユーザが有効なユーザであるか否かを判断する認証方法として、ユーザログイン、決済サービス、又は出入り規制などで有効なユーザを認証するために用いられている。図1Aを参照すると、顔認証を行う装置である顔認証装置は、コンピューティング装置120に含まれて動作する。コンピューティング装置120は、例えば、スマートフォン、ウェアラブル機器、タブレットコンピュータ、ネットブック、ラップトップ、デスクトップ、PDA(personal digital assistant)、セットトップボックス、家電機器、生体ドアロック、セキュリティー装置、又は車両始動装置であり得る。
【0026】
コンピューティング装置120は、顔認証によってコンピューティング装置120にアクセスしようとするユーザ110に対して認証過程を行う。例えば、ユーザ110がコンピューティング装置120のロック状態を解除しようとコンピューティング装置120にユーザ認証を試みる場合、コンピューティング装置120は、カメラ130のような映像取得装置を用いてユーザ110の顔映像を取得し、取得された顔映像を分析してコンピューティング装置100のロック状態を解除するか否かを決定する。一実施形態では、ユーザ110が顔認証のためにカメラ130を用いて撮影する顔映像は、コンピューティング装置120のスクリーンを介して提供される。当該の顔映像は、プレビュー映像として機能する。ユーザ110は、プレビュー映像を参考にして顔認証のために入力しようとする顔の形態を調整し得る。
【0027】
一実施形態に係るコンピューティング装置120は、取得した顔映像から顔領域140を検出し、特徴抽出器を用いて顔領域140から特徴を抽出する。コンピューティング装置120は、抽出された特徴と有効なユーザに対する登録特徴との間の比較結果に基づいてユーザ認証の成功の有無を決定する。特徴抽出器は、入力された情報に基づいて特徴情報を出力するモデルであって、一例として、学習データによって予め学習されたニューラルネットワークモデルであってもよい。ニューラルネットワークモデルは、人の生物学的な神経細胞の特性を数学的な表現によってモデリングしたモデルである。ユーザ認証が成功したと決定された場合、ユーザ110は、コンピューティング装置120のロックモードを成功的に解除させることができる。反対に、ユーザ認証が失敗したと決定された場合、コンピューティング装置120は継続的にロックモードで動作する。有効なユーザは、顔登録の過程によって自分の顔をコンピューティング装置120に予め登録し、コンピューティング装置120は、格納装置又はクラウド格納媒体に当該の有効なユーザを識別するための情報を格納する。例えば、有効なユーザの顔映像又は当該の顔映像から抽出された特徴が有効なユーザの登録情報として格納される。
【0028】
顔認証を試みるために、ユーザ110は、カメラ130を用いて自分の顔を撮影する。ここで、カメラ130の視野(field of view:FoV)からズレて顔が撮影される場合、全体顔(full face)でない部分顔(partial face)が撮影される。図1Bに示すように、ユーザ110は、コンピューティング装置120を斜めに把持した状態で顔認証を試みる場合、カメラ130の視野に全体顔が含まれず部分顔が撮影される。図1Aとは相違して、顔認証過程でカメラ130によって撮影されたプレビュー映像がユーザが見ることのできるスクリーン150に示されない場合、顔認証過程で部分顔が撮影される場合が相対的に多い。ユーザ110は、顔認証のために部分顔よりも全体顔を撮影しようとする傾向があるものの、プレビュー映像がユーザ110に提供されない場合は、ユーザ110が全体顔を撮影したか、部分顔を撮影しかが確認されず、そのため、ユーザ110が全体顔を撮影するように調整することが困難になる。
【0029】
図2Aないし図2Dは、部分顔が撮影された映像の一例を示す。図2Aないし図2Dの各映像には、一部の顔部位が脱落した部分顔が撮影されている。部分顔には、全体顔よりもユーザを識別するための特徴が部分的にしか含まれていないため、一般的に部分顔に基づいて顔認証が実行されれば、全体顔に基づいて顔認証が実行される場合よりも顔認証の正確度が低くなる。しかし、顔認証のために常に全体顔が入力されることを期待することができないため、部分顔が入力されても顔認証の正確度を高めることが求められる。特に、図1Bに示す実施形態のように、顔認証過程でプレビュー映像が提供されない場合、顔認証のために部分顔が撮影される場合が多いが、このように撮影された部分顔に対する顔認証の可能性及び顔認証の正確度を高めることが求められている。以下で説明する実施形態は、顔撮影のためのプレビュー映像が提供されなくても顔認証を可能にし、また、部分顔に基づいて顔認証が実行されても顔認証をより正確に実行できる解決策を提示する。
【0030】
図3ないし図5は、一実施形態に係る顔認証方法を説明するためのフローチャートである。いずれかの実施形態が相違する形態で実現できる場合、特定ステップの機能又は動作がフローチャートとは異なって実行されてもよい。例えば、図3ないし図5において、連続する2つのステップは実際に実質的に同時に実行されてもよく、関連する機能又は動作によって当該のステップの順序が変えて実行されてもよい。
【0031】
図3を参照すると、ステップS310において、顔認証装置は入力映像を受信する。入力映像は顔認証装置に入力される映像であって、顔認証の対象となる映像である。入力映像は、例えば、デジタルスチールカメラ、ビデオカメラのような映像取得装置によって取得される。図面には示されていないが、実施形態によって顔認証装置は、受信した入力映像に対する前処理を行ってもよい。前処理過程は、入力映像を顔認証により適切な形態に処理する1つ以上の過程を含む。例えば、前処理過程は、入力映像に含まれたノイズを除去する過程、入力映像のコントラストを増加させる過程、入力映像に含まれたブラーを除去するぼけ除去(deblurring)過程、背景領域を除去する過程、入力映像に含まれた歪みを補正するワーピング過程、及び入力映像を2進化する過程などを含む。
【0032】
ステップS320において、顔認証装置は入力映像から顔領域を検出する。例えば、顔認証装置は、入力映像でHaar基盤のカスケードエイダブースト分流器(Haar-based cascade adaboost classifier)を用いて顔領域を検出する。ただし、実施形態の範囲がこれに限定されることなく、顔認証装置は、様々な顔領域検出方式を用いて入力映像から顔領域を検出し得る。一例として、入力映像から抽出された顔領域の顔映像は、パッチ(patch)映像の形態を有し得る。
【0033】
ステップS330において、顔認証装置は、顔領域の顔映像を選択的に正規化する。一実施形態に係る顔認証装置は、検出された顔領域から顔のランドマーク(facial landmarks)を検出し、検出されたランドマークに基づいて入力映像を正規化する。正規化は、例えば、入力映像から顔映像を抽出する映像クロッピング(image cropping)過程、顔映像に示されたランドマークの位置を予め定義された基準位置にマッチングさせる過程、及び顔映像の大きさを調整する過程などを含む。
【0034】
顔認証装置は、例えば、ACM(Active Contour Model)、ASM(Active Shape Model)、AAM(Active Appearance model)、SDM(Supervised Descent Method)、又は、ニューラルネットワークモデルなどに基づいたランドマーク検出方式を用いて顔領域から顔のランドマークを検出する。顔のランドマークは主な顔部位に対する特徴点として、例えば、眉毛、目、鼻、唇、あご、耳、又は顔の輪郭などを識別するための特徴点である。顔認証装置は、検出されたランドマークの位置に基づいて顔領域に対してアフィン変換(affine transformation)を行うことで、ランドマークの位置を基準位置にマッチングさせることができる。ここで、アフィン変換は、ランドマークの位置が示すベクトル空間を他のベクトル空間に対応させる役割を果たす。
【0035】
ステップS330の正規化過程が実行される場合、以下のステップS340ないしステップS370における顔映像は、正規化過程が実行された顔映像に代替される。
【0036】
ステップS340において、顔認証装置は、顔映像に示された入力顔が部分顔であるか否かを決定する。一実施形態に係る顔認証装置は、顔領域の検出結果(例えば、検出された顔領域の位置)に基づいて入力顔が部分顔であるか否かを決定する。顔認証装置は、例えば、検出された顔領域が入力映像の境界のうち一部分を含む場合、又は、検出された顔領域が入力映像からズレる場合、入力顔が部分顔であると決定する。顔認証装置は、検出された顔領域が入力映像の境界を含んでいないか、又は検出された顔領域が入力映像をズレることなく入力映像の内部に含まれる場合には入力顔が全体顔であると決定する。
【0037】
一実施形態に係る顔認証装置は、検出された顔領域が入力映像の境界のうちいずれかの境界を含んでいるか否か、又は検出された顔領域が入力映像からズレている部分がどの部分であるか否かに基づいて部分顔のタイプを決定する。例えば、顔認証装置は、入力映像からズレている部分が上側である場合には部分顔のタイプを第1タイプとして決定し、入力映像からズレている部分が下側である場合には部分顔のタイプを第1タイプと区別される第2タイプとして決定する。部分顔のタイプに応じて、以下で説明される合成映像の合成形態が変わり得る。
【0038】
他の実施形態において、部分顔であるか否かに対する判断はランドマークの検出結果に基づく。例えば、顔認証装置は、検出された顔領域から顔のランドマークを検出し、予め定義された顔部位領域のうちの1つ以上に対応するランドマークが検出されない場合、顔映像に示された入力顔が部分顔であると決定する。反対に、顔映像に示された顔領域で予め定義された顔部位領域に対するランドマークが全て検出された場合、顔認証装置は、入力顔が部分顔ではなく全体顔であると決定する。入力顔が部分顔であると決定された場合、顔認証装置は検出されたランドマークに基づいて部分顔のタイプも決定する。例えば、顔認証装置は、眉毛及び目に対応するランドマークが検出されない場合には部分顔のタイプを第1タイプと決定し、あご及び唇に対応するランドマークが検出されない場合には部分顔のタイプを第2タイプと決定する。
【0039】
上記の実施形態で、部分顔に対して定義されたタイプを第1タイプ及び第2タイプに仮定して説明したが、実施形態により部分顔のタイプは1つのみが存在するか、又は3つ以上に存在してもよい。
【0040】
ステップS340において、入力顔が部分顔であると決定された場合、顔認証装置はステップS350において上記の決定に応答して基準映像と顔映像を合成して合成映像を生成する。一実施形態に係る顔認証装置は、検出された顔領域に基づいて基準映像の映像情報と顔映像の映像情報を合成することで合成映像を生成する。ここで、合成映像の生成に用いられる基準映像の映像情報は、部分顔が含まない情報である。言い換えれば、顔認証装置は全体顔に対応する顔領域として、ステップS320で検出された顔領域を除いた残りの顔領域に対応する映像情報を基準映像からもってくる。他の実施形態において、顔認証装置は、基準映像から複数のランドマークが検出されない顔領域に対応する対応領域の映像情報と顔映像の映像情報を合成することで合成映像を生成する。合成映像は、顔映像と基準映像それぞれの映像情報を含み、カメラの視野からズレて撮影されて入力映像に示されていない顔領域に対する映像情報は、基準映像の映像情報によって満たされる。上記の実施形態に係る映像情報は、映像に含まれたピクセルのピクセル値を示す。
【0041】
一実施形態において、入力顔に示されていない顔領域に応じて合成に用いられる基準映像の領域が決定される。顔認証装置は、ランドマークの検出結果に基づいて部分顔のタイプを決定し、決定されたタイプに応じて合成に用いられる基準映像の領域を決定する。例えば、部分顔のタイプが第1タイプとして決定された場合、顔認証装置は、基準映像で第1タイプの決定に対応する第1対応領域の映像情報と顔映像の映像情報を合成して合成映像を生成する。異なる例として、部分顔のタイプが第2タイプとして決定された場合、顔認証装置は、基準映像で第2タイプの決定に対応する第2対応領域の映像情報と顔映像の映像情報を合成して合成映像を生成する。ここで、第1対応領域と第2対応領域はそれぞれ異なってもよい。
【0042】
基準映像は、合成映像を生成するために用いられる予め定義された映像である。顔登録の過程でも同じ基準映像が合成映像を生成するために用いられる。一実施形態に係る基準映像は、特徴抽出器を学習させるために用いられる学習映像に基づいて決定され得る。例えば、基準映像は、学習映像の平均映像又は平均値映像であり得る。平均映像は、学習映像の間で互いに対応する位置で有するピクセル値を平均することによって生成される。平均値映像は、学習映像に含まれた全体ピクセルのピクセル値を平均し、平均ピクセル値を全体ピクセルに割り当てることで生成される。平均映像では、各ピクセルの位置に応じてピクセル値が変わり得るためその形態が示されるが、平均値映像では、全体ピクセルが全て同じピクセル値を有することからその形態が示されない。ただし、基準映像の例が上記の実施形態に限定されることなく、基準映像の形態は様々である。例えば、基準映像は学習映像に関係なく単色のカラー映像であってもよい。
【0043】
ステップS360において、顔認証装置は、合成映像に基づいて認証成功の有無を決定する。ステップS360は、図4を参照して以下で説明する。図4を参照すると、ステップS410において、顔認証装置は、合成映像と基準映像との間の差分映像を生成する。差分映像は、合成映像と基準映像との間で互いに対応する位置におけるピクセル値差情報を含む。例えば、顔認証装置は、合成映像の各ピクセル値から基準映像の対応する位置のピクセル値を差し引くことによって差分映像を生成し得る。
【0044】
ステップS420において、顔認証装置は、特徴抽出器を用いて入力顔に対する特徴を抽出する。特徴抽出器には差分映像の映像情報が入力され、特徴抽出器は、差分映像の映像情報に対応する特徴ベクトルを出力する。一例として、特徴抽出器は、部分顔のタイプそれぞれに対応する出力レイヤを含むニューラルネットワークモデルであってもよい。一例として、特徴抽出器の最上端レイヤである出力レイヤから出力された特徴ベクトル又は特徴抽出器の隠しレイヤから抽出された値と出力レイヤから抽出された値に基づいて決定された特徴ベクトルが、入力顔に対する特徴として抽出されてもよい。特徴抽出器は学習過程によって学習されるが、これについては図14を参照して詳細に説明する。
【0045】
ステップS430において、顔認証装置は、特徴抽出器によって抽出された特徴と登録特徴との間の比較結果に基づいて認証成功の有無を決定する。登録特徴は、顔登録の過程で登録された有効なユーザに対する特徴を示す。顔登録の過程で全体顔に対応する登録特徴及び予め定義された部分顔の各タイプに対応する登録特徴が登録される。一実施形態に係る顔認証装置は、予め登録された様々な登録特徴のうち部分顔のタイプに対応する登録特徴と抽出された特徴とを比較し、その比較結果に基づいて入力顔に対する認証成功の有無を決定する。
【0046】
一例として、顔認証装置は、抽出された特徴と登録特徴との間の類似度を決定し、類似度に基づいて入力顔に示されたユーザが有効なユーザであるか否かを決定する。抽出された特徴と登録特徴との間の差が大きいほど類似度は小さくなり、当該の差が小さいほど類似度は大きくなる。顔認証装置は類似度が閾値より大きい場合に認証が成功したものと決定し、類似度が閾値以下である場合には認証が失敗したものと決定する。
【0047】
再び図3を参照すると、ステップS340で入力顔が部分顔ではないと決定された場合、ステップS370において、顔認証装置は、顔映像に基づいて認証成功の有無を決定する。部分顔ではないという意味は、入力顔が全体顔であることを意味する。ステップS370は、図5を参照して以下で説明する。図5を参照すると、ステップS510において、顔認証装置は、顔映像と基準映像との間の差分映像を生成する。差分映像は、顔映像と基準映像との間で互いに対応する位置におけるピクセル値差情報を含む。
【0048】
ステップS520において、顔認証装置は、特徴抽出器を用いて入力顔に対する特徴を抽出する。特徴抽出器には、ステップS510で生成された差分映像の映像情報が入力されてもよく、特徴抽出器は差分映像の映像情報に対応する特徴ベクトルを出力してもよい。図4に示すステップS420と類似の方式で差分映像から入力顔に対する特徴が抽出される。
【0049】
ステップS530において、顔認証装置は、抽出された特徴と登録特徴との間の比較結果に基づいて認証成功の有無を決定する。顔認証装置は、登録特徴のうち全体顔に対応する登録特徴と抽出された特徴とを比較し、その比較結果に基づいて入力顔に対する認証成功の有無を決定する。図4に示すステップS430と類似の方式で、上記で抽出された特徴と登録特徴との間の類似度が決定され、類似度に基づいて認証成功の有無が決定される。
【0050】
図6は、一実施形態に係る顔登録の過程と顔認証過程の一例を説明するための図である。
【0051】
図6を参照すると、顔登録の過程610では、登録映像615から特徴が抽出され、抽出された特徴が登録特徴として格納される。一実施形態では、ユーザが顔登録のためにカメラを用いて自分の顔を撮影することで登録映像615が取得される。顔登録の過程610では、全体顔が撮影された登録映像615を用いてもよい。
【0052】
図3に示すステップS310ないしステップS330と類似の過程により、登録映像615から全体顔に対応する正規化された登録映像625が取得される。ステップS310ないしステップS330の過程で「入力映像」が「登録映像615」に変わることを除いては、ステップS310ないしステップS330の処理過程がそのまま適用される。
【0053】
また、正規化された登録映像625と基準映像620に基づいて1つ以上の合成映像630が生成される。実施形態により、合成映像630は1つのみが生成されてもよく、各部分顔のタイプに対応する合成映像630が生成されてもよい。合成映像630は、部分顔の各タイプに応じて登録映像625で一部領域が基準映像の映像情報に代替された合成映像であり得る。一例として、基準映像620は、特徴抽出器を学習するために用いられた学習映像の平均映像又は平均値であってもよい。特徴抽出器を用いて正規化された登録映像625及び合成映像630(合成映像が複数である場合、各合成映像)に対応する特徴が抽出635され、抽出された各特徴は登録特徴として格納640される。ここで、登録映像625に対応する特徴及び合成映像630に対応する特徴が互いに区別されて格納される。
【0054】
顔認証過程650では、入力映像660から抽出された特徴と顔登録の過程610で登録された特徴との間の比較結果に基づいて顔認証が実行される。一実施形態では、顔認証装置が顔認証の対象である入力映像660を受信すると、顔認証装置は入力映像660から顔領域を検出し、顔領域に示された入力顔が部分顔であるか否かを決定する。図6では、入力映像に示された顔領域で口領域が除外されているため、入力顔が部分顔であると決定される。この場合、顔認証装置は、検出された顔領域の顔映像と顔登録の過程610で用いられた基準映像620に基づいて合成映像670を生成する。入力映像660から合成映像670が生成される過程については、図3に示すステップS310ないしステップS350の過程を参照する。
【0055】
顔認証装置は、顔登録の過程610で用いられた特徴抽出器を用いて合成映像670から入力顔に対する特徴を抽出680する。その後、顔認証装置は、抽出された特徴と登録特徴とを比較し、その比較結果に基づいて認証成功の有無を判断685する。一実施形態では、抽出された特徴と比較される登録特徴は、入力映像660に示された入力顔の形態に基づいて決定される。例えば、入力映像660のように口領域が除外した場合には、顔登録の過程610で合成映像630のうち最初の合成映像(口領域が基準映像620の映像情報に代替された合成映像)に基づいて抽出された登録特徴が入力映像660から抽出された特徴と比較される。
【0056】
他の実施形態において、顔登録の過程610で1つの合成映像630のみが生成され、当該の合成映像630から抽出された特徴が部分顔に対応する特徴として登録された場合、入力映像660に示された入力顔が部分顔であると決定されれば、上記の合成映像630と同じ合成形態に顔認証のための合成映像670が生成される。例えば、顔登録の過程610の合成映像630が顔の下側の部分(例えば、口領域を含む部分)を基準映像620の映像情報に代替されることによって生成されたものであれば、顔認証過程650で生成される合成映像670も顔の下側の部分が基準映像620の映像情報に代替される合成形態を有する。
【0057】
図7Aないし図7Dは、一実施形態に係る顔登録の過程で登録特徴を抽出する一例を説明するための図である。
【0058】
図7Aを参照すると、顔登録の過程で登録映像615に示された顔を登録するために特徴抽出器740を用いて登録映像615から登録特徴が抽出される。ここで、登録映像615から全体顔に対応する正規化された映像705、及び登録映像615(又は映像705)と基準映像620に基づいて合成映像710、715、720、725、730が生成される。合成映像710、715、720、725、730のそれぞれは部分顔の各タイプに対応する。
【0059】
特徴抽出器740には、映像705と基準映像620との間の差分映像が入力され、特徴抽出器740は映像705に対応する第1特徴を出力する。また、特徴抽出器740には各合成映像710、715、720、725、730と基準映像620との間の差分映像が個別的又は同時に入力され、特徴抽出器740は各合成映像710、715、720、725、730に対応する特徴を出力する。例えば、合成映像710と基準映像620との間の差分映像が特徴抽出器740に入力されれば、特徴抽出器740から合成映像710の部分顔のタイプに対応する第2特徴が出力される。第1特徴は全体顔に対応する特徴であり、第2特徴ないし第6特徴は部分顔の各タイプに対応する特徴である。
【0060】
合成映像720、725、730の場合、顔の左側領域が基準映像620の映像情報として合成されている。本実施形態では、上記の合成映像720、725、730の合成形態と左右対称的な合成形態を有する合成映像から特徴を抽出しない。例えば、合成映像720は、顔の左側領域が基準映像620の映像情報に合成されるが、顔の右側領域が基準映像620の映像情報に合成される合成映像を生成して当該の合成映像から特徴を抽出しない。顔認証の対象である入力顔が顔の右側領域が示されない部分顔であっても、映像処理によって入力顔を顔の左側領域が示されない部分顔に変形させ得るためである。例えば、入力顔を左右反転させることで上記のような変形された部分顔が取得され得る。これは顔の形態が略左右対称であることに起因する。左右反転した部分顔の映像から特徴が抽出され、抽出された特徴を合成映像720から抽出された登録特徴と比較することで、同一タイプの部分顔に対する特徴比較が可能になる。もちろん、実施形態によって合成映像720、725、730の合成形態と左右対称的な合成形態を有する追加的な合成映像をさらに生成し、生成された合成映像から顔登録のための特徴を抽出することも可能である。
【0061】
他の実施形態によると、特徴抽出器は、図7Bに示すように全体顔と部分顔の各タイプに応じて互いに個別的に存在し得る。例えば、映像705に基づいて全体顔に対応する特徴を抽出する第1特徴抽出器750と、合成映像710、715、720、725、730に基づいて部分顔の各タイプに対応する特徴を抽出する特徴抽出器752、754、756、758、760が個別的に存在してもよい。
【0062】
更なる実施形態によると、特徴抽出器は図7Cに示すように、共通特徴抽出器762と個別的な特徴抽出器764、766、768、770、772、774から構成されてもよい。共通特徴抽出器762と特徴抽出器764、766、768、770、772、774は互いに接続されている。共通特徴抽出器762から出力された中間特徴が特徴抽出器764、766、768、770、772、774に伝達され、各特徴抽出器764、766、768、770、772、774からは全体顔又は部分顔の各タイプに対応する特徴が出力される。例えば、映像705と基準映像620との間の差分映像が共通特徴抽出器762に入力されれば、共通特徴抽出器762から当該の差分映像に対応する中間特徴が出力され、出力された中間特徴は第1特徴抽出器764に伝達される。第1特徴抽出器764は、共通特徴抽出器762から伝達された中間特徴に基づいて映像705に対応する第1特徴を出力する。
【0063】
異なる例として、合成映像710と基準映像620との間の差分映像が共通特徴抽出器762に入力されれば、共通特徴抽出器762から当該の差分映像に対応する中間特徴が出力され、出力された中間特徴は第2特徴抽出器766に伝達される。第2特徴抽出器766は、共通特徴抽出器762から伝達された中間特徴に基づいて合成映像710に対応する第2特徴を出力する。一実施形態では、共通特徴抽出器762と個別的な特徴抽出器764、766、768、770、772、774は1つのニューラルネットワークモデルに実現され得る。ここで、共通特徴抽出器762は、畳み込みレイヤ及び完全接続レイヤ(fully connected layer)のうちの1つ以上を含み、特徴抽出器764、766、768、770、772、774のそれぞれは完全接続レイヤを含む。
【0064】
図7Aないし図7Cで、部分顔のタイプの個数は図示したものに限定されることなく、実施形態によって部分顔のタイプは1つ以上であってもよい。部分顔のタイプが1つの実施形態が図7Dに図示されている。
【0065】
図7Dを参照すると、顔登録の過程で登録映像615に示された顔を登録するための特徴が抽出される。登録映像615から全体顔に対応する正規化された映像705と登録映像615(又は、映像705)と基準映像620に基づいて合成映像710が生成される。本実施形態では、合成映像710で顔の下側の部分が基準映像620の映像情報に合成されている。映像705と基準映像620との間の差分映像が共通特徴抽出器780に入力され、共通特徴抽出器780から映像705に対応する中間特徴が出力される。出力された中間特徴は第1特徴抽出器782に入力され、第1特徴抽出器782は、入力された中間特徴に基づいて全体顔に対応する第1特徴を出力する。また、合成映像710と基準映像620との間の差分映像が共通特徴抽出器780に入力され、共通特徴抽出器780から合成映像710に対応する中間特徴が出力される。出力された中間特徴は第2特徴抽出器784に入力され、第2特徴抽出器784は、入力された中間特徴に基づいて部分顔に対応する第2特徴を出力する。図7Cに示す実施形態と同様に、共通特徴抽出器780と個別的な特徴抽出器782、784は1つのニューラルネットワークモデルに実現され得る。
【0066】
図7Aないし図7Dを参照して説明された特徴抽出器の構造は、顔認証過程で用いてもよい。ここで、特徴抽出器の構造は、1つ以上のニューラルネットワークモデルに実現されてもよく、特徴抽出器は、顔認証を行うためのコンピューティング装置に含まれてもよい。
【0067】
もし、顔登録の過程で登録特徴を抽出するために図7Aに示された特徴抽出器740が利用されれば、当該の特徴抽出器740に基づいて顔認証過程が実行される。又は、顔登録の過程で図7Bに示された特徴抽出器750、752、754、756、758、760が利用されれば、顔認証過程でも当該の特徴抽出器750、752、754、756、758、760が同一に用られる。顔映像に示された入力顔が全体顔情報を含む場合、顔映像に対する映像情報は第1特徴抽出器750に入力され、第1特徴抽出器750から抽出された特徴に基づいて顔認証が実行される。顔映像に示された入力顔が部分顔情報を含む場合、部分顔のタイプに応じて第2ないし第6特徴抽出器752、754、756、758、760のうち用いられる特徴抽出器が選択され得る。その後、選択された特徴抽出器に顔映像の映像情報が伝達され、当該の特徴抽出器から抽出された特徴に基づいて顔認証が実行される。
【0068】
登録特徴を抽出するために、図7Dに示された共通特徴抽出器780と第1及び第2特徴抽出器782、784が利用されれば、当該の共通特徴抽出器780と第1及び第2特徴抽出器782、784に基づいて顔認証過程が実行される。共通特徴抽出器780は顔映像が入力されて中間特徴を出力し、第1及び第2特徴抽出器782、784に接続される。第1特徴抽出器782は全体顔に対応する特徴を抽出し、第2特徴抽出器784は部分顔に対応する特徴を抽出する。第1特徴抽出器782は顔映像がユーザの全体顔情報を含む場合、共通特徴抽出器780から中間特徴が入力されて顔認証に用いられる特徴を抽出する。第2特徴抽出器784は顔映像がユーザの部分顔情報を含む場合、共通特徴抽出器780から中間特徴が入力されて顔認証に用いられる特徴を抽出する。共通特徴抽出器780は、例えば、畳み込みレイヤ及び完全接続レイヤのうちの1つ以上を含み、第1及び第2特徴抽出器782、784のそれぞれは完全接続レイヤを含んでもよい。部分顔に対応する特徴を抽出する第2特徴抽出器784は、図7Cに示された一例のように、複数の特徴抽出器766、768、770、772、774から構成されてもよい。ここで、特徴抽出器766、768、770、772、774のそれぞれは、互いに異なるタイプの部分顔映像に対して顔認証に用いられる特徴を抽出し得る。
【0069】
図8A及び図8Bは、一実施形態に係る顔認証過程で合成映像を生成する一例を説明するための図である。
【0070】
図8Aを参照すると、入力映像810が顔認証装置に入力されれば、顔認証装置は入力映像810から顔領域815を検出する。
【0071】
一実施形態に係る顔認証装置は、顔領域815が入力映像810の境界のうち一部分を含むか否か、又は顔領域815が入力映像810からズレているか否かに基づいて入力映像810に示された入力顔が部分顔であるか否かを決定する。本実施形態では、顔領域815が入力映像810の境界を含み、また、検出された顔領域815を定義するための位置値のうち一部の位置値が入力映像810からズレて存在するため、入力顔が部分顔として決定される。他の実施形態において、顔認証装置は、顔領域815内から顔のランドマーク820を検出し、ランドマーク820の検出結果に基づいて入力顔が部分顔であるか否かを決定してもよい。本実施形態に係る顔認証装置は、顔領域815内で口領域に対応するランドマークが検出されないため、入力顔が部分顔であると決定する。
【0072】
顔認証装置は、検出されたランドマーク820の位置に基づいて入力映像810を正規化する。正規化過程は入力映像810から顔領域を抽出し、ランドマーク820の位置を予め定義された基準位置にマッチングさせる過程を含む。
【0073】
顔映像840に示された入力顔が部分顔であると判断された場合、顔認証装置は、基準映像850を用いて合成映像860を生成する過程830を行う。ここで、基準映像850は、特徴抽出器を学習するために用いられた学習映像の平均映像であってもよい。一実施形態に係る顔認証装置は、検出された顔領域815の位置又はランドマーク820の検出結果に基づいて、検出された顔領域を示す顔映像840に示された部分顔のタイプを決定する。決定された部分顔のタイプに応じて、基準映像850で顔映像840と合成される領域が決定される。顔認証装置は、基準映像850で顔映像840に示されていない顔領域845に対応する対応領域855の映像情報と顔映像840の映像情報を合成することで合成映像860を生成する。ここで、合成が行われる境界は必ず直線である必要はなく、実施形態に応じて当該の境界形態は曲線又は多角形であってもよい。合成映像860は、顔映像840の映像情報を示す領域865と基準映像850の映像情報を示す領域870を含む。
【0074】
合成映像860が生成された後、合成映像860と基準映像850との間の差分映像が特徴抽出のための特徴抽出器に入力される。合成映像860ではない、部分顔が示された顔映像840と基準映像850との間の差分映像が特徴抽出に用いられる場合、当該の差分映像で顔領域845に対応する領域は基準映像850の映像情報によってノイズとして作用し、これは顔認証の正確度を低下させる要因となる。しかし、本実施形態のように、合成映像860と基準映像850との間の差分映像を用いる場合、差分映像で顔領域845に対応する領域の映像情報が合成映像860と基準映像850との間の差分過程によって相殺されてノイズが発生しない。したがって、顔認証装置は、部分顔が入力されても顔認証の正確度を高く保持することができる。
【0075】
一実施形態に係る基準映像850は、図8Aに示すように学習映像の平均映像、又は図8Bに示すように学習映像の平均値映像又は全体ピクセルが同一のピクセル値を有する映像であり得る。図8Bを参照すると、平均値映像である基準映像880に基づいて合成映像890が生成される一例が示されている。基準映像880は、学習映像の全体ピクセルが有しているピクセル値を平均した平均値を全体ピクセルに割り当てることで生成された映像である。顔認証装置は、基準映像880で顔映像840に示されない顔領域845に対応する対応領域885の映像情報と顔映像840の映像情報を合成することで合成映像890を生成する。
【0076】
図9は、一実施形態に係る部分顔のタイプに応じる合成映像の一例を示す図である。
【0077】
図9を参照すると、入力映像に示された部分顔のタイプに応じて互いに異なる形態に合成映像が生成される。入力映像912、914、916、918、920のように、部分顔の形態は様々である。例えば、入力映像912のよう入力顔に口領域が示されないか、又は入力映像914のよう入力顔に眉毛上の顔領域が示されないことがある。顔認証装置はこのような部分顔のタイプを区別し、部分顔のタイプに基づいて基準映像910と各入力映像912、914、916、918、920を合成して合成映像922、924、926、928、930を生成する。部分顔のタイプに応じて各合成映像922、924、926、928、930に反映される基準映像910の領域が決定される。
【0078】
ただし、顔認証で部分顔に対応する合成映像の合成形態は図9に示す実施形態に限定されることなく、合成映像の合成形態は1つであってもよく、複数であってもよい。例えば、合成映像の合成形態が合成映像922のように顔の下側の部分を基準映像の映像情報に合成するのみであると仮定すれば、入力映像に示された入力顔が部分顔であると決定される場合、顔認証装置は部分顔の形態に関係なく、入力映像に示された入力顔の下側の部分を基準映像の映像情報に合成する合成形態に合成映像を生成する。
【0079】
図10は、他の実施形態に係る顔認証方法を説明するためのフローチャートである。
【0080】
いずれかの実施形態が相違する形態実現可能な場合に特定ステップの機能又は動作がフローチャートと相違して実行されてもよい。例えば、図10で連続する2つのステップが実際には実質的に同時に実行されてもよく、関連する機能又は動作に応じて当該のステップの順が変えて実行されてもよい。
【0081】
一実施形態によると、顔認証装置は、顔認証過程で入力映像に示された閉塞領域をさらに考慮する。閉塞領域は、遮蔽領域又は被覆領域などと言及されても良い。閉塞領域は、例えば、メガネ、サングラス、マスク、又はヘアーバンドなどによって入力顔が遮られた領域である。このような閉塞領域は、入力映像に示された入力顔からユーザの固有な特徴を抽出することを妨害し、顔認証の正確度を低下させる要因となる。顔認証装置は、入力映像に閉塞領域が存在するか否かを判断し、閉塞領域が存在する場合には当該の閉塞領域の映像情報を基準映像の映像情報に代替して顔認証を行う。本実施形態のための顔認証方法について以下で説明する。
【0082】
図10を参照すると、ステップS340で顔認証装置は、顔映像に示された入力顔が部分顔であるか否かを決定する。図3のステップS310からステップS340までの内容はそのまま含まれる。入力顔が部分顔であると決定された場合、ステップS1010において、顔認証装置は顔映像に示された入力顔に閉塞領域が存在するか否かを決定する。
【0083】
閉塞領域が存在すると決定された場合、ステップS1020において、顔認証装置は、基準映像で部分顔のタイプに対応する第1対応領域の映像情報、閉塞領域に対応する第2対応領域の映像情報、及び顔映像の映像情報を合成することで合成映像を生成する。一例として、顔認証装置は、顔映像に基準映像の第1対応領域の映像情報を結合させ、顔映像から検出された閉塞領域の映像情報を基準映像の第2対応領域の映像情報に代替することで合成映像を生成する。実施形態により第1対応領域と第2対応領域は互いに重なってもよい。
【0084】
ステップS1010において、閉塞領域が存在しないと決定された場合、ステップS1030において、顔認証装置は基準映像で部分顔のタイプに対応する第1対応領域の映像情報と顔映像の映像情報を合成することで合成映像を生成する。この過程は、図3のステップS350、図8A図8B、及び図9などの実施形態で説明した合成映像を生成する過程と同一である。
【0085】
ステップS340で入力顔が部分顔ではないと決定された場合、ステップS1040において、顔認証装置は、顔映像に示された入力顔に閉塞領域が存在するか否かを決定する。閉塞領域が存在すると決定された場合、ステップS1050において、顔認証装置は、基準映像で閉塞領域に対応する第2対応領域の映像情報と顔映像の映像情報を合成することで合成映像を生成する。顔認証装置は、顔映像で閉塞領域の映像情報を基準映像の第2対応領域の映像情報に代替することによって合成映像を生成する。
【0086】
上記のステップS1020、ステップS1030、又はステップS1050で合成映像が生成されれば、ステップS1060において、顔認証装置は、合成映像に基づいて認証成功の有無を決定する。この過程は、図3に示すステップS360の過程と同一である。
【0087】
ステップS1040で閉塞領域が存在しないと決定された場合、ステップS1070において、顔認証装置は顔映像に基づいて認証成功の有無を決定する。この場合、入力映像に閉塞領域が存在することなく全体顔が示されたものとして、ステップS1070は図3に示すステップS370の過程と同一である。
【0088】
上記のように顔認証方法を実施する場合、閉塞領域の有無による認識率の低下を防止することができる。本実施形態の場合、顔登録の過程でも登録映像から閉塞領域を検出し、閉塞領域が存在する場合には閉塞領域を基準映像の映像情報に代替して合成映像を生成した後、当該の合成映像から登録特徴が抽出される。実施形態により、登録映像に実際に閉塞領域が存在しなくても、登録映像に様々な形態の閉塞領域が存在するものと仮定して、各閉塞領域のタイプに対応する合成映像を生成した後、当該の合成映像から登録特徴を抽出してもよい。
【0089】
図11は、一実施形態に係る入力映像に閉塞領域が存在する場合に合成映像を生成する一例を説明するための図である。
【0090】
図11を参照すると、顔認証装置は、顔映像1110に示された入力顔が部分顔である場合、顔映像1110に示されていない顔領域1114に対応する基準映像1120の第1対応領域1124の映像情報を顔映像1110に付加する。一方、顔映像1110にメガネ1112の閉塞領域が存在している。顔認証装置は、顔映像1110からメガネ1112を検出した場合、メガネ1112が示された領域に対応する基準映像1120の第2対応領域1122の映像情報に代替する。このような過程により生成された合成映像1130は、顔映像1110の映像情報1135、基準映像1120の第1対応領域の映像情報1145、及び基準映像1120の第2対応領域の映像情報1140から構成される。
【0091】
図12は、一実施形態に係る顔認証装置の構成を示す図である。
【0092】
図12を参照すると、顔認証装置1200は、顔認証のための入力映像を受信する。顔認証装置1200は、入力映像から抽出された特徴とデータベース1230に予め格納された登録特徴間の比較結果に基づいて認証成功の有無を決定する。有効なユーザは、顔登録の過程によって自分の顔に対する特徴又は映像を予め登録し、このように登録された情報はデータベース1230に格納され得る。
【0093】
顔認証装置1200は、顔認証方法に関して本明細書に記述されたり又は示された1つ以上の動作を実行し、顔認証の結果をユーザに提供する。顔認証装置1200は、顔認証の結果を音声、振動、字、絵又は動画などの形態に出力するが、実施への範囲がこれに限定されることなく、顔認証装置1200は様々な形態で認証結果を出力することができる。
【0094】
顔認証装置1200は、1つ以上のプロセッサ1210及びメモリ1220を含む。メモリ1220はプロセッサ1210に接続され、プロセッサ1210によって実行可能な命令、プロセッサ1210が演算するデータ又はプロセッサ1210によって処理されたデータを格納する。メモリ1220は、非一時的なコンピュータで読み出し可能な記録媒体、例えば、高速ランダムアクセスメモリ及び/又は不揮発性コンピュータ読み出し可能な格納媒体(例えば、1つ以上のディスク格納装置、フラッシュメモリ装置、又はその他の不揮発性固体メモリ装置)を含む。
【0095】
プロセッサ1210は、図1ないし図11を参照して説明された1つ以上の動作を実行するための命令を実行する。例えば、プロセッサ1210は、入力映像から顔領域を検出し、検出された顔領域に示された入力顔が部分顔であるか、そうでなければ全体顔であるか否かを決定する。例えば、プロセッサ1210は、検出された顔領域が入力映像の境界のうち一部分を含む場合、又は検出された顔領域が入力映像からズレる場合、入力顔が部分顔であると決定する。プロセッサ1210は、検出された顔領域が入力映像の境界を含んでいないか、又は検出された顔領域が入力映像からズレることなく入力映像の内部に含まれる場合には、入力顔が全体顔であると決定する。異なる例として、プロセッサ1210は、予め定義された顔部位領域のうちの1つ以上に対応するランドマークが検出されない場合、入力顔が部分顔であると決定する。反対に、プロセッサ1210は、予め定義された顔部位領域の全てに対応するランドマークが検出された場合、入力顔が全体顔であると決定する。
【0096】
入力顔が部分顔であると決定された場合、プロセッサ1210は、基準映像と顔映像を合成して合成映像を生成する。一例として、プロセッサ1210は、上記のランドマークが検出されない顔領域に対応する基準映像の対応領域の映像情報と顔映像の映像情報を合成することで合成映像を生成する。他の実施形態に係るプロセッサ1210は、顔映像に示された入力顔に閉塞領域が存在するか否かを決定し、閉塞領域が存在すると決定された場合、基準映像で当該の閉塞領域に対応する対応領域の映像情報と顔映像の映像情報を合成することで合成映像を生成する。プロセッサ1210は、特徴抽出器を用いて合成映像から入力顔に対する特徴を抽出し、抽出された特徴と登録特徴とを比較し、その比較の結果に基づいて認証成功の有無を決定する。プロセッサ1210は、入力顔が部分顔でないという決定(すなわち、入力顔が全体顔という決定)に応答して、特徴抽出器を用いて顔映像から入力顔に対する特徴を抽出し、抽出された特徴と登録特徴とを比較してその比較の結果に基づいて認証成功の有無を決定することができる。
【0097】
図13は、一実施形態に係るコンピューティング装置の構成を示す図である。
【0098】
図13を参照すると、コンピューティング装置1300は、ユーザの顔が示された映像を取得し、取得された映像から抽出した特徴を予め格納された登録特徴と比較する過程により顔認証過程を行う。コンピューティング装置1300は、図1に示すコンピューティング装置120に対応し、機能的に図12に示す顔認証装置1200の機能を含む。
【0099】
コンピューティング装置1300は、プロセッサ1310、メモリ1320、カメラ1330、格納装置1340、入力装置1350、出力装置1360、及びネットワークインターフェース1370を含む。プロセッサ1310、メモリ1320、カメラ1330、格納装置1340、入力装置1350、出力装置1360、及びネットワークインターフェース1370は、通信バス1380を介して通信する。
【0100】
カメラ1330は、静画、ビデオ映像、又はその全てをキャプチャーする。カメラ1330は、ユーザが顔認証を試みるために入力する顔領域をキャプチャーしてユーザの顔映像を取得する。
【0101】
プロセッサ1310は、コンピューティング装置1300内で実行するための機能及び命令を実行する。例えば、プロセッサ1310は、メモリ1320又は格納装置1340に格納された命令を処理する。プロセッサ1310は、図1ないし図12を参照して前述した1つ以上の動作を行ってもよい。例えば、プロセッサ1310は、カメラ1330によって取得された顔映像と登録された顔映像とを比較して顔認証を行ってもよい。プロセッサ1310は、取得された顔映像がユーザの全体顔情報を含まなくても顔認証を行うことができる。プロセッサ1310は、取得された顔映像がユーザの部分顔情報を含む場合、部分顔情報のタイプに基づいて顔映像と予め定義された基準映像との間の合成映像を生成し、生成された合成映像に基づいて顔認証を行う。
【0102】
メモリ1320は、顔認証過程のための情報を格納する。メモリ1320は、コンピュータ読み出し可能な格納媒体又はコンピュータ読み出し可能な格納装置を含む。例えば、メモリ1320は、RAM(random access memories)、DRAM(dynamic random access memories)、SRAM(static random access memories)、又はこの技術分野で知られた異なる形態の不揮発性メモリを含んでもよい。メモリ1320は、プロセッサ1310によって実行するための命令を格納し、コンピューティング装置1300によってソフトウェア又はアプリケーションが実行される間に関連情報を格納する。
【0103】
格納装置1340は、コンピュータで読み出し可能な格納媒体又はコンピュータ読み出し可能な格納装置を含む。格納装置1340は、登録特徴又は登録映像を含むデータベースを格納する。一実施形態によると、格納装置1340は、メモリ1320よりも多くの量の情報を格納し、情報を長期間格納し得る。例えば、格納装置1340は、磁気ハードディスク、光ディスク、フラッシュメモリ、電気的にプログラミング可能なメモリ(EPROM)、フロッピーディスク、又はこの技術分野で知られた他の形態の不揮発性メモリを含んでもよい。
【0104】
入力装置1350は、触覚、ビデオ、オーディオ、又はタッチ入力によってユーザから入力を受信する。例えば、入力装置1350は、キーボード、マウス、タッチスクリーン、マイクロホン、又は、ユーザから入力を検出し、検出された入力をコンピューティング装置1300に伝達できる任意の他の装置を含む。
【0105】
出力装置1360は、視覚的、聴覚的、又は触覚的なチャネルを介してユーザにコンピューティング装置1300の出力を提供する。例えば、出力装置1360は、顔認証に関する情報を視角化してユーザに提供する。出力装置1360は、例えば、液晶ディスプレイ、LED(light emitting diode)ディスプレイ、タッチスクリーン、スピーカ、振動発生装置又はユーザに出力を提供できる任意の他の装置を含む。一実施形態に係るコンピューティング装置1300は、顔認証が実行される間にユーザが見る表示画面にカメラ1330によって取得された顔映像(プレビュー映像)を表示してもよく、当該の顔映像を表示しなくてもよい。
【0106】
ネットワークインターフェース1370は、有線又は無線ネットワークを介して外部装置と通信する。例えば、ネットワークインターフェース1370は、イーサネット(登録商標)カード、光学トランシーバー、無線周波数トランシーバー又は情報を送受信する任意の他のネットワークインターフェースカードを含んでもよい。ネットワークインターフェース1370は、ブルートゥース(登録商標(Bluetooth))、ワイファイ(WiFi)、3G又は4Gなどの通信方式を用いて外部装置と無線で通信する。
【0107】
図14は、一実施形態に係る学習装置の構成を示す図である。
【0108】
図14を参照すると、学習装置1400は、顔認証で用いられる特徴抽出器1430を学習させる装置である。一例として、特徴抽出器1430は、入力値に対応する結果値を出力するニューラルネットワークモデルであって、学習映像と基準映像に基づいて学習される。ここで、基準映像は、上記の顔登録の過程及び顔認証過程で説明された基準映像と同一である。
【0109】
学習装置1400は、1つ以上のプロセッサ1410及びメモリ1420を含む。メモリ1420はプロセッサ1410に接続され、プロセッサ1410によって実行可能な命令、プロセッサ1410が演算するデータ又はプロセッサ1410によって処理されたデータを格納する。
【0110】
学習映像が学習装置1400に入力されれば、プロセッサ1410は学習映像から顔領域を検出し、検出された顔領域に示された顔が部分顔又は全体顔であるか否かを判断する。学習映像に示された顔が部分顔と判断された場合、プロセッサ1410は、部分顔にタイプに基づいて学習映像の映像情報に基準映像の映像情報を合成して合成映像を生成し、特徴抽出器1430を用いて合成映像から特徴を抽出する。この過程には、本明細書で説明された顔認証過程に説明された内容がそのまま適用される。一例として、プロセッサ1410は、特徴抽出器1430によって抽出された特徴と意図した特徴との間の差による損失)を算出し、算出された損失が減少するように特徴抽出器1430を構成しているパラメータを調整することによって特徴抽出器1430を学習させ得る。
【0111】
学習装置1400は、複数の学習映像それぞれに対して上記の過程を繰り返し行って特徴抽出器1430のパラメータを次第に好ましい方向に調整することができる。
【0112】
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
【0113】
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
【0114】
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
【0115】
上述したように実施形態をたとえ限定された図面によって説明したが、当該技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合わせられたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果を達成することができる。
【0116】
(付記1)
入力映像から顔領域を検出するステップと、
前記顔領域に示された入力顔が部分顔であるか否かを決定するステップと、
前記入力顔が部分顔であるという決定に応答して、基準映像と前記顔領域の顔映像を合成して合成映像を生成するステップと、
前記合成映像に基づいて認証の成否を決定するステップと、
を含む顔認証方法。
(付記2)
前記入力顔が部分顔であるか否かを決定するステップは、前記入力映像から検出された前記顔領域の位置に基づいて前記入力顔が部分顔であるか否かを決定する、付記1に記載の顔認証方法。
(付記3)
前記入力顔が部分顔であるか否かを決定するステップは、前記検出された顔領域が前記入力映像の境界のうち一部分を含む場合、前記入力顔が部分顔であると決定する、付記2に記載の顔認証方法。
(付記4)
前記合成映像を生成するステップは、
前記検出された顔領域に基づいて前記基準映像の映像情報と前記顔映像の映像情報を合成することで前記合成映像を生成し、
前記基準映像の映像情報は、全体顔に対応する顔領域から前記検出された顔領域を除いた残りの顔領域に対応する領域の映像情報である、付記2に記載の顔認証方法。
(付記5)
前記入力顔が部分顔であるか否かを決定するステップは、
前記顔領域から顔のランドマークを検出するステップと、
前記検出された顔領域から、予め定義された顔部位領域のうち少なくとも1つに対応するランドマークが検出されない場合、前記入力顔が部分顔であると決定するステップと、
を含む、付記1に記載の顔認証方法。
(付記6)
前記合成映像を生成するステップは、前記ランドマークが検出されない顔領域に対応する前記基準映像の対応領域の映像情報と前記顔映像の映像情報を合成することで前記合成映像を生成する、付記5に記載の顔認証方法。
(付記7)
前記ランドマークが検出されない顔部位領域に基づいて前記対応領域の位置及び形態が決定される、付記6に記載の顔認証方法。
(付記8)
前記認証の成否を決定するステップは、
特徴抽出器を用いて前記入力顔に対する特徴を抽出するステップと、
登録特徴のうち前記部分顔のタイプに対応する登録特徴と前記抽出された特徴との間の比較結果に基づいて認証の成否を決定するステップと、
を含む、付記1ないし7のうちの何れか一項に記載の顔認証方法。
(付記9)
前記部分顔のタイプは、予め定義された顔部位領域のうち少なくとも1つに対応するランドマークの検出結果に基づいて決定される、付記8に記載の顔認証方法。
(付記10)
前記特徴抽出器には、前記合成映像と前記基準映像との間の差分映像の映像情報が入力される、付記8に記載の顔認証方法。
(付記11)
前記特徴抽出器は、前記部分顔のタイプそれぞれに対応する出力レイヤを含むニューラルネットワークモデルである、付記8に記載の顔認証方法。
(付記12)
前記登録特徴は、予め定義された部分顔のタイプそれぞれに対応する登録特徴を含む、付記8に記載の顔認証方法。
(付記13)
前記基準映像は、前記合成映像から特徴を抽出するために用いられる特徴抽出器をトレーニングするために用いられた学習映像に基づいて決定された映像である、付記1ないし12のうちの何れか一項に記載の顔認証方法。
(付記14)
前記入力顔が部分顔でないという決定に応答して、前記顔映像に基づいて認証の成否を決定するステップをさらに含む、付記1ないし13のうちの何れか一項に記載の顔認証方法。
(付記15)
前記顔映像に基づいて認証の成否を決定するステップは、
前記顔映像と前記基準映像との間の差分映像に基づいて前記入力顔に対する特徴を抽出するステップと、
前記抽出された特徴と登録特徴のうち全体顔に対応する登録特徴との間の比較結果に基づいて認証の成否を決定するステップと、
含む、付記14に記載の顔認証方法。
(付記16)
前記顔映像に示された入力顔に閉塞領域が存在するか否かを決定するステップと、
前記閉塞領域が存在するという決定に応答して、前記基準映像で前記閉塞領域に対応する対応領域の映像情報と前記顔映像の映像情報を合成することで合成映像を生成するステップと、
をさらに含む、付記1ないし15のうちの何れか一項に記載の顔認証方法。
(付記17)
前記顔領域から顔のランドマークを検出するステップと、
前記検出されたランドマークの位置に基づいて前記入力映像に示された顔領域を調整するステップと、
をさらに含む、付記1に記載の顔認証方法。
(付記18)
付記1~付記17のうちいずれか一項に記載の顔認証方法を装置のコンピュータに実行させるコンピュータプログラム。
(付記19)
プロセッサを含み、
前記プロセッサは、
入力映像から顔領域を検出し、
前記顔領域に示された入力顔が部分顔であるか否かを決定し、
前記入力顔が部分顔であるという決定に応答して、基準映像と前記顔領域の顔映像を合成して合成映像を生成し、
前記合成映像に基づいて認証の成否を決定する顔認証装置。
(付記20)
前記プロセッサは、前記検出された顔領域が前記入力映像の境界のうち一部分を含む場合、前記入力顔が部分顔であると決定する、付記19に記載の顔認証装置。
(付記21)
前記プロセッサは、
前記検出された顔領域に基づいて前記基準映像の映像情報と前記顔映像の映像情報を合成することで前記合成映像を生成し、
前記基準映像の映像情報は、全体顔に対応する顔領域から前記検出された顔領域を除いた残りの顔領域に対応する領域の映像情報である、付記19又は20に記載の顔認証装置。
(付記22)
前記プロセッサは、
前記顔領域から顔のランドマークを検出し、
前記検出された顔領域から、予め定義された顔部位領域のうち少なくとも1つに対応するランドマークが検出されない場合、前記入力顔が部分顔であると決定する、付記19に記載の顔認証装置。
(付記23)
前記プロセッサは、前記ランドマークが検出されない顔領域に対応する前記基準映像の対応領域の映像情報と前記顔映像の映像情報を合成することで前記合成映像を生成する、付記22に記載の顔認証装置。
(付記24)
前記プロセッサは、
特徴抽出器を用いて前記入力顔に対する特徴を抽出し、
登録特徴のうち前記部分顔のタイプに対応する登録特徴と前記抽出された特徴との間の比較結果に基づいて認証の成否を決定する、付記19ないし23のうち何れか一項に記載の顔認証装置。
(付記25)
前記プロセッサは、
前記顔映像に示された入力顔に閉塞領域が存在するか否かを決定し、
前記閉塞領域が存在するという決定に応答して、前記基準映像で前記閉塞領域に対応する対応領域の映像情報と前記顔映像の映像情報を合成することで合成映像を生成する、付記19ないし23のうち何れか一項に記載の顔認証装置。
(付記26)
顔映像が入力されて中間特徴を出力する共通特徴抽出器と、
前記共通特徴抽出器に接続され、前記顔映像がユーザの全体顔情報を含む場合に前記中間特徴が入力されて顔認証に用いられる特徴を抽出する第1特徴抽出器と、
前記共通特徴抽出器に接続され、前記顔映像がユーザの部分顔情報を含む場合に前記中間特徴が入力されて顔認証に用いられる特徴を抽出する第2特徴抽出器と、
を含むニューラルネットワークモデルが含まれた装置。
(付記27)
前記共通特徴抽出器は畳み込みレイヤを含む、付記26に記載のニューラルネットワークモデルが含まれた装置。
(付記28)
前記共通特徴抽出器は完全接続レイヤを含む、付記26に記載のニューラルネットワークモデルが含まれた装置。
(付記29)
前記第1特徴抽出器及び前記第2特徴抽出器は完全接続レイヤを含む、付記26ないし28のうち何れか一項に記載のニューラルネットワークモデルが含まれた装置。
(付記30)
前記装置は、複数の第2特徴抽出器を含み、
前記第2特徴抽出器のそれぞれは、互いに異なるタイプの部分顔映像に対して顔認証に用いられる特徴を抽出する、付記26ないし29のうち何れか一項に記載のニューラルネットワークモデルが含まれた装置。
(付記31)
コンピューティング装置において、
ユーザの顔映像を取得するカメラと、
前記取得された顔映像と登録された顔映像とを比較して顔認証を行うプロセッサと、
を含み、
前記コンピューティング装置は、前記顔認証が実行される間に前記ユーザが見ることのできる前記コンピューティング装置の表示画面に前記取得された顔映像を表示しないコンピューティング装置。
(付記32)
前記プロセッサは、前記取得された顔映像が前記ユーザの全体顔情報を含まなくても前記顔認証を行う、付記31に記載のコンピューティング装置。
(付記33)
前記プロセッサは、前記取得された顔映像が前記ユーザの部分顔情報を含む場合、前記部分顔情報のタイプに基づいて前記取得された顔映像と予め定義された基準映像との間の合成映像を生成し、前記合成映像に基づいて前記顔認証を行う、付記31又は32に記載のコンピューティング装置。
【符号の説明】
【0117】
1200:顔認証装置
1210、1310、1410:プロセッサ
1220、1320、1420:メモリ
1230:データベース
120、1300:コンピューティング装置
130、1330:カメラ
1340:格納装置
1350:入力装置
1360:出力装置
1370:ネットワークインターフェース
1380:通信バス
1400:学習装置
1430:特徴抽出器
図1A
図1B
図2A
図2B
図2C
図2D
図3
図4
図5
図6
図7A
図7B
図7C
図7D
図8A
図8B
図9
図10
図11
図12
図13
図14