IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッドの特許一覧

特表2022-522551画像処理方法及び装置、電子機器並びに記憶媒体
<>
  • 特表-画像処理方法及び装置、電子機器並びに記憶媒体 図1
  • 特表-画像処理方法及び装置、電子機器並びに記憶媒体 図2
  • 特表-画像処理方法及び装置、電子機器並びに記憶媒体 図3
  • 特表-画像処理方法及び装置、電子機器並びに記憶媒体 図4
  • 特表-画像処理方法及び装置、電子機器並びに記憶媒体 図5
  • 特表-画像処理方法及び装置、電子機器並びに記憶媒体 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2022-04-20
(54)【発明の名称】画像処理方法及び装置、電子機器並びに記憶媒体
(51)【国際特許分類】
   G06T 7/00 20170101AFI20220413BHJP
【FI】
G06T7/00 350C
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2020568498
(86)(22)【出願日】2020-03-26
(85)【翻訳文提出日】2020-12-04
(86)【国際出願番号】 CN2020081376
(87)【国際公開番号】W WO2021155632
(87)【国際公開日】2021-08-12
(31)【優先権主張番号】202010078672.X
(32)【優先日】2020-02-03
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.SMALLTALK
(71)【出願人】
【識別番号】520479331
【氏名又は名称】ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド
(74)【代理人】
【識別番号】110001416
【氏名又は名称】特許業務法人 信栄特許事務所
(72)【発明者】
【氏名】ソン, コアンルー
(72)【発明者】
【氏名】リウ, ユイ
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096BA02
5L096CA04
5L096DA02
5L096FA69
5L096GA34
5L096GA51
5L096HA08
5L096HA11
5L096JA11
5L096JA18
5L096KA04
5L096KA15
(57)【要約】
本開示は、被処理画像に対して特徴抽出を行って、前記被処理画像の第1の特徴マップを得ることと、前記第1の特徴マップに対して目標領域予測を行って、前記第1の特徴マップにおいて目標の所在する第1の領域を決定することと、前記第1の特徴マップに対して前記第1の領域に基づくキーポイント検出を行って、前記被処理画像の目標キーポイント情報を決定することと、を含む画像処理方法及び装置、電子機器並びに記憶媒体に関する。本開示の実施例は、高速且つ正確な目標キーポイント検出を実現することができる。
【選択図】図1
【特許請求の範囲】
【請求項1】
被処理画像に対して特徴抽出を行って、前記被処理画像の第1の特徴マップを得ることと、
前記第1の特徴マップに対して目標領域予測を行って、前記第1の特徴マップにおいて目標の所在する第1の領域を決定することと、
前記第1の特徴マップに対して前記第1の領域に基づくキーポイント検出を行って、前記被処理画像の目標キーポイント情報を決定することと、を含むことを特徴とする画像処理方法。
【請求項2】
前記被処理画像における各目標の前記目標キーポイント情報に対してそれぞれバウンディングボックス回帰を行って、前記各目標の第2の領域を決定することと、
前記各目標の第2の領域に基づいて、前記被処理画像の目標認識結果を決定することと、を更に含むことを特徴とする請求項1に記載の方法。
【請求項3】
前記第1の特徴マップに対して目標領域予測を行って、前記第1の特徴マップにおいて目標の所在する第1の領域を決定することは、
前記第1の特徴マップに対して中心点特徴抽出を行って、第2の特徴マップを得ることと、
前記第2の特徴マップの複数の特徴点から、特徴値が第1の閾値以上である特徴点を含む少なくとも1つの領域中心点を決定することと、
前記少なくとも1つの領域中心点のうちの各領域中心点に対応するチャンネル番号に基づいて、前記各領域中心点に対応する前記第1の領域のスケールを決定することと、
前記各領域中心点の位置、及び前記各領域中心点に対応する前記第1の領域のスケールに基づいて、各前記第1の領域をそれぞれ決定することと、を含むことを特徴とする請求項1又は2に記載の方法。
【請求項4】
前記第1の特徴マップに対して前記第1の領域に基づくキーポイント検出を行って、前記被処理画像の目標キーポイント情報を決定することは、
前記第1の特徴マップに対してキーポイント特徴抽出を行って、第3の特徴マップを得ることと、
前記第3の特徴マップの、前記第1の領域に対応する特徴領域において、前記目標の複数のキーポイントを決定することと、
前記第3の特徴マップにおける前記複数のキーポイントの位置に基づいて、前記被処理画像の目標キーポイント情報を決定することと、を含むことを特徴とする請求項1~3のいずれか1項に記載の方法。
【請求項5】
前記第3の特徴マップの、前記第1の領域に対応する特徴領域において、前記目標の複数のキーポイントを決定することは、
前記特徴領域の各チャンネルに対してそれぞれキーポイント検出を行って、前記各チャンネルに対応するキーポイントを取得することを含むことを特徴とする請求項4に記載の方法。
【請求項6】
前記各目標の第2の領域に基づいて、前記被処理画像の目標認識結果を決定することは、
前記第2の領域に対応する前記第1の領域の第1の信頼度スコア、及び前記第2の領域の全て又は一部の目標キーポイント情報の第2の信頼度スコアを決定することと、
前記第1の信頼度スコア及び前記第2の信頼度スコアに基づいて、前記第2の領域の第3の信頼度スコアを決定することと、
各第2の領域の第3の信頼度スコアに基づいて、第3の信頼度スコアが第2の閾値以上である前記第2の領域を含む被処理画像の目標認識結果を決定することと、を含むことを特徴とする請求項2に記載の方法。
【請求項7】
前記方法は、ニューラルネットワークによって実現されるものであり、
複数のサンプル画像、前記複数のサンプル画像のラベリング領域情報及び前記複数のサンプル画像のラベリングキーポイント情報を含む予め設定されたトレーニングセットにより、前記ニューラルネットワークを訓練することを更に含むことを特徴とする請求項1~6のいずれか1項に記載の方法。
【請求項8】
前記ニューラルネットワークは、特徴抽出ネットワーク、領域予測ネットワーク及びキーポイント検出ネットワークを含み、
予め設定されたトレーニングセットにより、前記ニューラルネットワークを訓練することは、
前記特徴抽出ネットワークによってサンプル画像を処理して、第1のサンプル特徴マップを決定することと、
前記領域予測ネットワークによって前記第1のサンプル特徴マップを処理して、第2のサンプル特徴マップ及び前記第2のサンプル特徴マップにおける少なくとも1つのサンプル領域を決定することと、
前記キーポイント検出ネットワークによって前記第1のサンプル特徴マップを処理して、前記第2のサンプル特徴マップと同様な幅及び高さを有する第3のサンプル特徴マップを決定することと、
前記少なくとも1つのサンプル領域に基づいて、前記第3のサンプル特徴マップのサンプル領域のサンプルキーポイント情報を決定することと、
前記サンプル画像のラベリング領域情報に基づいて、前記サンプル画像の第1のラベリング特徴マップを決定し、前記第1のラベリング特徴マップのスケールが前記第2のサンプル特徴マップと同様であり、前記第1のラベリング特徴マップのチャンネル番号が前記ラベリング領域情報のスケールを表すことと、
前記第1のラベリング特徴マップと前記第2のサンプル特徴マップとの間の差に基づいて、前記領域予測ネットワークに対する前記サンプル画像の第1の損失を決定することと、
前記ラベリングキーポイント情報と前記サンプルキーポイント情報との間の差に基づいて、前記キーポイント検出ネットワークに対する前記サンプル画像の第2の損失を決定することと、
前記複数のサンプル画像の第1の損失と第2の損失に基づいて、前記ニューラルネットワークを訓練することと、を含むことを特徴とする請求項7に記載の方法。
【請求項9】
前記被処理画像における目標には、顔、人体及び手のいずれか1つを含むことを特徴とする請求項1~8のいずれか1項に記載の方法。
【請求項10】
被処理画像に対して特徴抽出を行って、前記被処理画像の第1の特徴マップを得るための特徴抽出モジュールと、
前記第1の特徴マップに対して目標領域予測を行って、前記第1の特徴マップにおいて目標の所在する第1の領域を決定するための領域予測モジュールと、
前記第1の特徴マップに対して前記第1の領域に基づくキーポイント検出を行って、前記被処理画像の目標キーポイント情報を決定するためのキーポイント検出モジュールと、を含むことを特徴とする画像処理装置。
【請求項11】
プロセッサと、
プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、
前記プロセッサは、前記メモリに記憶されているコマンドを呼び出して、請求項1~9のいずれか1項に記載の方法を実行するように構成されることを特徴とする電子機器。
【請求項12】
コンピュータプログラムコマンドが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行されると、請求項1~9のいずれか1項に記載の方法を実現させることを特徴とするコンピュータ読み取り可能な記憶媒体。
【請求項13】
コンピュータ読み取り可能なコードを含み、前記コンピュータ読み取り可能なコードが電子機器で動作すると、前記電子機器のプロセッサに請求項1~9のいずれか1項に記載の方法を実行させることを特徴とするコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
<関連出願の相互参照>
本願は、2020年2月3日に中国特許庁に提出された、出願番号が202010078672.Xで、発明の名称が「画像処理方法及び装置、電子機器並びに記憶媒体」である中国特許出願の優先権を主張し、その開示の全てが援用することによって本願に組み込まれる。
本開示は、コンピュータ技術の分野に関し、特に、画像処理方法及び装置、電子機器並びに記憶媒体に関する。
【背景技術】
【0002】
コンピュータビジョン、目標認識等の分野では、画像における目標(例えば、顔)を検出することが一般である。
【発明の概要】
【0003】
本開示は、画像処理の技術的手段を提供する。
【0004】
本開示の一方面によれば、被処理画像に対して特徴抽出を行って、前記被処理画像の第1の特徴マップを得ることと、前記第1の特徴マップに対して目標領域予測を行って、前記第1の特徴マップにおいて目標の所在する第1の領域を決定することと、前記第1の特徴マップに対して前記第1の領域に基づくキーポイント検出を行って、前記被処理画像の目標キーポイント情報を決定することと、を含む画像処理方法を提供する。
【0005】
可能な一実施形態では、前記方法は、前記被処理画像における各目標の前記目標キーポイント情報に対してそれぞれバウンディングボックス回帰を行って、前記各目標の第2の領域を決定することと、前記各目標の第2の領域に基づいて、前記被処理画像の目標認識結果を決定することと、を更に含む。
【0006】
可能な一実施形態では、前記第1の特徴マップに対して目標領域予測を行って、前記第1の特徴マップにおいて目標の所在する第1の領域を決定することは、前記第1の特徴マップに対して中心点特徴抽出を行って、第2の特徴マップを得ることと、前記第2の特徴マップの複数の特徴点から、特徴値が第1の閾値以上である特徴点を含む少なくとも1つの領域中心点を決定することと、前記少なくとも1つの領域中心点のうちの各領域中心点に対応するチャンネル番号に基づいて、前記各領域中心点に対応する前記第1の領域のスケールを決定することと、前記各領域中心点の位置、及び前記各領域中心点に対応する前記第1の領域のスケールにより、各前記第1の領域をそれぞれ決定することと、を含む。
【0007】
可能な一実施形態では、前記第1の特徴マップに対して前記第1の領域に基づくキーポイント検出を行って、前記被処理画像の目標キーポイント情報を決定することは、前記第1の特徴マップに対してキーポイント特徴抽出を行って、第3の特徴マップを得ることと、前記第3の特徴マップの、前記第1の領域に対応する特徴領域において、前記目標の複数のキーポイントを決定することと、前記第3の特徴マップにおける前記複数のキーポイントの位置に基づいて、前記被処理画像の目標キーポイント情報を決定することと、を含む。
【0008】
可能な一実施形態では、前記第3の特徴マップの、前記第1の領域に対応する特徴領域において、前記目標の複数のキーポイントを決定することは、前記特徴領域の各チャンネルに対してそれぞれキーポイント検出を行って、前記各チャンネルに対応するキーポイントを取得することを含む。
【0009】
可能な一実施形態では、各目標の第2の領域に基づいて、前記被処理画像の目標認識結果を決定することは、前記第2の領域に対応する前記第1の領域の第1の信頼度スコア、及び前記第2の領域の全て又は一部の目標キーポイント情報の第2の信頼度スコアを決定することと、前記第1の信頼度スコア及び前記第2の信頼度スコアに基づいて、前記第2の領域の第3の信頼度スコアを決定することと、各第2の領域の第3の信頼度スコアに基づいて、第3の信頼度スコアが第2の閾値以上である前記第2の領域を含む被処理画像の目標認識結果を決定することと、を含む。
【0010】
可能な一実施形態では、前記方法は、ニューラルネットワークによって実現されるものであり、複数のサンプル画像、前記複数のサンプル画像のラベリング領域情報及び前記複数のサンプル画像のラベリングキーポイント情報を含む予め設定されたトレーニングセットにより、前記ニューラルネットワークを訓練することを更に含む。
【0011】
可能な一実施形態では、前記ニューラルネットワークは、特徴抽出ネットワーク、領域予測ネットワーク及びキーポイント検出ネットワークを含み、前記予め設定されたトレーニングセットにより、前記ニューラルネットワークを訓練することは、前記特徴抽出ネットワークによってサンプル画像を処理して、第1のサンプル特徴マップを決定することと、前記領域予測ネットワークによって前記第1のサンプル特徴マップを処理して、第2のサンプル特徴マップ及び前記第2のサンプル特徴マップにおける少なくとも1つのサンプル領域を決定することと、前記キーポイント検出ネットワークによって前記第1のサンプル特徴マップを処理して、前記第2のサンプル特徴マップと同様な幅及び高さを有する第3のサンプル特徴マップを決定することと、前記少なくとも1つのサンプル領域に基づいて、前記第3のサンプル特徴マップのサンプル領域のサンプルキーポイント情報を決定することと、前記サンプル画像のラベリング領域情報に基づいて、前記サンプル画像の第1のラベリング特徴マップを決定し、前記第1のラベリング特徴マップのスケールが前記第2のサンプル特徴マップと同様であり、前記第1のラベリング特徴マップのチャンネル番号が前記ラベリング領域情報のスケールを表すことと、前記第1のラベリング特徴マップと前記第2のサンプル特徴マップとの間の差に基づいて、前記領域予測ネットワークに対する前記サンプル画像の第1の損失を決定することと、前記ラベリングキーポイント情報と前記サンプルキーポイント情報との間の差に基づいて、前記キーポイント検出ネットワークに対する前記サンプル画像の第2の損失を決定することと、前記複数のサンプル画像の第1の損失と第2の損失に基づいて、前記ニューラルネットワークを訓練することと、を含む。
【0012】
可能な一実施形態では、前記被処理画像における目標には、顔、人体及び手のいずれか1つを含む。
【0013】
本開示の一方面によれば、被処理画像に対して特徴抽出を行って、前記被処理画像の第1の特徴マップを得るための特徴抽出モジュールと、前記第1の特徴マップに対して目標領域予測を行って、前記第1の特徴マップにおいて目標の所在する第1の領域を決定するための領域予測モジュールと、前記第1の特徴マップに対して前記第1の領域に基づくキーポイント検出を行って、前記被処理画像の目標キーポイント情報を決定するためのキーポイント検出モジュールと、を含む画像処理装置を提供する。
【0014】
可能な一実施形態では、前記装置は、前記被処理画像における各目標の前記目標キーポイント情報に対してそれぞれバウンディングボックス回帰を行って、前記各目標の第2の領域を決定するためのバウンディングボックス回帰モジュールと、前記各目標の第2の領域に基づいて、前記被処理画像の目標認識結果を決定するための結果決定モジュールと、を更に含む。
【0015】
可能な一実施形態では、前記領域予測モジュールは、前記第1の特徴マップに対して中心点特徴抽出を行って、第2の特徴マップを得るための中心点特徴抽出サブモジュールと、前記第2の特徴マップの複数の特徴点から、特徴値が第1の閾値以上である特徴点を含む少なくとも1つの領域中心点を決定するための中心点決定サブモジュールと、前記少なくとも1つの領域中心点のうちの各領域中心点に対応するチャンネル番号に基づいて、前記各領域中心点に対応する前記第1の領域のスケールを決定するためのスケール決定サブモジュールと、前記各領域中心点の位置、及び前記各領域中心点に対応する前記第1の領域のスケールにより、各前記第1の領域をそれぞれ決定するための領域決定サブモジュールと、を含む。
【0016】
可能な一実施形態では、前記キーポイント検出モジュールは、前記第1の特徴マップに対してキーポイント特徴抽出を行って、第3の特徴マップを得るためのキーポイント特徴抽出サブモジュールと、前記第3の特徴マップの、前記第1の領域に対応する特徴領域において、前記目標の複数のキーポイントを決定するためのキーポイント決定サブモジュールと、前記第3の特徴マップにおける前記複数のキーポイントの位置に基づいて、前記被処理画像の目標キーポイント情報を決定するためのキーポイント情報決定サブモジュールと、を含む。
【0017】
可能な一実施形態では、前記キーポイント決定サブモジュールは、前記特徴領域の各チャンネルに対してそれぞれキーポイント検出を行って、前記各チャンネルに対応するキーポイントを取得することに用いられる。
【0018】
可能な一実施形態では、前記結果決定モジュールは、前記第2の領域に対応する前記第1の領域の第1の信頼度スコア、及び前記第2の領域の全て又は一部の目標キーポイント情報の第2の信頼度スコアを決定するための第1のスコア決定サブモジュールと、前記第1の信頼度スコア及び前記第2の信頼度スコアに基づいて、前記第2の領域の第3の信頼度スコアを決定するための第2のスコア決定サブモジュールと、各第2の領域の第3の信頼度スコアに基づいて、第3の信頼度スコアが第2の閾値以上である前記第2の領域を含む被処理画像の目標認識結果を決定するための結果決定サブモジュールと、を含む。
【0019】
可能な一実施形態では、前記装置は、ニューラルネットワークによって実現され、複数のサンプル画像、前記複数のサンプル画像のラベリング領域情報及び前記複数のサンプル画像のラベリングキーポイント情報を含む予め設定されたトレーニングセットにより、前記ニューラルネットワークを訓練するための訓練モジュールを更に含む。
【0020】
可能な一実施形態では、前記ニューラルネットワークは、特徴抽出ネットワーク、領域予測ネットワーク及びキーポイント検出ネットワークを含み、前記訓練モジュールは、前記特徴抽出ネットワークによってサンプル画像を処理して、第1のサンプル特徴マップを決定することと、前記領域予測ネットワークによって前記第1のサンプル特徴マップを処理して、第2のサンプル特徴マップ及び前記第2のサンプル特徴マップにおける少なくとも1つのサンプル領域を決定することと、前記キーポイント検出ネットワークによって前記第1のサンプル特徴マップを処理して、前記第2のサンプル特徴マップと同様な幅及び高さを有する第3のサンプル特徴マップを決定することと、前記少なくとも1つのサンプル領域に基づいて、前記第3のサンプル特徴マップのサンプル領域のサンプルキーポイント情報を決定することと、前記サンプル画像のラベリング領域情報に基づいて、前記サンプル画像の第1のラベリング特徴マップを決定し、前記第1のラベリング特徴マップのスケールが前記第2のサンプル特徴マップと同様であり、前記第1のラベリング特徴マップのチャンネル番号が前記ラベリング領域情報のスケールを表すことと、前記第1のラベリング特徴マップと前記第2のサンプル特徴マップとの間の差に基づいて、前記領域予測ネットワークに対する前記サンプル画像の第1の損失を決定することと、前記ラベリングキーポイント情報と前記サンプルキーポイント情報との間の差に基づいて、前記キーポイント検出ネットワークに対する前記サンプル画像の第2の損失を決定するステップと、前記複数のサンプル画像の第1の損失と第2の損失に基づいて、前記ニューラルネットワークを訓練することとに用いられる。
【0021】
可能な一実施形態では、前記被処理画像における目標には、顔、人体及び手のいずれか1つを含む。
【0022】
本開示の一方面によれば、プロセッサと、プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、前記プロセッサは、前記メモリに記憶されているコマンドを呼び出して上記方法を実行するように構成される電子機器を提供する。
【0023】
本開示の一方面によれば、コンピュータプログラムコマンドが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行されると上記方法を実現させるコンピュータ読み取り可能な記憶媒体を提供する。
【0024】
本開示の一方面によれば、コンピュータ読み取り可能なコードを含み、前記コンピュータ読み取り可能なコードが電子機器で動作すると、前記電子機器のプロセッサに上記方法を実行させるコンピュータプログラムを提供する。
【0025】
本開示の実施例では、被処理画像の特徴マップを取得し、特徴マップにおける目標の所在する領域を予測し、更に目標の所在する領域においてキーポイントを検出し、画像の目標キーポイント情報を決定することができることによって、検出速度と検出効果を高め、高速且つ正確な目標キーポイント検出を実現している。
【0026】
以上の一般的説明と以下の詳細な説明は、例示的および解釈的なものに過ぎず、本開示を限定するものではないと理解すべきである。本開示の他の特徴および方面は、以下の図面を参照して行う例示的な実施例に対する詳細な説明によって明らかになるであろう。
【図面の簡単な説明】
【0027】
ここで、明細書の一部として組み込まれる図面は、本開示の実施例に適し、明細書と共に本開示の技術的手段を説明するために用いられる。
図1】本開示の実施例に係る画像処理方法のフローチャートを示す。
図2】本開示の実施例に係る特徴抽出ネットワークの模式図を示す。
図3】本開示の実施例に係る画像処理プロセスの模式図を示す。
図4】本開示の実施例に係る画像処理装置のブロック図を示す。
図5】本開示の実施例に係る電子機器のブロック図を示す。
図6】本開示の実施例に係る電子機器のブロック図を示す。
【発明を実施するための形態】
【0028】
以下に、図面を参照しながら本開示の様々な例示的な実施例、特徴および方面を詳細に説明する。図面における同じ符号は同じまたは類似する機能の要素を示す。図面において実施例の様々な方面を示したが、特に断らない限り、比例に従って図面を描く必要がない。
【0029】
ここでの用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」に説明したいかなる実施例は他の実施例より好ましいまたは優れるものであると理解すべきではない。
【0030】
本明細書における用語「及び/又は」は、単に関連対象との関連関係を記述するものであり、3つの関係が存在可能であることを示し、例えば、A及び/又はBは、Aのみが存在し、AとBの両方が存在し、Bのみが存在するという3つの場合を示してもよい。また、本明細書における用語「少なくとも1つ」は複数のうちのいずれか1つ、又は複数のうちの少なくとも2つの任意の組み合わせを示し、例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選択されたいずれか1つ又は複数の要素を含むことを示してもよい。
【0031】
また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的な詳細を示す。当業者であれば、本開示は何らかの具体的詳細がなくても同様に実施できると理解すべきである。いくつかの実施例では、本開示の趣旨を強調するために、当業者が熟知している方法、手段、要素および回路について詳細な説明を行わない。
【0032】
図1は本開示の実施例に係る画像処理方法のフローチャートを示す。図1に示すように、前記方法は、被処理画像に対して特徴抽出を行って、前記被処理画像の第1の特徴マップを得るステップS11と、前記第1の特徴マップに対して目標領域予測を行って、前記第1の特徴マップにおいて目標の所在する第1の領域を決定するステップS12と、前記第1の特徴マップに対して前記第1の領域に基づくキーポイント検出を行って、前記被処理画像の目標キーポイント情報を決定するステップS13と、を含む。
【0033】
可能な一実現形態では、前記画像処理方法は、ユーザ側装置(User Equipment、UE)、携帯機器、ユーザ端末、端末、セルラーホン、コードレスフォン電話機、パーソナル・デジタル・アシスタント(Personal Digital Assistant、PDA)、ハンドヘルドデバイス、計算装置、車載装置、ウェアラブル装置等の端末装置、又はサーバ等の電子機器によって実行されてよく、前記方法はプロセッサによってメモリに記憶されたコンピュータ読み取り可能なコマンドを呼び出す形態で実現されてよい。又は、サーバによって前記方法を実行してもよい。
【0034】
例を挙げると、顔認証によるロック解除、セキュリティ監視及びアクセスコントローラ等の応用シーンでは、被処理画像における目標を検出することが必要となる。被処理画像は、画像取得装置(例えば、カメラ)等によって取得された画像であってもよい。被処理画像には認識される目標が存在する可能性があり、当該目標が、例えば顔、人体及び手のいずれか1つを含んでもよい。本開示では、応用シーンの種類、被処理画像の取得形態及び目標の種類のいずれも限定されない。
【0035】
可能な一実現形態では、ステップS11において軽量級の検出器によって被処理画像に対して特徴抽出を行って、被処理画像の第1の特徴マップを得ることによって、画像のスケールを低くすることができる。この検出器は、例えば、畳み込みニューラルネットワークであってもよく、本開示では限定されない。
【0036】
可能な一実現形態では、ステップS12において第1の特徴マップに対して目標領域予測を行って、第1の特徴マップにおける目標が存在可能な領域位置及び当該領域のスケールを予測し、スケール領域提案枠、即ち、目標の所在する第1の領域を与えてよい。
【0037】
可能な一実現形態では、第1の領域が得られた後、ステップS13において、第1の特徴マップに対して第1の領域に基づくキーポイント検出を行って、各第1の領域における目標キーポイントの位置を検出するようにしてよい。例えば、目標が顔である時に、顔の目、鼻、口等のキーポイントの位置を取得して、被処理画像の目標キーポイント情報を決定する。
【0038】
本開示の実施例によれば、画像の特徴マップを取得し、特徴マップにおける目標の所在する領域を予測し、領域提案枠を与え、更に領域提案枠でキーポイントを検出し、画像の目標キーポイント情報を決定することができることによって、検出速度や検出効果を高め、高速且つ正確な目標キーポイント検出を実現している。
【0039】
可能な一実現形態では、軽量級の検出器(特徴抽出ネットワークと呼ばれてよい)によって被処理画像に対して特徴抽出を行ってよい。この特徴抽出ネットワークは畳み込みニューラルネットワーク(ConvNetと略称する)であってよい。
【0040】
図2は本開示の実施例に係る特徴抽出ネットワークの模式図を示す。図2に示すように、この特徴抽出ネットワークは、複数の畳み込み層、プーリング層、アップサンプリング層、全結合層等を含む。画像(即ち、被処理画像)に対して畳み込み(conv)操作(畳み込みカーネルのサイズが3×3、チャンネル数が64、サンプリング倍数が1/2(即ち、ダウンサンプリング倍数が2倍))を行って第1の操作結果(未図示)を得、第1の操作結果に対してプーリング(Pool)操作(サイズが2×2、サンプリング倍数が1/2)、複数回の畳み込み操作(畳み込みカーネルのサイズが3×3、チャンネル数が64)及び特徴融合(即ち、重畳)を行って第2の操作結果(未図示)を得、第2の操作結果に対して複数回の畳み込み操作(畳み込みカーネルのサイズが3×3、チャンネル数が128、サンプリング倍数が1/2又は1)及び特徴融合を行って第3の操作結果(未図示)を得、第3の操作結果に対して2倍のアップサンプリングを行った後、第2の操作結果との結合(Cが全結合操作を示す)、畳み込み(畳み込みカーネルのサイズが3×3、チャンネル数が64)、2倍のアップサンプリング、第1の操作結果との結合、畳み込み(畳み込みカーネルのサイズが3×3、チャンネル数が128)を行った後、最終的な特徴マップ(即ち、被処理画像の第1の特徴マップ)を得るようにしてよい。
【0041】
可能な一実現形態では、特徴抽出ネットワークに入力される被処理画像のスケールが256×256であってよく、取得された画像を前処理することによってこのスケールの被処理画像を得てよい。特徴抽出ネットワーク全体のダウンサンプリング倍数が2倍であり、このようにして、特徴抽出ネットワークによる処理後、スケールが128×128である第1の特徴マップが得られる。この軽量級の特徴抽出ネットワークによって、被処理画像の特徴を高速に抽出し、低いスケールの第1の特徴マップを得、後続の処理における基礎を提供することができる。
【0042】
可能な一実現形態では、ステップS12において第1の特徴マップに対して目標領域予測を行ってよい。ここで、ステップS12は、前記第1の特徴マップに対して中心点特徴抽出を行って、第2の特徴マップを得ることと、前記第2の特徴マップの複数の特徴点から、特徴値が第1の閾値以上である特徴点を含む少なくとも1つの領域中心点を決定することと、前記少なくとも1つの領域中心点のうちの各領域中心点に対応するチャンネル番号に基づいて、前記各領域中心点に対応する前記第1の領域のスケールを決定することと、前記各領域中心点の位置、及び前記各領域中心点に対応する前記第1の領域のスケールに基づいて、各前記第1の領域をそれぞれ決定することと、を含んでよい。
【0043】
例を挙げると、畳み込みニューラルネットワークによって第1の特徴マップの中心点特徴を抽出して第2の特徴マップ(細粒度スケール推定特徴マップと呼んでもよい)が得られ、この第2の特徴マップのスケールがH×W×Gであり、H、W、Gがそれぞれ第2の特徴マップの高さ、幅及びチャンネル数であり、チャンネル数Gが例えば60である。第2の特徴マップには複数の特徴点を含み、いずれか1つの特徴点の特徴値はこの特徴点が目標所在領域の領域中心点となる確率又は信頼度を表してよく、この特徴点の所在するチャンネル番号はこの特徴点が領域中心点である時の対応領域のスケール(高さと幅)を表してよい。
【0044】
可能な一実現形態では、第1の閾値を予め設定し、特徴値が第1の閾値以上である特徴点を目標所在領域の領域中心点として決定するようにしてよい。このようにして、第2の特徴マップの複数の特徴点から1つ又は複数の領域中心点を決定してよい。本開示では、第1の閾値の具体的な値が制限されない。
【0045】
可能な一実現形態では、第2の特徴マップにおける領域中心点が決定された後、1つ又は複数の領域中心点のうちの各領域中心点に対応するチャンネル番号に基づいて、各領域中心点に対応する第1の領域のスケールを決定し、更に各領域中心点の位置、及び各領域中心点に対応する第1の領域のスケールに基づいて、各第1の領域をそれぞれ決定し、即ち、1つ又は複数の領域提案枠を推定するようにしてよい。
【0046】
例えば、ある領域中心点Aの第2の特徴マップにおける座標が(|x/N|,|y/N|,b)であり、Nが第1の特徴マップに対する第2の特徴マップのダウンサンプリング倍数を表し、bがチャンネル番号を表すと、領域中心点Aの第1の特徴マップにおける位置が(x,y)であり、領域中心点Aに対応する第1の領域の高さ及び幅がいずれもチャンネル番号bに対応するスケールsであり、領域中心点Aに対応する第1の領域を[x,y,s,s]で表してよい。チャンネル番号とスケールとの対応関係を実際の状況に応じて設定することができ、本開示で制限されないことが当業者に理解されるべきである。
【0047】
このような形態によれば、画像における目標が存在可能な位置及びスケールを予測し、目標所在領域の領域提案枠を得ることができることによって、後続の処理でキーポイント検出を行って、検出効果を高める。
【0048】
可能な一実現形態では、第1の領域が得られた後、S13において前記第1の特徴マップに対してキーポイント検出を行ってよい。ここで、ステップS13は、前記第1の特徴マップに対してキーポイント特徴抽出を行って、第3の特徴マップを得ることと、前記第3の特徴マップの、前記第1の領域に対応する特徴領域において、前記目標の複数のキーポイントを決定することと、前記第3の特徴マップにおける前記複数のキーポイントの位置に基づいて、前記被処理画像の目標キーポイント情報を決定することと、を含んでよい。
【0049】
例を挙げると、畳み込みニューラルネットワークによって第1の特徴マップのキーポイント特徴を抽出し、第3の特徴マップ(キーポイント応答特徴マップと呼ばれてもよい)を得ることができ、この第3の特徴マップのスケールがH×W×Kであり、H、W、Kがそれぞれ第3の特徴マップの高さ、幅及びチャンネル数である。ここで、第3の特徴マップの高さ及び幅が第2の特徴マップの高さ及び幅と同様であり、チャンネル数Kが各目標のキーポイント数量を表すためのものであり、チャンネル数Kが例えば5である。本開示ではチャンネル数Kの具体的な値が制限されない。
【0050】
可能な一実現形態では、上記ステップにおいて決定された第1の領域(即ち、領域提案枠)により、第1の領域に対応する特徴領域における目標の複数のキーポイントを決定してよい。例えば、目標が顔である時に、目、鼻、口元等の対応キーポイントを決定することができる。
【0051】
可能な一実現形態では、前記第3の特徴マップの、前記第1の領域に対応する特徴領域において、前記目標の複数のキーポイントを決定することは、前記特徴領域の各チャンネルに対してそれぞれキーポイント検出を行って、前記各チャンネルに対応するキーポイントを取得することを含む。
【0052】
例を挙げると、いずれか1つの特徴領域R[x,y,x,y]については、(x,y)と(x,y)がそれぞれ領域Rの左上頂点と右下頂点の座標を表し、先に第3の特徴マップに対して正規化を行ってよい(例えば、softmax関数によって正規化する)。特徴領域Rにおけるいずれか1つの特徴点hi,j,cについては、その正規化後の特徴値は、
【数1】

で表れる。式(1)において、i、jがそれぞれ特徴点の横座標と縦座標を表し、cが特徴点のチャンネル番号を表し、1≦c≦Kであり、hm,n,c がhi,j,c と同じチャンネルにある任意の特徴点を表し、x≦m≦x、y≦n≦yである。
【0053】
特徴領域Rにおける各特徴点の特徴値が得られた後、この領域のチャンネルcでのキーポイント横縦座標P=(Ψc,x, Ψc,y)を計算してよい。
【数2】

式(2)において、w、hがそれぞれ特徴領域Rの幅と高さを表し、関数については、
【数3】

0≦p≦qの場合にpを戻り値とし、そうでないと0を戻り値とする。
【0054】
式(1)と(2)の処理過程はsoft-argmax操作と呼ばれてよく、即ち、指数正規化関数softmaxと組み合わせてargmax(パラメータ最大値のインデックスを探す)の目的を達成すると共に、過程を微分可能にする。
【0055】
このように、特徴領域RのK個のチャンネルに対してそれぞれ計算して、特徴領域RのK個のチャンネルでのK個の特徴点を得ることができ、更に、第3の特徴マップにおける全ての特徴領域を処理して各特徴領域におけるK個の特徴点を得ることができる。第3の特徴マップの各特徴領域におけるK個の特徴点の位置及び第3の特徴マップと被処理画像との対応関係に基づいて、被処理画像の目標キーポイント情報を決定できる。
【0056】
このような形態によれば、領域提案枠及びキーポイント応答特徴マップにより、スケール適応soft-argmax操作と組み合わせて目標のキーポイントを生成し、キーポイント検出の効果を高めることができ、キーポイント数量に制限されない。
【0057】
可能な一実現形態では、前記方法は、前記被処理画像における各目標の前記目標キーポイント情報に対してそれぞれバウンディングボックス回帰を行って、前記各目標の第2の領域を決定することと、前記各目標の第2の領域に基づいて、前記被処理画像の目標認識結果を決定することと、を更に含む。
【0058】
例を挙げると、ステップS13において目標キーポイントが得られた後、各目標の目標キーポイント情報に対してそれぞれバウンディングボックス回帰を行って、目標の所在する第2の領域を得ることができ、領域の範囲がより正確となるようにする。
【0059】
可能な一実現形態では、先に複数の画像(例えば、トレーニングセットの複数のサンプル画像)の平均目標キーポイント座標
【数4】

を統計してよい。
【数5】

式(3)において、Nが統計される画像におけるラベリングボックスの数を表し、例えばN=10000であり、
【数6】

が任意の1つのラベリングボックスの目標キーポイント座標を表してよく、wとhが対応する顔ラベリングボックスの幅と高さを表し、1≦l≦Nである。データセットの顔キーポイント情報については、各キーポイントに対応する平均点座標
【数7】

を求めてよく、ここで、1≦k≦Kであり、Kがキーポイント数である。これによって、検出して得られた1組の目標キーポイントと対応の変換行列Tについては、
【数8】


となってもよい。式(4)において
【数9】

が任意の3つのキーポイントに対応する平均点座標を表し、(X,Y)、(X,Y)、(X,Y)が1組の目標キーポイントのうちの対応する3つの目標キーポイントを表す。式(4)によれば、この組の目標キーポイントに対応する変換行列Tを算出できる。この組の目標キーポイントに対応するバウンディングボックスの左上頂点と右下頂点の座標をそれぞれ(x,y)と(x,y)とすれば、
【数10】

となる。式(5)によれば、この組の目標キーポイントに対応するバウンディングボックスの左上頂点と右下頂点の座標(x,y)と(x,y)を算出でき、即ち、バウンディングボックス回帰によって、目標の所在する第2の領域が得られる。これによって、被処理画像における各目標の目標キーポイントに対してそれぞれバウンディングボックス回帰処理を行って、各目標の第2の領域を決定することができ、更に各目標の第2の領域に基づいて、被処理画像の目標認識結果を決定することができる。
【0060】
このような形態によれば、検出された目標キーポイントに対してバウンディングボックス回帰を行って、バウンディングボックスの曖昧な定義による影響を効果的に低減でき、取得された目標所在領域の位置がより正確になる。
【0061】
可能な一実現形態では、前記各目標の第2の領域に基づいて、前記被処理画像の目標認識結果を決定することは、前記第2の領域に対応する前記第1の領域の第1の信頼度スコア、及び前記第2の領域の全て又は一部の目標キーポイント情報の第2の信頼度スコアを決定することと、前記第1の信頼度スコア及び前記第2の信頼度スコアに基づいて、前記第2の領域の第3の信頼度スコアを決定することと、各第2の領域の第3の信頼度スコアに基づいて、第3の信頼度スコアが第2の閾値以上である前記第2の領域を含む被処理画像の目標認識結果を決定することと、を含んでよい。
【0062】
例を挙げると、被処理画像における各目標の第2の領域が得られた後、第2の領域が実際目標所在領域となる確率を表すための各第2の領域の信頼度スコアを決定してよい。
【0063】
可能な一実現形態では、任意の1つの第2の領域については、この第2の領域に対応する第1の領域(即ち、領域提案枠)の第1の信頼度スコアを決定してよく、この第1の信頼度スコアは第1の領域の領域中心点の特徴値であってもよく、又は領域中心点の特徴値に対応するものであってもよい。同時に、第2の領域の全て又は一部の目標キーポイント情報の第2の信頼度スコアを決定してよく、即ち、全ての目標キーポイントを用いて計算してもよく、一部の重要な目標キーポイントを用いて計算してもよく、本開示では制限されない。
【0064】
可能な一実現形態では、第1の信頼度スコアと第2の信頼度スコアに基づいて、第2の領域の第3の信頼度スコアを決定してよい。任意の1つの第2の領域については、この第2の領域の第1の信頼度スコアをPとし、第2の信頼度スコアを3つの重要な目標キーポイントの特徴値の和とし、第3の信頼度スコアをPとすれば、
【数11】

となる。式(6)において、Φ(h*,*,c)が第2の領域内の任意の点h*,*,cの特徴値を表し、max(Φ(h*,*,c))が目標キーポイントの特徴値を表し、cがチャンネル番号である。
【0065】
可能な一実現形態では、信頼度スコアの第2の閾値を予め設定してよい。第2の領域の第3の信頼度スコアがこの第2の閾値以上である場合に、この第2の領域が実際目標所在領域であると考えられ、目標認識結果としてよく、逆に、第2の領域の第3の信頼度スコアがこの第2の閾値未満である場合に、この第2の領域が実際目標所在領域ではないと考えられ、目標認識結果から除去してよい。本開示では第2の閾値の具体的な値が制限されない。
【0066】
このような形態によれば、バウンディングボックス回帰により得られた目標所在領域を選別して、画像における目標の認識精度を更に高めることができる。
【0067】
可能な一実現形態では、本開示の実施例に係る画像処理方法はニューラルネットワークによって実現されてよい。このニューラルネットワークは、それぞれ特徴抽出、目標領域予測及びキーポイント検出に用いられる特徴抽出ネットワーク、領域予測ネットワーク及びキーポイント検出ネットワークを含む。
【0068】
図3は本開示の実施例に係る画像処理プロセスの模式図を示す。図3に示すように、このニューラルネットワークは、特徴抽出ネットワーク31、領域予測ネットワーク32及びキーポイント検出ネットワーク33を含む。画像のスケールを小さくするように、被処理画像34を特徴抽出ネットワーク31に入力して処理して、被処理画像34の第1の特徴マップ(未図示)を得るようにしてよい。
【0069】
この例において、第1の特徴マップを領域予測ネットワーク32の中心点特徴抽出サブネットワーク321に入力して処理して、スケールがH×W×Gである第2の特徴マップ(細粒度スケール推定特徴マップと呼ばれてもよい)Sを得、各チャンネルでの特徴点の特徴値に基づいて、特徴値が第1の閾値以上である特徴点を領域中心点として選択し、領域中心点の所在するチャンネルにより領域のスケールを決定して、複数の第1の領域(即ち、領域提案枠)322を得る。
【0070】
この例において、同時に第1の特徴マップをキーポイント検出ネットワーク33のキーポイント特徴抽出サブネットワーク331に入力して処理して、スケールがH×W×Kである第3の特徴マップ(キーポイント応答特徴マップと呼ばれてもよい)Kを得てよく、上記ステップで決定された第1の領域322により、第1の領域に対応する特徴領域における特徴点に対してsoftmax正規化を行って、更に目標の複数のキーポイント(チャンネルのそれぞれが1種類のキーポイントに対応する)を決定してよく、座標を(X,Y)で表す。
【0071】
この例において、各目標の複数のキーポイントによりバウンディングボックス回帰を行って、より正確な目標領域(第2の領域と呼ばれる)を決定してよい。選別した後、最終的に被処理画像の目標認識結果35が得られる。この目標認識結果35は、認識された各目標の所在する領域枠及びキーポイント位置を含んでよい。目標が顔である場合に、複数の顔枠及び顔枠内の目、鼻、口元等の顔キーポイントの位置が得られる。
【0072】
可能な一実現形態では、本開示の実施例に係る画像処理方法のニューラルネットワークを用いる前に、ニューラルネットワークを訓練してもよい。ここで、前記方法は、複数のサンプル画像、前記複数のサンプル画像のラベリング領域情報及び前記複数のサンプル画像のラベリングキーポイント情報を含む予め設定されたトレーニングセットにより、前記ニューラルネットワークを訓練することを更に含む。
【0073】
例を挙げると、それぞれに被認識目標(例えば、顔)を含み且つ各目標のラベリング領域情報及びラベリングキーポイント情報がすでにラベリングされている複数のサンプル画像を含むトレーニングセットを予め設定してよい。トレーニングセットのサンプル画像をニューラルネットワークに入力して処理して、サンプル画像の目標認識結果を得、認識結果とラベリング情報との差に基づいて、ニューラルネットワークのパラメータを調整するようにしてよい。複数回反復した後、訓練済みのニューラルネットワークが得られる。
【0074】
可能な一実現形態では、予め設定されたトレーニングセットにより、前記ニューラルネットワークを訓練することは、前記特徴抽出ネットワークによってサンプル画像を処理して、第1のサンプル特徴マップを決定することと、前記領域予測ネットワークによって前記第1のサンプル特徴マップを処理して、第2のサンプル特徴マップ及び前記第2のサンプル特徴マップにおける少なくとも1つのサンプル領域を決定することと、前記キーポイント検出ネットワークによって前記第1のサンプル特徴マップを処理して、前記第2のサンプル特徴マップと同様な幅及び高さを有する第3のサンプル特徴マップを決定することと、前記少なくとも1つのサンプル領域に基づいて、前記第3のサンプル特徴マップのサンプル領域のサンプルキーポイント情報を決定することと、前記サンプル画像のラベリング領域情報に基づいて、前記サンプル画像の第1のラベリング特徴マップを決定し、前記第1のラベリング特徴マップのスケールが前記第2のサンプル特徴マップと同様であり、前記第1のラベリング特徴マップのチャンネル番号が前記ラベリング領域情報のスケールを表すことと、前記第1のラベリング特徴マップと前記第2のサンプル特徴マップとの差に基づいて、前記領域予測ネットワークに対する前記サンプル画像の第1の損失を決定することと、前記ラベリングキーポイント情報と前記サンプルキーポイント情報との差に基づいて、前記キーポイント検出ネットワークに対する前記サンプル画像の第2の損失を決定することと、前記複数のサンプル画像の第1の損失と第2の損失に基づいて、前記ニューラルネットワークを訓練することと、を含む。
【0075】
例を挙げると、トレーニングセットの任意の1つのサンプル画像については、図3における処理過程と類似するように、このサンプル画像を特徴抽出ネットワークに入力して処理して、第1のサンプル特徴マップを出力して、画像のスケールを低くすることができる。更に第1のサンプル特徴マップを領域予測ネットワークに入力して処理して、第2のサンプル特徴マップ及び第2のサンプル特徴マップにおける少なくとも1つのサンプル領域(即ち、領域提案枠)を得る。この第2のサンプル特徴マップのスケールがH×W×Gであり、Gが例えば60である。
【0076】
可能な一実現形態では、このサンプル画像のラベリング領域情報(即ち、ラベリングボックス)に基づいて、前記サンプル画像の第1のラベリング特徴マップMを決定でき、第1のラベリング特徴マップのスケールが前記第2のサンプル特徴マップと同様であり、H×W×Gであり、第1のラベリング特徴マップのチャンネル番号がラベリング領域情報のスケールを表す。つまり、このサンプル画像の任意の1つのラベリングボックスR[x,y,h,w]については、(x,y)が中心点のサンプル画像での座標を表し、hとwが長さと幅を表し、そのスケールコーディングが
【数12】

により表れる。式(7)において、bがこのラベリングボックスRのチャンネルインデックス(即ち、チャンネル番号)を表し、Imaxがサンプル画像の最も長い辺を表す。ラベリングボックスRのチャンネルインデックスを実際の状況に応じて設定してよく、本開示で制限されないことが当業者に理解されるべきである。
【0077】
この場合に、第1のラベリング特徴マップMにおける各特徴点に値を与えてよい。まず、このラベリングボックスRの中心特徴点に1を与えてよい。
【数13】

式(8)において、Nがサンプル画像に対する第1のラベリング特徴マップのダウンサンプリング倍数を表す。
【0078】
可能な一実現形態では、ネットワーク学習の離散値の難度を低減するために、2Dガウス関数を導入して第1のラベリング特徴マップMにおける中心特徴点の隣近点の値を調整する。
【数14】

とし、
【数15】

が整数を取ることを表すと、
【数16】

となる。式(9)において、
【数17】

がラベリングボックスRの中心特徴点座標を表し、(x,y)中心特徴点の隣近点を表し、σが所定の分散を表す。式(8)~(9)によって第1のラベリング特徴マップMにおける各ラベリングボックス内の特徴点に値を与えた後、値を与えられた第1のラベリング特徴マップMが得られる。
【0079】
この場合に、第1のラベリング特徴マップと第2のサンプル特徴マップとの差に基づいて、前記領域予測ネットワークに対するこのサンプル画像の第1の損失を決定でき、
【数18】

式(10)において、
【数19】

が第1のラベリング特徴マップと第2のサンプル特徴マップにおける特徴点数を表し、任意の1つの特徴点tについては、pがこの特徴点tの第1のラベリング特徴マップでの値(教師値とする)を表し、
【数20】

がこの特徴点tの第2のサンプル特徴マップでの値(即ち、ネットワーク予測値)を表す。式(10)により、領域予測ネットワークに対するこのサンプル画像の第1の損失Lscaleを算出できる。更に、本開示の実施例に係るニューラルネットワークを訓練するように、複数のサンプル画像(例えば、1バッチの256個のサンプル)に対してそれぞれ計算して複数のサンプル画像の第1の損失を取得してよい。第1の損失の損失関数を実際の状況に応じて設定してよく、本開示では制限されないことが当業者に理解されるべきである。
【0080】
可能な一実現形態では、サンプル画像の第2のサンプル特徴マップについては、所定の閾値(例えば、第1の閾値)に基づいて、第2のサンプル特徴マップで複数の中心特徴点を決定でき、中心特徴点の所在するチャンネルにより、式(7)で中心特徴点の所在する領域のスケールを算出でき、第2のサンプル特徴マップにおける少なくとも1つのサンプル領域(即ち、領域提案枠)を決定できる。
【0081】
可能な一実現形態では、第1のサンプル特徴マップをキーポイント検出ネットワークに入力して処理して、第3のサンプル特徴マップを得るようにしてよく、第3のサンプル特徴マップの幅及び高さが第2のサンプル特徴マップと同様であり、第3のサンプル特徴マップのスケールをH×W×Kで表してよく、チャンネル数Kが各目標のキーポイントの数を表すためのものであり、チャンネル数Kが例えば5である。
【0082】
可能な一実現形態では、各サンプル領域に基づいて、第3のサンプル特徴マップのサンプル領域におけるサンプルキーポイント情報を決定できる。即ち、式(1)によって各サンプル領域を正規化し、且つ式(2)によって各サンプル領域におけるサンプルキーポイントの位置を決定する。更に、このサンプル画像のラベリングキーポイント情報とサンプルキーポイント情報との差に基づいて、キーポイント検出ネットワークに対するこのサンプル画像の第2の損失を決定する。
【数21】

式(11)において、
【数22】

がラベリングキーポイント(例えば、GTラベリングキーポイント)を表し、Ψc,*がサンプルキーポイントを表し、cがチャンネル番号を表す。式(11)により、キーポイント検出ネットワークに対するこのサンプル画像の第2の損失Lkeypointを算出できる。更に、本開示の実施例に係るニューラルネットワークを訓練するように、複数のサンプル画像(例えば、1バッチの256個のサンプル)に対してそれぞれ計算して複数のサンプル画像の第2の損失を得てよい。第2の損失の損失関数を実際の状況に応じて設定してよく、本開示では制限されないことが当業者に理解されるべきである。
【0083】
可能な一実現形態では、複数のサンプル画像の第1の損失と第2の損失に基づいてニューラルネットワークの総損失を決定してよく、例えば第1の損失と第2の損失の加重和をニューラルネットワークの総損失とする。ニューラルネットワークの総損失に基づいて逆伝播を行ってニューラルネットワークのネットワークパラメータを調整し、複数回繰り返して調整することで、所定の訓練条件(例えばネットワークが収束した)を満たす場合、訓練済みのニューラルネットワークが得られ、訓練全過程が完了されるようにしてよい。
【0084】
このような形態によれば、ニューラルネットワークの訓練過程を実現し、高精度のニューラルネットワークを得ることができる。
【0085】
本開示の実施例に係る画像処理方法によれば、低いスケールの画像入力及び軽量級モデル構造によって高効率な推定速度を達成でき、目標スケールコーディングによって畳み込みニューラルネットワークを用いて目標位置及びスケールの予測を行い、この方法ではanchor-free(アンカーフリーと呼ばれてもよい)機構を用い、顔スケール予測と微分可能なsoft-argmax操作と組み合わせて、高速且つ正確な目標検出アルゴリズムを構築した。
【0086】
本開示の実施例に係る画像処理方法によれば、下位から上位への機構(bottom-up)を採用し、即ち、先に顔キーポイントの検出を行い、更にキーポイント情報に基づいて回帰により顔バウンディングボックスを得る。顔バウンディングボックスの曖昧な定義と比較して、顔キーポイントは正確な意味情報を表現することによって推定精度が高くなり、性能がSOTA(現在の最適な一連のアルゴリズム)レベルに到達可能である。
【0087】
本開示の実施例に係る画像処理方法によれば、アクセスコントローラ、映像知能化分析、セキュリティ監視等の分野に用いて、高速且つ正確な顔検出、顔キーポイント検出を実現し、又は顔キーポイント検出と顔バウンディングボックス検出を合わせて実現することができる。そして、この方法のスケール予測結果を用いて画像における潜在的な顔目標スケールを予測することができる。
【0088】
本開示で言及される上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて実施例を形成することができることが理解すべきである。紙数に限りがあるので、本開示では詳細な説明を省略する。具体的な実施形態に係る上記方法では、各ステップの具体的な実行順序はその機能と可能な内在的論理によって決定されることが当業者に理解すべきである。
【0089】
また、本開示は画像処理装置、電子機器、コンピュータ読み取り可能な記憶媒体、プログラムを更に提供しており、それらはいずれも本開示で提供されるいずれか1つの画像処理方法を実現することに利用可能であり、対応する技術的手段及び説明については方法部分の対応の記載を参照すればよく、ここで詳細な説明を省略する。
【0090】
図4は本開示の実施例に係る画像処理装置のブロック図を示す。図4に示すように、前記装置は、被処理画像に対して特徴抽出を行って、前記被処理画像の第1の特徴マップを得るための特徴抽出モジュール41と、前記第1の特徴マップに対して目標領域予測を行って、前記第1の特徴マップにおいて目標の所在する第1の領域を決定するための領域予測モジュール42と、前記第1の特徴マップに対して前記第1の領域に基づくキーポイント検出を行って、前記被処理画像の目標キーポイント情報を決定するためのキーポイント検出モジュール43と、を含む。
【0091】
可能な一実現形態では、前記装置は、前記被処理画像における各目標の前記目標キーポイント情報に対してそれぞれバウンディングボックス回帰を行って、前記各目標の第2の領域を決定するためのバウンディングボックス回帰モジュールと、前記各目標の第2の領域に基づいて、前記被処理画像の目標認識結果を決定するための結果決定モジュールと、を更に含む。
【0092】
可能な一実現形態では、前記領域予測モジュールは、前記第1の特徴マップに対して中心点特徴抽出を行って、第2の特徴マップを得るための中心点特徴抽出サブモジュールと、前記第2の特徴マップの複数の特徴点から、特徴値が第1の閾値以上である特徴点を含む少なくとも1つの領域中心点を決定するための中心点決定サブモジュールと、前記少なくとも1つの領域中心点のうちの各領域中心点に対応するチャンネル番号に基づいて、前記各領域中心点に対応する前記第1の領域のスケールを決定するためのスケール決定サブモジュールと、前記各領域中心点の位置及び前記各領域中心点に対応する前記第1の領域のスケールにより、各前記第1の領域をそれぞれ決定するための領域決定サブモジュールと、を含む。
【0093】
可能な一実現形態では、前記キーポイント検出モジュールは、前記第1の特徴マップに対してキーポイント特徴抽出を行って、第3の特徴マップを得るためのキーポイント特徴抽出サブモジュールと、前記第3の特徴マップの、前記第1の領域に対応する特徴領域において、前記目標の複数のキーポイントを決定するためのキーポイント決定サブモジュールと、前記第3の特徴マップにおける前記複数のキーポイントの位置に基づいて、前記被処理画像の目標キーポイント情報を決定するためのキーポイント情報決定サブモジュールと、を含む。
【0094】
可能な一実現形態では、前記キーポイント決定サブモジュールは、前記特徴領域の各チャンネルに対してそれぞれキーポイント検出を行って、前記各チャンネルに対応するキーポイントを取得するために用いられる。
【0095】
可能な一実現形態では、前記結果決定モジュールは、前記第2の領域に対応する前記第1の領域の第1の信頼度スコア、及び前記第2の領域の全て又は一部の目標キーポイント情報の第2の信頼度スコアを決定するための第1のスコア決定サブモジュールと、前記第1の信頼度スコア及び前記第2の信頼度スコアに基づいて、前記第2の領域の第3の信頼度スコアを決定するための第2のスコア決定サブモジュールと、各第2の領域の第3の信頼度スコアに基づいて、第3の信頼度スコアが第2の閾値以上である前記第2の領域を含む被処理画像の目標認識結果を決定するための結果決定サブモジュールと、を含む。
【0096】
可能な一実現形態では、前記装置は、ニューラルネットワークによって実現され、前記装置は、複数のサンプル画像、前記複数のサンプル画像のラベリング領域情報及び前記複数のサンプル画像のラベリングキーポイント情報を含む予め設定されたトレーニングセットにより、前記ニューラルネットワークを訓練するための訓練モジュールを更に含む。
【0097】
可能な一実現形態では、前記ニューラルネットワークは、特徴抽出ネットワーク、領域予測ネットワーク及びキーポイント検出ネットワークを含み、前記訓練モジュールは、前記特徴抽出ネットワークによってサンプル画像を処理して、第1のサンプル特徴マップを決定することと、前記領域予測ネットワークによって前記第1のサンプル特徴マップを処理して、第2のサンプル特徴マップ及び前記第2のサンプル特徴マップにおける少なくとも1つのサンプル領域を決定することと、前記キーポイント検出ネットワークによって前記第1のサンプル特徴マップを処理して、前記第2のサンプル特徴マップと同様な幅及び高さを有する第3のサンプル特徴マップを決定することと、前記少なくとも1つのサンプル領域に基づいて、前記第3のサンプル特徴マップのサンプル領域のサンプルキーポイント情報を決定することと、前記サンプル画像のラベリング領域情報に基づいて、前記サンプル画像の第1のラベリング特徴マップを決定し、前記第1のラベリング特徴マップのスケールが前記第2のサンプル特徴マップと同様であり、前記第1のラベリング特徴マップのチャンネル番号が前記ラベリング領域情報のスケールを表すことと、前記第1のラベリング特徴マップと前記第2のサンプル特徴マップとの差に基づいて、前記領域予測ネットワークに対する前記サンプル画像の第1の損失を決定することと、前記ラベリングキーポイント情報と前記サンプルキーポイント情報との差に基づいて、前記キーポイント検出ネットワークに対する前記サンプル画像の第2の損失を決定することと、前記複数のサンプル画像の第1の損失と第2の損失に基づいて、前記ニューラルネットワークを訓練することとに用いられる。
【0098】
可能な一実現形態では、前記被処理画像における目標には、顔、人体及び手のいずれか1つを含む。
【0099】
いくつかの実施例では、本開示の実施例で提供された装置が備える機能又はモジュールは、上記方法の実施例に説明される方法を実行するために用いられ、その具体的な実現形態について、上記方法の実施例の説明を参照すればよく、簡素化のために、ここで詳細な説明は割愛する。
【0100】
本開示の実施例は、コンピュータプログラムコマンドが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行されると、上記方法を実現させるコンピュータ読み取り可能な記憶媒体を更に提供する。コンピュータ読み取り可能な記憶媒体は、不揮発性のコンピュータ読み取り可能な記憶媒体であってもよいし、揮発性のコンピュータ読み取り可能な記憶媒体であってもよい。
【0101】
本開示の実施例は、プロセッサと、プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、前記プロセッサが前記メモリに記憶されているコマンドを呼び出して上記方法を実行するように構成される電子機器を更に提供する。
【0102】
本開示の実施例は、コンピュータ読み取り可能なコードを含み、コンピュータ読み取り可能なコードが機器で動作すると、機器のプロセッサが上記のいずれか1つの実施例で提供された画像処理方法を実現するためのコマンドを実行するコンピュータプログラム製品を更に提供する。
【0103】
本開示の実施例は、コンピュータ読み取り可能なコマンドを記憶するためのコンピュータプログラム製品であって、コマンドが実行されると、コンピュータが上記のいずれか1つの実施例で提供された画像処理方法の操作を実行するコンピュータプログラム製品を更に提供する。
【0104】
電子機器は、端末、サーバ又は他の形態のデバイスとして提供されてもよい。
【0105】
図5は本開示の実施例に係る電子機器800のブロック図を示す。例えば、電子機器800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信機器、ゲームコンソール、タブレット型機器、医療機器、フィットネス機器、パーソナル・デジタル・アシスタントなどの端末であってもよい。
【0106】
図5を参照すると、電子機器800は処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)インタフェース812、センサコンポーネント814、および通信コンポーネント816のうちの一つ以上を含んでもよい。
【0107】
処理コンポーネント802は通常、電子機器800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、上記方法の全てまたは一部のステップを実行するために、命令を実行する一つ以上のプロセッサ820を含んでもよい。また、処理コンポーネント802は、他のコンポーネントとのインタラクションのための一つ以上のモジュールを含んでもよい。例えば、処理コンポーネント802は、マルチメディアコンポーネント808とのインタラクションのために、マルチメディアモジュールを含んでもよい。
【0108】
メモリ804は電子機器800での動作をサポートするための様々なタイプのデータを記憶するように構成される。これらのデータは、例として、電子機器800において操作するあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどの様々なタイプの揮発性または不揮発性記憶装置またはそれらの組み合わせによって実現できる。
【0109】
電源コンポーネント806は電子機器800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および電子機器800のための電力生成、管理および配分に関連する他のコンポーネントを含んでもよい。
【0110】
マルチメディアコンポーネント808は前記電子機器800とユーザとの間で出力インタフェースを提供するスクリーンを含む。いくつかの実施例では、スクリーンは液晶ディスプレイ(LCD)およびタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含む場合、ユーザからの入力信号を受信するタッチスクリーンとして実現してもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを検知するように、一つ以上のタッチセンサを含む。前記タッチセンサはタッチまたはスライド動きの境界を検知するのみならず、前記タッチまたはスライド操作に関連する持続時間および圧力を検出するようにしてもよい。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラおよび/または背面カメラを含む。電子機器800が動作モード、例えば撮影モードまたは撮像モードになる場合、前面カメラおよび/または背面カメラは外部のマルチメディアデータを受信するようにしてもよい。各前面カメラおよび背面カメラは、固定された光学レンズ系、または焦点距離および光学ズーム能力を有するものであってもよい。
【0111】
オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、一つのマイク(MIC)を含み、マイク(MIC)は、電子機器800が動作モード、例えば呼び出しモード、記録モードおよび音声認識モードになる場合、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816を介して送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
【0112】
I/Oインタフェース812は処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記周辺インタフェースモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含んでもよいが、これらに限定されない。
【0113】
センサコンポーネント814は電子機器800の各方面の状態評価のために一つ以上のセンサを含む。例えば、センサコンポーネント814は電子機器800のオン/オフ状態、例えば電子機器800の表示装置およびキーパッドのようなコンポーネントの相対的位置決めを検出でき、センサコンポーネント814はさらに、電子機器800または電子機器800のあるコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位または加減速および電子機器800の温度変化を検出できる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するように構成される近接センサを含んでもよい。センサコンポーネント814はさらに、CMOSまたはCCDイメージセンサのような、イメージングアプリケーションにおいて使用するための光センサを含んでもよい。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサまたは温度センサを含んでもよい。
【0114】
通信コンポーネント816は電子機器800と他の機器との有線または無線通信を実現するように構成される。電子機器800は通信規格に基づく無線ネットワーク、例えばWiFi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルを介して外部の放送管理システムからの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(NFC)モジュールを含む。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標)(BT)技術および他の技術によって実現できる。
【0115】
例示的な実施例では、電子機器800は一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタルシグナルプロセッサ(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現され、上記方法を実行するために用いられることができる。
【0116】
例示的な実施例では、さらに、不揮発性コンピュータ読み取り可能記憶媒体、例えばコンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は電子機器800のプロセッサ820によって実行されると、上記方法を実行させることができる。
【0117】
図6は本開示の実施例に係る電子機器1900のブロック図を示す。例えば、電子機器1900はサーバとして提供されてもよい。図6を参照すると、電子機器1900は、一つ以上のプロセッサを含む処理コンポーネント1922、および、処理コンポーネント1922によって実行可能な命令例えばアプリケーションプログラムを記憶するための、メモリ1932を代表とするメモリ資源を含む。メモリ1932に記憶されたアプリケーションプログラムは、それぞれが1つの命令群に対応する一つ以上のモジュールを含んでもよい。また、処理コンポーネント1922は命令を実行することによって上記方法を実行するように構成される。
【0118】
電子機器1900はさらに、電子機器1900の電源管理を実行するように構成される電源コンポーネント1926、電子機器1900をネットワークに接続するように構成される有線または無線ネットワークインタフェース1950、および入出力(I/O)インタフェース1958を含んでもよい。電子機器1900はメモリ1932に記憶されたオペレーティングシステム、例えばWindows(登録商標) ServerTM、Mac OS XTM、UnixTM(Unixは登録商標)、LinuxTM(Linuxは登録商標)、FreeBSDTMまたは類似するものに基づいて動作できる。
【0119】
例示的な実施例では、さらに、不揮発性コンピュータ読み取り可能記憶媒体、例えばコンピュータプログラム命令を含むメモリ1932が提供され、上記コンピュータプログラム命令は、電子機器1900の処理コンポーネント1922によって実行されると、上記方法を実行させることができる。
【0120】
本開示はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、プロセッサに本開示の各方面を実現させるためのコンピュータ読み取り可能プログラム命令がロードされているコンピュータ読み取り可能記憶媒体を含んでもよい。
【0121】
コンピュータ読み取り可能記憶媒体は、命令実行機器により使用される命令を保存および記憶可能な有形装置であってもよい。コンピュータ読み取り可能記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能記憶媒体のさらに具体的な例(非網羅的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、例えば命令が記憶されているせん孔カードまたはスロット内突起構造のような機械的符号化装置、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ読み取り可能記憶媒体は、瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
【0122】
ここで記述したコンピュータ読み取り可能プログラム命令は、コンピュータ読み取り可能記憶媒体から各計算/処理機器にダウンロードされてもよいし、またはネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークを介して外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含んでもよい。各計算/処理機器内のネットワークアダプタカードまたはネットワークインタフェースはネットワークからコンピュータ読み取り可能プログラム命令を受信し、該コンピュータ読み取り可能プログラム命令を転送し、各計算/処理機器内のコンピュータ読み取り可能記憶媒体に記憶させる。
【0123】
本開示の動作を実行するためのコンピュータプログラム命令はアセンブリ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含める一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ読み取り可能プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ読み取り可能プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズし、該電子回路によりコンピュータ読み取り可能プログラム命令を実行することにより、本開示の各方面を実現できるようにしてもよい。
【0124】
ここで本開示の実施例に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各態様を説明したが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ読み取り可能プログラム命令によって実現できることを理解すべきである。
【0125】
これらのコンピュータ読み取り可能プログラム命令は、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供され、これらの命令がコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行されると、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現するように、機械を製造してもよい。これらのコンピュータ読み取り可能プログラム命令は、コンピュータ読み取り可能記憶媒体に記憶され、コンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよい。これにより、命令が記憶されているコンピュータ読み取り可能記憶媒体は、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各方面を実現する命令を有する製品を含む。
【0126】
コンピュータ読み取り可能プログラム命令は、コンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードされ、コンピュータ、他のプログラマブルデータ処理装置または他の機器に一連の動作ステップを実行させることにより、コンピュータにより実現されるプロセスを生成するようにしてもよい。このようにして、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令により、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
【0127】
図面のうちフローチャートおよびブロック図は、本開示の複数の実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの代替としての実現形態では、ブロックに表記される機能は、図面に付した順序と異なって実現してもよい。例えば、連続的な二つのブロックは実質的に並列に実行してもよく、また、係る機能によって、逆な順序で実行してもよい。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現してもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことにも注意すべきである。
【0128】
該コンピュータプログラム製品は、具体的にはハードウェア、ソフトウェア又はそれらの組合せにより実現されてもよい。選択可能な一実施例において、前記コンピュータプログラム製品は具体的にはコンピュータ記憶媒体として実現され、別の選択可能な一実施例において、コンピュータプログラム製品は具体的には、例えばソフトウェア開発キット(Software Development Kit、SDK)などのソフトウェア製品として実現されてもよい。
【0129】
論理に違反しない限り、本開示のそれぞれの実施例は相互に組み合わせることができ、異なる実施例において重点として説明されるものが異なって、重点として説明されていない部分については他の実施例の記載を参照してもよい。
【0130】
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または既存技術に対する改善を好適に解釈するか、または他の当業者に本文に披露された各実施例を理解させるためのものである。
図1
図2
図3
図4
図5
図6
【国際調査報告】