【文献】
山田健太郎 外5名,一人称視点における視覚的顕著性マップモデルの性能評価,電子情報通信学会技術研究報告 HIP2010−79 − HIP2010−95 ヒューマン情報処理,社団法人電子情報通信学会,2011年 2月14日,第110巻 第422号,第81−86頁
(58)【調査した分野】(Int.Cl.,DB名)
上記動き顕著性算出部が、上記入力画像における対象領域と、それぞれの周辺領域との距離に応じた重みを、対象領域の動きベクトルと各周辺領域の動きベクトルとの差分量に付与して上記動き顕著性値を求めるものであることを特徴とする請求項1に記載の画像処理装置。
上記動き顕著性算出部が、上記入力画像における対象領域と周辺領域との距離が閾値を超える場合、対象領域の動きベクトルと当該周辺領域の動きベクトルとの差分量を削除することを特徴とする請求項1又は2に記載の画像処理装置。
【背景技術】
【0002】
近年、画像処理分野において、ボトムアップ型注意を、客観指標値として算出する方法が研究されている。ボトムアップ型注意で得られた指標値は、例えば、ロボットが物体への接近を瞬時に検出する技術(特許文献2参照)や、また例えば、視覚コンテンツの評価技術(特許文献3参照)に利用されている。ここで、ボトムアップ型注意とは、人や動物が瞬間的に注目領域を特定する反応をいう。
【0003】
画像中の点や領域に対して、人間が瞬間的に注目する度合い、すなわち顕著性の高さを数値化した顕著性値を算出する方法として、非特許文献1に記載のIttiの顕著性モデルが存在する。
【0004】
目の網膜にある網膜神経節細胞の中に、受容野(Receptive Field)と呼ばれる領域があり、この受容野に光による刺激を受けると、その情報が脳に伝達される。受容野は、中央にある円形の部分(center)とその周辺領域(surround)との2つで構成されており、受容野に置ける仕組みを応用し、Ittiらは、centerとSurroundとの刺激により信号が強くなる箇所(注意を引く場所)を数値化するようなモデルを構築して顕著性マップとした。
【0005】
特許文献1の記載技術は、非特許文献1に記載の顕著性値を利用して、入力画像の特徴量に基づいて顕著性マップを算出し、この顕著性マップを用いて入力画像の注目点を推定して主要被写体領域と背景領域とを分離するというものである。
【0006】
Ittiの顕著性モデルは、画像の輝度、色味(色相、明度、彩度等)、方向を考慮しているが、これは、ある時刻における1画像のみから算出しており、時間領域で変化する画像との間での変化を考慮していない。
【0007】
従って、Ittiの顕著性モデルは、一般的に顕著性が高いとされる、広い領域の色が急激に変わるような時間変化に起因する顕著性が反映されないという課題がある。
【0008】
上記課題に対応する技術として非特許文献2に記載の技術がある。非特許文献2において、Guoらは画像の時間変化を反映させた顕著性値を算出している。
【0009】
図2は、時間変化を反映させた顕著性値を算出する顕著性値算出方式を説明する説明図である。
【0010】
図2に示すように、従来の顕著性値算出方式は、輝度色味顕著性算出部102は、画像入力部101からの入力画像の輝度及び色味(色相、明度、彩度)に関する顕著性を算出して、加算部105に与える。
【0011】
また、画像入力部101からの入力画像は、時間方向顕著性算出部103及び蓄積部104に蓄積される。また、蓄積部104により予め定められた時間だけ蓄積された画像が、時間方向顕著性算出部103に与えられる。
【0012】
そして、時間方向顕著性算出部103は、画像入力部101からの入力画像と、過去の入力画像とに基づいて時間方向顕著性値を算出して加算部105に与える。なお、このとき、遅延に応じた過去の入力画像が存在しない場合、時間方向顕著性は全て「0」として扱う。
【0013】
加算部105は、輝度色味顕著性算出部102からの輝度色味顕著性値と、時間方向法顕著性算出部103からの時間方向顕著性値とに対して、予め定められた重みを乗じた上で加算する。これにより、入力画像の輝度色味顕著性値だけでなく、時間方向顕著性値も反映させた統合顕著性値を算出することができる。この統合顕著性値は、後段のデータ処理部106に与えられる。
【発明を実施するための形態】
【0022】
(A)主たる実施形態
以下、本発明の画像処理装置及び画像処理方法の実施形態を、図面を参照しながら詳細に説明する。
【0023】
(A−1)実施形態の構成
図1は、実施形態に係る画像処理装置200の機能を示す機能ブロック図である。
【0024】
画像処理装置200のハードウェア構成は、例えば、CPU、ROM、RAM、EEPROM、入出力インタフェース部等を有して構成され、CPUが、ROMに格納される画像処理プログラムを実行することで
図1の機能ブロックを実現する。また、画像処理プログラムはインストールされるものであっても良く、その場合でも、画像処理装置200が実現すると
図1の処理が実現される。
【0025】
図1において、画像処理装置200は、画像入力部201、輝度色味顕著性算出部202、時間方向顕著性算出部203、蓄積部204、加算部205、データ処理部206、領域分割部207、動き探索部208、動き顕著性算出部209を有する。なお、領域分割部207、動き探索部208及び動き顕著性算出部209を含む構成を動き顕著性成分生成部210ともいう。
【0026】
画像入力部201は、入力された入力画像を、輝度色味顕著性算出部202、時間方向顕著性算出部203、蓄積部204及び領域分割部207のそれぞれに与えるものである。画像入力部201がキャプチャーする画像は、動画像を構成する画像を想定する。
【0027】
輝度色味顕著性算出部202は、画像入力部201からの入力画像の輝度色味顕著性値を求め、求めた輝度色味顕著性値を加算部205に与えるものである。つまり、輝度色味顕著性算出部202は、今回入力された入力画像、例えば時刻tに入力された入力画像の顕著性マップを算出するものである。
【0028】
輝度色味顕著性算出部202による輝度色味顕著性値の算出方法は、様々な方法を広く適用することができるが、例えば非特許文献1に記載のIttiらの顕著性マップの算出方法を適用することができる。
【0029】
例えば、輝度色味顕著性算出部202は、画像入力部201からの入力画像について、原画像から段階的に縮小された複数の画像(スケール画像)を用意する。輝度色味顕著性算出部202は、各スケール画像のそれぞれについて、輝度(Intensity)、色相成分(Color Channel)、方向成分(Orientation)を画素(ピクセル)毎に求め、各スケール画像間で、輝度、色相成分、方向成分の差分を取ることで、輝度、色相成分、方向成分のそれぞれの顕著性値を求める。これらの顕著性値を輝度色味顕著性値という。
【0030】
時間方向顕著性算出部203は、画像入力部201からの入力画像と、蓄積部204に所定時間だけ蓄積された過去の画像とに基づいて、時間的に変化した画像中の顕著性値を求めるものである。時間方向顕著性算出部203は、入力画像について各画素の顕著性値と、過去の画像の各画素の顕著性値との差分を取ることで、時間的に変化する顕著性を求める。この時間的に変化する顕著性を時間変化顕著値という。
【0031】
時間方向顕著性算出部203による時間方向顕著性値は、様々な方法を広く適用することができるが、例えば非特許文献2に記載のGuoらの顕著性算出方法を適用することができる。
【0032】
なお、時間方向顕著性算出部203には、蓄積部204から所定時間だけ蓄積された画像が入力されるが、遅延時間が経過するまで、すなわち蓄積部204から過去の画像が与えられるまでは、時間方向顕著性値は全て「0」とする。
【0033】
蓄積部204は、画像入力部201からの入力画像を、所定時間だけ蓄積するものである。蓄積部204は、所定時間の蓄積後、蓄積順序に従って蓄積された画像を時間方向顕著性算出部203に与える。つまり、所定時間だけ蓄積された過去の画像が時間方向顕著性算出部203に与えられる。
【0034】
動き顕著性成分生成部210は、画像入力部201からの入力画像と、蓄積部204に蓄積される過去の入力画像とに基づいて、画像中のオブジェクト(対象)の動きの顕著性成分を生成するものである。
【0035】
また、上述したように、動き顕著性成分生成部210は、領域分割部207、動き探索部208、動き顕著性算出部209を有する。
【0036】
領域分割部207は、画像入力部201からの入力画像を所定の領域に分割するものである。領域分割部207は、後述する動き探索部208による動き探索を行うため、入力画像を複数の領域に分割する。ここで、領域分割部207による画像領域の分割方法は、例えば、所定画素数(例えば16×16画素)を1領域として入力画像を分割する。勿論、分割する1領域は、16×16画素に限定されるものではなく、例えば4×4画素や8×8画素等を1領域としても良い。また例えば、正方形以外の形状(例えば矩形形状等)を1領域として分割しても良い。
【0037】
動き探索部208は、領域分割部207により分割された領域分割情報と、入力画像とを領域分割部207から取得する。また、動き探索部208は、今回の入力画像と蓄積部204に蓄積される過去の入力画像とに基づいて、動き探索を行い、入力画像の各領域の動きベクトル情報を求めるものである。さらに、動き探索部208は、入力画像の領域分割情報と、各領域の動きベクトル情報を動き顕著性算出部209に与える。
【0038】
動き顕著性算出部209は、動き探索部208から入力画像の領域分割情報と各領域の動きベクトル情報とを受け取り、各分割領域の動き顕著性値を求めて、加算部205に与えるものである。つまり、動き顕著性算出部209は、対象領域とその周辺領域の動きベクトルの差分量を求める。これにより、対象領域の動きベクトルと周辺領域の動きベクトルの差分量の総和を動き顕著性値として出力することができる。
【0039】
加算部205は、上記顕著性算出手段による上記顕著性値と、上記時間変化顕著性値と、上記動き顕著性値とに基づいて、動画像におけるオブジェクトの動きを反映させた統合顕著性値を求めるものである。
【0040】
つまり、加算部205は、輝度色味顕著性算出部202からの輝度色味顕著性値と、時間方向顕著性算出部203からの時間方向顕著性値と、動き顕著性算出部209からの動き顕著性値とに対して所定の重み係数を付与して、各顕著性値の成分を加算して統合顕著性値を求めるものである。
【0041】
データ処理部206は、加算部205により求められた統合顕著性値を用いて、所定のデータ処理を行うものである。データ処理部206のデータ処理の内容は、動画像の顕著性値を利用した処理であれば特に限定されるものではない。
【0042】
(A−2)実施形態の動作
次に、この実施形態の画像処理装置200による動画像の顕著性値を算出する処理の動作を説明する。
【0043】
図1において、画像入力部201に動画像としての1フレームの画像が入力されると、入力画像は、輝度色味顕著性算出部202、時間方向顕著性算出部203、蓄積部204及び領域分割部207に入力される。
【0044】
輝度色味顕著性算出部202は、入力画像に基づいて、輝度及び色味に関する顕著性値が算出され、その算出された顕著性値が加算部205に与えられる。
【0045】
輝度色味顕著性算出部202は、例えば、非特許文献1に記載の技術により輝度及び色味に関する顕著性値を算出する。
【0046】
例えば、輝度色味顕著性算出部202は、画像入力部201からの入力画像について、原画像から段階的に縮小された複数の画像(スケール画像)を生成する。輝度色味顕著性算出部202は、各スケール画像のそれぞれについて、特徴量としての、輝度(Intensity)、色相成分(Color Channel)、方向成分(Orientation)を求め、各スケール画像間で、輝度、色相成分、方向成分の差分を取ることで、輝度、色相成分、方向成分のそれぞれの顕著性値を求める。
【0047】
例えば、σ番目のスケール画像のRGB成分を、赤成分r(σ)、緑成分g(σ)、青成分b(σ)とすると、輝度色味顕著性算出部202は、σ番目のスケール画像に対する各ピクセルの輝度I(σ)を以下の式(1)のように計算する。
【0048】
I(σ)={r(σ)+g(σ)+b(σ)}/3 …(1)
そして、輝度色味顕著性算出部202は、各スケール画像間の輝度の差分を求める。このとき、各スケール画像の大きさはバラバラなので、輝度色味顕著性算出部202は、サイズの小さい側を大きい側に合わせて伸張させた上でピクセル毎に差分を求める。サイズの大きい側は、中心(Center)の画素、サイズの小さい側は中心の画素とその周辺(Surround)の画素を含む平均を表す。輝度色味顕著性算出部202は、輝度に対する差異I(c,s)=|I(c)−I(s)|で求めることができる。
【0049】
次に、輝度色味顕著性算出部202は、色彩に対する輝度の影響を除外するため、RGB各成分を輝度で正規化する。正規化したRGB成分を使用して、色相成分として、赤R(σ)、緑G(σ)、青B(σ)、黄Y(σ)の各値を求める。
【数1】
【0050】
輝度色味顕著性算出部202は、上記式(2)により、色相成分の各値が負数になった場合、その値をゼロとする。
【0051】
輝度色味顕著性算出部202は、ある中心部分の色相は周辺部分の色相によって抑制されるので、色相の組み合わせとしては、赤と緑、青と黄がある。従って、輝度色味顕著性算出部202は、赤と緑(又は青と黄)の差異について中央部と周辺部の差を求めることで色相成分の顕著性を取得する。
【0052】
RB(c,s)=|{R(c)−G(c)}−{G(s)−R(s)}|…(3)
BY(c,s)=|{B(c)−Y(c)}−{Y(s)−B(s)}|…(4)
次に、輝度色味顕著性算出部202は、例えばガウスフィルタ(例えばカボールフィルタ等)を用いて、回転角θ=0°、45°、90°、135°の4方向に対して畳み込み積分を行う。輝度色味顕著性算出部202は、方向性のCenter−Surroundスケール間の差分が方向性コントラストO(c,s,θ)を求める。
【0053】
なお、輝度色味顕著性算出部202による輝度色味顕著性値の算出方法については、非特許文献1の記載技術を参照することができる。
【0054】
時間方向顕著性算出部203は、画像入力部201からの入力画像と、所定時間だけ蓄積された過去の画像とに基づいて、時間的に変化した画像の顕著性を求める。
【0055】
時間方向顕著性算出部203は、例えば、非特許文献2に記載の技術により時間的に変化する時間方向顕著性値を算出する。つまり、時間方向顕著性算出部203は、動画像を構成するある画像フレームの顕著性値と、所定時間だけ蓄積された画像フレームの顕著性値とを比較して、時間的に変化する時間方向顕著性値を求める。
【0056】
例えば、時間方向顕著性算出部203は、時刻tの入力画像のRGB成分を、赤成分r(t)、緑成分g(t)、青成分b(t)とすると、時刻tの入力画像の各ピクセルの輝度I(t)を以下のように計算する。
【0057】
I(t)={r(t)+g(t)+b(t)}/3 …(5)
M(t)=|I(t)−I(t−τ)| …(6)
ここで、τは遅延時間を示す。式(6)は、時刻tにキャプチャーした入力画像と、蓄積部204に蓄積されている所定時間だけ過去の入力画像との輝度の差分量である。
【0058】
また、時間方向顕著性算出部203は、遅延に応じた過去の入力画像が存在しない場合は、時間方向顕著性は全て「0」として扱う。
【0059】
なお、時間方向顕著性算出部203による時間変化に応じた時間変化顕著性値の算出方法については、非特許文献2の記載技術を参照することができる。
【0060】
領域分割部207は、画像入力部201から入力された画像フレームを、予め定められた方法で複数の領域に分割する。領域分割部207は、例えば16×16ピクセルを1領域とし、画像フレームを複数の領域に分割する。
【0061】
動き探索部208は、領域分割部207により分割された領域分割情報を取得する。また、動き探索部208は、入力画像のフレームと蓄積部204に蓄積される所定時間だけの過去の画像フレームとに基づいて、入力画像のフレームの各領域に対して動き探索を行い、各領域の動きベクトルを求める。
【0062】
動き探索部208は、入力画像のフレームの各領域の動きベクトルを求めることにある。つまり、動き探索部208は、蓄積部204に所定時間だけ蓄積された過去の入力画像のフレームを参照フレームとして、今回の入力画像のフレームの各領域の動き探索を行い、各領域の動きベクトルを求める。
【0063】
ここで、動き探索部208による動き探索の方法は、種々の方法を広く適用することができる。例えば、画像の検索範囲を順番に全て検索する「全検索方法」、対象の存在確率が高い場所から螺旋状に範囲を広げながら検索する「スパイラル検索方法」、画面における初期検索位置を中心としてコストを評価して、そのコストが最小となるまで検索する「ダイヤモンド検索方法」、ダイヤモンド検索方法での初期検索位置とする候補を補正した「MVFAST方法(Motion Vector Field Adaptive Serch Technique)」、MVFAST方法を拡張した「PMVFAST」、動きベクトルのビット量に基づいて検索する「MVビット量方法」、レート歪「RD(Rate Distortion)理論法」等を広く適用することができる。また、動き探索の方法は、上記に挙げたものに限定されるものではなく、上記の方法の拡張方法や組み合わせた方法等も適用できる。
【0064】
動き顕著性算出部209は、入力された画像フレームの各領域の動き顕著性値を算出する。
【0065】
例えば、i行j列の領域に対する動き顕著性Sv(j、i)は、下記式(7)で算出する。
【数2】
【0066】
ここで、||・||は、ベクトルのユークリッドノルムとする。また、V(j,i)は、i行j列の領域に対する動きベクトルとする。
【0067】
式(7)は、対象領域(i行j列の領域)と、その対象領域の上下左右に隣接する領域を周辺領域として、対象領域の動きベクトルと、各周辺領域の動きベクトルの差分量の総和を動き顕著性値とするものである。
【0068】
つまり、動き顕著性算出部209によれば、画像中のオブジェクトの動きの量を考慮した顕著性の成分を求めることができる。これにより、あるオブジェクトが類似色であっても、そのオブジェクトの動きを反映させることができるので、動画像の顕著性値の精度を向上させることができる。
【0069】
なお、ここでは、周辺領域は、対象領域の上下左右に隣接する4個の領域とする場合を例示するが、対象領域の斜め方向に存在する他の4個の領域の全部又は一部を含むようにしてもよい。
【0070】
また、周辺領域は、対象領域に隣接する領域と対象領域に隣接しない領域とを含むものとしてもよいし、又は対象領域に隣接しない領域としてもよい。対象領域に隣接しない領域を含むものを周辺領域とする場合、対象領域の動き顕著性値は、対象領域から離れた領域の動きベクトルとの間の差分量を求めることになるため、例えば画像中において、オブジェクトが占める画像領域が広い場合(すなわちオブジェクト画像が大きい場合)に有効である。
【0071】
さらに、式(7)では、ユークリッドノルムの2乗和で動き顕著性値を求める場合を例示したが、ユークリッドノルムの和であってもよい。
【0072】
また、周辺領域が対象領域に隣接しない領域とする場合、対象領域と周辺領域との間の距離に反比例する重み係数を用いるようにしてもよい。これにより、例えば、対象領域の動きベクトルと、対象領域から比較的離れた領域の動きベクトルとの差分量の寄与度を小さくすることができる。
【0073】
さらに、対象領域と周辺領域との間の距離が、予め定められた閾値より大きい場合、その差分量に乗じる重み係数を「0」とするようにしてもよい。これにより、対象領域の動きベクトルと、対象領域から閾値以上離れた領域の動きベクトルとの差分量を削除することができる。
【0074】
動き顕著性算出部209は、入力された画像フレームの各領域について、式(7)に従って動き顕著性値Sv(j,i)を求めて、加算部205に与える。
【0075】
加算部205は、輝度色味顕著性算出部202からの輝度色味顕著性値と、時間方向顕著性値算出部203からの時間方向顕著性値と、動き顕著性算出部209からの動き顕著性値とを受け取り、予め定められた重み係数を各顕著性値に乗じて、重み係数を乗じた後の各顕著性値の成分を加算して統合顕著性値を求める。
【0076】
これにより、画像におけるオブジェクトの動きを反映させた顕著性を得ることができる。
【0077】
データ処理部206は、加算部205からの統合顕著性値を用いて所定のデータ処理を行う。
【0078】
(A−3)実施形態の効果
以上のように、この実施形態によれば、従来の時間的に変化する顕著性値に、さらに、周辺領域と異なる動きをしている領域に対して、その領域の動きの量に応じた顕著性値を上乗せすることにより、顕著性値の精度を向上させることができる。
【0079】
(B)他の実施形態
上述した実施形態でも、本発明の種々の変形実施形態を説明したが、以下の他の変形実施形態も本発明は適用することができる。
【0080】
上述した実施形態において、輝度及び色味に関する顕著性値の算出方法は、非特許文献1に記載の方法を適用するものとしたが、非特許文献1の記載技術に限定されるものではなく、拡張方式等を広く適用することができる。また、上述した実施形態において、時間変化顕著性値の算出方法は、非特許文献2に記載の方法を適用するものとしたが、これに限定されるものではない。
【0081】
また、上述した実施形態では、色味に関する顕著性成分の一例として色相成分とする場合を例示したが、明度や彩度に関する顕著性を用いるようにしてもよい。
【0082】
上述した実施形態において、加算部は、各顕著性値に対して正規化処理を行うようにしてもよい。例えば、顕著性マップ上の値が所定の範囲に属するように正規化するようにしてもよいし、顕著性マップ上の最大値を検出し、その最大値近い値が周辺に存在する場合には、それらの値を平均化するようにしてもよい。また、顕著性マップ上の全てに値に所定値を掛けて正規化するようにしてもよい。
【0083】
上述した実施形態におけるデータ処理部は、統合顕著値を利用した様々なデータ処理に適用することができる。例えば、画像中におけるオブジェクト領域と、それ以外の領域とを分離する処理や、ナビゲーションシステムにおける画像処理や、ゲーム機における画像処理や、ビデオカメラ等による動画像処理等に広く適用できる。