(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024032022
(43)【公開日】2024-03-08
(54)【発明の名称】視認負荷量推定装置
(51)【国際特許分類】
G06V 10/62 20220101AFI20240301BHJP
G06T 7/246 20170101ALI20240301BHJP
G06V 10/46 20220101ALI20240301BHJP
A61B 5/11 20060101ALI20240301BHJP
【FI】
G06V10/62
G06T7/246
G06V10/46
A61B5/11
【審査請求】有
【請求項の数】1
【出願形態】OL
(21)【出願番号】P 2023210953
(22)【出願日】2023-12-14
(62)【分割の表示】P 2019205194の分割
【原出願日】2019-11-13
(71)【出願人】
【識別番号】000005016
【氏名又は名称】パイオニア株式会社
(74)【代理人】
【識別番号】100134832
【弁理士】
【氏名又は名称】瀧野 文雄
(74)【代理人】
【識別番号】100165308
【弁理士】
【氏名又は名称】津田 俊明
(74)【代理人】
【識別番号】100115048
【弁理士】
【氏名又は名称】福田 康弘
(72)【発明者】
【氏名】井上 俊明
(57)【要約】
【課題】視覚的に負荷を感じる部分を自動的に抽出する。
【解決手段】視認負荷量推定装置1は、視覚顕著性抽出手段3で車両から外部を連続的に撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップを画像ごとに生成し、視認負荷量推定手段4で生成された視覚顕著性マップに基づいて注視点の移動量を算出する。そして、算出された推定注視点の移動量の時間的推移に基づいて視認負荷量を推定する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
移動体から外部を連続的に撮像した画像における視覚顕著性分布情報に基づいて推定注視点の移動量を算出する算出部と、
算出された前記推定注視点の移動量の時間的推移に基づいて視認負荷量を推定する推定部と、
を備えることを特徴とする視認負荷量推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、移動体から外部を撮像した画像に基づいて視認負荷量を推定する視認負荷量推定装置に関する。
【背景技術】
【0002】
特許文献1には、走行環境がどの程度目が疲れやすい状況であるかを自車両の進行方向を撮像した画像から推定するために、自車両の進行方向における撮像画像を取得し、撮像画像中において、運転者が生理的に注視してしまう位置を推定し、撮像画像中において、運転者が自車両を運転する際に視認すべき位置を推定し、注視してしまう位置と視認すべき位置との位置関係に基づいて、視認負荷量を推定することが記載されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、視覚的に負荷を感じるのは、特許文献1に記載された、視認すべき位置と生理的に注視してしまう度合いとのギャップに限らない。例えば、視線の推移が大きくなるような場面も視覚的に負荷を感じることがあるが、特許文献1では、このような場面は考慮されていない。
【0005】
本発明が解決しようとする課題としては、視覚的に負荷を感じる部分を自動的に抽出することが一例として挙げられる。
【課題を解決するための手段】
【0006】
上記課題を解決するために、請求項1に記載の発明は、移動体から外部を連続的に撮像した画像における視覚顕著性分布情報に基づいて推定注視点の移動量を算出する算出部と、算出された前記推定注視点の移動量の時間的推移に基づいて視認負荷量を推定する推定部と、を備えることを特徴としている。
【図面の簡単な説明】
【0007】
【
図1】本発明の一実施例にかかる視認負荷量推定装置の機能構成図である。
【
図2】
図1に示された視覚顕著性抽出手段の構成を例示するブロック図である。
【
図3】(a)は判定装置へ入力する画像を例示する図であり、(b)は(a)に対し推定される、視覚顕著性マップを例示する図である。
【
図4】
図1に示された視覚顕著性抽出手段の処理方法を例示するフローチャートである。
【
図5】非線形写像部の構成を詳しく例示する図である。
【
図7】(a)および(b)はそれぞれ、フィルタで行われる畳み込み処理の例を示す図である。
【
図8】(a)は、第1のプーリング部の処理を説明するための図であり、(b)は、第2のプーリング部の処理を説明するための図であり、(c)は、アンプーリング部の処理を説明するための図である。
【
図9】
図1に示された視認負荷量推定手段の機能構成図である。
【
図10】
図9に示された視認負荷量推定手段における各機能の動作を示した波形図である。
【
図11】
図1に示された視認負荷量推定装置の動作のフローチャートである。
【発明を実施するための形態】
【0008】
以下、本発明の一実施形態にかかる視認負荷量推定装置を説明する。本発明の一実施形態にかかる視認負荷量推定装置は、生成部で移動体から外部を連続的に撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性分布情報を前記画像ごとに生成し、算出部で生成された視覚顕著性分布情報に基づいて推定注視点の移動量を算出する。そして、推定部で算出された推定注視点の移動量の時間的推移に基づいて視認負荷量を推定する。このようにすることにより、推定注視点の移動量の時間的推移に基づくことから視線の推移が大きくなるような場面を推定することができる。したがって、視覚的に負荷を感じる部分を自動的に抽出することができる。
【0009】
また、算出部は、推定注視点を、視覚顕著性分布情報において視覚顕著性が最大値となる画像上の位置と推定して移動量の算出をしてもよい。このようにすることにより、最も視認すると推定される位置に基づいて移動量を算出することができる。
【0010】
また、推定部は、推定注視点の移動量を複数の基底成分に分解し、分解された基底成分に基づいて視認負荷量を算出してもよい。このようにすることにより、経験モード分解(EMD;Empirical Mode Decomposition)といったアルゴリズムを利用することができるようになる。
【0011】
また、生成部は、画像を写像処理可能な中間データに変換する入力部と、中間データを写像データに変換する非線形写像部と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、非線形写像部は、中間データに対し特徴の抽出を行う特徴抽出部と、特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備えてもよい。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。
【0012】
また、推定部における推定結果を提示する提示部を備えてもよい。このようにすることにより、例えば視認負荷量の多い地点が接近することを通知することが可能となる。
【0013】
また、本発明の一実施形態にかかる視認負荷量推定方法は、生成工程で移動体から外部を連続的に撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性分布情報を前記画像ごとに生成し、算出工程で生成された視覚顕著性分布情報に基づいて推定注視点の移動量を算出する。そして、推定工程で算出された推定注視点の移動量の時間的推移に基づいて視認負荷量を推定する。このようにすることにより、推定注視点の移動量の時間的推移に基づくことから視線の推移が大きくなるような位置を推定することができる。したがって、視覚的に負荷を感じる部分を自動的に抽出することができる。
【0014】
また、上述した視認負荷量推定方法を、コンピュータにより実行させている。このようにすることにより、コンピュータを用いて、推定注視点の移動量の時間的推移に基づくことから視線の推移が大きくなるような位置を推定することができる。したがって、視覚的に負荷を感じる部分を自動的に抽出することができる。
【0015】
また、上述した視認負荷量推定プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。
【実施例0016】
本発明の一実施例にかかる視認負荷量推定装置を
図1~
図11を参照して説明する。本実施例にかかる視認負荷量推定装置は、例えば自動車等の移動体に設置されるに限らず、事業所等に設置されるサーバ装置等で構成してもよい。即ち、リアルタイムに解析する必要はなく、走行後等に解析を行ってもよい。
【0017】
図1に示したように、視認負荷量推定装置1は、入力手段2と、視覚顕著性抽出手段3と、視認負荷量推定手段4と、情報提示手段5と、を備えている。
【0018】
入力手段2は、例えばカメラなどで撮像された画像(動画像)が入力され、その画像を画像データとして出力する。なお、入力された動画像は、例えばフレーム毎等の時系列に分解された画像データとして出力する。入力手段2に入力される画像として静止画を入力してもよいが、時系列に沿った複数の静止画からなる画像群として入力するのが好ましい。
【0019】
入力手段2に入力される画像は、例えば車両の進行方向が撮像された画像が挙げられる。つまり、移動体から外部を連続的に撮像した画像とする。この画像はいわゆるパノラマ画像等の水平方向に180°や360°等進行方向以外が含まれる画像であってもよい。また、入力手段2には入力されるのは、カメラで撮像された画像に限らず、ハードディスクドライブやメモリカード等の記録媒体から読み出した画像であってもよい。
【0020】
視覚顕著性抽出手段3は、入力手段2から画像データが入力され、後述する視覚顕著性推定情報として視覚顕著性マップを出力する。即ち、視覚顕著性抽出手段3は、移動体から外部を撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップ(視覚顕著性分布情報)を生成する生成部として機能する。
【0021】
図2は、視覚顕著性抽出手段3の構成を例示するブロック図である。本実施例に係る視覚顕著性抽出手段3は、入力部310、非線形写像部320、出力部330および記憶部390を備える。入力部310は、画像を写像処理可能な中間データに変換する。非線形写像部320は、中間データを写像データに変換する。出力部330は、写像データに基づき顕著性分布を示す顕著性推定情報を生成する。そして、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322とを備える。記憶部390は、入力手段2から入力された画像データや後述するフィルタの係数等が保持されている。以下に詳しく説明する。
【0022】
図3(a)は、視覚顕著性抽出手段3へ入力する画像を例示する図であり、
図3(b)は、
図3(a)に対し推定される、視覚顕著性分布を示す画像を例示する図である。本実施例に係る視覚顕著性抽出手段3は、画像における各部分の視覚顕著性を推定する装置である。視覚顕著性とは例えば、目立ちやすさや視線の集まりやすさを意味する。具体的には視覚顕著性は、確率等で示される。ここで、確率の大小は、たとえばその画像を見た人の視線がその位置に向く確率の大小に対応する。
【0023】
図3(a)と
図3(b)とは、互いに位置が対応している。そして、
図3(a)において、視覚顕著性が高い位置ほど、
図3(b)において輝度が高く表示されている。
図3(b)のような視覚顕著性分布を示す画像は、出力部330が出力する視覚顕著性マップの一例である。本図の例において、視覚顕著性は、256階調の輝度値で可視化されている。出力部330が出力する視覚顕著性マップの例については詳しく後述する。
【0024】
図4は、本実施例に係る視覚顕著性抽出手段3の動作を例示するフローチャートである。
図4に示したフローチャートは、コンピュータによって実行される視認負荷量推定方法の一部であって、入力ステップS110、非線形写像ステップS120、および出力ステップS130を含む。入力ステップS110では、画像が写像処理可能な中間データに変換される。非線形写像ステップS120では、中間データが写像データに変換される。出力ステップS130では、写像データに基づき顕著性分布を示す視覚顕著性推定情報が生成される。ここで、非線形写像ステップS120は、中間データに対し特徴の抽出を行う特徴抽出ステップS121と、特徴抽出ステップS121で生成されたデータのアップサンプルを行うアップサンプルステップS122とを含む。
【0025】
図2に戻り、視覚顕著性抽出手段3の各構成要素について説明する。入力ステップS110において入力部310は、画像を取得し、中間データに変換する。入力部310は、画像データを入力手段2から取得する。そして入力部310は、取得した画像を中間データに変換する。中間データは非線形写像部320が受け付け可能なデータであれば特に限定されないが、たとえば高次元テンソルである。また、中間データはたとえば、取得した画像に対し輝度を正規化したデータ、または、取得した画像の各画素を、輝度の傾きに変換したデータである。入力ステップS110において入力部310は、さらに画像のノイズ除去や解像度変換等を行っても良い。
【0026】
非線形写像ステップS120において、非線形写像部320は入力部310から中間データを取得する。そして、非線形写像部320において中間データが写像データに変換される。ここで、写像データは例えば高次元テンソルである。非線形写像部320で中間データに施される写像処理は、たとえばパラメータ等により制御可能な写像処理であり、関数、汎関数、またはニューラルネットワークによる処理であることが好ましい。
【0027】
図5は、非線形写像部320の構成を詳しく例示する図であり、
図6は、中間層323の構成を例示する図である。上記した通り、非線形写像部320は、特徴抽出部321およびアップサンプル部322を備える。特徴抽出部321において特徴抽出ステップS121が行われ、アップサンプル部322においてアップサンプルステップS122が行われる。また、本図の例において、特徴抽出部321およびアップサンプル部322の少なくとも一方は、複数の中間層323を含むニューラルネットワークを含んで構成される。ニューラルネットワークにおいては、複数の中間層323が結合されている。
【0028】
特にニューラルネットワークは畳み込みニューラルネットワークであることが好ましい。具体的には、複数の中間層323のそれぞれは、一または二以上の畳み込み層324を含む。そして、畳み込み層324では、入力されたデータに対し複数のフィルタ325による畳み込みが行われ、複数のフィルタ325の出力に対し活性化処理が施される。
【0029】
図5の例において、特徴抽出部321は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間に第1のプーリング部326を備える。また、アップサンプル部322は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間にアンプーリング部328を備える。さらに、特徴抽出部321とアップサンプル部322とは、オーバーラッププーリングを行う第2のプーリング部327を介して互いに接続されている。
【0030】
なお、本図の例において各中間層323は、二以上の畳み込み層324からなる。ただし、少なくとも一部の中間層323は、一の畳み込み層324のみからなってもよい。互いに隣り合う中間層323は、第1のプーリング部326、第2のプーリング部327およびアンプーリング部328のいずれかで区切られる。ここで、中間層323に二以上の畳み込み層324が含まれる場合、それらの畳み込み層324におけるフィルタ325の数は互いに等しいことが好ましい。
【0031】
本図では、「A×B」と記された中間層323は、B個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対しA個の畳み込みフィルタを含むことを意味している。このような中間層323を以下では「A×B中間層」とも呼ぶ。たとえば、64×2中間層323は、2個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対し64個の畳み込みフィルタを含むことを意味している。
【0032】
本図の例において、特徴抽出部321は、64×2中間層323、128×2中間層323、256×3中間層323、および、512×3中間層323をこの順に含む。また、アップサンプル部322は、512×3中間層323、256×3中間層323、128×2中間層323、および64×2中間層323をこの順に含む。また、第2のプーリング部327は、2つの512×3中間層323を互いに接続している。なお、非線形写像部320を構成する中間層323の数は特に限定されず、たとえば画像データの画素数に応じて定めることができる。
【0033】
なお、本図は非線形写像部320の構成の一例であり、非線形写像部320は他の構成を有していても良い。たとえば、64×2中間層323の代わりに64×1中間層323が含まれても良い。中間層323に含まれる畳み込み層324の数が削減されることで、計算コストがより低減される可能性がある。また、たとえば、64×2中間層323の代わりに32×2中間層323が含まれても良い。中間層323のチャネル数が削減されることで、計算コストがより低減される可能性がある。さらに、中間層323における畳み込み層324の数とチャネル数との両方を削減しても良い。
【0034】
ここで、特徴抽出部321に含まれる複数の中間層323においては、第1のプーリング部326を経る毎にフィルタ325の数が増加することが好ましい。具体的には、第1の中間層323aと第2の中間層323bとが、第1のプーリング部326を介して互いに連続しており、第1の中間層323aの後段に第2の中間層323bが位置する。そして、第1の中間層323aは、各チャネルに対するフィルタ325の数がN1である畳み込み層324で構成されており、第2の中間層323bは、各チャネルに対するフィルタ325の数がN2である畳み込み層324で構成されている。このとき、N2>N1が成り立つことが好ましい。また、N2=N1×2が成り立つことがより好ましい。
【0035】
また、アップサンプル部322に含まれる複数の中間層323においては、アンプーリング部328を経る毎にフィルタ325の数が減少することが好ましい。具体的には、第3の中間層323cと第4の中間層323dとが、アンプーリング部328を介して互いに連続しており、第3の中間層323cの後段に第4の中間層323dが位置する。そして、第3の中間層323cは、各チャネルに対するフィルタ325の数がN3である畳み込み層324で構成されており、第4の中間層323dは、各チャネルに対するフィルタ325の数がN4である畳み込み層324で構成されている。このとき、N4<N3が成り立つことが好ましい。また、N3=N4×2が成り立つことがより好ましい。
【0036】
特徴抽出部321では、入力部310から取得した中間データから勾配や形状など、複数の抽象度を持つ画像特徴を中間層323のチャネルとして抽出する。
図6は、64×2中間層323の構成を例示している。本図を参照して、中間層323における処理を説明する。本図の例において、中間層323は第1の畳み込み層324aと第2の畳み込み層324bとで構成されており、各畳み込み層324は64個のフィルタ325を備える。第1の畳み込み層324aでは、中間層323に入力されたデータの各チャネルに対して、フィルタ325を用いた畳み込み処理が施される。たとえば入力部310へ入力された画像がRGB画像である場合、3つのチャネルh0i(i=1..3)のそれぞれに対して処理が施される。また、本図の例において、フィルタ325は64種の3×3フィルタであり、すなわち合計64×3種のフィルタである。畳み込み処理の結果、各チャネルiに対して、64個の結果h0i,j(i=1..3,j=1..64)が得られる。
【0037】
次に、複数のフィルタ325の出力に対し、活性化部329において活性化処理が行われる。具体的には、全チャネルの対応する結果jについて、対応する要素毎の総和に活性化処理が施される。この活性化処理により、64チャネルの結果h1i(i=1..64)、すなわち、第1の畳み込み層324aの出力が、画像特徴として得られる。活性化処理は特に限定されないが、双曲関数、シグモイド関数、および正規化線形関数の少なくともいずれかを用いる処理が好ましい。
【0038】
さらに、第1の畳み込み層324aの出力データを第2の畳み込み層324bの入力データとし、第2の畳み込み層324bにて第1の畳み込み層324aと同様の処理を行って、64チャネルの結果h2i(i=1..64)、すなわち第2の畳み込み層324bの出力が、画像特徴として得られる。第2の畳み込み層324bの出力がこの64×2中間層323の出力データとなる。
【0039】
ここで、フィルタ325の構造は特に限定されないが、3×3の二次元フィルタであることが好ましい。また、各フィルタ325の係数は独立に設定可能である。本実施例において、各フィルタ325の係数は記憶部390に保持されており、非線形写像部320がそれを読み出して処理に用いることができる。ここで、複数のフィルタ325の係数は機械学習を用いて生成、修正された補正情報に基づいて定められてもよい。たとえば、補正情報は、複数のフィルタ325の係数を、複数の補正パラメータとして含む。非線形写像部320は、この補正情報をさらに用いて中間データを写像データに変換することができる。記憶部390は視覚顕著性抽出手段3に備えられていてもよいし、視覚顕著性抽出手段3の外部に設けられていてもよい。また、非線形写像部320は補正情報を、通信ネットワークを介して外部から取得しても良い。
【0040】
図7(a)および
図7(b)はそれぞれ、フィルタ325で行われる畳み込み処理の例を示す図である。
図7(a)および
図7(b)では、いずれも3×3畳み込みの例が示されている。
図7(a)の例は、最近接要素を用いた畳み込み処理である。
図7(b)の例は、距離が二以上の近接要素を用いた畳み込み処理である。なお、距離が三以上の近接要素を用いた畳み込み処理も可能である。フィルタ325は、距離が二以上の近接要素を用いた畳み込み処理を行うことが好ましい。より広範囲の特徴を抽出することができ、視覚顕著性の推定精度をさらに高めることができるからである。
【0041】
以上、64×2中間層323の動作について説明した。他の中間層323(128×2中間層323、256×3中間層323、および、512×3中間層323等)の動作についても、畳み込み層324の数およびチャネルの数を除いて、64×2中間層323の動作と同じである。また、特徴抽出部321における中間層323の動作も、アップサンプル部322における中間層323の動作も上記と同様である。
【0042】
図8(a)は、第1のプーリング部326の処理を説明するための図であり、
図8(b)は、第2のプーリング部327の処理を説明するための図であり、
図8(c)は、アンプーリング部328の処理を説明するための図である。
【0043】
特徴抽出部321において、中間層323から出力されたデータは、第1のプーリング部326においてチャネル毎にプーリング処理が施された後、次の中間層323に入力される。第1のプーリング部326ではたとえば、非オーバーラップのプーリング処理が行われる。
図8(a)では、各チャネルに含まれる要素群に対し、2×2の4つの要素30を1つの要素30に対応づける処理を示している。第1のプーリング部326ではこのような対応づけが全ての要素30に対し行われる。ここで、2×2の4つの要素30は互いに重ならないよう選択される。本例では、各チャネルの要素数が4分の1に縮小される。なお、第1のプーリング部326において要素数が縮小される限り、対応づける前後の要素30の数は特に限定されない。
【0044】
特徴抽出部321から出力されたデータは、第2のプーリング部327を介してアップサンプル部322に入力される。第2のプーリング部327では、特徴抽出部321からの出力データに対し、オーバーラッププーリングが施される。
図8(b)では、一部の要素30をオーバーラップさせながら、2×2の4つの要素30を1つの要素30に対応づける処理を示している。すなわち、繰り返される対応づけにおいて、ある対応づけにおける2×2の4つの要素30のうち一部が、次の対応づけにおける2×2の4つの要素30にも含まれる。本図のような第2のプーリング部327では要素数は縮小されない。なお、第2のプーリング部327において対応づける前後の要素30の数は特に限定されない。
【0045】
第1のプーリング部326および第2のプーリング部327で行われる各処理の方法は特に限定されないが、たとえば、4つの要素30の最大値を1つの要素30とする対応づけ(max pooling)や4つの要素30の平均値を1つの要素30とする対応づけ(average pooling)が挙げられる。
【0046】
第2のプーリング部327から出力されたデータは、アップサンプル部322における中間層323に入力される。そして、アップサンプル部322の中間層323からの出力データはアンプーリング部328においてチャネル毎にアンプーリング処理が施された後、次の中間層323に入力される。
図8(c)では、1つの要素30を複数の要素30に拡大する処理を示している。拡大の方法は特に限定されないが、1つの要素30を2×2の4つの要素30へ複製する方法が例として挙げられる。
【0047】
アップサンプル部322の最後の中間層323の出力データは写像データとして非線形写像部320から出力され、出力部330に入力される。出力ステップS130において出力部330は、非線形写像部320から取得したデータに対し、たとえば正規化や解像度変換等を行うことで視覚顕著性マップを生成し、出力する。視覚顕著性マップはたとえば、
図3(b)に例示したような視覚顕著性を輝度値で可視化した画像(画像データ)である。また、視覚顕著性マップはたとえば、ヒートマップのように視覚顕著性に応じて色分けされた画像であっても良いし、視覚顕著性が予め定められた基準より高い視覚顕著領域を、その他の位置とは識別可能にマーキングした画像であっても良い。さらに、視覚顕著性推定情報は画像等として示されたマップ情報に限定されず、視覚顕著領域を示す情報を列挙したテーブル等であっても良い。
【0048】
視認負荷量推定手段4は、視覚顕著性抽出手段3が出力した視覚顕著性マップに基づいて視認負荷量推定を推定する。視認負荷量推定手段4で推定された結果である視認負荷量は、例えばスカラ量またはベクトル量であってもよい。あるいは単一データまたは複数の時系列データであってもよい。視認負荷量推定手段4は、
図9に示したように、注視点推定手段41と、注視点移動量算出手段42と、基底成分分解手段43と、基底成分選択手段44と、パワー算出手段45と、パワー合成手段46と、を備えている。
【0049】
注視点推定手段41は、視覚顕著性抽出手段3が出力した時系列の視覚顕著性マップから注視点情報を推定する。注視点情報の定義については特に限定しないが、例えば顕著性の値が最大値となる位置(座標)などとすることができる。即ち、注視点推定手段41は、推定注視点を、視覚顕著性マップ(視覚顕著性分布情報)において視覚顕著性が最大値となる画像上の位置と推定している。
【0050】
注視点移動量算出手段42は、注視点推定手段41で推定された時系列の注視点情報から時系列の注視点移動量を算出する。注視点移動量算出手段42により算出された注視点移動量もまた時系列データとなる。算出方法については特に限定しないが、例えば時系列で前後の関係にある注視点座標間のユークリッド距離などとすることができる。即ち、注視点移動量算出手段42は、生成された視覚顕著性マップ(視覚顕著性分布情報)に基づいて注視点(推定注視点)の移動量を算出している。
【0051】
基底成分分解手段43は、注視点移動量算出手段42で算出された注視点移動量の時系列変化を1個以上の基底成分群に分解する。基底成分分解手段43により分解された各基底成分もまた移動量に対応した時系列データとなる。分解方法については特に限定しないが、例えば経験モード分解(Empirical Mode Decomposition;EMD)が望ましく、この場合の基底成分は固有モード関数(Intrinsic Mode Function;IMF)となる。他にフーリエ変換ファミリ(基底成分は正弦波)などを用いても良い。
【0052】
基底成分選択手段44は、基底成分分解手段43で分解された基底成分群から1個以上の基底成分を選択する。なお、選択方法は限定されず種々の方法を用いることができる。
【0053】
パワー算出手段45は、基底成分選択手段44で選択された基底成分の各々についてパワーを算出する。ここでパワーもまた基底成分に対応した時系列データとなる。算出方法については特に限定しないが、基底成分分解手段として経験モード分解を用いた場合は、基底成分(固有モード関数)に対してHilbert変換を用いて振幅成分と位相成分を算出し、振幅成分をパワーとするのが望ましい。
【0054】
パワー合成手段46は、パワー算出手段45により算出された複数のパワー成分を合成して視認負荷量を算出する。ここで視認負荷量もパワーに対応した時系列データとなる。合成手段については特に限定しないが、例えば複数のパワー成分の単純加算としてもよい。即ち、基底成分分解手段43~パワー合成手段46までの手段によって、算出された注視点(推定注視点)の移動量の時間的推移に基づいて視認負荷量を推定している。
【0055】
図10に注視点移動量算出手段42が出力した注視点移動量と、その注視点移動量を基底成分分解手段43により分解した基底成分群と、基底成分群からパワー算出手段45により算出されたパワーをパワー合成手段46で合成して出力された視認負荷量と、の波形の例を示す。
図10の最上段が注視点移動量である。
図10の2段目から16段目までが基底成分群である。そして
図10の17段目(最下段)が視認負荷量である。
【0056】
図10においては、最下段に示した視認負荷量の振幅が大きくなる部分が視認負荷量が大きい推定される。
【0057】
情報提示手段5は、視認負荷量推定手段4が出力した視認負荷量を提示する。情報提示手段としては、液晶ディスプレイ等の表示装置やスピーカ等の音声出力手段等が挙げられる。
【0058】
次に、上述した構成の視認負荷量推定装置1における動作(視認負荷量推定方法)について、
図11のフローチャートを参照して説明する。また、このフローチャートを視認負荷量推定装置1として機能するコンピュータで実行されるプログラムとして構成することで視認負荷量推定プログラムとすることができる。また、この視認負荷量推定プログラムは、視認負荷量推定装置1が有するメモリ等に記憶するに限らず、メモリカードや光ディスク等の記憶媒体に格納してもよい。
【0059】
まず、入力手段2が、入力された画像を画像データとして視覚顕著性抽出手段3に出力する(ステップS210)。本ステップでは、入力手段2に入力された画像データを画像フレーム等の時系列に分解して視覚顕著性抽出手段3へ入力している。また、本ステップでノイズ除去や幾何学変換などの画像処理を施してもよい。
【0060】
次に、視覚顕著性抽出手段3が、視覚顕著性マップを抽出する(ステップS220)。視覚顕著性マップは、視覚顕著性抽出手段3において、上述した方法により
図3(b)に示したような視覚顕著性マップを時系列に出力する。
【0061】
次に、視覚顕著性マップから視認負荷量を推定する(ステップS230)。視認負荷量の推定は、視認負荷量推定手段4において、視覚顕著性抽出手段3が出力した視覚顕著性マップに基づいて、上記した方法により視認負荷量を推定する。
【0062】
次に、視認負荷量を提示する(ステップS240)。本実施例では、
図10に示した視認負荷量の推移のグラフを示してもよいし、当該グラフとともに対応する画像(フレーム)や走行位置等を表示するようにしてもよい。
【0063】
そして、全フレームについて読み出しが完了した場合は(ステップS250:Yes)、フローチャートを終了し、全フレームについて読み出しが完了していない場合は(ステップS250:No)、ステップS220に戻って、次のフレームについて処理を行う。
【0064】
本実施例によれば、視認負荷量推定装置1は、視覚顕著性抽出手段3で車両から外部を連続的に撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップを画像ごとに生成し、視認負荷量推定手段4で生成された視覚顕著性マップに基づいて注視点の移動量を算出する。そして、視認負荷量推定手段4では算出された推定注視点の移動量の時間的推移に基づいて視認負荷量を推定する。このようにすることにより、注視点の移動量の時間的推移に基づくことから視線の推移が大きくなるような位置を推定することができる。したがって、視覚的に負荷を感じる部分を自動的に抽出することができる。
【0065】
また、視認負荷量推定手段4は、推定注視点の移動量を基底成分に分解し、分解された基底成分に基づいて視認負荷量を算出している。このようにすることにより、経験モード分解といった、注視点の移動量の解析に適したアルゴリズムを利用することができるようになる。
【0066】
また、視認負荷量推定手段4は、注視点を視覚顕著性マップにおいて視覚顕著性が最大値となる画像上の位置と推定して移動量の算出をしている。このようにすることにより、最も視認すると推定される位置に基づいて移動量を推定することができる。
【0067】
また、視覚顕著性抽出手段3は、画像を写像処理可能な中間データに変換する入力部310と、中間データを写像データに変換する非線形写像部320と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部330と、を備え、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322と、を備えている。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。
【0068】
また、視認負荷量推定手段4における推定結果を提示する情報提示手段5を備えている。このようにすることにより、例えば視認負荷量の大きい地点が接近することを通知することが可能となる。具体的には、運転中の運転者に対して、視覚的に負荷量が増加しそうな場所が近づいていることを、車載カメラ画像などから自動的に抽出して事前に知らせることができるようになる。したがって、ドライバディストラクションによる運転ミスや事故の低減が期待できる。
【0069】
また、例えば、地図上の任意の経路に対応する実際の風景画像から、視覚的な負荷量が増加しそうな場所を特定することで、交通環境(道路構造や標識配置など)に関わる危険性解析の効率化が期待できる。
【0070】
また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の視認負荷量推定装置を具備する限り、勿論、本発明の範疇に含まれるものである。