(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024019588
(43)【公開日】2024-02-09
(54)【発明の名称】地図データ生成装置
(51)【国際特許分類】
G08G 1/16 20060101AFI20240201BHJP
G08G 1/00 20060101ALI20240201BHJP
G06T 7/00 20170101ALI20240201BHJP
G06V 10/25 20220101ALI20240201BHJP
【FI】
G08G1/16 A
G08G1/00 D
G06T7/00 650Z
G06T7/00 130
G06V10/25
【審査請求】有
【請求項の数】1
【出願形態】OL
(21)【出願番号】P 2023212652
(22)【出願日】2023-12-18
(62)【分割の表示】P 2022505797の分割
【原出願日】2021-01-14
(31)【優先権主張番号】P 2020040998
(32)【優先日】2020-03-10
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000005016
【氏名又は名称】パイオニア株式会社
(74)【代理人】
【識別番号】100134832
【弁理士】
【氏名又は名称】瀧野 文雄
(74)【代理人】
【識別番号】100165308
【弁理士】
【氏名又は名称】津田 俊明
(74)【代理人】
【識別番号】100115048
【弁理士】
【氏名又は名称】福田 康弘
(72)【発明者】
【氏名】伊藤 友二
(72)【発明者】
【氏名】井上 俊明
(72)【発明者】
【氏名】柴田 晃司
(72)【発明者】
【氏名】加川 良平
(72)【発明者】
【氏名】小野寺 渉
(57)【要約】
【課題】視覚的に注意を要する地点を地図データに付加する。
【解決手段】地図データ生成装置1は、入力手段2で車両から外部を撮像した画像データと当該車両の地点データとを取得して、双方のデータを関連付けて、視覚顕著性抽出手段3で画像データに基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップを生成する。そして、解析手段4で視覚顕著性マップに基づいて、当該視覚顕著性マップに対応する位置情報が示す地点又は区間が視覚的に注意を要する地点または区間かを解析し、付加手段5で解析手段4の解析結果に基づいて視覚的に注意を要する地点又は区間を地図データに付加する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
移動体から外部を撮像した画像に基づいて地図データに所定の情報を付加する地図データ生成装置で実行される地図データ生成方法であって、
前記画像と前記移動体の位置情報とが関連けられた入力情報を取得する第1取得工程と、
前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する第2取得部と、
前記視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する前記位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析する解析工程と、
前記解析工程の解析結果に基づいて前記視覚的に注意を要する地点又は区間を地図データに付加する付加工程と、
を含むことを特徴とする地図データ生成方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、移動体から外部を撮像した画像に基づいて地図データに所定の情報を付加する地図データ生成装置に関する。
【背景技術】
【0002】
移動体として、例えば車両が走行する際に、事故の起き易い交差点、踏み切り、急カーブ等、特に注意して走行すべき地点を地図上に表示することは既に知られている(例えば、特許文献1を参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
注意して走行すべき地点は、上記した事故の起き易い交差点、踏み切り、急カーブに限らない。例えば、急カーブ等でなくても、視覚的に負荷を感じたり、脇見のリスクが高かったり、単調な道路等では注意を要する。
【0005】
本発明が解決しようとする課題としては、視覚的に注意を要する地点等を地図データに付加することが一例として挙げられる。
【課題を解決するための手段】
【0006】
上記課題を解決するために、請求項1に記載の発明は、移動体から外部を撮像した画像と前記移動体の位置情報とが関連けられた入力情報を取得する第1取得部と、前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する第2取得部と、前記視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する前記位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析する解析部と、前記解析部の解析結果に基づいて前記視覚的に注意を要する地点又は区間を地図データに付加する付加部と、を備えることを特徴としている。
【0007】
請求項9に記載の発明は、移動体から外部を撮像した画像に基づいて地図データに所定の情報を付加する地図データ生成装置で実行される地図データ生成方法であって、前記画像と前記移動体の位置情報とが関連けられた入力情報を取得する第1取得工程と、前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する第2取得部と、前記視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する前記位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析する解析工程と、前記解析工程の解析結果に基づいて前記視覚的に注意を要する地点又は区間を地図データに付加する付加工程と、を含むことを特徴としている。
【0008】
請求項10に記載の発明は、請求項9に記載の地図データ生成方法をコンピュータにより実行させることを特徴としている。
【0009】
請求項11に記載の発明は、請求項10に記載の地図データ生成プログラムを格納したことを特徴としている。
【図面の簡単な説明】
【0010】
【
図1】本発明の一実施例にかかる地図データ生成装置の機能構成図である。
【
図2】
図1に示された視覚顕著性抽出手段の構成を例示するブロック図である。
【
図3】(a)は判定装置へ入力する画像を例示する図であり、(b)は(a)に対し推定される、視覚顕著性マップを例示する図である。
【
図4】
図1に示された視覚顕著性抽出手段の処理方法を例示するフローチャートである。
【
図5】非線形写像部の構成を詳しく例示する図である。
【
図7】(a)および(b)はそれぞれ、フィルタで行われる畳み込み処理の例を示す図である。
【
図8】(a)は、第1のプーリング部の処理を説明するための図であり、(b)は、第2のプーリング部の処理を説明するための図であり、(c)は、アンプーリング部の処理を説明するための図である。
【
図9】
図1に示された解析手段の機能構成図である。
【
図10】
図1に示された地図データ生成装置の動作のフローチャートである。
【
図11】
図1に示された地図データ生成装置が生成する地図データの例である。
【
図12】本発明の第2の実施例にかかる地図データ生成装置の機能構成図である。
【
図14】
図1に示された入力手段に入力された画像と、その画像から取得された視覚顕著性マップの例である。
【
図15】視覚的注意集中度の時間的変化の例を示したグラフである。
【
図16】本発明の第3の実施例にかかる地図データ生成装置が対象とする交差点の例を示した図である。
【
図17】
図16に示された交差点について理想視線を設定して視覚的注意集中度を算出した図である。
【
図18】
図17に示された視覚的注意集中度の時間的変化を示したグラフである。
【
図19】
図18に示された視覚的注意集中度について右左折時と直進時で比を算出した結果のグラフである。
【
図20】第3の実施例の変形例が対象とするカーブの例である。
【
図21】本発明の第4の実施例にかかる地図データ生成装置の機能構成図である。
【
図25】
図21に示された地図データ生成装置の動作のフローチャートである。
【
図26】本発明の第5の実施例にかかる地図データ生成装置の動作のフローチャートである。
【
図27】本発明の第6の実施例にかかる地図データ生成装置の動作のフローチャートである。
【発明を実施するための形態】
【0011】
以下、本発明の一実施形態にかかる地図データ生成装置を説明する。本発明の一実施形態にかかる地図データ生成装置は、第1取得部が、移動体から外部を撮像した画像と移動体の位置情報とが関連けられた入力情報を取得し、第2取得部が、画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する。そして、解析部が、視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析し、付加部が、解析部の解析結果に基づいて視覚的に注意を要する地点又は区間を地図データに付加する。このようにすることにより、移動体から外部を撮像した画像に基づいて視覚顕著性を推定し、その推定された特徴に基づいて視覚的に注意を要する地点等を地図データに付加することができる。
【0012】
また、解析部は、視覚顕著性分布情報に基づいて推定注視点の移動量を算出する移動量算出部と、算出された推定注視点の移動量を第1閾値と比較することで視覚顕著性分布情報に対応する位置情報が示す地点又は区間は視認負荷が高い傾向か判定する第1判定部と、を備え、付加部は、視認負荷が高い傾向か判定された地点又は区間を前記視覚的に注意を要する地点として前記地図データに付加してもよい。このようにすることにより、推定注視点の移動量を第1閾値と比較することにより視認負荷量が高い傾向か否かを容易に判定して、この判定結果に基づいて注意を要する地点等を地図データに付加することができる。
【0013】
また、移動量算出部は、推定注視点を、視覚顕著性分布情報において視覚顕著性が最大値となる画像上の位置と推定して移動量の算出をしてもよい。このようにすることにより、最も視認すると推定される位置に基づいて移動量を算出することができる。
【0014】
また、解析部は、予め定めた規則に従って画像における基準視線位置を設定する視線位置設定部を備え、視覚顕著性分布情報と基準視線位置とに基づいて画像における視覚的注意の集中度を算出する視覚的注意集中度算出部と、視覚的注意の集中度に基づいて視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間か判定する第2判定部と、を備え、付加部は、視覚的に注意を要する地点又は区間と判定された地点又は区間を地図データに付加してもよい。このようにすることにより、視覚顕著性分布情報から得られた視覚的注意の集中度に基づいて注意を要する地点等を判定して、地図データに付加することができる。
【0015】
また、第2取得部は、交差点に進入する際の道路である進入路毎の画像から、視覚顕著性分布情報を進入路毎に取得し、視線位置設定部は、視覚顕著性分布情報について、交差点に進入後抜け出す道路となる退出路毎に、画像における基準視線位置をそれぞれ設定し、視覚的注意集中度算出部は、視覚顕著性分布情報と基準視線位置とに基づいて画像における退出路毎の前記視覚的注意の集中度を算出し、第2判定部は、退出路毎の視覚的注意の集中度に基づいて交差点が視覚的に注意を要する地点か判定してもよい。このようにすることにより、交差点について、注意を要する地点か判定して、地図データに付加することができる。
【0016】
また、解析部は、視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出するピーク位置検出部と、画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定部と、ピーク位置が前記注視すべき範囲から所定時間以上連続して外れていた場合は脇見の傾向がある旨の情報を出力する脇見出力部と、脇見の傾向がある旨の情報に基づいて視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間か判定する第3判定部と、を備え、付加部は、視覚的に注意を要する地点又は区間と判定された地点又は区間を前記地図データに付加してもよい。このようにすることにより、脇見の傾向がある地点等を注意を要する地点等と判定して、地図データに付加することができる。
【0017】
また、解析部は、視覚顕著性分布情報に基づいて算出された統計量を用いて当該画像が単調傾向か判定する単調判定部と、単調判定部の判定結果に基づいて視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間か判定する第4判定部と、を備え、付加部は、視覚的に注意を要する地点又は区間と判定された地点又は区間を地図データに付加してもよい。このようにすることにより、単調傾向と判定された地点等を注意を要する地点等と判定して、地図データに付加することができる。
【0018】
また、第2取得部は、画像を写像処理可能な中間データに変換する入力部と、中間データを写像データに変換する非線形写像部と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、非線形写像部は、中間データに対し特徴の抽出を行う特徴抽出部と、特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備えてもよい。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。
【0019】
また、本発明の一実施形態にかかる地図データ生成方法は、第1取得工程で、移動体から外部を撮像した画像と移動体の位置情報とが関連けられた入力情報を取得し、第2取得工程で、画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する。そして、解析工程で、視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析し、付加工程で、解析工程の解析結果に基づいて視覚的に注意を要する地点又は区間を地図データに付加する。このようにすることにより、移動体から外部を撮像した画像に基づいて視覚顕著性を推定し、その推定された特徴に基づいて注意を要する地点等を地図データに付加することができる。
【0020】
また、上述した地図データ生成方法を、コンピュータにより実行させている。このようにすることにより、コンピュータを用いて、移動体から外部を撮像した画像に基づいて視覚顕著性を推定し、その推定された特徴に基づいて視覚的に注意を要する地点等を地図データに付加することができる。
【0021】
また、上述した地図データ生成プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。
【実施例0022】
本発明の一実施例にかかる地図データ生成装置を
図1~
図11を参照して説明する。本実施例にかかる地図データ生成装置は、例えば事業所等に設置されるサーバ装置等で構成することができる。
【0023】
図1に示したように、地図データ生成装置1は、入力手段2と、視覚顕著性抽出手段3と、解析手段4と、付加手段5と、を備えている。
【0024】
入力手段2は、例えばカメラなどで撮像された画像(動画像)が入力及びGPS(Global Positioning System)受信機等から出力された位置情報(地点データ)が入力され、その画像を地点データと関連付けて出力する。なお、入力された動画像は、例えばフレーム毎等の時系列に分解された画像データとして出力する。入力手段2に入力される画像として静止画を入力してもよいが、時系列に沿った複数の静止画からなる画像群として入力するのが好ましい。
【0025】
入力手段2に入力される画像は、例えば車両の進行方向が撮像された画像が挙げられる。つまり、移動体から外部を連続的に撮像した画像とする。この画像はいわゆるパノラマ画像や複数カメラを用いて取得した画像等の水平方向に180°や360°等進行方向以外が含まれる画像であってもよい。また、入力手段2には入力されるのは、カメラで撮像された画像が直接入力されるに限らず、ハードディスクドライブやメモリカード等の記録媒体から読み出した画像であってもよい。即ち、入力手段2は、移動体から外部を撮像した画像と移動体の位置情報とが関連けられた入力情報を取得する第1取得部として機能する。
【0026】
視覚顕著性抽出手段3は、入力手段2から画像データが入力され、後述する視覚顕著性推定情報として視覚顕著性マップを出力する。即ち、視覚顕著性抽出手段3は、移動体から外部を撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップ(視覚顕著性分布情報)を取得する第2取得部として機能する。
【0027】
図2は、視覚顕著性抽出手段3の構成を例示するブロック図である。本実施例に係る視覚顕著性抽出手段3は、入力部310、非線形写像部320、および出力部330を備える。入力部310は、画像を写像処理可能な中間データに変換する。非線形写像部320は、中間データを写像データに変換する。出力部330は、写像データに基づき顕著性分布を示す顕著性推定情報を生成する。そして、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322とを備える。以下に詳しく説明する。
【0028】
図3(a)は、視覚顕著性抽出手段3へ入力する画像を例示する図であり、
図3(b)は、
図3(a)に対し推定される、視覚顕著性分布を示す画像を例示する図である。本実施例に係る視覚顕著性抽出手段3は、画像における各部分の視覚顕著性を推定する装置である。視覚顕著性とは例えば、目立ちやすさや視線の集まりやすさを意味する。具体的には視覚顕著性は、確率等で示される。ここで、確率の大小は、たとえばその画像を見た人の視線がその位置に向く確率の大小に対応する。
【0029】
図3(a)と
図3(b)とは、互いに位置が対応している。そして、
図3(a)において、視覚顕著性が高い位置ほど、
図3(b)において輝度が高く表示されている。
図3(b)のような視覚顕著性分布を示す画像は、出力部330が出力する視覚顕著性マップの一例である。本図の例において、視覚顕著性は、256階調の輝度値で可視化されている。出力部330が出力する視覚顕著性マップの例については詳しく後述する。
【0030】
図4は、本実施例に係る視覚顕著性抽出手段3の動作を例示するフローチャートである。
図4に示したフローチャートは、コンピュータによって実行される地図データ生成方法の一部であって、入力ステップS115、非線形写像ステップS120、および出力ステップS130を含む。入力ステップS115では、画像が写像処理可能な中間データに変換される。非線形写像ステップS120では、中間データが写像データに変換される。出力ステップS130では、写像データに基づき顕著性分布を示す視覚顕著性推定情報が生成される。ここで、非線形写像ステップS120は、中間データに対し特徴の抽出を行う特徴抽出ステップS121と、特徴抽出ステップS121で生成されたデータのアップサンプルを行うアップサンプルステップS122とを含む。
【0031】
図2に戻り、視覚顕著性抽出手段3の各構成要素について説明する。入力ステップS115において入力部310は、画像を取得し、中間データに変換する。入力部310は、画像データを入力手段2から取得する。そして入力部310は、取得した画像を中間データに変換する。中間データは非線形写像部320が受け付け可能なデータであれば特に限定されないが、たとえば高次元テンソルである。また、中間データはたとえば、取得した画像に対し輝度を正規化したデータ、または、取得した画像の各画素を、輝度の傾きに変換したデータである。入力ステップS115において入力部310は、さらに画像のノイズ除去や解像度変換等を行っても良い。
【0032】
非線形写像ステップS120において、非線形写像部320は入力部310から中間データを取得する。そして、非線形写像部320において中間データが写像データに変換される。ここで、写像データは例えば高次元テンソルである。非線形写像部320で中間データに施される写像処理は、たとえばパラメータ等により制御可能な写像処理であり、関数、汎関数、またはニューラルネットワークによる処理であることが好ましい。
【0033】
図5は、非線形写像部320の構成を詳しく例示する図であり、
図6は、中間層323の構成を例示する図である。上記した通り、非線形写像部320は、特徴抽出部321およびアップサンプル部322を備える。特徴抽出部321において特徴抽出ステップS121が行われ、アップサンプル部322においてアップサンプルステップS122が行われる。また、本図の例において、特徴抽出部321およびアップサンプル部322の少なくとも一方は、複数の中間層323を含むニューラルネットワークを含んで構成される。ニューラルネットワークにおいては、複数の中間層323が結合されている。
【0034】
特にニューラルネットワークは畳み込みニューラルネットワークであることが好ましい。具体的には、複数の中間層323のそれぞれは、一または二以上の畳み込み層324を含む。そして、畳み込み層324では、入力されたデータに対し複数のフィルタ325による畳み込みが行われ、複数のフィルタ325の出力に対し活性化処理が施される。
【0035】
図5の例において、特徴抽出部321は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間に第1のプーリング部326を備える。また、アップサンプル部322は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間にアンプーリング部328を備える。さらに、特徴抽出部321とアップサンプル部322とは、オーバーラッププーリングを行う第2のプーリング部327を介して互いに接続されている。
【0036】
なお、本図の例において各中間層323は、二以上の畳み込み層324からなる。ただし、少なくとも一部の中間層323は、一の畳み込み層324のみからなってもよい。互いに隣り合う中間層323は、第1のプーリング部326、第2のプーリング部327およびアンプーリング部328のいずれかで区切られる。ここで、中間層323に二以上の畳み込み層324が含まれる場合、それらの畳み込み層324におけるフィルタ325の数は互いに等しいことが好ましい。
【0037】
本図では、「A×B」と記された中間層323は、B個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対しA個の畳み込みフィルタを含むことを意味している。このような中間層323を以下では「A×B中間層」とも呼ぶ。たとえば、64×2中間層323は、2個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対し64個の畳み込みフィルタを含むことを意味している。
【0038】
本図の例において、特徴抽出部321は、64×2中間層323、128×2中間層323、256×3中間層323、および、512×3中間層323をこの順に含む。また、アップサンプル部322は、512×3中間層323、256×3中間層323、128×2中間層323、および64×2中間層323をこの順に含む。また、第2のプーリング部327は、2つの512×3中間層323を互いに接続している。なお、非線形写像部320を構成する中間層323の数は特に限定されず、たとえば画像データの画素数に応じて定めることができる。
【0039】
なお、本図は非線形写像部320の構成の一例であり、非線形写像部320は他の構成を有していても良い。たとえば、64×2中間層323の代わりに64×1中間層323が含まれても良い。中間層323に含まれる畳み込み層324の数が削減されることで、計算コストがより低減される可能性がある。また、たとえば、64×2中間層323の代わりに32×2中間層323が含まれても良い。中間層323のチャネル数が削減されることで、計算コストがより低減される可能性がある。さらに、中間層323における畳み込み層324の数とチャネル数との両方を削減しても良い。
【0040】
ここで、特徴抽出部321に含まれる複数の中間層323においては、第1のプーリング部326を経る毎にフィルタ325の数が増加することが好ましい。具体的には、第1の中間層323aと第2の中間層323bとが、第1のプーリング部326を介して互いに連続しており、第1の中間層323aの後段に第2の中間層323bが位置する。そして、第1の中間層323aは、各チャネルに対するフィルタ325の数がN1である畳み込み層324で構成されており、第2の中間層323bは、各チャネルに対するフィルタ325の数がN2である畳み込み層324で構成されている。このとき、N2>N1が成り立つことが好ましい。また、N2=N1×2が成り立つことがより好ましい。
【0041】
また、アップサンプル部322に含まれる複数の中間層323においては、アンプーリング部328を経る毎にフィルタ325の数が減少することが好ましい。具体的には、第3の中間層323cと第4の中間層323dとが、アンプーリング部328を介して互いに連続しており、第3の中間層323cの後段に第4の中間層323dが位置する。そして、第3の中間層323cは、各チャネルに対するフィルタ325の数がN3である畳み込み層324で構成されており、第4の中間層323dは、各チャネルに対するフィルタ325の数がN4である畳み込み層324で構成されている。このとき、N4<N3が成り立つことが好ましい。また、N3=N4×2が成り立つことがより好ましい。
【0042】
特徴抽出部321では、入力部310から取得した中間データから勾配や形状など、複数の抽象度を持つ画像特徴を中間層323のチャネルとして抽出する。
図6は、64×2中間層323の構成を例示している。本図を参照して、中間層323における処理を説明する。本図の例において、中間層323は第1の畳み込み層324aと第2の畳み込み層324bとで構成されており、各畳み込み層324は64個のフィルタ325を備える。第1の畳み込み層324aでは、中間層323に入力されたデータの各チャネルに対して、フィルタ325を用いた畳み込み処理が施される。たとえば入力部310へ入力された画像がRGB画像である場合、3つのチャネルh
0
i(i=1..3)のそれぞれに対して処理が施される。また、本図の例において、フィルタ325は64種の3×3フィルタであり、すなわち合計64×3種のフィルタである。畳み込み処理の結果、各チャネルiに対して、64個の結果h
0
i,j(i=1..3,j=1..64)が得られる。
【0043】
次に、複数のフィルタ325の出力に対し、活性化部329において活性化処理が行われる。具体的には、全チャネルの対応する結果jについて、対応する要素毎の総和に活性化処理が施される。この活性化処理により、64チャネルの結果h1i(i=1..64)、すなわち、第1の畳み込み層324aの出力が、画像特徴として得られる。活性化処理は特に限定されないが、双曲関数、シグモイド関数、および正規化線形関数の少なくともいずれかを用いる処理が好ましい。
【0044】
さらに、第1の畳み込み層324aの出力データを第2の畳み込み層324bの入力データとし、第2の畳み込み層324bにて第1の畳み込み層324aと同様の処理を行って、64チャネルの結果h2
i(i=1..64)、すなわち第2の畳み込み層324bの出力が、画像特徴として得られる。第2の畳み込み層324bの出力がこの64×2中間層323の出力データとなる。
【0045】
ここで、フィルタ325の構造は特に限定されないが、3×3の二次元フィルタであることが好ましい。また、各フィルタ325の係数は独立に設定可能である。本実施例において、各フィルタ325の係数は記憶部390に保持されており、非線形写像部320がそれを読み出して処理に用いることができる。ここで、複数のフィルタ325の係数は機械学習を用いて生成、修正された補正情報に基づいて定められてもよい。たとえば、補正情報は、複数のフィルタ325の係数を、複数の補正パラメータとして含む。非線形写像部320は、この補正情報をさらに用いて中間データを写像データに変換することができる。記憶部390は視覚顕著性抽出手段3に備えられていてもよいし、視覚顕著性抽出手段3の外部に設けられていてもよい。また、非線形写像部320は補正情報を、通信ネットワークを介して外部から取得しても良い。
【0046】
図7(a)および
図7(b)はそれぞれ、フィルタ325で行われる畳み込み処理の例を示す図である。
図7(a)および
図7(b)では、いずれも3×3畳み込みの例が示されている。
図7(a)の例は、最近接要素を用いた畳み込み処理である。
図7(b)の例は、距離が二以上の近接要素を用いた畳み込み処理である。なお、距離が三以上の近接要素を用いた畳み込み処理も可能である。フィルタ325は、距離が二以上の近接要素を用いた畳み込み処理を行うことが好ましい。より広範囲の特徴を抽出することができ、視覚顕著性の推定精度をさらに高めることができるからである。
【0047】
以上、64×2中間層323の動作について説明した。他の中間層323(128×2中間層323、256×3中間層323、および、512×3中間層323等)の動作についても、畳み込み層324の数およびチャネルの数を除いて、64×2中間層323の動作と同じである。また、特徴抽出部321における中間層323の動作も、アップサンプル部322における中間層323の動作も上記と同様である。
【0048】
図8(a)は、第1のプーリング部326の処理を説明するための図であり、
図8(b)は、第2のプーリング部327の処理を説明するための図であり、
図8(c)は、アンプーリング部328の処理を説明するための図である。
【0049】
特徴抽出部321において、中間層323から出力されたデータは、第1のプーリング部326においてチャネル毎にプーリング処理が施された後、次の中間層323に入力される。第1のプーリング部326ではたとえば、非オーバーラップのプーリング処理が行われる。
図8(a)では、各チャネルに含まれる要素群に対し、2×2の4つの要素30を1つの要素30に対応づける処理を示している。第1のプーリング部326ではこのような対応づけが全ての要素30に対し行われる。ここで、2×2の4つの要素30は互いに重ならないよう選択される。本例では、各チャネルの要素数が4分の1に縮小される。なお、第1のプーリング部326において要素数が縮小される限り、対応づける前後の要素30の数は特に限定されない。
【0050】
特徴抽出部321から出力されたデータは、第2のプーリング部327を介してアップサンプル部322に入力される。第2のプーリング部327では、特徴抽出部321からの出力データに対し、オーバーラッププーリングが施される。
図8(b)では、一部の要素30をオーバーラップさせながら、2×2の4つの要素30を1つの要素30に対応づける処理を示している。すなわち、繰り返される対応づけにおいて、ある対応づけにおける2×2の4つの要素30のうち一部が、次の対応づけにおける2×2の4つの要素30にも含まれる。本図のような第2のプーリング部327では要素数は縮小されない。なお、第2のプーリング部327において対応づける前後の要素30の数は特に限定されない。
【0051】
第1のプーリング部326および第2のプーリング部327で行われる各処理の方法は特に限定されないが、たとえば、4つの要素30の最大値を1つの要素30とする対応づけ(max pooling)や4つの要素30の平均値を1つの要素30とする対応づけ(average pooling)が挙げられる。
【0052】
第2のプーリング部327から出力されたデータは、アップサンプル部322における中間層323に入力される。そして、アップサンプル部322の中間層323からの出力データはアンプーリング部328においてチャネル毎にアンプーリング処理が施された後、次の中間層323に入力される。
図8(c)では、1つの要素30を複数の要素30に拡大する処理を示している。拡大の方法は特に限定されないが、1つの要素30を2×2の4つの要素30へ複製する方法が例として挙げられる。
【0053】
アップサンプル部322の最後の中間層323の出力データは写像データとして非線形写像部320から出力され、出力部330に入力される。出力ステップS130において出力部330は、非線形写像部320から取得したデータに対し、たとえば正規化や解像度変換等を行うことで視覚顕著性マップを生成し、出力する。視覚顕著性マップはたとえば、
図3(b)に例示したような視覚顕著性を輝度値で可視化した画像(画像データ)である。また、視覚顕著性マップはたとえば、ヒートマップのように視覚顕著性に応じて色分けされた画像であっても良いし、視覚顕著性が予め定められた基準より高い視覚顕著領域を、その他の位置とは識別可能にマーキングした画像であっても良い。さらに、視覚顕著性推定情報は画像等として示されたマップ情報に限定されず、視覚顕著領域を示す情報を列挙したテーブル等であっても良い。
【0054】
解析手段4は、視覚顕著性抽出手段3が出力した視覚顕著性マップに基づいて、当該視覚顕著性マップに対応する地点が視認負荷が高い傾向か解析する。解析手段4は、
図9に示したように、視認負荷量算出手段41と、視認負荷判定手段42と、を備えている。
【0055】
視認負荷量算出手段41は、視覚顕著性抽出手段3が出力した視覚顕著性マップに基づいて視認負荷量を算出する。視認負荷量算出手段41で算出された結果である視認負荷量は、例えばスカラ量またはベクトル量であってもよい。あるいは単一データまたは複数の時系列データであってもよい。視認負荷量算出手段41は、注視点情報を推定し、視認負荷量として注視点移動量を算出する。
【0056】
視認負荷量算出手段41の詳細を説明する。まず、視覚顕著性抽出手段3が出力した時系列の視覚顕著性マップから注視点情報を推定する。注視点情報の定義については特に限定しないが、例えば顕著性の値が最大値となる位置(座標)などとすることができる。つまり、視認負荷量算出手段41は、注視点情報を、視覚顕著性マップ(視覚顕著性分布情報)において視覚顕著性が最大値となる画像上の位置と推定している。
【0057】
そして、推定された時系列の注視点情報から時系列の注視点移動量を算出する。算出された注視点移動量もまた時系列データとなる。算出方法については特に限定しないが、例えば時系列で前後の関係にある注視点座標間のユークリッド距離などとすることができる。つまり、本実施例では、注視点移動量を視認負荷量として算出している。即ち、視認負荷量算出手段41は、生成された視覚顕著性マップ(視覚顕著性分布情報)に基づいて注視点(推定注視点)の移動量を算出する移動量算出部として機能する。
【0058】
視認負荷判定手段42は、視認負荷量算出手段41で算出された移動量に基づいて対象とする地点又は区間が視認負荷が大きいか否か判定する。視認負荷判定手段42における判定方法は後述する。
【0059】
付加手段5は、取得した地図データに対して、解析手段4における解析結果に基づいて注意地点情報を付加する。つまり、付加手段5は、視認負荷判定手段42で視認負荷が大きいと判定された地点を注意を要する地点として地図データに付加する。
【0060】
次に、上述した構成の地図データ生成装置1における動作(地図データ生成方法)について、
図10のフローチャートを参照して説明する。また、このフローチャートを地図データ生成装置1として機能するコンピュータで実行されるプログラムとして構成することで地図データ生成プログラムとすることができる。また、この地図データ生成プログラムは、地図データ生成装置1が有するメモリ等に記憶するに限らず、メモリカードや光ディスク等の記憶媒体に格納してもよい。
【0061】
まず、入力手段2が、地点データを取得する(ステップS210)。地点データは上述したようにGPS受信機等から取得すればよい。
【0062】
次に、入力手段2が、走行動画(画像データ)を取得する(ステップS220)。本ステップでは、入力手段2に入力された画像データを画像フレーム等の時系列に分解して、ステップS210で取得した地点データと関連付けて視覚顕著性抽出手段3へ入力している。また、本ステップでノイズ除去や幾何学変換などの画像処理を施してもよい。なお、ステップS210とS220は順序が逆であってもよい。
【0063】
次に、視覚顕著性抽出手段3が、視覚顕著性マップを抽出する(ステップS230)。視覚顕著性マップは、視覚顕著性抽出手段3において、上述した方法により
図3(b)に示したような視覚顕著性マップを時系列に出力する。
【0064】
次に、視認負荷量算出手段41が、上記した方法により注視点移動量を算出する(ステップS240)。
【0065】
次に、視認負荷判定手段42が、ステップS240で算出した注視点移動量が予め定めた閾値以上か否か判定する(ステップS250)。この閾値は、注視点移動量に関する閾値である。即ち、視認負荷判定手段42は、算出された注視点の移動量が第1閾値と比較することで視覚顕著性マップ(視覚顕著性分布情報)に対応する地点データ(位置情報)が示す地点又は区間は視認負荷が高い傾向か判定する第1判定部として機能する。ステップS250の判定の結果、注視点移動量が予め定めた閾値以上であった場合は(ステップS250:YES)、付加手段5が、対象とする地点を視認負荷量が大きい注意地点として地図データに登録(付加)する(ステップS260)。
【0066】
また、ステップS250の判定の結果、注視点移動量が予め定めた閾値未満であった場合は(ステップS250:NO)、対象とする地点は、視認負荷量が大きくないので、注意地点として登録は行わない。
【0067】
ここで、注意地点が登録された地図の例を
図11に示す。
図11において符号Wで示した丸印が注意地点を示すものである。
図11は、視認負荷量が大きい地点を示した例である。ここで、視認負荷量の大きさに応じて丸印の色や濃さを変化させてもよいし、丸印の大きさを変化させてもよい。
【0068】
本実施例によれば、地図データ生成装置1は、入力手段2で車両から外部を撮像した画像データと当該車両の地点データとを取得して、双方のデータを関連付けて、視覚顕著性抽出手段3で画像データに基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップを生成する。そして、解析手段4で視覚顕著性マップに基づいて、当該視覚顕著性マップに対応する位置情報が示す地点又は区間が視認負荷が高い傾向か解析し、付加手段5で解析手段4の解析結果に基づいて視認負荷が高い傾向を示す地点又は区間を地図データに付加する。このようにすることにより、車両から外部を撮像した画像に基づいて視覚顕著性を推定し、その推定された特徴に基づいて視覚的に負荷を感じる地点を地図データに付加することができる。
【0069】
また、解析手段4は、視覚顕著性マップに基づいて注視点移動量を算出する視認負荷量算出手段41と、算出された注視点移動量を第1閾値と比較することで視覚顕著性マップに対応する地点データが示す地点又は区間は視認負荷が高い傾向か判定する視認負荷判定手段42と、を備えている。このようにすることにより、注視点移動量を第1閾値と比較することにより視認負荷量が高い傾向か否かを容易に判定することができる。
【0070】
また、視認負荷量算出手段41は、注視点を、視覚顕著性マップにおいて視覚顕著性が最大値となる画像上の位置と推定して移動量の算出をしている。このようにすることにより、最も視認すると推定される位置に基づいて移動量を算出することができる。
【0071】
また、視覚顕著性抽出手段3は、画像を写像処理可能な中間データに変換する入力部310と、中間データを写像データに変換する非線形写像部320と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部330と、を備え、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322と、を備えている。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。
本実施例では、第1の実施例で説明した視覚的負荷ではなく、視覚的注意集中度を算出して、その視覚的注意集中度に基づいて視覚的に注意を要する地点等を地図データに付加するものである。視覚的注意集中度については後述する。
視線座標設定手段43は、後述する理想視線を視覚顕著性マップ上に設定する。理想視線とは、障害物や自分以外の交通参加者がいないという理想的な交通環境下で自動車の運転者が進行方向に沿って向ける視線をいう。画像データや視覚顕著性マップ上では(x,y)座標として取り扱う。なお、本実施例では理想視線は固定値とするが、移動体の停止距離に影響する速度や道路の摩擦係数の関数として扱ってもよいし、設定された経路情報を利用して決定されてもよい。即ち、視線座標設定手段43は、予め定めた規則に従って画像における理想視線(基準視線位置)を設定する視線位置設定部として機能する。
ベクトル誤差演算手段44は、視覚顕著性抽出手段3が出力した視覚顕著性マップ及び当該視覚顕著性マップや画像に対して視線座標設定手段43が設定した理想視線に基づいてベクトル誤差を算出し、そのベクトル誤差に基づいて視覚的注意の集中度を示す後述する視覚的注意集中度Psを演算する。即ち、ベクトル誤差演算手段44は、視覚顕著性分布情報と視線位置とに基づいて画像における視覚的注意の集中度を算出する視覚的注意集中度算出部として機能する。
即ち、ベクトル誤差演算手段44(視覚的注意集中度算出部)は、視覚顕著性マップ(視覚顕著性分布情報)を構成する各画素の値と、各画素の位置と理想視線(基準視線位置)の座標位置とのベクトル誤差と、に基づいて視覚的注意の集中度を算出している。
このようにして得られた視覚的注意集中度Psは、視覚顕著性マップ上に設定した理想視線の座標からの全画素の座標のベクトル誤差と輝度値の関係を重みづけした上で合計したものの逆数である。この視覚的注意集中度Psは、理想視線の座標から視覚顕著性マップの輝度が高い分布が離れていると低い値が算出される。即ち、視覚的注意集中度Psは、理想視線に対する集中度ともいえる。
本実施例によれば、視線座標設定手段43が、予め定めた固定位置に理想視線の座標を設定する。そして、ベクトル誤差演算手段44が、視覚顕著性マップと理想視線とに基づいて画像における視覚的注意集中度Psを算出する。このようにすることにより、視覚顕著性マップを用いるため、画像内に含まれる標識や歩行者といった物体が何かという文脈的な注意状態を反映することができる。したがって、精度良く視覚的注意集中度Psを算出することが可能となる。そして、このように算出された視覚的注意集中度Psに基づくリスク地点を地図データに付加することができる。
また、ベクトル誤差演算手段44は、視覚顕著性マップを構成する各画素の値と、各画素の位置と理想視線の座標位置とのベクトル誤差と、に基づいて視覚的注意集中度Psを算出している。このようにすることにより、視覚顕著性が高い位置と理想視線との差に応じた値が視覚的注意集中度Psとして算出される。したがって、例えば、視覚顕著性が高い位置と理想視線との距離に応じて視覚的注意集中度Psの値が変化するようにすることができる。
また、視覚的注意集中度Psの時間的変化に基づいて当該画像の示す地点におけるリスク情報を出力する出力手段45を備えている。このようにすることにより、例えば視覚的注意集中度Psの時間的変化が大きい地点を事故リスク地点等として出力することが可能となる。