IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パイオニア株式会社の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024019588
(43)【公開日】2024-02-09
(54)【発明の名称】地図データ生成装置
(51)【国際特許分類】
   G08G 1/16 20060101AFI20240201BHJP
   G08G 1/00 20060101ALI20240201BHJP
   G06T 7/00 20170101ALI20240201BHJP
   G06V 10/25 20220101ALI20240201BHJP
【FI】
G08G1/16 A
G08G1/00 D
G06T7/00 650Z
G06T7/00 130
G06V10/25
【審査請求】有
【請求項の数】1
【出願形態】OL
(21)【出願番号】P 2023212652
(22)【出願日】2023-12-18
(62)【分割の表示】P 2022505797の分割
【原出願日】2021-01-14
(31)【優先権主張番号】P 2020040998
(32)【優先日】2020-03-10
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000005016
【氏名又は名称】パイオニア株式会社
(74)【代理人】
【識別番号】100134832
【弁理士】
【氏名又は名称】瀧野 文雄
(74)【代理人】
【識別番号】100165308
【弁理士】
【氏名又は名称】津田 俊明
(74)【代理人】
【識別番号】100115048
【弁理士】
【氏名又は名称】福田 康弘
(72)【発明者】
【氏名】伊藤 友二
(72)【発明者】
【氏名】井上 俊明
(72)【発明者】
【氏名】柴田 晃司
(72)【発明者】
【氏名】加川 良平
(72)【発明者】
【氏名】小野寺 渉
(57)【要約】
【課題】視覚的に注意を要する地点を地図データに付加する。
【解決手段】地図データ生成装置1は、入力手段2で車両から外部を撮像した画像データと当該車両の地点データとを取得して、双方のデータを関連付けて、視覚顕著性抽出手段3で画像データに基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップを生成する。そして、解析手段4で視覚顕著性マップに基づいて、当該視覚顕著性マップに対応する位置情報が示す地点又は区間が視覚的に注意を要する地点または区間かを解析し、付加手段5で解析手段4の解析結果に基づいて視覚的に注意を要する地点又は区間を地図データに付加する。
【選択図】図1
【特許請求の範囲】
【請求項1】
移動体から外部を撮像した画像に基づいて地図データに所定の情報を付加する地図データ生成装置で実行される地図データ生成方法であって、
前記画像と前記移動体の位置情報とが関連けられた入力情報を取得する第1取得工程と、
前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する第2取得部と、
前記視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する前記位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析する解析工程と、
前記解析工程の解析結果に基づいて前記視覚的に注意を要する地点又は区間を地図データに付加する付加工程と、
を含むことを特徴とする地図データ生成方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、移動体から外部を撮像した画像に基づいて地図データに所定の情報を付加する地図データ生成装置に関する。
【背景技術】
【0002】
移動体として、例えば車両が走行する際に、事故の起き易い交差点、踏み切り、急カーブ等、特に注意して走行すべき地点を地図上に表示することは既に知られている(例えば、特許文献1を参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2006-258656号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
注意して走行すべき地点は、上記した事故の起き易い交差点、踏み切り、急カーブに限らない。例えば、急カーブ等でなくても、視覚的に負荷を感じたり、脇見のリスクが高かったり、単調な道路等では注意を要する。
【0005】
本発明が解決しようとする課題としては、視覚的に注意を要する地点等を地図データに付加することが一例として挙げられる。
【課題を解決するための手段】
【0006】
上記課題を解決するために、請求項1に記載の発明は、移動体から外部を撮像した画像と前記移動体の位置情報とが関連けられた入力情報を取得する第1取得部と、前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する第2取得部と、前記視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する前記位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析する解析部と、前記解析部の解析結果に基づいて前記視覚的に注意を要する地点又は区間を地図データに付加する付加部と、を備えることを特徴としている。
【0007】
請求項9に記載の発明は、移動体から外部を撮像した画像に基づいて地図データに所定の情報を付加する地図データ生成装置で実行される地図データ生成方法であって、前記画像と前記移動体の位置情報とが関連けられた入力情報を取得する第1取得工程と、前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する第2取得部と、前記視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する前記位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析する解析工程と、前記解析工程の解析結果に基づいて前記視覚的に注意を要する地点又は区間を地図データに付加する付加工程と、を含むことを特徴としている。
【0008】
請求項10に記載の発明は、請求項9に記載の地図データ生成方法をコンピュータにより実行させることを特徴としている。
【0009】
請求項11に記載の発明は、請求項10に記載の地図データ生成プログラムを格納したことを特徴としている。
【図面の簡単な説明】
【0010】
図1】本発明の一実施例にかかる地図データ生成装置の機能構成図である。
図2図1に示された視覚顕著性抽出手段の構成を例示するブロック図である。
図3】(a)は判定装置へ入力する画像を例示する図であり、(b)は(a)に対し推定される、視覚顕著性マップを例示する図である。
図4図1に示された視覚顕著性抽出手段の処理方法を例示するフローチャートである。
図5】非線形写像部の構成を詳しく例示する図である。
図6】中間層の構成を例示する図である。
図7】(a)および(b)はそれぞれ、フィルタで行われる畳み込み処理の例を示す図である。
図8】(a)は、第1のプーリング部の処理を説明するための図であり、(b)は、第2のプーリング部の処理を説明するための図であり、(c)は、アンプーリング部の処理を説明するための図である。
図9図1に示された解析手段の機能構成図である。
図10図1に示された地図データ生成装置の動作のフローチャートである。
図11図1に示された地図データ生成装置が生成する地図データの例である。
図12】本発明の第2の実施例にかかる地図データ生成装置の機能構成図である。
図13】ベクトル誤差の説明図である。
図14図1に示された入力手段に入力された画像と、その画像から取得された視覚顕著性マップの例である。
図15】視覚的注意集中度の時間的変化の例を示したグラフである。
図16】本発明の第3の実施例にかかる地図データ生成装置が対象とする交差点の例を示した図である。
図17図16に示された交差点について理想視線を設定して視覚的注意集中度を算出した図である。
図18図17に示された視覚的注意集中度の時間的変化を示したグラフである。
図19図18に示された視覚的注意集中度について右左折時と直進時で比を算出した結果のグラフである。
図20】第3の実施例の変形例が対象とするカーブの例である。
図21】本発明の第4の実施例にかかる地図データ生成装置の機能構成図である。
図22】注視エリアの設定方法の説明図である。
図23】脇見検出エリアの説明図である。
図24】他の脇見検出エリアの説明図である。
図25図21に示された地図データ生成装置の動作のフローチャートである。
図26】本発明の第5の実施例にかかる地図データ生成装置の動作のフローチャートである。
図27】本発明の第6の実施例にかかる地図データ生成装置の動作のフローチャートである。
図28】自己相関の演算結果の例である。
【発明を実施するための形態】
【0011】
以下、本発明の一実施形態にかかる地図データ生成装置を説明する。本発明の一実施形態にかかる地図データ生成装置は、第1取得部が、移動体から外部を撮像した画像と移動体の位置情報とが関連けられた入力情報を取得し、第2取得部が、画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する。そして、解析部が、視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析し、付加部が、解析部の解析結果に基づいて視覚的に注意を要する地点又は区間を地図データに付加する。このようにすることにより、移動体から外部を撮像した画像に基づいて視覚顕著性を推定し、その推定された特徴に基づいて視覚的に注意を要する地点等を地図データに付加することができる。
【0012】
また、解析部は、視覚顕著性分布情報に基づいて推定注視点の移動量を算出する移動量算出部と、算出された推定注視点の移動量を第1閾値と比較することで視覚顕著性分布情報に対応する位置情報が示す地点又は区間は視認負荷が高い傾向か判定する第1判定部と、を備え、付加部は、視認負荷が高い傾向か判定された地点又は区間を前記視覚的に注意を要する地点として前記地図データに付加してもよい。このようにすることにより、推定注視点の移動量を第1閾値と比較することにより視認負荷量が高い傾向か否かを容易に判定して、この判定結果に基づいて注意を要する地点等を地図データに付加することができる。
【0013】
また、移動量算出部は、推定注視点を、視覚顕著性分布情報において視覚顕著性が最大値となる画像上の位置と推定して移動量の算出をしてもよい。このようにすることにより、最も視認すると推定される位置に基づいて移動量を算出することができる。
【0014】
また、解析部は、予め定めた規則に従って画像における基準視線位置を設定する視線位置設定部を備え、視覚顕著性分布情報と基準視線位置とに基づいて画像における視覚的注意の集中度を算出する視覚的注意集中度算出部と、視覚的注意の集中度に基づいて視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間か判定する第2判定部と、を備え、付加部は、視覚的に注意を要する地点又は区間と判定された地点又は区間を地図データに付加してもよい。このようにすることにより、視覚顕著性分布情報から得られた視覚的注意の集中度に基づいて注意を要する地点等を判定して、地図データに付加することができる。
【0015】
また、第2取得部は、交差点に進入する際の道路である進入路毎の画像から、視覚顕著性分布情報を進入路毎に取得し、視線位置設定部は、視覚顕著性分布情報について、交差点に進入後抜け出す道路となる退出路毎に、画像における基準視線位置をそれぞれ設定し、視覚的注意集中度算出部は、視覚顕著性分布情報と基準視線位置とに基づいて画像における退出路毎の前記視覚的注意の集中度を算出し、第2判定部は、退出路毎の視覚的注意の集中度に基づいて交差点が視覚的に注意を要する地点か判定してもよい。このようにすることにより、交差点について、注意を要する地点か判定して、地図データに付加することができる。
【0016】
また、解析部は、視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出するピーク位置検出部と、画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定部と、ピーク位置が前記注視すべき範囲から所定時間以上連続して外れていた場合は脇見の傾向がある旨の情報を出力する脇見出力部と、脇見の傾向がある旨の情報に基づいて視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間か判定する第3判定部と、を備え、付加部は、視覚的に注意を要する地点又は区間と判定された地点又は区間を前記地図データに付加してもよい。このようにすることにより、脇見の傾向がある地点等を注意を要する地点等と判定して、地図データに付加することができる。
【0017】
また、解析部は、視覚顕著性分布情報に基づいて算出された統計量を用いて当該画像が単調傾向か判定する単調判定部と、単調判定部の判定結果に基づいて視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間か判定する第4判定部と、を備え、付加部は、視覚的に注意を要する地点又は区間と判定された地点又は区間を地図データに付加してもよい。このようにすることにより、単調傾向と判定された地点等を注意を要する地点等と判定して、地図データに付加することができる。
【0018】
また、第2取得部は、画像を写像処理可能な中間データに変換する入力部と、中間データを写像データに変換する非線形写像部と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、非線形写像部は、中間データに対し特徴の抽出を行う特徴抽出部と、特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備えてもよい。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。
【0019】
また、本発明の一実施形態にかかる地図データ生成方法は、第1取得工程で、移動体から外部を撮像した画像と移動体の位置情報とが関連けられた入力情報を取得し、第2取得工程で、画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する。そして、解析工程で、視覚顕著性分布情報に基づいて、当該視覚顕著性分布情報に対応する位置情報が示す地点又は区間が視覚的に注意を要する地点又は区間であるか解析し、付加工程で、解析工程の解析結果に基づいて視覚的に注意を要する地点又は区間を地図データに付加する。このようにすることにより、移動体から外部を撮像した画像に基づいて視覚顕著性を推定し、その推定された特徴に基づいて注意を要する地点等を地図データに付加することができる。
【0020】
また、上述した地図データ生成方法を、コンピュータにより実行させている。このようにすることにより、コンピュータを用いて、移動体から外部を撮像した画像に基づいて視覚顕著性を推定し、その推定された特徴に基づいて視覚的に注意を要する地点等を地図データに付加することができる。
【0021】
また、上述した地図データ生成プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。
【実施例0022】
本発明の一実施例にかかる地図データ生成装置を図1図11を参照して説明する。本実施例にかかる地図データ生成装置は、例えば事業所等に設置されるサーバ装置等で構成することができる。
【0023】
図1に示したように、地図データ生成装置1は、入力手段2と、視覚顕著性抽出手段3と、解析手段4と、付加手段5と、を備えている。
【0024】
入力手段2は、例えばカメラなどで撮像された画像(動画像)が入力及びGPS(Global Positioning System)受信機等から出力された位置情報(地点データ)が入力され、その画像を地点データと関連付けて出力する。なお、入力された動画像は、例えばフレーム毎等の時系列に分解された画像データとして出力する。入力手段2に入力される画像として静止画を入力してもよいが、時系列に沿った複数の静止画からなる画像群として入力するのが好ましい。
【0025】
入力手段2に入力される画像は、例えば車両の進行方向が撮像された画像が挙げられる。つまり、移動体から外部を連続的に撮像した画像とする。この画像はいわゆるパノラマ画像や複数カメラを用いて取得した画像等の水平方向に180°や360°等進行方向以外が含まれる画像であってもよい。また、入力手段2には入力されるのは、カメラで撮像された画像が直接入力されるに限らず、ハードディスクドライブやメモリカード等の記録媒体から読み出した画像であってもよい。即ち、入力手段2は、移動体から外部を撮像した画像と移動体の位置情報とが関連けられた入力情報を取得する第1取得部として機能する。
【0026】
視覚顕著性抽出手段3は、入力手段2から画像データが入力され、後述する視覚顕著性推定情報として視覚顕著性マップを出力する。即ち、視覚顕著性抽出手段3は、移動体から外部を撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップ(視覚顕著性分布情報)を取得する第2取得部として機能する。
【0027】
図2は、視覚顕著性抽出手段3の構成を例示するブロック図である。本実施例に係る視覚顕著性抽出手段3は、入力部310、非線形写像部320、および出力部330を備える。入力部310は、画像を写像処理可能な中間データに変換する。非線形写像部320は、中間データを写像データに変換する。出力部330は、写像データに基づき顕著性分布を示す顕著性推定情報を生成する。そして、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322とを備える。以下に詳しく説明する。
【0028】
図3(a)は、視覚顕著性抽出手段3へ入力する画像を例示する図であり、図3(b)は、図3(a)に対し推定される、視覚顕著性分布を示す画像を例示する図である。本実施例に係る視覚顕著性抽出手段3は、画像における各部分の視覚顕著性を推定する装置である。視覚顕著性とは例えば、目立ちやすさや視線の集まりやすさを意味する。具体的には視覚顕著性は、確率等で示される。ここで、確率の大小は、たとえばその画像を見た人の視線がその位置に向く確率の大小に対応する。
【0029】
図3(a)と図3(b)とは、互いに位置が対応している。そして、図3(a)において、視覚顕著性が高い位置ほど、図3(b)において輝度が高く表示されている。図3(b)のような視覚顕著性分布を示す画像は、出力部330が出力する視覚顕著性マップの一例である。本図の例において、視覚顕著性は、256階調の輝度値で可視化されている。出力部330が出力する視覚顕著性マップの例については詳しく後述する。
【0030】
図4は、本実施例に係る視覚顕著性抽出手段3の動作を例示するフローチャートである。図4に示したフローチャートは、コンピュータによって実行される地図データ生成方法の一部であって、入力ステップS115、非線形写像ステップS120、および出力ステップS130を含む。入力ステップS115では、画像が写像処理可能な中間データに変換される。非線形写像ステップS120では、中間データが写像データに変換される。出力ステップS130では、写像データに基づき顕著性分布を示す視覚顕著性推定情報が生成される。ここで、非線形写像ステップS120は、中間データに対し特徴の抽出を行う特徴抽出ステップS121と、特徴抽出ステップS121で生成されたデータのアップサンプルを行うアップサンプルステップS122とを含む。
【0031】
図2に戻り、視覚顕著性抽出手段3の各構成要素について説明する。入力ステップS115において入力部310は、画像を取得し、中間データに変換する。入力部310は、画像データを入力手段2から取得する。そして入力部310は、取得した画像を中間データに変換する。中間データは非線形写像部320が受け付け可能なデータであれば特に限定されないが、たとえば高次元テンソルである。また、中間データはたとえば、取得した画像に対し輝度を正規化したデータ、または、取得した画像の各画素を、輝度の傾きに変換したデータである。入力ステップS115において入力部310は、さらに画像のノイズ除去や解像度変換等を行っても良い。
【0032】
非線形写像ステップS120において、非線形写像部320は入力部310から中間データを取得する。そして、非線形写像部320において中間データが写像データに変換される。ここで、写像データは例えば高次元テンソルである。非線形写像部320で中間データに施される写像処理は、たとえばパラメータ等により制御可能な写像処理であり、関数、汎関数、またはニューラルネットワークによる処理であることが好ましい。
【0033】
図5は、非線形写像部320の構成を詳しく例示する図であり、図6は、中間層323の構成を例示する図である。上記した通り、非線形写像部320は、特徴抽出部321およびアップサンプル部322を備える。特徴抽出部321において特徴抽出ステップS121が行われ、アップサンプル部322においてアップサンプルステップS122が行われる。また、本図の例において、特徴抽出部321およびアップサンプル部322の少なくとも一方は、複数の中間層323を含むニューラルネットワークを含んで構成される。ニューラルネットワークにおいては、複数の中間層323が結合されている。
【0034】
特にニューラルネットワークは畳み込みニューラルネットワークであることが好ましい。具体的には、複数の中間層323のそれぞれは、一または二以上の畳み込み層324を含む。そして、畳み込み層324では、入力されたデータに対し複数のフィルタ325による畳み込みが行われ、複数のフィルタ325の出力に対し活性化処理が施される。
【0035】
図5の例において、特徴抽出部321は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間に第1のプーリング部326を備える。また、アップサンプル部322は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間にアンプーリング部328を備える。さらに、特徴抽出部321とアップサンプル部322とは、オーバーラッププーリングを行う第2のプーリング部327を介して互いに接続されている。
【0036】
なお、本図の例において各中間層323は、二以上の畳み込み層324からなる。ただし、少なくとも一部の中間層323は、一の畳み込み層324のみからなってもよい。互いに隣り合う中間層323は、第1のプーリング部326、第2のプーリング部327およびアンプーリング部328のいずれかで区切られる。ここで、中間層323に二以上の畳み込み層324が含まれる場合、それらの畳み込み層324におけるフィルタ325の数は互いに等しいことが好ましい。
【0037】
本図では、「A×B」と記された中間層323は、B個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対しA個の畳み込みフィルタを含むことを意味している。このような中間層323を以下では「A×B中間層」とも呼ぶ。たとえば、64×2中間層323は、2個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対し64個の畳み込みフィルタを含むことを意味している。
【0038】
本図の例において、特徴抽出部321は、64×2中間層323、128×2中間層323、256×3中間層323、および、512×3中間層323をこの順に含む。また、アップサンプル部322は、512×3中間層323、256×3中間層323、128×2中間層323、および64×2中間層323をこの順に含む。また、第2のプーリング部327は、2つの512×3中間層323を互いに接続している。なお、非線形写像部320を構成する中間層323の数は特に限定されず、たとえば画像データの画素数に応じて定めることができる。
【0039】
なお、本図は非線形写像部320の構成の一例であり、非線形写像部320は他の構成を有していても良い。たとえば、64×2中間層323の代わりに64×1中間層323が含まれても良い。中間層323に含まれる畳み込み層324の数が削減されることで、計算コストがより低減される可能性がある。また、たとえば、64×2中間層323の代わりに32×2中間層323が含まれても良い。中間層323のチャネル数が削減されることで、計算コストがより低減される可能性がある。さらに、中間層323における畳み込み層324の数とチャネル数との両方を削減しても良い。
【0040】
ここで、特徴抽出部321に含まれる複数の中間層323においては、第1のプーリング部326を経る毎にフィルタ325の数が増加することが好ましい。具体的には、第1の中間層323aと第2の中間層323bとが、第1のプーリング部326を介して互いに連続しており、第1の中間層323aの後段に第2の中間層323bが位置する。そして、第1の中間層323aは、各チャネルに対するフィルタ325の数がN1である畳み込み層324で構成されており、第2の中間層323bは、各チャネルに対するフィルタ325の数がN2である畳み込み層324で構成されている。このとき、N2>N1が成り立つことが好ましい。また、N2=N1×2が成り立つことがより好ましい。
【0041】
また、アップサンプル部322に含まれる複数の中間層323においては、アンプーリング部328を経る毎にフィルタ325の数が減少することが好ましい。具体的には、第3の中間層323cと第4の中間層323dとが、アンプーリング部328を介して互いに連続しており、第3の中間層323cの後段に第4の中間層323dが位置する。そして、第3の中間層323cは、各チャネルに対するフィルタ325の数がN3である畳み込み層324で構成されており、第4の中間層323dは、各チャネルに対するフィルタ325の数がN4である畳み込み層324で構成されている。このとき、N4<N3が成り立つことが好ましい。また、N3=N4×2が成り立つことがより好ましい。
【0042】
特徴抽出部321では、入力部310から取得した中間データから勾配や形状など、複数の抽象度を持つ画像特徴を中間層323のチャネルとして抽出する。図6は、64×2中間層323の構成を例示している。本図を参照して、中間層323における処理を説明する。本図の例において、中間層323は第1の畳み込み層324aと第2の畳み込み層324bとで構成されており、各畳み込み層324は64個のフィルタ325を備える。第1の畳み込み層324aでは、中間層323に入力されたデータの各チャネルに対して、フィルタ325を用いた畳み込み処理が施される。たとえば入力部310へ入力された画像がRGB画像である場合、3つのチャネルh (i=1..3)のそれぞれに対して処理が施される。また、本図の例において、フィルタ325は64種の3×3フィルタであり、すなわち合計64×3種のフィルタである。畳み込み処理の結果、各チャネルiに対して、64個の結果h i,j(i=1..3,j=1..64)が得られる。
【0043】
次に、複数のフィルタ325の出力に対し、活性化部329において活性化処理が行われる。具体的には、全チャネルの対応する結果jについて、対応する要素毎の総和に活性化処理が施される。この活性化処理により、64チャネルの結果h1i(i=1..64)、すなわち、第1の畳み込み層324aの出力が、画像特徴として得られる。活性化処理は特に限定されないが、双曲関数、シグモイド関数、および正規化線形関数の少なくともいずれかを用いる処理が好ましい。
【0044】
さらに、第1の畳み込み層324aの出力データを第2の畳み込み層324bの入力データとし、第2の畳み込み層324bにて第1の畳み込み層324aと同様の処理を行って、64チャネルの結果h (i=1..64)、すなわち第2の畳み込み層324bの出力が、画像特徴として得られる。第2の畳み込み層324bの出力がこの64×2中間層323の出力データとなる。
【0045】
ここで、フィルタ325の構造は特に限定されないが、3×3の二次元フィルタであることが好ましい。また、各フィルタ325の係数は独立に設定可能である。本実施例において、各フィルタ325の係数は記憶部390に保持されており、非線形写像部320がそれを読み出して処理に用いることができる。ここで、複数のフィルタ325の係数は機械学習を用いて生成、修正された補正情報に基づいて定められてもよい。たとえば、補正情報は、複数のフィルタ325の係数を、複数の補正パラメータとして含む。非線形写像部320は、この補正情報をさらに用いて中間データを写像データに変換することができる。記憶部390は視覚顕著性抽出手段3に備えられていてもよいし、視覚顕著性抽出手段3の外部に設けられていてもよい。また、非線形写像部320は補正情報を、通信ネットワークを介して外部から取得しても良い。
【0046】
図7(a)および図7(b)はそれぞれ、フィルタ325で行われる畳み込み処理の例を示す図である。図7(a)および図7(b)では、いずれも3×3畳み込みの例が示されている。図7(a)の例は、最近接要素を用いた畳み込み処理である。図7(b)の例は、距離が二以上の近接要素を用いた畳み込み処理である。なお、距離が三以上の近接要素を用いた畳み込み処理も可能である。フィルタ325は、距離が二以上の近接要素を用いた畳み込み処理を行うことが好ましい。より広範囲の特徴を抽出することができ、視覚顕著性の推定精度をさらに高めることができるからである。
【0047】
以上、64×2中間層323の動作について説明した。他の中間層323(128×2中間層323、256×3中間層323、および、512×3中間層323等)の動作についても、畳み込み層324の数およびチャネルの数を除いて、64×2中間層323の動作と同じである。また、特徴抽出部321における中間層323の動作も、アップサンプル部322における中間層323の動作も上記と同様である。
【0048】
図8(a)は、第1のプーリング部326の処理を説明するための図であり、図8(b)は、第2のプーリング部327の処理を説明するための図であり、図8(c)は、アンプーリング部328の処理を説明するための図である。
【0049】
特徴抽出部321において、中間層323から出力されたデータは、第1のプーリング部326においてチャネル毎にプーリング処理が施された後、次の中間層323に入力される。第1のプーリング部326ではたとえば、非オーバーラップのプーリング処理が行われる。図8(a)では、各チャネルに含まれる要素群に対し、2×2の4つの要素30を1つの要素30に対応づける処理を示している。第1のプーリング部326ではこのような対応づけが全ての要素30に対し行われる。ここで、2×2の4つの要素30は互いに重ならないよう選択される。本例では、各チャネルの要素数が4分の1に縮小される。なお、第1のプーリング部326において要素数が縮小される限り、対応づける前後の要素30の数は特に限定されない。
【0050】
特徴抽出部321から出力されたデータは、第2のプーリング部327を介してアップサンプル部322に入力される。第2のプーリング部327では、特徴抽出部321からの出力データに対し、オーバーラッププーリングが施される。図8(b)では、一部の要素30をオーバーラップさせながら、2×2の4つの要素30を1つの要素30に対応づける処理を示している。すなわち、繰り返される対応づけにおいて、ある対応づけにおける2×2の4つの要素30のうち一部が、次の対応づけにおける2×2の4つの要素30にも含まれる。本図のような第2のプーリング部327では要素数は縮小されない。なお、第2のプーリング部327において対応づける前後の要素30の数は特に限定されない。
【0051】
第1のプーリング部326および第2のプーリング部327で行われる各処理の方法は特に限定されないが、たとえば、4つの要素30の最大値を1つの要素30とする対応づけ(max pooling)や4つの要素30の平均値を1つの要素30とする対応づけ(average pooling)が挙げられる。
【0052】
第2のプーリング部327から出力されたデータは、アップサンプル部322における中間層323に入力される。そして、アップサンプル部322の中間層323からの出力データはアンプーリング部328においてチャネル毎にアンプーリング処理が施された後、次の中間層323に入力される。図8(c)では、1つの要素30を複数の要素30に拡大する処理を示している。拡大の方法は特に限定されないが、1つの要素30を2×2の4つの要素30へ複製する方法が例として挙げられる。
【0053】
アップサンプル部322の最後の中間層323の出力データは写像データとして非線形写像部320から出力され、出力部330に入力される。出力ステップS130において出力部330は、非線形写像部320から取得したデータに対し、たとえば正規化や解像度変換等を行うことで視覚顕著性マップを生成し、出力する。視覚顕著性マップはたとえば、図3(b)に例示したような視覚顕著性を輝度値で可視化した画像(画像データ)である。また、視覚顕著性マップはたとえば、ヒートマップのように視覚顕著性に応じて色分けされた画像であっても良いし、視覚顕著性が予め定められた基準より高い視覚顕著領域を、その他の位置とは識別可能にマーキングした画像であっても良い。さらに、視覚顕著性推定情報は画像等として示されたマップ情報に限定されず、視覚顕著領域を示す情報を列挙したテーブル等であっても良い。
【0054】
解析手段4は、視覚顕著性抽出手段3が出力した視覚顕著性マップに基づいて、当該視覚顕著性マップに対応する地点が視認負荷が高い傾向か解析する。解析手段4は、図9に示したように、視認負荷量算出手段41と、視認負荷判定手段42と、を備えている。
【0055】
視認負荷量算出手段41は、視覚顕著性抽出手段3が出力した視覚顕著性マップに基づいて視認負荷量を算出する。視認負荷量算出手段41で算出された結果である視認負荷量は、例えばスカラ量またはベクトル量であってもよい。あるいは単一データまたは複数の時系列データであってもよい。視認負荷量算出手段41は、注視点情報を推定し、視認負荷量として注視点移動量を算出する。
【0056】
視認負荷量算出手段41の詳細を説明する。まず、視覚顕著性抽出手段3が出力した時系列の視覚顕著性マップから注視点情報を推定する。注視点情報の定義については特に限定しないが、例えば顕著性の値が最大値となる位置(座標)などとすることができる。つまり、視認負荷量算出手段41は、注視点情報を、視覚顕著性マップ(視覚顕著性分布情報)において視覚顕著性が最大値となる画像上の位置と推定している。
【0057】
そして、推定された時系列の注視点情報から時系列の注視点移動量を算出する。算出された注視点移動量もまた時系列データとなる。算出方法については特に限定しないが、例えば時系列で前後の関係にある注視点座標間のユークリッド距離などとすることができる。つまり、本実施例では、注視点移動量を視認負荷量として算出している。即ち、視認負荷量算出手段41は、生成された視覚顕著性マップ(視覚顕著性分布情報)に基づいて注視点(推定注視点)の移動量を算出する移動量算出部として機能する。
【0058】
視認負荷判定手段42は、視認負荷量算出手段41で算出された移動量に基づいて対象とする地点又は区間が視認負荷が大きいか否か判定する。視認負荷判定手段42における判定方法は後述する。
【0059】
付加手段5は、取得した地図データに対して、解析手段4における解析結果に基づいて注意地点情報を付加する。つまり、付加手段5は、視認負荷判定手段42で視認負荷が大きいと判定された地点を注意を要する地点として地図データに付加する。
【0060】
次に、上述した構成の地図データ生成装置1における動作(地図データ生成方法)について、図10のフローチャートを参照して説明する。また、このフローチャートを地図データ生成装置1として機能するコンピュータで実行されるプログラムとして構成することで地図データ生成プログラムとすることができる。また、この地図データ生成プログラムは、地図データ生成装置1が有するメモリ等に記憶するに限らず、メモリカードや光ディスク等の記憶媒体に格納してもよい。
【0061】
まず、入力手段2が、地点データを取得する(ステップS210)。地点データは上述したようにGPS受信機等から取得すればよい。
【0062】
次に、入力手段2が、走行動画(画像データ)を取得する(ステップS220)。本ステップでは、入力手段2に入力された画像データを画像フレーム等の時系列に分解して、ステップS210で取得した地点データと関連付けて視覚顕著性抽出手段3へ入力している。また、本ステップでノイズ除去や幾何学変換などの画像処理を施してもよい。なお、ステップS210とS220は順序が逆であってもよい。
【0063】
次に、視覚顕著性抽出手段3が、視覚顕著性マップを抽出する(ステップS230)。視覚顕著性マップは、視覚顕著性抽出手段3において、上述した方法により図3(b)に示したような視覚顕著性マップを時系列に出力する。
【0064】
次に、視認負荷量算出手段41が、上記した方法により注視点移動量を算出する(ステップS240)。
【0065】
次に、視認負荷判定手段42が、ステップS240で算出した注視点移動量が予め定めた閾値以上か否か判定する(ステップS250)。この閾値は、注視点移動量に関する閾値である。即ち、視認負荷判定手段42は、算出された注視点の移動量が第1閾値と比較することで視覚顕著性マップ(視覚顕著性分布情報)に対応する地点データ(位置情報)が示す地点又は区間は視認負荷が高い傾向か判定する第1判定部として機能する。ステップS250の判定の結果、注視点移動量が予め定めた閾値以上であった場合は(ステップS250:YES)、付加手段5が、対象とする地点を視認負荷量が大きい注意地点として地図データに登録(付加)する(ステップS260)。
【0066】
また、ステップS250の判定の結果、注視点移動量が予め定めた閾値未満であった場合は(ステップS250:NO)、対象とする地点は、視認負荷量が大きくないので、注意地点として登録は行わない。
【0067】
ここで、注意地点が登録された地図の例を図11に示す。図11において符号Wで示した丸印が注意地点を示すものである。図11は、視認負荷量が大きい地点を示した例である。ここで、視認負荷量の大きさに応じて丸印の色や濃さを変化させてもよいし、丸印の大きさを変化させてもよい。
【0068】
本実施例によれば、地図データ生成装置1は、入力手段2で車両から外部を撮像した画像データと当該車両の地点データとを取得して、双方のデータを関連付けて、視覚顕著性抽出手段3で画像データに基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップを生成する。そして、解析手段4で視覚顕著性マップに基づいて、当該視覚顕著性マップに対応する位置情報が示す地点又は区間が視認負荷が高い傾向か解析し、付加手段5で解析手段4の解析結果に基づいて視認負荷が高い傾向を示す地点又は区間を地図データに付加する。このようにすることにより、車両から外部を撮像した画像に基づいて視覚顕著性を推定し、その推定された特徴に基づいて視覚的に負荷を感じる地点を地図データに付加することができる。
【0069】
また、解析手段4は、視覚顕著性マップに基づいて注視点移動量を算出する視認負荷量算出手段41と、算出された注視点移動量を第1閾値と比較することで視覚顕著性マップに対応する地点データが示す地点又は区間は視認負荷が高い傾向か判定する視認負荷判定手段42と、を備えている。このようにすることにより、注視点移動量を第1閾値と比較することにより視認負荷量が高い傾向か否かを容易に判定することができる。
【0070】
また、視認負荷量算出手段41は、注視点を、視覚顕著性マップにおいて視覚顕著性が最大値となる画像上の位置と推定して移動量の算出をしている。このようにすることにより、最も視認すると推定される位置に基づいて移動量を算出することができる。
【0071】
また、視覚顕著性抽出手段3は、画像を写像処理可能な中間データに変換する入力部310と、中間データを写像データに変換する非線形写像部320と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部330と、を備え、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322と、を備えている。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。
【実施例0072】
次に、本発明の第2の実施例にかかる地図データ生成装置を図12図15を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。
【0073】
本実施例では、第1の実施例で説明した視覚的負荷ではなく、視覚的注意集中度を算出して、その視覚的注意集中度に基づいて視覚的に注意を要する地点等を地図データに付加するものである。視覚的注意集中度については後述する。
【0074】
図12に示したように、本実施例にかかる解析手段4は、視線座標設定手段43と、ベクトル誤差演算手段44と、出力手段45と、を備えている。
【0075】
視線座標設定手段43は、後述する理想視線を視覚顕著性マップ上に設定する。理想視線とは、障害物や自分以外の交通参加者がいないという理想的な交通環境下で自動車の運転者が進行方向に沿って向ける視線をいう。画像データや視覚顕著性マップ上では(x,y)座標として取り扱う。なお、本実施例では理想視線は固定値とするが、移動体の停止距離に影響する速度や道路の摩擦係数の関数として扱ってもよいし、設定された経路情報を利用して決定されてもよい。即ち、視線座標設定手段43は、予め定めた規則に従って画像における理想視線(基準視線位置)を設定する視線位置設定部として機能する。
【0076】
ベクトル誤差演算手段44は、視覚顕著性抽出手段3が出力した視覚顕著性マップ及び当該視覚顕著性マップや画像に対して視線座標設定手段43が設定した理想視線に基づいてベクトル誤差を算出し、そのベクトル誤差に基づいて視覚的注意の集中度を示す後述する視覚的注意集中度Psを演算する。即ち、ベクトル誤差演算手段44は、視覚顕著性分布情報と視線位置とに基づいて画像における視覚的注意の集中度を算出する視覚的注意集中度算出部として機能する。
【0077】
ここで、本実施例におけるベクトル誤差について図13を参照して説明する。図13は、視覚顕著性マップの例を示したものである。この視覚顕著性マップはH画素×V画素の256階調の輝度値で示されており、図3と同様に視覚顕著性が高い画素ほど輝度が高く表示されている。図13において、理想視線の座標(x,y)=(xim,yim)としたとき、視覚顕著性マップ内の任意の座標(k,m)の画素とのベクトル誤差を算出する。視覚顕著性マップにおいて輝度が高い座標と理想視線の座標とが離れている場合は、注視すべき位置と実際に注視し易い位置とが離れることを意味し、視覚的注意が散漫になり易い画像といえる。一方、輝度が高い座標と理想視線の座標とが近い場合は、注視すべき位置と実際に注視し易い位置とが近いことを意味し、注視すべき位置に視覚的注意が集中し易い画像といえる。
【0078】
次に、ベクトル誤差演算手段44における視覚的注意集中度Psの算出方法について説明する。本実施例では、視覚的注意集中度Psは次の(1)式により算出される。
【数1】
【0079】
(1)式において、Vvcはピクセル深度(輝度値)、fは重みづけ関数、derrはベクトル誤差を示している。この重みづけ関数は、例えばVvcの値を示す画素から理想視線の座標までの距離に基づいて重み設定される関数である。αは輝点1点の視覚顕著性マップ(リファレンスヒートマップ)における、輝点の座標と理想視線の座標が一致したときの視覚的注意集中度Psが1となるような係数である。
【0080】
即ち、ベクトル誤差演算手段44(視覚的注意集中度算出部)は、視覚顕著性マップ(視覚顕著性分布情報)を構成する各画素の値と、各画素の位置と理想視線(基準視線位置)の座標位置とのベクトル誤差と、に基づいて視覚的注意の集中度を算出している。
【0081】
このようにして得られた視覚的注意集中度Psは、視覚顕著性マップ上に設定した理想視線の座標からの全画素の座標のベクトル誤差と輝度値の関係を重みづけした上で合計したものの逆数である。この視覚的注意集中度Psは、理想視線の座標から視覚顕著性マップの輝度が高い分布が離れていると低い値が算出される。即ち、視覚的注意集中度Psは、理想視線に対する集中度ともいえる。
【0082】
図14に入力手段2に入力された画像と、その画像から取得された視覚顕著性マップの例を示す。図14(a)は入力画像、(b)は視覚顕著性マップである。このような図14において、理想視線の座標を例えば前方を走行するトラック等の道路上に設定すると、その場合における視覚的注意集中度Psが算出される。
【0083】
出力手段45は、ベクトル誤差演算手段44で算出された視覚的注意集中度Psに基づいて当該視覚的注意集中度Psが算出された画像が示すシーンについてのリスクに関する情報を出力する。リスクに関する情報としては、例えば、視覚的注意集中度Psに所定の閾値を設け、算出された視覚的注意集中度Psが閾値以下の場合はリスクが高いシーンであるとの情報を出力する。例えば図10で算出された視覚的注意集中度Psが閾値以下の場合はリスクが高いシーンであると判定し、リスク有(またはリスク高)といった情報を出力することができる。
【0084】
また、出力手段45は、ベクトル誤差演算手段44で算出された視覚的注意集中度Psの時間的変化に基づいてリスクに関する情報を出力してもよい。図15に視覚的注意集中度Psの時間的変化の例を示す。図15は、12秒間の動画像における視覚的注意集中度Psの変化を示している。図15において、約6.5秒~約7秒の間で視覚的注意集中度Psが急激に変化している。これは、例えば自車両の前方に他車両が割り込んだ場合等である。
【0085】
図15に示したように、視覚的注意集中度Psの短時間当たりの変化率や変化値を予め定めた閾値と比較することによりリスクが高いシーンであると判定し、リスク有(またはリスク高)を示す情報を出力してもよい。また、例えば一旦下がった視覚的注意集中度Psが上がる等の変化のパターンによりリスクの有無(高低)を判定してもよい。
【0086】
そして、本実施例では、付加手段5は、出力手段45から出力されたリスクに関する情報で、例えばリスク有との情報が含まれている場合は、処理された画像の示す地点又は区間を注意地点(注意を要する地点)として地図データに登録(付加)する。なお、地図の例としては図11と同様である。
【0087】
本実施例によれば、視線座標設定手段43が、予め定めた固定位置に理想視線の座標を設定する。そして、ベクトル誤差演算手段44が、視覚顕著性マップと理想視線とに基づいて画像における視覚的注意集中度Psを算出する。このようにすることにより、視覚顕著性マップを用いるため、画像内に含まれる標識や歩行者といった物体が何かという文脈的な注意状態を反映することができる。したがって、精度良く視覚的注意集中度Psを算出することが可能となる。そして、このように算出された視覚的注意集中度Psに基づくリスク地点を地図データに付加することができる。
【0088】
また、ベクトル誤差演算手段44は、視覚顕著性マップを構成する各画素の値と、各画素の位置と理想視線の座標位置とのベクトル誤差と、に基づいて視覚的注意集中度Psを算出している。このようにすることにより、視覚顕著性が高い位置と理想視線との差に応じた値が視覚的注意集中度Psとして算出される。したがって、例えば、視覚顕著性が高い位置と理想視線との距離に応じて視覚的注意集中度Psの値が変化するようにすることができる。
【0089】
また、視覚的注意集中度Psの時間的変化に基づいて当該画像の示す地点におけるリスク情報を出力する出力手段45を備えている。このようにすることにより、例えば視覚的注意集中度Psの時間的変化が大きい地点を事故リスク地点等として出力することが可能となる。
【実施例0090】
次に、本発明の第3の実施例にかかる地図データ生成装置を図16図20を参照して説明する。なお、前述した第1、第2の実施例と同一部分には、同一符号を付して説明を省略する。
【0091】
本実施例は、第2の実施例の変形例であり視覚的注意集中度を算出することは同様である。本実施例で入力手段2から入力される画像は、交差点へ進入する画像であること、出力手段45におけるリスクの判定方法等が異なる。
【0092】
本実施例におけるリスク情報が出力される対象となる交差点の例を図16に示す。図16は、四叉路(十字路)を構成する交差点である。この交差点において、A方向、B方向、C方向からそれぞれ進入する場合における交差点方向(進行方向)の画像をそれぞれ示す。つまり、図16に示した画像は、A方向、B方向、C方向をそれぞれ交差点に進入する際の道路である進入路とした場合の画像である。
【0093】
図16に示した画像に対して、先の実施例で説明したように視覚顕著性マップをそれぞれ取得する。そして、画像について、直進、右折、左折の各進行方向について理想視線を設定し、それぞれの理想視線について視覚的注意集中度Psを算出する(図17)。つまり、交差点に進入後抜け出す道路となる退出路毎に、画像における理想視線(基準視線位置)をそれぞれ設定して、それぞれの理想視線に対する視覚的注意集中度Psをベクトル誤差演算手段44が算出している。
【0094】
ここで、各進入路から交差点に進入する際の視覚的注意集中度Psの時間的変化を図18に示す。このような時間的変化はベクトル誤差演算手段44の算出結果に基づくものである。図18のグラフは縦軸に視覚的注意集中度Ps、横軸に時間を示し、太線は直進、細線は左折、破線は右折の各進行方向に理想視線を設定した場合をそれぞれ示している。そして、図18(a)はA方向から進入する場合、図18(b)はB方向から進入する場合、図18(c)はC方向から進入する場合をそれぞれ示している。
【0095】
図18によれば、交差点に接近する際には、視覚的注意集中度Psが低下する傾向にあるが、図18(b)のように交差点の直近で急激に低下する場合もある。また、図18によれば、直進するために前をまっすぐ見たと仮定したときの視覚的注意集中度Psよりも、右折や左折のために視線を左右いずれかに向けたと仮定したときの視覚的注意集中度Psが低い傾向となった。
【0096】
次に、図18で算出された視覚的注意集中度Psの時間的変化を利用して右又は左方向の視覚的注意集中度Psと直進方向の視覚的注意集中度Psとの比を出力手段45で算出する。算出した比の変化を図19に示す。図19のグラフは縦軸に比、横軸に時間を示し、太線は左折/直進比(L/C)、細線は右折/直進比(R/C)を示している。そして、図19(a)はA方向から進入する場合、図19(b)はB方向から進入する場合、図19(c)はC方向から進入する場合をそれぞれ示している。例えば図19(a)のIALはPSLA(A方向左視覚的注意集中度)/PSCA(A方向直進視覚的注意集中度)を示し、IARはPSRA(A方向右視覚的注意集中度)/PSCA(A方向直進視覚的注意集中度)を示している。図19(b)のIBL、IBR図19(c)のICL、ICRも進入方向が異なるのみで意味は同じである。
【0097】
図19によれば、IALやIARといった視覚的注意集中度の比が1より小さいときは、直進するために視線を運ぶときより右左折するときに視線を運ぶときの方が運転者の集中度(=視覚的注意集中度Ps)が落ちる交差点であることを表しているといえる。逆に比が1より大きいときは、直進するときの視線で運転者の集中度が落ちる交差点であることを表しているといえる。
【0098】
したがって、出力手段45では、上記のような視覚的注意集中度Psの時間的変化や視覚的注意集中度Psの比に基づいて対象とする交差点のリスクの状態を判定して、判定結果をリスクに関する情報として出力することが可能となる。そして、そのリスクに関する情報に基づいて注意地点を地図データに付加することができる。
【0099】
本実施例によれば、視線座標設定手段43が、視覚顕著性マップについて、交差点に進入後抜け出す道路となる退出路毎に、画像における理想視線の座標をそれぞれ設定する。そして、ベクトル誤差演算手段44、視覚顕著性マップと理想視線とに基づいて画像における退出路毎の視覚的注意集中度Psを算出して、出力手段45が、退出路毎に算出された視覚的注意集中度Psに基づいて交差点におけるリスク情報を出力する。このようにすることにより、対象とする交差点についてリスクを評価してリスク情報を出力して地図データに付加することができる。
【0100】
また、出力手段45は、退出路のうち、直進する退出路の視覚的注意集中度Psと右折または左折する退出路の視覚的注意集中度Psとの比に基づいてリスク情報を出力している。このようにすることにより、直進する際と右左折する際でどちらに注意が向かい易いかを評価して、評価結果を出力することができる。
【0101】
また、出力手段45は、視覚的注意集中度Psの時間的変化に基づいてリスク情報を出力してもよい。このようにすることにより、例えば視覚的注意集中度Psが急激に変化する場合等を検出してリスク情報を出力することができる。
【0102】
なお、第3の実施例において、例えば図17では、A方向から交差点に進入する場合は、右折(B方向へ向かう)の視覚的注意集中度Psが低下する。B方向から交差点に進入する場合は、右左折(A方向又はC方向へ向かう)の視覚的注意集中度Psが低下する。C方向から交差点に進入する場合は、右折の視覚的注意集中度Psが低下する。
【0103】
この場合、例えばA方向から右折する経路と、B方向から左折する経路は、いずれも視覚的注意集中度Psが他の経路よりも低下する経路であり、さらに進入路と退出路とを入れ替えた場合に同じ経路となる。したがって、この交差点においては、この経路はリスク有(またはリスク高)といったリスクに関する情報を出力するようにしてもよい。
【0104】
また、第3の実施例は、交差点について説明したが、この考え方を道路上のカーブに適用することもできる。図20を参照して説明する。
【0105】
図20は、カーブしている道路の例である。この道路は、D方向(図下側)から左カーブとして通行する場合と、E方向(図左側)から右カーブとして通行する場合がある。ここで、例えばD方向からカーブに進入する場合、道路の湾曲方向である左方向に理想視線を設定するだけでなく、道路が直進していたと仮定した場合の方向(D’方向)にも理想視線を設定し、それぞれ視覚的注意集中度Psを算出する。E方向からカーブに進入する場合も同様に、道路の湾曲方向である右方向に理想視線を設定するだけでなく、道路が直進していたと仮定した場合の方向(E’方向)にも理想視線を設定し、それぞれ視覚的注意集中度Psを算出する。
【0106】
そして、算出された視覚的注意集中度Psに基づいて交差点と同様に時系列の変化や比等に基づいてリスクを判定すればよい。
【0107】
なお、図20のようにカーブの曲率が大きい場合は、直進方向のみでなく、カーブの湾曲方向と逆向きにも仮想的な理想視線を設定してもよい。図20であれば、D方向から進入する場合であれば、D’方向だけでなくE’方向にも理想視線を設定して視覚的注意集中度Psを算出してもよい。つまり、カーブの湾曲方向と異なる方向に理想視線を設定すればよい。
【0108】
即ち、視覚顕著性抽出手段3が、道路上のカーブに進入する際の画像から、当該画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを取得し、視線座標設定手段43が、視覚顕著性マップについて、カーブの湾曲方向及び湾曲方向と異なる方向に、画像における理想視線の座標をそれぞれ設定する。そして、ベクトル誤差演算手段44が、視覚顕著性マップと理想視線とに基づいて画像における湾曲方向と湾曲方向と異なる方向の視覚的注意集中度Psを算出し、出力手段45が、退出路毎に算出された視覚的注意集中度Psに基づいてカーブにおけるリスク情報を出力している。
【0109】
このようにすることにより、対象とするカーブについてリスクを評価してリスクに関する情報を出力することができる。
【実施例0110】
次に、本発明の第4の実施例にかかる地図データ生成装置を図21図25を参照して説明する。なお、前述した第1~第3の実施例と同一部分には、同一符号を付して説明を省略する。
【0111】
本実施例では、脇見の傾向を検出して、その脇見の傾向に基づいて視覚的に注意を要する地点等を地図データに付加するものである。図21に示したように、本実施例にかかる解析手段4は、視覚顕著性ピーク検出手段46と、脇見傾向判定手段47と、を備えている。
【0112】
視覚顕著性ピーク検出手段46は、視覚顕著性抽出手段3において取得した視覚顕著性マップにおいて、ピークとなる位置(画素)を検出する。ここで、本実施例においてピークとは画素値が最大値(輝度が最大)となる視覚顕著性が高い画素であり、位置は座標で表される。即ち、視覚顕著性ピーク検出手段46は、視覚顕著性マップ(視覚顕著性分布情報)における少なくとも1つのピーク位置を検出するピーク位置検出部として機能する。
【0113】
脇見傾向判定手段47は、視覚顕著性ピーク検出手段46で検出されたピークとなる位置に基づいて、入力手段2から入力された画像が脇見の傾向があるか判定する。脇見傾向判定手段47は、まず、入力手段2から入力された画像について注視エリア(注視すべき範囲)を設定する。注視エリアの設定方法について図22を参照して説明する。即ち、脇見傾向判定手段47は、画像における移動体の運転者が注視すべき範囲を設定する注視範囲設定部として機能する。
【0114】
図22に示した画像Pにおいて、注視エリアGは、消失点Vの周囲に設定されている。即ち、注視エリアG(注視すべき範囲)を画像の消失点に基づいて設定している。この注視エリアGは、予め注視エリアGの大きさ(例えば幅3m、高さ2m)を設定し、画像Pの水平画素数、垂直画素数、水平画角、垂直画角、先行車両までの車間距離、画像を撮像しているドライブレコーダー等のカメラの取り付け高さ等から、設定した大きさの画素数を算出することが可能である。なお、消失点は、白線等から推定してもよいし、オプティカルフロー等を用いて推定してもよい。また、先行車両までの車間距離は、実際の先行車両を検出する必要はなく仮想的に設定するものでよい。
【0115】
次に、設定した注視エリアGに基づいて画像Pにおける脇見検出エリアを設定する(図23の網掛け部分)。この脇見検出エリアは、上方エリアIu、下方エリアId、左側方エリアIl、右側方エリアIrがそれぞれ設定される。これらのエリアは、消失点Vと、注視エリアGの各頂点を結ぶ線分により区分けされる。即ち、上方エリアIuと左側方エリアIlとは、消失点Vと注視エリアGの頂点Gaとを結ぶ線分L1により区切られている。上方エリアIuと右側方エリアIrとは、消失点Vと注視エリアGの頂点Gdとを結ぶ線分L2により区切られている。下方エリアIdと左側方エリアIlとは、消失点Vと注視エリアGの頂点Gbとを結ぶ線分L3により区切られている。下方エリアIdと右側方エリアIrとは、消失点Vと注視エリアGの頂点Gcとを結ぶ線分L4により区切られている。
【0116】
なお、脇見検出エリアは図23に示したような区分けに限らない。例えば、図24に示したようにしてもよい。図24は、注視エリアGの各辺を延長した線分により脇見検出エリアを区分けしている。図24の方法は、形状が単純になるので、脇見検出エリアの区分けにかかる処理を軽減することができる。
【0117】
次に、脇見傾向判定手段47における脇見傾向の判定について説明する。視覚顕著性ピーク検出手段46で検出されたピーク位置が、所定時間以上注視エリアGから連続して外れていた場合は脇見傾向であると判定する。ここで、所定時間は例えば2秒とすることができるが適宜変更してもよい。即ち、脇見傾向判定手段47は、ピーク位置が注視すべき範囲から所定時間以上連続して外れていたか判定している。
【0118】
また、脇見傾向判定手段47は、脇見検出エリアが上方エリアIu又は下方エリアIdであった場合は固定物による脇見の傾向があると判定してもよい。これは、車両から前方を撮像した画像の場合、上方エリアIuには、建物や交通信号、標識、街灯などの固定物が映り込むのが一般的であり、下方エリアIdには、道路標識等の路上ペイントが映り込むのが一般的である。一方、左側方エリアIlや右側方エリアIrは、他の走行車線等を走行する車両等の自車両以外の移動体が映り込むことがあり、エリアにより脇見対象物(固定物か移動体か)まで判定するのは困難である。
【0119】
ピーク位置が左側方エリアIlや右側方エリアIrであった場合は、エリアだけでは脇見対象物が固定物か移動体か判定できないため、物体認識を用いて判定を行う。物体認識(物体検出ともいう)は周知のアルゴリズムを用いればよく、具体的な方法は特に限定されない。
【0120】
また、物体認識に限らず相対速度を利用して固定物か移動体かの判定を行ってもよい。これは、自車速度と脇見対象物のフレーム間の移動速度から相対速度を求め、その相対速度から脇見対象物が固定物か移動体か判定する。ここで、脇見対象物のフレーム間の移動速度は、ピーク位置のフレーム間の移動速度を求めればよい。そして求めた相対速度が所定の閾値以上である場合は、ある位置に固定されている物と判定することができる。
【0121】
次に、本実施例の地図データ生成装置1における動作について、図25のフローチャートを参照して説明する。
【0122】
まず、入力手段2が走行画像を取得し(ステップS104)、視覚顕著性抽出手段3において視覚顕著性画像処理(視覚顕著性マップの取得)を行う(ステップS105)。そして、視覚顕著性ピーク検出手段46が、ステップS105で視覚顕著性抽出手段3が取得した視覚顕著性マップに基づいてピーク位置を取得(検出)する(ステップS106)。
【0123】
次に、脇見傾向判定手段47が、注視エリアGを設定して、当該注視エリアGと視覚顕著性ピーク検出手段46が取得したピーク位置とを比較する(ステップS107)。比較した結果ピーク位置が注視エリアG外である場合は(ステップS107;注視エリア外)、脇見傾向判定手段47は、滞留タイマーが開始後か停止中か判定する(ステップS108)。滞留タイマーとは、ピーク位置が注視エリアG外に滞留している時間を計測するタイマーである。なお、注視エリアGの設定は、ステップS104で画像を取得した際に行ってもよい。
【0124】
滞留タイマーが停止中である場合は(ステップS108;停止中)、脇見傾向判定手段47は、滞留タイマーを開始する(ステップS109)。一方、滞留タイマーが開始後である場合は(ステップS108;開始後)、脇見傾向判定手段47は、滞留タイマー閾値の比較を行う(ステップS110)。滞留タイマー閾値とは、ピーク位置が注視エリアG外に滞留している時間の閾値であり、上述したように2秒などと設定されている。
【0125】
滞留タイマーが閾値を超えていた場合は(ステップS110;閾値超え)、脇見傾向判定手段47は、判定対象とした画像に対応する地点を、脇見傾向がある地点又は区間に該当する注意地点(視覚的に注意を要する地点)と判定し、その判定に応じて付加手段5が地図データに登録(付加)する(ステップS111)。なお、地図データの例としては図11と同様である。
【0126】
一方、滞留タイマーが閾値を超えない場合は(ステップS110;閾値超えない)、脇見傾向判定手段47は、何もせずにステップS101に戻る。
【0127】
また、ステップS107で比較した結果、ピーク位置が注視エリアG内である場合は(ステップS107;注視エリア内)、脇見傾向判定手段47は、滞留タイマーを停止させる(ステップS112)。
【0128】
本実施例によれば、視覚顕著性ピーク検出手段46が、視覚顕著性マップにおける少なくとも1つのピーク位置を時系列に検出する。そして、脇見傾向判定手段47が、画像における注視エリアGを設定し、ピーク位置が注視エリアGから所定時間以上連続して外れていた場合は、脇見の傾向がある旨の情報を出力し、その情報に基づいて付加手段5が注意を要する地点等として地図データに付加する。この視覚顕著性マップには、統計的なヒトの視線の集まりやすさを示している。したがって、視覚顕著性マップのピークは、その中で最も統計的にヒトの視線が集まりやすい位置を示している。そのため、視覚的顕著性マップを用いることで、実際の運転手の視線を計測することなく、簡易な構成で脇見の傾向を検出して地図データに付加することができる。
【0129】
また、脇見傾向判定手段47は、注視エリアGを画像の消失点Vに基づいて設定している。このようにすることにより、例えば前方車両等を検出しなくても注視エリアGを容易に設定することが可能となる。
【0130】
また、脇見傾向判定手段47が、ピーク位置が注視エリアGよりも上方又は下方に所定時間以上連続して位置していた場合は、脇見警告部6が、固定物による脇見の傾向がある旨の情報を出力してもよい。注視エリアGよりも上方は、一般的に建物や交通信号、標識、街灯などの固定物が映り込むエリアであり、注視エリアGよりも下方は、一般的に道路標識等の路上ペイントが映り込むエリアである。つまり、範囲にピーク位置が含まれる場合は、脇見による脇見対象物が固定物であると特定することができる。
【0131】
なお、注視エリアGは、固定的な範囲に設定されるに限らない。例えば移動体の移動速度に応じて変更してもよい。例えば高速走行時には、運転者の視野が狭くなることが知られている。そこで、例えば脇見傾向判定手段47が、車両に搭載されている速度センサ等から車速を取得して、速度が高くなるにしたがって注視エリアGの範囲を狭めてもよい。また、移動速度に応じて適正な車間距離も変化するため、図22を参照して説明した算出方法による注視エリアGの範囲も変化させてもよい。車両の速度は、速度センサに限らず、加速度センサや撮像画像から求めてもよい。
【0132】
また、注視エリアGを車両等の走行位置や状況に応じて変更してもよい。周囲への注意が必要な状況であれば、注視エリアGを広くする必要がある。例えば、住宅街、幹線道路、繁華街等の走行する位置によって注視すべき範囲は変わる。住宅街であれば歩行者は少ないが急な飛び出しに注意する必要があり注視エリアGは狭くできない。一方で、幹線道路であれば、走行速度が高くなり、上述したように視野が狭くなる。
【0133】
具体例を示すと、通学路、公園、学校近傍は子供の飛び出しの危険性があると考えられる。駅学校近傍、催事の場所・観光地近傍等は歩行者が多いと考えられる。駐輪場近傍、学校近傍等は自転車が多いと考えられる。歓楽街近傍等は酔客が多いと考えられる。以上のような地点等は、周囲への注意が必要な状況であり、注視エリアGを広くして、脇見傾向と判定されるエリアを狭くしてもよい。一方で、高速道路走行時や、交通量・人口密度の低い地域等は、走行速度が高くなる傾向があり、注視エリアGを狭くして、脇見傾向と判定されるエリアを広くしてもよい。
【0134】
また、時間帯やイベント等で注視エリアGを変化させてもよい。例えば、通勤通学時間帯は、周囲への注意が必要な状況であり、通常時間帯よりも注視エリアGを広くして脇見傾向と判定されるエリアを狭くしてもよい。あるいは薄暮~夜間にかけても同様に注視エリアGを広くして脇見傾向と判定されるエリアを狭くしてもよい。一方で深夜は注視エリアGを狭くして脇見傾向と判定されるエリアを広くしてもよい。
【0135】
さらに、イベント情報により注視エリアGを変化させてもよい。例えば催事等は人の往来が多い場所や時間帯となるので、通常より注視エリアGを広くして脇見傾向の判定を緩くしてもよい。
【0136】
このような地点の情報は、脇見傾向判定手段47が、GPS受信機や地図データ等の現在位置及び走行している地域が判別できる手段から情報を取得し、画像データと対応付けておくことで、注視エリアGの範囲を変化させることができる。時刻情報は情報出力装置1が内部又は外部から取得すればよい。イベント情報は外部サイト等から取得すればよい。また、位置と時刻、日付を組み合わせて変更の判定を行ってもよいし、何れか一つを用いて変更の判定を行ってもよい。
【0137】
さらに、高速走行する際には、滞留タイマー閾値を短くしてもよい。これは、高速走行時は、短時間の脇見でも危険な状態になるためである。
【実施例0138】
次に、本発明の第5の実施例にかかる地図データ生成装置を図26を参照して説明する。なお、前述した第1~第4の実施例と同一部分には、同一符号を付して説明を省略する。
【0139】
本実施例では、単調な道路を検出して、その検出結果に基づいて視覚的に注意を要する地点等を地図データに付加するものである。本実施例にかかる解析手段4は、上述したように、単調な道路(単調傾向)を判定する。単調な道路とは、景色の変化が無い、あるいは景色の変化が乏しい道路や等間隔に規則正しく設置された街灯などを有する道路や高速道路などの単調な風景や景色が続く道路が一般的にいわれている。
【0140】
解析手段4は、視覚顕著性抽出手段3において取得した視覚顕著性マップに基づいて、入力手段2に入力された画像が単調傾向か判定する。本実施例では、視覚顕著性マップから種々の統計量を算出し、その統計量に基づいて単調傾向か判定する。即ち、解析手段4は、視覚顕著性マップ(視覚顕著性分布情報)に基づいて算出された統計量を用いて当該画像が単調傾向か判定する単調判定部として機能する。
【0141】
図26に解析手段4の動作のフローチャートを示す。まず、視覚顕著性マップを構成する画像(例えば図3(b))における各画素の輝度の標準偏差を演算する(ステップS51)。本ステップでは、まず、視覚顕著性マップを構成する画像における各画像の輝度の平均値を算出する。視覚顕著性マップを構成する画像がH画素×V画素であり、任意の座標(k,m)における輝度値をVVC(k,m)とすると、平均値は以下の(2)式で算出される。
【数2】
【0142】
(2)式により算出された平均値から視覚顕著性マップを構成する画像における各画像の輝度の標準偏差を算出する。標準偏差SDEVは以下の(3)式で算出される。
【数3】
【0143】
ステップS51で算出された標準偏差について、出力結果が複数あるか判定する(ステップS52)。このステップでは、入力手段2から入力された画像が動画像であり、フレーム単位で視覚顕著性マップが取得されて、ステップS51では複数フレーム分の標準偏差が算出されたかを判定している。
【0144】
出力結果が複数ある場合は(ステップS52;Yes)、視線移動量を演算する(ステップS53)。視線移動量は、本実施例では、時間的に前後のフレームそれぞれの視覚顕著性マップにおける輝度値が最大(最高)の座標距離により求めている。視線移動量VSAは、前のフレームにおける最高輝度値の座標を(x1,y1)、後のフレームにおける最高輝度値の座標を(x2,y2)とすると、次の(4)式で算出される。
【数4】
【0145】
そして、ステップS11で算出された標準偏差やS13で算出された視線移動量に基づいて単調傾向かを判定する(ステップS14)。本ステップでは、ステップS12がNoの場合は、ステップS11で算出される標準偏差に閾値を設け、その閾値と比較することで閾値と比較することで単調傾向かを判定すればよい。一方、ステップS12がYesの場合は、ステップS13で算出される視線移動量に閾値を設け、その閾値と比較することで閾値と比較することで単調傾向かを判定すればよい。
【0146】
即ち、解析手段4は、視覚顕著性マップ(視覚顕著性分布情報)として得られた画像内の各画素の輝度の標準偏差を算出する標準偏差算出部として機能し、視覚顕著性マップ(視覚顕著性分布情報)として時系列に得られた画像に基づいてフレーム間の視線移動量を算出する視線移動量算出部として機能する。
【0147】
なお、解析手段4の処理の結果(判定結果)、単調傾向と判定された場合は、その判定結果を付加手段5に出力する。そして、付加手段5では、単調傾向と判定された画像の示す地点又は区間を注意地点(注意を要する地点)として地図データに登録(付加)する。なお、地図の例としては図11と同様である。
【0148】
本実施例によれば、解析手段4が、視覚顕著性マップに基づいて算出された標準偏差や視線移動量等に基づいて当該画像が単調傾向か判定する。このようにすることにより、撮像した画像から、人間の注視し易い位置に基づき単調傾向か判定可能となる。人間(運転者)の注視し易い位置に基づいて判定されるため、運転者が単調と感じるのと近い傾向で判定することができ、より精度良く判定して、判定結果に基づいて地図データに付加することができる。
【0149】
また、解析手段4は、視覚顕著性マップとして得られた画像内の各画素の輝度の平均値を算出し、そして、算出された平均値に基づいて当該画像が単調傾向か判定してもよい。このようにすることにより、1枚の画像において、注視し易い位置が集中している場合に単調傾向と判定することができる。また、平均値により判定するので、演算処理を簡素化することができる。
【0150】
また、解析手段4は、視覚顕著性マップとして時系列に得られた画像に基づいてフレーム間の視線移動量を算出し、そして、算出された視線移動量に基づいて単調傾向か判定している。このようにすることにより、動画像について判定する場合に、例えば視線移動量が小さい場合は単調傾向などと判定することができる。
【実施例0151】
次に、本発明の第6の実施例にかかる地図データ生成装置を図27及び図28を参照して説明する。なお、前述した第1~第5の実施例と同一部分には、同一符号を付して説明を省略する。
【0152】
本実施例は、第5の実施例の方法、特に出力結果が複数ある場合(動画)において検出が漏れるケースについても単調傾向と判定できるようにするものである。ブロック構成等は第5の実施例と同様である。本実施例にかかる解析手段4の動作のフローチャートを図27に示す。
【0153】
図27のフローチャートにおいて、ステップS51、S53は、図26と同様である。なお、本実施例では、後述するように自己相関を利用するため、対象となる画像は動画像となることからステップS52は省略する。ステップS54Aは、判定内容はステップS54と同様である。このステップS54Aは、本実施例では、単調傾向についての一次判定として行われる。
【0154】
次に、ステップS54Aの判定の結果、単調傾向であると判定された場合は(ステップS55;Yes)、図26と同様に、その判定結果を判定装置1の外部へ出力する。一方、ステップS54Aに判定の結果、単調傾向でないと判定された場合は(ステップS55;No)、自己相関演算を行う(ステップS56)。
【0155】
本実施例では、ステップS51やS53で算出された標準偏差(輝度平均値)や視線移動量を用いて自己相関を演算する。自己相関R(k)は、期待値をE、Xの平均をμ、Xの分散をσ2、ラグをkとすると次の(5)式で算出されることが知られている。本実施例では、kを所定範囲で変化させて(5)式の演算を行い、最も大きな算出値を自己相関値とする。
【数5】
【0156】
そして、算出された自己相関値に基づいて単調傾向か判定する(ステップS57)。判定は、第5の実施例と同様に自己相関値に閾値を設け、閾値と比較することで単調傾向かを判定すればよい。例えば、k=k1での自己相関値が閾値より大きければk1毎に同じような風景が繰り返されることを意味する。単調傾向と判定された場合は、当該風景画像は単調傾向である画像と分類される。このような自己相関値を算出することによって、等間隔に規則正しく設置された街灯などの周期的に配置された物体による単調な傾向の道路を判定することができるようになる。
【0157】
図28に自己相関の演算結果の例を示す。図28は、走行動画について視覚顕著性マップの輝度平均値についてのコレログラムである。図28の縦軸は相関関数(自己相関値)、横軸はラグを示している。また、図28において、網掛けの部分は信頼区間95%(優位水準αs=0.05)であり、帰無仮説を「ラグkのとき周期性がない」、対立仮説を
「ラグkのとき周期性がある」とすると、この網掛け部分内のデータは帰無仮説を棄却できないため周期性がないと判定され、網掛け部分を超えたものは正負にかかわらず周期性があるものと判定される。
【0158】
図28(a)はトンネル走行の動画であり、周期性がある例である。図28(a)によれば、10個目と17個目に周期性がみられることが分かる。トンネルの場合、トンネル内照明が一定間隔で配置されているので、その照明等による単調な傾向を判定することができる。一方、図28(b)は一般道路走行の動画であり、周期性が無い例である。図28(b)によれば、殆どのデータが信頼区間に入っていることが分かる。
【0159】
図27のフローチャートのように動作させることで、まずは平均・標準偏差・視線移動量で単調か判定し、そこで漏れたものの中から周期性という観点で二次判定をすることができるようになる。
【0160】
本実施例によれば、視覚顕著性マップを時系列に取得し、解析手段4は、時系列に取得した視覚顕著性マップから統計量を算出し、時系列に得られた統計量に基づいて単調傾向か判定する1次判定部と、自己相関に基づいて単調傾向か判定する2次判定部と、して機能する。このようにすることにより、統計量のみでは判定が困難な走行中に現れる街灯等の周期的に現れる物体による単調傾向を自己相関により判定することができる。
【0161】
なお、上記した第1~第6の実施例を組み合わせてもよい。つまり、図11に示した地図に複数の実施例の情報を同時に表示してもよい。同時に示す際は、色や形等を変化させていずれの注意地点かが判別できるようにすることが好ましい。
【0162】
また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の地図データ生成装置を具備する限り、勿論、本発明の範疇に含まれるものである。
【符号の説明】
【0163】
1 地図データ生成装置
2 入力手段(取得部)
3 視覚顕著性抽出手段(生成部)
4 解析手段(解析部、単調判定部、第4判定部)
5 付加手段(付加部)
41 視認負荷量算出手段(移動量算出部)
42 視認負荷判定手段(第1判定部)
43 視線座標設定手段(視線位置設定部)
44 視覚的注意集中度算出手段(視覚的注意集中度算出部)
45 出力手段(第2判定部)
46 視覚顕著性ピーク検出手段(ピーク位置検出部、注視範囲設定部)
47 脇見傾向判定部(脇見出力部、第3判定部)
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28