【新規性喪失の例外の表示】特許法第30条第2項適用 GPU Technology Conference Japan 2016 http://www.gputechconf.jp/sessions.html 第12回ジョイントCSセミナー 第6回スマートビークル研究センターシンポジウム 合同シンポジウム 第12回ジョイントCSセミナー 第6回スマートビークル研究センターシンポジウム 合同シンポジウムプログラム
(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0009】
以下、図面を参照しながら、本開示を実施するための形態を説明する。
[1.構成]
図1に示す境界線推定システム1は、2つの撮像装置10L,10Rと、境界線推定装置20と、を備える。境界線推定システム1は、車両に搭載される。以下では、境界線推定システム1が搭載された車両を「自車両」という。
【0010】
左右一対の撮像装置10L,10Rは、自車両の前部において車幅方向の中心を挟むように左右に設けられたいわゆるステレオカメラであり、自車両の周辺環境、具体的には、自車両から見て同一方向である自車両の前方の領域を撮像する。つまり、境界線推定システム1は、撮像装置10L,10Rにより、複数の異なる視点から同一対象を撮像する。撮像装置10L,10Rのそれぞれは、撮像画像を表す画像データを境界線推定装置20に出力する。なお、撮像装置10L,10Rから出力される画像データのサイズは、224×224画素である。
【0011】
以下では、2つの撮像装置10L,10Rのうち、一方の撮像装置(例えば撮像装置10L)の撮像画像を基準画像という。また、他方の撮像装置(例えば撮像装置10R)の撮像画像を比較画像という。
【0012】
境界線推定装置20は、CPU、RAM、ROM及びフラッシュメモリ等の半導体メモリを有する周知のマイクロコンピュータを中心に構成される。境界線推定装置20の各種機能は、CPUが非遷移的実体的記憶媒体に格納されたプログラムを実行することにより実現される。この例では、半導体メモリが、CPUにより実行されるプログラムを格納した非遷移的実体的記憶媒体に該当する。また、CPUによるプログラムの実行により、プログラムに対応する方法が実行される。なお、境界線推定装置20を構成するマイクロコンピュータの数は1つでも複数でもよい。
【0013】
境界線推定装置20は、CPUがプログラムを実行することにより、画像取得部21、距離画像生成部22、情報結合部23、ラベル付け部24、環境識別部25及び推定部26として機能する。
【0014】
画像取得部21は、撮像装置10L,10Rから基準画像及び比較画像を表す画像データを取得する。なお、本実施形態では、画像取得部21は2台の撮像装置10L,10Rから撮像画像を取得するが、画像取得部21が撮像画像を取得する撮像装置の台数はこれに限られるものではない。画像取得部21は、例えば、1台又は3台以上の撮像装置から撮像画像を取得してもよい。
【0015】
距離画像生成部22は、画像取得部21により取得された画像データに基づき、基準画像及び比較画像に対応する距離画像を生成する。具体的には、距離画像生成部22は、まず、あらかじめ記憶されている補正パラメータを用いて、基準画像の画像データと比較画像の画像データとの間のズレを補正する。ここでいうズレには、撮像装置10L,10Rのレンズの歪みによるものや、撮像装置10L,10Rの垂直方向、回転方向の位置又は向きのズレによるものが含まれる。そして、距離画像生成部22は、撮像画像全体を所定小区画(例えば1画素)に分割した画像ブロックごとに、基準画像と比較画像との間の水平視差を算出する。そして、距離画像生成部22は、算出した水平視差に基づき、画像ブロックに写る物体までの距離を算出する。これにより、画像ブロックごとに自車両から物体までの距離の情報を有する距離画像が生成される。
【0016】
情報結合部23は、距離画像生成部22により生成された距離画像と、基準画像の色情報と、を対応関係がある画像領域ごとに結合する。本実施形態では、距離画像と基準画像の色情報とは画素ごとに結合される。また、本実施形態では、色情報は、画素ごとの色相及び彩度である。以下では、距離画像及び色情報が結合されることにより生成される画像の画像データを「HSD画像データ」という。HSDは、Hue,Saturation,Depth、つまり色相、彩度、距離を意味する。なお、HSD画像データのサイズは、224×224画素である。
【0017】
ラベル付け部24は、情報結合部23により生成されたHSD画像データを入力データとして
図2に示す第1の処理を実行する。第1の処理において、ラベル付け部24は、HSD画像データから路面領域を表す特徴量を抽出することにより、HSD画像データ内の各画素に対して、路面領域か非路面領域かを表す二値ラベルkを付与する。路面領域とは、路面に対応する領域である。路面領域は、例えば、
図4のハッチングで示されるような、道路脇の側壁や道路中央の中央分離帯等に囲まれた領域である。
【0018】
本実施形態では、ラベル付け部24は、畳み込みニューラルネットワーク(Convolutional Neural Network)を用いて、画像サイズを縮小しながらHSD画像から特徴量を抽出する。抽出された特徴量は、特徴量マップとして表現される。また、ラベル付け部24は、逆畳み込みニューラルネットワーク(Deconvolution Neural Network)を用いて、畳み込みニューラルネットワークによって生成された特徴量マップからHSD画像における路面領域の位置を復元する。この逆畳み込みニューラルネットワークによって、路面領域の情報のみが保持されつつ、入力画像と同じサイズの224×224画素の画像が復元される。
【0019】
なお、畳み込みニューラルネットワークと逆畳み込みニューラルネットワークとが併用されたアルゴリズムは、例えば下記の論文などに示されるように公知である。
「H. Noh, S. Hong, and B. Han, “Learning deconvolution network for semantic segmentation.” CoRR, vol. abs/1505.04366, 2015.」
本実施形態では、上記論文で提案されたアルゴリズムをベースに、学習によってそのパラメータが調節されるものが使用される。学習の詳細については後述する。
【0020】
以下、第1の処理における前段の畳み込みニューラルネットワーク及び後段の逆畳み込みニューラルネットワークについて簡単に説明する。
前段の畳み込みニューラルネットワークは、畳み込み層とプーリング層との組を複数(この例では5つ)有している。
図2では、5つの畳み込み層C1〜C5と5番目のプーリング層P5とは図示されている。一方、1〜4番目のプーリング層P1〜P4は図示されていない。なお、5番目のプーリング層P5によって、路面領域の情報が最も圧縮された特徴量マップが生成される。
【0021】
畳み込み層C1〜C5は、入力画像に対してフィルタを作用させることで畳み込みを行う層である。フィルタはn×n画素の要素を持ち、重みやバイアスといったパラメータを含む。なお、nは正の整数であり、例えば5である。フィルタは、画像内の領域を変更しながら、各領域に対して作用される。フィルタが作用されることによって画像内の局所的な特徴、つまりパターンが抽出される。
【0022】
プーリング層P1〜P5は、入力画像に対してプーリングを行うことで、入力画像の解像度を下げる層である。典型的なプーリングは、畳み込み層C1〜C5から出力された2次元配列を2×2のグリッドに分割し、各グリッドの4つの値のうち最大値を取る処理である。別のプーリングとしては、2×2のグリッドのうちある1つの値(例えば左上の(1,1)の値)だけを取り出すサブサンプリングが挙げられる。プーリングによって、入力画像のサイズが1/4に圧縮される。なお、畳み込み層C1〜C5及びプーリング層P1〜P5によって抽出された特徴は、全結合層(Fully Connected層:FC層)で分類される。
【0023】
後段の逆畳み込みニューラルネットワークは、逆畳み込み層とアンプーリング層との組を複数(この例では5つ)有している。
図2では、5つの逆畳み込み層DC1〜DC5は図示されている。一方、5つのアンプーリング層は図示されていない。この逆畳み込み層DC1〜DC5及びアンプーリング層は、それぞれ、畳み込み層C1〜C5及びプーリング層と逆の機能を有する。具体的には、アンプーリング層では、畳み込みニューラルネットワークで行われたプーリングのインデックス情報を基に、プーリングで反応した部分に特徴量を拡大させる。具体的には例えば、プーリング層P1〜P5で、2×2グリッドの右上の(1,2)から値が抽出された場合には、アンプーリング層で、抽出された値が2×2グリッドの右上の(1,2)に入力され、2×2グリッドの他のグリッドに0が入力されることで、特徴量が拡大される。このように生成されるアンプーリング層の出力画像は疎であるため、アンプーリング層からの出力画像は、逆畳み込み層DC1〜DC5によって密にされる。逆畳み込み層DC1〜DC5は、畳み込みのような演算を行うことによって密な画像を生成する。逆畳み込み層DC1〜DC5における各フィルタは、重みやバイアスといったパラメータを含む。逆畳み込み層DC1〜DC5及びアンプーリング層によって、プーリング層P5を経て生成された特徴量マップは、入力画像と同サイズの224×224画素に拡大される。なお、逆畳み込みニューラルネットワークの最終の出力画像においては、路面領域を表す情報のみが保持される。
【0024】
環境識別部25は、
図2に示す第2の処理を実行することにより、ラベル付け部24の中間データ、具体的には、プーリング層P5によって生成された特徴量マップに対応する道路環境を識別する。すなわち、環境識別部25は、事前の学習によって得られた特徴量マップと道路環境との対応関係を表す識別器である環境識別器に基づき、プーリング層P5によって生成された特徴量マップに対応する道路環境を識別する。環境識別器の学習については後述する。また、環境識別器は、
図2では「Trained Extra Trees Classifier」と記載されている。
【0025】
本実施形態では、道路環境は、あらかじめ定義されたシーンラベルsにより分類されている。シーンラベルsは、車線境界線の数、順番及び特徴に基づいて決定される。車線境界線とは、具体的には道路区画線のことである。また、車線境界線の特徴とは、車線境界線の色や種類(破線状の車線境界線や連続した車線境界線等)などである。このように、シーンラベルsで分類された道路環境には、車線境界線の情報が含まれている。また、シーンラベルsによって道路環境が分類されることにより、道路環境が、道路が合流又は離脱した道路環境、複数の車線境界線がある道路環境、道路に道路区画線がない道路環境など、種々の道路環境に分類される。
【0026】
シーンラベルsで分類された道路環境の例を
図3に示す。
(a)は、路面領域の2つの境界と、2つの白色の車線境界線と、1つの白色の破線状の車線境界線と、を有する道路環境である。
【0027】
(b)は、路面領域の2つの境界と、2つの白色の車線境界線と、1つの白色の連続した車線境界線と、を有する道路環境である。
(c)は、路面領域の2つの境界と、1つの黄色の車線境界線と、を有する道路環境である。
【0028】
(d)は、路面領域の2つの境界と、2つの黄色の車線境界線と、1つの白色の車線境界線と、1つの破線状の車線境界線と、を有する道路環境である。
(e)は、路面領域の2つの境界と、2つの白色の車線境界線と、1つの白色の連続した車線境界線と、1つの破線状の車線境界線と、を有する道路環境である。
【0029】
(f)は、路面領域の4つの境界と、3つの白色の車線境界線と、3つの白色の連続した車線境界線と、1つの破線状の車線境界線と、を有する道路環境である。なお、ここでいう路面領域の4つの境界には、左の出口の路面領域の境界が含まれる。また、3つの白色の連続した車線境界線には、左の出口の車線境界線が含まれる。
【0030】
(g)は、路面領域の4つの境界と、2つの白色の車線境界線と、3つの破線状の車線境界線と、を有する道路環境である。なお、ここでいう路面領域の4つの境界には、左の出口の路面領域の境界が含まれる。また、3つの破線状の車線境界線には、左の出口の車線境界線が含まれる。
【0031】
(h)は、路面領域の4つの境界と、3つの白色の車線境界線と、1つの黄色の車線境界線と、1つの白色の連続した車線境界線と、を有する道路環境である。なお、ここでいう路面領域の4つの境界には、左の出口の路面領域の境界が含まれる。また、3つの白色の車線境界線には、左の出口の車線境界線が含まれる。
【0032】
(i)は、路面領域の4つの境界と、3つの破線状の車線境界線と、2つの白色の車線境界線と、を有する道路環境である。なお、ここでいう路面領域の4つの境界には、右の出口の路面領域の境界が含まれる。また、3つの破線状の車線境界線には、右の出口の車線境界線が含まれる。
【0033】
(j)は、路面領域の4つの境界と、4つの破線状の車線境界線と、2つの白色の車線境界線と、を有する道路環境である。なお、ここでいう路面領域の4つの境界には、左の出口の路面領域の境界が含まれる。また、4つの破線状の車線境界線には、左の出口の車線境界線が含まれる。
【0034】
(k)は、路面領域の6つの境界と、3つの破線状の車線境界線と、1つの白色の車線境界線と、を有する道路環境である。なお、ここでいう路面領域の6つの境界には、左の出口及び料金所がある場所の路面領域の境界が含まれ、3つの破線状の車線境界線には、左の出口の車線境界線が含まれる。
【0035】
推定部26は、
図2に示す第3の処理を実行することにより、撮像装置10L,10Rの撮像画像内の車線境界線の位置を推定する。すなわち、推定部26は、ラベル付け部24により抽出された特徴量の特徴量マップと環境識別部25により識別された道路環境とから撮像画像内の車線境界線の位置及び特徴を回帰するモデルである車線回帰モデルを用いて、車線境界線の位置を推定する。この車線回帰モデルは、事前の学習によって得られるものであり、その学習については後述する。なお、車線回帰モデルは、
図2では「Trained Extra trees Regressor」と記載されている。
【0036】
本実施形態では、車線境界線の位置は、曲線描画の制御点、つまり、ベジェ曲線の制御点を回帰することにより推定される。換言すれば、車線境界線の位置は、ベジェ曲線の制御点によって表現される。つまり、撮像画像にm個の車線境界線が含まれる場合、これらの車線境界線はm個のベジェ曲線によって表現される。また、本実施形態では、ベジェ曲線と共にレーンラベルベクトルWが共に出力される。レーンラベルベクトルWは、撮像画像にm個の車線境界線が含まれる場合はm個の成分を有する。レーンラベルベクトルWの各成分は、m個の車線境界線のうちのいずれかに対応し、対応する車線境界線の特徴を表すラベルとなっている。
【0037】
推定された車線境界線の例を
図4に示す。図中、ハッチングが付された領域は、第1の処理で検出された路面領域を表す。また、黒色の丸印は、推定された車線境界線の位置を表すベジェ曲線の制御点を表す。
【0038】
なお、図中の白色の丸印は、後述する学習の際に入力されるベジェ曲線の制御点の真値点を表す。また、
図4では、路面領域の境界もベジェ曲線の制御点によって表現されている。
【0039】
[2.学習について]
[2−1.第1の処理のパラメータ]
第1の処理において、入力されたHSD画像データから路面領域が正しく検出されるように、上記論文の畳み込みニューラルネットワーク及び逆畳み込みニューラルネットワークのパラメータを調節する。具体的には、
図5に示すように、学習用のHSD画像データと、そのHSD画像データに対応する画像であって、あらかじめ各画素が路面領域か非路面領域かラベル付けされた画像と、を入力データとして、上記パラメータが調節される。後者の画像は、換言すれば、路面領域の位置の真値を表す画像であり、
図5では「Ground Truth Label」と記載されている。なお、調節されるパラメータは、畳み込み層C1〜C5、FC層及び逆畳み込み層DC1〜DC5におけるフィルタの重みやバイアス等である。
【0040】
[2−2.環境識別器]
第2の処理では、第1の処理で抽出された特徴量に対応する道路環境を識別する環境識別器として、エクストラツリーズ(extra trees)に基づく識別器が使用される。エクストラツリーズとは、公知の機械学習のアルゴリズムであるランダムフォレスト(random forest)の拡張である。ランダムフォレストでは、1つの学習用データセットから重複を許して複数のサブセットが作成される。そして、それぞれのサブセットに対して弱識別器となる決定木が作成される。その後、作成された各決定木の判定結果を集約する(例えば多数決を取る)ことにより強識別器が作成される。
【0041】
本実施形態では、
図6に示すように、特徴量マップと、その特徴量マップに対応する道路環境、つまりシーンラベルsと、を学習用データセットとして、ランダムフォレストが作成される。なお、学習には、
図3に示す道路環境が使用される。
【0042】
[2−3.車線回帰モデル]
第3の処理における車線回帰モデルとしては、環境識別器と同様、ランダムフォレストに基づくモデルが使用される。当該ランダムフォレストは、
図7に示すように、道路環境ごとに作成されたHSD画像データと、そのHSD画像データにおける車線境界線の位置をベジェ曲線の制御点で表した画像と、学習用データセットとして作成される。後者の画像は、車線境界線の位置の真値を表す画像であり、
図7では「BezierGround Truth Label」と記載されている。また、本実施形態では、車線回帰モデルは、HSD画像データから抽出された特徴量とそのHSD画像データの道路環境とが入力された場合に、レーンラベルベクトルWも回帰できるように学習される。
【0043】
[3.効果]
以上詳述した実施形態によれば、以下の効果が得られる。
(1)本実施形態では、境界線推定装置20は、入力された撮像画像の画像データから路面領域を表す特徴量を抽出し、事前の学習によって得られた環境識別器に基づき、抽出された特徴量に対応する道路環境を識別する。そして、境界線推定装置20は、識別された道路環境に基づき、撮像画像内の車線境界線の位置を推定する。したがって、このような構成によれば、撮像画像上で車線境界線の一部が先行車両等により遮られている場合であっても、車線境界線の位置を推定することができる。
【0044】
(2)本実施形態では、境界線推定装置20は、撮像画像に対応する距離画像を生成し、生成した距離画像と、撮像画像の色情報と、に基づき、特徴量を抽出する。例えば、トンネルのような場所では、距離画像における路面領域よりも上方の部分の距離は、路面領域の上方に空が広がっている場合と比較して、小さくなる。つまり、距離画像は道路環境に応じて異なる。よって、距離画像と色情報とに基づき特徴量を抽出することで、例えば、色情報のみから特徴量を抽出する構成と比較して、道路環境を識別しやすくすることができる。
【0045】
(3)本実施形態では、境界線推定装置20は、複数の撮像装置10L,10Rから取得された複数の撮像画像間の視差に基づき、距離画像を生成する。したがって、道路環境の識別をより精度良く行うことができる。
【0046】
すなわち、距離画像は、例えば、自車両と自車両周辺の物体との距離を測定可能なレーダを用いても生成することができる。しかしながら、レーダが用いられる場合、レーダの探索範囲によっては、撮像画像中の一部の領域についてしか距離が取得できない場合がある。これに対して、本実施形態のように、複数の撮像装置10L,10Rの撮像画像に基づき距離画像を生成する場合、撮像画像中の全領域について距離を取得することができる。よって、撮像画像中の全領域にわたって距離に基づく特徴量を抽出することができる。ひいては、道路環境の識別をより精度良く行うことができる。
【0047】
(4)本実施形態では、境界線推定装置20は、学習によってパラメータが調節された畳み込みニューラルネットワークに従い、特徴量を抽出する。したがって、人の感覚では物理的意味が明確に把握できない特徴量であっても抽出することができる。そして、そのような特徴量に基づき道路環境を識別することができる。よって、畳み込みニューラルネットワークよりも抽出可能な特徴量が限られている抽出方法を使用する場合よりも、精度の高い車線境界線の位置推定を行うことができる。
【0048】
(5)本実施形態では、境界線推定装置20は、撮像画像内の車線境界線の位置を、ベジェ曲線の制御点を回帰することにより推定する。換言すれば、車線境界線の位置は、ベジェ曲線の制御点によって表現される。よって、例えば、直線や円を使って車線境界線の位置を表現する構成と比較して、複雑な形状の車線境界線の位置も表すことができる。
【0049】
なお、本実施形態では、距離画像生成部22、情報結合部23及びラベル付け部24が抽出部としての処理に相当する。
[4.他の実施形態]
以上、本開示を実施するための形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
【0050】
(1)上記実施形態では、ラベル付け部24は、距離画像と撮像画像の色情報とが結合したHSD画像データを入力データとして当該HSD画像データから特徴量を抽出するが、入力データはこれに限られるものではない。例えば、撮像画像の色情報のみを入力データとして、当該色情報から特徴量が抽出されてもよい。
【0051】
(2)上記実施形態では、境界線推定システム1は車両に搭載されるが、境界線推定システム1が搭載される対象はこれに限られるものではない。境界線推定システム1は、例えば、ロボット等に搭載されてもよい。
【0052】
(3)上記実施形態で、境界線推定装置20が実行する機能の一部又は全部を、1つあるいは複数のIC等によりハードウェア的に構成してもよい。
(4)前述した境界線推定装置20の他、当該境界線推定装置20を構成要素とするシステム、当該境界線推定装置20としてコンピュータを機能させるためのプログラム、このプログラムを記憶した半導体メモリ等の非遷移的実体的記憶媒体、車線境界線の位置を推定する方法など、種々の形態で本開示を実現することもできる。
【0053】
(5)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。