IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社小糸製作所の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-12-12
(45)【発行日】2022-12-20
(54)【発明の名称】認識センサ、自動車、車両用灯具
(51)【国際特許分類】
   G01S 17/89 20200101AFI20221213BHJP
   G06N 3/02 20060101ALI20221213BHJP
   B60Q 1/04 20060101ALI20221213BHJP
   G08G 1/16 20060101ALI20221213BHJP
   G01S 17/931 20200101ALI20221213BHJP
【FI】
G01S17/89
G06N3/02
B60Q1/04 Z
G08G1/16 C
G01S17/931
【請求項の数】 5
(21)【出願番号】P 2019536727
(86)(22)【出願日】2018-08-02
(86)【国際出願番号】 JP2018028978
(87)【国際公開番号】W WO2019035363
(87)【国際公開日】2019-02-21
【審査請求日】2021-06-08
(31)【優先権主張番号】P 2017157944
(32)【優先日】2017-08-18
(33)【優先権主張国・地域又は機関】JP
(31)【優先権主張番号】P 2017162607
(32)【優先日】2017-08-25
(33)【優先権主張国・地域又は機関】JP
(31)【優先権主張番号】P 2018043457
(32)【優先日】2018-03-09
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000001133
【氏名又は名称】株式会社小糸製作所
(74)【代理人】
【識別番号】100105924
【弁理士】
【氏名又は名称】森下 賢樹
(74)【代理人】
【識別番号】100109047
【弁理士】
【氏名又は名称】村田 雄祐
(74)【代理人】
【識別番号】100109081
【弁理士】
【氏名又は名称】三木 友由
(72)【発明者】
【氏名】永島 徹
【審査官】▲高▼場 正光
(56)【参考文献】
【文献】特開2002-236178(JP,A)
【文献】特開2011-247619(JP,A)
【文献】米国特許第04531125(US,A)
【文献】米国特許出願公開第2007/0182528(US,A1)
【文献】特開2002-140790(JP,A)
【文献】特開2005-043247(JP,A)
【文献】米国特許出願公開第2004/0036261(US,A1)
【文献】大里章人 外2名,“ビジュアルオドメトリと多層型レーザスキャナによる2次元地図作成と位置推定手法”,ロボティクス・メカトロニクス講演会2014講演概要集,一般社団法人 日本機械学会,2014年05月24日,Article 2A2-S05, 3 Pages,<URL: https://doi.org/10.1299/jsmermd.2014._2A2-S05_1 >
(58)【調査した分野】(Int.Cl.,DB名)
G01S 7/48 - G01S 7/51
G01S 17/00 - G01S 17/95
B60Q 1/04
G06T 7/00
G08G 1/16
(57)【特許請求の範囲】
【請求項1】
仰俯角が可変であり、スキャン毎に前記仰俯角を変化させることにより、異なる高さの複数のスキャンラインをセンシングする3次元センサと、
1つのスキャンラインによって実質的に平坦なオブジェクトをスキャンしたときに、前記オブジェクトについて得られる複数の測定点それぞれの高さがスキャン角度に依存せずに、地面より高い位置で一定となるように、1スキャン中に前記3次元センサの仰俯角を制御するコントローラと、
を備え、
前記コントローラは、複数の測定点のうちの補正点において、仮測定を行い、仮測定で得られた距離とそのときの前記仰俯角にもとづいて、本測定における前記仰俯角を計算することを特徴とする認識センサ。
【請求項2】
前記コントローラは、すべての測定点において、仰俯角を補正することを特徴とする請求項1に記載の認識センサ。
【請求項3】
前記コントローラは、各スキャンラインについて、オブジェクトごとに少なくとも1回、仰俯角を補正することを特徴とする請求項1または2に記載の認識センサ。
【請求項4】
請求項1からのいずれかに記載の認識センサを備えることを特徴とする自動車。
【請求項5】
請求項1からのいずれかに記載の認識センサを備えることを特徴とする車両用灯具。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、物体の形状を検出する認識センサあるいはシステムに関する。
【背景技術】
【0002】
自動車のセンサとして、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、カメラ、ミリ波レーダ、超音波ソナーなどが候補として挙げられる。このなかでLiDARは、そのほかのセンサと比較して、(i)点群データによる物体認識が可能であること、(ii)アクティブセンシングであるが故の悪天候時にも高精度な検出が可能であること、(iii)広範囲の測定が可能であること、などの利点を有しており、今後、自動車のセンシングシステムにおける主流となることが期待されている。
【0003】
図1(a)、(b)は、LiDARによるセンシングを説明する図である。LiDAR2は、仰俯角φを固定しつつ、水平方向にスキャンビームBMをスキャンし、オブジェクトOBJ上の複数の測定点Pまでの距離rを測定する。図1(b)には、スキャンラインSLが歩行者の膝を通過する様子が示される。仰俯角φをいくつか変化させて、複数のスキャンラインSLに沿ってオブジェクトOBJの形状を測定することで、オブジェクトOBJの種類を特定することができる。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2017-56935号公報
【文献】特開2009-98023号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
本発明者は、LiDAR等を用いた3次元センシングによる物体認識について検討した結果、以下のいくつかの課題を認識するに至った。
【0006】
(課題1)
LiDARを利用した物体認識では、オブジェクトの識別のために測定される像は、機械学習において予め測定した像と同じであることが要求される。機械学習には膨大な時間とコストを要することから、なるべく、ひとつの機械学習の成果を、さまざまな製品に流用したいという要請がある。
【0007】
一方で、LiDARのスキャンラインの本数と、各スキャンラインの仰俯角は、LiDARの製品毎にさまざまである。図2は、仕様の異なる2つのLiDARによるセンシングを説明する図である。スキャンビームBM,BMは、仕様の異なる2つのLiDARの出力を示す。仰俯角φが異なるスキャンビームBMは、オブジェクトOBJの異なる部位をスキャンすることとなり、得られる像は異なったものとなる。
【0008】
図2に示すように、もし車載のLiDARの仕様と、機械学習に用いたLiDARの仕様が大きく異なる(対応するスキャンラインの仰俯角が大きく異なる)場合、識別精度は低下するであろう。高精度な識別のためには、自動車に搭載するLiDARの製品と同じ製品を用いて、(あるいは少なくとも同じ仰俯角を有する製品)を用いて機械学習を行う必要があり、これは開発コストを大きく押し上げることになる。
【0009】
また、もし車載のLiDARの仕様と、機械学習に用いたLiDARの仕様が同じである場合において、自動車に搭載する際に、設置角度を注意深くアライメントしなければならず、言い換えれば設置の自由度が制約される。
【0010】
(課題2)
図3は、課題2を説明する図である。図3には、仮想スクリーンSCRNが示される。この仮想スクリーンSCRNは平坦であり、LiDAR2とセンターの測定点Pとの水平距離Rが最も小さく、測定点P,Pとセンターから離れるに従って、水平距離Rは長くなる。その結果、複数の測定点Pの高さhが異なることとなる。
【0011】
図4(a)は、自動車を側面から測定したときの複数のスキャンラインを示す図である。仰俯角φ=0°に対しては、スキャンラインSLの高さは一定であるが、仰俯角が非ゼロのスキャンラインの高さは、スキャン角度θに応じて変化する。すなわち自動車のような幅の大きいオブジェクトを測定する場合に、測定される像の両端が歪む。これが課題2である。
【0012】
(課題3)
図4(b)は、歩行者を測定したときの複数のスキャンラインを示す図である。歩行者のように幅が狭いオブジェクトOBJが、中央付近に位置する場合と、端に位置する場合とでは、複数のスキャンラインが測定する部位が異なる。これが課題3である。
【0013】
(課題4)
図5は、課題4を説明する図である。図5は、ある固定されたスキャン角度θにおける、高さhの水平距離Rに対する依存性を示す図である。図5からわかるように、仰俯角一定で同じオブジェクトOBJを測定した場合、水平距離Rが異なると、同じスキャンラインによって測定する部位が異なることとなる。図5の例では、水平距離R、R,Rにおいて、同じビームによって、腹部、太もも、膝が測定されることとなる。
【0014】
第1から課題4は、オブジェクトOBJの種類を識別する識別器の設計に際して、顕著な複雑さをもたらし、あるいは、最終的な識別確率を低下させる場合もある。
【0015】
(課題5)
LiDARが生成する点群データにもとづくオブジェクトの識別は、点群データの解像度が高いほど正確となるが、演算処理のコストが爆発的に増加する。車両への搭載を考慮した場合には、低価格なローエンドの演算処理装置を利用せざるを得ない場合も想定され、自ずとスキャンラインの本数を減らすことが要求される。
【0016】
本発明は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、少なくともひとつの課題を解決した認識センサあるいはシステムの提供にある。
【課題を解決するための手段】
【0017】
1. 本発明のある態様は、認識センサに関する。認識センサは、仰俯角が設定可能に構成された3次元センサと、スキャンライン上の複数の測定点の中の補正点において、当該補正点の高さが所定値に近づくように3次元センサの仰俯角を制御するコントローラと、を備える。
【0018】
この態様によると、スキャンラインの補正点における高さを規定できるため、上述の少なくともひとつの課題を解決できる。
【0019】
本発明の別の態様もまた、認識センサである。この認識センサは、仰俯角が設定可能に構成された3次元センサと、測定点までの水平距離にかかわらず、当該測定点の高さが所定値に近づくように3次元センサの仰俯角を制御するコントローラと、を備える。
この場合、スキャンラインの高さの距離依存性を抑制できる。
【0020】
本発明の別の態様もまた、認識センサである。この認識センサは、仰俯角が設定可能に構成された3次元センサと、実質的に平坦なオブジェクトをスキャンしたときに、各スキャンラインの高さがスキャン角度に依存せずに一定となるように3次元センサの仰俯角を制御するコントローラと、を備える。
この場合、スキャンラインの歪みを抑制できる。
【0021】
コントローラは、複数の測定点のうちの補正点において、仮測定を行い、仮測定で得られた距離とそのときの仰俯角にもとづいて、本測定における仰俯角を計算してもよい。
【0022】
コントローラはすべての測定点について仰俯角を補正してもよい。
【0023】
コントローラは、各スキャンラインについて、オブジェクトごとに少なくとも1回、仰俯角の補正を行ってもよい。
【0024】
コントローラは、各スキャンラインについて、所定の水平角度スキャンを進めるごとに、あるいは所定数の測定点ごとに、仰俯角を補正してもよい。
【0025】
コントローラは、各スキャンラインについて、すべての測定点において仰俯角の補正を行ってもよい。
【0026】
本発明の別の態様は、自動車に関する。自動車は上述のいずれかの認識センサを備えてもよい。
【0027】
本発明の別の態様は、車両用灯具に関する。車両用灯具は、上述のいずれかの認識センサを備えてもよい。
【0028】
2.本発明の別の態様は、オブジェクト識別システムに関する。オブジェクト識別システムは、高さが異なる複数の水平ラインについて、複数のラインデータを生成する3次元センサと、複数のラインデータにもとづいてオブジェクトの種類を識別する演算処理装置と、を備える。演算処理装置は、ラインデータごとにオブジェクトの種類およびその部位に関する中間データを生成し、複数のラインデータに対応する複数の中間データを統合して、オブジェクトの種類を示す最終データを生成する。
【0029】
この態様によると、少ない水平ラインの本数で、オブジェクトの種類を判定することができる。
【0030】
中間データは、ニューラルネットワークを用いて生成されてもよい。中間データは、対応するラインデータが複数の種類の複数の部位それぞれに該当する確率を示してもよい。
【0031】
最終データは、ニューラルネットワークを用いて生成されてもよい。最終データは、対応するラインデータが複数の種類それぞれに該当する確率を示してもよい。
【0032】
演算処理装置は、前処理として、各ラインデータに含まれる値を所定値で除算する正規化を行ってもよい。
【0033】
演算処理装置は、前処理として、複数のラインデータからオブジェクトを含む範囲を抽出してもよい。
【0034】
複数のラインデータの本数は、4~12であってもよい。
【0035】
オブジェクトの種類は、少なくとも、歩行者、自転車、自動車を含んでもよい。
【0036】
本発明の別の態様は、自動車に関する。自動車は、上述のオブジェクト識別システムを備えてもよい。
【0037】
3次元センサは、前照灯に内蔵されてもよい。
【0038】
本発明の別の態様は、車両用灯具に関する。車両用灯具は、上述のオブジェクト識別システムを備えてもよい。
【0039】
なお、以上の構成要素の任意の組み合わせや本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。
【発明の効果】
【0040】
本発明によれば、上述の少なくともひとつの課題を解決できる。
【図面の簡単な説明】
【0041】
図1図1(a)、(b)は、LiDARによるセンシングを説明する図である。
図2】仕様の異なる2つのLiDARによるセンシングを説明する図である。
図3】課題2を説明する図である。
図4図4(a)は、自動車を側面から測定したときの複数のスキャンラインを示す図であり、図4(b)は、歩行者を測定したときの複数のスキャンラインを示す図である。
図5】課題4を説明する図である。
図6】第1の実施の形態に係る認識センサを備えるオブジェクト識別システムのブロック図である。
図7】3次元センサであるLiDARの一例を示す図である。
図8】3次元センサにおける仰俯角φの補正処理を説明する図である。
図9】3次元センサにおける仰俯角φの補正処理のフローチャートである。
図10】第1実施例に係る補正を説明する図である。
図11】第2実施例に係る補正処理を説明する図である。
図12】オブジェクト識別システムを備える自動車のブロック図である。
図13】オブジェクト識別システムを備える車両用灯具を示すブロック図である。
図14】第2の実施の形態に係るオブジェクト識別システムのブロック図である。
図15】歩行者について定義される複数の部位の一例を示す図である。
図16図16(a)~(d)は、歩行者、自転車、自動車、電柱を3次元センサで撮影したときの複数のラインデータを示す図である。
図17】第1ニューラルネットワークの構成例を示すブロック図である。
図18】第2ニューラルネットワークの構成例を示すブロック図である。
図19図19(a)~(c)は、オブジェクトの抽出を説明する図である。
図20図20(a)~(c)は、第1の学習方法を説明する図である。
図21図21(a)、(b)は、歩行者の撮影を説明する図である。
図22】第1ニューラルネットワークによる25カテゴリの分類の正解率を示す図である。
図23】第2ニューラルネットワークによる4カテゴリの分類の正解率を示す図である。
図24】オブジェクト識別システムを備える自動車のブロック図である。
図25】オブジェクト識別システムを備える車両用灯具を示すブロック図である。
図26図26(a)、(b)は、LiDARの高さと、オブジェクトの関係を示す図であり、図26(c)は、第1の学習方法によって学習済みのオブジェクト識別システムによって、図26(b)の状況で得られる最終データを示す図である。
図27】第2の学習方法における第2演算ユニットの学習工程を説明する図である。
図28】第2の学習方法の効果を説明する図である。
図29】変形例に係るオブジェクト識別システムのブロック図である。
【発明を実施するための形態】
【0042】
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
【0043】
<第1の実施の形態>
図6は、第1の実施の形態に係る認識センサ100を備えるオブジェクト識別システム200のブロック図である。認識センサ100は、3次元センサ102およびコントローラ104を備える。3次元センサ102は、スキャンビームBMを水平方向(Z軸周り)にスキャンし、複数の測定点までの距離を測定する。1回のスキャンで取得される複数の測定点を結ぶ線をスキャンラインSLと称し、そのとき得られるデータをスキャンデータと称する。特に限定されないが、歩行者など凹凸の小さいオブジェクトを正確に識別したい場合には、LiDARを用いることが好ましい。スキャンラインの本数Nは、すなわち垂直方向の解像度である。
【0044】
3次元センサ102は、仰俯角φが調節可能に構成される。仰俯角φの制御は、スキャンラインの選択のために行われる。仰俯角φ一定のLiDARでは、仰俯角は予め規定されたφ~φのN通りで選択可能であり、スキャン中一定である。Nはスキャンラインの本数に相当する。
【0045】
オブジェクト識別処理部210は、3次元センサ102によって生成された点群データにもとづいて、オブジェクトOBJの種類を判定する。オブジェクト識別処理部210の処理、アルゴリズムは特に限定されない。オブジェクト識別処理部210は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。オブジェクト識別処理部210は、複数のプロセッサの組み合わせであってもよい。また、オブジェクト識別処理部210とコントローラ104の機能が、同じプロセッサに提供されてもよい。
【0046】
図7は、3次元センサ102であるLiDARの一例を示す図である。図7のLiDAR300は、MEMSスキャナーを備える。MEMSスキャナーは、ミラー302、アクチュエータ304,306を備える。ミラー302は図示しない光源からのビームを反射する。アクチュエータ304は、ミラー302を第1軸周りに回転させる。アクチュエータ306は、ミラー302をそれを支持するアクチュエータ304とともに、第2軸周りに回転させる。第1軸周りの回転がスキャン角θの制御に対応し、第2軸周りの回転が仰俯角φの制御に対応する。
【0047】
なお3次元センサ102の構成は図7のそれには限定されず、公知の、あるいは将来利用可能なデバイスを用いることができる。たとえばフェーズドアレイ式やマイクロプリズム方式などのメカレスのもの、あるいは、上述のMEMSミラーやモータ駆動ミラーを用いたメカニカルなものを用いてもよい。
【0048】
本実施の形態における特徴のひとつは、仰俯角φの制御を、スキャンラインの高さの補正、あるいはスキャンラインの歪みの補正に利用することである。図6に戻る。コントローラ104は、スキャンラインそれぞれについて、複数の測定点のうち、少なくともひとつを補正点とし、補正点の高さが所定値hREFに近づくように3次元センサ102の仰俯角φを制御する。コントローラ104には、補正点までの距離rを示す測距データが入力される。補正点の高さは、仰俯角φと測距データから幾何学的に計算できる。
【0049】
図8は、3次元センサ102における仰俯角φの補正処理を説明する図である。図8には、ひとつのスキャンライン上のひとつの補正点における処理が示される。認識センサ100は、補正処理のために仮測定を行う。仮測定では、仰俯角φは予め定めた初期値φINITにセットされる。初期値φINITは、そのスキャンラインの固有の値であってもよく、仰俯角一定スキャンを行う場合の角度φ(i=1,2・・・N)であってもよい。仮測定におけるスキャンビームBMINITを実線で示す。
【0050】
この状態で、オブジェクトOBJまでの距離rが測定される。ここでは計算の簡素化のために、3次元センサ102の光源を基準として高さhを定義する。測定された距離rと初期仰俯角φINITを用いて、オブジェクトOBJまでの水平距離Rは、式(1)で計算できる。
R=r・cosφINIT …(1)
【0051】
コントローラ104は、仮測定で得られた距離rとそのときの仰俯角φINITにもとづいて、本測定における仰俯角φCMPを計算する。補正された仰俯角φCMPで出射したスキャンビームBMCMPは、オブジェクトOBJと基準高さhREFで交差しなければならないから、式(2)が成り立つ。
tanφCMP=hREF/R …(2)
【0052】
したがって、補正された仰俯角φCMPは式(3)で与えられる。
φCMP=arctan(hREF/R)
=arctan(hREF/(r・cosφINIT)) …(3)
【0053】
3次元センサ102は、仮測定に続く本測定において、仰俯角をφCMPにセットし、オブジェクトOBJまでの距離r’を再測定する。
【0054】
図9は、3次元センサ102における仰俯角φの補正処理のフローチャートである。はじめに3次元センサ102の仰俯角φが初期値φINITにセットされる(S100)。そのときのオブジェクトまでの距離rを仮測定する(S102)。仮測定で得られた距離rと、仰俯角の初期値φINITにもとづいて、補正された仰俯角φCMPを計算する(S104)。3次元センサ102に、補正後の仰俯角φCMPをセットする(S106)。そしてオブジェクトまでの距離r’を本測定する(S108)。
【0055】
以上が認識センサ100の動作である。この認識センサ100によれば、スキャンラインごとに、それが通過する高さを制御できるため、上述の少なくともひとつの課題を解決できる。
【0056】
補正対象の測定点(補正点)の選択には、さまざまな方法が考えられる。以下、いくつかの実施例について説明する。
【0057】
(第1実施例)
第1実施例において、すべての測定点を補正点とすることができる。すなわちすべてのスキャンラインに含まれるすべての測定点において、仮測定と本測定を行う。図10は、第1実施例に係る補正を説明する図である。ここではひとつのスキャンラインに着目する。仰俯角一定制御の場合のスキャンラインSLINITは一点鎖線で示される。異なる水平距離R,Rに、2つのオブジェクトOBJ1,OBJ2が存在しているとする。R>Rである。オブジェクトOBJ1,OBJ2は平坦であり、仰角一定制御のときのスキャンラインSLINITは歪んでいる。また遠いオブジェクトOBJ2を通過するスキャンラインSLINITは、近いオブジェクトOBJ1を通過するスキャンラインSLINITよりも低い高さを通過する。
【0058】
補正後のスキャンラインSLCMPは実線で示される。仮測定では、補正前のスキャンラインSLINIT上の測定点PINITにスキャンビームが当たる。そして仰俯角φが補正されると、所定の高さhREFの位置に測定点PCMPが移動する。
【0059】
その結果、各オブジェクト内において、スキャンラインSLCMPの高さは実質的に一定となる。これにより像の歪みを低減できる。すなわち図4(a)に関連する課題2や、図4(b)に関連する課題3を解決される。
【0060】
課題2に関連して、コントローラ104は、実質的に平坦なオブジェクトOBJをスキャンしたときに、各スキャンラインの高さがスキャン角度θに依存せずに一定となるように3次元センサ102の仰俯角φを制御しているものと把握できる。
【0061】
また、2つのオブジェクトOBJ1、OBJ2を比較すると、水平距離R,Rが異なっているにもかかわらず、測定点PCMPの高さをhREFに揃えることができる。すなわち図5を参照して説明した課題4も解決できる。
【0062】
課題4に関連して、コントローラ104は、測定点までの水平距離Rにかかわらず、当該測定点の高さが所定値hREFに近づくように3次元センサの仰俯角を制御しているものと把握できる。
【0063】
スキャンラインごとの基準高さhREFを、機械学習に用いたLiDARのそれと合わせることにより、課題1を解決することも可能である。あるいは、自動車にLiDARを搭載する際の設置の自由度を高めることができる。
【0064】
なお第1実施例の補正処理では、すべての測定点について2回ずつの測距が必要となるため、フレームレートが1/2に低下する。そこで、複数フレームに1回の割合で、補正を行ってもよい。
【0065】
(第2実施例)
図11は、第2実施例に係る補正処理を説明する図である。第2実施例では、スキャン方向に離散的な複数の測定点を補正点とする。補正点から次の補正点までの間の測定点については、直前の補正処理で得られた補正角φCMPを用いることとする。
【0066】
離散的な測定点は、たとえばオブジェクトOBJごとに少なくとも1点設けるとよい。新しいオブジェクトOBJは、距離rの大きな不連続にもとづいて検出してもよい。
【0067】
第2実施例によれば、高さhは完全に一定とはならないものの、仰俯角一定制御を行った場合に比べれば、高さの変動を抑制できる。オブジェクトOBJごとに補正を行えば、図4(b)に関連する課題3や、図5に関連する課題4を解決できる。
【0068】
第2実施例では、図4(a)に関連する課題3が未解決のまま残りうる。その場合には、機械学習においても同様の歪んだ像を測定すればよい。
【0069】
図12は、オブジェクト識別システム200を備える自動車400のブロック図である。自動車400は、前照灯410を備える。オブジェクト識別システム200のうち、少なくとも3次元センサ102は、前照灯410に内蔵される。コントローラ104も前照灯410に内蔵することができる。前照灯410は、車体の最も先端に位置しており、周囲のオブジェクトを検出する上で、3次元センサ102の設置箇所として最も有利である。オブジェクト識別処理部210については、前照灯410に内蔵してもよいし、車両側に設けてもよい。
【0070】
図13は、オブジェクト識別システム200を備える車両用灯具500を示すブロック図である。車両用灯具500は、光源502、点灯回路504、光学系506、灯具ECU508を備える。さらに車両用灯具500には、オブジェクト識別システム200が設けられる。
【0071】
オブジェクト識別処理部210が検出したオブジェクトOBJに関する情報は、車両ECU420に送信される。車両ECU420は、この情報にもとづいて、自動運転を行ってもよい。
【0072】
また、オブジェクト識別処理部210が検出したオブジェクトOBJに関する情報は、車両用灯具500の配光制御(ADB:Adaptive Driving Beam)に利用してもよい。具体的には、灯具ECU508は、オブジェクト識別処理部210が生成するオブジェクトOBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路504および光学系506は、灯具ECU508が生成した配光パターンが得られるように動作する。
【0073】
以上、本発明の一側面について、第1の実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。以下、第1の実施の形態に関連する変形例について説明する。
【0074】
第1の実施の形態では、3次元センサ102としてLiDARを例としたが、この技術の適用はそれに限定されない。
【0075】
<第2の実施の形態>
図14は、第2の実施の形態に係るオブジェクト識別システム10のブロック図である。このオブジェクト識別システム10は、自動車やバイクなどの車両に搭載される車載用であり、車両の周囲に存在するオブジェクトOBJの種類(カテゴリともいう)を判定する。
【0076】
オブジェクト識別システム10は、主として3次元センサ20および演算処理装置40を備える。3次元センサ20は、高さが異なる複数の水平ラインL~Lについて、複数のラインデータLD~LDを生成する。水平ラインの本数Nは、特に限定されないが、20本以下、4~12本程度が好適である。各ラインデータLDは、対応する水平ラインLに沿った複数のサンプリング点Pまでの距離情報を含んでいる。複数のラインデータLD~LDのセットを測距データと称する。3次元センサ20は特に限定されないが、歩行者など凹凸の小さいオブジェクトを正確に識別したい場合には、LiDARを用いることが好ましい。水平ラインの本数Nは、すなわち垂直方向の解像度である。LiDARの構成は特に限定されず、走査型、非走査型であるとを問わない。
【0077】
演算処理装置40は、複数のラインデータLD~LDを含む測距データにもとづいてオブジェクトの種類(カテゴリ)を識別する。演算処理装置40は、1個のオブジェクトを含むデータを処理対象として構成され、1枚の測距データに、複数のオブジェクトが含まれる場合、前処理によって1個のオブジェクトを含むサブフレームに分割し、演算処理装置40は、サブフレームを処理単位とする。
【0078】
演算処理装置40は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置40は、複数のプロセッサの組み合わせであってもよい。
【0079】
たとえばオブジェクトの種類は、歩行者、自転車、自動車、電柱などが例示される。歩行者について、前方から見た歩行者、後方から見た歩行者、側方から見た歩行者を、同じ種類に分類して定義してもよい。自動車、自転車も同様である。本実施の形態ではこの定義を採用する。
【0080】
本実施の形態において、オブジェクトOBJは、異なる高さについて、複数の部位(カテゴリあるいはサブカテゴリと称する)が定義される。図15は、歩行者について定義される複数の部位の一例を示す図である。歩行者に関して、M個の部位H~HM-1が定義される。本実施の形態では、M=N=8とする。Hは膝、Hは膝上、Hは太もも、Hは腰、Hは腹部、Hは胸、Hは肩、Hは顔である。
【0081】
自転車についても、異なる高さの複数の部位B~Bが定義される。自動車についても、異なる高さの複数の部位C~Cが定義される。電柱に関しても、異なる高さの複数の部位P~Pを定義できるが、高さにかかわらずプロファイルは実質的に不変であるからそれらを区別する必要はなく、したがって、1つの出力Pにまとめることとする。
【0082】
図16(a)~(d)は、歩行者、自転車、自動車、電柱を3次元センサ20で撮影したときの複数のラインデータを示す図である。図16(a)~(d)において、複数のラインデータは、予め定義された複数の部位の形状を示している。
【0083】
図1に戻る。演算処理装置40は、ラインデータLDごとに、オブジェクトOBJの種類およびその部位に関する中間データMDを生成する。中間データMDは、対応するラインデータLD(水平ラインL)が、いずれの種類の、いずれの部位であるかを統計的に示してもよい。
【0084】
そして演算処理装置40は、複数のラインデータLD~LDに対応する複数の中間データMD~MDを統合して、オブジェクトOBJの種類を示す最終データFDを生成する。最終データFDは、オブジェクトOBJがいずれの種類であるかを統計的に示してもよい。
【0085】
演算処理装置40は、機能的には、複数の第1演算ユニット42_1~42_Nと、第2演算ユニット44を含む。演算ユニット42,44で示されるブロックは、必ずしもハードウェア的に独立していることを意味するものでない。たとえば、演算処理装置40がシングルコアで構成される場合、複数の演算ユニット42、44は、単一のコアに対応しうる。演算処理装置40がマルチコアを含む場合、各コアが、複数の演算ユニット42,44として機能しうる。
【0086】
i番目(1≦i≦N)の演算ユニット42_iは、対応するラインデータLDを処理し、中間データMDを生成する。第2演算ユニット44は、複数の第1演算ユニット42_1~42_Nが生成する中間データMD~MDを統合し、最終データFDを生成する。
【0087】
以上がオブジェクト識別システム10の基本構成である。演算処理装置40の実装は特に限定されないが、たとえばニューラルネットワークを用いて構成できる。以下、本発明者が検証を行った構成について説明する。第1演算ユニット42に対応するニューラルネットワークを第1ニューラルネットワークNN,第2演算ユニット44に対応するニューラルネットワークを第2ニューラルネットワークNNと称する。
【0088】
図17は、第1ニューラルネットワークNNの構成例を示すブロック図である。第1ニューラルネットワークNNは、入力層50、3層の中間層(隠れ層)52、出力層54で構成される。入力層50のユニット数は、1ラインのサンプル点の個数に応じて定め、5200とした。中間層は3層であり、ユニット数は200,100,50とした。中間層52においては、アファイン変換と、シグモイド関数を用いた変換が行われる。出力層54では、アファイン変換と、ソフトマックス関数を用いた確率の計算が行われる。
【0089】
出力層54には、歩行者に関する部位H~H、自動車に関する部位C~C、自転車に関する部位B~B、電柱に関する部位Pの、合計25個のカテゴリを設定した。中間データMDは、複数のデータHuman-0th~Human-7th,Car-0th~Car-7th, Bicycle--0th~Bicycle7th, Pole-allを含み、歩行者に関する部位H~H、自動車に関する部位C~C、自転車に関する部位B~B、電柱に関する部位Pそれぞれに該当する確率を示す。
【0090】
図18は、第2ニューラルネットワークNNの構成例を示すブロック図である。第2ニューラルネットワークNNは、入力層60、1層の中間層62、出力層64で構成される。入力層60のユニット数は、前段の第1ニューラルネットワークNNの個数(N=8)と、そのカテゴリ数(25)の積200とした。中間層62は1層であり、ユニット数は50とした。出力層64には、歩行者(Human)、自動車(Car)、自転車(Bicycle)、電柱(Pole)の4カテゴリを設定した。すなわち最終データFDは、オブジェクトOBJが、歩行者、自動車、自転車、電柱それぞれに該当する可能性を示す4つのデータHuman,Car,Bicycle,Poleを含む。
【0091】
第1ニューラルネットワークNN、第2ニューラルネットワークNNに共通する設定として、パラメータ更新法はAdam、学習係数は0.01、反復計算回数は20,000回とした。
【0092】
第1ニューラルネットワークNNの前処理として、抽出、シフト、正規化を行うことが好ましい。
【0093】
抽出は、背景を除去し、オブジェクトOBJを抽出する処理である。図19(a)~(c)は、オブジェクトの抽出を説明する図である。図19(a)は、オブジェクトである自動車を示す図である。図19(b)は、図19(a)のオブジェクトをLiDARで撮影したときの、複数のラインデータLD~LDを示す。図19(c)には、オブジェクトを含むように抽出されたラインデータLD~LDが示される。
【0094】
シフトは、オブジェクトが中央に位置するようにデータシフトする処理である。正規化は、距離データを所定値で除算する処理である。たとえば、所定値は、学習時における、3次元センサ20とオブジェクトOBJの所定箇所との距離(基準距離)であってもよい。これにより、ラインデータが、1付近の値に正規化される。
【0095】
続いて、機械学習について説明する。図20(a)~(c)は、第1の学習方法を説明する図である。図20(a)に示すように、初めに学習に用いるデータ(学習)を測定する。学習データは、複数のオブジェクトをLiDARで測定することにより取得される。具体的には、識別したいオブジェクトの候補(歩行者、自動車、電柱、自転車に乗った人など)を、異なる条件下(たとえば、さまざまな距離、さまざまな方向から)で測定し、学習用のフレームデータFD,FD,…を用意する。各フレームデータFD(i=1,2,・・・)は、N本(ここでは8本)のラインデータを含むが、学習には、オブジェクトとクロスする有効なラインデータのみを使用してもよい。たとえば歩行者を撮影したフレームデータFDでは、一番下の2本のラインデータLD11,FD12は地面とクロスし、歩行者とクロスしないため、学習には用いないこととしてもよい。
【0096】
続いて、第1演算ユニット(第1ニューラルネットワーク)42を対象とした学習を行う。図20(b)に示すように、複数のフレームデータに含まれる複数の有効なラインデータLDijが個別に、教師データTDijとともに第1演算ユニット42に入力される。たとえばフレームFDのラインデータLD18を入力するときには、種類(カテゴリ)=「歩行者」、部位(サブカテゴリ)=「歩行者の顔」を示す教師データTDijを与える。
【0097】
1個の第1演算ユニット42について得られた学習結果は、すべての第1演算ユニット42において使用される。続いて第2演算ユニット44を学習させる。具体的には図20(b)に示すように、複数の第1演算ユニット42と、第2演算ユニット(第2ニューラルネットワーク)44が接続される。この状態で、演算処理装置40に、複数のフレームデータFD,FD・・・が個別に入力される。各フレームFDごとに、複数の第1演算ユニット42によって複数の中間データMD~MDのセットが生成され、後段の第2演算ユニット44に供給される。第2演算ユニット44には、中間データMD~MDのセットに加えて、現在のフレームデータFDに含まれるオブジェクトの種類を示す教師データTDが与えられる。たとえば、演算処理装置40に、歩行者を撮影したフレームデータFDを入力する場合、第2演算ユニット44には、種類=「歩行者」を示す教師データTDが与えられる。これを複数のフレームデータについて行うことにより、第2演算ユニット44の学習が行われる。
【0098】
以上の構成を有するオブジェクト識別システム10の有効性を検討するために行った実験について説明する。
【0099】
検証に用いたLiDARの水平ラインの本数は8である。水平ラインの照射角度(鉛直方向角度分解能)は、下から-18.25°,-15.42°,-12.49°,-9.46°,-6.36°,-3.19°,0°,3.2°である。水平方向角度分解能は0.035度、撮影範囲は0~180°に設定した。したがってラインデータは、180/0.035=5200個のサンプル点の値を含む。
【0100】
図21(a)、(b)は、歩行者の撮影を説明する図である。LiDARの中心からオブジェクトOBJの距離(基準距離)は3mとした。歩行者のサンプルは、身長166cmの成人男性であり、9つの方向(0°,22.5°,45°,67.5°,90°,112.5°,135°,157.5°,0°,180°)から撮影した。なおオブジェクトOBJの正面(顔、ヘッドランプ)が見える方向を0°とする。歩行者に関して、図15に示す8つの部位H~Hに、8本の水平ラインが一致するように、LiDARを、鉛直方向に7°(仰角)傾けている。
【0101】
自転車については、図16(b)に示すように人が跨がって静止した状態で撮影した。撮影方向は、歩行者と同様に9方向とした。
【0102】
自動車については、1種類の車種を、3方向(0°,90°,180°)から撮影した。電柱は6本をサンプルとし、任意の方向から撮影した。
【0103】
訓練データとして、歩行者と自転車は3600フレーム、自動車は3000フレーム、電柱は1700フレームを用いて機械学習を行った。学習方法は、図20(a)~(c)を参照して説明した通りである。
【0104】
その後、歩行者と自転車についてそれぞれ360フレーム、自動車、電柱についてそれぞれ300フレームをテストデータとして、学習の結果を検証した。図22は、第1ニューラルネットワークNNによる25カテゴリ(サブカテゴリ)の分類の正解率を示す図である。最上段のTotalは、テストデータとして入力した(360+360+300+300)フレーム×8本=10560本のラインデータのトータルの正解率を示す。それ以外は、歩行者、自動車、自転車、電柱の各部位の正解率を示す。
【0105】
図23は、第2ニューラルネットワークNNによる4カテゴリの分類の正解率を示す図である。最上段のTotalは、テストデータとして入力した1320(=360+360+300+300)フレーム全体の正解率を示す。それ以外は、歩行者(Human)、自動車(Car)、自転車(Bicycle)、電柱(Pole)の正解率を示す。
【0106】
図23からわかるように、歩行者(Human)、自動車(Car)、電柱(Pole)については100%の正解率が得られている。自転車(Bicycle)についてのみ、正解率が97.8%となっており、トータルの正解率は、自転車での誤りの影響を受けたものであることがわかる。
【0107】
このように、第2の実施の形態に係るオブジェクト識別システム10によれば、わずかに8本の水平ラインの本数で、きわめて高確率でオブジェクトの種類を判定することができる。
【0108】
また、水平ラインの本数が8本と少ないことから、演算処理装置40に要求される処理能力を小さくできる。
【0109】
ここでは、オブジェクトとLiDARの距離を3mと固定して検証したが、実際には、距離は可変である。したがって、距離を複数のレンジに区分けして、レンジごとに、ニューラルネットワークの学習を行えばよい。
【0110】
図24は、オブジェクト識別システム10を備える自動車600のブロック図である。自動車600は、前照灯602L,602Rを備える。オブジェクト識別システム10のうち、少なくとも3次元センサ20は、前照灯602L,602Rの少なくとも一方に内蔵される。前照灯602は、車体の最も先端に位置しており、周囲のオブジェクトを検出する上で、3次元センサ20の設置箇所として最も有利である。演算処理装置40については、前照灯602に内蔵してもよいし、車両側に設けてもよい。たとえば演算処理装置40のうち、中間データの生成は前照灯602の内部で行い、最終データの生成は車両側に委ねてもよい。
【0111】
図25は、オブジェクト識別システム10を備える車両用灯具700を示すブロック図である。車両用灯具700は、光源702、点灯回路704、光学系706を備える。さらに車両用灯具700には、3次元センサ20および演算処理装置40が設けられる。演算処理装置40が検出したオブジェクトOBJに関する情報は、車両ECU604に送信される。車両ECUは、この情報にもとづいて、自動運転を行ってもよい。
【0112】
また、演算処理装置40が検出したオブジェクトOBJに関する情報は、車両用灯具700の配光制御に利用してもよい。具体的には、灯具ECU708は、演算処理装置40が生成するオブジェクトOBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路704および光学系706は、灯具ECU708が生成した配光パターンが得られるように動作する。
【0113】
以上、本発明について、実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。以下、こうした変形例について説明する。
【0114】
(学習方法に関する変形例)
図20(a)~(c)に示す第1の学習方法では、LiDARの設置(高さ、仰俯角、あるいはオブジェクトとの距離)に強く依存した学習が行われる場合がある。図26(a)、(b)は、LiDARの高さと、オブジェクトの関係を示す図である。図26(a)は、学習時にLiDARの設置高さを145cmとした場合を示す。このとき、下側の3本のラインデータは無効であり、下から4本目~8本目のラインデータLD~LDを用いた学習が行われる。
【0115】
実際の使用時に、図26(b)に示すように、LiDARの設置高さが学習時より低い70cmであったとする。また歩行者とLiDARとの距離が、学習時より近いものとする。図26(b)の状態では、ラインデータLD~LDは該当部位無し(サブカテゴリ無し)、ラインデータLD~LDは、部位(サブカテゴリ)=脚、ラインデータLDは、部位(サブカテゴリ)=腹部である。
【0116】
図26(c)は、第1の学習方法によって学習済みのオブジェクト識別システム10によって、図26(b)の状況で得られる最終データを示す。歩行者として認識されるべきところ、その他のカテゴリである確率の方が高いものと誤認識されている。これは第1学習方法では、第2演算ユニット44における分類が、サブカテゴリの並び順、組み合わせに強く依存していることに起因するものと推察される。すなわち第1の学習方法を採用する場合、実際の使用段階における3次元センサの高さが、学習段階で用いた高さにより制約される可能性がある。第2の学習方法には、このような制約を減らす工夫が組み込まれる。
【0117】
第2の学習方法では、第1演算ユニット42の学習は第1の学習方法と同様であり、第2演算ユニット44の学習方法が異なっている。図27は、第2の学習方法における第2演算ユニット44の学習工程を説明する図である。具体的には、第2の学習方法では、学習済みの複数の第1演算ユニット42の出力と、第2演算ユニット44の複数の入力ノードI~Iの対応関係46を変化させながら、第2演算ユニット44を学習させる。対応関係46は、フレームデータFDごとにランダムに変化させてもよい。
【0118】
学習時間に余裕がある場合には、ひとつのフレームデータFDについて、対応関係を複数のパターンで切りかえて学習を行ってもよい。N=8の場合、入出力の組み合わせは8×7=56通り存在する。したがって各フレームデータについて、すべての組み合わせで学習を行ってもよい。
【0119】
図28は、第2の学習方法の効果を説明する図である。図28は、第2の学習方法で学習済みのオブジェクト識別システム10を用いて、図26(b)の状況で歩行者を想定したときの最終データFDを示す。第1の学習方法の結果得られる図26(c)の最終データに比べて、歩行者と認識する確率を高めることができている。
【0120】
このように、第2演算ユニット44の学習工程において、複数の第1演算ユニット42と、第2演算ユニット44の複数の入力の対応関係を変化させることにより、LiDARなどの3次元センサの設置の自由度を高めることができる。
【0121】
図29は、変形例に係るオブジェクト識別システム10Aのブロック図である。この変形例において、第1演算ユニット42Aは、畳み込みニューラルネットワークとして実装される。一般的には、畳み込みニューラルネットワークは、M×Nピクセルの2次元画像を対象とするが、本実施形態では、それを1次元のラインデータを対象として利用する点が新しい。畳み込みニューラルネットワークは、畳み込み層とプーリング層の組み合わせである。畳み込みニューラルネットワークを用いることで、オブジェクトの横方向の位置ズレに対するロバスト性を高めることができる。
【0122】
(その他の変形例)
複数のラインデータの本数Nを8としたが、演算処理装置40の演算能力と、要求されるオブジェクトOBJの識別能力を考慮して、N=4~12程度としてもよい。
【0123】
一実施の形態において、オブジェクトを、それを望む方向ごとに異なる種類(カテゴリ)として定義してもよい。つまり、あるオブジェクトが、自車と正対しているときと、そうでないときとで、別の種類として識別される。これは、オブジェクトOBJの移動方向の推定に役立つからである。
【0124】
演算処理装置40は、FPGAなどを用いてハードウェアのみで構成してもよい。
【0125】
実施の形態では、車載用のオブジェクト識別システム10を説明したが本発明の適用はその限りでなく、たとえば信号機や交通標識、そのほかの交通インフラに固定的に設置され、定点観測する用途にも適用可能である。


実施の形態にもとづき、具体的な語句を用いて本発明を説明したが、実施の形態は、本発明の原理、応用の一側面を示しているにすぎず、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
【符号の説明】
【0126】
100…認識センサ、102…3次元センサ、104…コントローラ、200…オブジェクト識別システム、210…オブジェクト識別処理部、400…自動車、410…前照灯、420…車両ECU、500…車両用灯具、502…光源、504…点灯回路、506…光学系、508…灯具ECU、10…オブジェクト識別システム、20…3次元センサ、40…演算処理装置、42…第1演算ユニット、44…第2演算ユニット、NN…第1ニューラルネットワーク、NN…第2ニューラルネットワーク、50…入力層、52…中間層、54…出力層、60…入力層、62…中間層、64…出力層、600…自動車、602…前照灯、604…車両ECU、700…車両用灯具、702…光源、704…点灯回路、706…光学系、708…灯具ECU。
【産業上の利用可能性】
【0127】
本発明は、物体の形状を検出する認識センサに利用できる。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29