(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-02-15
(45)【発行日】2022-02-24
(54)【発明の名称】物体識別装置、方法およびシステム
(51)【国際特許分類】
G08G 1/00 20060101AFI20220216BHJP
G06T 7/00 20170101ALI20220216BHJP
G08G 1/16 20060101ALI20220216BHJP
【FI】
G08G1/00 A
G06T7/00 650Z
G08G1/16 C ZIT
(21)【出願番号】P 2019108587
(22)【出願日】2019-06-11
【審査請求日】2021-02-26
【早期審査対象出願】
(73)【特許権者】
【識別番号】000208891
【氏名又は名称】KDDI株式会社
(74)【代理人】
【識別番号】100092772
【氏名又は名称】阪本 清孝
(74)【代理人】
【識別番号】100119688
【氏名又は名称】田邉 壽二
(72)【発明者】
【氏名】田坂 和之
(72)【発明者】
【氏名】柳原 広昌
【審査官】上野 博史
(56)【参考文献】
【文献】特開2013-008315(JP,A)
【文献】特開2018-081404(JP,A)
【文献】特開2017-194948(JP,A)
【文献】特開2003-099890(JP,A)
【文献】特開2018-097738(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/00
G06T 7/00
G08G 1/16
(57)【特許請求の範囲】
【請求項1】
車載カメラの映像を識別モデルに適用して物体識別を行う物体識別装置において、
識別対象である走行障害物ごとに識別モデルを記憶する手段と、
車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて、当該走行環境に固有の走行障害物に対応する一部の識別モデルを選択する手段と、
車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備し
、
前記周囲環境の特徴を識別する手段は、移動体の識別に好適な第1環境辞書、不動産の識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書の少なくとも一つを用いて周囲環境の特徴を識別することを特徴とする物体識別装置。
【請求項2】
車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、
前記周囲環境の特徴を識別する手段は、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項1に記載の物体識別装置。
【請求項3】
前記走行環境を推定する手段は、走行環境が、商店街またはこれに類する環境、郊外またはこれに類する環境、高速道路またはこれに類する環境、を含む複数の走行環境候補のいずれであるかを推定することを特徴とする請求項1または2に記載の物体識別装置。
【請求項4】
車載カメラの映像を識別モデルに適用して物体識別を行う物体識別装置において、
識別対象である走行障害物ごとに識別モデルを記憶する手段と、
車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて、当該走行環境に固有の走行障害物に対応する一部の識別モデルを選択する手段と、
車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備し、
前記走行環境を推定する手段は、走行環境が、商店街またはこれに類する環境、郊外またはこれに類する環境、高速道路またはこれに類する環境、を含む複数の走行環境候補のいずれであるかを推定することを特徴とする物体識別装置。
【請求項5】
前記識別モデルの一つが歩行者数識別用であることを特徴とする請求項1ないし4のいずれかに記載の物体識別装置。
【請求項6】
前記識別モデルの一つが
交通/道路標識
の識別用であることを特徴とする請求項1ないし5のいずれかに記載の物体識別装置。
【請求項7】
前記識別モデルの一つが一時置物識別用であることを特徴とする請求項1ないし6のいずれかに記載の物体識別装置。
【請求項8】
コンピュータが、車載カメラの映像を識別モデルに適用して物体識別を行う物体識別方法において、
車載カメラの映像に基づいて周囲環境の特徴を識別する手順と、
周囲環境の特徴に基づいて走行環境を推定する手順と、
識別対象である走行障害物ごとに記憶した識別モデルから、走行環境の推定結果に基づいて、当該走行環境に固有の走行障害物に対応する一部の識別モデルを選択する手順と、
車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手順とを含
み、
前記周囲環境の特徴を識別する手順では、移動体の識別に好適な第1環境辞書、不動産の識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書の少なくとも一つを用いて周囲環境の特徴を識別することを特徴とする物体識別方法。
【請求項9】
車両の周囲環境に固有のセンサ出力を取得する手順を更に含み、
前記周囲環境の特徴を識別する手順では、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項8に記載の物体識別方法。
【請求項10】
車両の車載カメラの映像をサーバが識別モデルに適用して物体識別を行う物体識別システムにおいて、
前記車両が、
車載カメラの映像をサーバへアップロードする手段を具備し、
前記サーバが、
識別対象である走行障害物ごとに識別モデルを記憶する手段と、
アップロードされた車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて、当該走行環境に固有の走行障害物に対応する一部の識別モデルを選択する手段と、
前記選択した識別モデルを前記車両へ配信する手段とを具備し、
前記車両が更に、
前記サーバから配信された識別モデルを既存の識別モデルに代えてインストールする手段と、
前記車載カメラの映像を前記インストールした識別モデルに適用して物体識別を行う手段とを具備したことを特徴とする物体識別システム。
【請求項11】
前記車両が、
車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、
前記アップロードする手段は、車載カメラの映像およびセンサ出力をアップロードし、
前記サーバにおいて、周囲環境の特徴を識別する手段は、アップロードされた車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項
10に記載の物体識別システム。
【請求項12】
車両の車載カメラの映像をサーバが識別モデルに適用して物体識別を行う物体識別システムにおいて、
前記車両が、
車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
周囲環境の特徴をサーバへアップロードする手段とを具備し、
前記サーバが、
識別対象である走行障害物ごとに識別モデルを記憶する手段と、
アップロードされた周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて、当該走行環境に固有の走行障害物に対応する一部の識別モデルを選択する手段と、
前記選択した識別モデルを前記車両へ配信する手段とを具備し、
前記車両が更に、
前記サーバから配信された識別モデルを既存の識別モデルに代えてインストールする手段と、
前記車載カメラの映像を前記インストールした識別モデルに適用して物体識別を行う手段とを具備したことを特徴とする物体識別システム。
【請求項13】
前記車両が、車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、
前記周囲環境の特徴を識別する手段は、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項
12に記載の物体識別システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、物体識別装置、方法およびシステムに係り、特に、コネクテッドカーの自動運転に好適な物体識別装置、方法およびシステムに関する。
【背景技術】
【0002】
近年、車両の走行方向に存在する物体を各種のセンサで識別し、物体識別の結果が障害物であれば、これを回避するようにハンドルを自動的に操舵し、あるいは運転者や遠隔地のオペレータに識別結果を通知する技術が提案されている。一方、IoT (Internet of Things)の典型として、インターネットへの常時接続機能を具備したコネクテッドカーが注目されている。
【0003】
特許文献1には、自車両のヘッドライトの配光状態に基づき、物体識別に用いる認識辞書の認識条件を変更し、変更した認識辞書に基づき、自車両の前方を撮影した映像から物体認識を行う技術が開示されている。
【0004】
特許文献2には、走行環境が急激に変化した場合、カメラでは認識困難な対象物を他の検出手段で検出する技術が開示されている。具体的には、前のフレームで検出していた対象物の消失を検出し、その対象物の方向にレーザーを照射して対象物の距離情報を出力する。
【0005】
特許文献3には、画像内での物体認識範囲を、採用する画像処理装置に応じて変更することで、物体認識に係る処理量を削減する技術が開示されている。
【先行技術文献】
【特許文献】
【0006】
【文献】特開2017-165345号公報
【文献】特許第6471528号公報
【文献】特許第5777389号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
車両走行の障害物となる可能性のある物体は多種多様であり、物体を識別する学習モデル(識別モデル)はあらゆる物体を識別できるように学習させる必要がある。しかしながら、このような万能型の識別モデルは、容量が同等であれば、識別対象を限定した専用の識別モデルに比べて識別率が低下する。
【0008】
一方、障害物となる可能性のある物体ごとに専用の識別モデルを用意すると、識別モデルの保持に多くの記憶容量が消費され、かつ全ての識別モデルを同時に稼働させるとコンピュータリソースが不足する。
【0009】
特許文献1では、ヘッドライトの配光状態から認識するパラメータを変更することで認識精度を向上できる一方、同じ光源の状態下において、商店街、一般高速道、郊外の一般道などの環境の変化に応じて、識別対象を変更することができない。
【0010】
特許文献2では、環境変化時の認識精度の向上が可能である一方、認識する対象物が同じであるため、サーバの処理負荷やデータ蓄積量の削減は困難である。
【0011】
特許文献3では、周辺環境に応じた識別方法を切り替えることが困難である。
【0012】
本発明の目的は、上記の技術課題を解決し、走行障害物となる可能性のある物体ごとに、その識別用に最適化された複数種の専用モデルを予め用意し、各車両の周囲環境に応じた一部の専用モデルのみを選択的に各車両にダウンロードして物体識別に利用することで、限られたメモリ容量を有効利用し、より正確かつ高速な物体識別を可能にする物体識別装置、方法およびシステムを提供することにある。
【課題を解決するための手段】
【0013】
上記の目的を達成するために、本発明は、車載カメラの映像を識別モデルに適用して物体識別を行う物体識別装置において、以下の構成を具備した点に特徴がある。
【0014】
(1) 複数種の識別モデルを記憶する手段と、車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、周囲環境の特徴に基づいて走行環境を推定する手段と、走行環境の推定結果に基づいて一部の識別モデルを選択する手段と、車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備した。
【0015】
(2) 車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、前記周囲環境の特徴を識別する手段は、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別するようにした。
【0016】
(3) 周囲環境の特徴を識別する手段は、移動体の識別に好適な第1環境辞書、不動産の識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書を併用して移動体および不動産を識別するようにした。
【発明の効果】
【0017】
本発明によれば、以下のような効果が達成される。
【0018】
(1) 走行障害物となる可能性のある物体ごとに、その識別用に最適化された複数種の専用の識別モデルを予め用意し、各車両の周囲環境に応じた一部の専用識別モデルのみが選択的に各車両にダウンロードされて物体識別に利用される。したがって、各車両は全ての専用モデルを常に実装しておく必要がなくなるので、限られたメモリ容量の有効利用が可能となる。加えて、識別対象が限定されない万能型の識別モデルを実装する場合に比べて、モデルサイズが同等であれば、同一のコンピュータリソースを用いながら、より正確かつ高速な物体識別が可能となる。
【0019】
(2) 車両の周囲環境を、画像ベースおよびセンサベースで推定するので、画像ベースでの推定に不向きな夜間、降雨、濃霧時等、あるいはセンサベースでの推定に不向きな形状識別、サイズ識別などで識別精度を相互に補完することができる。したがって、天候、状況、物体の形状等に関わらず、常に高い識別精度が得られるようになる。
【0020】
(3) 車両の周囲環境を推定するにあたり、その推定パラメータとして、人や動物などの移動体、ビルや住宅などの不動産および交通標識や信号機などに注目し、移動体識別に好適な第1環境辞書、不動産識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書を併用して移動体および不動産を優先的に識別するので、周囲環境を正確に推定できるようになる。
【図面の簡単な説明】
【0021】
【
図1】本発明の一実施形態に係る物体識別装置の機能ブロック図である。
【
図2】本発明の物体識別装置を適用したネットワークの構成を示した図である。
【
図3】物体識別装置の各機能をコネクテッドカーおよびサーバに分散実装する第1の例を示した機能ブロック図である。
【
図4】第1の実装例における物体識別のシーケンスフローである。
【
図5】物体識別装置の各機能をコネクテッドカーおよびサーバに分散実装する第2の例を示した機能ブロック図である。
【
図6】第2の実装例における物体識別のシーケンスフローである。
【
図7】走行環境と識別モデルとの関係を示した図である。
【発明を実施するための形態】
【0022】
以下、図面を参照して本発明の実施の形態について詳細に説明する。
図1は、本発明の一実施形態に係る物体識別装置1の機能ブロック図であり、コネクテッドカー等の車両に搭載したカメラ(以下、車載カメラで総称する)が撮影した映像に基づいて、車両走行の障害となる人物、動物その他の物体(以下、「物体」で代表する)を識別する。
【0023】
カメラ映像取得部102は、車載カメラ101からカメラ映像を取得して出力する。環境センサ103は、各物体までの距離、騒音、温度、湿度、明るさなどの周囲環境に固有のパラメータを計測する。各センサ出力は、センサインタフェース(I/F)104から出力される。
【0024】
周囲環境識別部105は、特に車両数や人物数などの移動体の識別用に構築された第1環境辞書105a、特に建物の数や高さなどの不動産の識別用に構築された第2環境辞書105b、特に案内標識、交通標識、信号機および横断歩道等の交通/道路標識の識別用に構築された第3環境辞書105cを含む複数の辞書を備え、カメラ映像およびセンサ出力を少なくとも一つの識別辞書に適用することで、自車両周辺の車両数、人物数、建物の数およびその高さ、ならびに道路標識などの周囲環境の特徴を識別する。
【0025】
走行環境推定部106は環境識別モデル106aを含み、前記周囲環境識別部105が出力する識別結果に基づいて車両の走行環境を推定する。本実施形態では、走行環境が「商店街」またはこれに類する環境、「郊外」またはこれに類する環境、「高速道路」またはこれに類する環境を含む多数の走行環境候補のいずれであるかが推定される。例えば、多数の人物が識別されていると「商店街」またはこれに類する環境と推定される可能性が高い。また、横断歩道や信号機が識別されずに高速道路に固有の案内標識や速度制限標識が識別されていると「高速道路」またはこれに類する環境と推定される可能性が高い。
【0026】
識別モデルデータベース(DB)107には、一時置物の識別用にチューニングされた一時置物識別モデル107a,標識の識別用にチューニングされた標識識別モデル107bおよび歩行者数の識別用にチューニングされた歩行者数識別モデル107cを含む多数の専用識別モデルが蓄積されている。
【0027】
識別モデル選択部108は、前記走行環境推定部106による走行環境の推定結果に基づいて、前記識別モデルDB107から1ないし複数の識別モデルを選択する。本実施形態では、
図7に示したように、走行環境が「商店街」と推定されると、一時置物識別モデル107aおよび歩行者数識別モデル107cが優先的に選択される。走行環境が「郊外」と推定されると、一時置物識別モデル107aおよび標識識別モデル107bが優先的に選択される。走行環境が「高速道路」と推定されると、一時置物識別モデル107aが優先的に選択される。
【0028】
物体識別部109は、車載カメラ101が撮影した映像に前記選択された識別モデル(109a,109b)を適用して物体識別を実行する。物体識別の結果は、自動運転におけるハンドル操作、アクセル操作あるいは制動操作に反映され、あるいは当該車両を直接または遠隔操作するドライバ(オペレータ)に提供するメッセージに反映される。
【0029】
このような物体識別装置1は、汎用のコンピュータやサーバに、後述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいは、アプリケーションの一部がハードウェア化またはROM化された専用機や単能機として構成することもできる。
【0030】
図2は、前記物体識別装置1が適用されるネットワークの構成を示した図であり、物体識別装置1の主要な機能が実装されるサーバ3、および当該サーバ3とネットワークNWおよび無線基地局BSを中継して無線接続される多数のコネクテッドカー2から構成され、各コネクテッドカー2に前記車載カメラ101および環境センサ103が搭載されている。
【0031】
図3は、物体識別装置1の各機能をコネクテッドカー2およびサーバ3に分散実装する第1の例を示した機能ブロック図であり、ここでは、車載カメラ101、カメラ映像取得部102、環境センサ103、センサI/F104および物体識別部109がコネクテッドカー2に実装され、その他の機能がサーバ3に実装されている。
【0032】
図4は、第1の実装例における物体識別のシーケンスフローであり、コネクテッドカー2では、時刻t1において車載カメラ101による撮影が開始される。時刻t2では、周囲環境センサ103により周囲環境が計測される。時刻t3では、車載カメラ映像および各センサ出力がネットワーク経由でサーバ3へアップロードされる。
【0033】
サーバ3では、時刻t4において周囲環境識別部105が前記車載カメラの映像およびセンサ出力を複数の環境辞書105a,105bに適用することで、自車両の周囲環境の特徴として、車両数、人物数、建物の数およびその高さなどを識別する。
【0034】
時刻t5では、前記識別結果が走行環境推定部106の環境推定モデル106aに適用されて、コネクテッドカー2の走行環境が「商店街」、「郊外」、「高速道路」あるいは「その他」のいずれであるかが推定される。時刻t6では、前記走行環境の推定結果に基づいて、識別モデル選択部108が識別モデルDB107から最適な識別モデルを選択する。時刻t7では、前記選択された識別モデルがコネクテッドカー2へ配信される。
【0035】
コネクテッドカー2は、前記識別モデルが配信されると、時刻t8では、物体識別部109が現在の識別モデルに代えて今回の識別モデルをインストールする。時刻t9では、前記識別モデルにカメラ映像を適用することで物体識別が実行される。時刻t10では、前記物体識別の結果が自車両の自動運転制御や運転者等へ通知されるメッセージに反映される。
【0036】
図5は、物体識別装置1の各機能をコネクテッドカー2およびサーバ3に分散実装する第2の例を示した図であり、ここでは、車載カメラ101、カメラ映像取得部102、環境センサ103、センサI/F104および物体識別部109に加えて、周囲環境識別部105がコネクテッドカー2に実装され、その他の機能がサーバ3に実装されている。
【0037】
図6は、第2の実装例における物体識別のシーケンスフローであり、コネクテッドカー2では、時刻t1において車載カメラ101による撮影が開始される。時刻t2では、周囲環境センサ103により周囲環境が計測される。時刻t3では、周囲環境識別部105が前記車載カメラ映像およびセンサ出力を複数の環境辞書105a,105bに適用することで、自車両周辺の車両数、人物数、建物の数およびその高さなどを識別する。時刻t4では、周囲環境の識別結果がサーバ3へアップロードされる。
【0038】
時刻t5では、アップロードされた識別結果が走行環境推定部106の環境推定モデル106aに適用されて、コネクテッドカー2の走行環境が「郊外」、「都内」、「商店街」あるいは「その他」のいずれであるかが推定される。時刻t6では、前記走行環境の推定結果に基づいて、識別モデル選択部108が識別モデルDB107から最適な識別モデルを選択する。時刻t7では、前記選択された識別モデルがコネクテッドカー2へ配信される。
【0039】
コネクテッドカー2は、前記識別モデルが配信されると、時刻t8では、物体識別部109が現在の識別モデルに代えて今回の識別モデルをインストールする。時刻t9では、前記識別モデルにカメラ映像を適用することで物体識別が実行される。時刻t10では、前記物体識別の結果が自車両の自動運転制御や運転者等へ通知されるメッセージに反映される。
【符号の説明】
【0040】
1...物体識別装置,2...コネクテッドカー,3...サーバ,101...車載カメラ,102...カメラ映像取得部,103...環境センサ,104...センサインタフェース(I/F),105...周囲環境識別部,105a...第1環境辞書,105b...第2環境辞書,105c...第3環境辞書,106...走行環境推定部,106a...環境識別モデル,107...識別モデルDB,107a...一時置物識別モデル,107b...標識識別モデル,107c...歩行者数識別モデル,108...識別モデル選択部,109...物体識別部