IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 住友電気工業株式会社の特許一覧

特許7537188画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム
<>
  • 特許-画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム 図1
  • 特許-画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム 図2
  • 特許-画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム 図3
  • 特許-画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム 図4
  • 特許-画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム 図5
  • 特許-画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム 図6
  • 特許-画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム 図7
  • 特許-画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム 図8
  • 特許-画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-13
(45)【発行日】2024-08-21
(54)【発明の名称】画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システム
(51)【国際特許分類】
   G06T 7/11 20170101AFI20240814BHJP
   G06T 7/00 20170101ALI20240814BHJP
   G08G 1/16 20060101ALI20240814BHJP
【FI】
G06T7/11
G06T7/00 650Z
G08G1/16 A
【請求項の数】 12
(21)【出願番号】P 2020149645
(22)【出願日】2020-09-07
(65)【公開番号】P2022044156
(43)【公開日】2022-03-17
【審査請求日】2023-03-22
(73)【特許権者】
【識別番号】000002130
【氏名又は名称】住友電気工業株式会社
(74)【代理人】
【識別番号】100123021
【弁理士】
【氏名又は名称】渥美 元幸
(74)【代理人】
【識別番号】100126538
【弁理士】
【氏名又は名称】嶺 直道
(72)【発明者】
【氏名】前田 直樹
【審査官】村山 絢子
(56)【参考文献】
【文献】特開2020-085598(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00-7/90
G08G 1/00-99/00
H04N 23/00
H04N 23/40-23/76
H04N 23/90-23/959
H04N 5/222-5/257
(57)【特許請求の範囲】
【請求項1】
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から所定の注目領域を抽出する抽出部と、
前記抽出部による前記注目領域の抽出の成否を判定する判定部と、
前記判定部の判定結果に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択する選択部と、
前記移動体の周囲の画像から、前記選択部が選択した前記注目領域の像を切出す切出し部と、
切出された前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える、画像認識装置。
【請求項2】
前記判定部は、前記注目領域の抽出結果に基づいて、前記注目領域の抽出の成否を判定する、請求項に記載の画像認識装置。
【請求項3】
前記判定部は、前記注目領域の抽出の確からしさを示す確信度に基づいて、前記注目領域の抽出の成否を判定する、請求項または請求項に記載の画像認識装置。
【請求項4】
前記判定部は、前記移動体に搭載されたカメラによる前記移動体の周囲の画像撮影時の異常状態情報に基づいて、前記注目領域の抽出の成否を判定する、請求項から請求項のいずれか1項に記載の画像認識装置。
【請求項5】
前記選択部は、さらに、ユーザによる選択指示に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択する、請求項から請求項のいずれか1項に記載の画像認識装置。
【請求項6】
画像認識装置であって、
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、
前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備え、
前記切出し部は、さらに、前記画像から前記注目領域以外の領域を含む非注目領域の像を切出し、
前記画像認識装置は、前記非注目領域の像のデータ量を削減する削減部をさらに備え、
前記認識処理部は、前記注目領域の像およびデータ量が削減された前記非注目領域の像に基づいて、前記所定の認識処理を行う、画像認識装置。
【請求項7】
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、
前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備え、
前記蓄積部は、さらに、前記蓄積部に蓄積された画像撮影時の時刻を対応付けて蓄積し、
前記取得部は、前記移動体の位置および現在時刻に基づいて、前記蓄積部から前記注目領域を取得する、画像認識装置。
【請求項8】
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、
前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備え、
前記蓄積部は、さらに、前記画像のサイズを対応付けて蓄積し、
前記取得部は、さらに、前記注目領域に対応する前記画像のサイズを取得し、取得した前記サイズと、前記カメラにより撮影された前記画像のサイズとに基づいて、取得した前記注目領域を補正する、画像認識装置。
【請求項9】
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、
前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備え、
前記蓄積部は、さらに、前記画像の画角を対応付けて蓄積し、
前記取得部は、さらに、前記注目領域に対応する前記画像の画角を取得し、取得した前記画角と、前記カメラにより撮影された前記画像の画角とに基づいて、取得した前記注目領域を補正する、画像認識装置。
【請求項10】
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得するステップと、
前記移動体の周囲の画像から所定の注目領域を抽出するステップと、
前記注目領域を抽出するステップにおける前記注目領域の抽出の成否を判定するステップと、
前記注目領域の抽出の成否の判定結果に基づいて、抽出された前記注目領域と取得された前記注目領域の少なくとも一方を選択するステップと、
前記移動体の周囲の画像から、選択された前記注目領域の像を切出すステップと、
切出された前記注目領域の像に基づいて、所定の認識処理を行うステップとを含む、画像認識方法。
【請求項11】
コンピュータを、
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から所定の注目領域を抽出する抽出部と、
前記抽出部による前記注目領域の抽出の成否を判定する判定部と、
前記判定部の判定結果に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択する選択部と、
前記移動体の周囲の画像から、前記選択部が選択した前記注目領域の像を切出す切出し部と、
切出された前記注目領域の像に基づいて、所定の認識処理を行う認識処理部、として機能させるためのコンピュータプログラム。
【請求項12】
移動体に搭載されるカメラと、
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、前記移動体の位置に基づいて、前記カメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から所定の注目領域を抽出する抽出部と、
前記抽出部による前記注目領域の抽出の成否を判定する判定部と、
前記判定部の判定結果に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択する選択部と、
前記移動体の周囲の画像から、前記選択部が選択した前記注目領域の像を切出す切出し部と、
切出された前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える、画像認識システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システムに関する。
【背景技術】
【0002】
従来、自動車などの移動体に搭載されたカメラにより撮影された移動体の周辺の画像から、道路標識などを認識し、認識結果に基づいて移動体の走行を制御するシステムが提案されている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2019-220199号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
移動体の走行制御のためには、画像中の対象物を正確に認識することと、画像を遅滞なく処理することとが望まれる。
【0005】
画像を遅滞なく処理するためには、画像から所定の対象物を含む注目領域の像を抽出し、抽出した注目領域の像に対して対象物の認識処理を集中的に実行する必要がある。
【0006】
しかしながら、夜間、雨天、霧、夕方、逆光、臨時に設置された物体の影、停電などの影響により、カメラで撮影した画像が不鮮明になる場合がある。このような場合には、道路標識や交通信号機などの対象物が不鮮明に映るために、注目領域の像が抽出できなかったり、誤った位置の像を抽出するなど、注目領域の像の抽出に失敗する場合がある。これにより、対象物を正確に認識することができない場合がある。また、画像から注目領域の像が抽出できなかった場合には、画像の全領域を処理対象として認識処理が実行されることより、画像を遅滞なく処理することが困難になる。
なお、このような問題は、自動車のみならず、移動ロボット等の他の移動体の走行制御においても同様に生じる。
【0007】
本開示は、このような事情に鑑みてなされたものであり、画像中の対象物を遅滞なく正確に認識することのできる画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システムを提供することを目的とする。
【課題を解決するための手段】
【0008】
本開示の一態様に係る画像認識装置は、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える。
【0009】
本開示の他の一態様に係る画像認識方法は、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得するステップと、前記移動体の周囲の画像から、前記注目領域の像を切出すステップと、前記注目領域の像に基づいて、所定の認識処理を行うステップとを含む。
【0010】
本開示の他の一態様に係るコンピュータプログラムは、コンピュータを、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部、として機能させる。
【0011】
本開示の他の一態様に係る画像認識システムは、移動体に搭載されるカメラと、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、前記移動体の位置に基づいて、前記カメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える。
【0012】
なお、コンピュータプログラムを、CD-ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。また、本開示は、画像認識装置の一部または全部を実現する半導体集積回路として実現することもできる。
【発明の効果】
【0013】
本開示によると、画像中の対象物を遅滞なく正確に認識することができる。
【図面の簡単な説明】
【0014】
図1図1は、本開示の実施形態1に係る運転支援システムの全体構成を示す図である。
図2図2は、本開示の実施形態1に係る制御システムの構成の一例を示すブロック図である。
図3図3は、プロセッサの機能的な構成を示すブロック図である。
図4図4は、サーバに蓄積されている注目領域情報の一例を示す図である。
図5図5は、注目領域の一例を示す図である。
図6図6は、本開示の実施形態1に係る制御システムが実行する処理のフローチャートである。
図7図7は、本開示の実施形態1に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。
図8図8は、本開示の実施形態2に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。
図9図9は、本開示の実施形態3に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。
【発明を実施するための形態】
【0015】
[本開示の実施形態の概要]
最初に本開示の実施形態の概要を列記して説明する。
(1)本開示の一実施形態に係る画像認識装置は、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える。
【0016】
この構成によると、移動体の位置に対応した注目領域の情報が蓄積部から取得され、取得された情報が示す注目領域の像が画像から切出される。また、切出された注目領域の像に基づいて、所定の認識処理が実行される。例えば、移動体が工場内を自律走行する移動ロボットである場合には、工場内の表示装置、道路標識または工場通路などの位置は変化しない。このため、同じ位置で撮影された画像における注目領域は同じである。よって、蓄積部から注目領域の情報を取得することにより、注目領域の像を正確に切出すことができる。これにより、画像中の対象物を遅滞なく正確に認識することができる。
【0017】
(2)好ましくは、前記移動体の周囲の画像から所定の注目領域を抽出する抽出部と、前記抽出部による前記注目領域の抽出の成否を判定する判定部と、前記判定部の判定結果に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択する選択部とをさらに備え、前記切出し部は、前記選択部が選択した前記注目領域の像を切出す。
【0018】
この構成によると、画像から注目領域の抽出に失敗した場合に、移動体の位置に対応した注目領域の情報が蓄積部から取得され、取得された情報が示す注目領域の像が画像から切出される。また、切出された注目領域の像に基づいて、所定の認識処理が実行される。例えば、移動体が工場内を自律走行する移動ロボットである場合は、工場内の表示装置、道路標識または歩行者通行用の工場通路などの位置は変化しない。このため、同じ位置で撮影された画像における注目領域は同じである。よって、蓄積部から注目領域の情報を取得することにより、画像が不鮮明等の理由により注目領域の抽出に失敗した場合であっても、注目領域の像を正確に切出すことができる。これにより、画像中の対象物を遅滞なく正確に認識することができる。
【0019】
(3)さらに好ましくは、前記判定部は、前記注目領域の抽出結果に基づいて、前記注目領域の抽出の成否を判定する。
【0020】
この構成によると、例えば、画像から注目領域が抽出できなかった場合に、注目領域の抽出に失敗したと判定することができる。
【0021】
(4)また、前記判定部は、前記注目領域の抽出の確からしさを示す確信度に基づいて、前記注目領域の抽出の成否を判定してもよい。
【0022】
この構成によると、例えば、注目領域の確信度が所定の基準よりも低い場合には、注目領域の抽出に失敗したと判定することができる。これにより、抽出された注目領域の確信度が所定の基準以上の場合には、当該注目領域の像に基づいて認識処理が実行される。また、抽出された注目領域の確信度が所定の基準未満の場合には、移動体の位置に対応した注目領域の像に基づいて認識処理が実行される。これにより、画像中の対象物を正確に認識することができる。
【0023】
(5)また、前記判定部は、前記画像撮影時の異常状態情報に基づいて、前記注目領域の抽出の成否を判定してもよい。
【0024】
この構成によると、例えば、屋外において雨や雪などの気象の異常状態により不鮮明な画像しか得られない場合や、屋内(例えば、工場内)での停電または災害(例えば、火災による煙の発生)などの異常状態により不鮮明な画像しか得られない場合には、注目領域の抽出に失敗したと判定することができる。これにより、晴れの場合や異常が発生していない場合などの正常状態時には、抽出された注目領域の像に基づいて認識処理が実行される。また、雨や雪、災害時などの異常状態時には、移動体の位置に対応した注目領域の像に基づいて認識処理が実行される。これにより、画像中の対象物を正確に認識することができる。
【0025】
(6)また、前記選択部は、さらに、ユーザによる選択指示に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択してもよい。
【0026】
この構成によると、ユーザの選択により、注目領域の選択が行われる。これにより、状況に応じて、注目領域の切り替えを行うことができる。例えば、抽出部が抽出した注目領域の像に基づく認識処理の認識精度が低下したとユーザが判断した場合には、移動体の位置に対応した注目領域の像に基づく認識処理に切り替えることができる。
【0027】
(7)また、前記切出し部は、さらに、前記画像から前記注目領域以外の領域を含む非注目領域の像を切出し、前記画像認識装置は、前記非注目領域の像のデータ量を削減する削減部をさらに備え、前記認識処理部は、前記注目領域の像およびデータ量が削減された前記非注目領域の像に基づいて、前記所定の認識処理を行ってもよい。
【0028】
この構成によると、非注目領域の像に対しては間引き処理等のデータ量の削減処理が行われた上で、所定の認識処理が実行される。非注目領域は、例えば、空や、路側の建物などの認識の対象物以外の領域である。これにより、非注目領域に対する認識処理の処理負荷を低減させることができ、画像を遅滞なく処理することができる。
【0029】
(8)また、前記蓄積部は、さらに、前記画像撮影時の時刻を対応付けて蓄積し、前記取得部は、前記移動体の位置および現在時刻に基づいて、前記蓄積部から前記注目領域を取得してもよい。
【0030】
この構成によると、例えば、現在時刻に最も近い時刻に撮影された画像から抽出された注目領域を取得することができる。これにより、例えば、時間帯によって進行方向が変化するリバーシブルレーンを移動体が走行している場合に、進行方向が逆の時間帯にリバーシブルレーンを走行した移動体が撮影した画像から抽出された注目領域を取得することがなくなる。また、例えば、現在時刻が夜間である場合には昼間に撮影された画像から抽出された注目領域を優先して取得することもできる。これにより、正確な注目領域を取得することができる。
【0031】
(9)また、前記蓄積部は、さらに、前記画像のサイズを対応付けて蓄積し、前記取得部は、さらに、前記注目領域に対応する前記画像のサイズを取得し、取得した前記サイズと、前記カメラにより撮影された前記画像のサイズとに基づいて、取得した前記注目領域を補正してもよい。
【0032】
この構成によると、移動体に搭載されるカメラにより撮影される画像のサイズと、蓄積部に蓄積された注目領域の抽出の基となった画像のサイズとが異なる場合であっても、正確な位置の注目領域の像を切り出すことができる。
【0033】
(10)また、前記蓄積部は、さらに、前記画像の画角を対応付けて蓄積し、前記取得部は、さらに、前記注目領域に対応する前記画像の画角を取得し、取得した前記画角と、前記カメラにより撮影された前記画像の画角とに基づいて、取得した前記注目領域を補正してもよい。
【0034】
この構成によると、移動体に搭載されるカメラにより撮影される画像の画角と、蓄積部に蓄積された注目領域の抽出の基となった画像の画角とが異なる場合であっても、正確な位置の注目領域の像を切り出すことができる。
【0035】
(11)本開示の他の実施形態に係る画像認識方法は、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得するステップと、前記移動体の周囲の画像から、前記注目領域の像を切出すステップと、前記注目領域の像に基づいて、所定の認識処理を行うステップとを含む。
【0036】
この構成は、上述の画像認識装置における特徴的な処理をステップとして含む。このため、この構成によると、上述の画像認識装置と同様の作用および効果を奏することができる。
【0037】
(12)本開示の他の実施形態に係るコンピュータプログラムは、コンピュータを、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部、として機能させる。
【0038】
この構成によると、コンピュータを、上述の画像認識装置として機能させることができる。このため、上述の画像認識装置と同様の作用および効果を奏することができる。
【0039】
(13)本開示の他の実施形態に係る画像認識システムは、移動体に搭載されるカメラと、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、前記移動体の位置に基づいて、前記カメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える。
【0040】
この構成によると、移動体の位置に対応した注目領域の情報が蓄積部から取得され、取得された情報が示す注目領域の像を画像から切出される。また、切出された注目領域の像に基づいて、所定の認識処理が実行される。例えば、移動体が工場内を自律走行する移動ロボットである場合には、工場内の表示装置、道路標識または工場通路などの位置は変化しない。このため、同じ位置で撮影された画像における注目領域は同じである。よって、蓄積部から注目領域の情報を取得することにより、注目領域の像を正確に切出すことができる。これにより、画像中の対象物を遅滞なく正確に認識することができる。
【0041】
[本開示の実施形態の詳細]
以下、本開示の実施形態について、図面を参照しながら説明する。なお、以下で説明する実施形態は、いずれも本開示の一具体例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定するものではない。また、以下の実施形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。
また、同一の構成要素には同一の符号を付す。それらの機能および名称も同様であるため、それらの説明は適宜省略する。
【0042】
<実施形態1>
〔運転支援システムの全体構成〕
図1は、本開示の実施形態1に係る運転支援システムの全体構成を示す図である。
【0043】
図1を参照して、運転支援システム1は、無線通信が可能な道路上を走行する複数の移動体2と、移動体2と無線通信する1または複数の基地局6と、基地局6とインターネット等のネットワーク5を介して有線または無線で通信するサーバ4とを備える。
【0044】
基地局6は、マクロセル基地局、マイクロセル基地局、およびピコセル基地局などからなる。
【0045】
移動体2は、例えば、工場内を自律走行しながら荷物を搬送する搬送ロボットや、工場内を自律走行しながら監視する監視ロボットなどの移動ロボットである。本実施形態では、移動体2は、移動ロボットであるものとする。ただし、移動体2は、工場内を走行する移動ロボットに限定されるものではない。移動体2には、例えば、道路を走行する通常の乗用車の他、路線バスや緊急車両などの公共車両も含まれる。また、移動体2は、四輪車だけでなく、二輪車(バイク)であってもよい。
【0046】
各移動体2は、後述するようにカメラを含む制御システム3を備えており、カメラで移動体2の周囲を撮影することにより得られる画像中の注目領域の位置と、少なくともカメラの撮影位置および撮影方向とを、ネットワーク5を介してサーバ4に送信する。なお、カメラの撮影位置は、カメラによる撮影時の移動体2の位置と同じである。なお、本実施形態では、カメラの光軸は移動体2の前方を向いているものとする。このため、移動体2の進行方向をカメラの撮影方向とする。
【0047】
本実施形態において、注目領域は、移動体2の自動運転に重要な情報を含む領域であって、静的情報または準静的情報を含む領域である。例えば、注目領域は、静的情報として、恒常的に存在する工場内の表示装置、道路標識または工場通路などを含む領域である。また、注目領域は、準静的情報として、一時的に存在する道路工事現場、交通事故現場などを含む領域である。
【0048】
サーバ4は、ネットワーク5を介して、複数の移動体2から、注目領域の位置および付属データの組を受信し、サーバ4の蓄積部に注目領域情報として記憶する。
【0049】
サーバ4は、ネットワーク5を介して、制御システム3から、少なくとも移動体2の位置情報を受け、移動体2の位置に対応する注目領域の位置情報を、ネットワーク5を介して制御システム3に送信する。
【0050】
制御システム3は、ネットワーク5を介して、サーバ4から注目領域の位置情報を受信する。制御システム3は、受信した注目領域の位置情報に基づいて、制御システム3が撮影した画像から注目領域の像を切出す。制御システム3は、切出した注目領域像に対して所定の画像処理を施すことにより、所定の認識処理を行う。例えば、制御システム3は、注目領域像に含まれる対象物を認識し、認識結果に応じた処理を行う。一例として、対象物が一時停止を示す道路標識の場合には、制御システム3は、移動体2を安全に一時停止させるための移動体2の制動制御を行う。
【0051】
〔移動体2の構成〕
図2は、本開示の実施形態1に係る制御システム3の構成の一例を示すブロック図である。
【0052】
図2に示すように、移動体2の制御システム3は、カメラ31と、通信部32と、クロック33と、制御部(ECU:Electronic Control Unit)34と、GPS(Global Positioning System)受信機37と、ジャイロセンサ38と、速度センサ39とを備える。
【0053】
カメラ31は、移動体2の周囲(特に、移動体2の前方)の映像を取り込む画像センサよりなる。カメラ31は、単眼である。ただし、カメラ31は、複眼であってもよい。映像は、時系列の複数の画像より構成される。
【0054】
通信部32は、例えば5G(第5世代移動通信システム)対応の通信処理が可能な無線通信機よりなる。なお、通信部32は、移動体2に既設の無線通信機であってもよいし、搭乗者が移動体2に持ち込んだ携帯端末であってもよい。
【0055】
搭乗者の携帯端末は、移動体2の車内LAN(Local Area Network)に接続されることにより、一時的に車載の無線通信機となる。
【0056】
クロック33は、現在の時刻を計時する。
【0057】
制御部34は、移動体2の各機器31~33、37~39の制御を行うコンピュータ装置よりなる。制御部34は、GPS受信機37が定期的に取得するGPS信号により自移動体の移動体位置を求める。なお、制御部34は、図示しない準天頂衛星から送信される信号の受信機が受信したGPS補完信号またはGPS補強信号を合わせて用いることで、GPS信号を補完したり、自移動体の移動体位置を補正したりしてもよい。なお、移動体位置は、車線を区別できる程度の位置精度を有しているのが好ましい。
【0058】
制御部34は、ジャイロセンサ38および速度センサ39の入力信号に基づいて、移動体2の位置および方向を補完し、移動体2の正確な現在位置および方向を把握する。ここで、移動体2の現在位置は、例えば、緯度および経度により示される。また、移動体2の方向(進行方向)は、例えば、北を0度とする時計回りの0度~360度の範囲の角度で示される。
【0059】
GPS受信機37、ジャイロセンサ38および速度センサ39は、移動体2の現在位置、方向および速度を計測するセンサ類である。
【0060】
制御部34は、プロセッサ35と、メモリ36とを備える。
プロセッサ35は、メモリ36に格納されたコンピュータプログラムを実行するマイクロコンピュータなどの演算処理装置である。
【0061】
メモリ36は、SRAM(Static RAM)またはDRAM(Dynamic RAM)などの揮発性のメモリ素子、フラッシュメモリ若しくはEEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性のメモリ素子、または、ハードディスクなどの磁気記憶装置などにより構成されている。メモリ36は、制御部34で実行されるコンピュータプログラムや、制御部34におけるコンピュータプログラム実行時に生成されるデータ等を記憶する。
【0062】
〔プロセッサ35の機能構成〕
図3は、プロセッサ35の機能的な構成を示すブロック図である。
【0063】
図3を参照して、プロセッサ35は、メモリ36に記憶されたコンピュータプログラムを実行することにより実現される機能的な処理部として、画像取得部51と、注目領域抽出部52と、抽出成否判定部53と、注目領域取得部54と、移動体位置判断部55と、注目領域選択部56と、切出し部57と、データ量削減部58と、認識処理部59とを含む。
【0064】
画像取得部51は、カメラ31が撮影した移動体2の前方の画像を時系列で順次取得する。画像取得部51は、取得した画像を注目領域抽出部52および切出し部57に順次出力する。
【0065】
注目領域抽出部52は、画像取得部51から画像を取得し、取得した画像から注目領域を抽出する。例えば、注目領域抽出部52は、画像、および画像中の注目領域を学習データとして機械学習された学習モデルを用いて、取得した画像を学習モデルに入力することにより、注目領域を得る。また、注目領域抽出部52は、学習モデルから注目領域の確からしさを示す確信度を得る。学習モデルは、例えば、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)、AutoEncoderなどであり、ディープラーニングなどの機械学習手法により、学習モデルの各パラメータが決定されているものとする。
【0066】
本実施形態では、注目領域は、矩形であるとする。また、注目領域は、矩形の左上隅座標と、矩形のX方向およびY方向の幅とで規定されるものとする。ただし、注目領域の位置は上記したものに限定されない。例えば、矩形の左上隅座標と右下隅座標とで注目領域を規定してもよい。また、注目領域は、楕円形など矩形以外の形状であってもよい。
【0067】
注目領域抽出部52は、抽出した注目領域と確信度を抽出成否判定部53および注目領域選択部56に出力する。
【0068】
抽出成否判定部53は、注目領域抽出部52による前記注目領域の抽出の成否を判定する。具体的には、抽出成否判定部53は、注目領域抽出部52が抽出した確信度に基づいて、注目領域の抽出の成否を判定する。例えば、抽出成否判定部53は、確信度が所定の閾値TH以上であれば注目領域の抽出に成功したと判定し、確信度が所定の閾値TH未満であれば注目領域の抽出に失敗したと判定する。
【0069】
なお、画像中に複数の注目領域が含まれる場合には、複数の確信度に基づいて注目領域の抽出の成否を判定してもよい。例えば、抽出成否判定部53は、複数の確信度のうち、最小の確信度が所定の閾値TH以上であれば注目領域の抽出に成功したと判定し、最小の確信度が所定の閾値TH未満であれば注目領域の抽出に失敗したと判定してもよい。また、最小の確信度の代わりに、複数の確信度の平均を用いてもよい。また、抽出成否判定部53は、注目領域ごとに抽出の成否を判定してもよい。
【0070】
抽出成否判定部53は、判定結果を、注目領域抽出部52、注目領域取得部54、移動体位置判断部55および注目領域選択部56に出力する。
【0071】
注目領域抽出部52は、注目領域の抽出に成功したと判定された場合には、注目領域の位置と、少なくともカメラ31の撮影位置および撮影方向とを、通信部32を介してサーバ4に送信する。サーバ4は、移動体2から受信した情報を、注目領域情報41として記憶する。
【0072】
注目領域取得部54は、後述する移動体位置判断部55が判断した移動体2の位置に基づいて、サーバ4に蓄積されている注目領域情報41から、注目領域を取得する。
【0073】
図4は、サーバ4に蓄積されている注目領域情報41の一例を示す図である。
注目領域情報41は、移動体IDと、撮影時刻と、撮影位置と、注目領域と、移動方向と、画角と、映像サイズとを含む。これらの情報は、各移動体2がサーバ4にアップロードする。
【0074】
移動体IDは、アップロードした移動体2の識別情報である。移動体IDは、移動体2に固有のIDや移動体2のユーザに固有のIDであってもよい。
撮影時刻は、移動体2に搭載されたカメラ31の撮影時刻を示す。
撮影位置は、カメラ31の撮影位置であり、画像撮影時の移動体2の位置と等しい。撮影位置は、例えば、北緯Nおよび東経Eで示される。
【0075】
注目領域は、画像から抽出された注目領域の画像中での位置(X,Y,W,H)を示す。XおよびYは、注目領域の左上隅座標のX座標およびY座標をそれぞれ示し、WおよびHは、注目領域のX方向およびY方向の幅をそれぞれ示す。
移動方向は、移動体2の進行方向を示す。
画角は、カメラ31の画角を示す。
【0076】
映像サイズはカメラ31が撮影する画像のサイズを示す。例えば、4Kは、3840×2160(pixel)を示し、8Kは、7680×4320(pixel)を示す。
【0077】
例えば、移動体ID「C001」の移動体2が、撮影時刻「9:00:03」に、撮影位置(N1,E1)において撮影した画像から抽出された5つの注目領域は、(X1,Y1,W1,H1)、(X2,Y2,W2,H2)、(X3,Y3,W3,H3)、(X4,Y4,W4,H4)および(X5,Y5,W5,H5)である。移動体2の方向は45°であり、画像の画角は60°、画像サイズは4Kである。
【0078】
また、移動体ID「C001」の移動体2が、撮影時刻「9:01:45」に、撮影位置(N2,E2)において撮影した画像から抽出された注目領域は、(X6,Y6,W6,H6)である。移動体2の方向は48°であり、画像の画角は60°、画像サイズは4Kである。
【0079】
また、移動体ID「C002」の移動体2が、撮影時刻「20:02:55」に、撮影位置(N1,E1)において撮影した画像から抽出された注目領域は、(X7,Y7,W7,H7)である。移動体2の方向は45°であり、画像の画角は120°、画像サイズは8Kである。
【0080】
図5は、注目領域の一例を示す図である。図5は、カメラ31により撮影された画像上に矩形の注目領域を示している。例えば、道路標識を含むように注目領域(X1,Y1,W1,H1)が設定され、工場通路を含むように注目領域(X2,Y2,W2,H2)、(X3,Y3,W3,H3)、(X4,Y4,W4,H4)および(X5,Y5,W5,H5)が設定されている。
【0081】
再び図3を参照して、例えば、注目領域取得部54は、移動体位置判断部55が判断した移動体2の位置が(N2,E2)である場合には、注目領域情報41から、撮影位置(N2,E2)に対応した注目領域(X6,Y6,W6,H6)を取得する。
【0082】
ただし、注目領域取得部54は、移動体2の位置および現在時刻に基づいて、注目領域情報41から注目領域を取得するようにしてもよい。例えば、移動体位置判断部55が判断した移動体2の位置が(N1,E1)である場合には、注目領域情報41には、撮影位置(N1,E1)に対応した注目領域として、撮影時刻「9:00:03」の注目領域(X1,Y1,W1,H1)、(X2,Y2,W2,H2)、(X3,Y3,W3,H3)、(X4,Y4,W4,H4)および(X5,Y5,W5,H5)と、撮影時刻「20:02:55」の注目領域(X7,Y7,W7,H7)とが含まれる。そこで、注目領域取得部54は、これらのうち、現在時刻に最も近い時刻に対応した注目領域を注目領域情報41から取得する。例えば、注目領域取得部54は、現在時刻が「9:30:00」の場合には、撮影時刻「9:00:03」に対応した注目領域(X1,Y1,W1,H1)、(X2,Y2,W2,H2)、(X3,Y3,W3,H3)、(X4,Y4,W4,H4)および(X5,Y5,W5,H5)を取得する。また、注目領域取得部54は、現在時刻が「19:00:00」の場合には、撮影時刻「20:02:55」に対応した注目領域(X7,Y7,W7,H7)を取得する。
【0083】
なお、注目領域取得部54は、移動体2の位置に加え、移動体2の方向を考慮して注目領域を取得するのが望ましい。これにより、同じ位置であっても、反対方向に走行する移動体2から得られた注目領域情報を取得することなく、同一の方向に走行する移動体2から得られた注目領域情報を取得することができる。ただし、移動体2が一方通行の道路を走行している場合や、移動体2の位置から移動体2の走行車線を特定可能な場合には、移動体2の方向を考慮しなくてもよい。
【0084】
移動体位置判断部55は、移動体2の位置を判断する。具体的には、移動体位置判断部55は、GPS受信機37が定期的に取得するGPS信号により移動体2の位置を求める。なお、移動体位置判断部55は、ジャイロセンサ38および速度センサ39の入力信号に基づいて、移動体2の位置および方向を補完し、移動体2の正確な現在位置および方向を把握する。また、移動体位置判断部55は、メモリ36に予め記憶されている地図情報61を参照して、求めた移動体2の位置を道路上の位置に対応付けるマップマッチング処理を行うことにより、移動体2の正確な位置を判断する。
【0085】
注目領域選択部56は、抽出成否判定部53の判定結果に基づいて、注目領域抽出部52が抽出した注目領域および注目領域取得部54が取得した注目領域の少なくとも一方を選択する。
【0086】
例えば、注目領域選択部56は、注目領域の抽出に成功したと判断された場合には、注目領域抽出部52が抽出した注目領域を選択し、注目領域の抽出に失敗したと判断された場合には、注目領域取得部54が取得した注目領域を選択する。なお、注目領域選択部56は、注目領域の抽出に成功したと判断された場合には、注目領域抽出部52が抽出した注目領域と注目領域取得部54が取得した注目領域の両方を選択してもよい。
【0087】
切出し部57は、画像取得部51が取得した画像から、注目領域の像(注目領域像)と、注目領域以外の像(非注目領域像)とを切出す。切出し部57は、注目領域像を認識処理部59に出力し、非注目領域像をデータ量削減部58に出力する。
【0088】
データ量削減部58は、非注目領域像のデータ量の削減処理を行う。例えば、データ量削減部58は、非注目領域像を縮小するダウンスケーリング処理を行ってもよいし、非注目領域像の各画素の輝度値を示すビット数を低減して、階調度(色深度)を削減してもよい。また、データ量削減部58は、非注目領域像の時間的な間引き処理(例えば、時系列に画像のうち偶数番目の画像から得られた非注目領域を削除する処理)を行ってもよい。データ量削減部58は、データ量の削減処理後の非注目領域像を認識処理部59に出力する。
【0089】
認識処理部59は、切出し部57から受け取った注目領域像とデータ量削減部58から受け取った非注目領域像とに基づいて、所定の認識処理を実行する。例えば、認識処理部59は、注目領域像に対して所定の画像処理を施し、工場内の表示装置、一時停止の道路標識、工場通路上の歩行者の存否などを認識する。認識処理部59の認識結果は、例えば、移動体2の自動運転の制御に用いられる。認識処理部59は、例えば、画像および認識結果を示すラベルを学習データとして機械学習された学習モデルに、注目領域像を入力することにより、注目領域像の認識結果を得る。学習モデルは、例えば、CNN、RNN、AutoEncoderなどであり、ディープラーニングなどの手法により、学習モデルの各パラメータが決定されているものとする。
なお、認識処理部59は、非注目領域像に対しても同様の処理を実行してもよい。
【0090】
〔制御システム3の処理の流れ〕
図6は、本開示の実施形態1に係る制御システム3が実行する処理のフローチャートである。
画像取得部51は、カメラ31から画像を取得する(ステップS1)。
注目領域抽出部52は、画像取得部51が取得した画像に基づいて、注目領域と注目領域の確信度を抽出する(ステップS2)。
抽出成否判定部53は、注目領域の抽出の成否を判定する(ステップS3)。
【0091】
図7は、本開示の実施形態1に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。
抽出成否判定部53は、注目領域抽出部52が抽出した注目領域の確信度が所定の閾値TH以上であるか否かを判定する(ステップS21)。
確信度が閾値TH以上であれば(ステップS21においてYES)、抽出成否判定部53は、注目領域の抽出に成功したと判定する(ステップS22)。
確信度が閾値TH未満であれば(ステップS21においてNO)、抽出成否判定部53は、注目領域の抽出に失敗したと判定する(ステップS23)。
【0092】
なお、ステップS2において、複数の注目領域が抽出された場合には、例えば、最小の確信度に基づいて、ステップS21~S23の処理が実行される。また、注目領域が抽出されなかった場合には、注目領域の抽出に失敗したと判定される。
【0093】
再び図6を参照して、注目領域の抽出に成功したと判定された場合には(ステップS4においてYES)、注目領域抽出部52は、注目領域の位置と、少なくともカメラ31の撮影位置および撮影方向とを含む注目領域情報を、通信部32を介してサーバ4に送信する(ステップS5)。
また、注目領域選択部56は、ステップS2で抽出された注目領域を選択して、切出し部57に出力する(ステップS6)。
【0094】
注目領域の抽出に失敗したと判定された場合には(ステップS4においてNO)、移動体位置判断部55は、移動体2の位置および方向を判断する(ステップS7)。
注目領域取得部54は、判断された移動体2の位置および方向に基づいて、サーバ4から、当該位置および方向に対応する注目領域情報を読み出す(ステップS8)。
【0095】
注目領域取得部54は、読み出した注目領域情報に基づいて、注目領域を補正する(ステップS9)。例えば、対象とする移動体2に搭載されたカメラ31の画像サイズが4Kであり、読み出した注目領域情報が示す画像サイズが8Kの場合には、注目領域情報が示す注目領域の値をそれぞれ半分にすることにより、4Kの画像の注目領域の値に補正する。同様に、注目領域取得部54は、対象とする移動体2に搭載されたカメラ31の画角が45°であり、注目領域情報が示す画角が60°の場合には、注目領域情報が示す注目領域の値を画角が45°の画像上の値に変換する。変換処理は、例えば、異なる画角間での位置の対応関係を示した変換テーブルを用いて行われる。
【0096】
注目領域選択部56は、ステップS8で取得され、ステップS9で補正された注目領域を選択して、切出し部57に出力する(ステップS10)。
【0097】
切出し部57は、ステップS1で取得された画像から、注目領域像を切出す(ステップS11)。また、切出し部57は、ステップS1で取得された画像から、非注目領域像を切出す(ステップS12)。
【0098】
データ量削減部58は、ステップS12で切出された非注目領域像に対して、データ量の削減処理を行う(ステップS13)。
【0099】
認識処理部59は、ステップS11で切出された注目領域像と、ステップS13でデータ量削減処理が施された非注目領域像とに基づいて、注目領域像および非注目領域像の認識処理を実行し、認識結果に基づいて移動体2の走行制御処理を行う(ステップS14)。
【0100】
〔実施形態1の効果等〕
以上説明したように、本開示の実施形態1によると、移動体2の位置に対応した注目領域の情報がサーバ4から取得され、取得された情報が示す注目領域の像が画像から切出される。また、切出された注目領域の像に基づいて、所定の認識処理が実行される。例えば、工場内の表示装置、道路標識または工場通路などの位置は変化しない。このため、同じ位置で撮影された画像における注目領域は同じである。よって、サーバ4から注目領域の情報を取得することにより、注目領域の像を正確に切出すことができる。これにより、画像中の対象物を遅滞なく正確に認識することができる。
【0101】
また、画像から注目領域の抽出に失敗した場合には、移動体2の位置に対応した注目領域の情報がサーバ4から取得され、取得された注目領域の像が画像から切出される。これにより、例えば、画像が不鮮明等の理由により注目領域の抽出に失敗した場合であっても、注目領域の像を正確に切出すことができる。
【0102】
なお、抽出成否判定部53は、注目領域の確信度が閾値TH未満の場合には注目領域の抽出に失敗したと判定し、閾値TH以上の場合には注目領域の抽出に成功したと判定している。これにより、抽出された注目領域の確信度が閾値TH以上の場合には、当該注目領域の像に基づいて認識処理が実行される。また、抽出された注目領域の確信度が閾値TH未満の場合には、移動体2の位置に対応した注目領域の像に基づいて認識処理が実行される。これにより、画像中の対象物を正確に認識することができる。
【0103】
また、非注目領域像に対しては間引き処理等のデータ量の削減処理が行われた上で、所定の認識処理が実行される。非注目領域は、例えば、空や、路側の建物などの認識の対象物以外の領域である。これにより、非注目領域に対する認識処理の処理負荷を低減させることができ、画像を遅滞なく処理することができる。
【0104】
また、注目領域取得部54は、移動体2の位置および現在時刻に基づいて注目領域を取得しているため、例えば、現在時刻に最も近い時刻に撮影された画像から抽出された注目領域を取得することができる。これにより、例えば、時間帯によって進行方向が変化するリバーシブルレーンを移動体2が走行している場合に、進行方向が逆の時間帯にリバーシブルレーンを走行した他の移動体2が撮影した画像から抽出された注目領域を取得することがなくなる。また、例えば、現在時刻が夜間である場合には昼間に撮影された画像から抽出された注目領域を優先して取得してもよい。夜間に比べ昼間の方が画像が鮮明である。これにより、正確な注目領域を取得することができる。
【0105】
また、注目領域取得部54は、画像サイズに基づいて、サーバ4から取得した注目領域を補正する。このため、移動体2に搭載されるカメラ31により撮影される画像のサイズと、サーバ4に蓄積された注目領域の抽出の基となった画像のサイズとが異なる場合であっても、正確な位置の注目領域の像を切り出すことができる。
【0106】
また、注目領域取得部54は、画角に基づいて、サーバ4から取得した注目領域を補正する。このため、移動体2に搭載されるカメラ31により撮影される画像の画角と、サーバ4に蓄積された注目領域の抽出の基となった画像の画角とが異なる場合であっても、正確な位置の注目領域の像を切り出すことができる。
【0107】
<実施形態2>
本開示の実施形態2では、注目領域の抽出の成否判定方法の他の例について説明する。
運転支援システム1の構成を実施形態1と同様である。以下では、実施形態1と異なる点を中心に説明する。
【0108】
図8は、本開示の実施形態2に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。
抽出成否判定部53は、注目領域抽出部52によって抽出された抽出領域があるか否かを判定する(ステップS31)。
【0109】
抽出された注目領域があれば(ステップS31においてYES)、抽出成否判定部53は、注目領域の抽出に成功したと判定する(ステップS32)。
抽出された注目領域がなければ(ステップS31においてNO)、抽出成否判定部53は、注目領域の抽出に失敗したと判定する(ステップS33)。
【0110】
本開示の実施形態2によると、例えば、画像から注目領域が抽出できなかった場合に、注目領域の抽出に失敗したと判定することができる。
【0111】
<実施形態3>
本開示の実施形態3では、注目領域の抽出の成否判定方法の他の例について説明する。
制御システム3は、移動体2の位置の気象情報を提供する気象サーバ(図示せず)にネットワーク5を介して接続されているものとする。
このため、抽出成否判定部53は、カメラ31による画像撮影時における移動体2の位置の気象情報に基づいて、注目領域の抽出の成否を判定する。
【0112】
図9は、本開示の実施形態3に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。
抽出成否判定部53は、通信部32を介して気象サーバから、カメラ31による画像撮影時における移動体2の位置の気象情報を取得する(ステップS41)。
【0113】
取得した気象情報が雨または雪を示している場合には(ステップS41においてYES)、抽出成否判定部53は、注目領域の抽出に失敗したと判定する(ステップS43)。
【0114】
取得した気象情報が雨または雪以外を示している場合には(ステップS42においてNO)、抽出成否判定部53は、注目領域の抽出に成功したと判定する(ステップS44)。
【0115】
本開示の実施形態3によると、例えば、屋外において雨や雪などの気象の異常状態により不鮮明な画像しか得られない場合には、注目領域の抽出に失敗したと判定することができる。これにより、晴れの場合には、抽出された注目領域の像に基づいて認識処理が実行される。また、雨や雪の場合には、移動体2の位置に対応した注目領域の像に基づいて認識処理が実行される。これにより、画像中の対象物を正確に認識することができる。
【0116】
[付記]
以上、本開示の実施形態に係る運転支援システム1について説明したが、本開示は、この実施形態に限定されるものではない。
【0117】
たとえば、注目領域選択部56は、ユーザによる選択指示に基づいて、注目領域抽出部52が抽出した注目領域と、注目領域取得部54が取得した注目領域の少なくとも一方を選択してもよい。これにより、状況に応じて、注目領域の切り替えを行うことができる。例えば、注目領域抽出部52が抽出した注目領域の像に基づく認識処理の認識精度が低下したとユーザが判断した場合には、移動体2の位置に対応した注目領域の像に基づく認識処理に切り替えることができる。
【0118】
また、抽出成否判定部53は、カメラ31による画像の撮影時刻に基づいて、注目領域の抽出の成否を判定してもよい。例えば、抽出成否判定部53は、撮影時刻が夜間の場合には注目領域の抽出に失敗したと判定し、撮影時刻が昼間の場合には注目領域の抽出に成功したと判定してもよい。
【0119】
また、抽出成否判定部53は、画像取得部51が取得したカメラ31が撮影した画像に基づいて、注目領域の抽出の成否を判定してもよい。例えば、抽出成否判定部53は、画像を認識処理することにより、屋内(例えば、工場内)での停電または災害(例えば、火災による煙の発生)などの異常状態を検出し、異常状態が生じている場合に注目領域の抽出に失敗したと判定してもよい。また、抽出成否判定部53は、異常状態が生じていない場合には注目領域の抽出に成功したと判定してもよい。
【0120】
また、制御システム3が搭載される対象は移動ロボットなどの移動体に限定されるものではない。例えば、自動車、ドローンなどの他の移動体に制御システム3が搭載されていてもよい。
【0121】
また、認識処理部59が行う認識処理の目的は自動運転には限定されない。例えば、制御システム3が工場内を移動する移動ロボットに搭載され、作業員の危険行為を防止するための監視用途に用いられてもよい。
また、上記の制御システム3を構成する構成要素の一部または全部は、1または複数のシステムLSIなどの半導体装置から構成されていてもよい。
【0122】
上記したコンピュータプログラムを、コンピュータ読取可能な非一時的な記録媒体、例えば、HDD、CD-ROM、半導体メモリなどに記録して流通させてもよい。また、コンピュータプログラムを、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送して流通させてもよい。
さらに、上記実施形態および上記変形例の少なくとも一部を任意に組み合わせてもよい。
【0123】
今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【符号の説明】
【0124】
1 運転支援システム
2 移動体
3 制御システム(画像認識システム)
4 サーバ(蓄積部)
5 ネットワーク
6 基地局
31 カメラ
32 通信部
33 クロック
34 制御部
35 プロセッサ(画像認識装置)
36 メモリ
37 GPS受信機
38 ジャイロセンサ
39 速度センサ
41 注目領域情報
51 画像取得部
52 注目領域抽出部(抽出部)
53 抽出成否判定部(判定部)
54 注目領域取得部(取得部)
55 移動体位置判断部
56 注目領域選択部(選択部)
57 切出し部
58 データ量削減部(削減部)
59 認識処理部
61 地図情報
図1
図2
図3
図4
図5
図6
図7
図8
図9