(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2024-09-30
(45)【発行日】2024-10-08
(54)【発明の名称】予測装置、予測システム、予測装置の予測方法およびプログラム
(51)【国際特許分類】
G08G 1/16 20060101AFI20241001BHJP
G06V 10/70 20220101ALI20241001BHJP
G06V 20/58 20220101ALI20241001BHJP
G06T 7/00 20170101ALI20241001BHJP
B60W 30/095 20120101ALI20241001BHJP
B60W 40/02 20060101ALI20241001BHJP
【FI】
G08G1/16 C
G06V10/70
G06V20/58
G06T7/00 650B
B60W30/095
B60W40/02
(21)【出願番号】P 2023111998
(22)【出願日】2023-07-07
【審査請求日】2023-07-07
(73)【特許権者】
【識別番号】000227205
【氏名又は名称】NECプラットフォームズ株式会社
(74)【代理人】
【識別番号】100109313
【氏名又は名称】机 昌彦
(74)【代理人】
【識別番号】100149618
【氏名又は名称】北嶋 啓至
(72)【発明者】
【氏名】熊田 博文
【審査官】上野 博史
(56)【参考文献】
【文献】特開2009-193135(JP,A)
【文献】特開2021-144435(JP,A)
【文献】国際公開第2019/078266(WO,A1)
【文献】特開2018-036920(JP,A)
【文献】特開2007-310811(JP,A)
【文献】特開2010-271876(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/16
G06V 10/70
G06V 20/58
G06T 7/00
B60W 30/095
B60W 40/02
(57)【特許請求の範囲】
【請求項1】
移動体の前方を撮影した映像から検出された検出対象物の移動速度を特定する
検出対象物検出手段と、
前記映像から死角領域を検出する
死角領域検出手段と、
前記検出対象物が前記死角領域に進入した際の前記移動速度を基準として、
前記死角領域内における前記検出対象物の予測進行速度を複数設定し、
前記予測進行速度に応じて、前記死角領域における前記検出対象物の予測位置を複数予測し、
それぞれの前記予測位置に前記検出対象物が存在する存在確率を設定する
予測手段と、
前記存在確率の高さに応じた表示方法で
前記検出対象物の前記予測位置を示す表示情報を含む出力情報を生成し、
生成した前記出力情報を出力する
出力情報生成手段と
を備える、予測装置。
【請求項2】
前記出力情報は、
前記死角領域を含む領域を切り出した画像と、
前記画像に重畳してそれぞれの前記予測位置に表示されるアイコンと
を
さらに含み、
前記アイコンは、前記存在確率の高さに応じた表示方法で表示される、
請求項1に記載の予測装置。
【請求項3】
前記出力情報は、前記存在確率を示す表示情報をさらに含む、
請求項2に記載の予測装置。
【請求項4】
前記出力情報は、
ルート案内の地図と、
前記地図に重畳して、前記死角領域から前記検出対象物が出現する可能性のある地点に表示されるアイコンと
を
さらに含む、
請求項1に記載の予測装置。
【請求項5】
前記アイコンは、前記存在確率の値に応じて異なる表示色で表示される、
請求項2に記載の予測装置。
【請求項6】
前記予測手段は、
前記検出対象物が前記死角領域の領域外の位置に出現する出現時刻を複数予測し、
それぞれの前記出現時刻に前記検出対象物が出現する出現確率を設定し、
前記出力情報生成手段は、
前記出力情報として移動体を制御するための制御信号を生成する、
請求項1に記載の予測装置。
【請求項7】
前記予測手段は、
前記死角領域の領域外に位置する前記予測位置に対応する前記存在確率を0に設定する、
請求項1に記載の予測装置。
【請求項8】
請求項1乃至7のいずれか一項に記載の予測装置と、
前記移動体の前方を撮影するカメラと
を備える、予測システム。
【請求項9】
コンピュータが、
移動体の前方を撮影した映像から検出された検出対象物の移動速度を特定し、
前記映像から死角領域を検出し、
前記検出対象物が前記死角領域に進入した際の前記移動速度を基準として、
前記死角領域内における前記検出対象物の予測進行速度を複数設定し、
前記予測進行速度に応じて、前記死角領域における前記検出対象物の予測位置を複数予測し、
それぞれの前記予測位置に前記検出対象物が存在する存在確率を設定し、
前記存在確率の高さに応じた表示方法で
前記検出対象物の前記予測位置を示す表示情報を含む出力情報を生成し、
生成した前記出力情報を出力する、
予測装置の予測方法。
【請求項10】
請求項9に記載の予測方法を予測装置に実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、予測装置、予測システム、予測方法およびプログラムに関する。
【背景技術】
【0002】
運転支援や自動運転の分野においては、歩行者等の検出対象物を正しく検出することが求められる。特許文献1に記載の周辺監視装置は、識別器を用いて車載カメラによって撮影された画像を解析することで、検出対象物を検出する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に開示された技術では、歩行者等の検出対象物が死角領域に進入した場合に、検出対象物を検出することができない。
【0005】
本開示の目的は、死角領域に進入した検出対象物の位置を予測する予測装置、予測システム、予測方法およびプログラムを提供することである。
【課題を解決するための手段】
【0006】
本開示の一態様の予測装置は、移動体の前方を撮影した映像から検出された検出対象物の移動速度を特定する検出対象物検出手段と、映像から死角領域を検出する死角領域検出手段と、死角領域に進入した検出対象物の移動速度を用いて、死角領域における検出対象物の予測位置を複数予測し、それぞれの予測位置に検出対象物が存在する存在確率を設定する予測手段と、予測手段の予測結果に応じた出力情報を生成し、生成した出力情報を出力する出力情報生成手段とを備える。
【0007】
本開示の一態様の画面制御方法においては、移動体の前方を撮影した映像から検出された検出対象物の移動速度を特定し、映像から死角領域を検出し、死角領域に進入した検出対象物の移動速度を用いて、死角領域における検出対象物の予測位置を複数予測し、それぞれの予測位置に検出対象物が存在する存在確率を設定し、予測位置および存在確率に応じた出力情報を生成し、生成した出力情報を出力する。
【0008】
本開示の一態様のプログラムは、コンピュータに、移動体の前方を撮影した映像か検出された検出対象物の移動速度を特定する処理と、映像から死角領域を検出する処理と、死角領域に進入した検出対象物の移動速度を用いて、死角領域における検出対象物の予測位置を複数予測し、それぞれの予測位置に検出対象物が存在する存在確率を設定する処理と、予測位置および存在確率に応じた出力情報を生成する処理と、生成した出力情報を出力する処理とを実行させる。
【発明の効果】
【0009】
本開示によれば、死角領域に進入した検出対象物の位置を予測する予測装置、予測システム、予測方法およびプログラムを提供することができる。
【図面の簡単な説明】
【0010】
【
図1】本開示に係る予測装置について説明するための概念図である。
【
図2】本開示に係る予測装置について説明するための概念図である。
【
図3】本開示に係る予測装置について説明するための概念図である。
【
図4】本開示に係る予測システムの構成の一例を示すブロック図である。
【
図5】死角領域における検出対象物の予測位置を予測する手順を説明するための概念図である。
【
図6】予測位置が死角領域の外へ出た場合の処理を説明するための概念図である。
【
図7】予測位置を再予測する手順を説明するための概念図である。
【
図10】本開示に係る予測装置の動作の一例を示すフローチャートである。
【
図11】本開示に係る予測装置の予測処理における動作の一例を示すフローチャートである。
【
図12】本開示に係る予測システムの構成の一例を示すブロック図である。
【
図13】本開示に係る予測装置の動作の一例を示すフローチャートである。
【
図14】本開示に係る予測装置の予測処理における動作の一例を示すフローチャートである。
【
図15】本開示に係る予測装置の構成の一例を示すブロック図である。
【
図16】本開示に係る予測装置の動作の一例を示すフローチャートである。
【
図17】本開示に係る予測装置の構成の一例を示すブロック図である。
【
図18】本開示に係る予測装置の動作の一例を示すフローチャートである。
【
図19】各実施形態に係る制御や処理を実行するハードウェア構成の一例を示すブロック図である。
【発明を実施するための形態】
【0011】
以下に、本開示に係る実施形態について図面を参照しながら詳細に説明する。以下に述べる実施形態には、本開示を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。以下の実施形態の説明に用いる全図においては、特に理由がない限り、同様箇所には同一符号を付す。以下の実施形態において、同様の構成・動作に関しては繰り返しの説明を省略する場合がある。
【0012】
[第1実施形態]
【0013】
(概要)
本実施形態の予測装置10は、死角領域に進入した検出対象物の位置を予測し、予測された位置を用いた出力情報を、移動体MBの備える表示装置へ出力する。
図1~
図3は、本開示に係る予測システム1について説明するための概念図である。最初に、
図1~
図3を参照して、予測システム1の概要について説明する。
【0014】
例えば、予測装置10は、移動体MBに搭載される。本実施形態において、移動体MBは、自動車、バス、オートバイ、建設機械等の車両である。移動体MBは、カメラ60を搭載する。カメラ60は、移動体MBの進行方向である方向V1を含む範囲を撮影する。予測装置10は、カメラ60によって撮影された撮影映像Pを既知の手法で解析することで、撮影映像Pから検出対象物Tを検出する。検出対象物Tは、移動体MBの進路上に位置するおそれのある対象物である。例えば、検出対象物Tは、歩行者、動物、移動体MB以外の車両等の対象物である。
図1に示す例において、移動体MBの進行方向が方向V1であるとすると、障害物Oの後方の領域E1は、移動体MBにとって死角領域である。検出対象物Tは、方向V2に向かって進行すると、移動体MBの死角領域である領域E1へ突入する。
【0015】
図2は、
図1の状況からt秒後の状況を示す概念図である。
図2に示す例において、検出対象物Tは、移動体MBの死角領域である領域E1へ突入する。そのため、カメラ60が撮影した撮影映像Pからは検出対象物Tが検出されない。
【0016】
図3は、
図2の状況において移動体MBが方向V1へt’秒間進行した場合の状況を示す概念図である。移動体MBの運転者が検出対象物Tに気付いていない場合、移動体MBの死角領域である領域E1から検出対象物Tが突如飛び出してくる。このような状況においては、移動体MBと検出対象物Tとが衝突する可能性がある。また、衝突を避けるために、移動体MBが急制動をしなくてはいけない可能性がある。本実施形態の予測装置10は、これらを未然に防ぐべく、死角領域に進入した検出対象物の位置を予測する。さらに、予測装置10は、予測された位置を用いた出力情報を運転者に提示する。例えば、本実施形態の予測装置10は、車載の表示装置(
図1~
図3には図示せず)に出力情報を表示させる。
【0017】
(構成)
図4は、本開示に係る予測システムの構成の一例を示すブロック図である。予測システム1は、
図4に示すように、予測装置10、カメラ60、測距センサ70、および表示装置80を備える。予測装置10は、カメラ60、測距センサ70および表示装置80のそれぞれと通信可能に接続されている。
【0018】
カメラ60は、移動体MBに搭載される車載カメラである。カメラ60は、移動体MBの前方の映像を取得する。カメラ60の撮影範囲には、移動体MBの斜め前方が含まれる。カメラ60は、単眼カメラであってもよいし、ステレオカメラであってもよい。カメラ60が取得する映像は、予め決められたフレームレートで撮影された画像から構成される動画像である。カメラ60によって撮影された映像は、予測装置10へ送信される。
【0019】
測距センサ70は、移動体MBと検出対象物との距離を測定するためのセンサである。測距センサ70は、移動体MBの前方に位置する物体までの距離の計算に用いられるセンサデータを取得する。例えば、測距センサ70は、超音波センサ、赤外線センサ、LiDAR(Light Detection And Ranging)、ミリ波レーダー等によって実現される。カメラ60によって撮影された画像から距離を測定可能な場合、予測システム1は測距センサ70を備えなくてもよい。
【0020】
表示装置80は、予測装置10によって生成された出力情報を表示する表示部を有する。例えば、表示装置80は、ディスプレイ等の表示装置によって実現される。表示装置80は、移動体MBが搭載するカーナビゲーション装置の表示部によって実現されてもよい。表示装置80がカーナビゲーション装置の表示部によって実現される場合、予測装置10はカーナビゲーション装置にインストールされたアプリケーションによって実現されてもよい。
【0021】
〔予測装置〕
次に、
図4を参照して、予測装置10について説明する。例えば、予測装置10は車載装置である。予測装置10は、移動体MBに搭載されたカーナビゲーション装置等の車載装置にインストールされたアプリケーションによって実現されてもよい。あるいは、予測装置10は、移動体MBの運転者の所持する携帯端末にインストールされたアプリケーションによって実現されてもよい。予測装置10は、取得部11、検出対象物検出部12、死角領域検出部13、予測部14、および出力情報生成部15を備える。
【0022】
取得部11は、移動体MBの前方を撮影した映像およびセンサデータを取得する。取得部11は、カメラ60によって撮影された映像を取得する。取得部11は、測距センサ70によって得られたセンサデータを取得する。
【0023】
検出対象物検出部12は、取得部11が取得した映像から検出対象物Tを検出する。検出対象物検出部12は、検出した検出対象物Tの移動速度および移動方向を特定する。検出対象物Tは、前述の通り、移動体MBの進路上に位置するおそれのある対象物である。例えば、検出対象物Tは、歩行者、動物、移動体MB以外の車両等である。
【0024】
検出対象物検出部12は、映像に含まれるフレーム画像から検出対象物Tを検出する。例えば、検出対象物検出部12は、映像に含まれるフレーム画像に対して、検出対象物Tを識別するための識別器を用いたパターンマッチングを行うことで、検出対象物Tを検出してもよい。他の例では、検出対象物検出部12は、複数の連続するフレーム画像を用いて背景画像を作成し、背景画像と現在のフレーム画像とを比較した差分を検出対象物Tとして検出してもよい。検出対象物検出部12は、映像を構成する1枚のフレーム画像で検出された検出対象物Tを他のフレーム画像でトラッキングする。例えば、検出対象物検出部12は、既知のオブジェクトトラッキングの技術を用いて、検出対象物Tをトラッキングする。つまり、検出対象物検出部12は、複数の連続するフレーム画像それぞれについて、検出対象物Tを検出する。検出対象物検出部12による検出対象物Tの検出方法は、ここであげた例に限定されない。
【0025】
検出対象物検出部12はさらに、検出された検出対象物Tの移動速度および移動方向を特定する。例えば、検出対象物検出部12は、検出された検出対象物Tのフレーム間差分を用いて、検出対象物Tの移動速度および移動方向を特定する。他の例では、検出対象物検出部12は、取得部11が取得したセンサデータを用いて、検出対象物Tの移動速度および移動方向を特定する。検出対象物検出部12による検出対象物Tの移動速度および移動方向の特定方法は、ここであげた例に限定されない。
【0026】
以下、取得部11が取得したセンサデータを用いて、検出対象物検出部12が移動速度および移動方向を特定する手順の一例を説明する。まず、検出対象物検出部12は、取得部11が取得したセンサデータを用いて、移動体MBから検出された検出対象物Tまでの距離を測定する。次に、検出対象物検出部12は、現在のフレームと1つ前のフレームとを比較する。検出対象物Tの1フレームにおける移動距離を算出する。検出対象物Tの移動速度は、検出対象物Tの移動距離を1フレームの秒数で除することにより算出される。また、検出対象物Tの移動方向は、例えばオプティカルフローにより算出される。
【0027】
死角領域検出部13は、取得部11が取得した映像から死角領域を検出する。例えば、死角領域検出部13は、以下に示す手順で死角領域を検出する。まず、死角領域検出部13は、検出対象物検出部12によって検出された検出対象物Tのトラッキングが外れたフレームを特定する。次に、死角領域検出部13は、トラッキングが外れたフレームの1つ前のフレーム画像および該フレーム画像に対応するセンサデータを参照する。死角領域検出部13は、検出対象物Tの障害物となっている物体の領域を特定する。具体的には、死角領域検出部13は、センサデータを用いて、検出対象物Tの手前に位置する物体の領域を特定する。死角領域検出部13は、特定した物体の領域を死角領域として検出する。死角領域検出部13による死角領域の検出方法は、ここであげた例に限定されない。
【0028】
予測部14は、死角領域における検出対象物Tの予測位置を複数予測する。予測部14は、さらに、それぞれの予測位置に検出対象物Tが存在する存在確率を設定する。予測部14は、以下に示す手順で死角領域における検出対象物Tの予測位置を予測する。まず、予測部14は、検出対象物Tが死角領域へ進入した際の移動速度(以下、進入速度とも記す)を取得する。検出対象物Tが死角領域へ進入した際の移動速度とは、すなわち、検出対象物Tのトラッキングが外れる直前の、検出対象物Tの移動速度である。次に、予測部14は、進入した際の移動速度を基準として、死角領域内の検出対象物Tの予測進行速度を複数設定する。予測部14は、予測した予測進行速度に応じた予測位置を複数算出する。予測部14は、検出対象物が死角へ進入してからの経過時間、予測進行速度、および死角領域の大きさを用いて、検出対象物Tの予測位置を複数予測する。
【0029】
図5を参照して、予測部14が死角領域における検出対象物Tの位置を予測する具体例を説明する。
図5の例において、予測部14は、検出対象物Tの進入速度を基準(100%)として、死角領域内の予測進行速度を-40%、-20%、±0%、+20%の4つに設定する。予測部14は、予測進行速度に応じた検出対象物Tの予測位置を4つ(予測位置PT1~PT4)算出する。具体的には、予測部14は、検出対象物が死角へ進入してからの経過時間、予測進行速度、および死角領域の大きさを用いて、検出対象物Tの予測位置を複数予測する。尚、上述の予測進行速度の値は一例であり、予測進行速度は他の値に設定されてもよい。また、予測進行速度および予測位置PTの数は4つに限定されず、他の値でもよい。
【0030】
予測部14は、さらに、予測位置PT1~PT4の各々に検出対象物Tが存在する存在確率を算出する。存在確率は、進入速度と予測進行速度との差分の絶対値が小さいほど高くなるように設定される。予測部14は、進入速度と同一の速度で進行していると仮定された予測位置の存在確率を一番高く設定する。予測部14は、進入速度と予測進行速度との差分の絶対値が大きくなるほど、存在確率を低く設定する。
図5の例において、予測部14は、予測位置PT3の存在確率を50%とし、予測位置PT2および予測位置PT4の存在確率を20%とし、予測位置PT1の存在確率を10%とする。尚、上述の存在確率の値は一例であり、設定される存在確率の値は他の値でもよい。
【0031】
次に、
図6を参照して、予測位置が死角領域の外へ出た場合の処理を説明する。
図6は、
図5に示すフレーム画像からnフレーム後(nは自然数)の画像における検出対象物Tの予測位置を示す図である。予測部14は、フレーム画像を新たに取得する都度、予測位置PT1~PT4を更新する。
図6に示すように、予測位置を更新し始めてからnフレーム後(nは自然数)には、予測位置が死角領域の外へ出る。nフレーム後の画像において検出対象物Tが検出されていない場合、予測部14は、死角領域の外へ出た予測位置の存在確率を0%へ変更する。
図6に示す例では、予測位置PT4が死角領域の外へ出ている。さらに、
図6に示す例では、検出対象物Tが検出されないため、予測部14は、予測位置PT4の存在確率を0%へ変更する。予測部14は、存在確率が0%である予測位置については、予測処理を更新しない。予測部14は、全ての予測位置の存在確率が0%になるまで、予測位置PT1~PT4の更新処理を続ける。検出対象物検出部12によって検出対象物Tが検出されると、予測部14は、予測処理を終了する。
【0032】
次に、
図7を参照して、予測位置を再予測する手順を説明する。全ての予測位置の存在確率が0%になっても、検出対象物Tが検出対象物検出部12によって検出されない場合、予測部14は、予測位置を再予測する。例えば、
図7に示すように、予測部14は、さらに遅い予測進行速度を設定する。予測部14は、予測進行速度に対応する予測位置PT5~PT8を予測する。予測部14は、さらに、予測位置PT5~PT8の存在確率についても、再設定を行う。
【0033】
出力情報生成部15は、予測部14の予測結果に応じた出力情報を生成する。出力情報生成部15は、生成した出力情報を出力する。
【0034】
図8は、出力情報生成部15が生成する出力情報の一例である。
図8に示す出力情報は、少なくとも、死角領域を含む領域を切り出した画像P1と、画像P1に重畳して表示するアイコンIC1とを含む。アイコンIC1は、検出対象物Tの予測位置に表示されるアイコンである。
図8に示す例では、アイコンIC1は人型のアイコンであるが、他のアイコンが用いられてもよい。また、アイコンIC1は、検出対象物Tの種類に応じて変更されてもよい。例えば、検出対象物Tが動物であれば、動物のアイコンが用いられてもよい。また、アイコンIC1は、存在確率の高さに応じた表示方法で表示されてもよい。例えば、
図8に示すように、アイコンIC1は存在確率の高さに応じてグラデーション表示されてもよい。
図8の例においては、表示の色が濃いほど存在確率が高い。例えば、アイコンIC1は存在確率に応じて色分けされてもよい。
図8に示す出力情報は、この他にも、各予測位置における存在確率を示す表示情報W1を含んでもよい。また、
図8に示す出力情報は、移動体MBの運転者へ注意を促す内容を含む表示情報W2を含んでもよい。例えば、表示情報W1に加えて、移動体MBの運転者への注意を促す内容を含む音声が出力されてもよい。例えば、検出対象物Tに対する注意を促す音が出力されてもよい。
【0035】
図9は、出力情報生成部15が生成する出力情報の他の例である。
図9に示す例は、表示装置80がカーナビゲーション装置の表示部によって実現される場合の出力情報を想定している。出力情報生成部15が生成する出力情報は、
図9のように、カーナビゲーション装置が提供するルート案内の地
図Mに重畳して表示されてもよい。例えば、出力情報生成部15は、死角領域から検出対象物Tが出現する可能性が生じると、該可能性が生じている地点にアイコンIC3を表示させる。
図9に示す出力情報は、この他にも、移動体MBの運転者へ注意を促すような表示情報W3を含んでもよい。
【0036】
(動作)
次に、本実施形態における予測装置10の動作の一例について、
図10~
図11を参照して説明する。例えば、予測装置10は、移動体MBが走行を開始したことを検知すると、
図10に示す処理を開始する。
【0037】
まず、取得部11は、移動体MBの前方を撮影した映像をカメラ60から取得する。さらに、取得部11は、移動体MBの前方のセンサデータを取得する(ステップS11)。移動体MBの前方には、移動体MBの斜め前方も含まれる。
【0038】
次に、検出対象物検出部12は、取得部11が取得した映像から検出対象物Tを検出する(ステップS12)。検出対象物検出部12は、映像に含まれるフレーム画像から検出対象物Tを検出する。検出対象物検出部12は、検出した検出対象物Tをトラッキングする。
【0039】
次に、検出対象物検出部12は、検出した検出対象物の移動速度および移動方向を特定する(ステップS13)。予測システム1が測距センサ70を備えない場合、検出対象物検出部12は、取得した映像のフレーム間差分を用いて、ステップS12およびステップS13の処理を行う。予測システム1が測距センサ70を備える場合、検出対象物検出部12は、取得した映像のフレーム間差分および取得したセンサデータを用いて、ステップS12およびステップS13の処理を行う。
【0040】
次に、死角領域検出部13は、取得部11が取得した映像から死角領域を検出する(ステップS14)。死角領域検出部13は、検出対象物Tのトラッキングが外れた1つ前のフレーム画像を用いて、検出対象物Tの手前にある物体を特定する。死角領域検出部13は、特定した物体によって死角となる領域を死角領域として検出する。
【0041】
次に、予測部14は予測処理を行う(ステップS15)。
図11は、予測処理における一連の動作の一例を示す図である。
図11を参照して、予測処理における動作を説明する。
【0042】
まず、予測部14は、取得部11が取得した映像からフレーム画像を取得する(ステップS151)。
【0043】
次に、予測部14は、検出対象物Tの死角領域への進入速度を用いて、検出対象物Tの位置を複数予測する(ステップS152)。検出対象物Tの進入速度は、検出対象物Tのトラッキングが外れる直前における検出対象物Tの移動速度である。すなわち、検出対象物Tの進入速度は、ステップS13で特定される。予測部14は、検出対象物Tが死角領域に進入した際の移動速度を基準として、死角領域内における検出対象物Tの予測進行速度を複数設定する。予測部14は、予測した予測進行速度に応じた予測位置を複数算出する。
【0044】
次に、予測部14は、それぞれの予測位置に検出対象物Tが存在する存在確率を設定する(ステップS153)。存在確率は、進入速度と予測進行速度との差分の絶対値が小さいほど高くなるように設定される。
【0045】
次に、予測部14は、複数予測した予測位置のうちで死角領域の領域外に位置する予測位置があるか否かを判定する(ステップS154)。予測部14は、死角領域の領域外に位置する予測位置がない場合(ステップS154でNo)、ステップS156の処理へ進む。予測部14は、死角領域の領域外に位置する予測位置がある場合(ステップS154でYes)、死角領域から出た予測位置の存在確率を0%に設定する(ステップS155)。また、予測部14は、死角領域内に位置する予測位置があるか否かを判定する(ステップS156)。死角領域内に位置する予測位置がある場合(ステップS156でYes)、一連の予測処理を終了する。死角領域内に位置する予測位置がない場合(ステップS156でNo)、予測部14はステップS151の処理へ戻り、予測位置を再設定する。
【0046】
上述した一連の予測処理を終了すると、予測装置10は、
図10のステップS16の処理へ進む。出力情報生成部15は、ステップS15の予測結果に応じた出力情報を生成する。出力情報生成部15は、生成した出力情報を表示装置80へ出力する(ステップS16)。例えば、出力情報生成部15は、
図8または
図9に示すような出力情報を生成する。
【0047】
予測装置10は、検出対象物検出部12によって、検出対象物Tが死角領域から出現したと検出されるまで、ステップS15~ステップS16の処理を繰り返す(ステップS17でNo)。
【0048】
死角領域から検出対象物Tが出現した場合(ステップS17でYes)、予測装置10は、所定の終了条件を満たすか否かを判定する(ステップS18)。所定の終了条件を満たさない場合(ステップS18でNo)、ステップS11~ステップS17の処理を繰り返す。例えば、所定の終了条件は、予測装置10の電源が切られることや、移動体MBの運転者から処理中止の命令があること等を含む。予測装置10は、所定の終了条件を満たすと(ステップS18でYes)、上述した一連の処理を終了する。
【0049】
以上のように、本実施形態の予測装置は、取得部、検出対象物検出部、死角領域検出部、予測部、および出力情報生成部を備える。取得部は、移動体の前方を撮影した映像およびセンサデータを取得する。検出対象物検出部は、取得部が取得した映像から検出された検出対象物Tの移動速度および移動方向を特定する。死角領域検出部は、取得部が取得した映像から死角領域を検出する。予測部は、死角領域に進入した検出対象物の移動速度を用いて、死角領域における検出対象物の位置を複数予測する。予測部は、それぞれの予測位置に検出対象物が存在する存在確率を設定する。出力情報生成部は、予測部14の予測結果に応じた出力情報を生成し、生成した出力情報を出力する。本実施形態の予測装置は、上記構成により、検出対象物が死角領域に進入し、取得した映像から検出対象物が検出されない場合であっても、検出対象物の予測位置を得ることができる。換言すれば、本実施形態の予測装置によれば、死角領域に進入した検出対象物の位置を予測することができる。
【0050】
本実施形態の予測装置が備える予測部は、検出対象物が死角領域に進入した際の移動速度を基準として、死角領域内における検出対象物の予測進行速度を複数設定する。予測部は、予測進行速度に応じて、死角領域における検出対象物の予測位置を複数予測する。また、予測部は、死角領域から検出対象物が出現するまで、上述の予測処理を繰り返す。本実施形態の予測装置によれば、移動体の運転者は、検出対象物が死角領域内で減速または加速した場合であっても、検出対象物の位置を予測することができる。
【0051】
本実施形態の予測装置が備える予測部は、それぞれの予測位置に検出対象物が存在する存在確率を設定する。存在確率は、進入速度と予測進行速度との差分の絶対値が小さいほど高くなるように設定される。出力情報生成部により生成される出力情報に存在確率を示す情報が含まれる場合、移動体の運転者は、該予測位置に検出対象物が存在する確率を把握できる。これにより、運転者は、存在確率に応じて移動体の制御を変更することができる。例えば、死角領域付近を通過する際に死角領域の出口付近に存在確率の高い予測位置がない場合、運転者は移動体を減速させるのみに止める。一方で、死角領域付近を通過する際に死角領域の出口付近に存在確率の高い予測位置がある場合、運転者は移動体を一時停止させる。このように、検出対象物の存在確率を出力情報に含めることによって、運転者は、存在確率に応じて移動体の制御を変更することができる。
【0052】
本実施形態の予測装置が備える出力情報生成部は、予測部の予測結果に応じた出力情報を生成し、移動体の備える表示装置へ出力する。一例として、出力情報は、死角領域を含む領域を切り出した画像と、切り出した画像に重畳して予測位置に表示されるアイコンとを含む。アイコンは、存在確率の高さに応じた表示方法で表示される。例えば、アイコンは、存在確率の高さに応じてグラデーション表示される。他の例では、出力情報は、ルート案内の地図と、地図に重畳して表示されるアイコンとを含む。アイコンは、死角領域から検出対象物が出現する可能性のある地点に表示される。また、出力情報は、移動体の運転者へ注意を促すような表示情報を含んでもよい。これらの出力情報が表示装置へ出力されることにより、運転者は、直感的に、動物体の飛び出しに注意すべき地点およびタイミングを把握することができる。
【0053】
本実施形態の予測装置が備える予測部は、死角領域の領域外に位置する予測位置に対応する存在確率を0に設定する。予測部は、存在確率が0である予測位置については、予測処理を更新しない。これにより、本実施形態の予測装置は、死角領域の外に位置する予測位置については予測処理を更新せずに済むため、計算コストを削減することができる。
【0054】
[第2実施形態]
【0055】
(構成)
次に、本実施形態に係る予測システム2および予測装置20について、図面を参照しながら説明する。以降の説明において、第1実施形態と同一の部分については、適宜説明を省略する。第1実施形態の予測システム1は、予測結果に応じた出力情報を、移動体MBの備える表示装置へ出力する。本実施形態の予測システム2は、自動運転が行われる移動体MBに対して、予測結果に応じた制御信号を生成し、移動体MBの制御を行う制御部へ出力する点において、第1実施形態の予測装置10とは異なる。換言すれば、予測システム1は移動体MBの運転者へ注意喚起することを目的としており、予測システム2は自動運転の移動体MBを安全に制御することを目的としている点において、両者は異なる。本実施形態における移動体MBは、自動運転が行われる移動体である。具体的には、移動体MBは、自動運転が行われる自動車、バス、オートバイ、建設機械等の車両の他、ロボットやドローン等の移動体であってもよい。
【0056】
図12は、本開示に係る予測システムの構成の一例を示すブロック図である。予測システム2は、予測装置20、制御部50、カメラ60および測距センサ70を備える。カメラ60および測距センサ70は、第1実施形態におけるカメラ60および測距センサ70と同一であるため、説明を省略する。
【0057】
制御部50は、移動体MBの制御を行う制御部(コントローラ)である。制御部50は、制御信号によって、移動体MBの制御を行う。例えば、制御部50は、移動体MBの走行速度や、移動方向、移動ルートの制御を行う。
【0058】
〔予測装置〕
次に、
図12を参照して、予測装置20について説明する。予測装置20は、取得部21、検出対象物検出部22、死角領域検出部23、予測部24および出力情報生成部25を備える。取得部21、検出対象物検出部22、および死角領域検出部23の各々は、第1実施形態における取得部11、検出対象物検出部12、および死角領域検出部13の各々と同一であるため、説明を省略する。
【0059】
予測部24は、検出対象物Tが死角領域外の位置に出現する出現時刻を複数予測する。予測部24は、検出対象物が死角領域に進入した時刻、予測進行速度、および死角領域の大きさを用いて、検出対象物Tが死角領域外の位置に出現する出現時刻を複数予測する。予測部24は、それぞれの出現時刻について、検出対象物が出現する確率である出現確率を設定する。
【0060】
予測部24は、現在時刻を過ぎた予測時刻の出現確率を0%へ変更する。例えば、予測部24が予測時刻を10時10分10秒と予測していた場合、10時10分11秒になっても検出対象物が出現しなかった場合、該予測時刻の出現確率を0%へ変更する。また、予測部24は、全ての予測時刻の出現確率が0%になっても、検出対象物Tが検出対象物検出部12によって検出されない場合、予測時刻を再予測する。予測部24は、検出対象物Tが検出対象物検出部22によって検出されると、予測処理を終了する。
【0061】
出力情報生成部25は、予測結果に応じた制御信号を生成する。出力情報生成部25は、生成した制御信号を制御部50へ出力する。出力情報生成部25は、予測部24が予測した予測時刻を用いて、移動体MBが衝突または急制動をせずに済むような制御信号を生成する。具体的には、出力情報生成部25は、予測時刻を用いて、走行速度および停止タイミングの制御を行う。出力情報生成部25は、出現確率に応じて、制御信号の内容を変更してもよい。例えば、移動体MBが死角領域付近を通過する時刻に死角領域からの出現確率が低い場合、出力情報生成部25は、移動体MBを減速させる制御信号を生成する。一方で、移動体MBが死角領域付近を通過する時刻に死角領域からの出現確率が高い場合、出力情報生成部25は、移動体MBを徐々に減速させた後に一時停止させる制御信号を生成する。
【0062】
(動作)
次に、本実施形態における予測装置20の動作の一例について、
図13~
図14を参照して説明する。例えば、予測装置20は、移動体MBが走行を開始したことを検知すると、
図13に示す処理を開始する。
【0063】
まず、取得部21は、移動体MBの前方を撮影した映像をカメラ60から取得する。さらに、取得部21は、移動体MBの前方のセンサデータを取得する(ステップS21)。移動体MBの前方には、移動体MBの斜め前方が含まれる。
【0064】
次に、検出対象物検出部22は、取得部21が取得した映像から検出対象物Tを検出する(ステップS22)。検出対象物検出部22は、映像に含まれるフレーム画像から検出対象物Tを検出する。検出対象物検出部22は、検出した検出対象物Tをトラッキングする。次に、検出対象物検出部12は、検出した検出対象物の移動速度および移動方向を特定する(ステップS23)。
【0065】
次に、死角領域検出部23は、取得部21が取得した映像から死角領域を検出する(ステップS24)。死角領域検出部23は、検出対象物検出部22によって検出対象物Tのトラッキングが外れると、1つ前のフレーム画像を用いて、検出対象物Tの手前にある物体を特定する。死角領域検出部23は、特定した物体によって死角になる領域を死角領域として検出する。
【0066】
次に、予測部24は予測処理を行う(ステップS25)。
図14は、予測処理における一連の動作の一例を示す図である。
図14を参照して、予測処理における動作を説明する。
【0067】
まず、予測部24は、取得部21が取得した映像からフレーム画像を取得する(ステップS251)。
【0068】
次に、予測部24は、検出対象物Tの死角領域への進入速度を用いて、検出対象物Tの予測進行速度を複数予測する(ステップS252)。検出対象物Tの進入速度は、検出対象物Tのトラッキングが外れる直前における検出対象物Tの移動速度である。すなわち、検出対象物Tの進入速度は、ステップS23で特定される。
【0069】
次に、予測部24は、予測進行速度を用いて、検出対象物Tが死角領域外の位置に出現する出現時刻を予測する(ステップS253)。さらに、予測部24は、それぞれの出現時刻に検出対象物が出現する出現確率を設定する(ステップS254)。
【0070】
次に、予測部24は、複数予測した出現時刻のうちで、現在時刻を過ぎた出現時刻があるか否かを判定する(ステップS255)。予測部24は、現在時刻を過ぎた出現時刻がない場合(ステップS255でNo)、ステップS257の処理へ進む。予測部24は、現在時刻を過ぎた出現時刻がある場合(ステップS255でYes)、現在時刻を過ぎた出現時刻の出現確率を0%に設定する(ステップS256)。また、予測部24は、現在時刻より前の出現時刻があるか否かを判定する(ステップS257)。現在時刻より前の出現時刻がある場合(ステップS257でYes)、一連の予測処理を終了する。現在時刻より前の出現時刻がない場合(ステップS257でNo)、予測部14はステップS251の処理へ戻り、予測時刻を再設定する。
【0071】
上述した一連の予測処理を終了すると、予測装置20は、
図13のステップS26の処理へ進む。出力情報生成部25は、ステップS25の予測結果に応じた移動体MBの制御信号を生成する。出力情報生成部25は、生成した制御信号を移動体MBの制御部50へ出力する(ステップS26)。
【0072】
予測装置20は、検出対象物検出部22によって、検出対象物Tが死角領域外の位置に出現したと検出されるまで、ステップS25~ステップS26の処理を繰り返す(ステップS27でNo)。
【0073】
死角領域外の位置に検出対象物Tが出現した場合(ステップS27でYes)、予測装置20は、所定の終了条件を満たすか否かを判定する(ステップS28)。所定の終了条件を満たさない場合(ステップS28でNo)、ステップS21~ステップS27の処理を繰り返す。例えば、所定の終了条件は、予測装置20または移動体MBの電源が切られること等を含む。予測装置20は、所定の終了条件を満たすと(ステップS28でYes)、上述した一連の処理を終了する。
【0074】
以上のように、本実施形態の予測装置は、取得部、検出対象物検出部、死角領域検出部、予測部および出力情報生成部を備える。予測部は、検出対象物Tが死角領域外の位置に出現する出現時刻を複数予測する。換言すれば、本実施形態の予測装置は、死角領域に進入した検出対象物の位置を予測する。予測部は、さらに、それぞれの出現時刻について、検出対象物が出現する確率である出現確率を設定する。出力情報生成部は、予測結果に応じた制御信号を生成し、生成した制御信号を制御部へ出力する。これにより、本実施形態の予測装置は、移動体が検出対象物と衝突したり、移動体を急制動させたりすることを防ぐ制御信号を生成することができる。換言すれば、本実施形態の予測装置によれば、自動運転の移動体を安全に制御することが可能になる。
【0075】
[第3実施形態]
【0076】
(構成)
次に、本開示に係る予測装置30について、
図15および
図16を参照しながら説明する。予測装置30は、第1実施形態に係る予測装置10を簡略化した構成である。
【0077】
図15に示すように、予測装置30は、検出対象物検出部32、死角領域検出部33、予測部34、および出力情報生成部35を備える。
【0078】
検出対象物検出部32は、移動体MBの前方を撮影した映像から検出された検出対象物Tの移動速度を特定する検出対象物検出手段の一例である。
【0079】
死角領域検出部33は、移動体MBの前方を撮影した映像から死角領域を検出する死角領域検出手段の一例である。
【0080】
予測部34は、死角領域に進入した検出対象物Tの移動速度を用いて、死角領域における検出対象物Tの位置を複数予測し、それぞれの位置に検出対象物Tが存在する存在確率を設定する予測手段の一例である。検出対象物Tの移動速度は、検出対象物検出部31によって特定される。
【0081】
出力情報生成部35は、予測結果に応じた出力情報を生成し、生成した出力情報を出力する出力情報生成手段の一例である。
【0082】
(動作)
次に、本開示に係る予測装置30の動作の一例について、
図16を参照して説明する。
【0083】
まず、検出対象物検出部32は、移動体MBの前方を撮影した映像から検出された検出対象物Tの移動速度および移動方向を特定する(ステップS31)。
【0084】
次に、死角領域検出部33は、移動体MBの前方を撮影した映像から死角領域を検出する(ステップS32)。
【0085】
次に、予測部34は、死角領域に進入した検出対象物Tの移動速度を用いて、死角領域における検出対象物Tの位置を複数予測し、それぞれの位置に検出対象物Tが存在する存在確率を設定する(ステップS33)。
【0086】
次に、出力情報生成部35は、予測結果に応じた出力情報を生成し、生成した出力情報を出力する(ステップS34)。
【0087】
本実施形態の予測装置によれば、第1実施形態の予測装置と同様の効果作用を得ることができる。
【0088】
[第4実施形態]
【0089】
(構成)
次に、本開示に係る予測装置40について、
図17および
図18を参照しながら説明する。予測装置40は、第2実施形態に係る予測装置20を簡略化した構成である。
【0090】
図17に示すように、予測装置30は、検出対象物検出部42、死角領域検出部43、予測部44、および出力情報生成部45を備える。検出対象物検出部42、死角領域検出部43、および出力情報生成部45は、第3実施形態の検出対象物検出部32、死角領域検出部33、および出力情報生成部35と同一である。
【0091】
予測部44は、検出対象物Tが死角領域の領域外の位置に出現する出現時刻を複数予測する。予測部44は、それぞれの出現時刻に検出対象物Tが出現する出現確率を設定する。
【0092】
(動作)
次に、本開示に係る予測装置40の動作の一例について、
図18を参照して説明する。
【0093】
まず、検出対象物検出部42は、移動体MBの前方を撮影した映像から検出された検出対象物Tの移動速度および移動方向を特定する(ステップS41)。
【0094】
次に、死角領域検出部43は、移動体MBの前方を撮影した映像から死角領域を検出する(ステップS42)。
【0095】
次に、予測部44は、死角領域に進入した検出対象物Tの移動速度を用いて検出対象物Tが死角領域の領域外の位置に出現する出現時刻を複数予測し、それぞれの出現時刻に検出対象物Tが出現する出現確率を設定する(ステップS43)。
【0096】
次に、出力情報生成部35は、予測結果に応じた出力情報を生成し、生成した出力情報を出力する(ステップS44)。
【0097】
本実施形態の予測装置によれば、第2実施形態の予測装置と同様の効果作用を得ることができる。
【0098】
[ハードウェア構成]
以上説明した本開示の各実施形態における各構成要素は、その機能をハードウェア的に実現することは勿論、プログラム制御に基づくコンピュータ装置、ファームウェアによって実現することができる。
【0099】
図19は、本開示における日程調整装置を、プロセッサを含むコンピュータ装置90で実現したハードウェア構成の一例を示す図である。各実施形態の画面共有制御装置は、コンピュータ装置90によって実現される。コンピュータ装置90は、
図19に示すように、CPU(Central Processing Unit)91、メモリ92、プログラムを格納するハードディスク等の記憶装置93、入力装置および出力装置接続用の入出力インタフェース94、およびネットワーク接続用の通信インタフェース95を含む。
【0100】
CPU91は、オペレーティングシステムを動作させて、本開示の予測装置を制御する。例えば、CPU91は、ドライブ装置等に装着された記憶媒体からメモリ92にプログラムやデータを読み出す。また、CPU91は、例えば、本開示の予測装置10における取得部11、検出対象物検出部12、死角領域検出部13、予測部14、および出力情報生成部15の一部として機能し、プログラムに基づいて処理または命令を実行する。
【0101】
記憶装置93は、例えば光ディスク、フレキシブルディスク、磁気光ディスク、外付けハードディスク、または半導体メモリ等である。記憶装置の一部の記憶媒体は、不揮発性記憶装置であり、そこにプログラムを記録する。また、プログラムは、通信網に接続されている外部コンピュータ(図示せず)からダウンロードされてもよい。
【0102】
入出力インタフェース94に接続される入力装置は、例えばマウスやキーボード等により実現され、入力操作に用いられる。同様に、入出力インタフェース94に接続される出力装置は、例えばディスプレイ等によって実現され、出力結果の表示および確認に用いられる。
【0103】
以上、各実施形態を参照して本開示について説明したが、本開示は上記実施形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。例えば、複数の動作をフローチャートの形式で順番に記載してあるが、その記載の順番は複数の動作を実行する順番を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の順番は、内容に支障がない範囲で変更することができる。
【0104】
上記の実施形態の一部または全部は、以下の付記のようにも記載され得る。
【0105】
(付記1)
移動体の前方を撮影した映像から検出された検出対象物の移動速度を特定する検出対象物検出手段と、
前記映像から死角領域を検出する死角領域検出手段と、
前記死角領域に進入した前記検出対象物の前記移動速度を用いて、前記死角領域における前記検出対象物の予測位置を複数予測し、それぞれの前記予測位置に前記検出対象物が存在する存在確率を設定する予測手段と、
前記予測手段の予測結果に応じた出力情報を生成し、生成した前記出力情報を出力する出力情報生成手段と
を備える、予測装置。
【0106】
(付記2)
前記出力情報は、前記死角領域を含む領域を切り出した画像と、前記画像に重畳してそれぞれの前記予測位置に表示されるアイコンとを含み、
前記アイコンは、前記存在確率の高さに応じた表示方法で表示される、付記1に記載の予測装置。
【0107】
(付記3)
前記出力情報は、前記存在確率を示す表示情報をさらに含む、付記2に記載の予測装置。
【0108】
(付記4)
前記出力情報は、ルート案内の地図と、前記地図に重畳して、前記死角領域から前記検出対象物が出現する可能性のある地点に表示されるアイコンとを含む、付記1に記載の予測装置。
【0109】
(付記5)
前記予測手段は、
前記検出対象物が前記死角領域に進入した際の前記移動速度を基準として、前記死角領域内における前記検出対象物の予測進行速度を複数設定し、
前記予測進行速度に応じて、前記予測位置を予測する、付記1に記載の予測装置。
【0110】
(付記6)
前記予測手段は、
前記検出対象物が前記死角領域の領域外の位置に出現する出現時刻を複数予測し、
それぞれの前記出現時刻に前記検出対象物が出現する出現確率を設定し、
前記出力情報生成手段は、
前記出力情報として移動体を制御するための制御信号を生成する、付記1に記載の予測装置。
【0111】
(付記7)
前記予測手段は、前記死角領域の領域外に位置する前記予測位置に対応する前記存在確率を0に設定する、付記1に記載の予測装置。
【0112】
(付記8)
付記1乃至7のいずれか一つに記載の予測装置と、
前記移動体の前方を撮影するカメラと
を備える、予測システム。
【0113】
(付記9)
コンピュータが、
移動体の前方を撮影した映像から検出された検出対象物の移動速度を特定し、
前記映像から死角領域を検出し、
前記死角領域に進入した前記検出対象物の前記移動速度を用いて、前記死角領域における前記検出対象物の予測位置を複数予測し、
それぞれの前記予測位置に前記検出対象物が存在する存在確率を設定し、
前記予測位置および前記存在確率に応じた出力情報を生成し、
生成した前記出力情報を出力する、予測方法。
【0114】
(付記10)
前記出力情報は、前記死角領域を含む領域を切り出した画像と、前記画像に重畳してそれぞれの前記予測位置に表示されるアイコンとを含み、
前記アイコンは、前記存在確率の高さに応じた表示方法で表示される、付記9に記載の予測方法。
【0115】
(付記11)
前記出力情報は、前記存在確率を示す表示情報をさらに含む、付記10に記載の予測方法。
【0116】
(付記12)
前記出力情報は、ルート案内の地図と、前記地図に重畳して、前記死角領域から前記検出対象物が出現する可能性のある地点に表示されるアイコンとを含む、付記9に記載の予測方法。
【0117】
(付記13)
前記予測において、
コンピュータが、
前記検出対象物が前記死角領域に進入した際の前記移動速度を基準として、前記死角領域内における前記検出対象物の予測進行速度を複数設定し、
前記予測進行速度に応じて、前記予測位置を予測する、付記9に記載の予測方法。
【0118】
(付記14)
前記予測において、
コンピュータが、
前記検出対象物が前記死角領域の領域外の位置に出現する出現時刻を複数予測し、
それぞれの前記出現時刻に前記検出対象物が出現する出現確率を設定し、
前記生成の方法では、前記出力情報として移動体を制御するための制御信号を生成する、付記9に記載の予測方法。
【0119】
(付記15)
前記予測において、コンピュータが、前記死角領域の領域外に位置する前記予測位置に対応する前記存在確率を0に設定する、付記9に記載の予測方法。
【0120】
(付記16)
コンピュータに、
移動体の前方を撮影した映像から検出された検出対象物の移動速度を特定する処理と、
前記映像から死角領域を検出する処理と、
前記死角領域に進入した前記検出対象物の前記移動速度を用いて、前記死角領域における前記検出対象物の予測位置を複数予測し、それぞれの前記予測位置に前記検出対象物が存在する存在確率を設定する処理と、
前記予測位置および前記存在確率に応じた出力情報を生成する処理と、
生成した前記出力情報を出力する処理と、を実行させる、プログラム。
【0121】
(付記17)
前記出力情報は、前記死角領域を含む領域を切り出した画像と、前記画像に重畳してそれぞれの前記予測位置に表示されるアイコンとを含み、
前記アイコンは、前記存在確率の高さに応じた表示方法で表示される、付記16に記載のプログラム。
【0122】
(付記18)
前記出力情報は、前記存在確率を示す表示情報をさらに含む、付記17に記載のプログラム。
【0123】
(付記19)
前記出力情報は、ルート案内の地図と、前記地図に重畳して、前記死角領域から前記検出対象物が出現する可能性のある地点に表示されるアイコンとを含む、付記16に記載のプログラム。
【0124】
(付記20)
前記予測する処理において、
前記検出対象物が前記死角領域に進入した際の前記移動速度を基準として、前記死角領域内における前記検出対象物の予測進行速度を複数設定する処理と、
前記予測進行速度に応じて、前記予測位置を予測する処理と、をコンピュータに実行させる付記16に記載のプログラム。
【0125】
(付記21)
前記予測する処理において、
前記検出対象物が前記死角領域の領域外の位置に出現する出現時刻を複数予測する処理と、
それぞれの前記出現時刻に前記検出対象物が出現する出現確率を設定する処理と、
前記生成する処理において、前記出力情報として移動体を制御するための制御信号を生成する処理と、をコンピュータに実行させる付記16に記載のプログラム。
【0126】
(付記22)
前記予測する処理において、前記死角領域の領域外に位置する前記予測位置に対応する前記存在確率を0に設定する処理をコンピュータに実行させる付記16に記載のプログラム。
【符号の説明】
【0127】
1、2、3、4 予測システム
10、20、30、40 予測装置
11、21 取得部
12、22、32、42 検出対象物検出部
13、23、33、43 死角領域検出部
14、24、34、44 予測部
15、25、35、45 出力情報生成部
50 制御部
60 カメラ
70 測距センサ
80 表示装置
90 コンピュータ装置
91 CPU(Central Processing Unit)
92 メモリ
93 記憶装置
94 入出力インタフェース
95 通信インタフェース
【要約】
【課題】死角領域に進入した検出対象物の位置を予測する。
【解決手段】予測装置は、検出対象物検出部、死角領域検出部、予測部、および出力情報生成部を備える。検出対象物検出部は、移動体の前方を撮影した映像から検出された検出対象物の移動速度を特定する。死角領域検出部は、移動体の前方を撮影した映像から死角領域を検出する。予測部は、死角領域に進入した検出対象物の移動速度を用いて、死角領域における検出対象物の予測位置を複数予測し、それぞれの予測位置に検出対象物が存在する存在確率を設定する。出力情報生成部は、予測部の予測結果に応じた出力情報を生成し、生成した出力情報を出力する。
【選択図】
図15