(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024048297
(43)【公開日】2024-04-08
(54)【発明の名称】運転支援装置、運転支援方法、及びプログラム
(51)【国際特許分類】
G08G 1/16 20060101AFI20240401BHJP
B60W 40/02 20060101ALI20240401BHJP
B60W 30/09 20120101ALI20240401BHJP
B60W 50/14 20200101ALI20240401BHJP
【FI】
G08G1/16 C
B60W40/02
B60W30/09
B60W50/14
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022154265
(22)【出願日】2022-09-27
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100103894
【弁理士】
【氏名又は名称】家入 健
(72)【発明者】
【氏名】黄 龍双
【テーマコード(参考)】
3D241
5H181
【Fターム(参考)】
3D241BA33
3D241BA49
3D241BA60
3D241BC01
3D241CC08
3D241CD09
3D241CD27
3D241CE02
3D241CE05
3D241CE08
3D241DB02Z
3D241DC31Z
5H181AA01
5H181AA21
5H181AA22
5H181AA23
5H181BB20
5H181CC04
5H181LL01
5H181LL07
5H181LL08
5H181LL09
(57)【要約】
【課題】車両周囲に存在する人物の属性に応じて、適切なタイミングで車両制御を行うことが可能な運転支援装置を提供すること。
【解決手段】本開示にかかる運転支援装置100は、車両の周囲を撮影した画像から人物を検出する検出部101と、画像に基づいて、車両と人物との位置関係を算出する算出部102と、画像に基づいて、事故の起こりやすさに関する人物の属性を推定する推定部103と、位置関係及び属性に基づいて、所定の車両制御のタイミングを決定する決定部104と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
車両の周囲を撮影した画像から人物を検出する検出部と、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出部と、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定部と、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定部と、を備える
運転支援装置。
【請求項2】
前記属性は、前記人物の外観、前記人物の動き、前記人物に対応付けられた物品、及び前記人物周辺の環境のうち少なくともいずれか1つを含む前記人物の特徴、又は、前記特徴に基づいて推定される情報を含む
請求項1に記載の運転支援装置。
【請求項3】
前記位置関係は、前記車両の進路と前記人物とのオーバーラップの度合いを示すオーバーラップ情報を含み、
前記決定部は、前記オーバーラップの度合いが大きくなるにつれ前記タイミングが早くなるように、前記タイミングを決定する
請求項1又は2に記載の運転支援装置。
【請求項4】
前記決定部は、前記車両の速度にさらに基づいて前記タイミングを決定する
請求項1又は2に記載の運転支援装置。
【請求項5】
前記決定部は、前記位置関係及び前記車両の速度の少なくとも一方と、前記タイミングと、が予め対応付けられたタイミング情報に基づいて前記タイミングを決定する
請求項1又は2に記載の運転支援装置。
【請求項6】
前記タイミング情報は、前記属性に応じて規定された複数のタイミング表を含み、
前記決定部は、前記人物の属性に応じた前記タイミング表を選択して前記タイミングを決定する
請求項5に記載の運転支援装置。
【請求項7】
前記推定部は、前記画像から互いに近傍に位置する複数の人物が検出された場合、前記画像に基づいて、前記複数の人物のうち少なくとも1人の属性を推定し、
前記決定部は、前記複数の人物のうち少なくとも1人の前記位置関係及び前記属性に基づいて、前記タイミングを決定する
請求項1又は2に記載の運転支援装置。
【請求項8】
前記所定の車両制御は、ブレーキ介入及び運転者に対する警告の少なくとも一方を含む
請求項1又は2に記載の運転支援装置。
【請求項9】
コンピュータが、
車両の周囲を撮影した画像から人物を検出する検出ステップと、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出ステップと、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定ステップと、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定ステップと、を実行する
運転支援方法。
【請求項10】
車両の周囲を撮影した画像から人物を検出する検出ステップと、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出ステップと、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定ステップと、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定ステップと、をコンピュータに実行させる
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、運転支援装置、運転支援方法、及びプログラムに関する。
【背景技術】
【0002】
車両周囲に存在する歩行者を検知し、車両と歩行者との間で発生する事故を回避するための技術が知られている。例えば、車両から所定の距離以内に歩行者を検知した場合に、自動的にブレーキを作動させて衝突を回避する自動ブレーキシステムの技術が知られている。
【0003】
また関連する技術として、特許文献1は、自車周囲で検知された物体と自車とが衝突する可能性がある場合に、物体と自車との衝突を回避するための衝突回避制御を実施する運転支援装置を開示する。当該運転支援装置は、照射光をハイビームとしているときに衝突回避制御が実施される場合、照射光のハイビームからロービームへの切り替えを抑制する。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
車両の自動ブレーキシステムにおいて、周囲の歩行者に対して自動ブレーキを行うか否かを判定するとする。このような場合、例えば車両に搭載されたカメラで周囲を撮影し、撮影画像から歩行者を認識する。そして撮影画像から車両と歩行者との相対距離を推定し、相対距離が所定未満である場合には自動ブレーキを行うと判定する。またはカメラに代えて、対象物までの距離を計測可能なレーダなどのセンサを用いることで同様の処理を行うこともできる。
【0006】
しかしながら、歩行者の属性(例えば年齢、身長など)は様々であり、適切なブレーキのタイミングが異なる場合がある。例えば、子供は大人と比べると身長が低いため、運転者がその存在を認識しにくい場合がある。また、子供は危険予測が十分にできないため、歩道から急に飛び出すなどの行動をとる場合がある。そのため、子供は大人と比較すると事故に遭う危険性が高い。
【0007】
よって、歩行者と車両との距離が同じであっても、歩行者が子供の場合には大人の場合よりも早いタイミングでブレーキを作動させる必要がある。また、例えば運転者に対して警告を行うような場合についても、歩行者が子供の場合には大人の場合より早いタイミングで警告を行う必要がある。
【0008】
また上記の課題は子供に限られない。例えば、高齢者、車椅子利用者、又は会話をしているために車両に対する注意が十分でない歩行者、などについても同様の課題がある。特許文献1に開示された技術では、このような歩行者の属性に応じた衝突回避制御については考慮されていない。
【0009】
本開示の目的は、上述した課題を鑑み、車両周囲に存在する人物の属性に応じて、適切なタイミングで車両制御を行うことが可能な運転支援装置、運転支援方法、及びプログラムを提供することにある。
【課題を解決するための手段】
【0010】
本開示にかかる運転支援装置は、
車両の周囲を撮影した画像から人物を検出する検出部と、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出部と、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定部と、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定部と、を備えるものである。
【0011】
本開示にかかる運転支援方法は、
コンピュータが、
車両の周囲を撮影した画像から人物を検出する検出ステップと、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出ステップと、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定ステップと、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定ステップと、を実行するものである。
【0012】
本開示にかかるプログラムは、
車両の周囲を撮影した画像から人物を検出する検出ステップと、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出ステップと、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定ステップと、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定ステップと、をコンピュータに実行させるものである。
【発明の効果】
【0013】
本開示にかかる運転支援装置、運転支援方法、及びプログラムは、車両周囲に存在する人物の属性に応じて、適切なタイミングで車両制御を行うことを可能とする。
【図面の簡単な説明】
【0014】
【
図1】実施形態1にかかる運転支援装置の構成を示すブロック図である。
【
図2】実施形態1にかかる運転支援装置が行う処理を示すフローチャートである。
【
図3】実施形態2にかかる運転支援システムの構成を示す図である。
【
図4】実施形態2にかかる運転支援装置の構成を示すブロック図である。
【
図5】実施形態2にかかる属性の一例を示す図である。
【
図6】実施形態2にかかるタイミング情報の一例であるタイミング表のイメージを示す図である。
【
図7】実施形態2にかかる属性とタイミング表との対応関係の一例を示す図である。
【
図8】実施形態2にかかる運転支援装置が行う処理を示すフローチャートである。
【
図9】実施形態2にかかる運転支援装置を実現するコンピュータのハードウエア構成を例示するブロック図である。
【発明を実施するための形態】
【0015】
以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されている。説明の明確化のため、必要に応じて重複説明は省略される。
【0016】
<実施形態1>
まず、
図1を参照して、実施形態1について説明する。
図1は、本実施形態にかかる運転支援装置100の構成を示すブロック図である。運転支援装置100は、検出部101、算出部102、推定部103、及び決定部104を備えている。
【0017】
検出部101は、車両の周囲を撮影した画像から人物を検出する。算出部102は、画像に基づいて、車両と人物との位置関係を算出する。推定部103は、撮影画像に基づいて、事故の起こりやすさに関する人物の属性を推定する。決定部104は、位置関係及び属性に基づいて、所定の車両制御のタイミングを決定する。
【0018】
運転支援装置100は、図示しない構成としてプロセッサ、メモリ及び記憶装置を備えている。当該記憶装置には、本実施形態にかかる処理が実装されたコンピュータプログラムが記憶されている。プロセッサは、記憶装置からコンピュータプログラムをメモリへ読み込ませ、当該コンピュータプログラムを実行することができる。これにより、プロセッサは、検出部101、算出部102、推定部103、及び決定部104の機能を実現する。
【0019】
または、検出部101、算出部102、推定部103、及び決定部104は、それぞれが専用のハードウエアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、量子プロセッサ(量子コンピュータ制御チップ)等を用いることができる。
【0020】
また、運転支援装置100の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、運転支援装置100の機能がSaaS(Software as a Service)形式で提供されてもよい。
【0021】
図2を参照して運転支援装置100が行う処理を説明する。
図2は、運転支援装置100が行う処理を示すフローチャートである。
【0022】
検出部101は、車両の周囲を撮影した画像から人物を検出する(S1)。算出部102は、撮影画像に基づいて、車両と人物との位置関係を算出する(S2)。推定部103は、撮影画像に基づいて、事故の起こりやすさに関する人物の属性を推定する(S3)。決定部104は、位置関係及び属性に基づいて、所定の車両制御のタイミングを決定する(S4)。
【0023】
運転支援装置10は、決定されたタイミングに従い所定の車両制御を行う。このようにすることで、本実施形態にかかる運転支援装置100によれば、車両周囲に存在する人物の属性に応じて、適切なタイミングで車両制御を行うことが可能である。
【0024】
<実施形態2>
続いて、実施形態2について説明する。実施形態2は、上述した実施形態1の具体例である。まず、
図3を参照して、本実施形態にかかる運転支援システム1について説明する。
図3は、運転支援システム1の構成を示す図である。
【0025】
運転支援システム1は、車両2に搭載されたカメラ5及び運転支援装置10を備えている。運転支援システム1は、カメラ5で撮影された画像を運転支援装置10が取得し、運転支援装置10において所定の処理を行うことで、運転支援を実現する情報処理装置システムである。
図3に示されるX軸は車両2の車幅方向、Y軸は車両2の長さ方向をそれぞれ示している。ここでは、Y軸正方向側が車両2の進行方向である。
【0026】
カメラ5は、車両2から所定の方向に向けて撮影を行い、撮影画像を取得する撮影装置である。
図3の例では、カメラ5は車両2の前方に位置する歩行者Pを含む範囲を撮影する。カメラ5は、例えば、運転席前方の上部、助手席前方の上部、又はその他の位置に設けられ得る。
図3では、カメラ5は運転席前方の上部に設けられている。
【0027】
カメラ5は、車両2の周囲を撮影する。カメラ5は車両2の外部及び内部の両方を撮影し得る。カメラ5は、固定された所定の方向を撮影するカメラであってもよいし、全周囲カメラであってもよい。また
図3ではカメラ5が1つである例を用いているが、カメラ5は複数設けられてもよい。カメラ5は、例えば、運転席前方の上部及び運転席後方の上部に設けられて、車両2の前方及び後方に向かってそれぞれ撮影するように構成されてもよい。カメラ5の位置、数、及び撮影範囲はこれらに限定されない。
【0028】
カメラ5が取得する撮影画像は、静止画像であってもよいし、動画像であってもよい。なお、本開示において、「画像」はその画像のデータである画像データを意味する場合も含む。すなわち、カメラ5が取得する撮影画像は、「撮影画像の画像データ」を意味する場合も含む。例えば、運転支援装置10において、検出部11は撮影画像にかかる画像データを取得する。
【0029】
カメラ5は、取得した撮影画像を運転支援装置10に出力する。なお、本実施形態では、カメラ5として2次元画像を取得することが可能なカメラを用いて説明を行う。これに限らず、カメラ5に代えて、又はカメラ5と共に、周辺の空間を3次元的にスキャンすることが可能な測距センサを用いてもよい。
【0030】
測距センサは、車両2の周囲に存在する物体までの距離を測定するセンサである。測距センサは、例えばLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)であってよい。この場合、測距センサは車両2の周囲にレーザ光を送信し、人物や物体で反射されたレーザ光を受信することで周囲の人物や物体を検出する。測距センサはLIDARを全方位にスキャンし、車両周囲の物体の3次元点群データを取得する。測距センサは3次元点群データを運転支援装置10に出力する。
【0031】
またLIDARに限らず、ステレオカメラ、ToF(Time of Flight)カメラ、ミリ波レーダなどのような、対象物との距離を測定可能な各種センサが測距センサとして用いられてもよい。なお測距センサは、上述のカメラ5の機能を兼ね備えていてもよい。カメラ5及び測距センサを併用することで、人物の認識精度を向上させることができる。
【0032】
続いて、
図4を参照して運転支援装置10の構成について説明する。
図4は運転支援装置10の構成を示すブロック図である。また適宜、
図3を参照して説明を行う。
【0033】
運転支援装置10は、上述した運転支援装置100の一例である。運転支援装置10は、本実施形態にかかる運転支援方法を実行することが可能な情報処理装置である。運転支援装置10は、例えば、PC(Personal Computer)又はタブレット端末などであってよい。
【0034】
運転支援装置10は、検出部11、算出部12、推定部13、決定部14、車両制御部15、及び記憶部19を備えている。
【0035】
検出部11は、上述した検出部101の一例である。検出部11は、車両2の周囲を撮影した画像から人物を検出する。検出部11は、公知の画像認識技術などを用いて、撮影画像中の人物を検出することができる。
【0036】
ここで、人物は、車両2の周囲に存在する人である。人物は、例えば歩行者である。これに限らず、人物は、自転車又はバイクなどに乗車している人を含み得る。また、人物は移動補助具を使用している人を含み得る。移動補助具は、例えば車椅子、歩行器、又は歩行車などである。歩行車は、例えば
図3に示されるシルバーカーなどである。
【0037】
また検出部11は、人物に対応付けられた物品を検出し得る。物品は、例えば、人物が身に着けている物、所持している物、又は使用している物などであってよい。物品の例としては、例えば、ランドセル、スマートフォン、携帯電話端末、タブレット端末、スケートボード、ボール、又は上述した移動補助具などがある。
【0038】
また検出部11は、撮影画像に基づいて人物の動きを検出し得る。人物の動きは、例えば、人物が複数人で会話をしている、道路を横断しようとしている、又は歩きながらスマートフォンなどを操作している、などの動作を含み得る。また検出部11は、異なるタイミングで撮影された複数の画像に基づいて、人物の移動速度を検出する。検出部11は、複数の画像に基づいて、人物の移動方向を検出してもよい。
【0039】
また検出部11は、撮影画像から複数の人物を検出し得る。複数の人物は、例えば親子、登下校中の子供、又は会話をしながら一緒に歩く友人同士、などである。検出部11は、画像中の人物同士の距離を算出し、所定の距離を保って共に移動する複数の人物を検出してもよい。これにより、検出部11は、互いに近傍に位置する複数の人物を検出する。
【0040】
算出部12は、上述した算出部102の一例である。算出部12は、撮影画像に基づいて、車両2と人物との位置関係を算出(推定)する。算出部12は、公知の画像認識技術を用いて位置関係を算出してよい。
【0041】
ここで、位置関係は、車両2の位置と人物の位置との関係を示す情報である。位置関係は、車両2と人物との間の距離の情報を含み得る。また位置関係は、車両2に対して人物が位置する方向の情報を含み得る。さらに、位置関係は、車両2の進路と人物とのオーバーラップ(重なり)の度合いを示すオーバーラップ情報を含み得る。
【0042】
算出部12は、撮影画像を分析することで、車両2と人物との間の距離、人物が位置する方向、及びオーバーラップ情報のそれぞれを算出し得る。算出部12はこれらのうち一部を位置関係として算出してもよいし、全部を位置関係として算出してもよい。
【0043】
算出部12は、例えば、撮影画像における人物の画像サイズに基づいて、車両2と人物との距離を算出する。算出部12は、例えば、撮影画像中における人物の画像サイズと、当該人物の距離と、を対応付けたデータを参照することで、車両2から人物までの距離を算出する。これに限らず、算出部12は他の方法を用いて距離を算出してもよい。
【0044】
また算出部12は、例えば、車両2の進行方向と、人物が存在する方向と、の角度差を求めることで人物が位置する方向を算出する。算出部12は、例えば、撮影画像中における人物の位置を示す座標と、撮影画像の中心座標と、の差分を算出する。算出部12は、当該差分と、角度差と、を対応付けたデータを参照することで、車両2に対する人物の方向を算出する。これに限らず、算出部12は他の方法を用いて人物が位置する方向を算出してもよい。
【0045】
そして算出部12は、撮影画像に基づいて、車両2の進路と人物とのオーバーラップの度合いを示すオーバーラップ情報を算出する。本実施形態では、オーバーラップ情報の一例として、オーバーラップ率(以下、「ラップ率」と称する)Lを用いて説明する。
【0046】
図3の例において、車両2の車幅をD1とし、車幅方向において車両2と歩行者Pとが重なる長さをD2とする。この場合、ラップ率Lは以下の計算式(1)で表すことができる。
L=D2/D1・・・(1)
【0047】
車両2と歩行者Pとの距離が同じ場合、ラップ率Lが高ければ高いほど、車両2と歩行者Pとの衝突の可能性が高くなる。そのため、後述する決定部14において、より早いタイミングでブレーキなどの車両制御を行う必要がある。
【0048】
図4に戻り説明を続ける。算出部12は、撮影画像に基づいて、車両2と人物との相対距離を算出する。さらに算出部12は、撮影画像に基づいて、車両2と人物との相対速度を算出する。なお、撮影画像に複数の人物が含まれる場合、算出部12は車両2と複数の人物の位置関係をそれぞれ算出する。
【0049】
なお、ここではカメラ5で取得された撮影画像に基づいて位置関係を算出する例を説明したが、これに限られない。算出部12は、測距センサで取得された距離情報に基づいて位置関係を算出してもよい。または、算出部12は、カメラ5及び測距センサの両方を用いて位置関係を算出してもよい。これにより精度よく車両2と人物との位置関係を算出することができる。
【0050】
推定部13は、上述した推定部103の一例である。推定部13は、撮影画像に基づいて、事故の起こりやすさに関する人物の属性を推定する。なお、「事故」には、車両2と人物との接触に限らず、接触が起こる可能性が高いシーン(ニアミスなど)を含んでもよい。
【0051】
属性は、例えば、人物の外観、人物の動き、人物に対応付けられた物品、及び人物周辺の環境のうち少なくともいずれか1つを含む人物の特徴を含み得る。また属性は、これらの特徴に基づいて推定される情報であってもよい。推定部13は、これらの属性を公知の画像認識技術などを用いて推定し得る。
【0052】
人物の外観は、例えば、人物の身長、髪の色、顔の特徴、又は姿勢などである。また、属性は、これらの情報に基づいて推定される人物の年齢や性別などであってよい。人物の動きは、例えば、人物がスマートフォンなどを操作する動作又は歩行速度などである。人物に対応付けられた物品は、例えば、移動補助具などである。人物周辺の環境は、例えば横断歩道の有無などである。
【0053】
また推定部13は、検出部11で検出された複数の人物のそれぞれに対応付けられた物品や動きなどを抽出してもよい。また、画像から互いに近傍に位置する複数の人物が検出された場合、推定部13は複数の人物のうち少なくとも1人の属性を推定してもよい。例えば、推定部13は、複数の人物同士で会話をしている、又はふざけ合っているなどの状態を検出し得る。
【0054】
これらは一例であるので、属性の内容はこれらに限られない。属性は、事故の起こりやすさを特定するための種々の特徴を含み得る。なお、属性は事故の起こりにくさに関連する情報を含んでもよい。
【0055】
ここで、
図5を参照して、属性を具体的に説明する。
図5は属性の一例を示す図である。
図5に示されるように、属性は、例えば人物種別、特徴、及び危険シーンの情報を含み得る。
【0056】
人物種別は、画像から検出された人物の種別を示す情報である。人物種別は、例えば図に示されるように、当該人物が子供、高齢者、歩行困難者、及び一般歩行者のうちいずれであるかを識別する情報である。これらは一例であるので、人物種別は他の情報を識別する情報を含んでもよい。また一人の人物が複数の人物種別に該当してもよい。例えば、人物が高齢者であり、かつ、歩行困難者であってもよい。
【0057】
特徴は、撮影画像から推定される人物の特徴である。特徴は、例えば、人物の外観、人物の動き、人物に対応付けられた物品、又は人物周辺の環境などが示す特徴的な情報であってよい。また、これらの特徴に基づいて推定される情報が特徴として用いられてもよい。
【0058】
危険シーンは、事故が起こりやすいと想定される場面である。例えば、人物の意識がボール遊びやスマートフォンなどに向いており、車両2に対する注意が不足していると想定される場面などは危険シーンに該当する。
【0059】
推定部13は、公知の画像認識技術などを用いて、上述した様々な属性を推定し得る。以下では推定部13が推定する属性の一例として
図5に示される例を用いて具体的に説明する。
【0060】
例えば推定部13は、人物の身長に基づいて当該人物の人物種別を推定する。推定部13は、人物の身長が所定の閾値以上であるか否かを判定し、判定結果に応じて人物種別を推定する。閾値は固定されてもよいし適宜変更されてもよい。身長が閾値未満である場合、推定部13は当該人物が子供であると推定し、そうでない場合は当該人物が子供でないと推定する。または推定部13は、複数の人物の中で相対的に身長の低い人物が検出された場合に、当該人物が子供であると推定してもよい。
【0061】
また推定部13は、顔認識を行うことで人物種別を推定してもよい。推定部13は撮影画像から人物の顔領域を検出し、顔画像を用いて年齢推定を行う。推定部13はAI(Artificial Intelligence)技術を用いた公知の顔認識アルゴリズムなどを用いることで人物の年齢推定を行い得る。推定部13は推定された年齢に基づいて当該人物が子供であるか、高齢者であるか、又はそれ以外であるか、を推定する。
【0062】
また、推定部13は、人物の姿勢に基づいて人物種別を推定してもよい。推定部13は、人物の背中が曲がっているか否かを判定し、曲がっている場合は人物が高齢者であると推定する。また推定部13は、人物の髪の色を特定し、髪の色に基づいて人物種別を推定してもよい。例えば、人物が白髪である場合、当該人物が高齢者であると推定する。
【0063】
また、推定部13は、人物に対応付けられた物品に基づいて人物種別を推定してもよい。物品は、人物が身に着けている物、所持している物、使用している物、又は移動補助具などである。
【0064】
例えば人物がランドセルを背負っている場合、推定部13は当該人物が子供であると推定する。また、人物が移動補助具又は車椅子を使用している場合、推定部13は当該人物が歩行困難者であると推定する。移動補助具は、例えば杖、歩行器、又は歩行車などの歩行補助器具である。
【0065】
推定部13は、人物の動きを検出して人物種別を推定してもよい。例えば推定部13は、異なるタイミングで撮影された複数の画像を用いて人物の移動速度を検出し、移動速度に基づいて人物種別を推定する。例えば、人物が歩行者である場合、推定部13は当該人物の歩行速度を検出する。歩行速度が所定の速度未満である場合、推定部13は当該人物を高齢者であると推定する。また推定部13は、周囲の人物の歩行速度と比較して当該推定を行ってもよい。推定部13は上述した姿勢又は髪の色を加味して当該推定を行ってもよい。
【0066】
推定部13は、上述したような特徴が検出されない場合、人物が一般歩行者であると推定する。ここでは、一般歩行者は子供、高齢者、及び歩行困難者のいずれにも該当しない人物を示している。
【0067】
また推定部13は、撮影画像に危険シーンが含まれるか否かを判定し、判定結果を属性として推定し得る。つまり推定部13は、画像中の危険シーンの有無を属性として推定し得る。推定部13は、危険シーンの内容に応じて事故の起こりやすさを推定してもよい。例えば推定部13は、事故の起こりやすさを危険レベルとして特定してもよい。危険レベルは数値化されてもよいし、複数レベルに分類されてもよい。
【0068】
引き続き
図5の例を用いて、危険シーンについて具体的に説明する。例えば、人物種別が子供であると推定されたとする。当該人物がボール遊びをしている、スケートボードに乗っている、又は自転車に乗っている場合、推定部13は画像に危険シーンが含まれると推定する。
【0069】
また例えば、撮影画像から親子等と思われる大人と子供が検出されたとする。推定部13は、子供が親と手をつないでいない場合、画像に危険シーンが含まれると推定する。さらに、ふざけ合う複数の子供が検出された場合、推定部13は画像に危険シーンが含まれると推定する。
【0070】
また人物種別が一般歩行者であると推定されたとする。当該人物が歩きながらスマートフォン等の携帯端末の操作若しくは通話をしている、又は複数の人物が会話をしながら歩いている場合、推定部13は画像に危険シーンが含まれると推定する。
【0071】
また推定部13は、人物周辺の環境を示す環境をさらに推定し、推定された環境に基づいて危険シーンが含まれるか否かを判定し、判定結果に応じて属性を推定してもよい。環境は、例えば、横断歩道の有無、段差の有無、交差点の有無、信号機の色の変化、又は雨や雪などの天気を示す情報などであってよい。
【0072】
例えば、人物種別が高齢者であると推定されたとする。当該人物が横断歩道のない道路を横断しようとしている、又は信号が赤信号に変わろうとしている、などのシーンが検出された場合、推定部13は、画像に危険シーンが含まれると推定する。
【0073】
また人物種別が歩行困難者と推定されたとする。当該人物の周囲に段差などがある場合、推定部13は画像に危険シーンが含まれると推定する。また人物種別が一般歩行者であり、かつ、近くに横断歩道があると推定された場合、推定部13は画像に危険シーンが含まれると推定する。
【0074】
以上、
図5を参照して属性について説明したが、これらは一例である。推定部13は他の情報を属性として推定し得る。推定部13は、属性として、これらのうちいずれか1つの情報を推定してもよいし、2つ以上の情報を推定してもよい。推定部13は、複数の情報を組み合わせることで属性を推定してもよい。例えば推定部13は、検出された人物の身長と顔認識とに基づいて、人物種別を推定する。これにより、身長のみに基づいて推定する場合よりも精度よく人物種別を推定することができる。
【0075】
また撮影画像に複数の人物が含まれており、画像から互いに近傍に位置する複数の人物が検出されたとする。この場合、推定部13は、撮影画像に基づいて、複数の人物のうち少なくとも1人の属性を推定する。
【0076】
例えば、推定部13は、複数の人物の年齢及び動きの少なくとも一方を属性として推定し得る。推定部13は、複数の人物が子供のみである、会話をしている、又はふざけ合っている、などの情報を属性として推定する。
【0077】
図4に戻り説明を続ける。決定部14は、上述した決定部104の一例である。決定部14は、位置関係及び属性に基づいて、所定の車両制御のタイミングを決定する。なお、以下では、所定の車両制御のタイミングを単に「制御タイミング」と称して説明する場合がある。
【0078】
所定の車両制御は、事故発生の可能性を低減させるために車両2に対して行う制御である。所定の車両制御は、例えば、車両2に対するブレーキ介入、及び車両2の運転者に対する警告の少なくとも一方を含み得る。所定の車両制御は、ブレーキ介入及び運転者への警告の両方が含まれてもよい。ブレーキ介入及び警告の両方を行うことで、事故発生の可能性をより低減させることができる。
【0079】
決定部14は、車両2の位置関係及び属性に対応する事故発生の可能性が大きくなるにつれ、車両制御のタイミングが早くなるように、制御タイミングを決定する。
【0080】
決定部14は、位置関係及び属性のほか、車両2の速度にさらに基づいて制御タイミングを決定してもよい。決定部14は、車両2の速度が大きくなるにつれ、制御タイミングが早くなるように制御タイミングを決定する。
【0081】
また決定部14は、車両2の進路と人物とのオーバーラップの度合いが大きくなるにつれ、制御タイミングが早くなるように、制御タイミングを決定する。
【0082】
決定部14は、予め規定されたタイミング情報に基づいてタイミングを決定し得る。タイミング情報は、位置関係及び車両の速度の少なくとも一方と、制御タイミングと、が予め対応付けられたものである。タイミング情報は、所定のデータ表を用いて運転支援装置10に保持され得る。
【0083】
タイミング情報は、属性に応じて規定された複数のタイミング表を含んでもよい。決定部14は、複数のタイミング表の中から人物の属性に応じたタイミング表を選択して制御タイミングを決定する。
【0084】
ここで、
図6を参照してタイミング情報について説明する。
図6は、タイミング情報の一例であるタイミング表191のイメージを示す図である。タイミング表191は、記憶部19に予め格納され、保持され得る。
【0085】
タイミング表191は、ラップ率L及び相対速度Vに応じて、制御タイミングとしての相対距離閾値Thが規定されている。相対距離閾値Thは、車両制御を行うか否かを判定するために設定される閾値である。例えば、相対距離閾値Thが3mである場合、車両2と人物との相対距離が3m以下となった場合、運転支援装置10はブレーキ介入又は運転者への警告などの車両制御を行う。
【0086】
ラップ率Lは、車両2の進路と人物とのオーバーラップの度合いを示す情報であり、上述した計算式(1)を用いて算出することができる。相対速度Vは、車両2と人物との相対速度である。決定部14は、算出部12からラップ率L及び相対速度Vを取得し、タイミング表191を参照してラップ率L及び相対速度Vに対応付けられた相対距離閾値Thを取得する。決定部14は、相対距離閾値Thを制御タイミングとして決定する。
【0087】
例えば、
図6の例において、ラップ率Lが0、相対速度Vが10km/hであるとする。この場合、相対距離閾値Thは3mである。よって、決定部14は、「車両2と人物との相対距離が3m以下となったタイミング」を、制御タイミングとして決定する。
【0088】
図に示されるように、タイミング表191は、ラップ率Lが大きくなるにつれ、相対距離閾値Thが大きくなるように規定されている。これにより決定部14は、車両2の進路と人物とのオーバーラップの度合いが大きくなるにつれ、より早く車両制御が行われるように、制御タイミングを決定することができる。
【0089】
また同様に、タイミング表191は、相対速度Vが大きくなるにつれ、相対距離閾値Thが大きくなるように規定されている。これにより決定部14は、相対速度Vが大きくなるにつれ、より早く車両制御が行われるように、制御タイミングを決定することができる。
【0090】
決定部14は、ラップ率L及び相対速度Vを随時取得して制御タイミングを決定する。このようにすることで、決定部14は、車両2と人物とのラップ率L及び相対速度Vの変化に応じて適切なタイミングを決定することができる。
図6に示されるタイミング表191のイメージに記載された数字は一例であるので適宜変更されてよい。タイミング表191は、図に示されるラップ率L、相対速度V、及び相対距離閾値Thのそれぞれを適宜チューニングすることで規定されてよい。
【0091】
また、タイミング表191は、属性に応じて規定されてもよい。すなわち、タイミング表191は、複数の属性のそれぞれに応じて、異なる制御タイミングが規定され得る。
【0092】
図7は、属性とタイミング表191との対応関係の一例を示す図である。ここでは属性の1つである人物種別と、複数のタイミング表191-1~191-10と、の対応関係を示している。ここでは、子供、高齢者、歩行困難者、一般歩行者(危険シーンあり)、及び一般歩行者(危険シーンなし)の5つの人物種別を示している。
【0093】
また各人物種別には、ブレーキ介入及び運転者への警告の2つの車両制御が対応付けられている。したがって、属性と車両制御との組み合わせにより、全部で10パターンのタイミング表191-1~191-10が規定されている。
【0094】
決定部14は、画像から検出された人物の属性に応じて、複数のタイミング表191-1~191-10から1つを選択して制御タイミングを決定する。言い換えると、決定部14は、人物の属性に応じて複数のタイミング表191-1~191-10を切り替えて制御タイミングを決定する。
【0095】
タイミング表191-1~191-10は、上述した相対距離閾値Thをそれぞれでチューニングすることで規定される。これにより、決定部14は、属性に応じた相対距離閾値Thを規定することができる。
【0096】
またブレーキ介入と警告とで異なる相対距離閾値Thを規定することができるので、決定部14は、より柔軟に制御タイミングを決定することができる。例えば、ブレーキ介入よりも早いタイミングで警告を行うようにタイミング表191-1~191-10を規定することで、より事故発生の可能性を低減することができる。
【0097】
なお、タイミング表191-1~191-10は、
図7に示されるように属性ごとに規定されてもよいし、複数の属性を1つのグループとして、グループごとに規定されてもよい。
【0098】
また、撮影画像に複数の人物が検出された場合、決定部14は、複数の人物のうち少なくとも1人の位置関係及び属性に基づいて制御タイミングを決定する。例えば、画像から親子等と思われる大人と子供が検出されたとする。決定部14は、親の属性と子供の属性とを比較して、より事故が起こりやすい子供の位置関係及び属性に基づいて制御タイミングを決定するなどしてよい。
【0099】
図4に戻り説明を続ける。車両制御部15は、決定部14で決定された制御タイミングに従い、車両2に対して所定の車両制御を行う。例えば、車両制御部15は、車両2に設けられた図示しない車両制御ECU(Electronic Control Unit)と接続されている。車両制御ECUは、車両2の制御を行う制御装置である。
【0100】
車両制御部15と車両制御ECUとは、例えばCAN(Controller Area Network)通信線、又は無線通信網などを用いて互いに接続されてよい。車両制御部15は、決定された制御タイミングに従い車両制御ECUに指示を行う。これにより、車両制御ECUは車両2を制御する。車両制御ECUは、例えば、車両2の加減速制御を行うパワーユニット制御ECU及びブレーキECUなどを含み得る。例えば、ブレーキECUは、決定された制御タイミングに従い、ブレーキを制御する。
【0101】
また、車両制御部15は、決定された制御タイミングに応じて運転者に対し警告を行う。運転者への警告は、情報を視覚的又は音響的に出力するものであってよい。例えば車両制御部15は、警告メッセージを表示するディスプレイなどの表示装置、又は警告メッセージを音声により出力するスピーカなどの音声出力装置などを備えている。車両制御部15は、車両2に予め設けられた表示装置又は音声出力装置を制御するように構成されてもよい。車両制御部15は、例えば「前方10mに子供がいます。注意してください。」などのメッセージを表示する又は音声出力することで運転者に対し警告を行う。上記は警告の一例であるので、車両制御部15は他の方法で警告を行ってもよい。
【0102】
記憶部19は、上述したタイミング表191を記憶する。タイミング表191は、複数のタイミング表191-1~191-10を含み得る。タイミング表191の数は10に限定されない。また記憶部19は、本実施形態にかかる運転支援方法の処理が実装されたコンピュータプログラムを記憶する。
【0103】
以上、運転支援システム1の各構成について説明したが、上述した構成は一例に過ぎず適宜変更することができる。例えば、運転支援システム1は、
図3及び
図4に示される構成例に限定されない。運転支援システム1は、複数の構成が集約された装置などを用いて構成されてもよい。例えば、カメラ5及び運転支援装置10の機能が同一の装置に集約されていてもよい。
【0104】
また、運転支援装置10における各機能部は、複数の装置などを用いて分散処理されてもよい。例えば、検出部11、算出部12、推定部13、決定部14、車両制御部15、及び記憶部19の機能うち、一部が他の装置を用いて実現されてもよい。例えば、他の装置が検出部11の機能を備えており、当該他の装置が画像中の人物を検出し、検出結果を運転支援装置10に出力するなどしてもよい。
【0105】
また、上述した各機能部が実行する処理は、機械学習済みのモデルを用いて実現されてもよい。例えば、決定部14は、ニューラルネットワーク(neural network)を導入したAIなどを用いて生成された学習済みモデルを用いて、制御タイミングを決定してもよい。当該学習済みモデルは、位置関係及び属性を入力とし、制御タイミングを出力するように、予め学習され得る。決定部14は、位置関係及び属性を当該学習済みモデルに入力することで、当該学習済みモデルから制御タイミングを取得する。これにより、決定部14は、タイミング表191に代えて、当該学習済みモデルを用いることで制御タイミングを決定することができる。
【0106】
続いて、
図8を参照して、運転支援装置10が行う処理を説明する。
図8は、運転支援装置10が行う処理を示すフローチャートである。
【0107】
まず、検出部11は、車両の周囲を撮影した画像をカメラ5から取得する(S11)。次に、検出部11は撮影画像から人物を検出する(S12)。検出部11は、撮影画像から複数の人物を検出してもよい。
【0108】
続いて算出部12は、撮影画像に基づいて、車両2と人物との位置関係及び相対速度を算出する(S13)。位置関係は、車両2と人物との間の距離の情報を含み得る。また位置関係は、車両2に対して人物が位置する方向の情報を含み得る。さらに、位置関係は、車両2の進路と人物とのオーバーラップの度合いを示すラップ率Lを含んでもよい。
【0109】
続いて、推定部13は、撮影画像に基づいて、事故の起こりやすさに関する人物の属性を推定する(S14)。属性は、人物の外観、人物の動き、人物に対応付けられた物品、及び人物周辺の環境のうち少なくともいずれか1つを含む人物の特徴、又は、特徴に基づいて推定される情報を含み得る。
【0110】
属性は、
図5に示される一例のように、身長が周囲の人より低い、ランドセルを背負っている、白髪である、又は車椅子に乗っている、などの情報である。また属性は、顔認識などの技術を用いて推定された年齢や性別などであってもよい。また属性は、ボール遊びをしている、又はスマートフォンなどを操作しながら歩いている、などの情報であってもよい。
【0111】
推定部13は、撮影画像から互いに近傍に位置する複数の人物が検出された場合、撮影画像に基づいて複数の人物のうち少なくとも1人の属性を推定する。したがって例えば、属性は、子供と親が手をつないでいない、複数人が会話をしながら歩いているなどの情報であってもよい。
【0112】
続いて決定部14は、位置関係、相対速度、及び属性に基づいて、所定の車両制御のタイミングを決定する(S15)。決定部14は、車両2の位置関係、相対速度、及び属性に対応する事故発生の可能性が大きくなるにつれ、車両制御のタイミングが早くなるように、制御タイミングを決定する。
【0113】
決定部14は、
図6に示されるタイミング表191を参照して、制御タイミングを決定し得る。タイミング表191は、位置関係としてのラップ率L、車両2と人物との相対速度V、及び制御タイミングとしての相対距離閾値Thが予め対応付けられた情報である。タイミング表191は、ラップ率L及び相対速度Vの少なくともいずれか一方が大きくなるにつれ制御タイミングが早くなるように、相対距離閾値Thが規定されている。
【0114】
また決定部14は、
図7に示される複数のタイミング表191-1~191-10から、人物の属性に応じたタイミング表を選択して制御タイミングを決定してもよい。これにより、決定部14は、人物の属性に応じた相対距離閾値Thを決定する。
【0115】
続いて、車両制御部15は、車両2と人物との相対距離を取得する(S16)。車両制御部15は、相対距離が相対距離閾値Th以下であるか否かを判定する(S17)。
【0116】
相対距離が相対距離閾値Thより大きい場合(S17のNO)、車両制御部15はステップS19に処理を進める。相対距離が相対距離閾値Th以下である場合(S17のYES)、車両制御部15は車両制御を実行する(S18)。車両制御は、ブレーキ介入又は運転者に対する警告である。または、車両制御はブレーキ介入及び警告の両方であってもよい。車両制御部15は、図示しない車両制御ECUに指示を行うなどして車両制御を実行する。車両制御の実行後、車両制御部15はステップS16に戻り、処理を繰り返す。これにより、車両制御部15は、車両2と検出された人物との相対距離を監視する。
【0117】
相対距離が相対距離閾値Thより大きい場合(S17のNO)、車両制御部15は、相対距離の監視を継続するか否かを判定する(S19)。車両制御部15は、監視を継続する場合(S19のYES)はステップS16の処理に戻り、監視を継続しない場合(S19のNO)はステップS20に処理を進める。車両制御部15は、車両2と人物との位置関係に応じて監視を継続するか否かを判定し得る。例えば、ステップS18においてブレーキ介入があったために監視の必要がなくなった場合などには、車両制御部15は、監視を継続しないと判定してもよい。
【0118】
そして、車両制御部15は、運転者が車両2の運転を終了するか否かを判定する(S20)。車両制御部15は、運転を終了する場合(S20のYES)は本処理を終了し、終了しない場合(S20のNO)はステップS11の処理に戻り、以降の処理を繰り返す。
【0119】
以上説明したように、本実施形態にかかる運転支援システム1では、車両2に設けられたカメラ5が車両周囲を撮影し、撮影画像を運転支援装置10に出力する。運転支援装置10は、撮影画像に基づいて、所定の処理を実行することで車両制御のタイミングを決定する。運転支援装置10は、撮影画像から人物を検出し、車両と人物との位置関係を算出し、事故の起こりやすさに関する人物の属性を推定する。また運転支援装置10は、位置関係及び属性に基づいて、所定の車両制御のタイミングを決定する。
【0120】
このように、本実施形態にかかる運転支援装置10は、カメラ認識による歩行者認識、歩行者距離推定、歩行者身長推定、及びAIによる歩行者特徴認識の組み合わせなどを用いて、歩行者の属性に応じて、自動ブレーキ介入や警告のタイミングを変化させることができる。運転支援装置10では、歩行者の特徴を認識することができるので、例えば、子供、高齢者、歩行困難者、又は一般歩行者などを識別して、それぞれに応じた運転支援を行うことができる。
【0121】
よって、運転支援装置10によれば、運転者から見えにくく、かつ飛び出しの可能性の高い子供や、周囲の交通状況に気付きにくい高齢者に対して、一般歩行者よりも早いタイミングで車両制御を行うことができる。また、運転支援装置10によれば、一般歩行者であっても、会話やスマートフォンの操作などを行っているような危険シーンが検出された場合に、早いタイミングで車両制御を行うことができる。
【0122】
したがって、本実施形態にかかる運転支援システム1によれば、車両周囲に存在する人物の属性に応じて、適切なタイミングで車両制御を行い、車両及び周囲の人物に発生し得る危険を低減することができる。
【0123】
<ハードウエアの構成例>
運転支援装置10の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、運転支援装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について説明する。
【0124】
図9は、運転支援装置10を実現するコンピュータ900のハードウエア構成を例示するブロック図である。コンピュータ900は、運転支援装置10を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。コンピュータ900は、スマートフォンやタブレット端末などといった可搬型のコンピュータであってもよい。
【0125】
例えば、コンピュータ900に対して所定のアプリケーションをインストールすることにより、コンピュータ900で、運転支援装置10の各機能が実現される。上記アプリケーションは、運転支援装置10の機能構成部を実現するためのプログラムで構成される。
【0126】
コンピュータ900は、バス902、プロセッサ904、メモリ906、ストレージデバイス908、入出力インタフェース910、及びネットワークインタフェース912を有する。バス902は、プロセッサ904、メモリ906、ストレージデバイス908、入出力インタフェース910、及びネットワークインタフェース912が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ904などを互いに接続する方法は、バス接続に限定されない。
【0127】
プロセッサ904は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ906は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス908は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
【0128】
入出力インタフェース910は、コンピュータ900と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース910には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
【0129】
ネットワークインタフェース912は、コンピュータ900をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。
【0130】
ストレージデバイス908は、運転支援装置10の各機能構成部を実現するプログラム(前述したアプリケーションを実現するプログラム)を記憶している。プロセッサ904は、このプログラムをメモリ906に読み出して実行することで、運転支援装置10の各機能構成部を実現する。
【0131】
プロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又はそれ以上のプログラムを実行する。このプログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)又は実体のある記憶媒体(tangible storage medium)に格納されてもよい。限定ではなく例として、非一時的なコンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、又はその他の形式の伝搬信号を含む。
【0132】
なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述した実施形態は任意に組み合わせて実行可能である。
【0133】
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
車両の周囲を撮影した画像から人物を検出する検出部と、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出部と、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定部と、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定部と、を備える
運転支援装置。
(付記2)
前記属性は、前記人物の外観、前記人物の動き、前記人物に対応付けられた物品、及び前記人物周辺の環境のうち少なくともいずれか1つを含む前記人物の特徴、又は、前記特徴に基づいて推定される情報を含む
付記1に記載の運転支援装置。
(付記3)
前記位置関係は、前記車両の進路と前記人物とのオーバーラップの度合いを示すオーバーラップ情報を含み、
前記決定部は、前記オーバーラップの度合いが大きくなるにつれ前記タイミングが早くなるように、前記タイミングを決定する
付記1又は2に記載の運転支援装置。
(付記4)
前記決定部は、前記車両の速度にさらに基づいて前記タイミングを決定する
付記1~3のいずれか1項に記載の運転支援装置。
(付記5)
前記決定部は、前記位置関係及び前記車両の速度の少なくとも一方と、前記タイミングと、が予め対応付けられたタイミング情報に基づいて前記タイミングを決定する
付記1~4のいずれか1項に記載の運転支援装置。
(付記6)
前記タイミング情報は、前記属性に応じて規定された複数のタイミング表を含み、
前記決定部は、前記人物の属性に応じた前記タイミング表を選択して前記タイミングを決定する
付記5に記載の運転支援装置。
(付記7)
前記推定部は、前記画像から互いに近傍に位置する複数の人物が検出された場合、前記画像に基づいて、前記複数の人物のうち少なくとも1人の属性を推定し、
前記決定部は、前記複数の人物のうち少なくとも1人の前記位置関係及び前記属性に基づいて、前記タイミングを決定する
付記1~6のいずれか1項に記載の運転支援装置。
(付記8)
前記所定の車両制御は、ブレーキ介入及び運転者に対する警告の少なくとも一方を含む
付記1~7のいずれか1項に記載の運転支援装置。
(付記9)
車両の周囲を撮影するカメラと、
運転支援装置と、を備え、
前記運転支援装置は、
前記カメラから画像を取得して前記画像から人物を検出する検出部と、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出部と、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定部と、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定部と、を有する
運転支援システム。
(付記10)
前記属性は、前記人物の外観、前記人物の動き、前記人物に対応付けられた物品、及び前記人物周辺の環境のうち少なくともいずれか1つを含む前記人物の特徴、又は、前記特徴に基づいて推定される情報を含む
付記9に記載の運転支援システム。
(付記11)
コンピュータが、
車両の周囲を撮影した画像から人物を検出する検出ステップと、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出ステップと、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定ステップと、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定ステップと、を実行する
運転支援方法。
(付記12)
前記属性は、前記人物の外観、前記人物の動き、前記人物に対応付けられた物品、及び前記人物周辺の環境のうち少なくともいずれか1つを含む前記人物の特徴、又は、前記特徴に基づいて推定される情報を含む
付記11に記載の運転支援方法。
(付記13)
車両の周囲を撮影した画像から人物を検出する検出ステップと、
前記画像に基づいて、前記車両と前記人物との位置関係を算出する算出ステップと、
前記画像に基づいて、事故の起こりやすさに関する前記人物の属性を推定する推定ステップと、
前記位置関係及び前記属性に基づいて、所定の車両制御のタイミングを決定する決定ステップと、をコンピュータに実行させる
プログラム。
(付記14)
前記属性は、前記人物の外観、前記人物の動き、前記人物に対応付けられた物品、及び前記人物周辺の環境のうち少なくともいずれか1つを含む前記人物の特徴、又は、前記特徴に基づいて推定される情報を含む
付記13に記載のプログラム。
【符号の説明】
【0134】
1 運転支援システム
2 車両
5 カメラ
10 運転支援装置
11 検出部
12 算出部
13 推定部
14 決定部
15 車両制御部
19 記憶部
100 運転支援装置
101 検出部
102 算出部
103 推定部
104 決定部
191、191-1~191-10 タイミング表
900 コンピュータ
902 バス
904 プロセッサ
906 メモリ
908 ストレージデバイス
910 入出力インタフェース
912 ネットワークインタフェース
P 歩行者
L オーバーラップ率
V 相対速度
Th 相対距離閾値