特許第6497915号(P6497915)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通テン株式会社の特許一覧

<>
  • 特許6497915-運転支援システム 図000002
  • 特許6497915-運転支援システム 図000003
  • 特許6497915-運転支援システム 図000004
  • 特許6497915-運転支援システム 図000005
  • 特許6497915-運転支援システム 図000006
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6497915
(24)【登録日】2019年3月22日
(45)【発行日】2019年4月10日
(54)【発明の名称】運転支援システム
(51)【国際特許分類】
   G08G 1/16 20060101AFI20190401BHJP
   B60W 40/09 20120101ALI20190401BHJP
【FI】
   G08G1/16 C
   B60W40/09
【請求項の数】6
【全頁数】13
(21)【出願番号】特願2014-248270(P2014-248270)
(22)【出願日】2014年12月8日
(65)【公開番号】特開2016-110449(P2016-110449A)
(43)【公開日】2016年6月20日
【審査請求日】2017年12月4日
(73)【特許権者】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】100089118
【弁理士】
【氏名又は名称】酒井 宏明
(72)【発明者】
【氏名】露梨 真史
(72)【発明者】
【氏名】大和 俊孝
(72)【発明者】
【氏名】田中 省吾
(72)【発明者】
【氏名】橋本 欣和
(72)【発明者】
【氏名】太田 崇史
【審査官】 白石 剛史
(56)【参考文献】
【文献】 特開2009−205645(JP,A)
【文献】 特開2007−108926(JP,A)
【文献】 特開2008−250775(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/16
B60W 40/09
(57)【特許請求の範囲】
【請求項1】
複数の運転者の過去の挙動の履歴である挙動履歴を記憶する履歴記憶部と、
前記履歴記憶部に記憶された挙動履歴に基づいて、前記複数の運転者のうち所定の運転者に対応する個別の挙動推移のパーソナル挙動推定モデルと、前記複数の運転者の中で共通する挙動推移の共通挙動推定モデルとを生成するモデル生成部と、
前記所定の運転者の現在の挙動を検出する挙動検出部と、
前記挙動検出部によって検出された前記挙動の推移を、現在の走行経路に対応する前記パーソナル挙動推定モデルおよび前記共通挙動推定モデルと比較して不安全状態を判定する状態判定部と、
前記状態判定部により前記不安全状態が判定された場合に、前記所定の運転者への報知を行う報知部と、を備える
ことを特徴とする運転支援システム。
【請求項2】
複数の運転者の過去の挙動の履歴である挙動履歴を記憶する履歴記憶部と、
前記履歴記憶部に記憶された挙動履歴に基づいて、前記複数の運転者のうち所定の運転者に対応する個別の挙動推移のパーソナル挙動推定モデルと、前記複数の運転者の中で共通する挙動推移の共通挙動推定モデルとを生成するモデル生成部と、
前記所定の運転者の現在の挙動を検出する挙動検出部と、
前記挙動検出部によって検出された前記挙動の推移と現在の走行経路に対応する前記パーソナル挙動推定モデルとを比較して不安全状態を判定する状態判定部と、
前記状態判定部により前記不安全状態が判定された場合に、前記所定の運転者への報知を行う報知部と、を備え
前記状態判定部は、
前記モデル生成部によって前記現在の走行経路に対応する前記パーソナル挙動推定モデルが生成されていない場合、前記挙動検出部によって検出された前記挙動の推移と前記現在の走行経路に対応する前記共通挙動推定モデルとを比較して不安全状態を判定する
ことを特徴とする運転支援システム。
【請求項3】
複数の運転者の過去の挙動の履歴である挙動履歴を記憶する履歴記憶部と、
前記履歴記憶部に記憶された挙動履歴に基づいて、前記複数の運転者のうち所定の運転者に対応する個別の挙動推移のパーソナル挙動推定モデルと、前記複数の運転者の中で共通する挙動推移の共通挙動推定モデルとを生成するモデル生成部と、
前記所定の運転者の現在の挙動を検出する挙動検出部と、
前記挙動検出部によって検出された前記挙動の推移を、現在の走行経路に対応する前記パーソナル挙動推定モデルおよび前記共通挙動推定モデルと比較して不安全状態を判定する状態判定部と、
前記状態判定部により前記不安全状態が判定された場合に、前記所定の運転者への報知を行う報知部と、
運転を注意すべき場所を示す注意場所の情報を記憶する場所情報記憶部と、を備え
前記モデル生成部は、
前記複数の運転者のうち前記注意場所に関連する運転者の挙動履歴に基づいて、前記共通挙動推定モデルを生成する
ことを特徴とする運転支援システム。
【請求項4】
運転を注意すべき場所を示す注意場所の情報を記憶する場所情報記憶部を備え、
前記状態判定部は、
前記注意場所の情報に基づいて、前記所定の運転者への報知を行うタイミングを決定する
ことを特徴とする請求項1〜3のいずれか1つに記載の運転支援システム。
【請求項5】
複数の運転者の前記挙動履歴に基づいて前記注意場所を判定する注意場所判定部を備え、
前記場所情報記憶部は、
前記注意場所判定部によって判定された前記注意場所を記憶する
ことを特徴とする請求項に記載の運転支援システム。
【請求項6】
前記運転者の挙動は、
前記運転者の視線および前記運転者の運転操作のうち少なくとも一つを含む
ことを特徴とする請求項1〜のいずれか1つに記載の運転支援システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、運転支援システムに関する。
【背景技術】
【0002】
従来、居眠り運転や脇見運転などの不安全状態を検出し、運転者に対して警告を行う運転支援システムが知られている。例えば、特許文献1には、不適切運転が行われているレベル(度合い)を計測し、かかるレベルが警告レベルに達すると警告を行う運転支援システムが開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2013−65246号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述した運転支援システムにおいては、運転者に対してより精度よく不安全状態を検出して運転者への報知を行うことが望ましい。
【0005】
本発明は、上記に鑑みてなされたものであって、運転者に対して精度よく不安全状態を検出して運転者への報知を行うことができる運転支援システムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上述した課題を解決し、目的を達成するために、本発明は、運転支援システムにおいて、履歴記憶部と、モデル生成部と、挙動検出部と、状態判定部と、報知部とを備える。前記履歴記憶部は、複数の運転者の過去の挙動の履歴である挙動履歴を記憶する。モデル生成部は、前記履歴記憶部に記憶された挙動履歴に基づいて、前記複数の運転者のうち所定の運転者に対応する個別の挙動推移のパーソナル挙動推定モデルと、前記複数の運転者の中で共通する挙動推移の共通挙動推定モデルとを生成する。前記挙動検出部は、前記所定の運転者の現在の挙動を検出する。前記状態判定部は、前記挙動検出部によって検出された前記挙動の推移を、現在の走行経路に対応する前記パーソナル挙動推定モデルおよび前記共通挙動推定モデルと比較して将来の不安全状態を判定する。前記報知部は、前記状態判定部により前記不安全状態が判定された場合に、前記所定の運転者への報知を行うことを特徴とする。
【発明の効果】
【0007】
本発明は、運転者に対して精度よく不安全状態を検出して運転者への報知を行うことができるという効果を奏する。
【図面の簡単な説明】
【0008】
図1図1は、本発明の実施形態に係る運転支援方法の説明図である。
図2図2は、本発明の実施形態に係る運転支援システムの構成例を示す図である。
図3図3は、状態判定部による不安全状態の判定例を示す図である。
図4図4は、状態判定部における処理の説明図であり、ある運転者に対して報知レベルを通知する例を示す。
図5図5は、運転支援システムが実行する主な処理手順を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下に、本発明に係る運転支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。
【0010】
図1は、本発明の実施形態に係る運転支援方法の説明図である。かかる運転支援方法は、車載装置および運転支援サーバを含む運転支援システムにより実行される。図1に示すように、実施形態に係る運転支援システムにおいて、運転支援サーバは、各車両に搭載された車載装置から情報を収集し、運転者ごとの履歴(以下、運転履歴と記載する)として記憶する。
【0011】
運転支援サーバが車載装置から収集する情報は、例えば、運転者の挙動、走行位置および車両周囲の状況である。運転者の挙動には、運転者の視線状態、顔の動き、発声、ブレーキ操作、アクセル操作、ハンドル操作、ウィンカー操作などが含まれる。走行位置には、例えば、車両の緯度経度などが含まれる。また、車両周囲の状況には、例えば、自車周辺の他車の数や位置、走行する道路周辺の歩行者の数や位置、走行する道路の形状、走行する道路周辺の建物の大きさや位置などが含まれる。
【0012】
運転支援サーバは、例えば、運転者ごとに収集した運転履歴に基づいて統計処理等を行って各運転者の過去の挙動推移を走行経路や車両周辺の状況に対応付けてモデル化することができる。また、運転支援サーバは、複数の運転者で共通する過去の挙動推移を走行経路や車両周辺の状況に対応付けてモデル化することもできる。
【0013】
運転支援サーバは、引き続き、各車両の車載装置から情報を収集する。運転支援サーバは、引き続き収集した情報に基づいて、各車両の走行経路を判定し、運転者ごとに、現在の挙動推移のモデルと現在の走行経路や車両周辺の状況に対応する過去の挙動推移とを比較し、不安全状態を判定する。車両周辺の状況を考慮するのは、車両周辺の状況に応じて運転者の挙動が変わることがあるからであるが、車両周辺の状況を考慮しないこともできる。
【0014】
なお、運転支援サーバは、判定した車両の走行経路を運転履歴として記憶することができる。また、隣接する交差点間の道路を1区間とした場合、走行経路は、1区間であってもよく、また、連続する複数の区間であってもよい。
【0015】
運転支援サーバは、不安全状態であると判定した運転者の車両に搭載された車載装置に対して、不安全状態である旨の通知を行う。かかる通知を受けた車載装置は、運転者に対して不安全状態の報知を行う。
【0016】
このように、運転支援サーバは、運転者の挙動や車両周辺の状況をビッグデータ化し、運転者ごとに、現在の挙動推移と現在の走行経路や車両周辺の状況に対応する過去の挙動推移とを比較して不安全状態を判定する。これにより、運転者ごとに精度よく不安全状態を検出して運転者への報知を行うことができ、運転者の状態を安全運転状態へ適切に誘導することができる。
【0017】
以下、本発明の実施形態にかかる運転支援システムおよび運転支援方法についてさらに具体的に説明する。図2は、本発明の実施形態にかかる運転支援システムの構成例を示す図である。
【0018】
図2に示すように、実施形態にかかる運転支援システム1は、車載装置10と、運転支援サーバ20とを備える。なお、図2に示す例では、車載装置10が一つであるが、運転支援システム1には、図1に示すように、複数の車載装置10が含まれる。
【0019】
各車載装置10は、通信部11を有し、通信網2を介して運転支援サーバ20と通信可能に接続される。通信網2は、例えば、無線公衆通信網であるが、専用の無線回線であってもよい。かかる車載装置10は、運転者状態検出部12と、運転操作検出部13と、走行位置検出部14と、周辺状況検出部15と、LCD(Liquid Crystal Display)16と、HUD(Head-Up Display)17と、スピーカ18と、制御部19とを備える。
【0020】
運転者状態検出部12は、視線の動き、顔の動き、体の動き、発声などの運転者の状態を検出する。かかる運転者状態検出部12は、例えば、運転者の画像を撮像するカメラを有し、かかるカメラで撮像した運転者の画像から運転者の目の位置を検出し、かかる目の位置から視線の動きを検出する。
【0021】
また、運転者状態検出部12は、例えば、運転者の画像から顔の動きや体の動きを検出することができ、また、マイク(不図示)を介して運転者の音声を取得し、かかる音声を解析することができる。
【0022】
運転操作検出部13は、例えば、運転者のブレーキ操作、アクセル操作、ハンドル操作、ウィンカー操作、ワイパー操作、前照灯操作などの運転操作の状態を検出する。運転者状態検出部12および運転操作検出部13は、運転者の挙動を検出する挙動検出部の一例である。
【0023】
走行位置検出部14は、例えば、GPSなどによって車両の走行位置(緯度経度)を検出する。なお、走行位置検出部14は、走行位置として、緯度経度に代えて、走行している道路の位置などを検出することもできる。
【0024】
また、走行位置検出部14は、車両の走行経路を走行位置として検出することもできる。車両の走行経路は、例えば、運転者などからの操作により車載装置10のナビゲーション装置(図示せず)によって決定され、走行位置検出部14は、ナビゲーション装置から車両の走行経路を取得することができる。
【0025】
周辺状況検出部15は、例えば、他車や歩行者の数や位置、建物の大きさや位置、走行している道路形状などの自車周囲の状態を検出する。周辺状況検出部15は、例えば、車両に配置される複数のカメラを有し、これらのカメラによって撮像される車両周囲の画像を解析して、自車周辺の他車や歩行者の数や位置、建物の大きさや位置、走行している道路形状などを検出する。
【0026】
制御部19は、情報取得部31と、報知情報生成部32と、報知情報出力部33とを備える。情報取得部31は、運転者状態検出部12、運転操作検出部13、走行位置検出部14および周辺状況検出部15によって検出された各情報を取得し、通信部11を介して運転支援サーバ20へ送信する。
【0027】
報知情報生成部32は、運転支援サーバ20から取得した情報に基づいて運転者へ報知するための報知情報を生成し、報知情報出力部33は、報知情報生成部32によって生成された報知情報をLCD16、HUD17およびスピーカ18の少なくとも一つから出力する。なお、報知情報生成部32、報知情報出力部33、LCD16、HUD17およびスピーカ18は、報知部の一例に相当する。
【0028】
運転支援サーバ20は、通信部21と、制御部22と、履歴記憶部23と、比較モデル記憶部24とを備える。通信部21は、通信網2を介して各車載装置10と通信可能に接続される。
【0029】
制御部22は、情報収集部25と、モデル生成部26と、注意場所判定部27と、状態判定部28とを備える。情報収集部25は、各車載装置10から情報を収集し、履歴記憶部23に記憶する。履歴記憶部23は、運転者ごとに、例えば、運転者の状態、運転操作の状態、車両の走行位置、車両の走行経路および車両周囲の状態を関連付けて、運転者ごとの運転履歴として記憶する。履歴記憶部23は、運転者ごとに、例えば、運転者の状態、運転操作の状態、車両の走行位置、車両の走行経路および車両周囲の状態を関連付けて、運転者ごとの運転履歴として統計処理、出力ができるように記憶する。つまり、履歴記憶部23は、時刻、場所、運転者識別情報、走行経路、車両周囲の状態、視点状態等が関連付けられて記憶され、これら各項目をキーにしてデータの抽出ができるように記憶されている。
【0030】
モデル生成部26は、履歴記憶部23に記憶される情報に基づき、運転者ごとに統計処理等を行って各運転者の挙動推移を走行位置や経路や車両周辺の状況に対応付けてモデル化する。運転者の挙動は、例えば、運転者の状態や運転操作の状態であり、運転者の挙動推移は、例えば、運転者の状態推移や運転操作の状態推移である。
【0031】
例えば、モデル生成部26は、運転者Aが、経路Yを複数回通過したことがある場合、経路Yにおける運転者Aの挙動推移や車両周辺の状況を統計処理し、経路Yにおいて、車両周辺の状況に応じた運転者Aの挙動推移の推定モデル(以下、パーソナル挙動推定モデルと記載する)を求める。
【0032】
また、モデル生成部26は、例えば、経路Zを複数回通過したことがある複数の運転者の経路Zにおける挙動推移や車両周辺の状況を統計処理し、車両周辺の状況に応じた運転者で共通する挙動推移の推定モデル(以下、共通挙動推定モデルと記載する)を求める。
【0033】
注意場所判定部27は、履歴記憶部23に記憶される運転者の挙動履歴に基づき、運転を注意すべき注意場所を判定し、内部の記憶部(所情報記憶部の一例に相当)に記憶する。注意場所判定部27は、例えば、急なブレーキ操作、急なハンドル操作、および、急なアクセル操作などが行われる地点を判定し、かかる地点を注意場所として判定する。
【0034】
また、注意場所判定部27は、運転者の視線、顔の動き、体の動き、発声などを収集し、かかる情報に基づいて注意場所を判定することができる。例えば、運転者は、一般に飛び出し多発ポイントを注視することが多い。そして、かかるポイントを頻繁に通過する運転者や近所に住んでいる運転者は飛び出しに対応した視線移動を行うことが多い。そこで、注意場所判定部27は、飛び出し多発ポイントを頻繁に通過する運転者や近所に住んでいる運転者の視線を収集し、注意場所を判定する。
【0035】
このように、注意場所判定部27は、例えば、運転者の経路情報(例えば、頻繁に通過する人)と視線情報とから、飛び出しと言った危険ポイント(例えば、細心の注意を払って走行すべき道路や、注視すべき地点(路地出口等))を推定できる。また、注意場所判定部27は、事故情報(飛び出しによる事故)と視線情報とから、事故地点における注視すべき点(飛び出してくるポイント)等を推定できる。つまり、注意場所判定部27は、視線情報単独、あるいは地図等の一般的/静的データをあわせた統計処理により脇見等、一般的な運転者の危険行動発生地点を注意場所として推定でき、事故情報や運転者情報(住所、経路情報等)等の個別/動的データをあわせた統計処理により特異な危険発生地点、また詳細な位置を伴う危険発生地点を注意場所として推測できる。また、注意場所判定部27は、例えば、運転者の視線情報に基づき、側方方向への視線移動が多くの運転者で見られる場合は脇見多発地点(有名な建築物がある等)等を統計処理により注意場所として推定できる。
【0036】
状態判定部28は、運転者ごとに、情報収集部25によって収集された運転者の現在の走行経路を判定し、かかる現在の走行経路や車両周辺の状況などに応じた過去の運転者の挙動と運転者の現在の挙動推移とを比較する。状態判定部28は、現在の運転者の挙動と過去の運転者の挙動との類似度(以下、挙動類似度と記載する)が高い場合には、運転者の運転状態が不安全状態ではないと判定し、挙動類似度が低い場合には、運転者の運転状態が不安全状態であると判定する。
【0037】
例えば、状態判定部28は、現在の運転者の挙動推移および車両周辺の状況がパーソナル挙動推定モデルとの差が所定以上である場合に、運転者の運転状態が不安全状態であると判定する。状態判定部28は、例えば、運転者の視線や頭の動きの推移がパーソナル挙動推定モデルに対してずれが大きい場合には、運転者の運転状態が不安全状態であると判定する。
【0038】
また、状態判定部28は、例えば、ブレーキ操作、アクセル操作およびウィンカー操作の少なくとも一つの運転操作の推移がパーソナル挙動推定モデルに対してずれが大きい場合には、運転者の運転状態が不安全状態であるかを判定する。
【0039】
また、状態判定部28は、例えば、車載装置10のナビゲーション装置に対する運転者の音声指示内容を解析し、音声の大きさや内容に基づいて運転者の体調を判定し、体調が悪いと判定した場合、運転者の運転状態が不安全状態であると判定する。
【0040】
状態判定部28は、例えば、現在の運転者の挙動推移および車両周辺の状況が共通挙動推定モデルとの差が所定以上である場合に、運転者の運転状態が不安全状態であると判定する。また、状態判定部28は、例えば、パーソナル挙動推定モデルが生成されていない経路の共通挙動推定モデルに対して現在の運転者の挙動推移および車両周辺の状況の差が所定以上である場合に、運転者の運転状態が不安全状態であると判定することができる。
【0041】
図3は、共通挙動推定モデルを用いた不安全状態の判定例を示す図である。図3に示すように、飛び出し多発ポイントである注意場所に近づいた場合、かかる注意場所を頻繁に通過する運転者や近所に住んでいる運転者は、注意場所の手前で注意場所の左右側に視線移動する。
【0042】
この場合、モデル生成部26は、例えば、頻繁に注意場所を通過する運転者の挙動推移や車両周辺の状況を統計処理し、共通挙動推定モデルを求めることができる。状態判定部28は、かかる共通挙動推定モデルに基づき、注意場所の手前で注意場所の左右側に視線を移動しない運転者の運転状態が不安全状態であると判定する。これにより、初めて走行する経路に注意場所がある場合であっても、運転者の運転状態が不安全状態であるか否かを適切に判定することができる。なお、共通挙動推定モデルは全運転者(全運転者の当該場所を走行したデータ)を対象としても良いが、走行頻度が高い者、その近所に生活の場がある者等、その場所の状況を良く知り、より適切な運転を行っている可能が高い者のデータに絞り込む方がより適切なデータなると推定される。そこで、モデル生成部26は、全運転者に代えて、一部の運転者を対象として共通挙動推定モデルを生成することもできるようにしている。
【0043】
状態判定部28は、運転者の運転状態が不安全状態であると判定した場合、運転者への報知を行うタイミングを決定する。例えば、状態判定部28は、運転者の運転状態が不安全状態であると判定した場合、かかる運転者の現在の走行経路上に注意場所があるか否かを判定する。
【0044】
状態判定部28は、運転者の現在の走行経路上に注意場所があると判定すると、現在の走行位置から注意場所までの距離(以下、到達距離と記載する)または現在の走行位置から注意場所までの所要時間(以下、到達時間と記載する)を判定する。
【0045】
状態判定部28は、不安全状態である運転者の車両の車載装置10に対し、到達距離や到達時間に応じた報知レベルを通信部21経由で通知する。状態判定部28は、接近距離が短いほど高い報知レベルを通知する。
【0046】
図4は、状態判定部28における処理の説明図であり、ある運転者Aに対して報知レベルを通知する例を示す。図4に示すように、状態判定部28は、情報収集部25によって収集された情報に基づいて運転者Aが現在走行している経路(以下、走行経路Xと記載する)を取得または判定する。
【0047】
状態判定部28は、運転者Aの過去の挙動推移として、走行経路Xに対応するパーソナル挙動推定モデルを比較モデル記憶部24から取得する。また、状態判定部28は、例えば、情報収集部25によって収集された運転者Aの現在の挙動推移とパーソナル挙動推定モデルとを比較し、運転者Aの運転が不安全状態であるか否かを判定する。
【0048】
状態判定部28は、運転者Aの運転が不安全状態であると判定した場合、走行経路X上に注意場所があるか否かを判定する。状態判定部28は、運転者Aの現在の走行経路上に注意場所(以下、注意場所Cと記載する)があると判定すると、現在位置から注意場所Cまでの距離(到達距離)が所定距離内であるか、または、現在位置から注意場所Cまでの所要時間(到達時間)が所定時間内であるかを判定する。
【0049】
状態判定部28は、到達距離が所定距離内であるか、または、到達時間が所定時間内である場合、到達距離または到達時間に応じた報知レベルを運転者Aが運転している車両の車載装置10へ通知する。状態判定部28は、到達距離が短くなればなるほど、または、到達時間が短くなればなるほど、報知レベルを高くする。
【0050】
車載装置10の報知情報生成部32は、運転支援サーバ20から報知レベルの情報を通信部11経由で受け取ると、報知レベルに応じた報知情報を生成する。例えば、報知情報生成部32は、視覚的な報知、聴覚的な報知、および、触覚的な報知を行うための報知情報を報知レベルに基づいて生成する。
【0051】
視覚的な報知は、文字や画像などによって運転者へ注意喚起を示す報知であり、聴覚的な報知は、音で運転者へ注意喚起を示す報知であり、触覚的な報知は、例えば、振動で運転者へ注意喚起を示す報知である。
【0052】
報知情報生成部32は、運転支援サーバ20から通知される報知レベルが高くなるほど、運転者への注意喚起の度合いを高くする。例えば、報知レベルが5段階ある場合、報知情報生成部32は、最も低い報知レベル1であれば、視覚的な報知を行う報知情報を生成し、報知情報出力部33からLCD16へ出力させる。
【0053】
また、報知情報生成部32は、例えば、報知レベル3であれば、視覚的な報知を行う報知情報を生成し、報知情報出力部33からHUD17へ出力させる。HUD17で表示する報知情報は、例えば、運転を注意すべき旨の情報を含み、誘導効果を考慮した色や形状にすることで、運転者への光での刺激を効果的に行うことができる。
【0054】
また、報知情報生成部32は、例えば、報知レベル5であれば、視覚的、聴覚的および触覚的な報知を行う報知情報を生成し、HUD17、スピーカ18およびバイブレータ(図示せず)へ出力する。なお、バイブレータは、例えば、ハンドルまたは座席に配置される。また、スピーカ18への報知情報は、例えば、音声合成によって生成される。
【0055】
このように、報知情報生成部32は、運転支援サーバ20から通知される報知レベルが高くなるほど、注意喚起の度合いが高くなるように報知情報を生成する。これにより、運転支援システム1は、注意場所に到達するまでに、運転者の状態を不安全状態から安全状態へ効果的に移行することができ、また、運転者の注意を継続させ、注意場所において余裕のある行動に繋げることができる。
【0056】
次に、図5のフローチャートを用いて運転支援システム1の処理の流れの一例を説明する。図5は運転支援システム1が実行する主な処理手順を示すフローチャートであり、繰り返し実行される処理である。
【0057】
図5に示すように、運転支援システム1の各車載装置10は、運転者の挙動等を検出する(ステップS1)。このように検出された情報は、各車載装置10から運転支援サーバ20へ送信される。運転支援サーバ20は、各車載装置10で検出された情報を収集する(ステップS2)。
【0058】
運転支援サーバ20は、各車載装置10で検出された情報に基づき、運転者の現在の挙動の推移と現在の走行経路に対応する運転者の挙動履歴とを比較して運転者の運転状態が不安全状態であるか否かを判定する(ステップS3)。
【0059】
運転支援サーバ20は、運転者の運転状態が不安全状態であると判定すると(ステップS3:Yes)、報知タイミングであるか否かを決定する(ステップS4)。運転支援サーバ20は、例えば、注意地点への到達距離や到達時間に基づいて、報知タイミングであるか否かを決定する。
【0060】
報知タイミングであると判定すると(ステップS4:Yes)、運転支援サーバ20は、報知レベルを決定する(ステップS5)。かかる報知レベルは、運転支援サーバ20から車載装置10へ送信され、車載装置10は、報知レベルに応じた報知を運転者に対して行う(ステップS6)。
【0061】
運転者の運転状態が不安全状態ではない場合(ステップS3:No)、報知タイミングではない場合(ステップS4:No)、または、ステップS6の処理が終了した場合、運転支援サーバ20は、モデル化のタイミングであるか否かを判定する(ステップS7)。
【0062】
モデル化のタイミングである場合(ステップS7:Yes)、運転支援サーバ20は、パーソナル挙動推定モデルや共通挙動推定モデルを生成する(ステップS8)。モデル化のタイミングでない場合(ステップS7:No)およびステップS8の処理が終了した場合、運転支援サーバ20は、一連の処理を終了する。
【0063】
なお、図5のステップS2、S7、S8の処理以外を車載装置10で行うこともできる。この場合、運転支援サーバ20は、モデルなどの情報を車載装置10へ通知し、車載装置10は、運転支援サーバ20から取得した情報に基づいてS3〜S6の処理を行うことができる。
【0064】
なお、上述した実施形態では、運転者の運転状態が不安全状態であるか否かを判定したが、運転支援サーバ20の状態判定部28は、どの程度の不安全状態かを示す多段階の不安全レベルを判定することもできる。
【0065】
状態判定部28は、不安全レベルと報知レベルとの関係を規定するテーブルを内部の記憶部に記憶しており、判定した不安全レベルに対応する報知レベを記憶部から取得し、車載装置10へ通知することができる。これにより、より効果的に運転者の状態を不安全状態から安全状態へ移行することができる。
【0066】
また、上述した実施形態では、運転者の運転状態が不安全状態であると判定し、かつ、注意場所までの到達距離または到達時間に基づいて運転者に報知するが、状態判定部28は、走行経路が分かったタイミングで、その走行経路上に注意場所があれば、車載装置10へ報知情報を送信するようにしてもよい。
【0067】
このようにすることで、例えば、運転者が車載装置のナビゲーション装置に経路を入力したタイミングで、運転者に注意喚起が為されることから、運転者に対して注意場所が経路上にあることを事前に報知することができる。
【0068】
また、上述した実施形態では、運転者の挙動推移や車両周辺の状況を統計処理することにより、運転者の通常の挙動推移に基づいてパーソナル挙動推定モデルや共通挙動推定モデルを生成するが、モデル生成部26は、種々のモデルを生成することができる。
【0069】
例えば、モデル生成部26は、不安全状態と判定した場合の運転者の挙動履歴に基づき、パーソナル挙動推定モデルや共通挙動推定モデルを生成することができる。また、モデル生成部26は、急なブレーキ操作、急なハンドル操作、および、急なアクセル操作などの急な操作を行った運転者の当該急な操作の前の挙動に基づいて、パーソナル挙動推定モデルや共通挙動推定モデルを生成することもできる。
【0070】
これらの場合、状態判定部28は、例えば、現在の運転者の挙動推移および車両周辺の状況がパーソナル挙動推定モデルや共通挙動推定モデルとの差が所定以内(類似度が高い)場合に、運転者の運転状態が不安全状態であると判定する。これにより、運転者の運転状態が不安全状態であるか否かをより適切に判断することができる。
【0071】
また、上述した実施形態では、ビッグデータ化した運転履歴を用いて不安全状態を判定する例を説明したが、車載装置10の制御部19は、例えば、視線の動きや顔の動きに基づいて脇見運転や居眠り運転を判定する判定部を備えることもできる。
【0072】
この場合、車載装置10の判定部は、運転者状態検出部12によって検出された運転者の状態から脇見運転や居眠り運転を判定し、HUD17などの報知部から報知する。これにより、運転支援サーバ20による報知と2重に報知を行うことができ、運転者の運転状態を安全運転状態へ移行することが容易になる。
【0073】
ところで、運転支援(報知)を頻繁に行うと、運転者は、煩わしく感じたり、非常に危険度が高い場合でも危険度を感じ無くなったりする場合がある。そこで、車載装置10の制御部19は、運転支援(報知)箇所を絞り込むことができるようにしている。例えば、車載装置10の制御部19は、運転者の状態とパーソナル挙動推定モデルあるいは共通挙動推定モデルの比較による絞り込みだけでなく、当該場所(箇所)の危険度(例えば、事故情報や上述した視線情報に基づく危険位置判断等による)に応じて絞り込むことができる。例えば、車載装置10の制御部19は、当該場所(地点)の危険度がCランク以下であれば報知しないことができる。また、車載装置10の制御部19は、当該場所(地点)の危険度に応じて、運転者の状態とパーソナル挙動推定モデルあるいは共通挙動推定モデルとの差による判定基準を変更することもでき、例えば、危険度が高い程許容差を小さくすることもできる。
【0074】
また、車載装置10の制御部19は、挙動推定モデルを新しいデータで更新していくが、道路状況等の変化等を考慮すると新しいデータの方が適正度は高くなる。このため、車載装置10の制御部19は、古いデータは順次削除する、あるいは統計処理の際に経過時間による重み付け処理(例えば、新しいほど重みを重くする)を行うことができるようにしており、これにより、挙動推定モデルを精度よく生成することができる。
【0075】
また、パーソナル挙動推定モデルは、データが揃いにくい(例えば、データが少ない)場合がある。このため、車載装置10の制御部19は、共通挙動推定モデルを部分利用することができるようにしている。例えば、車載装置10の制御部19は、パーソナル挙動データの不足分(例えば、信頼度が保てる所定数からの不足分)を共通挙動モデルで補填することができる。かかる処理により、パーソナル挙動データが収集されるほどパーソナル挙動データが濃いパーソナル挙動推定モデルとなる。また、上述のようにデータが陳腐化する場合があり、車載装置10の制御部19は、陳腐化データ(例えば、古いデータ)の削除により不足したデータを共通挙動モデルで補填することもできる。
【0076】
また、視線情報は上述のように危険地点の推定に利用できるが、危険運転の判断にも利用できる。例えば、車載装置10の制御部19は、危険発生状態(例えば、事故発生や、急ブレーキ等発生時)における視線移動モデルと、安全走行状態での視線移動モデルとをデータベース化(例えば、ビッグデータ化し、統計処理できる状態とする)しておき、当該地点における実際の視線移動状態と視線移動モデル(例えば、危険、安全あるいは両モデル)と比較しその差に基づき危険度を判定することができる。この場合、車載装置10の制御部19は、危険地点(例えば、実際に事故等が発生する可能性が高い地点)での状況に影響を与える地点(例えば、カーブの場合、減速操作準備(そのための周囲確認等)を開始する適切な地点の少し前の地点)からの視点移動を監視対象とすることにより、運転者に精神的負担をかけない優しい対応(例えば、運転アドバイス等)を行うことができる。
【産業上の利用可能性】
【0077】
以上のように、本発明にかかる運転支援システムおよび運転支援方法は、車両の運転者に有用であり、特に、運転者の運転状態を安全運転状態にするのに適している。
【符号の説明】
【0078】
1 運転支援システム
2 通信網
10 車載装置
11、21 通信部
12 運転者状態検出部
13 運転操作検出部
14 走行位置検出部
15 周辺状況検出部
19、22 制御部
20 運転支援サーバ
23 履歴記憶部
24 比較モデル記憶部
25 情報収集部
26 モデル生成部
27 注意場所判定部
28 状態判定部
31 情報取得部
32 報知情報生成部
33 報知情報出力部
図1
図2
図3
図4
図5