【解決手段】運転支援装置は、身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得するデータ取得手段と、過去に計測された運転者の生体活動データに基づいて、運転者の状態ごとの基準データを設定する基準データ管理手段と、取得された運転者の生体活動データを前記基準データと比較することにより、運転者の状態を推定する推定手段と、運転操作の特性に基づいて運転者が属する類型を判定する判定手段と、推定された運転者の状態及び運転者が属する類型に応じた運転支援情報を提示する提示手段と、を備える。
【発明を実施するための形態】
【0017】
以下、実施形態について説明する。以下に示す実施形態は、単なる例示であり、本開示の技術的範囲を以下の態様に限定するものではない。
【0018】
本実施形態では、運転支援装置は、身体の一部の状態又は活動を検知するセンサにより計測された運転者の生体活動データを取得し、取得された運転者の生体活動データに基づいて、運転者の状態を推定する。また、運転支援装置は、運転操作の特性に基づいて前記運転者が属する類型を判定し、推定された運転者の状態及び運転者が属する類型に応じた運転支援情報を提示する。これによって、運転支援装置は、運転者の特性及び運転中の状態に応じて適切な運転支援情報を提示することが可能となる。
【0019】
<ハードウェア構成>
図1は、運転支援システムのハードウェア構成を例示する図である。運転支援システム100は、運転支援装置1及びサーバ2を含む。運転支援装置1とサーバ2とは、ネットワークN1によって相互に接続される。運転支援装置1は、車両3に搭載される各種機器とネットワークN2によって相互に接続される。
【0020】
運転支援装置1は、プロセッサ11、主記憶装置12、補助記憶装置13、ネットワークインタフェース14を備える。また、これらはバス15により互いに電気的に接続される。
【0021】
プロセッサ11は、補助記憶装置13に保持されたOSや様々なコンピュータプログラムを主記憶装置12にロードして実行することによって、様々な処理を実行する。ただし、コンピュータプログラムによる処理の一部がハードウェア回路により実行されてもよい。プロセッサ11は、例えば、CPU(Central Processing Unit)や、DSP(Digital Signal Processor)である。
【0022】
主記憶装置12は、プロセッサ11に、補助記憶装置13に格納されているプログラムをロードするための記憶領域、及びプログラムを実行するための作業領域を提供する。また、主記憶装置12は、データを保持するためのバッファとして用いられる。主記憶装置12は、例えば、ROM(Read Only Memory)、RAM(Random
Access Memory)等の半導体メモリである。
【0023】
補助記憶装置13は、様々なプログラムや、各プログラムの実行に際してプロセッサ11が使用するデータを格納する。補助記憶装置13は、例えば、EPROM(Erasable Programmable ROM)、又はハードディスクドライブ(Hard
Disk Drive、HDD)等の不揮発性のメモリである。補助記憶装置13は、例えば、オペレーティングシステム(Operating System、OS)、運転支援プログラム、その他様々なアプリケーションプログラムを保持する。運転支援プログラムは、運転者の状態及び運転者が属する類型に応じた運転支援情報を提示するためのプログラムである。
【0024】
ネットワークインタフェース14は、ネットワークとの情報の入出力を行うインタフェースである。ネットワークインタフェース14は、有線のネットワークと接続するインタフェース、無線のネットワークと接続するインタフェースを含む。ネットワークインタフェース14は、例えば、NIC(Network Interface Card)、無線LAN(Local Area Network)カード、3G(3rd Generation)、LTE(Long Term Evolution)等の携帯電話網に接続するための無線回路等である。ネットワークインタフェース14で受信されたデータ等は、プロセッサ11に出力される。
【0025】
なお、
図1に示される運転支援装置1のハードウェア構成は一例であり、上記に限られず、実施の形態に応じて適宜構成要素の省略、置換又は追加が可能である。例えば、運転支援装置1は、ウェアラブルセンサ等の各種デバイスとのインタフェースを備え、各種デバイスからデータを取得するようにしてもよい。
【0026】
サーバ2は、プロセッサ21、主記憶装置22、補助記憶装置23、ネットワークインタフェース24を備える。また、これらはバス25により互いに電気的に接続される。
【0027】
プロセッサ21は、補助記憶装置23に保持されたOSや様々なコンピュータプログラムを主記憶装置22にロードして実行することによって、様々な処理を実行する。ただし、コンピュータプログラムによる処理の一部がハードウェア回路により実行されてもよい。プロセッサ21は、例えば、CPUや、DSPである。
【0028】
主記憶装置22は、プロセッサ21に、補助記憶装置23に格納されているプログラムをロードするための記憶領域、及びプログラムを実行するための作業領域を提供する。また、主記憶装置22は、データを保持するためのバッファとして用いられる。主記憶装置22は、例えば、ROM、RAM等の半導体メモリである。
【0029】
補助記憶装置23は、様々なプログラムや、各プログラムの実行に際してプロセッサ2
1が使用するデータを格納する。補助記憶装置23は、例えば、EPROM、又はハードディスクドライブ等の不揮発性のメモリである。補助記憶装置23は、例えば、OS、各種データを解析するためのプログラム、その他様々なアプリケーションプログラムを保持する。
【0030】
ネットワークインタフェース24は、ネットワークとの情報の入出力を行うインタフェースである。ネットワークインタフェース24は、有線及び無線のネットワークと接続するインタフェースを含む。ネットワークインタフェース24は、例えば、NIC、無線LANカード等である。ネットワークインタフェース24で受信されたデータ等は、プロセッサ11に出力される。
【0031】
なお、
図1に示されるサーバ2のハードウェア構成は一例であり、上記に限られず、実施の形態に応じて適宜構成要素の省略、置換又は追加が可能である。
【0032】
車両3は、運転支援の対象となる運転者が乗車する車両であって、センサ31及び出力装置32を備える。なお、センサ31は、1つに限られず、複数備えられてもよい。
【0033】
センサ31は、乗車している人に関する情報を計測するセンサ、外界の状況を計測する外界センサ、車両3の速度を計測したり運転操作を検知したりする車内センサ等、複数のセンサを含む。センサ31は、運転者の状態を推定するため、運転者の視線を検知したり、生体情報を計測したりする。また、センサ31は、車両3の周囲の障害物を検知したり、道路標識、道路標示等の道路情報を認識したりする。さらに、センサ31は、車両の速度や加速度を計測したり、ハンドル、アクセル及びブレーキ等に対する運転操作を検知したりする。
【0034】
具体的には、センサ31は、運転者の視線を検知するためのカメラ、生体情報を計測するための心拍センサや脳波センサ、車両3の周辺状況を認識するためのレーダー、ステレオカメラ等の各種センサである。なお、車両と路側機が情報をやりとりする路車間通信及び車両同士が直接情報をやりとりする車車間通信を含むV2X通信において、路側機又は他の車との通信に用いられる装置もセンサ31の一種である。
【0035】
出力装置32は、運転支援装置1が提示する運転支援情報を表示する。出力装置32は、例えば、人間の視野に重ね合わせて情報を表示するヘッドアップディスプレイ(Head−Up Display、HUD)、車載の液晶ディスプレイ(Liquid Crystal Display、LCD)である。HUDは、透過型の無機エレクトロルミネッセンス(Electro−Luminescence、EL)ディスプレイであり、ダッシュボードに設置したり、フロントガラス全体にHUDの表示を投影したりすることが可能である。
【0036】
ネットワークN1は、インターネット等の世界規模の公衆パケット通信網であり、運転支援装置1とサーバ2とを接続する。なお、インターネットの代わりに、WAN(Wide Area Network)やその他の通信網が採用されてもよい。
【0037】
ネットワークN2は、専用の通信回線で構築された通信網であり、運転支援装置1と車両3とを接続する。なお、ネットワークN2として、Wi−Fi、Bluetooth(登録商標)、イーサネット(登録商標)、体の表面等に配置された小型端末との無線通信により構築されるボディエリアネットワーク(Body Area Network、BAN)、並びにコントローラエリアネットワーク(CAN)及びフレックスレイ(FlexRay)等の車載通信ネットワークが採用されてもよい。
【0038】
<機能構成>
<<運転支援装置>>
図2は、運転支援装置1の機能構成を例示する図である。運転支援装置1は、機能構成として、タイプ判定部F11、データ取得部F12、状態推定部F13、基準データ管理部F14、提示部F15、及び運転支援情報データベースD11を備える。運転支援装置1は、補助記憶装置13に記憶されているプログラムが、主記憶装置12に読み出され、プロセッサ11によって実行されることで、タイプ判定部F11、データ取得部F12、状態推定部F13、基準データ管理部F14、提示部F15、及び運転支援情報データベースD11を備えるコンピュータとして機能する。
【0039】
なお、本実施形態において、運転支援装置1の備える各機能は、汎用プロセッサであるプロセッサ11によって実行されるが、これらの機能の一部又は全部は、1又は複数の専用プロセッサ、ハードウェアの演算回路等によって実行されてもよい。ここで、ハードウェアの演算回路とは、例えば、論理ゲートを組み合わせた加算回路、乗算回路、フリップフロップ等をいう。また、これらの機能の一部又は全部は、別途のコンピュータにおいて実行されてもよい。
【0040】
タイプ判定部F11は、運転者のタイプを判定する。タイプ判定部F11は、アクセル、ブレーキ及びハンドル等の運転操作の特性に応じて、運転者のタイプを判定する。運転操作の特性は、具体的には、運転者が実際に車両3を運転したときのアクセルの踏み込み時間、ブレーキを踏むタイミング、ハンドルを回すスピード等のデータである。タイプ判定部F11は、予め設定された複数のタイプの運転操作の特性に係るデータ(以下、教師データともいう)と比較し、合致の度合いに基づいて、運転者がどのタイプに属するかを判定するようにすることができる。タイプごとの教師データは、特徴的な運転者の実測データを基に予め設定し、運転支援装置1の補助記憶装置13に保持しておいてもよい。なお、運転者が変わらない場合には、判定済みの運転者のタイプを運転支援装置1の補助記憶装置13に保持しておくことができる。
【0041】
また、教師データがない場合には、サーバ2において、複数の運転者の運転操作の特性に係るデータを蓄積し、クラスタリング等の手法により回帰的に各運転者を複数のタイプに分類してもよい。タイプ判定部F11は、判定対象の運転者が、サーバ2において分類されたどの運転者のタイプに属するかを判定する。
【0042】
なお、運転操作の特性は、実際のアクセル、ブレーキ及びハンドル等の運転操作ではなく、運転操作の特性に関連する質問を含むアンケートの回答結果に基づくものであってもよい。即ち、タイプ判定部F11は、運転者のアンケートに対する回答に基づいて、運転者のタイプを判定する。
【0043】
図4は、運転者のタイプを判定するためのアンケートの例を示す図である。
図4に示すアンケートは、運転操作に関する9問の質問が例示される。各質問は、(1)当てはまらない、(2)少しあてはまる、(3)ある程度あてはまる、(4)あてはまる、の4段階で回答される。タイプ判定部F11は、実際の運転操作によってタイプを判定する場合と同様に、判定対象の運転者のアンケートの回答を、教師データとなるタイプごとのアンケートの回答と比較し、合致の度合いに基づいて、運転者がどのタイプに属するかを判定するようにすることができる。
【0044】
さらに、実際の運転操作によってタイプを判定する場合と同様に、教師データがない場合には、サーバ2において、複数の運転者のアンケートの回答を蓄積し、クラスタリング等の手法により回帰的に各運転者を複数のタイプに分類してもよい。タイプ判定部F11は、判定対象の運転者が、サーバ2において分類されたどの運転者のタイプに属するかを
判定する。なお、タイプ判定部F11は、「判定手段」の一例である。また、運転者のタイプは、「運転者が属する類型」の一例である。
【0045】
データ取得部F12は、車両3に搭載されたセンサ31で計測されたデータを取得する。センサ31で計測されたデータは、例えば、運転者の状態を推定するためのデータであり、カメラで検知された運転者の視線から算出される視線活動量である。また、センサ31で計測されたデータは、運転者の心拍数、脳波等の生体情報等であってもよい。データ取得部F12は、車両3に搭載されたセンサ31の他、運転者が装着するウェアラブルセンサにより計測されたデータを取得してもよい。さらに、データ取得部F12は、センサ31で認識された道路標識又は障害物等の情報を取得する。道路標識又は障害物等の情報は、運転支援情報を提示するタイミングを判定するために用いることができる。データ取得部F12は、「データ取得手段」の一例である。
【0046】
状態推定部F13は、データ取得部F12が取得したデータに基づいて、運転者が通常状態であるか、注意力が低下した漫然状態であるか等、運転者の状態を推定する。なお、運転者の状態は、通常状態及び漫然状態に限られず、落ち着きがない状態、焦燥状態等であってもよく、状態に応じた運転支援情報が予め定義されていればよい。また、漫然状態の度合いに応じて、異なる運転支援情報が提示されるようにしてもよい。ここで、
図5及び
図6により、視線活動量に基づいて運転者の状態を推定する例を説明する。
【0047】
図5は、状態ごとの視線の動きを示すグラフの例を示す図である。グラフG1、グラフG2、グラフG3は、それぞれ通常運転、漫然運転、脇見運転時の視線動きを示す。各グラフの横軸は時間を表し、縦軸は視線の活動量を表す。
図5において視線の活動量は、視線の移動量を意味する。正の活動量として計数される視線の移動先のエリアは、例えば、前方右歩道、後方右サイドミラー、後方左サイドミラー、後方バックミラー、前方右対向車線、前方左歩道、前方進行方向である。負の活動量として計数される視線の移動先のエリアは、例えば、脇見又はよそ見による真横方向、携帯等による下方向である。
【0048】
通常運転時の視線の動きを示すグラフG1は、一定時間Tにおいて正の活動量が増加している状態を示す。通常運転時には、運転者は、前方、道路の左右、後方等に所定の間隔で顔及び視線を向け、安全運転のための状況確認をしていることが示される。漫然運転時の視線の動きを示すグラフG2は、一定時間Tにおいて正の活動量が減少している状態を示す。漫然運転時には、運転者は、眠気を感じたり、考え事をしたりすることにより、安全を意識して運転しているときと比較して視線の活動量が減少し、周囲の状況を適切に確認していないことが示される。脇見運転時の視線の動きを示すグラフG3は、一定時間Tにおいて負の活動量が増加している状態を示す。脇見運転時には、運転者は、膝の上に置いた携帯電話を見るために下を向く頻度が増加するなど、通常運転時とは異なる方向への視線の活動量が増加し、周囲の状況を適切に確認せず脇見運転をしていることが示される。
【0049】
図6は、視線活動量から運転者の状態を推定する例を説明する図である。まず、車両3のセンサ31としてのカメラは、運転者の視線を検知する(P1)。カメラで撮像された画像は、既存の画像処理技術によって解析される。視線の方向は、3次元ベクトルにより取得可能である。
【0050】
P1で検知した視線の情報に基づき、視線の活動量ETが算出される(P2)。視線活動量ETは、視線の移動方向に関する活動量及び視線の移動頻度に関する活動量に基づいて算出される。
【0051】
まず、視線の移動方向が評価される(P21)。目の位置を原点Oとし、P1の処理で
取得した3次元ベクトルから、ある時間区間Tにおける視線の移動方向をプロットする。エリアA1、エリアA2、及びエリアBは、事前に設定されたエリアである。エリアA1は、視線を配ることが必要とされるエリアである。エリアA2は、視線を配ることが推奨されるエリアである。エリアBは、視線を配ることが推奨されないエリアである。視線の移動方向に関する活動量は、各エリアに視線が配られた頻度に対し、エリアに対応する重みづけをして算出される。具体的には、エリアA1及びエリアA2への視線は正の活動量として重みづけされる。また、エリアA1は、視線を配ることが必要とされるエリアであるため、エリアA2よりも重みづけの程度は大きくなる。一方、エリアBへの視線は負の活動量として重みづけされる。
【0052】
次に、視線の移動頻度が評価される(P22)。視線の移動頻度を推定するため、ある時間区間Tにおける視線の移動量の変化を計測し、視線移動量の絶対値のパワースペクトラムが求められる。P22に示されるヒストグラムは、求められたパワースペクトラムに基づき、周波数帯域ごとの度数をグラフ化したものであり、縦軸は度数を、横軸は周波数帯域を表す。H2の範囲の周波数帯域は、適切な頻度で移動する視線が検知された頻度(度数)を示す。これに対し、H1の範囲の周波数帯域は、適切な頻度よりも低い頻度で移動する視線が検知された頻度(度数)を示す。また、H3の範囲の周波数帯域は、適切な頻度よりも高い頻度で移動する視線が検知された頻度(度数)を示す。移動頻度に関する活動量は、視線の移動頻度に応じて重みを与えて算出することが可能である。例えば、適切な頻度よりも低い頻度の場合は負の重み付けをし、適切な頻度よりも高い頻度の場合は正の重み付けをしてもよい。
【0053】
なお、移動頻度に関する活動量は、移動方向に関係なく計測することができるが、これに限られない。P21で説明したエリアごとに視線の移動量の変化を計測し、エリアごとにP22に示すようなヒストグラムを生成してもよい。この場合、視線活動量は、エリアごとに重み付けをして算出してもよい。視線の活動量ETは、例えば、視線の移動方向に関する活動量及び視線の移動頻度に関する活動量を加算することにより求められる。
【0054】
視線活動量ETが算出されるとともに、視線が検知された時間区間Tにおける道路の状況STが評価される(P3)。状況STは、例えば、見通しの悪いカーブ、緩やかなカーブ、高速道路の直線、交差点等の状況である。状況STは、GPS(Global Positioning System)及び道路情報と対応付けられた地図情報から推定することが可能である。また、状況STは、V2X通信により取得した道路の状況等に関する情報又は車両3から取得される速度等の情報を活用して推定してもよい。
【0055】
道路の状況ST及び視線活動量ETは所定の判定器に基づいて処理される(P4)。判定器は、道路の状況STごとに運転者の状態を判定するための条件を定義したものである。判定器は、例えば、ある状況ST0において、指定された視線活動量ET0が所定の閾値以上であれば通常状態であると判定し、視線活動量ET0が所定の閾値より小さい場合は漫然状態であると判定するように所定の閾値を設定することができる。また、判定器は、ある状況ST1において、視線活動量ET1が所定の値の範囲内であれば通常状態であると判定し、視線活動量ET1が所定の値の範囲外であれば漫然状態であると判定するようにしてもよい(P5)。なお、
図6に示す運転者の状態の推定方法は一例であり、運転者の状態は、視線の動きを様々な方法で解析することにより推定することが可能である。なお、状態推定部F13は、「推定手段」の一例である。
【0056】
基準データ管理部F14は、運転者の状態を推定する際の基準となるデータ(以下、基準データともいう)を管理する。基準データは、運転者の通常状態、漫然状態等の状態ごとに設定される。基準データは、例えば、所定の時間内に見るべき方向に視線を動かした回数、及び所定の時間内にそれ以外の方向に視線を動かした回数の閾値とすることができ
る。運転者によって視線の動かし方や動かす頻度は様々であり、所定の状況において所定の時間内にバックミラーを確認する回数が、運転者自身の通常状態での確認回数より少ない場合に漫然状態であると判定することで、運転者自身の状態の変化はより精度良く認識することが可能となる。状態推定部F13は、運転中の運転者に対する計測値を、基準データとして設定された閾値と比較することにより、運転者の状態を推定することができる。
【0057】
また、基準データは、蓄積された運転者自身の視線活動量のデータに基づいて更新されるようにしてもよい。基準データ管理部F14は、車両3の周囲の類似する状況における当該運転者の視線活動量を、運転者の状態ごとに蓄積し、所定のタイミングで蓄積されたデータの平均値を算出し、算出された値によって基準データを更新することができる。なお、運転者の視線活動量のデータは、運転支援装置1の補助記憶装置13又はサーバ2の補助記憶装置23に蓄積される。運転者の視線活動量のデータが補助記憶装置13に蓄積される場合、基準データ管理部F14は、補助記憶装置13に蓄積されたデータに基づいて定期的に基準データを更新することができる。また、運転者の視線活動量のデータがサーバ2の補助記憶装置23に蓄積される場合、基準データ管理部F14は、サーバ2が補助記憶装置23に蓄積されたデータから算出した基準データを取得し、取得した値により基準データを更新するようにしてもよい。基準データ管理部F14は、「基準データ管理手段」の一例である。
【0058】
本実施形態において、状態推定部F13及び基準データ管理部F14は、運転者の視線活動量に基づいて運転者の状態を推定したり基準データを管理したりする例を説明したが、運転者の視線活動量に基づく場合に限られない。状態推定部F13及び基準データ管理部F14は、心拍数等の生体情報又は運転操作の特性等の変化に基づいて運転者の状態を推定したり基準データを管理したりしてもよい。
【0059】
提示部F15は、状態推定部F13で推定された運転者の状態、及びタイプ判定部F11で判定された運転者のタイプに応じた運転支援情報を提示する。運転者の状態及び運転者のタイプに応じた運転支援情報は、予め運転支援情報データベースD11に格納される。なお、提示された運転支援情報は、ネットワークN2を介して車両3に送信され、出力装置32に表示される。以下、
図7から
図15により、運転支援情報の提示内容の例を説明する。出力装置32は、HUDであるものとして説明されるが、これに限られず、車載の液晶ディスプレイ等であってもよい。また、出力装置32は、運転者が運転中に視認可能な位置に設置されればよく、運転者が外界の状況を確認する際の視角の範囲内に設置されることが望ましい。なお、視野狭窄の患者等、視野が制限される運転者に対しては、制限された視野の範囲内に設置されることが望ましい。提示部F15は、「提示手段」の一例である。
【0060】
〔運転支援情報の例1−1〕
図7は、下り坂における運転支援の内容を例示する図である。長い下り坂では、エンジンブレーキを使用しても、速度が加速する場合がある。下り坂の先に急カーブがある場合には、カーブを安全に曲がれる速度まで減速するため、運転者のタイプに応じた運転操作の注意喚起がHUDに表示される。
図7の例では、運転者のタイプとして、タイプA及びタイプBが例示される。タイプAの運転者は、適正にブレーキ操作ができるタイプの運転者であると想定される。タイプBの運転者は、外界の状況判断に時間がかかりブレーキ操作が適正でない運転者であると想定される。運転者の状態としては、通常状態及び漫然状態が例示される。
【0061】
運転者の状態が通常状態である場合、運転支援装置1は、タイプAの運転者に対しては注意喚起不要と判断する。一方、運転支援装置1は、タイプBの運転者に対しては、音声
により減速するように促し、HUDには減速を指示するマークを表示する。減速を指示するマークは、例えば、道路が進行方向と逆に流れる様子を模式的に示す。
【0062】
運転者の状態が漫然状態である場合、運転支援装置1は、タイプAの運転者に対しては、報知音を鳴らしたり、音声により速度メータの確認を促したりする。また、運転支援装置1は、HUDに注意を喚起するためのマーク、例えば、エクスクラメーションマークを表示する。一方、運転支援装置1は、タイプBの運転者に対しては、音声によりブレーキを踏むように促す。また、運転支援装置1は、通常状態と同様に、HUDに減速を指示するマークを表示し、さらに、エンジンブレーキ、通常のブレーキ及び警告マークを減速状況に応じて段階的に表示する。
【0063】
図8は、下り坂における運転支援のタイミングを例示する図である。
図8の例では、運転者のタイプごとに、
図7で説明した運転支援の内容がHUDに表示されるタイミングが示される。具体的には、運転支援装置1は、下り坂の先端で時速が30km/hまで減速されるように、車両3の時速、搭乗者及び積載物を含む車両3の総重量、下り坂の勾配率、運転者の漫然状態の度合いを考慮し、適正なタイミングで運転支援情報を表示する。
【0064】
タイプAの運転者が通常状態の場合、運転支援装置1は、注意喚起をしない。これに対し、タイプAの運転者が漫然状態の場合、運転支援装置1は、車両3が下り坂の先端で目標速度の30km/hまで減速するためにエンジンブレーキをかけるかブレーキを踏むべき位置に到達したタイミングで報知音を鳴らす。
図8の例では、車両3の時速が60km/hに達したときに「フォーン」という報知音が鳴らされる。車両3の減速状況から、下り坂の先端で目標速度まで減速するのが難しいと判断すると、運転支援装置1は、「速度を確認してください」との音声により注意を促し、HUDに注意喚起のためのマークを表示する。
図8の例では、運転支援装置1は、車両3の時速が50km/hまで減速した時点で注意喚起をする。
【0065】
通常状態のタイプBの運転者に対しては、運転支援装置1は、タイプAの運転者が漫然状態の場合と同様に報知音を鳴らす。さらに、運転支援装置1は、下り坂に入った時点でHUDに減速指示を表示する。
【0066】
漫然状態のタイプBの運転者に対しては、タイプBの運転者が通常状態の場合と同様に報知音を鳴らす。また、運転支援装置1は、下り坂に入った時点でHUDに減速指示を表示する。さらに、タイプBの運転者が漫然状態の場合、運転支援装置1は、減速操作のタイミングを、音声及びHUDへの表示により運転者に通知する。具体的には、運転支援装置1は、車両3の減速状況に応じて、エンジンブレーキをかけるタイミング、ブレーキを踏むタイミング、減速が遅れた場合のタイミングを運転者に通知する。
図8の例では、運転支援装置1は、報知音とともにエンジンブレーキをかけること促すマークをHUDに表示する。
【0067】
また、タイプBの運転者が漫然状態の場合、運転支援装置1は、下り坂において車両3の時速が所定の閾値を超えた場合に運転支援情報を提示する。
図8の例では、運転支援装置1は、車両3の時速が70km/hに達した時点で、ブレーキを踏むこと促すマークをHUDに表示する。さらに、運転支援装置1は、減速が遅れ、車両3の時速が80km/hに達した時点で、音声によりブレーキを踏むように促し、HUDには警告マークを表示する。なお、減速が遅れた場合は、音声による警告の音量を上げたり、HUDへの表示を大きくして点滅させたりする等、運転支援装置1は、通知する態様を適宜変更してもよい。
【0068】
図9は、運転支援情報の表示例を示す図である。
図9には、車両3の運転席から外界を
見たときの様子が例示される。フロントガラスの点線で囲まれた領域Mは、HUDの表示領域である。領域Mには、
図7のタイプAの運転者が漫然状態である場合の注意喚起のマークが表示されている。運転支援装置1は、運転者の状態及び運転者のタイプに応じて領域Mの表示内容を変更する。
【0069】
〔運転支援情報の例1−2〕
図10は、左折又は右折時における運転支援の内容を例示する図である。交差点で左折又は右折時に発進する際、後方からの車両、対向車両、横断歩道を渡る歩行者、交差点に進入してくる自転車等の様々な状況確認が求められる。運転者に周囲の状況確認を促すため、運転者のタイプに応じた注意喚起がHUDに表示される。
図10の例では、運転者のタイプとして、タイプA及びタイプBが例示される。タイプAの運転者は、慎重に発進するタイプの運転者であると想定される。タイプBの運転者は、アクセルを踏んで素早く曲がるタイプの運転者であると想定される。運転者の状態としては、通常状態及び漫然状態が例示される。
【0070】
運転者の状態が通常状態である場合、運転支援装置1は、タイプAの運転者に対しては注意喚起不要と判断する。一方、運転支援装置1は、タイプBの運転者に対しては、音声により状況確認をするように促し、HUDには左折時または右折時のそれぞれの方向の状況確認を促すマークを表示する。運転中の視界に入るHUDに状況確認を促すマークが表示されることで、運転者の状況確認は促進される。
【0071】
運転者の状態が漫然状態である場合、運転支援装置1は、タイプAの運転者に対しては、HUDに左折時または右折時のそれぞれの方向の状況確認を促すマークを表示し、マークの点滅速度を上げる。一方、運転支援装置1は、タイプBの運転者に対しては、タイプAの運転者と同様の運転支援情報を提示し、周囲の状況確認がされない場合には、警告表示に切り替える。警告表示は、状況確認を促すマークよりも大きくしたり、点滅速度をより早くしたりしてもよい。
【0072】
〔運転支援情報の例2〕
図11は、認知信号機の表示例を説明する図である。
図11には、車両3の運転席から外界を見たときの様子が例示される。フロントガラスの点線で囲まれた領域Mは、HUDの表示領域である。領域Mには、信号機のような3つの円(以下、認知信号機という)が表示され、右端の円は、赤く塗りつぶされた状態を示す。認知信号機の表示例として、
図11に4つの例が示される。3つの円のいずれも消灯した状態を示す表示例CT1は、一旦停止の標識が認識されたことを示す。右端の円が赤く点灯した状態を示す表示例CT2は、運転者に減速を促す際に表示される。中央の円が黄色く点灯した状態を示す表示例CT3は、一旦停止の指示に従い安全の確認行為が取られた場合に表示される。認知信号機自体の表示が消えた状態CT4は、認知信号機の表示が消えることにより発進を促す。
【0073】
図12及び
図13は、認知信号機を表示するタイミングを例示する図である。上述の例では、運転者が通常状態であるか漫然状態であるかは、視線活動量に基づいて推定されるが、例2に係る認知信号機の例では、減速のタイミングに基づいて運転者が通常状態であるか漫然状態であるかが推定される。
図12及び
図13において、横軸方向は距離を示し、縦軸方向は時速を示す。漫然状態における減速の様子は一点鎖線で示される。また、通常状態における減速の様子は実線で示される。
【0074】
図12は、正しく一旦停止を実践していると想定されるタイプAの運転者に対して、認知信号機を表示するタイミングを例示する。タイプAの運転者は、通常状態において、停止線から所定の距離だけ離れた位置T1で減速を開始するものとする。所定の距離は、タイプAの運転者の基準データとして設定された距離である。運転支援装置1は、位置T1
において運転支援情報として
図11の認知信号機の表示例CT1をHUDに表示し、一旦停止の標識があることを運転者に通知する。
【0075】
位置T1から所定の距離だけ走行した位置T2、例えば位置T1からの距離が5mの位置で減速されていなければ、タイプAの運転者は漫然状態であると推定される。このとき、運転支援装置1は、赤信号の表示例CT2をHUDに表示する。停止線に達した位置T3において車両3が停止され、運転者が安全の確認行為をしたことが視線の動きから検知されると、運転支援装置1は黄信号の表示例CT3をHUDに表示する。一方で、位置T2で減速されていれば、タイプAの運転者は通常状態であると推定される。この場合、運転支援装置1は、赤信号の表示例CT2は表示せず、停止線の位置T3において認知信号機の表示を消す(状態CT4)。
【0076】
図13は、一旦停止の停止線をオーバーする傾向にあると想定されるタイプBの運転者に対して、認知信号機を表示するタイミングを例示する。タイプBの運転者は、通常状態において、停止線から所定の距離だけ離れた位置T11で減速を開始するものとする。所定の距離は、タイプBの運転者の基準データとして設定された距離である。運転支援装置1は、位置T11において運転支援情報として
図11の認知信号機の表示例CT1をHUDに表示し、一旦停止の標識があることを運転者に通知する。なお、タイプBの運転者に対しては、早めの減速を促すため、運転支援装置1は、位置T11よりも手前の位置T10、例えば、車両3が一旦停止の標識を認識した位置において、認知信号機の表示例CT1をHUDに表示するようにしてもよい。
【0077】
位置T11から所定の距離だけ走行した位置T12の時点、例えば位置T11からの距離が5mの位置で減速されていなければ、タイプBの運転者は漫然状態であると推定される。このとき、運転支援装置1は、赤信号の表示例CT2をHUDに表示する。停止線に達した位置T13において車両3が停止され、運転者が安全の確認行為をしたことが視線の動きから検知されると、運転支援装置1は黄信号の表示例CT3をHUDに表示する。一方で、位置T12で減速されていれば、タイプBの運転者は通常状態であると推定される。この場合、運転支援装置1は、赤信号の表示例CT2を表示しない。また、停止線の位置T13において、運転支援装置1は黄信号の表示例CT3をHUDに表示する。黄信号の表示例CT3がHUDに表示されることにより、タイプBの運転者は、自身が安全の確認行為を取ったことを認識することができ、安全運転に対する意識を高めることができる。
【0078】
〔運転支援情報の例3〕
図14は、運転者の車体周囲に対する視認状況を表示する例を示す図である。車両3のセンサ31は、運転者の車内から外界の6方位D1からD6に向けられる視線を検知する。運転支援装置1は、各向きへの確認頻度を楕円の大きさによって段階的に表し、HUDに表示する。各向きへの確認頻度は、楕円に限らず矢印等で表されても良い。運転者は、各方位に表示される図形の大きさから、車両3の周囲への確認状況を認識することができる。
図14の例は、D1からD6の各方位に対する確認頻度が標準状態であることを示す。
【0079】
図15は、漫然状態における運転者の車体周囲に対する視認状況を表示する例を示す図である。
図15の例では、方位D3及びD4における確認頻度が標準状態よりも少なく、方位D3及びD4における楕円の大きさは、
図14に示す標準状態の場合と比較して小さくなっている。また、方位D5における確認頻度は標準状態よりもかなり少なく、方位D5における楕円の大きさは、
図14に示す標準状態の場合と比較して小さくなっている。運転支援装置1は、方位D3、D4及びD5に対する確認頻度が標準状態より少ないことを運転者に認識させ、各方位への確認をするように注意喚起することができる。
【0080】
さらに、運転者が漫然状態の場合には、運転支援装置1は、各方位に近接する障害物を検知し、検知された方位に表示してもよい。
図15の例では、方位D5で検知されたバイクの画像が表示されている。なお、障害物等の外界の状況は車両3が備えるセンサ31によって検知され、運転支援装置1は、車両3が検知した状況に関するデータを取得することにより、外界の状況を認識することができる。また、運転者が漫然状態の場合には、運転支援装置1は、表示の大きさ、色彩、点滅速度等の表示態様を変えて注意喚起又は警告するようにしてもよい。
【0081】
上記に例示した運転支援情報の他、提示部F15は、地形の情報と対応づけられた地図情報に基づいて、運転支援情報の内容を切り替えるようにすることもできる。例えば、坂道の多い地域を走行中、運転支援装置1は、運転者の状態及び運転者のタイプに応じて、エンジンブレーキの使用を促す表示を、適切な頻度及びタイミングで表示するようにしてもよい。なお、地図情報は、運転支援装置1の補助記憶装置13に格納して利用できるようにすることができる。
【0082】
図2の機能構成において、運転支援情報データベースD11は、運転者の状態及び運転者のタイプに応じた運転支援情報を格納するためのデータベースである。運転支援情報データベースD11は、プロセッサ11によって実行されるデータベース管理システム(DBMS)のプログラムが、補助記憶装置13に記憶されるデータを管理することで構築される。運転支援情報データベースD11は、例えば、リレーショナルデータベースである。運転支援情報データベースD11は、
図7及び
図10に示す運転者の状態及び運転者のタイプごとの運転支援情報の内容を格納する。
【0083】
<<サーバ>>
図3は、サーバの機能構成を例示する図である。サーバ2は、機能構成として、タイプ管理部F21、及びデータ管理データベースD21を備える。サーバ2は、補助記憶装置23に記憶されているプログラムが、主記憶装置22に読み出され、プロセッサ21によって実行されることで、タイプ管理部F21、及びデータ管理データベースD21を備えるコンピュータとして機能する。
【0084】
なお、本実施形態において、サーバ2の備える各機能は、汎用プロセッサであるプロセッサ21によって実行されるが、これらの機能の一部又は全部は、1又は複数の専用プロセッサ、ハードウェアの演算回路等によって実行されてもよい。ここで、ハードウェアの演算回路とは、例えば、論理ゲートを組み合わせた加算回路、乗算回路、フリップフロップ等をいう。また、これらの機能の一部又は全部は、別途のコンピュータにおいて実行されてもよい。
【0085】
タイプ管理部F21は、データ管理データベースD21に蓄積された運転操作の特性に関するデータを統計的に解析し、クラスタリング等の手法を用いて運転者を複数のタイプに分類する。タイプごとの運転操作の特性に関するデータは、運転支援装置1の補助記憶装置13に複製され、運転支援装置1のタイプ判定部F11は、複製されたデータに基づいて運転者のタイプを判定してもよい。
【0086】
データ管理データベースD21は、視線活動量等の運転者の状態を推定するための情報、及び運転者の状態を推定するための運転操作の特性に関する情報を格納するためのデータベースである。運転支援情報データベースD11は、プロセッサ21によって実行されるデータベース管理システム(DBMS)のプログラムが、補助記憶装置23に記憶されるデータを管理することで構築される。データ管理データベースD21は、例えば、リレーショナルデータベースである。データ管理データベースD21に格納されるデータは、
車両3が備えるセンサ31によって計測された各種データを、運転支援装置1を介して受信し蓄積したものである。
【0087】
<処理の流れ>
図16は、運転支援情報を提示する処理の流れを例示するフローチャートである。この処理の流れは、例えば、運転者が車両3の運転を開始することを契機に開始する。また、
図16に示される処理は、車両3の運転が終了するまでの間、運転者の状態の変化又は外界の状況の変化が認識されることを契機として繰り返し実行される。
【0088】
まず、ステップS101では、タイプ判定部F11は、運転者のタイプを判定する。タイプ判定部F11は、運転操作の特性に応じて、予め定義された運転者のタイプのうち、判定対象である運転手が属する運転者のタイプを判定することができる。また、タイプ判定部F11は、運転者のアンケートに対する回答に基づいて運転者のタイプを判定してもよい。さらに、タイプ判定部F11は、サーバ2において判定された運転者のタイプの情報を取得してもよい。なお、ステップS101の処理は、ステップS105より前に実行されればよく、ステップS102からステップS104の処理のいずれかの処理の後に実行されてもよい。
【0089】
ステップS102では、データ取得部F12は、車両3から、センサ31で計測された運転者の状態を推定するためのデータを取得する。データ取得部F12は、運転者が装着するウェアラブルセンサから、運転者の状態を推定するためのデータを取得してもよい。
【0090】
ステップS103では、状態推定部F13は、データ取得部F12が取得したデータに基づいて、運転者の状態を推定する。運転者の状態は、例えば、普段通りに適切な運転が可能な通常状態の他、注意力が低下した漫然状態である。この他、対応する運転支援情報が運転支援情報データベースD11に定義されていれば、状態推定部F13は、運転者の状態を、落ち着きがない状態、焦っている状態等として推定してもよい。
【0091】
ステップS104では、状態推定部F13は、運転者が通常状態か否かを判定する。運転者が通常状態である場合(S104;Yes)、処理はステップS105へ進む。運転者が通常状態でない場合(S104;No)、処理はステップS106へ進む。
【0092】
ステップS105では、提示部F15は、運転者のタイプが、通常状態において運転支援の対象であるか否かを判定する。例えば、安全運転を怠りがちな運転者や初心者の運転者は、通常状態であっても、運転者が安全運転に対する意識を高めたり、運転操作についてアドバイスをしたりするため、運転支援の対象であると判定される。運転者が運転支援の対象であると判定された場合(S105;Yes)、処理はステップS106へ進む。運転者が運転支援の対象でないと判定された場合(S105;No)、処理は終了する。
【0093】
ステップS106では、提示部F15は、運転支援情報を表示するタイミングであるか否かを判定する。提示部F15は、運転者の状態及び運転者のタイプの他、地図情報に対応づけられた地形の情報、車両3のセンサ31で認識された速度、道路標識、障害物等の情報に基づいて、運転支援情報を表示するタイミングであるか否かを判定することができる。運転支援情報を表示するタイミングであると判定された場合(S106;Yes)、処理はステップS107へ進む。運転支援情報を表示するタイミングでないと判定された場合(S106;No)には、運転支援情報を表示するタイミングになるまで、ステップS106の処理を所定の間隔で繰り返す。
【0094】
ステップS107では、提示部F15は、運転支援情報データベースD11から運転者の状態及び運転者のタイプに応じた運転支援情報を取得し提示する。提示される運転支援
情報の内容は、
図7及び
図10に例示される。また、運転支援情報は、車両3の出力装置31に表示される。例えば、運転支援情報は、
図9及び
図11に示される領域Mのように、車両3の運転者の視角の範囲内に表示されるようにすることができる。また、運転支援情報は、
図8及び
図12で説明したタイミングで、車両3の出力装置31に表示するようにしてもよい。運転支援情報が車両3の出力装置31に表示されると、
図16に示される処理は終了する。
図16に示される処理は、運転者が車両3の運転を終了するまでの間、所定のタイミングで繰り返し実行される。
【0095】
以上説明した実施形態において、運転支援装置1は、推定された運転者の状態及び運転者のタイプに応じた運転支援情報を提示することができる。また、運転支援装置1は、運転者の状態を推定するための基準データを設定し、蓄積されたデータをもとに基準データを更新することで、運転者の状態を精度良く推定することができる。また、運転支援装置1は、運転者の状態及び運転者のタイプに応じて、運転支援情報を提示するタイミングを変更することで、適時に運転支援情報を提示することができる。さらに、運転支援装置1は、運転者の視角の範囲内に認識容易な態様で運転支援情報を表示することで、運転者に対して効果的に注意喚起をすることができる。