IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 矢崎エナジーシステム株式会社の特許一覧

<>
  • 特許-運転評価装置及び運転評価プログラム 図1
  • 特許-運転評価装置及び運転評価プログラム 図2
  • 特許-運転評価装置及び運転評価プログラム 図3
  • 特許-運転評価装置及び運転評価プログラム 図4
  • 特許-運転評価装置及び運転評価プログラム 図5
  • 特許-運転評価装置及び運転評価プログラム 図6
  • 特許-運転評価装置及び運転評価プログラム 図7
  • 特許-運転評価装置及び運転評価プログラム 図8
  • 特許-運転評価装置及び運転評価プログラム 図9
  • 特許-運転評価装置及び運転評価プログラム 図10
  • 特許-運転評価装置及び運転評価プログラム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-15
(45)【発行日】2024-10-23
(54)【発明の名称】運転評価装置及び運転評価プログラム
(51)【国際特許分類】
   G08G 1/00 20060101AFI20241016BHJP
   G08G 1/09 20060101ALI20241016BHJP
   G07C 5/00 20060101ALI20241016BHJP
   G06T 7/00 20170101ALI20241016BHJP
【FI】
G08G1/00 D
G08G1/09 F
G07C5/00 Z
G06T7/00 650Z
G06T7/00 350C
【請求項の数】 7
(21)【出願番号】P 2020073497
(22)【出願日】2020-04-16
(65)【公開番号】P2021170260
(43)【公開日】2021-10-28
【審査請求日】2023-03-10
(73)【特許権者】
【識別番号】501418498
【氏名又は名称】矢崎エナジーシステム株式会社
(74)【代理人】
【識別番号】100083806
【弁理士】
【氏名又は名称】三好 秀和
(74)【代理人】
【識別番号】100101247
【弁理士】
【氏名又は名称】高橋 俊一
(74)【代理人】
【識別番号】100095500
【弁理士】
【氏名又は名称】伊藤 正和
(74)【代理人】
【識別番号】100098327
【弁理士】
【氏名又は名称】高松 俊雄
(72)【発明者】
【氏名】李 輝
【審査官】武内 俊之
(56)【参考文献】
【文献】特開2006-292418(JP,A)
【文献】特開2018-128389(JP,A)
【文献】特開2017-182678(JP,A)
【文献】特開平06-004795(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/00
G08G 1/09
G07C 5/00
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
評価対象となる運転者が運転する車両で収集された前記車両の走行データの解析結果から、前記車両の運行状態を検出する検出部と、
前記車両で撮影された画像に対するニューラルネットワークの画像認識結果から、前記検出部が検出した前記運行状態が特定の状態であるときの前記画像上で、前記運行状態が前記特定の状態となる要因の事象が発生しているか否かを判定する判定部と、
前記画像上で前記事象が発生していると前記判定部が判定した前記特定の状態の前記運行状態を対象から除外して、前記検出部が検出した前記運行状態に基づき前記運転者による前記車両の運転内容を評価する評価部と、
前記画像上で前記事象が発生していないと判定した前記判定部の判定結果の再判定結果が入力される再判定入力部と、
を備え
前記画像上で前記事象が発生していないと判定した前記判定部の判定結果を覆す再判定結果が入力された場合に前記評価部は、前記特定の状態の前記運行状態を対象に追加して、前記検出部が検出した前記運行状態に基づき前記運転者による前記車両の運転内容を再評価する運転評価装置。
【請求項2】
前記検出部は、前記車両の車載器から送信される前記走行データを受信し解析する請求項1に記載の運転評価装置。
【請求項3】
前記判定部は、前記走行データと共に前記車載器から送信される画像データを受信し、前記ニューラルネットワークにより画像認識する請求項2に記載の運転評価装置。
【請求項4】
前記特定の状態は、前記車両の連続アイドリング時間の基準時間への到達、又は、前記車両の所定以上の減速度による急ブレーキの発生を少なくとも含んでいる請求項1~3のうちいずれか1項に記載の運転評価装置。
【請求項5】
前記判定部の判定結果を覆す再判定結果が前記再判定入力部に入力された、前記運行状態が前記特定の状態であるときの前記画像に、前記判定部による判定結果が不適合であることを示すラベルを付与して、前記ニューラルネットワークの学習データとして記憶部に記憶させる学習データ生成部と、前記記憶部の前記学習データを用いて前記ニューラルネットワークの追学習を行う追学習部とをさらに備える請求項1~4のうちいずれか1項に記載の運転評価装置。
【請求項6】
前記画像上で前記事象が発生していないと前記判定部が判定した、前記運行状態が前記特定の状態であるときの前記画像に、フラグを付与するフラグ付与部と、前記フラグが付与された前記画像に対する前記事象が発生しているか否かの再判定を要求する要求部とをさらに備え、前記要求に呼応して前記再判定結果が前記再判定入力部に入力される請求項1~5のうちいずれか1項に記載の運転評価装置。
【請求項7】
評価対象となる運転者が運転する車両で収集された前記車両の走行データの解析結果から、前記車両の運行状態を検出する検出ステップと、
前記車両で撮影された画像に対するニューラルネットワークの画像認識結果から、前記検出ステップにおいて検出された前記運行状態が特定の状態であるときの前記画像上で、前記運行状態が前記特定の状態となる要因の事象が発生しているか否かを判定する判定ステップと、
前記画像上で前記事象が発生していると前記判定ステップにおいて判定された前記特定の状態の前記運行状態を対象から除外して、前記検出ステップにおいて検出された前記運行状態に基づき運転者による前記車両の運転内容を評価する評価ステップと、
をコンピュータに実行させ
前記画像上で前記事象が発生していないと判定した前記判定ステップの判定結果を覆す再判定結果が入力された場合、前記コンピュータに、前記運転者による前記車両の運転内容を再評価させる運転評価プログラムが開示され、前記評価ステップにおいて、前記特定の状態の前記運行状態を対象に追加して、前記検出ステップにおいて検出された前記運行状態に基づき前記運転内容が再評価される、
運転評価プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、運転評価装置及び運転評価プログラムに関する。
【背景技術】
【0002】
従来から、車両の走行データをデジタルタコグラフ等で収集して解析し、車両の運転者による運転操作を安全運転、環境保護等の観点から評価することが知られている(例えば、特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2019-153026号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述した運転操作の評価は、各項目の走行データに対する評価基準を用いて行われる。したがって、この評価基準を用いて得られる評価は、車両で収集した走行データが発生した背景にある事情等が一切考慮されていない内容となる。
【0005】
本発明は、このような従来技術が有する課題に鑑みてなされたものである。そして、本発明の目的は、車両の走行データを解析して運転者の運転操作を評価する際に、解析する走行データが発生した事情を考慮した内容の評価を得ることができる運転評価装置及び運転評価プログラムを提供することにある。
【課題を解決するための手段】
【0006】
上記目的を達成するため本発明の第1の態様に係る運転評価装置は、
車両で収集された前記車両の走行データの解析結果から、前記車両の運行状態を検出する検出部と、
前記車両で撮影された画像に対するニューラルネットワークの画像認識結果から、前記検出部が検出した前記運行状態が特定の状態であるときの前記画像上で、前記運行状態が前記特定の状態となる要因の事象が発生しているか否かを判定する判定部と、
前記画像上で前記事象が発生していると前記判定部が判定した前記特定の状態の前記運行状態を対象から除外して、前記検出部が検出した前記運行状態に基づき運転者による前記車両の運転内容を評価する評価部と、
を備える。
【0007】
本発明の第2の態様に係る運転評価装置は、本発明の第1の態様に係る運転評価装置に関し、前記検出部は、前記車両の車載器から送信される前記走行データを受信し解析する。
【0008】
本発明の第3の態様に係る運転評価装置は、本発明の第2の態様に係る運転評価装置に関し、前記判定部は、前記走行データと共に前記車載器から送信される画像データを受信し、前記ニューラルネットワークにより画像認識する。
【0009】
本発明の第4の態様に係る運転評価装置は、本発明の第1~第3のいずれか1つの態様に係る運転評価装置に関し、前記特定の状態は、以下のどちらかを少なくとも含んでいる。即ち、前記特定の状態は、前記車両の連続アイドリング時間の基準時間への到達、又は、前記車両の所定以上の減速度による急ブレーキの発生を少なくとも含んでいる。
【0010】
本発明の第5の態様に係る運転評価装置は、本発明の第1~第4のいずれか1つの態様に係る運転評価装置に関し、前記画像上で前記事象が発生していないと判定した前記判定部の判定結果の再判定結果が入力される再判定入力部をさらに備える。前記画像上で前記事象が発生していないと判定した前記判定部の判定結果を覆す再判定結果が入力された場合に前記評価部は、前記特定の状態の前記運行状態を対象に追加する。そして、前記検出部が検出した前記運行状態に基づき前記運転者による前記車両の運転内容を再評価する。
【0011】
本発明の第6の態様に係る運転評価装置は、本発明の第5の態様に係る運転評価装置に関し、学習データ生成部と追学習部とをさらに備える。このうち学習データ生成部は、前記判定部の判定結果を覆す再判定結果が前記再判定入力部に入力された、前記運行状態が前記特定の状態であるときの前記画像に、前記判定部による判定結果が不適合であることを示すラベルを付与する。そして、学習データ生成部は、不適合のラベルを付与した画像を、前記ニューラルネットワークの学習データとして記憶部に記憶させる。
【0012】
本発明の第7の態様に係る運転評価装置は、本発明の第5又は第6の態様に係る運転評価装置に関し、フラグ付与部と要求部とをさらに備える。このうちフラグ付与部は、前記画像上で前記事象が発生していないと前記判定部が判定した、前記運行状態が前記特定の状態であるときの前記画像にフラグを付与する。また、要求部は、フラグ付与部により前記フラグが付与された前記画像に対する前記事象が発生しているか否かの再判定を要求する。そして、要求部の前記要求に呼応して前記再判定結果が前記再判定入力部に入力される。
【0013】
また、上記目的を達成するため本発明の第8の態様に係る運転評価プログラムは、
車両で収集された前記車両の走行データの解析結果から、前記車両の運行状態を検出する検出ステップと、
前記車両で撮影された画像に対するニューラルネットワークの画像認識結果から、前記検出ステップにおいて検出された前記運行状態が特定の状態であるときの前記画像上で、前記運行状態が前記特定の状態となる要因の事象が発生しているか否かを判定する判定ステップと、
前記画像上で前記事象が発生していると前記判定ステップにおいて判定された前記特定の状態の前記運行状態を対象から除外して、前記検出ステップにおいて検出された前記運行状態に基づき運転者による前記車両の運転内容を評価する評価ステップと、
をコンピュータに実行させる。
【発明の効果】
【0014】
本発明によれば、車両の走行データを解析して運転者の運転操作を評価する際に、解析する走行データが発生した事情を考慮した内容の評価を得ることができる運転評価装置を提供することができる。
【図面の簡単な説明】
【0015】
図1】本実施形態に係る運行情報管理システムの概略構成の一例を示す説明図である。
図2図1のドライブレコーダの電気的構成を示すブロック図である。
図3図1のドライブレコーダのカメラの車両における配置を示す説明図である。
図4図1のクラウドサーバの電気的構成を示すブロック図である。
図5図1の事務所PCのディスプレイに表示される評価メニューを選択するWEBコンソール画面を示す説明図である。
図6図4の評価部が評価した運転者の運転内容を示す運転日報の一例を示す説明図である。
図7図4の要因判定部がプログラムにしたがい実行するアイドリング超過要因判定処理の手順の一例を示すフローチャートである。
図8図4の要因判定部がプログラムにしたがい実行する急ブレーキ要因判定処理の手順の一例を示すフローチャートである。
図9図4の要因判定部がプログラムにしたがい実行するイベント発生要因の再判定処理の手順の一例を示すフローチャートである。
図10図4の学習処理部が行う処理の手順を示すフローチャートである。
図11図1のクラウドサーバのCPUによって実行される外部記憶装置に格納された運転評価プログラムの手順の一例を示すフローチャートである。
【発明を実施するための形態】
【0016】
以下、図面を用いて本実施形態に係る運転評価装置について詳細に説明する。なお、図面の寸法比率は説明の都合上誇張されており、実際の比率と異なる場合がある。
【0017】
以下に示す実施形態は、この発明の技術的思想を具体化するための装置等を例示するものであって、この発明の技術的思想は、各構成部品の材質、形状、構造、配置等を下記のものに特定するものでない。
【0018】
本実施形態では、例えば、車両の運行状態管理システムの構成要素として、運転評価装置を用いる場合について説明する。本実施形態では、クラウド空間上のサーバが運転評価装置として運用され、車両の運行状態を管理するサービスがクラウド空間上で提供される。
【0019】
この運行状態管理システムでは、車両で収集した車両の走行データをクラウド空間上のサーバにアップロードする。車両の管理者側は、例えば、インターネット等のコンピュータネットワークによりクラウド空間上のサーバに接続した手元のコンピュータ上で、サーバが提供する管理サービスを利用することができる。
【0020】
具体的には、管理者は、例えば、手元のコンピュータに表示させたこの管理サービスのWEBコンソール画面上で、希望する運行状態の解析メニューを入力する。すると、管理者は、希望した解析メニューによる運行状態の解析結果を、WEBコンソール画面を通じてサーバから手元のコンピュータに受け取ることができる。
【0021】
なお、管理者の手元のコンピュータに管理サービスのプログラムをインストールし、車両の運行状態管理を手元のコンピュータで直接行う構成とすることもできる。この場合は、管理者のコンピュータが運転評価装置として運用される。この場合、車両で収集した車両の走行データは、管理者のコンピュータに入力する。車両から管理者のコンピュータへの走行データの入力は、無線通信によりオンラインで行ってもよく、可搬型記憶媒体を用いてオフラインで行ってもよい。
【0022】
以下、クラウド空間上のサーバが運転評価装置として運用される車両の運行状態管理システムについて説明する。
【0023】
図1に示す本実施形態の車両運行情報管理システム1は、トラックやバス等の車両(図示せず)の運行状態を管理するものである。
【0024】
車両運行情報管理システム1は、後述する車両5(図3参照)に搭載された運行記録装置(以下、デジタルタコグラフという)10及びドライブレコーダ30を含んで構成される。また、車両運行情報管理システム1は、クラウド空間上のクラウドサーバ50と、車両5の管理者が操作する事務所PC70とを含んで構成される。クラウドサーバ50は、デジタルタコグラフ10及び事務所PC70の双方と、ネットワーク80を介してそれぞれ接続される。
【0025】
ネットワーク80は、デジタルタコグラフ10と広域通信を行う無線基地局81と、無線基地局81が接続されたインターネット83とを有している。
【0026】
無線基地局81は、車両5のデジタルタコグラフ10との間の無線によるデータ通信を実現する。無線によるデータ通信は、例えば、無線WAN(Wide Area Network )で構成することができる。無線WANは、例えば、LTE(Long Term Evolution )等の4G(4th Generation)又は5G(5th Generation)規格によるものとすることができる。
【0027】
インターネット83は、無線基地局81を介して、デジタルタコグラフ10とインターネット83上のクラウドサーバ50との間のデータ通信を実現する。また、インターネット83は、クラウドサーバ50と事務所PC70との間のデータ通信を実現する。
【0028】
クラウドサーバ50は、無線基地局81を介してデジタルタコグラフ10と通信し、デジタルタコグラフ10が収集した車両5の走行データを受け取って蓄積する。また、クラウドサーバ50は、蓄積した車両5の走行データ等を解析して、デジタルタコグラフ10を搭載した車両の運行状況を管理する。
【0029】
事務所PC70は、事務所90に設置された汎用のコンピュータ装置で構成される。事務所PC70は、クラウドサーバ50に実行させる走行データの解析メニューを入力し、入力したメニューのクラウドサーバ50による解析結果を受け取ることができる。
【0030】
デジタルタコグラフ10は、車両5に搭載され、一定時間毎に車両5の走行データを記録する。また、デジタルタコグラフ10は、車両5においてイベントが発生したときにも、車両5の走行データを記録する。
【0031】
走行データを記録する車両5のイベントは、例えば、SW入力部22のイベントボタン22zの操作とすることができる。デジタルタコグラフ10が記録する走行データは、例えば、車両5の出入庫時刻、走行距離、走行時間、走行速度、燃料量等を、少なくとも含むことができる。
【0032】
デジタルタコグラフ10は、CPU11、不揮発メモリ26A、揮発メモリ26B、記録部17、カードインタフェース(I/F。以下同じ。)18、音声I/F19、RTC(時計IC)21、SW入力部22及び表示部27を有する。
【0033】
CPU11は、デジタルタコグラフ10の各部を統括的に制御する。不揮発メモリ26Aは、CPU11によって実行される動作プログラム等を格納する。揮発メモリ26Bは、CPU11が行う制御処理に必要なワークスペースとして使用される。
【0034】
記録部17は、例えば、不揮発メモリで構成することができる。記録部17のメモリには、デジタルタコグラフ10において収集される車両5の走行データ、後述するドライブレコーダ30からデジタルタコグラフ10に入力される画像データ等を、タイムスタンプのデータと共に記録することができる。
【0035】
カードI/F18には、車両5の乗務員が所持するメモリカード60が挿抜自在に接続される。カードI/F18は、CPU11の制御によって、記録部17のメモリに記録されたデータを、メモリカード60に出力し書き込むことができる。音声I/F19には、内蔵のスピーカ20が接続される。スピーカ20は、警報等の音声を発する。
【0036】
RTC21(計時部)は、現在時刻を計時する。SW入力部22には、乗務員によって押下されるイベントボタン22zのON/OFF信号が入力される。イベントボタン22zは、例えば、車両5の出庫、入庫時にそれぞれ操作される出庫ボタン及び入庫ボタンを含むものとすることができる。また、イベントボタン22zは、例えば、荷物の積み込みの開始及び終了時、荷物の卸の開始及び終了時にそれぞれ操作される荷積開始、荷積終了、荷卸開始、荷卸終了等の各ボタンを含むものとすることができる。表示部27は、LCD(liquid crystal display)で構成され、通信や動作の状態の他、警報等を表示する。
【0037】
また、デジタルタコグラフ10は、速度I/F12A、エンジン回転I/F12B、外部入力I/F13、設定入力I/F14、画像信号I/F16、アナログ入力I/F29、GPS受信部15、通信部24及び電源部25を有する。
【0038】
速度I/F12Aには、車両5の速度を検出する車速センサ23が接続され、車速センサ23からの速度パルスが入力される。エンジン回転I/F12Bには、エンジン回転数センサ(図示せず)からの回転パルスが入力される。車速センサ23及び不図示のエンジン回転数センサは、例えば、車両5に搭載されたものを用いることができる。
【0039】
外部入力I/F13には、外部機器(図示せず)が接続される。外部機器としては、例えば、車両5に搭載されたカーナビゲーション装置、ETC車載機、タクシーメータ、あるいは、車両5の電子制御装置(ECU;Electronic Control Unit )等がある。
【0040】
ETC車載機からは、例えば、車両5の高速道路(有料道路を含む。以下同じ。)への乗り降りを示す信号を入力させることができる。電子制御装置(ECU)からは、例えば、車両5のアクセルセンサが検出した乗務員によるアクセルペダルの操作量(アクセル踏み込み量)に相当するアクセル開度の信号を入力させることができる。また、車両5の燃料センサが検出した燃料タンクの残燃料の信号等も入力させることができる。
【0041】
設定入力I/F14には、表示部27のタッチパネル28からの信号が入力される。タッチパネル28からは、表示部27に表示されたデジタルタコグラフ10の収集データ、つまり、車両5の走行データのうち、タッチパネル28のタッチ操作により選択されたデータを示す信号が入力される。入力された信号によって示される走行データは、クラウドサーバ50に送信される。
【0042】
なお、タッチパネル28の操作によって選択する走行データの内容は、クラウドサーバ50において行うデータ解析の内容に応じて決定することができる。
【0043】
画像信号I/F16には、デジタルタコグラフ10と共に車両5に搭載されたドライブレコーダ30の後述する画像信号I/F37(図2参照)が接続される。
【0044】
ドライブレコーダ30は、図2に示すように、カメラ31~34、CPU35、カメラI/F36、画像信号I/F37、記録部38、カードI/F39を有している。
【0045】
図3に示すように、各カメラ31~34は、車両5のキャビン6、荷室7、前端8及び後端9にそれぞれ配置されている。キャビン6のカメラ31は、運転席の運転者を撮影する。荷室7のカメラ32は、荷室7内を撮影する。前端8及び後端9の各カメラ33,34は、車両5の前方及び後方をそれぞれ撮影する。各カメラ31~34の撮影画像のデータは、図2のカメラI/F36を介してCPU35に入力される。
【0046】
CPU35は、カメラ31~34の画像データを、画像信号I/F37及び記録部38に出力する。
【0047】
記録部38は、例えば、不揮発メモリで構成することができる。記録部38のメモリには、各カメラ31~34の画像データを、タイムスタンプのデータと共に記録することができる。
【0048】
カードI/F39には、乗務員が所持するメモリカード65が挿抜自在に接続される。カードI/F39は、ドライブレコーダ30のCPU35の制御によって、記録部38のメモリに記録されたデータを、メモリカード65に出力し書き込むことができる。
【0049】
画像信号I/F37は、記録部38のデータをデジタルタコグラフ10の画像信号I/F16に出力する。画像信号I/F37は、CPU35の制御により、例えば、記録部38のデータを一定周期毎にパケットで出力することができる。
【0050】
画像信号I/F37及びカードI/F39が出力する各カメラ31~34の画像データは、非圧縮データ及び圧縮データのどちらでもよい。圧縮データは、例えば、画像データにおける各画素の画素値の前フレームに対する差分のみを内容とするものとすることができる。
【0051】
図1に示すデジタルタコグラフ10のアナログ入力I/F29には、車両5のエンジン温度(冷却水温)を検知する温度センサ(図示せず)等の信号が入力される。これらの信号は、車両5の不図示の電子制御装置(ECU)から入力されるようにしてもよい。また、アナログ入力I/F29には、上述した不図示の燃料センサの信号を電子制御装置(ECU)を経由せず直接入力してもよい。CPU11は、これらのI/Fを介して入力される情報を基に、車両5の各種の運転状態を検出する。
【0052】
GPS受信部15は、GPS(Global Positioning System )アンテナ15aに接続され、GPS衛星から送信される信号を受信し、車両5の現在位置(GPS位置情報)を取得する。
【0053】
通信部24は、広域通信を行い、携帯回線網(モバイル通信網)を介して無線基地局81に接続されると、無線基地局81と繋がるインターネット83を利用したネットワーク80を介して、クラウドサーバ50と通信を行う。電源部25は、イグニッションスイッチのオン等によりデジタルタコグラフ10の各部に電力を供給する。
【0054】
クラウドサーバ50は、デジタルタコグラフ10の通信部24から送信された走行データ及び画像データを、無線基地局81及びインターネット83を介して受信する。そして、受信した各走行データ及び画像データを、タイムスタンプのデータを基に互いに関連付けした上で、項目別に分類して内蔵のストレージデバイス(HDD、SSD(Solid State Drive )等の補助記憶装置)の対応する領域に記憶させる。
【0055】
なお、クラウドサーバ50には、事務所PC70においてメモリカード65から読み出した車両5の各カメラ31~34の画像データ及びタイムスタンプのデータを、インターネット83を介して事務所PC70からアップロードすることができる。カメラ31~34の画像データを事務所PC70からアップロードする場合、デジタルタコグラフ10は、カメラ31~34の画像データを通信部24からクラウドサーバ50に送信するのを省略してもよい。
【0056】
クラウドサーバ50は、事務所PC70から要求された解析メニューについて、分類して記憶した走行データ及び画像データから必要なデータを抽出し、加工、解析する。
【0057】
解析した結果は、要求元の事務所PC70の不図示のディスプレイにおいて、WEBコンソール画面上で表示させることができる。また、解析結果は、事務所PC70のディスプレイにWEBコンソール画面を表示させるブラウザの印刷機能を使って、不図示のプリンタにより用紙に印刷することができる。あるいは、解析した結果を事務所PC70に内蔵のストレージデバイス(図示せず)に記憶させて保存することもできる。
【0058】
次に、クラウドサーバ50の詳細な構成について説明する。クラウドサーバ50は、例えば、図4に示すように、CPU51、ROM52、RAM53及び外部記憶装置54を有する構成とすることができる。CPU51は、例えば、外部記憶装置54に格納されたプログラムを実行することで、クラウドサーバ50上に、運行状態検出部55、要因判定部56、評価部57及び学習処理部58を仮想的に実装させることができる。
【0059】
運行状態検出部55は、デジタルタコグラフ10からの走行データを解析し、車両5の運行状態を検出する。運行状態検出部55が検出する運行状態は、例えば、車両5の一般的な運行状態である走行速度、加速度、減速度、燃費等の他、車両5の運行状態が特定の状態となったことを含むことができる。特定の状態は、少なくとも、基準時間以上連続する長時間のアイドリング、及び、所定以上の減速度による急ブレーキを含むものとすることができる。
【0060】
評価部57は、運行状態検出部55が検出する運行状態に基づいて、車両5の運転者による運転内容を評価する。評価内容は、事務所PC70のディスプレイに表示される図5の評価メニューを選択するWEBコンソール画面71からの入力に応じて、図6に示す日単位の運転日報75、あるいは、月単位の運転月報等の形式で出力することができる。評価部57が出力した運転評価の内容は、事務所PC70のディスプレイのWEBコンソール画面に表示し、必要に応じて、事務所PC70に接続された不図示のプリンタから印刷することができる。
【0061】
ここで、評価部57は、デジタルタコグラフ10からの走行データを解析して検出される車両5の運行状態に対し、図4に示す各項目の走行データに対する評価基準を用いて、運転者の運転内容を評価する。
【0062】
評価基準は、安全運転、環境保護等の観点から運転者の運転内容を評価するための基準値等を定義するものである。例えば、長時間のアイドリングとして注意を促す基準時間、急ブレーキとして注意を促す所定の減速度等が、評価基準において定義される。但し、評価基準による評価では、注意の対象となる走行データが発生した背景にある事情等が一切考慮されていない内容となる。
【0063】
そこで、クラウドサーバ50は、運行状態検出部55が検出した運転状態のうち特定の状態について、注意の対象となる走行データが発生した場合に、要因判定部56において、注意の対象となる走行データが発生した要因となる事象の有無を判定する。そして、クラウドサーバ50は、評価部57が図6の運転日報75を出力する際に、要因判定部56の判定結果を加味して、評価部57に運転者の運転内容を評価させる。
【0064】
要因判定部56は、車両5の運行状態が特定の状態となった時点におけるドライブレコーダ30の各カメラ31~34からの画像データを解析して、運行状態が特定の状態となる要因の事象が発生しているか否かを判定することができる。この判定を行うために、要因判定部56は、ニューラルネットワークを用いて、各カメラ31~34からの画像データに対して画像認識処理を行う。
【0065】
例えば、特定の状態が、基準時間以上連続する長時間のアイドリングである場合、要因判定部56は、ニューラルネットワークの画像認識処理により、アイドリングが長時間続く要因を判定する。
【0066】
具体的には、要因判定部56は、図7のフローチャートに示すように、運行状態検出部55が検出した運転状態において、車両5の連続アイドリング時間が基準時間を超過したか否かを確認する(ステップS11)。基準時間を超過していない場合は(ステップS11でNO)、一連の処理を終了する。
【0067】
基準時間を超過した場合は(ステップS11でYES)、要因判定部56は、基準時間の超過時点の前後10分間の走行データ(車載電文)及び画像データを抽出する(ステップS13)。そして、抽出した走行データ及び画像データの解析結果から、車両5が渋滞中の道路にいるのか否かを確認する(ステップS15)。渋滞中の道路にいる場合は(ステップS15でYES)、後述するステップS21に処理を移行する。
【0068】
渋滞中の道路にいない場合は(ステップS15でNO)、要因判定部56は、抽出した走行データ及び画像データの解析結果から、車両5の運転者が荷物の積卸等の作業中であるか否かを確認する(ステップS17)。積卸等の作業中である場合は(ステップS17でYES)、ステップS21に処理を移行する。
【0069】
積卸等の作業中でない場合は(ステップS17でNO)、要因判定部56は、抽出した走行データ及び画像データの解析結果から、車両5が、積待ちあるいは卸待ちによる待機中であるか否かを確認する(ステップS19)。車両5が待機中である場合は(ステップS17でYES)、ステップS21に処理を移行する。車両5が待機中でない場合は(ステップS17でNO)、後述するステップS23に処理を移行する。
【0070】
ステップS21では、要因判定部56は、運行状態検出部55が検出した基準時間を超過したアイドリングのイベントに対し、このアイドリングの状態が発生する要因が運転手以外に存在すると判定して、運転者に注意を促す評価対象から除外する。そして、一連の処理を終了する。
【0071】
ステップS23では、要因判定部56は、運行状態検出部55が検出した基準時間を超過したアイドリングのイベントに対し、このアイドリングの状態が発生する要因が運転手以外に存在しないと判定して運転者に注意を促す評価対象に加える。そして、要因判定部56は、判定フラグFをONさせて(ステップS25)、一連の処理を終了する。
【0072】
また、特定の状態が、所定以上の減速度による急ブレーキである場合、要因判定部56は、ニューラルネットワークの画像認識処理により、車両5の前方に歩行者等の移動体の飛び出しがあったか否かを判定する。
【0073】
具体的には、要因判定部56は、図8のフローチャートに示すように、運行状態検出部55が検出した運転状態において、車両5に所定以上の減速度による急ブレーキが発生したか否かを確認する(ステップS31)。急ブレーキが発生していない場合は(ステップS31でNO)、一連の処理を終了する。
【0074】
急ブレーキが発生した場合は(ステップS31でYES)、要因判定部56は、急ブレーキの発生時点の前後10分間の走行データ(車載電文)及び画像データを抽出する(ステップS33)。
【0075】
そして、抽出した走行データ及び画像データの解析結果から、急ブレーキ前の車両5の走行速度が所定のスピードを超過しているか否かを確認する(ステップS35)。所定のスピードは、法定速度でもよく、予め定められた安全運転の目安となる速度でもよい。所定のスピードを超過した場合は(ステップS35でYES)、後述するステップS45に処理を移行する。
【0076】
所定のスピードを超過していない場合は(ステップS35でNO)、要因判定部56は、抽出した走行データ及び画像データの解析結果から、運転者が脇見あるいは携帯電話の操作等による不注意運転を行っているか否かを確認する(ステップS37)。不注意運転を行っている場合は(ステップS37でYES)、ステップS45に処理を移行する。
【0077】
不注意運転を行っていない場合は(ステップS37でNO)、要因判定部56は、抽出した走行データ及び画像データの解析結果から、交差点への進入に十分注意を払っているか否かを確認する(ステップS39)。この確認は、例えば、交差点に十分に減速して浸入しているか否かによって判断することができる。十分注意を払っていない場合は(ステップS39でNO)、ステップS45に処理を移行する。
【0078】
十分注意を払っている場合は(ステップS39でYES)、要因判定部56は、抽出した走行データ及び画像データの解析結果から、車両5の前方に歩行者等の移動体の飛出しが検出されたか否かを確認する(ステップS41)。移動体の飛出しが検出されていない場合は(ステップS39でNO)、ステップS45に処理を移行する。移動体の飛出しが検出された場合は(ステップS39でYES)、後述するステップS43に処理を移行する。
【0079】
ステップS43では、要因判定部56は、運行状態検出部55が検出した所定以上の減速度による急ブレーキのイベントに対し、この急ブレーキが発生する要因が運転手以外に存在すると判定して、運転者に注意を促す評価対象から除外する。そして、一連の処理を終了する。
【0080】
ステップS45では、要因判定部56は、運行状態検出部55が検出した所定以上の減速度による急ブレーキのイベントに対し、この急ブレーキが発生する要因が運転手以外に存在しないと判定して、運転者に注意を促す評価対象に加える。そして、要因判定部56は、判定フラグFをONさせて(ステップS47)、一連の処理を終了する。
【0081】
評価部57は、要因判定部56による図7及び図8の処理後に、判定フラグFがONのイベントを除く他のイベントの走行データを解析して車両5の運行状態を評価し、図6の運転日報75を出力して事務所PC70のWEBコンソール画面上に表示させる。
【0082】
なお、図7及び図8の処理における画像データの解析に用いる要因判定部56のニューラルネットワークは、例えば、畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)とすることができる。また、時系列の画像データを解析する必要がある場合は、例えば、リカレントニューラルネットワーク(Recurrent Neural Network、RNN)を用いることができる。あるいは、長・短期記憶ユニット(Long short-term memory、LSTM)のネットワークを用いることができる。
【0083】
そして、要因判定部56は、畳み込みフィルタ処理等により、画像データ中の注目要素、即ち、道路渋滞、荷積、荷卸、不注意運転、交差点進入動作、移動体の特徴量を抽出する。また、要因判定部56は、抽出した特徴量に対して、ニューラルネットワークの各ニューロンによりウェイト及びバイアスをかけて、注目要素の存在の確率を推定する。さらに、要因判定部56は、推定した確率を判定基準の閾値と比較して、画像データ中の注目要素、即ち、特定の状態の発生要因となる事象である道路渋滞、荷積、荷卸、不注意運転、交差点進入動作、移動体が存在するか否かを判定する。
【0084】
なお、ニューラルネットワークの各ニューロンのウェイト及びバイアスは、学習データを用いた機械学習によって定めることができる。ニューラルネットワークの機械学習は、例えば、誤差逆伝播法を用いて行うことができる。
【0085】
ところで、ニューラルネットワークによる注目要素の存在確率の推定が適切でない場合は、基準時間を超過したアイドリング、及び、所定以上の減速度による急ブレーキの各イベントに対する、要因判定部56による発生要因の判定内容を、訂正する必要がある。そこで、クラウドサーバ50は、評価部57が運転者の運転内容の運転月報を出力する際に、各イベントの発生要因が運転手以外に存在するか否かの再判定を、要因判定部56に実行させる。
【0086】
本実施形態では、図5のWEBコンソール画面71により事務所PC70から運転月報の評価メニューを選択した際に、運転手以外の発生要因が存在しないと判定したイベントについて、要因判定部56が、イベントの発生要因を再判定する場合について説明する。運転月報の出力の際に要因判定部56が行う再判定の処理は、例えば、図9のフローチャートに示す内容とすることができる。
【0087】
即ち、要因判定部56は、運行状態検出部55が検出した特定の状態のイベントから、判定フラグFがONであるイベントを抽出する(ステップS51)。そして、抽出したイベントの発生時点における画像データを再生し、事務所PC70のWEBコンソール画面上に表示させる(ステップS53)。
【0088】
次に、要因判定部56は、事務所PC70のWEBコンソール画面からの、判定フラグFの訂正要求の入力を待ち受ける(ステップS55)。訂正要求が入力された場合は(ステップS55でYES)、要因判定部56は、入力された訂正要求が訂正要、訂正不要、キャンセルのいずれであるかを確認する(ステップS57)。入力された訂正要求がキャンセルである場合は(ステップS57でキャンセル)、一連の処理を終了する。
【0089】
入力された訂正要求が訂正要である場合は(ステップS57で要)、要因判定部56は、ステップS53で再生した画像データを、ニューラルネットワークの学習データとして外部記憶装置54の学習データ格納部(図示せず)に記憶させる(ステップS59)。このとき、要因判定部56は、学習データを記憶させる際に、ニューラルネットワークによる推定結果が不適合であることを示すラベルを学習データに付与する。
【0090】
そして、要因判定部56は、ステップS51で抽出したイベントを、そのイベントの状態が発生する要因が運転手以外に存在すると判定して、運転者に注意を促す評価対象から除外する(ステップS61)。さらに、要因判定部56は、判定フラグFをOFFからONに訂正して(ステップS63)、一連の処理を終了する。
【0091】
また、ステップS57で入力された訂正要求が訂正不要である場合(不要)は、要因判定部56は、ステップS53で再生した画像データを学習データとして外部記憶装置54の学習データ格納部(図示せず)に記憶させる(ステップS65)。このとき、要因判定部56は、学習データを記憶させる際に、ニューラルネットワークによる推定結果が適合であることを示すラベルを学習データに付与する。
【0092】
そして、要因判定部56は、ステップS51で抽出したイベントを、そのイベントの状態が発生する要因が運転手以外に存在しないと判定して、運転者に注意を促す評価対象に残したままとし(ステップS67)、一連の処理を終了する。
【0093】
評価部57は、要因判定部56による図9の処理後に、判定フラグFがONのイベントを除く他のイベントの走行データを解析して車両5の運行状態を評価し、運転月報を出力して事務所PC70のWEBコンソール画面上に表示させる。
【0094】
学習処理部58は、要因判定部56のニューラルネットワークについて、図10に示す処理をそれぞれ実行する。まず、学習処理部58は、ニューラルネットワークの学習要求が入力されたか否かを確認する(ステップS71)。
【0095】
学習要求は、事務所90の管理者が事務所PC70のWEBコンソール画面の学習要求メニュー画面(図示せず)上での操作により入力されるものであってもよい。あるいは、学習要求は、例えば、図9のステップS57における訂正要の訂正要求の入力が所定回数に達することで、自動的に入力されるものであってもよい。
【0096】
学習要求が入力されていない場合は(ステップS71でNO)、一連の処理を終了する。また、学習要求が入力された場合は(ステップS71でYES)、外部記憶装置54の学習データ格納部に記憶された学習データを用いて、要因判定部56のニューラルネットワークの学習処理を実行する(ステップS73)。この学習処理は、例えば、いわゆる追学習として行うことができる。
【0097】
例えば、学習処理を、先に述べた誤差逆伝播法を用いて行う場合に、学習処理部58は、外部記憶装置54から各学習データを読み出す。そして、学習処理部58は、評価部57が図6の運転日報75を出力する際に各学習データの画像データを要因判定部56が解析して推定した注目要素の存在確率と、その画像データに対するニューラルネットワークの推定確率の理想値との差分を求める。この差分を、学習処理部58は、教師信号としてニューラルネットワークの出力層に入力する。
【0098】
そして、学習処理部58は、ステップS73の学習処理を外部記憶装置54の全ての学習データを用いて実行したら(ステップS75でYES)、一連の処理を終了する。
【0099】
以上の説明からも明らかなように、本実施形態では、クラウドサーバ50の運行状態検出部55によって、車両5の運行状態を検出する検出部が実現されている。また、クラウドサーバ50の要因判定部56によって、運行状態が特定の状態であるときの車両5で撮影された画像上で、運行状態が特定の状態となる要因の事象が発生しているか否かを判定する判定部が実現されている。
【0100】
さらに、クラウドサーバ50の評価部57によって、車両5の運転内容を評価する評価部が実現されている。また、クラウドサーバ50のCPU51は、判定部の判定結果の再判定結果が入力される再判定入力部を構成している。また、図9のステップS61、S63は、評価部が車両5の運転内容を再評価する手順の一部に対応する処理となっている。
【0101】
さらに、図9のステップS59,S65は、判定部による判定結果が不適合であることを示すラベルを付与してニューラルネットワークの学習データとして記憶部に記憶させる学習データ生成部に対応する処理となっている。クラウドサーバ50の外部記憶装置54の学習データ格納部は、ここで言う記憶部を構成している。また、クラウドサーバ50の学習処理部58によって、記憶部の学習データを用いてニューラルネットワークの追学習を行う追学習部が実現されている。
【0102】
さらに、図7のステップS25及び図8のステップS47は、判定部による判定結果が不適合であることを示すラベルを付与して、ニューラルネットワークの学習データとして記憶部に記憶させる学習データ生成部に対応する処理となっている。また、図9のステップS55は、フラグが付与された画像に対する特定の状態の発生要因となる事象が発生しているか否かの再判定を要求する要求部に対応する処理となっている。さらに、図1の運行記録装置(デジタルタコグラフという)10は、車載器を構成している。
【0103】
以上に説明した本実施形態では、クラウドサーバ50において、運行状態検出部55が、デジタルタコグラフ10からの走行データに基づいて車両5の運転者による運転状態を検出する。そして、検出した運転者に注意を促す対象となる特定の状態のイベントが発生した時点の前後にドライブレコーダ30のカメラ31~34が撮影した画像データを、運転日報の出力時に、要因判定部56のニューラルネットワークが画像認識処理する。この処理で要因判定部56が、特定の状態が発生する要因が運転手以外に存在すると判定したら、評価部57が、特定の状態のイベントを運転者の運転内容の評価対象から除外する。
【0104】
なお、要因判定部56は、運転月報の出力時に、評価部57が評価対象から除外しなかった特定の状態のイベントが発生したときの画像データを、事務所90の管理者に、特定の状態が発生する要因が運転手以外に存在するか否か再判定させる。再判定により評価対象から除外するイベント発生時の画像データは、ニューラルネットワークの学習データとする。
【0105】
このため、運転者に注意を促す対象の運転状態が発生した場合に、その運転状態が運転者の責任でない道路の渋滞、急な飛び出し等で発生したものであれば、その事情を考慮して、運転内容の評価対象からその運転状態を除外することができる。また、要因判定部56のニューラルネットワークの判定を、運転月報の出力時に事務所90の管理者によって再判定させ、判定が代わった場合は、判定の基になった画像データをニューラルネットワークの学習データとして、判定精度を改善させることができる。
【0106】
なお、以上に説明した本実施形態の車両運行情報管理システム1において、クラウドサーバ50は、外部記憶装置54に格納された図11のフローチャートに一例を示す運転評価プログラムを実行するコンピュータとなることができる。
【0107】
そして、本実施形態の運転評価プログラムにおいて、クラウドサーバ50のCPU51は、まず、検出ステップを実行する(ステップS81)。検出ステップでは、CPU51が、車両5で収集された車両5の走行データの解析結果から、車両5の運行状態を検出する。検出ステップは、クラウドサーバ50の運行状態検出部55が実行する処理に対応している。
【0108】
次に、CPU51は、判定ステップを実行する(ステップS83)。判定ステップでは、CPU51が、検出ステップにおいて検出された運行状態が特定の状態であるときの車両5で撮影された画像上で、車両5の運行状態が特定の状態となる要因の事象が発生しているか否かを判定する。この判定は、車両5で撮影された画像に対するニューラルネットワークの画像認識結果に基づいて行う。判定ステップは、クラウドサーバ50の要因判定部56が実行する処理に対応している。
【0109】
続いて、CPU51は、評価ステップを実行する(ステップS85)。評価ステップでは、CPU51が、検出ステップにおいて検出された車両5の運行状態に基づいて、運転者による車両5の運転内容を評価する。そして、運転評価プログラムの実行を終了する。
【0110】
ここで、CPU51は、判定ステップにおいて、車両5で撮影された画像上で特定の状態となる要因の事象が発生していると判定された、特定の状態の車両5の運行状態を、運転者による車両の運転内容を評価する対象から除外する。評価ステップは、クラウドサーバ50の評価部57が実行する処理に対応している。
【0111】
なお、CPU51は、判定ステップにおいて特定の状態となる要因の事象が発生していないと判定された画像に対して、フラグを付与するフラグ付与ステップを実行する(ステップS87)。また、CPU51は、フラグ付与ステップにおいてフラグを付与した画像に対して、特定の状態となる要因の事情が発生しているか否かの再判定を要求する要求ステップを実行する(ステップS89)。フラグ付与ステップは、クラウドサーバ50の要因判定部56が実行する処理に対応している。要求ステップは、クラウドサーバ50の評価部57が実行する図9のステップS53の処理に対応している。
【0112】
そして、CPU51は、要求ステップの要求に対し、判定ステップの判定結果を覆す再判定結果が入力されたか否かを確認する(ステップS91)。一定の期間中に入力されていない場合は(ステップS91でNO)、運転評価プログラムの実行を終了する。
【0113】
一定の期間中に入力された場合は(ステップS91でYES)、CPU51は、評価ステップを再び実行する(ステップS85)。評価ステップでは、CPU51が、検出ステップにおいて検出された車両5の運行状態に基づいて、運転者による車両5の運転内容を再び評価する。そして、運転評価プログラムの実行を終了する。
【0114】
ここで、CPU51は、要求ステップの要求に対して入力された再判定結果にしたがって、運転者による車両の運転内容を評価する対象とする、特定の状態の車両5の運行状態の見直しを行う。即ち、CPU51は、判定ステップの判定結果を覆す、特定の状態となる要因の事象が発生しているとする再判定結果にしたがって、特定の状態の車両5の運行状態を、運転者による車両の運転内容を評価する対象から除外する。
【0115】
また、要求ステップの要求に対し、判定ステップの判定結果を覆す再判定結果が入力された場合に(ステップS91でYES)、CPU51は、学習データ生成ステップをさらに実行する(ステップS93)。学習データ生成ステップでは、CPU51が、判定ステップの判定結果を覆す再判定結果が入力された画像を、判定ステップの判定結果が不適合であることを示すラベルを付与して、外部記憶装置54の学習データ格納部に記憶させる。そして、運転評価プログラムの実行を終了する。学習データ生成ステップは、クラウドサーバ50の評価部57が実行する図9のステップS59、S65の処理に対応している。
【0116】
以上、本実施形態を実施例によって説明したが、本実施形態はこれらに限定されるものではなく、本実施形態の要旨の範囲内で種々の変形が可能である。
【0117】
[実施形態により開示される発明とその効果]
そして、以上に説明した実施形態によって、以下に示す各態様の発明が開示される。
【0118】
まず、第1の態様に係る発明として、検出部、判定部及び評価部を備える運転評価装置が開示される。このうち検出部は、車両で収集された前記車両の走行データの解析結果から、前記車両の運行状態を検出する。また、判定部は、前記車両で撮影された画像に対するニューラルネットワークの画像認識結果から、前記検出部が検出した前記運行状態が特定の状態であるときの前記画像上で、前記運行状態が前記特定の状態となる要因の事象が発生しているか否かを判定する。さらに、評価部は、前記画像上で前記事象が発生していると前記判定部が判定した前記特定の状態の前記運行状態を対象から除外して、前記検出部が検出した前記運行状態に基づき運転者による前記車両の運転内容を評価する。
【0119】
第1の態様に係る発明の運転評価装置によれば、ニューラルネットワークによる車両の撮影画像の画像認識結果から、特定の状態が発生する要因の事象が発生していると判定されると、検出部が検出した特定の状態が運転内容の評価対象から除外される。このため、運転者に責任がない要因で特定の状態が発生した場合に、それによって運転者の運転内容の評価が影響を受けることが回避可能となる。よって、車両の走行データを解析して運転者の運転操作を評価する際に、解析する走行データが発生した事情を考慮した内容の評価を得ることができる。
【0120】
次に、第2の態様に係る発明として、前記検出部は、前記車両の車載器から送信される前記走行データを受信し解析する運転評価装置が開示される。即ち、車両で収集された走行データは、車両から送信されたものであってもよく、例えば、可搬型記憶媒体等を介してオフラインにより供給されたものであってもよい。
【0121】
続いて、第3の態様に係る発明として、前記判定部は、前記走行データと共に前記車載器から送信される画像データを受信し、前記ニューラルネットワークにより画像認識する運転評価装置が開示される。即ち、車両で撮影された画像のデータは、走行データと共に車両から送信されたものであってもよく、例えば、可搬型記憶媒体等を介してオフラインにより供給されたものであってもよい。
【0122】
次に、第4の態様に係る発明として、前記特定の状態は、前記車両の連続アイドリング時間の基準時間への到達、又は、前記車両の所定以上の減速度による急ブレーキの発生を少なくとも含んでいる車両用情報配信装置が開示される。即ち、特定の状態は、例えば、運転者の運転内容の評価を下げて注意を促す対象となるイベントとすることができる。
【0123】
続いて、第5の態様に係る発明として、前記画像上で前記事象が発生していないと判定した前記判定部の判定結果の再判定結果が入力される再判定入力部をさらに備える運転評価装置が開示される。この再判定入力部に、前記画像上で前記事象が発生していないと判定した前記判定部の判定結果を覆す再判定結果が入力された場合、評価部は、前記運転者による前記車両の運転内容を再評価する。評価部による運転内容の再評価は、前記特定の状態の前記運行状態を対象に追加して、前記検出部が検出した前記運行状態に基づき行われる。
【0124】
第5の態様に係る発明の運転評価装置によれば、判定部のニューラルネットワークによる画像認識処理の結果が適切でない可能性がある場合に、判定部の判定結果を覆した上で評価部により運転内容を再評価させて、適切な評価に近付けることができる。
【0125】
次に、第6の態様に係る発明として、学習データ生成部と追学習部とをさらに備える運転評価装置が開示される。このうち学習データ生成部は、前記判定部の判定結果を覆す再判定結果が前記再判定入力部に入力された、前記運行状態が前記特定の状態であるときの前記画像を、前記ニューラルネットワークの学習データとして記憶部に記憶させる。このとき、学習データ生成部は、記憶部に記憶させる画像に、前記判定部による判定結果が不適合であることを示すラベルを付与する。また、追学習部は、前記記憶部の前記学習データを用いて前記ニューラルネットワークの追学習を行う。
【0126】
第6の態様に係る発明の運転評価装置によれば、判定部の判定結果を覆した場合に、覆った判定結果が得られるように、判定結果が覆った画像データを学習データとしてニューラルネットワークを追学習させることができる。
【0127】
続いて、第7の態様に係る発明として、フラグ付与部と要求部をさらに備える運転評価装置が開示される。このうちフラグ付与部は、前記画像上で前記事象が発生していないと前記判定部が判定した、前記運行状態が前記特定の状態であるときの前記画像に、フラグを付与する。また、要求部は、前記フラグが付与された前記画像に対する前記事象が発生しているか否かの再判定を要求する。この要求に呼応して前記再判定結果が前記再判定入力部に入力される。
【0128】
第7の態様に係る発明の運転評価装置によれば、車両で撮影した画像上で要因となる事象が発生していないと判定部が判定した特定の状態は、評価部による運転内容の評価対象である場合、運転者の運転内容の評価を下げる可能性がある。そこで、この判定部による判定結果を特にフラグの付与対象とすることで、運転者に不利な判定部の判定結果を再判定の対象として抽出し易いようにすることができる。
【0129】
第8の態様に係る発明として、検出ステップ、判定ステップ及び評価ステップをコンピュータに実行させる運転評価プログラムが開示される。このうち検出ステップは、車両で収集された前記車両の走行データの解析結果から、前記車両の運行状態を検出する。また、判定ステップは、前記車両で撮影された画像に対するニューラルネットワークの画像認識結果から、前記検出ステップにおいて検出された前記運行状態が特定の状態であるときの前記画像上で、前記運行状態が前記特定の状態となる要因の事象が発生しているか否かを判定する。さらに、評価ステップは、前記画像上で前記事象が発生していると前記判定ステップにおいて判定された前記特定の状態の前記運行状態を対象から除外して、前記検出ステップにおいて検出された前記運行状態に基づき運転者による前記車両の運転内容を評価する。
【0130】
第8の態様に係る発明の運転評価プログラムによれば、第1の態様に係る発明の運転評価装置と同様の評価を得ることができる。
【0131】
第9の態様に係る発明として、前記画像上で前記事象が発生していないと判定した前記判定ステップの判定結果を覆す再判定結果が入力された場合、コンピュータに、運転者による前記車両の運転内容を再評価させる運転評価プログラムが開示される。このとき、前記評価ステップにおいて、前記特定の状態の前記運行状態を対象に追加して、前記検出ステップにおいて検出された前記運行状態に基づき前記運転内容が再評価される。
【0132】
第9の態様に係る発明の運転評価プログラムによれば、第5の態様に係る発明の運転評価装置と同様の評価を得ることができる。
【0133】
第10の態様に係る発明として、学習データ生成ステップをさらにコンピュータに実行させる運転評価プログラムが開示される。学習データ生成ステップでは、前記判定ステップにおける判定結果を覆す再判定結果が入力された、前記運行状態が前記特定の状態であるときの前記画像を、前記ニューラルネットワークの学習データとして記憶部に記憶させる。このとき、学習データ生成ステップでは、記憶部に記憶させる画像に、前記判定部による判定結果が不適合であることを示すラベルが付与される。
【0134】
第10の態様に係る発明の運転評価プログラムによれば、判定部の判定結果を覆した場合に、覆った判定結果が得られるようにニューラルネットワークを追学習させるための学習データを、判定結果が覆った画像データから容易に得ることができる。
【0135】
第11の態様に係る発明として、フラグ付与ステップと要求ステップとをさらにコンピュータに実行させる運転評価プログラムが開示される。このうちフラグ付与ステップでは、前記画像上で前記事象が発生していないと前記判定部が判定した、前記運行状態が前記特定の状態であるときの前記画像に、フラグが付与される。また、要求ステップでは、前記フラグが付与された前記画像に対する前記事象が発生しているか否かの再判定が要求される。この要求に呼応して前記再判定結果が入力される。
【0136】
第11の態様に係る発明の運転評価プログラムによれば、第7の態様に係る発明の運転評価装置と同様の評価を得ることができる。
【符号の説明】
【0137】
1 車両運行情報管理システム
5 車両
6 キャビン
7 荷室
8 車両前端
9 車両後端
10 デジタルタコグラフ(車載器)
11,51 CPU
12A 速度I/F
12B エンジン回転I/F
13 外部入力I/F
14 設定入力I/F
15 GPS受信部
15a アンテナ
16 画像信号I/F
17 記録部
18 カードI/F
19 音声I/F
20 スピーカ
21 RTC(時計IC)
22 SW入力部
22z イベントボタン
23 車速センサ
24 通信部(通信部)
25 電源部
26A 不揮発メモリ
26B 揮発メモリ
27 表示部
28 タッチパネル(指定部)
29 アナログ入力I/F
30 ドライブレコーダ
31~34 カメラ
35 CPU
36 カメラI/F
37 画像信号I/F
38 記録部
39 カードI/F
50 クラウドサーバ(コンピュータ)
52 ROM
53 RAM
54 外部記憶装置(記憶部)
55 運行状態検出部(検出部)
56 要因判定部(判定部)
57 評価部
58 学習処理部
60,65 メモリカード
70 事務所PC
71 WEBコンソール画面
75 運転日報
80 ネットワーク
81 無線基地局
83 インターネット
90 事務所
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11