IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

<>
  • -車線逸脱意図推定装置 図1
  • -車線逸脱意図推定装置 図2
  • -車線逸脱意図推定装置 図3
  • -車線逸脱意図推定装置 図4
  • -車線逸脱意図推定装置 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025121526
(43)【公開日】2025-08-20
(54)【発明の名称】車線逸脱意図推定装置
(51)【国際特許分類】
   G08G 1/16 20060101AFI20250813BHJP
【FI】
G08G1/16 F
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2024016964
(22)【出願日】2024-02-07
(71)【出願人】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(71)【出願人】
【識別番号】000004260
【氏名又は名称】株式会社デンソー
(74)【代理人】
【識別番号】100099759
【弁理士】
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【弁理士】
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100092624
【弁理士】
【氏名又は名称】鶴田 準一
(74)【代理人】
【識別番号】100147555
【弁理士】
【氏名又は名称】伊藤 公一
(74)【代理人】
【識別番号】100123593
【弁理士】
【氏名又は名称】関根 宣夫
(74)【代理人】
【識別番号】100133835
【弁理士】
【氏名又は名称】河野 努
(72)【発明者】
【氏名】井上 慎太郎
(72)【発明者】
【氏名】田代 庸祐
【テーマコード(参考)】
5H181
【Fターム(参考)】
5H181AA01
5H181CC03
5H181CC04
5H181CC11
5H181CC14
5H181LL07
5H181LL08
5H181LL09
5H181LL20
(57)【要約】
【課題】自車両の運転者が車線逸脱意図を有するか否かを適切に推定する。
【解決手段】車線逸脱意図推定装置16は、自車両1の運転者が脇見状態又は非覚醒状態である場合に運転者が車線逸脱意図を有さないと推定する推定部3Dと、運転者が脇見状態でなくかつ非覚醒状態でない場合に学習済みの機械学習モデルを用いることにより車両情報と車線情報と物標情報とを含む時系列信号及び運転者が脇見状態でなくかつ非覚醒状態でないことを示す信号を含む第1分類信号に基づいて、運転者が車線逸脱意図を有するか否かを予測する予測部3Eとを備え、学習済みの機械学習モデルは、学習用車両情報と学習用車線情報と学習用物標情報とを含む学習用時系列信号及び学習用車両の運転者が脇見状態でなくかつ非覚醒状態でないことを示す学習用第1分類信号と学習用車両の運転者が車線逸脱意図を有するか否かを示すラベルとのデータセットを用いた学習により得られる。
【選択図】図1
【特許請求の範囲】
【請求項1】
自車両の運転者が脇見状態又は非覚醒状態である場合に前記自車両の運転者が車線逸脱意図を有さないと推定する推定部と、
前記自車両の運転者が脇見状態でなくかつ非覚醒状態でない場合に、学習済みの機械学習モデルを用いることにより、前記自車両に関する情報である車両情報と前記自車両が走行中の車線に関する情報である車線情報と前記自車両の周囲に存在する物標に関する情報である物標情報とを含む時系列信号及び前記自車両の運転者が脇見状態でなくかつ非覚醒状態でないことを示す信号を含む第1分類信号に基づいて、前記自車両の運転者が車線逸脱意図を有するか否かを予測する予測部とを備え、
前記学習済みの機械学習モデルは、学習用車両に関する情報である学習用車両情報と前記学習用車両が走行中の車線に関する情報である学習用車線情報と前記学習用車両の周囲に存在する物標に関する情報である学習用物標情報とを含む学習用時系列信号及び前記学習用車両の運転者が脇見状態でなくかつ非覚醒状態でないことを示す学習用第1分類信号と前記学習用車両の運転者が車線逸脱意図を有するか否かを示すラベルとのデータセットである学習データを用いた学習を行うことによって得られる、車線逸脱意図推定装置。
【請求項2】
前記自車両の運転者が車線逸脱意図を有すると前記予測部が予測した場合に前記自車両が車線逸脱したことに対する警報である車線逸脱警報の出力を制限させる制御部を備える、請求項1に記載の車線逸脱意図推定装置。
【請求項3】
前記自車両の運転者が車線逸脱意図を有すると前記予測部が予測した場合に車線維持支援の実行を制限させる制御部を備える、請求項1に記載の車線逸脱意図推定装置。
【請求項4】
ドライブモニタカメラによって撮影された前記自車両の運転者を含む画像に基づいて、前記自車両の運転者が脇見状態でなくかつ非覚醒状態でないことを示す信号を含む前記第1分類信号と前記自車両の運転者が脇見状態又は非覚醒状態であることを示す信号を含む第2分類信号とを出力するドライバモニタ部を備え、
前記ドライバモニタ部が前記自車両の運転者が脇見状態又は非覚醒状態であることを示す信号を含む前記第2分類信号を出力した場合であって、前記自車両の運転者が車線逸脱意図を有すると前記予測部が予測した場合には、前記自車両の運転者が車線逸脱意図を有さないことを示す前記推定部の推定結果が、前記自車両の運転者が車線逸脱意図を有することを示す前記予測部の予測結果よりも優先される、請求項1に記載の車線逸脱意図推定装置。
【請求項5】
前記ドライバモニタ部から出力された前記第1分類信号は、前記予測部に入力され、
前記第1分類信号には、前記ドライブモニタカメラによって撮影された前記自車両の運転者を含む画像に基づいて前記ドライバモニタ部により推定された前記自車両の運転者の内部状態を示す信号が含まれる、請求項4に記載の車線逸脱意図推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、車線逸脱意図推定装置に関する。
【背景技術】
【0002】
特許文献1には、レーン逸脱抑制の実行中にレーン変更の意図があると判定されることを条件としてレーン逸脱抑制機能を非作動状態とする運転支援装置について記載されている。また、特許文献1には、運転者によるレーン変更の意図を判定する意図判定部として、各種の入力スイッチやカメラ等の画像入力手段で取得する運転者の視線の動きや身振り等を検出するものを利用することができる旨が記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2022-077931号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、特許文献1には、運転者の視線の動きや身振り等の検出結果から運転者によるレーン変更の意図の有無を判定する具体的な手法について記載されていない。そのため、特許文献1に記載された技術によっては、運転者が車線逸脱意図を有するか否かを適切に推定できないおそれがある。
【0005】
上述した点に鑑み、本開示は、自車両の運転者が車線逸脱意図を有するか否かを適切に推定することができる車線逸脱意図推定装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
(1)本開示の一態様は、自車両の運転者が脇見状態又は非覚醒状態である場合に前記自車両の運転者が車線逸脱意図を有さないと推定する推定部と、前記自車両の運転者が脇見状態でなくかつ非覚醒状態でない場合に、学習済みの機械学習モデルを用いることにより、前記自車両に関する情報である車両情報と前記自車両が走行中の車線に関する情報である車線情報と前記自車両の周囲に存在する物標に関する情報である物標情報とを含む時系列信号及び前記自車両の運転者が脇見状態でなくかつ非覚醒状態でないことを示す信号を含む第1分類信号に基づいて、前記自車両の運転者が車線逸脱意図を有するか否かを予測する予測部とを備え、前記学習済みの機械学習モデルは、学習用車両に関する情報である学習用車両情報と前記学習用車両が走行中の車線に関する情報である学習用車線情報と前記学習用車両の周囲に存在する物標に関する情報である学習用物標情報とを含む学習用時系列信号及び前記学習用車両の運転者が脇見状態でなくかつ非覚醒状態でないことを示す学習用第1分類信号と前記学習用車両の運転者が車線逸脱意図を有するか否かを示すラベルとのデータセットである学習データを用いた学習を行うことによって得られる、車線逸脱意図推定装置である。
【0007】
(2)(1)の車線逸脱意図推定装置は、前記自車両の運転者が車線逸脱意図を有すると前記予測部が予測した場合に前記自車両が車線逸脱したことに対する警報である車線逸脱警報の出力を制限させる制御部を備えてもよい。
【0008】
(3)(1)の車線逸脱意図推定装置は、前記自車両の運転者が車線逸脱意図を有すると前記予測部が予測した場合に車線維持支援の実行を制限させる制御部を備えてもよい。
【0009】
(4)(1)の車線逸脱意図推定装置は、ドライブモニタカメラによって撮影された前記自車両の運転者を含む画像に基づいて、前記自車両の運転者が脇見状態でなくかつ非覚醒状態でないことを示す信号を含む前記第1分類信号と前記自車両の運転者が脇見状態又は非覚醒状態であることを示す信号を含む第2分類信号とを出力するドライバモニタ部を備え、前記ドライバモニタ部が前記自車両の運転者が脇見状態又は非覚醒状態であることを示す信号を含む前記第2分類信号を出力した場合であって、前記自車両の運転者が車線逸脱意図を有すると前記予測部が予測した場合には、前記自車両の運転者が車線逸脱意図を有さないことを示す前記推定部の推定結果が、前記自車両の運転者が車線逸脱意図を有することを示す前記予測部の予測結果よりも優先されてもよい。
【0010】
(5)(4)の車線逸脱意図推定装置では、前記ドライバモニタ部から出力された前記第1分類信号は、前記予測部に入力され、前記第1分類信号には、前記ドライブモニタカメラによって撮影された前記自車両の運転者を含む画像に基づいて前記ドライバモニタ部により推定された前記自車両の運転者の内部状態を示す信号が含まれてもよい。
【発明の効果】
【0011】
本開示によれば、自車両の運転者が車線逸脱意図を有するか否かを適切に推定することができる。
【図面の簡単な説明】
【0012】
図1】第1実施形態の車線逸脱意図推定装置16が適用された自車両1の一例を示す図である。
図2】予測部3Eの構成等の一例を示す図である。
図3】自車両1が走行中の車線を自車両1が逸脱した時に第1実施形態の車線逸脱意図推定装置16のプロセッサ163によって実行される処理の一例を説明するための図である。
図4】制御部3GがHMI13に車線逸脱警報の出力を制限させる一例を説明するための図である。
図5】第3実施形態の車線逸脱意図推定装置16が適用された自車両1におけるデータの処理及び流れの一例を示す図である。
【発明を実施するための形態】
【0013】
以下、図面を参照し、本開示の車線逸脱意図推定装置の実施形態について説明する。
【0014】
<第1実施形態>
図1は第1実施形態の車線逸脱意図推定装置16が適用された自車両1の一例を示す図である。図1に示す例では、自車両1が、周辺状況センサ11と、車両状態センサ12と、HMI(Human Machine Interface)13と、ドライバモニタカメラ14と、車両制御装置15と、操舵アクチュエータ15Aと、制動アクチュエータ15Bと、駆動アクチュエータ15Cと、車線逸脱意図推定装置16とを備えている。周辺状況センサ11は、自車両1が走行中の車線を画定する区画線、自車両1の周囲に存在する物標(例えば周辺車両、障害物等)を検出し、検出結果を車両制御装置15と車線逸脱意図推定装置16とに送信する。周辺状況センサ11には、例えば自車両1の前方等を撮影するカメラ、LiDAR(Light Detection And Ranging)、レーダー、ソナー等が含まれる。周辺状況センサ11の検出結果には、例えば自車両1が走行中の車線に関する情報である車線情報、自車両1の周囲に存在する物標に関する情報である物標情報等が含まれる。車線情報には、例えばカメラ画像内における区画線の水平方向位置、自車両1が走行中の車線のカーブ曲率等を示す情報が含まれる。物標情報には、例えば自車両1に対する物標の相対位置、相対速度等を示す情報が含まれる。
【0015】
車両状態センサ12は、自車両1の状態を検出し、検出結果を車両制御装置15と車線逸脱意図推定装置16とに送信する。車両状態センサ12には、例えば車速センサ、ステアリングトルクセンサ等が含まれる。車両状態センサ12の検出結果には、例えば自車両1に関する情報である車両情報等が含まれ、車両情報には、例えば車速、ステアリングトルク等が含まれる。
HMI13は、自車両1の運転者の各種の操作を受け付ける機能、自車両1の運転者に対して表示、音声等によって警報等の情報を出力する機能等を有し、自車両1の運転者の操作を示す信号を車両制御装置15に送信する。HMI13によって出力される警報には、例えば自車両1が走行中の車線を自車両1が逸脱したことに対する警報である車線逸脱警報(LDA(レーンディパーチャーアラート))が含まれる。
ドライバモニタカメラ14は、例えば自車両1のステアリングコラムの上部に配置されており、自車両1の運転者の顔及び上半身の一部を撮影する。また、ドライバモニタカメラ14は、撮影した画像データを車線逸脱意図推定装置16に送信する。他の例では、ドライバモニタカメラ14が自車両1の例えばセンタークラスタ、ルームミラー、メータパネル、メータフード等のようなのステアリングコラム以外の位置に配置されていてもよい。
【0016】
図1に示す例では、車両制御装置15が自車両1の走行を制御する。車両制御装置15は、例えば運転支援ECU(Electronic Control Unit)によって構成されており、周辺状況センサ11、車両状態センサ12、HMI13及び車線逸脱意図推定装置16から送信された情報(データ、信号)に基づいて、操舵アクチュエータ15A、制動アクチュエータ15B及び駆動アクチュエータ15Cを制御する。
【0017】
車線逸脱意図推定装置16は、通信インターフェース(I/F)161とメモリ162とプロセッサ163とを備えるマイクロコンピュータによって構成されている。通信インターフェース161はインターフェース回路を有する。メモリ162は、プロセッサ163により実行される処理において使用されるプログラム及び各種のデータを記憶する。プロセッサ163は、取得部3A、ドライバモニタ部3B、第1判定部3C、推定部3D、予測部3E、第2判定部3F及び制御部3Gとしての機能を有する。取得部3Aは、周辺状況センサ11の検出結果(車線情報、物標情報等)、車両状態センサ12の検出結果(車両情報等)、ドライバモニタカメラ14によって撮影された画像(ドライバモニタカメラ画像)のデータ等を取得する。
【0018】
ドライバモニタ部3Bは、ドライバモニタカメラ14によって撮影された画像等に基づいて自車両1の運転者の状態を計測する。具体的には、ドライバモニタ部3Bは、自車両1の運転者の顔の位置及び向き並びに眼の開閉状態を検知し、自車両1の運転者が周囲の状況を確認し運転操作できる状態であるか否かを判断する。例えばドライバモニタ部3Bは、ドライバモニタカメラ画像を用いて、自車両1の運転者の顔領域検出、顔部品検出、頭部姿勢推定、開眼度検出及び瞼挙動解析による眠気度合い推定を実行する。
ドライバモニタ部3Bは、自車両1の運転者が非覚醒状態であると判断した場合に、ドライバモニタ信号として、自車両1の運転者が非覚醒状態であることを示す非覚醒信号を出力する。一方、ドライバモニタ部3Bは、自車両1の運転者が開眼状態であると判断した場合に、ドライバモニタ信号として、自車両1の運転者が開眼状態であることを示す開眼信号を出力する。また、ドライバモニタ部3Bは、自車両1の運転者が脇見状態であると判断した場合に、ドライバモニタ信号として、自車両1の運転者が脇見状態であることを示す脇見信号(脇見信号は顔向き信号の一部)を出力する。非覚醒信号、開眼信号及び脇見信号(顔向き信号)は、「強い信号(例えばドライバモニタ部3Bとして用いられるAI(人工知能)が高い信頼度を出力する信号等)」に属する。
自車両1の運転者の視線が、例えば助手席シート側、カーナビ等のような、安全確認すべき視界の外側に向いている場合に、ドライバモニタ部3Bは脇見信号を出力する。また、自車両1が片側2車線の直線道路の左車線を走行中に、自車両1の運転者の視線が、左側にだけ一定時間向いている場合に、ドライバモニタ部3Bは脇見信号を出力する。つまり、自車両1の運転者の視線が、確認する必要がある対象に向いていない場合に、ドライバモニタ部3Bは脇見信号を出力する。
【0019】
また、ドライバモニタ部3Bは、ドライバモニタカメラ14によって撮影された画像と周辺状況センサ11の検出結果とに基づいて、自車両1の運転者が自車両1の周囲に存在する物標を注視していると判断した場合に、ドライバモニタ信号として、自車両1の運転者の視線方向を示す信号(自車両1の運転者が注視している物標を示す信号(注視物標情報))を出力する。更に、ドライバモニタ部3Bは、自車両1の運転者のストレスレベルが高いと判断した場合に、ドライバモニタ信号として、自車両1の運転者のストレスレベルが高いことを示す信号を出力する。また、ドライバモニタ部3Bは、自車両1の運転者が漫然状態であると判断した場合に、ドライバモニタ信号として、自車両1の運転者が漫然状態であることを示す信号を出力する。自車両1の運転者の視線方向を示す信号、自車両1の運転者のストレスレベルが高いことを示す信号及び自車両1の運転者が漫然状態であることを示す信号は、「弱い信号(例えばドライバモニタ部3Bとして用いられるAIが低い信頼度を出力する信号等)」に属する。
ドライバモニタ部3Bは、例えば自車両1の運転者の視線方向を示す信号(自車両1の運転者が注視している物標を示す信号)、自車両1の運転者のストレスレベルが高いことを示す信号、自車両1の運転者が漫然状態であることを示す信号等の弱い信号を「第1分類信号」として出力する。また、ドライバモニタ部3Bは、例えば非覚醒信号、閉眼信号、脇見信号(顔向き信号)等の強い信号を「第2分類信号」として出力する。「第1分類信号」に含まれる例えば自車両1の運転者の視線方向を示す信号(自車両1の運転者が注視している物標を示す信号)等は、自車両1の運転者が脇見状態でなくかつ非覚醒状態でないことを示す信号に相当する。
【0020】
第1判定部3Cは、ドライバモニタ部3Bから出力された強い信号(第2分類信号)に基づいて、自車両1の運転者が脇見状態であるか否かを判定する。また、第1判定部3Cは、ドライバモニタ部3Bから出力された強い信号(第2分類信号)に基づいて、自車両1の運転者が非覚醒状態であるか否かを判定する。
推定部3Dは、自車両1が走行中の車線を自車両1が逸脱する時に、自車両1の運転者が車線逸脱意図を有するか否かを推定する。詳細には、推定部3Dは、自車両1の運転者が脇見状態であると第1判定部3Cによって判定された場合に、自車両1の運転者が車線逸脱意図を有さないと推定する。また、推定部3Dは、自車両1の運転者が非覚醒状態であると第1判定部3Cによって判定された場合に、自車両1の運転者が車線逸脱意図を有さないと推定する。一方、推定部3Dは、自車両1の運転者が脇見状態でなくかつ非覚醒状態でないと第1判定部3Cによって判定された場合(例えば自車両1の運転者が前方を見ているものの意図的に自車両1を車線逸脱させたか否かが判らない場合等)に、自車両1の運転者が車線逸脱意図を有するか否かが不明であることを示す推定結果を出力する。
【0021】
予測部3Eは、ドライバモニタ部3Bから出力された弱い信号(第1分類信号)に基づいて、自車両1の運転者が車線逸脱意図を有するか否かを予測する。予測部3Eは、自車両1の運転者が脇見状態でなくかつ非覚醒状態でないことを示す第1分類信号(弱い信号)がドライバモニタ部3Bから出力された場合等に、自車両1の運転者が車線逸脱意図を有するか否かを予測する。詳細には、予測部3Eは、学習済みの機械学習モデルを用いることにより、車両情報と車線情報と物標情報とを含む時系列信号及び第1分類信号に基づいて、自車両1の運転者が車線逸脱意図を有するか否かを予測する。
学習済みの機械学習モデルは、学習用車両(図示せず)に関する情報である学習用車両情報と学習用車両が走行中の車線に関する情報である学習用車線情報と学習用車両の周囲に存在する物標に関する情報である学習用物標情報とを含む学習用時系列信号及び学習用車両の運転者が脇見状態でなくかつ非覚醒状態でないことを示す学習用第1分類信号と学習用車両の運転者が車線逸脱意図を有するか否かを示すラベルとのデータセットである学習データを用いた学習を行うことによって得られる。
予測部3Eは、例えば自車両1が走行中の車線内の障害物(例えば路上駐車車両等)を避けて自車両1が走行する場合、対向車線を走行中の大型車とすれ違う時に自車両1がその大型車を避けて走行する場合、自車両1が車線変更を行う場合等に、自車両1の運転者が車線逸脱意図を有すると予測する。
【0022】
図2は予測部3Eの構成等の一例を示す図である。詳細には、図2(A)は予測部3Eの構成の一例を示しており、図2(B)は予測部3Eから出力される尤度(図2(B)の縦軸)と時間(図2(B)の横軸)との関係の一例を示している。図2に示す例では、予測部3Eが機械学習モデルとして隠れマルコフモデルを用いるが、他の例では、予測部3Eが、機械学習モデルとして隠れマルコフモデル以外の機械学習モデルを用いてもよい。
図2に示す例では、予測部3Eが、学習済みの機械学習モデルを用いることにより、隠れ層の計算処理が行われた結果として、自車両1の運転者が車線逸脱意図を有すると予測することの妥当性を示す尤度を出力する。予測部3Eは、尤度が閾値より大きい場合(図2(B)の時刻t1~t2の期間中)に、自車両1の運転者が車線逸脱意図を有すると予測し、フラグを「1(車線逸脱が意図的であることを示す)」に設定する。予測部3Eは、尤度が閾値以下である場合(図2(B)の時刻t1以前の期間中及び時刻t2以降の期間中)に、自車両1の運転者が車線逸脱意図を有さないと予測し、フラグを「0(車線逸脱が意図的でないことを示す)」に設定する。
【0023】
図1に示す例では、上述したようにドライバモニタ部3Bから出力された第1分類信号(弱い信号)は予測部3Eに入力される。第1分類信号には、ドライバモニタカメラ14によって撮影された画像に基づいてドライバモニタ部3Bにより推定された自車両1の運転者の内部状態を示す信号(例えば自車両1の運転者の視線方向を示す情報、自車両1の運転者のストレスレベルが高いことを示す情報等)が含まれる。これらの信号を他の第1分類信号(例えば自車両1の運転者が漫然状態であることを示す信号等)と組み合わせて予測部3Eに入力することによって、予測部3Eの予測精度を向上させることができる。
【0024】
第2判定部3Fは、自車両1の運転者が車線逸脱意図を有すると予測部3Eによって予測されたか否かを判定する。
制御部3Gは、自車両1が走行中の車線を自車両1が逸脱した時に、自車両1の運転者が車線逸脱意図を有さないと推定部3Dによって推定された場合に、HMI13に車線逸脱警報を出力させる。また、制御部3Gは、自車両1が走行中の車線を自車両1が逸脱した時に、自車両1の運転者が車線逸脱意図を有さないと予測部3Eによって予測された場合に、HMI13に車線逸脱警報を出力させる。一方、制御部3Gは、自車両1が走行中の車線を自車両1が逸脱した時に、自車両1の運転者が車線逸脱意図を有すると予測部3Eによって予測された場合に、HMI13に車線逸脱警報の出力を制限させる。
【0025】
図1に示す例では、自車両1が走行中の車線を自車両1が逸脱した時に、ドライバモニタ部3Bから出力された「第2分類信号」に基づいて、推定部3Dが、自車両1の運転者が車線逸脱意図を有さないと推定すると同時に、ドライバモニタ部3Bから出力された「第1分類信号」に基づいて、予測部3Eが、自車両1の運転者が車線逸脱意図を有すると予測する場合があり得る。
そのような場合に、制御部3Gは、自車両1の運転者が車線逸脱意図を有さないことを示す推定部3Dの推定結果を、自車両1の運転者が車線逸脱意図を有することを示す予測部3Eの予測結果よりも優先し、HMI13に車線逸脱警報を出力させる。
【0026】
図3は自車両1が走行中の車線を自車両1が逸脱した時に第1実施形態の車線逸脱意図推定装置16のプロセッサ163によって実行される処理の一例を説明するための図である。図3に示す例では、ドライバモニタ部3Bが、「第1分類信号(弱い信号)」を出力すると共に、例えば顔向き信号、開眼信号等のような「第2分類信号(強い信号)」を出力すると、予測部3Eが、学習済みの機械学習モデルを用いることにより、車両情報と車線情報と物標情報とを含む時系列信号及び「第1分類信号(弱い信号)」に基づいて、自車両1の運転者が車線逸脱意図を有するか否かを予測し、予測結果を出力する。すなわち、「弱い信号」に基づいた「自車両1の運転者が車線逸脱意図を有するかもしれない」ことを示す情報が間接的に用いられる。
ステップS10において、第1判定部3Cは、ドライバモニタ部3Bから出力された「第2分類信号(強い信号)」に基づいて、自車両1の運転者が脇見状態又は非覚醒状態であるか否かを判定する。YESの場合(自車両1の運転者が脇見状態又は非覚醒状態である場合)には、強い信号に基づいた「自車両1の運転者が車線逸脱意図を有さない」ことを示す情報が直接的に用いられ(つまり、自車両1の運転者が車線逸脱意図を有さないと推定部3Dが推定し)、ステップS12に進む。NOの場合(自車両1の運転者が脇見状態でなくかつ非覚醒状態でない場合)には、自車両1の運転者が前方を見ているものの自車両1の運転者が車線逸脱意図を有するか否かが判らないため、ステップS11に進む。
【0027】
ステップS11では、第2判定部3Fが、自車両1の運転者が車線逸脱意図を有すると予測部3Eによって予測されたか否かを判定する。YESの場合(自車両1の運転者が車線逸脱意図を有すると予測部3Eによって予測された場合)にはステップS13に進み、NOの場合(自車両1の運転者が車線逸脱意図を有さないと予測部3Eによって予測された場合)にはステップS12に進む。
ステップS12では、制御部3Gが、HMI13に車線逸脱警報を出力させ、LDAが作動する。
ステップS13では、制御部3Gが、HMI13に車線逸脱警報の出力を制限させ、LDAが非作動状態になる。上述したように、自車両1の運転者が車線逸脱意図を有さないと推定部3Dが推定すると同時に、自車両1の運転者が車線逸脱意図を有すると予測部3Eが予測する場合には、推定部3Dの推定結果が優先され、制御部3GがHMI13に車線逸脱警報を出力させる。
【0028】
強い信号(第2分類信号)と弱い信号(第1分類信号)の定義は、別の言い方をすれば次のような整理となる。強い信号は、自車両1の運転者が走路逸脱または対象物衝突に対して、逸脱回避または衝突回避の行動を取れるかどうかを、その信号から直接的に判定できるものである。弱い信号は、上記の回避行動を取れるかどうかを、その信号のみでは判定できないものである。
上記の整理に基づけば、開眼信号などは強い信号と言える。具体的には眠気などによって閉眼状況であれば、たとえ自車両1が走行中の車線を自車両1が逸脱しようとしていても、その車両挙動はドライバの回避行動を期待できない。
一方で例えば自車両1の運転者の視線方向信号などは、自車両1の運転者がその方向を見ていたとしても、または対象物を視認していたとしても、自車両1の運転者がそれらを回避する運転行動をとり得るかどうかは分からない。このような信号は弱い信号として扱い、予測部3Eへの入力信号の一つとする。
【0029】
図4は制御部3GがHMI13に車線逸脱警報の出力を制限させる一例を説明するための図である。詳細には、図4(A)はドライバモニタ部3Bから出力される脇見信号の時間変化を示しており、図4(B)は予測部3Eの予測結果の時間変化を示しており、図4(C)はLDA内部フラグの時間変化を示しており、図4(D)はLDA実作動フラグ(制御部3Gの制御結果)の時間変化を示している。図4(A)において縦軸の「1」は脇見信号が出力されている状態を示しており、縦軸の「0」は脇見信号が出力されていない状態を示している。図4(B)において縦軸の「1」は自車両1の運転者が車線逸脱意図を有することを示す予測結果を示しており、縦軸の「0」は自車両1の運転者が車線逸脱意図を有さないことを示す予測結果を示している。図4(C)において縦軸の「1」はLDA作動条件成立状態(車線逸脱警報の出力を制限させる状態)を示しており、縦軸の「0」はLDA作動条件不成立状態(車線逸脱警報の出力を制限させない状態)を示している。図4(D)において縦軸の「1」はLDA実制御ありの状態(実際に車線逸脱警報の出力が制限されている状態)を示しており、縦軸の「0」はLDA実制御なしの状態(実際に車線逸脱警報の出力が制限されていない状態)を示している。
図4に示す例では、時刻t11~t12の期間中に、自車両1が走行中の車線を自車両1が逸脱し、かつ、自車両1の運転者が車線逸脱意図を有すると予測部3Eが予測するため、HMI13が車線逸脱警報の出力を制限しようとする(図4(C)の縦軸が「1」になる)。一方、時刻t11~t12の期間中に、ドライバモニタ部3Bが脇見信号(強い信号)を出力し、自車両1の運転者が車線逸脱意図を有さないと推定部3Dが推定する。制御部3Gは、推定部3Dの推定結果を予測部3Eの予測結果よりも優先し、HMI13に車線逸脱警報を出力させる(図4(D)の縦軸が「0」になる)。
【0030】
上述したように第1実施形態の車線逸脱意図推定装置16では、ドライバモニタ部3Bから出力される信号が、直接信号(強い信号、第2分類信号)と間接信号(弱い信号、第1分類信号)とに2分類化されるため、自車両1の運転者が車線逸脱意図を有するか否かの推定精度を向上させることができる。詳細には、自車両1の運転者が前方を見ていない脇見状態、自車両1の運転者が意識を失っている非覚醒状態等の直接的な情報は、自車両1の運転者の状態を直接的にあらわす強い信号であるため、このような強い信号は、予測部3Eに入力されることなく、予測部3Eの予測結果をオーバライドするために使用される。具体的には、ドライバモニタ部3Bが脇見信号又は非覚醒信号を出力していれば、自車両1の運転者が車線逸脱意図を有すると予測部3Eが予測しても、自車両1の運転者が車線逸脱意図を有さないことを示す推定部3Dの推定結果が優先される。つまり、第1実施形態の車線逸脱意図推定装置16では、調停構造が採用されている。強い信号を直接的に使って、自車両1の運転者が車線逸脱意図を有するか否かを推定部3Dが推定することにより、高精度な推定が可能となる。
【0031】
<第2実施形態>
第2実施形態の車線逸脱意図推定装置16が適用された自車両1は、後述する点を除き、上述した第1実施形態の車線逸脱意図推定装置16が適用された自車両1と同様に構成されている。
【0032】
第2実施形態の車線逸脱意図推定装置16が適用された自車両1の一例では、制御部3Gは、自車両1が走行中の車線を自車両1が逸脱した時に、自車両1の運転者が車線逸脱意図を有さないと推定部3Dによって推定された場合に、車両制御装置15に車線維持支援(例えば操舵支援等)を実行させる。また、制御部3Gは、自車両1が走行中の車線を自車両1が逸脱した時に、自車両1の運転者が車線逸脱意図を有さないと予測部3Eによって予測された場合に、車両制御装置15に車線維持支援を実行させる。一方、制御部3Gは、自車両1が走行中の車線を自車両1が逸脱した時に、自車両1の運転者が車線逸脱意図を有すると予測部3Eによって予測された場合に、車両制御装置15に車線維持支援の実行を制限させる。
第2実施形態の車線逸脱意図推定装置16が適用された自車両1の一例では、自車両1の運転者が車線逸脱意図を有さないと推定部3Dが推定すると同時に、自車両1の運転者が車線逸脱意図を有すると予測部3Eが予測する場合に、制御部3Gは、自車両1の運転者が車線逸脱意図を有さないことを示す推定部3Dの推定結果を、自車両1の運転者が車線逸脱意図を有することを示す予測部3Eの予測結果よりも優先し、車両制御装置15に車線維持支援を実行させる。
【0033】
<第3実施形態>
第3実施形態の車線逸脱意図推定装置16が適用された自車両1は、後述する点を除き、上述した第1又は第2実施形態の車線逸脱意図推定装置16が適用された自車両1と同様に構成されている。
【0034】
図5は第3実施形態の車線逸脱意図推定装置16が適用された自車両1におけるデータの処理及び流れの一例を示す図である。
第3実施形態では、自車両1の運転者(ユーザ)が利用する自車両1の走行オンラインデータを収集するデータ収集システムが用いられ(つまり、自車両1が学習用車両として用いられ)、データ収集システムによって収集されたデータの真値付けの高精度化が図られている。データ収集システムで集められたデータには、フロントカメラ映像、認識処理結果、車両CAN(Controller Area Network)情報が含まれており、更にドライバモニタ情報(ドライバモニタ部3Bに入力される情報及びドライバモニタ部3Bから出力される情報)も含まれる。
図5に示す例では、データ収集システムに収集されたデータ集に対して、シーンに基づくデータ分類がおこなわれる。この工程では、学習を行いたいシーンを切り出す作業と、シーンごとに自車両1の運転者による意図的なシーンだったか、あるいは、意図的ではないシーンだったかの分類が行われる。
従来の一般的な技術では、学習データセットが、自車両1の運転者による意図的なシーンと意図的ではないシーンとの2種類のデータセットのみであったが、図5に示す例では、上述した「第1分類信号(弱い信号)」及び「第2分類信号(強い信号)」を用いてデータ分類が更に細分化させられる。例えば閉眼状態や脇見状態(強い信号)を伴ったデータであれば、「信頼度(高)の意図無しシーン」と分類される。例えば自車両1が駐車車両を追越すシーンにおいて、この駐車車両を自車両1の運転者が視認している状態を示すドライバモニタ信号(弱い信号)を伴っていれば、「信頼度(中)の意図有りシーン」と分類される。例えば自車両1が駐車車両を追越すシーンにおいて、この駐車車両を自車両1の運転者が視認している状態を示すドライバモニタ信号(弱い信号)を伴っており、かつ自車両1の運転者のウインカ操作を伴っていれば、「信頼度(高)の意図有りシーン」と分類される。
最後に、信頼度に応じたデータセットを使って機械学習モデルの学習が行われる。例えば実シーンでの発生頻度を考慮して、「信頼度(高)意図有りシーン」、「信頼度(中)意図有りシーン」、「信頼度(中)意図無しシーン」、「信頼度(高)意図無しシーン」が1:2:2:1の割合で機械学習モデルの学習に用いられる。
従来の一般的な技術では、ウインカ操作が、自車両1の運転者の直接的な運転操作挙動として「意図有りシーン」と分類されていた。しかしながら、このウインカ操作は、自車両1が駐車車両を回避するためのウインカ操作ではなく、自車両1が走行中の車線に対して自車両1がふら付いてしまった結果、自車両1が隣の車線に移動した方が良さそうだという理由で実施されたウインカ操作である可能性も残存していた。
図5に示す例では、このウインカ操作と自車両1の運転者が駐車車両を視認しているという情報とがセットであるため、このウインカ操作が、自車両1が駐車車両を回避のためのウインカ操作であると判断することができる。その結果、意図有りの信頼度を(高)とすることができる。
【0035】
つまり、図5に示す例では、自車両1の運転者(ユーザ)が利用する自車両1の走行オンラインデータを収集するデータ収集システムにおいて収集されたデータの真値付けの高精度化を図るために、「第1分類信号(弱い信号)」及び「第2分類信号(強い信号)」の出力状態に応じて、自車両1の運転者の意図あり/自車両1の運転者の意図無しのタグが切り分けられて付与される。
図5に示す例は、意図真値付けのルールを提案したものであり、機械学習モデルの学習の高精度化を提案したものである。
自車両1において得られたデータを機械学習モデルの学習データとして用いる場合、自車両1の運転者が車線逸脱意図を有するか否かを示すラベル(タグ)が、学習データに必要である。自車両1の運転者が車線逸脱意図を有するか否かを自車両1の運転者自身に直接確認してタグを付けることが好ましいが、現実には、自車両1の運転者が車線逸脱意図を有するか否かを自車両1の運転者に確認することは困難である。
そこで、従来の一般的な技術においては、シーン判定が行われ、判定対象のシーンが例えば駐車車両回避シーンや、レーンチェンジシーンであれば、自車両1の運転者が車線逸脱意図を有すると判断されていた(みなされていた)。
それに対し、図5に示す例では、ドライバモニタ情報を組み合わせたタグ付けとすることで、意図推定レベルのタグ付け精度を向上できる。また、2種類の強い信号と弱い信号とに応じて、信頼度(高)の意図有りシーン、信頼度(中)の意図有りシーンと層別分類する工夫を入れることで、学習や評価の精度を更に向上させることができる(学習の順番を変えたり、割合を変えたりする)。
【0036】
以上のように、本開示の車線逸脱意図推定装置の実施形態について図面を参照して説明したが、本開示の車線逸脱意図推定装置は上述した実施形態に限られるものではなく、本開示の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した実施形態の各例の構成を適宜組み合わせてもよい。上述した実施形態の各例では、車線逸脱意図推定装置16において行われる処理を、プログラムを実行することにより行われるソフトウエア処理として説明したが、車線逸脱意図推定装置16において行われる処理が、ハードウエアにより行われる処理であってもよい。あるいは、車線逸脱意図推定装置16において行われる処理が、ソフトウエア及びハードウエアの双方を組み合わせた処理であってもよい。また、車線逸脱意図推定装置16のメモリ162に記憶されるプログラム(車線逸脱意図推定装置16のプロセッサ163の機能を実現するプログラム)が、例えば半導体メモリ、磁気記録媒体、光記録媒体等のようなコンピュータ読み取り可能な記憶媒体に記録されて提供、流通等されてもよい。
【符号の説明】
【0037】
1…自車両、11…周辺状況センサ、12…車両状態センサ、13…HMI、14…ドライバモニタカメラ、15…車両制御装置、15A…操舵アクチュエータ、15B…制動アクチュエータ、15C…駆動アクチュエータ、16…車線逸脱意図推定装置、161…通信インターフェース、162…メモリ、163…プロセッサ、3A…取得部、3B…ドライバモニタ部、3C…第1判定部、3D…推定部、3E…予測部、3F…第2判定部、3G…制御部
図1
図2
図3
図4
図5