(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-06
(45)【発行日】2024-12-16
(54)【発明の名称】運転支援装置及び運転支援方法
(51)【国際特許分類】
B60W 50/10 20120101AFI20241209BHJP
B60W 50/14 20200101ALI20241209BHJP
G08G 1/16 20060101ALI20241209BHJP
【FI】
B60W50/10
B60W50/14
G08G1/16 A
(21)【出願番号】P 2023540988
(86)(22)【出願日】2021-08-11
(86)【国際出願番号】 IB2021000530
(87)【国際公開番号】W WO2023017291
(87)【国際公開日】2023-02-16
【審査請求日】2024-02-16
(73)【特許権者】
【識別番号】000003997
【氏名又は名称】日産自動車株式会社
(73)【特許権者】
【識別番号】507308902
【氏名又は名称】ルノー エス.ア.エス.
【氏名又は名称原語表記】RENAULT S.A.S.
【住所又は居所原語表記】122-122 bis, avenue du General Leclerc, 92100 Boulogne-Billancourt, France
(74)【代理人】
【識別番号】100083806
【氏名又は名称】三好 秀和
(74)【代理人】
【識別番号】100111235
【氏名又は名称】原 裕子
(74)【代理人】
【識別番号】100170575
【氏名又は名称】森 太士
(72)【発明者】
【氏名】草柳 佳紀
(72)【発明者】
【氏名】柳 拓良
(72)【発明者】
【氏名】茂田 美友紀
(72)【発明者】
【氏名】小野 沙織
【審査官】吉村 俊厚
(56)【参考文献】
【文献】特開2018-147111(JP,A)
【文献】特開2018-144568(JP,A)
【文献】特開2018-144569(JP,A)
【文献】特開2018-144570(JP,A)
【文献】特開2019-116185(JP,A)
【文献】特開2004-291174(JP,A)
【文献】国際公開第2009/107185(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
B60W 10/00 - 60/00
G08G 1/00 - 99/00
G01C 21/00 - 21/36
(57)【特許請求の範囲】
【請求項1】
車両の内部及び外部のデータを取得するセンサと、
コントローラと、を備え、
前記コントローラは、
前記センサによって取得されたデータに基づいて前記車両が異常な状態にあるか否かを判定し、
前記車両が異常な状態にあると判定した場合、前記車両に乗車しているユーザに対して前記車両が異常な状態にあることを示すメッセージを出力し、
前記メッセージに対する前記ユーザの回答を入力装置を介して取得し、
前記メッセージに対する前記ユーザの回答に基づいて、前記ユーザを支援するための支援機能の利用を提案する
ことを特徴とする運転支援装置。
【請求項2】
前記車両が異常な状態にあるとは、前記車両の衝突または事故の可能性がある状況を意味する
ことを特徴とする請求項1に記載の運転支援装置。
【請求項3】
前記ユーザの回答は、前記車両の状態に対する不安または危険を示す感情に関するものである
ことを特徴とする請求項1または2に記載の運転支援装置。
【請求項4】
前記コントローラは、前記メッセージに対する前記ユーザの回答が不安または危険を示すものであると判定した場合、前記ユーザを支援するための支援機能の利用を提案する
ことを特徴とする請求項1~3のいずれか1項に記載の運転支援装置。
【請求項5】
前記コントローラは、
前記センサによって取得されたデータに基づいて前記異常な状態が発生した原因を推定し、
前記原因が前記ユーザの運転に起因すると推定した場合、前記ユーザに対して責任を確認するメッセージを出力し、
前記メッセージに対する前記ユーザの回答が責任を認めるものであると判定した場合、前記ユーザを支援するための支援機能の利用を提案する
ことを特徴とする請求項4に記載の運転支援装置。
【請求項6】
前記メッセージには、前記ユーザに対して責任を確認するもの、前記車両の状態に関するもの、前記ユーザの感情を確認するもの、または、前記ユーザの安全を確認するものが含まれる
ことを特徴とする請求項1~5のいずれか1項に記載の運転支援装置。
【請求項7】
前記ユーザに対して責任を確認するメッセージは、前記車両または前記車両の周囲において何が起きたかを前記ユーザに確認するメッセージである
ことを特徴とする請求項6に記載の運転支援装置。
【請求項8】
前記コントローラは、前記責任を確認するメッセージに対する前記ユーザの回答が前記責任を認めないものであると判定した場合、前記責任は前記ユーザにある旨のメッセージを出力する
ことを特徴とする請求項6または7に記載の運転支援装置。
【請求項9】
車両の内部及び外部のデータを取得し、
取得されたデータに基づいて前記車両が異常な状態にあるか否かを判定し、
前記車両が異常な状態にあると判定した場合、前記車両に乗車しているユーザに対して前記車両が異常な状態にあることを示すメッセージを出力し、
前記メッセージに対する前記ユーザの回答を入力装置を介して取得し、
前記メッセージに対する前記ユーザの回答に基づいて、前記ユーザを支援するための支援機能の利用を提案する
ことを特徴とする運転支援方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、運転支援装置及び運転支援方法に関する。
【背景技術】
【0002】
従来より、ユーザによる危険運転を検出し、運転特性をユーザに提示する発明が知られている(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載された発明において、システムが危険運転か否かを判定する。その判定結果を認めるか否かはユーザ自身に委ねられる。したがってその判定結果に基づく運転支援は効果的ではない場合がある。
【0005】
本発明は、上記問題に鑑みて成されたものであり、その目的は、ユーザの感覚に合った運転支援を行うことが可能な運転支援装置及び運転支援方法を提供することである。
【課題を解決するための手段】
【0006】
本発明の一態様に係る運転支援装置は、センサによって取得されたデータに基づいて車両が異常な状態にあるか否かを判定し、車両が異常な状態にあると判定した場合、車両に乗車しているユーザに対して車両が異常な状態にあることを示すメッセージを出力し、メッセージに対するユーザの回答を入力装置を介して取得する。
【発明の効果】
【0007】
本発明によれば、ユーザの感覚に合った運転支援を行うことが可能となる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、本発明の実施形態に係る運転支援装置1の構成図である。
【
図2】
図2は、ユーザ51とロボットヘッド40との会話を示す。
【
図4】
図4は、支援機能が実施されたときに記憶されるデータの一例である。
【
図5】
図5は、ロボットヘッド40から出力されるメッセージの一例である。
【
図6】
図6は、ユーザ51とロボットヘッド40との会話を示す。
【
図7】
図7は、ユーザ51とロボットヘッド40との会話を示す。
【
図8】
図8は、運転支援装置1の一動作例を説明するフローチャートである。
【
図9】
図9は、運転支援装置1の一動作例を説明するフローチャートである。
【
図10】
図10は、運転支援装置1の一動作例を説明するフローチャートである。
【発明を実施するための形態】
【0009】
以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
【0010】
図1を参照して運転支援装置1の構成例を説明する。
図1に示すように、運転支援装置1は、センサ10と、マイク11と、カメラ12と、GPS受信機13と、スイッチ14と、コントローラ20と、ロボットヘッド40と、スピーカ41と、ディスプレイ42と、ステアリングアクチュエータ43と、アクセルペダルアクチュエータ44と、ブレーキアクチュエータ45を備える。
【0011】
運転支援装置1は自動運転機能を有する車両に搭載される。運転支援装置1は自動運転と手動運転とを切り替えることが可能な車両に搭載されてもよい。自動運転機能の一例は、操舵制御、制動力制御、駆動力制御などを自動的に制御してユーザの運転を支援するものである。本実施形態において「ユーザ」とは、車両の運転席に座っているユーザを意味する。
【0012】
センサ10は、様々なデータ及び情報を取得するために用いられる。センサ10には、車両のデータを取得するセンサと、車両の外部の情報を取得するセンサが含まれる。車両のデータの一例は、速度、加速度、舵角、ブレーキ油圧、アクセル開度である。これらのデータを取得するセンサとして、速度センサ、加速度センサ、舵角センサ、ジャイロセンサ、ブレーキ油圧センサ、アクセル開度センサなどが挙げられる。
【0013】
車両の外部の情報の一例は、車両(自車両)の周囲に存在する物体(歩行者、自転車、バイク、他車両など)、信号機、区画線、標識、横断歩道、交差点などである。これらの情報を取得するセンサとして、レーザレンジファインダ、レーダ、ライダ、カメラ12、ソナーなどが挙げられる。本実施形態では、説明の都合上、センサ10とカメラ12を分けているが、カメラ12はセンサ10の一種である。センサ10によって取得されたデータ及び情報はコントローラ20に出力される。
【0014】
マイク11はユーザの音声データを取得する。マイク11によって取得された音声データはコントローラ20に出力される。
【0015】
カメラ12はCCD(charge-coupled device)、CMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ12の設置場所は特に限定されないが、一例としてカメラ12は車両の前方、側方、後方に設置される。カメラ12は車両の周囲を撮像する。カメラ12によって撮像された画像データはコントローラ20に出力される。また本実施形態において、カメラ12は車両の内部にも設置される。例えば、カメラ12は運転席付近に設置され、ユーザの顔を撮像する。カメラ12によって撮像された顔画像データはコントローラ20に出力される。
【0016】
GPS受信機13は人工衛星からの電波を受信することにより、地上における車両の位置情報を検出する。GPS受信機13が検出する車両の位置情報には、緯度情報、及び経度情報が含まれる。GPS受信機13は、検出した車両の位置情報をコントローラ20に出力する。なお、車両の位置情報を検出する方法は、GPS受信機13に限定されない。例えば、車両の位置はオドメトリと呼ばれる方法を用いて推定されてもよい。オドメトリとは、車両の回転角、回転角速度に応じて車両の移動量及び移動方向を求めることにより、車両の位置を推定する方法である。なおGPS受信機13の代わりにGNSS受信機が用いられてもよい。
【0017】
スイッチ14は、ユーザが支援機能を使用する際に用いられる。ユーザがスイッチ14を押せば支援機能が作動する。本実施形態における「支援機能」には、アラウンドビューモニタ(以下AVMと称する)、自動駐車、サイドダウンビューモニタ、操舵支援、緊急停止ブレーキ、緊急回避操舵、車線逸脱防止、ブラインドスポットワーニング、AVMと超音波センサの組み合わせ、などが含まれる。これらの支援機能は、周知であるため詳細な説明は省略する。スイッチ14は、物理的なスイッチでもよく、仮想的なスイッチでもよい。仮想的なスイッチとは、例えば、ディスプレイ42に表示されるスイッチである。上述の支援機能の一部は自動運転機能でもある。すなわち、本実施形態の支援機能には自動運転機能も含まれる。自動運転機能にはACC(Adaptive Cruise Control)、速度一定制御などが含まれる。
【0018】
コントローラ20は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、運転支援装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは運転支援装置1が備える複数の情報処理回路として機能する。なおここでは、ソフトウェアによって運転支援装置1が備える複数の情報処理回路を実現する例を示すが、もちろん以下に示す各情報処理を実行するための専用のハードウェアを用意して情報処理回路を構成することも可能である。また複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路の一例として、危険状況判定部21と、責任判定部22と、メッセージ作成部23と、発話取得部24と、発話解析部25、パラメータ変更部26と、ユーザ判定部27と、位置検出部28と、支援機能選択部32と、提案部33と、支援機能実施部34を備える。
【0019】
ロボットヘッド40はロボットの頭を模した置物である。ロボットヘッド40はユーザと車両との親和性を高めるために設置される。ロボットヘッド40はスピーカ機能、情報処理機能を備える。
【0020】
次に
図2~7を参照して、危険状況判定部21、責任判定部22、メッセージ作成部23、発話取得部24、発話解析部25、パラメータ変更部26、ユーザ判定部27、位置検出部28、支援機能選択部32、提案部33、支援機能実施部34の詳細について説明する。
【0021】
図2に示すシーンは、ユーザ51がロボットヘッド40と会話をしているシーンである。会話は、符号60~63で示される。符号60、62はロボットヘッド40の発話を示す。符号61、63はユーザ51の発話を示す。会話の流れは、符号60、61、62、63の順である。符号52は、先行車両を示す。符号60~63はすべて音声として説明するが、これに限定されない。例えば符号60、62は文字としてディスプレイ42に表示されてもよい。また符号61、63は複数の選択肢からユーザ51が選択した情報を示すものであってもよい。この場合、複数の選択肢はディスプレイ42に表示される。最初に、符号60に示す「何かあった?」が出力されるための条件を説明する。なお、ロボットヘッド40の設置は必須ではない。ディスプレイ42に仮想のロボットヘッドが表示されてもよい。
【0022】
危険状況判定部21は、センサ10から取得したデータを用いてユーザ51の運転が危険だったか否かを判定する。判定方法の一例について
図3を参照して説明する。
図3に示すシーンは、駐車、狭路、先行車両への接近、車線逸脱、合流または車線変更、右折、左折に分類される。「駐車」において、障害物との距離が15cm以下、または、前後方向への切り返し回数が5回以上である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。障害物との距離はライダによって検出される。切り返し回数は舵角センサによって検出される。「狭路」において、左側面の障害物との距離が15cm以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。ここでは日本の交通規則(左側通行)を基準とする。「左」または「右」については、各国の交通規則にしたがって、適宜読み替えることが可能である。
【0023】
「先行車両への接近」について、自車両の速度が15km/h以上、かつ、先行車両との車間距離が5m以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。自車両の速度は速度センサによって検出される。先行車両との車間距離はライダによって検出される。「車線逸脱」について、左右どちらか一方の区画線との距離が5cm以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。区画線との距離はカメラ12によって検出される。「合流または車線変更」について、後側方車両との距離が5m以下、かつ、その方向へ操舵した場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。後側方車両との距離はライダによって検出される。操舵方向は舵角センサによって検出される。「右折」について、対向直進車とのTTC(Time To Collision)が所定値以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。対向直進車とのTTCは、対向直進車の速度及び対向直進車までの距離を用いて算出される。「左折」について、左側面の障害物との距離が15cm以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。
【0024】
危険状況判定部21によってユーザ51の運転が危険だったと判定された場合、判定結果を示す信号が責任判定部22に送信される。この信号を受信した責任判定部22は、危険運転の責任が誰にあるのか判定する。
図3のシーンにおいて、危険運転の責任はユーザ51にある、と判定される。この場合、判定結果を示す信号がメッセージ作成部23に送信される。この信号を受信したメッセージ作成部23は、符号60に示すメッセージを作成する。メッセージ作成部23は、作成されたメッセージをロボットヘッド40に出力する。これにより、
図2に示すようにメッセージ60が音声で出力される。
図2に示すように「何かあった?」という問いかけに対し、ユーザ51は「ちょっと危なかった!」と回答する(符号61)。この回答は、肯定的な回答である。ここでいう「肯定的な回答」とは、ユーザ51が自身の運転が危険だったことを認める回答を意味する。
【0025】
ユーザ51の音声による回答は、マイク11を介して発話取得部24に出力される。発話取得部24はユーザ51の音声データを発話解析部25に出力する。発話解析部25は、ユーザ51の音声データを解析する。音声解析方法には周知の技術が用いられる。発話解析部25は解析結果に基づいて、ユーザ51の回答が肯定的であるか否かを判定する。判定結果を示す信号はメッセージ作成部23に出力される。この信号を受信したメッセージ作成部23は、符号62に示すメッセージ(では次回から支援しますか?)を作成する。メッセージ62は、ユーザ51の回答が肯定的な回答だったことに起因して作成される。
図2に示すように「では次回から支援しますか?」という問いかけに対し、ユーザ51は「お願い!」と回答する(符号63)。この回答は、肯定的な回答である。ここでいう「肯定的な回答」とは、支援機能を承諾する回答である。この回答63も、回答61と同様に発話解析部25によって解析される。そして、ユーザ51の回答が肯定的であるか否かが判定される。判定結果を示す信号はユーザデータベース31に出力される。ユーザデータベース31は記憶装置30に格納されている。記憶装置30はHDD(Hard Disk Drive)、SSD(Solid State Drive)などから構成される。
【0026】
ユーザ51の運転が危険だったと判定された場合、位置検出部28はGPS受信機13から取得したデータを用いて、そのときの車両の位置(場所)を検出する。検出された位置情報は、ユーザデータベース31に記憶される。
【0027】
本実施形態における「支援機能」は、符号60~63のやり取りがあった後、次回、ユーザ51が運転するときに実施される。ユーザ51が乗車したとき、カメラ12はユーザ51の顔を撮像する。カメラ12によって撮像された顔画像データはユーザ判定部27に出力される。ユーザ判定部27は、カメラ12から取得した顔画像データと、ユーザデータベース31に予め記憶されている顔画像データとを比較して、乗車したユーザを特定する。本実施形態では乗車したユーザは、ユーザ51であると特定される。特定する理由は、ユーザに適した支援を行うためである。1台の車両を複数のユーザで共有するケースがある。この場合、ユーザに適した支援を行うためには乗車したユーザを特定する必要がある。ユーザを特定せずに支援が行われた場合、ユーザは違和感を感じるおそれがある。
【0028】
支援機能選択部32は、複数の支援機能の中からシーンに適した支援を選択する。
図3に示すように、シーンが「駐車」である場合、複数の支援機能からAVMまたは自動駐車が選択される。なお、AVMかつ自動駐車が選択されてもよい。シーンが「狭路」である場合、複数の支援機能の中からサイドダウンビューモニタまたは操舵支援が選択される。シーンが「先行車両への接近」である場合、複数の支援機能の中から緊急停止ブレーキまたは緊急回避操舵が選択される。シーンが「車線逸脱」である場合、複数の支援機能の中から車線逸脱防止が選択される。シーンが「合流または車線変更」である場合、複数の支援機能の中からブラインドスポットワーニングまたは操舵支援が選択される。シーンが「右折」である場合、複数の支援機能の中から緊急停止ブレーキが選択される。シーンが「左折」である場合、複数の支援機能の中からAVMと超音波センサの組み合わせが選択される。
【0029】
ここで、シーンが「駐車」であるときの支援について説明する。前回、ユーザ51の運転が危険だったと判定されたときの場所を駐車場Aとよぶ。この駐車場Aに、再度ユーザ51が向かったとする。提案部33は、位置検出部28から取得した位置情報に基づいて、車両が駐車場Aに居ると判定する。前回のやり取り(符号60~63のやり取り)において、ユーザ51は支援機能を承諾している。承諾結果はユーザデータベース31に記憶されている。支援機能選択部32は、ユーザデータベース31を参照して、ユーザ51に提案する支援機能を選択する。ここでは自動駐車が選択されたとする。支援機能選択部32は選択結果を提案部33に出力する。提案部33はユーザ51に対して支援機能を実施するか否かを確認する。再度確認する理由は、ユーザ51と車両との信頼関係を高めるためである。この確認は、スピーカ41を介した音声で行われてもよく、ディスプレイ42に文字を表示することにより行われてもよい。この確認に対し、ユーザ51はスイッチ14を用いて回答する。ユーザ51がスイッチ14を押せば支援機能を承諾したことになる。スイッチ14がオンであることを示す信号を受信した提案部33は、支援機能を実施するための指令を支援機能実施部34に出力する。指令を受けた支援機能実施部34は、ステアリングアクチュエータ43、アクセルペダルアクチュエータ44、ブレーキアクチュエータ45を制御する。これにより自動駐車が行われる。
【0030】
支援機能が実施されたとき、そのときのデータがユーザデータベース31に記録される。記録されるデータは、
図4に示すように、ユーザ名、日時、場所、シーン、実施された支援機能である。
【0031】
メッセージ作成部23は、メッセージ60、62を作成してロボットヘッド40に出力する、と説明したが、これに限定されない。このようなメッセージは予め作成されていてもよい。予め作成されたメッセージは記憶装置30に記憶されていればよい。メッセージ作成部23は記憶装置30を参照することにより、適切なメッセージをロボットヘッド40に出力することが可能になる。予め作成されたメッセージの例を
図5に示す。危険運転の責任がユーザ51にある場合、メッセージ作成部23が選択するメッセージとして、「何があった?」、「何が起こった」、「どうした?」、「何かした?」、「何したの?」が挙げられる。これらのメッセージ例1は、ユーザ51に対して遠回しに責任を認めさせることを目的としている。これに対して
図5のメッセージ例2は、ユーザ51に対して具体的に回答を促すことを目的としている。メッセージ例2として、
図5に示すように「どっちが悪い?」、「どっちの責任」が挙げられる。
【0032】
上述では、ユーザ51の運転が危険だったと判定された場合の例である。ここで、車両を運転するのはユーザ51だけではない。車両は自動運転機能を有するため、ユーザ51が介在しない運転(自動運転)も行われる。通常、自動運転は危険な運転にならないように設計されている。しかし、予期せぬ原因により、自動運転に何らかの異常が発生する可能性がある。ここでいう「異常」とは正常ではないことを意味する。「異常」とは自動運転が本来備える機能を発揮できなくなる故障のみならず、故障には至らない不具合及び故障の前兆を含む概念である。自動運転に異常が発生した場合、
図3の判定例に示した危険な状況になる可能性がある。自動運転に異常が発生した場合の会話例を
図6を参照して説明する。
図6に示すシーンは、ユーザ51がロボットヘッド40と会話をしているシーンである。会話は、符号70~73で示される。符号70、72はロボットヘッド40の発話を示す。符号71、73はユーザ51の発話を示す。会話の流れは、符号70、71、72、73の順である。符号70に示す「怖かった?」が出力されるための条件を説明する。
【0033】
危険状況判定部21によって自動運転に異常が発生したと判定された場合、判定結果を示す信号が責任判定部22に送信される。この信号を受信した責任判定部22は、危険運転の責任が誰にあるのか判定する。ここでは危険運転の責任は自動運転(車両側)にある、と判定される。判定結果を示す信号がメッセージ作成部23に送信される。この信号を受信したメッセージ作成部23は、符号70に示すメッセージを作成する。メッセージ作成部23は、作成されたメッセージをロボットヘッド40に出力する。これにより、
図6に示すようにメッセージ70が音声で出力される。
図6に示すように「怖かった?」という問いかけに対し、ユーザ51は「車間距離が短い!」と回答する(符号71)。この回答は、肯定的な回答である。ここでいう「肯定的な回答」とは、ユーザ51が自動運転が危険だったことを認める回答を意味する。ユーザ51の回答は、上述と同じ方法で解析される。解析結果に基づいて、メッセージ作成部23は、符号72に示すメッセージ(では次回から長くしますか?)を作成する。メッセージ72は、ユーザ51の回答が肯定的な回答だったことに起因して作成される。
図6に示すように「では次回から長くしますか?」という問いかけに対し、ユーザ51は「そうして!」と回答する(符号73)。この回答は、肯定的な回答である。ここでいう「肯定的な回答」とは、支援機能(自動運転機能)のパラメータを変更するための回答である。回答73は発話解析部25によって解析される。そして、ユーザ51の回答が肯定的であるか否かが判定される。判定結果を示す信号はパラメータ変更部26に出力される。次回、自動運転が実施されるとき、パラメータ変更部26は車間距離が前回の自動運転時と比較して長くなるように変更する。変更されたパラメータは支援機能実施部34に出力される。支援機能実施部34は、変更されたパラメータに基づいて車間距離を制御する。これにより、ユーザの感覚に合った運転支援を行うことが可能となる。
【0034】
メッセージ70、72もメッセージ60、62と同様に、予め作成されていてもよい。危険運転の責任が自動運転(車両側)にある場合、メッセージ作成部23が選択するメッセージとして、
図5に示すように「危険と感じた?」、「危険運転だった?」、「怖かった?」が挙げられる。その他のメッセージとして、「ブレーキが遅かった?」、「車間距離が短すぎた?」、「先行車両が近かった?」、「アクセルを踏みすぎた?」、「早すぎた?」、「遅すぎた?」、「ハンドルが遅かった/早すぎた?)?」、「右/左に寄りすぎた?」、「ふらふらした?」、「カクカクした?」が挙げられる。
【0035】
危険な状況が発生する原因は、ユーザ51の運転または自動運転に限定されない。例えば、他車両のユーザの運転、他車両の自動運転、歩行者などが原因になる可能性がある。
図7に示すシーンは、歩行者53の飛び出しによって危険な状況になったシーンである。符号80はロボットヘッド40の発話を示す。符号81はユーザ51の発話を示す。会話の流れは、符号80、81の順である。歩行者53の飛び出しによって危険な状況になった場合、メッセージ作成部23は、符号80に示すメッセージ(大丈夫だった?)を作成してロボットヘッド40に出力する。
【0036】
次に、
図8~9のフローチャートを参照して、運転支援装置1の一動作例を説明する。
【0037】
イグニッションがオンである場合(ステップS101でYES)、処理はステップS103に進む。「イグニッションがオン」とは、車両の電源がオンであることを意味する。ステップS103、105において、危険状況判定部21はセンサ10から取得したデータを用いて危険な状況が発生したか否かを判定する。危険な状況が発生した場合(ステップS105でYES)、処理はステップS107に進む。ステップS107において、責任判定部22はセンサ10から取得したデータに基づいて危険な状況が発生した原因を推定する。例えば、ユーザ51の運転によって
図3に示す危険な状況が発生した場合、危険運転の責任はユーザ51にある、と推定される(ステップS113でYES)。自車両の自動運転機能によって
図3に示す危険な状況が発生した場合、危険運転の責任は自動運転(車両側)にある、と推定される(ステップS113でNO)。他車両のユーザの運転、他車両の自動運転機能、または歩行者などによって危険な状況が発生した場合、危険運転の責任は他車両のユーザ、他車両、または歩行者などにある、と推定される(ステップS109でNO)。「歩行者など」には、歩行者、自転車、バイクが含まれる。
【0038】
ステップS111において、メッセージ80が出力される(
図7参照)。ステップS115において、メッセージ60が出力される(
図2参照)。処理はステップS117に進み、発話取得部24はマイク11を介してユーザ51の回答を取得する。ユーザ51の回答が肯定的であると判定された場合(ステップS119でYES)、支援機能を提案するためのメッセージ62が出力される(
図2参照)。ユーザ51の回答が否定的であると判定された場合(ステップS119でNO)、危険運転の責任がユーザ51にある旨のメッセージが出力される。
【0039】
ステップS127において、メッセージ70が出力される(
図6参照)。処理はステップS129に進み、発話取得部24はマイク11を介してユーザ51の回答を取得する。ユーザ51の回答が肯定的であると判定された場合(ステップS131でYES)、パラメータ変更部26は、次回、自動運転が実施されるとき、ユーザ51の希望を制御内容に反映させる(ステップS133)。具体的にはパラメータ変更部26は、自動運転機能に係るパラメータを変更する。パラメータ変更の一例として、車間距離が長くなるように変更される。ユーザ51の回答が否定的であると判定された場合(ステップS131でNO)、パラメータは変更されない。イグニッションがオフされるまで、ステップS103~135の処理は繰り返される。
【0040】
次に、
図10のフローチャートを参照して、運転支援装置1の一動作例を説明する。
【0041】
イグニッションがオンである場合(ステップS201でYES)、処理はステップS203に進む。ステップS203において提案部33は位置検出部28から位置情報を取得する。ステップS205において、提案部33は位置情報に基づいて車両の現在地が、前回、支援機能を提案した場所か否かを判定する。「前回、支援機能を提案した場所」を「場所A」とよぶ。車両の現在地が場所Aである場合(ステップS205でYES)、支援機能選択部32は、ユーザデータベース31を参照して、ユーザ51に支援機能を提案する(ステップS207)。ユーザ51が支援機能を承諾した場合(ステップS209でYES)、支援機能実施部34は支援機能を実施する(ステップS211)。ユーザ51が支援機能を承諾しない場合(ステップS209でNO)、支援機能実施部34は支援機能を実施しない(ステップS213)。車両が場所Aを通過したとき(ステップS215でYES)、そのときのデータがユーザデータベース31に記録される(ステップS217)。イグニッションがオフされるまで、ステップS203~217の処理は繰り返される。
【0042】
(作用効果)
以上説明したように、本実施形態に係る運転支援装置1によれば、以下の作用効果が得られる。
【0043】
運転支援装置1は、車両の内部及び外部のデータを取得するセンサ10と、コントローラ20とを備える。コントローラ20はセンサ10によって取得されたデータに基づいて車両が異常な状態にあるか否かを判定する。コントローラ20は車両が異常な状態にあると判定した場合、車両に乗車しているユーザ51に対して車両が異常な状態にあることを示すメッセージを出力する。コントローラ20はメッセージに対するユーザ51の回答を入力装置を介して取得する。入力装置の一例はマイク11である。ユーザ51の回答に応じた支援を行うことにより、ユーザ51の感覚に合った運転支援を行うことが可能となる。
【0044】
「車両が異常な状態にある」とは、車両の衝突または事故の可能性がある状況を意味する。「車両の衝突または事故の可能性」は、センサ10によって取得されたデータのみに基づいて判定されれば足りる。運転する主体が、ユーザ51であるか自動運転機能であるかは問われない。ただし、後述するように運転する主体が考慮されてもよい。
【0045】
ユーザ51の回答は、車両の状態に対する不安または危険を示す感情に関するものである。
【0046】
コントローラ20は、メッセージに対するユーザ51の回答が不安または危険を示すものであると判定した場合、ユーザ51を支援するための支援機能の利用を提案する。不安または危険を示す回答の一例は、
図2に示すメッセージ61である。これによりユーザ51の感覚に合った運転支援を行うことが可能となる。
【0047】
コントローラ20はセンサ10によって取得されたデータに基づいて異常な状態が発生した原因を推定する。コントローラ20は原因がユーザ51の運転に起因すると推定した場合、ユーザ51に対して責任を確認するメッセージを出力する。責任を確認するメッセージの一例は
図5に示す「どっちの責任?」である。コントローラ20はメッセージに対するユーザ51の回答が責任を認めるものであると判定した場合、ユーザ51を支援するための支援機能の利用を提案する。これによりユーザ51の感覚に合った運転支援を行うことが可能となる。また、ユーザ51自身に責任を認めさせることにより、ユーザ51と車両との関係を好意的なものにすることが可能となる。
【0048】
メッセージには、ユーザ51に対して責任を確認するもの、車両の状態に関するもの、ユーザ51の感情を確認するもの、または、ユーザ51の安全を確認するものが含まれる。「ユーザ51に対して責任を確認するメッセージ」の一例は、
図5に示す「どっちの責任?」である。「車両の状態に関するメッセージ」の一例は、
図5に示す「ブレーキが遅かった?」である。「ユーザ51の感情を確認するメッセージ」の一例は、
図5に示す「怖かった?」である。「ユーザ51の安全を確認するメッセージ」の一例は、
図5に示す「危険と感じた?」である。
【0049】
ユーザ51に対して責任を確認するメッセージの一例は、車両または車両の周囲において何が起きたかをユーザ51に確認するメッセージである(
図5参照)。
【0050】
コントローラ20は責任を確認するメッセージに対するユーザ51の回答が責任を認めないものであると判定した場合、責任はユーザ51にある旨のメッセージを出力する。これによりユーザ51に対して考え方を改める機会を提供できる。
【0051】
コントローラ20はセンサ10によって取得されたデータに基づいて異常な状態が発生した原因を推定する。コントローラ20は原因が自動運転機能に起因すると推定した場合、ユーザ51に対して不安を感じたかを確認するメッセージを出力する。「ユーザ51に対して不安を感じたかを確認するメッセージ」の一例は、
図5に示す「怖かった?」である。これにより自動運転に対してユーザ51が不安を感じているか否かを確認することが可能となる。
【0052】
コントローラ20は不安を確認するメッセージに対するユーザ51の回答が不安を感じたことを示すものであったと判定した場合、自動運転機能のパラメータの設定を変更する。具体的にはコントローラ20は自動運転機能のパラメータを安全側に変更する。パラメータ変更の一例は、車間距離を長くすることである。これによりユーザ51の感覚に合った運転支援を行うことが可能となる。また自動運転に対する信頼も向上する。
【0053】
上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。
【0054】
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
【符号の説明】
【0055】
1 運転支援装置、10 センサ、11 マイク、12 カメラ、13 GPS受信機、14 スイッチ、20 コントローラ、40 ロボットヘッド