(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-06-17
(45)【発行日】2024-06-25
(54)【発明の名称】遠隔支援装置、遠隔支援システム、遠隔支援方法及びプログラム
(51)【国際特許分類】
G08G 1/16 20060101AFI20240618BHJP
B60W 30/14 20060101ALI20240618BHJP
B60W 30/08 20120101ALI20240618BHJP
B60W 30/00 20060101ALI20240618BHJP
G16Y 10/40 20200101ALI20240618BHJP
G16Y 20/20 20200101ALI20240618BHJP
G16Y 40/10 20200101ALI20240618BHJP
G16Y 40/20 20200101ALI20240618BHJP
G16Y 40/30 20200101ALI20240618BHJP
【FI】
G08G1/16 A
B60W30/14
B60W30/08
B60W30/00
G16Y10/40
G16Y20/20
G16Y40/10
G16Y40/20
G16Y40/30
(21)【出願番号】P 2020197564
(22)【出願日】2020-11-27
【審査請求日】2023-08-07
(73)【特許権者】
【識別番号】000004260
【氏名又は名称】株式会社デンソー
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】竹中 一仁
(72)【発明者】
【氏名】武藤 健二
(72)【発明者】
【氏名】吉永 諭史
(72)【発明者】
【氏名】平野 大輔
【審査官】小林 勝広
(56)【参考文献】
【文献】特開2020-166541(JP,A)
【文献】特開2020-144656(JP,A)
【文献】特開2019-185280(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
B60W 10/00-10/30、30/00-60/00
G05D 1/00- 1/87
G08G 1/00-99/00
G16Y 10/00-40/60
(57)【特許請求の範囲】
【請求項1】
対象車両(10)からの要求に応じて遠隔判断を行う遠隔支援装置(20)であって、
前記対象車両の前方画像から前記対象車両の周囲の状況を記述した説明情報を生成する説明生成部(54)と、
前記説明情報に応じて前記対象車両が取るべき第1の行動を判断する判断生成部(56)と、
前記説明情報が関係性の記述がない物体を含む場合、前記説明情報に含まれる複数の事象が矛盾または衝突する場合、及び前記説明情報に不確実性の高い要素が含まれる場合のいずれの場合も該当しない場合は、前記判断生成部による判断結果
を採用
すると判定
し、いずれかの場合に該当する場合は、前記判断生成部による判断結果を採用できないと判定する判定部(60)と、
前記判断生成部による判断結果を採用する場合には、前記第1の行動を遠隔判断の結果として出力し、前記判断生成部による判断結果を採用できない場合には、オペレータによる手動判断に切り替え、前記対象車両の前方画像から前記オペレータにより判断された前記対象車両が取るべき第2の行動を遠隔判断の結果として出力する出力部(80)と、
を備えた遠隔支援装置。
【請求項2】
前記説明生成部は、
前記対象車両の前方画像から前記対象車両の前方に存在する物体を検出し、
検出された前記物体の各々について、前記物体の状態、前記物体と前記対象車両との関係性、及び前記物体同士の関係性を記述した説明情報を生成する、
請求項1
に記載の遠隔支援装置。
【請求項3】
前記
説明生成部は、
前記物体の状態、前記物体と前記対象車両との関係性、及び前記物体同士の関係性の各々を、データベースに記憶された予め定めたルールに照らして
、前記説明情報を生成する、
請求項
2に記載の遠隔支援装置。
【請求項4】
前記説明情報は、
前記物体をノード、前記関係性をエッジとするグラフで表される、
請求項
2または請求項
3に記載の遠隔支援装置。
【請求項5】
前記判断生成部は、
機械学習を用いて学習された学習済みモデルを用いて、前記説明情報から前記対象車両が取るべき前記第1の行動を判断する、
請求項1から請求項
4までのいずれか1項に記載の遠隔支援装置。
【請求項6】
対象車両からの要求に応じて遠隔判断を行う遠隔支援システムであって、
請求項1から請求項
5までのいずれか1項に記載の遠隔支援装置と、
オペレータによる手動判断を取得する取得部(70)と、
を備えた遠隔支援システム。
【請求項7】
前記取得部は、
前記対象車両の前方画像を前記オペレータに表示して、前記オペレータによる手動判断を取得すると共に、
前記対象車両の前方画像から得られた説明情報を前記オペレータに表示して、前記オペレータによる前記説明情報の評価を取得する、
請求項
6に記載の遠隔支援システム。
【請求項8】
予め定めた学習データを用いて前記説明生成部及びルールを記憶するデータベースの少なくとも一方を学習させる第1の学習部(90)をさらに備える、
請求項
7に記載の遠隔支援システム。
【請求項9】
前記説明生成部が、車両の前方画像から説明情報を生成する第1の学習済みモデルで構成されており、
前記第1の学習済みモデルが、前記対象車両の前方画像と、前記説明情報の評価から得られた前記説明情報の正解値とを学習データとして学習される、
請求項
8に記載の遠隔支援システム。
【請求項10】
予め定めた学習データを用いて前記判断生成部及びルールを記憶するデータベースの少なくとも一方を学習させる第2の学習部(90)をさらに備える、
請求項
7から請求項
9までのいずれか1項に記載の遠隔支援システム。
【請求項11】
前記判断生成部が、説明情報から車両が取るべき行動を判断する第2の学習済みモデルで構成されており、
前記第2の学習済みモデルが、前記説明情報の評価から得られた前記説明情報の正解値と、前記オペレータにより判断された前記対象車両が取るべき第2の行動とを学習データとして学習される、
請求項
10に記載の遠隔支援システム。
【請求項12】
対象車両からの要求に応じて遠隔判断を行う遠隔支援方法であって、
コンピュータが、
前記対象車両の前方画像から前記対象車両の周囲の状況を記述した説明情報を生成し、
前記説明情報に応じて前記対象車両が取るべき第1の行動を判断し、
前記説明情報が関係性の記述がない物体を含む場合、前記説明情報に含まれる複数の事象が矛盾または衝突する場合、及び前記説明情報に不確実性の高い要素が含まれる場合のいずれの場合も該当しない場合は、判断結果
を採用
すると判定し、
いずれかの場合に該当する場合は、前記判断結果を採用できないと判定し、
前記判断結果を採用する場合には、前記第1の行動を遠隔判断の結果として出力し、前記判断結果を採用できない場合には、オペレータによる手動判断に切り替え、前記対象車両の前方画像から前記オペレータにより判断された前記対象車両が取るべき第2の行動を遠隔判断の結果として出力する、
ことを含む処理を実行する、
遠隔支援方法。
【請求項13】
対象車両からの要求に応じて遠隔判断を行うためのプログラムであって、
コンピュータを、
前記対象車両の前方画像から前記対象車両の周囲の状況を記述した説明情報を生成する説明生成部、
前記説明情報に応じて前記対象車両が取るべき第1の行動を判断する判断生成部、
前記説明情報が関係性の記述がない物体を含む場合、前記説明情報に含まれる複数の事象が矛盾または衝突する場合、及び前記説明情報に不確実性の高い要素が含まれる場合のいずれの場合も該当しない場合は、前記判断生成部による判断結果
を採用
すると判定
し、いずれかの場合に該当する場合は、前記判断生成部による判断結果を採用できないと判定する判定部、
前記判断生成部による判断結果を採用する場合には、前記第1の行動を遠隔判断の結果として出力し、前記判断生成部による判断結果を採用できない場合には、オペレータによる手動判断に切り替え、前記対象車両の前方画像から前記オペレータにより判断された前記対象車両が取るべき第2の行動を遠隔判断の結果として出力する出力部、
として機能させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、遠隔支援装置、遠隔支援システム、遠隔支援方法及びプログラムに関する。
【背景技術】
【0002】
従来、自律的に走行する自動運転車両を制御する際に、運転者の判断や操作をシステムが学習する技術が開発されている。例えば、特許文献1に記載の自動制御装置では、運転者の操作特性を学習し、学習が完了している場合に操作特性を反映させた自動制御を実施して、運転者の違和感を低減している(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
車両の操作には、認知、判断、操作というプロセスがあるが、認知と判断を完全に自動化することは難しい。このため、車両からの要求に応じてオペレータが遠隔判断を行う遠隔支援システムが提案されている。この遠隔支援システムにおいても、すべての遠隔判断をオペレータが行うのではなく、一部の遠隔判断を自動化することができれば、オペレータの負担を減らすことができる。
【0005】
しかしながら、自動判断が妥当か否かを検証することなく、オペレータの判断を自動判断に置き換えることはできない。例えば、特許文献1に記載の技術では、自動制御の実施・不実施を学習の進捗状況、即ち、運転者による判断の結果と自動判断の結果との一致度合いに応じて決めており、手順や根拠といった自動判断のプロセスの妥当性については評価していない。
【0006】
自動判断を妥当とするには、例えば検証用データに対するオペレータの判断結果と自動判断の結果とが一致するだけでは不十分であり、その判断結果に至った根拠や考慮した状況の範囲に不足が無いことが必要となる。例えば、
図6に示すシーンを「バスの乗降待ち」のシーンとすると、オペレータであれば、以下の(1)~(4)の段階を経て判断結果2を導き出すであろう。
【0007】
(1)前方のバスは乗降待ちで停車中
→追い越し対象。(判断結果1)
(2)前方のバスが乗降待ちで停車中ならば追い越すか?
→ 歩行者が道路を横断しようとしていたら停車する。
(3)歩行者が横断歩道にいたら停車するか?
→ 信号がなければ停車する。信号がある場合は点灯状態による。
(4)横断歩道付近に歩行者がいるが歩行者信号が赤信号なので停車の必要はない。
→ 乗降待ちのバスを追い越す。(判断結果2)
【0008】
上記の例では、(1)から(4)にかけて判断のプロセスが深化している。(1)の判断結果1と(4)の判断結果2とは、「乗降待ちのバスを追い越す」という結果としては同一であるが、(1)の段階までの判断しか行わないシステムでは、自動判断には不十分である。追い越しの可否を判断する際に、歩行者や信号の存在を考慮した上で影響がないと判断する場合と、歩行者や信号の存在を考慮しない場合とでは、判断結果が同一であっても、判断結果に潜むリスクが異なるからである。
【0009】
従って、オペレータによる判断を自動判断で置き換えるためには、システムによる判断プロセスが妥当か否かを判定するための手順が必要だと言える。また、システムによる判断プロセスが妥当ではない場合には、自動判断の結果を採用せずにオペレータに判断を行わせるべきである。
【0010】
本開示の目的は、車両からの要求に応じてオペレータが遠隔判断を行うシステムにおいて一部の遠隔判断を自動化することができ、自動判断が妥当ではない場合にオペレータによる手動判断に切り替えることができる、遠隔支援装置、遠隔支援システム、遠隔支援方法及びプログラムを提供することにある。
【課題を解決するための手段】
【0011】
上記目的を達成するために、本開示の例示的な態様は、対象車両(10)からの要求に応じて遠隔判断を行う遠隔支援装置(20)であって、前記対象車両の前方画像から前記対象車両の周囲の状況を記述した説明情報を生成する説明生成部(54)と、前記説明情報に応じて前記対象車両が取るべき第1の行動を判断する判断生成部(56)と、前記説明情報に基づいて前記判断生成部による判断結果の採用の可否を判定する判定部(60)と、前記判断生成部による判断結果を採用する場合には、前記第1の行動を遠隔判断の結果として出力し、前記判断生成部による判断結果を採用できない場合には、オペレータによる手動判断に切り替え、前記対象車両の前方画像から前記オペレータにより判断された前記対象車両が取るべき第2の行動を遠隔判断の結果として出力する出力部(80)と、を備える。
【0012】
本開示の例示的な態様は、対象車両からの要求に応じて遠隔判断を行う遠隔支援システムであって、本開示の遠隔支援装置と、オペレータによる手動判断を取得する取得部と、を備える。
【0013】
本開示の例示的な態様は、対象車両からの要求に応じて遠隔判断を行う遠隔支援方法であって、前記対象車両の前方画像から前記対象車両の周囲の状況を記述した説明情報を生成し、前記説明情報に応じて前記対象車両が取るべき第1の行動を判断し、前記説明情報に基づいて判断結果の採用の可否を判定し、前記判断結果を採用する場合には、前記第1の行動を遠隔判断の結果として出力し、前記判断結果を採用できない場合には、オペレータによる手動判断に切り替え、前記対象車両の前方画像から前記オペレータにより判断された前記対象車両が取るべき第2の行動を遠隔判断の結果として出力する。
【0014】
本開示の例示的な態様は、対象車両からの要求に応じて遠隔判断を行うためのプログラムであって、コンピュータを、前記対象車両の前方画像から前記対象車両の周囲の状況を記述した説明情報を生成する説明生成部、前記説明情報に応じて前記対象車両が取るべき第1の行動を判断する判断生成部、前記説明情報に基づいて前記判断生成部による判断結果の採用の可否を判定する判定部、前記判断生成部による判断結果を採用する場合には、前記第1の行動を遠隔判断の結果として出力し、前記判断生成部による判断結果を採用できない場合には、オペレータによる手動判断に切り替え、前記対象車両の前方画像から前記オペレータにより判断された前記対象車両が取るべき第2の行動を遠隔判断の結果として出力する出力部、として機能させるプログラムである。
【発明の効果】
【0015】
本発明によれば、車両からの要求に応じてオペレータが遠隔判断を行うシステムにおいて一部の遠隔判断を自動化することができ、自動判断が妥当ではない場合にオペレータによる手動判断に切り替えることができる。
【図面の簡単な説明】
【0016】
【
図1】遠隔支援システムの構成の一例を示すブロック図である。
【
図2】車載装置のハードウェア構成の一例を示すブロック図である。
【
図3】遠隔支援装置のハードウェア構成の一例を示すブロック図である。
【
図4】端末装置のハードウェア構成の一例を示すブロック図である。
【
図5】遠隔支援装置の機能的な構成の一例を示す機能ブロック図である。
【
図9】遠隔支援処理の手順の一例を示すフローチャートである。
【
図10】自動判断処理の手順の一例を示すフローチャートである。
【
図11】更新処理の手順の一例を示すフローチャートである。
【
図12】更新処理の手順の他の一例を示すフローチャートである。
【
図13】行動判定処理の手順の一例を示すフローチャートである。
【
図14】行動判定処理の手順の他の一例を示すフローチャートである。
【
図15】自動判断可否判定処理の手順の一例を示すフローチャートである。
【
図16】手動判断取得処理の手順の一例を示すフローチャートである。
【
図18】学習部によるデータの流れの一例を示す模式図である。
【
図19】学習処理の手順の一例を示すフローチャートである。
【
図20】モデルに与えられるデータセットの一例を示す模式図である。
【
図21】システム立ち上げから立ち上げ後までの学習の進行状況の一例を示す図表である。
【発明を実施するための形態】
【0017】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
【0018】
[第1の実施の形態]
本開示の遠隔支援システムは、自律的に走行する自動運転車両(以下、「車両」という。)からの支援要求に応じてオペレータ又はシステムが、前方車両の追い越しや車線変更など、支援対象の車両の周囲の状況に応じてその車両が取るべき行動を遠隔判断するシステムである。
【0019】
<遠隔支援システム>
図1に示すように、遠隔支援システム100は、車両10と、管理センタやクラウド上に設置された遠隔支援装置20と、オペレータ32により操作される端末装置30とを備えている。端末装置30は、管理センタの内部又は外部にある管制室に設置されている。なお、車両10、遠隔支援装置20、及び端末装置30の個数は、
図1に示す例に限定されない。また、設置場所も一例に過ぎない。
【0020】
車両10は、無線基地局(図示せず)を介してインターネット等の公衆網であるネットワーク40に接続されている。車両10は、ネットワーク40に接続された遠隔支援装置20と無線により通信を行う。また、遠隔支援装置20と端末装置30とは、LAN等で接続されており、有線または無線により通信を行う。
【0021】
車両10は、自動運転の制御を行うための制御機能(図示せず)を備えている。制御機能は、指定された目的地までの経路を決定し、決定した経路に従って走行するように、車両10の各機構を制御することにより、自動運転を実現する。車両10は、オペレータ32による支援が必要な場合に、遠隔支援装置20に遠隔支援を要求する。また、車両10は、車両の周囲の状況を表す画像を、遠隔支援装置20に送信する。
【0022】
遠隔支援装置20は、車両10に対して遠隔支援を行う装置である。遠隔支援装置20は、車両10から遠隔支援の要求を受け付けると、車両10が取るべき行動をまずは自動で判断する。そして、自動判断の判断プロセスが妥当である場合には、自動判断の結果を車両10に出力する。
【0023】
一方、自動判断の判断プロセスが妥当ではない場合には、遠隔支援装置20は、オペレータ32による手動判断に切り替え、オペレータ32に遠隔判断を行わせる。オペレータ32は、対応する端末装置30を操作して遠隔判断を入力する。遠隔支援装置20は、手動判断の結果を端末装置30から取得し、車両10に出力する。
【0024】
(車両のハードウェア構成)
図2に示すように、車両10は、CPU(Central Processing Unit)10A、メモリ10B、記憶装置10C、入力装置10D、出力装置10E、通信インタフェース(I/F)10F、及びセンサ群10Gを備えている。各部は、バス10Hを介して相互に通信可能に接続されている。
【0025】
CPU10Aは、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU10Aは、記憶装置10Cからプログラムを読み出し、メモリ10Bを作業領域としてプログラムを実行する。CPU10Aは、記憶装置10Cに記憶されているプログラムに従って、上記各部の制御及び各種の演算処理を行う。
【0026】
メモリ10Bは、RAM(Random Access Memory)により構成され、作業領域として一時的にプログラム及びデータを記憶する。記憶装置10Cは、ROM(Read Only Memory)、及びHDD(Hard Disk Drive)、SSD(Solid State Drive)等により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
【0027】
入力装置10Dは、例えば、キーボードやマウス等の、各種の情報の入力を行うための装置である。出力装置10Eは、例えば、ディスプレイやプリンタ等の、各種の情報を出力するための装置である。出力装置10Eとしてタッチパネルディスプレイを採用することにより、出力装置10Eを入力装置10Dとしても機能させてもよい。
【0028】
通信I/F10Fは、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)等の規格が用いられる。
【0029】
センサ群10Gは、車両の周囲を撮影する少なくとも1つのカメラを含む。センサ群10Gは、カメラの外に、車両の周囲の障害物を検知するミリ波レーダやLIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)、自車両の現在位置を取得するGPS(Global Positioning System)受信機を含んでいてもよい。
【0030】
(遠隔支援装置のハードウェア構成)
遠隔支援装置20は、パーソナルコンピュータやサーバ装置等の情報処理装置により実現される。
図3に示すように、遠隔支援装置20は、CPU20A、メモリ20B、記憶装置20C、及び通信I/F20Fを備えている。各部は、バス20Hを介して相互に通信可能に接続されている。なお、各部の構成は、
図2に示す車両10の対応する部分と同様であるため、説明を省略する。
【0031】
(端末装置のハードウェア構成)
端末装置30は、パーソナルコンピュータ等の情報処理装置により実現される。
図4に示すように、端末装置30は、CPU30A、メモリ30B、記憶装置30C、入力装置30D、出力装置30E、及び通信I/F30Fを備えている。各部は、バス30Hを介して相互に通信可能に接続されている。記憶装置30Cには、後述する「遠隔支援処理」や「学習処理」を実行するためのプログラムが記憶されている。なお、各部の構成は、
図2に示す車両10の対応する部分と同様であるため、説明を省略する。
【0032】
(遠隔支援装置20の機能構成)
次に、
図5を参照して、遠隔支援装置20の機能的な構成を説明する。
図5に示すように、遠隔支援装置20は、車両が取るべき行動を自動判断する自動判断部50、ルールデータベース(DB)58、自動判断の結果を採用するか否かを判定する自動判断可否判定部60、オペレータによる手動判断を受け付ける手動判断取得部70、判断結果を車両に出力する出力部80、及び自動判断部50を学習させる学習部90を備えている。
【0033】
遠隔支援装置20のCPU20Aが後述する「遠隔支援処理」や「学習処理」のプログラムを実行することにより、コンピュータがこれらの機能部として機能する。
【0034】
自動判断部50は、物体検出部52、説明生成部54、及び判断生成部56を備えている。物体検出部52は、入力画像上の運転に関連する物体を検出する。説明生成部54は、物体検出部52で検出された物体を、ルールDB58に記憶されたルールと照合して、車両の周囲の状況を説明する説明情報を生成する。
【0035】
ここで「説明情報」とは、環境に存在する物体について、物体の状態、物体と車両との関係性、及び物体同士の関係性を表す情報である。説明情報は、物体をノード、関係性をエッジとするグラフで表すことができる。本実施の形態では、説明情報をグラフで表す例について説明するが、説明情報は、複数の物体間の関係性を表現した式の集合として表現されてもよい。
【0036】
ルールとは、例えば、横断歩道の脇で停止している停止歩行者は渡る可能性がある、進行方向の信号が赤である停止歩行者は移動を開始しない、ハザードランプを点灯した車両は停車している等、予め定めた規則である。「説明情報」は、ルールDB58に記憶されたルール集合のうち、対象のシーンに適用されるルールの部分集合となる。
【0037】
例えば、
図6に示す画像について物体検出を行うと、
図7で境界ボックスを付して示すように、運転に関連する物体として、バス、対向車、歩行者、横断歩道、歩行者信号、及び交差車が検出される。説明情報は、例えば
図8に示すグラフで表される。上記の通り、説明情報には、検出された物体の状態(例えば、歩行者は横断歩道の脇で停止中)、物体と車両との関係性(例えば、歩行者は車両の進行エリアに侵入しない)、及び物体同士の関係性(例えば、歩行者は赤信号で停止中)が含まれる。
【0038】
判断生成部56は、説明生成部54で生成された説明情報から車両が取るべき行動を判断する。そして、自動判断部50は、説明情報と自動判断の結果を、自動判断可否判定部60に渡す。
【0039】
自動判断可否判定部60は、説明情報と自動判断の結果とから自動判断の結果を採用するか否かを判定する。自動判断可否判定部60は、除外対象判定部62及び妥当性判定部64を備えている。除外対象判定部62は、説明情報とは無関係に自動判断の結果が除外対象に該当するか否かを判定する。例えば、自動判断の結果が、法律的、道義的に自動判断が適切ではない行動である場合、除外対象に該当する。妥当性判定部64は、説明情報に基づいて自動判断の妥当性を判定する。後述する通り、妥当性判定部64は、説明情報中に関係性の見落としや矛盾等があれば自動判断は妥当ではないと判定する。なお、除外対象判定部62は省略してもよい。
【0040】
自動判断可否判定部60は、判断結果が除外対象に該当せず且つ自動判断が妥当である場合には、自動判断可能と判定し、自動判断の結果を出力部80に渡す。一方、自動判断可否判定部60は、判断結果が除外対象に該当する場合及び自動判断が妥当でない場合のいずれかに該当する場合には、自動判断不可能と判定し、手動判断取得部70に、オペレータによる手動判断の結果を取得させる。
【0041】
手動判断取得部70は、オペレータが操作する端末装置に入力画像を表示させ、オペレータによる手動判断を受け付ける。手動判断取得部70は、端末装置を介してオペレータによる手動判断の結果を取得する。手動判断取得部70は、手動判断の結果を、出力部80に渡す。また、後述する通り、手動判断取得部70は、オペレータによる説明情報の評価を取得してもよい。
【0042】
出力部80は、取得した自動判断の結果又は手動判断の結果を、支援要求への応答出力として車両に出力する。
【0043】
学習部90には、入力画像、自動判断部50で生成された説明情報と自動判断の結果、及び手動判断取得部70で取得された説明情報の評価と手動判断の結果のデータセットが、学習データとして蓄積される。学習部90は、蓄積された学習データを用いて、自動判断部50とルールDB58とを学習させる。
【0044】
説明生成部54が、特許請求の範囲の「説明生成部」に対応する。判断生成部56が、特許請求の範囲の「判断生成部」に対応する。自動判断可否判定部60が、特許請求の範囲の「判定部」に対応する。出力部80が、特許請求の範囲の「出力部」に対応する。手動判断取得部70が、特許請求の範囲の「取得部」に対応する。学習部90の説明生成部54及びルールDB58を学習させる機能が、特許請求の範囲の「第1の学習部」に対応する。学習部90の判断生成部56及びルールDB58を学習させる機能が、特許請求の範囲の「第2の学習部」に対応する。
【0045】
<遠隔支援処理>
次に、
図9を参照して「遠隔支援処理」の流れを説明する。
車両より遠隔支援の要求を受け付けると、遠隔支援装置20のCPU20Aにより「遠隔支援処理」のプログラムが実行される。以下では、支援対象の車両を「対象車両」という。
【0046】
まず、ステップ100で、CPU20Aは、対象車両のカメラで撮影された、対象車両周囲の画像を入力画像として取得する。次に、ステップ102で、CPU20Aは、対象車両が取るべき行動を自動判断する「自動判断処理」を実行する。
【0047】
次に、ステップ104で、CPU20Aは、自動判断の結果を採用するか否かを判定する「自動判断可否判定処理」を実行する。次に、ステップ106で、CPU20Aは、自動判断が可能か否かを判定する。自動判断が不可能である場合は、ステップ108に進み、自動判断が可能である場合は、ステップ112に進む。
【0048】
自動判断が不可能である場合は、次にステップ108で、CPU20Aは、「手動判断取得処理」を行う。続くステップ110で、CPU20Aは、取得した手動判断の結果を出力してルーチンを終了する。自動判断が可能である場合は、次にステップ112で、自動判断の結果を出力してルーチンを終了する。
【0049】
以下では、「自動判断処理」、「自動判断可否判定処理」、及び「手動判断取得処理」の各サブルーチンの詳細を説明する。
【0050】
(自動判断処理)
ここで、
図10を参照して「自動判断処理」の流れを詳細に説明する。
まず、ステップ200で、CPU20Aは、入力画像から物体を検出する。物体検出には、R-CNN (Region-based CNN)、YOLO(You only Look Once)、SSD(Single Shot Detector)等、既存の手法を用いることができる。また、物体検出では、移動速度、ブレーキランプの点灯状態など、物体の属性情報の認識も行う。
【0051】
なお、一般的な物体検出器を用いて入力画像から物体を検出する以外に、他の方法で物体に関する情報を取得してもよい。例えば、地図を参照して現在位置に存在する横断歩道や信号などの情報を取得してもよい。また、別の車両やインフラセンサから取得した物体の情報を使用することもできる。
【0052】
次に、ステップ202で、CPU20Aは、検出された物体の状態や物体同士の関係性を更新する「更新処理」を実行する。具体的には、予め与えられたルール集合を参照し、物体の状態や物体同士の関係性をルールと照合して、物体の状態や関係性を更新する。更新処理については後述する。次に、ステップ204で、CPU20Aは、更新後の状態や関係性を表す説明情報を生成する。
【0053】
次に、ステップ206で、CPU20Aは、説明情報から車両が取るべき行動を判断する「行動判断処理」を実行する。次に、ステップ208で、CPU20Aは、判断結果を出力して、ルーチンを終了する。なお、ステップ202及びステップ204が、
図5の説明生成部54の機能であり、ステップ206及びステップ208が、
図5の判断生成部56の機能である。
【0054】
-更新処理-
本実施の形態では、ルールと照合して物体の状態や物体同士の関係性を更新するルールベースの更新処理を行う。
図11を参照して「更新処理」について詳細に説明する。
【0055】
まず、ステップ300で、CPU20Aは、検出されたすべての物体について、現在の状態及び関係性を保存する。例えば、最初は、物体検出の結果として得られた範囲で、状態及び関係性を保存する。
【0056】
次に、ステップ302で、CPU20Aは、1つの物体を選択する。続くステップ304で、CPU20Aは、選択された物体に対してルール集合からルールを照合して、物体の状態を更新する。物体や、物体とその状態との組合せをルール内に持つルールを抽出し、抽出されたルールの中で選択された物体に最もマッチするルールを適用して、物体の状態を推定する。例えば、移動している歩行者は「そのまま進行方向に移動し続ける」、ハザードランプの点灯している車両は「停車している」等である。ルールからカッコ内の状態が推定される。
【0057】
続くステップ306で、CPU20Aは、すべての物体について状態を更新したか否かを判断する。状態を更新していない物体がある場合は、ステップ302に戻り次の物体を選択して、次の物体の状態を更新する。すべての物体について状態を更新した場合は、ステップ308に進む。こうして、すべての物体のそれぞれに対して、ルール集合からマッチするルールを適用して、物体の状態を更新する。
【0058】
次に、ステップ308で、CPU20Aは、2つの物体の組合せを1つ選択する。ここでは、対象車両も物体に含まれる。続くステップ310で、CPU20Aは、選択された組合せに対してルール集合からルールを照合して、物体同士の関係性を更新する。2つの物体の組合せをルール内に持つルールを抽出し、抽出されたルールの中で選択された物体の組合せに最もマッチするルールを適用して、物体同士の関係性を推定する。例えば、横断歩道の脇で停止している「歩行者は横断歩道を渡る」、「赤信号前の停止歩行者は移動しない」等である。ルールからカッコ内の関係性が推定される。また、物体同士が相互に影響しないことも関係性として推定する。例えば、「移動しない歩行者は自車両に影響しない」等である。
【0059】
続くステップ312で、CPU20Aは、すべての物体の組合せについて関係性を更新したか否かを判断する。関係性を更新していない組合せがある場合は、ステップ308に戻り次の組合せを選択して、次の組合せに係る物体同士の関係性を更新する。すべての物体の組合せについて関係性を更新した場合は、ステップ314に進む。
【0060】
次に、ステップ314で、CPU20Aは、物体の状態及び物体同士の関係性に変化が無いか否かを判断する。変化がない場合は、ルーチンを終了し、変化がある場合は、ステップ300に戻って、状態及び関係性を更新する。ステップ300~312の手順を踏むと、物体の状態や物体同士の関係性が更新される。
【0061】
更新された状態や関係性に従って、さらに新しいルールを適用することができるため、状態及び関係性に変化がなくなるまで更新を繰り返す。なお、処理を短縮するため、あるいは、更新により収束しない場合に対処するために、繰り返しの上限を設定してもよい。上述した通り、更新後の物体の状態及び物体同士の関係性に基づいて説明情報を生成する(
図10のステップ204)。
【0062】
また、
図5の説明生成部54を、入力画像(例えば、検出物体にフラグが付いた画像)から説明情報を出力する学習済みモデルで構成することもできる。この場合、入力画像と対応する説明情報の正解値との組からなる学習データを用いて、機械学習の手法によりモデルを事前に訓練しておく。説明情報を生成するモデルとしては、入力画像からその画像に含まれる物体とそれらの間の関係を記述したシーングラフを生成するニューラルネットワーク等が挙げられる。
【0063】
説明生成部54を学習済みモデルで構成した場合は、
図12に示すように、ステップ320で、検出物体にフラグが付いた入力画像をモデルに入力し、続くステップ322で、学習済みモデルが説明情報を生成して出力し、ルーチンを終了する。モデルの学習については後述する。
【0064】
-行動判断処理-
本実施の形態では、
図5の判断生成部56を、説明情報から車両が取るべき行動(以下、「選択行動」という。)を出力する学習済みモデルで構成する。この場合、説明情報と対応する手動判断の結果(即ち、選択行動の正解値)の組からなる学習データを用いて、機械学習の手法によりモデルを事前に訓練しておく。説明情報から選択行動を出力するのに適した判断モデルとしては、グラフ情報を入力として扱うことが可能なグラフニューラルネットワーク(GNN; graph neural network)や、グラフ情報から抽出した特徴量を用いた決定木などが挙げられる。
【0065】
図13を参照して「行動判断処理」について詳細に説明する。まずステップ400で、説明情報をモデルに入力する。次に、ステップ402で、学習済みモデルが選択行動を出力して、ルーチンを終了する。歩行者や車両などの移動体の自発変化やオクルージョンなどにより、移動体の変化に不確実性がある場合でも、学習済みモデルによれば、手動判断の結果に近い結果を推定することができる。
【0066】
また、学習済みモデルを用いずに、予め設計した具体的な手順に従うルールベースの「行動判断処理」を行うこともできる。具体的な手順の要点は以下の2点である。(1)歩行者、他の車両などの移動体が対象車両の進行エリアに進入する可能性がなく、検知範囲外からの移動体が発生する可能性がない場合は、優先度の高い行動を選択する。(2)対象車両の進行エリアに移動体が存在する場合や、移動体が進入する場合は、その行動は選択しない。
【0067】
図14を参照して、ルールベースの「行動判断処理」について詳細に説明する。まず、ステップ404で、CPU20Aは、優先度の高い行動を行動リストから選択する。取るべき行動は、予め優先度を付けてリスト化されている。例えば、「直進する」が最も優先度が高く、「直進する」→「隣接車線に車線変更」→「車線内での回避」→「車線を逸脱した回避」→「停車」の順に優先度が低下する。
【0068】
説明生成のためのルールとは別に、干渉の可能性を判断するためのルール集合が用意されている。次に、ステップ406で、CPU20Aは、選択した行動に対して干渉の可能性を判定するためのルール集合と、説明情報から得られる状態及び関係性とを照合する。次に、ステップ408で、CPU20Aは、ルールと、説明情報から得られる状態及び関係性との照合結果に基づいて、干渉する可能性があるか否かを判定する。
【0069】
例えば「直進する」という行動の場合、横断歩道を渡る可能性のある歩行者と干渉するというルールと、説明情報から得られる状態及び関係性とを照合し、説明情報から、横断歩道を渡る可能性のある歩行者が存在する状態及び関係性が得られていれば、干渉する可能性があると判定する。また、「隣接車線に車線変更」という行動の場合、隣接車線を走行する車両と干渉するというルールと、説明情報から得られる状態及び関係性とを照合する。また、「車線を逸脱した回避」という行動の場合、対向車線を走行する対向車と干渉するというルールと、説明情報から得られる状態及び関係性とを照合する。
【0070】
干渉する可能性がない場合は、ステップ410に進む。そして、ステップ410で、CPU20Aは、選択した行動を出力して、ルーチンを終了する。一方、干渉する可能性がある場合は、ステップ412に進む。そして、ステップ412で、CPU20Aは、行動リストから選択した行動を除外して、ステップ404に戻る。こうして、干渉する可能性がない行動が選択されるまで、ステップ404~ステップ408及びステップ412を繰り返し行う。
【0071】
(自動判断可否判定処理)
次に、
図15を参照して「自動判断可否判定処理」の流れを説明する。
まず、ステップ500で、CPU20Aは、蓄積された学習データに基づいて、説明生成部及び判断生成部の各々の精度を検証する。各部の「精度」は、オペレータによる手動判断の結果やオペレータにより作成された説明情報(又はその評価)を正解値としたときの正答率である。このステップ500での処理は遠隔支援処理ごとに毎回する必要はなく、正答率に変化が生じ得る場合にのみ行えばよい。すなわち、学習により更新処理または行動判断処理が更新された場合、あるいは蓄積された学習データが変更された場合のいずれかにおいて処理が行われればよい。学習処理に関連して後述するが、学習が不十分である場合は各部の精度が低くなる。以下の手順は、正答率が高かったとしても自動判断すべきでない場合を抽出するものである。
【0072】
続くステップ502で、CPU20Aは、検証結果が予め定めた基準値以下か否かを判断する。検証結果が予め定めた基準値より大きい場合は、ステップ504に進む。一方、検証結果が予め定めた基準値以下の場合は、自動判断の結果を採用せずにステップ518に進む。ステップ518で、CPU20Aは、手動判断に切り替えて、ルーチンを終了する。
【0073】
次に、ステップ504で、CPU20Aは、判断結果に基づき、選択行動と予め設定された除外リストとを照合する。除外リストは、手動判断結果と同一の選択行動だったとしても、システムの自動判断による応答を行わない行動を予めリストアップしたものである。例えば、「車線をはみ出す回避」は、法律的、道義的な観点から、自動判断を行うことは不適切であるため、除外リストに含める。
【0074】
続くステップ506で、CPU20Aは、選択行動が除外リストに含まれるか否かを判断する。選択行動が除外リストに含まれていない場合は、ステップ508に進む。一方、選択行動が除外リストに含まれている場合は、自動判断の結果を採用せずにステップ518に進む。ステップ518で、CPU20Aは、手動判断に切り替えて、ルーチンを終了する。
【0075】
次に、ステップ508で、CPU20Aは、説明情報の各物体について、車両や他の物体との関係性の有無を確認する。続くステップ510で、CPU20Aは、関係性が未確認の物体が存在するか否かを判断する。関係性が未確認の物体は、例えば、物体としては認識されたが、その物体が周辺にもたらす影響が考慮されていない状態にある。説明情報は予め定めた規則に従って作成されたグラフで表されているので、関係性の有無の確認が容易であり、コンピュータによる処理が行いやすい。
【0076】
関係性が未確認の物体が存在しない場合は、ステップ512に進む。一方、関係性が未確認の物体が存在する場合は、判断プロセスに問題があるので、自動判断の結果を採用せずにステップ518に進む。ステップ518で、CPU20Aは、手動判断に切り替えて、ルーチンを終了する。
【0077】
次に、ステップ512で、CPU20Aは、説明情報中の矛盾、衝突、及び不確実性の高い要素を抽出する。続くステップ514で、CPU20Aは、矛盾、衝突、及び不確実性の高い要素のいずれかが、説明情報中に存在するか否かを判断する。例えば、「歩行者が道路方向に移動している」 と 「歩行者信号が赤信号で停止している」という2つの関係性が存在している状態は、矛盾又は衝突していると同時に、将来の行動が不明な状態であるため不確実性の高い要素ということもできる。
【0078】
矛盾、衝突、及び不確実性の高い要素のいずれも存在しない場合は、ステップ516に進む。次に、ステップ516で、CPU20Aは、自動判断の結果を採用して、ルーチンを終了する。一方、矛盾や衝突や不確実性の高い要素が存在する場合は、判断プロセスに問題があるので、自動判断の結果を採用せずにステップ518に進む。ステップ518で、CPU20Aは、手動判断に切り替えて、ルーチンを終了する。
【0079】
(手動判断取得処理)
次に、
図16を参照して「手動判断取得処理」の流れを説明する。
まず、ステップ600で、CPU20Aは、オペレータが操作する端末装置に「入力映像」を表示させて、オペレータから車両が取るべき行動の選択を受け付ける。オペレータは、選択した行動(即ち、手動判断の結果)を入力する。
【0080】
次に、ステップ602で、CPU20Aは、端末装置を介してオペレータによる手動判断の結果を取得したか否かを判断する。CPU20Aは、手動判断の結果を取得するまで、ステップ602の判断を繰り返し行う。CPU20Aは、手動判断の結果を取得すると、ステップ604に進む。続くステップ604で、CPU20Aは、手動判断の結果を出力部に渡す。
【0081】
次に、ステップ606で、CPU20Aは、オペレータが操作する端末装置に、自動判断部で生成された「説明情報」を表示させて、オペレータによる評価を受け付ける。オペレータは、説明情報の評価を入力する。説明情報はグラフ化されているので、オペレータは関係性の抜け等を発見しやすい。
【0082】
次に、ステップ608で、CPU20Aは、端末装置を介してオペレータによる評価を取得したか否かを判断する。CPU20Aは、評価を取得するまで、ステップ608の判断を繰り返し行う。CPU20Aは、評価を取得すると、ステップ610に進む。続くステップ610で、CPU20Aは、評価を出力部に渡して、ルーチンを終了する。
【0083】
ルールベースで更新処理を行う場合(
図11参照)、説明情報に対する評価は、オペレータによるルールの修正や新たなルールの追加である。例えば、ルールが作成されていない未知の物体を検出した場合には、その物体に関するルールを追加する。また、ルールの適用が間違っている場合は、正しいルールを適用する。或いは、適切なルールが無い場合は、既存ルールを変更して新しいルールを作成する。一方、学習済みモデルで更新処理を行う場合(
図12参照)は、説明情報に対する評価は、最終的な結果としての新たな説明情報である。なお、ルールベースで更新処理を行う場合でも、新たな説明情報が取得される。
【0084】
ここで、
図17を参照して、ルールベースで更新処理を行う場合の、説明情報の評価について説明する。
図17に示すように、自動判断部が出力した説明情報では、自車両とバスとの関係性Aは「停車または渋滞」であるが、説明の正解は「停車を継続する」である。この場合、説明情報の評価では、オペレータは、例えば「ハザードランプが点灯している停車中のバスは停車を継続する」という新しいルールを追加する。
【0085】
また、自動判断部が出力した説明情報では、対向車の状態Bは「車線走行中」であるが、説明の正解は「路肩停車中」である。この場合、説明情報の評価では、オペレータは、例えば「対向車が〇m以上路肩にはみ出していたら、対向車は路肩停車中である」というように、既存ルールの適用条件を変更する。
【0086】
手動判断の結果は、自動判断の結果に対する評価であり、選択行動の正解値である。また、説明情報の評価は、説明情報の正解値である。入力画像、自動判断部で生成された説明情報、説明情報の評価(即ち、説明情報の正解値)、自動判断の結果、及び手動判断の結果(即ち、選択行動の正解値)の各々は、学習部のデータベース(図示せず)に蓄積される。蓄積データは、自動判断部やルールDBの学習に用いられる。なお、「学習処理」については、次の第2の実施の形態で説明する。
【0087】
第1の実施の形態によれば、すべての遠隔判断をオペレータが行うのではなく、自動判断の判断プロセスが適切な場合に、自動判断の結果を採用することができる。これにより、オペレータの負担を減らすことができる。また、自動判断が妥当ではない場合には、オペレータによる手動判断に戻すことができる。
【0088】
[第2の実施の形態]
第2の実施の形態では、遠隔支援システムで実行される「学習処理」について説明する。遠隔支援システムは、
図5の自動判断部50及びルールDB58を学習させる学習部90を備えている。
図18に示すように、学習部90は、これまでに蓄積された蓄積データに、
図5の手動判断取得部70から新たに得られたデータを加えて、
図5の説明生成部54、判断生成部56、及びルールDB58の各部を学習させる。
【0089】
説明生成部54及びルールDB58の学習には、入力画像、自動判断部で生成された説明情報、及び説明情報の評価(即ち、説明情報の正解値や新たなルール、適用条件)のデータセットを用いる。判断生成部56の学習には、説明情報の評価(即ち、説明情報の正解値)及び手動判断の結果(即ち、選択行動の正解値)のデータセットを用いる。
【0090】
<学習処理>
図19を参照して「学習処理」の流れを説明する。
図5の自動判断部50は、初期段階では予め設計したルールのみを適用したり、常に自明な出力のみを出力するなどの判断を行う。システムの立ち上げ後は、必要に応じて離散的に(例えば、遠隔支援システムの起動時や、予め定めたタイミングで)、遠隔支援装置20のCPU20Aにより「学習処理」のプログラムが実行される。
【0091】
なお、後述する通り、システム立ち上げの初期段階においては、事前に蓄積した検証データあるいは学習時に蓄積された検証データに基づいて精度を検証する。検証結果が一定の基準以下の場合は、
図15を参照して説明した通り、自動判断可否判定部によって自動判断はなされず、手動判断での車両応答及び追加の学習データの蓄積を行う。検証結果が一定の基準を超えた場合に、初期段階の学習が完了したと判断される。
【0092】
まず、ステップ700で、CPU20Aは、説明生成部に学習が必要か否かを判断する。例えば、新たに得られたデータの説明情報に対する評価において、自動判断部で生成された説明情報に対してオペレータが修正した箇所が存在するか否かを確認し、修正箇所があれば説明生成部に学習が必要と判定して、ステップ702に進む。一方、修正箇所が無ければ説明生成部に学習が不要と判定して、ステップ706に進む。
【0093】
次に、ステップ702で、CPU20Aは、説明生成部の学習処理を実行する。説明生成部の学習処理の詳細は後述する。
【0094】
次に、ステップ704で、CPU20Aは、説明生成部の学習処理を行った場合、蓄積データに対して自動判断部で生成された既存の説明情報を、学習後の自動判断部が生成した新規の説明情報に更新する。
【0095】
次に、ステップ706で、CPU20Aは、判断生成部に学習が必要か否かを判断する。例えば、自動判断により選択された選択行動が、手動判断の結果(即ち、選択行動の正解値)と異なるか否かを確認し、両者が異なる場合は判断生成部に学習が必要と判定して、ステップ708に進む。一方、両者が同じ場合は判断生成部に学習が不要と判定して、ルーチンを終了する。
【0096】
ここで、自動判断の根拠とした説明情報が、新しい説明情報に更新された場合には、新しい説明情報に対する判断生成部の出力(即ち、選択行動)を取得し、取得した選択行動が、手動判断の結果(即ち、選択行動の正解値)と異なるか否かを確認する。
【0097】
次に、ステップ708で、CPU20Aは、判断生成部の学習処理を実行して、ルーチンを終了する。判断生成部の学習処理の詳細は後述する。
【0098】
(説明生成部の学習処理)
ここで、説明生成部がルールベースの更新処理を行う場合と、説明生成部を学習済みモデルで構成した場合とに分けて学習処理の方法を説明する。
【0099】
ルールベースの場合、説明情報に対する評価は、新たに追加すべきルールまたは適用されたルールの適用条件の修正として与えられる。従って、与えられた評価に基づき、ルール集合への新ルールの追加、既存ルールの修正を行うことでルールDBの学習を行う。ルールDBを学習させることで、説明生成の精度も向上する。
【0100】
説明生成部を学習済みモデルで構成する場合、説明情報に対する評価は、説明情報の正解値(例えば、
図17の例では、「停車継続」という関係性や、「路肩停車中」という状態)として与えられる。従って、入力画像から説明情報の正解値を出力するようにモデルを修正する。モデルを修正したら検証を行い、正答率が高くなれば、修正後のモデルで置き換える。具体的には、例えばニューラルネットワークをモデルとして採用し、誤差逆伝播法によりモデルを更新する。この際、蓄積された学習データも使ってモデルを更新する。
【0101】
なお、モデルの事前学習には、多様な環境条件で取得された大量の学習データを準備する必要がある。モデルの学習の際にルール集合と学習データの双方を用いて学習を行うと、学習データ準備の負荷を軽減することができる。
【0102】
(判断生成部の学習処理)
判断生成部がルールベースで行動を選択する場合と、判断生成部を学習済みモデルで構成した場合とに分けて学習処理の方法を説明する。
【0103】
ルールベースの場合、判断結果に対する評価は、説明情報の学習と同様に、新たに追加すべきルールまたは適用されたルールの適用条件の修正として与えられる。従って、与えられた評価に基づき、ルール集合への新ルールの追加、既存ルールの修正を行うことでルールDBの学習を行う。ルールDBを学習させることで、判断生成の精度も向上する。
【0104】
判断生成部を学習済みモデルで構成する場合、判断結果に対する評価は、選択行動の正解値(例えば、
図20の例では、説明情報(入力)に対する「バス追い越し」という選択行動)が与えられる。従って、説明情報から選択行動の正解値を出力するようにモデルを修正する。モデルを修正したら検証を行い、正答率が高くなれば、修正後のモデルで置き換える。具体的には、例えばグラフ畳込みネットワークをモデルとして採用し、誤差逆伝播法によりモデルを更新する。この際、蓄積された学習データも使ってモデルの更新を行う。
【0105】
<システムの立ち上げ>
次に、
図21を参照して、システム立ち上げから立ち上げ完了後までの学習の進行状況について説明する。
【0106】
システム立ち上げの初期段階では、説明生成部が十分な説明情報を出力できず、それに伴い判断生成部も判断結果を出力できないという状況である。従って、すべてのケースでオペレータが手動判断を行うと共に、オペレータが説明情報を生成する。オペレータは、ルールの追加も行う。
【0107】
オペレータによる手動判断が続くと、入力画像、オペレータが生成した説明情報(即ち、説明情報の正解値)、及び手動判断の結果(即ち、選択行動の正解値)のデータセットが学習データとして蓄積される。
【0108】
説明生成部の学習中は、学習部は、蓄積された学習データに基づき説明生成部を学習させる。
【0109】
説明生成部の学習が概ね完了すると、説明生成部の精度の検証結果が基準値を超えるようになり、判断生成部が判断結果の生成を開始する。また、ルールが充実することで、説明情報が拡充される。但し、説明生成の精度が悪いため、すべてのケースでオペレータが手動判断によるダブルチェックを行うと共に、説明情報と判断結果の評価を生成する。オペレータによる説明情報の評価が生成されることで、説明生成部の学習が進む。
【0110】
説明生成部の学習が進み、説明情報への評価が十分高くなると、学習部は、判断生成部の学習を開始する。判断生成部の学習中は、蓄積された学習データに基づき判断生成部を学習させる。説明情報から判断結果を出力する判断生成部の学習が進む。
【0111】
判断生成部の学習が進むと、オペレータによる手動判断の結果と判断生成部による自動判断の結果とを比較して判断生成部の精度を検証する。判断生成部の学習が概ね完了すると、判断生成部の精度の検証結果が基準値を超えるようになり、自動判断部が稼働を開始する。即ち、自動判断の精度が十分高くなった段階でシステムが完成し、入力画像に基づき自動判断が行われるようになる。
【0112】
システムの立ち上げ完了後は、自動判断部が説明情報及び判断結果を生成し、自動判断可否判定部の判断結果に基づき、必要に応じてオペレータが手動判断を行う。手動判断により新しいデータセットが収集される。そして、学習部は、新しいデータセットを含む学習データを用いて、必要に応じて説明生成部及び判断生成部を学習させる。
【0113】
第2の実施の形態によれば、オペレータによる手動判断の結果や説明情報に対する評価から、自動判断部を学習させることができる。これにより、自動判断の判断プロセスも適切なものとなり、自動判断の結果を採用する割合が増加する。よって、第1の実施の形態と同様に、オペレータの負担を軽減することができる。
【0114】
[変形例]
以上、遠隔支援装置、遠隔支援システム、遠隔支援方法及びプログラムの例示的な実施の形態について説明したが、本発明は、実施の形態に記載の範囲には限定されない。本発明の主旨を逸脱しない範囲で実施の形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も本発明の技術的範囲に含まれる。
【0115】
例えば、上記各実施形態は、適宜組み合わせて実行することも可能である。
【0116】
また、例えば、上記実施の形態で説明したプログラムの処理の流れも一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。また、上記実施の形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって処理を実現してもよい。
【0117】
また、上記実施形態でCPUがソフトウェア(プログラム)を読み込んで実行したプログラムを、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。
【0118】
また、上記各プログラムを、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
【0119】
また、上記各実施形態では、プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリ、半導体メモリ等の非一時的(non-transitory)記憶媒体に記憶された形態で提供されてもよい。また、上記各プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【符号の説明】
【0120】
10 車両
20 遠隔支援装置
30 端末装置
32 オペレータ
40 ネットワーク
50 自動判断部
52 物体検出部
54 説明生成部
56 判断生成部
58 ルールDB
60 自動判断可否判定部
62 除外対象判定部
64 妥当性判定部
70 手動判断取得部
80 出力部
90 学習部
100 遠隔支援システム