IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ウーブン・プラネット・ホールディングス株式会社の特許一覧

特開2023-114882遠隔操作システム、情報提供方法、及び遠隔オペレータ端末
<>
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図1
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図2
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図3
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図4
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図5
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図6
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図7
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図8
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図9
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図10
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図11
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図12
  • 特開-遠隔操作システム、情報提供方法、及び遠隔オペレータ端末 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023114882
(43)【公開日】2023-08-18
(54)【発明の名称】遠隔操作システム、情報提供方法、及び遠隔オペレータ端末
(51)【国際特許分類】
   H04N 23/60 20230101AFI20230810BHJP
   H04N 23/66 20230101ALI20230810BHJP
   H04N 7/18 20060101ALI20230810BHJP
   G08G 1/00 20060101ALI20230810BHJP
   G08G 1/16 20060101ALI20230810BHJP
   G05D 1/00 20060101ALI20230810BHJP
【FI】
H04N5/232 290
H04N5/232 030
H04N5/232 300
H04N7/18 E
G08G1/00 X
G08G1/16 D
G05D1/00 B
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2022017453
(22)【出願日】2022-02-07
(71)【出願人】
【識別番号】521042770
【氏名又は名称】ウーブン・バイ・トヨタ株式会社
(74)【代理人】
【識別番号】110003199
【氏名又は名称】弁理士法人高田・高橋国際特許事務所
(72)【発明者】
【氏名】末廣 優樹
【テーマコード(参考)】
5C054
5C122
5H181
5H301
【Fターム(参考)】
5C054CA04
5C054CC02
5C054DA09
5C054EA01
5C054EA03
5C054EA05
5C054EA07
5C054FC12
5C054FE28
5C054FF02
5C054GB01
5C054GB05
5C054HA38
5C122DA14
5C122DA27
5C122EA47
5C122EA63
5C122FH01
5C122FH02
5C122FH11
5C122FK23
5C122FK28
5C122GC38
5C122GC53
5C122GC76
5C122GD11
5C122GD12
5C122HB01
5H181AA01
5H181BB04
5H181CC03
5H181CC04
5H181CC14
5H181CC30
5H181EE13
5H181EE14
5H181FF04
5H181FF10
5H181FF13
5H181FF27
5H181FF33
5H181LL09
5H181LL15
5H301AA03
5H301AA10
5H301DD01
5H301DD06
5H301DD07
5H301DD15
5H301KK02
5H301KK03
5H301KK08
5H301KK10
5H301QQ06
(57)【要約】
【課題】移動体の遠隔操作を行う遠隔オペレータに有用な情報を提供する。
【解決手段】遠隔操作システムは、移動体の遠隔操作を行う遠隔オペレータに情報を提供する。遠隔操作システムは、移動体に搭載されたカメラによって撮像される画像を取得する。遠隔操作システムは、取得した画像に基づいて、画像が撮像されたときの環境条件を判別する。遠隔操作システムは、環境条件に応じて画像の視認性を改善する視認性改善処理を行う。遠隔操作システムは、視認性が改善された改善画像を遠隔オペレータに提示する。更に、遠隔操作システムは、環境条件のうち天候条件に応じた視認性改善処理を行った場合、移動体の位置における天候を含むアシスト情報を遠隔オペレータに通知する。
【選択図】図7
【特許請求の範囲】
【請求項1】
移動体の遠隔操作を行う遠隔オペレータに情報を提供する遠隔操作システムであって、
1又は複数のプロセッサを備え、
前記1又は複数のプロセッサは、
前記移動体に搭載されたカメラによって撮像される画像を取得する処理と、
前記画像に基づいて、前記画像が撮像されたときの環境条件を判別する処理と、
前記環境条件に応じて前記画像の視認性を改善する視認性改善処理と、
前記視認性が改善された改善画像を前記遠隔オペレータに提示する処理と、
前記環境条件のうち天候条件に応じた前記視認性改善処理を行った場合、前記移動体の位置における天候を含むアシスト情報を前記遠隔オペレータに通知する処理と
を実行するように構成された
遠隔操作システム。
【請求項2】
請求項1に記載の遠隔操作システムであって、
前記天候条件に応じた前記視認性改善処理を行わなかった場合、前記1又は複数のプロセッサは、前記アシスト情報を前記遠隔オペレータに通知しない
遠隔操作システム。
【請求項3】
請求項1又は2に記載の遠隔操作システムであって、
前記アシスト情報は、前記天候に加えて、前記遠隔オペレータが前記移動体の前記遠隔操作を行う上でのアドバイスを含む
遠隔操作システム。
【請求項4】
請求項1乃至3のいずれか一項に記載の遠隔操作システムであって、
前記1又は複数のプロセッサは、更に、
前記移動体の前記位置における天候情報に基づいて、前記移動体の前記位置における荒天度合いを認識し、
前記荒天度合いに応じて前記アシスト情報の内容を変える
遠隔操作システム。
【請求項5】
請求項4に記載の遠隔操作システムであって、
前記荒天度合いが閾値以上である場合の前記アシスト情報は、前記遠隔オペレータに対する警告を含む
遠隔操作システム。
【請求項6】
移動体の遠隔操作を行う遠隔オペレータに情報を提供する情報提供方法であって、
前記移動体に搭載されたカメラによって撮像される画像を取得する処理と、
前記画像に基づいて、前記画像が撮像されたときの環境条件を判別する処理と、
前記環境条件に応じて前記画像の視認性を改善する視認性改善処理と、
前記視認性が改善された改善画像を前記遠隔オペレータに提示する処理と、
前記環境条件のうち天候条件に応じた前記視認性改善処理を行った場合、前記移動体の位置における天候を含むアシスト情報を前記遠隔オペレータに通知する処理と
を含む
情報提供方法。
【請求項7】
移動体の遠隔操作を行う遠隔オペレータに情報を提供する遠隔オペレータ端末であって、
1又は複数のプロセッサを備え、
前記1又は複数のプロセッサは、
前記移動体に搭載されたカメラによって撮像される画像を取得する処理と、
前記画像に基づいて、前記画像が撮像されたときの環境条件を判別する処理と、
前記環境条件に応じて前記画像の視認性を改善する視認性改善処理と、
前記視認性が改善された改善画像を前記遠隔オペレータに提示する処理と、
前記環境条件のうち天候条件に応じた前記視認性改善処理を行った場合、前記移動体の位置における天候を含むアシスト情報を前記遠隔オペレータに通知する処理と
を実行するように構成された
遠隔オペレータ端末。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、移動体の遠隔操作を行う遠隔オペレータに情報を提供する技術に関する。
【背景技術】
【0002】
特許文献1は、画像全体の視認性を維持したまま、局所的に視認性の悪い領域の視認性を改善する技術を開示している。具体的には、撮像装置で撮像された画像の中の影領域が認識される。そして、影領域の特徴量(例:輝度)がその他の領域の特徴量と一致するように、影領域に属する各画素の画素値が変更される。
【0003】
非特許文献1は、ResNet(Deep Residual Net)を用いた画像認識技術を開示している。
【0004】
非特許文献2は、Deep Residual Learningを用いることによって、画像から天気等のシーンを認識する技術を開示している。
【0005】
非特許文献3は、Convolutional Neural Network (CNN)を用いて、霧等でかすんだ画像を改善する技術(dehazing, defogging)を開示している。
【0006】
非特許文献4は、ディープラーニングを利用して、低照度画像を通常光画像へ変換する技術(EnlightenGAN)を開示している。これにより、例えば、夜間や逆光といったシーンにおいて撮像された画像を適度な明るさに補正することができる。
【0007】
非特許文献5は、霧や雨等でかすんだ画像を改善する技術(dehazing, deraining)を開示している。
【先行技術文献】
【特許文献】
【0008】
【特許文献1】特開2007-272477号公報
【非特許文献】
【0009】
【非特許文献1】Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun, "Deep Residual Learning for Image Recognition", arXiv:1512.03385v1 [cs.CV], December 10, 2015 (https://arxiv.org/pdf/1512.03385.pdf)
【非特許文献2】Mohamed R. Ibrahim, James Haworth, and Tao Cheng, "WeatherNet: Recognising weather and visual conditions from street-level images using deep residual learning", arXiv:1910.09910v1 [cs.CV], October 22, 2019 (https://arxiv.org/ftp/arxiv/papers/1910/1910.09910.pdf)
【非特許文献3】Boyi Li, Xiulian Peng, Zhangyang Wang, Jizheng Xu, and Dan Feng, "AOD-Net: All-in-One Dehazing Network", ICCV, 2017 (https://openaccess.thecvf.com/content_ICCV_2017/papers/Li_AOD-Net_All-In-One_Dehazing_ICCV_2017_paper.pdf)
【非特許文献4】Yifan Jiang, Xinyu Gong, Ding Liu, Yu Cheng, Chen Fang, Xiaohui Shen, Jianchao Yang, Pan Zhou, and Zhangyang Wang, "EnlightenGAN: Deep Light Enhancement without Paired Supervision", arXiv:1906.06972v1 [cs.CV], June 17, 2019 (https://arxiv.org/pdf/1906.06972.pdf)
【非特許文献5】Dongdong Chen, Mingming He, Qingnan Fan, Jing Liao, Liheng Zhang, Dongdong Hou, Lu Yuan, and Gang Hua, "Gated Context Aggregation Network for Image Dehazing and Deraining", arXiv:1811.08747v2 [cs.CV], December 15, 2018 (https://arxiv.org/abs/1811.08747)
【発明の概要】
【発明が解決しようとする課題】
【0010】
遠隔オペレータによる移動体(例:車両、ロボット)の遠隔操作について考える。移動体の遠隔操作では、移動体に搭載されたカメラによって撮像される画像が用いられる。カメラによって撮像される画像の視認性は、天候・時間等の環境条件により影響を受ける。そこで、遠隔操作の精度を向上させるために、画像の視認性を改善する画像処理を行うことが考えられる。但しその場合、視認性は改善されるが、その代わりに他の有用な情報が画像から失われる可能性がある。例えば、雨天/降雪時、画像の視認性が改善される代わりに、実際の路面状態(路面μ)が遠隔オペレータに正しく伝わらない可能性があり、それはブレーキ判断等に影響を及ぼす。
【0011】
本開示の1つの目的は、移動体の遠隔操作を行う遠隔オペレータに有用な情報を提供することができる技術を提供することにある。
【課題を解決するための手段】
【0012】
第1の観点は、移動体の遠隔操作を行う遠隔オペレータに情報を提供する遠隔操作システムに関連する。
遠隔操作システムは、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、
移動体に搭載されたカメラによって撮像される画像を取得する処理と、
画像に基づいて、画像が撮像されたときの環境条件を判別する処理と、
環境条件に応じて画像の視認性を改善する視認性改善処理と、
視認性が改善された改善画像を遠隔オペレータに提示する処理と、
環境条件のうち天候条件に応じた視認性改善処理を行った場合、移動体の位置における天候を含むアシスト情報を遠隔オペレータに通知する処理と
を実行するように構成される。
【0013】
第2の観点は、移動体の遠隔操作を行う遠隔オペレータに情報を提供する情報提供方法に関連する。
情報提供方法は、
移動体に搭載されたカメラによって撮像される画像を取得する処理と、
画像に基づいて、画像が撮像されたときの環境条件を判別する処理と、
環境条件に応じて画像の視認性を改善する視認性改善処理と、
視認性が改善された改善画像を遠隔オペレータに提示する処理と、
環境条件のうち天候条件に応じた視認性改善処理を行った場合、移動体の位置における天候を含むアシスト情報を遠隔オペレータに通知する処理と
を含む。
【0014】
第3の観点は、移動体の遠隔操作を行う遠隔オペレータに情報を提供する遠隔オペレータ端末に関連する。
遠隔オペレータ端末は、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、
移動体に搭載されたカメラによって撮像される画像を取得する処理と、
画像に基づいて、画像が撮像されたときの環境条件を判別する処理と、
環境条件に応じて画像の視認性を改善する視認性改善処理と、
視認性が改善された改善画像を遠隔オペレータに提示する処理と、
環境条件のうち天候条件に応じた視認性改善処理を行った場合、移動体の位置における天候を含むアシスト情報を遠隔オペレータに通知する処理と
を実行するように構成される。
【発明の効果】
【0015】
本開示によれば、カメラによって画像が撮像されたときの環境条件に応じて視認性改善処理が行われる。環境条件のうち天候条件に応じた視認性改善処理が行われた場合、改善画像が遠隔オペレータに提示されると共に、移動体の位置における天候を含むアシスト情報が遠隔オペレータに通知される。これにより、遠隔オペレータは、視認性の高い改善画像だけでなく、移動体の周囲の実際の天候も考慮して遠隔操作を適切に行うことが可能となる。例えば、遠隔オペレータは、車両の周囲の実際の路面状態を正確に把握しながら、遠隔操作を適切に行うことが可能となる。従って、遠隔オペレータによる遠隔操作の精度が更に向上する。
【図面の簡単な説明】
【0016】
図1】本開示の実施の形態に係る遠隔操作システムの構成例を示す概略図である。
図2】本開示の実施の形態に係る画像改善部の概要を説明するための概念図である。
図3】本開示の実施の形態に係る画像改善部の機能構成例を示すブロック図である。
図4】本開示の実施の形態に係る画像改善部による処理を示すフローチャートである。
図5】本開示の実施の形態に係る環境条件判別処理(ステップS20)を説明するための概念図である。
図6】本開示の実施の形態に係る視認性改善処理(ステップS30)の一例を示すフローチャートである。
図7】本開示の実施の形態に係るアシスト情報通知処理の概要を説明するための概念図である。
図8】本開示の実施の形態に係るアシスト情報通知処理に関連する機能構成例を示すブロック図である。
図9】本開示の実施の形態に係るアシスト情報通知処理に関連する処理を示すフローチャートである。
図10】本開示の実施の形態に係る天候情報とアシスト情報の対応関係の一例を示す図である。
図11】本開示の実施の形態に係る車両の構成例を示すブロック図である。
図12】本開示の実施の形態に係る遠隔オペレータ端末の構成例を示すブロック図である。
図13】本開示の実施の形態に係る管理装置の構成例を示すブロック図である。
【発明を実施するための形態】
【0017】
添付図面を参照して、本開示の実施の形態を説明する。
【0018】
1.遠隔操作システムの概要
移動体の遠隔操作(遠隔運転)について考える。遠隔操作の対象である移動体としては、車両、ロボット、飛翔体、等が例示される。車両は、自動運転車両であってもよいし、ドライバが運転する車両であってもよい。ロボットとしては、物流ロボット、作業ロボット、等が例示される。飛翔体としては、飛行機、ドローン、等が例示される。
【0019】
一例として、以下の説明においては、遠隔操作の対象である移動体が車両である場合について考える。一般化する場合には、以下の説明における「車両」を「移動体」で読み替えるものとする。
【0020】
図1は、本実施の形態に係る遠隔操作システム1の構成例を示す概略図である。遠隔操作システム1は、車両100、遠隔オペレータ端末200、及び管理装置300を含んでいる。車両100は、遠隔操作の対象である。遠隔オペレータ端末200は、遠隔オペレータOが車両100を遠隔操作する際に使用する端末装置である。遠隔オペレータ端末200を遠隔操作HMI(Human Machine Interface)と言うこともできる。管理装置300は、遠隔操作システム1の管理を行う。遠隔操作システム1の管理は、例えば、遠隔操作が必要な車両100に対して遠隔オペレータOを割り当てることを含む。管理装置300は、通信ネットワークを介して車両100及び遠隔オペレータ端末200と通信可能である。典型的には、管理装置300は、クラウド上の管理サーバである。管理サーバは、分散処理を行う複数のサーバにより構成されていてもよい。
【0021】
車両100には、カメラCを含む各種センサが搭載されている。カメラCは、車両100の周囲の状況を撮像し、車両100の周囲の状況を示す画像IMGを取得する。車両情報VCLは、各種センサにより得られる情報であり、カメラCにより得られる画像IMGを含む。車両100は、管理装置300を介して、車両情報VCLを遠隔オペレータ端末200に送信する。つまり、車両100は、車両情報VCLを管理装置300に送信し、管理装置300は、受け取った車両情報VCLを遠隔オペレータ端末200に転送する。
【0022】
遠隔オペレータ端末200は、車両100から送信された車両情報VCLを受け取る。遠隔オペレータ端末200は、車両情報VCLを遠隔オペレータOに提示する。具体的には、遠隔オペレータ端末200は、表示装置を備えており、画像IMG等を表示装置に表示する。遠隔オペレータOは、表示された情報をみて、車両100の周囲の状況を認識し、車両100の遠隔操作を行う。遠隔操作情報OPEは、遠隔オペレータOによる遠隔操作に関する情報である。例えば、遠隔操作情報OPEは、遠隔オペレータOによる操作量を含む。遠隔オペレータ端末200は、管理装置300を介して、遠隔操作情報OPEを車両100に送信する。つまり、遠隔オペレータ端末200は、遠隔操作情報OPEを管理装置300に送信し、管理装置300は、受け取った遠隔操作情報OPEを車両100に転送する。
【0023】
車両100は、遠隔オペレータ端末200から送信された遠隔操作情報OPEを受け取る。車両100は、受け取った遠隔操作情報OPEに従って車両走行制御を行う。このようにして、車両100の遠隔操作が実現される。
【0024】
2.画像改善部
2-1.概要
図2は、本実施の形態に係る遠隔操作システム1に含まれる画像改善部10の概要を説明するための概念図である。画像改善部10は、カメラCによって撮像された画像IMGを取得し、その画像IMGを改善する。特に、画像改善部10は、画像IMGの「視認性」を改善する。画像IMGの視認性を改善する処理を、以下、「視認性改善処理」と呼ぶ。また、視認性が改善された画像を、以下、「改善画像IMG_S」と呼ぶ。視認性が改善された改善画像IMG_Sが遠隔オペレータOに提示される。その結果、遠隔オペレータOによる認識精度が向上し、それにより遠隔操作の精度も向上する。
【0025】
カメラCによって撮像される画像IMGの視認性を低下させる要因としては様々考えられる。本実施の形態では、特に、画像IMGが撮影されたときの「環境条件(シーン)」が視認性に与える影響について考える。環境条件(シーン)とは、天気、時間帯、逆光か否か、霧の有無、等を意味する。例えば、雨天時に撮像された画像IMGの視認性は低い。他の例として、夜間等の暗い状況で撮像された画像IMGの視認性は低い。更に他の例として、逆光条件下で撮像された画像IMGの視認性は低い。更に他の例として、霧が発生しているときに撮像された画像IMGの視認性は低い。このように、カメラCによって撮像される画像IMGの視認性を低下させる要因としては、雨、暗闇、逆光、霧、等が挙げられる。
【0026】
このような環境条件を考慮して画像IMGの視認性を改善し、クリアな改善画像IMG_Sを取得することが望まれる。但し、画像IMGの視認性を改善するためにどのような処理をどのような順番で行うべきかを遠隔オペレータOが判断することは困難であり且つ煩わしい。そこで、本実施の形態に係る画像改善部10は、カメラCによって撮像された画像IMGの視認性を低下させる要因を自動的に判別し、その要因に応じた適切な視認性改善処理を適切な順番で実行することができるように構成される。
【0027】
以下、本実施の形態に係る画像改善部10による処理について更に詳しく説明する。
【0028】
2-2.機能構成例及び処理例
図3は、本実施の形態に係る画像改善部10の機能構成例を示すブロック図である。画像改善部10は、環境条件判別部20及び視認性改善処理部30を含んでいる。
【0029】
図4は、本実施の形態に係る画像改善部10による処理を示すフローチャートである。以下、図3及び図4を参照して、本実施の形態に係る画像改善部10による処理例を説明する。
【0030】
2-2-1.画像取得処理(ステップS10)
画像改善部10は、カメラCによって撮像された画像IMGを取得する。画像改善部10は、取得した画像IMGを環境条件判別部20と視認性改善処理部30に送る。
【0031】
2-2-2.環境条件判別処理(ステップS20)
環境条件判別部20は、取得した画像IMGに基づいて、その画像IMGが撮像されたときの環境条件(シーン)を自動的に判別する。画像IMGに基づいて環境条件を判別するための技術としては、上述の非特許文献1や非特許文献2に記載されている技術が挙げられる。
【0032】
図5は、環境条件判別処理(ステップS20)を説明するための概念図である。環境条件判別部20は、天気判別部21、時間帯判別部22、グレア判別部23、及び霧判別部24を含んでいる。
【0033】
天気判別部21は、画像IMGに基づいて、その画像IMGが撮像されたときの天気を判別する。天気としては、晴れ(sunny)、曇り(cloudy)、雨(rainy)、及び雪(snowy)が挙げられる。天気判別部21は、該当する天気を出力する。
【0034】
時間帯判別部22は、画像IMGに基づいて、その画像IMGが撮像されたときの時間帯を判別する。時間帯としては、昼間(day)、朝夕(dawn/dusk)、及び夜間(night)が挙げられる。「夜間」は「暗闇」に相当する。時間帯判別部22は、該当する時間帯を出力する。
【0035】
グレア判別部23は、画像IMGに基づいて、その画像IMGが逆光条件下で撮像されたか否かを判別する。グレア判別部23は、逆光条件か否かを出力する。
【0036】
霧判別部24は、画像IMGに基づいて、その画像IMGが撮像されたときの霧の有無を判別する。霧判別部24は、霧の有無を出力する。
【0037】
画像IMGが撮像されたときの環境条件は、天気判別部21、時間帯判別部22、グレア判別部23、及び霧判別部24のそれぞれからの出力の組み合わせである。図5に示される例では、環境条件は、「雨&夜間(暗闇)&逆光無し&霧」である。環境条件判別部20は、得られた環境条件の情報を視認性改善処理部30に出力する。
【0038】
2-2-3.視認性改善処理(ステップS30)
視認性改善処理部30は、画像IMGと、その画像IMGが撮像されたときの環境条件の情報を受け取る。そして、視認性改善処理部30は、環境条件に応じて、画像IMGの視認性を改善するために必要な視認性改善処理を特定する。
【0039】
環境条件が「霧」を含んでいる場合に必要な視認性改善処理は、「霧除去処理(defogging)」である。霧除去処理は、画像IMG内の霧によるかすみを除去し、視認性を改善する。この霧除去処理は、例えば、上記の非特許文献3に記載されている技術により実現される。
【0040】
環境条件が「暗闇」あるいは「逆光」を含んでいる場合に必要な視認性改善処理は、「明るさ補正処理」である。明るさ補正処理は、夜間や逆光といったシーンにおいて撮像された画像IMGを適度な明るさに補正し、視認性を改善する。この明るさ補正処理は、例えば、上記の非特許文献4に記載されている技術により実現される。
【0041】
環境条件が「雨」を含んでいる場合に必要な視認性改善処理は、「雨除去処理(deraining)」である。雨除去処理は、画像IMG内の雨によるかすみを除去し、視認性を改善する。この雨除去処理は、例えば、上記の非特許文献5に記載されている技術により実現される。
【0042】
このように、環境条件に関連する視認性改善処理の候補としては、霧除去処理、明るさ補正処理、及び雨除去処理の三種類が挙げられる。これら複数種類の視認性改善処理をどのような順番で行えば視認性改善効果が最も高くなるかについて研究を行った。そして、研究努力の結果、「1.霧除去処理」、「2.明るさ補正処理」、「3.雨除去処理」の順番に行う場合に視認性改善効果が最も高くなることが判明した。本実施の形態では、この順番が採用される。すなわち、霧除去処理が明るさ補正処理よりも先に実行され、明るさ補正処理が雨除去処理よりも先に実行されるように、処理順が予め設定される。
【0043】
視認性改善処理部30は、環境条件判別部20によって判別された環境条件に応じて、複数種類の処理候補(霧除去処理、明るさ補正処理、及び雨除去処理)の中から必要な視認性改善処理を特定する。複数の処理候補の処理順は予め決まっている。視認性改善処理部30は、特定した必要な視認性改善処理を所定の順番で画像IMGに適用することによって、視認性が改善された改善画像IMG_Sを生成する。つまり、視認性改善処理部30は、必要な視認性改善処理をやみくもに行うのではなく、所定の順番に従って行う。これにより、優れた視認性改善効果が得られ、可能な限りクリアな改善画像IMG_Sが得られる。
【0044】
尚、環境条件に関連する複数種類の処理候補は、霧除去処理、明るさ補正処理、及び雨除去処理のうち2つであってもよい。その場合の前後関係も同じである。
【0045】
視認性改善処理部30は、更に、環境条件とは関係ない視認性改善処理を行ってもよい。例えば、視認性改善処理部30は、周知のブレ改善やコントラスト調整(平均化)といった画像処理を行ってもよい。
【0046】
以下、視認性改善処理部30による視認性改善処理の一例を説明する。図3に示されるように、視認性改善処理部30は、ブレ補正部31、霧除去処理部33、明るさ補正処理部35、雨除去処理部37、及びコントラスト調整部39を含んでいる。図6は、視認性改善処理(ステップS30)の一例を示すフローチャートである。
【0047】
ステップS31において、ブレ補正部31は、画像IMGに対して周知のブレ補正処理を行う。ブレ補正部31は、ブレ補正処理後の画像IMGを霧除去処理部33に出力する。
【0048】
続くステップS32において、霧除去処理部33は、環境条件判別部20によって判別された環境条件が「霧」を含むか否かを判定する。環境条件が「霧」を含む場合(ステップS32;Yes)、霧除去処理部33は、霧除去処理が必要であると判断し、霧除去処理を行う(ステップS33)。そして、霧除去処理部33は、霧除去処理後の画像IMGを明るさ補正処理部35に出力する。一方、環境条件が「霧」を含まない場合(ステップS32;No)、霧除去処理部33は、霧除去処理を行うことなく、画像IMGを明るさ補正処理部35に出力する。
【0049】
続くステップS34において、明るさ補正処理部35は、環境条件判別部20によって判別された環境条件が「暗闇」あるいは「逆光」を含むか否かを判定する。環境条件が「暗闇」あるいは「逆光」を含む場合(ステップS34;Yes)、明るさ補正処理部35は、明るさ補正処理が必要であると判断し、明るさ補正処理を行う(ステップS35)。そして、明るさ補正処理部35は、明るさ補正処理後の画像IMGを雨除去処理部37に出力する。一方、環境条件が「暗闇」も「逆光」も含まない場合(ステップS34;No)、明るさ補正処理部35は、明るさ補正処理を行うことなく、画像IMGを雨除去処理部37に出力する。
【0050】
続くステップS36において、雨除去処理部37は、環境条件判別部20によって判別された環境条件が「雨」を含むか否かを判定する。環境条件が「雨」を含む場合(ステップS36;Yes)、雨除去処理部37は、雨除去処理が必要であると判断し、雨除去処理を行う(ステップS37)。そして、雨除去処理部37は、雨除去処理後の画像IMGをコントラスト調整部39に出力する。一方、環境条件が「雨」を含まない場合(ステップS36;No)、雨除去処理部37は、雨除去処理を行うことなく、画像IMGをコントラスト調整部39に出力する。
【0051】
続くステップS39において、コントラスト調整部39は、画像IMGに対して周知のコントラスト調整処理を行う。
【0052】
このように視認性改善処理を段階的に経た後の画像IMGが、改善画像IMG_Sである。
【0053】
2-2-4.画像出力処理(ステップS40)
画像改善部10は、このようにして生成された改善画像IMG_Sを外部に出力する。改善画像IMG_Sは、例えば、遠隔オペレータ端末200によって遠隔オペレータOに提示される。
【0054】
2-3.効果
以上に説明されたように、本実施の形態に係る画像改善部10は、カメラCによって撮像された画像IMGに基づいて、その画像IMGの撮像時の環境条件を判別する。更に、画像改善部10は、環境条件に応じて必要な視認性改善処理を特定し、必要な視認性改善処理を所定の順番で画像IMGに適用することによって改善画像IMG_Sを生成する。視認性を低下させる要因に応じた適切な視認性改善処理が適切な順番で実行されるため、優れた視認性改善効果が得られる。また、遠隔オペレータOによる個別判断は不要であるため、遠隔オペレータOの負荷が軽減される。遠隔オペレータOは、視認性が改善された改善画像IMG_Sを手軽に取得することができる。
【0055】
遠隔オペレータOは、改善画像IMG_Sに基づいて遠隔操作を行うことができる。車両100の置かれた環境条件によっては画像IMGの視認性が低下する場合もあるが、その場合であっても、環境条件の影響が軽減されたクリアな改善画像IMG_Sを用いることができる。その結果、遠隔オペレータOによる認識精度が向上し、それにより遠隔操作の精度も向上する。また、環境条件の影響が軽減されるため、運行設計領域(ODD: Operational Design Domain)を拡大することが可能となる。このことは、サービス向上の観点から好ましい。
【0056】
尚、本実施の形態に係る画像改善部10は、車両100、遠隔オペレータ端末200、及び管理装置300のうちいずれに含まれていてもよい。すなわち、車両100、遠隔オペレータ端末200、及び管理装置300のうち少なくともいずれかが、画像改善部10の機能を備える。例えば、画像改善部10は、管理装置300に組み込まれる。この場合、管理装置300は、車両100から受け取る画像IMGの視認性を改善して改善画像IMG_Sを生成し、改善画像IMG_Sを遠隔オペレータ端末200に送信する。他の例として、画像改善部10は、遠隔オペレータ端末200に組み込まれてもよい。この場合、遠隔オペレータ端末200は、管理装置300を介して車両100から受け取る画像IMGの視認性を改善し、改善画像IMG_Sを生成する。いずれの場合であっても、遠隔オペレータ端末200は、視認性が改善された改善画像IMG_Sを遠隔オペレータOに提示することができる。
【0057】
3.アシスト情報通知処理
3-1.概要
上述の視認性改善処理により、遠隔オペレータOは、視認性が改善された改善画像IMG_Sに基づいて遠隔操作を行うことができ、それにより遠隔操作の精度も向上する。但しその場合、視認性は改善されるが、その代わりに他の有用な情報が画像IMGから失われる可能性がある。
【0058】
例えば、雨天/降雪時、路面摩擦係数(路面μ)が低下し、ブレーキ時の制動距離が長くなるため、遠隔オペレータOは、早めにブレーキ操作を開始することを考えるかもしれない。しかしながら、視認性改善処理によって画像IMGの視認性が改善される結果、実際の路面状態が遠隔オペレータOに正しく伝わらない可能性がある。このことは、遠隔オペレータOのブレーキ判断等に影響を及ぼすおそれがある。
【0059】
そこで、本実施の形態に係る遠隔オペレータ端末200は、必要に応じて「アシスト情報AST」を遠隔オペレータOに通知(提供、伝達)するように構成される。アシスト情報ASTは、遠隔オペレータOにとって有用な情報であり、特に、遠隔オペレータOによる遠隔操作を支援するための情報である。アシスト情報ASTを遠隔オペレータOに通知する処理を、以下、「アシスト情報通知処理」と呼ぶ。
【0060】
図7は、アシスト情報通知処理の概要を説明するための概念図である。カメラCによって画像IMGが撮影されたときの「環境条件」は、「天候条件」とそれ以外に分類される。天候条件としては、晴れ、曇り、雨、雪、霧、等が挙げられる。天候条件以外の環境条件としては、暗闇、逆光、等が挙げられる。環境条件のうち天候条件に応じた視認性改善処理としては、霧除去処理(図6;ステップS33)、雨除去処理(図6;ステップS37)、等が例示される。
【0061】
環境条件のうち天候条件に応じた視認性改善処理が行われる場合を考える。この場合、遠隔オペレータ端末200は、視認性が改善された改善画像IMG_Sを遠隔オペレータOに提示する。同時に、遠隔オペレータ端末200は、車両100の位置における天候(例:雨、雪、霧)を含むアシスト情報ASTを遠隔オペレータOに通知する。つまり、天候条件に応じた視認性改善処理が行われたことをトリガ-として、遠隔オペレータ端末200は、天候を含むアシスト情報ASTを遠隔オペレータOに通知する。更に言い換えれば、天候条件に応じた視認性改善処理と連動して、遠隔オペレータ端末200は、天候を含むアシスト情報ASTを遠隔オペレータOに通知する。これにより、遠隔オペレータOは、視認性の高い改善画像IMG_Sだけでなく、車両100の周囲の実際の天候も考慮して遠隔操作を適切に行うことが可能となる。例えば、遠隔オペレータOは、車両100の周囲の実際の路面状態を正確に把握しながら、遠隔操作を適切に行うことが可能となる。従って、遠隔オペレータOによる遠隔操作の精度が更に向上する。
【0062】
アシスト情報ASTは、遠隔オペレータOが車両100の遠隔操作を行う上でのアドバイス(例:「ブレーキは早めに!」)を含んでいてもよい。荒天時には、アシスト情報ASTは、遠隔オペレータOに対する警告(例:「大雨注意!」、「大雪注意!」)を含んでいてもよい。このようなアシスト情報ASTも、遠隔オペレータOにとって有用である。このようなアシスト情報ASTが遠隔オペレータOに通知されることにより、遠隔オペレータOによる遠隔操作の安全性が更に向上する。
【0063】
天候条件に応じた視認性改善処理が行われなかった場合、アシスト情報ASTを遠隔オペレータOに通知する必要はない。例えば、天候条件に応じた視認性改善処理が行われず、暗闇・逆光に対する視認性改善処理(明るさ補正処理)だけが行われた場合、改善画像IMG_Sは遠隔オペレータOに提示されるが、アシスト情報ASTは遠隔オペレータOに通知されない。他の例として、そもそも視認性改善処理が行われなかった場合、元の画像IMGが遠隔オペレータOに提示され、アシスト情報ASTは遠隔オペレータOに通知されない。必要以上にアシスト情報ASTを通知しないため、遠隔オペレータが煩わしさを感じることが防止される。
【0064】
以下、本実施の形態に係るアシスト情報通知処理について更に詳しく説明する。
【0065】
3-2.機能構成例及び処理例
図8は、アシスト情報通知処理に関連する機能構成例を示すブロック図である。遠隔操作システム1は、画像改善部10、表示部40、及びアシスト情報通知部50を含んでいる。
【0066】
画像改善部10は、車両100、遠隔オペレータ端末200、及び管理装置300のうちいずれかに含まれている。画像改善部10は、必要に応じて画像IMGに対して視認性改善処理を行い、改善画像IMG_Sを出力する。また、画像改善部10は、視認性改善処理の内容を示すフラグ情報FLGを出力する。例えば、フラグ情報FLGは、霧除去処理(図6;ステップS33)、明るさ補正処理(図6;ステップS35)、及び雨除去処理(図6;ステップS37)のうち実行されたものを示す。
【0067】
表示部40は、遠隔オペレータ端末200に含まれている。表示部40は、元の画像IMGあるいは改善画像IMG_Sを表示装置に表示する。
【0068】
アシスト情報通知部50は、遠隔オペレータ端末200に含まれている。アシスト情報通知部50は、必要に応じて、アシスト情報ASTを遠隔オペレータOに通知するアシスト情報通知処理を実行する。アシスト情報通知部50は、判定部51、アシスト情報決定部52、及び通知部53を含んでいる。
【0069】
図9は、アシスト情報通知処理に関連する処理を示すフローチャートである。以下、図8及び図9を参照して、アシスト情報通知処理に関連する処理を説明する。
【0070】
3-2-1.判定処理(ステップS51)
ステップS51において、判定部51は、環境条件のうち天候条件に応じた視認性改善処理が行われたか否かを判定する。具体的には、判定部51は、画像改善部10から出力されるフラグ情報FLGを受け取る。フラグ情報FLGは、画像改善部10によって行われた視認性改善処理の内容を示す。このフラグ情報FLGに基づいて、判定部51は、天候条件に応じた視認性改善処理が行われたか否かを判定することができる。
【0071】
天候条件に応じた視認性改善処理が行われた場合(ステップS51;Yes)、処理は、ステップS52に進む。一方、天候条件に応じた視認性改善処理が行われなかった場合(ステップS51;No)、以降のステップS52,S53はスキップされ、今回のサイクルにおける処理は終了する。
【0072】
3-2-2.アシスト情報決定処理(ステップS52)
ステップS52において、アシスト情報決定部52は、遠隔オペレータOに通知するアシスト情報ASTの内容を決定する。
【0073】
アシスト情報ASTは、少なくとも、車両100の位置における天候(例:雨、雪、霧)を含む。車両100の位置は、車両100から送信される車両情報VCLに含まれている。例えば、アシスト情報決定部52は、天候情報WXを配信する気象情報サービスセンターと通信を行い、車両100の位置における天候情報WXを取得する。
【0074】
アシスト情報ASTは、遠隔オペレータOが車両100の遠隔操作を行う上でのアドバイス(例:「ブレーキは早めに!」)を含んでいてもよい。このようなアシスト情報ASTが遠隔オペレータOに通知されることにより、遠隔オペレータOによる遠隔操作の安全性が更に向上する。
【0075】
アシスト情報決定部52は、車両100の位置における天候情報WXに基づいて、車両100の位置における「荒天度合い」を認識してもよい。そして、アシスト情報決定部52は、荒天度合いに応じてアシスト情報ASTの内容を変えてもよい。例えば、荒天度合いが閾値以上である場合、アシスト情報決定部52は、遠隔オペレータOに対する警告を含むようにアシスト情報ASTの内容を決定する。
【0076】
図10は、天候情報WXとアシスト情報ASTの対応関係の一例を示している。例えば、1時間当たりの雨量が閾値(50mm/h)以上である場合、アシスト情報ASTは警告(例:「大雨注意!」)を含む。他の例として、1時間当たりの降雪量が閾値(3cm/h)以上である場合、アシスト情報ASTは警告(例:「大雪注意!」)を含む。このようなアシスト情報ASTが遠隔オペレータOに通知されることにより、遠隔オペレータOによる遠隔操作の安全性が更に向上する。
【0077】
3-2-3.通知処理(ステップS53)
通知部53は、ステップS52で決定されたアシスト情報ASTを遠隔オペレータOに通知する。通知は、視覚を通して行われてもよいし、聴覚を通して行われてもよい。例えば、通知部53は、表示装置にアシスト情報ASTを表示する。他の例として、通知部53は、スピーカーを通してアシスト情報ASTを音声で出力する。
【0078】
3-3.効果
以上に説明されたように、本実施の形態によれば、カメラCによって画像IMGが撮像されたときの環境条件に応じて視認性改善処理が行われる。環境条件のうち天候条件に応じた視認性改善処理が行われた場合、改善画像IMG_Sが遠隔オペレータOに提示されると共に、車両100の位置における天候を含むアシスト情報ASTが遠隔オペレータOに通知される。これにより、遠隔オペレータOは、視認性の高い改善画像IMG_Sだけでなく、車両100の周囲の実際の天候も考慮して遠隔操作を適切に行うことが可能となる。例えば、遠隔オペレータOは、車両100の周囲の実際の路面状態を正確に把握しながら、遠隔操作を適切に行うことが可能となる。従って、遠隔オペレータOによる遠隔操作の精度が更に向上する。
【0079】
天候条件に応じた視認性改善処理が行われなかった場合、アシスト情報ASTは遠隔オペレータOに通知されない。必要以上にアシスト情報ASTを通知しないため、遠隔オペレータが煩わしさを感じることが防止される。
【0080】
4.車両の例
4-1.構成例
図11は、車両100の構成例を示すブロック図である。車両100は、通信装置110、センサ群120、走行装置130、及び制御装置150を備えている。
【0081】
通信装置110は、車両100の外部と通信を行う。例えば、通信装置110は、遠隔オペレータ端末200や管理装置300と通信を行う。
【0082】
センサ群120は、認識センサ、車両状態センサ、位置センサ、等を含んでいる。認識センサは、車両100の周辺の状況を認識(検出)する。認識センサとしては、カメラC、LIDAR(Laser Imaging Detection and Ranging)、レーダ、等が例示される。車両状態センサは、車両100の状態を検出する。車両状態センサは、速度センサ、加速度センサ、ヨーレートセンサ、舵角センサ、等を含んでいる。位置センサは、車両100の位置及び方位を検出する。例えば、位置センサは、GNSS(Global Navigation Satellite System)を含んでいる。
【0083】
走行装置130は、操舵装置、駆動装置、及び制動装置を含んでいる。操舵装置は、車輪を転舵する。例えば、操舵装置は、パワーステアリング(EPS: Electric Power Steering)装置を含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジン、電動機、インホイールモータ、等が例示される。制動装置は、制動力を発生させる。
【0084】
制御装置150は、車両100を制御するコンピュータである。制御装置150は、1又は複数のプロセッサ160(以下、単にプロセッサ160と呼ぶ)と1又は複数の記憶装置170(以下、単に記憶装置170と呼ぶ)を含んでいる。プロセッサ160は、各種処理を実行する。例えば、プロセッサ160は、CPU(Central Processing Unit)を含んでいる。記憶装置170は、プロセッサ160による処理に必要な各種情報を格納する。記憶装置170としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。制御装置150は、1又は複数のECU(Electronic Control Unit)を含んでいてもよい。
【0085】
車両制御プログラムPROG1は、プロセッサ160によって実行されるコンピュータプログラムである。プロセッサ160が車両制御プログラムPROG1を実行することにより、制御装置150の機能が実現される。車両制御プログラムPROG1は、記憶装置170に格納される。あるいは、車両制御プログラムPROG1は、コンピュータ読み取り可能な記録媒体に記録されてもよい。
【0086】
4-2.運転環境情報
制御装置150は、センサ群120を用いて、車両100の運転環境を示す運転環境情報ENVを取得する。運転環境情報ENVは、記憶装置170に格納される。
【0087】
運転環境情報ENVは、認識センサによる認識結果を示す周辺状況情報を含む。例えば、周辺状況情報は、カメラCによって撮像される画像IMGを含む。周辺状況情報は、車両100の周辺の物体に関する物体情報を含んでいてもよい。車両100の周辺の物体としては、歩行者、他車両(先行車両、駐車車両、等)、白線、信号、標識、路側構造物、等が例示される。物体情報は、車両100に対する物体の相対位置及び相対速度を示す。
【0088】
また、運転環境情報ENVは、車両状態センサによって検出される車両状態を示す車両状態情報を含む。
【0089】
更に、運転環境情報ENVは、車両100の位置及び方位を示す車両位置情報を含む。車両位置情報は、位置センサにより得られる。地図情報と周辺状況情報(物体情報)を用いた自己位置推定処理(Localization)により、高精度な車両位置情報が取得されてもよい。
【0090】
4-3.車両走行制御
制御装置150は、車両100の走行を制御する車両走行制御を実行する。車両走行制御は、操舵制御、駆動制御、及び制動制御を含む。制御装置150は、走行装置130(操舵装置、駆動装置、及び制動装置)を制御することによって車両走行制御を実行する。
【0091】
制御装置150は、運転環境情報ENVに基づいて自動運転制御を行ってもよい。より詳細には、制御装置150は、運転環境情報ENVに基づいて、車両100の走行プランを生成する。更に、制御装置150は、運転環境情報ENVに基づいて、車両100が走行プランに従って走行するために必要な目標トラジェクトリを生成する。目標トラジェクトリは、目標位置及び目標速度を含んでいる。そして、制御装置150は、車両100が目標トラジェクトリに追従するように車両走行制御を行う。
【0092】
4-4.遠隔操作に関連する処理
以下、車両100の遠隔操作が行われる場合について説明する。制御装置150は、通信装置110を介して、遠隔オペレータ端末200と通信を行う。
【0093】
制御装置150は、車両情報VCLを遠隔オペレータ端末200に送信する。車両情報VCLは、遠隔オペレータOによる遠隔操作に必要な情報であり、上述の運転環境情報ENVの少なくとも一部を含んでいる。例えば、車両情報VCLは、周辺状況情報(特に画像IMG)を含んでいる。車両情報VCLは、更に、車両状態情報や車両位置情報を含んでいてもよい。
【0094】
また、制御装置150は、遠隔操作情報OPEを遠隔オペレータ端末200から受信する。遠隔操作情報OPEは、遠隔オペレータOによる遠隔操作に関する情報である。例えば、遠隔操作情報OPEは、遠隔オペレータOによる操作量を含む。制御装置150は、受信した遠隔操作情報OPEに従って車両走行制御を行う。
【0095】
更に、制御装置150は、上述の画像改善部10の機能を備えていてもよい。画像改善部10は、必要に応じて画像IMGに対して視認性改善処理を行い、改善画像IMG_Sを出力する。また、画像改善部10は、視認性改善処理の内容を示すフラグ情報FLGを出力する。改善画像IMG_S及びフラグ情報FLGは、車両情報VCLの一部として管理装置300及び遠隔オペレータ端末200に送信される。
【0096】
5.遠隔オペレータ端末の例
図12は、遠隔オペレータ端末200の構成例を示すブロック図である。遠隔オペレータ端末200は、通信装置210、出力装置220、入力装置230、及び制御装置250を含んでいる。
【0097】
通信装置210は、車両100及び管理装置300と通信を行う。
【0098】
出力装置220は、各種情報を出力する。例えば、出力装置220は、表示装置を含んでいる。表示装置は、各種情報を表示することにより、各種情報を遠隔オペレータOに提示する。他の例として、出力装置220は、スピーカを含んでいてもよい。
【0099】
入力装置230は、遠隔オペレータOからの入力を受け付ける。例えば、入力装置230は、遠隔オペレータOが車両100を遠隔操作する際に操作する遠隔操作部材を含む。遠隔操作部材は、ハンドル、アクセルペダル、ブレーキペダル、方向指示器、等を含んでいる。
【0100】
制御装置250は、遠隔オペレータ端末200を制御する。制御装置250は、1又は複数のプロセッサ260(以下、単にプロセッサ260と呼ぶ)と1又は複数の記憶装置270(以下、単に記憶装置270と呼ぶ)を含んでいる。プロセッサ260は、各種処理を実行する。例えば、プロセッサ260は、CPUを含んでいる。記憶装置270は、プロセッサ260による処理に必要な各種情報を格納する。記憶装置270としては、揮発性メモリ、不揮発性メモリ、HDD、SSD、等が例示される。
【0101】
遠隔操作プログラムPROG2は、プロセッサ260によって実行されるコンピュータプログラムである。プロセッサ260が遠隔操作プログラムPROG2を実行することにより、制御装置250の機能が実現される。遠隔操作プログラムPROG2は、記憶装置270に格納される。あるいは、遠隔操作プログラムPROG2は、コンピュータ読み取り可能な記録媒体に記録されてもよい。遠隔操作プログラムPROG2は、ネットワーク経由で提供されてもよい。
【0102】
制御装置250は、通信装置210を介して、車両100と通信を行う。制御装置250は、車両100から送信される車両情報VCLを受信する。制御装置250は、画像情報を含む車両情報VCLを表示装置に表示することによって、車両情報VCLを遠隔オペレータOに提示する。遠隔オペレータOは、表示装置に表示される車両情報VCLに基づいて、車両100の状態や周囲の状況を認識することができる。
【0103】
遠隔オペレータOは、入力装置230の遠隔操作部材を操作する。遠隔操作部材の操作量は、遠隔操作部材に設置されたセンサにより検出される。制御装置250は、遠隔オペレータOによる遠隔操作部材の操作量を反映した遠隔操作情報OPEを生成する。そして、制御装置250は、その遠隔操作情報OPEを通信装置210を介して車両100に送信する。
【0104】
更に、制御装置250は、上述の画像改善部10の機能を備えていてもよい。画像改善部10は、必要に応じて画像IMGに対して視認性改善処理を行い、改善画像IMG_Sを出力する。また、画像改善部10は、視認性改善処理の内容を示すフラグ情報FLGを出力する。
【0105】
制御装置250は、上述のアシスト情報通知部50の機能を備えている。アシスト情報通知部50は、出力装置220を通して、アシスト情報ASTを遠隔オペレータOに通知する。
【0106】
6.管理装置の例
図13は、管理装置300の構成例を示すブロック図である。管理装置300は、通信装置310及び制御装置350を含んでいる。
【0107】
通信装置310は、車両100及び遠隔オペレータ端末200と通信を行う。
【0108】
制御装置350は、管理装置300を制御する。制御装置350は、1又は複数のプロセッサ360(以下、単にプロセッサ360と呼ぶ)と1又は複数の記憶装置370(以下、単に記憶装置370と呼ぶ)を含んでいる。プロセッサ360は、各種処理を実行する。例えば、プロセッサ360は、CPUを含んでいる。記憶装置370は、プロセッサ360による処理に必要な各種情報を格納する。記憶装置370としては、揮発性メモリ、不揮発性メモリ、HDD、SSD、等が例示される。
【0109】
管理プログラムPROG3は、プロセッサ360によって実行されるコンピュータプログラムである。プロセッサ360が管理プログラムPROG3を実行することにより、制御装置350の機能が実現される。管理プログラムPROG3は、記憶装置370に格納される。あるいは、管理プログラムPROG3は、コンピュータ読み取り可能な記録媒体に記録されてもよい。管理プログラムPROG3は、ネットワーク経由で提供されてもよい。
【0110】
制御装置350は、通信装置310を介して、車両100及び遠隔オペレータ端末200と通信を行う。制御装置350は、車両100から送信される車両情報VCLを受信する。そして、制御装置350は、受信した車両情報VCLを遠隔オペレータ端末200に送信する。また、制御装置350は、遠隔オペレータ端末200から送信される遠隔操作情報OPEを受信する。そして、制御装置350は、受信した遠隔操作情報OPEを車両100に送信する。
【0111】
更に、制御装置350は、上述の画像改善部10の機能を備えていてもよい。車両100から受信する車両情報VCLに画像IMGが含まれる場合、画像改善部10は、必要に応じて画像IMGに対して視認性改善処理を行い、改善画像IMG_Sを出力する。また、画像改善部10は、視認性改善処理の内容を示すフラグ情報FLGを出力する。改善画像IMG_S及びフラグ情報FLGは、車両情報VCLの一部として遠隔オペレータ端末200に送信される。
【符号の説明】
【0112】
1 遠隔操作システム
10 画像改善部
20 環境条件判別部
21 天気判別部
22 時間帯判別部
23 グレア判別部
24 霧判別部
30 視認性改善処理部
31 ブレ補正部
33 霧除去処理部
35 明るさ補正処理部
37 雨除去処理部
39 コントラスト調整部
40 表示部
50 アシスト情報通知部
51 判定部
52 アシスト情報決定部
53 通知部
100 車両
200 遠隔オペレータ端末
300 管理装置
C カメラ
AST アシスト情報
IMG 画像
IMG_S 改善画像
OPE 遠隔操作情報
VCL 車両情報
WX 天候情報
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13