(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-01-05
(45)【発行日】2024-01-16
(54)【発明の名称】情報処理装置、情報処理方法、及び、情報処理システム
(51)【国際特許分類】
B60R 16/02 20060101AFI20240109BHJP
B60R 11/02 20060101ALI20240109BHJP
G08G 1/16 20060101ALI20240109BHJP
【FI】
B60R16/02 650J
B60R11/02 C
G08G1/16 C
(21)【出願番号】P 2020523620
(86)(22)【出願日】2019-05-24
(86)【国際出願番号】 JP2019020586
(87)【国際公開番号】W WO2019235245
(87)【国際公開日】2019-12-12
【審査請求日】2022-04-01
(31)【優先権主張番号】P 2018109523
(32)【優先日】2018-06-07
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】316005926
【氏名又は名称】ソニーセミコンダクタソリューションズ株式会社
(74)【代理人】
【識別番号】100121131
【氏名又は名称】西川 孝
(74)【代理人】
【識別番号】100082131
【氏名又は名称】稲本 義雄
(74)【代理人】
【識別番号】100168686
【氏名又は名称】三浦 勇介
(72)【発明者】
【氏名】米澤 航太
(72)【発明者】
【氏名】中山 智詞
【審査官】菅 和幸
(56)【参考文献】
【文献】特開平06-288873(JP,A)
【文献】特開2014-164482(JP,A)
【文献】特開2005-346468(JP,A)
【文献】特開2014-115457(JP,A)
【文献】特開2017-086542(JP,A)
【文献】特開2005-186659(JP,A)
【文献】特開2015-019271(JP,A)
【文献】特開2000-115759(JP,A)
【文献】特開2011-223075(JP,A)
【文献】特開2018-056794(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
B60R 16/02
B60R 1/00
B60R 11/02
G08G 1/16
(57)【特許請求の範囲】
【請求項1】
車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、
前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部とを備え、
前記表示制御部は、
前記車両を俯瞰した前記車両画像に、前記車両に対する情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、
前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、
前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示と
を切り替え、
前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示を行い、
前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示を行う
情報処理装置。
【請求項2】
前記表示制御部は、前記撮影画像の明るさに応じて、前記VR表示又は前記AR表示を行う
請求項1に記載の情報処理装置。
【請求項3】
前記車両は、前記不具合があるセンサの周辺の発光部を点灯させる
請求項1に記載の情報処理装置。
【請求項4】
前記車両は、前記不具合があるセンサの不具合が解消された場合に、前記発光部を消灯させる
請求項3に記載の情報処理装置。
【請求項5】
前記センサは、前記発光部を有する
請求項3に記載
の情報処理装置。
【請求項6】
前記センサは、カメラである
請求項1に記載の情報処理装置。
【請求項7】
前記不具合は、前記センサの汚れである
請求項1に記載の情報処理装置。
【請求項8】
前記不具合画像は、前記汚れがあるセンサの前記汚れの位置を表す画像を含む
請求項7に記載の情報処理装置。
【請求項9】
携帯端末である
請求項1に記載の情報処理装置。
【請求項10】
車両に対する相対的な位置又は方向に関する位置関連情報を取得することと、
前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させることと含み、
前記不具合画像を合成した合成画像は、
前記車両を俯瞰した前記車両画像に、前記車両に対する情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、
前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、
前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示と
に切り替えて表示され、
前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示が行われ、
前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示が行われる
情報処理方法。
【請求項11】
車両に搭載されるセンサと、
前記センサの不具合を検出する不具合検出部と、
画像を表示する表示部と、
前記車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、
前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部とを備え、
前記表示制御部は、
前記車両を俯瞰した前記車両画像に、前記車両に対する情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、
前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、
前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示と
を切り替え、
前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示を行い、
前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示を行う
情報処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本技術は、情報処理装置、情報処理方法、及び、情報処理システムに関し、特に、例えば、車両に搭載されたセンサの中の不具合があるセンサの位置を、ユーザが容易に認識することができるようにする情報処理装置、情報処理方法、及び、情報処理システムに関する。
【背景技術】
【0002】
近年、自動ブレーキ等の運転支援等のために、四輪等の自動車では、車外に、カメラ等の多数のセンサが搭載されつつある。
【0003】
車外に搭載されたセンサには、汚れが付着しやすく、センサに付着した汚れは、センサのセンシングを妨げるため、センサに付着した汚れを洗浄する必要がある。
【0004】
例えば、特許文献1には、センサとしてのカメラで撮影された画像を、携帯端末に表示し、センサの汚れ具合を、ユーザに報知する技術が提案されている。
【先行技術文献】
【特許文献】
【0005】
【発明の概要】
【発明が解決しようとする課題】
【0006】
センサとしてのカメラで撮影された画像を、携帯端末に表示する場合、ユーザは、カメラに汚れがあることを認識することができるが、その汚れがあるカメラが搭載されている位置(自動車における位置)を認識することは困難である。そして、汚れがあるカメラの位置が不明である場合には、ユーザは、センサに付着した汚れを洗浄することが困難である。
【0007】
本技術は、このような状況に鑑みてなされたものであり、車両に搭載されたセンサの中の、汚れ等の不具合があるセンサの位置を、ユーザが容易に認識することができるようにするものである。
【課題を解決するための手段】
【0008】
本技術の一側面の情報処理装置は、車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部とを備え、前記表示制御部は、前記車両を俯瞰した前記車両画像に、前記車両に対する情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示とを切り替え、前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示を行い、前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示を行う情報処理装置である。
【0009】
本技術の一側面の情報処理方法は、車両に対する相対的な位置又は方向に関する位置関連情報を取得することと、前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させることを含み、前記不具合画像を合成した合成画像は、前記車両を俯瞰した前記車両画像に、前記車両に対する情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示とに切り替えて表示され、前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示が行われ、前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示が行われる情報処理方法である。
【0010】
本技術の一側面の情報処理システムは、車両に搭載されるセンサと、前記センサの不具合を検出する不具合検出部と、画像を表示する表示部と、前記車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部とを備え、前記表示制御部は、前記車両を俯瞰した前記車両画像に、前記車両に対する情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示とを切り替え、前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示を行い、前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示を行う情報処理システムである。
【0011】
本技術の一側面においては、車両に対する相対的な位置又は方向に関する位置関連情報が取得され、前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像が表示され、前記車両を俯瞰した前記車両画像に、前記車両に対する情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示とが切り替えられ、前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示が行われ、前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示が行われる。
【0012】
なお、情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
【0013】
また、情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
【発明の効果】
【0014】
本技術によれば、車両に搭載されたセンサの中の不具合があるセンサの位置を、ユーザが容易に認識することができる。
【0015】
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
【図面の簡単な説明】
【0016】
【
図1】本技術を適用した情報処理システムとしての車両制御システムの一実施の形態の概要を示す図である。
【
図2】車両1の電気的構成例を示すブロック図である。
【
図3】車外端末40の電気的構成例を示すブロック図である。
【
図4】合成画像の第1の表示例としてのAR(Augmented Reality)表示を説明する図である。
【
図5】合成画像の第2の表示例としてのVR(Virtual Reality)表示を説明する図である。
【
図6】合成画像の第3の表示例としての俯瞰表示を説明する図である。
【
図7】報知処理に同期した車両1の設備の制御の例を説明する図である。
【
図8】車両制御装置10の報知処理を説明するフローチャートである。
【
図9】車外端末40の報知処理を説明するフローチャートである。
【
図10】汚れの位置を表す画像を含む不具合画像の表示の表示例を示す図である。
【
図11】発光部を有するセンサ30
iの構成例を示す断面図及び平面図である。
【
図12】本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【発明を実施するための形態】
【0017】
<本技術を適用した情報処理システムの一実施の形態>
【0018】
図1は、本技術を適用した情報処理システムとしての車両制御システムの一実施の形態の概要を示す図である。
【0019】
図1において、車両制御システムは、車両1及び車外端末40を有する。
【0020】
車両1は、例えば、4輪の乗用車あり、車両制御装置10を内蔵している。さらに、車両1は、ヘッドライト、テールライト、その他、LED(Light Emitting Diode)やランプ等の車両1に装備された発光部としての車載ライト201及び202、並びに、カメラ等のセンサ301,302,303,304、及び、305等を、車外に搭載している。
【0021】
車両制御装置10は、センサ30i(本実施の形態では、i=1,2,3,4,5)から供給されるセンサ情報に応じて、運転支援等のための各種の制御を行う。また、車両制御装置10は、車載ライト201及び202の点灯や消灯等の制御を行う。
【0022】
さらに、車両制御装置10は、車外端末40との間で、無線通信を行い、各種の情報をやりとりする。
【0023】
例えば、車両制御装置10は、センサ30iからのセンサ情報に応じて、センサ30iの不具合を検出し、その不具合があるセンサ30iの(車両1上の)位置等を含む不具合情報を生成して、車外端末40に送信する。また、車両制御装置10は、車外端末40から送信されてくる位置関連情報や清掃終了通知を受信する。
【0024】
車両制御装置10は、車外端末40からの位置関連情報に応じて、不具合があるセンサ30iに近い車載ライト20j(本実施の形態では、j=1,2)を点灯させる。また、車両制御装置10は、車外端末40からの清掃終了通知に応じて、車載ライト20jを消灯させる。
【0025】
車外端末40は、例えば、スマートフォン等のユーザ(例えば、車両1の運転者等)が携帯可能な携帯端末等の情報処理装置であり、車両制御装置10との間で、無線通信を行い、各種の情報をやりとりする。
【0026】
例えば、車外端末40は、車両に対する車外端末40の相対的な位置又は方向に関する位置関連情報を取得し、車両制御装置10に送信する。また、車外端末40は、ユーザの操作に応じて、センサ30iの不具合としての、例えば、汚れの清掃が終了した旨の清掃終了通知を、車両制御装置10に送信する。
【0027】
さらに、車外端末40は、車両制御装置10から送信されてくる不具合情報を受信する。車外端末40は、車両制御装置10からの不具合情報から、不具合があるセンサ30iの位置を表す不具合画像を生成し、位置関連情報に応じて、車両1が映る車両画像に、不具合画像を合成する。そして、車外端末40は、車両画像に不具合画像を合成した合成画像を、表示部145に表示させる。
【0028】
図1では、車外端末40において、車両1上の不具合があるセンサ30
iの位置を表す黒で塗りつぶされた円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とが、不具合画像として、その不具合画像が車両画像に合成(重畳)された合成画像が表示されている。
【0029】
以上のように、
図1の車両制御システムでは、車外端末40において、車両1が映る車両画像に、車両1に搭載された不具合があるセンサ30
iの位置を表す不具合画像を合成した合成画像が表示されるので、ユーザは、車外に車外端末40を携帯して、合成画像を見ることにより、車両1に搭載されたセンサ30
1ないし30
5の中の不具合があるセンサ30
iの位置を容易に認識することができる。
【0030】
ここで、車外にセンサ30iが搭載された車両1において、センサ30iに汚れがあること等の不具合が、車両制御装置10により検出された場合、ユーザ自身が車外に出て、センサ30iを清掃する必要があるケースがある。例えば、車両1が、センサ30iを、水や洗浄液、エア等で自動洗浄する洗浄システムを搭載していない場合や、洗浄システムを搭載していても、洗浄システムによってセンサ30iの汚れを取りきれない場合には、ユーザが車外に出て、センサ30iを清掃する必要がある。
【0031】
ユーザが車外に出て、センサ30iを清掃する場合、ユーザが、汚れがあるセンサ30iの車両1上の位置や、必要に応じて、汚れの状況を認識する必要がある。センサ30iの汚れの情報が、車両1の車内のディスプレイに表示されるだけの場合、ユーザは、ディスプレイの表示を見て、汚れがあるセンサ30iの位置や汚れの状況を記憶し、さらに、車外に出て、汚れがあるセンサ30iを見つけて、清掃する必要がある。また、汚れがあるセンサ30iの清掃後、センサ30iの汚れが除去され、センサ30iが問題ない状態になったと、車両制御装置10が判定するかどうか、すなわち、センサ30iについて、汚れが検出されない状態になったかどうかを、ユーザは、車外から車内に戻って確認する必要がある。
【0032】
さらに、将来的には、車両1が自動運転車両として実現された場合、センシングのロバスト性を向上させるために、車両1に搭載されるセンサ30iの数が多くなり、しかも、センサ30iが小型化されることが予想される。そして、自動運転車両が普及した世の中では、自動配車されるタクシーや、カーシェアの自動車等の、自分の所有物ではない車両を使用する機会が多くなることが予想される。このように、車両1が、自分の所有物ではない車両である場合には、車両1を使用するユーザは、センサ30iが搭載されている車両1上の位置や、センサ30iの搭載の状態を把握していないため、汚れがあるセンサ30iを見つけるのに、時間を要することが予想される。
【0033】
そこで、例えば、汚れがあるセンサ30iに近い位置のライト(例えば、車載ライト20j等)を点滅させることや、汚れがあるセンサ30iに近い位置で音を出力することで、ユーザに、汚れがあるセンサ30iの位置を認識させる方法が考えられる。
【0034】
しかしながら、上述のように、車両1に搭載されるセンサ30iの数が多くなった場合、ライトの近くに、多数のセンサ30iが存在することがある。この場合、汚れがあるセンサ30iに近い位置のライトを点滅させても、ユーザが、汚れがあるセンサ30iの位置を容易に認識することが困難であることがある。
【0035】
そこで、
図1の車両制御システムでは、上述のように、携帯可能な車外端末40において、車両1が映る車両画像に、車両1に搭載された不具合があるセンサ30
iの位置を表す不具合画像を合成した合成画像が表示される。この場合、ユーザは、車外に車外端末40を携帯して、合成画像を見ることにより、車両1に搭載されたセンサ30
1ないし30
5の中で、汚れ等の不具合があるセンサ30
iの位置を容易に認識することができる。
【0036】
なお、車両1としては、4輪の乗用車の他、トラクタ等の農業用の車両や、ショベルカー等の建設用の車両、戦車、その他の任意の車両を採用することができる。また、車両1に代えて、ドローンや、飛行機、ロボット、その他のセンサが搭載される任意の装置を採用することができる。
【0037】
さらに、センサ30iの不具合には、ゴミや、虫、泥等の汚れ(センシングの障害になる障害物)の付着の他、センサ30iの故障、その他の任意の不具合が含まれる。以下では、センサ30iの不具合として、汚れ(の付着)を採用することとする。
【0038】
また、センサ30iとしては、カメラ(ステレオカメラを含む)や、測距センサ(ToF(Time of Flight)センサ、LIDAR(Light Detection and Ranging)センサ、ミリ波センサ等)、加速度センサ、温度センサ、その他の任意のセンサを採用することができる。
【0039】
さらに、
図1では、5個のセンサ30
1ないし30
5が、車両1に搭載されているが、車両1に搭載されるセンサ30
iの数は、5個に限定されるものではない。
【0040】
また、車両制御装置10と車外端末40との間で行われる(双方向)無線通信の方式としては、例えば、無線LAN(Local Area Network)やBluetooth(登録商標)等の任意の方式を採用することができる。
【0041】
さらに、車両制御装置10と車外端末40との間の無線通信は、ピアトゥピアで行ってもよいし、インターネット等のネットワーク経由で行ってもよい。
【0042】
また、車外端末40は、例えば、専用端末により実現することもできるし、スマートフォン等の汎用の情報処理装置にアプリケーションを実行させることにより実現することもできる。さらに、車外端末40は、車両制御装置10の着脱可能な1つのブロックとして構成することもできる。
【0043】
<車両1の電気的構成例>
【0044】
図2は、
図1の車両1の電気的構成例を示すブロック図である。
【0045】
車両1は、
図1で説明したように、車両制御装置10、車載ライト20
1及び20
2、並びに、カメラ等のセンサ30
1ないし30
5を有する。
【0046】
車両制御装置10は、表示部111、入力部112、情報処理部113、通信部114、及び、115を有する。
【0047】
表示部111は、情報処理部113の制御に従い、各種の情報を表示する。
【0048】
入力部112は、ユーザによって操作され、ユーザの操作に対応する入力情報を、情報処理部113に供給する。入力情報が入力部112から情報処理部113に供給されると、情報処理部113は、入力部112からの入力情報に応じた処理を行う。
【0049】
なお、表示部111及び入力部112は、例えば、タッチパネル等を用いて、一体的に構成することができる。
【0050】
情報処理部113は、車両制御装置10を構成する各ブロックの制御、その他各種の処理を行う。
【0051】
通信部114は、車載ライト20jやセンサ30i等との間で、有線通信を行う。
【0052】
例えば、通信部114は、情報処理部113から供給されるライト制御情報を、車載ライト20jに送信する。車載ライト20jは、通信部114からのライト制御情報に従い、点灯し、点滅し、若しくは、消灯し、又は、発光の向きや強度を変更する。
【0053】
また、例えば、通信部114は、センサ30iから送信されてくるセンサ情報を受信し、情報処理部113に供給する。センサ30iのセンサ情報には、そのセンサ30iで行われたセンシングのセンシング結果(例えば、カメラの撮影により得られるRGB(Red, Green, Blue)等を画素値として有する撮影画像や、測距センサの測距により得られる距離を画素値として有する距離画像等)と、センサ30iの不具合としての汚れの汚れ状況等とが含まれる。情報処理部113は、通信部114からのセンサ30iのセンサ情報に応じて、センサ30iの不具合としての汚れを検出し、センサ30iについて、汚れがあるかどうかを表す不具合情報を生成する。さらに、情報処理部113は、センサ30iの不具合情報に、そのセンサ30iの(車両1上の)位置を表すセンサ位置情報を含め、通信部115に供給して、車外端末40に送信させる。
【0054】
通信部115は、車外端末40等との間で、無線通信を行う。
【0055】
例えば、通信部115は、情報処理部113から供給されるセンサ30iの不具合情報を、車外端末40に送信する。
【0056】
また、例えば、通信部115は、車外端末40から送信されてくる位置関連情報や清掃終了通知を受信し、情報処理部113に供給する。
【0057】
車外端末40から送信されてくる位置関連情報は、車外端末40の、車両1に対する相対的な位置又は方向に関する情報であり、情報処理部113は、位置関連情報から、車外端末40の、車両1に対する相対的な位置(以下、単に、相対位置ともいう)を求める。すなわち、位置関連情報が、車外端末40の、車両1に対する相対的な位置を表す場合、情報処理部113は、位置関連情報が表す相対的な位置を、車外端末40の相対位置として採用する。また、位置関連情報が、車外端末40の、車両1に対する相対的な方向を表す場合、情報処理部113は、例えば、位置関連情報が表す相対的な方向の、車両1から所定の距離の位置を、車外端末40の相対位置として求める。そして、情報処理部113は、車外端末40の相対位置等に応じて、車載ライト20jを制御するライト制御情報を、通信部114に供給して、車載ライト20jに送信させることで、車載ライト20jを制御する。
【0058】
車外端末40から送信されてくる清掃終了通知は、汚れがあるセンサ30iの清掃が終了した旨の通知であり、情報処理部113は、通信部115から清掃終了通知が供給されると、情報処理部113は、再び、通信部114からのセンサ30iのセンサ情報に応じて、センサ30iの不具合としての汚れ(の有無)を検出し、不具合情報を生成することを繰り返す。
【0059】
<車外端末40の電気的構成例>
【0060】
図3は、
図1の車外端末40の電気的構成例を示すブロック図である。
【0061】
車外端末40は、通信部141、情報処理部142、カメラ144、及び、表示部145を有する。
【0062】
通信部141は、車両制御装置10等との間で、無線通信を行う。
【0063】
例えば、通信部141は、情報処理部142(の制御部155)から供給される位置関連情報や清掃終了通知を、車両制御装置10に送信する。また、通信部141は、車両制御装置10(の通信部115)から送信されてくる不具合情報を受信し、情報処理部142(の制御部155)に供給する。
【0064】
情報処理部142は、車両制御装置10を構成する各ブロックの制御、その他各種の処理を行う。
【0065】
情報処理部142は、画像処理部151、位置関連情報取得部152、画像生成部153、表示制御部154、及び、制御部155を有する。
【0066】
画像処理部151には、カメラ144で撮影された撮影画像が供給される。画像処理部151は、カメラ144からの撮影画像が、車両1が映る車両画像である場合、その車両画像である撮影画像を、位置関連情報取得部152に供給するとともに、必要に応じて、表示制御部154に供給する。
【0067】
また、画像処理部151は、車両画像である撮影画像から、車両1のCG(Computer Graphics)を生成し、そのCGとしての車両画像を、表示制御部154に供給する。
【0068】
位置関連情報取得部152は、画像処理部151からの車両画像である撮影画像等を用い、例えば、SLAM(Simultaneous Localization and Mapping)によって、車外端末40の、車両1に対する相対的な位置又は方向に関する位置関連情報を推定することにより取得し、画像生成部153、及び、制御部155に供給する。
【0069】
ここで、位置関連情報取得部152では、SLAMにより、車外端末40の位置関連情報を取得することとしたが、車外端末40の位置関連情報は、その他の任意の方法で取得することができる。
【0070】
例えば、車外端末40の位置関連情報は、車両画像である撮影画像に映る車両1の形状から推定することができる。また、車両1に所定のマーカを設けておき、車両画像である撮影画像に映る車両1上のマーカから、車外端末40の位置関連情報を推定することができる。さらに、車両1から指向性の強い電波を送信し、その電波の、車外端末40での受信状況から、車外端末40の位置関連情報を推定することができる。また、車両1及び車外端末40にGPS(Global Positioning System)機能が搭載されている場合には、そのGPS機能により得られる車両1及び車外端末40の位置から、車外端末40の位置関連情報を推定することができる。さらに、車両1のセンサ30iが測距のための赤外線を発する場合や、車両1に可視光を発するLEDが設けられている場合には、その赤外線や可視光の、車外端末40での受光状況から、車外端末40の位置関連情報を推定することができる。
【0071】
以上は、車外端末40において位置関連情報を求める方法であるが、車外端末40の位置関連情報は、車外端末40ではなく、車両1で求めることができる。そして、車両1で求められた位置関連情報を、車両1から車外端末40に送信し、車外端末40において、車両1からの位置関連情報を受信することにより取得することができる。
【0072】
車両1では、例えば、カメラとしてのセンサ30iによって、車外端末40を所持して、車外にいるユーザを撮影し、その撮影により得られる撮影画像に映るユーザを認識することにより、ユーザの位置関連情報を、車外端末40の位置関連情報として求めることができる。また、例えば、1つのセンサ30iとして人感センサを採用し、その人感センサのセンシング結果から、ユーザの位置関連情報を、車外端末40の位置関連情報として求めることができる。さらに、車外端末40から指向性の強い電波を送信し、その電波の、車両1での受信状況から、車外端末40の位置関連情報を求める(推定する)ことができる。また、車外端末40が赤外線や可視光を発することができる場合には、その赤外線や可視光の、車両1での受光状況から、車外端末40の位置関連情報を求めることができる。
【0073】
その他、車外端末40の位置関連情報は、上述の方法を複数組み合わせて求め、ロバスト性を向上させることができる。
【0074】
画像生成部153には、位置関連情報取得部152から、車外端末40の位置関連情報が供給される他、制御部155から、車両制御装置10から送信されてくる不具合情報が供給される。画像生成部153は、位置関連情報取得部152からの位置関連情報、及び、制御部155からの不具合情報に応じて、汚れがあるセンサ30iの位置を表す不具合画像を生成し、表示制御部154に供給する。
【0075】
表示制御部154は、各種の画像を表示部145に供給して表示させる表示制御を行う。また、表示制御部154は、画像処理部151から供給される撮影画像の車両画像、又は、CGの車両画像に、画像生成部153からの不具合画像を合成し、合成画像を生成する。そして、表示制御部154は、合成画像を、表示部145に供給して表示させる。
【0076】
制御部155は、情報処理部142の各ブロックの制御、その他各種の処理を行う。
【0077】
例えば、制御部155は、入力部143の操作に応じて、清掃終了通知を生成し、通信部141に供給して送信させる。また、制御部155は、位置関連情報取得部152から供給される位置関連情報を、通信部141に供給して送信させる。さらに、制御部155は、通信部141から供給される、車両制御装置10から送信されてくる不具合情報を、画像生成部153に供給する。
【0078】
入力部143は、ユーザによって操作され、ユーザの操作に対応する入力情報を、制御部155に供給する。
【0079】
カメラ144は、例えば、車両1等の被写体を撮影し、その撮影により得られる撮影画像を、画像処理部151に供給する。
【0080】
表示部145は、表示制御部154の表示制御に従い、表示制御部154から供給される合成画像等の画像を表示する。
【0081】
なお、入力部143及び表示部145は、例えば、タッチパネル等を用いて、一体的に構成することができる。
【0082】
図2の車両1及び
図3の車外端末40で構成される
図1の車両制御システムでは、例えば、車両1の車両制御装置10が起動し、かつ、車両1が安全な場所で停車している状態の、あらかじめ決められたタイミングで、センサ30
iの不具合としての汚れを、ユーザに報知する報知処理が開始される。あらかじめ決められたタイミングとしては、例えば、ユーザが車両1に近づいたとき(車両1の所定の範囲内に入ったとき)や、ユーザが車外から車両1のロック(キー)を解除したとき、ユーザが車両1のエンジンをかけたとき等を採用することができる。
【0083】
なお、車両制御装置10において十分な電力を使用することができるように、報知処理は、車両1のエンジンがかかっている状態で行うことが望ましい。但し、車両1が電気自動車である場合には、車両1のエンジンをかけなくても、車両制御装置10において十分な電力を使用することができるので、報知処理は、車両1のエンジンがかかっていない状態で行ってもよい。
【0084】
また、車両1の走行中に、車外端末40に合成画像等が表示されても、車両1の運転をしているユーザは、車外端末40に表示された合成画像等を見ることができないため、車両1の走行中には、車外端末40に合成画像等を表示しないこととする。
【0085】
車両制御装置10(
図2)において報知処理が開始されると、センサ30
iは、そのセンサ30
iの不具合としての汚れの汚れ状況を取得し、センサ情報に含めて送信する。センサ30
iが送信するセンサ情報は、通信部114で受信され、情報処理部113に供給される。なお、センサ30
iの汚れ状況の取得の方法としては、任意の方法を採用することができる。また、センサ30
iの汚れ状況は、報知処理を開始したときの他、任意のタイミングで取得することができる。例えば、車両1が走行しているときや、停車しているとき等に、センサ30
iの汚れ状況を取得して、車両制御装置10やセンサ30
iの図示せぬメモリに記憶しておくことができる。そして、その後に行われる報知処理において、メモリに記憶されたセンサ30
iの汚れ状況を用いることができる。
【0086】
情報処理部113は、通信部114からのセンサ情報(に含まれる汚れ状況)から、不具合としての汚れがあるセンサ30iを検出する(センサ30iの汚れを検出する)。汚れがあるセンサ30iが検出された場合、情報処理部113は、センサ30iが汚れている旨等の情報を、表示部111に表示させる。さらに、情報処理部113は、汚れがあるセンサ30iの位置や汚れの状況(状態)等を、表示部111に表示させる。
【0087】
また、情報処理部113は、センサ30iについて、汚れがあるかどうかを表す不具合情報を生成する。さらに、情報処理部113は、センサ30iの不具合情報に、そのセンサ30iの位置を表すセンサ位置情報を含め、通信部115に供給して、車外端末40に送信させる。
【0088】
車両1の車内にいるユーザは、表示部111の表示を見て、センサ30iに汚れがあることを認識した場合、汚れがあるセンサ30iの清掃を行う。
【0089】
汚れがあるセンサ30iの清掃にあたり、ユーザは、車外端末40を所持して、車外に出て、車外端末40によって、汚れがあるセンサ30iを確認する。そのため、ユーザは、車外に出て、車外端末40としてのスマートフォンの表示部145を、自分側に向け、表示部145の反対側(表示部145が設けられている側を表側とすると、裏面側)に設けられたカメラ144で、車両1を撮影するような姿勢をとる。
【0090】
車外端末40(
図3)において報知処理が開始されると、カメラ144は撮影を開始する。
【0091】
これにより、カメラ144では、車外端末40の位置(ユーザの位置)から見た車両1が映る車両画像としての撮影画像が撮影され、画像処理部151に供給される。画像処理部151は、カメラ144からの車両画像としての撮影画像を、位置関連情報取得部152に供給する。
【0092】
さらに、画像処理部151は、カメラ144からの車両画像としての撮影画像を、表示制御部154に供給する。又は、画像処理部151は、カメラ144からの車両画像としての撮影画像から、車外端末40の位置から見た車両1のCGを生成し、そのCGとしての車両画像を、表示制御部154に供給する。
【0093】
表示制御部154は、画像処理部151からの車両画像を、表示部145に表示させる。
【0094】
一方、位置関連情報取得部152は、画像処理部151からの車両画像としての撮影画像を用い、車外端末40の、車両1に対する相対的な位置又は方向に関する位置関連情報を推定することにより取得し、画像生成部153、及び、制御部155に供給する。制御部155に供給された位置関連情報は、通信部141を介して、車両制御装置10に送信され、必要に応じて、車載ライト20jの制御等に用いられる。
【0095】
また、車外端末40(
図3)では、通信部141が、車両制御装置10の通信部115から送信されてくる不具合情報を受信し、制御部155に供給する。制御部155は、通信部141からの不具合情報を、画像生成部153に供給する。
【0096】
画像生成部153は、位置関連情報取得部152からの位置関連情報、及び、制御部155からの不具合情報に応じて、汚れがあるセンサ30iの位置を表す不具合画像を生成し、表示制御部154に供給する。
【0097】
表示制御部154は、画像生成部153から不具合画像が供給されると、画像処理部151から供給される、車外端末40の位置から見た車両1が映る車両画像(撮影画像又はCG)に、画像生成部153からの不具合画像を合成し、合成画像を生成する。そして、表示制御部154は、合成画像を、表示部145に供給して表示させる。
【0098】
合成画像は、車外端末40の位置、すなわち、ユーザの位置から見た車両1が映る車両画像に、不具合があるセンサ30iの位置を表す不具合画像が合成された画像であるので、ユーザは、合成画像を見ることにより、車両1に搭載されたセンサ301ないし305の中の不具合としての汚れがあるセンサ30iの位置を、容易に認識することができる。すなわち、ユーザは、車外端末40の表示部145に表示された合成画像を見ることで、車両制御装置10の表示部111に表示された汚れがあるセンサ30iの位置を見るために車内に戻ることなく、汚れがあるセンサ30iの位置を認識することができる。その結果、ユーザの利便性を向上することができる。
【0099】
汚れがあるセンサ30iの位置を認識したユーザは、そのセンサ30iに近寄って清掃する。センサ30iの清掃を終了したユーザは、清掃終了通知を通知するように、入力部143を操作する。制御部155は、入力部143の操作に応じて、清掃終了通知を、通信部141に送信させる。
【0100】
通信部141が送信した清掃終了通知は、車両制御装置10の通信部115で受信され、情報処理部113に供給される。情報処理部113は、清掃終了通知に応じて、再度、通信部114からのセンサ情報から、不具合としての汚れがあるセンサ30iを検出する。そして、汚れがあるセンサ30iが検出された場合、上述した場合と同様の処理が繰り返される。
【0101】
一方、汚れがあるセンサ30iが検出されなかった場合、車両制御装置10及び車外端末40の報知処理は終了する。
【0102】
なお、ここでは、清掃終了通知を、車両制御装置10の情報処理部113に通知するために、車外端末40の入力部143を操作することとしたが、その他、車両制御装置10の入力部112を操作することにより、清掃終了通知を、情報処理部113に通知することができる。
【0103】
また、表示制御部154では、車外端末40の位置から見た車両1が映る車両画像に不具合画像を合成した合成画像の他、車両1を俯瞰した俯瞰画像に不具合画像を合成した合成画像を生成して、表示部145に表示させることができる。
【0104】
<合成画像の表示例>
【0105】
図4は、合成画像の第1の表示例としてのAR(Augmented Reality)表示を説明する図である。
【0106】
AR表示では、車外端末40の位置から車両1をカメラ144で撮影した車両画像としての撮影画像に、不具合画像を合成した合成画像が表示される。
【0107】
図4では、車両1上の汚れがあるセンサ30
iの位置を表す円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とを、不具合画像として、その不具合画像が車両画像としての撮影画像に合成された合成画像が、表示部145に表示されている。
【0108】
なお、
図4では、車外端末40を所持したユーザが、車両1の後方に位置している場合と、車両1の(前方に向って)左側のやや後方に位置している場合とにおいて、表示部145に表示される合成画像が示されている。
【0109】
AR表示によれば、ユーザ(が所持している車外端末40)の位置から見た車両1の車両画像と、汚れがあるセンサ30iの位置を表す不具合画像とが表示されるので、ユーザは、汚れがあるセンサ30iの位置を、容易に認識することができる。
【0110】
図5は、合成画像の第2の表示例としてのVR(Virtual Reality)表示を説明する図である。
【0111】
VR表示では、車外端末40の位置から車両1をカメラ144で撮影した車両画像から3D(dimensional)モデル等を用いて生成された、車外端末40の位置から見た車両1が映る車両画像としてのCGに、不具合画像を合成した合成画像が表示される。
【0112】
図5では、車両1上の汚れがあるセンサ30
iの位置を表す円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とを、不具合画像として、その不具合画像が車両画像としてのCGに合成された合成画像が、表示部145に表示されている。
【0113】
なお、
図5では、
図4の場合と同様に、車外端末40を所持したユーザが、車両1の後方に位置している場合と、車両1の左側のやや後方に位置している場合とにおいて、表示部145に表示される合成画像が示されている。
【0114】
VR表示によれば、AR表示と同様に、ユーザ(が所持している車外端末40)の位置から見た車両1の車両画像と、汚れがあるセンサ30iの位置を表す不具合画像とが表示されるので、ユーザは、汚れがあるセンサ30iの位置を、容易に認識することができる。
【0115】
ここで、AR表示とVR表示とは、車外端末40の位置から車両1を見た車両画像に、不具合画像を合成した合成画像が表示される点で共通する。但し、AR表示の車両画像は、カメラ144で撮影された撮影画像であるのに対して、VR表示の車両画像は、CGである点で、AR表示とVR表示とは異なる。
【0116】
図6は、合成画像の第3の表示例としての俯瞰表示を説明する図である。
【0117】
俯瞰表示では、車両1を俯瞰した車両画像(以下、俯瞰画像ともいう)に、不具合画像と、車外端末40の相対位置を表す相対位置画像とを合成した合成画像が表示される。
【0118】
図6では、車両1上の汚れがあるセンサ30
iの位置を表す円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とを、不具合画像とするとともに、車外端末40の相対位置を表す円形状の画像と、その相対位置がユーザの位置であることを表すメッセージ「現在地」とを、相対位置画像として、不具合画像及び相対位置画像が俯瞰画像に合成された合成画像が、表示部145に表示されている。
【0119】
俯瞰画像としては、例えば、パーキングアシストシステム用の、車両1を俯瞰した画像等を使用することができる。
【0120】
俯瞰表示によれば、車両1を俯瞰した俯瞰画像、汚れがあるセンサ30iの位置を表す不具合画像、及び、ユーザ(が所持している車外端末40)の相対位置(現在地)を表す相対位置画像が表示されるので、ユーザは、汚れがあるセンサ30iの位置を、容易に認識することができる。
【0121】
以上説明したAR表示、VR表示、及び、俯瞰表示は、必要に応じて切り替えることができる。
【0122】
例えば、AR表示、VR表示、及び、俯瞰表示は、ユーザの操作に応じて切り替えることができる。
【0123】
その他、AR表示、VR表示、及び、俯瞰表示の切り替えは、以下のように行うことができる。
【0124】
例えば、ユーザの位置、すなわち、車外端末40の位置から、汚れがあるセンサ30iが見えない場合には、車外端末40では、俯瞰表示を行うことができる。
【0125】
また、車外端末40の位置から、汚れがあるセンサ30iが見える場合には、車外端末40では、AR表示又はVR表示を行うことができる。
【0126】
この場合、車外端末40の位置から、汚れがあるセンサ30iが見えないときには、俯瞰表示によって、汚れがあるセンサ30iが見える位置への移動を、ユーザに促すことができる。そして、ユーザが、汚れがあるセンサ30iが見える位置に移動した後は、AR表示又はVR表示によって、ユーザは、汚れがあるセンサ30iの位置を、容易に認識することができる。
【0127】
また、車外端末40では、例えば、カメラ144で撮影された車両画像の明るさに応じて、AR表示又はVR表示を行うことができる。例えば、車両画像の輝度の平均値が閾値以上である場合には、AR表示を行い、車両画像の輝度の平均値が閾値以上でない場合には、VR表示を行うことができる。
【0128】
例えば、夜間においては、カメラ144で撮影された車両画像が暗く、その車両画像に映る車両1が視認しにくいことがある。この場合、その車両画像に不具合画像を合成した合成画像でも、その合成画像に映る車両1が視認しにくくなる。
【0129】
そこで、カメラ144で撮影された車両画像が暗く、例えば、車両画像の輝度の平均値が閾値以上でない場合には、車両1のCGを表示するVR表示を行うことで、合成画像に映る車両1が視認しにくくなることを防止することができる。
【0130】
なお、ここでは、カメラ144で撮影された車両画像の明るさ(車両画像が暗いかどうか)を、車両画像の輝度の平均値によって判定することとしたが、カメラ144で撮影された車両画像の明るさは、その他、例えば、照度計により計測される照度等によって判定することができる。
【0131】
また、合成画像を生成するのに用いる不具合画像としては、上述した汚れがあるセンサ30iの位置を表す画像の他、汚れがあるセンサ30iの位置を分かりやすく表示する任意のGUI(Graphical User Interface)を採用することができる。
【0132】
<報知処理に同期した車両1の設備の制御>
【0133】
図7は、報知処理に同期した車両1の設備の制御の例を説明する図である。
【0134】
車両制御装置10では、報知処理が行われるのに同期して(報知処理と並行して)、汚れがあるセンサ30iの位置を、ユーザが容易に認識することを補助するために、車両1の設備を制御することができる。
【0135】
汚れがあるセンサ30iの位置を、ユーザが容易に認識することを補助するために、車両制御装置10が行う車両1の設備の制御を、補助制御ということとすると、車両制御装置10では、車外端末40から送信されてくる、車外端末40の位置関連情報や、周囲の明るさ等に応じて、補助制御を行うことができる。
【0136】
例えば、車両制御装置10では、周囲の明るさに応じて、周囲の明るさが暗い場合には、
図7に示すように、情報処理部113が、通信部114を介して、汚れがあるセンサ30
iに近い車載ライト20
j(汚れがあるセンサ30
iの周辺の車載ライト20
j)を制御することにより、その車載ライト20
jを、所定の明るさで点灯させることができる。この場合、例えば、夜間において、汚れがあるセンサ30
iに近い車載ライト20
jが点灯するので、ユーザが、汚れがあるセンサ30
iを見つけることや、汚れがあるセンサ30
iの洗浄作業を補助することができる。
【0137】
また、車両制御装置10では、車外端末40から送信されてくる、車外端末40の位置関連情報が、通信部115で受信され、情報処理部113に供給される。情報処理部113では、通信部115からの位置関連情報から、車外端末40の相対位置が求められる。情報処理部113では、車外端末40の相対位置を用いて、汚れがあるセンサ30iが、車外端末40の位置、すなわち、ユーザの位置から見えるかどうかを判定することができる。そして、情報処理部113では、周囲の明るさが暗く、かつ、汚れがあるセンサ30iが、車外端末40の位置から見える場合に、上述のように、汚れがあるセンサ30iに近い車載ライト20jを制御して点灯させることができる。
【0138】
なお、周囲が暗いかどうかは、カメラ144で撮影される撮影画像の明るさ(輝度)や、照度計により計測される照度等により判定することができる。
【0139】
情報処理部113では、その他、車外端末40の相対位置に応じて、車載ライト20jを制御して点滅又は点灯させることができる。
【0140】
例えば、ユーザ(が所持する車外端末40)が、汚れがあるセンサ30iから離れている場合には、情報処理部113は、汚れがあるセンサ30iに近い車載ライト20jを制御して点滅させることができる。この場合、点滅する車載ライト20jによって、ユーザは、汚れがあるセンサ30iのおおよその位置を認識することができる。
【0141】
また、例えば、ユーザが、汚れがあるセンサ30iに近くに位置している場合には、情報処理部113は、汚れがあるセンサ30iに近い車載ライト20jを制御して、比較的高い光強度で点灯させることができる。この場合、例えば、汚れがあるセンサ30iのおおよその位置を認識したユーザが、その汚れがあるセンサ30iに近づいたときに、汚れがあるセンサ30iの近くが明るく照らされるので、ユーザは、汚れがあるセンサ30iの汚れ具合を確認することや、夜間におけるセンサ30iの洗浄作業を補助することができる。
【0142】
なお、情報処理部113は、車載ライト20jを点灯又は点滅させた場合、ユーザの操作等に応じて、又は、清掃終了通知が通知されるのを待って、車載ライト20jを消灯させることができる。
【0143】
<報知処理>
【0144】
図8は、
図2の車両制御装置10の報知処理を説明するフローチャートである。
【0145】
ステップS11において、車両制御装置10の情報処理部113は、通信部114を介して、各センサ30iから、センサ30iのセンサ情報を取得し、処理は、ステップS12に進む。
【0146】
ステップS12では、情報処理部113が、各センサ30iのセンサ情報を用いて、汚れがあるセンサ30iがあるかどうか判定する。ここで、ステップS12の処理を行う情報処理部113は、センサ30iの不具合としての汚れを検出する不具合検出部として機能するということができる。
【0147】
ステップS12において、汚れがあるセンサ30iがないと判定された場合、処理は、ステップS13に進み、情報処理部113は、不具合としての汚れがない旨の不具合情報を生成し、通信部115から、車外端末40に送信させ、車両制御装置10の報知処理は終了する。
【0148】
一方、ステップS12において、汚れがあるセンサ30iがあると判定された場合、処理は、ステップS14に進み、情報処理部113は、不具合としての汚れがある旨の不具合情報を生成する。さらに、情報処理部113は、不具合情報に、汚れがあるセンサ30iそれぞれの位置を表すセンサ位置情報を含め、通信部115から、車外端末40に送信させ、処理は、ステップS14からステップS15に進む。
【0149】
ステップS15では、情報処理部113は、車外端末40から清掃終了通知を受信したかどうかを判定する。ステップS15において、清掃終了通知を受信していないと判定された場合、処理は、ステップS16に進み、情報処理部113は、必要に応じて、車外端末40の位置関連情報等に応じ、通信部114を介して、車載ライト20jを制御することにより、例えば、汚れがあるセンサ30iに近い車載ライト20jを点灯させる。そして、処理は、ステップS16からステップS15に戻り、以下、同様の処理が繰り返される。
【0150】
また、ステップS15において、清掃終了通知を受信したと判定された場合、すなわち、例えば、ユーザが、汚れがあるセンサ30iの清掃を行い、その後、清掃終了通知を通知するように、車外端末40を操作することにより、車外端末40から車両制御装置10に、清掃終了通知が送信された場合、処理は、ステップS17に進む。
【0151】
ステップS17では、ステップS16で車載ライト20jが点灯された場合に、情報処理部113が、通信部114を介して、車載ライト20jを制御することにより消灯させ、処理は、ステップS11に戻る。したがって、ユーザが、汚れがあるセンサ30iの清掃を行い、不具合としての汚れが解消された(と一応推測される)場合、点灯していた車載ライト20jは消灯する。
【0152】
そして、ステップS11では、上述のように、情報処理部113が、各センサ30iのセンサ情報を取得し、以下、ステップS12において、汚れがあるセンサ30iがないと判定されるまで、同様の処理が繰り返される。
【0153】
図9は、
図3の車外端末40の報知処理を説明するフローチャートである。
【0154】
ステップS21において、車外端末40の制御部155は、車両制御装置10からの不具合情報を取得し、処理は、ステップS22に進む。すなわち、通信部141は、車両制御装置10から不具合情報が送信されてくるのを待って、その不具合情報を受信し、制御部155に供給する。制御部155は、そのようにして通信部141から供給される不具合情報を取得する。
【0155】
ステップS22では、制御部155は、ステップS21で取得した車両制御装置10からの不具合情報を用いて、汚れのあるセンサ30iがあるかどうかを判定する。
【0156】
ステップS22において、汚れのあるセンサ30iがあると判定された場合、すなわち、車両制御装置10からの不具合情報が、汚れがある旨を表し、その汚れがあるセンサ30iのセンサ位置情報を含む場合、制御部155は、車両制御装置10からの不具合情報を、画像生成部153に供給して、処理は、ステップS23に進む。
【0157】
ステップS23では、制御部155は、清掃終了通知を通知するように、入力部143が操作されたかどうかを判定する。
【0158】
ステップS23において、清掃終了通知を通知するように、入力部143が操作されていないと判定された場合、処理は、ステップS24に進み、位置関連情報取得部152は、車外端末40の位置関連情報を取得し、制御部155及び画像生成部153に供給して、処理は、ステップS25に進む。
【0159】
ステップS25では、画像生成部153は、位置関連情報取得部152からの位置関連情報、及び、制御部155からの不具合情報に応じて、汚れがあるセンサ30iの位置を表す不具合画像を生成し、表示制御部154に供給する。
【0160】
表示制御部154は、画像処理部151から供給される車両画像、又は、車両1を俯瞰した車両画像に、画像生成部153からの不具合画像を合成し、合成画像を生成する。そして、表示制御部154は、合成画像を、表示部145に供給して表示させる。
【0161】
また、制御部155は、位置関連情報取得部152からの位置関連情報を、通信部141から車両制御装置10に送信させ、処理は、ステップS25からステップS23に戻る。
【0162】
ここで、以上のようにして、通信部141から車両制御装置10に送信される位置関連情報が、
図8のステップS16の処理に用いられる。
【0163】
一方、ステップS23において、清掃終了通知を通知するように、入力部143が操作されたと判定された場合、処理は、ステップS26に進み、制御部155は、清掃終了通知を、通信部141から車両制御装置10に送信させ、処理は、ステップS21に戻る。
【0164】
ステップS21では、上述したように、車両制御装置10からの不具合情報が取得され、処理は、ステップS22に進む。
【0165】
そして、ステップS22において、汚れのあるセンサ30iがないと判定された場合、すなわち、車両制御装置10からの不具合情報が、汚れがない旨を表す場合、車外端末40の報知処理は終了する。
【0166】
<汚れの位置を表す画像を含む不具合画像の表示>
【0167】
図10は、汚れの位置を表す画像を含む不具合画像の表示の表示例を示す図である。
【0168】
例えば、センサ30iが比較的大きなサイズのカメラである場合に、そのセンサ30iとしてのカメラのレンズの一部が汚れており、その汚れの(レンズ上の)位置を、車両制御装置10で検出することができるときには、不具合情報には、センサ30iとしてのカメラの汚れの位置(範囲)を表す汚れ位置情報を含めることができる。
【0169】
この場合、車外端末40(
図3)の画像生成部153は、汚れがあるセンサ30
iの汚れの位置を表す画像を含む不具合画像を生成することができる。
【0170】
図10は、車外端末40の位置から車両1を見た車両画像に、汚れがあるセンサ30
iの汚れの位置を表す画像を含む不具合画像を合成した合成画像の表示例を示している。
【0171】
図10では、汚れがあるセンサ30
iの位置を表す円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とが、不具合画像として表示されている。さらに、
図10では、汚れがあるセンサ30
iとしてのカメラを模した画像上に汚れとしての影を付した画像を、汚れの位置を表す汚れ位置画像として、その汚れ位置画像を含む不具合画像が表示されている。
【0172】
以上のように、汚れ位置画像を表示する場合には、ユーザは、汚れがあるセンサ30i上のどの位置が汚れているのかを、容易に認識することができる。
【0173】
なお、汚れ位置画像において、汚れの位置は、例えば、画像の色を変更することや、点滅させること等により表すことができる。
【0174】
また、ユーザが、汚れがあるセンサ30iを清掃し、汚れがなくなった場合には、車外端末40において、不具合画像の表示を、汚れがなくなったことを表す画像の表示に変更することできる。
【0175】
図10では、汚れがなくなったことを表す画像として、汚れがあったセンサ30
iの位置を表す円形状の画像と、メッセージ「汚れが落ちました」が記載された吹き出しの画像とが表示されている。さらに、
図10では、汚れがなくなったことを表す画像として、汚れがないセンサ30
iとしてのカメラを模した画像が表示されている。
【0176】
<発光部を有するセンサ30iの構成例>
【0177】
図11は、発光部を有するセンサ30
iの構成例を示す断面図及び平面図である。
【0178】
車両1においては、センサ30
iの周辺の位置(近い位置)に、車載ライト20
jが装備されているとは限らない。センサ30
iの周辺の位置に、車載ライト20
jが装備されていない場合、汚れがあるセンサ30
iの最も近い位置の車載ライト20
jが、
図7で説明したように点灯されても、汚れがあるセンサ30
iから大きく離れた車載ライト20
jが点灯されることがある。このように、汚れがあるセンサ30
iから大きく離れた車載ライト20
jが点灯されることは、汚れがあるセンサ30
iの位置を、ユーザが容易に認識することを補助することにならず、却って妨げとなることがあり得る。
【0179】
そこで、車両1に搭載されるセンサ30iとしては、発光部を有するセンサ30iを採用することができる。
【0180】
図11において、センサ30
iは、例えば、カメラで、イメージセンサ等で構成される光学センサ200を有する。光学センサ200の受光面側には、レンズ201が設けられている。さらに、光学センサ200の周囲には、円環状の基板202が設けられ、その基板202上には、光学センサ200(レンズ201)を囲むように、複数の発光部203が設けられている。
【0181】
ここで、発光部203は、LED等で構成することができる。また、
図11では、8個の発光部203が設けられているが、センサ30
iに設ける発光部203の数は、1個でも良いし、8個以外の複数個でも良い。
【0182】
以上のように、センサ30iが発光部203を有する場合には、車載ライト20jに代えて、汚れがあるセンサ30iが有する発光部203を点灯又は点滅させることができる。汚れがあるセンサ30iが有する発光部203を点灯又は点滅させる場合には、汚れがあるセンサ30iの周辺の車載ライト20jを点灯又は点滅させる場合に比較して、汚れがあるセンサ30iのより正確な位置を、ユーザが容易に認識することができる。
【0183】
なお、不具合画像や合成画像は、車外端末40で生成する他、車両制御装置10やクラウド上のコンピュータで生成し、車外端末40に供給することができる。
【0184】
<本技術を適用したコンピュータの説明>
【0185】
次に、上述した車両制御装置10や車外端末40の一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
【0186】
図12は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
【0187】
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク905やROM903に予め記録しておくことができる。
【0188】
あるいはまた、プログラムは、ドライブ909によって駆動されるリムーバブル記録媒体911に格納(記録)しておくことができる。このようなリムーバブル記録媒体911は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体911としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
【0189】
なお、プログラムは、上述したようなリムーバブル記録媒体911からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク905にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
【0190】
コンピュータは、CPU(Central Processing Unit)902を内蔵しており、CPU902には、バス901を介して、入出力インタフェース910が接続されている。
【0191】
CPU902は、入出力インタフェース910を介して、ユーザによって、入力部907が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)903に格納されているプログラムを実行する。あるいは、CPU902は、ハードディスク905に格納されたプログラムを、RAM(Random Access Memory)904にロードして実行する。
【0192】
これにより、CPU902は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU902は、その処理結果を、必要に応じて、例えば、入出力インタフェース910を介して、出力部906から出力、あるいは、通信部908から送信、さらには、ハードディスク905に記録等させる。
【0193】
なお、入力部907は、キーボードや、マウス、マイク等で構成される。また、出力部906は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
【0194】
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
【0195】
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0196】
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
【0197】
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
【0198】
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
【0199】
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
【0200】
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
【0201】
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
【0202】
なお、本技術は、以下の構成をとることができる。
【0203】
<1>
車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、
前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部と
を備える情報処理装置。
<2>
前記表示制御部は、前記位置関連情報に応じて、前記車両を俯瞰した前記車両画像に、前記車両に対する前記情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示させる
<1>に記載の情報処理装置。
<3>
前記表示制御部は、前記位置関連情報に応じて、前記情報処理装置の位置から前記車両を見た前記車両画像に、前記不具合画像を合成した前記合成画像を表示させる
<1>に記載の情報処理装置。
<4>
前記車両画像は、前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)、又は、前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像である
<3>に記載の情報処理装置。
<5>
前記表示制御部は、
前記車両を俯瞰した前記車両画像に、前記車両に対する前記情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、
前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、
前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示と
を切り替える
<1>に記載の情報処理装置。
<6>
前記表示制御部は、
前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示を行い、
前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示を行う
<5>に記載の情報処理装置。
<7>
前記表示制御部は、前記撮影画像の明るさに応じて、前記VR表示又は前記AR表示を行う
<5>に記載の情報処理装置。
<8>
前記車両は、前記不具合があるセンサの周辺の発光部を点灯させる
<1>ないし<7>のいずれかに記載の情報処理装置。
<9>
前記車両は、前記不具合があるセンサの不具合が解消された場合に、前記発光部を消灯させる
<8>に記載の情報処理装置。
<10>
前記センサは、前記発光部を有する
<8>又は<9>に記載に情報処理装置。
<11>
前記センサは、カメラである
<1>ないし<10>のいずれかに記載の情報処理装置。
<12>
前記不具合は、前記センサの汚れである
<1>ないし<11>のいずれかに記載の情報処理装置。
<13>
前記不具合画像は、前記汚れがあるセンサの前記汚れの位置を表す画像を含む
<12>に記載の情報処理装置。
<14>
携帯端末である
<1>ないし<13>のいずれかに記載の情報処理装置。
<15>
車両に対する相対的な位置又は方向に関する位置関連情報を取得することと、
前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させることと
を含む情報処理方法。
<16>
車両に搭載されるセンサと、
前記センサの不具合を検出する不具合検出部と、
画像を表示する表示部と、
前記車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、
前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部と
を備える情報処理システム。
【符号の説明】
【0204】
1 車両, 10 車両制御装置, 201,202 車載ライト, 301ないし305 センサ, 40 車外端末, 111 表示部, 112 入力部, 113 情報処理部, 114,115,141 通信部, 142 情報処理部, 143 入力部, 144 カメラ, 145 表示部, 151 画像処理部, 152 位置関連情報取得部, 153 画像生成部, 154 表示制御部, 155 制御部, 200 光学センサ, 201 レンズ, 202 基板, 203 発光部, 901 バス, 902 CPU, 903 ROM, 904 RAM, 905 ハードディスク, 906 出力部, 907 入力部, 908 通信部, 909 ドライブ, 910 入出力インタフェース, 911 リムーバブル記録媒体