(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025016959
(43)【公開日】2025-02-05
(54)【発明の名称】シミュレーションシステム、情報生成プログラムおよびシミュレーション方法
(51)【国際特許分類】
G01S 17/86 20200101AFI20250129BHJP
G01S 17/931 20200101ALI20250129BHJP
G08G 1/16 20060101ALI20250129BHJP
【FI】
G01S17/86
G01S17/931
G08G1/16 C
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023119796
(22)【出願日】2023-07-24
(71)【出願人】
【識別番号】000004260
【氏名又は名称】株式会社デンソー
(71)【出願人】
【識別番号】519373914
【氏名又は名称】株式会社J-QuAD DYNAMICS
(71)【出願人】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(74)【代理人】
【識別番号】110000028
【氏名又は名称】弁理士法人明成国際特許事務所
(72)【発明者】
【氏名】井上 展彦
【テーマコード(参考)】
5H181
5J084
【Fターム(参考)】
5H181AA01
5H181BB20
5H181CC03
5H181CC04
5H181CC11
5H181CC14
5H181EE02
5H181LL01
5H181LL09
5J084AA05
5J084AA13
5J084AB01
5J084AB07
5J084AB16
5J084AC02
5J084CA03
5J084EA22
(57)【要約】
【課題】対象物の情報の認識の誤差を想定した上で、車両の制御を評価することができるシミュレーションシステムの技術の提供。
【解決手段】レーザー光が対象物において反射されて生じた反射光から生成された点群に基づいて、LiDAR情報を生成するLiDAR処理部11と、超音波が対象物において反射されて生じた反射波と、カメラが対象物を含む範囲を撮像した画像と、の少なくとも一方に基づいて、センサ情報を生成するセンサ処理部12と、LiDAR情報を入力値とし、センサ情報を正解値とした、教師あり機械学習を実行済みの学習部14と、仮想の画像内に存在する物体の位置の情報である仮想環境情報を生成する仮想生成部15と、仮想環境情報を入力値として学習部から出力された物体の位置の情報である仮想センサ情報を用いて、車両の制御のためのシミュレーションを行うシミュレーション部16と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
シミュレーションシステム(1)であって、
LiDARセンサ(LS)が照射したレーザー光が対象物において反射されて生じた反射光から生成された点群に基づいて、予め定められた位置を基準とする前記対象物の位置の情報であるLiDAR情報を生成するLiDAR処理部(11)と、
前記LiDARセンサの検出範囲の少なくとも一部と、検出範囲の少なくとも一部が重複するように超音波を発振する超音波センサ(US)から発振された超音波が前記対象物において反射した反射波と、前記LiDARセンサの検出範囲の少なくとも一部と検出範囲の少なくとも一部が重複するように撮像するカメラ(Cm)が前記対象物を含む範囲を撮像した画像と、の少なくとも一方に基づいて、前記予め定められた位置を基準とする、前記対象物の位置の情報であるセンサ情報を生成するセンサ処理部(12)と、
前記LiDAR情報を入力値とし、前記センサ情報を正解値とした、教師あり機械学習を実行済みの学習部(14)と、
車両を基準とする、仮想の画像内に存在する物体の位置の情報である仮想環境情報を生成する仮想生成部(15)と、
前記仮想環境情報を入力値として前記学習部から出力された前記物体の位置の情報である仮想センサ情報を用いて、前記車両の制御のためのシミュレーションを行うシミュレーション部(16)と、を備える、シミュレーションシステム。
【請求項2】
請求項1に記載のシミュレーションシステムであって、
前記教師あり機械学習は、教師ありディープニューラルネットワーク学習である、シミュレーションシステム。
【請求項3】
請求項1に記載のシミュレーションシステムであって、
前記車両の制御を実行する車両制御部の、前記仮想センサ情報に基づく制御のシミュレーションの結果に基づいて、前記車両制御部を評価する、シミュレーションシステム。
【請求項4】
請求項3に記載のシミュレーションシステムであって、
前記車両制御部の、前記車両の操舵の制御と、駆動の制御と、制動の制御と、の一つ以上の結果に基づいて、前記車両制御部を評価する、シミュレーションシステム。
【請求項5】
請求項1に記載のシミュレーションシステムであって、
前記LiDAR処理部および前記センサ処理部は、さらに、前記対象物の、高さと、幅と、前記対象物の種別と、の情報と、それぞれの情報の信頼度と、のうち一つ以上を生成する、シミュレーションシステム。
【請求項6】
請求項3または請求項4に記載のシミュレーションシステムであって、
前記仮想センサ情報と、前記車両制御部の制御の結果と、前記評価と、の少なくとも一方を記憶する、記憶装置(18)と、を備える、シミュレーションシステム。
【請求項7】
請求項1に記載のシミュレーションシステムであって、
前記仮想センサ情報は、
予め定められた秒速以上の風と、予め定められた数値以上の降水量と、凹凸または傾斜の少なくとも一方を有する路面と、の、一つ以上の外乱を想定して生成された、シミュレーションシステム。
【請求項8】
情報生成プログラムであって、コンピュータに、
LiDARセンサが照射したレーザー光が対象物において反射されて生じた反射光から生成された点群に基づいて、予め定められた位置を基準とする前記対象物の位置の情報であるLiDAR情報を生成するLiDAR処理部と、
超音波センサから発振された超音波が前記対象物において反射した反射波と、カメラが前記対象物を含む範囲を撮像した画像と、の少なくとも一方に基づいて、前記予め定められた位置を基準とする、前記対象物の位置の情報であるセンサ情報を生成するセンサ処理部と、
前記LiDAR情報を入力値とし、前記センサ情報を正解値とする、教師あり機械学習を実行する学習部と、
車両を基準とする、仮想の画像内に存在する物体の位置の情報である仮想環境情報を生成する仮想生成部と、
前記仮想環境情報を入力値として前記学習部から出力された前記物体の位置の情報である仮想センサ情報を用いて、前記車両の制御のためのシミュレーションを行うシミュレーション部として機能させる、情報生成プログラム。
【請求項9】
シミュレーション方法であって、
LiDARセンサが照射したレーザー光が対象物において反射されて生じた反射光から生成された点群に基づいて、予め定められた位置を基準とする前記対象物の位置の情報であるLiDAR情報を生成し、
前記LiDARセンサの検出範囲の少なくとも一部と、検出範囲の少なくとも一部が重複するように超音波を発振する超音波センサから発振された超音波が前記対象物において反射した反射波と、前記LiDARセンサの検出範囲の少なくとも一部と検出範囲の少なくとも一部が重複するように撮像するカメラが前記対象物を含む範囲を撮像した画像と、の少なくとも一方に基づいて、前記予め定められた位置を基準とする、前記対象物の位置の情報であるセンサ情報を生成し、
前記LiDAR情報を入力値とし、前記センサ情報を正解値とする、教師あり機械学習を実行し、
車両を基準とする、仮想の画像内に存在する物体の位置の情報である仮想環境情報を生成し、
前記教師あり機械学習を実行済みの学習部に、前記仮想環境情報を入力し、
前記学習部から出力された前記物体の位置の情報である仮想センサ情報を用いて、前記車両の制御のためのシミュレーションを行う、シミュレーション方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、シミュレーションシステム、情報生成プログラムおよびシミュレーション方法に関する。
【背景技術】
【0002】
特許文献1において、画像生成システムと、シミュレーションシステムと、が開示されている。画像生成システムは、近赤外線センサや、LiDARセンサが出力した画像に相当する仮想画像を生成する。
【0003】
特許文献1の画像生成システムは、道路や歩行者等の対象物が、どの位置に存在してどのような動きをするのかを定義されたシナリオを設定する。画像生成システムは、シナリオに従って、3Dモデリング部が仮想空間上における物体の形状を作成する。画像生成システムは、3Dモデリング部で生成された3D形状に基づいて、3DCGを生成する。画像生成システムは、3DCGに含まれるコンポーネントを、コンポーネント画像として抽出し、コンポーネント画像中における対象物の奥行が定義された深度画像を生成する。画像生成システムは、過酷な天候条件のような、再現が困難な条件下における実写の画像に類似した画像を、人工的に生成することができる。生成した人工的な画像は、自動運転で用いられているAIの認識技術に適用されることが可能である。
【0004】
特許文献1のシミュレーションシステムは、画像生成システムが生成した画像の中から、特定の対象物を認識し、認識結果を用いて、車両の動作を制御する制御信号を生成する。シミュレーションは、制御信号に基づいて、自車両の位置情報を変更または修正する。
【先行技術文献】
【特許文献】
【0005】
【発明の概要】
【発明が解決しようとする課題】
【0006】
近年、対象物の情報をシミュレーションツールによって生成し、対象物の情報を、車両の制御を実行する車両制御部に入力することで、車両の制御を評価する手法が知られている。カメラと超音波センサは、それぞれ車両の構成として用いられることが多い。このため、車両の制御のために使用される対象物の情報は、カメラと超音波センサとのいずれか一方が取得したデータ、またはカメラと超音波センサとが取得したデータの組み合わせによって生成されたデータに基づいて生成されることが多い。そのため、シミュレーションツールにおいて、カメラと超音波センサと、の少なくとも一方が取得したデータに基づいて生成された対象物の情報を再現することが求められる場合がある。
【0007】
ここで、超音波センサやカメラに基づいて生成された対象物の情報は、LiDARセンサのような、レーザー光を照射するセンサに基づいて生成された対象物の情報と比較して、対象物の位置や種別等の認識の誤差を多く含むことが知られている。しかし、従来のシミュレーションシステムにおいては、対象物の位置や種別等の認識の誤差を含む情報は生成されない。そのため、認識の誤差を想定した上でのシミュレーションが実行されず、車両の制御の評価が限定的なものとなっていた。特許文献1の深度画像も、対象物の情報の認識の誤差を想定して生成されるものではない。そのため、対象物の情報の認識の誤差を想定した上で、車両の制御を評価することができるシミュレーションシステムが望まれる。
【課題を解決するための手段】
【0008】
本開示は、以下の形態として実現することが可能である。
【0009】
本開示の一形態によれば、シミュレーションシステム(1)が提供される。このシミュレーションシステムは、LiDARセンサ(LS)が照射したレーザー光が対象物において反射されて生じた反射光から生成された点群に基づいて、予め定められた位置を基準とする前記対象物の位置の情報であるLiDAR情報を生成するLiDAR処理部(11)と、前記LiDARセンサの検出範囲の少なくとも一部と、検出範囲の少なくとも一部が重複するように超音波を発振する超音波センサ(US)から発振された超音波が前記対象物において反射した反射波と、前記LiDARセンサの検出範囲の少なくとも一部と検出範囲の少なくとも一部が重複するように撮像するカメラが前記対象物を含む範囲を撮像した画像と、の少なくとも一方に基づいて、前記予め定められた位置を基準とする、前記対象物の位置の情報であるセンサ情報を生成するセンサ処理部(12)と、前記LiDAR情報を入力値とし、前記センサ情報を正解値とした、教師あり機械学習を実行済みの学習部(14)と、車両を基準とする、仮想の画像内に存在する物体の位置の情報である仮想環境情報を生成する仮想生成部(15)と、前記仮想環境情報を入力値として前記学習部から出力された前記物体の位置の情報である仮想センサ情報を用いて、前記車両の制御のためのシミュレーションを行うシミュレーション部(16)と、を備える。
【0010】
超音波センサとカメラの少なくとも一方に基づいて生成されたセンサ情報は、レーザー光を照射するLiDARセンサに基づいて生成されたLiDAR情報と比較して、対象物の位置や種別等の認識の誤差や、未検出が生じやすいと考えられる。本実施形態のシミュレーションシステムによれば、学習部が、実際の対象物の情報と近いと考えられるLiDAR情報を入力値とし、実際の対象物の情報と認識の誤差が大きいと考えられるセンサ情報を正解値として、学習している。学習済みの学習部に対して、仮想の環境の情報である仮想環境情報が入力されると、仮想環境情報が、超音波センサとカメラの少なくとも一方に基づいて生成された物体の情報に近い情報である仮想センサ情報に変換される。つまり、人工的に生成された物体の情報を、認識の誤差や未検出が含まれる情報に変換することができる。さらに、生成した仮想センサ情報を用いて、車両の制御のためのシミュレーションを行うことができる。
【0011】
本開示の他の形態によれば、情報生成プログラムが提供される。この情報生成プログラムは、コンピュータに、LiDARセンサが照射したレーザー光が対象物において反射されて生じた反射光から生成された点群に基づいて、予め定められた位置を基準とする前記対象物の位置の情報であるLiDAR情報を生成するLiDAR処理部と、超音波センサから、発振された超音波が前記対象物において反射した反射波と、カメラが前記対象物を含む範囲を撮像した画像と、の少なくとも一方に基づいて、前記予め定められた位置を基準とする、前記対象物の位置の情報であるセンサ情報を生成するセンサ処理部と、前記LiDAR情報を入力値とし、前記センサ情報を正解値とする、教師あり機械学習を実行する学習部と、車両を基準とする、仮想の画像内に存在する物体の位置の情報である仮想環境情報を生成する仮想生成部と、前記仮想環境情報を入力値として前記学習部から出力された前記物体の位置の情報である仮想センサ情報を用いて、前記車両の制御のためのシミュレーションを行うシミュレーション部として機能させる。
【0012】
本開示の他の形態によれば、シミュレーション方法が提供される。このシミュレーション方法は、LiDARセンサが照射したレーザー光が対象物において反射されて生じた反射光から生成された点群に基づいて、予め定められた位置を基準とする前記対象物の位置の情報であるLiDAR情報を生成し、前記LiDARセンサの検出範囲の少なくとも一部と、検出範囲の少なくとも一部が重複するように超音波を発振する超音波センサから発振された超音波が前記対象物において反射した反射波から生成された点群と、前記LiDARセンサの検出範囲の少なくとも一部と検出範囲の少なくとも一部が重複するように撮像するカメラが前記対象物を含む範囲を撮像した画像と、の少なくとも一方に基づいて、前記予め定められた位置を基準とする、前記対象物の位置の情報であるセンサ情報を生成し、前記LiDAR情報を入力値とし、前記センサ情報を正解値とする、教師あり機械学習を実行し、車両を基準とする、仮想の画像内に存在する物体の位置の情報である仮想環境情報を生成し、前記教師あり機械学習を実行済みの学習部に、前記仮想環境情報を入力し、前記学習部から出力された前記物体の位置の情報である仮想センサ情報を用いて、前記車両の制御のためのシミュレーションを行う。
【図面の簡単な説明】
【0013】
【
図1】本実施形態のシミュレーションシステムと、LiDARセンサと、超音波センサと、カメラと、車両制御部と、を説明する図。
【
図4】同期処理部によるLiDAR点群のデータと画像のデータとUS距離データとの紐づけを説明する図。
【
図6】シミュレーション方法の一例を表すフローチャート。
【発明を実施するための形態】
【0014】
A.本実施形態:
A1.本実施形態の構成:
シミュレーションシステム1は、仮想の画像に含まれる物体の位置や、種別を含む情報を生成する。シミュレーションシステム1は、生成した情報を用いて車両の制御のためのシミュレーションを行う。生成された情報の詳細は後に説明する。
図1に示すように、シミュレーションシステム1は、同期処理部10と、LiDAR処理部11と、センサ処理部12と、情報記憶部13と、学習部14と、仮想生成部15と、シミュレーション部16と、評価部17と、記憶装置18と、を備える。
図1において、各構成間において情報の送受信が可能であることが、矢印で表されている。
【0015】
同期処理部10は、LiDARセンサLSによって生成された点群のデータと、2つの超音波センサUSによって取得された対象物との距離のデータと、カメラCMが撮像した画像のデータと、を紐づける。以下において、LiDARセンサLSによって生成された点群をLS点群、2つの超音波センサUSによって取得された距離をUS距離と表記する。同期処理部10の機能の詳細について説明する前に、LiDARセンサLSと、LS点群と、超音波センサUSと、US距離と、カメラCMと、カメラCMが撮像した画像と、について説明する。
【0016】
LiDARセンサLSは、照射したレーザー光が対象物において反射された反射光から、LS点群を生成する。
図2において、LS点群を表している。LS点群は、LiDARセンサLSが検出可能な範囲において、反射光によって特定される対象物の、少なくとも一部が存在し得る位置を示す点の集合である。LS点群を構成する点は、LiDARセンサLSを基準とする距離の情報を有している。本明細書における対象物とは、車両や、歩行者や、信号機や、道路や、建物等である。本実施形態において、LiDARセンサLSから一定時間の間隔を空けてレーザー光が照射され、複数のLS点群が生成される。本実施形態のLiDARセンサLSは、予め定められた間隔で、レーザー光を照射する。複数のLS点群のそれぞれは、生成された時刻が紐づけられている。本実施形態において、LiDARセンサLSは、移動体である車両に搭載されている。なお、LiDARセンサLSが搭載される車両は、上述した、制御される車両とは異なる。
【0017】
図1に示す超音波センサUSは、超音波を発振する。超音波センサUSは、発振した超音波が対象物において反射した反射波を受信して、US距離のデータであるUS距離データを生成する。本実施形態においては、隣接した2つの超音波センサによって、US距離データが生成される。まず、一方の超音波センサから発振された超音波が対象物において反射した反射波を、2つの超音波センサのそれぞれが受信する。そして、2つの超音波センサのそれぞれにおいて、対象物との距離の情報が生成される。US距離データは、2つの超音波センサのそれぞれにおける、対象物との距離の情報である。US距離データには、複数の対象物との間の距離の情報が含まれ得る。本実施形態において、超音波センサUSから一定時間の間隔を空けて超音波が発振され、複数のUS距離データが生成される。本実施形態の超音波センサUSは、予め定められた間隔で、超音波を発振する。複数のUS距離データのそれぞれは、生成された時刻が紐づけられている。LiDARセンサLSによるレーザー光の照射と、超音波センサUSによる超音波の発振が同時刻に行われていても、生成される時刻は異なる場合がある。超音波センサUSは、LiDARセンサLSの検出範囲と、検出範囲が重複するように、超音波を発振する。超音波センサUSは、LiDARセンサLSが搭載されている車両と同じ車両に搭載されている。
【0018】
図1に示すカメラCMは、LiDARセンサLSの検出範囲と検出範囲が重複するように撮像する。本実施形態において、カメラCMは、さらに、超音波センサUSの検出範囲と、検出範囲が重複するように、撮像する。
図3において、LiDARセンサLSの検出範囲および、超音波センサUSの検出範囲と、検出範囲が重複するように撮像された画像を表している。なお、
図2においては、横断歩道において反射されて生じたLiDAR点群の図示は省略している。本実施形態において、カメラCMは、予め定められた間隔で、複数の画像を撮像する。複数の画像のそれぞれは、撮像された時刻が紐づけられている。
【0019】
LiDARセンサLSと超音波センサUSとカメラCMとは、それぞれ、同じ車両の異なる位置に配置されている。具体的には、LiDARセンサLSとカメラCMは、車両のフロントエンブレムの下に一つずつ配置されている。超音波センサは、車両のフロントバンパーに配置されている。
【0020】
同期処理部10は、作業者によって、複数のLS点群のデータと、複数のUS距離データと、複数の画像のデータとが入力される。同期処理部10は、複数のLS点群のデータと、複数のUS距離データと、カメラCMが撮像した複数の画像のデータと、のうち、生成された時刻が近いLS点群のデータと、US距離データと、画像のデータとを紐づける。
【0021】
同期処理部10は、複数のLS点群のデータと、複数のUS距離データと、複数の画像のデータのうち、生成された時刻が最も近い二つのデータ同士を紐づける。まず、同期処理部10は、ある時刻に生成されたLS点群のデータを、最も近い時刻に生成されたUS距離データと紐づける。以下において、
図4に示すある時刻に生成されたLS点群のデータA1と、異なる時刻に生成されたUS距離データB1が紐づけられた場合を説明する。
図4に示すように、同期処理部10は、LS点群のデータA1と、LS点群のデータA1が生成された時刻と最も近い時刻に生成されたUS距離データB1とを紐づける。同期処理部10は、互いに紐づけられたLS点群のデータA1とUS距離データB1と、のそれぞれと、生成された時刻から最も近い時刻に撮像された画像のデータC1と、を、LS点群のデータA1とUS距離データB1と紐づける。本実施形態において、
図2に示すLS点群のデータが
図4のデータA1であり、US距離データが
図4のデータB1であり、
図3に示す画像のデータが、
図4のデータC1である。
【0022】
同様に、同期処理部10は、他のLS点群のデータと、US距離データと、画像のデータと、を紐づける。例えば、LS点群のデータA2と、LS点群のデータA2が生成された時刻と最も近い時刻に生成されたUS距離データB2とが、同期処理部10によって紐づけられる。そして、同期処理部10は、互いに紐づけられたLS点群のデータA2とUS距離データB2と、のそれぞれと、生成された時刻から最も近い時刻に撮像された画像のデータC1と、を、LS点群のデータA2とUS距離データB2と紐づける。このように、同じ画像のデータC1が、異なるLS点群のデータおよびUS距離データと紐づけられる可能性がある。
【0023】
なお、LS点群が生成された時刻と最も近い時刻に撮像された画像と、US距離データが生成された時刻と最も近い時刻に撮像された画像と、が異なる可能性がある。その場合、LS点群が生成された時刻とその直近の画像が撮像された時刻との間と、US距離データが生成された時刻とその直近の画像が撮像された時刻との間と、のいずれか短いほうの画像のデータが、LS点群のデータとUS距離データと紐づけられる。LS点群が生成された時刻とその直近の画像が撮像された時刻との間の時間と、US距離データが生成された時刻とその直近の画像が撮像された時刻との間の時間と、が同じである場合、異なる時刻に撮像された二つの画像のデータのそれぞれが、LS点群のデータとUS距離データと紐づけられる。
【0024】
互いに紐づけられたLS点群のデータとUS距離データと画像のデータとの組み合わせを、「同期グループ」と表記する。
図1に示す同期処理部10は、それぞれの同期グループを区別するために、同期グループに対して数字を付す。数字は、LS点群が取得された時刻順である。例えば、
図4に示すように、LiDARセンサLSと超音波センサUSとカメラCMによる検出が開始されてからそれぞれ最も早い時刻に生成されたLS点群のデータA1と、US距離データB1と画像のデータC1とが紐づく同期グループの数字は、1となる。本実施形態において、複数の同期グループが作成される。
図1の同期処理部10は、LiDAR処理部11に、複数のLS点群のそれぞれのデータを、属する同期グループの情報と共に送信する。また、同期処理部10は、センサ処理部12に、複数のUS距離データと複数の画像のそれぞれのデータを、属する同期グループの情報と共に送信する。
【0025】
LiDAR処理部11は、LS点群のうち、対象物において反射されて生じた反射光から生成された点群に基づいて、予め定められた位置を基準とする対象物の位置の情報であるLiDAR情報を生成する。以下において、対象物において反射されて生じた反射光から生成された点群を、LiDAR点群と表記する。本実施形態において予め定められた位置とは車両の後輪軸の中心をいう。本実施形態において、LiDAR処理部11は、複数の同期グループのそれぞれに属するLS点群に基づいて、複数のLiDAR情報を生成する。
【0026】
図2に示すLS点群に基づいたLiDAR情報の生成について説明する。LiDAR処理部11は、まず、LS点群をクラスタリングして、一つ以上のグループを生成する。クラスタリングは、点群をクラスタリングするアルゴリズムによって行われる。
図2に示すように、グループ1とグループ2が生成される。LiDAR処理部11は、一つのグループを、レーザー光が一つの対象物において反射されて生じた反射光から生成された点群に基づいて生成されたものと認識する。本実施形態においては、
図2に示すように、LiDAR処理部11は、クラスタリングしたLiDAR点群を、三次元の矩形の箱で囲い、複数のグループのそれぞれに数字を付すことで、複数のグループを区別する。
図2に示すように、LS点群は、グループ1に属するLiDAR点群と、グループ2に属するLiDAR点群と、に分けられる。LiDAR処理部11は、それぞれのグループにおける代表点を定める。代表点の位置の情報が、予め定められた位置を基準とする対象物の位置の情報であるLiDAR情報である。
【0027】
LiDAR情報は、予め定められた位置を基準とした直交座標によって表されている。本実施形態において、予め定められた位置を基準とした右方向を、直交座標のX軸の正方向とし、予め定められた位置を基準とした奥行方向をY軸の正方向とし、予め定められた位置を基準とした高さ方向を、Z軸方向とする。奥行方向は、LiDARセンサLSが搭載される車両の前方向である。
【0028】
本実施形態において、LiDAR処理部11は、さらに、グループの高さと、幅と、種別の情報と、それぞれの情報の信頼度と、を生成する。グループの高さと、幅との情報は、グループの高さと幅を計算するアルゴリズムを用いて生成される。グループの種別は、グループの種別を決定するアルゴリズムによって決定される。本実施形態において、
図2に示すグループ1の種別は「車両」、グループ2の種別は「歩行者」と決定される。信頼度は、生成された情報の信頼度を演算するアルゴリズムによって生成される。LiDAR情報を含む、LiDAR処理部11によって生成された情報は、それぞれが属する同期グループの数字が紐づけられている。
【0029】
図1に示すセンサ処理部12は、US距離データと、カメラCMが撮像した画像と、に基づいて、予め定められた位置を基準とする、対象物の位置の情報であるセンサ情報を生成する。本実施形態においては、センサ処理部12は、同一の同期グループに属するUS距離データと、カメラCMが撮像した画像と、に基づいて、予め定められた位置を基準とする、対象物の位置の情報であるセンサ情報を生成する。センサ処理部12は、複数の同期グループのそれぞれについて、センサ情報を生成する。
【0030】
図3に示す画像に基づいたセンサ情報の生成について説明する。まず、センサ処理部12は、US距離データに基づいて、予め定められた位置を基準とする、対象物の位置を算出する。具体的には、センサ処理部12は、US距離データに含まれる、2つの超音波センサの、それぞれの物体との距離と、2つの超音波センサUS間の距離と位置関係と、から、三辺測量原理により対象物の位置を算出する。また、センサ処理部12は、画像認識アルゴリズムを用いて、画像内の対象物を検出する。本実施形態においては、
図3に示すように二つの対象物であるOB1と、OB2が検出される。
【0031】
センサ処理部12は、アルゴリズムによって、位置を算出した対象物と、画像内で検出した対象物と、が同一の対象物であるか否かを判断する。同一であると判断した場合、センサ処理部は、位置を算出した対象物と、画像内の対象物とを一体化するアルゴリズムによって、位置を算出した対象物と、画像内において検出された対象物とを一体化する。これにより、センサ処理部12は、対象物の位置の情報であるセンサ情報を生成する。センサ情報は、予め定められた位置を基準としている。
【0032】
本実施形態において、センサ処理部12は、さらに対象物の高さと、幅と、種別の情報と、それぞれの情報の信頼度と、を生成する。対象物の高さと、幅との情報は、対象物の高さと幅を計算するアルゴリズムを用いて生成される。対象物の種別は、対象物の種別を決定するアルゴリズムによって決定される。本実施形態において、
図3のOB1に基づく対象物の種別は「車両」、
図3のOB2に基づく対象物の種別は「歩行者」と決定される。信頼度は、生成された情報の信頼度を演算するアルゴリズムによって生成される。センサ情報を含む、センサ処理部12によって生成された情報は、それぞれが属する同期グループの数字が紐づけられている。
【0033】
図1に示す情報記憶部13は、LiDAR情報と、センサ情報と、を記憶する。本実施形態において、情報記憶部13は、さらに、LiDAR処理部11が生成した、グループの高さと、幅と、種別の情報と、信頼度と、を記憶する。また、情報記憶部13は、センサ処理部12が生成した、対象物の高さと、幅と、種別の情報と、信頼度とを記憶する。本実施形態において、情報記憶部13は、同一の同期グループに属するLS点群と、US距離データと画像と、に基づいて生成されたLiDAR情報を含む情報と、センサ情報を含む情報と、を紐づけて記憶する。
【0034】
学習部14は、LiDAR情報を入力値とし、センサ情報を正解値とした、教師あり機械学習を実行した学習済みモデルである。正解値を、教師データともいう。本実施形態において、学習部14は、教師ありディープニューラルネットワーク学習を実行済みである。学習部14は、出力値が正解値であるセンサ情報に近づくように、学習している。本実施形態において、学習部14は、入力値のLiDAR情報と同一の同期グループに属する、センサ情報を正解値とした学習を実行済みである。入力値となる情報と、出力される出力値と、正解値となる情報は同一の種類の情報である。同一の種類の情報とは、例えば入力値が種別を表す情報であるとき、正解値も種別を表す情報であることをいう。
【0035】
本実施形態においては、学習部14は、作業者によって入力値と正解値とを入力されることで、学習済みである。学習部14には、同一の対象物についてのLiDAR情報とセンサ情報が入力されている。例えば、学習部14には、
図4の同期グループ1に属する、
図2のグループ1のLiDAR情報が入力値として入力され、
図3のOB1基づく対象物のセンサ情報が正解値として入力される。本実施形態において、学習部14は、同一の対象物についての、LiDAR処理部11によって生成された情報と、センサ処理部12によって生成された情報と、が入力されることで学習済みである。
【0036】
学習済みの学習部14は、仮想環境情報を入力値として、仮想の画像の物体の位置の情報である仮想センサ情報を出力する。仮想環境情報と、仮想の画像については後に説明する。なお、
図1において、理解の便を図るため、学習を行っている学習部14を破線枠で表し、学習済みの学習部14を実線枠で表している。
【0037】
仮想生成部15は、仮想の環境を表した仮想の画像を生成する。仮想の画像は、車両を基準とした、仮想の環境が表されている。ここでいう車両とは、本開示のシミュレーションシステム1によって評価される対象である、
図1に示す車両制御部VCによって制御される車両である。車両制御部VCは、車両の制御を実行する。具体的には、車両制御部VCは、後に説明する仮想センサ情報を含む、入力された情報に基づいて、車両の操舵の制御と、駆動の制御と、制動の制御と、を行う。
【0038】
仮想の画像は、車両が走行可能な道路と、駐車場と、他車両と、歩行者と、の一つ以上の物体が含まれる。仮想生成部15は、まず、物体の位置や、動きを想定したシナリオを作成する。仮想生成部15は、シナリオに基づいて、物体の三次元の形状を作成し、物体の奥行が設定された仮想の画像を生成する。本実施形態において、複数の仮想の画像が準備される。本実施形態においては、複数の仮想の画像には、
図5に示すように、駐車場への駐車が想定された画像が含まれる。駐車場への駐車が想定された仮想の画像には、複数の他車両が駐車している駐車場と、駐車場を移動する歩行者と、が含まれる。
【0039】
仮想生成部15は、車両を基準とする、仮想の画像内に存在する物体の位置の情報である仮想環境情報を生成する。仮想環境情報は、仮想生成部15が生成した物体の三次元の形状から位置の情報を生成するアルゴリズムによって生成される。本実施形態において、仮想生成部15は、さらに、仮想の画像内に存在する物体の高さと、幅と、種別と、の情報を生成する。仮想生成部15によって生成された情報は、LiDAR処理部11によって生成された情報と形式が同一である。具体的には、仮想環境情報は、車両を基準とする、直交座標で表された位置である。また、仮想の画像内に存在する物体の種別は、他車両の場合「車両」、人の場合「歩行者」等、LiDAR処理部11によって生成された情報と対応するように設定されている。仮想生成部15で生成された情報は、学習済みの学習部14に入力される。学習済みの学習部14から、上述した仮想センサ情報が出力される。
【0040】
本実施形態において、
図5に示す駐車場と、駐車場を移動する歩行者と、が含まれる画像は、仮想センサ情報に含まれる、車両を基準とした歩行者までの距離が、5cm以上かつ、10m以内の範囲内となるように構成されている。また、本実施形態において、仮想センサ情報を含む、仮想環境情報に基づいて生成された情報は、予め定められた秒速以上の風と、予め定められた数値以上の降水量と、凹凸または傾斜の少なくとも一方を有する路面と、の三つの外乱を想定して生成されている。
【0041】
図1に示すシミュレーション部16は、仮想センサ情報を含む、学習部14によって出力された情報を用いて、車両の制御のためのシミュレーションを行う。シミュレーション部16は、仮想センサ情報を含む、学習部14によって出力された情報を、車両制御部VCに入力する。そして、車両制御部VCが、入力された情報に基づいて、車両の制御のための信号を生成する。信号は、例えば車両を停止させる信号や、ステアリング装置を60°右回転させる信号等である。
【0042】
評価部17は、学習部14によって出力された情報に基づく制御のシミュレーションの結果に基づいて、車両制御部VCを評価する。制御のシミュレーションの結果とは、車両制御部VCによって生成された信号である。上述したように、本実施形態において車両制御部VCは、入力された情報に基づいて、車両の操舵の制御と、駆動の制御と、制動の制御とを行うため、評価部17は、車両の操舵の制御と、駆動の制御と、制動の制御の結果に基づいた車両制御部VCの制御を行う。
【0043】
評価部17による評価の例を説明する。前提として、評価部17には、作業者によって予め、学習部14によって出力された情報ごとに、評価基準となる信号が入力されている。評価部17は、評価基準に基づいて、信号を評価する。例えば、車両を基準として、X軸方向に1m、Y軸方向に50cm、Z軸方向に1mである、という仮想センサ情報と、物体の種別が「歩行者」である、という情報を入力された車両制御部VCが出力する制御信号が、評価基準となる信号と比較される。
【0044】
記憶装置18は、仮想環境情報と、仮想センサ情報と、車両制御部VCの制御の結果と、結果に対する評価と、を記憶する。
【0045】
A2.シミュレーション方法:
図6のステップS10において、シミュレーションシステム1に対して、複数のLS点群のデータと、複数のUS距離データと、カメラCMによって撮像された複数の画像のデータとが、作業者によって同期処理部10に入力される。ステップS20において、同期処理部10が、LS点群のデータと、US距離データと、画像のデータとを紐づける。同期処理部10は、複数の同期グループを作成する。
【0046】
ステップS30において、LiDAR処理部11が、LiDAR点群に基づいて、予め定められた位置を基準とするグループの位置の情報であるLiDAR情報を含む情報を生成する。ステップS40において、センサ処理部12が、US距離データと、画像に基づいて、予め定められた位置を基準とする対象物の位置の情報であるセンサ情報を含む情報を生成する。なお、ステップS40の処理がステップS30の処理の前に行われてもよい。
【0047】
ステップS50において、情報記憶部13が、LiDAR情報およびセンサ情報のそれぞれを、属する同期グループと紐づけて記憶する。ステップS60において、学習前の学習部14が、同一の同期グループに属する、LiDAR情報を含む情報を入力値とし、センサ情報を含む情報を正解値として、教師ありディープニューラルネットワーク学習を実行する。ステップS70において、仮想生成部15が、仮想環境情報を含む情報を生成する。なお、ステップS70の処理は、ステップS60の処理の前に実行されていてもよい。
【0048】
ステップS80において、仮想生成部15が、教師ありディープニューラルネットワーク学習を実行済みの学習部14に、仮想環境情報を含む情報を入力する。ステップS90において、シミュレーション部16が学習部14から出力された仮想センサ情報を含む情報を、シミュレーションシステム1の評価対象である車両の車両制御部VCに入力することで、車両の制御のためのシミュレーションを行う。ステップS100において、評価部17が、シミュレーションの結果に基づいて、車両制御部VCを評価する。ステップS110において、記憶装置18が、仮想センサ情報と、車両制御部VCの制御の結果と、評価を記憶する。その後、処理は終了する。
【0049】
超音波センサUSとカメラCMの少なくとも一方に基づいて生成されたセンサ情報は、レーザー光を照射するLiDARセンサLSに基づいて生成されたLiDAR情報と比較して、対象物の位置や種別等の認識の誤差や、未検出が生じやすいと考えられる。本実施形態のシミュレーションシステム1によれば、学習部14が、実際の対象物の情報と近いと考えられるLiDAR情報を入力値とし、実際の対象物の情報と認識の誤差が大きいと考えられるセンサ情報を正解値として、学習している。学習済みの学習部14に対して、仮想の環境の情報である仮想環境情報が入力されると、仮想環境情報が超音波センサUSとカメラCMの少なくとも一方に基づいて生成された物体の情報に近い情報である仮想センサ情報に変換される。つまり、人工的に生成された物体の情報を、認識の誤差や未検出が含まれる情報に変換することができる。さらに、生成した仮想センサ情報を用いて、車両の制御のためのシミュレーションを行うことができる。また、超音波センサUSとカメラCMの少なくとも一方に由来する物体の位置の情報の認識の誤差や未検出を想定した上での、車両制御部VCの評価を行うことができる。
【0050】
さらに、対象物の、予め定められた位置を基準とした高さと、幅と、対象物の種別と、の情報と、それぞれの情報の信頼度と、が生成されない態様と比較して、学習部14に入力されるLiDAR情報および、正解値としてのセンサ情報が多いため、学習量が多い学習部14を用いて、シミュレーションが実行される。また、仮想センサ情報と、制御の結果と、評価と、の一つ以上が記憶されることで、シミュレーションの結果を蓄積することができる。
【0051】
多数の車両が移動する駐車場においては、歩行者の動きが見えにくい状況が考えられる。本実施形態のシミュレーションシステム1によれば、歩行者が車両から30cm以上かつ1m以内という近接した範囲に存在する状況において、歩行者の位置の誤検出、または歩行者の未検出を想定した上で、車両の制御の実験を実行することができる。また、外乱が想定されない態様と比較して、センサ情報に誤差や未入力が含まれる可能性が高くなるため、そのような状況でのシミュレーションが可能となる。
【0052】
B.他の実施形態:
B1.他の実施形態1:
(1)上記実施形態において、センサ処理部12は、超音波が対象物において反射した反射波と、画像と、の両方に基づいて、センサ情報を生成している。なお、センサ処理部は、超音波が対象物において反射した反射波と画像の少なくとも一方に基づいて、センサ情報を生成すればよい。例えばセンサ処理部は、超音波が対象物において反射した反射波のみに基づいてセンサ情報を生成してもよい。この態様において、同期処理部は、LS点群のデータと、そのLS点群が生成された時刻と最も近い時刻に生成されたUS距離データと、を紐づける。また、センサ処理部は、画像のみに基づいてセンサ情報を生成してもよい。この態様において、同期処理部は、LS点群のデータと、そのLS点群が生成された時刻と最も近い時刻に生成された画像のデータと、を紐づける。
【0053】
超音波が対象物において反射した反射波と、画像の少なくとも一方に基づいてセンサ情報を生成するとは、US距離データと画像のいずれか一方が生成されず、他方に基づいてセンサ情報を生成する場合を含む。例えば、同期グループに属するUS距離データと画像において、US距離データが、画像内において検出された対象物を含んでいない態様において、センサ処理部は、画像のみに基づいて、センサ情報を生成する。カメラが撮像した画像が、US距離データに含まれる対象物を含まない態様において、センサ処理部は、超音波点群のみに基づいて、センサ情報を生成する。
【0054】
例えば、LiDARセンサが搭載される移動体にカメラが搭載されていなくてもよい。この態様において、センサ処理部が、LiDARセンサの検出範囲の少なくとも一部と、検出範囲の少なくとも一部が重複するように超音波を発振する超音波センサから発振された超音波が対象物において反射した反射波に基づいて、センサ情報を生成する。また、例えばLiDARセンサが搭載される移動体に超音波センサが搭載されていない態様において、センサ処理部は、LiDARセンサの検出範囲の少なくとも一部と検出範囲の少なくとも一部が重複する範囲で撮像するカメラが対象物を含む範囲を撮像した画像に基づいて、センサ情報を生成する。
【0055】
(2)上記実施形態において、複数のLS点群のそれぞれは、生成された時刻が紐づけられ、複数のUS距離データのそれぞれは、生成された時刻が紐づけられる。なお、例えば複数のLS点群のそれぞれは、反射光をLiDARセンサが受信した時刻が紐づけられてもよく、複数のUS距離データのそれぞれは、反射波を超音波センサが受信した時刻が紐づけられてもよい。
【0056】
(3)上記実施形態において、LiDARセンサLSと、超音波センサUSと、カメラCMとが、移動体である車両に搭載されているシミュレーション環境である。なお、例えばLiDARセンサと、超音波センサと、カメラとは、例えばバイクや軽車両等、車両以外の移動体に搭載されてもよい。また、例えばLiDARセンサと、超音波センサと、カメラとは、歩道に設置されてもよい。
【0057】
(4)上記実施形態において、移動体である車両に搭載されるLiDARセンサLSとカメラCMはそれぞれ一つずつであり、超音波センサUSは2つであるシミュレーション環境である。なお、例えば、LiDARセンサと超音波センサとカメラが、それぞれ複数、車両に搭載されてもよい。例えば車両の前後のそれぞれに、一つずつのLiDARセンサが搭載され、車両の前後左右のそれぞれに、2つずつの超音波センサが搭載され、車両の前後のそれぞれに、一つずつのカメラが搭載されてもよい。この態様において、2つの超音波センサは、少なくとも一つのLiDARセンサの検出範囲の少なくとも一部と、検出範囲の少なくとも一部が重複するように超音波を発振し、カメラは、少なくとも一つのLiDARセンサの検出範囲の少なくとも一部と、検出範囲の少なくとも一部が重複する範囲で撮像する。同期処理部によって、全てのLiDARセンサによって生成されたLiDAR点群のデータと、全ての超音波センサによって生成された超音波点群のデータと、全てのカメラによって撮像された画像のデータとのうち、生成または撮像された時刻が近いデータ同士が紐づけられてもよい。
【0058】
(5)例えば複数のLiDARセンサと複数の超音波センサと複数のカメラによって、LiDAR情報とセンサ情報とが生成されるシミュレーション環境において、近い位置に配置されているLiDARセンサと超音波センサとカメラの、それぞれのデータ同士が紐づけられてもよい。例えば、車両の前側に配置されているLiDARセンサと超音波センサとカメラの、それぞれのデータ同士が紐づけられ、車両の後ろ側に配置されているLiDARセンサと超音波センサとカメラの、それぞれのデータ同士が紐づけられる。
【0059】
(6)上記実施形態において、予め定められた位置は、車両の後輪のうち、一方の後輪軸の中心である。なお、例えば予め定められた位置はLIDARセンサや超音波センサやカメラの位置でもよく、LiDARセンサ等が搭載される移動体の、任意の位置でもよい。予め定められた位置を基準としてLiDAR情報とセンサ情報とが生成される。
【0060】
(7)上記実施形態において、LIDARセンサと、超音波センサと、カメラとは、全て同一の対象物を検出している。なお、例えばLS点群に基づいて、他車両のグループと、歩行者のグループと、レンガ造りの建物のグループとが生成される態様において、US距離データに基づいて建物のグループが生成されず、画像に基づいて検出された物体に、建物が含まれていなくてもよい。この態様において、学習部は、建物についての、位置や種別等の情報が入力値として入力され、正解値のセンサ情報として、「無し」が入力されてもよい。一般に、超音波はレーザー光と比較して、反射しない物質が多いことが知られている。例えばカメラが対象物を撮像せず、超音波センサを検出できなかった場合に、学習部が、正解値を「無し」として学習している。仮想環境情報を入力された際に、学習部が仮想センサ情報を無しとして出力することで、対象物の未検出を想定したシミュレーションが可能となる。
【0061】
(8)上記実施形態において、超音波センサUSは、LiDARセンサLSの検出範囲と、検出範囲が重複するように、超音波を発振する。なお、超音波センサは、LiDARセンサの検出範囲の一部と、検出範囲の一部が重複するように、超音波を発振してもよい。また、上記実施形態において、カメラCMは、LiDARセンサLSの検出範囲と検出範囲が重複するように撮像し、さらに、超音波センサUSの検出範囲と、検出範囲が重複するように、撮像する。なお、カメラは、LiDARセンサの検出範囲の一部と超音波センサの検出範囲の一部と検出範囲の一部が重複するように、対象物を撮像してもよい。カメラは、LiDARセンサの検出範囲と、検出範囲の全てが重複するように、超音波を発振し、超音波センサUSの検出範囲の一部と検出範囲の一部が重複するように、対象物を撮像してもよい。カメラは、LiDARセンサの検出範囲と、検出範囲の一部が重複し、超音波センサの検出範囲と検出範囲の全てが重複するように構成されていてもよい。
【0062】
(9)上記実施形態において、LiDAR情報およびセンサ情報は、予め定められた位置を基準とした直交座標によって表されている。なお、点の位置は、予め定められた位置を基準とした、極座標によって表されてもよい。
【0063】
(10)上記実施形態において、LiDAR情報は、代表点の位置の情報である。例えば、LiDAR情報は、グループを構成する点のうち、予め定められた位置との距離が最も小さい点の情報であってもよい。
【0064】
(11)例えば画像のみによってセンサ情報が生成される態様において、センサ処理部は、検出した物体の位置を推定するアルゴリズムを用いて、画像内の物体の位置の情報を生成してもよい。
【0065】
(12)上記実施形態において、学習部14は、作業者によって入力値と正解値とを入力されることで、学習済みである。なお、例えば学習部は、情報記憶部に記憶された、同一の同期グループに属するLiDAR情報とセンサ情報の、同一の種類の情報を情報記憶部から読み取った入力部によって情報を入力されることで、学習済みであってもよい。より詳細には、入力部が、同一の同期グループに属する、LS点群に基づく複数のグループと、US距離データおよび画像に基づく複数の対象物と、のうち、最も相関があるグループと対象物とを選出して、そのグループのLiDAR情報を入力値とし、対象物のセンサ情報を正解値とする。
【0066】
(13)上記実施形態において、仮想の画像は、複数の他車両が駐車している駐車場と、駐車場を移動する歩行者と、を含み、仮想生成部15によって生成された仮想センサ情報に含まれる、車両を基準とした歩行者までの距離が、5cm以上かつ、10m以内の範囲内となるように構成されている。なお、仮想の画像は、複数の他車両が駐車している駐車場と、駐車場を移動する歩行者と、を含まない画像であってもよい。例えば仮想の画像は、複数の他車両が駐車している駐車場を含み、歩行者を含まない画像であってもよく、横断歩道を歩行する歩行者を含む画像であってもよい。また、例えば仮想生成部によって生成された仮想センサ情報に含まれる、車両を基準とした歩行者までの距離が、10m以上となるように構成されていてもよい。
【0067】
(14)車両制御部によって制御される車両は、車両の操舵の制御と、駆動の制御と、制動の制御等をための信号を生成する、コンピュータのプログラムであってもよい。
【0068】
(15)上記実施形態において、
図6のステップS80において、仮想生成部15が、教師ありディープニューラルネットワーク学習を学習済みの学習部14に、仮想環境情報を入力する。なお、例えば作業者によって、教師ありディープニューラルネットワーク学習を学習済みの学習部14に、仮想環境情報が入力されてもよい。
【0069】
B2.他の実施形態2:
上記実施形態において、教師あり機械学習は、教師ありディープニューラルネットワーク学習である。例えば、教師あり機械学習は、教師あり畳み込みニューラルネットワーク学習や、教師あり回帰型ニューラルネットワーク学習等、教師ありディープニューラルネットワーク学習以外であってもよい。
【0070】
B3.他の実施形態3:
(1)上記実施形態において、評価部17は、車両制御部VCの、仮想センサ情報に基づく制御のシミュレーションの結果に基づいて、車両制御部VCを評価する。なお、例えばシミュレーションの結果に基づいて、作業者が車両制御部を評価する態様において、シミュレーションシステムが評価部を備えなくてもよい。
【0071】
(2)評価部によって、点数による評価が行われてもよい。例えば、車両制御部が信号を生成するまでに必要とした時間に応じて、点数による評価が行われてもよい。また、評価部による評価は、点数による評価のみであってもよい。
【0072】
B4.他の実施形態4:
上記実施形態において、評価部17は、車両制御部VCの、車両の操舵の制御と、駆動の制御と、制動の制御と、の結果に基づいて、車両制御部VCを評価する。なお、評価部は、車両の操舵の制御と、駆動の制御と、制動の制御と、の一つまたは二つの結果に基づいて、車両制御部を評価してもよい。
【0073】
B5.他の実施形態5:
(1)上記実施形態において、LiDAR処理部11およびセンサ処理部12は、対象物の、高さと、幅と、種別と、の情報と、それぞれの情報の信頼度と、を生成する。LiDAR処理部およびセンサ処理部は、対象物の高さと、幅と、種別と、の情報と、それぞれの情報の信頼度のうち、一つ以上を生成してもよい。LiDAR処理部およびセンサ処理部は、さらに、対象物の奥行きや、速さや、移動の向きの情報を生成してもよい。
【0074】
(2)例えば、LiDAR処理部およびセンサ処理部は、対象物の、高さと、幅と、種別と、の情報と、それぞれの情報の信頼度と、を生成しなくてもよい。
【0075】
B6.他の実施形態6:
(1)上記実施形態において、記憶装置18が、仮想センサ情報と、車両制御部VCの制御の結果と、評価と、を記憶する。記憶装置は、仮想センサ情報と、前記車両制御部の制御の結果と、前記評価と、のうち、一つを記憶してもよく、二つを記憶してもよい。
【0076】
(2)例えば、シミュレーションシステムは、記憶装置を備えなくても良い。この態様において、作業者によって、外部のメモリに、仮想センサ情報と、車両制御部の制御の結果と、評価と、の一つ以上が記憶されてもよい。
【0077】
B7.他の実施形態7:
上記実施形態において、仮想センサ情報は、予め定められた秒速以上の風と、予め定められた数値以上の降水量と、凹凸または傾斜の少なくとも一方を有する路面と、の外乱を想定して生成されている。仮想センサ情報は、仮想センサ情報は、予め定められた秒速以上の風と、予め定められた数値以上の降水量と、凹凸または傾斜の少なくとも一方を有する路面と、のうち一つまたは二つの外乱を想定して生成されていてもよい。また、仮想センサ情報は、外乱が想定されなくてもよい。
【0078】
B8.他の実施形態8:
上記実施形態においては、シミュレーションシステムが車両の制御のためのシミュレーションを実行していたが、コンピュータに記憶された情報生成プログラムによって、シミュレーションが実行されてもよい。この情報生成プログラムは、コンピュータに、LiDARセンサが照射したレーザー光が対象物において反射されて生じた反射光から生成された点群に基づいて、予め定められた位置を基準とする対象物の位置の情報であるLiDAR情報を生成するLiDAR処理部と、超音波センサから発振された超音波が対象物において反射した反射波と、カメラが対象物を含む範囲を撮像した画像と、の少なくとも一方に基づいて、予め定められた位置を基準とする、対象物の位置の情報であるセンサ情報を生成するセンサ処理部と、LiDAR情報を入力値とし、センサ情報を正解値とする、教師あり機械学習を実行する学習部と、車両を基準とする、仮想の画像内に存在する物体の位置の情報である仮想環境情報を生成する仮想生成部と、仮想環境情報を入力値として学習部から出力された物体の位置の情報である仮想センサ情報を用いて、車両の制御のためのシミュレーションを行うシミュレーション部として機能させる。
【0079】
本開示は、上述の実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
【符号の説明】
【0080】
1…シミュレーションシステム、11…LiDAR処理部、12…センサ処理部、14…学習部、15…仮想生成部、16…シミュレーション部、CM…カメラ、LS…LiDARセンサ、US…超音波センサ