【文献】
松本吉央,外3名,仮想環境を用いた視覚移動ロボットのシミュレーションの提案と画像の記憶に基づく走行手法への適用,日本ロボット学会誌 第20巻 第5号,日本,社団法人日本ロボット学会,2002年,第20巻,pp.35-43
(58)【調査した分野】(Int.Cl.,DB名)
前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することを特徴とする請求項1又は2に記載のシミュレーションシステム。
前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることを特徴とする請求項1又は2に記載のシミュレーションシステム。
前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成して前記シミュレーション用画像を生成する手段を備えていることを特徴とする請求項1又は2に記載のシミュレーションシステム。
前記実画像を取得するセンサー手段として少なくとも1つのLiDARセンサーが含まれる場合、前記教師データには、人物、車両、信号機、路上障害物などの対象物ごとに、複数個設定した反射率の値を検出対象として設定することを特徴とする請求項8に記載のシミュレーションシステム。
前記実画像を取得するセンサー手段は、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることを特徴とする請求項1又は2に記載のシミュレーションシステム。
前記センサー手段に少なくとも1つのLiDARセンサーが含まれる場合に、前記画像認識手段は、人物、車両、信号機、路上障害物などの対象物ごとに複数個設定した反射率の値を検出対象とすることを特徴とする請求項2に記載のシミュレーションシステム。
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、実際に車両を無限に走行させてテストデータを採取することは事実上不可能であり、如何にして実際に代用可能なレベルのリアリティ性をもって上記のテストを行うことができるかが重要な課題となる。
【0007】
例えば、カメラ画像の画像認識技術で外部環境を認識する場合、自車両周辺の天候(雨天、霧など)や時間帯(夜間、薄暗、逆光など)等の外部要因によって、認識率が大幅に変わってしまい検出結果に影響を与える。その結果、自車両周辺の移動体、障害物、道路上のペイントの検知に関して、画像認識手段による誤検知や未検知が増加する。このような画像認識手段による誤検知や未検知は、最も認識率の高いディープラーニング(機械学習)の技術を用いれば、学習のサンプル数を増加させることで解決することができる。
【0008】
ところが、実際に道路を走行中に学習のサンプルを抽出することには限界があり、雨天や逆光、霧などの過酷な天候条件が満たされるのを待って車両の走行テストやサンプル収集を行うことは、その条件の再現が困難である上、機会の到来も希有であることから、開発手法として現実的でない。
【0009】
一方、将来的な完全自動運転の実現のためには、上記のカメラ画像の画像認識だけでは不十分と言える。なぜならばカメラ画像は2次元画像であり、車両や歩行者、信号機などは画像認識によって対象物を抽出することは可能であるが、3次元の立体形状を得ることはできない。従ってこれらの要求に対応するものとしてLiDARというレーザー光を用いたセンサーや、ミリ波帯の電波を使ったセンサーも有望視されている。したがって、上記の複数の異なる種類のセンサーを組み合わせることで、自動車の走行時の安全性を大幅に向上させることができる。
【0010】
そこで、本発明は、上記のような問題を解決するものであり、自車両周辺の他車両、路上の障害物、歩行者などの対象物に対する認識率の向上に関し、過酷な天候条件など、その再現が困難な条件下における実写の画像に極めて類似した画像を人工的に生成することによって、車両の走行テストやサンプル収集のリアリティ性を向上させるとともに、複数個の異なる種類のセンサーを仮想環境で構築して、各々の映像をCGの技術を用いて生成し、このCG画像を用いた同期制御のシミュレーションシステム、シミュレーションプログラム及びシミュレーション方法を提供することを目的とする。
【課題を解決するための手段】
【0011】
上記課題を解決するために、本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーターシステムであって、
前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける上記認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備える。
【0012】
また、本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレータープログラムであって、コンピューターを、
前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける上記認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段として
機能させる。
【0013】
さらに、本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーター方法であって、
位置情報取得手段によって、前記車両の位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップによって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を、画像生成手段が生成する画像生成ステップと、
前記画像生成ステップによって生成されたシミュレーション用画像の中から特定の対象物を、画像認識手段が前記認識機能モジュールを用いて認識し、検出する画像認識ステップと、
前記画像認識ステップおける上記認識結果を用いて、位置情報計算手段が、前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算ステップと、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを、同期制御手段が同期制御する同期制御ステップと
を備えたことを特徴とする。
【0014】
上記発明において前記同期制御手段は、
前記位置情報を特定のフォーマットにパケット化して送出する手段と、
パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
上記パケット化データを受信してデ・パケット化する手段と、
上記デ・パケット化されたデータを入力して画像を生成する手段と
を備えることが好ましい。
【0015】
上記発明において、前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することができる。
上記発明において、前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれる。
上記発明において前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成することが好ましい。
【0016】
上記発明において、前記車両は複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行することが好ましい。
【0017】
上記発明において、前記画像認識手段は、ニューラルネットを多段に構成したディープラーニング認識手段であることが好ましい。
上記発明において、前記画像認識手段は、前記画像生成手段が生成した前記シミュレーション用画像について、認識対象となる画像中の特定物に応じた領域分割を行うセグメンテーション部と、
前記セグメンテーション部によって領域分割された画像に基づく学習用の教師データを作成する教師データ作成手段と
をさらに備えることが好ましい。
【0018】
上記発明において前記教師データには、前記センサーに少なくとも1つのLiDARセンサーが含まれる場合には、人物、車両、信号機、路上障害物などの対象物ごとに、複数個設定した反射率の値を検出対象として設定することが好ましい。
【0019】
上記発明において、前記画像生成手段は、センサー手段ごとに異なる画像を生成する手段を備えていることが好ましい。
上記発明において、前記請求項10記載のセンサー手段は、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることが好ましい。
【0020】
上記発明において前記画像生成手段は、複数個のセンサーに対応した3Dグラフィックス画像を生成し、
前記画像認識手段は、前記3Dグラフィックス画像がそれぞれ入力されてディープラーニング認識を行い、各ディープラーニング認識結果を前記センサーごとに出力し、
前記同期制御手段は、前記センサーごとのディープラーニング認識結果に基づいて前記同期制御を行う
ことが好ましい。
【0021】
上記発明において前記画像認識手段は、前記センサーに少なくとも1つのLiDARセンサーが含まれる場合には、人物、車両、信号機、路上障害物などの対象物ごとに複数個設定した反射率の値を検出対象とすることが好ましい。
【発明の効果】
【0022】
以上述べたように、これらの発明によれば、ディープラーニング(機械学習)等の認識機能モジュールの学習に際し、CGなどの実写の画像に極めて類似した画像を人工的に生成することによって学習のサンプル数を増加させることができ、学習の効率を高めて認識率を向上させることができる。詳述すると、本発明では、車両の位置情報変位を、シミュレーションモデルを基にして、実写の画像に極めて類似した、リアリティ性の高いCG映像を生成及び合成する手段を用いており、実際には存在しない環境や光源などを付加した映像を、人工的に無限に生成することができるようになる。この生成したCG画像を認識機能モジュールに対して、従来のカメラ画像と同様に入力し、カメラ画像に対する処理を同様に行わせ、対象とするオブジェクトが認識・抽出できるかをテストすることができるので、これまで取得・撮影が困難・不可能であった種類の映像での学習ができる上、さらに学習効率を高めて認識率を向上させる効果がある。
【0023】
また、2次元画像の取得ができるイメージセンサーの他に、物体の立体形状の情報が抽出できるLiDAR(レーザー光)やミリ波帯の電波など、異なる種類のセンサーを併用し、これらのセンサーに応じた画像を生成することで、さらに広範囲なテストが可能になるのみならず、認識技術のブラッシュアップも同時に実現することが可能になるという、相乗効果が見込める。
【0024】
なお、本発明の応用分野としては、自動車の自動走行運転のための実験装置、シミュレーター、及びそれに関連したソフトウェアモジュール、ハードウェアデバイス(例えば車両搭載のカメラ、イメージセンサー、車両の周囲の3次元形状を測定するためのレーザー)、ディープラーニング等の機械学習ソフトウェア、非常に広範囲に及ぶ。また、本発明によれば、実写画像をリアルに実現するCG技術と同期制御の融合技術を備えているので、自動車の自動走行運転以外の分野でも幅広く応用することができる。例えば外科手術のシミュレーター、軍事シミュレーター、ロボットやドローンなどの安全走行テスト等が利用分野として有望である。
【発明を実施するための形態】
【0026】
[第1実施形態]
(車両同期シミュレーターシステムの全体構成)
以下に添付図面を参照して、本発明に係る車両同期シミュレーターシステムの実施形態を詳細に説明する。本実施形態では、本発明のシミュレーターシステムを、自動車の自動運転走行システムにおける画像認識機能モジュールの機械学習及びテストに適用した場合を例示する。ここで、自動運転システムとは、事故などの可能性を事前に検知し回避するADAS(先進運転システム:advanced driver assistance system)等のシステムであり、自動車の自動運転走行を実現するため、実際に車両に搭載したカメラ等のセンサー手段により取得された映像(実画像)を、画像認識技術を用いて認識して、他の車両や歩行者、信号機などのオブジェクトを検出し、自動で速度低下、回避などの制御を行う。
【0027】
図1は、本実施形態に係るシミュレーターシステムの全体構成を示す概念図である。本実施形態に係るシミュレーターシステムは、単数又は複数のシミュレーション対象について、シミュレーションプログラムを実行するとともに、これらのシミュレータープログラムのテストや機械学習を実行する。このシミュレーターシステムは、
図1に示すように、通信ネットワーク3上にシミュレーターサーバー2が配置され、このシミュレーターサーバー2に対して、通信ネットワーク3を通じて、自車両の位置を生成又は取得する情報処理端末1aや車載装置1bが接続されている。
【0028】
ここで、通信ネットワーク3は、通信プロトコルTCP/IPを用いたIP網であって、種々の通信回線(電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワーク)を相互に接続して構築される分散型の通信ネットワークである。このIP網には、10BASE−Tや100BASE−TX等によるイントラネット(企業内ネットワーク)や家庭内ネットワークなどのLANなども含まれる。また、上記情報処理端末1aとしてのPCの中にシミュレーターのソフトウェアがインストールされているケースも多々ある。この場合には、PC単体でのシミュレーションを行うことができる。
【0029】
シミュレーターサーバー2は、単数又は複数のサーバー装置群により構成され、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。このシミュレーターサーバー2には、サーバー用のアプリケーションソフトウェアを実行するサーバーコンピューター、若しくはそのようなコンピューター上でのアプリケーションの実行を管理補助するミドルウェアで構成されたアプリケーションサーバーが含まれる。
【0030】
また、シミュレーターサーバー2には、クライアント装置から、HTTPのレスポンス要求を処理するウェブサーバーが含まれ、このウェブサーバーは、バックエンドの関係データベース管理システム(RDBMS)を実行するデータベース中核層への橋渡しを担い、データの加工などの処理を行う。関係データベースサーバーは、データベース管理システム(DBMS)が稼動しているサーバーであり、クライアント装置やアプリケーションサーバー(APサーバー)に要求されたデータを送信したり、操作要求を受け付けてデータを書き換えたり削除したりする機能を有する。
【0031】
情報処理端末1a及び車載装置1bは、通信ネットワーク3に接続されたクライアント装置であり、CPU等の演算処理装置を備え、専用のクライアントプログラム5を実行することによって種々の機能を提供する。この情報処理端末としては、例えば、パーソナルコンピュータ等の汎用コンピューターや機能を特化させた専用装置により実現することができ、スマートフォンやモバイルコンピューター、PDA(Personal Digital Assistance )、携帯電話機、ウェアラブル端末装置等が含まれる。
【0032】
この情報処理端末1a又は車載装置1bは、専用のクライアントプログラム5を通じて上記シミュレーターサーバー2にアクセスしてデータの送受信が可能となっている。このクライアントプログラム5は、その一部又は全部が、ドライビングシミュレーションシステムや、車載された自動運転走行システムに組み込まれ、車両に搭載したカメラ等の各種センサーが撮影・検出した映像等の実画像、或いは取り込まれた風景映像(本実施形態ではCG動画が含まれる。)等を、画像認識技術を用いて認識して、映像中の他の車両や歩行者、信号機などのオブジェクトを検出し、その認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。なお、本実施形態に係るクライアントプログラム5は、画像認識の機能をシミュレーターサーバー2で行わせ、車両位置情報計算部51の自動運転の仕組みによって、シミュレーターサーバー2における認識結果に応じて自動車を仮想的に地図上で走行させたり、実際に車両を走行させたりして、自車両の位置情報を変位させるように位置情報を計算し、又は取得する。
【0033】
(各装置の構成)
次いで、各装置の構成について具体的に説明する。
図2は、本実施形態に係るクライアント装置の内部構成を示すブロック図であり、
図3は、本実施形態に係るシミュレーターサーバーの内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
【0034】
(1)クライアント装置の構成
情報処理端末1aは、パーソナルコンピュータ等の汎用的なコンピューターや専用の装置で実現することができ、一方、車載装置1bは、パーソナルコンピュータ等の汎用コンピューターの他、車載される自動運転走行システムなどの専用装置(カーナビゲーションシステムと捉えることもできる)とすることができ、
図2に示すように、具体的には、CPU102と、メモリ103と、入力インターフェース104と、ストレージ装置101と、出力インターフェース105と、通信インターフェース106とを備えている。なお、本実施形態では、これらの各デバイスは、CPUバスを介して接続されており、相互にデータの受渡しが可能となっている。
【0035】
メモリ103及びストレージ装置101は、データを記録媒体に蓄積するとともに、これら蓄積されたデータを各デバイスの要求に応じて読み出す装置であり、例えば、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)、メモリカード等により構成することができる。入力インターフェース104は、キーボードやポインティングデバイス、タッチパネルやボタン等の操作デバイスから操作信号を受信するモジュールであり、受信された操作信号はCPU402に伝えられ、OSや各アプリケーションに対する操作を行うことができる。出力インターフェース105は、ディスプレイやスピーカー等の出力デバイスから映像や音声を出力するために映像信号や音声信号を送出するモジュールである。
【0036】
特に、クライアント装置が車載装置1bである場合、この入力インターフェース104には、自動運転システムのための上記ADAS等のシステムが接続され、自動車の自動運転走行を実現するため、車両に搭載したカメラ等のイメージセンサー104aの他、LiDARセンサー、ミリ波センサー、赤外線センサー等が、実画像を取得する各種センサー手段が接続される。
【0037】
通信インターフェース106は、他の通信機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。
【0038】
CPU102は、各部を制御する際に必要な種々の演算処理を行う装置であり、各種プログラムを実行することにより、CPU102上に仮想的に各種モジュールを構築する。このCPU102上では、OS(Operating System)が起動・実行されており、このOSによって情報処理端末1a〜cの基本的な機能が管理・制御されている。また、このOS上では種々のアプリケーションが実行可能になっており、CPU102でOSプログラムが実行されることによって、情報処理端末の基本的な機能が管理・制御されるとともに、CPU102でアプリケーションプログラムが実行されることによって、種々の機能モジュールがCPU上に仮想的に構築される。
【0039】
本実施形態では、CPU102上でクライアントプログラム5を実行することによって、クライアント側実行部102aが構成され、このクライアント側実行部102aを通じて、仮想地図上又は実際の地図上における自車両の位置情報を生成又は取得し、シミュレーターサーバー2に送信するとともに、シミュレーターサーバー2側における風景映像(本実施形態ではCG動画が含まれる)の認識結果を受信して、受信した認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。
【0040】
(2)シミュレーターサーバーの構成
本実施形態に係るシミュレーターサーバー2は、通信ネットワーク3を通じて車両同期シミュレーターサービスを提供するサーバー装置群であり、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。具体的にシミュレーターサーバー2は、
図3に示すように、通信インターフェース201と、UDP同期制御部202と、シミュレーション実行部205と、UDP情報送受信部206と、各種データベース210〜213とを備えている。
【0041】
通信インターフェース201は、通信ネットワーク3を通じて、他の機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。
【0042】
UDP同期制御部202は、クライアント装置1側における自車両を変位させる位置情報の計算処理と、シミュレーターサーバー2側における画像生成処理及び画像認識処理とを同期制御するモジュールである。クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する。
【0043】
UDP情報送受信部206は、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信するモジュールであり、本実施形態では、クライアント装置1側で計算され又は取得された位置情報を特定のフォーマットにパケット化してシミュレーターサーバー2側に送出するとともに、このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側でパケット化データを受信してデ・パケット化し、上記デ・パケット化されたデータを画像生成部203に入力して画像を生成する。また、本実施形態においてUDP情報送受信部206は、UDP同期制御部202によって各装置間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信する。
【0044】
上記各種データベースとしては、地図データベース210と、車両データベース211と、描画用データベース212とを備えている。なお、これらのデータベースは、関係データベース管理システム(RDBMS)により、相互に情報の参照が可能となっている。
【0045】
シミュレーション実行部205は、クライアント装置1側の位置情報取得手段によって生成又は取得され、シミュレーターサーバー2側へ送信された位置情報に基づいて、位置情報で特定された領域を再現したシミュレーション用画像を生成し、その生成されたシミュレーション用画像の中から特定の対象物を、認識機能モジュールを用いて認識し、検出するモジュールである。具体的には、画像生成部203と、画像認識部204とを備えている。
【0046】
画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成するモジュールである。この画像生成部203で生成されたシミュレーション用画像は、画像認識部204に送出される。
【0047】
画像認識部204は、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物を、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識し検出するモジュールである。この画像認識部204による認識結果情報D06は、クライアント装置1側の車両位置情報計算部51に送信される。画像認識部204には、学習部204bが設けられており、認識機能モジュール204aの機械学習を実行するようになっている。この認識機能モジュール204aは、カメラ装置等のセンサー手段により撮影された実画像、又は画像生成部203で生成されたCGを取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンによりオブジェクトを認識するモジュールであり、学習部204bは、この認識機能モジュール204aに対して、上記カメラ装置による撮影画像又は仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。
【0048】
(車両同期シミュレーターシステムの方法)
以上の構成を有する車両同期シミュレーターシステムを動作させることによって、本発明の車両同期シミュレーション方法を実施することができる。
図4は、本実施形態における画像生成・画像認識に係る構成及び動作を示すブロック図である。
図5は、本実施形態における同期シミュレーターの処理手順を示したフローチャート図である。
【0049】
先ず、車両位置情報計算部51で自車の車両位置情報D02の取得を行う(S101)。具体的にはクライアント装置1側でクライアントプログラム5を実行することによって、地図情報や車両初期データ等の各種データ群D01を車両位置情報計算部51に入力する。次いで、これらの各種データ群D01を用いて仮想地図上又は実際の地図上における自車両の位置情報を計算(生成)又は取得し、その結果を車両位置情報D02として、UDP同期制御部202及びUDP情報送受信部206を通じて、シミュレーターサーバー2側のシミュレーション実行部205に送信する(S102)。
【0050】
詳述すると、車両位置情報計算部51では、先ず自車の車両位置情報D02を、UDP同期制御部202からの制御信号D03のタイミングに従って、UDP同期制御部202に対して送出する。車両位置情報計算部51の初期データで、例えば地図データや地図中の自車の位置情報や車体の車輪の回転角,口径などの情報は、所定のストレージ装置101からロードすることができる。UDP同期制御部202及びUDP情報送受信部206では、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信する。具体的にUDP同期制御部202及びUDP情報送受信部206は、クライアント装置1側で計算され又は取得された車両位置情報D02は、車両情報を含む各種データ群を、特定のフォーマットにパケット化されたパケット情報D04としてシミュレーターサーバー2側に送出される。
【0051】
このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側でパケット化データを受信してデ・パケット化され(S103)、上記デ・パケット化されたデータD05をシミュレーション実行部205の画像生成部203に入力してCG画像が生成される。このとき、UDP情報送受信部206は、UDP同期制御部202によって各装置間において、車両情報を含む各種データ群をパケット化したパケット情報D04はUDP(User Datagram Protocol)を用いて送受信される。
【0052】
詳述すると、UDP同期制御部202では、自車の車両位置情報D02をUDPパケッタイズすることで種データ群をパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。ここでUDP(User Datagram Protocol)について少し述べる。一般にTCPが高信頼性、コネクション型、ウィンドウ制御、再送制御、輻輳制御を行うのに対して、UDPはコネクションレス型プロトコルで信頼性を確保する仕組みがない一方で、処理が簡易なため低遅延という大きな利点がある。本実施形態では各構成部の間をデータ伝送する際に低遅延が要求されるので、TCPではなくUDPを採用している。またさらに現在の音声通信や動画通信において最も普及しているRTP(Realtime Transport Protocol)を用いてもよい。
【0053】
ここで、次に自車の車両位置情報D02の具体的な内容としては、例えば
・自車の位置情報(路面絶対位置座標の3次元座標(X,Y,Z)等)
・自車のオイラー角度
・タイヤの位置情報(路面絶対位置座標の3次元座標(X,Y,Z)等)
・車輪回転角
・ハンドル、ブレーキの踏みしろ
等の情報が挙げられる。
【0054】
車両位置情報D02を受信したUDP情報送受信部206では、車両の情報、例えば車両の位置情報であるXYZ座標、タイヤの位置情報であるXYZ座標、オイラー角度等の各種情報の中から、主に車両のCG画像を生成するのに必要なデータD05を送出する。
【0055】
そして、各種データ群をUDPパケットとしたパケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05は、シミュレーション実行部205の画像生成部203に入力される(S104)。
【0056】
シミュレーション実行部205において、画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を、データD05として取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成する(S105)。この画像生成部203で生成されたクライアント装置1としての3Dグラフィックス合成画像は画像認識部204に送出される。
【0057】
画像生成部203では、所定の画像生成法として、例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06は再度車両位置情報計算部51に入力されて、例えば自車両の次の動作を決定するための車両の位置情報を計算するのに用いられる。
【0058】
画像生成部203では、例えばPBR手法を用いたCG技法によって、車両のみならず周囲画像、例えば路面、建物、信号機、他の車両、歩行者といったオブジェクトを生成することができる。これはPlayStationなどのゲーム機によるタイトルで、上記のようなオブジェクトが非常にリアルに生成されていることからも、最新のCG技術で十分実現可能なことが分かる。自車両以外のオブジェクトの画像については既に初期データとして保持しているものを用いることが多い。特に自動走行運転のシミュレーターでは、数多くの高速道路、一般道などのサンプルデータを大量にデータベース化しており、それらのデータを適宜使えばよい。
【0059】
続いて、画像認識部204では、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物をオブジェクトとして、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識して抽出する(S106)。ここで、認識されたオブジェクトがなければ(ステップS107における「N」)、次のタイムフレームに移行して(S109)、タイムフレームがなくなるまで(ステップS109における「N」)、上記処理S101〜S107を繰り返す((ステップS109における「Y」))。
【0060】
他方、ステップS107において、認識されたオブジェクトが存在する場合には(ステップS107における「Y」)、この画像認識部204による認識結果は認識結果情報D06としてクライアント装置1側の車両位置情報計算部51に送信される。そして、クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果情報D06を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する(S108)。
【0061】
詳述すると、ここで生成されたシミュレーション用画像D61としてのCG画像は、通常、センサー手段により取得される実画像に替えて、画像認識部204に入力され、既に述べたようにオブジェクトの認識・検出を、例えばディープラーニング等の認識技術を用いて行う。得られた認識結果は他車両や、歩行者、標識、信号機のように画面中の領域情報(例えば抽出された矩形領域のXY2次元座標)で与えられる。
【0062】
自動走行運転のためのシミュレーターを実行する場合、実際の車両走行中の画像中には、他車両、歩行者、建物、路面などの数多くのオブジェクト(対象物)が存在する。自動走行運転の実現のためには、それらのオブジェクトを車両搭載のカメラ映像やミリ波、レーダ波等、各種センサーからのリアルタイムの情報を獲得しながら、例えば自動でハンドルを切る、アクセルを踏む、ブレーキをかける等の動作を行う。
【0063】
したがって、カメラ映像の場合には画面内に映っている物の中から、例えば他の車両や歩行者、標識、信号機等の自動走行に必要なオブジェクトを、ディープラーニング等の画像認識技術によって認識・識別を行う。
図6及び
図7は高速道のCG画像G1中から、走行中の他車両を認識・抽出した例である(
図7の画像G2は原画像を白黒の2値化したものであり、路面の白線抽出の認識に用いている。他方、上図は自動車の形状に相似した画像領域を、車両と認識した結果を示している)。一方、
図8はCG画像G3から歩行者を、ディープラーニングの技術を用いて認識・検出した例である。矩形で囲まれた画像領域が歩行者であり、自車両に近い箇所から遠い箇所に至るまで正確に検出できていることが分かる。
【0064】
画像認識部204は、例えば
図6及び
図7において、他車両が自車両の前面に割り込んできた場合には、画像認識技術で接近を検知し、その認識結果の認識結果情報D06を車両位置情報計算部51に対して出力する。車両位置情報計算部51では、この情報を基にして例えば、ハンドルを切って回避する、ブレーキ動作で減速する等の動作を行い、自車両の位置情報を変更する。或いは、
図8の歩行者が急に自車の前に飛び出して来た場合には、ハンドルを切って回避する、急ブレーキを踏む等の動作を行い、同様にその結果として自車両の位置情報を変更する。
【0065】
なお、上記の一連の構成において、車両位置情報計算部51からUDP同期制御部202,UDP情報送受信部206を介してシミュレーション実行部205までのデータ送信は、例えばUDPプロトコルに従って、25msecごとの周期で送出できるものとする(25msecは一例である)。
【0066】
ここで、本発明の特徴である「同期モデル」の必要性についてであるが、シミュレーション実行部205からの出力結果に基づいて、次のタイムフレームの車両位置情報を決定するため、全体が同期した制御ができないと、実車両の挙動をシミュレートできなくなるからである。また25msecごとの周期で送出するとしたが、理想的にはゼロ遅延であるが現実的には不可能であるので、UDPを用いることで送受信に伴う遅延時間を削減している。
【0067】
一般に自動走行運転のシミュレーターの場合には、非常に多くの動画フレームに対してテストを行う必要がある。本実施形態によれば実走行でカバーし切れない絶対的な量を、ほぼ実写に近いCG映像で代用することを目的としている。したがって長いシーケンスの動画サンプルデータに対しての動作が保証されている必要がある。
【0068】
本実施形態では、学習部204bが、認識機能モジュール204aに対して、実走行時の車載カメラ装置による撮影画像以外にも、画像生成部203が生成した仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。認識機能モジュール204aは、カメラ装置により撮影された画像やCG画像を取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンによりオブジェクトを認識する。
【0069】
この認識機能モジュール204aによる認識処理の概要を
図9に示す。同図に示すように、認識機能モジュール204aは多クラス識別器であり、複数の物体が設定され、複数の物体の中から特定の特徴点を含むオブジェクト501(ここでは、「人」)を検出する。この認識機能モジュール204aは、入力ユニット(入力層)507、第1重み係数508、隠れユニット(隠れ層)509、第2重み係数510、及び出力ユニット(出力層)511を有する。
【0070】
入力ユニット507には複数個の特徴ベクトル502が入力される。第1重み係数508は、入力ユニット507からの出力に重み付けする。隠れユニット509は、入力ユニット507からの出力と第1重み係数508との線形結合を非線形変換する。第2重み係数510は隠れユニット509からの出力に重み付けをする。出力ユニット511は、各クラス(例えば、車両、歩行者、及びバイク等)の識別確率を算出する。ここでは出力ユニット511を3つ示すが、これに限定されない。出力ユニット511の数は、物体識別器が検出可能な物体の数と同じである。出力ユニット511の数を増加させることによって、車両、歩行者、及びバイクの他に、例えば、二輪車、標識、及びベビーカー等、物体識別器が検出可能な物体が増加する。
【0071】
本実施形態に係る認識機能モジュール204aは、多段(ここでは三層)ニューラルネットワークの例であり、物体識別器は、第1重み係数508及び第2重み係数510を誤差逆伝播法を用いて学習する。また、本発明の認識機能モジュール204aは、ニューラルネットワークに限定されるものではなく、多層パーセプトロン及び隠れ層を複数層重ねたディープニューラルネットワークであってもよい。この場合、物体識別器は、第1重み係数508及び第2重み係数510をディープラーニング(深層学習)によって学習すればよい。また、認識機能モジュール204aが有する物体識別器が多クラス識別器であるため、例えば、車両、歩行者、及びバイク等のような複数の物体を検出できる。
【0072】
(教師データ提供機能の概要)
さらに、認識機能モジュール204aであるディープラーニング認識部には、学習部204bが接続されており、この学習部204bには、
図10に示すような、学習用の教師データである教師学習データD73を提供する教師データ作成手段が備えられている。具体的に学習部204bの教師データ提供機能は、セグメンテーション部71と、アノテーション生成部72と、教師データ作成部73とを備えている。
【0073】
セグメンテーション部71は、ディープラーニング認識を行うために、認識対象となる画像中の特定物の領域分割(セグメンテーション)を行うモジュールである。詳述すると、ディープラーニング認識を行うためには、一般に画像中の特定物の領域分割を行う必要があり、自動車の走行時には、相手車両の他にも歩行者、信号機、ガードレール、自転車、街路樹などの様々な対象物に対応し、高精度かつ高速に認識して、安全な自動運転を実現する。
【0074】
セグメンテーション部71は、画像生成部203からの3Dグラフィックス合成画像であるシミュレーション用画像D61や既存の実映像入力システムからの実写映像D60など、種々の画像に対してセグメンテーションを行い、
図11に示すような、様々な被写体画像ごとに色分けしたセグメンテーションマップであるセグメンテーション画像D71を生成する。セグメンテーションマップには、
図11中下部に示すような、オブジェクト(被写体)ごとに割り当てる色情報が付加されている。例えば、草は緑、飛行機は赤、建物は橙、牛は青、人物は黄土色などである。また、
図12は、道路上のセグメンテーションマップの例であり、同図中左下は実写の画像、画面右下はセンサーの撮像画像であり、同図中央はセグメンテーションされた各領域画像で、道路は紫色、森林は緑色、障害物は青色、人物は赤色等により、各オブジェクトを図示している。
【0075】
アノテーション生成部72は、各々の領域画像と特定のオブジェクトとを関連付けるアノテーションを行うモジュールである。このアノテーションとは、領域画像に関連付けられた特定のオブジェクトに対して関連する情報(メタデータ)を注釈として付与することであり、XML等の記述言語を用いてメタデータをタグ付けし、多様な情報を「情報の意味」と「情報の内容」に分けてテキストで記述する。このアノテーション生成部72により付与されるXMLは、セグメンテーションされた各オブジェクト(上記では「情報の内容」)と、その情報(上記では「情報の意味」、例えば人物、車両、信号機などの領域画像)とを関連付けて記述するために用いられる。
【0076】
図13はある道路をCGで再現した画像に対してディープラーニング認識技術によって、車両領域画像(vehicle)、人物領域画像(person)を識別して、各領域を矩形で抽出してアノテーションを付加した結果である。矩形は左上点のXY座標と右下点のXY座標で領域を定義することができる。
【0077】
図13に例示したアノテーションをXML言語で記述すると、例えば、<all_vehicles>〜</all_vehicles>には図中の全てのvehicle(車両)の情報が記述され、1番目の道路のVehicle−1では矩形領域として左上の座標が(100,120)、右下の座標が(150,150)で定義されている。同様に、<all_persons>〜</all_persons>には図中の全てのperson(人物)の情報が記述され、例えば1番目の道路のPerson−1では矩形領域として左上の座標が(200,150)、右下の座標が(220,170)で定義されていることが分かる。
【0078】
したがって、画像中に複数台の車両がある場合には、上記の要領でVehicle−2から順に生成すればよい。同様にして他のオブジェクトについても、例えば自転車の場合にはbicycle、信号機の場合にはsignal, 樹木の場合にはtreeをタグ情報として使えばよい。
【0079】
画像生成部203によって生成されたシミュレーション用画像D61としての3Dグラフィックス合成画像は、セグメンテーション部71に入力されて、上記で述べたセグメンテーション部71に従って例えば
図11のように色分けされた領域に分割される。
【0080】
その後、セグメンテーション画像D71(色分け後)が入力されたアノテーション生成部72では、例えばXML記述言語によって記述され、アノテーション情報D72が上記教師データ作成部73に入力される。教師データ作成部73では、前記セグメンテーション画像D71とアノテーション情報D72をタグ付けして、ディープラーニング認識用の教師データを作成する。これらのタグ付けされた教師学習データD73が最終的な出力結果になる。
【0081】
[第2実施形態]
以下に添付図面を参照して、本発明に係るシステムの第2実施形態を詳細に説明する。
図14は、本実施形態に係るシステムの全体構成を示す概念図である。
図15は、本実施形態に係る装置の内部構成を示すブロック図である。上記第1実施形態では、主に自車両の台数が1台の場合に限った実施形態であった。第2実施形態では、多数の車両分の位置情報を同時並列的に処理する場合を例示している。なお、本実施形態において、上述した第1実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
【0082】
図14に示すように、本実施形態では、シミュレーターサーバー2に複数のクライアント装置1c〜1fが接続されており、
図15に示すように、シミュレーターサーバー2において、UDP同期制御部202及びUDP情報送受信部206を共通の構成要素とし、シミュレーション対象となる車両の台数に応じて、各クライアント装置1c〜fには車両位置情報計算部51c〜fが設けられ、シミュレーターサーバー2側にはシミュレーション実行部205c〜fが設けられている。
【0083】
車両位置情報計算部51c〜fでは、先ず自車の車両位置情報D02c〜fを制御信号D03c〜fのタイミングに従って、UDP同期制御部202に対して送出する。次にUDP同期制御部202では、自車の車両位置情報D02c〜fをUDPパケッタイズすることで各種データ群を含むパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。パケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05c〜fは、シミュレーション実行部205c〜fに入力される。
【0084】
シミュレーション実行部205c〜fでは、既に第1実施形態で述べたように、所定の画像生成法例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06c〜fは車両位置情報計算部51c〜fにフィードバックされ、各車両の位置が変更される。
【0085】
なお、上記の例では合計4つの車両位置情報計算部51c〜fを備える場合を例示したが、この個数には特段制限はない。しかし、対応すべき車両の台数が増えれば、その結果同期制御も複雑になる上、ある車両で多くの遅延が発生した場合には、遅延時間は各々の合算であるので、トータルでの遅延時間の増大につながるという問題点にもなる。従ってシミュレーターのハードウェア規模や処理量などの条件によって、これらの構成を行えばよい。
【0086】
なお、
図14では、PC端末1c〜1fと車両同期シミュレーター・プログラム4とが通信ネットワーク3を介してリモート接続されているが、PCのローカルのHDD、SSDなどの記録媒体にプログラムが実装されていて、スタンドアロンで動作させることも可能である。この場合にはさらに低遅延で検証を行うことができる利点がある上、ネットワーク帯域が混雑時に起こる輻輳等の影響も一切受けない利点もある。
【0087】
また、1c〜1fをPC端末と限定する必要なく、例えば実際の走行車両上でテストを行う場合には、テスト車両に搭載されたカーナビゲーションシステムであってもよい。この場合には、
図4の画像生成部203からのシミュレーション用画像D61としての3Dグラフィックス合成画像を画像認識部204で認識するのではなく、実写の走行映像をD61の代わりに入力することになるので、画像認識部204の性能評価として利用することができる。例えば、実写の走行映像の中の歩行者や車両などは人間が見れば瞬時に正確に認識可能であるが、上記の画像認識部204で認識及び抽出された結果が、それらと同じになるかの検証を行うことができるからである。
【0088】
[変更例]
なお、上述した実施形態の説明は、本発明の一例である。このため、本発明は上述した実施形態に限定されることなく、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能である。
【0089】
(変更例1)
例えば、上述した実施形態では、車載カメラ104aが単一のカメラで構成されていた場合を例に説明したが、
図16に示すように、複数個のカメラやセンサーで構成してもよい。
【0090】
自動運転における安全性向上のためには、複数個のセンサーを搭載することが必須となっている。したがって、本変更例のように複数個のセンサーを用いて撮像した画像から3Dグラフィックス合成画像を作成し、それらを複数のディープラーニング認識部61〜6nで認識することで、画像中の被写体の認識率を向上させることができる。
【0091】
また、上述した第2実施形態では、1台の車両に複数個のセンサーを搭載する例を述べたが、路上を走行する複数台の車両に搭載されたセンサーの撮像画像を同様の手段によって、複数のディープラーニング認識部でそれぞれ認識することもできる。実際には複数台の車両が同時に走行するケースが多いことから、各ディープラーニング認識部61〜6nによるそれぞれの認識結果D621〜D62nを、学習結果同期部84によって同一時間軸に同期させて、最終的な認識結果をD62として学習結果同期部84から送出する。
【0092】
例えば、
図13に示すような3Dグラフィックス合成画像は、路上に複数台の車両が走行している状態を撮影したものであり、画像中の車両は、3Dグラフィックス技術で生成されたものである。これらの車両に疑似的にセンサーを搭載することで、個々の車両の視点からの画像を取得することができる。そしてそれらの車両からの視点の3Dグラフィックス合成画像をディープラーニング認識部61〜6nに入力して、認識結果を得ることができる。
【0093】
(変更例2)
次いで、複数種のセンサーを使った別の変更例について説明する。上述した変更例1では、同一種類のセンサー、例えば同一種類のイメージセンサー手段を想定していたのに対し、本変更例では、異なる種類のセンサーを複数搭載した場合を示している。
【0094】
具体的に、
図17に示すように、入力インターフェース104には異なる種類の車載カメラ104a及び10bが接続されている。ここでは、車載カメラ104aは上述した実施形態と同様に、映像を撮影するCMOSセンサー又はCCDセンサーカメラである。一方、センサー104bは、LiDAR(Light Detection and Ranging)であり、パルス状に発行するレーザー照射に対する散乱光を測定して、遠距離にある対象物までの距離を測定するデバイスであり、自動運転の高精度化には必須なセンサーの1つとして注目されている。
【0095】
センサー104b(LiDAR)に用いられるレーザー光としてはマイクロパルスで近赤外光(例えば905nmの波長)が用いられ、例えば、スキャナー及び光学系としてのモータ、ミラー、レンズなどから構成される。一方、センサーを構成する受光器、信号処理部では反射光を受光し、信号処理によって距離を算出する。
【0096】
ここでLiDARに採用されている手段としては、TOF方式(Time of Flight)と呼ばれているLiDARスキャン装置114などがあり、このLiDARスキャン装置114は、
図18に示すように、レーザードライバー114aによる制御に基づいて発光素子114bから照射レンズ114cを通じてレーザー光を照射パルスPlu1として出力する。この照射パルスPlu1は測定対象Ob1によって反射されて反射パルスPlu2として受光レンズ114dに入射され、受光素子114eで検出される。この受光素子114eによる検出結果は、信号受光回路114fによって電気信号としてLiDARスキャン装置114から出力される。このようなLiDARスキャン装置114では、立ち上がり時間が数nsで、光ピークパワーが数10Wの超短パルスを測定物体に向けて照射し、その超短パルスが測定物体で反射して受光素子に戻ってくるまでの時間tを測定する。このときの物体までの距離をL、光速をcとすると、
L=(c×t)/2
により算出される。
【0097】
このLiDARシステムの基本的な動作としては、
図19(a)〜(c)に示すように、LiDARスキャン装置114から射出され、変調されたレーザー光が回転するミラー114gで反射され、レーザー光が左右に振られ、或いは360°で回転されることで走査され反射して戻ってきたレーザー光が、再びLiDARスキャン装置114で捕捉される。補足された反射光は、最終的には、回転角度に応じた信号強度が示された点群データPelY及びPelXとして得られる。なお、回転式のLiDARシステムとしては、例えば、
図20のように中心部が回転してレーザー光が照射され、360度の走査が可能になっている。
【0098】
そして、このような構成の本変更例では、画像を撮影するカメラ等のイメージセンサー104aで撮影された映像に基づく3Dグラフィックス合成画像であるシミュレーション用画像D61は、2次元平面の画像であり、ディープラーニング認識部6は、この3Dグラフィックス合成画像に対する認識を実行する。
【0099】
一方、発光素子114bにより取得された点群データについては、画像生成部203側に点群データ用に追加されたモジュールを用いて処理するようになっており、本実施形態では、画像生成部203に3D点群データグラフィック画像を生成する機能が備えられている。
【0100】
そして、センサー104bにより取得された点群データについては、画像生成部203において、センサー104bで取得されたセンサーデータが抽出され、抽出されたセンサーデータに基づいて、反射光を受光してTOFの原理で被写体までの距離を算出することで、3D点群データを生成する。この3D点群データは、いわゆる距離画像であり、この距離画像に基づいて3D点群データが3Dグラフィック画像化される。
【0101】
この3D点群データが画像化された3Dグラフィック画像化された3D点群データグラフィック画像では、例えば
図20及び
図21に示す中央の走行車両の上に設置したLiDARから360度全方位にレーザー光を放射して反射光を測定した結果得られた点群データとすることができ、色の強弱(濃度)は反射光の強さを示す。なお、隙間など空間が存在しない部分は反射光がないので、黒色になっている。
【0102】
図21に示すように、実際の点群データから相手車両や歩行者、自転車などの対象オブジェクトを、3次元座標を持ったデータとして取得できるので、これらの対象オブジェクトの3Dグラフィック画像を容易に生成することが可能になる。具体的には、画像生成部203の3D点群データグラフィック画像生成機能によって、点群データを整合させることにより複数個のポリゴンデータを生成し、3Dグラフィックはこれらのポリゴンデータをレンダリングすることで描画される。
【0103】
そして、このように画像生成部203で生成された3D点群データグラフィック画像は、シミュレーション用画像D61としてディープラーニング認識部6に入力されて、同部において3D点群データ用に学習された認識手段によって認識が実行される。これにより、上述した実施形態のように、イメージセンサー用の画像で学習されたディープラーニング認識手段とは異なる手段を用いることになる。この結果、本変更例によれば、非常に遠方にある対向車はイメージセンサーでは取得できない可能性が高い場合であっても、LiDARによれば数百メートル先の対向車の大きさや形状まで取得できるため、認識精度を向上させることができる。
【0104】
以上により、上記変更例によれば、異なる性質又は異なるデバイスのセンサーを複数装備して、これらに対するディープラーニング認識部61〜6nによる認識結果を分析部85で分析して、最終的な認識結果D62として出力することができる。
【0105】
なお、この分析部85は例えばクラウドなどのネットワークの外部に配置させてもよい。この場合には、1台当たりのセンサーの数が今後急激に増加し、ディープラーニング認識処理の計算負荷が増大するような場合であっても、ネットワークを通じて外部で対応可能な処理については大規模なコンピューティングパワーのあるクラウドで実行し、その結果をフィードバックすることで、処理効率を向上させることができる。
【0106】
また、イメージセンサーの場合の実施形態では、
図11で示した例のように、予めセグメンテーションマップと対象物を関係づけて学習を行う。これにより、イメージセンサーの出力が2次元画像であることに対応するものである。
【0107】
一方、センサーに少なくとも1つのLiDARセンサーが含まれる場合、教師データには、人物、車両、信号機、路上障害物などの対象物ごとに、複数個設定した反射率の値を検出対象として設定する。そして、上述したディープラーニング認識処理において、画像認識手段は、センサーに少なくとも1つのLiDARセンサーが含まれるときには、人物、車両、信号機、路上障害物などの対象物ごとに複数個設定した反射率の値を検出対象とする。
【0108】
詳述すると、LiDARセンサーの場合、
図21で示したように3次元の点群となる。したがって、LiDARのセンサーの場合には、3次元の点群画像と、対象物ごとのレーザー光の反射率を関連付けて学習を行う。例えば、
図21の例では、自動車が反射率1.5〜2.0、自転車に乗った人物は反射率1.1、大人の歩行者の反射率0.8、子供の歩行者の反射率0.6、そして道路の反射率0.2〜0.5という具合である。
【0109】
なお、
図16に示した例では、仮想的なCG画像を生成するケースであったが、既に第1実施形態で述べたように、実際の車両に本アプリケーションシステムが搭載されて(カーナビゲーションのように)、実写走行を行いながら異なる種類のセンサーからの情報を入力して、ディープラーニング認識を行うこともできる。
図17はそのケースの具体的なブロック図である。
【0110】
また、本変更例において、素材撮影装置は、車載カメラのイメージセンサーの他、上記の通りLiDARのセンサーやミリ波のセンサーを想定している。イメージセンサーの場合には実写画像を取り込んで実写画像から抽出した光情報などのパラメータを用いて、第1実施形態で述べたPBRの技術によって高品質なCG画像を生成されて、画像生成部203から送出される。一方、LiDARセンサーの場合には実際に車載のLiDARセンサーから放射されたビームのレーザー光の反射光から、3次元の点群データを作成する。そしてこの3次元点群データを3DCG化した画像が、上記の画像生成部203から出力される。
【0111】
このようにして、複数種類のセンサーに応じたCG画像が、画像生成部203から送出され、
図17の各々のディープラーニング認識部において所定の手段で認識処理が行われることになる。また、上記の変更例では、LiDARセンサーを例にとって説明したが、他にもミリ波センサーや夜間に有効な赤外線センサーを用いることも有効である。