【文献】
松本吉央,外3名,仮想環境を用いた視覚移動ロボットのシミュレーションの提案と画像の記憶に基づく走行手法への適用,日本ロボット学会誌 第20巻 第5号,日本,社団法人日本ロボット学会,2002年,第20巻,pp.35-43
(58)【調査した分野】(Int.Cl.,DB名)
前記シナリオ作成手段は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えていることを特徴とする請求項1又は4に記載の画像生成システム。
実写に基づく1コンポーネント画像及び深度画像を教師データとして取得し、前記コンポーネント画像、前記深度画像生成部によって生成された前記深度画像と前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段をさらに備えたことを特徴とする請求項1に記載の画像生成システム。
実写に基づく照射画像及び深度画像を教師データとして取得し、前記シェーディング部によるシェーディング結果の画像と、前記深度画像生成部によって生成された前記深度画像と、前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段を備えた請求項4に記載の画像生成システム。
前記モデリング部は、前記比較評価部による比較結果をフィードバック情報として取得し、取得されたフィードバック情報に基づいて、前記モデリングにおける条件を調整して再度モデリングを行う機能を有することを特徴とする請求項10に記載の画像生成システム。
前記モデリング及び前記比較に基づく前記フィードバック情報の取得を繰り返して行い、前記比較評価部による比較結果におけるマッチング誤差が所定の閾値よりも小さくなるまで実行することを特徴とする請求項11に記載の画像生成システム。
前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
【発明の概要】
【発明が解決しようとする課題】
【0006】
車両の自動運転の実現には、車両自身が周辺環境を認識する必要がある。そのためには、車両自身から周辺の物体までの距離を正確に計測する必要がある。距離計測を行うための技術としては、以下に挙げるようなものが開発され、レーンキープやクルーズコントロール、自動ブレーキなどのドライビングアシスト技術を実現するために、既にそれらのセンサーが搭載されている市販車も多い。
【0007】
・ステレオカメラ:ヒトの目と同様に2つのカメラを用いることで三角測量の原理を利用して距離を算出する
・赤外線デプスセンサー:赤外線パターンを照射し、その反射を赤外線カメラで撮影してパターンのズレ(位相差)から距離を算出する
・超音波センサー:超音波を発信し、その反射波を受信するまでに要した時間から距離を算出する
・ミリ波レーダー:超音波と同様の仕組みで、ミリ波レーダーを発信してその反射波を受信するまでにかかった時間から距離を算出する
・LiDAR(Light Detection and Ranging):超音波センサー、ミリ波レーダーと同様の仕組みで、こちらはレーザー光を使用。その反射波を受信するまでにかかった時間(TOF:Time of Flight)から距離を算出する
以上のように、複数の方式が存在しているが、それぞれ一長一短がある。ステレオカメラの場合は立体視によって距離を正確に計測しやすいが、2つのカメラの間を最低でも30cmは離す必要があり小型化に限界がある。
【0008】
赤外線線デプスセンサーや超音波センサーは安価な点が優れているが、距離による減衰が大きい。そのため、対象物までの距離が数10m以上になると正確な測定が困難、もしくは測定自体が不可能になる。その点、ミリ波レーダーやLiDARは長距離でも減衰しにくいので、長距離に対しても高精度の測定が可能である。しかし、装置が高価で小型化も困難という問題点があるが、今後研究開発の進展で車両への搭載が加速すると考えられる。
【0009】
以上より、近距離から遠距離まで対象物までの距離を正確に測定するためには、異なるセンサーを選択的に使用することが、現時点では現実的な手段と言える。
自動車の自動運転以外の用途としても、自動車内における運転者の居眠り防止のために頭部の動きを検出する技術や、ジェスチャー動作検出、或いは自動走行ロボットの障害物回避などが有望視されている。
【0010】
ところで、上記のような各種センサーで撮影した実写画像を大量に収集して、ディープラーニング認識技術を用いて、画像の認識率を高めることが将来の自動運転に不可欠とされている。
【0011】
しかしながら、実際に車両を無限に走行させてテストデータを採取することは事実上不可能であり、如何にして実際に代用可能なレベルのリアリティ性をもって上記の検証を行うことができるかが重要な課題となる。例えば、カメラ画像の画像認識技術で外部環境を認識する場合、自車両周辺の天候(雨天、霧など)や時間帯(夜間、薄暗、逆光など)等の外部要因によって、認識率が大幅に変わってしまい検出結果に影響を与える。その結果、自車両周辺の移動体、障害物、道路上のペイントの検知に関して、画像認識手段による誤検知や未検知が増加する。このような画像認識手段による誤検知や未検知は、最も認識率の高いディープラーニング(機械学習)の技術を用いれば、学習のサンプル数を増加させることで解決することができる。
【0012】
ところが、実際に道路を走行中に学習のサンプルを抽出することには限界があり、雨天や逆光、霧などの過酷な天候条件が満たされるのを待って車両の走行テストやサンプル収集を行うことは、その条件の再現が困難である上、機会の到来も希有であることから、開発手法として現実的でない。
【0013】
一方、将来的な完全自動運転の実現のためには、上記のカメラ画像の画像認識だけでは不十分と言える。なぜならばカメラ画像は2次元画像であり、車両や歩行者、信号機などは画像認識によって対象物を抽出することは可能であるが、対象物までの画素ごとの距離を検知することはできない。したがって、これらの要求に対応するものとしてLiDARというレーザー光を用いたセンサーや、近赤外線を使ったセンサーも有望視されている。したがって、上記の複数の異なる種類のセンサーを組み合わせることで、自動車の走行時の安全性を大幅に向上させることができる。
【0014】
そこで、本発明は、上記のような問題を解決するものであり、自車両周辺の他車両、路上の障害物、歩行者などの対象物に対する認識率の向上に関し、過酷な天候条件など、その再現が困難な条件下における実写の画像に極めて類似した画像を人工的に生成することによって、車両の走行テストやサンプル収集のリアリティ性を向上させることを目的とする。また、本発明は、複数個の異なる種類のセンサーを仮想環境で構築して、各々の映像をCGの技術を用いて生成することを目的とする。さらに、生成されたCG画像を用いた同期制御のシミュレーションシステム、シミュレーションプログラム及びシミュレーション方法を提供することを目的とする。
【課題を解決するための手段】
【0015】
上記課題を解決するために、本発明は、センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステム、プログラム及び方法であって、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
前記コンポーネント画像中における対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備えたことを特徴とする。
【0016】
上記発明において、前記コンポーネントは、RGB画像のうちのR成分のコンポーネントであることが好ましい。
また、上記発明において、前記コンポーネントをグレイスケール化するグレイスケール化部をさらに備えていることが好ましい。
【0017】
本発明は、センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステム、プログラム及び方法であって、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備え、
前記シェーディング部は、
前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
前記所定部位の3次元形状のみを出力する機能と
を有し、
前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
ことを特徴とする。
【0018】
上記発明において、前記センサー手段は近赤外線センサーであることが好ましい。また、上記発明において前記センサー手段は、照射されたレーザー光の反射光を検出するLiDARセンサーであることが好ましい。
【0019】
上記発明において、前記シナリオ作成手段は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えていることが好ましい。
【0020】
上記発明では、実写に基づく1コンポーネント画像及び深度画像を教師データとして取得し、前記コンポーネント画像、前記深度画像生成部によって生成された前記深度画像と前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段をさらに備えたことが好ましい。
【0021】
上記発明では、実写に基づく照射画像及び深度画像を教師データとして取得し、前記シェーディング部によるシェーディング結果の画像と、前記深度画像生成部によって生成された前記深度画像と、前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段を備えることが好ましい。
【0022】
上記発明では、前記深度画像生成部により生成された深度画像から、光線の照射からその反射波を受信するまでにかかった所要時間をTOF情報として算出するTOF計算部と、
前記TOF計算部によるTOF情報に基づいて距離画像を生成する距離画像生成部と、
前記距離画像生成部によって生成された距離画像と、前記深度画像生成部により生成された深度画像との合致度を比較する比較評価部と
をさらに備えることが好ましい。
【0023】
上記発明において前記モデリング部は、前記比較評価部による比較結果をフィードバック情報として取得し、取得されたフィードバック情報に基づいて、前記モデリングにおける条件を調整して再度モデリングを行う機能を有することが好ましい。
【0024】
上記発明では、前記モデリング及び前記比較に基づく前記フィードバック情報の取得を繰り返して行い、前記比較評価部による比較結果におけるマッチング誤差が所定の閾値よりも小さくなるまで実行することが好ましい。
【0025】
さらに、本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステム、プログラム及び方法であって、
センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備えたことを特徴とする。
【0026】
上記発明において、前記同期制御手段は、
前記位置情報を特定のフォーマットにパケット化して送出する手段と、
パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
前記パケットデータを受信してデ・パケット化する手段と、
前記デ・パケット化されたデータを入力して画像を生成する手段と
をさらに備えることが好ましい。
【0027】
上記発明において、前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することが好ましい。
【0028】
前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることが好ましい。
上記発明において、前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成する手段を備えていることが好ましい。
【0029】
上記発明では、前記車両が複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行することが好ましい。
【0030】
上記発明において上記画像生成手段は、センサー手段ごとに異なる画像を生成する手段を備えていることが好ましい。
また、上記発明では、前記センサー手段として、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることが好ましい。
【0031】
上記発明では、前記シミュレーションシステムが、複数個のセンサーに対応した画像を生成する手段を備え、またそれぞれの生成された画像に対応した認識手段を備え、同該複数個の認識結果を用いて、前記同期制御を行う手段を備えていることが好ましい。
【0032】
さらに、シミュレーションシステム、プログラム及び方法に係る発明では、上記画像生成システム、画像生成プログラム及び画像生成方法の発明を前記画像生成手段として備え、
前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力することが好ましい。
【発明の効果】
【0033】
以上述べたように、これらの発明によれば、ディープラーニング(機械学習)等の認識機能モジュールの学習に際し、CGなどの実写の画像に極めて類似した画像を人工的に生成することによって学習のサンプル数を増加させることができ、学習の効率を高めて認識率を向上させることができる。
【0034】
詳述すると、本発明では、車両の位置情報変位を、シミュレーションモデルを基にして、実写の画像に極めて類似した、リアリティ性の高いCG映像を生成及び合成する手段を用いており、実際には存在しない環境や光源などを付加した映像を、人工的に無限に生成することができるようになる。この生成したCG画像を認識機能モジュールに対して、従来のカメラ画像と同様に入力し、カメラ画像に対する処理を同様に行わせ、対象とするオブジェクトが認識・抽出できるかをテストすることができるので、これまで取得・撮影が困難・不可能であった種類の映像での学習ができる上、さらに学習効率を高めて認識率を向上させる効果がある。
【0035】
また2次元画像の取得ができるイメージセンサーの他に、物体の立体形状の情報が抽出できるLiDAR(レーザー光)やミリ波などの異なる種類のセンサーを併用し、これらのセンサーの画像を生成することで、さらに広範囲なテストが可能になるのみならず、認識技術のブラッシュアップも同時に実現することが可能になるという、相乗効果が見込める。
【0036】
なお、本発明の応用分野としては、自動車の自動走行運転のための実験装置、シミュレーター、及びそれに関連したソフトウェアモジュール、ハードウェアデバイス(例えば車両搭載のカメラ、イメージセンサー、車両の周囲の3次元形状を測定するためのレーザー)、ディープラーニング等の機械学習ソフトウェア、非常に広範囲に及ぶ。また、本発明によれば、実写画像をリアルに実現するCG技術と同期制御の融合技術を備えているので、自動車の自動走行運転以外の分野でも幅広く応用することができる。例えば外科手術のシミュレーター、軍事シミュレーター、ロボットやドローンなどの安全走行テスト等が利用分野として有望である。
【発明を実施するための形態】
【0038】
[第1実施形態]
(近赤外線仮想画像生成システムの全体構成)
以下に添付図面を参照して、本発明に係る近赤外線仮想画像生成システムの実施形態について詳細に説明する。本実施形態では、自動運転に必須とされる様々なタイプのセンサーから撮像される実写画像を代替すべく、CG技術を用いて実写画像に極めて類似した画像を生成するシステムを構築する。
図1は近赤外線の仮想画像を生成するためのブロック図である。
【0039】
なお、本実施形態に係る近赤外線仮想画像生成システムは、例えばコンピューターにインストールされたソフトウェアを実行することにより、コンピューターに備えられたCPUなどの演算処理装置上に仮想的な各種モジュールが構築されて本システムが実装される。なお、以下の説明において「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
【0040】
図1に示すように、本実施形態に係る近赤外線仮想画像生成システムは、シナリオ作成部10、3Dモデリング部11、3Dシェーディング部12、R画像グレイスケール化部13、深度画像生成部14を備えている。
【0041】
シナリオ作成部10は、どのようなCGを作成するかのシナリオデータを作成する手段である。このシナリオ作成部10は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えている。例えば自動運転に使うCGであれば、道路、建物、車両、歩行者、自転車、路側帯、信号機などの数多くの対象物が仮想空間内に存在し、シナリオデータには、その仮想空間内でどの対象物がどの位置(座標、標高)に存在してどのような方向に、どのような動きをするかが定義されているとともに、仮想空間内における仮想カメラ(視点)の位置、光源の種類や個数、それぞれの位置や向き等を定義するデータであり、また、仮想空間内における対象物の移動や挙動なども定義される。
【0042】
このシナリオ作成部10で、先ずどのようなCG画像を生成するかが決められることになる。このシナリオ作成部10で設定されたシナリオに従って、3Dモデリング部11が3D画像を生成する。
【0043】
3Dモデリング部11は、仮想空間上における物体の形状を作成するモジュールであり、物体の外形や内部構成の形状を構成する各頂点の座標を設定し、その形状の境界線・面を表現する方程式のパラメータを設定し、3次元的な物の形を構築する。具体的には、この3Dモデリング部11によって、道路の3D形状や路上を走行する車両の3D形状、歩行者の3D形状等の情報がモデリングされる。
【0044】
3Dシェーディング部12は、3Dモデリング部11で生成された各3DモデルデータD101を用いて実際の3DCGを生成するモジュールであり、シェーディング処理によって、3DCGで実現される物体の陰影を表現し、光源の位置や光の強さによって立体的でリアルな画像を生成する。
【0045】
R画像グレイスケール化部13は、3Dシェーディング部12から送出されたシェーディング画像に含まれる所定のコンポーネントを抽出するコンポーネント抽出部であるとともに、抽出されたコンポーネント画像をグレイスケール化するグレイスケール化部として機能するモジュールである。具体的にこのR画像グレイスケール化部13は、3Dシェーディング部12から送出されたRGB画像であるシェーディング画像D103のうちのR成分のコンポーネントを、コンポーネント画像として抽出し、この抽出されたR成分のコンポーネント画像を、
図4に示すように、R成分をグレイスケール化してグレイスケール画像D104(Img(x,y)、x:水平座標値、y:垂直座標値)を出力する。これにより、シェーディング画像D103中のR(赤色)成分だけが抽出され、赤外線の画像に極めて近い画像が生成されることとなる。
図4は、室内を近赤外線センサーで撮影した実写画像をグレイスケール化した白黒画像である。
【0046】
深度画像生成部14は、3Dシェーディング部12から入力された個々の3D形状モデルのモデリング情報D102に基づいて、画面中の各対象物の3D形状データを取得し、各対象物までの距離に基づいて深度画像(Depth−mapとも呼ばれる)105を生成するモジュールである。
図5は、上記の深度画像を距離によって色分けした画像である。より前方にある対象物ほど赤の成分が強く、遠方にあるものほど青の成分が強くなっている。中間の位置にあるものは黄色から緑色になっており、画面中における全ての対象物に関する奥行情報が得られることになる。
【0047】
(近赤外線仮想画像生成システムの動作)
以上の構成を有する近赤外線仮想画像生成システムを動作させることによって、本発明の近赤外線仮想画像生成方法を実施することができる。
【0048】
先ず、シナリオ作成部10では、どのようなCGを作成するかのシナリオを作る。例えば自動運転に使うCGであれば、道路、建物、車両、歩行者、自転車、路側帯、信号機などの数多くの対象物がどの位置に存在してどのような方向に、どのような動きをするか、さらに、カメラの位置、光源の種類や個数等のシナリオを作成する。
【0049】
このシナリオ作成部10において、どのようなCG画像を生成するかが決定される。次いで、シナリオ作成部10で設定されたシナリオに沿って、道路の3D形状や路上を走行する車両の3D形状、歩行者の3D形状等の情報をモデリングする。なお、モデリング手段としては、例えば道路に関しては「高精度地図データベース」を用いれば容易に実現でき、
図2(a)に示すような車載装置1bを装備した車両を多数走行させて、同図(b)に示すように、収集したデータから地図の3D化を行い、同図(c)に示すように、ベクター化した図面を用いて各道路地物をリンクさせてデータベース化する。
【0050】
次いで、3Dモデリング部11において、シナリオ作成部10で作成されたシナリオ情報D100に基づいて、必要な各対象物の3D形状モデルを取得、又は生成する。そして、3Dモデリング部11で生成された各3DモデルデータD101を用いて3Dシェーディング部12では、実際の3DCGを生成する。
【0051】
また、3Dシェーディング部12から送出されたR成分のシェーディング画像D103に対して、
図4に示すようなR画像グレイスケール化してグレイスケール画像D104(Img(x,y)、x:水平座標値、y:垂直座標値)が出力される。他方、3Dシェーディング部12からは、個々の3D形状モデルのモデリング情報D102が得られ、これらの情報から画面中の各対象物の3D形状データが得られ、これを基にして深度画像生成部14において深度画像D105(α(x,y)、x:水平座標値、y:垂直座標値)が生成される。
【0052】
そして、以上の動作により得られたグレイスケール化してグレイスケール画像D104と深度画像D105とが、本実施形態の出力画像として送出され、これらの2つの画像出力が、画像認識に用いられる。
【0053】
[第2実施形態]
以下に添付図面を参照して、本発明に係るシステムの第2実施形態を詳細に説明する。なお、本実施形態において、上述した第1実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
【0054】
(LiDARセンサー仮想画像生成システムの全体構成)
本実施形態では、LiDARセンサーを用いた場合について述べる。本実施形態に係るシステムは、
図6で実現され、シナリオ作成部10と、3Dモデリング部11と、シェーディング部15と、深度画像生成部16とから構成される。
【0055】
本実施形態においてシェーディング部15は、3Dモデリング部11で生成された各3DモデルデータD101を用いて実際の3DCGを生成するモジュールであり、シェーディング処理によって、3DCGで実現される物体の陰影の表現し、光源の位置や光の強さによって立体的でリアルな画像を生成する。特に、本実施形態におけるシェーディング部15は、レーザー光照射部分抽出部15aを有しており、レーザー光照射部分抽出部15aによって、そのレーザー光が照射された部位のみの3D形状を抽出してシェーディングし、そのシェーディング画像D106を出力する。また、レーザー光の反射光はそもそもRGBのような色成分を持たない光線なので、このシェーディング部15からは、直接グレイスケール化したシェーディング画像D106が出力されることになる。
【0056】
また、深度画像生成部16は、3Dシェーディング部12から入力された個々の3D形状モデルのモデリング情報D102に基づいて、画面中の各対象物の3D形状データを取得し、各対象物までの距離に基づいて深度画像(Depth−mapとも呼ばれる)105を生成するモジュールである。特に、本実施形態における深度画像生成部16は、レーザー光照射部分抽出部16aによって、レーザー光照射に係る部分だけを抽出した深度画像D108が出力される。
【0057】
(LiDARセンサー仮想画像生成システムの動作)
次に、上記構成を有するLiDARセンサー仮想画像生成システムの動作について説明する。
【0058】
3Dモデリングされた各対象物のうちで、近赤外線の場合には、
図5に示すような画像が同時に取得できるのに対して、LiDARセンサーのレーザー光は指向性が強い光線のため、画面中の一部箇所だけに照射される性質がある。このLiDARとは、パルス状に発行するレーザー照射に対する散乱光を測定して、遠距離にある対象物までの距離を測定するセンサーである。特に自動運転の高精度化には必須なセンサーの1つとして注目されている。以下、LiDARの基本的な特徴について、以下説明する。
【0059】
LiDARに用いられるレーザー光はマイクロパルスで近赤外光(例えば905nmの波長)を用いる。スキャナと光学計はモータ、ミラー、レンズなどから構成される。一方、受光器、信号処理部では反射光を受光し、信号処理によって距離を算出する。
【0060】
ここでLiDARに採用されている手段としては、TOF方式(Time of Flight)と呼ばれているLiDARスキャン装置114などがあり、このLiDARスキャン装置114は、
図7に示すように、レーザードライバー114aによる制御に基づいて発光素子114bから照射レンズ114cを通じてレーザー光を照射パルスPlu1として出力する。この照射パルスPlu1は測定対象Ob1によって反射されて反射パルスPlu2として受光レンズ114dに入射され、受光素子114eで検出される。この受光素子114eによる検出結果は、信号受光回路114fによって電気信号としてLiDARスキャン装置114から出力される。このようなLiDARスキャン装置114では、立ち上がり時間が数nsで、光ピークパワーが数10Wの超短パルスを測定物体に向けて照射し、その超短パルスが測定物体で反射して受光素子に戻ってくるまでの時間tを測定する。このときの物体までの距離をL、光速をcとすると、
L=(c×t)/2
により算出される。
【0061】
このLiDARシステムの基本的な動作としては、
図8(a)〜(c)に示すように、LiDARスキャン装置114から射出され、変調されたレーザー光が回転するミラー114gで反射され、レーザー光が左右に振られ、或いは360°で回転されることで走査され反射して戻ってきたレーザー光が、再びLiDARスキャン装置114の受光素子114eで捕捉される。補足された反射光は、最終的には、回転角度に応じた信号強度が示された点群データPelY及びPelXとして得られる。なお、回転式のLiDARシステムとしては、例えば、
図9のように中心部が回転してレーザー光が照射され、360度の走査が可能になっている。
【0062】
上述したように、LiDARセンサーのレーザー光は指向性が強いので、遠方距離まで照射した場合でも画面の一部分にしか照射されない性質を持っている。したがって、
図6に示したシェーディング部15では、レーザー光照射部分抽出部15aによって、そのレーザー光が照射された部位のみの3D形状を抽出してシェーディングし、そのシェーディング画像D106を出力することになる。
【0063】
一方、同じくレーザー光照射部分の3D形状データD107を入力した深度画像生成部16では、レーザー光照射部分抽出部16aによって、レーザー光照射に係る部分だけを抽出した深度画像D108を出力することになる。
図10は、レーザー交渉者部分を抽出した例を図示したものであり、画像中央に走行中の車両の上部に取り付けたLiDARから360度方向にレーザー光のビームが放射されている。同図に示した例では、画面上部左側に自動車が、ビーム照射を受けてその反射光によって検知されており、画面上部右側には歩行者がビーム照射を受けてその反射光によって検知されている。
【0064】
したがって、シェーディング部15では、例えば
図10の自動車の3D形状を、3DCG技術を用いてシェーディングした結果の画像を生成すればよい。なお(なお)、上述した第1実施形態(
図1)ではRGB画像を内部で生成してからR成分のみを出力する構成としたが、レーザー光の反射光はそもそもRGBのような色成分を持たない光線なので、本実施形態では、直接グレイスケール化したシェーディング画像D106を出力することになる。次に、深度画像生成部16では、第1実施形態で述べた深度画像が画面全体であったのに対して、レーザー光の反射部分のみを対象とした深度画像D108を生成する。
【0065】
以上の動作により得られたグレイスケール化したシェーディング画像D106と深度画像D108とが、本実施形態の出力画像として送出される。これらの2つの画像出力は画像認識やその認識機能学習に用いることができる。
【0066】
[第3実施形態]
次いで、本発明の第3実施形態に係る仮想画像のディープラーニング認識システムについて説明する。本実施形態では、第1実施形態で述べた近赤外線センサーを用いた仮想画像システム、及び第2実施形態で述べたLiDARセンサーを用いた仮想画像システムを、ディープラーニング認識システムなど、自動運転などで多用されているAI認識技術に適用し、実際に撮影不可能な環境での仮想環境画像を、様々なセンサーに対して供給可能とする。
【0067】
(仮想画像のディープラーニング認識システムの構成)
図11は、現在最も実績が高いとされているバックプロパゲーション型のニューラルネットワークを用いたディープラーニング認識システムの構成図である。本実施形態に係るディープラーニング認識システムでは、ニューラルネットワーク計算部17とバックプロパゲーション部18とから概略構成される。
【0068】
ニューラルネットワーク計算部17は、
図12に示すような多層から構成されるニューラルネットワークを備え、このニューラルネットワークに対して、
図1で示した出力であるグレイスケール画像D104と深度画像D105とが入力される。そしてニューラルネット内で予め設定された係数(608、610)に基づいて非線形計算が行われて、最終的な出力611が得られる。
【0069】
一方、バックプロパゲーション部18では、ニューラルネットワーク計算部17における計算結果である計算値D110が入力されて、比較対象になる教師データ(例えば、実写に基づく照射画像や深度画像などのデータを用いることができる。)との間で誤差を計算する。
図11に例示したシステムでは、グレイスケール画像D104に対する教師データとしてグレイスケール画像D111が入力され、深度画像D105に対する教師データとして深度画像D112が入力される。
【0070】
ここで、バックプロパゲーション部18では、バックプロパゲーション法による演算が実行される。このバックプロパゲーション法は、ニューラルネットの出力と教師データがどの程度誤差があるかを計算し、その結果を逆伝搬することで出力から再度入力方向に計算を行う。本実施形態では、このフィードバックした誤差値D109を受け取ったニューラルネットワーク計算部17が、再度所定の計算を行い、その結果をバックプロパゲーション部18に入力する。以上のループ内の動作を、誤差値が予め設定した閾値よりも小さくなるまで実行し、十分に収束したと判断されたときにニューラルネット計算を終了する。
【0071】
以上の動作を完了すると、ニューラルネットワーク計算部17内のニューラルネットワーク内の係数値(608、610)が確定することになり、このニューラルネットを用いて、実際の画像に対するディープラーニング認識を行うことができる。
【0072】
なお、本実施形態では、第1実施形態で説明した近赤外線画像の出力画像に対するディープラーニング認識を例示したが、同様の手法を用いることで、第2実施形態のLiDARセンサーの出力画像に対するディープラーニング認識にも、全く同様に対応することができる。その場合には、
図11の左端の入力画像は、
図6のシェーディング画像D106及び深度画像D108となる。
【0073】
[第4実施形態]
次いで、本発明の第4実施形態について説明する。上述した第2実施形態で述べたLiDARセンサーを用いた仮想画像システムの出力画像のうち、深度画像生成部16からは、深度画像D108が出力される。この深度画像が実際にレーザー光を想定した距離画像としてどの程度の精度があるかは、本シミュレーションシステムの評価ポイントとして非常に重要である。本実施形態では、この深度画像を評価する評価システムに本発明を適用した例を説明する。
【0074】
(深度画像評価システムの構成)
図13に示すように、本実施形態に係る深度画像評価システムは、上述した深度画像生成部16から出力される深度画像D108の評価手段として構成されたものであり、TOF計算部19と、距離画像生成部20と、比較評価部21とから構成される。
【0075】
TOF計算部19は、深度画像生成部16により生成された深度画像D108について、TOF値等を含むTOF情報を計算するモジュールであり、光源から送出された投光パルスが被写体によって反射されて、この反射されたパルスが受光パルスとしてセンサーによって受光された際の時間差である遅れ時間に相当する。この遅れ時間がTOF計算部19からTOF値D113として出力される。
【0076】
距離画像生成部20は、TOF計算部19で算出されたTOF値D113に基づいて、レーザー照射部分の各点のTOFを取得して、その各点における遅れ時間に基づいて各点までの距離Lを算出し、各点までの距離Lを画像で表現した距離画像D114を生成するモジュールである。
【0077】
比較評価部21は、距離画像生成部20で生成された距離画像D114と、深度画像生成部16から入力された前記深度画像D108との間で比較計算を行い、それらの合致度などを含む比較結果に基づいて評価を行うモジュールである。比較手法としては一般的に用いられている絶対値2乗誤差などを用いることができる。この比較結果の値が大きくなるほど両者の差が大きいことになり、3DCGモデリングを基にした場合の深度画像が、実際にレーザー光のTOFを想定して生成した距離画像とどの程度近いかを評価することができる。
【0078】
(深度画像評価システムの動作)
次に、上述した構成を有する深度画像評価システムの動作について説明する。
深度画像生成部16により生成された深度画像D108は、TOF計算部19に入力された後、TOFの時間が計算される。このTOFは、
図7で述べたtである。詳述すると、このTOFは、
図14(a)に示すように、光源からレーザー光が投光パルスとしてパルス状に送出されると、この投光パルスが被写体によって反射されて、この反射されたパルスが受光パルスとしてセンサーによって受光される。その際の時間差を計測する。この時間差は、
図14(b)に示すように、投光パルスと受光パルス間の遅れ時間に相当する。
【0079】
以上より
図6のTOF計算部19で算出されたTOF値D113を出力する。このTOF計算部19によって、一旦、レーザー照射部分の各点のTOFが分かれば、これを以下の式で逆算することで各点の距離Lが求まる。
L=(1/2)×c×t
(c:光速、t:TOF)
上記の計算によって照射部画像の各点の距離画像D114が、距離画像生成部20において生成される。その後、前記深度画像D108と、距離画像D114との間で比較計算が行われる。比較手段としては一般的に用いられている絶対値2乗誤差などで構わない。この値が大きくなるほど両者の差が大きいことになり、3D CGモデリングを基にした場合の深度画像が、実際にレーザー光のTOF(こちらの方が正しい)を想定して生成した距離画像とどの程度近いかを評価することができる。
【0080】
比較結果D115は上記のように、絶対値2乗誤差のような数値であっても、或いは閾値処理の後で両者が近似されていないというシグナルでも構わない。もし後者の場合には、例えば
図6の3Dモデリング部11に結果がフィードバックされて再度モデリングを実行することも考えられる。この処理動作を繰り返し実行して、所定の近似レベルまで実行することで高精度の3D CGを基にした深度画像を生成することができる。
【0081】
[第5実施形態]
次いで、本発明の第5実施形態について説明する。上述した第1実施形態〜第4実施形態までは、いずれも近赤外線画像もしくはLiDARセンサーの仮想画像を生成する手段に関するものであったが、本実施形態では、これらの仮想画像を用いて実際に自動運転の走行をリアルタイムで行う場合の制御について説明する。本実施形態では、本発明のシミュレーターシステムを、自動車の自動運転走行システムにおける画像認識機能モジュールの機械学習及びテストに適用した場合を例示する。
【0082】
ここで、自動運転システムとは、事故などの可能性を事前に検知し回避するADAS(先進運転システム:advanced driver assistance system)等のシステムであり、自動車の自動運転走行を実現するため、実際に車両に搭載したカメラ映像を、画像認識技術を用いて認識して、他の車両や歩行者、信号機などのオブジェクトを検出し、自動で速度低下、回避などの制御を行う。
【0083】
(車両同期シミュレーターシステムの全体構成)
図15は、本実施形態に係るシミュレーターシステムの全体構成を示す概念図である。本実施形態に係るシミュレーターシステムは、単数又は複数のシミュレーション対象について、シミュレーションプログラムを実行するとともに、これらのシミュレータープログラムのテストや機械学習を実行する。このシミュレーターシステムは、
図15に示すように、通信ネットワーク3上にシミュレーターサーバー2が配置され、このシミュレーターサーバー2に対して、通信ネットワーク3を通じて、自車両の位置を生成又は取得する情報処理端末1aや車載装置1bが接続されている。
【0084】
ここで、通信ネットワーク3は、通信プロトコルTCP/IPを用いたIP網であって、種々の通信回線(電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワーク)を相互に接続して構築される分散型の通信ネットワークである。このIP網には、10BASE−Tや100BASE−TX等によるイントラネット(企業内ネットワーク)や家庭内ネットワークなどのLANなども含まれる。また、PC1aの中にシミュレーターのソフトウェアがインストールされているケースも多々ある。この場合には、PC単体でのシミュレーションを行うことができる。
【0085】
シミュレーターサーバー2は、単数又は複数のサーバー装置群により構成され、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。このシミュレーターサーバー2には、サーバー用のアプリケーションソフトウェアを実行するサーバーコンピューター、もしくはそのようなコンピューター上でのアプリケーションの実行を管理補助するミドルウェアで構成されたアプリケーションサーバーが含まれる。
【0086】
また、シミュレーターサーバー2には、クライアント装置から、HTTPのレスポンス要求を処理するウェブサーバーが含まれ、このウェブサーバーは、バックエンドの関係データベース管理システム(RDBMS)を実行するデータベース中核層への橋渡しを担い、データの加工などの処理を行う。関係データベースサーバーは、データベース管理システム(DBMS)が稼動しているサーバーであり、クライアント装置やアプリケーションサーバー(APサーバー)に要求されたデータを送信したり、操作要求を受け付けてデータを書き換えたり削除したりする機能を有する。
【0087】
情報処理端末1a及び車載装置1bは、通信ネットワーク3に接続されたクライアント装置であり、CPU等の演算処理装置を備え、専用のクライアントプログラム5を実行することによって種々の機能を提供する。この情報処理端末としては、例えば、パーソナルコンピュータ等の汎用コンピューターや機能を特化させた専用装置により実現することができ、スマートフォンやモバイルコンピューター、PDA(Personal Digital Assistance )、携帯電話機、ウェアラブル端末装置等が含まれる。
【0088】
この情報処理端末1a又は車載装置1bは、専用のクライアントプログラム5を通じて上記シミュレーターサーバー2にアクセスしてデータの送受信が可能となっている。このクライアントプログラム5は、その一部又は全部が、ドライビングシミュレーションシステムや、車載された自動運転走行システムに組み込まれ、車両に搭載したカメラが撮影した映像や、取り込まれた風景映像(本実施形態ではCG動画が含まれる。)等を、画像認識技術を用いて認識して、映像中の他の車両や歩行者、信号機などのオブジェクトを検出し、その認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。なお、本実施形態に係るクライアントプログラム5は、画像認識の機能をシミュレーターサーバー2で行わせ、
図18に示す車両位置情報計算部51による自動運転の仕組みによって、シミュレーターサーバー2における認識結果に応じて自動車を仮想的に地図上で走行させたり、実際に車両を走行させたりして、自車両の位置情報を変位させるように位置情報を計算し、又は取得する。
【0089】
(各装置の構成)
次いで、各装置の構成について具体的に説明する。
図16は、本実施形態に係るクライアント装置の内部構成を示すブロック図であり、
図17は、本実施形態に係るシミュレーターサーバーの内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
【0090】
(1)クライアント装置の構成
情報処理端末1aは、パーソナルコンピュータ等の汎用的なコンピューターや専用の装置で実現することができ、一方、車載装置1bは、パーソナルコンピュータ等の汎用コンピューターの他、車載される自動運転走行システムなどの専用装置(カーナビゲーションシステムと捉えることもできる)とすることができ、
図16に示すように、具体的には、CPU102と、メモリ103と、入力インターフェース104と、ストレージ装置101と、出力インターフェース105と、通信インターフェース106とを備えている。なお、本実施形態では、これらの各デバイスは、CPUバスを介して接続されており、相互にデータの受渡しが可能となっている。
【0091】
メモリ103及びストレージ装置101は、データを記録媒体に蓄積するとともに、これら蓄積されたデータを各デバイスの要求に応じて読み出す装置であり、例えば、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)、メモリカード等により構成することができる。入力インターフェース104は、キーボードやポインティングデバイス、タッチパネルやボタン等の操作デバイスから操作信号を受信するモジュールであり、受信された操作信号はCPU402に伝えられ、OSや各アプリケーションに対する操作を行うことができる。出力インターフェース105は、ディスプレイやスピーカー等の出力デバイスから映像や音声を出力するために映像信号や音声信号を送出するモジュールである。
【0092】
特に、クライアント装置が車載装置1bである場合、この入力インターフェース104には、自動運転システムのための上記ADAS等のシステムが接続され、自動車の自動運転走行を実現するため、車両に搭載したカメラ104a等のイメージセンサーの他、LiDARセンサー、ミリ波センサー、赤外線センサー等の各種センサー手段が接続される。
【0093】
通信インターフェース106は、他の通信機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。
【0094】
CPU102は、各部を制御する際に必要な種々の演算処理を行う装置であり、各種プログラムを実行することにより、CPU102上に仮想的に各種モジュールを構築する。このCPU102上では、OS(Operating System)が起動・実行されており、このOSによって情報処理端末1a〜c,4,5の基本的な機能が管理・制御されている。また、このOS上では種々のアプリケーションが実行可能になっており、CPU102でOSプログラムが実行されることによって、情報処理端末の基本的な機能が管理・制御されるとともに、CPU102でアプリケーションプログラムが実行されることによって、種々の機能モジュールがCPU上に仮想的に構築される。
【0095】
本実施形態では、CPU102上でクライアントプログラム5を実行することによって、クライアント側実行部102aが構成され、このクライアント側実行部102aを通じて、仮想地図上又は実際の地図上における自車両の位置情報を生成又は取得し、シミュレーターサーバー2に送信するとともに、シミュレーターサーバー2側における風景映像(本実施形態ではCG動画が含まれる)の認識結果を受信して、受信した認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。
【0096】
(2)シミュレーターサーバーの構成
本実施形態に係るシミュレーターサーバー2は、通信ネットワーク3を通じて車両同期シミュレーターサービスを提供するサーバー装置群であり、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。具体的にシミュレーターサーバー2は、
図17に示すように、通信インターフェース201と、UDP同期制御部202と、シミュレーション実行部205と、UDP情報送受信部206と、各種データベース210〜213とを備えている。
【0097】
通信インターフェース201は、通信ネットワーク3を通じて、他の機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。
【0098】
図18では、UDP同期制御部202は、クライアント装置1側における自車両を変位させる位置情報の計算処理と、シミュレーターサーバー2側における画像生成処理及び画像認識処理とを同期制御するモジュールである。クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する。
【0099】
UDP情報送受信部206は、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信するモジュールであり、本実施形態では、クライアント装置1側で計算され又は取得された位置情報を特定のフォーマットにパケット化してシミュレーターサーバー2側に送出するとともに、このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側で上記パケットデータを受信してデ・パケット化し、上記デ・パケット化されたデータを画像生成部203に入力して画像を生成する。また、本実施形態においてUDP情報送受信部206は、UDP同期制御部202によって各装置間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信する。
【0100】
上記各種データベースとしては、地図データベース210と、車両データベース211と、描画用データベース212とを備えている。なお、これらのデータベースは、関係データベース管理システム(RDBMS)により、相互に情報の参照が可能となっている。
【0101】
シミュレーション実行部205は、クライアント装置1側の位置情報取得手段によって生成又は取得され、シミュレーターサーバー2側へ送信された位置情報に基づいて、位置情報で特定された領域を再現したシミュレーション用画像を生成し、その生成されたシミュレーション用画像の中から特定の対象物を、認識機能モジュールを用いて認識し、検出するモジュールである。具体的には、画像生成部203と、画像認識部204とを備えている。
【0102】
画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成するモジュールである。この画像生成部203で生成されたシミュレーション用画像は、画像認識部204に送出される。なお、この画像生成部203としては、上述した第1実施形態で説明した近赤外線仮想画像生成システム、或いは第2実施形態で説明したLiDARセンサー仮想画像生成システムを採用することができ、これらのシステムでコンピューターグラフィックス技術を用いて生成された各種仮想画像を画像認識部204に入力するようにしてもよい。
【0103】
画像認識部204は、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物を、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識し検出するモジュールである。この画像認識部204による認識結果情報D06は、クライアント装置1側の車両位置情報計算部51に送信される。画像認識部204には、学習部204bが設けられており、認識機能モジュール204aの機械学習を実行するようになっている。
【0104】
この認識機能モジュール204aは、カメラ装置により撮影された画像又は画像生成部203で生成されたCGを取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンによりオブジェクトを認識するモジュールであり、学習部204bは、この認識機能モジュール204aに対して、上記カメラ装置による撮影画像又は仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。
【0105】
なお、ここでの画像認識部の認識機能モジュール204aとしては、第3実施形態で説明した仮想画像のディープラーニング認識システムのニューラルネットワーク計算部17を適用することができ、また、上記学習部204bとしては、上述したバックプロパゲーション部18を適用することができる。
【0106】
(車両同期シミュレーターシステムの方法)
以上の構成を有する車両同期シミュレーターシステムを動作させることによって、本発明の車両同期シミュレーション方法を実施することができる。
図4は、本実施形態における画像生成・画像認識に係る構成及び動作を示すブロック図である。
図19は、本実施形態における同期シミュレーターの処理手順を示したフローチャート図である。
【0107】
先ず、車両位置情報計算部51で自車の車両位置情報D02の取得を行う(S101)。具体的にはクライアント装置1側でクライアントプログラム5を実行することによって、地図情報や車両初期データ等の各種データ群D01を車両位置情報計算部51に入力する。次いで、これらの各種データ群D01を用いて仮想地図上又は実際の地図上における自車両の位置情報を計算(生成)又は取得し、その結果を車両位置情報D02として、UDP同期制御部202及びUDP情報送受信部206を通じて、シミュレーターサーバー2側のシミュレーション実行部205に送信する(S102)。
【0108】
詳述すると、車両位置情報計算部51では、先ず自車の車両位置情報D02を、UDP同期制御部202からの制御信号D03のタイミングに従って、UDP同期制御部202に対して送出する。車両位置情報計算部51の初期データで、例えば地図データや地図中の自車の位置情報や車体の車輪の回転角,口径などの情報は、所定のストレージ装置101からロードすることができる。UDP同期制御部202及びUDP情報送受信部206では、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信する。具体的にUDP同期制御部202及びUDP情報送受信部206は、クライアント装置1側で計算され又は取得された車両位置情報D02は、車両情報を含む各種データ群を、特定のフォーマットにパケット化されたパケット情報D04としてシミュレーターサーバー2側に送出される。
【0109】
このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側で上記パケットデータを受信してデ・パケット化され(S103)、上記デ・パケット化されたデータD05をシミュレーション実行部205の画像生成部203に入力してCG画像が生成される。このとき、UDP情報送受信部206は、UDP同期制御部202によって各装置間において、車両情報を含む各種データ群をパケット化したパケット情報D04はUDP(User Datagram Protocol)を用いて送受信される。
【0110】
詳述すると、UDP同期制御部202では、自車の車両位置情報D02をUDPパケッタイズすることで種データ群をパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。ここでUDP(User Datagram Protocol)について少し述べる。一般にTCPが高信頼性、コネクション型、ウィンドウ制御、再送制御、輻輳制御を行うのに対して、UDPはコネクションレス型プロトコルで信頼性を確保する仕組みがない一方で、処理が簡易なため低遅延という大きな利点がある。本実施形態では各構成部の間をデータ伝送する際に低遅延が要求されるので、TCPではなくUDPを採用している。またさらに現在の音声通信や動画通信において最も普及しているRTP(Realtime Transport Protocol)を用いてもよい。
【0111】
ここで、次に自車の車両位置情報D02の具体的な内容としては、例えば
・自車の位置情報(路面絶対位置座標等の3次元座標(X,Y,Z))
・自車のオイラー角度
・タイヤの位置情報(タイヤの路面絶対位置座標等の3次元座標(X,Y,Z))
・車輪回転角
・ハンドル、ブレーキの踏みしろ
等の情報が挙げられる。
【0112】
車両位置情報D02を受信したUDP情報送受信部206では、車両の情報、例えば車両の位置情報であるXYZ座標、タイヤの位置情報であるXYZ座標、オイラー角度等の各種情報の中から、主に車両のCG画像を生成するのに必要なデータD05を送出する。
【0113】
そして、各種データ群をUDPパケットとしたパケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05は、シミュレーション実行部205の画像生成部203に入力される(S104)。
【0114】
シミュレーション実行部205において、画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を、データD05として取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成する(S105)。この画像生成部203で生成されたシミュレーション用画像D13は画像認識部204に送出される。
【0115】
画像生成部203では、所定の画像生成法として、例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06は再度車両位置情報計算部51に入力されて、例えば自車両の次の動作を決定するための車両の位置情報を計算するのに用いられる。
【0116】
画像生成部203では、例えばPBR手法を用いたCG技法によって、車両のみならず周囲画像、例えば路面、建物、信号機、他の車両、歩行者といったオブジェクトを生成することができる。これはPlayStationなどのゲーム機によるタイトルで、上記のようなオブジェクトが非常にリアルに生成されていることからも、最新のCG技術で十分実現可能なことが分かる。自車両以外のオブジェクトの画像については既に初期データとして保持しているものを用いることが多い。特に自動走行運転のシミュレーターでは、数多くの高速道路、一般道などのサンプルデータを大量にデータベース化しており、それらのデータを適宜使えばよい。
【0117】
続いて、画像認識部204では、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物をオブジェクトとして、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識して抽出する(S106)。ここで、認識されたオブジェクトがなければ(ステップS107における「N」)、次のタイムフレームに移行して(S109)、タイムフレームがなくなるまで(ステップS109における「N」)、上記処理S101〜S107を繰り返す((ステップS109における「Y」))。
【0118】
他方、ステップS107において、認識されたオブジェクトが存在する場合には(ステップS107における「Y」)、この画像認識部204による認識結果は認識結果情報D06としてクライアント装置1側の車両位置情報計算部51に送信される。そして、クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果情報D06を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する(S108)。
【0119】
詳述すると、ここで生成されたCG画像であるシミュレーション用画像D13は、画像認識部204に入力して既に述べたようにオブジェクトの認識・検出を、例えばディープラーニング等の認識技術を用いて行う。得られた認識結果は他車両や、歩行者、標識、信号機のように画面中の領域情報(例えば抽出された矩形領域のXY2次元座標)で与えられる。
【0120】
自動走行運転のためのシミュレーターを実行する場合、実際の車両走行中の画像中には、他車両、歩行者、建物、路面などの数多くのオブジェクト(対象物)が存在する。自動走行運転の実現のためには、それらのオブジェクトを車両搭載のカメラ映像やミリ波、レーダー波等、各種センサーからのリアルタイムの情報を獲得しながら、例えば自動でハンドルを切る、アクセルを踏む、ブレーキをかける等の動作を行う。
【0121】
したがって、実施形態1の近赤外線画像の場合には画面内に映っている物の中から、例えば他の車両や歩行者、標識、信号機等の自動走行に必要なオブジェクトを、実施形態3で述べたようなディープラーニング等の画像認識技術によって認識・識別を行う。
【0122】
画像認識部204は、例えば他車両が自車両の前面に割り込んできた場合には、画像認識技術で接近を検知し、その認識結果の認識結果情報D06を車両位置情報計算部51に対して出力する。車両位置情報計算部51では、この情報を基にして例えば、ハンドルを切って回避する、ブレーキ動作で減速する等の動作を行い、自車両の位置情報を変更する。或いは、歩行者が急に自車の前に飛び出して来た場合には、ハンドルを切って回避する、急ブレーキを踏む等の動作を行い、同様にその結果として自車両の位置情報を変更する。
【0123】
なお、上記の一連の構成において、車両位置情報計算部51からUDP同期制御部202,UDP情報送受信部206を介してシミュレーション実行部205までのデータ送信は、例えばUDPプロトコルに従って、25msecごとの周期で送出できるものとする(25msecは一例である)。
【0124】
ここで、本発明の特徴である「同期モデル」の必要性についてであるが、シミュレーション実行部205からの出力結果に基づいて、次のタイムフレームの車両位置情報を決定するため、全体が同期した制御ができないと、実車両の挙動をシミュレートできなくなるからである。また25msecごとの周期で送出するとしたが、理想的にはゼロ遅延であるが現実的には不可能であるので、UDPを用いることで送受信に伴う遅延時間を削減している。
【0125】
一般に自動走行運転のシミュレーターの場合には、非常に多くの動画フレームに対してテストを行う必要がある。本実施形態によれば実走行でカバーし切れない絶対的な量を、ほぼ実写に近いCG映像で代用することを目的としている。したがって長いシーケンスの動画サンプルデータに対しての動作が保証されている必要がある。
【0126】
本実施形態では、学習部204bが、認識機能モジュール204aに対して、実走行時の車載カメラ装置による撮影画像以外にも、画像生成部203が生成した仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。認識機能モジュール204aは、カメラ装置により撮影された画像やCG画像を取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンにより、既に実施形態3で述べたディープラーニング認識技術によって認識を行う。
【0127】
[第6実施形態]
以下に添付図面を参照して、本発明に係るシステムの第6実施形態を詳細に説明する。
図20は、本実施形態に係るシステムの全体構成を示す概念図である。
図21は、本実施形態に係る装置の内部構成を示すブロック図である。上記第5実施形態では、主に自車両の台数が1台の場合に限った実施形態であったが、本実施形態では、多数の車両分の位置情報を同時並列的に処理する場合を例示している。
【0128】
図20に示すように、本実施形態では、シミュレーターサーバー2に複数のクライアント装置1c〜1fが接続されており、
図21に示すように、シミュレーターサーバー2において、UDP同期制御部202及びUDP情報送受信部206を共通の構成要素とし、シミュレーション対象となる車両の台数に応じて、各クライアント装置1c〜fには車両位置情報計算部51c〜fが設けられ、シミュレーターサーバー2側にはシミュレーション実行部205c〜fが設けられている。
【0129】
車両位置情報計算部51c〜fでは、先ず自車の車両位置情報D02c〜fを制御信号D03c〜fのタイミングに従って、UDP同期制御部202に対して送出する。次にUDP同期制御部202では、自車の車両位置情報D02c〜fをUDPパケッタイズすることで各種データ群を含むパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。パケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05c〜fは、シミュレーション実行部205c〜fに入力される。
【0130】
シミュレーション実行部205c〜fでは、既に第1実施形態で述べたように、所定の画像生成法例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06c〜fは車両位置情報計算部51c〜fにフィードバックされ、各車両の位置が変更される。
【0131】
なお、上記の例では合計4つの車両位置情報計算部51c〜fを備える場合を例示したが、この個数には特段制限はない。しかし、対応すべき車両の台数が増えれば、その結果同期制御も複雑になる上、ある車両で多くの遅延が発生した場合には、遅延時間は各々の合算であるので、トータルでの遅延時間の増大につながるという問題点にもなる。したがってシミュレーターのハードウェア規模や処理量などの条件によって、これらの構成を行えばよい。
【0132】
また、
図20では、PC端末1c〜1fと車両同期シミュレーター・プログラム4とが通信ネットワーク3を介してリモート接続されているが、PCのローカルのHDD、SSDなどの記録媒体にプログラムが実装されていて、スタンドアロンで動作させることも可能である。この場合にはさらに低遅延で検証を行うことができる利点がある上、ネットワーク帯域が混雑時に起こる輻輳等の影響も一切受けない利点もある。
【0133】
また、1c〜1fをPC端末と限定する必要なく、例えば実際の走行車両上でテストを行う場合には、テスト車両に搭載されたカーナビゲーションシステムであってもよい。この場合には、
図18の画像生成部203からのCG画像であるシミュレーション用画像D13を画像認識部204で認識するのではなく、実写の走行映像をD13の代わりに入力することになるので、画像認識部204の性能評価として利用することができる。例えば、実写の走行映像の中の歩行者や車両などは人間が見れば瞬時に正確に認識可能であるが、上記の画像認識部204で認識及び抽出された結果が、それらと同じになるかの検証を行うことができるからである。
【0134】
[第7実施形態]
さらに、本発明のシステムの第7実施形態について説明する。本実施形態では、複数個のセンサーを使った別の実施例について
図22を用いて説明する。この
図22では異なるデバイスのセンサーを搭載した例を示しており、同図においてディープラーニング認識部の1つは、例えばカメラのイメージセンサーであり、もう1つは例えば近赤外線センサーであり、又はLiDAR(Light Detection and Ranging)と仮定する。
【0135】
図22に示すように、1番最初のディープラーニング認識部61は例えばイメージセンサー部を用いたものであり、3Dグラフィックス合成画像は2次元平面の画像である。したがってディープラーニング認識手段は、2次元画像に対する認識手法を具備していることになる。一方、次のディープラーニング認識部62は、一方、LiDARセンサーを用いて入力した3D点群データである。この3D点群データは、画像生成部203において3Dグラフィック画像化される。
【0136】
上記の3Dグラフィック画像化された3D点群データについては、
図10で示したように、中央の走行車両の上に設置したLiDARから360度全方位にレーザー光を放射して反射光を測定した結果得られた点群データを示している。また色の強弱は反射光の気強さを示している。したがって隙間など空間が存在しない部分は反射光がないので、黒色になっている。
【0137】
実際の点群データから相手車両や歩行者、自転車などの対象オブジェクトを、3次元座標を持ったデータとして取得できるので、これらの対象オブジェクトの3Dグラフィック画像を容易に生成することが可能になる。具体的には、点群データを整合させることで複数個のポリゴンデータを生成し、3Dグラフィックはこれらのポリゴンデータをレンダリングすることで描画される。
【0138】
上記の手段によって生成された3D点群データグラフィック画像D61は、ディープラーニング認識部62に入力して、同部において3D点群データ用に学習された認識手段によって認識が実行される。したがって前記のイメージセンサー用の画像で学習されたディープラーニング認識手段とは異なる手段を用いることになるが、これによる効果は大きい。なぜならば、非常に遠方にある対向車はイメージセンサー−では取得できない可能性が高いが、LiDARの場合は数百メートル先の対向車の大きさや形状まで取得できるからである。逆にLiDARは反射光を用いているため、反射しない対象物には有効でないという欠点もあるが、イメージセンサーの場合にはこの問題はない。
【0139】
以上により、異なる性質又は異なるデバイスのセンサーを複数装備して、それらの認識結果を学習結果同期部84で分析して、最終的な認識結果D62を出力する。なお(なお)、この同期部は例えばクラウドなどのネットワークの外部で行ってもよい。理由としては1台当たりのセンサーの数が今後急激に増えるだけでなく、ディープラーニング認識処理の計算負荷も大きいため、外部で対応可能な部分については、大規模なコンピューティングパワーのあるクラウドで実行し、その結果をフィードバックする手段が有効だからである。
【0140】
なお(なお)、
図22の実施例は仮想的なCG画像を生成するケースであったが、既に実施形態1で述べたように、実際の車両に本アプリケーションシステムが搭載されて(カーナビゲーションのように)、実写走行を行いながら異なる種類のセンサーからの情報を入力して、ディープラーニング認識を行うこともできる。
図23はそのケースの具体的なブロック図である。
【0141】
素材撮影装置は、車載カメラに備えられたイメージセンサーの他、上記の通りLiDARのセンサーやミリ波のセンサーを想定している。イメージセンサーの場合には実写画像を取り込んで実写画像から抽出した光情報などのパラメータを用いて、実施形態1で述べたPBRの技術によって高品質なCG画像を生成されて、画像生成部203から送出される。一方、LiDARセンサーの場合には実際に車載のLiDARセンサーから放射されたビームのレーザー光の反射光から、3次元の点群データを作成する。そしてこの3次元点群データを3DCG化した画像が、上記の画像生成部203から出力される。
【0142】
このようにして、複数種類のセンサーに応じたCG画像が、画像生成部203から送出され、
図23の各々のディープラーニング認識部において所定の手段で認識処理が行われることになる。また上記の実施例では、LiDARセンサーを例にとって説明したが、他にも第2実施形態で述べた近赤外線センサーを用いることも有効である。