(58)【調査した分野】(Int.Cl.,DB名)
前記学習部は、前記コネクテッドカーの第1の属性情報、ならびに前記コネクテッドカーがいる場所の第1の環境情報および第1の周辺情報の少なくとも1つを前記教師データの入力としてさらに学習し、
前記推定部は、前記非コネクテッドカーの第2の属性情報、ならびに前記非コネクテッドカーがいる場所の第2の環境情報および第2の周辺情報の少なくとも1つを前記学習モデルにさらに入力することで出力される到達時間を前記第2の到達時間と推定することを特徴とする請求項3に記載の情報処理装置。
前記学習部は、前記第1の属性情報として、前記コネクテッドカーの第1のサイズ、第1の車種、第1の乗員の構成、第1のウインカーの状態、および第1のハザードランプの状態、前記第1の環境情報として、前記コネクテッドカーがいる第1のレーンおよび第1の路面状態、ならびに前記コネクテッドカーがいる場所の第1の天候、第1の気温、および第1の湿度、前記第1の周辺情報として、前記コネクテッドカーに対する第1の前方車の有無、ならびに前記コネクテッドカーがいる場所周辺の第1の信号の状態、第1の渋滞状況、および第1の工事や第1のイベントの有無の少なくとも1つを前記教師データの入力としてさらに学習し、
前記推定部は、前記第2の属性情報として、前記非コネクテッドカーの第2のサイズ、第2の車種、第2の乗員の構成、第2のウインカーの状態、および第2のハザードランプの状態、前記第2の環境情報として、前記非コネクテッドカーがいる第2のレーンおよび第2の路面状態、ならびに前記非コネクテッドカーがいる場所の第2の天候、第2の気温、および第2の湿度、前記第2の周辺情報として、前記非コネクテッドカーに対する第2の前方車の有無、ならびに前記非コネクテッドカーがいる場所周辺の第2の信号の状態、第2の渋滞状況、および第2の工事や第2のイベントの有無の少なくとも1つを前記学習モデルにさらに入力することで出力される到達時間を前記第2の到達時間と推定することを特徴とする請求項4に記載の情報処理装置。
前記第3の位置情報および前記第2の到達時間に少なくとも基づいて、通知が必要な第4のコネクテッドカーを検索し、前記第4のコネクテッドカーに前記非コネクテッドカーに関する情報を通知する通知部をさらに備えたことを特徴とする請求項1または2に記載の情報処理装置。
【図面の簡単な説明】
【0010】
【
図1】
図1は、実施形態に係る情報処理システムの構成例を示す図である。
【
図2】
図2は、実施形態に係る情報処理装置100の車両認識の例を示す図である。
【
図3】
図3は、実施形態に係る情報処理装置100の機能構成例を示す図である。
【
図4】
図4は、実施形態に係るカメラ検出情報記憶部121に記憶される情報の例を示す図である。
【
図5】
図5は、実施形態に係るGNNS位置情報記憶部122に記憶される情報の例を示す図である。
【
図6】
図6は、実施形態に係る通知内容情報記憶部123に記憶される情報の例を示す図である。
【
図7】
図7は、実施形態に係る学習処理の例を示す図である。
【
図8】
図8は、実施形態に係る推定処理の例を示す図である。
【
図9】
図9は、実施形態に係る学習処理の流れを示すフローチャートである。
【
図10】
図10は、実施形態に係る推定処理の流れを示すフローチャートである。
【
図11】
図11は、実施形態に係る推定処理の変形例を示す図である。
【
図12】
図12は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
【0011】
以下に、本願に係る情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。以下に、カメラにより検出することができない対象位置までの非コネクテッドカーの到達時間を推定することができる本実施形態について説明する。
【0012】
〔1.情報処理システムの構成〕
図1を用いて情報処理システムの構成について説明する。
図1は、実施形態に係る情報処理システムの構成例を示す図である。
図1に示すように、情報処理システムは、情報処理装置100、1つまたは複数の監視カメラ200−1〜200−n(nは任意の整数。以下、まとめて「監視カメラ200」という)、コネクテッドカー300を含む。情報処理装置100と、監視カメラ200およびコネクテッドカー300とは、ネットワークNを介して相互に通信可能に接続される。ネットワークNは、有線、無線を問わず、インターネットなどの各種通信網を採用することができる。
【0013】
情報処理装置100は、例えば、道路設備などを管理する道路会社によって管理されるサーバ装置である。情報処理装置100は、監視カメラ200から非コネクテッドカー400の位置情報や速度を受信し、対象位置までの非コネクテッドカー400の到達時間を推定する。そのために、情報処理装置100は、監視カメラ200からコネクテッドカー300の位置情報や速度、およびコネクテッドカー300からGNNS位置情報を受信し、これらの情報を用いて学習モデルを生成する。なお、情報処理装置100は、クラウドサーバ装置であってもよいし、複数台のコンピュータで構成される分散型コンピューティングシステムであってもよい。
【0014】
監視カメラ200は、例えば、監視カメラを備えた道路設備である。監視カメラ200は、コネクテッドカー300や非コネクテッドカー400を検出し、コネクテッドカー300や非コネクテッドカー400の位置情報や速度を情報処理装置100に送信する。
【0015】
コネクテッドカー300は、車載カメラやコネクテッド機能を備えた自動車である。コネクテッドカー300も、他のコネクテッドカー300や非コネクテッドカー400を検出し、他のコネクテッドカー300や非コネクテッドカー400の位置情報や速度を情報処理装置100に送信する。このように、コネクテッドカー300に搭載された車載カメラにより検出されるコネクテッドカー300や非コネクテッドカー400の位置情報や速度を用いることで、監視カメラ200では検出できないような位置にいる非コネクテッドカー400の対象位置への到達時間を推定することができる。
【0016】
非コネクテッドカー400は、コネクテッド機能を持たない自動車やバイクなどの移動体である非コネクテッドカー400は、監視カメラ200で検出されれば、情報処理装置100によって認識されるが、監視カメラ200などで検出されない場合は認識されない。
【0017】
図2は、実施形態に係る情報処理装置100の車両認識の例を示す図である。
図2の左側に示すように、コネクテッドカー300−1や非コネクテッドカー400−1は、監視カメラ200によって検出される位置にいるため、情報処理装置100はそれらの位置を認識することができる。また、コネクテッドカー300−2は、監視カメラ200によって検出される位置にいないが、情報処理装置100は、コネクテッドカー300−2から送信されるGNNS位置情報によってその位置を認識することができる。一方、非コネクテッドカー400−2は、監視カメラ200によって検出される位置にいないため、情報処理装置100はその位置を認識することができない。そのため、情報処理装置100の車両認識は
図2の右側に示すようになり、非コネクテッドカー400−2の位置のみならず、その存在すら認識することができない。そのため、このような非コネクテッドカー400の存在を認識し、コネクテッドカー300に通知することが事故防止などに繋がる。
【0018】
〔2.情報処理装置100の構成〕
次に、
図3を用いて、実施形態に係る情報処理装置100の機能構成について説明する。
図3は、実施形態に係る情報処理装置100の機能構成例を示す図である。
図3に示すように、情報処理装置100は、通信部110、記憶部120、制御部130を備える。
【0019】
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)などによって実現される。通信部110は、インターネットなどの各種通信網と有線または無線で接続され、監視カメラ200やコネクテッドカー300などとの間で情報の送受信を行うことができる。
【0020】
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置によって実現される。
図3に示すように、記憶部120は、カメラ検出情報記憶部121、GNNS位置情報記憶部122、通知内容情報記憶部123を有する。以下、記憶部120に含まれる各記憶部について順に説明する。
【0021】
(カメラ検出情報記憶部121)
カメラ検出情報記憶部121は、監視カメラ200や別のコネクテッドカー300によって検出されたコネクテッドカー300や非コネクテッドカー400に関する情報を記憶する。
図4は、実施形態に係るカメラ検出情報記憶部121に記憶される情報の例を示す図である。
図4に示す例では、カメラ検出情報記憶部121は、「車両ナンバー、検出位置、速度、検出日時、検出装置ID」などを対応付けて記憶する。このようなカメラ検出情報の各種情報は、コネクテッドカー300や非コネクテッドカー400を検出した監視カメラ200などによって生成されるトランザクションデータである。または、情報処理装置100が、監視カメラ200やコネクテッドカー300から送信されてきたカメラ映像(画像)に対してナンバープレート解析や速度解析をするなどして、カメラ検出情報の各種情報を生成することもできる。
【0022】
「車両ナンバー」は、監視カメラ200で捉えたコネクテッドカー300や非コネクテッドカー400のナンバープレートを解析することにより得られる各車両の識別子である。なお、非コネクテッドカー400が自転車など、車両ナンバーを持たない移動体の場合、「車両ナンバー」は、当該移動体を一意に示すことができる任意の識別子である。なお、「車両ナンバー」は、例えば、非コネクテッドカー400を複数の監視カメラ200やコネクテッドカー300で捕捉する場合、情報処理装置100が非コネクテッドカー400の同一性を認識する際に用いられる。
【0023】
「検出位置」は、コネクテッドカー300や非コネクテッドカー400を検出した監視カメラ200などの位置(緯度および経度)であってよい。しかしながら、カメラ映像からコネクテッドカー300や非コネクテッドカー400のより正確な位置が検出できる場合は、各車両の緯度および経度である。
【0024】
「速度」は、コネクテッドカー300や非コネクテッドカー400を検出した際の、各車両の速度(例えば、時速)である。コネクテッドカー300や非コネクテッドカー400の速度は、例えば、カメラ映像のフレーム間隔と、フレーム間での各車両の移動距離とに基づいて算出することができる。
【0025】
「検出日時」は、例えば、監視カメラ200などがコネクテッドカー300や非コネクテッドカー400を検出した時の監視カメラ200やコネクテッドカー300のシステム日時である。または、カメラ映像に関連付けて記録される日時であってもよい。
【0026】
「検出装置ID」は、コネクテッドカー300や非コネクテッドカー400を検出した監視カメラ200や別のコネクテッドカー300を一意に示す識別子である。
【0027】
(GNNS位置情報記憶部122)
GNNS位置情報記憶部122は、コネクテッドカー300の位置情報を記憶する。
図5は、実施形態に係るGNNS位置情報記憶部122に記憶される情報の例を示す図である。
図5に示す例では、GNNS位置情報記憶部122は、「車両ID、現在位置、位置受信日時」などを対応付けて記憶する。このようなGNNS位置情報の各種情報は、例えば、コネクテッドカー300によって、GNSS測位衛星から受信され、生成されるトランザクションデータである。
【0028】
「車両ID」は、コネクテッドカー300を一意に示す識別子である。「車両ID」は、上述した「車両ナンバー」であってもよいが、
図5の例では、GNSS測位衛星との間でも用いる識別子として別の識別子にしている。そのため、情報処理装置100の記憶部120は、「車両ID」と「車両ナンバー」とのマッピングデータ(図示せず)をさらに記憶してもよい。
【0029】
「現在位置」は、例えば、コネクテッドカー300が現在いる緯度および経度を示す(厳密には、「位置受信日時」にいた緯度および経度)。
【0030】
「位置受信日時」は、例えば、コネクテッドカー300がGNSS測位衛星から位置情報を受信した時のコネクテッドカー300のシステム日時である。
【0031】
(通知内容情報記憶部123)
通知内容情報記憶部123は、監視カメラ200やコネクテッドカー300によって検出された非コネクテッドカー400の存在を知らせるための通知内容に関する情報を記憶する。
図6は、実施形態に係る通知内容情報記憶部123に記憶される情報の例を示す図である。
図6に示す例では、通知内容情報記憶部123は、「通知先車両ID、通知内容」などを対応付けて記憶する。このような通知内容情報の各種情報は、情報処理装置100によって生成されるトランザクションデータである。
【0032】
「通知先車両ID」は、通知内容の通知先であるコネクテッドカー300を一意に示す識別子である。「通知先車両ID」は、上述した「車両ID」であってよいし、「車両ナンバー」であってもよい。
【0033】
「通知内容」は、コネクテッドカー300に通知される通知内容である。推測された非コネクテッドカー400の位置やその位置までの到達時間などに基づいて、コネクテッドカー300の運転手などが理解し易いように自然言語化されてよい。
【0034】
(制御部130)
制御部130は、情報処理装置100全体を司る処理部であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)など(いわゆる、プロセッサ)である。制御部130は、記憶部120に記憶されている各種プログラム(例えば、本願に係る情報処理プログラム)を、作業領域となるRAMに展開して実行する。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路により実現される。
【0035】
図3に示すように、制御部130は、受信部131、算出部132、学習部133、推定部134、通知部135を有し、以下に説明する各機能や作用を実現または実行する。なお、制御部130の内部構成は、
図3に示した構成に限られず、後述する学習処理や推定処理を実行する構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、
図3に示した接続関係に限られず、他の接続関係であってもよい。
【0036】
また、情報処理装置100は、コネクテッドカー300の位置、速度、および対象位置までの到達時間を基に学習モデルを生成し(学習フェーズ)、非コネクテッドカー400の位置および速度を当該学習モデルに入力することで非コネクテッドカー400の対象位置までの到達時間、換言するとある時点での非コネクテッドカー400の位置を推定する(推定フェーズ。予測・認識フェーズなどともいう)。そのため、情報処理装置100の各構成で実行される処理も、学習フェーズの処理(学習処理)と推定フェーズの処理(推定処理)にわかれる。なお、推定対象の「対象位置」は、主に、コネクテッドカー300にとって死角となり得る、付近に監視カメラ200が無い位置である。対象位置の正確な特定は、学習フェーズ時に、対象位置でのコネクテッドカー300のGNSS位置情報を受信することによって行われる。
【0037】
(受信部131)
まず、受信部131の学習処理について説明する。受信部131は、監視カメラ200や別のコネクテッドカー300によって検出されカメラ検出情報記憶部121に記憶されたコネクテッドカー300の位置情報および速度を受信する。また、受信部131は、GNSSから受信されGNNS位置情報記憶部122に記憶されたコネクテッドカー300のGNSS位置情報を受信する。
【0038】
一方、受信部131の推定処理では、受信部131は、監視カメラ200やコネクテッドカー300によって検出されカメラ検出情報記憶部121に記憶された非コネクテッドカー400の位置情報および速度を受信する。
【0039】
また、本実施形態の変形例として、非コネクテッドカー400と共に監視カメラ200などによって検出されたコネクテッドカー300(「第3のコネクテッドカー」に相当)のGNSS位置情報(「第2のGNSS位置情報」に相当)にさらに基づいて、非コネクテッドカー400の対象位置までの到達時間を推定することもできる。そのため、受信部131は、非コネクテッドカー400と共に、監視カメラ200やコネクテッドカー300によって検出された第3のコネクテッドカー300の第2のGNSS位置情報をGNNS位置情報記憶部122から受信する。
【0040】
(算出部132)
算出部132は、カメラによって検出されたコネクテッドカー300の位置情報が示す位置から、GNSS位置情報が示す位置までの到達時間を算出する。ここで、到達時間は、例えば、カメラ検出情報(
図4)の「検出日時」と、GNNS位置情報(
図5)の「位置受信日時」との差分時間である。
【0041】
(学習部133)
学習部133は、監視カメラ200や別のコネクテッドカー300によって検出されたコネクテッドカー300の位置情報(「第1の位置情報」に相当)および速度(「第1の速度」に相当)を入力、ならびに対象位置までの到達時間を正解とする教師データを学習し、学習モデルを生成する。そのために、学習部133は、コネクテッドカー300の位置情報が示す位置から対象位置までの到達時間を算出する。
【0042】
また、学習部133は、コネクテッドカー300の属性情報として、コネクテッドカー300のサイズ、車種、乗員の構成、ウインカーの状態、およびハザードランプの状態、コネクテッドカー300がいる場所の環境情報として、コネクテッドカー300がいるレーンおよび路面状態、ならびにコネクテッドカー300がいる場所の天候、気温、および湿度、コネクテッドカー300がいる場所の周辺情報として、コネクテッドカー300に対する前方車の有無、ならびにコネクテッドカー300がいる場所周辺の信号の状態、渋滞状況、および工事やイベントの有無の少なくとも1つを教師データの入力として学習モデルをさらに学習することができる。
【0043】
(推定部134)
推定部134は、監視カメラ200などによって検出されたコネクテッドカー300の速度および対象位置までの到達時間、ならびに監視カメラ200などよって検出された非コネクテッドカー400の位置情報(「第2の位置情報」に相当)および速度(「第2の速度」に相当)に基づいて、第2の位置情報が示す位置から対象位置までの非コネクテッドカー400の到達時間(「第2の到達時間」に相当)を推定する。この推定には、学習部133によって学習された上述の学習モデルを用いることができる。そのため、推定部134は、非コネクテッドカー400の位置情報および速度を当該学習モデルに入力することで出力される到達時間を対象位置までの非コネクテッドカー400の到達時間と推定することができる。
【0044】
また、推定部134は、非コネクテッドカー400の属性情報として、非コネクテッドカー400の第2のサイズ、第2の車種、第2の乗員の構成、第2のウインカーの状態、および第2のハザードランプの状態、非コネクテッドカー400の環境情報として、非コネクテッドカー400がいる第2のレーンおよび第2の路面状態、ならびに非コネクテッドカー400がいる場所の第2の天候、第2の気温、および第2の湿度、非コネクテッドカー400の周辺情報として、非コネクテッドカー400に対する第2の前方車の有無、ならびに非コネクテッドカー400がいる場所周辺の第2の信号の状態、第2の渋滞状況、および第2の工事や第2のイベントの有無の少なくとも1つを学習部133によって学習された上述の学習モデルにさらに入力することで出力される到達時間を対象位置までの非コネクテッドカー400の到達時間と推定することができる。
【0045】
また、推定部134は、本実施形態の変形例として、非コネクテッドカー400と共に監視カメラ200などによって検出されたコネクテッドカー300のGNSS位置情報にさらに基づいて、非コネクテッドカー400の位置や対象位置までの到達時間を推定することができる。
【0046】
(通知部135)
通知部135は、対象位置、および推定部134によって推定された非コネクテッドカー400の対象位置までの到達時間に少なくとも基づいて、通知が必要なコネクテッドカー300(「第4のコネクテッドカー」に相当)を検索し、当該コネクテッドカー300に非コネクテッドカー400に関する情報を通知する。なお、対象位置は、学習フェーズ時にコネクテッドカー300のGNSS位置情報から特定することができる。そのため、通知部135は、例えば、非コネクテッドカー400が対象位置に到達する時刻に、対象位置の周辺(例えば、対象位置から300m以内)にいるコネクテッドカー300に、非コネクテッドカー400の存在を知らせる情報を通知することができる。このような、対象位置に到達する時刻に対象位置の周辺にいるコネクテッドカー300も、推定部134が各コネクテッドカー300の位置情報や速度を学習モデルに入力することによって推定することができる。なお、通知部135は、対象位置の周辺にはいるが、対象位置から遠ざかっているようなコネクテッドカー300を、通知対象から除外することもできる。このように、通知が必要なコネクテッドカー300に非コネクテッドカー400に関する情報を通知することにより、非コネクテッドカー400による事故を未然に防ぐことができる。
【0047】
〔3.学習処理の詳細〕
次に、
図7を用いて、本実施形態の学習処理についてより具体的に説明する。
図7は、実施形態に係る学習処理の例を示す図である。
図7に示すように、監視カメラ200−1は、時刻t
1にコネクテッドカー300−1を検出し、検出したコネクテッドカー300−1の位置情報、および速度を、情報処理装置100に送信する。次に、情報処理装置100は、監視カメラ200−1によって検出された時刻t
1のコネクテッドカー300−1の位置情報、および速度を受信する。そして、情報処理装置100は、コネクテッドカー300−1から送信された時刻t
4のGNSS位置情報を受信する。なお、時刻t
4にコネクテッドカー300−1がいる位置は、監視カメラ200が設置されていない交差点Xであり、情報処理装置100によって車両認識ができない位置である。例えば、この位置を推定部134によって推定される対象位置とする。そして、情報処理装置100は、時刻t
1のコネクテッドカー300−1の位置情報、および速度を入力、ならびに対象位置までの到達時間(時刻t
1と時刻t
4との差分)を正解とする教師データを学習し、学習モデルを生成する。
【0048】
同様に、情報処理装置100は、別のコネクテッドカー300−2によって検出された時刻t
2のコネクテッドカー300−1の位置情報、および速度や、監視カメラ200−2によって検出された時刻t
3のコネクテッドカー300−1の位置情報、および速度を入力とし、対象位置までのそれぞれの到達時間を正解とする教師データを学習し、学習モデルを生成することができる。
【0049】
なお、情報処理装置100は、コネクテッドカー300−1から送信された、時刻t
1、t
2、t
3それぞれのGNSS位置情報を、監視カメラ200−1などによって検出されたそれぞれの位置情報と照合し、位置情報の整合性をとることができる。
【0050】
このように、情報処理装置100は、監視カメラ200などの各カメラによって検出された、対象位置に到達するコネクテッドカー300の位置情報および速度と、対象位置までの到達時間とを繰り返し学習させて、学習モデルを生成することができる。なお、情報処理装置100は、さらに様々な条件(上述したコネクテッドカー300のサイズや車種など)を入力して学習させる。これにより、様々な条件下でより正確に非コネクテッドカー400の到達時間を推定するための学習モデルを生成することができる。
【0051】
また、本実施形態の学習モデルは、非コネクテッドカー400の位置情報および速度が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された位置情報および速度に応じて、非コネクテッドカー400の対象位置までの到達時間を出力層から出力するよう、情報処理装置100を機能させる。
【0052】
なお、本実施形態の学習モデルを生成する生成装置(例えば、サーバ装置などの情報処理装置100)は、いかなる学習アルゴリズムを用いて上述の学習モデルを生成してもよい。例えば、生成装置は、ニューラルネットワーク(NN:Neural Network)、サポートベクターマシン(SVM:Support Vector Machine)、クラスタリング、強化学習などの学習アルゴリズムを用いて本実施形態の学習モデルを生成してもよい。一例として、生成装置がNNを用いて本実施形態の学習モデルを生成するとする。この場合、学習モデルは、1つ以上のニューロンを含む入力層と、1つ以上のニューロンを含む中間層と、1つ以上のニューロンを含む出力層とを有していてもよい。
【0053】
ここで、本実施形態に係る学習モデルが「y=a
1*x
1+a
2*x
2+・・・+a
i*x
i」で示す回帰モデルで実現されるとする。この場合、学習モデルが含む第1要素は、x
1やx
2などといった入力データ(x
i)に対応する。また、第1要素の重みは、x
iに対応する係数a
iに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンとみなすことができる。各モデルを単純パーセプトロンとみなした場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードとみなすことができる。
【0054】
また、本実施形態に係る学習モデルがDNN(Deep Neural Network)など、1つまたは複数の中間層を有するNNで実現されるとする。この場合、学習モデルが含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。
【0055】
上述した回帰モデルやNNなど、任意の構造を有する学習モデルを用いて、非コネクテッドカー400の対象位置までの到達時間を算出する。より具体的には、学習モデルは、非コネクテッドカー400の位置情報および速度が入力された場合に、当該非コネクテッドカー400の対象位置までの到達時間を出力するように係数が設定される。本実施形態に係る学習モデルは、データの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。
【0056】
なお、上記例では、本実施形態に係る学習モデルが、非コネクテッドカー400の位置情報および速度が入力された場合に、当該非コネクテッドカー400の対象位置までの到達時間を出力するモデル(モデルAとする)である例を示した。しかしながら、本実施形態に係る学習モデルは、モデルAに対しデータの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、本実施形態に係る学習モデルは、非コネクテッドカー400の位置情報および速度を入力とし、モデルAが出力する非コネクテッドカー400の対象位置までの到達時間を出力とする学習モデル(モデルBとする)であってもよい。または、本実施形態に係る学習モデルは、非コネクテッドカー400の位置情報および速度を入力とし、モデルBが出力する非コネクテッドカー400の対象位置までの到達時間を出力とする学習モデルであってもよい。
【0057】
〔4.推定処理の詳細〕
次に、
図8を用いて、本実施形態の推定処理についてより具体的に説明する。
図8は、実施形態に係る推定処理の例を示す図である。
図8に示すように、例えば、監視カメラ200−1が時刻t
11に非コネクテッドカー400を検出したとする。監視カメラ200−1は、検出した非コネクテッドカー400の位置情報および速度を情報処理装置100に送信する。次に、情報処理装置100は、監視カメラ200−1によって検出された時刻t
11の非コネクテッドカー400の位置情報、および速度を受信する。そして、情報処理装置100は、時刻t
11の非コネクテッドカー400の位置情報、および速度を学習モデルに入力することで出力される到達時間を、非コネクテッドカー400が時刻t
11にいた位置から対象位置までの到達時間と推定する。なお、対象位置とは、例えば、監視カメラ200が設置されていない交差点Xであり、情報処理装置100によって車両認識ができない位置である(
図8では、時刻t
14に非コネクテッドカー400がいる位置である)。
【0058】
同様に、情報処理装置100は、コネクテッドカー300によって検出された時刻t
12の非コネクテッドカー400の位置情報、および速度や、監視カメラ200−2によって検出された時刻t
13の非コネクテッドカー400の位置情報、および速度を学習モデルに入力することで、非コネクテッドカー400が時刻t
12や時刻t
13にいた位置から対象位置までの到達時間をそれぞれ推定することができる。
【0059】
このように、情報処理装置100は、監視カメラ200などの各カメラによって検出された、非コネクテッドカー400の位置情報および速度を学習モデルに入力することで、対象位置までの到達時間を推定することができる。換言すると、対象位置に非コネクテッドカー400がいる時刻が推定される。さらに、対象位置を増やすことで、監視カメラ200などの各カメラに検出されない間の非コネクテッドカー400の位置(挙動)を推定することができる。なお、情報処理装置100は、さらに様々な条件(上述したコネクテッドカー300のサイズや車種など)で学習させた学習モデルに対し、非コネクテッドカー400の様々な条件(上述した非コネクテッドカー400のサイズや車種など)をさらに入力する。これにより、様々な条件下でより正確に非コネクテッドカー400の到達時間を推定することができる。
【0060】
〔5.学習処理の手順〕
次に、
図9を用いて、実施形態に係る学習処理の手順について説明する。
図9は、実施形態に係る学習処理の流れを示すフローチャートである。本処理は、非コネクテッドカー400の対象位置への到達時間を推定する学習モデルを生成するために、情報処理装置100によって実行される。また、情報処理装置100が、例えば、監視カメラ200や別のコネクテッドカー300によって検出されたコネクテッドカー300の位置情報および速度を受信することをトリガーに開始される。
【0061】
まず、
図9に示すように、情報処理装置100の受信部131は、カメラ検出情報記憶部121に記憶されたコネクテッドカー300の位置情報および速度を受信する(ステップS101)。これら位置情報および速度は、上述したように、監視カメラ200または別のコネクテッドカー300によって検出され、検出した監視カメラ200または別のコネクテッドカー300によって情報処理装置100に送信される情報である。
【0062】
次に、受信部131は、GNNS位置情報記憶部122に記憶されたコネクテッドカー300のGNSS位置情報を受信する(ステップS102)。このGNSS位置情報は、コネクテッドカー300によってGNSS測位衛星から受信され、コネクテッドカー300によって情報処理装置100に送信される情報である。
【0063】
次に、情報処理装置100の学習部133は、受信部131によって受信されたコネクテッドカー300の位置情報が示す位置からGNSS位置情報が示す位置(対象位置)までの到達時間を算出する(ステップS103)。当該到達時間は、例えば、コネクテッドカー300の位置情報が監視カメラ200または別のコネクテッドカー300によって検出された日時と、GNSS測位衛星によってGNSS位置情報が受信された日時との差分から算出することができる。
【0064】
次に、学習部133は、受信部131によって受信されたコネクテッドカー300の位置情報および速度を入力、ならびに算出した到達時間を正解とする教師データを学習し、学習モデルを生成する(ステップS104)。また、学習部133は、教師データの入力として、上述したような様々な条件(コネクテッドカー300のサイズや車種など)をさらに学習してもよい。ステップS104の後、本処理は終了するが、学習部133はさらに、コネクテッドカー300の位置や速度などを変えて繰り返し学習を行うことができる。
【0065】
〔6.推定処理の手順〕
次に、
図10を用いて、実施形態に係る推定処理の手順について説明する。
図10は、実施形態に係る推定処理の流れを示すフローチャートである。本処理は、上述した学習処理により生成された学習モデルを用いて非コネクテッドカー400の対象位置への到達時間を推定し、通知が必要なコネクテッドカー300に通知を行うために、情報処理装置100によって実行される。また、情報処理装置100が、例えば、監視カメラ200やコネクテッドカー300によって検出された非コネクテッドカー400の位置情報および速度を受信することをトリガーに開始される。
【0066】
まず、
図10に示すように、情報処理装置100の受信部131は、カメラ検出情報記憶部121に記憶された非コネクテッドカー400の位置情報および速度を受信する(ステップS201)。これら位置情報および速度は、上述したように、監視カメラ200またはコネクテッドカー300によって検出され、検出した監視カメラ200またはコネクテッドカー300によって情報処理装置100に送信される情報である。
【0067】
次に、情報処理装置100の推定部134は、受信部131によって受信された非コネクテッドカー400の位置情報および速度を、上述した学習処理により生成された学習モデルに入力する。そして、推定部134は、当該学習モデルから出力される到達時間を対象位置までの非コネクテッドカー400の到達時間と推定する(ステップS202)。
【0068】
次に、情報処理装置100の通知部135は、対象位置、および推定部134によって推定された非コネクテッドカー400の対象位置までの到達時間に少なくとも基づいて、通知が必要なコネクテッドカー300を検索する(ステップS203)。通知が必要なコネクテッドカー300とは、上述したように、例えば、非コネクテッドカー400が対象位置に到達する時刻に対象位置から300m以内にいるコネクテッドカー300である。
【0069】
次に、通知部135は、通知が必要なコネクテッドカー300に、例えば、非コネクテッドカー400の存在を知らせる情報を通知する(ステップS204)。ステップS204の後、本処理は終了する。
【0070】
〔7.変形例〕
次に、実施形態に係る情報処理装置100の推定処理の変形例について説明する。
図11は、実施形態に係る推定処理の変形例を示す図である。
図11に示すように、例えば、監視カメラ200−1が時刻t
21に非コネクテッドカー400と共に、例えば、非コネクテッドカー400の前後を走るコネクテッドカー300−1を検出したとする。この場合、情報処理装置100は、コネクテッドカー300−1から送信されてくるGNSS位置情報およびコネクテッドカー300−1の速度を学習モデルに入力することで出力される到達時間を、非コネクテッドカー400が時刻t
21にいた位置から対象位置(例えば、時刻t
24に非コネクテッドカー400がいる位置)までの到達時間と推定する。当該推定は、非コネクテッドカー400の位置の特定にコネクテッドカー300−1のGNSS位置情報を用いるため、監視カメラ200で検出された非コネクテッドカー400の位置情報を用いるよりも正確な推定を行うことができる。
【0071】
〔8.効果〕
上述してきたように、実施形態に係る情報処理装置100は、受信部131、算出部132、および推定部134を有する。受信部131は、カメラ(監視カメラ200および/または別のコネクテッドカー300)で検出されたコネクテッドカー300の第1の位置情報および第1の速度をカメラから受信する。また、受信部131は、コネクテッドカー300から第3の位置情報を受信する。算出部132は、第1の位置情報が示す位置から第3の位置情報が示す位置までの第1の到達時間を算出する。また、受信部131は、カメラで検出された非コネクテッドカー400の第2の位置情報および第2の速度を受信する。推定部134は、第1の速度、第1の到達時間、第2の位置情報、および第2の速度に基づいて、第2の位置情報が示す位置から第3の位置情報が示す位置までの非コネクテッドカー400の第2の到達時間を推定する。
【0072】
このように、実施形態に係る情報処理装置100は、コネクテッドカー300の速度、カメラで検出されたコネクテッドカー300の位置から対象位置までの到達時間、ならびにカメラで検出された非コネクテッドカー400の位置情報および速度に基づいて、非コネクテッドカー400の対象位置までの到達時間を推定する。これにより、カメラにより検出することができない対象位置までの非コネクテッドカー400の到達時間を推定することができる。
【0073】
また、実施形態に係る情報処理装置100は、第1の位置情報および第1の速度を入力、ならびに第1の到達時間を正解とする教師データを学習し、学習モデルを生成する学習部133をさらに備え、情報処理装置100の推定部134は、第2の位置情報および第2の速度を学習モデルに入力し、出力される到達時間を第2の到達時間と推定する。
【0074】
このように、実施形態に係る情報処理装置100は、カメラで検出されたコネクテッドカー300の位置情報および速度を入力、コネクテッドカー300の対象位置までの到達時間を正解とする教師データによる学習モデルを用いて非コネクテッドカー400の対象位置までの到達時間を推定する。これにより、カメラにより検出することができない対象位置までの非コネクテッドカー400の到達時間をより正確に推定することができる。
【0075】
また、実施形態に係る情報処理装置100の学習部133は、コネクテッドカー300の第1の属性情報、ならびにコネクテッドカー300がいる場所の第1の環境情報および第1の周辺情報の少なくとも1つを教師データの入力としてさらに学習し、推定部134は、非コネクテッドカー400の第2の属性情報、ならびに非コネクテッドカー400がいる場所の第2の環境情報および第2の周辺情報の少なくとも1つを学習モデルにさらに入力することで出力される到達時間を第2の到達時間と推定する。
【0076】
このように、実施形態に係る情報処理装置100は、学習モデルにさらに様々な条件を入力して学習させることにより、様々な条件下でより正確に非コネクテッドカー400の到達時間を推定することができる。
【0077】
また、実施形態に係る情報処理装置100の学習部133は、コネクテッドカー300の第1の属性情報として、コネクテッドカー300の第1のサイズ、第1の車種、第1の乗員の構成、第1のウインカーの状態、および第1のハザードランプの状態、コネクテッドカー300の第1の環境情報として、コネクテッドカー300がいる第1のレーンおよび第1の路面状態、ならびにコネクテッドカー300がいる場所の第1の天候、第1の気温、および第1の湿度、コネクテッドカー300の第1の周辺情報として、コネクテッドカー300に対する第1の前方車の有無、ならびにコネクテッドカー300がいる場所周辺の第1の信号の状態、第1の渋滞状況、および第1の工事や第1のイベントの有無の少なくとも1つを教師データの入力としてさらに学習し、推定部134は、非コネクテッドカー400の第2の属性情報として、非コネクテッドカー400の第2のサイズ、第2の車種、第2の乗員の構成、第2のウインカーの状態、および第2のハザードランプの状態、非コネクテッドカー400の環境情報として、非コネクテッドカー400がいる第2のレーンおよび第2の路面状態、ならびに非コネクテッドカー400がいる場所の第2の天候、第2の気温、および第2の湿度、非コネクテッドカー400の周辺情報として、非コネクテッドカー400に対する第2の前方車の有無、ならびに非コネクテッドカー400がいる場所周辺の第2の信号の状態、第2の渋滞状況、および第2の工事や第2のイベントの有無の少なくとも1つを学習モデルにさらに入力することで出力される到達時間を第2の到達時間と推定する。
【0078】
このように、実施形態に係る情報処理装置100は、学習モデルにさらに様々な条件を入力して学習させることにより、様々な条件下でより正確に非コネクテッドカー400の到達時間を推定することができる。
【0079】
また、実施形態に係るカメラは、位置の異なる複数のカメラである。
【0080】
このように、実施形態に係る情報処理装置100は、位置の異なる複数のカメラにより検出されたコネクテッドカー300および非コネクテッドカー400の位置情報および速度を用いて、対象位置への到達時間を推定する。これにより、カメラにより検出することができない対象位置までの非コネクテッドカー400の到達時間をより正確に推定することができる。
【0081】
また、実施形態に係るカメラは、カメラは、第2のコネクテッドカー300の車載カメラである。
【0082】
このように、実施形態に係る情報処理装置100は、車載カメラにより検出されたコネクテッドカー300および非コネクテッドカー400の位置情報および速度を用いて、対象位置への到達時間を推定する。これにより、監視カメラ200が設置されておらず、検出できないような位置にいる非コネクテッドカー400の対象位置への到達時間を推定することができる。
【0083】
また、実施形態に係る情報処理装置100の受信部131は、非コネクテッドカー400と共にカメラで検出された第3のコネクテッドカー300の第4の位置情報を受信し、実施形態に係る情報処理装置100の推定部134は、第4の位置情報にさらに基づいて、第2の到達時間を推定する。
【0084】
このように、実施形態に係る情報処理装置100は、非コネクテッドカー400と共にカメラで検出されたコネクテッドカー300の位置情報に基づいて、非コネクテッドカー400の対象位置への到達時間を推定する。これにより、非コネクテッドカー400の位置の推定を、非コネクテッドカー400のカメラで検出された位置情報を用いるよりも正確に行うことができる。
【0085】
また、実施形態に係る情報処理装置100の受信部131は、第3の位置情報として、コネクテッドカー300が全地球型航法衛星システム(GNSS)から受信した第1のGNSS位置情報を受信し、第4の位置情報として、第3のコネクテッドカー300がGNSSから受信した第2のGNSS位置情報を受信する。
【0086】
このように、コネクテッドカー300の位置情報にGNSS位置情報を用いることで、非コネクテッドカー400の対象位置への到達時間をより正確に推定することができる。
【0087】
また、実施形態に係る情報処理装置100は、第3の位置情報および第2の到達時間に少なくとも基づいて、通知が必要な第4のコネクテッドカー300を検索し、第4のコネクテッドカー300に非コネクテッドカー400に関する情報を通知する通知部135をさらに備える。
【0088】
このように、実施形態に係る情報処理装置100は、通知が必要なコネクテッドカー300を検索し、非コネクテッドカー400に関する情報を通知することにより、非コネクテッドカー400による事故を未然に防ぐことができる。
【0089】
また、実施形態に係る情報処理装置100は、受信部131、および推定部134を有する。受信部131は、カメラ(監視カメラ200および/または別のコネクテッドカー300)で検出された非コネクテッドカー400の第2の位置情報および第2の速度をカメラから受信する。推定部134は、カメラで検出されたコネクテッドカー300の第1の位置情報および第1の速度、ならびに第1の位置情報が示す位置から、コネクテッドカー300から受信された第3の位置情報が示す位置までの第1の到達時間に基づいて生成された学習モデルを用いて、第2の位置情報が示す位置から第3の位置情報が示す位置までの非コネクテッドカー400の第2の到達時間を推定する。
【0090】
このように、実施形態に係る情報処理装置100は、コネクテッドカー300の速度、カメラで検出されたコネクテッドカー300の位置から対象位置までの到達時間、ならびにカメラで検出された非コネクテッドカー400の位置情報および速度に基づいて生成された学習モデルを用いて、非コネクテッドカー400の対象位置までの到達時間を推定する。これにより、カメラにより検出することができない対象位置までの非コネクテッドカー400の到達時間を推定することができる。
【0091】
〔9.ハードウェア構成〕
上述してきた情報処理装置100は、例えば、
図12に示すような構成のコンピュータ1000によって実現される。
図12は、各装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、およびメディアインターフェイス(I/F)1700を有する。
【0092】
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラムなどを格納する。
【0093】
HDD1400は、CPU1100によって実行されるプログラム、および、プログラムによって使用されるデータなどを格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が収集したデータを、ネットワークNを介して他の機器へ送信する。
【0094】
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタなどの出力装置、および、キーボードやマウスなどの入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを入力する。また、CPU1100は、収集したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
【0095】
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、プログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)などの光学記録媒体、MO(Magneto−Optical disk)などの光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリなどである。
【0096】
例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを受信してもよい。
【0097】
以上、本願の実施形態を図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【0098】
〔10.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
【0099】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0100】
また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
【0101】
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受信部は、受信手段や受信回路に読み替えることができる。