IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソフトバンクモバイル株式会社の特許一覧

<>
  • 特開-車両、サーバ及び車両制御方法 図1
  • 特開-車両、サーバ及び車両制御方法 図2
  • 特開-車両、サーバ及び車両制御方法 図3
  • 特開-車両、サーバ及び車両制御方法 図4
  • 特開-車両、サーバ及び車両制御方法 図5
  • 特開-車両、サーバ及び車両制御方法 図6
  • 特開-車両、サーバ及び車両制御方法 図7
  • 特開-車両、サーバ及び車両制御方法 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024007608
(43)【公開日】2024-01-19
(54)【発明の名称】車両、サーバ及び車両制御方法
(51)【国際特許分類】
   G08G 1/16 20060101AFI20240112BHJP
   G08G 1/09 20060101ALI20240112BHJP
   G01C 21/34 20060101ALI20240112BHJP
   H04N 7/18 20060101ALI20240112BHJP
   G16Y 10/40 20200101ALI20240112BHJP
   G16Y 40/10 20200101ALI20240112BHJP
【FI】
G08G1/16 A
G08G1/09 F
G01C21/34
H04N7/18 J
G16Y10/40
G16Y40/10
【審査請求】有
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2022108780
(22)【出願日】2022-07-06
(71)【出願人】
【識別番号】501440684
【氏名又は名称】ソフトバンク株式会社
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(72)【発明者】
【氏名】榎本 光洋
(72)【発明者】
【氏名】高橋 康宏
(72)【発明者】
【氏名】宇野 淳
【テーマコード(参考)】
2F129
5C054
5H181
【Fターム(参考)】
2F129AA02
2F129AA03
2F129BB03
2F129BB20
2F129BB21
2F129CC03
2F129EE17
2F129EE43
2F129EE52
2F129EE65
2F129EE67
2F129EE78
2F129EE82
2F129EE85
2F129FF02
2F129FF20
2F129FF26
2F129FF32
2F129FF57
2F129FF62
2F129FF66
2F129FF73
2F129FF75
2F129GG09
2F129GG11
2F129GG17
2F129GG18
2F129HH02
2F129HH04
2F129HH12
5C054CA04
5C054CC02
5C054FC01
5C054FE28
5C054HA30
5H181AA01
5H181AA22
5H181BB04
5H181BB15
5H181BB20
5H181CC03
5H181CC04
5H181CC11
5H181CC14
5H181FF04
5H181FF13
5H181FF33
5H181LL01
5H181LL07
5H181LL08
5H181LL09
5H181MC19
(57)【要約】
【課題】複数の異なるセンサによる複数の認識結果を互いに比較することなく、動的物体を迅速に検出すること。
【解決手段】
センサを有する車両は、所定タイミングにおける前記車両の位置及び進行方向に関する情報を、デジタルツインサーバに対して送信する送信部と、前記位置及び前記進行方向に関する情報に基づいて生成される、前記所定タイミングより後の一つ又は複数のタイミングにおいて前記センサによる取得が予測される一つ又は複数の予測情報を、前記デジタルツインサーバから受信する受信部と、前記センサにより検出された検出情報を取得する取得部と、前記予測情報の少なくとも一つと前記検出情報との比較結果に基づいて、前記車両の進行方向に存在する動的物体を検出する制御部と、を備える。
【選択図】図2
【特許請求の範囲】
【請求項1】
センサを有する車両であって、
所定タイミングにおける前記車両の位置及び進行方向に関する情報を、サーバに対して送信する送信部と、
前記位置及び前記進行方向に関する情報に基づいて生成される、前記所定タイミングより後の一つ又は複数のタイミングにおいて前記センサによる取得が予測される一つ又は複数の予測情報を、前記サーバから受信する受信部と、
前記予測情報の少なくとも一つと前記センサにより取得された情報との比較結果に基づいて、前記車両の進行方向に存在する動的物体を検出する制御部と、
を備える車両。
【請求項2】
前記送信部は、前記車両の経路及び/又は速度に関する情報を、前記サーバに送信し、
前記受信部は、前記経路及び/又は前記速度に関する情報に基づいて生成された前記予測情報を、前記サーバから受信する、
請求項1記載の車両。
【請求項3】
前記センサは、第1センサ及び第2センサを含み、
前記予測情報は、前記一つ又は複数のタイミングにおいて前記第1センサによる取得が予測される一つ又は複数の第1予測情報と、前記一つ又は複数のタイミングにおいて前記第2センサによる取得が予測される一つ又は複数の第2予測情報と、を含み、
前記センサによって取得された前記情報は、前記第1センサにより取得された第1情報と前記第2センサにより取得された第2情報と、を含み、
前記制御部は、前記第1予測情報の少なくとも一つと前記第1情報との比較結果が所定の条件を満たす場合、前記動的物体を検出する、
請求項1又は請求項2記載の車両。
【請求項4】
前記制御部は、前記第1予測情報の少なくとも一つと前記第1情報との比較結果が所定の条件を満たさない場合、前記第2予測情報の少なくとも一つと前記第2情報との比較結果に基づいて、前記動的物体を検出する、
請求項3記載の車両。
【請求項5】
前記第1センサはカメラであり、前記第1予測情報は前記カメラにより取得が予測される一つ又は複数の予測画像に関し、前記第1情報は前記カメラにより撮像された撮像画像に関し、
前記第2予測情報は前記第2センサにより取得が予測される一つ又は複数の深度に関し、前記第2情報は前記第2センサによる検出された深度に関する、
請求項4に記載の車両。
【請求項6】
前記制御部は、前記動的物体が検出された場合、前記動的物体が検出されたことを示す情報を前記車両内で音声出力又は表示させる、又は、前記動的物体が検出されたことを示す情報を自動運転プログラムに入力させる、
請求項1に記載の車両。
【請求項7】
センサを有する車両とネットワークを介して通信するサーバであって、
所定タイミングにおける前記車両の位置及び進行方向に関する情報を、前記車両から受信する受信部と、
前記位置及び前記進行方向に関する情報に基づいて、前記所定タイミングより後の一つ又は複数のタイミングにおいて前記センサによる取得が予測される一つ又は複数の予測情報を生成する生成部と、
前記予測情報を前記車両に対して送信する送信部と、を備え、
前記予測情報の少なくとも一つは、前記センサにより取得された情報と比較され、前記車両の進行方向に存在する動的物体の検出に用いられる、
を備えるサーバ。
【請求項8】
センサを有する車両を制御する車両制御方法であって、
所定タイミングにおける前記車両の位置及び進行方向に関する情報を、サーバに対して送信する工程と、
前記位置及び前記進行方向に関する情報に基づいて生成される、前記所定タイミングより後の一つ又は複数のタイミングにおいて前記センサによる取得が予測される一つ又は複数の予測情報を、前記サーバから受信する工程と、
前記予測情報の少なくとも一つと前記センサにより取得された情報との比較結果に基づいて、前記車両の進行方向に存在する動的物体を検出する工程と、
を有する車両制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両、サーバ及び車両制御方法に関する。
【背景技術】
【0002】
従来、車両に搭載されたセンサ(例えば、カメラ)により取得された情報(例えば、撮像画像)に基づいて歩行者等の物体を認識する技術が知られている。例えば、特許文献1には、車両に搭載されたカメラにより撮像された車両側画像と、インフラ側に設けられた路側カメラにより撮像及び補正された路側画像と、の比較に基づいて、障害物を認識する障害物認識システムが記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2006-236094号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1の技術によれば、障害物の存在を車両に通知するためには、複数の異なるカメラでそれぞれ撮像された車両側画像と路側画像とを比較し、それらの被写体が同一の障害物であるか否かを判定するステップが必要となる。
【0005】
本開示は、複数の異なるセンサによる複数の認識結果を互いに比較することなく、動的物体を迅速に検出することを目的の一つとする。
【課題を解決するための手段】
【0006】
本開示の一態様に係る車両は、センサを有する車両であって、所定タイミングにおける前記車両の位置及び進行方向に関する情報を、サーバに対して送信する送信部と、前記位置及び前記進行方向に関する情報に基づいて生成される、前記所定タイミングより後の一つ又は複数のタイミングにおいて前記センサによる取得が予測される一つ又は複数の予測情報を、前記サーバから受信する受信部と、前記予測情報の少なくとも一つと前記センサにより取得された情報との比較結果に基づいて、前記車両の進行方向に存在する動的物体を検出する制御部と、を備える。
【0007】
本開示の他の態様に係るサーバは、センサを有する車両とネットワークを介して通信するサーバであって、所定タイミングにおける前記車両の位置及び進行方向に関する情報を、前記車両から受信する受信部と、前記位置及び前記進行方向に関する情報に基づいて、前記所定タイミングより後の一つ又は複数のタイミングにおいて前記センサによる取得が予測される一つ又は複数の予測情報を生成する生成部と、前記予測情報を前記車両に対して送信する送信部と、を備え、前記予測情報の少なくとも一つは、前記センサにより取得された情報と比較され、前記車両の進行方向に存在する動的物体の検出に用いられる。
【発明の効果】
【0008】
本開示によれば、複数の異なるセンサによる複数の認識結果を互いに比較することなく、車両の進行方向に存在する動的物体を迅速に検出できる。
【図面の簡単な説明】
【0009】
図1図1(A)及び(B)は、撮像画像に基づく物体認識の一例を示す図である。
図2図2は、本実施形態に係る車両制御システムの概要の一例を示す図である。
図3図3は、本実施形態に係る車両10の物理構成の一例を示す図である。
図4図4は、本実施形態に係るサーバ20の物理構成の一例を示す図である。
図5図5は、本実施形態に係る車両10及びサーバ20の機能構成の一例を示す図である。
図6図6は、本実施形態に係る車両10の動作の一例を示すフローチャートである。
図7図7は、本実施形態に係る動的物体MOの検出の失敗の一例を示す図である。
図8図8は、本実施形態の変形例に係る車両10の動作の一例を示すフローチャートである。
【発明を実施するための形態】
【0010】
(概要)
図1(A)及び(B)は、物体認識の一例を示す図である。図1(A)及び(B)では、それぞれ、車両10に搭載されたセンサにより取得された情報(以下、「センサ情報」という)としての画像(例えば、カメラにより撮像された画像、以下、「撮像画像」という)DI及びDIが示される。
【0011】
図1(A)では、車両10の進行方向に動的物体MO(例えば、子供)が存在するが、画角A内の動的物体MOの特徴部分(例えば、顔や胴体等)が壁W1により遮られるため、画角Aの撮像画像DIから動的物体MOの特徴部分を認識することができない。一方、図1(B)では、車両10の進行方向に動的物体MOは存在しないが、壁W2に描かれた静的物体SOの一部が画角Aに入るため、画角Aの撮像画像DIは、撮像画像DIと同等の画像として判断されてしまう。
【0012】
このように、図1(A)に示される撮像画像DIに基づいて画像認識(例えば、DNN(Deep Neural Network))や肉眼により動的物体MOを検出しようとしても、動的物体MOの全ての特徴部分がセンサに対しオクルージョンしている場合、撮像画像DIから動的物体MOを検出することは困難である。しかしながら、動的物体MOの特徴部分の露出を待ってから車両10を制御する場合、例えば、当該車両10と当該動的物体MOとの衝突を回避できないなど、当該車両10を適切に制御できない恐れがある。
【0013】
ところで、近年、デジタルツインを用いた車両10の制御が知られている。デジタルツインとは、現実空間Rに存在する車両10の動作を、仮想空間Vにおいてシミュレーションすることである。デジタルツインでは、現実空間Rにおける車両10のセンサの画角Aを、車両10に対応する仮想車両10の画角Aとして仮想空間Vにおいて再現することも可能である。
【0014】
図2は、本実施形態に係る車両制御システムの概要の一例を示す図である。図2に示すように、車両制御システム1は、車両10と、車両10と不図示のネットワークを介して通信するサーバ20とを含む。
【0015】
図2に示すように、車両10は、タイミングTにおいて検出された車両10の位置に関する情報(以下、「位置情報」という)及び車両10の進行方向に関する情報(以下、「方向情報」という)を、サーバ20に対して送信する。位置情報は、例えば、GPS(Global Positioning System)センサによって検出される情報であってもよいし、自己位置推定によって得られる情報であっても良い。また、車両10は、車両10の速度に関する情報(以下、「速度情報」という)及び/又は車両10の経路に関する情報(以下、「経路情報」という)を、サーバ20に対して送信してもよい。また、車両10は、仮想空間Vの形成に用いられる種々の情報をサーバ20に対して送信してもよい。
【0016】
サーバ20は、車両10から受信した位置情報及び方向情報に基づいて、タイミングTより後の一つ又は複数のタイミングT+n(n>0)において車両10のセンサによって検出されると予測される一つ又は複数の画像(以下、「予測画像」という)PIを生成する。例えば、サーバ20は、仮想空間V上の仮想車両10のセンサのタイミングT+n(n>0)の画角Aを予測し、予測された画角Aに対応する一つ又は複数の予測画像PIを生成してもよい。サーバ20は、生成された予測画像PIを車両10に送信する。
【0017】
車両10は、サーバ20から受信された予測画像PIの少なくとも一つと、タイミングT+nにおける撮像画像DIとを比較し、比較結果に基づいて、車両10の進行方向に存在する動的物体MOを検出する。具体的には、車両10は、予測画像PIの少なくとも一つと撮像画像DIとの差分が所定の閾値を超える(又は、所定の閾値以上である)場合、動的物体MOを検出してもよい。例えば、図2では、タイミングT+nにおける撮像画像DIと予測画像PIとの差分が所定の閾値を超えるので、車両10は、当該差分(例えば、図2では、黒点群)を動的物体MOとして検出する。
【0018】
図2に示すように、仮想空間Vには、仮想車両10の進行方向に存在する静的物体(例えば、壁W1及びW2)が少なくとも再現される。このため、仮想空間Vの情報に基づいて生成される予測画像PIから、タイミングT+nにおいて現実空間Rの車両10の進行方向に存在すると予測される静的物体を検出できる。仮想空間Vの情報に基づく予測画像PIで少なくとも静的物体が検出されるとすると、予測画像PIと対応するタイミングT+nの撮像画像DIにおいて、静的物体を除いた差分を動的物体MOとして仮定できる。
【0019】
このように、本実施形態に係る車両制御システム1では、タイミングT+nにおいて検出されるべき静的物体が撮像画像DIから予測画像PIと同程度に認識されないこと、即ち、撮像画像DIと予測画像PIとの間で、所定の範囲以上の領域で周辺のピクセル値の差が閾値以上又は閾値より大きいことをトリガーに、動的物体MOの存在を仮定できる。動的物体MOが存在すると仮定される場合、撮像画像DIから動的物体MOの特徴部分が認識可能となる前であっても動的物体MOを検出できる。この結果、動的物体MOと車両10との衝突等を早期に回避するなど、車両10を適切に制御することが可能となる。
【0020】
以下、本実施形態に係る車両制御システム1では、車両10に搭載されたセンサにより取得されたセンサ情報がカメラにより撮像された撮像画像DIである場合を想定するが、センサ情報は画像に限られず、センサにより取得されたどのような情報であってもよい。例えば、当該センサ情報は、例えば、LiDAR(Light Detection And Ranging又はLaser Imaging Detection And Ranging)センサによって取得される深度に関する情報等であってもよい。また、以下では、予測情報が予測画像PIである場合を想定するが、予測情報は画像に限られず、どのようなセンサにより取得された情報及び取得が予測される情報であってもよい。
【0021】
また、本実施形態に係る車両制御システム1は、デジタルツインクライアントとしての車両10と、デジタルツインサーバとしてのサーバ20を含み、デジタルツインサーバで形成される仮想空間Vを用いて予測画像PIが生成されるものとするが、これに限られない。本実施形態に係る予測画像PIは、仮想空間Vを用いずに予測される画像であってもよい。
【0022】
(構成)
<物理構成>
図3は、本実施形態に係る車両の物理構成の一例を示す図である。図3に示すように、車両10は、プロセッサ10a、メモリ10b、一つ又は複数のセンサのセット(以下、「センサセット」という)10c、通信ユニット10d、電子制御ユニット(Electronic Control Unit、以下、「ECU」という)10e、入出力デバイス10fを含む。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、図3で示す構成は一例であり、車両10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。また、少なくとも二つの構成が一体化されてもよい。
【0023】
プロセッサ10aは、例えば、CPU(Central Processing Unit)である。プロセッサ10aは、メモリ10bに記憶されているプログラムを実行することにより、車両10における各種処理を制御する制御部である。プロセッサ10aは、他の構成と、プログラムとの協働により、種々の機能を実現し、処理の実行を制御する。プログラムは、メモリ10bに記憶されていてもよいし、通信ユニット10dを介して他の装置から提供されてもよい。なお、プロセッサ10aが実行するプログラムにより、デジタルツインクライアントとしての動作や、ADAS(Advanced Driver-Assistance Systems)の動作が実現されてもよい。
【0024】
メモリ10bは、例えば、RAM(Random Access Memory)及びROM(Read Only Memory)等、各種処理に必要なデータ及び処理結果のデータを記憶する記憶部である。メモリ10bは、例えば、半導体記憶素子で構成されてもよい。また、車両10は、メモリ10b以外に、ハードディスクドライブ等の大容量の記憶部を備えてもよい。
【0025】
センサセット10cは、一つ又は複数のセンサを含む。例えば、センサセット10cは、カメラ(例えば、2次元カメラ又は3次元カメラ)、LiDAR(Light Detection And Ranging又はLaser Imaging Detection And Ranging)センサ、超音波センサ、レーダーセンサ、GPS(Global Positioning System)センサ、及び、速度センサ等の少なくとも一つを含んでもよい。
【0026】
通信ユニット10dは、車両10がネットワークを介してサーバ20と通信するための送信部及び/又は受信部である。通信ユニット10dは、例えば、TCU(Telematics Control Unit)と呼ばれてもよい。
【0027】
ECU10eは、車両10の各機能を制御する制御装置であり、例えば、エンジン制御用のECU、ブレーキ制御用のECU、ステアリング制御用のECU、カーナビゲーション用のECU、マルチメディア用のECU等であってもよい。
【0028】
入出力デバイス10fは、ユーザからデータや音声の入力又は出力を受け付けるためのデバイスや、情報を入力するためのデバイスや、プロセッサ10aによる制御に従って、情報を表示するデバイス等である。入出力デバイス10fは、例えば、キーボード、タッチパネル、マイク、スピーカー、LCD(Liquid Crystal Display)等の少なくとも一つを含んでよい。
【0029】
図4は、本実施形態に係るサーバの物理構成の一例を示す図である。図4に示すように、サーバ20は、プロセッサ20a、メモリ20b、通信ユニット20c、入出力デバイス20dを含む。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、図4で示す構成は一例であり、車両10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。また、少なくとも二つの構成が一体化されてもよい。図4では、図3との相違点を中心に説明する。
【0030】
プロセッサ20aは、メモリ20bに記憶されているプログラムを実行することにより、サーバ20における各種処理を制御する制御部である。プロセッサ20aが実行するプログラムにより、デジタルツインサーバとしての動作や、ADASの動作が実現されてもよい。メモリ20b、通信ユニット20c及び入出力デバイス20dは、メモリ10b、通信ユニット10d及び入出力デバイス10fと同様であるため、説明を省略する。
【0031】
<機能構成>
図5は、本実施形態に係る車両10及びサーバ20の機能構成の一例を示す図である。図5に示すように、車両10は、取得部101、送信部102、受信部103及び制御部104を備える。なお、取得部101及び制御部104は、例えば、プロセッサ10a及び/又はECU10eによって構成されてもよい。送信部102及び受信部103は通信ユニット10dによって構成されてもよい。
【0032】
取得部101は、センサセット10cにおいて検出された種々の情報を取得する。具体的には、取得部101は、タイミングTにおける車両10の位置情報及び方向情報を取得する。また、取得部101は、車両10の経路情報及び/又は速度情報を取得してもよい。また、取得部101は、デジタルツインサーバとしてのサーバ20における仮想空間Vの形成に用いられる情報を取得してもよい。なお、タイミングTは、所定周期のタイミングであってもよい。
【0033】
また、取得部101は、センサセット10cに含まれるカメラにより検出された撮像画像DIを取得する。当該撮像画像DIは、例えば、カラー画像、モノクロ画像、グレースケール画像又は二値画像等であってもよい。また、当該撮像画像DIは、2次元画像に限られず、深度に関する情報(以下、「深度情報」という)を含む3次元画像であってもよい。
【0034】
送信部102は、タイミングTにおける車両10の位置情報及び方向情報をサーバ20に対して送信する。また、送信部102は、タイミングTにおける車両10の経路情報及び/又は速度情報をサーバ20に対して送信してもよい。また、送信部102は、デジタルツインサーバとしてのサーバ20に対して、仮想空間Vの形成に用いられる情報を送信してもよい。
【0035】
受信部103は、送信部102によって送信された位置情報及び方向情報に基づいて生成される、タイミングTよりも後の一つ又は複数のタイミングT+n(n>0)においてカメラによる取得が予測される一つ又は複数の予測画像PIを、サーバ20から受信する。予測画像PIは、撮像画像DIに対応する精度であればよく、当該予測画像PIは、例えば、カラー画像、モノクロ画像、グレースケール画像又は二値画像等であってもよい。また、予測画像PIは、2次元画像に限られず、深度情報を含む3次元画像であってもよい。また、当該予測画像PIは、送信部102によって送信された位置情報及び方向情報と、経路情報及び/又は速度情報とに基づいて生成されてもよい。
【0036】
制御部104は、取得部101によって取得された撮像画像DIと、受信部103によって受信される少なくとも一つの予測画像PIと、の比較結果に基づいて、車両10の進行方向に存在する動的物体MOを検出する。具体的には、制御部104は、撮像画像DIと少なくとも一つの予測画像PIとの比較結果が所定の条件を満たす場合に、動的物体MOを検出してもよい。当該所定の条件は、例えば、撮像画像DIと少なくとも一つの予測画像PIとの差分が所定の閾値を超えること(又は、当該差分が所定の閾値以上であること)であってもよい。なお、撮像画像DIと予測画像PIとの比較は、車両が両者を取得又は受信したタイミング以降に行ってよく、一例として、予測画像PIの受信後に撮像画像DIを取得し、撮像画像DIを取得したタイミングで比較を行ってよい。
【0037】
また、制御部104は、動的物体MOの検出結果に応じて、車両10の動作を制御してもよい。例えば、制御部104は、動的物体MOが検出された場合、ECU10eを用いて動的物体MOとの衝突を回避するように動作させてもよい。
【0038】
また、制御部104は、動的物体MOが検出された場合、動的物体MOが検出されたことを示す情報(以下、「動的物体検出情報」という)を車両10内で音声出力又は表示させてもよい。また、制御部104は、当該動的物体検出情報を、自動運転プログラムに入力させてもよい。
【0039】
また、制御部104は、センサセット10cに含まれるどのセンサが取得した情報に基づいて動的物体MOが検出されたかによって、当該動的物体検出情報の内容を変更してもよい。例えば、カメラによる撮像画像DIに基づいて動的物体MOが検出された場合には、制御部104は、当該動的物体検出情報として、「前方に人がいる可能性があります」という音声を出力させたり、「前方に人がいる可能性があります」という文字や画像を表示させたり、又は、自動運転プログラムに入力させてもよい。また、Lidarセンサによって取得された情報に基づいて動的物体MOが検出された場合には、制御部104は、例えば、「5m先に人がいる可能性があります」等、動的物体MOとの間の距離を示す情報を含む動的物体検出情報を、音声出力、表示又は自動運転プログラムに入力させてもよい。これにより、運転者または自動運転車両に対して、動的物体との衝突を避けるように走行することを促すことができる。
【0040】
サーバ20は、受信部201、制御部202、生成部203及び送信部204を備える。なお、受信部201及び送信部204は、通信ユニット20cによって構成されてもよい。制御部202及び生成部203は、プロセッサ20aによって構成されてもよい。
【0041】
受信部201は、所定タイミングTにおける車両10の位置情報及び方向情報を車両10から受信する。また、受信部201は、タイミングTにおける車両10の経路情報及び/又は速度情報を車両10から受信してもよい。また、受信部201は、デジタルツインクライアントとしての車両10から、仮想空間Vの形成に用いられる情報を受信してもよい。
【0042】
制御部202は、サーバ20に関する種々の制御を行う。具体的には、受信部201で受信された情報に基づいて、車両10に対応する仮想車両10が動作する仮想空間Vを形成する。また、制御部202は、生成部203による予測画像PIの生成を制御する。また、制御部202は、デジタルツインサーバとしての種々の制御を行ってもよい。
【0043】
生成部203は、受信部201で受信された位置情報及び方向情報に基づいて、タイミングTより後の一つ又は複数のタイミングT+n(n>0)において、車両10のカメラによる取得が予測される一つ又は複数の予測画像PIを生成する。また、生成部203は、当該位置情報及び方向情報に加えて、車両10の経路情報及び/又は速度情報に基づいて、一つ又は複数のタイミングT+nに対応する一つ又は複数の予測画像PIを生成してもよい。
【0044】
送信部204は、生成部203によって生成された一つ又は複数の予測画像PIを車両10に対して送信する。
【0045】
(動作)
図6は、本実施形態に係る車両10の動作の一例を示すフローチャートである。なお、図6は、例示にすぎず、不図示のステップが実施されてもよいし、一部のステップが省略されてもよい。
【0046】
ステップS101において、車両10は、タイミングTにおける位置情報及び方向情報をサーバ20に対して送信する。車両10は、タイミングTにおける経路情報及び/又は速度情報をサーバ20に対して送信してもよい。
【0047】
ステップS102において、車両10は、ステップS101で送信された位置情報及び方向情報に基づいて生成される、タイミングT+n(n>0)において車両10のカメラによる取得が予測される一つ又は複数の予測画像PIを、サーバ20から受信する。なお、当該一つ又は複数の予測画像PIは、位置情報及び方向情報と、経路情報及び/又は速度情報とに基づいて生成されてもよい。
【0048】
ステップS103において、車両10は、車両10のカメラにより検出された撮像画像DIを取得する。
【0049】
ステップS104において、車両10は、ステップS103で取得された撮像画像DIとステップS102で検出された少なくとも一つの予測画像PIとを比較し、比較結果が所定の条件を満たすか否かを判定する。撮像画像DIと予測画像PIとの比較結果が所定の条件を満たさない場合(ステップS104;NO)、本動作はステップS101に戻る。当該所定の条件は、例えば、撮像画像DIと少なくとも一つの予測画像PIとの差分が所定の閾値を超えること(又は、当該差分が所定の閾値以上であること)であってもよい。
【0050】
撮像画像DIと予測画像PIとの比較結果が所定の条件を満たす場合(ステップS104;YES)、ステップS105において、車両10は、動的物体MOを検出する。例えば、図2では、撮像画像DIと予測画像PIとの差分が所定の閾値を超える(又は所定の閾値以上である)ので、車両10は動的物体MOを検出してもよい。
【0051】
以上のように、本実施形態に係る車両制御システム1によれば、車両10は撮像画像DIと予測画像PIとの比較結果に基づいて動的物体MOを検出するので、撮像画像DIから物体の特徴部分が認識可能となる前に動的物体MOを検出でき、車両10をフェールセーフに動作させることができる。
【0052】
(変形例)
次に、本実施形態に係る車両制御システム1の変形例について説明する。なお、変形例では上記実施形態との相違点を中心に説明する。上記実施形態で説明したように、車両10は、撮像画像DIと予測画像PIとを比較するだけでは、動的物体MOの検出に失敗する場合も想定される。
【0053】
図7は、本実施形態に係る動的物体MOの検出の失敗の一例を示す図である。図7に示すように、壁W2に静的物体SOが描かれている状態が示される。図7では、サーバ20で生成される予測画像PIと、車両10のカメラの検出結果に基づいて生成される撮像画像DIとを比較しても、十分な差分がなく、動的物体MOを検出できない恐れがある。
【0054】
そこで、変形例では、第1センサ(例えば、カメラ)により取得された第1情報(以下、「第1センサ情報」という、例えば、撮像画像DI)と第1センサによる取得が予測される第1予測情報(例えば、予測画像PI)だけでなく、第2センサ(例えば、LiDARセンサ、深度センサ等)により取得された第2情報(以下、「第2センサ情報」という、例えば、深度情報)と第2センサによる取得が予測される第2予測情報(例えば、深度情報)に基づいて、動的物体MOを検出する。
【0055】
以下、本実施形態に係る車両制御システム1では、第1センサ情報及び第1予測情報がそれぞれ撮像画像DI及び予測画像PIである場合を想定するが、第1センサ情報及び第1予測情報はそれぞれ画像に限られず、どのようなセンサにより取得された情報及び取得が予測される情報であってもよい。また、第2センサ情報及び第2予測情報はそれぞれ、車両10に搭載されたLiDARセンサにより取得された深度情報(以下、「検出深度情報」という)及び当該LiDARセンサにより取得が予測される深度情報(以下、「予測深度情報」という)であるものとするが、それぞれ深度情報に限られず、どのようなセンサにより取得された情報及び取得が予測される情報であってもよい。
【0056】
<変形例に係る構成>
変形例に係る車両10及びサーバ20の物理構成は、上記図3及び4で説明した通りである。変形例に係る車両10及びサーバ20の機能構成について、上記図5との相違点を中心に以下に説明する。
【0057】
車両10の取得部101は、撮像画像DIに加えて、検出深度情報を取得する。受信部103は、タイミングTよりも後の一つ又は複数のタイミングT+n(n>0)において取得が予測される一つ又は複数の予測画像PI及び一つ又は複数の予測深度情報を、サーバ20から受信する。
【0058】
制御部104は、取得部101によって取得された撮像画像DIと、受信部103によって受信される少なくとも一つの予測画像PIとの比較結果が所定の条件を満たさない場合に、取得部101によって取得された検出深度情報と、受信部103によって受信された少なくとも一つの予測深度情報と、の比較結果に基づいて、動的物体MOを検出してもよい。当該所定の条件は、例えば、撮像画像DIと少なくとも一つの予測画像PIとの差分が所定の閾値を超えること(又は、当該差分が所定の閾値以上であること)であってもよい。
【0059】
制御部104は、撮像画像DIと予測画像PIとの比較結果が所定の条件を満たさなくとも、検出深度情報と予測深度情報との比較結果が所定の条件を満たす場合、動的物体DOを検出してもよい。当該所定の条件は、検出深度情報が示す特定の領域(例えば、撮像画像DI内の特定の画素)に関する深度が、予測深度情報が示す特定の領域(例えば、予測画像DI内の特定の画素)の深度よりも車両10に近いことであってもよい。
【0060】
サーバ20の生成部203は、受信部201で受信されたセンサ情報に基づいて、タイミングTより後の一つ又は複数のタイミングT+n(n>0)において、車両10のカメラによる取得が予測される一つ又は複数の予測画像PIと、車両10の深度センサによる取得が予測される一つ又は複数の予測深度情報と、を生成する。
【0061】
具体的には、生成部203は、タイミングTにおける車両10の位置情報及び方向情報に基づいて、一つ又は複数のタイミングT+nにおける予測画像PI及び予測深度情報を生成する。また、生成部203は、当該位置情報及び方向情報に加えて、車両10の経路情報及び/又は速度情報に基づいて、一つ又は複数のタイミングT+nにおける予測画像PI及び予測深度情報を生成してもよい。
【0062】
送信部204は、生成部203によって生成された一つ又は複数の予測画像PI及び予測深度情報を車両10に対して送信する。
【0063】
<変形例に係る動作>
図8は、本実施形態の変形例に係るの車両10の動作の一例を示すフローチャートである。なお、図8は、図6との相違点を中心に説明する。図8のステップS201は、図6のステップS101と同様である。
【0064】
ステップS202において、車両10は、位置情報及び方向情報に基づいて生成される、一つ又は複数のタイミングT+n(n>0)に対応する一つ又は複数の予測画像PI及び予測深度情報を、サーバ20から受信する。なお、当該一つ又は複数の予測画像PI及び予測深度情報は、位置情報及び方向情報と、経路情報及び/又は速度情報とに基づいて生成されてもよい。
【0065】
ステップS203において、車両10は、車両10のカメラにより検出された撮像画像DIを取得する。また、車両10は、車両のLiDARセンサにより検出された検出深度情報を取得する。
【0066】
ステップS204において、車両10は、ステップS203で取得された撮像画像DIとステップS202で受信された少なくとも一つの予測画像PIとを比較し、比較結果が所定の条件を満たすか否かを判定する。撮像画像DIと予測画像PIとの比較結果が所定の条件を満たす場合(ステップS204;YES)、ステップS206において、車両10は、動的物体MOを検出する。例えば、図2に示すように、撮像画像DIと予測画像PIとの差分が所定の閾値を超える(又は所定の閾値以上である)場合、車両10は、動的物体MOを検出してもよい。
【0067】
一方、撮像画像DIと予測画像PIとの比較結果が所定の条件を満たさない場合(ステップS204;NO)、ステップS205において、車両10は、ステップS203で取得された検出深度情報とステップS202で受信された少なくとも一つの予測深度情報と、を比較し、比較結果が所定の条件を満たすか否かを判定する。検出深度情報と予測深度情報との比較結果が所定の条件を満たす場合(ステップS205;YES)、ステップS206において、車両10は、動的物体MOを検出する。例えば、図7に示すように、検出深度情報及び予測深度情報の比較結果が、撮像画像DI内の点群PG1が予測画像PI内の点群PG2(すなわち、壁W2)よりも車両10に近いことを示す場合、車両10は、動的物体MOを検出してもよい。
【0068】
以上のように、本実施形態の変形例に係る車両制御システム1によれば、車両10は撮像画像DIと予測画像PIとの比較結果だけでなく、検出深度情報と予測深度情報との比較結果に基づいて動的物体MOを検出するので、複数の異なるセンサによる複数の認識結果を互いに比較することなく、車両の進行方向に存在する動的物体を迅速に検出できる。また、撮像画像DIから物体の特徴部分が認識可能となる前に動的物体MOをより高い精度で検出でき、車両10をフェールセーフに動作させることができる。
【0069】
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
【0070】
また、本開示によれば、車両に迅速に歩行者等の動的物体を通知することができるので、交通事故による死傷者を減少させることに寄与し、SDGs目標3「すべての人に健康と福祉を」の達成に貢献できる。
【符号の説明】
【0071】
1…車両制御システム、10…車両、20…サーバ、10a…プロセッサ、10b…メモリ、10c…センサセット、10d…通信ユニット、10e…ECU、10f…入出力デバイス、20a…プロセッサ、20b…メモリ、20c…通信ユニット、20d…入出力デバイス、101…取得部、102…送信部、103…受信部、104…制御部、201…受信部、202…制御部、203…生成部、204…送信部、R…現実空間、V…仮想区間、10…仮想車両、MO…動的物体、SO…静的物体、DI…撮像画像、PI…予測画像
図1
図2
図3
図4
図5
図6
図7
図8