(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024094875
(43)【公開日】2024-07-10
(54)【発明の名称】物体検出方法、物体検出プログラムおよび車両制御装置
(51)【国際特許分類】
G08G 1/16 20060101AFI20240703BHJP
G06T 7/70 20170101ALI20240703BHJP
【FI】
G08G1/16 C
G06T7/70 A
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022211749
(22)【出願日】2022-12-28
(71)【出願人】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】高木 智也
【テーマコード(参考)】
5H181
5L096
【Fターム(参考)】
5H181AA01
5H181BB05
5H181BB13
5H181CC03
5H181CC04
5H181CC24
5H181FF27
5H181FF33
5H181LL01
5H181LL07
5H181LL08
5L096BA04
5L096CA04
5L096DA02
5L096FA67
5L096FA69
(57)【要約】
【課題】物体検出に関するコストを削減するとともに、物体検出に用いる端末装置のカメラと車両との位置関係を把握して、適切に物体検出を行うこと。
【解決手段】本願に係る物体検出方法は、車両に着脱可能に搭載され、カメラを有する端末装置が前記車両とカメラに映る物体との相対位置を検出する物体検出方法であって、カメラ映像から車両の基準位置を検出し、基準位置を用いて、カメラと車両との位置関係を算出し、位置関係に基づき、カメラ映像に映る物体と車両との相対位置を算出する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
車両に着脱可能に搭載され、カメラを有する端末装置が前記車両と前記カメラに映る物体との相対位置を検出する物体検出方法であって、
カメラ映像から前記車両の基準位置を検出し、
前記基準位置を用いて、前記カメラと前記車両との位置関係を算出し、
前記位置関係に基づき、前記カメラ映像に映る物体と前記車両との相対位置を算出する、
物体検出方法。
【請求項2】
前記物体検出方法は、
前記カメラ映像に映る前記基準位置が変化した場合に、変化後の前記基準位置に基づき、前記相対位置を算出する、
請求項1に記載の物体検出方法。
【請求項3】
前記物体検出方法は、
前記車両の車体の一部を前記基準位置として検出する、
請求項1に記載の物体検出方法。
【請求項4】
前記物体検出方法は、
前記カメラ映像から前記基準位置を検出できなくなった場合に、前記車両の運転者に対してアラートを通知する、
請求項1に記載の物体検出方法。
【請求項5】
前記アラートは、
前記車両が走行中である場合、前記運転者に対し前記車両の停車を求める内容である、
請求項4に記載の物体検出方法。
【請求項6】
前記アラートは、
前記車両が停車中である場合、前記端末装置の取り付けの修正を促す内容である、
請求項4に記載の物体検出方法。
【請求項7】
前記物体検出方法は、
前記カメラ映像から前記基準位置を検出できなくなった場合に、前記端末装置が備える加速度センサの値の変化量が閾値未満である場合には、検出できなくなる前の前記基準位置の位置情報を保持し、前記保持した前記基準位置の位置情報に基づき前記相対位置を算出する、
請求項1または4に記載の物体検出方法。
【請求項8】
前記物体検出方法は、
前記車両に付されたマーカを前記基準位置として検出する、
請求項1または2に記載の物体検出方法。
【請求項9】
車両に着脱可能に搭載され、カメラを有する端末装置が前記車両と前記カメラに映る物体との相対位置を検出する手順をコンピュータに実行させる物体検出プログラムであって、
カメラ映像から前記車両の基準位置を検出し、
前記基準位置を用いて、前記カメラと前記車両との位置関係を算出し、
前記位置関係に基づき、前記カメラ映像に映る物体と前記車両との相対位置を算出する、
物体検出プログラム。
【請求項10】
端末装置を着脱可能なホルダを備える車両に設けられる車両制御装置であって、
前記ホルダに載置された前記端末装置が備えるカメラによって撮影されたカメラ映像から物体を検知して車両制御に用いるコントローラを備え、
前記コントローラは、
前記カメラ映像に映る車両の基準位置を検出し、
前記基準位置を用いて、前記カメラと前記車両との位置関係を算出し、
前記位置関係に基づき、前記カメラ映像に映る物体と前記車両との相対位置を算出し、
前記相対位置を用いて、前記物体との衝突を回避するよう車両を制御する、
車両制御装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、物体検出方法、物体検出プログラムおよび車両制御装置に関する。
【背景技術】
【0002】
従来、車両に搭載されたカメラによって撮影されたカメラ画像に対する画像処理によって障害物を検出する物体検出装置がある。例えば、物体検出装置に関する技術として、カメラの軸のずれを検出し、検出結果に基づいてキャリブレーションを行う技術が開示されている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来技術では、カメラの軸ずれを検出するにあたり、複数のカメラを必要とするため、コストが多くかかることになる。また、ユーザの所持するスマートフォンなどの携帯端末のカメラを用いて物体検出を行う場合、スマートフォンのサイズの違いやカメラ搭載位置の違い、画角の違いなどにより、車両とスマートフォンとの位置関係が正確に把握できず、適切に衝突回避などの機能が働かない問題が発生する。
【0005】
本発明は、上記に鑑みてなされたものであって、物体検出に関するコストを削減するとともに、物体検出に用いる端末装置のカメラと車両との位置関係を把握して、適切に物体検出を行うことができる物体検出方法、物体検出プログラムおよび車両制御装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
上述した課題を解決し、目的を達成するために、本発明に係る物体検出方法は、車両に着脱可能に搭載され、カメラを有する端末装置が前記車両と前記カメラに映る物体との相対位置を検出する物体検出方法であって、カメラ映像から前記車両の基準位置を検出し、前記基準位置を用いて、前記カメラと前記車両との位置関係を算出し、前記位置関係に基づき、前記カメラ映像に映る物体と前記車両との相対位置を算出する。
【発明の効果】
【0007】
本発明によれば、物体検出に関するコストを削減するとともに、物体検出に用いる端末装置のカメラと車両との位置関係を把握して、適切に物体検出を行うことができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、車両制御システムの概要を示す図である。
【
図2】
図2は、物体検出方法の概要を示す図である。
【
図4】
図4は、算出部による算出処理の概念図である。
【
図7】
図7は、端末装置が実行する処理手順を示すフローチャート(その1)である。
【
図8】
図8は、端末装置が実行する処理手順を示すフローチャート(その2)である。
【発明を実施するための形態】
【0009】
以下、添付図面を参照して、本願の開示する物体検出装置、車両制御システムおよび物体検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。
【0010】
まず、
図1および
図2を用いて、実施形態に係る物体検出装置、車両制御システムおよび物体検出方法の概要について説明する。
図1は、車両制御システムの概要を示す図である。
図2は、物体検出方法の概要を示す図である。なお、かかる物体検出方法は、
図1に示す端末装置10によって実行され、端末装置10は、実施形態に係る物体検出装置の一例に対応する。また、以下では、対象物が障害物である場合について説明する。
【0011】
図1に示すように、実施形態に係る車両制御システム1は、小型モビリティである車両Vに搭載される。なお、小型モビリティは、1人もしくは2人乗り用の車両である。例えば、車両Vは、座席に座って搭乗するタイプの車両である電動車椅子やシニアカー、立ち乗りタイプの車両(例えば、2輪が進行方向と交差する方向を回転軸として並んで設けられる並行2輪車や、安定性を持たせるために車輪数を追加した3輪、4輪車タイプの車両等)といった1人乗りの車両であるパーソナルモビリティである。また、車両Vには、例えば、後述するジョイスティックやアクセル・ステアリングといったように、ユーザが車両を操作するための入力手段として複数種類を備えた車両であれば、複数人が乗車可能な一般的な乗用車両等、さまざまなタイプの車両が含まれる。
【0012】
図1に示すように車両制御システム1は、車両Vの走行を制御する車両制御装置100と、ユーザの所有するスマートフォンやタブレット端末などの端末装置10とを有する。また、例えば、端末装置10は、スマートフォンフォルダーなどの任意の固定具によって車両Vに設置される。なお、ここでの固定具は、ユーザが任意に設置したものであってもよく、車両Vに予め設置されたものであってもよい。
【0013】
ところで、小型モビリティに衝突回避や自動走行の機能を備える場合には、小型モビリティに障害物等を検出するための各種センサを搭載することが求められる。一方で、これらのセンサを搭載すると、小型モビリティのコスト増加を招く。
【0014】
また、近年では、スマートフォンや、タブレット端末に代表される端末装置には、カメラが搭載されるほか、高機能化によりLidar(Light Detection and Ranging)などの測距センサを有するものがある。
【0015】
そこで、実施形態に係る車両制御システム1は、端末装置10を用いて対象物となる障害物を検出することとした。一方、このような場合においては、端末装置10の搭載位置や端末装置10のカメラの違いによって、車両Vと端末装置10との位置関係を正確に把握することが困難となる。例えば、車両Vと端末装置10との位置関係が正確に把握できない場合には、障害物Obと車両Vとの位置関係を適切に算出することができない。
【0016】
そこで、実施形態に係る物体検出方法では、端末装置10が備えるカメラによって撮影されたカメラ映像に映る車両Vの基準点を識別し、識別した基準点を基に端末装置10のカメラと自車両である車両Vとの位置関係を算出することした。
【0017】
図2に示すように、まず、物体検出方法では、カメラ映像Gから車両Vの車体Vpに付されたマーカPを識別する(ステップS1)。
図2に示す例では、マーカPがQRコード(登録商標)である場合を示す。なお、マーカPは、QRコードに限定されるものではなく、ハンドルなど車体Vpの一部であってもよく、車体Vpに張り付けられた十字などのマークなどであってもよい。なお、ハンドルなど車体Vpの一部をマーカPとする場合には、QRコードを車体Vpに付する必要がなくなるので、意匠性向上を図ることができる。
【0018】
つづいて、物体検出方法は、マーカPを基準点に設定したうえで、車体Vpと端末装置10のカメラとの位置関係を算出する(ステップS2)。例えば、物体検出方法では、マーカPであるQRコードを識別することにより、車体VpにおけるマーカPの位置関係に関する情報をQRコードから取得する。なお、このように、マーカPにQRコードを用いる場合、QRコードに各種情報を掲載することができる。例えば、QRコード上に車両Vに関する各種情報を掲載することで、端末装置10は車両制御装置100との通信を行わずとも物体検出に関する各種情報を取得することができるので、端末装置10と車両制御装置100との接続処理などといったセットアップを簡略化することができる。
【0019】
つづいて、物体検出方法では、カメラ映像Gに映るマーカPの映像内における座標や、大きさ等に基づき、マーカPと端末装置10のカメラとの位置関係を推定する。そして、物体検出方法では、推定したマーカPと端末装置10のカメラとの位置関係に基づき、車体Vpと端末装置10のカメラとの位置関係を推定する。
【0020】
つまり、物体検出方法では、基準点であるマーカPに基づき、車体Vpと端末装置10のカメラとの位置関係に関するキャリブレーションを行う。これにより、物体検出方法では、カメラ映像の画角と車両Vとの関係性を適切に算出することができる。
【0021】
そして、物体検出方法では、算出したカメラと車両Vとの位置関係に基づき、カメラ映像Gに映る障害物Obと車体Vpとの相対位置を算出する(ステップS3)。例えば、物体検出方法では、各種画像処理によってカメラ映像Gから障害物Obを検出し、算出したカメラと車両Vとの位置関係に基づき、車両Vと障害物Obとの相対位置を算出する。
【0022】
このように、実施形態に係る物体検出方法では、車両Vの車体Vpの一部を基準点として識別し、識別した基準点に基づき、車体Vpとカメラとの位置関係を算出する。そして、実施形態に係る物体検出方法では、カメラ映像Gから障害物Obを検出するとともに、算出した車体Vpとカメラとの位置関係に基づいて、障害物Obと車体Vpとの相対位置を算出する。
【0023】
したがって、実施形態に係る物体検出方法では、車両を運転・操作するユーザが所有するスマートフォンなどのカメラを用いて、障害物を精度よく検出することができるので、障害物検出のための専用のセンサが不要となり、障害物検出に関するコストを削減することができる。
【0024】
また、実施形態に係る物体検出方法では、カメラ映像から車両Vの基準位置を検出し、基準位置を用いて、カメラと車両との位置関係を算出する。そのため、実施形態に係る物体検出方法では、物体検出に用いる端末装置のカメラと車両との位置関係を把握して、適切に物体検出を行うことができる。
【0025】
次に、
図3を用いて、実施形態に係る物体検出装置である端末装置10の構成例について説明する。
図3は、端末装置10のブロック図である。
図3に示すように、端末装置10は、通信部11と、表示部12と、操作部13と、スピーカ14と、カメラ15と、センサ部20と、制御部30と、記憶部40とを備える。
【0026】
通信部11は、たとえば、ネットワークアダプタ等によって実現される。通信部11は、上述した車両制御装置100と有線または無線で接続される。
【0027】
表示部12は、例えば、液晶ディスプレイなどの各種表示装置によって実現される。表示部12は、制御部30から入力される各種画像を表示する。操作部13は、ユーザによる各種操作入力を受け付ける入力ディスプレイによって実現される。なお、表示部12がタッチパネルディスプレイで構成される場合、表示部12に操作部13の機能を含むようにしてもよい。
【0028】
スピーカ14は、音声出力装置によって実現される。スピーカ14は、制御部30から入力される音声信号を出力する。カメラ15は、レンズや各種撮像素子によって実現される。カメラ15は、カメラ映像を撮影し、制御部30へ渡す。
【0029】
なお、カメラ15は、複数であってもよく、端末装置10の内側に設置されるインカメラと、端末装置10の外側に設置されるアウトカメラとを含むようにしてもよい。
【0030】
センサ部20は、各種センサによって構成され、各種検出結果を制御部30へ渡す。
図3に示す例において、センサ部20は、加速度センサ21と、ジャイロセンサ22と、Lidar23を備える場合を示す。
【0031】
加速度センサ21は、端末装置10に生じる加速度を検出するセンサである。ジャイロセンサ22は、端末装置10の回転角度速度を検出するセンサである。また、Lidar
23は、周囲を3Dスキャンするセンサである。
【0032】
制御部30は、所謂コントローラで、取得部31と、識別部32と、算出部33と、検出部34と、変換部35とを備える。制御部30は、例えば、CPU、ROM、RAM、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路を含む。制御部30は、複数のコンピュータを含んで、各コンピュータが協働して処理を実行する(処理を分担する)ように構成してもよい。
【0033】
コンピュータのCPUは、例えば、ROM等の記憶デバイスに記憶されたプログラムを読み出して実行することによって、制御部30の取得部31、識別部32、算出部33、検出部34および変換部35として機能する。制御部30の一部、または全部は、ASICやFPGA等のハードウェアで構成されてもよい。
【0034】
取得部31は、各種情報を取得する。取得部31は、カメラ15によって撮影されるカメラ映像Gを取得する。また、取得部31は、センサ部20から入力される各種検出結果を取得する。
【0035】
また、取得部31は、通信部11を介し、車両制御装置100から車両Vに関する車両情報を取得する。例えば、ここでの車両情報には、車両Vの形状、車両Vの重量、停止距離に関する情報などが含まれる。なお、上述のように、マーカPをQRコードとする場合には、取得部31は、QRコードの読み取りによって車両情報を取得するようにしてもよい。
【0036】
識別部32は、取得部31によって取得されたカメラ映像Gから車体Vpの一部である基準点を識別する。例えば、識別部32は、各種画像処理によってカメラ映像GからQRコードであるマーカPを基準点として識別する。そして、識別部32は、基準点であるマーカPの位置、角度、大きさなどに関する情報を算出部33へ渡す。なお、識別部32は、これらの識別処理を所定の周期で繰り返し実行する。
【0037】
算出部33は、識別部32によって識別された基準点に基づいて、端末装置10のカメラ15と自車両との位置関係を算出する。具体的には、算出部33は、識別部32からマーカPに関する情報を取得し、さらに、取得部31から車両Vの形状に関する車両情報を取得する。
【0038】
算出部33は、これらの情報に基づき、カメラ15と、マーカPとの位置関係を算出し、算出したカメラ15と、マーカPとの位置関係を利用して、端末装置10のカメラ15と自車両である車両Vとの位置関係を算出する。
図4は、算出部33による算出処理の概念図である。
【0039】
図4に示すように、例えば、識別部32は、端末装置10のカメラ15によって撮影されたカメラ映像GからマーカPを識別する。そして、算出部33は、識別部32による識別結果に基づき、カメラ15と、マーカPとの位置関係を算出する。
【0040】
また、算出部33は、算出したカメラ15と、マーカPとの位置関係と、車両Vの形状に関する車両情報に基づき、カメラ15と、車両Vとの位置関係を算出する。なお、車両情報は、例えば、車両Vの形状、車両VにおけるマーカPの3次元位置を示す3Dデータであってもよく、各アングルから見えるマーカPの見え方に関する標本であってもよい。そして、算出部33は、算出したカメラ15と、マーカPとの位置関係に関する情報を検出部34へ渡す。
【0041】
なお、識別部32および算出部33による処理は、所定周期で繰り返し実行される。これにより、例えば、振動等によってカメラの搭載位置に変化があった場合に、カメラ15と、車両Vとの位置関係に関し、適切にキャリブレーションを行うことができる。
【0042】
また、たとえば、振動や衝撃等によって、端末装置10のカメラ15の光軸が変化した場合、基準点であるマーカPがカメラ映像Gから消失する場合がある。一方で、たとえば、マーカPをかごの内部に設置するような場合には、かごに入れた荷物によってマーカPが遮蔽される場合もある。つまり、カメラ15の光軸が変化していない状況でも、基準点であるマーカPがカメラ映像Gから消失する場合がある。
【0043】
そこで、算出部33は、基準点であるマーカPがカメラ映像Gから消失した場合、カメラ15の光軸の変化判定を行う。
図5は、光軸判定の模式図である。例えば、
図5に示すように、荷物Lによって基準点であるマーカPが遮蔽され、基準点であるマーカPがカメラ映像Gから消失したとする。
【0044】
この場合、算出部33は、センサ部20が有する加速度センサ21の値に基づいて、光軸の変化判定を行う。具体的には、たとえば、基準点の消失前後において、ユーザが端末装置10を動かした場合には、加速度センサ21の値が大きく変化する。これに対し、
図5に示したように、荷物Lによる遮蔽であれば、加速度センサ21の値は変化しない。
【0045】
そのため、算出部33は、基準点の消失前後における加速度センサ21の値の変化量が所定値未満である場合には、光軸が変化しておらず、荷物Lによる遮蔽であると判断し、基準点が消失する前のカメラ15と、車両Vとの位置関係に関する情報を保持し、保持した位置関係に関する情報に基づき障害物Obを検出する。
【0046】
つまり、端末装置10は、カメラ15の光軸が変化していないと判定した場合には、基準点であるマーカPがカメラ映像Gから消失した場合であっても、消失前の位置関係に関する情報に基づいて、障害物Obを検出することができる。
【0047】
また、算出部33は、基準点の消失前後における加速度センサ21の値の変化量が所定値以上の場合は、光軸が変化したことにより、基準点が消失したと判断する。算出部33は、光軸の変化判定の結果、基準点の消失が光軸の変化によるものと判定した場合には、表示部12やスピーカ14を介して、ユーザに対し音や画像によるアラートを出力する。例えば、算出部33は、車両Vが走行中である場合には、車両Vの停車を促すアラートを出力し、車両Vが停車中である場合には、端末装置10の取り付け角度の修正を促すアラートを出力する。
【0048】
これにより、端末装置10では、カメラ15と車両Vとの位置関係を適切に把握した状態において、カメラ映像Gから障害物Obと車両Vとの位置関係を算出することができる。なお、算出部33は、車両制御装置100に対し車両Vの停車を要求するようにしてもよく、車両制御装置100に対し衝突回避や自動走行に関する機能の停止を要求するようにしてもよい。
【0049】
つまり、車両Vと障害物Obとの位置関係を適切に算出することができない場合には、支障をきたすおそれがある衝突回避や自動走行に関する機能を停止することによって、安全性能の向上を図ることができる。
【0050】
図3の説明に戻り、検出部34について説明する。検出部34は、各種画像処理によって、カメラ映像Gから対象物である障害物Obを検出する。検出部34は、障害物Obを検出した場合、算出部33によって算出されたカメラ15と車両Vとの位置関係に基づき、車両Vと障害物Obとの相対位置を算出する。
【0051】
つまり、検出部34は、基準点であるマーカPを基準として、車両Vとカメラ映像Gに映る障害物Obと自車両である車両Vとの相対位置を算出する。そして、検出部34は、検出した障害物Obに関する各種情報を車両制御装置100へ出力する。なお、検出部34は、Lidar23の検出結果に基づいて、障害物Obを検出することにしてもよい。
【0052】
変換部35は、算出部33によって算出されたカメラ15と車両Vとの位置関係、加速度センサ21あるいはジャイロセンサ22の検出結果に基づき、カメラ映像Gに映る路面を車両座標へ変換する。なお、車両座標とは、車両Vにおいて各種制御(衝突回避など)を行う際に用いる座標系である。
【0053】
例えば、変換部35は、算出部33によって算出されたカメラ15の光軸の向きと、加速度センサ21あるいはジャイロセンサ22の検出結果とに基づいて、車両Vが走行する路面の傾きを求め、当該傾きを考慮した車両座標へ変換する。そして、変換部35は、変換後の車両座標に関する情報を車両制御装置100へ出力する。
【0054】
次に、
図6を用いて、車両制御装置100の構成例について説明する。
図6は、車両制御装置100のブロック図である。
図6に示すように、車両制御装置100は、通信部110と、制御部130と、記憶部140とを備える。
【0055】
通信部110は、たとえば、ネットワークアダプタ等によって実現される。通信部110は、上述した車両制御装置100と有線または無線で接続される。
【0056】
制御部130は、所謂コントローラで、決定部131と、走行制御部132と、警告部133とを備える。制御部130は、例えば、CPU、ROM、RAM、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路を含む。制御部130は、複数のコンピュータを含んで、各コンピュータが協働して処理を実行する(処理を分担する)ように構成してもよい。
【0057】
コンピュータのCPUは、例えば、ROM等の記憶デバイスに記憶されたプログラムを読み出して実行することによって、制御部130の決定部131、走行制御部132および警告部133として機能する。この場合、プログラムは外部から通信回線などを通して記憶デバイスに記憶されていてもよい。制御部130の一部、または全部は、ASICやFPGA等のハードウェアで構成されてもよい。
【0058】
決定部131は、車両Vの自動走行に関する各種制御内容を決定する。例えば、決定部131は、車両Vによる障害物Obとの衝突回避に関し、端末装置10から入力される障害物Obに関する情報に基づいて、衝突回避の要否や、緊急停車の要否、衝突回避に関するルート等を決定する。
【0059】
この際、決定部131は、例えば、車両Vの形状、重量、停止距離等に関する各種情報を用いて、衝突回避の判定を行う。なお、衝突回避の判定については、端末装置10側で行うようにしてもよい。この場合、例えば、端末装置10でマーカであるQRコードを読み取った場合に、車両Vの形状、重量、停止距離等に関する各種情報を端末装置10へ提供するようにしてもよい。また、車両制御装置100からBluetooth(登録商標)などの無線通信経由で車両Vの形状、重量、停止距離等に関する各種情報を端末装置10へ提供するようにしてもよい。
【0060】
その他、決定部131は、車両Vの追従走行に関する制御内容を決定する場合には、先方車両に追従するように、走行速度や舵角等といった制御内容を決定する。
【0061】
走行制御部132は、決定部131によって決定された制御内容に基づいて、車両Vの走行を制御する。例えば、走行制御部132は、決定部131によって決定された制御内容に基づいて、車両Vのアクセル、ブレーキ、舵角を制御することで、車両Vの走行をアシストする。
【0062】
警告部133は、端末装置10の変換部35から入力される車両座標に関する情報に基づき、車両Vが走行中の路面が走行可能な傾斜であるか否かを判定し、判定結果に応じてユーザに対し警告を行う。
【0063】
例えば、警告部133は、車両座標に基づき、走行中の路面の傾斜によって車両Vが転倒する恐れがあるか否かを判定し、走行中の路面で車両Vが転倒する恐れがある場合には、警告を行う。
【0064】
例えば、警告部133による警告は、車両Vの停車させたうえで、端末装置10あるいは車両Vのクラクション(不図示)から警告音を発生させることで行われる。これにより、車両Vの転倒を回避することができる。
【0065】
また、実施形態に係る車両制御システム1では、端末装置10が備える加速度センサ21を用いて、路面の傾斜を判定することができるので、加速度センサ21が搭載されていない車両Vであっても傾斜警告を行うことができる。つまり、加速度センサ21の分だけ、車両Vのコスト低減を図ることができる。
【0066】
次に、
図7および
図8を用いて、実施形態に係る端末装置10が実行する処理手順について説明する。
図7および
図8は、端末装置10が実行する処理手順を示すフローチャートである。
【0067】
まず、
図7を用いて、端末装置10による初期設定に関する処理手順について説明する。なお、以下に示す処理手順は、制御部30によって実行される。
図7に示すように、まず、端末装置10は、ユーザが端末装置10を取り付け後にカメラ映像Gの取得を開始する(ステップS101)。
【0068】
つづいて、端末装置10は、カメラ映像Gから基準点を識別可能か否かを判定する(ステップS102)、端末装置10は、基準点を識別可能であると判定した場合(ステップS102;Yes)、基準点に基づき、カメラ15と自車両である車両Vとの位置関係を算出する(ステップS103)。
【0069】
そして、端末装置10は、対象物である障害物Obの検出処理を開始し(ステップS104)、処理を終了する。また、端末装置10は、ステップS102の判定処理において、基準点を識別できなかった場合(ステップS102;No)、アラートを通知し(ステップS105)、処理を終了する。なお、ここでのアラートは、ユーザに対し端末装置10の取り付けの修正を促すものである。
【0070】
次に、
図8を用いて、車両Vの走行時における処理手順について説明する。なお、以下に示す処理手順は、車両Vの走行時において、端末装置10の制御部30によって繰り返し実行される。
図8に示すように、端末装置10は、カメラ映像Gに対し基準点の識別処理を行う(ステップS111)。
【0071】
つづいて、端末装置10は、基準点を識別できたか否かを判定し(ステップS112)、基準点を識別できた場合(ステップS112;Yes)、識別した基準点に基づいて、カメラ15と自車両である車両Vとの位置関係を更新する(ステップS113)。
【0072】
そして、端末装置10は、対象物である障害物Obの検出処理を行い(ステップS114)、処理を終了する。また、端末装置10は、ステップS112の判定処理において、基準点を識別できなかった場合(ステップS112;No)、加速度センサ21の測定結果に基づくカメラ15の光軸判定を行う(ステップS115)。端末装置10は、光軸判定の結果、カメラ15の光軸が変化したと判定した場合には(ステップS116;Yes)、車両Vが走行中かどうかを更に判定する(ステップS117)。
【0073】
端末装置10は、車両Vが走行中の場合(ステップS117;Yes)、ユーザに停車を要求するアラートを通知し(ステップS118)、停車中の場合(ステップS117;No)、端末装置10の取り付けの修正を促すアラートを通知する(ステップS119)。
【0074】
また、端末装置10は、光軸判定の結果、カメラ15の光軸が変化していないと判定した場合には(ステップS116;No)、基準点が消失する前のカメラ15と車両Vとの位置関係に関する情報を保持し(ステップS120)、保持した位置関係に関する情報に基づき障害物Obを検出する(ステップS114)。
【0075】
ところで、上述した実施形態では、物体検出装置が端末装置10である場合について説明したが、物体検出装置の機能の一部またはすべてを車両制御装置100あるいは車両Vの搭載される他のCPUで構成することにしてもよい。
【0076】
また、上述した実施形態では、検出対象となる物体が障害物である場合について説明したが、これに限定されるものではない。例えば、車両Vの自動追従走行を行う場合において検出対象となる物体は先行車両であってもよく、さらには、路面標示、あるいは、信号機などであってもよい。すなわち、制御対象に応じて、検出対象となる物体を任意に変更可能である。
【0077】
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
【符号の説明】
【0078】
1 車両制御システム
10 端末装置(物体検出装置の一例)
11 通信部
12 表示部
13 操作部
14 スピーカ
15 カメラ
20 センサ部
21 加速度センサ
22 ジャイロセンサ
30 制御部
31 取得部
32 識別部
33 算出部
34 検出部
35 変換部
40 記憶部
100 車両制御装置
110 通信部
130 制御部
131 決定部
132 走行制御部
133 警告部
G カメラ映像
Ob 障害物(物体の一例)
P マーカ
V 車両
Vp 車体