IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人名古屋大学の特許一覧 ▶ インラック株式会社の特許一覧

<>
  • 特許-片側交互通行の制御システム 図1
  • 特許-片側交互通行の制御システム 図2
  • 特許-片側交互通行の制御システム 図3
  • 特許-片側交互通行の制御システム 図4
  • 特許-片側交互通行の制御システム 図5
  • 特許-片側交互通行の制御システム 図6
  • 特許-片側交互通行の制御システム 図7
  • 特許-片側交互通行の制御システム 図8
  • 特許-片側交互通行の制御システム 図9
  • 特許-片側交互通行の制御システム 図10
  • 特許-片側交互通行の制御システム 図11
  • 特許-片側交互通行の制御システム 図12
  • 特許-片側交互通行の制御システム 図13
  • 特許-片側交互通行の制御システム 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-06-28
(45)【発行日】2024-07-08
(54)【発明の名称】片側交互通行の制御システム
(51)【国際特許分類】
   G08G 1/09 20060101AFI20240701BHJP
   G08G 1/04 20060101ALI20240701BHJP
   G06T 7/00 20170101ALI20240701BHJP
   G06T 7/254 20170101ALI20240701BHJP
【FI】
G08G1/09 P
G08G1/04 C
G06T7/00 650B
G06T7/254 B
【請求項の数】 1
(21)【出願番号】P 2021140919
(22)【出願日】2021-08-31
(65)【公開番号】P2023034603
(43)【公開日】2023-03-13
【審査請求日】2023-01-27
(73)【特許権者】
【識別番号】504139662
【氏名又は名称】国立大学法人東海国立大学機構
(73)【特許権者】
【識別番号】521384566
【氏名又は名称】インラック株式会社
(74)【代理人】
【識別番号】110000659
【氏名又は名称】弁理士法人広江アソシエイツ特許事務所
(72)【発明者】
【氏名】横田 康成
(72)【発明者】
【氏名】市橋 明人
【審査官】田中 将一
(56)【参考文献】
【文献】特開平09-231497(JP,A)
【文献】特開2017-016554(JP,A)
【文献】特開2005-267331(JP,A)
【文献】特開平06-265330(JP,A)
【文献】特開2013-196519(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/00 - 99/00
G06T 7/00 - 7/90
G06V 10/00 - 20/90
G06V 30/418
G06V 40/16
G06V 40/20
(57)【特許請求の範囲】
【請求項1】
片側交互通行の制御システムであって、
一方の車線の遠方から停止位置までを撮影する第一のカメラと、
他方の車線の遠方から停止位置までを撮影する第二のカメラと、
前記第一のカメラと前記第二のカメラが撮影した画像を用いてそれぞれの車線における車両の状態を取得し、信号機の判断ロジックを制御する制御用コンピュータと、
を、備えており、
前記制御用コンピュータが、少なくとも、片側交互通行区間を通過する単位時間あたりの車両の通行台数を正の報酬とし、かつ停止位置で停車する車両の平均停車時間、および減速加速度の大きさと割合を負の報酬として、その報酬が最大となる判断ロジックを学習した制御プログラムを記憶していることを特徴とし、
前記制御プログラムの学習は、
それぞれの車線の車両出現時刻間隔の確率、
それぞれの車両の前車がいない場合の車速の確率密度分布、
それぞれの車両の前車がいない場合の加速度の確率密度分布、
及びそれぞれの車両の前車がいる場合の車速に応じた車間距離の確率密度分布、
を含むパラメータを設定した交通シミュレータを用いて、交互通行を行う一方の車線と他方の車線の交通状態に対応した最適信号制御を学習することであり、
前記交通シミュレータは、複数の車両ごとに信号機を原点とする座標と、速度と、加速度の値を含む配列を生成して前記制御プログラムに入力しており、
前記制御プログラムは、信号機を赤と青のどちらか一方に制御するという行動を決定し、制御完了時の報酬を評価して、判断ロジックを修正することにより前記報酬を最大にするように学習を繰り返すことを特徴とする片側交互通行の制御システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、片側交互通行を効率よく行う制御システムと交通信号機に関する。特に、片側交互通行区間に進入してくる車両の台数と走行状態を把握し、能動的に信号機の切り替えを行う制御システムに関する。また、片側交互通行を効率よく行うことのできる交通信号機に関する。
【背景技術】
【0002】
道路工事等によって道路の幅員が不足し、車両がすれ違いできない場合に、一つの車線だけを用いて車両を交互に通行させる片側交互通行が行われる。双方の車線の車両を交互に通行させる方法としては、工事用の交通信号機による方法と、交通誘導員による手動の方法がある。現在最も普及している工事用の交通信号機は、事前に設定した一定の時間で信号を自動的に切り替える受動的制御が採用されている。このような交通信号機では、交通量が多くなると最適な制御が行われず、一方の車線だけが渋滞するといった問題が生じることがある。これに対して、熟練した交通誘導員は、安全に配慮しつつ、単位時間あたりで片側交互通行区間を通過する車両数を最大化する車線の切り替え方法、または両方の車線の平均待ち時間を最小化する車線の切り替え方法を経験的に学んでおり、交通信号機よりも、よりスムーズな片側交互通行を実現できる場合がある。
【0003】
一方で、交通誘導員の育成には相当な期間が必要であり、熟練した交通誘導員は慢性的に不足している。現状では、全ての片側交互通行区間に交通誘導員を配置することは困難であり、交通信号機が随所で利用されている。このため、交通信号機による赤信号と青信号の時間間隔を最適化し、安全でかつ待ち時間が少なくなるように、交通整理を行うことのできる技術が求められている。
【0004】
特許文献1には、車両感知器、可視カメラ、または赤外線カメラを備え、道路工事のために設けられた停止線で信号待ちをしている車両を検知し、この情報をもとに渋滞が緩和できるように信号機の表示時間を調整する道路工事交通信号制御装置が開示されている。特許文献1の信号制御装置は、カメラの映像の中で車両が占有している車両占有範囲を計測し、渋滞の指標としている。しかし、片側交互通行区間に到達するまでの、個々の車両の走行状態や、走行時の車両同士の車間距離などを、信号機制御の指標として用いておらず、交通誘導員による誘導よりも効率の悪い制御となる可能性がある。
【0005】
より効率のよい片側交互通行を信号機で実現するためには、遠距離から近づいてくる車両の走行状態を把握することが重要である。従来から、カメラによって道路とその周辺の画像を取得し、深層学習をおこなったプログラムによって車両を検出する技術が行われている。非特許文献1には、画像内で比較的大きな領域を占めている、近距離や中距離にある車両を検出する技術が開示されている。しかしながら、遠距離にあって画像内に小さく映っている車両をいち早く検出する検討は、これまであまり行われていない。
【先行技術文献】
【特許文献】
【0006】
【文献】特開2000-172987号公報
【非特許文献】
【0007】
【文献】M. Koziarski and B. Cyganek, “Impact of low resolution on image recognition with deep neural networks: An experimental study,” Int. J. Appl. Math. Comput. Sci., vol. 28, no. 4, pp. 735-744, 2018, doi: 10.2478/amcs-2018-0056.
【発明の概要】
【発明が解決しようとする課題】
【0008】
片側交互通行区間の交通整理を、安全かつより効率よく行い、渋滞を最小限にすることのできる制御システムが求められている。特に、片側交互通行区間に侵入してくる車両の台数と走行状態を分析し、得られた分析結果に基づいて、信号の切り替えを能動的に行う制御システムが求められている。さらに、能動的な制御システムを搭載して、より安全で効率よく片側交互通行を実現することのできる交通信号機が求められている。
【0009】
本発明は、上記解決すべき課題に鑑みてなされたものであって、片側交互通行区間の交通整理を、従来よりも安全かつより効率よく行うことのできる制御システムと交通信号機の提供を、解決すべき課題としてなされたものである。
【課題を解決するための手段】
【0010】
本発明は、片側交互通行の制御システムに関する。本発明の制御システムは、一方の車線の遠方から停止位置までを撮影する第一のカメラと、他方の車線の遠方から停止位置までを撮影する第二のカメラと、第一のカメラと第二のカメラが撮影した画像を用いてそれぞれの車線における車両の状態を取得し、信号機の判断ロジックを制御する制御用コンピュータとを、備えている。本発明の片側交互通行の制御システムは、制御用コンピュータが、少なくとも、片側交互通行区間を通過する単位時間あたりの車両の通行台数を正の報酬とし、かつ停止位置で停車する車両の平均停車時間および減速加速度の大きさと割合を負の報酬として、その報酬が最大となる判断ロジックを学習した制御プログラムを記憶していることを特徴とする。
【0011】
本発明の片側交互通行の制御システムにおいて、制御プログラムの学習は、それぞれの車線の車両出現時刻間隔の確率、それぞれの車両の前車がいない場合の車速の確率密度分布、及びそれぞれの車両の前車がいる場合の車速に応じた車間距離の確率密度分布を含むパラメータを設定した交通シミュレータを用いて、交互通行を行う一方の車線と他方の車線の交通状態に対応した最適信号制御を学習する。交通シミュレータは、複数の車両ごとに信号機を原点とする座標と、速度と、加速度の値を含む配列を生成して前記制御プログラムに入力しており、制御プログラムは、信号機を赤と青のどちらか一方に制御するという行動を決定し、制御完了時の報酬を評価して、判断ロジックを修正することにより前記報酬を最大にするように学習を繰り返すことを特徴とする。
【0012】
(削除)
【0013】
(削除)
【0014】
(削除)
【発明の効果】
【0015】
本発明の片側交互通行の制御システムは、遠方から停止位置まで近づいてくる車両を撮影してそれぞれの車線における車両の状態を取得することで、従来よりも精度高く車両の通行状態を把握し、効率よく片側交互通行の誘導を行うすることができる。
【0016】
本発明の制御システムは、制御プログラムの判断ロジックの学習に、単位時間あたりの通行台数と、停車している車両の平均停車時間を報酬とした学習モデルを用いることにより、判断ロジックの機械学習を可能とし、熟練の交通整理員に匹敵する判断ロジックの習得を可能とする。
【0017】
本発明の制御システムは、画像処理部を備えることにより、従来よりも遠方から片側交互通行区間に近づいてくる車両を識別することが可能となる。遠方からの車両を識別することで、各車両の走行状態がより正確に把握され、一層効率の良い片側交互通行の制御が可能となる。
【0018】
本発明の交通信号機は、カメラを撮影した遠方から停止位置まで近づいてくる車両の画像によってそれぞれの車線における車両の状態を取得した制御プログラムの制御によって、効率よく片側交互通行のための信号の切り替えを行うことができる。
【図面の簡単な説明】
【0019】
図1図1は、本発明の片側交互通行の制御システムの制御用コンピュータの構成を示すブロック図である。
図2図2は、制御プログラムの学習に用いる交通シミュレータの概要を示す図である。
図3図3は、制御プログラムの学習方法を示すブロック図である。
図4図4は、交通シミュレータに対して、学習済の制御プログラムが能動的制御を行った場合の、車両の通行状態を示す図である。
図5図5は、交通シミュレータにおいて、一定時間で信号を切り替える受動的制御を行った場合の、車両の通行状態を示す図である。
図6図6は、本発明の制御用コンピュータを備えた交通信号機の構成を概念的に示す図である。
図7図7は、制御用コンピュータの画像処理部にカメラから入力される道路の画像の例を示した図面代用写真である。
図8図8は、画像処理部による、画像中の関心領域の推定結果の図面代用写真である。
図9図9は、本発明の画像処理部によって特定された車両の特異点の位置を、従来の方法で特定された消失点と比較した図である。
図10図10は、画像処理部によって追跡されている車両を示した図である。
図11図11は、車両が作る三次元の流れ場のうち地表における二次元の流れ場を画像中の関心領域における二次元で解析した例を示す図である。
図12図12は、車両が作る三次元の流れ場を画像中の関心領域における二次元で解析した例を示す図である。
図13図13は、車両が作る三次元の流れ場を画像中の関心領域における二次元で解析した例を示す図である。
図14図14は、車両が作る三次元の流れ場を画像中の関心領域における二次元に加え車両の面積を加えた三次元で解析した例を示す図である。
【発明を実施するための形態】
【0020】
以下、本発明の片側交互通行の制御システムおよび交通信号機について、図面を参照しつつ詳細に説明する。本実施形態では、最初に、制御システムの構成の概要を説明し、次に、制御用コンピュータを備えた交通信号機の構成を説明する。
【0021】
本実施形態の片側交互通行の制御システムは、一方の車線の遠方から停止位置までを撮影する第一のカメラと、他方の車線の遠方から停止位置までを撮影する第二のカメラと、第一のカメラと第二のカメラの画像を用いてそれぞれの車線における車両の状態を取得し、信号機の判断ロジックを制御する制御用コンピュータとを備えている。
【0022】
図1に、制御システムの制御用コンピュータ1の構成を、ブロック図で示す。本発明の制御用コンピュータは、制御用プログラムと画像処理部を備えている。本実施形態の制御用コンピュータは一台のコンピュータで構成されており、交互通行を行う一方の車線と他方の車線の交通状態の両方を集約している。
【0023】
交通誘導員による片側交互通行の誘導は、通常一つの車線につき一人の人員が担当し、トランシーバー等の通信手段で連絡をとりつつ誘導を行う。このような方法では、反対側に停車中の車両の数、停車時間などの情報は十分に得られにくいという問題があった。これに対して、本実施形態では、両方の車線の状況を一台の制御用コンピュータ1に集約するため、より効率的な制御が可能となる。
【0024】
片側交互通行の効率的な交通制御は、片側交互通行区間の以下のような特性を考慮して行うことが好ましい。
・ 両方の車線の交通量(単位時間当たりの通行台数)
・ 片側交互通行区間に到達する前の、それぞれの車両の平均車速
・ 片側交互通行区間に到達する前の、それぞれの車両の平均加速度
・ 車両が数台から数十台で連なった「車塊」の状態で到達する場合の、それぞれの車両出現時刻間隔の確率。
・ それぞれの車両の前車がいない場合の車速の確率密度分布。
・ それぞれの車両の前車がいない場合の加速度の確率密度分布。
・ それぞれの車両の前車がいる場合の車速に応じた車間距離の確率密度分布。
【0025】
これらの特性を考慮して、それぞれの車線に備えられた信号機の青と赤の切り替えを行うために、本実施形態の制御用コンピュータの制御プログラムは、交通シミュレータを用いて深層学習を行い、様々な交通状態に対応可能な最適制御を学習している。
【0026】
図2に制御プログラムの強化学習を行うための交通シミュレータの概念を示す。図中、符号Cが付された一つ一つの正方形は、それぞれの車線を走行する車両を表している。符号3が付された丸印は一方の車線を制御する信号機であり、符号4が付された丸印は他方の車線を制御する信号機である。シミュレータ上では、片側交互通行区間は、両方の車線を横断する領域で示されており、この区間は、いずれか一方の車線を車線が走行しているとき、他方はこの領域に侵入しないことが定義されている。
【0027】
交通シミュレータは、車両Cごとに、信号機3,4の中心を原点とする座標と、速度と、加速度のデータを与える。そして、車両Cごとに、以下の3つの条件を定義している。
・ 指定速度以下なら加速する。
・ 走行する車線の前方の信号機3,4が赤の場合は、減速する。
・ 前の車両Cとの距離が近づいたら減速する。
【0028】
図3に、制御プログラムが交通シミュレータを用いて行う強化学習の方法をブロック図で示す。交通シミュレータは、制御プログラムに、車両Cごとのデータである、座標、速度、加速度の値を持つ配列、
【数1】
を生成し、制御プログラム内のAIに与える。
【0029】
制御プログラムは、車両Cごとのデータを受け取り、交通シミュレータ内で、信号機3、4を赤と青のどちらか一方に制御するという行動を決定する。交通制御を開始した初期段階では、反対車線の信号が赤で、かつ片側交互通行区間に車両Cがいない時に、青信号に切り替えるという最も簡単な規則のみが定められている。なお、以下においては、信号機3、4を両方とも赤に制御した状態を行動1の「赤々」と略称する。また、信号機3が赤で信号機4を青に制御した状態を行動2の「赤青」、信号機3が青で信号機4を赤に制御した状態を行動3の「青赤」と略称する。
【0030】
制御プログラムの行動の結果に対する正の報酬は、片側交互通行区間を通過する単位時間あたりの車両Cの通行台数と規定されている。一方、停止位置で停車する車両Cの平均停車時間を負の報酬と規定されている。これに加えて、急ブレーキを発生させたとき、その減速加速度の大きさと割合に応じた負の報酬が規定されている。
【0031】
制御プログラムは、交通制御を交通シミュレータから与えられた車両Cのデータを用いて、交通制御を一定時間行う。そして、制御の完了時の報酬を評価し、その都度判断ロジックを修正してゆき、その報酬を最大にするように学習を繰り返す。最初にある程度適した行動をとるようになるとその行動をとり続けてしまうため、本実施形態では、εの値に則ってランダムな行動を起こさせるε-greedy法を用いて最適の行動を探し続ける。さらに、交通シミュレータは、想定しうる様々な交通属性に基づいて車両Cのデータを制御プログラムに与え、同様に交通制御を繰り返すことにより、様々な交通状態に適応できる最適な交通制御ロジックが獲得される。
【0032】
図4に、交通シミュレータに対して、学習済の制御プログラムが能動的制御を行った場合の、車両Cの通行状態を示す。図5は、交通シミュレータにおいて、一定時間で信号を切り替える受動的制御を行った場合の、車両の通行状態を示す図である。学習済みの制御プログラムによる制御では、信号が「赤青」から「青赤」に切り替えられる度に、停車していた車両Cの全てが、片側交互通行区間を通過できていることが示されている。これに対して、図5に示した受動的制御では、信号機3側で信号が青から赤に変わった時点で既に多くの車両が停止しており、一回の信号の切り替えでは通過できていない車両が渋滞していることがわかる。
【0033】
このように、本実施形態の判断ロジックを学習した制御プログラムを用いることで、適切な交通整理の行える信号機制御が可能となる。
【0034】
本実施形態の制御プログラムを、片側交互通行区間の交通信号機に適用するためには、実際に交通信号機が設置される道路で、車両の通行状態を把握する必要がある。しかも、より適切な制御のために、遠距離から近づいてくる車両の走行状態を把握することが重要となる。本実施形態の制御用コンピュータ1は、信号機3,4を制御する制御プログラムの他に、道路を走行する車両を撮影した画像から車両を抽出する画像処理部を備えている。
【0035】
図6に、本実施形態の制御用コンピュータ1を備えた、片側交互通行用の一対の信号機3,4の構成を示す。制御用コンピュータ1には、遠距離から近づいてくる車両Cの走行状態を把握するために、一方の車線の遠方から停止位置までを撮影する第一のカメラ2aと、他方の車線の遠方から停止位置までを撮影する第二のカメラ2bとが接続されている。また、本実施形態では、片側交互通行区間を撮影し、区間内に車両が存在しないことを確認するための第三のカメラ2cを備えている。
【0036】
制御用コンピュータ1は、第一のカメラ2a、第二のカメラ2b、第三のカメラ2cが撮影した画像を取り込むための通信機能と、信号機3,4に制御命令を送信するための通信機能を備えている。信号機3,4は、制御用コンピュータの制御プログラムによって、その赤または青の表示内容と表示時間を変更する。
【0037】
制御用コンピュータの画像処理部は、カメラ2a,2bが撮影した画像から、規則的に移動する物体が出現する関心領域を特定する。さらに、移動物体である車両が出現あるいは消失する特異点(上述したとおり、一般的な消失点とは異なる位置となる場合があるため、「消失点」とは異なる「特異点」という名称を付している。)を特定し、遠方から近づいてくる車両を早期に検出する。以下、画像処理部が実行する画像の検出方法について、詳細に説明する。
【0038】
図7(a)に、第一のカメラ2aから制御用コンピュータの画像処理部に入力される道路の画像の例を示す。図7(b)に、第二のカメラ2bから制御用コンピュータの画像処理部に入力される道路の画像の例を示す。制御用コンピュータは、信号機3,4の制御を開始する直前の数分間、動画像を記録し、動画像に含まれる時刻ごとのビデオフレームと、ビデオフレームから車両Cを含む移動物体を削除した背景画像とを差分する背景差分法によって、関心領域を抽出する。
【0039】
第一のカメラ2aと第二のカメラ2bによって、1秒あたりのフレーム数V(fps)で撮影した動画像から、ビデオフレームI(x,y,t)をとりだす。このとき、ビデオフレームごとの画素値を、
I(x,y,t)∈{0,1,・・・,255},
x∈{1,2,・・・,N_x},
y∈{1,2,・・・,N_y},
t∈{1,2,・・・,T}
で表わすことができる。ここで、xは画像中の水平座標、yは画像中の垂直座標、tはフレーム番号、N_xは水平方向の画素数、N_yは垂直方向の画素数、Tは総フレーム数である。なお、本実施形態では、画像をグレースケールで撮影している。
【0040】
フレーム番号tのフレームから、移動物体の存在しない背景画像を推定する。推定には、前後r枚のビデオフレームの中央値を用いる。背景画像IBG(x,y,t)は、以下の式で推定される。本実施形態では、前後5秒の150枚のビデオフレームを用いた。
【数2】
【0041】
ビデオフレームI(x,y,t)と背景画像IBG(x,y,t)の画素値の差が基準値(Th1)以上であるか否かによって、その画素が移動物体を示しているか否かを判定することができる基準値Th1は、小さな値に設定すると移動物体を検知しやすくなるが、ノイズにも反応することになるため、本実施形態では、Th1=50と設定した。そして、移動物体と判定した画素を1、移動物体ではないと判定した画素を0とした2値画像IFO(x,y,t)を次式で求める。
【数3】


ここで、関数H(x;th)は、閾値関数、あるいは活性化関数と呼ばれるものであり、
【数4】

を表す。閾値Th1は、小さな値に設定すると移動物体を検知しやすくなるが、ノイズにも反応することになる。本実施形態では、Th1=50としている。
【0042】
図7(a)に示した道路の画像と、図7(b)に示した道路の画像について、それぞれ、移動物体と判定した画素を1、移動物体ではないと判定した画素を0とした2値画像を図8に示す。
【0043】
次に、得られた2値画像IFO(x,y,t)の関心領域を個々の移動物体に分割し、それぞれにインデックスk(k=1,2,・・・)を付ける。このとき、移動物体が車両等の剛体であれば、次のビデオフレームでは、座標の移動とともに、近づいている場合にはサイズが大きくなり、遠ざかる場合にはサイズが小さくなる。インデックスkを付した移動物体を、IFO,k(x,y,t)で表し、ビデオフレームtにおける移動物体IFO,k(x,y,t)、k=1,2, ・・・をMO(x,y,t)で表し、スケール変換のパラメータをa,bとすると、車両を示す部分は画像内で規則的な移動を行うため、

MO(ax+b,ay+b,t)=MOk’(x,y,t+1)

の関係を満たす。このとき、移動ベクトルを(b,b)で表すと、移動方向φは、
【数5】
で表すことができる。
【0044】
20個から100個程度の移動物体を観察することにより、画像中の各座標(x,y)における移動物体の移動方向φの分布を得ることができる。座標(x,y)に車両が映っている場合、対向する車両が存在することにより、移動方向φの分布は、180度ずれた2つの鋭いピークを持つ。これに対して、風に揺れる草や木々の葉などの場所では、そのような特徴的な分布にならないため、明確に識別することができる。このように、移動方向φの分布が180度ずれた2つのピークを持つ画像中の移動物体を特定することにより、追跡対象となる車両が撮影される領域である関心領域を特定することができる。
【0045】
次に、動画像において、接近車両が出現する点、あるいは遠ざかる車両が消失する特異点を推定する手法について述べる。
【0046】
関心領域の中においては、車両と想定される移動物体とその移動方向ベクトルがいくつも観測される。それぞれの移動物体の画像中の重心座標を(c,c)、その移動方向ベクトルを(b,b)とする。関心領域における車両が作る流れ場の一例を、図11(a)に示す。この図において、各矢印の起点は移動物体の重心座標(c,c)を表しており、矢印の大きさと向きは移動方向ベクトル(b,b)を表している。これらから特異点を求めるためには、流れ場解析で使われる以下のアルゴリズムを利用する。
(ステップ1)関心領域の中の1点を初期位置とする。
(ステップ2)この初期位置に最も近い移動物体を探す。
(ステップ3)この初期位置にその移動物体の移動方向ベクトルを加えたものを次の点とする。
(ステップ4)この点に最も近い移動物体を探す。
(ステップ5)この点にその移動物体の移動方向ベクトルを加えたものを次の点とする。
(ステップ6)以上の処理を移動しなくなるまで続ける。ここで、初期位置から最終的な位置までの軌跡をストリームラインと称する。また、最終的な位置を終末点と称する。
(ステップ7)以上の処理を初期位置を変えながら行い、複数のストリームラインと終末点を求める。
(ステップ8)終末点の中心を特異点とする。
ただし、ステップ2,3,4,5において、実際には、周辺の移動物体の移動方向ベクトルを内挿してその点の移動方向ベクトルを推定している。
【0047】
ここで、図11(a)では車両の高さを考慮していなかったが、実際には、図12-13のようになる。図12(a)は道路が直線の場合、図12(b)は道路が右にカーブしている場合、図13(a)は道路が左にカーブしている場合、図13(b)は道路が左にカーブしているが、カメラの位置がその道路を通るすべての車両の車高よりも高い位置にセットされている場合である。これらの図では、車両の大きさ(特に車高)を一定にして描いているが、実際には様々な車高の車両があるため、矢印は様々なy座標において出現する。例えば、図12(a)、(b)及び図13(b)の場合、図11(a)と同様に流れ場解析を行い特異点を求めることが可能であるが、図13(a)の場合、図11(b)のように関心領域の完全に内部に特異点があるため、通常の流れ場解析を適用して特異点を求めることができない。そこで、本発明では、図14に示すように、画像のx,y軸に加え、移動物体の面積Aを新たな軸に加えて3次元空間(x,y,A)とし、この3次元空間において、移動方向ベクトルに加え移動物体の面積の変化量dAを加えた3次元ベクトル(b,b,dA)による流れ場を考える。図14から分かるように、このように移動物体の面積という新たな軸を加えた空間を考えることにより、特異点が関心領域の端点に来るようにでき、通常の流れ場解析を適用して特異点を推定することが可能になる。
【0048】
図9に、本実施形態の画像処理部の処理により特定した特異点を符号Pの点で示し、従来の透視図法で定義される消失点を、符号Qの点で示す。(a)のように遠方まで直線的な道路では差が小さいが、(b)のように途中で曲がった道路の場合には、特に、本実施形態の画像処理部による処理により特定された特異点が、従来の透視図法で定義される消失点と比べて、実際の移動物体の出現と消失位置により近い位置となっていることが明らかである。
【0049】
通常、特異点は遠方にあるため、そこから車両が出現したとしても背景からの変化はわずかであり、ほぼノイズレベルである。交通誘導員であっても、車両が出現した瞬間にそれを認識することは不可能であるが、その後の規則的な動きで接近車両の出現を認識している。本実施形態の画像処理部は、この思想を踏襲し、数フレームにわたり移動物体の動きを追跡する。これにより、仮に、1枚の静止画でノイズの中から車両を検知できる確率が0.1=10%(0.9=90%はノイズ)であったしても、たとえば1秒間、すなわち30フレームを利用することにより、30フレームとも雑音である確率は(1-0.1)30となるので、車両を検知できる確率は1-(1-0.1)30=0.96=96%となる。この結果、車両を容易に検知することが可能になった。
【0050】
画像処理部の具体的な方法は以下のとおりである。車両が最初に出現する領域(画像の座標の集合)A、その次のフレームでその車両の位置する領域A,・・・nフレーム後での領域Aは、統計処理によって2値画像IFO(x,y,t)が求められている。そして、画像処理部は、
【数6】
が一定の閾値Th3以上の時、接近車両の出現と判断する。ここで、Nは大きいほど検知が遅れる一方で、確実な検知が可能になる。本実施形態では、道路状況に応じ、0.3s~1.0s、つまりN=10~30の範囲を規定することで、接近車両を確実に検知することができる。また、車両の速度により、存在領域A,n=0,1,・・・,N-1は若干変わってくるが、車両が出現する特異点付近では、車両の速度の影響は小さく、統計的にはほとんど影響しないとみなすことができる。
【0051】
特異点付近で車両が検出された後は、カルマンフィルタ(Kalman Filter)により車両を追跡し、各フレームでの座標を推定することができる。画像処理部への実装にはMatlab(Motion-Based Multiple Object Tracking. Mathworks社製)を利用することができる。各フレームでの座標からカメラ座標と実座標を変換する幾何変換により停止線までの距離、速度、加速度のデータを得ることができる。画像処理部が追跡した車両の図面代用写真を、図10に示す。画像処理部は、図10中の矩形で示した部分を、車両と認識して追跡している。
【0052】
本実施形態の画像処理部の車両早期検知能力、すなわちいかに早く接近車両を検知できるかを、物体形状認識と検出にしばしば利用される畳み込みニューラルネットワーク(R-CNN)を用いた手法と比較した。実装にはMatlabを利用した。畳み込みニューラルネットワークは、画像入力層、畳み込みニューラルネットワークの2D畳み込み層、正規化線形ユニット(ReLU)層、最大プーリング層、完全接続層、Softmax層、および分類出力層から形成されるネットワークである。畳み込みニューラルネットワークは、50,000個のトレーニング画像を含むCIFAR-10データセットを使用して学習させたものを利用した。これらのトレーニング画像には、自動車を含む10のカテゴリがあり、これらの物体の検出が可能である。学習には、初期学習率0.001の確率的勾配降下法(SGDM)を使用し、初期学習率は8エポックごとに減少させ、合計40エポックまで学習を行った。畳み込みニューラルネットワークがCIFAR-10データセットに対して適切に機能していることを確認した後、本実施形態で収集した動画像に対して追加で学習を行った。学習には、同じ確率的勾配降下法(SGDM)を使用し、初期学習率0.001とし、100エポックまで学習を行った。
【0053】
本実施形態の画像処理部による処理と、畳み込みニューラルネットワークを用いた手法により、本実施形態のカメラで収集した動画像に対して、接近車両を検知する検証実験を行った。4例について、映像を逆回しして車両が検知しているフレームを肉眼により慎重に割り出したもの(真の出現フレーム番号)、停止線に至った点でのフレーム番号、画像処理部により最初に車両を検出したフレーム番号、畳み込みニューラルネットワークで最初に車両を検出したフレーム番号を表1に示す。本実施形態の画像処理部は、いずれも、真の出現時点から4~7フレーム後(0.23s以内)には車両を検出できた。また、畳み込みニューラルネットワークに比べて11~91フレーム(平均2s)早く検出できていることが明らかとなった。くりかえし実証実験を行った結果、定性的に表1と同様の結果が得られた。
【0054】
【表1】
【0055】
以上説明した画像処理部による画像処理により、制御用コンピュータは、第一のカメラ2aと第二のカメラ2bの画像を用いて、遠距離から近づいてくる車両Cの走行状態をデータとして抽出することができる。抽出された車両Cの走行状態のデータは、交通シュミレータが提供するデータと同等の走行に関するデータを含んでおり、この走行状態のデータを用いて、制御プログラムは、信号機3,4を適切に制御することができる。
【0056】
本実施形態の片側交互通行の制御システムの制御用コンピュータは、制御用プログラムと画像処理部を備えることにより、従来よりも遠方から片側交互通行区間に近づいてくる車両を識別することが可能となる。遠方からの車両を識別することで、各車両の走行状態がより正確に把握され、一層効率の良い片側交互通行の制御が可能となる。
【0057】
本実施形態の交通信号機は、制御システムの制御プログラムによる制御によって、安全かつ効率よく車両の片側交互通行を実行するように、適切な信号の切り替えを行うことができる
【符号の説明】
【0058】
1 制御用コンピュータ
2a 第一のカメラ
2b 第二のカメラ
2c 第三のカメラ
3,4 信号機
c 車両
P 特異点
Q 従来技術の消失点
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14