(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024135469
(43)【公開日】2024-10-04
(54)【発明の名称】対象物追跡プログラム、対象物追跡装置及びその方法
(51)【国際特許分類】
G06T 7/20 20170101AFI20240927BHJP
【FI】
G06T7/20
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2023046166
(22)【出願日】2023-03-23
(71)【出願人】
【識別番号】000231512
【氏名又は名称】日本精機株式会社
(72)【発明者】
【氏名】舩木 陸議
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096FA18
5L096GA51
5L096HA05
5L096JA09
(57)【要約】
【課題】対象物を好適に追跡できる対象物追跡プログラム、対象物追跡装置及びその方法を提供する。
【解決手段】本実施形態における対象物追跡プログラムは、コンピュータに、撮影画像を取得する画像取得手段と、撮影画像に含まれる検出対象物を検出可能な第一検出方法を用いて、撮影画像から検出対象物を検出する検出手段と、撮影画像に含まれる検出対象物を検出可能な第一検出方法とは異なる第二検出方法を用いて、検出手段が検出した検出対象物を追跡対象物として撮影画像から繰り返し検出することで、撮影画像内で追跡対象物を追跡する追跡手段と、を実行させる。
【選択図】
図2
【特許請求の範囲】
【請求項1】
コンピュータに、
撮影画像を取得する画像取得手段と、
前記撮影画像に含まれる検出対象物を検出可能な第一検出方法を用いて、前記撮影画像から前記検出対象物を検出する検出手段と、
前記撮影画像に含まれる前記検出対象物を検出可能な前記第一検出方法とは異なる第二検出方法を用いて、前記検出手段が検出した前記検出対象物を追跡対象物として前記撮影画像から繰り返し検出することで、前記撮影画像内で前記追跡対象物を追跡する追跡手段と、
を実行させるための対象物追跡プログラム。
【請求項2】
前記検出手段は、前記検出対象物が含まれる前記撮影画像内の領域であるバウンディングボックスを検出し、
前記追跡手段は、前記バウンディングボックス内又は前記バウンディングボックスに対して所定量拡張された領域内を検出範囲として前記追跡対象物を検出する、請求項1記載の対象物追跡プログラム。
【請求項3】
前記追跡手段は、前記検出範囲で前記追跡対象物が検出された後、前記追跡手段が検出した前記追跡対象物が含まれる前記撮影画像内の領域である新規バウンディングボックスを検出し、前記新規バウンディングボックス内又は前記新規バウンディングボックスに対して所定量拡張された領域内を新規検出範囲として前記追跡対象物を検出する、請求項2記載の対象物追跡プログラム。
【請求項4】
前記第二検出方法は、パターンマッチングであり、
前記追跡手段は、前記検出手段が検出した前記検出対象物の画像と、前記追跡手段が検出した前記追跡対象物の画像と、から検出の確度を算出し、
前記検出手段は、前記確度が閾値以下となった場合、前記撮影画像から前記検出対象物を再検出し、
前記追跡手段は、前記検出手段が再検出した前記検出対象物を新規追跡対象物として前記撮影画像から繰り返し検出する、請求項1記載の対象物追跡プログラム。
【請求項5】
前記第二検出方法は、パターンマッチングであり、
前記検出手段は、前記検出対象物を検出してから所定時間が経過した場合、前記撮影画像から前記検出対象物を再検出し、
前記追跡手段は、前記検出手段が再検出した前記検出対象物を新規追跡対象物として前記撮影画像から繰り返し検出する、請求項1記載の対象物追跡プログラム。
【請求項6】
撮影画像を取得する画像取得部と、
前記撮影画像に含まれる検出対象物を検出可能な第一検出方法を用いて、前記撮影画像から前記検出対象物を検出する検出部と、
前記撮影画像に含まれる前記検出対象物を検出可能な前記第一検出方法とは異なる第二検出方法を用いて、前記検出部が検出した前記検出対象物を追跡対象物として前記撮影画像から繰り返し検出することで、前記撮影画像内で前記追跡対象物を追跡する追跡部と、を備える対象物追跡装置。
【請求項7】
撮影画像を取得する画像取得ステップと、
前記撮影画像に含まれる検出対象物を検出可能な第一検出方法を用いて、前記撮影画像から前記検出対象物を検出する検出ステップと、
前記撮影画像に含まれる前記検出対象物を検出可能な前記第一検出方法とは異なる第二検出方法を用いて、前記検出ステップで検出された前記検出対象物を追跡対象物として前記撮影画像から繰り返し検出することで、前記撮影画像内で前記追跡対象物を追跡する追跡ステップと、を備える対象物追跡方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像から対象物を検出し追跡する対象物追跡システムに関する。
【背景技術】
【0002】
画像中から人間の顔をはじめとする物体を検出する技術に、ニューラルネットワークが用いられている。ニューラルネットワークを用いた検出技術は、画像データを学習することで、物体の認識処理を高精度に行うことができる。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ニューラルネットワークの一例としての畳み込みニューラルネットワーク(CNN、Convolutional Neural Network)、ディープニューラルネットワーク(DNN、Deep Neural Network)等が用いられた物体の検出技術は、上述の通り高精度な検出が可能である。しかしながら、計算量が多く、検出までに時間を要する。このため、検出精度及び検出速度が両立できる技術が求められている。特に、物体を継続的に検出することで追跡することが求められる場合には、これらの両立が肝要となる。
【0005】
本開示はこのような事情を考慮してなされたもので、対象物を好適に追跡できる対象物追跡プログラム、対象物追跡装置及びその方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示の対象物追跡プログラムは、上述した課題を解決するために、コンピュータに、撮影画像を取得する画像取得手段と、前記撮影画像に含まれる検出対象物を検出可能な第一検出方法を用いて、前記撮影画像から前記検出対象物を検出する検出手段と、前記撮影画像に含まれる前記検出対象物を検出可能な前記第一検出方法とは異なる第二検出方法を用いて、前記検出手段が検出した前記検出対象物を追跡対象物として前記撮影画像から繰り返し検出することで、前記撮影画像内で前記追跡対象物を追跡する追跡手段と、を実行させる。
【0007】
また、本開示の対象物追跡装置は、撮影画像を取得する画像取得部と、前記撮影画像に含まれる検出対象物を検出可能な第一検出方法を用いて、前記撮影画像から前記検出対象物を検出する検出部と、前記撮影画像に含まれる前記検出対象物を検出可能な前記第一検出方法とは異なる第二検出方法を用いて、前記検出部が検出した前記検出対象物を追跡対象物として前記撮影画像から繰り返し検出することで、前記撮影画像内で前記追跡対象物を追跡する追跡部と、を備える。
【0008】
また、本開示の対象物追跡方法は、撮影画像を取得する画像取得ステップと、前記撮影画像に含まれる検出対象物を検出可能な第一検出方法を用いて、前記撮影画像から前記検出対象物を検出する検出ステップと、前記撮影画像に含まれる前記検出対象物を検出可能な前記第一検出方法とは異なる第二検出方法を用いて、前記検出ステップで検出された前記検出対象物を追跡対象物として前記撮影画像から繰り返し検出することで、前記撮影画像内で前記追跡対象物を追跡する追跡ステップと、を備える。
【発明の効果】
【0009】
本開示の対象物追跡プログラム、対象物追跡装置及びその方法においては、対象物を好適に追跡することができる。
【図面の簡単な説明】
【0010】
【
図1】本実施形態における対象物追跡プログラムを実行するHUDを示す図。
【
図2】制御部により実行される対象物追跡処理を説明するフローチャート。
【発明を実施するための形態】
【0011】
本開示の対象物追跡プログラム、対象物追跡装置及びその方法の実施形態を添付図面に基づいて説明する。本開示の対象物追跡プログラム、対象物追跡装置及びその方法は、例えば自動車や二輪車等の車両や、船舶、農業機械、建設機械に搭載される顔検出(追跡)システムに適用することができる。本実施形態においては、対象物追跡プログラム、対象物追跡装置及びその方法がヘッドアップディスプレイ(HUD、Head Up Display)に搭載され、顔を検出するために用いられる例を適用して説明する。
【0012】
図1は、本実施形態における対象物追跡プログラムを実行するHUD1を示す図である。
【0013】
以下の説明において、「前」、「後」、「上」及び「下」は、
図1における定義「Fr.」、「Re.」、「To.」、及び「Bo.」に従う。「左」及び「右」(水平方向)は前後及び上下方向(垂直方向)に直交する方向とする。
【0014】
HUD1は、車両2のステアリングホイール5の前方のインストルメントパネル内に搭載される。HUD1は、表示器11と、平面鏡12と、凹面鏡13と、撮影ユニット15と、筐体16と、制御部30と、を有する。
【0015】
表示器11は、四角形状の表示面に画像を表示し、画像を示す表示光Lを平面鏡12に向けて出射する。表示器11は、例えばTFT(Thin Film Transistor)型の液晶表示器や有機EL(Electroluminescence)表示器11である。尚、表示器11はプロジェクタ及び表示面を構成するスクリーンを有するものであってもよい。
【0016】
平面鏡12は、表示器11が出射した表示光Lを、凹面鏡13に向けて反射させる。凹面鏡13は、平面鏡12で反射した表示光Lを更に反射させ、ウインドシールド3に向けて出射する。凹面鏡13は、拡大鏡としての機能を有し、表示器11に表示された画像を拡大してウインドシールド3(投影部材)側へ反射する。運転者4が視認する虚像Vは、表示器11に表示された画像が拡大された像である。
【0017】
表示光Lは、ウインドシールド3を照射する。車両2の運転者4(視認者、同乗者も含む。)は、ウインドシールド3における表示光Lの反射光を、車両2の前方所定位置で虚像Vとして視認する。すなわち、画像は、ウインドシールド3を介して(ウインドシールド3の前方で)運転者4に視認される実景と重なる、仮想的な領域に表示される。また、実景は、画像の背景となり得る。
【0018】
撮影ユニット15は、カメラと、近赤外線光源と、を有する。カメラは、赤外線イメージセンサを有する。カメラは、撮影領域内の運転者4の顔で反射した近赤外線IRを検出し、運転者4の顔の画像(動画)を主に撮影する。近赤外線光源は、近赤外線IRを照射し、ウインドシールド3で反射させて運転者4の顔を主に照射する。近赤外線光源は、カメラの撮影タイミングと同期して発光する。尚、カメラが検出する波長は、近赤外に限らず、短波赤外であってもよい。また、カメラは、可視光を検出して画像を撮影してもよい。撮影ユニット15は、撮影した画像を記憶部33に記憶する。
【0019】
筐体16は、筐体16の内部に、平面鏡12及び凹面鏡13を取付部材を介して固定する。また、筐体16は、表示器11、及び制御部30が実装された制御基板を取付部材を介して固定する。
【0020】
制御部30は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有するコンピュータであり、ROMに書き込まれたプログラムに従って所定の処理を実行する。制御部30は、特に、後述する車両2の車両ECU41等から取得する情報に基づいて、表示器11を制御したり、撮影ユニット15を制御したり、撮影ユニット15等から取得した情報に基づいて演算処理を行ったりする。
【0021】
制御部30は、画像生成部31と、表示制御部32と、記憶部33と、画像取得部34(画像取得手段)と、検出部35(検出手段)と、追跡部36(追跡手段)と、を有する。
【0022】
画像生成部31は、記憶部33より必要な情報を読み出し、表示器11に表示される画像の描画処理を実行し、画像を生成する。
【0023】
表示制御部32は、画像生成部31により生成された画像を表示器11に表示するための制御を行う。表示制御部32は、例えば、検出部35及び追跡部36により検出された運転者4の顔から視点位置等を算出し、虚像Vの表示位置を決定する。
【0024】
記憶部33は、RAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリ等であり、所要のプログラムやデータを記憶する。本実施形態においては、記憶部33は、特に対象物追跡プログラムを記憶する。
【0025】
画像取得部34は、撮影ユニット15のカメラが撮影し記憶部33に記憶された画像から、検出部35及び追跡部36が顔を検出するのに必要な画像(撮影画像)を切り出し、検出部35及び追跡部36に適宜供給する。
【0026】
検出部35は、画像に含まれる検出対象物としての人間の顔を、CNNやDNN等のニューラルネットワークを用いた検出方法(第一検出方法)により検出する。検出部35は、画像取得部34から取得した撮影画像に含まれる人間の顔を検出対象物として検出する。このとき、検出部35は、特定の人間の顔を検出するのではなく、人間の顔に属するあらゆる顔を検出する。検出部35は、検出対象物として、具体的に人間の顔(検出対象物の画素)が含まれる撮影画像内の領域であるバウンディングボックス(以下単に「bbox(bounding box)」という。)を検出する。bboxは、撮影画像内における顔が含まれる領域(位置)がわかればよく、矩形以外の形状であってもよく、また撮影画像内に含まれる顔の大きさに応じて適宜所要の寸法に設定されればよい。
【0027】
追跡部36は、撮影画像に含まれる追跡対象物としての運転者4の顔をパターンマッチング(テンプレートマッチング)を用いた検出方法(第一検出方法とは異なる第二検出方法)により検出する。追跡部36は、検出部35が検出した検出対象物、すなわち運転者4の顔である追跡対象物を、画像取得部34から取得した撮影画像から検出する。具体的には、追跡部36は、検出部35から取得したbbox内の画像をパターンマッチングのテンプレート画像として用いて、このテンプレート画像と一致する画像を所定の検出範囲から検出する。ここで、上述したとおり、検出部35が人間の顔に属するあらゆる顔を検出するのに対し、追跡部36は特定の人間の顔、すなわち検出部35が検出した運転者4の顔を検出する。
【0028】
上述した検出範囲は、直前に検出された顔(初回の場合は検出部35が検出した顔)が含まれるbbox(以下「直前bbox」という。)内、又は直前bboxに対して所定量拡張された拡張領域内である。検出範囲は、好ましくはこの拡張領域内であり、運転者4の顔は、例えば直前の位置に留まるのみならず少なからず移動することを考慮して、例えば直前bboxに対して1から2割拡張された拡張領域を検出範囲とすることで、顔を検出しやすくしている。
【0029】
追跡部36は、テンプレート画像と検出された画像との相関値を算出し、この相関値から検出の確度(一致度)を算出する。追跡部36は、確度が所定の閾値より大きい場合に顔が検出されたとみなし、閾値以下の場合検出されないとみなす。閾値は、求められる検出の精度に応じて適宜設定されればよい。追跡部36は、検出範囲で顔が検出された場合、この相関値が最大となる位置及びその相関値から、追跡対象物として運転者4の顔(追跡対象物の画素)が含まれる撮影画像内の領域であり、直前bboxと同サイズの新規bboxを検出(算出)する。追跡部36による次回の顔の検出においては、この新規bboxが直前bboxとして用いられ、このbboxの拡張領域等が新規検出範囲となる。
【0030】
追跡部36は、このような手順で顔を所定周期で撮影画像から繰り返し検出することで、顔を追跡する。尚、追跡部36が実行するパターンマッチングの方法は特に限定されず、本開示の目的が達成されれば、公知の方法から適宜選択されればよい。
【0031】
検出部35は、多くの計算を行うことにより顔の検出精度が高い一方で、計算が遅い。これに比べて、追跡部36は、検出部35に比べて少ない計算量であり、顔の検出精度が低い一方で、計算が速い。そこで、本実施形態におけるHUD1は、後述するように検出部35及び追跡部36を組み合わせて運転者4の顔の検出を行うことにより、計算速度及び検出精度の両立を実現する。
【0032】
車両2は、HUD1の他に、車両ECU(Electronic Control Unit)41等の車両2の走行に必要な機能を有する。車両ECU41と制御部30とは、例えばCAN(Controller Area Network)バス42を介して接続されている。車両ECU41は、車両2に設けられた各種センサから車速やエンジン回転数等の車両2の走行に必要な車両情報を取得し、車両2の動作を制御する。
【0033】
次に、制御部30により実行される対象物追跡プログラムの処理の詳細について説明する。尚、対象物追跡プログラムを実行するHUD1(制御部30)は、対象物検出方法を実行する対象物検出装置として機能する。
【0034】
図2は、制御部30により実行される対象物追跡処理を説明するフローチャートである。この対象物追跡処理は、運転者4の顔の追跡が必要な期間繰り返し実施され、不要となったタイミングで終了する。
【0035】
ステップS1において、画像取得部34は、記憶部33に記憶された撮影ユニット15が撮影した画像から、検出用の撮影画像を取得する。画像取得部34は、撮影画像を検出部35に供給する。ステップS2において、検出部35は、取得した撮影画像から、検出対象物、すなわち運転者4の顔を検出する。具体的には、検出部35は、運転者4の顔が含まれる撮影画像内の領域であるbboxを検出する。
【0036】
ステップS3において、画像取得部34は、記憶部33に記憶された撮影ユニット15が撮影した画像から、検出用の撮影画像を取得する。画像取得部34は、撮影画像を追跡部36に供給する。
【0037】
ステップS4において、追跡部36は、検出部35が検出したbbox内の画像をテンプレート画像として用いて、運転者4の顔を撮影画像から検出する。
【0038】
すなわち、追跡部36は、ステップS2で検出部35が検出した運転者4の顔が含まれるbboxの情報、及びステップS2で検出部35が検出したbbox内の画像を取得する。追跡部36は、以降、ここで取得したbbox内の画像、すなわち検出部35が検出した運転者4の顔の画像をテンプレート画像としてパターンマッチングを行うことで、撮影画像から運転者4の顔を検出する。また、顔を所定周期で撮影画像から繰り返し検出することで、顔を追跡する
【0039】
追跡部36は、上述したとおり、検出部35から取得したbbox、すなわち、直前bbox及びその拡張領域である顔が含まれる可能性が高い範囲を検出範囲とすることが好ましい。これにより、追跡部36は、撮影画像の全域を検出範囲とする場合に比べて、計算量を低減することができ、検出処理の高速化を図ることができる。追跡部36は、例えば、テンプレート画像及び検出範囲の所要領域の画像をフーリエ変換し、アダマール積(行列の成分毎の積)を計算することで相関値を求める。追跡部36は、相関値が最大となる位置及びその相関値から、直前bboxと同サイズの新規bboxを算出する。また、追跡部36は、この新規bbox内の相関値から、検出の確度(テンプレート画像と新規bbox内画像との一致度)を算出する。
【0040】
ステップS5において、追跡部36は、算出した確度が閾値以下か否かを判定する。追跡部36は、確度が閾値より大きいと判定した場合(ステップS5のNO)、すなわち顔が検出されたと判定した場合、ステップS6において、所定時間が経過したか否かを判定する。追跡部36は、所定時間が経過していないと判定した場合(ステップS6のNO)、処理はステップS3に戻り、検出部35がステップS2で取得したテンプレート画像を用いて追跡部36により顔検出が繰り返し行われることにより、顔が追跡される。
【0041】
追跡部36は、ステップS5で確度が閾値以下であると判定した場合(ステップS5のYES)又はステップS6で所定時間が経過したと判定した場合(ステップS6のYES)、処理はステップS1に戻る。検出部35は、ステップS1で画像取得部34により新たに取得された撮影画像を取得し、ステップS2で顔を再検出し、追跡対象物としての運転者4の顔(bbox)を検出する。
【0042】
ここで、運転者4がカメラに対して顔の向きを変えた場合や眼鏡をかけた場合、及びカメラに対する距離を変化させた場合等、運転者4が取得済のテンプレート画像中の状態と大きく異なる状態になった場合、追跡部36が取得済のテンプレート画像では確度が低下し顔が検出されない虞がある。このため、ステップS5で閾値より大きい確度が得られたと判定された場合であっても、ステップS6において所定時間(例えば1秒)が経過したと判定された場合には、検出部35が再検出した顔を新規の追跡対象物として新規のテンプレート画像を取得する。追跡部36は、この新規のテンプレート画像で運転者4の顔を繰り返し検出する。
【0043】
このような本実施形態における対象物追跡プログラム及びこのプログラムを実行するHUD1は、上述したような検出部35及び追跡部36により、対象物を好適に追跡できる。すなわち、対象物追跡プログラム及びこのプログラムを実行するHUD1は、人間の顔を検出対象物として高精度に検出する検出部35と、検出部35が検出した顔を追跡対象物として繰り返し検出することで追跡する追跡部36と、を有し、これらが異なる二つの手法を用いて顔検出を行う。これにより、対象物追跡プログラム及びHUD1は、検出部35及び追跡部36の互いの利点を活かすことで、検出精度及び検出時間を両立することができる。例えば、追跡部36が二次元高速フーリエ変換を用いる場合には、検索範囲の画素数Nに対して、2N2log2Nというオーダーの計算で、運転者4の顔を検出できる。
【0044】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【0045】
撮影ユニット15、がHUD1内に設けられる例を説明したが、撮影画像を制御部30に出力可能であれば、HUD1とは独立していてもよい。この場合、例えば撮影ユニット15は、インストルメントパネルや、表示ディスプレイ、リヤビューミラー等に適宜配置される。
【0046】
本開示の対象物追跡プログラム、対象物追跡装置及びその方法は、追跡の対象物は顔に限らず、種々の物体に適用し得る。また、本開示の対象物追跡プログラム、対象物追跡装置及びその方法は、HUDに適用される場合に限らず、種々の装置において実行され又は搭載されるものであってもよい。
【符号の説明】
【0047】
1 HUD(Head Up Display)
2 車両
3 インストルメントパネル
3 ウインドシールド
4 運転者
5 ステアリングホイール
11 表示器
12 平面鏡
13 凹面鏡
15 撮影ユニット
16 筐体
30 制御部
31 画像生成部
32 表示制御部
33 記憶部
34 画像取得部
35 検出部
36 追跡部
41 車両ECU(Electronic Control Unit)
42 CAN(Controller Area Network)バス
IR 近赤外線
L 表示光
V 虚像