IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 緯創資通股▲ふん▼有限公司の特許一覧

特開2023-156963オブジェクト追跡統合方法及び統合装置
<>
  • 特開-オブジェクト追跡統合方法及び統合装置 図1
  • 特開-オブジェクト追跡統合方法及び統合装置 図2
  • 特開-オブジェクト追跡統合方法及び統合装置 図3A
  • 特開-オブジェクト追跡統合方法及び統合装置 図3B
  • 特開-オブジェクト追跡統合方法及び統合装置 図4
  • 特開-オブジェクト追跡統合方法及び統合装置 図5
  • 特開-オブジェクト追跡統合方法及び統合装置 図6
  • 特開-オブジェクト追跡統合方法及び統合装置 図7A
  • 特開-オブジェクト追跡統合方法及び統合装置 図7B
  • 特開-オブジェクト追跡統合方法及び統合装置 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023156963
(43)【公開日】2023-10-25
(54)【発明の名称】オブジェクト追跡統合方法及び統合装置
(51)【国際特許分類】
   G06T 7/292 20170101AFI20231018BHJP
   G06V 10/62 20220101ALI20231018BHJP
   G06V 20/52 20220101ALI20231018BHJP
   H04N 7/18 20060101ALI20231018BHJP
【FI】
G06T7/292
G06V10/62
G06V20/52
H04N7/18 K
【審査請求】有
【請求項の数】6
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2022141099
(22)【出願日】2022-09-06
(11)【特許番号】
(45)【特許公報発行日】2023-10-12
(31)【優先権主張番号】111114105
(32)【優先日】2022-04-13
(33)【優先権主張国・地域又は機関】TW
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
2.THUNDERBOLT
(71)【出願人】
【識別番号】504429600
【氏名又は名称】緯創資通股▲ふん▼有限公司
【氏名又は名称原語表記】WISTRON CORPORATION
(74)【代理人】
【識別番号】100147485
【弁理士】
【氏名又は名称】杉村 憲司
(74)【代理人】
【識別番号】230118913
【弁護士】
【氏名又は名称】杉村 光嗣
(74)【代理人】
【識別番号】100226263
【弁理士】
【氏名又は名称】中田 未来生
(72)【発明者】
【氏名】郭 峻因
(72)【発明者】
【氏名】▲ライ▼ 志昇
【テーマコード(参考)】
5C054
5L096
【Fターム(参考)】
5C054CA04
5C054CC02
5C054DA07
5C054EA01
5C054EA03
5C054FC01
5C054FC12
5C054FD03
5C054FD07
5C054FE05
5C054FE12
5C054HA19
5C054HA31
5L096BA02
5L096CA05
5L096EA35
5L096FA18
5L096FA26
5L096FA69
5L096HA03
5L096HA05
5L096JA28
(57)【要約】      (修正有)
【課題】監視範囲を拡大するように、複数の撮像装置によって撮影された画像において検出されたターゲットを関連付けるように適合された、オブジェクト追跡統合方法及び統合装置を提供する。
【解決手段】方法は、1つ以上の第1の画像及び1つ以上の第2の画像を取得する。第1の画像は、第1の撮像装置から撮影され、第2の画像は、第2の撮像装置から撮影される。方法はさらに、第1の画像及び第2の画像における1つ以上のターゲットオブジェクトを検出し、第1の画像におけるターゲットオブジェクトの検出結果と、第2の画像におけるターゲットオブジェクトの検出結果とを照合し第1の画像の検出結果と第2の画像の検出結果との照合結果に従って、ターゲットオブジェクトの検出結果を更新する。これにより、関連付けの精度及び監視範囲を向上させることができる。
【選択図】図2
【特許請求の範囲】
【請求項1】
オブジェクト追跡統合方法であって、
少なくとも1つの第1の画像及び少なくとも1つの第2の画像を取得するステップであって、ここで、前記少なくとも1つの第1の画像は第1の撮像装置からの画像であり、かつ前記少なくとも1つの第2の画像は第2の撮像装置からの画像である、ステップと、
前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における少なくとも1つのターゲットオブジェクトを検出するステップと、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合するステップと、
前記少なくとも1つの第1の画像の検出結果と前記少なくとも1つの第2の画像の検出結果との照合結果に従って、前記少なくとも1つのターゲットオブジェクトの検出結果を更新するステップと、
を備える、オブジェクト追跡統合方法。
【請求項2】
請求項1に記載のオブジェクト追跡統合方法であって、
前記検出結果はピクセル位置を含み、
前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像において前記少なくとも1つのターゲットオブジェクトを検出する前記ステップは、
前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトのピクセル位置を、ホモグラフィ変換によって共通空間における位置及び移動速度に変換するステップ、
を備え、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合する前記ステップは、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトと前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトとを結合最適化アルゴリズムを用いてペアリングするステップ、
を備え、又は
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの前記検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの前記検出結果とを照合する前記ステップは、
前記少なくとも1つのターゲットオブジェクトのうちの第1のオブジェクトの代表情報を決定するステップと、
前記第1のオブジェクトの前記代表情報に従って、前記第1のオブジェクトが追跡ターゲットであるかを判定するステップと、
前記追跡ターゲットの判定結果に従って、前記少なくとも1つのターゲットオブジェクトの検出結果を照合するステップと、
を備える、オブジェクト追跡統合方法。
【請求項3】
請求項2に記載のオブジェクト追跡統合方法であって、
前記代表情報は、オブジェクトタイプ、バウンディングボックス、識別コード、及び座標のうち少なくとも1つを含み、又は
前記少なくとも1つのターゲットオブジェクトの検出結果を更新する前記ステップは、
前記第1のオブジェクトが追跡ターゲットであると判定した場合に、前記追跡ターゲットの位置を更新するステップ、
を備え、又は
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合する前記ステップは、
前記追跡ターゲットでないと判定した場合に、前記少なくとも1つの第1の画像における第1のオブジェクトが、前記少なくとも1つの第2の画像における第2のオブジェクトであるか否かを判定するステップであって、
前記少なくとも1つの第1の画像における前記第1のオブジェクトの軌跡及び移動速度に従って許容範囲を決定し5
前記第2の画像内の前記第2のオブジェクトが前記許容範囲内にあるかを判断するステップである、
を備える、オブジェクト追跡統合方法。
【請求項4】
請求項1に記載のオブジェクト追跡統合方法であって、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトを検出する前記ステップは、
前記第1の画像から着目領域を切り出して、前記着目領域のみを有する切り出し画像を生成するステップと、
前記第1の画像における前記少なくとも1つのターゲットオブジェクトの前記検出結果と、前記切り出し画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを結合するステップと、を備え、又は
前記少なくとも1つの第1の画像において前記少なくとも1つのターゲットオブジェクトを検出する前記ステップは、
オブジェクト追跡によって得られたバウンディングボックスを、オブジェクト検出によって得られたバウンディングボックスに置き換えるステップを備える、オブジェクト追跡統合方法。
【請求項5】
統合装置であって、
プログラムコードを格納するように構成されたメモリと、
前記メモリに結合されたプロセッサであって、前記プログラムコードをロード及び実行したときに、
少なくとも1つの第1の画像と少なくとも1つの第2の画像を取得し、ここで前記少なくとも1つの第1の画像は第1の撮像装置からの画像であり、前記少なくとも1つの第2の画像は第2の撮像装置からの画像であり、
前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における少なくとも1つのターゲットオブジェクトを検出し、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合し、
前記少なくとも1つの第1の画像の前記検出結果と前記少なくとも1つの第2の画像の前記検出結果との照合結果に従って、前記少なくとも1つのターゲットオブジェクトの前記検出結果を更新するように構成された、プロセッサと、
を備える、統合装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像検出技術に関し、特にオブジェクト追跡統合方法及び統合装置に関する。
【背景技術】
【0002】
近年、通信、センシング、半導体等の技術が急速に発展している。既存の問題を解決するために、どのようにこれらの先端技術を利用するかは、盛んな研究開発トピックの一つである。私たちの暮らしの中では、安全のために、道路、店舗、会社、又は住宅に監視システムが設置され、特定の地域の監視を容易にしている。ユーザはリアルタイムに監視画面を見ることができるが、人手による監視はコストが高く、かつ人為的過失が避けられない。
【0003】
既存の画像認識技術は、特定のオブジェクトを検出することに役立つ可能性があることは留意しておくべきである。しかしながら、撮影視野によって制限され、複数の撮像装置(例えば、カメラ又はビデオカメラ)を配備することが要求される場合がある。これに加えて、異なるカメラ又はビデオカメラによって撮影された画像を更に統合することはできず、かつ異なる画像間の関連性を手動でチェックすることが要求されることに変わりはない。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明は、監視範囲を拡大するように、複数の撮像装置によって撮影された画像において検出されたターゲットを関連付けるように適合された、オブジェクト追跡統合方法及び統合装置に関するものである。
【課題を解決するための手段】
【0005】
本発明の実施形態は、以下のステップを含む(ただし、これらに限定されない)オブジェクト追跡統合方法を提供する。1つ以上の第1画像及び1つ以上の第2画像を取得する。前記第1の画像は、第1の撮像装置からの画像であり、かつ前記第2の画像は、第2の撮像装置からの画像である。前記第1の画像及び前記第2の画像における1つ以上のターゲットオブジェクトを検出する。前記第1の画像におけるターゲットオブジェクトの検出結果と、前記第2の画像におけるターゲットオブジェクトの検出結果とを照合する。前記第1の画像の検出結果と前記第2の画像の検出結果との照合結果に従って、前記ターゲットオブジェクトの検出結果を更新する。
【0006】
本発明の実施形態は、メモリと、プロセッサと、を含む(ただし、これらに限定されるものではない)統合装置を提供する。前記メモリは、プログラムコードを格納するように構成される。前記プロセッサは、前記メモリに結合される。前記プロセッサは、前記プログラムコードをロード及び実行したときに、1つ以上の第1の画像及び1つ以上の第2の画像を取得し、前記第1の画像及び前記第2の画像において1つ以上のターゲットオブジェクトを検出し、前記第1の画像におけるターゲットオブジェクトの検出結果と、前記第2の画像におけるターゲットオブジェクトの検出結果とを照合し、前記第1の画像の検出結果と前記第2の画像の検出結果との照合結果に従って、前記ターゲットオブジェクトの検出結果を更新するように構成される。前記第1の画像は、第1の撮像装置からの画像であり、前記第2の画像は、第2の撮像装置からの画像である。
【発明の効果】
【0007】
以上の説明に基づき、本発明の実施の形態のオブジェクト追跡統合方法及び統合装置によれば、異なる撮像装置からの画像の検出結果が合成される。従って、監視範囲を拡大することができ、単一の撮像装置の監視死角を緩和することができる。
【0008】
上述したことをより理解しやすくするため、以下、図面に示すいくつかの実施形態について詳細に説明する。
【図面の簡単な説明】
【0009】
添付図面は、本開示の更なる理解を提供するために含まれ、本明細書に組み込まれ、本明細書の一部を構成するものである。図面は、本開示の例示的な実施形態を図示し、かつ説明と一緒に、本開示の原理を説明するのに役立つ。
【0010】
図1】本開示の一実施形態によるシステムのコンポーネントブロック図である。
図2】本発明の一実施形態によるオブジェクト追跡統合方法のフローチャートである。
図3A】本発明の一実施形態による路側機の概略図である。
図3B】本発明の一実施形態による検出結果の概略図である。
図4】本発明の一実施形態によるマルチサイズ検出の概略図である。
図5】本発明の一実施形態による検出結果及び追跡結果のバウンディングボックスの概略図である。
図6】本発明の一実施形態による軌跡照合の概略図である。
図7A】本発明の一実施形態による第1の画像の検出結果の概略図である。
図7B】本発明の一実施形態による第2の画像の検出結果の概略図である。
図8】本開示の一実施形態によるオブジェクト照合の概略図である。
【発明を実施するための形態】
【0011】
図1は、本発明の一実施形態によるシステム1のコンポーネントブロック図である。図1を参照すると、システム1は、第1の撮像装置20、第2の撮像装置30、及び統合装置100を含む(ただし、これらに限定されない)。なお、図1では、2つの撮像装置を例に挙げて説明するが、撮像装置の数はこれに限定されないことに留意されたい。
【0012】
第1の撮像装置20及び第2の撮像装置30は、撮像機能を有するカメラ、ビデオカメラ、モニタ、スマートフォン、又は路側機であって、所定の視野内の画像を撮影するために使用されるものであってよい。
【0013】
統合装置100は、スマートフォン、タブレット型コンピュータ、サーバ、クラウドホスト、又はコンピュータホストであってよい。統合装置100は、メモリ110、通信トランシーバ130、及びプロセッサ150を含む(ただし、これらに限定されるものではない)。
【0014】
メモリ110は、固定又は取り外し可能なランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ(flash memory)、従来のハードディスク(HDD)、ソリッドステートドライブ(SSD)、若しくは同様の構成要素の任意のタイプであってよい。一実施形態では、メモリ110は、プログラムコード、ソフトウェアモジュール、設定、データ(例えば、画像、検出結果など)又はファイルを格納するために使用され、かつその実施形態は後に詳細に説明される。
【0015】
通信トランシーバ130は、第4世代(4G)又は他の世代の移動体通信、Wi-Fi、Bluetooth、赤外線、RFID(無線周波数識別)、Ethernet(イーサネット)、光ネットワークをサポートする通信トランシーバ、シリアル通信インタフェース(RS-232等)でもよく、若しくはUSB(ユニバーサルシリアルバス)、thunderbolt、又は他の通信伝送インタフェースであってもよい。本発明の実施形態では、通信トランシーバ130は、他の電子機器(例えば、撮像装置20及び30)との間でデータを送信又は受信するために使用される。
【0016】
プロセッサ150は、メモリ110及び通信トランシーバ130に結合される。プロセッサ150は、中央演算処理装置(CPU)、グラフィックス処理装置(GPU)、又は他のプログラム可能な汎用又は特殊用途マイクロプロセッサ、デジタル信号プロセッサ(DSP)、プログラマブルコントローラ、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、ニューラルネットワーク加速器又は他の同様のコンポーネント、又は上記のコンポーネントの組合せであってよい。一実施形態では、プロセッサ150は、統合装置100の動作の全て又は一部を実行するように構成され、かつメモリ110に格納された様々なプログラムコード、ソフトウェアモジュール、ファイル及びデータをロード並びに実行することができる。いくつかの実施形態では、プロセッサ150の機能は、ソフトウェア又はチップを通じて実装されてもよい。
【0017】
いくつかの実施形態では、第1の撮像装置20及び第2の撮像装置30のいずれか1つは、統合装置100と統合されて独立した装置を形成してもよい。
【0018】
以下、本発明の実施の形態で説明した方法を、システム1における各種デバイス、コンポーネント、及びモジュールと併せて説明する。なお、本方法の各処理は、実際の実施状況に従って調整することができ、かつこれに限定されるものではない。
【0019】
図2は、本発明の実施形態によるオブジェクト追跡統合方法のフローチャートである。図2を参照すると、プロセッサ150は、1つ以上の第1画像と1つ以上及び第2画像を取得する(ステップS210)。具体的には、第1の画像は、第1の撮像装置20からの画像であり、第2の画像は、第2の撮像装置30からの画像である。第1の撮像装置20の撮影角度及び/又は撮影方向は、第2の撮像装置30の撮影角度及び/又は撮影方向と異なっている。第1の撮像装置20の撮影範囲及び第2の撮像装置30の撮影範囲は少なくとも部分的に重なっている。
【0020】
例えば、図3Aは、本発明の実施形態に係る路側機(RSU)R1及びR2の概略図である。図3Aを参照すると、路側機R1及びR2は、交差点の2つの対向する角部に配置される。2つの路側機R1、R2の撮像装置の重複する撮影範囲(図中の2つの三角形)は、4つの縞々をほぼカバーしている。図3Aに示す撮影範囲は単なる一例であり、その形状、大きさ、位置、設定環境は変更可能であることに留意されたい。例えば、第1の撮像装置20及び第2の撮像装置30は、店舗、ロビー、又は駐車場にあるモニタであり、かつどのような場所に設置されてもよい。
【0021】
プロセッサ150は、1つ以上の第1画像及び1つ以上の第2画像における1つ以上のターゲットオブジェクトを検出する(ステップS220)。具体的には、ターゲットオブジェクトは、人、動物、車両、機械、又は他の特定のオブジェクトであってもよい。1フレームの画像については、オブジェクト検出技術を使ってもよい。オブジェクト検出のアルゴリズムは、例えば、YOLO(you only look once)、SSD(single shot detector)、又はR-CNNなど、多数存在する。複数の連続した画像に対しては、(マルチ)オブジェクト追跡技術を使用してもよい。オブジェクト追跡の主な機能は、前後の画像フレームによって縁取られている同じオブジェクトを追跡することである。なお、オブジェクト追跡のための多くのアルゴリズムもあり、例えば、オプティカルフロー、シンプルオンラインアンドリアルタイムトラッキング(SORT)又はディープソート、ジョイント検出、及びエンベディング(JDE)がある。
【0022】
一実施形態では、ターゲットオブジェクトの検出結果は、ターゲットオブジェクトの代表情報、例えば、オブジェクトタイプ、バウンディングボックス、識別コード、及び/又は座標を含む。路側機アプリケーションを例にとると、オブジェクトタイプは、歩行者、自転車、オートバイ、自動車、及び大型車両とすることができる。バウンディングボックス(又は着目領域(ROI)と呼ばれる)は、画像におけるターゲットオブジェクトを縁取るために使用する領域である。一実施形態では、バウンディングボックスは、例えば、黒、赤、青、黄、及び/又は緑など、異なる色で画像上に表示されてもよい。識別コード(又は参照番号)は、異なるオブジェクトタイプ又はターゲットオブジェクトを区別するための特定のコード形態である。座標は、第1画像又は第2画像におけるピクセル座標であり、かつバウンディングボックスによってカバーされる範囲内であれば、どこにあってもよい。
【0023】
例えば、図3Bは、本発明の一実施形態による検出結果の概略図である。図3を参照して、路側機の設定環境を例にとると、左右の画像は、それぞれ第1の画像と第2の画像である。2つの画像では、ターゲットオブジェクトO1(自動車を例とする)及びターゲットオブジェクトO2(歩行者を例とする)がそれぞれ検出される。一実施形態では、例えば、記号「O1」及び「O2」を、車及び歩行者の識別符号として使用してもよい。
【0024】
一実施形態では、プロセッサ150は、第1の画像から(小さな)着目領域を切り出して、この着目領域のみを有する切り出し画像を生成してもよい。すなわち、切り出し画像は、画像の一部が切り出されたものである。この切り出し画像は、より小さなターゲットオブジェクトを検出するために使用してもよい。プロセッサ150は、ディープラーニングに基づく検出モデルを介して、第1の画像及び切り出し画像における1つ以上のターゲットオブジェクトをそれぞれ検出し、かつ第1の画像及び切り出し画像におけるターゲットオブジェクトの検出結果を結合してもよい。例えば、2つの画像の検出結果の和を取る。結合処理中、第1の画像及び切り出し画像における同じターゲットオブジェクトのいずれか1つが同時に検出された場合、交差オーバーユニオン(IoU)を、非最大抑制(NMS)アルゴリズムによってフィルタリングすることが困難な場合がある。それ故に、プロセッサ150は、切り出し画像の検出結果から境界付近の検出を除外してもよい。その後、プロセッサ150は、NMSアルゴリズムを再使用して、両者の最終結果を得てもよい。前述の第1の画像は、第2の画像に置き換えられてもよく、かつその詳細は繰り返さないことに留意されたい。
【0025】
図4は、本発明の一実施形態によるマルチサイズ検出の概略図である。図4を参照すると、入力画像における下側画像は、上側画像の切り出し画像である。検出モデルは、2つの画像をそれぞれ推論して検出結果を得てもよい。推論結果(すなわち、検出結果)の下側画像に示すように、上側画像と比較して、3台の車が検出されている(画像内の黒いバウンディングボックスによってマークされている)。重複する検出を除外した後、最終的な結合結果は、5台の車(画像内の黒いバウンディングボックスによってマークされている)を含む。
【0026】
いくつかの高速移動環境(例えば、道路又は鉄道)では、オブジェクト追跡の検出結果が不安定になる可能性があることに留意されたい。例えば、図5は、本発明の実施形態による検出結果及び追跡結果のバウンディングボックスの概略図である。図5を参照すると、追跡結果のバウンディングボックスの一部がターゲットオブジェクトの縁に正しく近づかない場合がある(自動車を例とする)。一実施形態では、追跡照合検出のために、プロセッサ150は、オブジェクト検出から得られたバウンディングボックスを使用して、オブジェクト追跡から得られたバウンディングボックスを置き換えてもよい。検出と一致しない追跡に対して、プロセッサ150は、カルマンフィルタを使用することによってその位置を予測してもよい。さらに、異なるオブジェクトタイプに対して、プロセッサ150は、安定した追跡の識別を容易にするように、類似性に従ってオブジェクトを異なるグループに割り当ててもよい。
【0027】
一実施形態では、検出結果は、ピクセル位置を含む。プロセッサ150は、ホモグラフィ変換を使用することによって、1つ以上の第1画像及び1つ以上の第2画像における1つ以上のターゲットオブジェクトのピクセル位置を、共通空間における位置及び移動速度に変換してもよい。具体的には、撮像装置20、30の撮影角度及び/又は撮影方向が異なるので、その後に続く照合(関連付け又は合成)要件のために、画像におけるターゲットオブジェクトの位置を共通空間(又は座標系)にコンバートしてもよい。
【0028】
共通空間は、例えば、緯度経度座標系であり、かつ座標コンバートの式は、以下の通りである。
【数1】
Sはホモグラフィ変換後のスケーリング係数、u,vはピクセル座標、Hは緯度経度座標からピクセル座標に変換したホモグラフィ行列(h11,h12,h13,h21,h22,h23,h31,h32,h33は行列内の要素)、かつx,yはu,vに対応する緯度経度座標である。既知のピクセル座標及び対応する緯度経度座標からホモグラフィ行列が導出されてもよい。その後、逆行列によりピクセル座標を緯度経度座標にコンバートする。共通空間は、他の2次元又は3次元の空間若しくは座標系であってもよいことに留意されたい。例えば、球面極座標系又は他の地理的座標系である。
【0029】
共通空間の位置(又は座標)を決定した後、プロセッサ150は、先行フレーム及び後続フレームの画像に基づいて、移動距離、軌跡及び移動速度を判定してもよい。さらに、プロセッサ150は、ターゲットオブジェクトの軌跡又は位置を電子地図上にマッピングしてもよい。
【0030】
図2を参照すると、プロセッサ150は、1つ以上の第1の画像における1つ以上のターゲットオブジェクトの検出結果と、1つ以上の第2の画像における1つ以上のターゲットオブジェクトの検出結果とを照合する(ステップS230)。例えば、図6は、本発明の一実施形態による軌跡照合の概略図である。図6を参照すると、電子地図上にマッピングされたターゲットオブジェクトO3及びO4の軌跡T1及びT2の間に差異が存在する可能性がある。プロセッサ130は、2つの軌跡T1、T2の類似性を判断し、かつそれに応じて同じターゲットオブジェクトであるかを判定してもよい。
【0031】
一実施形態では、プロセッサ150は、第1の画像又は第2の画像から検出されたターゲットオブジェクトにおける第1のオブジェクトの代表情報を決定してもよい。代表情報は、前述の検出結果から得られるオブジェクトの種類、バウンディングボックス、識別コード、移動速度、軌跡、及び/又は座標であってもよい。
【0032】
プロセッサ150は、第1のオブジェクトの代表情報に従って、第1のオブジェクトが追跡ターゲットであるかを判定してもよい。プロセッサ150は、オブジェクトタイプ又は識別コードに従って、第1のオブジェクトを分類してもよい。異なる要件に依存して、オブジェクトタイプは様々な外観特徴に関連してもよいことに留意されたい。人を例としてとると、外観特徴は、例えば、肌の色、性別、身長、又は、太り具合又は痩せ具合である。自動車を例としてとると、外観特徴は、例えば、ブランド、車種、色、又はモデルである。
【0033】
一方、追跡ターゲットは、第1の画像及び/又は第2の画像における照合された又は照合されていないターゲットオブジェクトである。照合されたとは、2つの画像におけるターゲットオブジェクトが同じであることを確認したことを意味する。照合されていないとは、画像におけるターゲットオブジェクトが他の画像において同一であるものが見つからなかったことを意味する。プロセッサ150は、第1オブジェクトの代表情報と追跡ターゲットの代表情報との同一性又は類似性を比較してもよい。例えば、プロセッサ150は、第1のオブジェクトのオブジェクトタイプが追跡ターゲットのものと同一であるかを確認し、かつ第1のオブジェクトと追跡ターゲットの位置、速度、及び/又は軌跡を更に比較してもよい。
【0034】
プロセッサ150は、追跡ターゲットの判定結果に従って、ターゲットオブジェクトの検出結果を照合してもよい。第1のオブジェクトが追跡ターゲットではない(すなわち、第1のオブジェクトが以前に出現していないターゲットである)ことに応じて、プロセッサ150は、第1の画像における第1のオブジェクトが第2の画像における第2のオブジェクトであるかを判定してもよい。すなわち、複数の撮像装置のターゲット照合が行われる。
【0035】
一実施形態では、プロセッサ150は、オブジェクトタイプ、バウンディングボックス又は識別コードなどのようなものとの比較に加えて、第1の画像における第1のオブジェクトの軌跡及び移動速度に従って許容範囲を決定してもよい。プロセッサ150は、先行画像と後続画像とを比較することによって、軌跡及び移動速度を判定してもよい。プロセッサ150は、第1のオブジェクトの軌跡の最後の位置を中心として取り、かつ外側に拡張して許容範囲を形成してもよい。例えば、外側に拡張する距離は、移動速度と、第1の画像及び第2の画像間の撮影時間差との積である。プロセッサ150は、第2画像における第2のオブジェクトが許容範囲内にあるかを判定してもよい。この許容範囲は、軌跡見積もり及び/又は時間差内の移動におけるエラーに対するものである。第2のオブジェクトが許容範囲内にある場合、プロセッサ150は、第2のオブジェクトと第1のオブジェクトとが同一であると認定してもよい。第2のオブジェクトが許容範囲内でない場合、プロセッサ150は、第2のオブジェクトと第1のオブジェクトとを異なるオブジェクトとみなしてもよい。同様に、プロセッサ150は、第2の画像における第2のオブジェクトに基づいて別の許容範囲を決定し、かつ第1画像における第1オブジェクトが許容範囲内にあるかを判定してもよい。
【0036】
例えば、図7Aは、本発明の実施形態による第1の画像の検出結果の概略図であり、図7Bは、本発明の実施形態による第2の画像の検出結果の概略図である。図7Aを参照すると、時刻t1においてターゲットオブジェクトO6があり、かつ時刻t2においてターゲットオブジェクトO5が出現している。図7Bを参照すると、ターゲットオブジェクトO5は、時刻t2に出現する。
【0037】
図8は、本発明の実施形態によるオブジェクト照合の概略図である。図8を参照して、第2の画像を例にとると、時刻t1から時刻t2までのターゲットオブジェクトO5の軌跡の最後の位置(例えば、時刻t2における位置)から外側に拡張する円が許容範囲SRとしてとらえられる。ターゲットオブジェクトO5の移動速度が毎秒10m、かつ第1の画像及び第2の画像間の撮影時間の差が0.1秒であると仮定すると、許容範囲SRの半径は1mであり得る。第1の画像におけるターゲットオブジェクトO5は、許容範囲SR内に位置しているので、2つの画像におけるターゲットオブジェクトO5は、同一であるとみなされる。ターゲットオブジェクトO6は、許容範囲SR内に位置していないので、ターゲットオブジェクトO5とO6とは異なるものとみなされる。
【0038】
一実施形態では、プロセッサ150は、結合最適化アルゴリズムを使用することによって、1つ以上の第1の画像における1つ以上のターゲットオブジェクトと、1つ以上の第2の画像における1つ以上のターゲットオブジェクトとをペアリングしてもよい。結合最適化アルゴリズムは、例えば、ハンガリアンアルゴリズム、クーン・ムンクレスアルゴリズム(K-Mアルゴリズム)、又はデュアル法である。例えば、第1の画像及び第2の画像における任意の軌跡の最後の位置に関して、プロセッサ150は、ハバーシン式を使用して、2つの位置の緯度経度座標間の距離を計算し、かつそれに応じて距離支出(Distance spending)行列を決定してもよい。距離支出は、任意の位置から別の位置までの撮影距離を表す。プロセッサ150は、最大距離閾値を設定し、ハンガリアンアルゴリズムを使用して、第1の画像及び第2の画像における軌跡が互いに照合するか又は対になるかを判定してもよい。
【0039】
図2を参照すると、プロセッサ150は、1つ以上の第1の画像の検出結果と1つ以上の第2の画像の検出結果との照合結果に従って、ターゲットオブジェクトの検出結果を更新してもよい(ステップS240)。一実施形態では、第1のオブジェクトが追跡ターゲットであるという事実に応じて、プロセッサ150は、追跡ターゲットの位置を更新してもよい。例えば、第1オブジェクトの位置を追跡ターゲットの最終位置とし、かつそれに応じて移動速度、軌跡などのような情報を更新する。
【0040】
一実施形態では、第1のオブジェクトが追跡オブジェクトでなく、かつ第1のオブジェクトと第2のオブジェクトが同じであることに応じて、プロセッサ150は、2つのオブジェクトの代表情報を統合して、新しい単一の追跡オブジェクトとして使用することができる。例えば、2つのオブジェクトの位置の中間点を最終位置とし、かつ同じ識別コードを使用する。
【0041】
一実施形態では、第1のオブジェクトが追跡オブジェクトでなく、かつ第1のオブジェクトと第2のオブジェクトが異なることに応じて、プロセッサ150は、それぞれ、2つのオブジェクトを2つの新しい追跡オブジェクトとして使用することができる。
【0042】
上記の説明では、2つの撮像装置の画像統合が説明のための例として取り上げられたことに留意されたい。しかしながら、本発明の精神に従って、より多くの撮像装置の画像統合に拡張することができる。
【0043】
要約すると、本発明の実施形態のオブジェクト追跡統合方法及び統合装置では、異なる撮像装置からの画像におけるターゲットオブジェクトが照合することができる。ここで、ターゲットの照合(関連付け)は、共通空間における位置、軌跡、及び移動速度を使用して行われ、かつ追跡ターゲットも更新することができる。このようにすれば、照合精度を向上させることができ、かつ複数の撮像装置による監視対象領域を拡大することができる。さらに、単一の撮像装置は、オブジェクトの重なりによる検出漏れを回避することができる。本発明の実施形態は、交通管理、業務監視、作業監視等の応用場面にもまた適用してもよい。
【0044】
本発明の範囲又は精神から逸脱することなく、開示された実施形態に様々な修正及び変形を加えることができることは、当業者にとって明らかであろう。上記に鑑み、本発明は、以下の特許請求の範囲及びその均等物の範囲内に入ることを条件として、修正及び変形を対象とすることが意図される。
【産業上の利用可能性】
【0045】
本発明のオブジェクト追跡統合方法及び統合装置は、電子機器及びその制御方法に適用することができる。
【符号の説明】
【0046】
1 システム
20 撮像装置
30 撮像装置
100 統合装置
110 メモリ
130 通信トランシーバ
150 プロセッサ
S210~S240 ステップ
R1 路側機
R2 路側機
O1 目標物
O2 目標物
O3 目標物
O4 目標物
O5 目標物
O6 目標物
T1 軌跡
T2 軌跡
t1 タイムポイント
t2 タイムポイント
SR 許容範囲
図1
図2
図3A
図3B
図4
図5
図6
図7A
図7B
図8
【手続補正書】
【提出日】2023-09-05
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
オブジェクト追跡統合方法であって、
少なくとも1つの第1の画像及び少なくとも1つの第2の画像を取得するステップであって、ここで、前記少なくとも1つの第1の画像は第1の撮像装置からの画像であり、かつ前記少なくとも1つの第2の画像は第2の撮像装置からの画像である、ステップと、
前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における少なくとも1つのターゲットオブジェクトを検出するステップと、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合するステップと、
前記少なくとも1つの第1の画像の検出結果と前記少なくとも1つの第2の画像の検出結果との照合結果に従って、前記少なくとも1つのターゲットオブジェクトの検出結果を更新するステップと、
を備え
前記検出結果はピクセル位置を含み、
前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像において前記少なくとも1つのターゲットオブジェクトを検出する前記ステップは、
前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトのピクセル位置を、ホモグラフィ変換によって共通空間における位置及び移動速度に変換するステップ、
を備え、
前記少なくとも1つのターゲットオブジェクトの検出結果を更新する前記ステップは、
前記第1のオブジェクトが追跡ターゲットであると判定した場合に、前記追跡ターゲットの位置を更新するステップ、
を備える、オブジェクト追跡統合方法。
【請求項2】
請求項1に記載のオブジェクト追跡統合方法であって
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合する前記ステップは、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトと前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトとを結合最適化アルゴリズムを用いてペアリングするステップ
備える、オブジェクト追跡統合方法。
【請求項3】
請求項1に記載のオブジェクト追跡統合方法であって、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの前記検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの前記検出結果とを照合する前記ステップは、
前記少なくとも1つのターゲットオブジェクトのうちの第1のオブジェクトの代表情報を決定するステップと、
前記第1のオブジェクトの前記代表情報に従って、前記第1のオブジェクトが追跡ターゲットであるかを判定するステップと、
前記追跡ターゲットの判定結果に従って、前記少なくとも1つのターゲットオブジェクトの検出結果を照合するステップと、
を備える、オブジェクト追跡統合方法。
【請求項4】
請求項に記載のオブジェクト追跡統合方法であって、
前記代表情報は、オブジェクトタイプ、バウンディングボックス、識別コード、及び座標のうち少なくとも1つを含み、又
記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合する前記ステップは、
前記追跡ターゲットでないと判定した場合に、前記少なくとも1つの第1の画像における第1のオブジェクトが、前記少なくとも1つの第2の画像における第2のオブジェクトであるか否かを判定するステップであって、
前記少なくとも1つの第1の画像における前記第1のオブジェクトの軌跡及び移動速度に従って許容範囲を決定し、
前記第2の画像内の前記第2のオブジェクトが前記許容範囲内にあるかを判断するステップ、
を備える、オブジェクト追跡統合方法。
【請求項5】
請求項1に記載のオブジェクト追跡統合方法であって、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトを検出する前記ステップは、
前記第1の画像から着目領域を切り出して、前記着目領域のみを有する切り出し画像を生成するステップと、
前記第1の画像における前記少なくとも1つのターゲットオブジェクトの前記検出結果と、前記切り出し画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを結合するステップと、を備え、又は
前記少なくとも1つの第1の画像において前記少なくとも1つのターゲットオブジェクトを検出する前記ステップ は、
オブジェクト追跡によって得られたバウンディングボックスを、オブジェクト検出によって得られたバウンディングボックスに置き換えるステップを備える、オブジェクト追跡統合方法。
【請求項6】
統合装置であって、
プログラムコードを格納するように構成されたメモリと、
前記メモリに結合されたプロセッサであって、前記プログラムコードをロード及び実行したときに、
少なくとも1つの第1の画像と少なくとも1つの第2の画像を取得し、ここで前記少なくとも1つの第1の画像は第1の撮像装置からの画像であり、前記少なくとも1つの第2の画像は第2の撮像装置からの画像であり、
前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における少なくとも1つのターゲットオブジェクトを検出し、
前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合し、
前記少なくとも1つの第1の画像の前記検出結果と前記少なくとも1つの第2の画像の前記検出結果との照合結果に従って、前記少なくとも1つのターゲットオブジェクトの前記検出結果を更新するように構成された、プロセッサと、
を備え、
前記検出結果はピクセル位置を含み、
前記プロセッサは、さらに、
前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトのピクセル位置を、ホモグラフィ変換によって共通空間における位置及び移動速度に変換し、
前記第1のオブジェクトが追跡ターゲットであると判定した場合に、前記追跡ターゲットの位置を更新するように構成された、統合装置。
【外国語明細書】