IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社日立国際電気の特許一覧

特許7631553画像処理装置、画像処理システム及び画像処理方法
<図1>
  • 特許-画像処理装置、画像処理システム及び画像処理方法 図1
  • 特許-画像処理装置、画像処理システム及び画像処理方法 図2
  • 特許-画像処理装置、画像処理システム及び画像処理方法 図3
  • 特許-画像処理装置、画像処理システム及び画像処理方法 図4
  • 特許-画像処理装置、画像処理システム及び画像処理方法 図5
  • 特許-画像処理装置、画像処理システム及び画像処理方法 図6
  • 特許-画像処理装置、画像処理システム及び画像処理方法 図7
  • 特許-画像処理装置、画像処理システム及び画像処理方法 図8
  • 特許-画像処理装置、画像処理システム及び画像処理方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-02-07
(45)【発行日】2025-02-18
(54)【発明の名称】画像処理装置、画像処理システム及び画像処理方法
(51)【国際特許分類】
   H04N 7/18 20060101AFI20250210BHJP
【FI】
H04N7/18 D
H04N7/18 G
【請求項の数】 9
(21)【出願番号】P 2023565705
(86)(22)【出願日】2021-12-07
(86)【国際出願番号】 JP2021044804
(87)【国際公開番号】W WO2023105598
(87)【国際公開日】2023-06-15
【審査請求日】2024-04-01
(73)【特許権者】
【識別番号】000001122
【氏名又は名称】株式会社国際電気
(74)【代理人】
【識別番号】110000062
【氏名又は名称】弁理士法人第一国際特許事務所
(72)【発明者】
【氏名】長谷川 圭吾
(72)【発明者】
【氏名】笹尾 海斗
【審査官】秦野 孝一郎
(56)【参考文献】
【文献】特開2012-244479(JP,A)
【文献】特開2006-33793(JP,A)
【文献】国際公開第2014/014031(WO,A1)
【文献】特開2018-117181(JP,A)
【文献】特開2021-77091(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 7/18
(57)【特許請求の範囲】
【請求項1】
画像処理装置であって、
第1の画像を取得するための映像取得部と、
前記第1の画像に対して所定の物体検知処理を実行し、前記第1の画像における対象物体を特定し、前記対象物体の画像上の位置を示す第1の物体検知結果を生成する物体検知処理部と、
前記第1の物体検知結果に基づいて、前記対象物体を含む対象領域画像を取得し、前記対象領域画像を所定の大きさに変換するためのリサイズ処理を実行することでリサイズ済み画像を生成し、前記リサイズ済み画像に対して所定の物体検知処理を実行し、前記対象物体の画像上の位置を示す第2の物体検知結果を生成する追跡処理部と、
前記第1の物体検知結果と、前記第2の物体検知結果とを統合することで、最終の物体検知結果を生成する統合処理部とを含
前記追跡処理部は、
前記第1の物体検知結果に基づいて、前記対象物体を含む前記対象領域画像を撮影するための撮影条件を判定し、判定した前記撮影条件を前記映像取得部に送信し、
前記映像取得部は、
前記撮影条件を受信し、受信した前記撮影条件に基づいて撮影を行うことで前記対象領域画像を取得し、取得した前記対象領域画像を前記追跡処理部に送信する、
ことを特徴とする画像処理装置。
【請求項2】
前記追跡処理部は、
前記第1の物体検知結果に基づいて、前記対象領域画像を前記第1の画像から抽出する、ことを特徴とする、請求項1に記載の画像処理装置。
【請求項3】
前記第1の画像は、第1の画素数基準を満たす画像であり、
前記リサイズ済み画像は、第2の画素数基準を下回る画像である、
ことを特徴とする、請求項2に記載の画像処理装置。
【請求項4】
画像処理装置であって、
第1の画像を取得するための映像取得部と、
前記第1の画像に対して所定の物体検知処理を実行し、前記第1の画像における対象物体を特定し、前記対象物体の画像上の位置を示す第1の物体検知結果を生成する物体検知処理部と、
前記第1の物体検知結果に基づいて、前記対象物体を含む対象領域画像を取得し、前記対象領域画像を所定の大きさに変換するためのリサイズ処理を実行することでリサイズ済み画像を生成し、前記リサイズ済み画像に対して所定の物体検知処理を実行し、前記対象物体の画像上の位置を示す第2の物体検知結果を生成する追跡処理部と、
前記第1の物体検知結果と、前記第2の物体検知結果とを統合することで、最終の物体検知結果を生成する統合処理部とを含み、
前記統合処理部は、
前記第1の物体検知結果と、前記第2の物体検知結果とを重ね合わせ、
前記第1の物体検知結果に示す前記対象物体及び前記第2の物体検知結果に示す前記対象物体の重複度に基づいて、前記第1の物体検知結果と、前記第2の物体検知結果とを統合し、前記最終の物体検知結果を生成する、
ことを特徴とする画像処理装置。
【請求項5】
前記追跡処理部は、
前記第1の物体検知結果に基づいて、前記対象領域画像を前記第1の画像から抽出する、
ことを特徴とする、請求項4に記載の画像処理装置。
【請求項6】
前記第1の画像は、第1の画素数基準を満たす画像であり、
前記リサイズ済み画像は、第2の画素数基準を下回る画像である、
ことを特徴とする、請求項5に記載の画像処理装置。
【請求項7】
画像を取得する映像取得部装置を搭載した移動体と、画像処理装置とが通信ネットワークを介して接続されている画像処理システムにおいて、
前記画像処理装置は、
前記映像取得部装置から受信した第1の画像に対して所定の物体検知処理を実行し、前記第1の画像における対象物体を特定し、前記対象物体の画像上の位置を示す第1の物体検知結果を生成する物体検知処理部と、
前記第1の物体検知結果に基づいて、前記対象物体を追跡するための追尾命令を作成し、作成した前記追尾命令を前記移動体に送信する移動体指示部とを含み、
前記移動体は、
前記追尾命令に基づいて、前記対象物体を含む対象領域画像を取得し、前記対象領域画像を所定の大きさに変換するためのリサイズ処理を実行することでリサイズ済み画像を生成し、前記リサイズ済み画像に対して所定の物体検知処理を実行し、前記対象物体の画像上の位置を示す第2の物体検知結果を生成する追跡処理部と、
前記第2の物体検知結果に基づいて、前記対象物体を追尾するように前記移動体を制御する移動体制御部と、
前記対象物体を追尾しながら前記対象物体を示す第2の画像を取得し、前記画像処理装置に送信する映像取得部と、
を含み、
前記追跡処理部は、
前記第1の物体検知結果に基づいて、前記対象物体を含む前記対象領域画像を撮影するための撮影条件を判定し、判定した前記撮影条件を前記映像取得部に送信し、
前記映像取得部は、 前記撮影条件を受信し、受信した前記撮影条件に基づいて撮影を行うことで前記対象領域画像を取得し、取得した前記対象領域画像を前記追跡処理部に送信する、ことを特徴とする画像処理システム。
【請求項8】
前記第1の画像は、
第1の画素数基準を満たす画像であり、
前記リサイズ済み画像は、
第2の画素数基準を下回る画像である、
ことを特徴とする、請求項7に記載の画像処理システム。
【請求項9】
画像処理方法であって、
第1の画像を取得する工程と、
前記第1の画像に対して所定の物体検知処理を実行し、前記第1の画像における対象物体を特定し、前記対象物体の画像上の位置を示す第1の物体検知結果を生成する工程と、
前記第1の物体検知結果に基づいて、前記対象物体を含む対象領域画像を前記第1の画像から抽出する工程と、
前記第1の物体検知結果に基づいて、前記対象物体を含む前記対象領域画像を撮影するための撮影条件を判定する工程と、
前記撮影条件に基づいて撮影を行うことで前記対象領域画像を取得する工程と、
前記対象領域画像を所定の大きさに変換するためのリサイズ処理を実行することで、前記第1の画像より解像度が低く、所定の画素数基準を下回るリサイズ済み画像を生成する工程と、
前記リサイズ済み画像に対して所定の物体検知処理を実行し、前記対象物体の画像上の位置を示す第2の物体検知結果を生成する工程と、
前記第1の物体検知結果と、前記第2の物体検知結果とを重ね合わせ、前記第1の物体検知結果に示す前記対象物体及び前記第2の物体検知結果に示す前記対象物体の重複度に基づいて、前記第1の物体検知結果と、前記第2の物体検知結果とを統合し、最終の物体検知結果を生成する工程と、
を含むことを特徴とする画像処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、画像処理システム及び画像処理方法に関する。
【背景技術】
【0002】
従来から、店舗、路上、駐車場等の様々な場所において、防犯対策の一環として、不審物や不審者を撮像可能な監視カメラを用いる監視システムが提供されている。
【0003】
広範囲の監視を目的とする監視システムにおいてカメラによる監視を行う場合、PTZ(Pan-Tilt-Zoom)の機能を備えるカメラを用いて監視範囲を巡回的に監視し、侵入者や侵入車両などの監視対象を検知した際には、発見した対象を追尾する方法が知られている。
【0004】
また、広い監視範囲を同時に捉えて監視するシステムにおいては、侵入を検知した場合には、侵入が検知された領域を拡大し、対象を追尾する方法が存在する。特に近年では、カメラの高解像度化が進んでいるため、広画角や高解像度の映像が取得可能なカメラを用いて広範囲を一度に撮像し、侵入を検知した時に当該領域を拡大する方法はより有効となってきている。
侵入を検知した領域を拡大する方法は、画像処理によって特定の領域を電子的に拡大表示するデジタルズームや、レンズなどを用いて光学的に拡大表示する光学ズームなどがある。
また、近年では、画像解析技術を用いて侵入した人物や車などを判別することが可能となっている。このため、侵入を一度検知すると、検知した人物や車を拡大表示して自動で追尾することも可能となっている。
【0005】
監視システムの一例として、例えば、特開2019-124986号公報(特許文献1)が存在する。
特許文献1には、「障害検知システムは、道路上など監視エリアを単一又は複数の画角で撮影する撮影手段(101)と、前記撮影手段から取り込まれた映像から監視エリアに発生した物体の領域と画素値を抽出する物体抽出手段(201)と、を有する。障害検知システムは、さらに、画角と映像内の位置ごとに設定された判定基準に基づいて、前記物体抽出手段(201)によって取得された物体の領域と画素値をブロックに分割して局所特徴量から、物体の種別を識別する物体認識手段(202)と、前記物体認識手段(202)によって取得された物体の種別の情報から映像内に発生した障害物の有無を検知する障害検知手段(204)と、を有する。」技術が開示されている。
【先行技術文献】
【特許文献】
【0006】
【文献】特開2019-124986号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
特許文献1には、所定の監視エリア内に発生した障害物を検知する手段が記載されている。
しかしながら、サイズが大きい高解像度の画像の中から特定の対象物やイベントを特許文献1等のような従来の手段によって検知及び追跡しようとする場合、処理にかかる計算量が大きくなる。このため、リアルタイム処理が求められる場合においては、高性能の計算機等を用いる必要があり、装置の大型化や消費電力増大などが課題となっている。処理速度を向上するために画像サイズを縮小してから検知処理を行うことが考えられるが、この場合、検知対象のサイズ(画素数)が小さくなってしまうため、見逃しの原因となる。
【0008】
更に、1つの特定の検知対象に対して拡大表示・追跡処理を行った際には、それ以外の領域の監視を行うことができないため、特許文献1等のような従来の手段では、複数の検知対象を同時に監視することができない。
【0009】
そこで、本開示は、画像処理の負荷を抑えつつ、広域監視における対象物体の高速且つ高精度の追跡処理が可能な画像処理手段を提供することを目的とする。
【課題を解決するための手段】
【0010】
上記の課題を解決するために、代表的な本発明の一つは、第1の画像を取得するための映像取得部と、前記第1の画像に対して所定の物体検知処理を実行し、前記第1の画像における対象物体を特定し、前記対象物体の画像上の位置を示す第1の物体検知結果を生成する物体検知処理部と、前記第1の物体検知結果に基づいて、前記対象物体を含む対象領域画像を取得し、前記対象領域画像を所定の大きさに変換するためのリサイズ処理を実行することでリサイズ済み画像を生成し、前記リサイズ済み画像に対して所定の物体検知処理を実行し、前記対象物体の画像上の位置を示す第2の物体検知結果を生成する追跡処理部と、前記第1の物体検知結果と、前記第2の物体検知結果とを統合することで、最終の物体検知結果を生成する統合処理部とを含む。
【発明の効果】
【0011】
本開示によれば、画像処理の負荷を抑えつつ、広域監視における対象物体の高速且つ高精度の追跡処理が可能な画像処理手段を提供することができる。
上記以外の課題、構成及び効果は、以下の発明を実施するための形態における説明により明らかにされる。
【図面の簡単な説明】
【0012】
図1図1は、本開示の実施例を実施するためのコンピュータシステムを示す図である。
図2図2は、本開示の実施例1における画像処理システムの構成の一例を示す図である。
図3図3は、本開示の実施例1における物体検知処理の流れを示すフローチャートである。
図4図4は、本開示の実施例1における追跡処理の流れを示すフローチャートである。
図5図5は、本開示の実施例1における統合処理の流れを示すフローチャートである。
図6図6は、本開示の実施例1における表示制御処理の流れを示すフローチャートである。
図7図7は、本開示の実施例1における表示画面の一例を示す図である。
図8図8は、本開示の実施例2における画像処理システムの構成の一例を示す図である。
図9図9は、本開示の実施例2における画像処理システムの動作の流れを示すフローチャートである。
【発明を実施するための形態】
【0013】
以下、図面を参照して、本発明の実施例について説明する。なお、この実施例により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
なお、以下では、実施例1や実施例2等の実施例を特定して本開示の態様を説明する場合や、実施例を特定せずに本開示の態様を説明する場合がある。実施例を特定して説明する本開示の態様は、その実施例に限定されず、他の実施例にも適用されてもよい。また、実施例を特定せずに説明する本開示の態様は、実施例1や実施例2等、いずれの実施例にも適用可能である。
【0014】
上述したように、サイズが大きい高解像度の画像の中から特定の対象物やイベントを従来の手段によって検知及び追跡しようとする場合、検知処理にかかる計算量が大きくなる。このため、リアルタイム処理が求められる場合においては、高性能の計算機等を用いる必要があり、装置の大型化や消費電力増大などが課題となっている。
【0015】
そこで、本開示では、物体検知処理のみを高解像度の画像に対して実行し、その後の追跡処理を解像度がより低い画像に対して実行することで、総合的な処理負荷を抑えつつ、広域監視における対象物体の高速且つ高精度の追跡処理が可能となる。
これにより、検知の対象が高速に移動している状況等のリアルタイム検知・追跡が求められる場合であっても、高精度の検知結果をリアルタイムで提供することができる。
更に、処理負荷を抑えることにより、本開示の実施例における画像処理をドローン等の、電力が限られているデバイス上でも実装することができる。
【0016】
まず、図1を参照して、本開示の実施例を実施するためのコンピュータシステム100について説明する。本明細書で開示される様々な実施例の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム100の主要コンポーネントは、プロセッサ102、メモリ104、端末インターフェース112、ストレージインタフェース113、I/O(入出力)デバイスインタフェース114、及びネットワークインターフェース115を含む。これらのコンポーネントは、メモリバス106、I/Oバス108、バスインターフェースユニット109、及びI/Oバスインターフェースユニット110を介して、相互的に接続されてもよい。
【0017】
コンピュータシステム100は、プロセッサ102と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)102A及び102Bを含んでもよい。ある実施例では、コンピュータシステム100は複数のプロセッサを備えてもよく、また別の実施例では、コンピュータシステム100は単一のCPUシステムであってもよい。各プロセッサ102は、メモリ104に格納された命令を実行し、オンボードキャッシュを含んでもよい。また、プロセッサ102はGPU、FPGA、DSP、ASICなどの高速演算処理が可能なプロセッサを備えても良い。
【0018】
ある実施例では、メモリ104は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ104は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ104は、画像処理アプリケーション150を格納してもよい。ある実施例では、画像処理アプリケーション150は、後述する機能をプロセッサ102上で実行する命令又は記述を含んでもよい。
【0019】
ある実施例では、画像処理アプリケーション150は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施例では、画像処理アプリケーション150は、命令又は記述以外のデータを含んでもよい。ある実施例では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット109、プロセッサ102、またはコンピュータシステム100の他のハードウェアと直接通信するように提供されてもよい。
【0020】
コンピュータシステム100は、プロセッサ102、メモリ104、表示システム124、及びI/Oバスインターフェースユニット110間の通信を行うバスインターフェースユニット109を含んでもよい。I/Oバスインターフェースユニット110は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス108と連結していてもよい。I/Oバスインターフェースユニット110は、I/Oバス108を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット112,113,114、及び115と通信してもよい。
【0021】
表示システム124は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置126に提供することができる。また、コンピュータシステム100は、データを収集し、プロセッサ102に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
【0022】
例えば、コンピュータシステム100は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム124は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置126に接続されてもよい。
【0023】
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット112は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス116の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス116及びコンピュータシステム100に対して入力データや指示を入力し、コンピュータシステム100からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス116を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
【0024】
ストレージインタフェース113は、1つ又は複数のディスクドライブや直接アクセスストレージ装置117(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施例では、ストレージ装置117は、任意の二次記憶装置として実装されてもよい。メモリ104の内容は、ストレージ装置117に記憶され、必要に応じてストレージ装置117から読み出されてもよい。I/Oデバイスインタフェース114は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース115は、コンピュータシステム100と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク130であってもよい。
【0025】
ある実施例では、コンピュータシステム100は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施例では、コンピュータシステム100は、デスクトップコンピュータ、携帯型コンピューター、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
【実施例1】
【0026】
次に、図2を参照して、本開示の実施例1における画像処理システムの構成について説明する。
【0027】
図2は、本開示の実施例1における画像処理システム200の構成の一例を示す図である。本開示の実施例1における画像処理システム200は、広域監視における対象物体の高速追跡処理を行うためのシステムであり、図2に示すように、映像取得装置201と画像処理装置210とから主に構成される。映像取得装置201と画像処理装置210とは、例えばインターネット等の通信ネットワーク206を介して互いに通信可能に接続されている。
【0028】
映像取得装置201は、所定の環境を撮影し、当該環境を示す映像データを取得するように構成された機能部である。映像取得装置201は、例えば、通常の固定画角のカメラであってもよいが、パン、チルト、ズーム等の調整機能を有するカメラでもよく、360度回転可能な旋回カメラであってもよい。映像取得装置201は、例えば所定の環境を撮影可能な位置に事前に設置されてもよく、後述するように、例えばドローン等の移動体に搭載されてもよい。
映像取得装置201によって取得される映像データは、複数の連続する画像フレームから構成される画像シーケンスである。また、この映像データは、高解像度の映像であってもよい。ここで、「高解像度」の画像とは、第1の画素数基準を満たす画像を意味する。この第1の画素数基準は、特定の画素数下限を指定する閾値であり、例えば1920画素×1080画素(FHD)以上の画素数、4K(4096画素×2160画素又は3840画素×2160画素)以上の画素数、8K(7680画素×4320画素)以上の画素数等であってもよい。
なお、映像取得装置201の設置箇所及び数は、本開示では特に限定されず、監視の目的等に応じて適宜に定められてもよい。また、ここでは、映像取得装置201が通信ネットワーク206を介して画像処理装置210に接続されている装置である場合を一例として示しているが、本開示はこれに限定されず、映像取得装置201は画像処理装置210内に画像処理部として実装されてもよい。
【0029】
画像処理装置210は、映像取得装置201によって取得された映像データを通信ネットワークを介して受信した後、本開示の実施例における画像処理手段を実行する装置である。図2に示すように、画像処理装置210は、物体検知処理部202と、追跡処理部203と、統合処理部204と、表示制御部205とを含む。
【0030】
物体検知処理部202は、映像取得装置201によって取得された映像データにおける特定の画像フレーム(以下、「第1の画像」という)に対して所定の物体検知処理を実行することで、当該第1の画像における対象物体を特定し、対象物体の画像上の位置を少なくとも示す第1の物体検知結果を生成する機能部である。
この第1の画像は、高解像度の映像データからの画像フレームである場合、言うまでもなく、映像データと同様に高解像度の画像である。一般に、画像の解像度が高いほど、物体検知処理が低速となるが、本開示では、映像データを1~3FPS程度で処理可能な物体検知処理であってもよい。
なお、物体検知処理部202による処理の詳細については後述するため、ここではその説明を省略する。
【0031】
ここでの対象物体とは、画像において検知したい物体を意味する。この対象物体は、例えば物体検知処理の設定時に、画像処理システム200の管理者に適宜に設定されてもよい。例として、ここでの対象物体は、所定の特徴を有する人物(赤い帽子をかぶっている女性、銃を保持している男性)、動物、自動車、建物等、任意の物体であってもよい。
【0032】
追跡処理部203は、物体検知処理部202によって生成された第1の物体検知結果に基づいて、検知した対象物体を含む対象領域画像を取得し、当該対象領域画像を所定の大きさに変換するためのリサイズ処理を実行することでリサイズ済み画像を生成する。その後、追跡処理部203は、リサイズ済み画像に対して所定の物体検知処理を実行し、対象物体の画像上の位置を少なくとも示す第2の物体検知結果を生成する機能部である。
ここでのリサイズ済み画像は、第2の画素数基準を下回る画像である。この第2の画素数基準は、特定の画素数上限を指定する閾値であり、例えば1920画素×1080画素(FHD)以下の画素数、640画素×480画素以下の画素数、320画素×240画素以下の画素数、第1の画像の50%以下の画素数等であってもよい。
このように、リサイズ済み画像は、第1の画像に比較して、解像度が低い画像となる。このため、物体検知処理部202によって第1の画像に対して行われた物体検知処理に比べて、追跡処理部203によってリサイズ済み画像に対して行われる物体検知処理は、処理負荷が低く、高速(例えば10FPS以上)となる。
なお、追跡処理部203による処理の詳細については後述するため、ここではその説明を省略する。
【0033】
ここでの対象領域画像は、物体検知処理部202によって検知された対象物体を中心に取得された画像である。本開示における1つの態様では、追跡処理部203は、第1の物体検知結果に基づいて、対象領域画像を第1の画像から切り出すことで抽出してもよい。
本開示におけるもう1つの態様では、追跡処理部203は、第1の物体検知結果に基づいて、対象物体を含む対象領域画像を撮影するための撮影条件(例えば、対象物体を鮮明且つ画像の中央付近に撮影するためのパン、チルト及びズームの設定等))を判定し、判定した撮影条件を映像取得装置201に送信する。その後、映像取得装置201は、これらの撮影条件に従って撮影を行うことで取得した画像を、対象領域画像として追跡処理部に送信する。これにより、第1の画像に対する加工を行うことなく、対象領域画像を取得することができる。
【0034】
統合処理部204は、物体検知処理部202からの第1の物体検知結果と、追跡処理部203からの第2の物体検知結果とを統合することで、最終の物体検知結果を生成する機能部である。ここでの最終の物体検知結果は、第1の物体検知結果と第2の物体検知結果とを統合した情報であるため、第1の物体検知結果と第2の物体検知結果に比べて対象物体の位置を正確に示す結果である。
例えば、ここで、統合処理部204は、第1の物体検知結果と、第2の物体検知結果とを用いていわゆるIoU(Intersection Over Union)処理を実行することで、対象物体の推定の位置を示す最終の物体検知結果を生成してもよい。
なお、統合処理部204による処理の詳細については後述するため、ここではその説明を省略する。
【0035】
表示制御部205は、統合処理部204によって生成される最終の物体検知結果を表示するための機能部である。
なお、表示制御部205による処理の詳細については後述するため、ここではその説明を省略する。
【0036】
上述した画像処理装置210に含まれる各種機能部は、例えば図1に示すコンピュータシステム100のメモリに保存される画像処理アプリケーション150のソフトウェアモジュールとして実装されてもよい。
一方、画像処理装置210に含まれる各種機能部は、異なる計算機上に実装されてもよい。この場合、物体検知処理部202は、例えば4KやFHDなどのサイズが大きな画像の中から対象物体の検知を行うための画像解析部であるため、物体検知処理部202は追跡処理部よりも高性能な計算機で実装されることが望ましい。一例として、物体検知処理部202をクラウド等の高性能な計算機で実装し、追跡処理部をドローン等の移動体に実装する構成等が考えられる。
【0037】
以上説明した画像処理システム200によれば、物体検知処理のみを高解像度の画像(第1の画像)に対して実行し、その後の追跡処理を解像度がより低い画像(リサイズ済み画像)に対して実行することで、画像処理の負荷を抑えつつ、広域監視における対象物体の高速且つ高精度の追跡処理が可能となる。
【0038】
次に、図3を参照して、本開示の実施例1における物体検知処理について説明する。
【0039】
図3は、本開示の実施例1における物体検知処理300の流れを示すフローチャートである。図3に示す物体検知処理300は、高解像度の画像における対象物体を判定するための処理であり、例えば図2に示す物体検知処理部202によって実行される。
【0040】
まず、ステップS311では、物体検知処理部202は、映像取得装置201によって取得された映像データの中から、特定の画像フレーム(以下、「第1の画像」という)を取得する。ここで、物体検知処理部202は、映像取得装置201からリアルタイムで送信される映像データにおける一番目のフレームを第1の画像として取得してもよい。
【0041】
次に、ステップ312では、物体検知処理部202は、ステップS311で取得した第1の画像に対して、所定の物体検知処理を実行する。ここでの物体検知処理は、例えばViola-Jones object detection framework based on Haar features、SIFT(Scale-invariant feature transform)、HOG(Histogram of oriented gradients)、R-CNN(Region-based convolutional neural network)、Fast R-CNN、Faster R-CNN、Cascade R-CNN、 SSD(Single Shot MultiBox Detector)、YOLO(You Only Look Once)、RefineDet(Single-Shot Refinement Neural Network for Object Detection)、Retina-Net、Deformable convolutional networks等、任意の既存の物体検知処理手段を含んでもよい。
なお、上述したように、ここで実行される物体検知処理は、高解像度の画像に対して行われるため、映像取得装置201のフレームレートに対して低速に行われることとなるが、広範囲を映しているため、対象物体を見逃してしまうことはない。
【0042】
物体検知処理を実行することで、物体検知処理部202は、第1の画像について、検知された各対象物体の画像上の位置(画像上の座標)及び対象物体のクラスを示す第1の物体検知結果を生成することができる。
【0043】
次に、ステップS313では、物体検知処理部202は、ステップS312で生成した第1の物体検知結果を上述した追跡処理部203及び統合処理部204に送信する。その後、図4に示す追跡処理400が開始される。
なお、第1の画像に対する処理が終了した後、本処理はステップS311へ戻り、映像データにおける次の画像フレーム(つまり、第1の画像フレームの次の画像フレーム)に対する処理が開始される。このように、映像データにおける各フレームが順次処理され、各フレームに対する物体検知結果が生成される。
【0044】
次に、図4を参照して、本開示の実施例1における追跡処理について説明する。
【0045】
図4は、本開示の実施例1における追跡処理400の流れを示すフローチャートである。図4に示す追跡処理400は、対象物体を追跡するための処理であり、例えば図2に示す追跡処理部203によって実行される。
【0046】
まず、ステップS421では、追跡処理部203は、物体検知処理部から第1の物体検知結果を受信すると、追跡処理を開始する。
なお、第1の物体検知結果では、複数の対象物体が特定された場合、追跡処理部203は、特定された対象物体毎に追跡処理を開始する。ただし、ここでは、説明の便宜上、1つの対象物体に対する追跡処理を説明する。
【0047】
次に、ステップS422では、追跡処理部203は、第1の物体検知結果に基づいて、対象物体が特定された画像フレーム(以下、「第1の画像」という。)を取得する。
【0048】
次に、ステップS423では、追跡処理部203は、第1の物体検知結果に基づいて、対象物体を含む対象領域を判定し、当該対象領域の画像を取得する。ここで、対象領域とは、対象物体を少なくとも示す画像上の領域を意味する。また、この対象領域は、対象物体の大きさよりも大きく設定されることが望ましい。例えば、この対象領域は対象物体の縦横それぞれ3倍以上としてもよい。
【0049】
本開示における1つの態様では、追跡処理部203は、第1の物体検知結果に示される対象物体の画像上の座標に基づいて、対象領域画像を第1の画像から切り出すことで抽出してもよい。
また、本開示におけるもう1つの態様では、追跡処理部203は、第1の物体検知結果に基づいて、対象物体を含む対象領域画像を撮影するための撮影条件(例えば、対象物体を鮮明且つ画像の中央付近に撮影するためのパン、チルト及びズームの設定等))を判定し、判定した撮影条件を映像取得装置201に送信する。その後、映像取得装置201は、これらの撮影条件に従って撮影を行うことで取得した画像を、対象領域画像として追跡処理部に送信する。これにより、第1の画像に対する加工を行うことなく、対象領域画像を取得することができる。
【0050】
対象領域画像を取得した後、追跡処理部203は、取得した対象領域画像を所定の大きさに変換するためのリサイズ処理を行い、リサイズ済み画像を生成する。ここで、追跡処理部203は、対象領域画像を拡大又は縮小することでリサイズ処理を行ってもよい。また、リサイズ済み画像の大きさは特に限定されず、物体検知処理の精度及び速度を考慮して適宜に設定されてもよい。一例として、追跡処理部203は、対象領域画像をVGA(Video Graphics Array; 640画素×480画素)やQVGA(Quarter Video Graphics Array;320画素×240)などにリサイズしてもよい。
本開示で説明するように、対象領域画像を解像度がより低いリサイズ済み画像に変換することで、追跡処理の負荷を抑えると共に、処理時間を短縮させることができる。
【0051】
次に、ステップS424では、追跡処理部203は、ステップS423で生成したリサイズ済み画像に対して、所定の物体検知処理を実行する。ここでの物体検知処理は、例えば上述した物体検知処理300において用いられる物体検知処理と同様であってもよく、異なる物体検知処理であってもよい。
例えば、ここで、追跡処理部203は、KLT(Kanade-Lucas-Tomasi)トラッカー等によるフレーム間(第1の画像の前のフレーム及び次のフレーム)の特徴点の対応付けによる物体追跡を行ってもよい。新規特徴点は物体領域内から抽出するものとし、その特徴点が消失する又は静止する等の追跡終了の条件を満たすまで追跡を行う。このような物体追跡の処理を行うことにより、画面内を移動する各特徴点の軌跡を求めることができる。各特徴点の軌跡をその位置や移動方向、特徴点が得られた物体領域等の情報に基づいてクラスタリングすることにより、映像内を移動する物体の動きを表す複数のクラスタを求めることができる。
上述したように、このリサイズ済み画像は、第1の画像に比較して、解像度が低い画像である。このため、物体検知処理300において第1の画像に対して行われた物体検知処理に比べて、追跡処理400においてリサイズ済み画像に対して行われる物体検知処理は、処理負荷が低く、高速となる。
【0052】
このように、リサイズ済み画像に対して物体検知処理を実行することで、追跡処理部203は、検知された各対象物体の画像上の位置(画像上の座標)及び対象物体のクラスを示す第2の物体検知結果を生成することができる。
【0053】
次に、ステップS425では、追跡処理部203は、物体検知処理によって対象物体が検知されたか否かを判定する。対象物体が検知された場合、本処理はステップS426へ進む。一方、対象物体が検知されなかった場合、本処理はステップS427へ進む。
【0054】
次に、ステップS426では、追跡処理部203は、ステップS424で生成した第2の物体検知結果を上述した統合処理部204に送信する。その後、図5に示す統合処理500が開始されると共に、本処理はステップS422へ戻り、映像データにおける次の画像フレームに対する処理が開始される。
【0055】
次に、ステップS427では、追跡処理部203は、対象物体が検知されなかったフレームの数が所定の数T以上か否かを判定する。対象物体が検知されなかったフレームの数が所定の数「T」以上の場合、追跡処理部203は、対象物体を見失ったとして、本処理は終了する。一方、対象物体が検知されなかったフレームの数が所定の数「T」未満の場合、本処理はステップS422へ戻り、映像データにおける次の画像フレームに対する処理が開始される。
【0056】
次に、図5を参照して、本開示の実施例1における統合処理について説明する。
【0057】
図5は、本開示の実施例1における統合処理500の流れを示すフローチャートである。図5に示す統合処理500は、物体検知処理300によって生成される第1の物体検知結果と、追跡処理400によって生成される第2の物体検知結果とを統合するための処理であり、例えば図2に示す統合処理部204によって実行される。
【0058】
上述したように、物体検知処理300及び追跡処理400によれば、対象物体の位置を示す2つの物体検知結果が得られる。ただし、対象物体の画像上の位置は、第1の物体検知結果と第2の物体検知結果とでずれてしまうことがある。そこで、図5に示す統合処理500により、第1の物体検知結果と第2の物体検知結果とを1つに統合することで、対象物体の画像上の位置をより確実に示す最終の物体検知結果を得ることができる。
【0059】
まず、ステップS531では、統合処理部204は、第1の物体検知結果を物体検知処理部202から受信する。
【0060】
次に、ステップS532では、統合処理部204は、第2の物体検知結果を追跡処理部203から受信する。
【0061】
次に、ステップS533では、統合処理部204は、第1の物体検知結果と第2の物体検知結果とを整合し重ね合わせ、画像内の対象物体の位置が重複しているか否かを判定する。
第1の物体検知結果及び第2の物体検知結果における対象物体の領域が互いに重複する場合、統合処理部204は、例えばIoU(Intersection Over Union)を用いて、検知した対象物体の領域の重複度やIoUの所定の閾値を基準に、対象物体の位置を決定し、第1の物体検知結果と第2の物体検知結果とを統合することで、最終の物体検知結果を生成する。
一方、第1の物体検知結果及び第2の物体検知結果における対象物体の領域が互いに重複しない場合、統合処理部204は、第1の物体検知結果と第2の物体検知結果の両方を最終の物体検知結果として採用してもよい。
【0062】
次に、ステップS534では、統合処理部204は、ステップS533で生成した最終の物体検知結果として、映像データにおける画像フレーム番号、対象物体の位置、対象物体のクラス、及び対象物体の検知IDを所定の記憶領域に保存する。
【0063】
次に、ステップS535では、統合処理部204は、ステップS533で生成した最終の物体検知結果について、新規の検知があると判定した場合(つまり、ステップS533で生成した最終の物体検知結果の対象物体の位置、対象物体のクラス、又は対象物体の検知IDが以前保存した最終の物体検知結果と異なる場合)、本処理はステップS536に進み、新規に追跡処理を開始する。新規の検知がないと判定した場合、本処理は終了する。
【0064】
次に、図6を参照して、本開示の実施例1における表示制御処理について説明する。
【0065】
図6は、本開示の実施例1における表示制御処理600の流れを示すフローチャートである。図6に示す表示制御処理600は、統合処理部204によって生成される最終の物体検知結果を表示するための処理であり、例えば図2に示す表示制御部205によって実行される。
【0066】
まず、ステップS637では、表示制御部205は、上述した統合処理500において記憶領域に保存された最終の物体検知結果の内、最新の最終の物体検知結果を取得する。
【0067】
次に、ステップS638では、表示制御部205は、ステップS637で取得した最終の物体検知結果を表示するための表示画面を生成する。
なお、表示画面の一例を図7に示すため、ここではその説明を省略する。
【0068】
次に、ステップS639では、表示制御部205は、ステップS638で生成した表示画面を所定の表示装置(コンピューターのディスプレイ、スマートフォンやタブレット端末の画面等)に出力する。
【0069】
次に、図7を参照して、本開示の実施例1における表示画面について説明する。
【0070】
図7は、本開示の実施例1における表示画面700の一例を示す図である。上述したように、表示画面700は、本開示の実施例1における画像処理装置によって生成される最終の物体検知結果を表示するための画面である。
より具体的には、図7に示すように、表示制御部205は、統合処理部204によって生成された最終の物体検知結果に基づいて、対象物体が検知された位置に矩形を重畳した画像701と、対象物体が検知されている付近の領域を拡大表示すると共に対象物体の位置に矩形を重畳した画像702、703、704とを生成し、表示画面700においてタイル表示で表示する。
【0071】
更に、検知される対象物体が多い場合、表示制御部205は、画像701~704に示す対象物体以外の対象物体について、縮小したサムネイル画像705を表示画面700の端に表示してもよい。ユーザは、サムネイル画像705を選択することで、選択したサムネイル画像705を画像701~704のいずれかと置き換えることができる。
【0072】
以上、本開示の実施例1における画像処理手段によれば、物体検知処理のみを高解像度の画像(第1の画像)に対して実行し、その後の追跡処理を解像度がより低い画像(リサイズ済み画像)に対して実行することで、画像処理の負荷を抑えつつ、広域監視における対象物体の高速且つ高精度の追跡処理が可能となる。
【実施例2】
【0073】
次に、図8~9を参照して、本開示の実施例2における画像処理システムについて説明する。
【0074】
上述した実施例1では、本開示の映像取得装置201を特定の場所に設置されている監視カメラ等とした場合を一例として説明したが、本開示はこれに限定されず、映像取得装置201は、ドローン等の移動体に搭載される構成も可能である。したがって、本開示の実施例2では、映像取得装置201がドローンに搭載され、画像処理の一部がドローン側で実行される画像処理システム800について説明する。ただし、本開示はドローンに限定されず、映像取得装置201は、例えばロボットや、人間が運転する自動車等に搭載されてもよい。
【0075】
図8は、本開示の実施例2における画像処理システム800の構成の一例を示す図である。図8に示す画像処理システム800の構成は、実施例1における画像処理システム200の構成と実質的に同様であるため、説明の便宜上、共通している部分について説明を省略し、実施例2の実施例1に対する相違点を中心に説明する。
【0076】
本開示の実施例2における画像処理システム800は、広域監視における対象物体の高速追跡処理を行うためのシステムであり、図8に示すように、ドローン805と画像処理装置810とから主に構成される。ドローン805と画像処理装置810とは、例えばインターネット等の通信ネットワーク206を介して互いに無線通信により接続されている。
なお、ここでの画像処理装置810は、例えば地上の計算機やサーバ装置等で実装されてもよい。
【0077】
ドローン805は、回転翼等を用いて飛行する無人航空機である。本開示の実施例2におけるドローン805は特に限定されず、高解像度の映像を取得可能なカメラ(映像取得部820)、本開示の実施例における画像処理を実行可能な計算機能(追跡処理部203)及び画像処理装置810と通信を行うための無線通信機能(図示せず)を備えていれば、任意のドローンであってもよい。
【0078】
図8に示すように、ドローン805は、追跡処理部203と、移動体制御部815と、映像取得部820とを含む。
追跡処理部203は、実施例1における追跡処理部203と実質的に同様であるため、ここではその説明を省略する。
移動体制御部815は、ドローン805の移動や機能を制御するための機能部であり、例えばドローン805に搭載されているマイコンやSoC(System on a Chip)として実装されてもよい。移動体制御部815は、例えば画像処理装置810の移動体管理部803から受信した指示に基づいてドローン805の移動を制御してもよい。
映像取得部820は、高解像度の映像を取得可能なカメラであり、実施例1における映像取得装置201と実質的に同様であるため、ここではその説明を省略する。
【0079】
実施例2における画像処理装置810は、追跡処理部203がドローン805に搭載され、移動体管理部803を有する点において、実施例1における画像処理装置210と相違する。
移動体管理部803は、ドローン805の移動を制御する指示を生成し、ドローン805に送信するための機能部である。移動体管理部803は、例えば物体検知処理部202の物体検知結果に基づいて、検知された対象物体を追尾するための追尾命令を生成し、ドローン805に送信してもよい。
【0080】
次に、図9を参照して、本開示の実施例2における画像処理システム800の動作の流れについて説明する。
【0081】
図9は、本開示の実施例2における画像処理システム800の動作の流れ900を示すフローチャートである。
【0082】
まず、ステップS905では、ドローン805における映像取得部820は、高解像度の映像データから特定の画像フレーム(以下、「第1の画像」とする)を取得し、取得した第1の画像を高速大容量無線通信によって画像処理装置810に送信する。
【0083】
次に、ステップS910では、画像処理装置810の物体検知処理部202は、ドローン805から受信した第1の画像に対して、上述した物体検知処理(例えば、図3に示す物体検知処理300)を実行することで、当該第1の画像における対象物体を特定すると共に、対象物体の画像上の位置を少なくとも示す第1の物体検知結果を生成する。その後、物体検知処理部202は、生成した第1の物体検知結果を移動体管理部803に送信する。
【0084】
次に、ステップS915では、画像処理装置810の移動体管理部803は、物体検知処理部202から受信した第1の物体検知結果に基づいて、検知された対象物体を追尾するための追尾命令を作成する。ここでの追尾命令とは、ドローン805に、検知された特定の対象物体を追尾させることを要求する情報である。
その後、移動体管理部803は、作成した追尾命令をドローン805に送信する。
【0085】
次に、ステップS920では、移動体制御部815は、画像処理装置810の移動体管理部803から受信した追尾命令に基づいて、対象物体が鮮明且つ画像の中央付近に撮影できるように、ドローン805の移動や映像取得部820の撮影条件(パン、チルト及びズーム等)を制御してもよい。
【0086】
次に、ステップS925では、追跡処理部203は、上述した追跡処理(例えば、図4に示す追跡処理400)を実行する。より具体的には、追跡処理部203は、追尾命令に特定される対象物体について、対象領域画像を取得する。ここで、追跡処理部203は、対象領域画像をステップS905で取得された第1の画像から切り出してもよく、映像取得部820によって取得された新たな画像から対象領域画像を切り出してもよい。
その後、追跡処理部203は、当該対象領域画像を所定の大きさに変換するためのリサイズ処理を実行することでリサイズ済み画像を生成した後、リサイズ済み画像に対して所定の物体検知処理を実行し、対象物体の画像上の位置を少なくとも示す第2の物体検知結果を生成する。
なお、ここでのリサイズ済み画像は、第1の画像に比較して、解像度が低い画像であるため、画像処理装置810の物体検知処理部202によって第1の画像に対して行われた物体検知処理に比べて、ドローン805の追跡処理部203によって対象物体画像に対して行われる物体検知処理は、処理負荷が低く、高速となる。これにより、ドローン805で行われる処理の計算量を抑えると共に、ドローン805の消費電力を抑えることができる。
【0087】
次に、ステップS930では、移動体制御部815は、ステップS925で生成された第2の物体検知結果に基づいて、対象物体を追尾するようにドローン805を制御する。これにより、ドローン805は、対象物体を追尾しながら対象物体を撮影し、これにより取得された映像データ(例えば、第2の画像)を画像処理装置810に送信する。
その後、画像処理装置810は、上述した統合処理や表示処理を実行すると共に、新たに取得された第2の画像に対してステップS910以降の処理を実行する。
【0088】
以上説明した本開示の実施例2における画像処理システムによれば、高解像度の画像に対する物体検知処理が地上の画像処理装置側で行われ、ドローン側では、追跡処理は、解像度がより低い画像に対して行われるため、処理負荷及びドローンの消費電力を抑えつつ、広域監視における対象物体の高速追跡処理が可能となる。
【0089】
このように、本開示の実施例における画像処理手段によれば、物体検知処理のみを高解像度の画像に対して実行し、その後の追跡処理を解像度がより低い画像に対して実行することで、物体検知処理及び追跡処理を両方とも高解像度に対して実行する場合に比べて、追跡処理の精度を維持しつつ、処理負荷を抑えると共に、処理速度を向上させることができる。
これにより、検知の対象が高速に移動している状況等のリアルタイム検知・追跡が求められる場合であっても、高精度の検知結果をリアルタイムで提供することができる。
更に、処理負荷を抑えることにより、本開示の実施例における画像処理をドローン等の、電力が限られているデバイス上でも実装することができる。
【0090】
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
また、本発明における映像取得部、物体検知処理部、追跡処理部、統合処理部などの機能部は上述した機能以外の機能を兼ね備えてもよいことは言うまでもない。
【符号の説明】
【0091】
200・800:画像処理システム、201:映像取得装置、202:物体検知処理部、203:追跡処理部、204:統合処理部、205:表示制御部、206:通信ネットワーク、210・810:画像処理装置、803:移動体管理部、805:ドローン、815:移動体制御部、820:画像取得部
図1
図2
図3
図4
図5
図6
図7
図8
図9