(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-06-17
(45)【発行日】2024-06-25
(54)【発明の名称】画像処理システム、画像処理装置及び画像処理プログラム
(51)【国際特許分類】
H04N 19/115 20140101AFI20240618BHJP
H04N 19/136 20140101ALI20240618BHJP
H04N 19/137 20140101ALI20240618BHJP
【FI】
H04N19/115
H04N19/136
H04N19/137
(21)【出願番号】P 2022527320
(86)(22)【出願日】2020-05-26
(86)【国際出願番号】 JP2020020742
(87)【国際公開番号】W WO2021240647
(87)【国際公開日】2021-12-02
【審査請求日】2022-11-17
(73)【特許権者】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】100107766
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100107515
【氏名又は名称】廣田 浩一
(72)【発明者】
【氏名】久保田 智規
(72)【発明者】
【氏名】中尾 鷹詔
【審査官】間宮 嘉誉
(56)【参考文献】
【文献】特開2014-22787(JP,A)
【文献】特開2013-239995(JP,A)
【文献】特表2019-525575(JP,A)
【文献】国際公開第2020/080141(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 7/12
H04N 19/00-19/98
(57)【特許請求の範囲】
【請求項1】
第1の時間に取得された第1の画像データに対して画像認識処理を実行することで、画像認識処理に影響を与える特徴部分を示す情報を生成する生成部と、
前記第1の画像データに含まれるオブジェクトの特徴量と、前記第1の時間より後の第2の時間に取得された第2の画像データに含まれる該オブジェクトの特徴量とに基づいて、前記第2の時間での該オブジェクトの動きを解析する動き解析部と、
前記第1の時間での前記特徴部分を示す情報
と、解析された前記第2の時間での該オブジェクトの動きとに基づいて、前記第2の時間での第1の前記特徴部分を示す情報を予測する予測部と、
予測した
前記第2の時間での第1の前記特徴部分を示す情報に基づく圧縮率を用いて、前記第2の時間に取得された第2の画像データを符号化する符号化部と
を有する画像処理システム。
【請求項2】
前記動き解析部は、
前記第1の時間での前記特徴部分を示す情報に基づいて算出された、オブジェクトの領域の特徴量と、
前記第1の時間と前記第2の時間との間の第3の時間に取得された第3の画像データに対して前記生成部が画像認識処理を実行することで生成した前記第3の時間での前記特徴部分を示す情報に基づいて算出された該オブジェクトの領域の特徴量と、
に基づいて、前記第3の時間での該オブジェクトの領域の動きを解析し、
前記予測部は、
前記第3の時間での前記特徴部分を示す情報と、
解析された前記第3の時間での該オブジェクトの領域の動きと、
に基づいて、前記第2の時間での第2の前記特徴部分を示す情報を予測する、請求項
1に記載の画像処理システム。
【請求項3】
前記符号化部は、
第1の前記特徴部分を示す情報と、
第2の前記特徴部分を示す情報と、
に基づく圧縮率を用いて、前記第2の画像データを符号化する、請求項
2に記載の画像処理システム。
【請求項4】
前記生成部は、
前記特徴部分を示す情報を、画像データが取得された順序とは異なる順序で生成し、
前記予測部は、
第1の前記特徴部分を示す情報を予測する際、時間軸において前後の画像データに対して前記生成部が画像認識処理を実行することで生成した前記特徴部分を示す情報を用いて予測する、請求項1に記載の画像処理システム。
【請求項5】
前記動き解析部は、
前記第1の時間での前記特徴部分を示す情報に基づいて算出された、オブジェクトの領域の特徴量と、
前記第2の時間より後の第4の時間に取得された第4の画像データに対して前記生成部が画像認識処理を実行することで生成した前記第4の時間での前記特徴部分を示す情報に基づいて算出された該オブジェクトの領域の特徴量と、
に基づいて、前記第2の時間での該オブジェクトの領域の動きを解析し、
前記予測部は、
前記第1の時間での前記特徴部分を示す情報と、
前記第4の時間での前記特徴部分を示す情報と、
解析された前記第2の時間での前記オブジェクトの領域の動きと、
に基づいて、前記第2の時間での
第3の前記特徴部分を示す情報を予測する、請求項
4に記載の画像処理システム。
【請求項6】
前記生成部は、
取得された複数の画像データのうちの一部の画像データに対して画像認識処理を実行することで、前記特徴部分を示す情報を生成し、
前記予測部は、
第1の前記特徴部分を示す情報を予測する際、時間軸において前後の画像データについて生成された前記特徴部分を示す情報を用いて予測する、請求項1に記載の画像処理システム。
【請求項7】
前記動き解析部は、
前記第1の画像データに含まれるオブジェクトの特徴量と、
前記第2の時間より後の第4の時間に取得された第4の画像データに含まれる該オブジェクトの特徴量と、
に基づいて、前記第2の時間での該オブジェクトの動きを解析し、
前記予測部は、
前記第1の時間での前記特徴部分を示す情報と、
前記生成部が前記第4の画像データに対して画像認識処理を実行することで生成した前記第4の時間での前記特徴部分を示す情報と、
解析された前記第2の時間での該オブジェクトの動きと、
に基づいて、前記第2の時間での
第4の前記特徴部分を示す情報を予測する、請求項
6に記載の画像処理システム。
【請求項8】
前記符号化部は、
前記予測部により予測された前記第2の時間での
第4の前記特徴部分を示す情報と、
前記生成部が前記第2の画像データに対して画像認識処理を実行することで生成した前記第2の時間での前記特徴部分を示す情報と、
に基づく圧縮率を用いて、前記第2の画像データを符号化する、請求項
7に記載の画像処理システム。
【請求項9】
前記符号化部は、
前記第2の画像データを符号化する際の処理ブロックごとに、予測した
第1の前記特徴部分を示す情報を集計し、集計結果に基づいて決定された処理ブロックごとの圧縮率を用いて、前記第2の画像データを符号化する、請求項1に記載の画像処理システム。
【請求項10】
第1の時間に取得された第1の画像データに対して画像認識処理を実行することで生成された、画像認識処理に影響を与える特徴部分を示す情報
と、前記第1の画像データに含まれるオブジェクトの特徴量と前記第1の時間より後の第2の時間に取得された第2の画像データに含まれる該オブジェクトの特徴量とに基づいて解析された、前記第2の時間での該オブジェクトの動きとに基づいて、前記第2の時間での前記特徴部分を示す情報を予測する予測部と、
予測した
前記第2の時間での前記特徴部分を示す情報に基づく圧縮率を用いて、前記第2の時間に取得された第2の画像データを符号化する符号化部と
を有する画像処理装置。
【請求項11】
第1の時間に取得された第1の画像データに対して画像認識処理を実行することで生成された、画像認識処理に影響を与える特徴部分を示す情報
と、前記第1の画像データに含まれるオブジェクトの特徴量と前記第1の時間より後の第2の時間に取得された第2の画像データに含まれる該オブジェクトの特徴量とに基づいて解析された、前記第2の時間での該オブジェクトの動きとに基づいて、前記第2の時間での前記特徴部分を示す情報を予測し、
予測した
前記第2の時間での前記特徴部分を示す情報に基づく圧縮率を用いて、前記第2の時間に取得された第2の画像データを符号化する、
処理をコンピュータに実行させるための画像処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理システム、画像処理装置及び画像処理プログラムに関する。
【背景技術】
【0002】
一般に、画像データを記録または伝送する場合には、予め符号化処理を実行することでデータサイズを削減し、記録コストや伝送コストを削減する。
【0003】
一方で、近年、AI(Artificial Intelligence)による画像認識処理に利用することを目的として、画像データを記録または伝送するケースが増えてきている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、従来の符号化処理は、人間の概念で把握できる形状や性質に基づいて行われており、画像認識処理時にAIが注目する特徴部分(必ずしも人間の概念で境界分けをすることができない特徴部分)に基づいて行われているわけでない。このため、AIによる画像認識処理に適した符号化処理が行われることが求められる。
【0006】
一方で、画像認識処理時にAIが注目する特徴部分を特定するには、一定程度の時間を要する。このため、特定した特徴部分に基づく圧縮率を反映して符号化処理を実行しようとしても、符号化対象の画像データ内では既に特徴部分が移動していることもあり得る。このような場合、特定した特徴部分に基づく圧縮率が、符号化対象の画像データ内で適切な位置に反映されないことになる。
【0007】
一つの側面では、画像認識処理に適した圧縮率を反映した符号化処理を実現することを目的とする。
【課題を解決するための手段】
【0008】
一態様によれば、画像処理システムは、
第1の時間に取得された第1の画像データに対して画像認識処理を実行することで、画像認識処理に影響を与える特徴部分を示す情報を生成する生成部と、
前記第1の画像データに含まれるオブジェクトの特徴量と、前記第1の時間より後の第2の時間に取得された第2の画像データに含まれる該オブジェクトの特徴量とに基づいて、前記第2の時間での該オブジェクトの動きを解析する動き解析部と、
前記第1の時間での前記特徴部分を示す情報と、解析された前記第2の時間での該オブジェクトの動きとに基づいて、前記第2の時間での第1の前記特徴部分を示す情報を予測する予測部と、
予測した前記第2の時間での第1の前記特徴部分を示す情報に基づく圧縮率を用いて、前記第2の時間に取得された第2の画像データを符号化する符号化部とを有する。
【発明の効果】
【0009】
画像認識処理に適した圧縮率を反映した符号化処理を実現することができる。
【図面の簡単な説明】
【0010】
【
図1】
図1は、画像処理システムのシステム構成の一例を示す第1の図である。
【
図2】
図2は、クラウド装置及びエッジ装置のハードウェア構成の一例を示す図である。
【
図3】
図3は、クラウド装置のマップ生成部の機能構成及び処理の具体例を示す第1の図である。
【
図4】
図4は、クラウド装置のマップ生成部の機能構成及び処理の具体例を示す第2の図である。
【
図5】
図5は、エッジ装置のバッファ部の処理の具体例を示す第1の図である。
【
図6】
図6は、エッジ装置の解析部の機能構成及び処理の具体例を示す第1の図である。
【
図7】
図7は、エッジ装置の圧縮率決定部の機能構成及び処理の具体例を示す第1の図である。
【
図8】
図8は、エッジ装置の符号化部の機能構成及び処理の具体例を示す図である。
【
図9】
図9は、画像処理システムによる符号化処理の流れを示す第1のフローチャートである。
【
図10】
図10は、画像処理システムのシステム構成の一例を示す第2の図である。
【
図11】
図11は、エッジ装置のバッファ部の処理の具体例を示す第2の図である。
【
図12】
図12は、クラウド装置の解析部の機能構成及び処理の具体例を示す第1の図である。
【
図13】
図13は、画像処理システムによる符号化処理の流れを示す第2のフローチャートである。
【
図14】
図14は、画像処理システムのシステム構成の一例を示す第3の図である。
【
図15】
図15は、画像処理システムのシステム構成の一例を示す第4の図である。
【
図16】
図16は、エッジ装置のバッファ部の処理の具体例を示す第3の図である。
【
図17】
図17は、クラウド装置の解析部の機能構成及び処理の具体例を示す第2の図である。
【
図18】
図18は、画像処理システムによる符号化処理の流れを示す第3のフローチャートである。
【
図19】
図19は、画像処理システムのシステム構成の一例を示す第5の図である。
【
図20】
図20は、エッジ装置のバッファ部の処理の具体例を示す第4の図である。
【
図21】
図21は、エッジ装置の解析部の機能構成及び処理の具体例を示す第2の図である。
【
図22】
図22は、エッジ装置の圧縮率決定部の機能構成及び処理の具体例を示す第2の図である。
【
図23】
図23は、画像処理システムによる符号化処理の流れを示す第4のフローチャートである。
【
図24】
図24は、画像処理システムのシステム構成の一例を示す第6の図である。
【
図25】
図25は、異なる粒度の情報を有するマップに変換可能な画像処理システムを示す概念図である。
【発明を実施するための形態】
【0011】
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
【0012】
[第1の実施形態]
<画像処理システムのシステム構成>
はじめに、第1の実施形態に係る画像処理システムのシステム構成について説明する。
図1は、画像処理システムのシステム構成の一例を示す第1の図である。
図1に示すように、画像処理システム100は、撮像装置110、エッジ装置120、クラウド装置130を有する。
【0013】
撮像装置110は、所定のフレーム周期で撮影を行い、動画像データをエッジ装置120に送信する。
【0014】
エッジ装置120は画像処理装置の一例であり、撮像装置110より送信される動画像データについて、フレーム単位で符号化し、符号化データを出力する。エッジ装置120は、動画像データをフレーム単位で符号化する際、各フレームの画像データについてクラウド装置130よりマップを取得し、取得したマップに応じた圧縮率を反映する。なお、ここでいうマップとは、画像認識処理時にAIが注目した特徴部分を可視化したマップであり、本実施形態では、画像認識処理を行う画像認識部(詳細は後述)を解析し、画像認識処理に影響を与える特徴部分を特定することで生成される。
【0015】
エッジ装置120には、画像処理プログラムがインストールされており、当該プログラムが実行されることで、エッジ装置120は、バッファ部121、解析部122、圧縮率決定部123、符号化部124として機能する。
【0016】
バッファ部121は、撮像装置110より送信される動画像データに含まれる各フレームの画像データを、所定数バッファリングする。
【0017】
解析部122は、バッファ部121より第1の時間(=t)にバッファリングされた画像データ140を読み出し、符号化部124に通知して符号化した後、符号化データをクラウド装置130に送信する。なお、符号化部124では、時間=t-xにバッファリングされた画像データに基づいて生成された圧縮率情報を用いて、第1の時間(=t)にバッファリングされた画像データ140を符号化する(ただし、ここでは符号化処理の詳細説明は割愛する)。
【0018】
また、解析部122は、第1の時間(=t)より所定時間(=x)後の第2の時間(=t+x)にバッファリングされた画像データ180をバッファ部121より読み出し、符号化部124に通知する。また、解析部122は、第2の時間(=t+x)にバッファリングされた画像データ180の、第1の時間(=t)にバッファリングされた画像データからの変化量を算出する。更に、解析部122は、算出した変化量に基づいて、第2の時間(=t+x)におけるマップを予測するための変換情報を生成し、圧縮率決定部123に通知する。
【0019】
圧縮率決定部123は、クラウド装置130により生成されたマップであって、第1の時間(=t)にバッファリングされた画像データ140に対応するマップ150を取得する。また、圧縮率決定部123は、取得したマップ150を、解析部122より通知された変換情報を用いて変換することで、第2の時間(=t+x)にバッファリングされた画像データ180に対応するマップ160を予測する。
【0020】
更に、圧縮率決定部123は、算出したマップ160に基づいて、第2の時間(=t+x)にバッファリングされた画像データ180を符号化する際に用いる圧縮率を、符号化処理時の処理ブロック単位で決定する。圧縮率決定部123は、各処理ブロックの圧縮率を、圧縮率情報170として符号化部124に通知する。
【0021】
符号化部124は、解析部122より通知された、第2の時間(=t+x)にバッファリングされた画像データ180を、圧縮率決定部123より通知された圧縮率情報170を用いて符号化し、符号化データを生成する。
【0022】
一方、クラウド装置130には、解析プログラムがインストールされており、当該プログラムが実行されることで、クラウド装置130は、マップ生成部131として機能する。なお、クラウド装置130は、更に、エッジ装置120より送信される符号化データ(画像データ(例えば、画像データ140)を符号化した符号化データ)を復号する復号部を有するが、
図1では省略している。
【0023】
マップ生成部131は生成部の一例である。マップ生成部131は、エッジ装置120より送信され、復号部にて復号された画像データ(例えば、画像データ140)を取得する。また、マップ生成部131は、取得した画像データに対して、画像認識部がCNN(Convolutional Neural Network)を用いて画像認識処理を実行する。また、マップ生成部131は、画像認識処理を実行した際の画像認識部の構造情報に基づいて、画像認識処理に影響を与える特徴部分を可視化したマップ(例えば、マップ150)を生成する。
【0024】
更に、マップ生成部131は、生成したマップをエッジ装置120に送信する。なお、本実施形態において、エッジ装置120がクラウド装置130に画像データ140を送信してから、エッジ装置120がクラウド装置130からマップ150を受信するまでのタイムラグは所定時間x未満であるとする。
【0025】
<クラウド装置及びエッジ装置のハードウェア構成>
次に、クラウド装置130及びエッジ装置120のハードウェア構成について説明する。
図2は、クラウド装置及びエッジ装置のハードウェア構成の一例を示す図である。このうち、
図2(a)は、クラウド装置130のハードウェア構成の一例を示す図である。
図2(a)に示すように、クラウド装置130は、プロセッサ201、メモリ202、補助記憶装置203、I/F(Interface)装置204、通信装置205、ドライブ装置206を有する。なお、クラウド装置130の各ハードウェアは、バス207を介して相互に接続されている。
【0026】
プロセッサ201は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の各種演算デバイスを有する。プロセッサ201は、各種プログラム(例えば、解析プログラム等)をメモリ202上に読み出して実行する。
【0027】
メモリ202は、ROM(Read Only Memory)、RAM(Random Access Memory)等の主記憶デバイスを有する。プロセッサ201とメモリ202とは、いわゆるコンピュータを形成し、プロセッサ201が、メモリ202上に読み出した各種プログラムを実行することで、当該コンピュータはクラウド装置130の各種機能を実現する。
【0028】
補助記憶装置203は、各種プログラムや、各種プログラムがプロセッサ201によって実行される際に用いられる各種データを格納する。
【0029】
I/F装置204は、外部装置の一例である操作装置211、表示装置212と接続する接続デバイスである。I/F装置204は、クラウド装置130に対する操作を、操作装置211を介して受け付ける。また、I/F装置204は、クラウド装置130による処理の結果を出力し、表示装置212を介して表示する。
【0030】
通信装置205は、他の装置と通信するための通信デバイスである。クラウド装置130は、通信装置205を介してエッジ装置120と通信する。
【0031】
ドライブ装置206は記録媒体213をセットするためのデバイスである。ここでいう記録媒体213には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体213には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
【0032】
なお、補助記憶装置203にインストールされる各種プログラムは、例えば、配布された記録媒体213がドライブ装置206にセットされ、該記録媒体213に記録された各種プログラムがドライブ装置206により読み出されることでインストールされる。あるいは、補助記憶装置203にインストールされる各種プログラムは、通信装置205を介してネットワークからダウンロードされることで、インストールされてもよい。
【0033】
一方、
図2(b)は、エッジ装置120のハードウェア構成の一例を示す図である。
図2(b)に示すように、エッジ装置120のハードウェア構成は、クラウド装置130のハードウェア構成と同様である。
【0034】
ただし、エッジ装置120の場合、補助記憶装置223には、画像処理プログラムがインストールされている。また、エッジ装置120の場合、通信装置225を介して撮像装置110及びクラウド装置130と通信する。
【0035】
<クラウド装置の機能構成及び処理の具体例>
次に、クラウド装置130のマップ生成部131の機能構成及び処理の具体例(2種類)について、
図3及び
図4を用いて説明する。
【0036】
(1)マップ生成部の機能構成及び処理の具体例その1
図3は、クラウド装置のマップ生成部の機能構成及び処理の具体例を示す第1の図である。
図3に示すように、マップ生成部131は、画像認識部310と重要特徴マップ生成部320とを有する。
【0037】
エッジ装置120から送信され、復号部により復号された画像データ(例えば、画像データ140)が画像認識部310に入力されると、画像データ140は、画像認識部310のCNNによって順伝播処理される。これにより、CNNの出力層からは、画像データ140に含まれる認識対象のオブジェクト350についての認識結果(例えば、ラベル)が出力される。なお、ここでは、画像認識部310より出力されるラベルは正解ラベルであるとする。
【0038】
重要特徴マップ生成部320は、BP(Back Propagation)法、GBP(Guided Back Propagation)法または選択的BP法等を用いることで、画像認識部310の構造情報に基づいて"重要特徴マップ"を生成する。重要特徴マップとは、画像認識処理を実行した際の画像認識部310の構造情報に基づいて、画像データにおいて、画像認識処理に影響を与える特徴部分を可視化したマップである。
【0039】
なお、BP法は、認識結果として正解ラベルが出力される画像データについて画像認識処理を実行することで得た分類確率から各ラベルの誤差を計算し、入力層まで逆伝播して得られる勾配の大小を画像化することで、特徴部分を可視化する方法である。また、GBP法は、勾配情報の正値のみを特徴部分として画像化することで、特徴部分を可視化する方法である。
【0040】
更に、選択的BP法は、正解ラベルの誤差のみを最大にしたうえで、BP法またはGBP法を用いて処理を行う方法である。選択的BP法の場合、可視化される特徴部分は、正解ラベルのスコアのみに影響を与える特徴部分となる。
【0041】
図3の例は、選択的BP法により重要特徴マップ360を生成した様子を示している。重要特徴マップ生成部320では、生成した重要特徴マップ360を、マップ150としてエッジ装置120に送信する。
【0042】
(2)マップ生成部の機能構成及び処理の具体例その2
図4は、クラウド装置のマップ生成部の機能構成及び処理の具体例を示す第2の図である。
図4の場合、マップ生成部131は、リファイン画像生成部410と重要特徴指標マップ生成部420とを有する。
【0043】
更に、リファイン画像生成部410は、画像リファイナ部411、画像誤差演算部412、画像認識部413、スコア誤差演算部414を有する。
【0044】
画像リファイナ部411は、画像データの生成モデルとしてCNNを用いて、復号部により復号された画像データ(例えば、画像データ140)からリファイン画像データを生成する。
【0045】
なお、画像リファイナ部411は、生成したリファイン画像データを用いて画像認識部413が画像認識処理を実行した際に、正解ラベルのスコアが最大となるように、画像データ140を変更する。また、画像リファイナ部411は、例えば、画像データ140からの変更量(リファイン画像データと画像データ140との差分)が小さくなるように、リファイン画像データを生成する。これにより、画像リファイナ部411によれば、視覚的に変更前の画像データ(画像データ140)に近い画像データ(リファイン画像データ)を生成することができる。
【0046】
具体的には、画像リファイナ部411では、
・生成したリファイン画像データを用いて画像認識処理を実行した際のスコアと、正解ラベルのスコアを最大にしたスコアとの誤差(スコア誤差)と、
・生成したリファイン画像データと画像データ140との差分である画像差分値と、
を最小化するように画像リファイナ部411が有するCNNの学習を行う。
【0047】
画像誤差演算部412は、画像データ140と、CNNの学習中に画像リファイナ部411より出力されるリファイン画像データとの差分を算出し、画像差分値を、画像リファイナ部411に入力する。画像誤差演算部412では、例えば、画素ごとの差分(L1差分)やSSIM(Structural Similarity)演算を行うことにより、画像差分値を算出し、画像リファイナ部411に入力する。
【0048】
画像認識部413は、画像リファイナ部411により生成されたリファイン画像データを入力として画像認識処理を実行し、認識結果のラベルのスコアを出力する、学習済みのCNNを有する。なお、画像認識部413により出力されたスコアは、スコア誤差演算部414に通知される。
【0049】
スコア誤差演算部414は、画像認識部413により通知されたスコアと、正解ラベルのスコアを最大にしたスコアとの誤差を算出し、画像リファイナ部411にスコア誤差を通知する。スコア誤差演算部414により通知されたスコア誤差は、画像リファイナ部411においてCNNの学習に用いられる。
【0050】
なお、画像リファイナ部411が有するCNNの学習中に画像リファイナ部411から出力されるリファイン画像は、リファイン画像格納部415に格納される。画像リファイナ部411が有するCNNの学習は、
・予め定められた学習回数分(例えば、最大学習回数=N回分)、あるいは、
・正解ラベルのスコアが所定の閾値を超えるまで、あるいは、
・正解ラベルのスコアが所定の閾値を超え、かつ、画像差分値が所定の閾値より小さくなるまで、
行われ、画像認識部413より出力される正解ラベルのスコアが最大化した際のリファイン画像データを、以下では、"スコア最大化リファイン画像データ"と称す。
【0051】
続いて、重要特徴指標マップ生成部420の詳細について説明する。
図4に示すように、重要特徴指標マップ生成部420は、重要特徴マップ生成部421、劣化尺度マップ生成部422、重畳部423を有する。
【0052】
重要特徴マップ生成部421は、スコア最大化リファイン画像データを入力として画像認識処理を実行した際の画像認識部413の構造情報を、画像認識部413より取得する。また、重要特徴マップ生成部421は、BP法、GBP法または選択的BP法を用いることで、画像認識部413の構造情報に基づいて重要特徴マップを生成する。
【0053】
劣化尺度マップ生成部422は、復号部により復号された画像データ(例えば、画像データ140)とスコア最大化リファイン画像データとに基づいて、"劣化尺度マップ"を生成する。劣化尺度マップとは、画像データ140からスコア最大化リファイン画像データを生成した際の変更部分と各変更部分の変更度合いとを示したマップである。
【0054】
重畳部423は、重要特徴マップ生成部421において生成された重要特徴マップと、劣化尺度マップ生成部422において生成された劣化尺度マップとを重畳することで、重要特徴指標マップ430を生成する。重要特徴指標マップ430は、画像データにおいて画像認識処理に影響を与える特徴部分を可視化したマップである。
【0055】
重要特徴指標マップ生成部420では、生成した重要特徴指標マップ430を、マップ150としてエッジ装置120に送信する。
【0056】
(3)マップ生成部による他のマップ生成方法
上記(1)、(2)に記載したように、マップ生成部131は、
・人間を基準とした圧縮率を決定する代わりに、
・AIを基準とした圧縮率を決定するために、
AIが画像認識処理を実行する際に注目する特徴部分についての認識精度への影響度に基づいて、圧縮率を決定するためのマップを生成する。そして、マップ生成部131により生成されたマップに基づいて、最終的に、エッジ装置120において画像データに対して符号化処理を実行する。
【0057】
つまり、上記(1)、(2)では、このような目的でマップを生成する場合のマップ生成方法を2種類例示したに過ぎず、同じ目的であれば、上記(1)、(2)とは異なる方法でマップを生成してもよい。
【0058】
例えば、画像認識処理を実行した際のCNNの各層の出力である特徴マップを用いて、AIが画像認識処理を実行する際に注目する特徴部分を特定して、圧縮率を決定してもよい。
【0059】
あるいは、上記(1)において、異なる画質の画像データを入力として、AIが画像認識処理を実行する際に注目した特徴部分の変化に基づいて、圧縮率を決定してもよい。
【0060】
あるいは、上記(2)において、画像認識部413により画像認識処理が実行された際の認識精度が所定の基準となるリファイン画像データを、スコア最大化リファイン画像データとみなしてもよい。この場合、重要特徴指標マップ生成部420では、マップ生成部131に入力された画像データと、所定の基準となるリファイン画像データとを用いて、重要特徴指標マップ430を生成することになる。
【0061】
<エッジ装置の各部の機能構成>
次に、エッジ装置120の各部の機能構成及び/又は処理の具体例について、
図5~
図8を用いて説明する。
【0062】
(1)バッファ部の処理の具体例
はじめに、バッファ部121の処理の具体例について説明する。
図5は、エッジ装置のバッファ部の処理の具体例を示す第1の図である。
図5に示すように、エッジ装置120のバッファ部121は、撮像装置110より送信された動画像データに含まれる各フレームの画像データを、所定数バッファリングする。
【0063】
図5の例は、バッファ部121が、所定時間xに対応するフレーム数の画像データをバッファリングした様子を示している。具体的には、現在の時間が第2の時間(=t+x)であるとすると、バッファ部121では、少なくとも、現在の時間から、所定時間xだけ過去の時間である第1の時間(=t)までの画像データをバッファリングする。
【0064】
なお、
図5の例では、第1の時間(=t)と第2の時間(=t+x)との間の各時間の画像データを省略しているが、バッファ部121には、第1の時間(=t)と第2の時間(=t+x)との間の各時間に複数の画像データがバッファリングされているものとする。
【0065】
(2)解析部の機能構成及び処理の具体例
次に、解析部122の機能構成及び処理の具体例について説明する。
図6は、エッジ装置の解析部の機能構成及び処理の具体例を示す第1の図である。
図6に示すように、解析部122は、画像データ読み出し部601、動き解析部602、変換情報算出部603を有する。
【0066】
画像データ読み出し部601は、バッファ部121にバッファリングされた画像データを読み出し、符号化部124に通知して符号化した後、符号化データをクラウド装置130に送信する。また、画像データ読み出し部601は、読み出した画像データを、動き解析部602に通知する。
【0067】
例えば、画像データ読み出し部601は、バッファ部121にバッファリングされた第1の時間(=t)の画像データを読み出し、符号化部124に通知して符号化した後、符号化データをクラウド装置130に送信する。また、画像データ読み出し部601は、読み出した第1の時間(=t)の画像データを、動き解析部602に通知する。
【0068】
また、画像データ読み出し部601は、所定時間xが経過した後にバッファ部121にバッファリングされた画像データを読み出し、動き解析部602及び符号化部124に通知する。
【0069】
例えば、画像データ読み出し部601は、バッファ部121にバッファリングされた第2の時間(=t+x)の画像データを読み出し、動き解析部602及び符号化部124に通知する。
【0070】
動き解析部602は、画像データ読み出し部601から通知された画像データの組に基づいて、所定時間xの間に生じた画像データの変化量を算出し、算出した変化量に基づいて動き情報を生成する。
【0071】
例えば、動き解析部602は、画像データ読み出し部601から通知された画像データの組として、第1の時間(=t)の画像データ140と、第2の時間(=t+x)の画像データ180とを取得したとする。
【0072】
この場合、動き解析部602では、例えば、画像データ140に含まれるオブジェクトの座標、傾き、高さ、幅、面積等の特徴量を算出する。また、動き解析部602では、例えば、画像データ180に含まれるオブジェクトの座標、傾き、高さ、幅、面積等の特徴量を算出する。
【0073】
更に、動き解析部602では、例えば、画像データ180と画像データ140との間の特徴量の変化量である、座標差、回転角度差、縦横縮尺比等を算出することで、第2の時間(=t+x)でのオブジェクトの動きを解析し、動き情報を生成する。また、動き解析部602では、生成した動き情報を、変換情報算出部603に通知する。
【0074】
変換情報算出部603は、動き解析部602より通知された動き情報に基づいて、
・クラウド装置130から送信される第1の時間(=t)の画像データ140に対応するマップ160から、
・第2の時間(=t+x)の画像データ180に対応するマップを、
予測するための変換情報を生成する。また、変換情報算出部603は、生成した変換情報を、圧縮率決定部123に通知する。
【0075】
なお、動き解析部602による動き情報の生成方法は、上記に限定されない。例えば、画像データ140から画像データ180までの間にバッファリングされた各画像データから、オブジェクトの座標、傾き、高さ、幅、面積等の特徴量を算出し、それらを補助的に、あるいは、主体的に用いて動き情報を生成してもよい。
【0076】
あるいは、画像データ140から画像データ180の直前の画像データまでの間にバッファリングされた各画像データを符号化した符号化データのうちの複数の符号化データから、
・オブジェクトの動きを示す情報(例えば、符号化データの動きベクトル情報等)、
・オブジェクトの存在を示す情報(例えば、符号化モード(イントラ予測モードまたはインタ予測モード)を示す情報、係数の分布を示す情報、量子化値の配置を示す情報等)、
を算出し、それらを補助的に、あるいは、主体的に用いて動き情報を生成してもよい。
【0077】
また、動き解析部602が動き情報を生成する際には、
・直接的に画像データにおけるオブジェクトの動きを解析する方法、
・画像データにおいてオブジェクトを意識しないで取得できる特徴量の動きによって、結果としてオブジェクトの動きを解析する方法、
のいずれか一方、または、両方を補完的に用いてもよい。なお、オブジェクトを意識しないで取得できる特徴量には、例えば、エッジ情報、コーナー情報、色彩や輝度の変化を示す情報、領域ごとの画像的統計情報等、結果的にオブジェクトの形状と結びつく情報が含まれる。あるいは、オブジェクトを意識しないで取得できる特徴量には、算出する際に、オブジェクトという括りが必ずしも必要でない特徴量が含まれる。
【0078】
(3)圧縮率決定部の機能構成及び処理の具体例
次に、圧縮率決定部123の機能構成及び処理の具体例について説明する。
図7は、エッジ装置の圧縮率決定部の機能構成及び処理の具体例を示す第1の図である。
図7に示すように、圧縮率決定部123は、マップ取得部701、変換情報取得部702、予測部703、圧縮率算出部704を有する。
【0079】
マップ取得部701は、クラウド装置130よりマップ(例えば、第1の時間(=t)の画像データ140に対応するマップ150)を取得し、予測部703に通知する。
【0080】
変換情報取得部702は、解析部122より変換情報(例えば、第1の時間(=t)の画像データ140に対応するマップ150から、第2の時間(=t+x)の画像データ180に対応するマップ160を予測するための変換情報)を取得する。また、変換情報取得部702は、取得した変換情報を、予測部703に通知する。
【0081】
予測部703は、変換情報取得部702より通知された変換情報に基づいて、第1の時間(=t)の画像データ140に対応するマップ150から、第2の時間(=t+x)の画像データ180に対応するマップ160を予測し、圧縮率算出部704に通知する。
【0082】
圧縮率算出部704は、予測部703より通知されたマップ160に基づいて、符号化部124が画像データ(第2の時間(=t+x)の画像データ180)を符号化する際の、各処理ブロックの圧縮率を決定することで圧縮率情報170を生成する。具体的には、圧縮率算出部704は、処理ブロックごとにマップ160の各画素値を集計し、集計結果に応じた圧縮率を決定することで、圧縮率情報170を生成する。
図7の例は、圧縮率情報170のうち、ハッチングされた処理ブロックの圧縮率が、ハッチングされていない処理ブロックの圧縮率よりも小さいことを示している。
【0083】
(4)符号化部の機能構成及び処理の具体例
次に、符号化部124の機能構成及び処理の具体例について説明する。
図8は、エッジ装置の符号化部の機能構成及び処理の具体例を示す図である。
図8に示すように、符号化部124は、差分部801、直交変換部802、量子化部803、エントロピ符号化部804、逆量子化部805、逆直交変換部806を有する。また、符号化部124は、加算部807、バッファ部808、ループ内フィルタ部809、フレームバッファ部810、画面内予測部811、画面間予測部812を有する。
【0084】
差分部801は、画像データ(例えば、第2の時間(=t+x)の画像データ180)と予測画像データとの差分を算出し、予測残差信号を出力する。
【0085】
直交変換部802は、差分部801により出力された予測残差信号に対して、直交変換処理を実行する。
【0086】
量子化部803は、直交変換処理された予測残差信号を量子化し、量子化信号を生成する。量子化部803では、圧縮率決定部123により処理ブロックごとに決定された圧縮率を含む圧縮率情報170を用いて量子化信号を生成する。
【0087】
エントロピ符号化部804は、量子化信号に対してエントロピ符号化処理を行うことで、符号化データを生成する。
【0088】
逆量子化部805は、量子化信号を逆量子化する。逆直交変換部806は、逆量子化された量子化信号に対して、逆直交変換処理を実行する。
【0089】
加算部807は、逆直交変換部806より出力された信号と、予測画像とを加算することで、参照画像データを生成する。バッファ部808は、加算部807により生成された参照画像データを格納する。
【0090】
ループ内フィルタ部809は、バッファ部808に格納された参照画像データに対してフィルタ処理を行う。ループ内フィルタ部809には、
・デブロッキングフィルタ(Deblocking filter:DB)、
・サンプルアダプティブオフセットフィルタ(Sample Adaptive Offset filter:SAO)、
・適応ループフィルタ(Adaptive loop filter:ALF)、
が含まれる。
【0091】
フレームバッファ部810は、ループ内フィルタ部809によりフィルタ処理が行われた参照画像データをフレーム単位で格納する。
【0092】
画面内予測部811は、参照画像データに基づいて画面内予測を行い、予測画像データを生成する。画面間予測部812は、入力された画像データ(例えば、第2の時間(=t+x)の画像データ180)と参照画像データとを用いてフレーム間で動き補償を行い、予測画像データを生成する。
【0093】
なお、画面内予測部811または画面間予測部812により生成された予測画像データは、差分部801及び加算部807に出力される。
【0094】
なお、上記説明では、符号化部124が、MPEG-2、MPEG-4、H.264、HEVCなどの既存の動画符号化方式を用いて符号化処理を行うものとした。しかしながら、符号化部124が行う符号化処理は、これらの動画符号化方式に限定されず、量子化により圧縮率を制御する任意の符号化方式を用いて行われてもよい。
【0095】
<画像処理システムによる符号化処理の流れ>
次に、画像処理システム100全体により実行される符号化処理の流れについて説明する。
図9は、画像処理システムによる符号化処理の流れを示す第1のフローチャートである。撮像装置110による撮影が開始されることで、
図9に示す符号化処理が開始される。
【0096】
ステップS901において、エッジ装置120のバッファ部121は、撮像装置110より送信される動画像データの各フレームの画像データを取得し、バッファリングする。
【0097】
ステップS902において、エッジ装置120の解析部122は、バッファ部121にバッファリングされた画像データから、第1の時間(=t)の画像データを読み出し、符号化部124に通知して符号化した後、クラウド装置130に送信する。
【0098】
ステップS903において、クラウド装置130のマップ生成部131は、第1の時間(=t)の画像データに対応するマップを生成し、エッジ装置120に送信する。
【0099】
ステップS904において、エッジ装置120の解析部122は、バッファ部121より第2の時間(=t+x)の画像データを読み出し、第1の時間(=t)の画像データからの変化量を算出する。これにより、エッジ装置120の解析部122は、第2の時間(=t+x)でのオブジェクトの動きを解析し、動き情報を生成する。また、エッジ装置120の解析部122は、生成した動き情報に基づき、変換情報を生成する。
【0100】
ステップS905において、エッジ装置120の圧縮率決定部123は、変換情報を用いて、第1の時間(=t)の画像データに対応するマップを変換し、第2の時間(=t+x)の画像データに対応するマップを予測する。
【0101】
ステップS906において、エッジ装置120の圧縮率決定部123は、第2の時間(=t+x)の画像データに対応するマップに基づいて、第2の時間(=t+x)の画像データを符号化する際の各処理ブロックの圧縮率を決定する。
【0102】
ステップS907において、エッジ装置120の符号化部124は、圧縮率決定部123により決定された各処理ブロックの圧縮率を用いて、第2の時間(=t+x)の画像データを符号化する。
【0103】
ステップS908において、エッジ装置120は、符号化処理を終了するか否かを判定する。ステップS908において、符号化処理を継続すると判定した場合には(ステップS908においてNOの場合には)、ステップS901に戻る。この場合、画像処理システム100では、第1の時間=t)をフレーム周期分進めて、同様の処理を実行する。
【0104】
一方、ステップS908において、符号化処理を終了すると判定した場合には(ステップS908においてYESの場合には)、符号化処理を終了する。
【0105】
以上の説明から明らかなように、第1の実施形態に係る画像処理システム100は、第1の時間に取得された画像データに対して画像認識処理を実行することで、画像認識処理に影響を与える特徴部分を可視化したマップを生成する。また、第1の実施形態に係る画像処理システム100は、生成した第1の時間でのマップと、第1の時間より後の第2の時間でのオブジェクトの動きとに基づいて、第2の時間でのマップを予測する。更に、第1の実施形態に係る画像処理システム100は、予測したマップに基づき、処理ブロックごとに決定した圧縮率を用いて、第2の時間に取得された画像データを符号化する。
【0106】
このように、画像処理システム100では、画像認識処理に影響を与える特徴部分を可視化したマップに基づき圧縮率を決定する際、決定した圧縮率が反映されるまでの時間(所定時間x)に応じてマップを変換し、所定時間が経過した後のマップを予測する。これにより、画像認識処理に適した圧縮率を、符号化対象の画像データにおいて適切な位置に反映させることができる。
【0107】
この結果、第1の実施形態によれば、画像認識処理に適した圧縮率を反映した符号化処理を実現することができる。
【0108】
[第2の実施形態]
上記第1の実施形態では、第1の時間(=t)でのマップと第2の時間(=t+x)でのオブジェクトの動きとに基づいて、第2の時間(=t+x)の画像データに対応するマップを予測した。これに対して、第2の実施形態では、第3の時間(=t+y(y<x))の画像データに対応するマップと、第3の時間でのオブジェクトに対応する領域の動きとに基づいて、第2の時間(=t+x)の画像データに対応するマップを予測する。以下、第2の実施形態について、第1の実施形態との相違点を中心に説明する。
【0109】
<画像処理システムのシステム構成>
はじめに、第2の実施形態に係る画像処理システムのシステム構成について説明する。
図10は、画像処理システムのシステム構成の一例を示す第2の図である。
図10に示すように、画像処理システム1000の場合、
図1の画像処理システム100に対して以下の相違点を有する。
【0110】
具体的には、エッジ装置120の解析部1001が、第1の時間(=t)より所定時間(=y)後の第3の時間(=t+y)にバッファリングされた画像データ1010を読み出し、符号化部124に通知して符号化する点である。そして、エッジ装置120の解析部1001が、第3の時間(=t+y)にバッファリングされた画像データ1010を符号化した符号化データを、クラウド装置130に送信する点である。
【0111】
なお、第3の時間(=t+y)は、例えば、
・時間yと、
・第3の時間の画像データ1010をクラウド装置130に送信する際にかかる送信時間と、
・クラウド装置130において第3の時間の画像データ1010に対応するマップ1020を生成する際にかかる生成時間と、
・生成したマップ1020をエッジ装置120に送信する際にかかる送信時間と、
を加算した時間が、所定時間xと概ね等しくなるように調整した時間yを第1の時間(=t)に加算した時間である。
【0112】
また、
図1の画像処理システム100との相違点は、エッジ装置120の圧縮率決定部1002が、クラウド装置130より送信されたマップ160'に基づいて、圧縮率情報170を生成する点である。
【0113】
なお、第3の時間(=t+y)と第2の時間(=t+x)との間には、バッファリングされた複数の画像データが存在してもよいことは、上記第1の実施形態と同様である。
【0114】
また、
図1の画像処理システム100との相違点は、クラウド装置130のマップ生成部131が、第3の時間(=t+y)の画像データ1010に対応するマップ1020を生成する点である。
【0115】
更に、
図1の画像処理システム100との相違点は、クラウド装置130が解析部1003を有し、解析部1003が、
・第1の時間(=t)の画像データ140に対応するマップ150と、
・第3の時間(=t+y)の画像データ1010に対応するマップ1020と、
に基づいて、第2の時間(t+x)の画像データ180に対応するマップ160'を予測する点である。
【0116】
<エッジ装置の処理の具体例>
次に、エッジ装置120の処理の具体例(ここでは、バッファ部121の処理の具体例)について説明する。
図11は、エッジ装置のバッファ部の処理の具体例を示す第2の図である。
図11に示すように、エッジ装置120のバッファ部121は、撮像装置110より送信された動画像データに含まれる各フレームの画像データを、所定数バッファリングする。第2の実施形態においてエッジ装置120のバッファ部121にバッファリングされる画像データには、少なくとも、第3の時間(=t+y)の画像データ1010が含まれる。
【0117】
<クラウド装置の機能構成及び処理の具体例>
次に、クラウド装置130の解析部1003の機能構成及び処理の具体例について、
図12を用いて説明する。
図12は、クラウド装置の解析部の機能構成及び処理の具体例を示す第1の図である。
【0118】
図12に示すように、クラウド装置130の解析部1003は、マップ取得部1201、動き解析部1202、予測部1203を有する。
【0119】
マップ取得部1201は、マップ生成部131から通知されるマップの組を取得する。具体的には、マップ取得部1201は、マップ生成部131において生成された、第1の時間(=t)の画像データ140に対応するマップ150と、第3の時間(=t+y)の画像データ1010に対応するマップ1020との組を取得する。また、マップ取得部1201は、取得したマップの組を動き解析部1202に通知する。
【0120】
動き解析部1202は、マップ取得部1201より通知されたマップの組に基づいて、時間yの間に生じたマップの変化量を算出し、算出した変化量に基づいて動き情報を生成する。
【0121】
例えば、動き解析部1202は、マップ150に含まれるオブジェクトに対応する領域の座標、傾き、高さ、幅、面積等の特徴量を算出する。また、例えば、動き解析部1202は、マップ1020に含まれるオブジェクトに対応する領域の座標、傾き、高さ、幅、面積等の特徴量を算出する。
【0122】
更に、動き解析部1202は、例えば、マップ150とマップ1020との間の特徴量の変化量である、座標差、回転角度差、縦横縮尺比等を算出することで、第3の時間(=t+y)でのオブジェクトに対応する領域の動きを解析し、動き情報を生成する。また、動き解析部1202では、生成した動き情報を、予測部1203に通知する。
【0123】
予測部1203は、動き解析部1202より通知された動き情報に基づいて、第3の時間(=t+y)の画像データ1010に対応するマップ1020から、第2の時間(=t+x)の画像データ180に対応するマップ160'を予測するための変換情報を生成する。また、予測部1203は、生成した変換情報に基づいて、第3の時間(=t+y)の画像データ1010に対応するマップ1020から、第2の時間(=t+x)の画像データ180に対応するマップ160'を予測する。なお、予測部1203により予測されたマップ160'は、エッジ装置120に送信される。
【0124】
<画像処理システムによる符号化処理の流れ>
次に、画像処理システム1000全体により実行される符号化処理の流れについて説明する。
図13は、画像処理システムによる符号化処理の流れを示す第2のフローチャートである。
図9との相違点は、ステップS1301~S1304である。
【0125】
ステップS1301において、エッジ装置120の解析部1001は、バッファ部121にバッファリングされた画像データから、第3の時間(=t+y)の画像データを読み出し、符号化部124に通知して符号化した後、クラウド装置130に送信する。
【0126】
ステップS1302において、クラウド装置130のマップ生成部131は、第3の時間(=t+y)の画像データに対応するマップを生成する。
【0127】
ステップS1303において、クラウド装置130の解析部1003は、第3の時間(=t+y)の画像データに対応するマップの、第1の時間(=t)の画像データに対応するマップからの変化量を算出する。これにより、クラウド装置130の解析部1003は、第3の時間(=t+y)でのオブジェクトに対応する領域の動きを解析し、動き情報を生成する。また、クラウド装置130の解析部1003は、生成した動き情報に基づき、第2の時間(=t+x)の画像データに対応するマップを予測するための変換情報を生成する。
【0128】
ステップS1304において、クラウド装置130の解析部1003は、生成された変換情報を用いて、第3の時間(=t+y)の画像データに対応するマップを変換することで、第2の時間(=t+x)の画像データに対応するマップを予測する。
【0129】
以上の説明から明らかなように、第2の実施形態に係る画像処理システム1000は、第3の時間の画像データに対応するマップと、第3の時間でのオブジェクトに対応する領域の動きとに基づいて、第2の時間の画像データに対応するマップを予測する。これにより、第2の実施形態に係る画像処理システム1000によれば、上記第1の実施形態と同様の効果を享受することができる。
【0130】
[第3の実施形態]
上記第1の実施形態と第2の実施形態とでは、異なる手法により、第2の時間(=t+x)の画像データに対応するマップを予測し、それぞれの手法で予測したマップを用いて圧縮率を決定した。
【0131】
これに対して、第3の実施形態では、第1の実施形態において予測した第2の時間(=t+x)の画像データに対応するマップと、第2の実施形態において予測した第2の時間(=t+x)の画像データに対応するマップとを用いて、圧縮率を決定する。以下、第1及び第2の実施形態との相違点を中心に説明する。
【0132】
<画像処理システムのシステム構成>
図14は、画像処理システムのシステム構成の一例を示す第3の図である。
図1または
図10の画像処理システム100、1000との相違点は、解析部1401、圧縮率決定部1402である。
【0133】
図14に示すように、画像処理システム1400の場合、解析部1401は、第1の時間(=t)にバッファリングされた画像データ140を読み出し、符号化部124に通知して符号化した後、符号化データをクラウド装置130に送信する。また、解析部1401は、第1の時間(=t)より所定時間(=y)後の第3の時間(=t+y)にバッファリングされた画像データ1010を読み出し、符号化部124に通知して符号化した後、符号化データをクラウド装置130に送信する。また、解析部1401は、第1の時間(=t)より所定時間(=x)後の第2の時間(=t+x)にバッファリングされた画像データ180を読み出し(ただし、y<x)、符号化部124に通知する。また、解析部1401は、第2の時間(=t+x)にバッファリングされた画像データ180の、第1の時間(=t)にバッファリングされた画像データからの変化量を算出することで、第2の時間(=t+x)でのオブジェクトの動きを解析し、動き情報を生成する。更に、解析部1401は、生成した動き情報に基づいて変換情報を生成し、圧縮率決定部123に通知する。
【0134】
圧縮率決定部1402は、クラウド装置130により生成されたマップであって、第1の時間(=t)の画像データに対応するマップ150を取得する。また、圧縮率決定部1402は、取得したマップ150を、解析部1401より通知された変換情報に基づいて変換し、第2の時間(=t+x)の画像データ180に対応するマップ160を予測する。
【0135】
また、圧縮率決定部1402は、クラウド装置130により生成されたマップであって、第2の時間(=t+y)の画像データに対応するマップ160'を取得する。
【0136】
また、圧縮率決定部1402は、予測したマップ160と、取得したマップ160'とに基づいて、第2の時間(=t+x)の画像データ180を符号化する際の各処理ブロックの圧縮率を決定する。更に、圧縮率決定部1402は、各処理ブロックについて決定した圧縮率を、圧縮率情報170として符号化部124に通知する。
【0137】
以上の説明から明らかなように、第3の実施形態に係る画像処理システム1400は、異なる手法により予測した、第2の時間(=t+x)の画像データに対応するマップ160、160'に基づいて圧縮率を決定する。これにより、第3の実施形態に係る画像処理システム1400によれば、画像認識処理に適した圧縮率を、符号化対象の画像データにおいてより適切な位置に反映させることができる。
【0138】
この結果、第3の実施形態に係る画像処理システム1400によれば、画像認識処理に適した圧縮率を反映した符号化処理を実現することができる。
【0139】
[第4の実施形態]
上記各実施形態では、バッファ部121にバッファリングされた時間順に従って画像データを処理することで、時間軸において過去の画像データに対応するマップから、時間軸において未来の画像データに対応するマップを予測する場合について説明した。
【0140】
これに対して、第4の実施形態では、バッファ部121にバッファリングされた時間順とは異なる順序で画像データを処理する(つまり、画像データを並び替えて処理する)。更に、第4の実施形態では、時間軸上で前後の画像データに挟み込まれている画像データに対応するマップを、前後の画像データに対応する各マップに基づいて予測する。
【0141】
例えば、第4の実施形態では、
・第1の時間(=t)→第2の時間(=t+x)→第4の時間(=t+z)の時間順にバッファ部121にバッファリングされた画像データに対して(ただし、x<z)、
・第1の時間(=t)→第4の時間(=t+z)→第2の時間(=t+x)の時間順に画像データを並び替えて処理する。そして、第2の時間(=t+x)の画像データに対応するマップを、第1の時間(=t)の画像データに対応するマップと、第4の時間(=t+z)の画像データに対応するマップとに基づいて予測する。
【0142】
このように、第4の実施形態では、画像データを並び替え、時間軸上で前後の画像データに挟み込まれている画像データに対応するマップを予測する。これにより、第4の実施形態によれば、時間軸において過去の画像データに対応するマップから未来の画像データに対応するマップを予測する場合と比較して、予測精度を向上させることができる。以下、第4の実施形態について、第1の実施形態との相違点を中心に説明する。
【0143】
<画像処理システムのシステム構成>
はじめに、第4の実施形態に係る画像処理システムのシステム構成について説明する。
図15は、画像処理システムのシステム構成の一例を示す第4の図である。
図15に示すように、画像処理システム1500の場合、
図1の画像処理システム100に対して以下の相違点を有する。
【0144】
具体的には、エッジ装置120の解析部1501が、第1の時間(=t)より所定時間(=z>x)後の第4の時間(=t+z)にバッファリングされた画像データ1510を読み出し、符号化部124に通知して符号化する点である。そして、エッジ装置120の解析部1501が第4の時間(=t+z)にバッファリングされた画像データ1510を符号化した符号化データをクラウド装置130に送信する点である。
【0145】
つまり、エッジ装置120の解析部1501の場合、第3の時間(=t+x)にバッファリングされた画像データ1010(
図15において不図示)を読み出す前に、第4の時間(=t+z)にバッファリングされた画像データ1510を読み出す。これにより、画像データ1010と画像データ1510との間で並べ替えが行われることになる。
【0146】
また、
図1の画像処理システム100との相違点は、エッジ装置120の圧縮率決定部1502が、クラウド装置130より送信されたマップ160'に基づいて、圧縮率情報170を生成する点である。
【0147】
更に、
図1の画像処理システム100との相違点は、クラウド装置130が解析部1503を有し、解析部1503が、
・第1の時間(=t)の画像データ140に対応するマップ150と、
・第4の時間(=t+z)の画像データ1510に対応するマップ1520と、
に基づいて、第2の時間(=t+x)の画像データ180に対応するマップ160'を予測する点である。
【0148】
なお、所定時間(=z)は、第1の時間(=t)と第4の時間(=t+z)との間にバッファリングされる画像データの数が、一般的な動画像符号化処理の双方向参照符号化構造を形成するのに必要な数となるように調整されているものとする。
【0149】
<エッジ装置の処理の具体例>
次に、エッジ装置120の処理の具体例(ここでは、バッファ部121の処理の具体例)について説明する。
図16は、エッジ装置のバッファ部の処理の具体例を示す第3の図である。
図16に示すように、エッジ装置120のバッファ部121は、撮像装置110より送信された動画像データに含まれる各フレームの画像データのうち、所定数のフレームの画像データをバッファリングする。第4の実施形態においてエッジ装置120のバッファ部121にバッファリングされる画像データには、第1の時間(=t)の画像データ140と、第2の時間(=t+x)の画像データ180と、第4の時間(=t+z)の画像データ1510とが含まれる。
【0150】
なお、第2の時間(=t+x)と第4の時間(=t+z)との間には、バッファリングされた複数の画像データが存在してもよいことは、上記第1の実施形態と同様である。
【0151】
<クラウド装置の機能構成及び処理の具体例>
次に、クラウド装置130の解析部1503の機能構成及び処理の具体例について、
図17を用いて説明する。
図17は、クラウド装置の解析部の機能構成及び処理の具体例を示す第2の図である。
【0152】
図17に示すように、クラウド装置130の解析部1503は、マップ取得部1701、動き解析部1702、予測部1703を有する。
【0153】
マップ取得部1701は、マップ生成部131から通知されるマップの組を取得する。具体的には、マップ取得部1701は、マップ生成部131において生成された、第1の時間(=t)の画像データ140に対応するマップ150と、第4の時間(=t+z)の画像データ1510に対応するマップ1520との組を取得する。また、マップ取得部1701は、取得したマップの組を動き解析部1702に通知する。
【0154】
動き解析部1702は、マップ取得部1701より通知されたマップの組に基づいて、時間zの間に生じたマップの変化量を算出し、算出した変化量に基づいて動き情報を生成する。
【0155】
例えば、動き解析部1702は、マップ150に含まれるオブジェクトに対応する領域の座標、傾き、高さ、幅、面積等の特徴量を算出する。また、例えば、動き解析部1702は、マップ1520に含まれるオブジェクトに対応する領域の座標、傾き、高さ、幅、面積等の特徴量を算出する。
【0156】
更に、動き解析部1702は、例えば、マップ150とマップ1520との間の特徴量の変化量である、座標差、回転角度差、縦横縮尺比等を算出することで、第2の時間(=t+x)でのオブジェクトに対応する領域の動きを解析し、動き情報を生成する。また、動き解析部1702では、生成した動き情報を、予測部1703に通知する。
【0157】
予測部1703は、動き解析部1702より通知された動き情報に基づいて、
・第1の時間(=t)の画像データ140に対応するマップ150と、
・第4の時間(=t+z)の画像データ1510に対応するマップ1520と、
を変換し、第2の時間(=t+x)の画像データ180に対応するマップ160'を予測するための変換情報を生成する。また、予測部1703は、生成した変換情報に基づいて、
・第1の時間(=t)の画像データ140に対応するマップ150と、
・第4の時間(=t+z)の画像データ1510に対応するマップ1520と、
から、第2の時間(=t+x)の画像データ180に対応するマップ160'を予測する。なお、予測部1703により予測されたマップ160'は、エッジ装置120に送信される。
【0158】
<画像処理システムによる符号化処理の流れ>
次に、画像処理システム1500全体により実行される符号化処理の流れについて説明する。
図18は、画像処理システムによる符号化処理の流れを示す第3のフローチャートである。
図9との相違点は、ステップS1801~S1804である。
【0159】
ステップS1801において、エッジ装置120の解析部1501は、バッファ部121にバッファリングされた画像データから、第4の時間(=t+z)の画像データを読み出し、符号化部124に通知して符号化した後、クラウド装置130に送信する。
【0160】
ステップS1802において、クラウド装置130のマップ生成部131は、第4の時間(=t+z)の画像データに対応するマップを生成する。
【0161】
ステップS1803において、クラウド装置130の解析部1503は、第4の時間(=t+z)の画像データに対応するマップの、第1の時間(=t)の画像データに対応するマップからの変化量を算出する。これにより、クラウド装置130の解析部1503は、第2の時間(=t+x)でのオブジェクトに対応する領域の動きを解析し、動き情報を生成する。また、クラウド装置130の解析部1503は、生成した動き情報に基づき、第2の時間(=t+x)の画像データに対応するマップを予測するための変換情報を生成する。
【0162】
ステップS1804において、クラウド装置130の解析部1503は、生成された変換情報を用いて、第1の時間(=t)及び第4の時間(=t+x)の画像データに対応するマップを変換する。これにより、クラウド装置130の解析部1503では、第2の時間(=t+x)の画像データに対応するマップを予測する。
【0163】
以上の説明から明らかなように、第4の実施形態に係る画像処理システム1500は、第1及び第4の時間の画像データに対応するマップと、第2の時間でのオブジェクトに対応する領域の動きとに基づいて、第2の時間の画像データに対応するマップを予測する。これにより、第4の実施形態に係る画像処理システム1500によれば、上記第1の実施形態と同様の効果を享受することができる。
【0164】
[第5の実施形態]
上記第1乃至第4の実施形態では、撮像装置110から送信された動画像データの各フレームの画像データを全てクラウド装置130に送信するものとして説明した。これに対して、第5の実施形態では、動画像データの各フレームの画像データのうち、一部の画像データをクラウド装置130に送信し、クラウド装置130にて一部の画像データに対応するマップを生成する。また、第5の実施形態では、マップが生成された一部の画像データの間に挟まれる他の画像データに対応するマップを、当該一部の画像データに対応するマップに基づいて予測する。以下、第5の実施形態について、上記第1の実施形態との相違点を中心に説明する。
【0165】
<画像処理システムのシステム構成>
はじめに、第5の実施形態に係る画像処理システムのシステム構成について説明する。
図19は、画像処理システムのシステム構成の一例を示す第5の図である。
図1、
図10、
図14、
図15の画像処理システム100、1000、1400、1500との相違点は、解析部1901、圧縮率決定部1902である。
【0166】
図19に示すように、画像処理システム1900の場合、解析部1901は、第1の時間(=t)にバッファリングされた画像データ140を読み出し、符号化部124に通知して符号化した後、符号化データをクラウド装置130に送信する。また、解析部1901は、第1の時間(=t)より所定時間(=x)後の第2の時間(=t+x)にバッファリングされた画像データ180を読み出し、符号化部124に通知して符号化した後、符号化データをクラウド装置130に送信する。
【0167】
また、解析部1901は、第1の時間(=t)と第2の時間(=t+x)との間にバッファリングされた全ての画像データ(
図19の例では、紙面の都合から、画像データ1010のみを明示)を読み出し、符号化部124に通知する。
【0168】
更に、解析部1901は、第1の時間(=t)と第2の時間(=t+x)との間にバッファリングされた全ての画像データについて、前後の画像データからの変換情報を生成し、圧縮率決定部1902に通知する。例えば、解析部1901は、画像データ1010について、前後の画像データである、画像データ140及び画像データ180からの変換情報を生成し、圧縮率決定部1902に通知する。
【0169】
圧縮率決定部1902は、クラウド装置130により算出されたマップであって、第1の時間(=t)の画像データに対応するマップ150と、第2の時間(=t+x)の画像データ180に対応するマップ160とを取得する。また、圧縮率決定部1902は、取得したマップ150とマップ160とを、解析部1901より通知された変換情報に基づいて変換し、第3の時間(=t+y)の画像データ1010に対応するマップ1020を予測する。
【0170】
また、圧縮率決定部1902は、取得したマップ150と予測したマップ1020とを、解析部1901より通知された他の変換情報に基づいて変換し、第1の時間と第3の時間との間の時間の画像データ(不図示)に対応するマップを予測する。
【0171】
同様に、圧縮率決定部1902は、予測したマップ1020と算出したマップ160とを、解析部1901より通知された他の変換情報に基づいて変換し、第3の時間と第2の時間との間の時間の画像データ(不図示)に対応するマップを予測する。以下、同様の処理を繰り返すことで、圧縮率決定部1902では、第1の時間(=t)と第2の時間(=t+x)との間に含まれる全ての画像データに対応するマップを予測する。
【0172】
更に、圧縮率決定部1902は、第1の時間(=t)の画像データに対応するマップに基づいて、第1の時間(=t)の画像データを符号化する際に用いる各処理ブロックの圧縮率を決定し、圧縮率情報1910を生成する。また、圧縮率決定部1902は、第2の時間(=t+x)の画像データに対応するマップに基づいて、第2の時間(=t+x)の画像データを符号化する際に用いる各処理ブロックの圧縮率を決定し、圧縮率情報170を生成する。更に、圧縮率決定部1902は、第1の時間(=t)と第2の時間(=t+x)との間の各画像データに対応する各マップに基づいて、第1の時間(=t)と第2の時間(=t+x)との間の各画像データを符号化する際に用いる各処理ブロックの圧縮率を決定する。更に、圧縮率決定部1902は、決定した各処理ブロックの圧縮率を有する圧縮率情報を生成する。
図19の例は、圧縮率決定部1902が、画像データ1010を符号化する際に用いる各処理ブロックの圧縮率を決定し、圧縮率情報1920を生成した様子を示している。
【0173】
<エッジ装置の各部の機能構成及び処理の具体例>
次に、エッジ装置120の各部の機能構成及び/又は処理の具体例について
図20~
図22を用いて説明する。
【0174】
(1)バッファ部の処理の具体例
図20は、エッジ装置のバッファ部の処理の具体例を示す第4の図である。
図19に示すように、エッジ装置120のバッファ部121は、撮像装置110より送信された動画像データに含まれる各フレームの画像データのうち、所定数のフレームの画像データをバッファリングする。第5の実施形態においてエッジ装置120のバッファ部121にバッファリングされる画像データには、第1の時間(=t)の画像データ140と、第2の時間(=t+x)の画像データ180と、第1の時間と第2の時間との間の各時間の画像データとが含まれる。
【0175】
図20の例は、第1の時間と第2の時間との間の各時間の画像データとして、時間t+y
0~時間t+y
6の7フレームの画像データがバッファリングされることを示している。
【0176】
(2)解析部の機能構成及び処理の具体例
次に、解析部1901の機能構成及び処理の具体例について説明する。
図21は、エッジ装置の解析部の機能構成及び処理の具体例を示す第2の図である。
図21に示すように、解析部1901は、画像データ読み出し部2101、動き解析部2102、変換情報算出部2103を有する。
【0177】
画像データ読み出し部2101は、バッファ部121にバッファリングされた画像データ(例えば、第1の時間の画像データから第2の時間の画像データまで)を読み出す。また、画像データ読み出し部2101は、読み出した画像データを動き解析部2102及び符号化部124に通知する。また、画像データ読み出し部2101は、読み出した画像データのうち、符号化部124により符号化された第1の時間(=t)の画像データ及び第2の時間(=t+x)の画像データの符号化データを、クラウド装置130に送信する。
【0178】
動き解析部2102は、画像データ読み出し部2101から通知された画像データに基づいて、画像データの組を生成し、生成した組に基づいて、生成した組に挟み込まれる画像データの変化量を算出することで動き情報を生成する。
【0179】
例えば、第1の時間(=t)の画像データと、第2の時間(=t+x)の画像データとの組に基づいて、時間t+y3の画像データの変化量を算出することで、時間t+y3でのオブジェクトの動きを解析し、動き情報を生成する。また、第1の時間(=t)の画像データと、時間t+y3の画像データとの組に基づいて、時間t+y1の画像データの変化量を算出することで、時間t+y1でのオブジェクトの動きを解析し、動き情報を生成する。また、時間t+y3の画像データと第2の時間(=t+x)の画像データとの組に基づいて、時間t+y5の画像データの変化量を算出することで時間t+y5でのオブジェクトの動きを解析し、動き情報を生成する。
【0180】
以下、同様に、
・第1の時間(=t)の画像データと、時間t+y1の画像データとの組に基づいて、時間t+y0の画像データの変化量を算出することで、時間t+y0でのオブジェクトの動きを解析し、動き情報を生成する。
・時間t+y1の画像データと、時間t+y3の画像データとの組に基づいて、時間t+y2の画像データの変化量を算出することで、時間t+y2でのオブジェクトの動きを解析し、動き情報を生成する。
・時間t+y3の画像データと、時間t+y5の画像データとの組に基づいて、時間t+y4の画像データの変化量を算出することで、時間t+y4でのオブジェクトの動きを解析し、動き情報を生成する。
・時間t+y5の画像データと、第2の時間(=t+x)の画像データとの組に基づいて、時間t+y6の画像データの変化量を算出することで、時間t+y6でのオブジェクトの動きを解析し、動き情報を生成する。
【0181】
変換情報算出部2103は、動き解析部2102より通知されたそれぞれの動き情報に基づいて、画像データの組に対応するマップの組から、画像データの組に挟み込まれる画像データに対応するマップを予測するための変換情報を生成する。
図21の例は、変換情報算出部2103が、変換情報t+y
0~t+y
6を生成した様子を示している。
【0182】
(2)圧縮率決定部の機能構成及び処理の具体例
次に、圧縮率決定部1902の機能構成及び処理の具体例について説明する。
図22は、エッジ装置の圧縮率決定部の機能構成及び処理の具体例を示す第2の図である。
図22に示すように、圧縮率決定部1902は、マップ取得部2201、変換情報取得部2202、予測部2203、圧縮率算出部2204を有する。
【0183】
マップ取得部2201は、クラウド装置130よりマップ(例えば、第1の時間(=t)及び第2の時間(=t+x)の画像データ140、180に対応するマップ150、160)を取得し、予測部2203に通知する。
【0184】
変換情報取得部2202は、解析部1901より変換情報(例えば、第1の時間(=t)と第2の時間(=t+x)との間の各フレームの画像データについて生成された変換情報t+y0~t+y6)を取得する。また、変換情報取得部2202は、取得した変換情報t+y0~t+y6を、予測部2203に通知する。
【0185】
予測部2203は、マップ取得部2201から通知された第1の時間(=t)の画像データに対応するマップ150及び第2の時間(=t+x)の画像データに対応するマップ160を圧縮率算出部2204に通知する。
【0186】
また、予測部2203は、第1の時間(=t)と第2の時間(=t+x)との間の各時間の画像データに対応するマップを予測する。例えば、
・第1の時間(=t)の画像データに対応するマップ150と、第2の時間(=t+x)の画像データに対応するマップ160と、変換情報t+y3とに基づいて、時間t+y3の画像データに対応するマップ2213を予測する。
・第1の時間(=t)の画像データに対応するマップ150と、時間t+y3の画像データに対応するマップ2213と、変換情報t+y1とに基づいて、時間t+y1の画像データに対応するマップを予測する。
・・・
・時間t+y6の画像データに対応するマップと、第2の時間t+xの画像データ180に対応するマップ160と、変換情報t+y6とに基づいて、時間t+y6の画像データに対応するマップを予測する。
【0187】
圧縮率算出部2204は、予測部2203から通知されるマップに基づいて各処理ブロックの圧縮率を決定し、圧縮率情報を生成する。例えば、圧縮率算出部2204は、
・第1の時間(=t)の画像データ140に対応するマップ150に基づいて各処理ブロックの圧縮率を決定し、圧縮率情報1910を生成する。
・・・
・時間t+y3の画像データに対応するマップ2213に基づいて各処理ブロックの圧縮率を決定し、圧縮率情報1920を生成する。
・・・
・第2の時間(=t+x)の画像データ180に対応するマップ160に基づいて各処理ブロックの圧縮率を決定し、圧縮率情報170を生成する。
【0188】
<画像処理システムによる符号化処理の流れ>
次に、画像処理システム1900全体により実行される符号化処理の流れについて説明する。
図23は、画像処理システムによる符号化処理の流れを示す第4のフローチャートである。
【0189】
ステップS2301において、エッジ装置120のバッファ部121は、撮像装置110より送信される動画像データの各フレームの画像データを取得し、バッファリングする。
【0190】
ステップS2302において、エッジ装置120の解析部1501は、バッファ部121にバッファリングされた画像データから、第1の時間(=t)及び第2の時間(=t+x)の画像データを読み出す。また、エッジ装置120の解析部1501は、読み出した第1の時間(=t)及び第2の時間(=t+x)の画像データを、符号化部1241に通知して符号化した後、クラウド装置130に送信する。
【0191】
ステップS2303において、クラウド装置130のマップ生成部131は、第1の時間(=t)及び第2の時間(=t+x)の画像データに対応するマップをそれぞれ生成し、エッジ装置120に送信する。
【0192】
ステップS2304において、エッジ装置120の解析部1901は、第1の時間(=t)と第2の時間(=t+x)との間の各時間のオブジェクトの動きを解析し、動き情報を生成する。また、エッジ装置120の解析部1901は、生成した動き情報に基づき、第1の時間(=t)と第2の時間(=t+x)との間の各時間の画像データに対応する変換情報を生成する。
【0193】
ステップS2305において、エッジ装置120の圧縮率決定部1902は、生成された変換情報に基づいて、第1の時間(=t)と第2の時間(=t+x)との間の各時間の画像データに対応する各マップを予測する。
【0194】
ステップS2306において、エッジ装置120の圧縮率決定部1902は、各マップに基づいて、第1の時間(=t)~第2の時間(=t+x)の各画像データを符号化する際の各処理ブロックの圧縮率を決定し、各圧縮率情報を生成する。
【0195】
ステップS2307において、エッジ装置120の符号化部124は、第1の時間(=t)~第2の時間(=t+x)の各画像データを、対応する各圧縮率情報を用いて符号化する。
【0196】
ステップS2308において、エッジ装置120は、符号化処理を終了するか否かを判定する。ステップS2308において、符号化処理を継続すると判定した場合には(ステップS2308においてNOの場合には)、ステップS2301に戻る。この場合、画像処理システム1900では、第2の時間(=t+x)をフレーム周期分進めた時間を第1の時間として、同様の処理を実行する。
【0197】
一方、ステップS2308において、符号化処理を終了すると判定した場合には(ステップS2308においてYESの場合には)、符号化処理を終了する。
【0198】
以上の説明から明らかなように、第5の実施形態に係る画像処理システム1900は、動画像データの各フレームの画像データのうち、一部の画像データをクラウド装置130に送信してマップを生成する。また、第5の実施形態に係る画像処理システム1900は、生成したマップと、一部の画像データの間の画像データが取得された時間でのオブジェクトの動きとに基づいて、一部の画像データの間の画像データに対応するマップを予測する。これにより、第5の実施形態によれば、上記各実施形態と同様の効果を享受しつつ、更に、エッジ装置120とクラウド装置130との間の通信量を削減することが可能となる。
【0199】
[第6の実施形態]
上記第1乃至第5の実施形態では、エッジ装置120からクラウド装置130に画像データを符号化した符号化データを送信し、クラウド装置130からエッジ装置120にマップを送信する場合について説明した。しかしながら、エッジ装置120からクラウド装置130に送信する情報は、符号化データに限定されない。また、クラウド装置130からエッジ装置120に送信する情報は、マップに限定されない。
【0200】
図24は、画像処理システムのシステム構成の一例を示す第6の図である。
図24に示すように、画像処理システム2400において、エッジ装置120の解析部2401は、例えば、第1の時間(=t)の画像データ140を送信する際、画像データ140に含まれるオブジェクトの位置を示す位置情報を送信してもよい。これにより、クラウド装置130のマップ生成部131では、画像データ140に対して画像認識処理を実行する際、あわせて、位置情報を入力することができる。この結果、マップ生成部131では、画像データ140に対する認識精度が向上し、より適切なマップ150を生成することができる。
【0201】
また、
図24に示すように、画像処理システム2400において、クラウド装置130のマップ生成部131は、例えば、マップ150を送信する際、画像データ140に対する画像認識処理の処理結果(認識結果)を送信してもよい。これにより、エッジ装置120の圧縮率決定部2402では、変換情報に基づいてマップ160を予測する際、認識結果を用いることで、より適切なマップを予測することができる。
【0202】
以上の説明から明らかなように、第6の実施形態に係る画像処理システム2400では、エッジ装置120及びクラウド装置130それぞれにおいて処理を実行した際に得られる情報を、相互に送信する。これにより、エッジ装置120及びクラウド装置130においてより適切な処理を実現することができる。
【0203】
[その他の実施形態]
上記第5の実施形態では、第1の時間(=t)~第2の時間(=t+x)の各画像データがバッファリングされた際、第1の時間(=t)及び第2の時間(=t+x)の画像データの符号化データをクラウド装置130に送信するものとして説明した。しかしながら、第1の時間(=t)~第2の時間(=t+x)の各画像データの符号化データをクラウド装置130に送信してもよい。この場合、圧縮率算出部2204では、予測部2203にて予測されたマップと、クラウド装置130にて生成されたマップとに基づいて圧縮率を決定してもよい。
【0204】
また、上記第4の実施形態では、バッファリングされた画像データを並べ替えて処理する場合について説明したが、これは、マップの予測精度を上げ、マップの予測難易度を下げるためである。上記説明から明らかなように、並び替えが行われていない場合、クラウド装置130により生成されるマップが反映される画像データは、クラウド装置130から見た場合、未来の画像データである。一方で、並び替えが行われた場合、複数の画像データを、既にマップが生成された画像データで挟み込むことができる。
【0205】
この場合、挟み込まれた画像データに含まれるオブジェクトに対応する領域の動きは、オブジェクトの位置が確定した時間の画像データと、当該時間よりも後の同じくオブジェクトの位置が確定した時間の画像データと、に基づいて解析されることになる。これにより、マップの予測精度を上げ、マップの予測難易度を下げることができる。
【0206】
なお、上記第4の実施形態の場合、一般的な動画像符号化処理が画像データを並べ替えて符号化するケースとは異なり、定型的な並べ替えは行わない。これは、圧縮率を決定するための情報が、定型的な並べ替えとは必ずしも一致しないタイミングで、クラウド装置から送信されることもありうるからである。このため、上記第4の実施形態では、定型的な並べ替えを行って符号化処理を実行する代わりに、符号化できるタイミングで符号化処理を行う。この結果、上記第4の実施形態によれば、クラウド装置とエッジ装置との間の送信時間やクラウド装置でのマップ生成時間と、並べ替え後のタイムラグとの差分を小さくすることができる。
【0207】
また、上記各実施形態のマップ生成部により生成されるマップは、画素粒度の情報を有するものとして説明したが、マップは、必ずしも画素粒度の情報を有している必要なない。このため、生成したマップは、例えば、粒度の異なる情報を有するマップに変換してもよい。
【0208】
具体的には、所定の領域ごとに集計した情報や、所定の領域ごとに集計した情報の統計量、あるいは、所定の領域ごとの量子化値などの圧縮率を示す情報を有するマップに変換してもよい。その場合、エッジ装置120には、画素粒度の情報を有するマップを生成する第1の圧縮率決定部と、画素粒度の情報を有するマップから、異なる粒度の情報を有するマップに変換する第2の圧縮率決定部とが含まれることになる。
【0209】
図25は、異なる粒度の情報を有するマップに変換可能な画像処理システムを示す概念図である。
図25において、25aは、第1の圧縮率決定部2511と第2の圧縮率決定部2512とを含めることで、画像処理システム100(
図1)を、異なる粒度の情報を有するマップに変換可能な画像処理システムに変形した場合の概念図を示している。
【0210】
また、25bは、第1の圧縮率決定部2521と第2の圧縮率決定部2522とを含めることで、画像処理システム1000(
図10)を、異なる粒度の情報を有するマップに変換可能な画像処理装置に変形した場合の概念図を示している。
【0211】
更に、25cは、第1の圧縮率決定部2531と第2の圧縮率決定部2532とを含めることで、画像処理システム1400(
図14)を、異なる粒度の情報を有するマップに変換可能な画像処理システムに変形した様子を示している。
【0212】
このように、異なる粒度の情報を有するマップに変換することで、例えば、クラウド装置からエッジ装置に伝送するデータ量を削減することができる。また、画素粒度の情報を有するマップの場合、オブジェクトに対応する領域の動きを解析する際の演算量が大きいのに対して、異なる粒度の情報を有するマップに変換することで、演算量を削減することができる。更に、画素粒度の情報を有するマップの場合、マップの予測精度が、画素粒度のノイズに影響される可能性があるのに対して、異なる粒度の情報を有するマップに変換することで、画素粒度のノイズの影響を軽減することができる。
【0213】
また、上記各実施形態では、画像処理システムがクラウド装置とエッジ装置とを有するものとして説明したが、クラウド装置は、必ずしもクラウド上にある必要はなく、マップ生成部や解析部と、符号化部との間にタイムラグがある状態で配置されてもよい。
【0214】
例えば、画像処理システムに含まれるクラウド装置及びマップ装置は、映像解析装置が設置される所定の拠点に配されたエッジ装置、及び、当該拠点において集約装置として機能するセンタ装置であってもよい。あるいは、ネットワークを介することにより生じるタイムラグとは異なる要因でタイムラグが生じる環境下で接続された装置群であってもよい。
【0215】
また、上記各実施形態では、画像データより取得される特徴部分と、AIが画像認識処理を実行する際に注目する特徴部分とが、効果的に作用するようにマップを生成するものとしたが、そのうちの一部の特徴部分を用いてマップを生成するようにしてもよい。
【0216】
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
【符号の説明】
【0217】
100 :画像処理システム
110 :撮像装置
120 :エッジ装置
121 :バッファ部
122 :解析部
123 :圧縮率決定部
124 :符号化部
130 :クラウド装置
131 :マップ生成部
310 :画像認識部
320 :重要特徴マップ生成部
410 :リファイン画像生成部
420 :重要特徴指標マップ生成部
601 :画像データ読み出し部
602 :動き解析部
603 :変換情報算出部
701 :マップ取得部
702 :変換情報取得部
703 :予測部
704 :圧縮率算出部
1000 :画像処理システム
1001 :解析部
1002 :圧縮率決定部
1003 :解析部
1201 :マップ取得部
1202 :動き解析部
1203 :予測部
1400 :画像処理システム
1401 :解析部
1402 :圧縮率決定部
1501 :解析部
1502 :圧縮率決定部
1701 :マップ取得部
1702 :動き解析部
1703 :予測部
1900 :画像処理システム
1901 :解析部
1902 :圧縮率決定部
2101 :画像データ読み出し部
2102 :動き解析部
2103 :変換情報算出部
2201 :マップ取得部
2202 :変換情報取得部
2203 :予測部
2204 :圧縮率算出部
2400 :画像処理システム
2401 :解析部
2402 :圧縮率決定部