IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ テンセント・アメリカ・エルエルシーの特許一覧

特許7471730メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム
<>
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図1
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図2
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図3A
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図3B
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図4A
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図4B
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図4C
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図5
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図6
  • 特許-メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-12
(45)【発行日】2024-04-22
(54)【発明の名称】メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法、装置及びプログラム
(51)【国際特許分類】
   H04N 19/115 20140101AFI20240415BHJP
   H04N 19/46 20140101ALI20240415BHJP
   H04N 19/136 20140101ALI20240415BHJP
【FI】
H04N19/115
H04N19/46
H04N19/136
【請求項の数】 9
(21)【出願番号】P 2022558544
(86)(22)【出願日】2021-08-06
(65)【公表番号】
(43)【公表日】2023-05-10
(86)【国際出願番号】 US2021044899
(87)【国際公開番号】W WO2022159142
(87)【国際公開日】2022-07-28
【審査請求日】2022-09-27
(31)【優先権主張番号】63/139,156
(32)【優先日】2021-01-19
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】17/365,371
(32)【優先日】2021-07-01
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】520353802
【氏名又は名称】テンセント・アメリカ・エルエルシー
(74)【代理人】
【識別番号】100110364
【弁理士】
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【弁理士】
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】ウェイ・ジアン
(72)【発明者】
【氏名】ウェイ・ワン
(72)【発明者】
【氏名】シャン・リュウ
【審査官】田部井 和彦
(56)【参考文献】
【文献】特開2019-140680(JP,A)
【文献】米国特許出願公開第2018/0173994(US,A1)
【文献】国際公開第2019/115865(WO,A1)
【文献】Nannan Zou et al.,L2C Learning to Learn to Compress [online],Published in: 2020 IEEE 22nd International Workshop on Multimedia Signal Processing (MMSP), [2023年10月23日検索],2020年12月16日,インターネット <URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9287069>,DOI: 10.1109/MMSP48831.2020.9287069
【文献】Fei Yang et al.,Variable Rate Deep Image Compression With Modulated Autoencoder [online],Published in: IEEE Signal Processing Letters ( Volume: 27), [2023年10月23日検索],2020年01月31日,pp.331-335,インターネット <URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8977394>,DOI: 10.1109/LSP.2020.2970539
【文献】Zhao Wang et al.,[DNNVC] Preliminary results of Neural Network Loop Filter [online], [2023年10月23日検索],JVET-T0128 (JVET-T0128.docx),インターネット <URL: https://jvet-experts.org/doc_end_user/documents/20_Teleconference/wg11/JVET-T0128-v2.zip>,2020年10月14日
【文献】Rige Su et al.,SCALABLE LEARNED IMAGE COMPRESSION WITH A RECURRENT NEURAL NETWORKS-BASED HYPERPRIOR [online],Published in: 2020 IEEE International Conference on Image Processing (ICIP), [2023年10月23日検索],2020年09月30日,pp.3369-3373,インターネット <URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9190704>,DOI: 10.1109/ICIP40778.2020.9190704
(58)【調査した分野】(Int.Cl.,DB名)
H04N 19/115
H04N 19/46
H04N 19/136
(57)【特許請求の範囲】
【請求項1】
少なくとも1つのプロセッサによって実施される、メタ学習によるレート制御を用いた適応ニューラル画像圧縮の方法であって、
入力画像及びハイパーパラメータを受信するステップと、
圧縮表現を生成するために、符号化ニューラルネットワークを使用して、前記受信したハイパーパラメータに基づいて、前記受信した入力画像を符号化するステップであって、
符号化する前記ステップが、
第1の共有符号化パラメータを有する第1の共有符号化レイヤを使用して、前記受信した入力画像に対して第1の共有符号化を実施するステップと、
第1の適応符号化パラメータを有する第1の適応符号化レイヤを使用して、前記受信した入力画像に対して第1の適応符号化を実施するステップと、
第1の結合出力を生成するために、前記第1の共有符号化した入力画像と前記第1の適応符号化した入力画像とを加算、連結及び乗算のうちの少なくとも1つにより結合するステップと、
第2の共有符号化パラメータを有する第2の共有符号化レイヤを使用して、前記第1の結合出力に対して第2の共有符号化を実施するステップと、を含む、ステップと
第2の適応符号化パラメータを有する第2の適応符号化レイヤを使用して、前記第1の結合出力に対して第2の適応符号化を実施するステップと、
復元された圧縮表現及び前記ハイパーパラメータを受信するステップと、
出力画像を再構成するために、復号ニューラルネットワークを使用して、前記受信したハイパーパラメータに基づいて、前記受信した復元された圧縮表現を復号するステップであって、
復号する前記ステップが、
第1の共有復号パラメータを有する第1の共有復号レイヤを使用して、前記受信した復元された圧縮表現に対して第1の共有復号を実施するステップと、
第1の適応復号パラメータを有する第1の適応復号レイヤを使用して、前記受信した復元された圧縮表現に対して第1の適応復号を実施するステップと、
第2の結合出力を生成するために、前記第1の共有復号した復元された圧縮表現と前記第1の適応復号した復元された圧縮表現とを加算、連結及び乗算のうちの少なくとも1つにより結合するステップと、
第2の共有復号パラメータを有する第2の共有復号レイヤを使用して、前記第2の結合出力に対して第2の共有復号を実施するステップと、
第2の適応復号パラメータを有する第2の適応復号レイヤを使用して、前記第2の結合出力に対して第2の適応復号を実施するステップと、を含む、ステップと
を含み、
前記符号化ニューラルネットワーク及び前記復号ニューラルネットワークが、
前記受信したハイパーパラメータ、前記第1の共有符号化パラメータ、前記第1の適応符号化パラメータ、前記第1の共有復号パラメータ、及び前記第1の適応復号パラメータに基づいて、前記受信したハイパーパラメータに対応する訓練データのための内側ループ損失を生成することによって、
前記生成した内側ループ損失の勾配に基づいて、前記第1の共有符号化パラメータ、前記第1の適応符号化パラメータ、前記第1の共有復号パラメータ、及び前記第1の適応復号パラメータの第1の更新をすることによって、
前記受信したハイパーパラメータ、前記第1の更新をした第1の共有符号化パラメータ、前記第1の更新をした第1の適応符号化パラメータ、前記第1の更新をした第1の共有復号パラメータ、及び前記第1の更新をした第1の適応復号パラメータに基づいて、前記受信したハイパーパラメータに対応する検証データのためのメタ損失を生成することによって、並びに、
前記生成したメタ損失の勾配に基づいて、前記第1の更新をした第1の共有符号化パラメータ、前記第1の更新をした第1の適応符号化パラメータ、前記第1の更新をした第1の共有復号パラメータ、及び前記第1の更新をした第1の適応復号パラメータの第2の更新をすることによって、
訓練される、方法。
【請求項2】
符号化する前記ステップが、
前記受信した入力画像及び前記第1の共有符号化パラメータに基づいて、共有特徴を生成するステップと、
予測ニューラルネットワークを使用して、前記受信した入力画像、前記第1の適応符号化パラメータ、前記生成した共有特徴、及び前記受信したハイパーパラメータのうちの1つ又は複数に基づいて、推定適応符号化パラメータを生成するステップと、
前記推定適応符号化パラメータ及び前記受信したハイパーパラメータに基づいて、前記圧縮表現を生成するステップと
を含む、請求項に記載の方法。
【請求項3】
前記予測ニューラルネットワークが、
前記受信したハイパーパラメータ、前記第1の共有符号化パラメータ、前記第1の適応符号化パラメータ、前記第1の共有復号パラメータ、前記第1の適応復号パラメータ、及び前記予測ニューラルネットワークの予測パラメータに基づいて、前記受信したハイパーパラメータに対応する訓練データのための第1の損失、及び前記受信したハイパーパラメータに対応する検証データのための第2の損失を生成することによって、並びに、
前記生成した第1の損失の勾配及び前記生成した第2の損失の勾配に基づいて、前記予測パラメータを更新することによって、
訓練される、請求項に記載の方法。
【請求項4】
復号する前記ステップが、
前記受信した入力画像及び前記第1の共有復号パラメータに基づいて、共有特徴を生成するステップと、
予測ニューラルネットワークを使用して、前記受信した入力画像、前記第1の適応復号パラメータ、前記生成した共有特徴、及び前記受信したハイパーパラメータのうちの1つ又は複数に基づいて、推定適応復号パラメータを生成するステップと、
前記推定適応復号パラメータ及び前記受信したハイパーパラメータに基づいて、前記出力画像を再構成するステップと
を含む、請求項に記載の方法。
【請求項5】
前記予測ニューラルネットワークが、
前記受信したハイパーパラメータ、前記第1の共有符号化パラメータ、前記第1の適応符号化パラメータ、前記第1の共有復号パラメータ、前記第1の適応復号パラメータ、及び前記予測ニューラルネットワークの予測パラメータに基づいて、前記受信したハイパーパラメータに対応する訓練データのための第1の損失、及び前記受信したハイパーパラメータに対応する検証データのための第2の損失を生成することによって、並びに、
前記生成した第1の損失の勾配及び前記生成した第2の損失の勾配に基づいて、前記予測パラメータを更新することによって、
訓練される、請求項に記載の方法。
【請求項6】
少なくとも1つのプロセッサによって実施される、メタ学習によるレート制御を用いた適応ニューラル画像圧縮の方法であって、
入力画像及びハイパーパラメータを受信するステップと、
圧縮表現を生成するために、符号化ニューラルネットワークを使用して、前記受信したハイパーパラメータに基づいて、前記受信した入力画像を符号化するステップと、を含み、
前記受信した入力画像を符号化する前記ステップが、
第1の共有符号化パラメータを有する第1の共有符号化レイヤを使用して、前記受信した入力画像に対して第1の共有符号化を実施して第1の共有特徴を生成するステップと、
第1の適応符号化パラメータを有する第1の適応符号化レイヤを使用して、前記受信した入力画像に対して第1の適応符号化を実施するステップであって、
予測ニューラルネットワークを使用して、前記受信した入力画像、前記第1の適応符号化パラメータ、前記第1の共有特徴、及び前記受信したハイパーパラメータに基づいて、第1の推定適応符号化パラメータを生成し、
第1の適応符号化パラメータ推論関数を使用して、前記第1の推定適応符号化パラメータ及び前記第1の共有特徴に基づいて、第1の出力テンソルを生成する、ステップと、
を含む、方法。
【請求項7】
前記受信した入力画像を符号化する前記ステップが、
第2の共有符号化パラメータを有する第2の共有符号化レイヤを使用して、前記第1の出力テンソルに対して第2の共有符号化を実施して第2の共有特徴を生成するステップと、
第2の適応符号化パラメータを有する第2の適応符号化レイヤを使用して、前記第1の出力テンソルに対して第2の適応符号化を実施するステップであって、
前記予測ニューラルネットワークを使用して、前記第1の出力テンソル、前記第2の適応符号化パラメータ、前記第2の共有特徴、及び前記受信したハイパーパラメータに基づいて、第2の推定適応符号化パラメータを生成し、
第2の適応符号化パラメータ推論関数を使用して、前記第2の推定適応符号化パラメータ及び前記第2の共有特徴に基づいて、第2の出力テンソルを生成する、ステップと、
を更に含む、請求項6に記載の方法。
【請求項8】
メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための装置であって、前記装置が、
プログラムコードを記憶するように構成された少なくとも1つのメモリと、
前記プログラムコードを読み取り、前記プログラムコードによって命令されるように動作するように構成された少なくとも1つのプロセッサと
を備え、前記プログラムコードが、前記少なくとも1つのプロセッサに、請求項1から7のいずれか一項に記載の方法を実行させるように構成される、装置。
【請求項9】
命令を含むプログラムであって、前記命令が、メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための少なくとも1つのプロセッサによって実行された場合、前記少なくとも1つのプロセッサに、請求項1からのいずれか一項に記載の方法を実行させる、プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本出願は、2021年1月19日に出願された米国仮特許出願第63/139,156号、及び2021年7月1日に出願された米国特許出願第17/365,371号に基づいており、それらに対する優先権を主張し、それらの開示は、全体が参照により本明細書に組み込まれる。
【背景技術】
【0002】
ISO/IEC MPEG(JTC 1/SC 29/WG 11)は、将来のビデオコーディング技術の標準化に対する潜在的なニーズを積極的に探ってきた。ISO/IEC JPEGは、ニューラルネットワーク(NN)を使用したAIベースのエンドツーエンドのニューラル画像圧縮(NIC)に焦点を当てたJPEG-AIグループを確立している。最近の取り組みの成功は、高度なニューラル画像及びビデオ圧縮方法論に対するますます多くの産業上の関心をもたらしている。
【0003】
従来技術は有望な性能を示しているが、柔軟なビットレート制御は、従来のNIC方法にとって依然として大きな課題である。従来、これは、レートと歪み(圧縮画像の品質)との間の各所望のトレードオフを目標とする複数のモデルインスタンスを個別に訓練することを含み得る。これらの複数のモデルインスタンスはすべて、異なるビットレートから画像を再構成するために、復号器側で記憶及び展開される必要があり得る。また、可能な目標ビットレートごとに無限数のモデルインスタンスを訓練し、及び記憶することが困難であるため、これらのモデルインスタンスは、任意の滑らかなビットレート制御を与えることができない。従来技術は、1つのモデルインスタンスが複数の所定のビットレートの圧縮を達成するように訓練されるマルチレートNICを研究してきた。しかしながら、任意の滑らかなビットレート制御は、未調査の未解決の問題である。
【発明の概要】
【課題を解決するための手段】
【0004】
実施形態によれば、メタ学習によるレート制御を用いた適応ニューラル画像圧縮の方法は、少なくとも1つのプロセッサによって実施され、入力画像及びハイパーパラメータを受信するステップと、圧縮表現を生成するために、符号化ニューラルネットワークを使用して、受信したハイパーパラメータに基づいて、受信した入力画像を符号化するステップと、を含む。符号化するステップは、第1の共有符号化パラメータを有する第1の共有符号化レイヤを使用して、受信した入力画像に対して第1の共有符号化を実施するステップと、第1の適応符号化パラメータを有する第1の適応符号化レイヤを使用して、受信した入力画像に対して第1の適応符号化を実施するステップと、第1の結合出力を生成するために、第1の共有符号化した入力画像と第1の適応符号化した入力画像とを結合するステップと、第2の共有符号化パラメータを有する第2の共有符号化レイヤを使用して、第1の結合出力に対して第2の共有符号化を実施するステップと、を含む。
【0005】
実施形態によれば、メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための装置は、プログラムコードを記憶するように構成された少なくとも1つのメモリと、プログラムコードを読み取り、プログラムコードによって命令されるように動作するように構成された少なくとも1つのプロセッサと、を含む。プログラムコードは、少なくとも1つのプロセッサに、入力画像及びハイパーパラメータを受信させるように構成された第1の受信コードと、少なくとも1つのプロセッサに、圧縮表現を生成させるために、符号化ニューラルネットワークを使用して、受信したハイパーパラメータに基づいて、受信した入力画像を符号化させるように構成された符号化コードと、を含む。符号化コードは、少なくとも1つのプロセッサに、第1の共有符号化パラメータを有する第1の共有符号化レイヤを使用して、受信した入力画像に対して第1の共有符号化を実施させ、第1の適応符号化パラメータを有する第1の適応符号化レイヤを使用して、受信した入力画像に対して第1の適応符号化を実施させ、第1の結合出力を生成させるために、第1の共有符号化した入力画像と第1の適応符号化した入力画像とを結合させ、及び、第2の共有符号化パラメータを有する第2の共有符号化レイヤを使用して、第1の結合出力に対して第2の共有符号化を実施させる、ように更に構成される。
【0006】
実施形態によれば、非一時的コンピュータ可読媒体は、命令を記憶し、命令は、メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための少なくとも1つのプロセッサによって実行された場合、少なくとも1つのプロセッサに、入力画像及びハイパーパラメータを受信させ、及び、圧縮表現を生成させるために、符号化ニューラルネットワークを使用して、受信したハイパーパラメータに基づいて、受信した入力画像を符号化させる。命令は、少なくとも1つのプロセッサによって実行された場合、更に、少なくとも1つのプロセッサに、第1の共有符号化パラメータを有する第1の共有符号化レイヤを使用して、受信した入力画像に対して第1の共有符号化を実施させ、第1の適応符号化パラメータを有する第1の適応符号化レイヤを使用して、受信した入力画像に対して第1の適応符号化を実施させ、第1の結合出力を生成させるために、第1の共有符号化した入力画像と第1の適応符号化した入力画像とを結合させ、及び、第2の共有符号化パラメータを有する第2の共有符号化レイヤを使用して、第1の結合出力に対して第2の共有符号化を実施させる。
【図面の簡単な説明】
【0007】
図1】実施形態による、本明細書に記載された方法、装置、及びシステムがその中で実現され得る環境の図である。
図2図1の1つ又は複数のデバイスの例示的な構成要素のブロック図である。
図3A】実施形態による、メタ学習によるレート制御を用いた適応ニューラル画像圧縮のためのメタNICアーキテクチャのブロック図である。
図3B】実施形態による、メタ学習によるレート制御を用いた適応ニューラル画像圧縮のためのメタNICアーキテクチャのブロック図である。
図4A】実施形態による、テスト段階中のメタ学習によるレート制御を用いた適応ニューラル画像圧縮のための装置のブロック図である。
図4B図4Aに示す装置のうちのメタNIC符号化器のブロック図である。
図4C図4Aに示す装置のうちのメタNIC復号器のブロック図である。
図5】実施形態による、訓練段階中のメタ学習によるレート制御を用いた適応ニューラル画像圧縮のための訓練装置のブロック図である。
図6】実施形態による、メタ学習によるレート制御を用いた適応ニューラル画像圧縮の方法のフローチャートの図である。
図7】実施形態による、メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための装置のブロック図である。
【発明を実施するための形態】
【0008】
本開示は、NICにおける滑らかなビットレート制御のためのメタニューラル画像圧縮(メタNIC)フレームワークのための方法及び装置を説明する。メタ学習メカニズムは、現在の入力画像及び目標ビットレートに基づいて、基礎となるNICモデルのレート適応重みパラメータを適応的に計算するために使用され、これにより、単一のメタNICモデルインスタンスは、任意の滑らかな様々なビットレートで画像圧縮を達成することができる。
【0009】
図1は、実施形態による、本明細書に記載された方法、装置、及びシステムがその中で実現され得る環境100の図である。
【0010】
図1に示されたように、環境100は、ユーザデバイス110、プラットフォーム120、及びネットワーク130を含み得る。環境100のデバイスは、有線接続、ワイヤレス接続、又は有線接続とワイヤレス接続の組合せを介して相互接続し得る。
【0011】
ユーザデバイス110は、プラットフォーム120に関連付けられた情報を受信、生成、記憶、処理、及び/又は提供することが可能な1つ又は複数のデバイスを含む。例えば、ユーザデバイス110は、コンピューティングデバイス(例えば、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ハンドヘルドコンピュータ、スマートスピーカ、サーバなど)、携帯電話(例えば、スマートフォン、無線電話など)、ウェアラブルデバイス(例えば、一対のスマートグラス若しくはスマートウォッチ)、又は同様のデバイスを含んでもよい。いくつかの実装形態では、ユーザデバイス110は、プラットフォーム120から情報を受信し、及び/又はプラットフォーム120に情報を送信することができる。
【0012】
プラットフォーム120は、本明細書の他の箇所に記載されるような1つ又は複数のデバイスを含む。いくつかの実装形態では、プラットフォーム120は、クラウドサーバ又はクラウドサーバのグループを含んでもよい。いくつかの実装形態では、プラットフォーム120は、ソフトウェア構成要素がスワップイン又はスワップアウトされ得るようにモジュール式に設計されてもよい。そのため、プラットフォーム120は、異なる用途向けに、容易に、及び/又は迅速に復元され得る。
【0013】
いくつかの実装形態では、図示されたように、プラットフォーム120は、クラウドコンピューティング環境122内でホストされてもよい。特に、本明細書に記載された実装形態は、クラウドコンピューティング環境122内でホストされるものとしてプラットフォーム120を記載するが、いくつかの実装形態では、プラットフォーム120は、クラウドベースでなくてもよく(すなわち、クラウドコンピューティング環境の外部に実装されてもよく)、又は部分的にクラウドベースであってもよい。
【0014】
クラウドコンピューティング環境122は、プラットフォーム120をホストする環境を含む。クラウドコンピューティング環境122は、プラットフォーム120をホストするシステム及び/又はデバイスの物理的な位置及び構成のエンドユーザ(例えば、ユーザデバイス110)の知識を必要としない計算、ソフトウェア、データアクセス、ストレージなどのサービスを提供し得る。図示されたように、クラウドコンピューティング環境122は、(まとめて「コンピューティングリソース124」と呼ばれ、個別に「コンピューティングリソース124」と呼ばれる)コンピューティングリソース124のグループを含んでもよい。
【0015】
コンピューティングリソース124は、1つ又は複数のパーソナルコンピュータ、ワークステーションコンピュータ、サーバデバイス、又は他のタイプの計算デバイス及び/若しくは通信デバイスを含む。いくつかの実装形態では、コンピューティングリソース124は、プラットフォーム120をホストしてもよい。クラウドリソースは、コンピューティングリソース124内で実行される計算インスタンス、コンピューティングリソース124内で提供されるストレージデバイス、コンピューティングリソース124によって提供されるデータ転送デバイスなどを含んでもよい。いくつかの実装形態では、コンピューティングリソース124は、有線接続、ワイヤレス接続、又は有線接続とワイヤレス接続の組合せを介して他のコンピューティングリソース124と通信してもよい。
【0016】
図1に更に示されたように、コンピューティングリソース124は、1つ又は複数の(「APP」)124-1、1つ又は複数の仮想マシン(「VM」)124-2、仮想化ストレージ(「VS」)124-3、1つ又は複数のハイパーバイザ(「HYP」)124-4などのクラウドリソースのグループを含む。
【0017】
アプリケーション124-1は、ユーザデバイス110及び/若しくはプラットフォーム120に提供され得るか、又はユーザデバイス110及び/若しくはプラットフォーム120によってアクセスされ得る1つ又は複数のソフトウェアアプリケーションを含む。アプリケーション124-1は、ユーザデバイス110上でソフトウェアアプリケーションをインストールし、及び実行する必要性を排除し得る。例えば、アプリケーション124-1は、プラットフォーム120に関連付けられたソフトウェア、及び/又はクラウドコンピューティング環境122を介して提供されることが可能な任意の他のソフトウェアを含んでもよい。いくつかの実装形態では、1つのアプリケーション124-1は、仮想マシン124-2を介して1つ又は複数の他のアプリケーション124-1との間で情報を送受信してもよい。
【0018】
仮想マシン124-2は、物理マシンのようにプログラムを実行するマシン(例えば、コンピュータ)のソフトウェア実装形態を含む。仮想マシン124-2は、仮想マシン124-2による用途及び任意の実マシンとの対応関係の程度に応じて、システム仮想マシン又はプロセス仮想マシンのいずれかであってもよい。システム仮想マシンは、完全なオペレーティングシステム(「OS」)の実行をサポートする完全なシステムプラットフォームを提供し得る。プロセス仮想マシンは、単一のプログラムを実行し、更に単一のプロセスをサポートし得る。いくつかの実装形態では、仮想マシン124-2は、ユーザ(例えば、ユーザデバイス110)の代わりに動作し、データ管理、同期、又は長期データ転送などのクラウドコンピューティング環境122の基盤を管理してもよい。
【0019】
仮想化ストレージ124-3は、コンピューティングリソース124のストレージシステム又はデバイス内で仮想化技法を使用する1つ若しくは複数のストレージシステム及び/又は1つ若しくは複数のデバイスを含む。いくつかの実装形態では、ストレージシステムのコンテキスト内で、仮想化のタイプは、ブロック仮想化及びファイル仮想化を含んでもよい。ブロック仮想化は、ストレージシステムが物理ストレージ又は異種構造に関係なくアクセスされ得るような、物理ストレージからの論理ストレージの抽象化(又は分離)を指し得る。分離により、ストレージシステムの管理者がエンドユーザのためにストレージを管理する方法の柔軟性が可能になり得る。ファイル仮想化は、ファイルレベルでアクセスされるデータとファイルが物理的に記憶された場所との間の依存関係を排除し得る。これにより、ストレージ使用の最適化、サーバ統合、及び/又はスムーズなファイル移行の実施が可能になり得る。
【0020】
ハイパーバイザ124-4は、複数のオペレーティングシステム(例えば、「ゲスト・オペレーティング・システム」)をコンピューティングリソース124などのホストコンピュータ上で同時に実行することを可能にするハードウェア仮想化技法を提供し得る。ハイパーバイザ124-4は、仮想オペレーティングプラットフォームをゲスト・オペレーティング・システムに提示し、更にゲスト・オペレーティング・システムの実行を管理し得る。様々なオペレーティングシステムの複数のインスタンスが、仮想化されたハードウェアリソースを共有し得る。
【0021】
ネットワーク130は、1つ又は複数の有線及び/又はワイヤレスのネットワークを含む。例えば、ネットワーク130は、セルラーネットワーク(例えば、第5世代(5G)ネットワーク、ロングタームエボリューション(LTE)ネットワーク、第3世代(3G)ネットワーク、符号分割多元接続(CDMA)ネットワークなど)、公的地域モバイルネットワーク(PLMN)、ローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)、メトロポリタン・エリア・ネットワーク(MAN)、電話ネットワーク(例えば、公衆交換電話網(PSTN))、プライベートネットワーク、アドホックネットワーク、イントラネット、インターネット、光ファイバベースのネットワークなど、及び/又はそれら若しくは他のタイプのネットワークの組合せを含んでもよい。
【0022】
図1に示されたデバイス及びネットワークの数及び配置は、一例として提供されている。実際には、図1に示されたものに比べて、更なるデバイス及び/若しくはネットワーク、少ないデバイス及び/若しくはネットワーク、異なるデバイス及び/若しくはネットワーク、又は異なる配置のデバイス及び/若しくはネットワークが存在してもよい。更に、図1に示された2つ以上のデバイスは、単一のデバイス内に実装されてもよく、又は図1に示された単一のデバイスは、複数の分散型デバイスとして実装されてもよい。追加又は代替として、環境100のデバイスのセット(例えば、1つ又は複数のデバイス)は、環境100のデバイスの別のセットによって実施されるものとして記載された1つ又は複数の機能を実施してもよい。
【0023】
図2は、図1の1つ又は複数のデバイスの例示的な構成要素のブロック図である。
【0024】
デバイス200は、ユーザデバイス110及び/又はプラットフォーム120に対応してもよい。図2に示されたように、デバイス200は、バス210、プロセッサ220、メモリ230、記憶構成要素240、入力構成要素250、出力構成要素260、及び通信インターフェース270を含んでもよい。
【0025】
バス210は、デバイス200の構成要素間の通信を可能にする構成要素を含む。プロセッサ220は、ハードウェア、ファームウェア、又はハードウェアとソフトウェアの組合せで実装される。プロセッサ220は、中央処理装置(CPU)、グラフィック処理装置(GPU)、加速処理装置(APU)、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、フィールドプログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、又は別のタイプの処理構成要素である。いくつかの実装形態では、プロセッサ220は、機能を実施するようにプログラムされることが可能な1つ又は複数のプロセッサを含む。メモリ230は、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、並びに/又はプロセッサ220が使用するための情報及び/若しくは命令を記憶する別のタイプの動的若しくは静的なストレージデバイス(例えば、フラッシュメモリ、磁気メモリ、及び/若しくは光メモリ)を含む。
【0026】
記憶構成要素240は、デバイス200の動作及び使用に関連する情報及び/又はソフトウェアを記憶する。例えば、記憶構成要素240は、対応するドライブとともに、ハードディスク(例えば、磁気ディスク、光ディスク、光磁気ディスク、及び/若しくはソリッド・ステート・ディスク)、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、フロッピーディスク、カートリッジ、磁気テープ、並びに/又は別のタイプの非一時的コンピュータ可読媒体を含んでもよい。
【0027】
入力構成要素250は、デバイス200がユーザ入力(例えば、タッチ・スクリーン・ディスプレイ、キーボード、キーパッド、マウス、ボタン、スイッチ、及び/又はマイクロフォン)などを介して情報を受信することを可能にする構成要素を含む。追加又は代替として、入力構成要素250は、情報を検知するためのセンサ(例えば、全地球測位システム(GPS)構成要素、加速度計、ジャイロスコープ、及び/又はアクチュエータ)を含んでもよい。出力構成要素260は、デバイス200(例えば、ディスプレイ、スピーカ、及び/又は1つ若しくは複数の発光ダイオード(LED))からの出力情報を提供する構成要素を含む。
【0028】
通信インターフェース270は、デバイス200が有線接続、ワイヤレス接続、又は有線接続とワイヤレス接続の組合せなどを介して他のデバイスと通信することを可能にする、トランシーバのような構成要素(例えば、トランシーバ並びに/又は別個の受信機及び送信機)を含む。通信インターフェース270は、デバイス200が別のデバイスから情報を受信し、及び/又は別のデバイスに情報を提供することを可能にし得る。例えば、通信インターフェース270は、イーサネットインターフェース、光インターフェース、同軸インターフェース、赤外線インターフェース、無線周波数(RF)インターフェース、ユニバーサル・シリアル・バス(USB)インターフェース、Wi-Fiインターフェース、セルラー・ネットワーク・インターフェースなどを含んでもよい。
【0029】
デバイス200は、本明細書に記載された1つ又は複数のプロセスを実施し得る。デバイス200は、プロセッサ220がメモリ230及び/又は記憶構成要素240などの非一時的コンピュータ可読媒体によって記憶されたソフトウェア命令を実行することに応答して、これらのプロセスを実施し得る。コンピュータ可読媒体は、本明細書では非一時的メモリデバイスと定義される。メモリデバイスは、単一の物理ストレージデバイス内のメモリ空間、又は複数の物理ストレージデバイスにわたって広がるメモリ空間を含む。
【0030】
ソフトウェア命令は、別のコンピュータ可読媒体から、又は通信インターフェース270を介して別のデバイスから、メモリ230及び/又は記憶構成要素240に読み込まれてもよい。メモリ230及び/又は記憶構成要素240に記憶されたソフトウェア命令は、実行されると、本明細書に記載された1つ又は複数のプロセスをプロセッサ220に実施させ得る。追加又は代替として、ハード有線回路は、本明細書に記載された1つ又は複数のプロセスを実施するために、ソフトウェア命令の代わりに、又はソフトウェア命令と組み合わせて使用されてもよい。このように、本明細書に記載された実装形態は、ハードウェア回路とソフトウェアのいかなる特定の組合せにも限定されない。
【0031】
図2に示された構成要素の数及び配置は、一例として提供されている。実際には、デバイス200は、図2に示された構成要素に比べて、更なる構成要素、少ない構成要素、異なる構成要素、又は異なる配置の構成要素を含んでもよい。追加又は代替として、デバイス200の構成要素のセット(例えば、1つ又は複数の構成要素)は、デバイス200の構成要素の別のセットによって実施されるものとして記載された1つ又は複数の機能を実施してもよい。
【0032】
次に、メタ学習によるレート制御を用いた適応ニューラル画像圧縮のための方法及び装置について詳細に説明する。
【0033】
本開示は、任意の滑らかなビットレート制御をサポートするメタNICフレームワークを提案する。メタ学習メカニズムは、現在の入力画像及び目標ビットレートに基づいて、基礎となるNICモデルのレート適応重みパラメータを適応的に計算するために使用され、これにより、単一のメタNICモデルインスタンスは、任意の滑らかな様々なビットレートで画像圧縮を達成することができる。
【0034】
サイズ(h、w、c)の入力画像xが与えられ、ここで、h、w、cはそれぞれ、高さ、幅、チャネル数であり、NICワークフローのテスト段階の目標は、以下のように記述することができる。記憶及び伝送のためにコンパクトな圧縮表現
【数1】
が計算される。次に、圧縮表現
【数2】
に基づいて、出力画像
【数3】
が再構成され、そして、再構成された出力画像
【数4】
は、元の入力画像xと同様であり得る。歪み損失
【数5】
は、ピーク信号対雑音比(PSNR)、又は構造的類似性指数尺度(SSIM)などの再構成誤差を測定するために使用される。圧縮表現
【数6】
のビット消費を測定するために、レート損失
【数7】
が計算される。したがって、トレードオフハイパーパラメータλが、ジョイントレート歪み(R-D)損失を形成するために使用される。
【0035】
【数8】
【0036】
大きいハイパーパラメータλを用いた訓練では、歪みは小さいがビット消費の多い圧縮モデルとなり、その逆もまた同様である。従来、所定のハイパーパラメータλの各値について、NICモデルインスタンスは訓練されるが、これはハイパーパラメータλの他の値ではうまく機能しない。したがって、圧縮ストリームの複数のビットレートを達成するために、従来の方法は、複数のモデルインスタンスを訓練し、及び記憶する必要があり得る。また、実際にはハイパーパラメータλの可能な値ごとにモデルを訓練することは困難であるため、従来の方法は、任意の滑らかなビットレート制御を達成することができない。
【0037】
図3A及び図3Bは、実施形態による、メタ学習によるレート制御を用いた適応ニューラル画像圧縮のためのメタNICアーキテクチャ300A及び300Bのブロック図である。
【0038】
図3Aに示すように、メタNICアーキテクチャ300Aは、共有符号化NN305、適応符号化NN310、共有復号NN315、及び適応復号NN320を含む。
【0039】
図3Bに示すように、メタNICアーキテクチャ300Bは、共有符号化レイヤ325及び330と、適応符号化レイヤ335及び340と、共有復号レイヤ345及び350と、適応復号レイヤ355及び360と、を含む。
【0040】
本開示では、基礎をなすNIC符号化器及び基礎をなすNIC復号器のモデルパラメータは、4つの部分
【数9】
に分離され、それぞれ、共有符号化パラメータ(SEP)、適応符号化パラメータ(AEP)、共有復号パラメータ(SDP)、及び適応復号パラメータ(ADP)を示す。図3A及び図3Bは、NICネットワークアーキテクチャの2つの実施形態を示している。
【0041】
図3Aでは、SEP、SDP、AEP、及びADPは、個々のNNモジュールに分離され、これらの個々のモジュールは、ネットワーク前進計算のために順次互いに接続される。ここで、図3Aは、これらの個々のNNモジュールを接続する順番を示している。他の順番を本明細書で使用してもよい。
【0042】
図3Bでは、パラメータ分割はNNレイヤ内にある。
【数10】
は、NIC符号化器の第i番目のレイヤ及びNIC復号器の第j番目のレイヤに関するSEP、AEP、SDP、及びADPを、それぞれ表すものとする。ネットワークは、それぞれSEP及びAEP(又はSDP及びADP)の対応する入力に基づいて、推論出力を計算し、これらの出力は、結合され(例えば、加算、連結、乗算などによって)、次いで次のレイヤに送られる。
【0043】
図3Aの実施形態は、共有符号化NN305
【数11】
におけるレイヤが空であり、適応符号化NN310
【数12】
におけるレイヤが空であり、共有復号NN315
【数13】
におけるレイヤが空であり、及び適応復号NN320
【数14】
におけるレイヤが空である、図1Bのケースとして見ることができる。したがって、他の実施形態では、図3A及び図3Bのネットワーク構造を組み合わせることができ、NICアーキテクチャは、純粋な共有符号化/復号レイヤ及び/又は純粋な適応符号化/復号レイヤと、部分的な共有符号化/復号パラメータ及び部分的な適応符号化/復号パラメータを有する混合レイヤとの両方を含む。
【0044】
図4Aは、実施形態による、テスト段階中のメタ学習によるレート制御を用いた適応ニューラル画像圧縮のための装置400のブロック図である。
【0045】
図4Aに示すように、装置400は、メタNIC符号化器410及びメタNIC復号器420を含む。
【0046】
図4Aは、メタNICフレームワークのテスト段階の全体的なワークフローを示している。
【数15】
及び
【数16】
は、メタNIC符号化器410の第i番目のレイヤのSEP及びAEPを、それぞれ表すものとする。これは、完全に共有されているレイヤの場合であるので、
【数17】
は空である、例示的な表記である。完全に適応的なレイヤの場合、
【数18】
は空である。言い換えれば、この表記を、図3A及び図3Bの両方の実施形態に使用することができる。
【0047】
入力画像xが与えられ、目標トレードオフハイパーパラメータλが与えられると、メタNIC符号化器410は、圧縮表現
【数19】
を計算する。メタNIC符号化器410では、入力画像xがメタNIC符号化NNを通過する。f(i)及びf(i+1)は、第i番目のレイヤの入力テンソル及び出力テンソルを表すものとする。
【0048】
図4Bは、図4Aに示された装置400のメタNIC符号化器410のブロック図である。
【0049】
図4Bに示すように、メタNIC符号化器410は、SEP推論部412、AEP予測部414、及びAEP推論部416を有する。
【0050】
図4Bは、第i番目のレイヤ用のメタNIC符号化器410の推論ワークフローの例示的な実施形態を与えている。現在の入力f(i)及びSEP
【数20】
に基づいて、SEP推論部412は、第i番目のレイヤのSEPを用いた前進計算によってモデル化された共有推論関数
【数21】
に基づいて、共有特徴g(i)を計算する。現在の入力f(i)、共有特徴g(i)、AEP
【数22】
及びハイパーパラメータλに基づいて、AEP予測部414は、第i番目のレイヤの推定AEP
【数23】
を計算する。AEP予測部414は、例えば、元のAEP
【数24】
、現在の入力f(i)、及び目標ハイパーパラメータλに基づいて、更新された推定AEP
【数25】
を予測する畳み込みレイヤ及び全接続レイヤを含むNNであってもよい。いくつかの実施形態では、現在の入力f(i)は、AEP予測部414への入力として使用される。いくつかの他の実施形態では、現在の入力f(i)の代わりに、共有特徴g(i)が使用される。他の実施形態では、SEP損失を、共有特徴g(i)に基づいて計算することができ、損失の勾配が、AEP予測部414への入力として使用される。推定AEP
【数26】
及び共有特徴g(i)に基づいて、AEP推論部416は、第i番目のレイヤにおいて推定AEPを用いた前進計算によってモデル化されたAEP推論関数
【数27】
に基づいて、出力テンソルf(i+1)を計算する。
【0051】
なお、図4Bで説明したワークフローは例示的な表記である。AEP
【数28】
と完全に共有されるレイヤが空である場合、AEP関連モジュール及びf(i+1)=g(i)は省略されてもよい。SEP
【数29】
と完全に適応的であるレイヤが空である場合、SEP関連モジュール及びg(i)=f(i)は省略されてもよい。
【0052】
メタNIC符号化器410に合計N個のレイヤがあると仮定すると、最後のレイヤの出力は圧縮表現
【数30】
であり、これは(例えば、量子化及びエントロピー符号化によってコンパクトなビットストリームに更に圧縮された後で)、メタNIC復号器420に送信される。
【0053】
再び図4Aを参照して、復号器側で、
【数31】
及び
【数32】
は、メタNIC復号器420の第j番目のレイヤのSDP及びADPをそれぞれ、表すものとする。メタNIC符号化器410と同様に、これは、完全に共有されるレイヤの場合であるので、
【数33】
が空であり、完全に適応性のあるレイヤの場合であるので、
【数34】
が空である、例示的な表記である。
【0054】
復号器側では、復元された圧縮表現
【数35】
が、エントロピー復号及び逆量子化によって、メタNIC符号化器410から送信されたビットストリームから取得される。復元された圧縮表現
【数36】
及び目標トレードオフハイパーパラメータλに基づいて、メタNIC復号器420は、再構成された出力画像
【数37】
を計算する。メタNIC復号器420では、復元された圧縮表現
【数38】
は、メタNIC復号NNを通過する。f(j)及びf(j+1)は、第j番目のレイヤの入力テンソル及び出力テンソルを表すものとする。
【0055】
図4Cは、図4Aに示された装置400のメタNIC復号器420のブロック図である。
【0056】
図4Cに示すように、メタNIC復号器420は、SDP推論部422と、ADP予測部424と、ADP推論部426と、を含む。
【0057】
図4Cは、第j番目のレイヤのためのメタNIC復号器420の推論ワークフローの例示的な実施形態を与えている。現在の入力f(j)及びSDP
【数39】
に基づいて、SDP推論部422は、第j番目のレイヤのSDPを用いたネットワーク前進計算によってモデル化された共有推論関数
【数40】
に基づいて、共有特徴量g(j)を計算する。現在の入力f(j)、共有特徴g(j)、ADP
【数41】
及びハイパーパラメータλに基づいて、ADP予測部424は、j番目のレイヤの推定ADP
【数42】
を計算する。ADP予測部424は、例えば、元のADP
【数43】
、現在の入力f(j)、及び目標ハイパーパラメータλに基づいて、更新された推定
【数44】
を予測する畳み込みレイヤ及び全接続レイヤを有するNNであってもよい。いくつかの実施形態では、現在の入力f(j)は、ADP予測部424への入力として使用される。いくつかの他の実施形態では、共有特徴g(j)が、現在の入力f(j)の代わりに使用される。他の実施形態では、SDP損失が、共有特徴量g(j)に基づいて計算され、損失の勾配が、ADP予測部424への入力として使用される。推定されたADP
【数45】
及び共有特徴g(j)に基づいて、ADP推論部426は、第j番目のレイヤの推定されたADPを用いたネットワーク前進計算によってモデル化されたADP推論関数
【数46】
に基づいて、出力テンソルf(j+1)を計算する。
【0058】
なお、図4Cで説明したワークフローは、例示的な表記である。ADP
【数47】
と完全に共有されるレイヤが空である場合、ADP関連モジュール及びf(j+1)=g(j)は省略されてもよい。SDP
【数48】
と完全に適応的であるレイヤが空である場合、SDP関連モジュール及びg(j)=f(j)は省略されてもよい。
【0059】
メタNIC復号器420に合計M個のレイヤがあると仮定すると、最後のレイヤの出力は再構成画像出力
【数49】
である。
【0060】
メタNICフレームワークは、任意の滑らかなトレードオフのハイパーパラメータλを可能にし、処理ワークフローは、目標ハイパーパラメータλに適合するように圧縮表現及び再構成出力画像を計算することに留意されたい。
【0061】
いくつかの実施形態では、トレードオフハイパーパラメータλは、符号化器及び復号器について同じである。いくつかの他の実施形態では、ハイパーパラメータλは、メタNIC符号化器410及びメタNIC復号器420について異なり得る。そのような場合、メタNIC復号器420は、圧縮表現を、元の符号化目標品質とは異なる目標品質に適合させようと試みる。
【0062】
場合によっては、AEP予測部414及びADP予測部424が、入力f(i)又はf(j)を考慮して/考慮せずに、トレードオフハイパーパラメータの所定のセットにわたって予測を実施するだけであるとき、メタNICモデルは、複数の所定のビットレートの圧縮効果に対応するために、1つのモデルインスタンスを使用するマルチレートNICモデルに縮小される。
【0063】
図5は、実施形態による、訓練段階中のメタ学習によるレート制御を用いた適応ニューラル画像圧縮のための訓練装置500のブロック図である。
【0064】
図5に示すように、訓練装置500は、タスクサンプラ510と、内側ループ損失生成器520と、内側ループ更新部530と、メタ損失生成器540と、メタ更新部550と、重み更新部560と、を含む。
【0065】
訓練プロセスは、図4AのメタNIC符号化器410についてのSEP
【数50】
及びAEP
【数51】
、並びに図4AのメタNIC復号器420についてのSDP
【数52】
及びADP
【数53】
、並びにAEP予測NN(Φとして示されるモデルパラメータ)及びADP予測NN(Φとして示されるモデルパラメータ)を、学習することを目的とする。
【0066】
実施形態では、訓練目的のために、モデル非依存型メタ学習(MAML)メカニズムが使用される。図5は、メタ訓練フレームワークの例示的なワークフローを与えている。他のメタ訓練アルゴリズムを、ここで使用することができる。
【0067】
訓練の場合、訓練データDtr(λ)のセットがあり、ここで、i=1、・・・、K、各Dtr(λ)は、訓練トレードオフハイパーパラメータλに対応し、合計でK個の訓練トレードオフハイパーパラメータ(したがって、K個の訓練データセット)がある。更に、検証データDval(λ)のセットがあり、ここで、j=1、・・・、P、各Dval(λ)は、検証トレードオフハイパーパラメータλに対応し、合計でP個の検証トレードオフハイパーパラメータがある。検証トレードオフハイパーパラメータは、訓練セットとは異なるハイパーパラメータを含む。検証トレードオフハイパーパラメータはまた、訓練セットからのハイパーパラメータを含むことができる。
【0068】
目標トレードオフハイパーパラメータを有するNICタスクが、タスク分布P(λ)から引き出されるという仮定の下で、全体的な訓練目標は、すべての(訓練及び将来見えない)トレードオフハイパーパラメータに広く適用され得るように、メタNICモデルを学習することである。これを達成するために、メタNICモデルを学習するための損失は、すべての訓練トレードオフハイパーパラメータにわたる、すべての訓練データセットにわたって最小化される。
【0069】
【数54】
は、SEP及びSDPにおけるすべての共有パラメータを含むものとし、
【数55】
は、AEP及びADPにおけるすべての適応パラメータを含むものとする。MAML訓練プロセスは、勾配ベースのパラメータ更新のために、外側ループ及び内側ループを有し得る。各外側ループ反復について、タスクサンプラ510は、最初にK’個の訓練トレードオフハイパーパラメータのセットをサンプリングする(K’≦K)。次いで、各サンプリングされた訓練トレードオフハイパーパラメータλについて、タスクサンプラ510は、訓練データDtr(λ)のセットから訓練データ
【数56】
のセットをサンプリングする。また、タスクサンプラ510は、P’(P’≦P)個の検証トレードオフハイパーパラメータのセットをサンプリングし、サンプリングした各検証ハイパーパラメータλについて、検証データDval(λ)のセットから検証データ
【数57】
のセットをサンプリングする。次に、サンプリングした各データ
【数58】
について、メタNIC前進計算が、現在のパラメータΘ、Θ、Φ、及びΦに基づいて実行され、次いで、内側ループ損失生成器520は、累積内側ループ損失
【数59】
を計算する。
【0070】
【数60】
【0071】
損失関数L(x、Θ、Θ、Φ、Φ、λ)は、式(1)のR-D損失と、別の正則化損失(例えば、異なるトレードオフを対象とする中間ネットワーク出力を区別する補助損失)と、を含み得る。次に、内側ループ損失
【数61】
に基づいて、λのハイパーパラメータとして所与のステップサイズをasi及びaaiとすると、内側ループ更新部530は、更新されたタスク固有パラメータ更新を計算する。
【0072】
【数62】
及び
【0073】
【数63】
【0074】
累積内側ループ損失
【数64】
の勾配
【数65】
及び勾配
【数66】
はそれぞれ、適応パラメータ
【数67】
及び
【数68】
の更新バージョンを計算するために使用される。
【0075】
次に、メタ損失生成器540は、外側メタ対象、又はすべてのサンプリングされた検証ハイパーパラメータにわたる損失を計算する。
【0076】
【数69】
及び
【0077】
【数70】
【0078】
ここで、
【数71】
は、パラメータ
【数72】

【数73】
、Φ、Φを使用して、メタNIC前進計算に基づいて、入力xについて計算された損失である。λのハイパーパラメータとしてステップサイズをβaj及びβsjとすると、メタ更新部550は、モデルパラメータを以下のように更新する。
【0079】
【数74】
、及び
【0080】
【数75】
【0081】
いくつかの実施形態では、Θは、内側ループ内で更新されない、すなわち、asi=0、
【数76】
である。これは、訓練プロセスを安定させるために役立ち得る。
【0082】
AEP予測NN及びADP予測NNのパラメータΦ、Φについては、重み更新部560が定期的な訓練により更新する。すなわち、訓練及び検証データDtr(λ)、i=1、・・・、K、Dval(λ)、j=1、・・・、Pに従って、現在のパラメータΘ、Θ、Φ、Φに基づいて、すべてのサンプルx∈Dtr(λ)についての損失L(x、Θ、Θ、Φ、Φ、λ)及びすべてのサンプルx∈Dval(λ)についての損失L(x、Θ、Θ、Φ、Φ、λ)が計算される。これらすべての損失の勾配は、定期的なバックプロパゲーションによって、Φ、Φ上でパラメータ更新を実施するために、累積(例えば、合計)され得る。
【0083】
なお、本開示は、これらのモデルパラメータを更新するための最適化アルゴリズムや損失関数に何ら制約を課すものではない。
【0084】
図4BのAEP予測部414及びメタNICモデルのADP予測部424のみが、訓練トレードオフハイパーパラメータの所定のセットにわたって予測を実施する場合、検証トレードオフハイパーパラメータは、訓練ハイパーパラメータと同じになる。同じMAML訓練手順を使用して、この縮小されたメタNICモデル(すなわち、複数の所定のビットレートの圧縮効果に対応するために、1つのモデルインスタンスを使用するマルチレートNICモデル)を訓練することができる。
【0085】
本明細書に記載の実施形態により、1つのメタNICモデルインスタンスのみを使用する機能は、メタ学習を使用して任意の滑らかなビットレート制御を用いた画像圧縮を達成することができる。本方法及び装置を、単一のモデルによるマルチレート圧縮と、滑らかなビットレート制御との両方に使用することができる。実施形態は、様々な基礎となるNICモデル及びメタ学習方法に対応する柔軟なフレームワークを提供する。
【0086】
図6は、実施形態による、メタ学習によるレート制御を用いた適応ニューラル画像圧縮の方法のフローチャートの図である。
【0087】
いくつかの実装形態では、図6の1つ又は複数のプロセスブロックは、プラットフォーム120によって実施されてもよい。いくつかの実装形態では、図6の1つ又は複数のプロセスブロックは、ユーザデバイス110などのプラットフォーム120とは別個である、又はプラットフォーム120を含む別のデバイス若しくはデバイスのグループによって実施されてもよい。
【0088】
図6に示すように、方法600は、動作610において、入力画像及びハイパーパラメータを受信するステップを含む。
【0089】
方法600は、動作620において、圧縮表現を生成するために、符号化ニューラルネットワークを使用して、受信したハイパーパラメータに基づいて、受信した入力画像を符号化するステップを含む。
【0090】
符号化するステップは、第1の共有符号化パラメータを有する第1の共有符号化レイヤを使用して、受信した入力画像に対して第1の共有符号化を実施するステップと、第1の適応符号化パラメータを有する第1の適応符号化レイヤを使用して、受信した入力画像に対して第1の適応符号化を実施するステップと、第1の結合出力を生成するために、第1の共有符号化した入力画像と第1の適応符号化した入力画像とを結合するステップと、第2の共有符号化パラメータを有する第2の共有符号化レイヤを使用して、第1の結合出力に対して第2の共有符号化を実施するステップと、を含む。符号化するステップは、第2の適応符号化パラメータを有する第2の適応符号化レイヤを使用して、第1の結合出力に対して第2の適応符号化を実施するステップを更に含み得る。
【0091】
方法600は、動作630において、復元された圧縮表現及びハイパーパラメータを受信するステップを含む。
【0092】
方法600は、動作640において、出力画像を再構成するために、復号ニューラルネットワークを使用して、受信したハイパーパラメータに基づいて、受信した復元された圧縮表現を復号するステップを含む。
【0093】
復号するステップは、第1の共有復号パラメータを有する第1の共有復号レイヤを使用して、受信した復元された圧縮表現に対して第1の共有復号を実施するステップと、第1の適応復号パラメータを有する第1の適応復号レイヤを使用して、受信した復元された圧縮表現に対して第1の適応復号を実施するステップと、第2の結合出力を生成するために、第1の共有復号した復元された圧縮表現と第1の適応復号した復元された圧縮表現とを結合するステップと、第2の共有復号パラメータを有する第2の共有復号レイヤを使用して、第2の結合出力に対して第2の共有復号を実施するステップと、第2の適応復号パラメータを有する第2の適応復号レイヤを使用して、第2の結合出力に対して第2の適応復号を実施するステップと、を含む。
【0094】
符号化するステップは、受信した入力画像及び第1の共有符号化パラメータに基づいて、共有特徴を生成するステップと、予測ニューラルネットワークを使用して、受信した入力画像、第1の適応符号化パラメータ、生成した共有特徴、及び受信したハイパーパラメータのうちの1つ又は複数に基づいて、推定適応符号化パラメータを生成するステップと、推定適応符号化パラメータ及び受信したハイパーパラメータに基づいて、圧縮表現を生成するステップと、を含み得る。
【0095】
予測ニューラルネットワークは、受信したハイパーパラメータ、第1の共有符号化パラメータ、第1の適応符号化パラメータ、第1の共有復号パラメータ、第1の適応復号パラメータ、及び予測ニューラルネットワークの予測パラメータに基づいて、受信したハイパーパラメータに対応する訓練データのための第1の損失、及び受信したハイパーパラメータに対応する検証データのための第2の損失を生成することによって、並びに、生成した第1の損失の勾配及び生成した第2の損失の勾配に基づいて、予測パラメータを更新することによって、訓練され得る。
【0096】
復号するステップは、受信した入力画像及び第1の共有復号パラメータに基づいて、共有特徴を生成するステップと、予測ニューラルネットワークを使用して、受信した入力画像、第1の適応復号パラメータ、生成した共有特徴、及び受信したハイパーパラメータのうちの1つ又は複数に基づいて、推定適応復号パラメータを生成するステップと、推定適応復号パラメータ及び受信したハイパーパラメータに基づいて、出力画像を再構成するステップと、を含み得る。
【0097】
予測ニューラルネットワークは、受信したハイパーパラメータ、第1の共有符号化パラメータ、第1の適応符号化パラメータ、第1の共有復号パラメータ、第1の適応復号パラメータ、及び予測ニューラルネットワークの予測パラメータに基づいて、受信したハイパーパラメータに対応する訓練データのための第1の損失、及び受信したハイパーパラメータに対応する検証データのための第2の損失を生成することによって、並びに、生成した第1の損失の勾配及び生成した第2の損失の勾配に基づいて、予測パラメータを更新することによって、訓練され得る。
【0098】
符号化ニューラルネットワーク及び復号ニューラルネットワークは、受信したハイパーパラメータ、第1の共有符号化パラメータ、第1の適応符号化パラメータ、第1の共有復号パラメータ、及び第1の適応復号パラメータに基づいて、受信したハイパーパラメータに対応する訓練データのための内側ループ損失を生成することによって、生成した内側ループ損失の勾配に基づいて、第1の共有符号化パラメータ、第1の適応符号化パラメータ、第1の共有復号パラメータ、及び第1の適応復号パラメータの第1の更新をすることによって、受信したハイパーパラメータ、第1の更新をした第1の共有符号化パラメータ、第1の更新をした第1の適応符号化パラメータ、第1の更新をした第1の共有復号パラメータ、及び第1の更新をした第1の適応復号パラメータに基づいて、受信したハイパーパラメータに対応する検証データのためのメタ損失を生成することによって、並びに、生成したメタ損失の勾配に基づいて、第1の更新をした第1の共有符号化パラメータ、第1の更新をした第1の適応符号化パラメータ、第1の更新をした第1の共有復号パラメータ、及び第1の更新をした第1の適応復号パラメータの第2の更新をすることによって、訓練され得る。
【0099】
図6は方法600の例示的なブロックを示すが、いくつかの実装形態では、方法600は、図6に描写されたブロックに比べて、更なるブロック、少ないブロック、異なるブロック、又は異なる配置のブロックを含んでもよい。追加又は代替として、方法600のブロックのうちの2つ以上は、並行して実施されてもよい。
【0100】
図7は、実施形態による、ニューラル画像圧縮のためのタスク適応事前処理のための装置700のブロック図である。
【0101】
図7に示すように、装置700は、第1の受信コード710と、符号化コード720と、第2の受信コード730と、復号コード740と、を含む。
【0102】
第1の受信コード710は、少なくとも1つのプロセッサに、入力画像及びハイパーパラメータを受信させるように構成される。
【0103】
符号化コード720は、少なくとも1つのプロセッサに、圧縮表現を生成させるために、符号化ニューラルネットワークを使用して、受信したハイパーパラメータに基づいて、受信した入力画像を符号化させるように構成される。
【0104】
符号化コード720は、少なくとも1つのプロセッサに、第1の共有符号化パラメータを有する第1の共有符号化レイヤを使用して、受信した入力画像に対して第1の共有符号化を実施させ、第1の適応符号化パラメータを有する第1の適応符号化レイヤを使用して、受信した入力画像に対して第1の適応符号化を実施させ、第1の結合出力を生成させるために、第1の共有符号化した入力画像と第1の適応符号化した入力画像とを結合させ、及び、第2の共有符号化パラメータを有する第2の共有符号化レイヤを使用して、第1の結合出力に対して第2の共有符号化を実施させる、ように更に構成される。符号化コード720は、少なくとも1つのプロセッサに、第2の適応符号化パラメータを有する第2の適応符号化レイヤを使用して、第1の結合出力に対して第2の適応符号化を実施させるように更に構成されてもよい。
【0105】
第2の受信コード730は、少なくとも1つのプロセッサに、復元された圧縮表現及びハイパーパラメータを受信させるように構成される。
【0106】
復号コード740は、少なくとも1つのプロセッサに、出力画像を再構成させるために、復号ニューラルネットワークを使用して、受信したハイパーパラメータに基づいて、受信した復元された圧縮表現を復号させるように構成される。
【0107】
復号コード740は、少なくとも1つのプロセッサに、第1の共有復号パラメータを有する第1の共有復号レイヤを使用して、受信した復元された圧縮表現に対して第1の共有復号を実施させ、第1の適応復号パラメータを有する第1の適応復号レイヤを使用して、受信した復元された圧縮表現に対して第1の適応復号を実施させ、第2の結合出力を生成させるために、第1の共有復号した復元された圧縮表現と第1の適応復号した復元された圧縮表現とを結合させ、第2の共有復号パラメータを有する第2の共有復号レイヤを使用して、第2の結合出力に対して第2の共有復号を実施させ、及び、第2の適応復号パラメータを有する第2の適応復号レイヤを使用して、第2の結合出力に対して第2の適応復号を実施させる、ように更に構成される。
【0108】
符号化コード720は、少なくとも1つのプロセッサに、受信した入力画像及び第1の共有符号化パラメータに基づいて、共有特徴を生成させ、予測ニューラルネットワークを使用して、受信した入力画像、第1の適応符号化パラメータ、生成した共有特徴、及び受信したハイパーパラメータのうちの1つ又は複数に基づいて、推定適応符号化パラメータを生成させ、並びに、推定適応符号化パラメータ及び受信したハイパーパラメータに基づいて、圧縮表現を生成させる、ように更に構成されてもよい。
【0109】
予測ニューラルネットワークは、受信したハイパーパラメータ、第1の共有符号化パラメータ、第1の適応符号化パラメータ、第1の共有復号パラメータ、第1の適応復号パラメータ、及び予測ニューラルネットワークの予測パラメータに基づいて、受信したハイパーパラメータに対応する訓練データのための第1の損失、及び受信したハイパーパラメータに対応する検証データのための第2の損失を生成することによって、並びに、生成した第1の損失の勾配及び生成した第2の損失の勾配に基づいて、予測パラメータを更新することによって、訓練され得る。
【0110】
復号コード740は、少なくとも1つのプロセッサに、受信した入力画像及び第1の共有復号パラメータに基づいて、共有特徴を生成させ、予測ニューラルネットワークを使用して、受信した入力画像、第1の適応復号パラメータ、生成した共有特徴、及び受信したハイパーパラメータのうちの1つ又は複数に基づいて、推定適応復号パラメータを生成させ、並びに、推定適応復号パラメータ及び受信したハイパーパラメータに基づいて、出力画像を再構成させる、ように更に構成されてもよい。
【0111】
予測ニューラルネットワークは、受信したハイパーパラメータ、第1の共有符号化パラメータ、第1の適応符号化パラメータ、第1の共有復号パラメータ、第1の適応復号パラメータ、及び予測ニューラルネットワークの予測パラメータに基づいて、受信したハイパーパラメータに対応する訓練データのための第1の損失、及び受信したハイパーパラメータに対応する検証データのための第2の損失を生成することによって、並びに、生成した第1の損失の勾配及び生成した第2の損失の勾配に基づいて、予測パラメータを更新することによって、訓練され得る。
【0112】
符号化ニューラルネットワーク及び復号ニューラルネットワークは、受信したハイパーパラメータ、第1の共有符号化パラメータ、第1の適応符号化パラメータ、第1の共有復号パラメータ、及び第1の適応復号パラメータに基づいて、受信したハイパーパラメータに対応する訓練データのための内側ループ損失を生成することによって、生成した内側ループ損失の勾配に基づいて、第1の共有符号化パラメータ、第1の適応符号化パラメータ、第1の共有復号パラメータ、及び第1の適応復号パラメータの第1の更新をすることによって、受信したハイパーパラメータ、第1の更新をした第1の共有符号化パラメータ、第1の更新をした第1の適応符号化パラメータ、第1の更新をした第1の共有復号パラメータ、及び第1の更新をした第1の適応復号パラメータに基づいて、受信したハイパーパラメータに対応する検証データのためのメタ損失を生成することによって、並びに、生成したメタ損失の勾配に基づいて、第1の更新をした第1の共有符号化パラメータ、第1の更新をした第1の適応符号化パラメータ、第1の更新をした第1の共有復号パラメータ、及び第1の更新をした第1の適応復号パラメータの第2の更新をすることによって、訓練され得る。
【0113】
提案された方法は、別々に使用されてもよく、任意の順序で組み合わされてもよい。更に、方法(又は実施形態)、符号化器、及び復号器の各々は、処理回路(例えば、1つ若しくは複数のプロセッサ又は1つ若しくは複数の集積回路)によって実装されてもよい。一例では、1つ又は複数のプロセッサは、非一時的コンピュータ可読媒体に記憶されたプログラムを実行する。
【0114】
前述の開示は、例示及び説明を提供するが、網羅的であること、又は実装形態を開示された正確な形態に限定することを意図するものではない。修正形態及び変形形態は、上記の開示に照らして実現可能であり、又は実装形態の実践から取得されてもよい。
【0115】
本明細書で使用される構成要素という用語は、ハードウェア、ファームウェア、又はハードウェアとソフトウェアの組合せとして広く解釈されることを意図している。
【0116】
本明細書に記載のシステム及び/又は方法は、ハードウェア、ファームウェア、又はハードウェアとソフトウェアとの組合せの異なる形態で実装されてもよいことは明らかであろう。これらのシステム及び/又は方法を実装するために使用される実際の専用の制御ハードウェア又はソフトウェアコードは、実装形態を限定するものではない。したがって、システム及び/又は方法の動作及び挙動は、特定のソフトウェアコードを参照することなく本明細書に記載されており、ソフトウェア及びハードウェアは、本明細書の記載に基づいてシステム及び/又は方法を実装するように設計され得ることが理解される。
【0117】
特徴の組合せが特許請求の範囲に列挙され、及び/又は本明細書に開示されているが、これらの組合せは、可能な実装形態の開示を限定するものではない。実際には、これらの特徴の多くは、特許請求の範囲に具体的に列挙されていない、及び/又は本明細書に開示されていない方法で組み合わされてもよい。以下に列挙されている各従属請求項は1つの請求項のみに直接従属し得るが、可能な実施態様の開示は、請求項セット内の他のすべての請求項との組合せにおいて各従属請求項を含む。
【0118】
本明細書で使用される要素、行為、又は指示は、明示的にそのように記載されていない限り、重要又は必須であると解釈されなくてもよい。また、本明細書で使用される冠詞「a」及び「an」は、1つ又は複数の項目を含むものであり、「1つ又は複数」と同じ意味で使用されてもよい。更に、本明細書で使用される「セット」という用語は、1つ又は複数の項目(例えば、関連項目、非関連項目、関連項目と非関連項目の組合せなど)を含むものであり、「1つ又は複数」と同じ意味で使用されてもよい。1つの項目のみが対象とされる場合、「1つ」という用語又は同様の言葉が使用される。また、本明細書で使用される「有する(has)」、「有する(have)」、「有する(having)」などの用語は、オープンエンド用語であることが意図される。更に、「に基づいて」という語句は、特に明記されない限り、「に少なくとも部分的に基づいて」を意味するものである。
【符号の説明】
【0119】
100 環境
110 ユーザデバイス
120 プラットフォーム
122 クラウドコンピューティング環境
124 コンピューティングリソース
124-1 アプリケーション
124-2 仮想マシン
124-3 仮想化ストレージ
124-4 ハイパーバイザ
130 ネットワーク
200 デバイス
210 バス
220 プロセッサ
230 メモリ
240 記憶構成要素
250 入力構成要素
260 出力構成要素
270 通信インターフェース
300A、300B メタNICアーキテクチャ
305 共有符号化NN
310 適応符号化NN
315 共有復号NN
320 適応復号NN
325、330 共有符号化レイヤ
335、340 適応符号化レイヤ
345、350 共有復号レイヤ
355、360 適応復号レイヤ
400 装置
410 メタNIC符号化器
412 SEP推論部
414 AEP予測部
416 AEP推論部
420 メタNIC復号器
422 SDP推論部
424 ADP予測部
426 ADP推論部
500 訓練装置
510 タスクサンプラ
520 内部ループ損失生成器
530 内部ループ更新部
540 メタ損失生成器
550 メタ更新部
560 重み更新部
700 装置
710 第1の受信コード
720 符号化コード
730 第2の受信コード
740 復号コード
図1
図2
図3A
図3B
図4A
図4B
図4C
図5
図6
図7