IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ テンセント・アメリカ・エルエルシーの特許一覧

特表2022-553250エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム
<>
  • 特表-エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム 図1
  • 特表-エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム 図2
  • 特表-エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム 図3A
  • 特表-エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム 図3B
  • 特表-エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム 図4
  • 特表-エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム 図5
  • 特表-エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2022-12-22
(54)【発明の名称】エンドツーエンド画像圧縮のための特徴置換のための方法、装置およびコンピュータプログラム
(51)【国際特許分類】
   H04N 19/115 20140101AFI20221215BHJP
   G06N 3/04 20060101ALI20221215BHJP
   H04N 19/154 20140101ALI20221215BHJP
   H03M 7/30 20060101ALI20221215BHJP
   H04N 19/90 20140101ALI20221215BHJP
【FI】
H04N19/115
G06N3/04
H04N19/154
H03M7/30 Z
H04N19/90
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2022523026
(86)(22)【出願日】2021-05-07
(85)【翻訳文提出日】2022-04-15
(86)【国際出願番号】 US2021031334
(87)【国際公開番号】W WO2021231218
(87)【国際公開日】2021-11-18
(31)【優先権主張番号】63/023,694
(32)【優先日】2020-05-12
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】63/026,409
(32)【優先日】2020-05-18
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】17/242,534
(32)【優先日】2021-04-28
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】520353802
【氏名又は名称】テンセント・アメリカ・エルエルシー
(74)【代理人】
【識別番号】100110364
【弁理士】
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【弁理士】
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】シャオ・ワン
(72)【発明者】
【氏名】ウェイ・ジアン
(72)【発明者】
【氏名】ウェイ・ワン
(72)【発明者】
【氏名】シャン・リュウ
【テーマコード(参考)】
5C159
5J064
【Fターム(参考)】
5C159TA60
5C159TC08
5C159TC18
5J064BB13
5J064BB14
5J064BC02
5J064BC16
(57)【要約】
エンドツーエンド画像圧縮のための特徴置換の方法は、少なくとも1つのプロセッサによって実行され、符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化するステップと、圧縮表現を生成するために、第2のニューラルネットワークを使用して、生成された符号化表現を量子化するステップとを含む。第1のニューラルネットワークおよび第2のニューラルネットワークは、生成された圧縮表現のビットレートに基づいてレート損失を特定し、特定されたレート損失に基づいて生成された符号化表現を更新することによって訓練される。
【特許請求の範囲】
【請求項1】
エンドツーエンド画像圧縮のための特徴置換の方法であって、前記方法が少なくとも1つのプロセッサによって実行され、前記方法が、
符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化するステップと、
圧縮表現を生成するために、第2のニューラルネットワークを使用して、前記生成された符号化表現を量子化するステップと
を含み、
前記第1のニューラルネットワークおよび前記第2のニューラルネットワークが、
前記生成された圧縮表現のビットレートに基づいてレート損失を特定し、
前記特定されたレート損失に基づいて前記生成された符号化表現を更新する
ことによって訓練される、方法。
【請求項2】
出力画像を生成するために、第3のニューラルネットワークを使用して、前記生成された圧縮表現を復号するステップをさらに含む、請求項1に記載の方法。
【請求項3】
前記第1のニューラルネットワーク、前記第2のニューラルネットワーク、および前記第3のニューラルネットワークが、
前記入力画像と前記生成された出力画像との間の復元誤差に対応する歪み損失を特定し、
前記特定された歪み損失、前記特定されたレート損失、および入力されたハイパーパラメータに基づいて、前記生成された符号化表現を更新する
ことによって訓練される、請求項2に記載の方法。
【請求項4】
前記生成された符号化表現を更新する前記ステップが、以下の式:
【数1】
に基づいて全体的な損失を最適化するステップを含み、
【数2】
が前記全体的な損失であり、
【数3】
が前記生成された圧縮表現
【数4】
の前記ビットレートに基づいて特定された前記レート損失であり、λが前記入力されたハイパーパラメータであり、
【数5】
が前記入力画像xと前記生成された出力画像
【数6】
との間の前記復元誤差に対応する前記歪み損失である、
請求項3に記載の方法。
【請求項5】
前記第1のニューラルネットワーク、前記第2のニューラルネットワーク、および前記第3のニューラルネットワークが、
前記特定されたレート損失と目標レート損失との間の差と所定のハイパーパラメータとの間の最小値を特定し、
前記入力画像と前記生成された出力画像との間の復元誤差に対応する歪み損失を特定し、
前記特定された最小値、前記特定されたレート損失、および入力されたハイパーパラメータに基づいて、前記生成された符号化表現を更新する
ことによって訓練される、請求項2に記載の方法。
【請求項6】
前記生成された符号化表現を更新する前記ステップが、以下の式:
【数7】
に基づいて全体的な損失を最適化するステップを含み、
【数8】
が前記全体的な損失であり、ηが前記入力されたハイパーパラメータであり、
【数9】
が前記生成された圧縮表現
【数10】
の前記ビットレートに基づいて特定された前記レート損失であり、Rtargetが前記目標レート損失であり、∈が前記所定のハイパーパラメータであり、
【数11】
が前記入力画像xと前記生成された出力画像
【数12】
との間の前記復元誤差に対応する前記歪み損失である、
請求項5に記載の方法。
【請求項7】
前記復元誤差が、ピーク信号対雑音比(PSNR)および/または構造類似性指数尺度(SSIM)を含む、請求項5に記載の方法。
【請求項8】
エンドツーエンド画像圧縮のための特徴置換のための装置であって、前記装置が
プログラムコードを記憶するように構成された少なくとも1つのメモリと、
前記プログラムコードを読み取り、前記プログラムコードによって指示されたように動作するように構成された少なくとも1つのプロセッサと
を備え、前記プログラムコードが、
符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化することを前記少なくとも1つのプロセッサに行わせるように構成された符号化コードと、
圧縮表現を生成するために、第2のニューラルネットワークを使用して、前記生成された符号化表現を量子化することを前記少なくとも1つのプロセッサに行わせるように構成された量子化コードと
を含み、
前記第1のニューラルネットワークおよび前記第2のニューラルネットワークが、
前記生成された圧縮表現のビットレートに基づいてレート損失を特定し、
前記特定されたレート損失に基づいて前記生成された符号化表現を更新する
ことによって訓練される、装置。
【請求項9】
出力画像を生成するために、第3のニューラルネットワークを使用して、前記生成された圧縮表現を復号することを前記少なくとも1つのプロセッサに行わせるように構成された復号コードをさらに備える、請求項8に記載の装置。
【請求項10】
前記第1のニューラルネットワーク、前記第2のニューラルネットワーク、および前記第3のニューラルネットワークが、
前記入力画像と前記生成された出力画像との間の復元誤差に対応する歪み損失を特定し、
前記特定された歪み損失、前記特定されたレート損失、および入力されたハイパーパラメータに基づいて、前記生成された符号化表現を更新する
ことによって訓練される、請求項9に記載の装置。
【請求項11】
前記生成された符号化表現が、以下の式:
【数13】
に基づいて全体的な損失を最適化することによって更新され、
【数14】
が前記全体的な損失であり、
【数15】
が前記生成された圧縮表現
【数16】
の前記ビットレートに基づいて特定された前記レート損失であり、λが前記入力されたハイパーパラメータであり、
【数17】
が前記入力画像xと前記生成された出力画像
【数18】
との間の前記復元誤差に対応する前記歪み損失である、
請求項10に記載の装置。
【請求項12】
前記第1のニューラルネットワーク、前記第2のニューラルネットワーク、および前記第3のニューラルネットワークが、
前記特定されたレート損失と目標レート損失との間の差と所定のハイパーパラメータとの間の最小値を特定し、
前記入力画像と前記生成された出力画像との間の復元誤差に対応する歪み損失を特定し、
前記特定された最小値、前記特定されたレート損失、および入力されたハイパーパラメータに基づいて、前記生成された符号化表現を更新する
ことによって訓練される、請求項9に記載の装置。
【請求項13】
前記生成された符号化表現が、以下の式:
【数19】
に基づいて全体的な損失を最適化することによって更新され、
【数20】
が前記全体的な損失であり、ηが前記入力されたハイパーパラメータであり、
【数21】
が前記生成された圧縮表現
【数22】
の前記ビットレートに基づいて特定された前記レート損失であり、Rtargetが前記目標レート損失であり、∈が前記所定のハイパーパラメータであり、
【数23】
が前記入力画像xと前記生成された出力画像
【数24】
との間の前記復元誤差に対応する前記歪み損失である、
請求項12に記載の装置。
【請求項14】
前記復元誤差が、ピーク信号対雑音比(PSNR)および/または構造類似性指数尺度(SSIM)を含む、請求項12に記載の装置。
【請求項15】
エンドツーエンド画像圧縮のための特徴置換のために、少なくとも1つのプロセッサによって実行されると、
符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化することと、
圧縮表現を生成するために、第2のニューラルネットワークを使用して、前記生成された符号化表現を量子化することと
を前記少なくとも1つのプロセッサに行わせる命令を記憶するための非一時的コンピュータ可読媒体であって、
前記第1のニューラルネットワークおよび前記第2のニューラルネットワークが、
前記生成された圧縮表現のビットレートに基づいてレート損失を特定し、
前記特定されたレート損失に基づいて前記生成された符号化表現を更新する
ことによって訓練される、非一時的コンピュータ可読媒体。
【請求項16】
前記命令が、前記少なくとも1つのプロセッサによって実行されると、出力画像を生成するために、第3のニューラルネットワークを使用して、前記生成された圧縮表現を復号することを前記少なくとも1つのプロセッサにさらに行わせる、請求項15に記載の非一時的コンピュータ可読媒体。
【請求項17】
前記第1のニューラルネットワーク、前記第2のニューラルネットワーク、および前記第3のニューラルネットワークが、
前記入力画像と前記生成された出力画像との間の復元誤差に対応する歪み損失を特定し、
前記特定された歪み損失、前記特定されたレート損失、および入力されたハイパーパラメータに基づいて、前記生成された符号化表現を更新する
ことによって訓練される、請求項16に記載の非一時的コンピュータ可読媒体。
【請求項18】
前記生成された符号化表現が、以下の式:
【数25】
に基づいて全体的な損失を最適化することによって更新され、
【数26】
が前記全体的な損失であり、
【数27】
が前記生成された圧縮表現
【数28】
の前記ビットレートに基づいて特定された前記レート損失であり、λが前記入力されたハイパーパラメータであり、
【数29】
が前記入力画像xと前記生成された出力画像
【数30】
との間の前記復元誤差に対応する前記歪み損失である、
請求項17に記載の非一時的コンピュータ可読媒体。
【請求項19】
前記第1のニューラルネットワーク、前記第2のニューラルネットワーク、および前記第3のニューラルネットワークが、
前記特定されたレート損失と目標レート損失との間の差と所定のハイパーパラメータとの間の最小値を特定し、
前記入力画像と前記生成された出力画像との間の復元誤差に対応する歪み損失を特定し、
前記特定された最小値、前記特定されたレート損失、および入力されたハイパーパラメータに基づいて、前記生成された符号化表現を更新する
ことによって訓練される、請求項16に記載の非一時的コンピュータ可読媒体。
【請求項20】
前記生成された符号化表現が、以下の式:
【数31】
に基づいて全体的な損失を最適化することによって更新され、
【数32】
が前記全体的な損失であり、ηが前記入力されたハイパーパラメータであり、
【数33】
が前記生成された圧縮表現
【数34】
の前記ビットレートに基づいて特定された前記レート損失であり、Rtargetが前記目標レート損失であり、∈が前記所定のハイパーパラメータであり、
【数35】
が前記入力画像xと前記生成された出力画像
【数36】
との間の前記復元誤差に対応する前記歪み損失である、
請求項19に記載の非一時的コンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本出願は、2020年5月12日に出願された米国仮特許出願第63/023,694号、2020年5月18日に出願された米国仮特許出願第63/026,409号、および2021年4月28日に出願された米国特許出願第17/242,534号に基づき、それらに対する優先権を主張し、それらの開示は全体として参照により本明細書に組み込まれる。
【背景技術】
【0002】
標準的なグループおよび企業は、将来のビデオコーディング技術の標準化に対する潜在的な需要を積極的に調査してきた。いくつかは、人工知能(AI)ベースのエンドツーエンド(E2E)画像およびビデオの圧縮に焦点を当てている。
【0003】
従来技術は有望な性能を示しているが、E2E画像圧縮の以下の2つの問題が未解決のままである。第1に、各深層ニューラルネットワーク(DNN)モデルが目標ビットレートで訓練されるビットレート制御を実現することは、他のビットレートで画像を圧縮するために適用された場合にうまく機能しない可能性があるので、困難な場合がある。第2に、各DNNモデルは、ピーク信号対雑音比(PSNR)および/または構造類似性指数尺度(SSIM)などのいくつかの目標訓練損失を最適化するように訓練される場合があり、これは他の目標訓練損失に対してうまく機能しない可能性がある。言い換えれば、異なるビットレートで、または異なる目標メトリックを使用して入力画像を圧縮する柔軟性を実現するために、複数のDNNモデルが訓練、格納、および展開される必要があり得、これは、格納と計算の両方において実用的であるために費用がかかりすぎる可能性がある。
【発明の概要】
【課題を解決するための手段】
【0004】
実施形態によれば、エンドツーエンド画像圧縮のための特徴置換の方法は、少なくとも1つのプロセッサによって実行され、符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化するステップと、圧縮表現を生成するために、第2のニューラルネットワークを使用して、生成された符号化表現を量子化するステップとを含む。第1のニューラルネットワークおよび第2のニューラルネットワークは、生成された圧縮表現のビットレートに基づいてレート損失を特定し、特定されたレート損失に基づいて生成された符号化表現を更新することによって訓練される。
【0005】
実施形態によれば、エンドツーエンド画像圧縮のための特徴置換のための装置は、プログラムコードを記憶するように構成された少なくとも1つのメモリと、プログラムコードを読み取り、プログラムコードによって指示されたように動作するように構成された少なくとも1つのプロセッサとを含む。プログラムコードは、符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化することを少なくとも1つのプロセッサに行わせるように構成された符号化コードと、圧縮表現を生成するために、第2のニューラルネットワークを使用して、生成された符号化表現を量子化することを少なくとも1つのプロセッサに行わせるように構成された量子化コードとを含む。第1のニューラルネットワークおよび第2のニューラルネットワークは、生成された圧縮表現のビットレートに基づいてレート損失を特定し、特定されたレート損失に基づいて生成された符号化表現を更新することによって訓練される。
【0006】
実施形態によれば、非一時的コンピュータ可読媒体は、エンドツーエンド画像圧縮のための特徴置換のために少なくとも1つのプロセッサによって実行されると、符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化することと、圧縮表現を生成するために、第2のニューラルネットワークを使用して、生成された符号化表現を量子化することとを少なくとも1つのプロセッサに行わせる命令を記憶する。第1のニューラルネットワークおよび第2のニューラルネットワークは、生成された圧縮表現のビットレートに基づいてレート損失を特定し、特定されたレート損失に基づいて生成された符号化表現を更新することによって訓練される。
【図面の簡単な説明】
【0007】
図1】実施形態による、本明細書に記載された方法、装置、およびシステムがその中で実現され得る環境の図である。
図2図1の1つまたは複数のデバイスの例示的な構成要素のブロック図である。
図3A】実施形態による、訓練段階中のエンドツーエンド画像圧縮のための特徴置換のための訓練装置のブロック図である。
図3B】実施形態による、訓練段階中のビットレート制約を伴うエンドツーエンド画像圧縮のための特徴置換のための訓練装置のブロック図である。
図4】実施形態による、検査段階中のエンドツーエンド画像圧縮のための特徴置換のための検査装置のブロック図である。
図5】実施形態による、エンドツーエンド画像圧縮のための特徴置換の方法のフローチャートである。
図6】実施形態による、エンドツーエンド画像圧縮のための特徴置換のための装置のブロック図である。
【発明を実施するための形態】
【0008】
本開示は、E2E DNNを介して置換符号化特徴表現を学習することによって入力画像を圧縮するための方法および装置を記載する。学習された置換符号化特徴表現は、元の符号化特徴表現の変更であり、改善された圧縮性能を有する画像を効果的に復元するとともに、柔軟なビットレート制御および圧縮目標制御の能力を提供するために使用することができる。入力画像は、ユーザによって定義された所望のビットレートを満たすことができる。
【0009】
図1は、実施形態による、本明細書に記載された方法、装置、およびシステムがその中で実現され得る環境100の図である。
【0010】
図1に示されたように、環境100は、ユーザデバイス110、プラットフォーム120、およびネットワーク130を含んでもよい。環境100のデバイスは、有線接続、ワイヤレス接続、または有線接続とワイヤレス接続の組合せを介して相互接続することができる。
【0011】
ユーザデバイス110は、プラットフォーム120に関連付けられた情報を受信、生成、記憶、処理、および/または提供することが可能な1つまたは複数のデバイスを含む。例えば、ユーザデバイス110は、コンピューティングデバイス(例えば、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ハンドヘルドコンピュータ、スマートスピーカ、サーバなど)、携帯電話(例えば、スマートフォン、無線電話など)、ウェアラブルデバイス(例えば、一対のスマートグラスもしくはスマートウォッチ)、または同様のデバイスを含んでもよい。いくつかの実装形態では、ユーザデバイス110は、プラットフォーム120から情報を受信し、かつ/またはプラットフォーム120に情報を送信することができる。
【0012】
プラットフォーム120は、本明細書の他の箇所に記載されるような1つまたは複数のデバイスを含む。いくつかの実装形態では、プラットフォーム120は、クラウドサーバまたはクラウドサーバのグループを含んでもよい。いくつかの実装形態では、プラットフォーム120は、ソフトウェア構成要素がスワップインまたはスワップアウトされ得るようにモジュール式に設計されてもよい。そのため、プラットフォーム120は、異なる用途向けに、容易かつ/または迅速に復元されてもよい。
【0013】
いくつかの実装形態では、図示されたように、プラットフォーム120は、クラウドコンピューティング環境122内でホストされてもよい。特に、本明細書に記載された実装形態は、クラウドコンピューティング環境122内でホストされるものとしてプラットフォーム120を記載するが、いくつかの実装形態では、プラットフォーム120は、クラウドベースでなくてもよく(すなわち、クラウドコンピューティング環境の外部に実装されてもよく)、部分的にクラウドベースであってもよい。
【0014】
クラウドコンピューティング環境122は、プラットフォーム120をホストする環境を含む。クラウドコンピューティング環境122は、プラットフォーム120をホストするシステムおよび/またはデバイスの物理的な位置および構成のエンドユーザ(例えば、ユーザデバイス110)の知識を必要としない計算、ソフトウェア、データアクセス、ストレージなどのサービスを提供することができる。図示されたように、クラウドコンピューティング環境122は、(まとめて「コンピューティングリソース124」と呼ばれ、個別に「コンピューティングリソース124」と呼ばれる)コンピューティングリソース124のグループを含んでもよい。
【0015】
コンピューティングリソース124は、1つまたは複数のパーソナルコンピュータ、ワークステーションコンピュータ、サーバデバイス、または他のタイプの計算デバイスおよび/もしくは通信デバイスを含む。いくつかの実装形態では、コンピューティングリソース124は、プラットフォーム120のホストすることができる。クラウドリソースは、コンピューティングリソース124内で実行される計算インスタンス、コンピューティングリソース124内で提供されるストレージデバイス、コンピューティングリソース124によって提供されるデータ転送デバイスなどを含んでもよい。いくつかの実装形態では、コンピューティングリソース124は、有線接続、ワイヤレス接続、または有線接続とワイヤレス接続の組合せを介して他のコンピューティングリソース124と通信することができる。
【0016】
図1にさらに示されたように、コンピューティングリソース124は、1つまたは複数のアプリケーション(「APP」)124-1、1つまたは複数の仮想マシン(「VM」)124-2、仮想化ストレージ(「VS」)124-3、1つまたは複数のハイパーバイザ(「HYP」)124-4などのクラウドリソースのグループを含む。
【0017】
アプリケーション124-1は、ユーザデバイス110および/もしくはプラットフォーム120に提供され得るか、またはユーザデバイス110および/もしくはプラットフォーム120によってアクセスされ得る1つまたは複数のソフトウェアアプリケーションを含む。アプリケーション124-1は、ユーザデバイス110上でソフトウェアアプリケーションをインストールし実行する必要性を排除することができる。例えば、アプリケーション124-1は、プラットフォーム120に関連付けられたソフトウェアおよび/またはクラウドコンピューティング環境122を介して提供されることが可能な任意の他のソフトウェアを含んでもよい。いくつかの実装形態では、1つのアプリケーション124-1は、仮想マシン124-2を介して1つまたは複数の他のアプリケーション124-1との間で情報を送受信することができる。
【0018】
仮想マシン124-2は、物理マシンのようにプログラムを実行するマシン(例えば、コンピュータ)のソフトウェア実装形態を含む。仮想マシン124-2は、仮想マシン124-2による用途および任意の実マシンとの対応関係の程度に応じて、システム仮想マシンまたはプロセス仮想マシンのいずれかであってもよい。システム仮想マシンは、完全なオペレーティングシステム(「OS」)の実行をサポートする完全なシステムプラットフォームを提供することができる。プロセス仮想マシンは、単一のプログラムを実行することができ、単一のプロセスをサポートすることができる。いくつかの実装形態では、仮想マシン124-2は、ユーザ(例えば、ユーザデバイス110)の代わりに動作することができ、データ管理、同期、または長期データ転送などのクラウドコンピューティング環境122の基盤を管理することができる。
【0019】
仮想化ストレージ124-3は、コンピューティングリソース124のストレージシステムまたはデバイス内で仮想化技法を使用する1つもしくは複数のストレージシステムおよび/または1つもしくは複数のデバイスを含む。いくつかの実装形態では、ストレージシステムのコンテキスト内で、仮想化のタイプは、ブロック仮想化およびファイル仮想化を含んでもよい。ブロック仮想化は、ストレージシステムが物理ストレージまたは異種構造に関係なくアクセスされ得るような、物理ストレージからの論理ストレージの抽象化(または分離)を指すことができる。分離により、ストレージシステムの管理者がエンドユーザのためにストレージを管理する方法の柔軟性が可能になり得る。ファイル仮想化は、ファイルレベルでアクセスされるデータとファイルが物理的に記憶された場所との間の依存関係を排除することができる。これにより、ストレージ使用の最適化、サーバ統合、および/またはスムーズなファイル移行の実行が可能になり得る。
【0020】
ハイパーバイザ124-4は、複数のオペレーティングシステム(例えば、「ゲストオペレーティングシステム」)をコンピューティングリソース124などのホストコンピュータ上で同時に実行することを可能にするハードウェア仮想化技法を提供することができる。ハイパーバイザ124-4は、仮想オペレーティングプラットフォームをゲストオペレーティングシステムに提示することができ、ゲストオペレーティングシステムの実行を管理することができる。様々なオペレーティングシステムの複数のインスタンスが、仮想化されたハードウェアリソースを共有することができる。
【0021】
ネットワーク130は、1つまたは複数の有線および/またはワイヤレスのネットワークを含む。例えば、ネットワーク130は、セルラーネットワーク(例えば、第5世代(5G)ネットワーク、ロングタームエボリューション(LTE)ネットワーク、第3世代(3G)ネットワーク、符号分割多元接続(CDMA)ネットワークなど)、公的地域モバイルネットワーク(PLMN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、電話ネットワーク(例えば、公衆交換電話網(PSTN))、プライベートネットワーク、アドホックネットワーク、イントラネット、インターネット、光ファイバベースのネットワークなど、および/またはそれらもしくは他のタイプのネットワークの組合せを含んでもよい。
【0022】
図1に示されたデバイスおよびネットワークの数および配置は、一例として提供されている。実際には、図1に示されたものに比べて、さらなるデバイスおよび/もしくはネットワーク、少ないデバイスおよび/もしくはネットワーク、異なるデバイスおよび/もしくはネットワーク、または異なる配置のデバイスおよび/もしくはネットワークが存在してもよい。さらに、図1に示された2つ以上のデバイスは、単一のデバイス内に実装されてもよく、または図1に示された単一のデバイスは、複数の分散型デバイスとして実装されてもよい。追加または代替として、環境100のデバイスのセット(例えば、1つまたは複数のデバイス)は、環境100のデバイスの別のセットによって実行されるものとして記載された1つまたは複数の機能を実行することができる。
【0023】
図2は、図1の1つまたは複数のデバイスの例示的な構成要素のブロック図である。
【0024】
デバイス200は、ユーザデバイス110および/またはプラットフォーム120に対応してもよい。図2に示されたように、デバイス200は、バス210、プロセッサ220、メモリ230、記憶構成要素240、入力構成要素250、出力構成要素260、および通信インターフェース270を含んでもよい。
【0025】
バス210は、デバイス200の構成要素間の通信を可能にする構成要素を含む。プロセッサ220は、ハードウェア、ファームウェア、またはハードウェアとソフトウェアの組合せに実装される。プロセッサ220は、中央処理装置(CPU)、グラフィック処理装置(GPU)、加速処理装置(APU)、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、または別のタイプの処理構成要素である。いくつかの実装形態では、プロセッサ220は、機能を実行するようにプログラムされることが可能な1つまたは複数のプロセッサを含む。メモリ230は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、ならびに/またはプロセッサ220が使用するための情報および/もしくは命令を記憶する別のタイプの動的もしくは静的なストレージデバイス(例えば、フラッシュメモリ、磁気メモリ、および/もしくは光メモリ)を含む。
【0026】
記憶構成要素240は、デバイス200の動作および使用に関連する情報および/またはソフトウェアを記憶する。例えば、記憶構成要素240は、対応するドライブとともに、ハードディスク(例えば、磁気ディスク、光ディスク、光磁気ディスク、および/もしくはソリッドステートディスク)、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、フロッピーディスク、カートリッジ、磁気テープ、ならびに/または別のタイプの非一時的コンピュータ可読媒体を含んでもよい。
【0027】
入力構成要素250は、デバイス200がユーザ入力(例えば、タッチスクリーンディスプレイ、キーボード、キーパッド、マウス、ボタン、スイッチ、および/またはマイクロフォン)などを介して情報を受信することを可能にする構成要素を含む。追加または代替として、入力構成要素250は、情報を検知するためのセンサ(例えば、全地球測位システム(GPS)構成要素、加速度計、ジャイロスコープ、および/またはアクチュエータ)を含んでもよい。出力構成要素260は、デバイス200(例えば、ディスプレイ、スピーカ、および/または1つもしくは複数の発光ダイオード(LED))からの出力情報を提供する構成要素を含む。
【0028】
通信インターフェース270は、デバイス200が有線接続、ワイヤレス接続、または有線接続とワイヤレス接続の組合せなどを介して他のデバイスと通信することを可能にする、トランシーバ様の構成要素(例えば、トランシーバならびに/または別個の受信機および送信機)を含む。通信インターフェース270は、デバイス200が別のデバイスから情報を受信し、かつ/または別のデバイスに情報を提供することを可能にすることができる。例えば、通信インターフェース270は、イーサネットインターフェース、光インターフェース、同軸インターフェース、赤外線インターフェース、無線周波数(RF)インターフェース、ユニバーサルシリアルバス(USB)インターフェース、Wi-Fiインターフェース、セルラーネットワークインターフェースなどを含んでもよい。
【0029】
デバイス200は、本明細書に記載された1つまたは複数のプロセスを実行することができる。デバイス200は、プロセッサ220がメモリ230および/または記憶構成要素240などの非一時的コンピュータ可読媒体によって記憶されたソフトウェア命令を実行することに応答して、これらのプロセスを実行することができる。コンピュータ可読媒体は、本明細書では非一時的メモリデバイスと定義される。メモリデバイスは、単一の物理ストレージデバイス内のメモリ空間、または複数の物理ストレージデバイスにわたって広がるメモリ空間を含む。
【0030】
ソフトウェア命令は、別のコンピュータ可読媒体から、または通信インターフェース270を介して別のデバイスから、メモリ230および/または記憶構成要素240に読み込まれてもよい。メモリ230および/または記憶構成要素240に記憶されたソフトウェア命令は、実行されると、本明細書に記載された1つまたは複数のプロセスをプロセッサ220に実行させることができる。追加または代替として、ハードワイヤード回路は、本明細書に記載された1つまたは複数のプロセスを実行するために、ソフトウェア命令の代わりに、またはソフトウェア命令と組み合わせて使用されてもよい。このように、本明細書に記載された実装形態は、ハードウェア回路とソフトウェアのいかなる特定の組合せにも限定されない。
【0031】
図2に示された構成要素の数および配置は、一例として提供されている。実際には、デバイス200は、図2に示された構成要素に比べて、さらなる構成要素、少ない構成要素、異なる構成要素、または異なる配置の構成要素を含んでもよい。追加または代替として、デバイス200の構成要素のセット(例えば、1つまたは複数の構成要素)は、デバイス200の構成要素の別のセットによって実行されるものとして記載された1つまたは複数の機能を実行することができる。
【0032】
次に、エンドツーエンド画像圧縮のための特徴置換のための方法および装置が詳細に記載される。
【0033】
本開示は、置換符号化特徴表現を学習することにより、E2E画像圧縮を記載する。
【0034】
サイズ(h、w、c)の入力画像xが与えられ、ここで、h、w、cは、それぞれ、チャネルの高さ、幅、および数であり、E2E画像圧縮の目標は以下のように記載され、その中で、記憶および送信に対してコンパクトな圧縮(量子化)表現y’が算出される。次いで、算出された圧縮表現y’に基づいて、出力画像x’が復元され、その結果、復元画像x’と元の入力画像xが類似してもよい。損失関数D(x,x’)は、復元誤差、すなわち、PSNRおよび/またはSSIMなどの歪み損失を測定するために使用される。実施形態では、圧縮表現y’を算出するDNNは、2つの部分、すなわち、入力画像xに基づいて符号化表現yを生成するエンコーダと、符号化表現yに基づいて圧縮表現y’を生成する量子化器とを有してもよい。出力画像x’を復元するDNNはデコーダである。
【0035】
入力画像xが与えられると、装置は、置換符号化特徴表現
【数1】
を学習するために最初に訓練段階を経て、次いで、置換符号化特徴表現は、圧縮(量子化)表現
【数2】
および復元画像
【数3】
を生成するために検査段階で使用される。
【0036】
図3Aは、実施形態による、訓練段階中のエンドツーエンド画像圧縮のための特徴置換のための訓練装置300Aのブロック図である。
【0037】
図3Aに示されたように、訓練装置300Aは、訓練エンコーダ310と、訓練量子化器320と、訓練デコーダ330と、歪み損失構成要素340と、レート損失構成要素350と、データ更新構成要素360とを含む。
【0038】
各入力画像xにとって、訓練エンコーダ310、訓練量子化器320、および訓練デコーダ330はDNNであり、それらのモデル重みは、それぞれ、所定のエンコーダ、所定の量子化器、および所定のデコーダに基づいて初期化または設定される。次いで、更新された置換符号化特徴表現
【数4】
を算出するために、再訓練/微調整プロセスが実行される。訓練量子化器320は、算出された置換符号化特徴表現
【数5】
に基づいて新しい圧縮(量子化)表現
【数6】
を生成し、訓練デコーダ330は、生成された新しい圧縮表現
【数7】
に基づいて新しい復元画像
【数8】
を生成する。再訓練/微調整プロセスの目標は、以下の2つの部分を含む全体的な損失
【数9】
を最適化(最小化)することである。
【数10】
【0039】
歪み損失構成要素340は、復元誤差を測定して同じ歪み損失
【数11】
を特定する。レート損失構成要素350は、圧縮表現
【数12】
のビットレートに関連するレート損失
【数13】
を特定する。エントロピー推定手法が使用されてもよく、その中で、レート損失
【数14】
を算出するために所定のレート損失推定器が使用される。ハイパーパラメータλは、異なる損失項の寄与を平衡させる。データ更新構成要素360は、特定された歪み損失
【数15】
、特定されたレート損失
【数16】
、および入力されたハイパーパラメータλに基づいて、全体的な損失
【数17】
を特定する。
【0040】
所定のエンコーダ、所定の量子化器、所定のデコーダ、および所定のレート損失推定器の重みは、訓練画像のセットに基づいて事前訓練される。詳細には、訓練画像xtrごとに、復元画像xtr’を算出するために、符号化、量子化、および復号を通して同じ前方推論計算が行われる。次いで、歪み損失D(xtr,xtr’)およびレート損失R(xtr)が算出される。次いで、事前訓練されたハイパーパラメータλtrが与えられると、全体的な損失L(xtr,xtr’)は、式(1)に基づいて算出することができ、その勾配は、事前訓練されたエンコーダ、事前訓練された量子化器、事前訓練されたデコーダ、および事前訓練されたレート損失推定器の重みを逆伝搬によって更新するために使用される。
【0041】
訓練段階の間、入力画像xごとに、再訓練/微調整プロセスにおいて、訓練エンコーダ310、訓練量子化器320、訓練デコーダ330、およびレート損失推定器が初期化され、訓練エンコーダ310は、符号化表現yであるように初期符号化表現y0を初期化する。その後、t回目の反復のために、訓練量子化器320は、圧縮(量子化)表現yt’を算出し、訓練デコーダ330は、量子化表現ytに基づいて復元画像xt’を算出する。歪み損失構成要素340は、歪み損失D(x,xt’)およびレート損失R(yt’)を算出する。次いで、データ更新構成要素360は、接合損失L(x,yt’,xt’)の勾配を算出して、逆伝搬により置換符号化特徴表現yt+1を更新する。最後に、T回の反復の後、最適な置換符号化特徴表現
【数18】
が出力される。
【0042】
さらに、本開示は、ビットレート制約を伴う置換符号化特徴表現を学習することにより、E2E画像圧縮方法を記載する。
【0043】
圧縮表現y’のビットレートはB(y’)によって表記される。ビットレートB(y’)が大きいと、復元画像x’の歪みが小さくなる可能性があり、ビットレートB(y’)が小さいと、復元画像x’の歪みが大きくなる可能性がある。R(y’)は、ビットレートB(y’)に関連するレート損失を表記する。目標レート損失Rtargetに関連付けられた目標ビットレートBtargetが与えられると、圧縮表現y’は、目標ビットレートBtargetに可能な限り近いビットレートB(y’)を有するべきである。したがって、全体的な損失は以下のように定義することができる。
L(x,y’,x’)=ηL(R(y’),Rtarget)+D(x,x’) (2)
【0044】
L(R(y’),Rtarget)は、レート損失R(y’)と目標レート損失Rtargetとの間の差の損失を測定し、ηは、異なる損失項の寄与を平衡させるハイパーパラメータである。ハイパーパラメータηは、実際のビットレートが可能な限り目標ビットレートに近いことを保証するために、経験的に大きな数として設定されてもよい。また、レート損失R(y’)と目標レート損失Rtargetとの間の差の損失は、以下のように設定されてもよい。
L(R(y’),Rtarget)=min(R(y’)-Rtarget,∈) (3)
【0045】
∈はハイパーパラメータであり、これは非常に小さい数であってもよい。
【0046】
図3Bは、実施形態による、訓練段階中のビットレート制約を伴うエンドツーエンド画像圧縮のための特徴置換のための訓練装置300Bのブロック図である。
【0047】
図3Bに示されたように、訓練装置300Bは、訓練エンコーダ310と、訓練量子化器320と、訓練デコーダ330と、歪み損失構成要素340と、レート損失構成要素350と、データ更新構成要素370とを含む。
【0048】
入力画像xおよび目標ビットレートBtargetが与えられると、訓練段階において、訓練エンコーダ310は、置換符号化特徴表現
【数19】
を学習し、次いで、置換符号化特徴表現は、圧縮表現
【数20】
および復元画像
【数21】
を生成するために検査段階で使用される。詳細には、入力画像xごとに、訓練エンコーダ310、訓練量子化器320、および訓練デコーダ330のモデル重みは、それぞれ、所定のエンコーダ、所定の量子化器、および所定のデコーダに基づいて初期化または設定される。次いで、再訓練/微調整プロセスが行われ、その中で、データ更新構成要素370は、更新された置換符号化特徴表現
【数22】
を算出する。訓練量子化器320は、算出された置換符号化特徴表現
【数23】
に基づいて新しい圧縮(量子化)表現
【数24】
を生成し、訓練デコーダ330は、生成された新しい圧縮表現
【数25】
に基づいて新しい復元画像
【数26】
を生成する。再訓練/微調整プロセスの目標は、全体的な損失
【数27】
を最適化することである。
【数28】
【0049】
エントロピー推定手法が使用されてもよく、その中で、レート損失
【数29】
を算出するために所定のレート損失推定器が使用される。
【0050】
所定のエンコーダ、所定の量子化器、所定のデコーダ、および所定のレート損失推定器の重みは、訓練画像のセットに基づいて事前訓練される。詳細には、訓練画像xtrごとに、復元画像xtr’を算出するために、符号化、量子化、および復号を通して同じ前方推論計算が行われる。次いで、歪み損失D(xtr,xtr’)およびレート損失R(ytr’)が算出される。次いで、事前訓練されたハイパーパラメータλtrが与えられると、全体的な損失Ltr(xtr,ytr’,xtr’)を算出することができる。
Ltr(xtr,ytr’,xtr’)=R(ytr’)+λtrD(xtr,xtr’) (5)
【0051】
その勾配は、事前訓練されたエンコーダ、事前訓練された量子化器、事前訓練されたデコーダ、および事前訓練されたレート損失推定器の重みを逆伝搬によって更新するために使用される。R(ytr’)はレート損失であり、D(xtr,xtr’)は歪み損失であり、それらは上記の段落と同じ方法で定義される。
【0052】
図4は、実施形態による、検査段階中のエンドツーエンド画像圧縮のための特徴置換のための検査装置400のブロック図である。
【0053】
図4に示されたように、検査装置400は、検査エンコーダ410、検査量子化器420、および検査デコーダ430を含む。
【0054】
検査段階では、学習された置換符号化特徴表現
【数30】
を入力として使用して、検査量子化器420および検査デコーダ430が初期化される。検査量子化器420は、圧縮(量子化)表現
【数31】
を算出し、検査デコーダ430は、前方推論計算によって復元画像
【数32】
を算出する。
【0055】
検査量子化器420および検査デコーダ430は、それぞれ、それらの対応する訓練量子化器および訓練デコーダと同じであってもよい。それらは異なっていてもよい。実施形態では、検査デコーダ430は訓練デコーダと同じであるが、訓練量子化器と検査量子化器420は異なる。詳細には、検査量子化器420は一般的な均一量子化手法をとることができるが、訓練量子化器は検査量子化器420の効果を近似する均一サンプラであってもよく、それは、離散数を使用して勾配逆伝搬の困難さを回避する。
【0056】
上記の実施形態は、ビットレート制御および目標メトリック制御において大きい柔軟性を実現する。目標ビットレートが変更されると、事前訓練されたエンコーダ、事前訓練された量子化器、および事前訓練されたデコーダを再訓練/微調整することなく、ハイパーパラメータλのみが変更される必要があってもよい。同様に、(例えば、最適なPSNRおよび/または最適なSSIMを有する)異なる目標メトリックに最適な圧縮画像が取得されるべきとき、事前訓練されたE2E画像圧縮ネットワークを再訓練/微調整することなく、歪み損失を算出する方法のみが変更されてもよい。
【0057】
図5は、実施形態による、エンドツーエンド画像圧縮のための特徴置換の方法のフローチャートである。
【0058】
いくつかの実装形態では、図5の1つまたは複数のプロセスブロックは、プラットフォーム120によって実行されてもよい。いくつかの実装形態では、図5の1つまたは複数のプロセスブロックは、ユーザデバイス110などのプラットフォーム120とは別個の、またはプラットフォーム120を含む別のデバイスもしくはデバイスのグループによって実行されてもよい。
【0059】
図5に示されたように、動作510において、方法500は、符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化することを含む。
【0060】
動作520において、方法500は、圧縮表現を生成するために、第2のニューラルネットワークを使用して、生成された符号化表現を量子化することを含む。
【0061】
第1のニューラルネットワークおよび第2のニューラルネットワークは、生成された圧縮表現のビットレートに基づいてレート損失を特定し、特定されたレート損失に基づいて生成された符号化表現を更新することによって訓練される。
【0062】
動作530において、方法500は、出力画像を生成するために、第3のニューラルネットワークを使用して、生成された圧縮表現を復号することを含む。
【0063】
第1のニューラルネットワーク、第2のニューラルネットワーク、および第3のニューラルネットワークは、入力画像と生成された出力画像との間の復元誤差に対応する歪み損失を特定し、特定された歪み損失、特定されたレート損失、および入力されたハイパーパラメータに基づいて、生成された符号化表現を更新することによって訓練されてもよい。
【0064】
生成された符号化表現を更新することは、式(1)に基づいて全体的な損失を最適化することを含んでもよい。
【0065】
第1のニューラルネットワーク、第2のニューラルネットワーク、および第3のニューラルネットワークは、特定されたレート損失と目標レート損失との間の差と所定のハイパーパラメータとの間の最小値を特定し、入力画像と生成された出力画像との間の復元誤差に対応する歪み損失を特定し、特定された最小値、特定されたレート損失、および入力されたハイパーパラメータに基づいて、生成された符号化表現を更新することによって訓練されてもよい。
【0066】
生成された符号化表現を更新することは、式(4)に基づいて全体的な損失を最適化することを含んでもよい。
【0067】
復元誤差はPSNRおよび/またはSSIMを含んでもよい。
【0068】
図5は方法500の例示的なブロックを示すが、いくつかの実装形態では、方法500は、図5に描写されたブロックに比べて、さらなるブロック、少ないブロック、異なるブロック、または異なる配置のブロックを含んでもよい。追加または代替として、方法500のブロックのうちの2つ以上が並行して実行されてもよい。
【0069】
図6は、実施形態による、エンドツーエンド画像圧縮のための特徴置換のための装置600のブロック図である。
【0070】
図6に示されたように、装置600は、符号化コード610、量子化コード620、および復号コード630を含む。
【0071】
符号化コード610は、符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化することを少なくとも1つのプロセッサに行わせるように構成される。
【0072】
量子化コード620は、圧縮表現を生成するために、第2のニューラルネットワークを使用して、生成された符号化表現を量子化することを少なくとも1つのプロセッサに行わせるように構成される。
【0073】
第1のニューラルネットワークおよび第2のニューラルネットワークは、生成された圧縮表現のビットレートに基づいてレート損失を特定し、特定されたレート損失に基づいて生成された符号化表現を更新することによって訓練される。
【0074】
復号コード630は、出力画像を生成するために、第3のニューラルネットワークを使用して、生成された圧縮表現を復号することを少なくとも1つのプロセッサに行わせるように構成される。
【0075】
第1のニューラルネットワーク、第2のニューラルネットワーク、および第3のニューラルネットワークは、入力画像と生成された出力画像との間の復元誤差に対応する歪み損失を特定し、特定された歪み損失、特定されたレート損失、および入力されたハイパーパラメータに基づいて、生成された符号化表現を更新することによって訓練されてもよい。
【0076】
生成された符号化表現は、式(1)に基づいて全体的な損失を最適化することによって更新されてもよい。
【0077】
第1のニューラルネットワーク、第2のニューラルネットワーク、および第3のニューラルネットワークは、特定されたレート損失と目標レート損失との間の差と所定のハイパーパラメータとの間の最小値を特定し、入力画像と生成された出力画像との間の復元誤差に対応する歪み損失を特定し、特定された最小値、特定されたレート損失、および入力されたハイパーパラメータに基づいて、生成された符号化表現を更新することによって訓練されてもよい。
【0078】
生成された符号化表現は、式(4)に基づいて全体的な損失を最適化することによって更新されてもよい。
【0079】
復元誤差はPSNRおよび/またはSSIMを含んでもよい。
【0080】
以前のE2E画像圧縮方法と比較して、上記の実施形態は以下の利点を有する。上記の実施形態は、任意のE2E画像圧縮DNNモデルに搭載することができる一般的な前処理として扱うことができる。また、個々の入力画像ごとに、その置換符号化特徴表現は、その損失のフィードバックに基づいて個々の再訓練/微調整プロセスを介して最適化されてもよく、それにより圧縮性能を高めることができる。
【0081】
さらに、上記の実施形態は、E2E画像圧縮モデルを再訓練することなく、または複数のモデルを使用することなく、柔軟なビットレート制御を実現することができる。上記の実施形態は、E2E画像圧縮モデルを再訓練することなく、または複数のモデルを使用することなく、柔軟な目標ビットレート制御を実現することができる。上記の実施形態は、E2E画像圧縮モデルを再訓練することなく、目標圧縮メトリックを容易に変更することができる。
【0082】
提案された方法は、別々に使用されてもよく、任意の順序で組み合わされてもよい。さらに、方法(または実施形態)、エンコーダ、およびデコーダの各々は、処理回路(例えば、1つもしくは複数のプロセッサまたは1つもしくは複数の集積回路)によって実装されてもよい。一例では、1つまたは複数のプロセッサは、非一時的コンピュータ可読媒体に記憶されたプログラムを実行する。
【0083】
前述の開示は例示および説明を提供しているが、網羅的なものではなく、開示されたまさにその形態に実装形態を限定するものではない。修正形態および変形形態は、上記の開示に照らして実現可能であり、または実装形態の実践から取得されてもよい。
【0084】
本明細書で使用される構成要素という用語は、ハードウェア、ファームウェア、またはハードウェアとソフトウェアの組合せとして広く解釈されるものである。
【0085】
本明細書に記載されたシステムおよび/または方法は、ハードウェア、ファームウェア、またはハードウェアとソフトウェアの組合せの異なる形態で実装されてもよいことは明らかであろう。これらのシステムおよび/または方法を実装するために使用される実際の専用の制御ハードウェアまたはソフトウェアコードは、実装形態を限定するものではない。したがって、システムおよび/または方法の動作および挙動は、特定のソフトウェアコードを参照することなく本明細書に記載されており、ソフトウェアおよびハードウェアは、本明細書の記載に基づいてシステムおよび/または方法を実装するように設計され得ることが理解される。
【0086】
特徴の組合せが特許請求の範囲に列挙され、かつ/または本明細書に開示されているが、これらの組合せは、可能な実装形態の開示を限定するものではない。実際には、これらの特徴の多くは、特許請求の範囲に具体的に列挙されていない、かつ/または本明細書に開示されていない方法で組み合わされてもよい。以下に列挙される各従属請求項は1つの請求項のみに直接依存してもよいが、可能な実装形態の開示は、各従属請求項を請求項セット内のあらゆる他の請求項と組み合わせて含む。
【0087】
本明細書で使用される要素、行為、または指示は、明示的にそのように記載されていない限り、重要または必須であると解釈されなくてもよい。また、本明細書で使用される冠詞「a」および「an」は、1つまたは複数の項目を含むものであり、「1つまたは複数」と同じ意味で使用されてもよい。さらに、本明細書で使用される「セット」という用語は、1つまたは複数の項目(例えば、関連項目、非関連項目、関連項目と非関連項目の組合せなど)を含むものであり、「1つまたは複数」と同じ意味で使用されてもよい。1つの項目のみが対象とされる場合、「1つ」という用語または同様の言葉が使用される。また、本明細書で使用される「有する(has)」、「有する(have)」、「有する(having)」などの用語は、オープンエンド用語であることが意図される。さらに、「に基づいて」という語句は、特に明記されない限り、「に少なくとも部分的に基づいて」を意味するものである。
【符号の説明】
【0088】
100 環境
110 ユーザデバイス
120 プラットフォーム
122 クラウドコンピューティング環境
124 コンピューティングリソース
124-1 アプリケーション(「APP」)
124-2 仮想マシン(「VM」)
124-3 仮想化ストレージ(「VS」)
124-4 ハイパーバイザ(「HYP」)
130 ネットワーク
200 デバイス
210 バス
220 プロセッサ
230 メモリ
240 記憶構成要素
250 入力構成要素
260 出力構成要素
270 通信インターフェース
300A 訓練装置
300B 訓練装置
310 訓練エンコーダ
320 訓練量子化器
330 訓練デコーダ
340 歪み損失構成要素
350 レート損失構成要素
360 データ更新構成要素
370 データ更新構成要素
400 検査装置
410 検査エンコーダ
420 検査量子化器
430 検査デコーダ
500 方法
510 動作
520 動作
530 動作
600 装置
610 符号化コード
620 量子化コード
630 復号コード
図1
図2
図3A
図3B
図4
図5
図6
【手続補正書】
【提出日】2022-04-15
【手続補正2】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
エンドツーエンド画像圧縮のための特徴置換の方法であって、前記方法が少なくとも1つのプロセッサによって実行され、前記方法が、
符号化表現を生成するために、第1のニューラルネットワークを使用して、入力画像を符号化するステップと、
圧縮表現を生成するために、第2のニューラルネットワークを使用して、前記生成された符号化表現を量子化するステップと
を含み、
前記第1のニューラルネットワークおよび前記第2のニューラルネットワークが、
前記生成された圧縮表現のビットレートに基づいてレート損失を特定し、
前記特定されたレート損失に基づいて前記生成された符号化表現を更新する
ことによって訓練される、方法。
【請求項2】
出力画像を生成するために、第3のニューラルネットワークを使用して、前記生成された圧縮表現を復号するステップをさらに含む、請求項1に記載の方法。
【請求項3】
前記第1のニューラルネットワーク、前記第2のニューラルネットワーク、および前記第3のニューラルネットワークが、
前記入力画像と前記生成された出力画像との間の復元誤差に対応する歪み損失を特定し、
前記特定された歪み損失、前記特定されたレート損失、および入力されたハイパーパラメータに基づいて、前記生成された符号化表現を更新する
ことによって訓練される、請求項2に記載の方法。
【請求項4】
前記生成された符号化表現を更新する前記ステップが、以下の式:
【数1】
に基づいて全体的な損失を最適化するステップを含み、
【数2】
が前記全体的な損失であり、
【数3】
が前記生成された圧縮表現
【数4】
の前記ビットレートに基づいて特定された前記レート損失であり、λが前記入力されたハイパーパラメータであり、
【数5】
が前記入力画像xと前記生成された出力画像
【数6】
との間の前記復元誤差に対応する前記歪み損失である、
請求項3に記載の方法。
【請求項5】
前記第1のニューラルネットワーク、前記第2のニューラルネットワーク、および前記第3のニューラルネットワークが、
前記特定されたレート損失と目標レート損失との間の差と所定のハイパーパラメータとの間の最小値を特定し、
前記入力画像と前記生成された出力画像との間の復元誤差に対応する歪み損失を特定し、
前記特定された最小値、前記特定されたレート損失、および入力されたハイパーパラメータに基づいて、前記生成された符号化表現を更新する
ことによって訓練される、請求項2に記載の方法。
【請求項6】
前記生成された符号化表現を更新する前記ステップが、以下の式:
【数7】
に基づいて全体的な損失を最適化するステップを含み、
【数8】
が前記全体的な損失であり、ηが前記入力されたハイパーパラメータであり、
【数9】
が前記生成された圧縮表現
【数10】
の前記ビットレートに基づいて特定された前記レート損失であり、Rtargetが前記目標レート損失であり、∈が前記所定のハイパーパラメータであり、
【数11】
が前記入力画像xと前記生成された出力画像
【数12】
との間の前記復元誤差に対応する前記歪み損失である、
請求項5に記載の方法。
【請求項7】
前記復元誤差が、ピーク信号対雑音比(PSNR)および/または構造類似性指数尺度(SSIM)を含む、請求項5に記載の方法。
【請求項8】
エンドツーエンド画像圧縮のための特徴置換のための装置であって、前記装置が
請求項1~7のいずれか一項に記載の方法を少なくとも1つのプロセッサに行わせるためのプログラムコードを記憶するように構成された少なくとも1つのメモリと、
前記プログラムコードを読み取り、前記プログラムコードによって指示されたように動作するように構成された少なくとも1つのプロセッサと
を備え、装置。
【請求項9】
少なくとも1つのプロセッサに、請求項1~7のいずれか一項に記載の方法を実行させるためのコンピュータプログラム。
【国際調査報告】