(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024161014
(43)【公開日】2024-11-15
(54)【発明の名称】ビデオコーディングのための方法および装置
(51)【国際特許分類】
H04N 19/103 20140101AFI20241108BHJP
H04N 19/176 20140101ALI20241108BHJP
H04N 19/186 20140101ALI20241108BHJP
H04N 19/157 20140101ALI20241108BHJP
H04N 19/593 20140101ALI20241108BHJP
【FI】
H04N19/103
H04N19/176
H04N19/186
H04N19/157
H04N19/593
【審査請求】有
【請求項の数】1
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2024103255
(22)【出願日】2024-06-26
(62)【分割の表示】P 2022554375の分割
【原出願日】2021-09-07
(31)【優先権主張番号】63/126,425
(32)【優先日】2020-12-16
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】17/464,255
(32)【優先日】2021-09-01
(33)【優先権主張国・地域又は機関】US
(71)【出願人】
【識別番号】520353802
【氏名又は名称】テンセント・アメリカ・エルエルシー
(74)【代理人】
【識別番号】100110364
【弁理士】
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【弁理士】
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】リャン・ジャオ
(72)【発明者】
【氏名】シン・ジャオ
(72)【発明者】
【氏名】シャン・リュウ
(57)【要約】
【課題】入力ビデオ信号における冗長情報を圧縮により低減する。
【解決手段】本開示の装置は、ビデオビットストリームにおけるコーディングユニットの予測情報を復号する処理回路を含む。処理回路は、予測情報に基づいて、コーディングユニットに関連付けられた輝度および色度ブロックが異なるパーティショニングツリーを有するかどうかを判定し、輝度および色度ブロックが異なるパーティショニングツリーを有する場合、予測情報に含まれる第1のIBCフラグに基づいて、輝度ブロックがフレーム内ブロックコピー(IBC)モードでコーディングされるかどうかを判定し、予測情報に含まれる第1のIBCフラグ、第2のIBCフラグおよびデフォルトモードのうちの1つに基づいて、色度ブロックがIBCモードでコーディングされるかどうかを判定し、輝度および色度ブロックに基づいてコーディングユニットを再構築する。
【選択図】
図4
【特許請求の範囲】
【請求項1】
デコーダにおいてビデオをコーディングする方法であって、
ビデオビットストリームの一部である現在画像におけるコーディングユニットの予測情報を復号するステップと、
前記予測情報に基づいて、前記コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有するかどうかを判定するステップと、
前記コーディングユニットに関連付けられた前記輝度ブロックおよび前記色度ブロックが異なるパーティショニングツリーを有することに応答して、
前記予測情報に含まれる第1のIBCフラグに基づいて、前記輝度ブロックがフレーム内ブロックコピー(IBC)モードでコーディングされるかどうかを判定するステップと、
前記予測情報に含まれる前記第1のIBCフラグ、第2のIBCフラグおよびデフォルトモードのうちの1つに基づいて、前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックに基づいて、前記コーディングユニットを再構築するステップと、を含む
ことを特徴とする方法。
【請求項2】
前記コーディングユニットに関連付けられた前記輝度ブロックおよび前記色度ブロックが同じパーティショニングツリーを有することに応答して、
前記予測情報に含まれる前記第1のIBCフラグに基づいて、前記輝度ブロックおよび前記色度ブロックがIBCモードでコーディングされるかどうかを判定するステップと、
前記IBCモードでコーディングされている前記輝度ブロックおよび前記色度ブロックに基づいて、前記輝度ブロックおよび前記色度ブロックが同じブロックベクトルを有すると判定するステップと、をさらに含む、
ことを特徴とする請求項1に記載の方法。
【請求項3】
前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップは、
前記輝度ブロックとは異なるパーティショニングツリーを有する前記色度ブロックに対して前記IBCモードが無効であることを示すデフォルトモードに基づいて、前記色度ブロックが前記IBCモードでコーディングされていないと判定するステップ、を含む、
ことを特徴とする請求項1に記載の方法。
【請求項4】
前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップは、
前記輝度ブロックおよび前記色度ブロックが同じパーティションサイズを有するかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックが同じパーティションサイズを有することに応答して、前記第1のIBCフラグに基づいて、前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、を含む、
ことを特徴とする請求項1記載の方法。
【請求項5】
前記輝度ブロックのブロックサイズは、前記色度ブロックのブロックサイズよりも大きく、前記方法は、
前記第1のIBCフラグに基づいて、前記輝度ブロックおよび前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックが前記IBCモードでコーディングされていることに応答して、前記輝度ブロックおよび前記色度ブロックが同じブロックベクトルを有すると判定するステップと、をさらに含む、
ことを特徴とする請求項1に記載の方法。
【請求項6】
前記色度ブロックのサンプルの第1サブセットは、前記IBCモードでコーディングされる第1輝度ブロックと同一位置に配置され、かつ、前記色度ブロックのサンプルの第2サブセットは、第1フレーム内予測モードでコーディングされる第2輝度ブロックと同一位置に配置され、前記方法は、
前記色度ブロックのサンプルの第1サブセットが前記IBCモードでコーディングされると判定するステップと、
前記色度ブロックのサンプルの第2サブセットが、前記予測情報に含まれる前記第1フレーム内予測モードおよび第2フレーム内予測モードのうちの1つでコーディングされると判定するステップと、をさらに含む、
ことを特徴とする請求項1に記載の方法。
【請求項7】
前記色度ブロックのサンプルの第1サブセットおよび前記第1輝度ブロックは、同じブロックベクトルを有する、
ことを特徴とする請求項6に記載の方法。
【請求項8】
処理回路を含む装置であって、前記処理回路は、
ビデオビットストリームの一部である現在画像におけるコーディングユニットの予測情報を復号するステップと、
前記予測情報に基づいて、前記コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有するかどうかを判定するステップと、
前記コーディングユニットに関連付けられた前記輝度ブロックおよび前記色度ブロックが異なるパーティショニングツリーを有することに応答して、
前記予測情報に含まれる第1のIBCフラグに基づいて、前記輝度ブロックがフレーム内ブロックコピー(IBC)モードでコーディングされるかどうかを判定するステップと、
前記予測情報に含まれる前記第1のIBCフラグ、第2のIBCフラグおよびデフォルトモードのうちの1つに基づいて、前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックに基づいて、前記現在のコーディングユニットを再構築するステップと、を実行するように構成される、
ことを特徴とする装置。
【請求項9】
前記処理回路は、さらに、
前記コーディングユニットに関連付けられた前記輝度ブロックおよび前記色度ブロックが同じパーティショニングツリーを有することに応答して、
前記予測情報に含まれる前記第1のIBCフラグに基づいて、前記輝度ブロックおよび前記色度ブロックがIBCモードでコーディングされるかどうかを判定するステップと、
前記IBCモードでコーディングされている前記輝度ブロックおよび前記色度ブロックに基づいて、前記輝度ブロックおよび前記色度ブロックが同じブロックベクトルを有すると判定するステップと、を実行するように構成される、
ことを特徴とする請求項8に記載の装置。
【請求項10】
前記処理回路は、さらに、
前記輝度ブロックとは異なるパーティショニングツリーを有する前記色度ブロックに対して前記IBCモードが無効であることを示すデフォルトモードに基づいて、前記色度ブロックが前記IBCモードでコーディングされていないと判定するステップ、を実行するように構成される、
ことを特徴とする請求項8に記載の装置。
【請求項11】
前記処理回路は、さらに、
前記輝度ブロックおよび前記色度ブロックが同じパーティションサイズを有するかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックが同じパーティションサイズを有することに応答して、前記第1のIBCフラグに基づいて、前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、を実行するように構成される、
ことを特徴とする請求項8に記載の装置。
【請求項12】
前記輝度ブロックのブロックサイズは、前記色度ブロックのブロックサイズよりも大きく、前記処理回路は、さらに、
前記第1のIBCフラグに基づいて、前記輝度ブロックおよび前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックが前記IBCモードでコーディングされていることに応答して、前記輝度ブロックおよび前記色度ブロックが同じブロックベクトルを有すると判定するステップと、を実行するように構成される、
ことを特徴とする請求項8に記載の装置。
【請求項13】
前記色度ブロックのサンプル第1サブセットは、前記IBCモードでコーディングされる第1輝度ブロックと同一位置に配置され、かつ、前記色度ブロックのサンプルの第2サブセットは、第1フレーム内予測モードでコーディングされる第2輝度ブロックと同一位置に配置され、前記処理回路は、さらに、
前記色度ブロックのサンプルの第1サブセットが前記IBCモードでコーディングされると判定するステップと、
前記色度ブロックのサンプルの第2サブセットが、前記予測情報に含まれる前記第1フレーム内予測モードおよび第2フレーム内予測モードのうちの1つでコーディングされると判定するステップと、を実行するように構成される、
ことを特徴とする請求項8に記載の装置。
【請求項14】
前記色度ブロックのサンプルの第1サブセットおよび前記第1輝度ブロックは、同じブロックベクトルを有する、
ことを特徴とする請求項13に記載の装置。
【請求項15】
命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、前記命令が少なくとも1つのプロセッサによって実行されるとき、前記少なくとも1つのプロセッサに、
ビデオビットストリームの一部である現在画像におけるコーディングユニットの予測情報を復号するステップと、
前記予測情報に基づいて、前記コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有するかどうかを判定するステップと、
前記コーディングユニットに関連付けられた前記輝度ブロックおよび前記色度ブロックが異なるパーティショニングツリーを有することに応答して、
前記予測情報に含まれる第1のIBCフラグに基づいて、前記輝度ブロックがフレーム内ブロックコピー(IBC)モードでコーディングされるかどうかを判定するステップと、
前記予測情報に含まれる前記第1のIBCフラグ、第2のIBCフラグおよびデフォルトモードのうちの1つに基づいて、前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックに基づいて、前記現在のコーディングユニットを再構築するステップと、を実行させる、
ことを特徴とする記憶媒体。
【請求項16】
記憶されている前記命令は、前記少なくとも1つのプロセッサに、
前記コーディングユニットに関連付けられた前記輝度ブロックおよび前記色度ブロックが同じパーティショニングツリーを有することに応答して、
前記予測情報に含まれる前記第1のIBCフラグに基づいて、前記輝度ブロックおよび前記色度ブロックがIBCモードでコーディングされるかどうかを判定するステップと、
前記IBCモードでコーディングされている前記輝度ブロックおよび前記色度ブロックに基づいて、前記輝度ブロックおよび前記色度ブロックが同じブロックベクトルを有すると判定するステップと、を実行させる、
ことを特徴とする請求項15に記載の記憶媒体。
【請求項17】
記憶されている前記命令は、前記少なくとも1つのプロセッサに、
前記輝度ブロックとは異なるパーティショニングツリーを有する前記色度ブロックに対して前記IBCモードが無効であることを示すデフォルトモードに基づいて、前記色度ブロックが前記IBCモードでコーディングされていないと判定するステップ、を実行させる、
ことを特徴とする請求項15に記載の記憶媒体。
【請求項18】
記憶されている前記命令は、前記少なくとも1つのプロセッサに、
前記輝度ブロックおよび前記色度ブロックが同じパーティションサイズを有するかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックが同じパーティションサイズを有することに応答して、前記第1のIBCフラグに基づいて、前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、を実行させる、
ことを特徴とする請求項15に記載の記憶媒体。
【請求項19】
前記輝度ブロックのブロックサイズは、前記色度ブロックのブロックサイズよりも大きく、記憶されている前記命令は、前記少なくとも1つのプロセッサに、
前記第1のIBCフラグに基づいて、前記輝度ブロックおよび前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックが前記IBCモードでコーディングされていることに応答して、前記輝度ブロックおよび前記色度ブロックが同じブロックベクトルを有すると判定するステップとを、実行させる、
ことを特徴とする請求項15に記載の記憶媒体。
【請求項20】
前記色度ブロックのサンプルの第1サブセットは、前記IBCモードでコーディングされる第1輝度ブロックと同一位置に配置され、かつ、前記色度ブロックのサンプルの第2サブセットは、第1フレーム内予測モードでコーディングされる第2輝度ブロックと同一位置に配置され、記憶されている前記命令は、前記少なくとも1つのプロセッサに、
前記色度ブロックのサンプルの第1サブセットが前記IBCモードでコーディングされると判定するステップと、
前記色度ブロックのサンプルの第2サブセットが、前記予測情報に含まれる前記第1フレーム内予測モードおよび第2フレーム内予測モードのうちの1つでコーディングされると判定するステップを、実行させる、
ことを特徴とする請求項15に記載の記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
[関連出願への相互参照]
本願は、2021年9月1日に出願された米国特許出願第17/464,255号「ビデオコーディングのための方法および装置」に対する優先権を主張し、これは、2020年12月16日に出願された米国仮出願第63/126,425号「SDPとIntraBCとの間の調和スキーム」に対する優先権を主張している。先行出願のすべての開示内容は、参照により全体的に本明細書に組み込まれる。
【0002】
[技術分野]
本開示は、一般的に、ビデオコーディングに関する実施形態を説明する。
【背景技術】
【0003】
本明細書で提供される背景技術の説明は、本開示のコンテキストを全体的に示すことを目的とする。この背景技術部分および本明細書の各態様において説明された、現在署名されている発明者の作業の程度は、本開示の提出時に先行技術として示されておらず、また、本開示の先行技術として認められていることを明示または暗示していない。
【0004】
ビデオ符号化および復号は、動き補償を有するフレーム間画像予測を用いて実行されることができる。圧縮されていないデジタルビデオは、一連の画像を含むことができ、各画像が、例えば1920×1080の輝度サンプルおよび関連付けられた色度サンプルの空間的次元を有する。この一連の画像は、例えば1秒間に60枚の画像または60ヘルツ(Hz)の固定または可変の画像レート(非公式にはフレームレートとして知られている)を有することができる。圧縮されていないビデオには、重要なビットレート要件がある。例えば、サンプルあたり8ビットの1080p60 4:2:0のビデオ(60Hzのフレームレートでの1920×1080の輝度サンプル解像度)は、1.5Gbit/sの帯域幅に近い必要がある。このようなビデオは、一時間で600GB以上の記憶空間を必要とする。
【0005】
ビデオ符号化および復号の1つの目的は、入力ビデオ信号における冗長情報を圧縮により低減することである。圧縮は、上記の帯域幅または記憶空間に対する要件を低減することを助けることができ、いくつかの場合では、二桁以上程度を低減することができる。無損失性および損失性の圧縮、ならびに両方の組み合わせは、いずれも使用されることができる。無損失性の圧縮とは、元の信号の正確なコピーを圧縮された元の信号から再構築することができる、という技術を指す。損失性の圧縮が使用される場合、再構築された信号は、元の信号と同一ではない可能性があるが、元の信号と再構築された信号との間の歪みが十分に小さいので、再構築された信号が予想されるアプリケーションに利用されることができる。ビデオの場合、損失性の圧縮は広く使われている。許容される歪みの量は、アプリケーションに依存し、例えば、あるストリーミングアプリケーションを消費するユーザは、テレビ配信アプリケーションのユーザより、高い歪みを許容することができる。実現可能な圧縮比は、より高い許可/許容可能な歪みがより高い圧縮比を生成することができる、ということを反映している。
【0006】
ビデオエンコーダおよびデコーダは、例えば動き補償、変換、量子化およびエントロピーコーディングを含む、いくつかの広範なカテゴリからの技術を利用することができる。
【0007】
ビデオ符号化/復号技術は、フレーム内コーディングとして知られている技術を含むことができる。フレーム内コーディングでは、サンプル値は、以前に再構築された参照画像からのサンプルまたは他のデータを参照せずに表現される。いくつかのビデオコーデックでは、画像は空間的にサンプルブロックに細分される。すべてのサンプルブロックがフレーム内モードでコーディングされた場合、その画像はフレーム内画像とすることができる。独立したデコーダリフレッシュ画像などのようなフレーム内画像およびそれらの派生は、デコーダの状態をリセットするために使用されることができ、したがって、コーディングされたビデオビットストリームおよびビデオセッション中の1番目の画像または静止画像として使用されることができる。フレーム内ブロックのサンプルは変換に用いられ、また、変換係数はエントロピーコーディングの前に量子化されることができる。フレーム内予測は、プリ変換ドメインにおけるサンプル値を最小化する技術であることができる。いくつかの場合では、変換後のDC値が小さくなり、AC係数が小さくなるほど、エントロピーコーディング後のブロックを表すために、与えられた量子化ステップサイズで必要なビットが少なくなる。
【0008】
例えばMPEG-2コーディング技術から知られているような従来のフレーム内コーディングは、フレーム内予測を使用していない。しかしながら、いくつかのより新しいビデオ圧縮技術は、例えば、周囲のサンプルデータおよび/またはメタデータからデータブロックを取得しようとする技術を含み、周囲のサンプルデータおよび/またはメタデータは、空間的に隣接するブロックの符号化および/または復号期間で、かつ、復号順の前に得られたものである。このような技術は、以降「フレーム内予測」技術と呼ばれる。少なくともいくつかの場合では、フレーム内予測は、参照画像からの参照データを使用せずに、再構築中の現在画像からの参照データのみを使用する、ということに留意されたい。
【0009】
多くの異なる形態のフレーム内予測が存在することができる。与えられたビデオコーディング技術では、このような技術のうちの2つ以上を使用することができる場合、使用中の技術は、フレーム内予測モードでコーディングを行うことができる。いくつかの場合では、モードは、サブモードおよび/またはパラメータを有してもよいし、これらのモードが、単独でコーディングされてもよく、またはモードコードワードに含まれてもよい。どのコードワードを与えられたモード、サブモードおよび/またはパラメータの組み合わせに使用するかは、フレーム内予測によってコーディング効率利得に影響を及ぼすので、コードワードをビットストリームに変換するために使用されるエントロピーコーディング技術には、このような場合もある。
【0010】
フレーム内予測の特定のモードは、H.264で導入され、H.265において改善され、また、共同探索モデル(JEM:joint exploration model)、汎用ビデオコーディング(VVC:versatile video coding)、ベンチマークセット(BMS:benchmark set)などの、更新しい符号化/復号技術においてさらに改善される。予測ブロックは、既に利用可能なサンプルに属する、隣接するサンプル値を使用して形成されることができる。隣接するサンプルのサンプル値は、ある方向に従って予測ブロックにコピーされる。使用中の方向への参照は、ビットストリームにコーディングされてもよく、または、その自身が予測されてもよい。
【0011】
図1Aを参照して、右下には、H.265の33個の予測可能な方向(35個のフレーム内モードのうちの33個の角度モードに対応)から知られている9つの予測方向のサブセットが描かれている。矢印が収束する点(101)は、予測されているサンプルを表す。矢印は、サンプルが予測されている方向を表す。例えば、矢印(102)は、サンプル(101)が水平から45度の角度になる右上の1つ以上のサンプルから予測されることを示す。同様に、矢印(103)は、サンプル(101)が水平から22.5度の角度になるサンプル(101)の左下の1つ以上のサンプルから予測されることを示す。
【0012】
引き続き
図1Aを参照すると、左上には4×4のサンプルの正方形ブロック(104)が描かれている(太い破線で示される)。正方形ブロック(104)は、16個のサンプルを含み、各サンプルが、「S」と、Y次元(例えば、行索引)での位置と、X次元(例えば、列索引)での位置とでラベル付けられている。例えば、サンプルS21は、Y次元での2番目のサンプル(上から)とX次元での1番目のサンプル(左から)である。同様に、サンプルS44は、Y次元およびX次元の両方でのブロック(104)の4番目のサンプルである。このブロックが4×4サイズのサンプルであるため、S44は右下にある。さらに、同様の番号付けスキームに従う参照サンプルも示されている。参照サンプルは、「R」と、ブロック(104)に対するY位置(例えば、行索引)およびX位置(例えば、列索引)とでラベル付けられている。H.264とH.265の両方では、予測サンプルは再構築中のブロックに隣接しているので、負の値を使用する必要はない。
【0013】
フレーム内画像予測は、シグナルで通知された予測方向に応じて、隣接するサンプルから参照サンプル値をコピーすることによって機能することができる。例えば、コーディングされたビデオビットストリームには、シグナリングが含まれていると仮定すると、このシグナリングは、このブロックに対して、矢印(102)と一致する予測方向を示し、すなわち、サンプルが水平と45度の角度になる右上の1つ以上の予測サンプルから予測される。この場合、サンプルS41、S32、S23、S14は、同じ参照サンプルR05から予測される。そして、サンプルS44は、参照サンプルR08から予測される。
【0014】
いくつかの場合では、参照サンプルを計算するために、特に、方向が45度で均等に割り切れない場合、例えば、補間を通じて複数の参照サンプルの値を組み合わせることができる。
【0015】
ビデオコーディング技術の発展につれて、可能な方向の数が既に増加された。H.264(2003年)では、9つの異なる方向を表すことができた。これは、H.265(2013年)で33個に増加し、JEM/VVC/BMSは、開示時点で最多65個の方向をサポートすることができる。最も可能な方向を識別するための実験が行われ、そして、エントロピーコーディングにおけるいくつかの技術は、少数のビットでそれらの可能性がある方向を表すために使用され、可能性が低い方向に対して、いくつかの代償を受ける。さらに、方向の自体は、隣接する既に復号されたブロックで使用される隣接する方向から予測されることができる場合がある。
【0016】
図1Bは、時間の経過とともに増加する予測方向の数を説明するために、JEMによる65個のフレーム内予測方向を描く概略図(105)を示す。
【0017】
フレーム内予測方向からコーディングされたビデオビットストリームにおける方向を表すビットへのマッピングは、ビデオコーディング技術によって異なることができ、また、例えば、予測方向への簡単な直接マッピングから、フレーム内予測モード、コードワード、最も可能性が高いモードを含む複雑な適応スキーム、および類似な技術まで、様々なものがある。しかしながら、すべての場合では、ビデオコンテンツにおいて、他の特定の方向よりも統計的に発生する可能性が低い特定の方向が存在する可能性がある。ビデオ圧縮の目的は冗長性の削減であるため、それらの可能性が低い方向は、適切に機能するビデオコーディング技術では、可能性が高い方向よりも多くのビットで表される。
【0018】
動き補償は、損失性の圧縮技術であり得、また、下記の技術に関連することができ、当該技術には、以前に再構築された画像またはその一部(参照画像)からのサンプルデータブロックが、動きベクトル(以下、MVと呼ばれる)によって示される方向に空間的にシフトされた後に、新たに再構築された画像または画像部分を予測するために使用される。いくつかの場合では、参照画像は、現在再構築中の画像と同じであってもよい。MVは、XとYの2つの次元を有してもよく、または、3つの次元を有してもよいし、3番目の次元は、使用中の参照画像の指示である(後者は、間接的には、時間次元であってもよい)。
【0019】
いくつかのビデオ圧縮技術では、サンプルデータの特定の領域に適用可能なMVは、他のMVから予測され得て、例えば、再構築中の領域に空間的に隣接しかつ復号順序でそのMVよりも先行する別のサンプルデータ領域に関連するMVから予測され得る。そうすることによって、MVをコーディングするために必要なデータ量が大幅に削減され得て、これにより、冗長性が除去され、圧縮率を向上させる。MV予測は、効果的に機能することができ、例えば、ビデオカメラから導出された入力ビデオ信号(自然ビデオと呼ばれる)をコーディングするとき、単一のMVが適用可能な領域よりも大きい領域が類似の方向に移動するという統計的な可能性が存在しており、したがって、場合によっては、隣接領域のMVから導出された類似のMVを使用して予測することができる。その結果、所与の領域のために見つけられたMVは、周囲のMVから予測されたMVと類似または同じであり、また、エントロピーコーディング後、MVを直接にコーディングする場合に使用されるビット数よりも少ないビット数で表現され得る。いくつかの場合では、MV予測は、元の信号(つまり、サンプルストリーム)から導出された信号(つまり、MV)の無損失性の圧縮の例であり得る。他の場合では、例えば、周囲のいくつかのMVから予測器を計算する際の丸め誤差のため、MV予測自体は、損失性の圧縮であり得る。
【0020】
様々なMV予測メカニズムは、H.265/HEVC(ITU-T Rec.H.265、「高効率ビデオコーディング」、2016年12月)に記載されている。H.265が提供する多くのMV予測メカニズムのうち、本願明細書において説明するのは、以下「空間マージ」と呼ばれる技術である。
【0021】
図1Cを参照すると、現在ブロック(111)は、動き探索プロセス中にエンコーダによって発見されたサンプルを含み得て、これらのサンプルは、空間的にシフトされた、同じサイズの前のブロックから予測され得る。MVを直接にコーディングする代わりに、MVは、1つまたは複数の参照画像に関連付けられたメタデータから導出され得、例えば、A0、A1およびB0、B1、B2(それぞれ112~116)で示される5つの周囲のサンプルのいずれか)に関連付けられたMVを使用して、最も近い(復号順序で)参照画像から導出され得る。H.265では、MV予測は、隣接するブロックによって使用されている同じ参照画像からの予測器を使用することができる。
【発明の概要】
【課題を解決するための手段】
【0022】
本開示の態様は、ビデオ符号化/復号のための装置を提供する。装置は、ビデオビットストリームの一部である現在画像におけるコーディングユニットの予測情報を復号する処理回路を含む。処理回路は、予測情報に基づいて、コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有するかどうかを判定する。処理回路は、コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有する場合、予測情報に含まれる第1のIBCフラグに基づいて、輝度ブロックがフレーム内ブロックコピー(IBC)モードでコーディングされるかどうかを判定する。処理回路は、予測情報に含まれる第1のIBCフラグ、第2のIBCフラグおよびデフォルトモードのうちの1つに基づいて、色度ブロックがIBCモードでコーディングされるかどうかを判定する。前記処理回路は、輝度ブロックおよび色度ブロックに基づいて現在のコーディングユニットを再構築する。
【0023】
一実施形態では、前記処理回路は、コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが同じパーティショニングツリーを有することに応答して、予測情報に含まれる第1のIBCフラグに基づいて、輝度ブロックおよび色度ブロックがIBCモードでコーディングされるかどうかを判定する。前記処理回路は、IBCモードでコーディングされている輝度ブロックおよび色度ブロックに基づいて、輝度ブロックおよび色度ブロックが同じブロックベクトルを有すると判定する。
【0024】
一実施形態では、前記処理回路は、前記輝度ブロックとは異なるパーティショニングツリーを有する色度ブロックに対してIBCモードが無効であることを示すデフォルトモードに基づいて、色度ブロックがIBCモードでコーディングされていないと判定する。
【0025】
一実施形態では、前記処理回路は、輝度ブロックおよび色度ブロックが同じパーティションサイズを有するかどうかを判定する。前記処理回路は、輝度ブロックおよび色度ブロックが同じパーティションサイズを有することに応答して、第1のIBCフラグに基づいて、色度ブロックがIBCモードでコーディングされるかどうかを判定する。
【0026】
一実施形態では、輝度ブロックのブロックサイズは、色度ブロックのブロックサイズよりも大きく、前記処理回路は、第1のIBCフラグに基づいて、輝度ブロックおよび色度ブロックがIBCモードでコーディングされるかどうかを判定する。前記処理回路は、輝度ブロックおよび色度ブロックがIBCモードでコーディングされることに応答して、輝度ブロックおよび色度ブロックが同じブロックベクトルを有すると判定する。
【0027】
一実施形態では、色度ブロックのサンプルの第1サブセットは、IBCモードでコーディングされる第1輝度ブロックと同一位置に配置され、また、色度ブロックのサンプルの第2サブセットは、第1フレーム内予測モードでコーディングされる第2輝度ブロックと同一位置に配置され、前記処理回路は、色度ブロックのサンプルの第1サブセットがIBCモードでコーディングされると判定する。前記処理回路は、色度ブロックのサンプルの第2サブセットが、予測情報に含まれる第1フレーム内予測モードおよび第2フレーム内予測モードのうちの1つでコーディングされると判定する。
【0028】
一実施形態では、色度ブロックのサンプルの第1サブセットおよび第1輝度ブロックは、同じブロックベクトルを有することができる。
【0029】
本開示の態様は、ビデオ符号化/復号方法を提供する。この方法は、ビデオビットストリームの一部である現在画像におけるコーディングユニットの予測情報を復号する。予測情報に基づいて、コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有するかどうかを判定する。コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有する場合、予測情報に含まれる第1のIBCフラグに基づいて、輝度ブロックがフレーム内ブロックコピー(IBC)モードでコーディングされるかどうかを判定する。予測情報に含まれる第1のIBCフラグ、第2のIBCフラグおよびデフォルトモードのうちの1つに基づいて、色度ブロックがIBCモードでコーディングされるかどうかを判定する。輝度ブロックおよび色度ブロックに基づいて現在のコーディングユニットを再構築する。
【0030】
本開示の態様は、命令が記憶されている非一時的なコンピュータ読み取り可能な媒体も提供し、前記命令が少なくとも1つのプロセッサによって実行されると、ビデオ復号のための方法のいずれか1つまたは組み合わせを、前記少なくとも1つのプロセッサに実行させる。
【0031】
開示された主題の更なる特徴、性質、および様々な利点は、以下の詳細な説明および添付図面からより明らかになる。
【図面の簡単な説明】
【0032】
【
図1A】フレーム内予測モードの例示的なサブセットの概略図である。
【
図1B】例示的なフレーム内予測方向の概略図である。
【
図1C】一例における現在ブロックとその周囲の空間マージ候補の概略図である。
【
図2】一実施形態による通信システムの簡略化されたブロック図の概略図である。
【
図3】一実施形態による通信システムの簡略化されたブロック図の概略図である。
【
図4】一実施形態によるデコーダの簡略化されたブロック図の概略図である。
【
図5】一実施形態によるエンコーダの簡略化されたブロック図の概略図である。
【
図6】別の実施形態によるエンコーダのブロック図を示す図である。
【
図7】別の実施形態によるデコーダのブロック図を示す図である。
【
図8】本開示のいくつかの実施形態による例示的なブロックパーティション(block partitions)を示す図である。
【
図9】本開示のいくつかの実施形態による例示的なブロックブロックパーティションを示す図である。
【
図10】本開示のいくつかの実施形態による例示的なブロックパーティションを示す。
【
図11】本開示の一実施形態によるネストされたマルチタイプツリーコーディングブロック構造を有する例示的なクワッドツリーを示す図である。
【
図12】本開示の一実施形態による半減結合ツリースキームを用いた例示的なブロックパーティショニング(partitioning、パーティション分割)を示す図である。
【
図13】本開示の一実施形態による例示的なL字型(またはLタイプ)パーティションを示す図である。
【
図14】本開示のいくつかの実施形態によるL字型パーティションの4つの例を示す図である。
【
図15】一実施形態による例示的なフローチャートを示す図である。
【
図16】一実施形態によるコンピュータシステムの概略図である。
【発明を実施するための形態】
【0033】
I.ビデオデコーダおよびエンコーダシステム
【0034】
図2は、本開示の実施形態による通信システム(200)の簡略化されたブロック図である。通信システム(200)は、例えばネットワーク(250)を介して相互に通信することができる複数の端末デバイスを含む。例えば、通信システム(200)は、ネットワーク(250)を介して相互接続された第1ペアの端末デバイス(210)と(220)を含む。
図2の例では、第1ペアの端末デバイス(210)と(220)は、データの単方向伝送を行う。例えば、端末デバイス(210)は、ネットワーク(250)を介して他の端末デバイス(220)に伝送するために、ビデオデータ(例えば、端末デバイス(210)によって捕捉されたビデオ画像ストリーム)をコーディングすることができる。符号化されたビデオデータは、1つ以上のコーディングされたビデオビットストリームの形で伝送されることができる。端末デバイス(220)は、ネットワーク(250)から、コーディングされたビデオデータを受信し、コーディングされたビデオデータを復号してビデオ画像を復元し、復元されたビデオデータに基づいてビデオ画像を表示することができる。単方向データ伝送は、メディアサービングアプリケーションなどでは一般的である。
【0035】
別の例では、通信システム(200)は、例えばビデオ会議中に発生する可能性がある、コーディングされたビデオデータの双方向伝送を実行する第2ペアの端末デバイス(230)と(240)を含む。データの双方向伝送の場合、一例では、端末デバイス(230)と(240)の各端末デバイスは、ネットワーク(250)を介して端末デバイス(230)と(240)のうちの他方の端末デバイスに送信するために、ビデオデータ(例えば、端末デバイスによって捕捉されたビデオ画像ストリーム)をコーディングすることができる。端末デバイス(230)と(240)の各端末デバイスは、端末デバイス(230)と(240)のうちの他方の端末デバイスによって送信された、コーディングされたビデオデータを受信することもでき、また、コーディングされたビデオデータを復号してビデオ画像を復元し、復元されたビデオデータに基づいて、アクセス可能な表示デバイスにビデオ画像を表示することもできる。
【0036】
図2の例では、端末デバイス(210)、(220)、(230)および(240)は、サーバ、パーソナルコンピュータおよびスマートフォンとして示されてもよいが、本開示の原理は、これに限定されていない。本開示の実施形態は、ラップトップコンピュータ、タブレットコンピュータ、メディアプレイヤーおよび/または専用のビデオ会議機器を有するアプリケーションを見つける。ネットワーク(250)は、端末デバイス(210)、(220)、(230)および(240)間で、コードされたビデオデータを伝送する任意の数のネットワークを表し、有線(ワイヤード)および/または無線の通信ネットワークを含む。通信ネットワーク(250)は、回路交換および/またはパケット交換のチャネルでデータを交換することができる。代表的なネットワークは、電気通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワークおよび/またはインターネットを含む。本開示の目的のために、ネットワーク(250)のアーキテクチャおよびトポロジは、以下に本明細書で説明されない限り、本開示の動作にとって重要ではない場合がある。
【0037】
図3は、開示された主題に対するアプリケーションの例として、ストリーミング環境におけるビデオエンコーダおよびビデオデコーダの配置を図示する。開示された主題は、例えば、CD、DVD、メモリスティックを含むデジタルメディアへの圧縮されたビデオの記憶、ビデオ会議、デジタルTVなどを含む、他のビデオサポートアプリケーションにも同等に適用可能である。
【0038】
ストリーミングシステムは、捕捉サブシステム(313)を含むことができ、この捕捉サブシステムが、例えばデジタルカメラなどのビデオソース(301)を含むことができ、例えば圧縮されていないビデオ画像ストリーム(302)を作成する。一例では、ビデオ画像ストリーム(302)は、デジタルカメラによって撮影されたサンプルを含む。符号化されたビデオデータ(304)(またはコーディングされたビデオビットストリーム)と比較する際に、高いデータボリュームを強調するために太い線で描かれたビデオ画像ストリーム(302)は、ビデオソース(301)に結合されたビデオエンコーダ(303)を含む電子デバイス(320)によって処理されることができる。ビデオエンコーダ(303)は、以下でより詳細に説明するように、開示された主題の様々な態様を可能にするかまたは実現するために、ハードウェア、ソフトウェア、またはそれらの組み合わせを含むことができる。ビデオ画像ストリーム(302)と比較する際に、より低いデータボリュームを強調するために細い線で描かれた、符号化されたビデオデータ(304)(または符号化されたビデオビットストリーム(304))は、将来の使用のためにストリーミングサーバ(305)に記憶されることができる。
図3のクライアントサブシステム(306)および(308)などのような1つ以上のストリーミングクライアントサブシステムは、符号化されたビデオデータ(304)のコピー(307)および(309)を検索するために、ストリーミングサーバー(305)にアクセスすることができる。クライアントサブシステム(306)は、例えば、電子デバイス(330)にビデオデコーダ(310)を含むことができる。ビデオデコーダ(310)は、伝入される、符号化されたビデオデータのコピー(307)を復号して、伝出される、ビデオ画像ストリーム(311)を生成し、このビデオ画像ストリーム(311)が、ディスプレイ(312)(例えば、ディスプレイスクリーン)または他のレンダリングデバイス(図示せず)に表示されることができる。一部のストリーミングシステムでは、符号化されたビデオデータ(304)、(307)および(309)(例えば、ビデオビットストリーム)は、特定のビデオコーディング/圧縮規格に従って符号化されることができる。これらの規格の例は、ITU-T推薦H.265を含む。一例では、開発中のビデオコーディング規格は、非公式には次世代ビデオコーディング(VVC)と呼ばれる。開示された主題は、VVCのコンテキストで使用されることができる。
【0039】
なお、電子デバイス(320)および(330)は、他のコンポーネント(図示せず)を含むことができる。例えば、電子デバイス(320)は、ビデオデコーダ(図示せず)を含むことができ、電子デバイス(330)は、同様にビデオエンコーダ(図示せず)を含むことができる。
【0040】
図4は、本開示の実施形態によるビデオデコーダ(410)のブロック図を示す。ビデオデコーダ(410)は、電子デバイス(430)に含まれることができる。電子デバイス(430)は、受信機(431)(例えば、受信回路)を含むことができる。ビデオデコーダ(410)は、
図3の例におけるビデオデコーダ(310)の代わりに使用することができる。
【0041】
受信機(431)は、ビデオデコーダ(410)によって復号される1つ以上のコーディングされたビデオシーケンスを受信することができ、同じまたは別の実施形態では、一度に1つのコーディングされたビデオシーケンスを受信することができ、ここで、各コーディングされたビデオシーケンスの復号が、他のコーディングされたビデオシーケンスから独立されている。コーディングされたビデオシーケンスは、チャネル(401)から受信されることができ、このチャネルが、符号化されたビデオデータを記憶する記憶デバイスへのハードウェア/ソフトウェアのリンクであってもよい。受信機(431)は、それぞれの使用エンティティ(図示せず)に伝送されることができる、例えばコーディングされたオーディオデータおよび/または補助データストリームなどのような他のデータとともに、符号化されたビデオデータを受信することができる。受信機(431)は、コーディングされたビデオシーケンスを他のデータから分離することができる。ネットワークジッタを防止するために、バッファメモリ(415)は、受信機(431)とエントロピーデコーダ/解析器(Parser)(420)(以降「解析器(420)」)との間に結合されることができる。いくつかのアプリケーションでは、バッファメモリ(415)は、ビデオデコーダ(410)の一部である。他の場合では、バッファメモリ(415)は、ビデオデコーダ(410)の外部に配置されてもよい(図示せず)。さらに他の場合では、例えばネットワークジッタを防止するために、ビデオデコーダ(410)の外部にバッファメモリ(図示せず)があり得て、さらに、例えば再生タイミングを処理するために、ビデオデコーダ(410)の内部に別のバッファメモリ(415)があり得る。受信機(431)が十分な帯域幅および制御可能性を有するストア/フォワードデバイスからまたは等時性同期ネットワーク(isosynchronous network)からデータを受信する場合、バッファメモリ(415)は、必要ではないかまたは小さくてもよい。インターネットなどのようなベストエフォートパケットネットワークで使用するために、バッファメモリ(415)は、必要になる場合があり、比較的大きくすることができ、有利には適応性のサイズにすることができ、オペレーティングシステムまたはビデオデコーダ(410)の外部の類似要素(図示せず)に少なくとも部分的に実装されることができる。
【0042】
ビデオデコーダ(410)は、コーディングされたビデオシーケンスからシンボル(421)を再構築するための解析器(420)を含むことができる。これらのシンボルのカテゴリには、ビデオデコーダ(410)の動作を管理するために使用される情報と、電子デバイス(430)の不可欠な部分ではないが、
図4に示すように、電子デバイス(430)に結合されることができるレンダリングデバイス(412)(例えば、ディスプレイスクリーン)などのようなレンダリングデバイスを制御するための潜在的情報とが含まれる。レンダリングデバイスの制御情報は、補足強化情報(SEIメッセージ)またはビジュアルユーザビリティ情報(VUI)パラメータセットフラグメント(図示せず)の形であってもよい。解析器(420)は、受信された、コーディングされたビデオシーケンスに対して解析/エントロピー復号を行うことができる。コーディングされたビデオシーケンスのコーディングは、ビデオコーディング技術または規格に従うことができ、可変長コーディング、ハフマンコーディング、コンテキスト感度を有するかまたは有しないかの算術コーディングなどを含む、様々な原理に従うことができる。解析器(420)は、グループに対応する少なくとも1つのパラメータに基づいて、コーディングされたビデオシーケンスから、ビデオデコーダにおける画素のサブグループのうちの少なくとも1つのサブグループパラメータのセットを抽出することができる。サブグループは、画像のグループ(GOP:Group of Pictures)、画像、タイル、スライス、マクロブロック、コーディングユニット(CU:Coding Unit)、ブロック、変換ユニット(TU:Trans form Unit)、予測ユニット(PU:Prection Unit)などを含むことができる。解析器(420)は、変換係数、量子化器パラメータ値、MVなどのような情報をコーディングされたビデオシーケンスから抽出することもできる。
【0043】
解析器(420)は、シンボル(421)を作成するために、バッファメモリ(415)から受信されたビデオシーケンスに対してエントロピー復号/解析動作を実行することができる。
【0044】
シンボル(421)の再構築は、コーディングされたビデオ画像またはその一部(例えば、フレーム間画像およびフレーム内画像、フレーム間ブロックおよびフレーム内ブロック)のタイプおよび他の要因に応じて、複数の異なるユニットに関連することができる。どのようなユニットに関連するか、およびどのように関連するかは、解析器(420)によって、コーディングされたビデオシーケンスから解析されたサブグループ制御情報によって制御されることができる。解析器(420)と以下の複数のユニットとの間のそのようなサブグループ制御情報のフローは、明瞭にするために示されていない。
【0045】
既に言及された機能ブロックに加えて、ビデオデコーダ(410)は、以下に説明するように、いくつかの機能ユニットに概念的に細分されることができる。商業的制約で動作する実際の実施形態では、これらのユニットの多くは、互いに密接に相互作用し、少なくとも部分的には互いに統合されることができる。しかしながら、開示された主題を説明する目的のために、以下の機能ユニットへの概念的な細分は適切である。
【0046】
第1ユニットは、スケーラ/逆変換ユニット(451)である。スケーラ/逆変換ユニット(451)は、量子化された変換係数と、どのような変換を使用するかということ、ブロックサイズ、量子化因子、量子化スケーリング行列などを含む制御情報とを、解析器(420)からシンボル(421)として受信する。スケーラ/逆変換ユニット(451)は、アグリゲータ(455)に入力できるサンプル値を含むブロックを出力することができる。
【0047】
いくつかの場合では、スケーラ/逆変換ユニット(451)の出力サンプルは、フレーム内コーディングブロックに属することができ、即ち、以前に再構築された画像からの予測情報を使用していないが、現在画像の以前に再構築された部分からの予測情報を使用することができるブロックである。このような予測情報は、フレーム内画像予測ユニット(452)によって提供されてもよい。いくつかの場合では、フレーム内画像予測ユニット(452)は、現在画像バッファ(458)から抽出された、周囲の既に再構築された情報を使用して、再構築中のブロックと同じサイズおよび形状のブロックを生成する。現在画像バッファ(458)は、例えば、部分的に再構築された現在画像および/または完全に再構築された現在画像をバッファリングする。アグリゲータ(455)は、いくつかの場合では、サンプルごとに基づいて、フレーム内予測ユニット(452)によって生成された予測情報を、スケーラ/逆変換ユニット(451)によって提供される出力サンプル情報に追加する。
【0048】
他の場合では、スケーラ/逆変換ユニット(451)の出力サンプルは、フレーム間コーディングされたブロックおよび潜在的に動き補償されたブロックに属することができる。このような場合、動き補償予測ユニット(453)は、参照画像メモリ(457)にアクセスして、予測に用いられるサンプルを抽出することができる。抽出されたサンプルが、ブロックに関連するシンボル(421)に基づいて動き補償された後、これらのサンプルは、出力サンプル情報を生成するために、アグリゲータ(455)によってスケーラ/逆変換ユニット(451)の出力(この場合、残差サンプルまたは残差信号と呼ばれる)に追加されることができる。動き補償予測ユニット(453)が予測サンプルを抽出するときの参照画像メモリ(457)内のアドレスは、例えば、X、Y、および参照画像成分を有することができるシンボル(421)の形で、動き補償予測ユニット(453)に利用可能なMVによって制御されることができる。動き補償は、サブサンプルの正確な動きベクトルが使用中であるときに、参照画像メモリ(457)から抽出されたサンプル値の補間、MV予測メカニズムなどを含むこともできる。
【0049】
アグリゲータ(455)の出力サンプルは、ループフィルタユニット(456)において様々なループフィルタリング技術によって採用されてもよい。ビデオ圧縮技術は、コーディングされたビデオシーケンス(コーディングされたビデオビットストリームとも呼ばれる)に含まれ、解析器(420)からのシンボル(421)としてループフィルタユニット(456)に利用可能になるパラメータによって制御されるインループフィルタ技術を含むことができ、また、コーディングされた画像またはコーディングされたビデオシーケンスの前の部分(復号順序で)を復号する期間で得られたメタ情報に応答し、および、以前に再構築されてループフィルタリングされたサンプル値に応答することもできる。
【0050】
ループフィルタユニット(456)の出力は、レンダリングデバイス(412)に出力することができ、および、将来のフレーム間画像予測で使用するために参照画像メモリ(457)に記憶することができるサンプルストリームとすることができる。
【0051】
特定のコーディングされた画像は、完全に再構築されると、将来の予測のための参照画像として使用することができる。例えば、現在画像に対応するコーディングされた画像が完全に再構築され、コーディングされた画像が(例えば、解析器(420)によって)参照画像として識別されると、現在画像バッファ(458)は、参照画像メモリ(457)の一部になることができ、そして、後続のコーディングされた画像の再構築を開示する前に、新しい現在画像バッファを再割り当てることができる。
【0052】
ビデオデコーダ(410)は、例えばITU-T Rec.H.265.などのような規格における所定のビデオ圧縮技術に従って復号動作を実行することができる。コーディングされたビデオシーケンスは、コーディングされたビデオシーケンスがビデオ圧縮技術または規格の構文と、ビデオ圧縮技術または規格の文書としてのプロファイルとの両方に従うという意味で、使用されているビデオ圧縮技術または規格によって指定された構文に従うことができる。具体的には、プロファイルは、ビデオ圧縮技術または規格で使用可能なすべてのツールから、そのプロファイルで使用できる唯一のツールとしていくつかのツールを選択することができる。コーディングされたビデオシーケンスの複雑さが、ビデオ圧縮技術または規格の階層によって定義された範囲内にあるということもコンプライアンスに必要である。いくつかの場合では、階層は、最大画像サイズ、最大フレームレート、(例えば、毎秒メガ(mega)個のサンプルを単位として測定された)最大再構築サンプルレート、最大参照画像サイズなどを制限する。階層によって設定された制限は、いくつかの場合では、仮想参照デコーダ(HRD:Hypthetical Reference Decoder)仕様と、コーディングされたビデオシーケンスにおいてシグナルで通知されるHRDバッファ管理のメタデータとによって、さらに制限されることができる。
【0053】
一実施形態では、受信機(431)は、符号化されたビデオとともに付加(冗長)的なデータを受信することができる。付加的なデータは、コーディングされたビデオシーケンスの一部として含まれることができる。付加的なデータは、データを適切に復号し、および/または元のビデオデータをより正確に再構築するために、ビデオデコーダ(410)によって使用されることができる。付加的なデータは、例えば、時間的、空間的、または信号雑音比(SNR:signal noise ratio)拡張層、冗長スライス、冗長画像、前方誤り訂正符号などのような形式にすることができる。
【0054】
図5は、本開示の一実施形態によるビデオエンコーダ(503)のブロック図を示す。ビデオエンコーダ(503)は、電子デバイス(520)に含まれる。電子デバイス(520)は、送信機(540)(例えば、送信回路)を含む。ビデオエンコーダ(503)は、
図3の例におけるビデオエンコーダ(303)の代わりに使用することができる。
【0055】
ビデオエンコーダ(503)は、ビデオエンコーダ(503)によってコーディングされたビデオ画像を捕捉するビデオソース(501)(
図5の例における電子デバイス(520)の一部ではない)から、ビデオサンプルを受信することができる。別の例では、ビデオソース(501)は、電子デバイス(520)の一部である。
【0056】
ビデオソース(501)は、ビデオエンコーダ(503)によってコーディングされたソースビデオシーケンスをデジタルビデオサンプルストリームの形式で提供することができ、前記デジタルビデオサンプルストリームは、任意の適切なビット深度(例えば、8ビット、10ビット、12ビット…)、任意の色空間(例えば、BT.601 Y CrCB、RGB…)及び任意の適切なサンプリング構造(例えば、Y CrCb 4:2:0、Y CrCb 4:4:4)を有することができる。メディアサービスシステムでは、ビデオソース(501)は、以前に準備されたビデオを記憶する記憶デバイスであってもよい。ビデオ会議システムでは、ビデオソース(501)は、ローカル画像情報をビデオシーケンスとして捕捉するカメラであってもよい。ビデオデータは、順番に見られるときに動きを与える複数の個別の画像として提供されることができる。画像自体は、空間画素アレイとして構成されてもよく、ここで、各画素は、使用中のサンプリング構造、色空間などに応じて、1つ以上のサンプルを含むことができる。当業者は、画素とサンプルとの間の関係を容易に理解することができる。以下の説明は、サンプルに焦点を当てる。
【0057】
一実施形態によれば、ビデオエンコーダ(503)は、リアルタイムで、またはアプリケーションによって要求される任意の他の時間制約の下で、ソースビデオシーケンスの画像を、コーディングされたビデオシーケンス(543)にコーディングし圧縮することができる。適切なコーディング速度を実施することは、コントローラ(550)の1つの機能である。いくつかの実施形態では、コントローラ(550)は、以下で説明するように他の機能ユニットを制御し、他の機能ユニットに機能的に結合される。該結合は、明瞭にするために図示されていない。コントローラ(550)によって設定されたパラメータは、レート制御関連パラメータ(画像スキップ、量子化器、レート歪み最適化技術のλ(ラムダ)値…)、画像サイズ、画像のグループ(GOP)レイアウト、最大MV許可参照エリアなどを含むことができる。コントローラ(550)は、特定のシステム設計に対して最適化されたビデオエンコーダ(503)に関連する他の適切な機能を有するように構成されることができる。
【0058】
いくつかの実施形態では、ビデオエンコーダ(503)は、コーディングループで動作するように構成される。過度に簡単化された説明として、一例では、コーディングループは、ソースコーダ(530)(例えば、コーディングされる入力画像と、参照画像とに基づいて、シンボルストリームなどのようなシンボルを作成することを担当する)と、ビデオエンコーダ(503)に埋め込まれた(ローカル)デコーダ(533)とを含むことができる。デコーダ(533)は、(リモート)デコーダがサンプルデータを作成すると同様の方法でシンボルを再構築してサンプルデータを作成する(開示された主題で考慮されているビデオ圧縮技術では、シンボルとコーディングされたビデオビットストリームとの間の任意の圧縮が無損失であるからである)。再構築されたサンプルストリーム(サンプルデータ)は、参照画像メモリ(534)に入力される。シンボルストリームの復号により、デコーダの位置(ローカルまたはリモート)に関係なくビット正確な結果が得られるため、参照画像メモリ(534)のコンテンツは、ローカルエンコーダとリモートエンコーダの間でもビットで正確に対応する。言い換えれば、エンコーダの予測部分が「見た」参照画像サンプルは、デコーダが復号期間に予測を使用する際に「見た」サンプル値と全く同じである。この参照画像の同期性の基本原理(および、例えばチャネル誤差の原因で同期性が維持されない場合に生じるドリフト)は、いくつかの関連技術でも使用されている。
【0059】
「ローカル」デコーダ(533)の動作は、既に
図4に関連して以上で詳細に説明された、ビデオデコーダ(410)などのような「リモート」デコーダの動作と同じであってもよい。しかし、
図4をさらに簡単に参照すると、シンボルが利用可能であり、かつ、エントロピーコーダ(545)および解析器(420)によってコーディングされたビデオシーケンスへのシンボルの符号化/復号が無損失であることができるため、バッファメモリ(415)と解析器(420)を含むビデオデコーダ(410)のエントロピーデコード部分は、ローカルデコーダ(533)で完全に実行できない可能性がある。
【0060】
この時点で、デコーダに存在する解析/エントロピー復号以外のいかなるデコーダ技術も、対応するエンコーダにおいて、実質的に同一の機能形式で必ず存在する必要がある、ということが観察されている。このため、開示された主題は、デコーダ動作に焦点を合わせる。エンコーダ技術の説明は、包括的に説明されたデコーダ技術の逆であるため、省略されることができる。特定の領域だけで、より詳細な説明が必要であり、以下で提供される。
【0061】
動作期間中に、いくつかの実施形態では、ソースコーダ(530)は、動き補償予測コーディングを実行することができ、前記動き補償予測コーディングは、ビデオシーケンスから「参照画像」として指定された1つ以上の以前にコーディングされた画像を参照して、入力画像を予測的にコーディングする。このようにして、コーディングエンジン(532)は、入力画像の画素ブロックと、入力画像に対する予測参照として選択されることができる参照画像の画素ブロックとの間の差分をコーディングする。
【0062】
ローカルビデオデコーダ(533)は、ソースコーダ(530)によって生成されたシンボルに基づいて、参照画像として指定されることができる画像のコーディングされたビデオデータを復号することができる。コーディングエンジン(532)の動作は、有利には損失性プロセスであってもよい。コーディングされたビデオデータがビデオデコーダ(
図5に示されない)で復号された場合、再構築されたビデオシーケンスは、通常、いくつかの誤差を伴うソースビデオシーケンスのレプリカであってもよい。ローカルビデオデコーダ(533)は、参照画像に対してビデオデコーダによって実行されることができる復号プロセスをコピーして、再構築された参照画像を参照画像キャッシュ(534)に記憶することができる。このようにして、ビデオエンコーダ(503)は、遠端ビデオデコーダによって得られる(伝送誤差が存在しない)再構築された参照画像と共通のコンテンツを有する再構築された参照画像のコピーを、ローカルに記憶することができる。
【0063】
予測器(535)は、コーディングエンジン(532)に対して予測検索を実行することができる。すなわち、コーディングされる新しい画像について、予測器(535)は、新しい画像の適切な予測参照として機能するサンプルデータ(候補参照画素ブロックとして)または特定のメタデータ、例えば参照画像MV、ブロック形状などについて、参照画像メモリ(534)を検索することができる。予測器(535)は、適切な予測参照を見つけるために、サンプルブロックに基づいて、画素ブロックごとに動作することができる。いくつかの場合では、予測器(535)によって得られた検索結果によって決定されるように、入力画像は、参照画像メモリ(534)に記憶された複数の参照画像から引き出された予測参照を有することができる。
【0064】
コントローラ(550)は、例えば、ビデオデータを符号化するために使用されるパラメータおよびサブグループパラメータの設定を含む、ソースコーダ(530)のコーディング動作を管理することができる。
【0065】
上述のすべての機能ユニットの出力は、エントロピーコーダ(545)でエントロピーコーディングされることができる。エントロピーコーダ(545)は、例えばハフマンコーディング、可変長コーディング、算術コーディングなどのような技術に従って、シンボルを無損失で圧縮することにより、様々な機能ユニットによって生成されたシンボルをコーディングされたビデオシーケンスに変換する。
【0066】
送信機(540)は、コードされたビデオデータを記憶する記憶デバイスへのハードウェア/ソフトウェアリンクであることができる通信チャネル(560)を介した送信に備えるために、エントロピーコーダ(545)によって生成成された、コーディングされたビデオシーケンスをバッファリングすることができる。送信機(540)は、ビデオコーダ(503)からのコーディングされたビデオデータを、送信される他のデータ、例えば、コーディングされたオーディオデータおよび/または補助データストリーム(ソースは図示せず)とマージすることができる。
【0067】
コントローラ(550)は、ビデオエンコーダ(503)の動作を管理することができる。コーディングする期間、コントローラ(550)は、各コーディングされた画像に、特定のコーディングされた画像タイプを割り当てることができ、これは、それぞれの画像に適用できるコーディング技術に影響を与える可能性がある。例えば、画像は、以下の画像タイプのいずれかとして割り当てられることが多い。
【0068】
即ち、フレーム内画像(I画像)は、シーケンス内の任意の他の画像を予測のソースとして使用せずに、符号化および復号されることができるものであってもよい。いくつかのビデオコーデックは、独立したデコーダリフレッシュ(Independent Decoder Refresh、「IDR」)画像などの異なるタイプのフレーム内画像を許容する。当業者は、I画像の変種とそれらのアプリケーションおよび機能とを理解している。
【0069】
予測画像(P画像)は、多くとも1つのMVおよび参照インデックスを使用して各ブロックのサンプル値を予測するフレーム内予測またはフレーム間予測を使用して符号化および復号され得るものであってもよい。
【0070】
双方向予測画像(B画像)は、多くとも2つのMVおよび参照インデックスを使用して各ブロックのサンプル値を予測するフレーム内予測またはフレーム間予測を使用して符号化および復号され得るものであってもよい。同様に、複数の予測画像は、単一のブロックの再構築に、2つ以上の参照画像および関連付けられたメタデータを使用することができる。
【0071】
ソース画像は、一般的に、複数のサンプルブロック(例えば、それぞれ4×4、8×8、4×8、または16×16個のサンプルのブロック)に空間的に細分され、ブロックごとにコーディングされることができる。これらのブロックは、ブロックのそれぞれの画像に適用されるコーディング割り当てによって決定されるように、他の(既にコーディングされた)ブロックを参照して予測的にコーディングされることができる。例えば、I画像のブロックは、非予測的にコーディングされてもよく、またはそれらが同じ画像の既にコーディングされたブロックを参照して予測的にコーディングされてもよい(空間予測またはフレーム内予測)。P画像の画素ブロックは、1つ前に符コーディングされた参照画像を参照して、空間的予測を介してまたは時間的予測を介して予測的にコーディングされてもよい。B画像のブロックは、1つまたは2つ前にコーディングされた参照画像を参照して、空間的予測を介してまたは時間的予測を介して予測的にコーディングされてもよい。
【0072】
ビデオエンコーダ(503)は、例えばITU-T H.265などのような所定のビデオコーディング技術または規格に従って、コーディング動作を実行することができる。その動作において、ビデオエンコーダ(503)は、入力ビデオシーケンスにおける時間的と空間的冗長性を利用する予測コーディング動作を含む、様々な圧縮動作を実行することができる。したがって、コーディングされたビデオデータは、使用されるビデオコーディング技術または規格によって指定された構文に従うことができる。
【0073】
一実施形態では、送信機(540)は、符号化されたビデオとともに、付加的なデータを送信することができる。ソースコーダ(530)は、そのようなデータを、コーディングされたビデオシーケンスの一部として含むことができる。付加的なデータは、時間的/空間的/SNR拡張層、冗長画像やスライスなどのような他の形式の冗長データ、SEIメッセージ、VUIパラメータセットフラグメントなどを含むことができる。
【0074】
ビデオは、時系列で複数のソース画像(ビデオ画像)として捕捉されることができる。フレーム内画像予測(フレーム内予測と略称されることが多い)は、与えられた画像における空間的相関を利用し、フレーム間画像予測は、画像間の(時間的または他の)相関を利用する。一例では、現在画像と呼ばれる、符号化/復号中の特定の画像がブロックにパーティショニングされる。現在画像のブロックが、ビデオにおける以前にコーディングされ、まだバッファリングされている参照画像における参照ブロックに類似している場合、現在画像のブロックは、MVと呼ばれるベクトルによってコーディングされることができる。MVは、参照画像における参照ブロックを指し、複数の参照画像が使用されている場合、参照画像を識別する3番目の次元を有することができる。
【0075】
いくつかの実施形態では、双方向予測技術は、フレーム間画像予測に使用されることができる。双方向予測技術によれば、例えば、復号の順で両方とも、ビデオにおける現在画像の前にある(ただし、表示の順でそれぞれ、過去と将来にあるかもしれない)第1参照画像および第2参照画像などのような2つの参照画像が使用される。現在画像におけるブロックは、第1参照画像における第1参照ブロックを指す第1のMVと、第2参照画像における第2参照ブロックを指す第2のMVによってコーディングされることができる。ブロックは、第1参照ブロックおよび第2参照ブロックの組み合わせによって予測されることができる。
【0076】
さらに、コーディング効率を向上させるために、マージモード技術は、フレーム間画像予測で使用されることができる。
【0077】
本開示のいくつかの実施形態によれば、フレーム間画像予測やフレーム内画像予測などのような予測は、ブロックの単位で実行される。例えば、HEVC規格に従って、ビデオ画像のシーケンスにおける画像は、圧縮のためにコーディングツリーユニット(CTU:coding tree unit)にパーティショニングされ、画像におけるCTUは同じサイズ、例えば64×64画素、32×32画素、または16×16画素を有する。一般的に、CTUは、1つの輝度CTBと2つの色度CTBである3つのコーディングツリーブロック(CTB)を含む。各CTUは、再帰的にクワッドツリーで1つ以上のコーディングユニット(CU)に分割されてもよい。例えば、64×64画素のCTUは、1つの64×64画素のCU、4つの32×32画素のCU、または16つの16×16画素のCUに分割されることができる。一例では、各CUは、フレーム間予測タイプまたはフレーム内予測タイプなどのようなCUに対する予測タイプを決定するために分析される。CUは、時間的および/または空間的予測可能性に応じて、1つ以上の予測ユニット(PU)に分割される。通常、各PUは、輝度予測ブロック(PB)と2つの色度PBを含む。一実施形態では、コーディング(符号化/復号)における予測動作は、予測ブロックの単位で実行される。輝度予測ブロックを予測ブロックの例として使用すると、予測ブロックは、8×8画素、16×16画素、8×16画素、16×8画素などのような画素値(例えば、輝度値)の行列を含む。
【0078】
図6は、本開示の別の実施形態によるビデオエンコーダ(603)の図を示す。ビデオエンコーダ(603)は、ビデオ画像シーケンスにおける現在ビデオ画像内のサンプル値の処理ブロック(例えば、予測ブロック)を受信し、処理ブロックをコーディングされたビデオシーケンスの一部であるコーディングされた画像に符号化するように構成される。一例では、ビデオエンコーダ(603)は、
図3の例におけるビデオエンコーダ(303)の代わりに使用される。
【0079】
HEVCの例では、ビデオエンコーダ(603)は、例えば8×8サンプルの予測ブロックなどのような処理ブロックのサンプル値の行列を受信する。ビデオエンコーダ(603)は、例えばレート歪み最適化を使用して、フレーム内モード、フレーム間モード、または双方向予測モードを使用して処理ブロックをコーディングするかどうかを決定する。処理ブロックがフレーム内モードでコーディングされた場合、ビデオエンコーダ(603)は、フレーム内予測技術を使用して、処理ブロックをコーディングされた画像に符号化することができ、また、処理ブロックがフレーム間モードまたは双方向予測モードでコーディングされた場合、ビデオエンコーダ(603)は、それぞれフレーム間予測または双方向予測技術を使用して、処理ブロックをコーディングされた画像に符号化することができる。特定のビデオコーディング技術では、マージモードは、予測値以外にあるコーディングされたMV成分の利点を利用しない場合に、MVが1つ以上のMV予測値から導出されるフレーム間画像予測サブモードにすることができる。特定の他のビデオコーディング技術では、主題ブロックに適用可能なMV成分が存在する場合がある。一例では、ビデオエンコーダ(603)は、処理ブロックのモードを決定するためのモード決定モジュール(図示せず)などのような他のコンポーネントを含む。
【0080】
図6の例では、ビデオエンコーダ(603)は、
図6に示すように一緒に結合された、フレーム間エンコーダ(630)と、フレーム内エンコーダ(622)と、残差計算器(623)と、スイッチ(626)と、残差エンコーダ(624)と、汎用コントローラ(621)と、エントロピーエンコーダ(625)とを含む。
【0081】
フレーム間エンコーダ(630)は、現在ブロック(例えば、処理ブロック)のサンプルを受信し、そのブロックを参照画像(例えば、前の画像と後の画像におけるブロック)内の1つ以上の参照ブロックと比較し、フレーム間予測情報(例えば、フレーム間符号化技術による冗長情報説明、MV、マージモード情報)を生成して、任意の適切な技術を使用して、フレーム間予測情報に基づいてフレーム間予測結果(例えば、予測ブロック)を計算するように構成される。いくつかの例では、参照画像は、復号された参照画像であり、それが符号化されたビデオ情報に基づいて復号されたものである。
【0082】
フレーム内エンコーダ(622)は、現在ブロック(例えば、処理ブロック)のサンプルを受信し、いくつかの場合では、そのブロックを同じ画像で既にコーディングされたブロックと比較し、変換後に量子化された係数を生成して、いくつかの場合では、フレーム内予測情報(例えば、1つ以上のフレーム内符号化技術によるフレーム内予測方向情報)を生成するように構成される。一例では、フレーム内エンコーダ(622)は、フレーム内予測情報と、同じ画像における参照ブロックとに基づいて、フレーム内予測結果(例えば、予測ブロック)も計算する。
【0083】
汎用コントローラ(621)は、汎用制御データを決定し、汎用制御データに基づいてビデオエンコーダ(603)の他のコンポーネントを制御するように構成される。一例では、汎用コントローラ(621)は、ブロックのモードを決定し、そのモードに基づいて制御信号をスイッチ(626)に提供する。例えば、モードがフレーム内モードである場合、汎用コントローラ(621)は、残差計算器(623)によって使用されるフレーム内モード結果を選択するように、スイッチ(626)を制御し、フレーム内予測情報を選択して、そのフレーム内予測情報をコードストリームに含めるように、エントロピーエンコーダ(625)を制御する。また、モードがフレーム間モードである場合、汎用コントローラ(621)は、残差計算器(623)によって使用されるフレーム間予測結果を選択するように、スイッチ(626)を制御し、フレーム間予測情報を選択して、そのフレーム間予測情報をコードストリームに含めるように、エントロピーエンコーダ(625)を制御する。
【0084】
残差計算器(623)は、受信されたブロックとフレーム内エンコーダ(622)またはフレーム間エンコーダ(630)から選択された予測結果との間の差(残差データ)を計算するように構成される。残差エンコーダ(624)は、残差データに基づいて動作して、残差データを符号化することで変換係数を生成するように構成される。一例では、残差エンコーダ(624)は、残差データを空間領域から周波数領域へ変換し、変換係数を生成するように構成される。次に、変換係数は量子化処理を受けて、量子化された変換係数が得られる。様々な実施形態では、ビデオエンコーダ(603)はまた、残差デコーダ(628)も含む。残差デコーダ(628)は、逆変換を実行し、復号された残差データを生成するように構成される。復号された残差データは、フレーム内エンコーダ(622)およびフレーム間エンコーダ(630)によって適切に使用されることができる。例えば、フレーム間エンコーダ(630)は、復号された残差データおよびフレーム間予測情報に基づいて、復号されたブロックを生成することができ、フレーム内エンコーダ(622)は、復号された残差データおよびフレーム内予測情報に基づいて、復号されたブロックを生成することができる。復号されたブロックは、復号された画像を生成するために適切に処理され、いくつかの例では、復号された画像は、メモリ回路(図示せず)でバッファされ、参照画像として使用されることができる。
【0085】
エントロピーエンコーダ(625)は、符号化されたブロックを含むようにビットストリームをフォーマットするように構成される。エントロピーエンコーダ(625)は、HEVCなどのような適切な規格に従って様々な情報を含むように構成される。一例では、エントロピーエンコーダ(625)は、汎用制御データ、選択された予測情報(例えば、フレーム内予測情報またはフレーム間予測情報)、残差情報、およびビットストリーム内の他の適切な情報を含むように構成される。開示された主題によれば、フレーム間モードまたは双方向予測モードのマージサブモードでブロックをコーディングする場合、残差情報はないということに留意されたい。
【0086】
図7は、本開示の別の実施形態によるビデオデコーダ(710)の図を示す。ビデオデコーダ(710)は、コーディングされたビデオシーケンスの一部であるコーディングされた画像を受信し、コーディングされた画像を復号して再構築された画像を生成するように構成される。一例では、ビデオデコーダ(710)は、
図3の例におけるビデオデコーダ(310)の代わりに使用される。
【0087】
図7の例では、ビデオデコーダ(710)は、
図8に示されるように一緒に結合された、エントロピーデコーダ(771)と、フレーム間デコーダ(780)と、残差デコーダ(773)と、再構築モジュール(774)と、フレーム内デコーダ(772)とを含む。
【0088】
エントロピーデコーダ(771)は、コーディングされた画像から、コーディングされた画像を構成する構文要素を表す特定のシンボルを再構築するように構成されることができる。このようなシンボルは、例えば、ブロックをコーディングするためのモード(例えば、フレーム内モード、フレーム間モード、双方向予測モード、後者の2つのマージサブモードまたは別のサブモード)と、フレーム内デコーダ(772)またはフレーム間デコーダ(780)による予測に使用される特定のサンプルまたはメタデータをそれぞれ識別できる予測情報(例えば、フレーム内予測情報またはフレーム間予測情報など)と、例えば量子化された変換係数の形式の残差情報などとを含む。一例では、予測モードがフレーム間予測モードまたは双方向予測モードである場合、フレーム間予測情報は、フレーム間デコーダ(780)に提供される。そして、予測タイプがフレーム内予測タイプである場合、フレーム内予測情報は、フレーム内デコーダ(772)に提供される。残差情報は、逆量子化を受けて、残差デコーダ(773)に提供されることができる。
【0089】
フレーム間デコーダ(780)は、フレーム間予測情報を受信し、フレーム間予測情報に基づいてフレーム間予測結果を生成するように構成される。
【0090】
フレーム内デコーダ(772)は、フレーム内予測情報を受信し、フレーム内予測情報に基づいて予測結果を生成するように構成される。
【0091】
残差デコーダ(773)は、逆量子化を実行して、逆量子化された変換係数を抽出し、その逆量子化された変換係数を処理して、残差を周波数領域から空間領域に変換するように構成される。残差デコーダ(773)はまた、特定の制御情報(量子化器パラメータ(QP)を含むように)も必要とする場合があり、その情報は、エントロピーデコーダ(771)によって提供される場合がある(これが低ボリューム制御情報のみであるため、データ経路は図示されていない)。
【0092】
再構築モジュール(774)は、空間領域において、残差デコーダ(773)による出力としての残差と、(場合によっては、フレーム間予測モジュールまたはフレーム内予測モジュールによる出力としての)予測結果とを組み合わせて、再構築されたブロックを形成するように構成され、再構築されたブロックは、再構築された画像の一部とすることができ、その後、再構築された画像は、再構築されたビデオの一部とすることができる。それは、視覚的品質を改善するために、デブロッキング動作などのような他の適切な動作を実行することができる、ということに留意されたい。
【0093】
ビデオエンコーダ(303)、(503)および(603)と、ビデオデコーダ(310)、(410)および(710)とは、任意の適切な技術を使用して実現されることができる、ということに留意されたい。一実施形態では、ビデオエンコーダ(303)、(503)および(603)と、ビデオデコーダ(310)、(410)および(710)とは、1つ以上の集積回路を使用して実現されることができる。別の実施形態では、ビデオエンコーダ(303)、(503)および(603)と、ビデオデコーダ(310)、(410)および(710)とは、ソフトウェア命令を実行する1つ以上のプロセッサを使用して実装されることができる。
【0094】
II.ブロックパーティション
【0095】
図8は、本開示のいくつかの実施形態による例示的なブロックパーティションを示す。一実施形態では、
図8における例示的なブロックパーティションは、オープンメディア同盟(AOMedia:Alliance for Open Media)によって提案されたVP9で使用され得る。
図8に示すように、4ウェイパーティショニング(partitioning)ツリーを使用することができ、この4ウェイパーティショニングツリーは、64×64レベルから始まり、4×4レベルまで続いて、8×8ブロックに対していくつかの追加制限がある。なお、Rとして指定されたパーティションは、再帰パーティションと呼ばれ得る、ということに留意されたい。つまり、同じパーティショニングツリーは、最低の4×4レベルに達するまで、より低いスケールで繰り返され得る。
【0096】
図9は、本開示のいくつかの実施形態による例示的なブロックパーティションを示す。一実施形態では、
図9における例示的なブロックパーティションは、Aomediaによって提案されたAV1で使用され得る。
図9に示すように、パーティションツリーは、10ウェイ構造に拡張され得ており、また、最大コーディングブロックサイズ(VP9/AV1の用語ではスーパーブロックと呼ばれる)は、128×128から始まるように増加される。なお、
図9の1行目における4:1/1:4の長方形のパーティションは、VP9には存在しないことに留意されたい。
図9の2行目における3つのサブパーティションを有するパーティションタイプは、Tタイプパーティションと呼ばれる。長方形のパーティションは、さらに細分され得ない。コーディングブロックサイズに加えて、コーディングツリー深さは、ルートノードからの分割深さを示すように定義される。一実施形態では、ルートノード(例えば、128×128)についてのコーディングツリー深さは、0に設定され得る。コーディングブブロックがさらに1回分割された後、コーディングツリー深さは、1だけ増加される。
【0097】
VP9において固定変換ユニットサイズを使用するように強制される代わりに、AV1において輝度コーディングブロックを複数のサイズの変換ユニットにパーティショニングすることが許可され、これらの変換ユニットは、最大2レベル下がる再帰パーティションによって表現され得る。AV1において拡張されたコーディングブロックパーティションを合併するために、4×4から64×64までの正方形、2:1/1:2および4:1/1:4の変換サイズがサポートされている。色度コーディングブロックについては、可能な最大の変換ユニットのみが許可される。
【0098】
HEVCなどのいくつかの関連する例では、CTUは、様々な局所的特徴に適応するために、コーディングツリーとして表現されたクワッドツリー構造を使用してCUに分割され得る。フレーム間画像(時間的)予測またはフレーム内画像(空間的)予測を使用して画像領域をコーディングするかどうかの判定は、CUレベルで実行され得る。各CUは、PU分割タイプに応じて、さらに1つ、2つ、または4つのPUに分割され得る。1つのPU内で、同じ予測プロセスは適用され得ており、また、関連情報は、PU単位上でデコーダに送信され得る。PU分割タイプに基づいて予測プロセスを適用することで残差ブロックが取得された後、CUは、CUのためのコーディングツリーのような別のクワッドツリー構造に従って、TUにパーティショニングされ得る。HEVC構造の重要な特徴の1つは、CU、PUおよびTuを含むマルチパーティションという概念があることである。HEVCでは、CUまたはTUは、正方形の形状のみであり得、一方、PUは、フレーム間予測ブロックに対して、正方形または長方形の形状であってもよい。HEVCでは、1つのコーディングブロックは、さらに、4つの正方形のサブブロックに分割され得て、また、変換プロセスは、各サブブロック、すなわちTUに対して実行され得る。各TUは、(例えば、クワッドツリー分割を使用して)より小さなTUにさらに再帰的に分割され得る。クワッドツリー分割は、残差クワッドツリー(RQT:residual quadtree)と呼ばれることができる。
【0099】
画像境界では、HEVCは、暗黙的なクワッドツリー分割を採用し、これにより、ブロックでは、当該ブロックのサイズが画像境界に適合するまで、クワッドツリー分割が続けて実行され得る。
【0100】
VVCなどのいくつかの関連する例では、バイナリおよびターナリセグメンテーション構造を使用する、ネストされたマルチタイプツリーを有するクワッドツリーは、マルチパーティションユニットタイプの概念を置き換えることができる。つまり、CUのサイズが最大変換長さに対して大きすぎない限り、CU、PUおよびTU概念の分離が削除された。したがって、これらの例では、CUパーティション形状のための更なる柔軟性をサポートすることができる。VVCのコーディングツリー構造では、CUは、正方形または長方形のいずれかの形状を有することができる。CTUは、最初にクォータナリツリー(またはクワッドツリー)構造によってパーティショニングされ得る。そして、当該クォータナリツリーのリーフノードは、マルチタイプツリー構造によってさらにパーティショニングされ得る。
【0101】
図10は、本開示のいくつかの実施形態によるマルチタイプツリー分割モードのための例示的なブロックパーティションを示す。一実施形態では、
図10における例示的なブロックパーティションは、VVCで使用され得る。
図10に示すように、マルチタイプツリー構造には、垂直バイナリ分割(SPLIT_BT_VER)、水平バイナリ分割(SPLIT_BT_HOR)、垂直ターナリ分割(SPLIT_TT_VER)、水平ターナリ分割(SPLIT_TT_HOR)という4つの分割タイプがある。マルチタイプツリーのリーフノードは、CUと呼ばれる。CUが最大変換長さに対して大きすぎない限り、マルチタイプツリー構造は、さらなるパーティショニングを必要とせずに、予測プロセスおよび変換プロセスに使用され得る。これは、ほとんどの場合、CU、PUおよびTUは、ネストされたマルチタイプツリーコーディングブロック構造を持つクワッドツリーにおいて、同じブロックサイズを有することができる、ということを意味する。ただし、サポートされている最大変換長さがCUのカラー成分の幅または高さよりも小さい場合、1つの例外が発生する場合がある。
【0102】
図11は、本開示の一実施形態によるネストされたマルチタイプツリーコーディングブロック構造を有する例示的なクワッドツリーを示す。
【0103】
VVCなどのいくつかの関連する例では、サポートされている最大輝度変換サイズは64×64であり、また、サポートされている最大色度変換サイズは32×32である。CBの幅または高さが最大変換幅または高さよりも大きい場合、CBは、その方向の変換サイズ制限を満たすために、水平方向および/または垂直方向に沿って自動的に分割され得る。
【0104】
VTM7などのいくつかの関連する例では、コーディングツリースキームは、分離のブロックツリー構造を有する1つのCTU内の輝度CTBおよび色度CTBをサポートすることができる。例えば、PスライスとBスライスについては、1つのCTU内の輝度CTBおよび色度CTBは、同じコーディングツリー構造を共有する。ただし、Iスライスについては、1つのCTU内の輝度CTBおよび色度CTBは、分離のブロックツリー構造を有することができる。分離のブロックツリーモードが適用される場合、輝度CTBは、1つのコーディングツリー構造によってCUにパーティショニングされ、色度CTBは、別のコーディングツリー構造によって色度CUにパーティショニングされる。これは、Iスライス内のCUには、1つの輝度成分のコーディングブロックまたは2つの色度成分のコーディングブロックが含まれ、また、PまたはBスライス内のCUには、ビデオがモノクロでない限り、全ての3つの色成分のコーディングブロックが常に含まれ得る、ということを意味する。
【0105】
いくつかの関連する例では、半分離ツリー(SST:semi-separate tree)または色度成分のための柔軟なブロックパーティショニングとも呼ばれる半減結合ツリー(SDT:semi-decoupled tree)スキームが採用されている。SDTでは、1つのスーパーブロック(SB:super block)内の輝度ブロックおよび色度ブロックは、同じまたは異なるブロックパーティショニングを有することができ、これは、輝度コーディングブロックのブロックサイズまたは輝度ツリー深さに依存している。例えば、輝度ブロックのブロックサイズが閾値T1よりも大きい場合、または、輝度ブロックのコーディングツリー分割深さが閾値T2以下である場合、輝度ブロックに関連付けられた色度ブロックは、輝度ブロックと同じコーディングツリー構造を使用することができる。さもないと、輝度ブロックのブロックサイズがT1以下である場合、または、輝度ブロックの輝度分割深さがT2よりも大きい場合、関連付けられた色度ブロックは、輝度ブロックと異なるコーディングブロックパーティショニングを有することができる。したがって、このスキームは、色度成分のための柔軟なブロックパーティショニングと呼ばれる。T1は、128や256などの正の整数である。T2は、1や2などの正の整数である。
図12には、ブロックツリーパーティショニングの一例が示されており、ここで、T2は、1に設定されている。
【0106】
いくつかの関連する例では、改良された半減結合パーティショニング(SDP:semi-decoupled partitionin)スキームが採用され、このスキームでは、輝度ブロックおよび色度ブロックがスーパーブロックのルートノードから部分的なツリー構造を共有することができ、また、輝度ブロックおよび色度ブロックが分離のツリーパーティショニングをいつ開始するかに関する条件は、輝度ブロックのパーティショニング情報またはビットストリームからの高度な構文に依存している。
【0107】
いくつかの関連する例では、Lタイプのブロックパーティショニングツリースキームが採用されている。長方形のブロックパーティションを使用する代わりに、Lタイプのパーティショニングでは、ブロックは、1つ以上のL字型パーティションと1つ以上の長方形パーティションに分割され得る。
【0108】
図13は、例示的なL字型(またはLタイプ)パーティションを示す。本開示では、回転されたL字型パーティションも、L字型パーティションとみなされている。
図13に示すように、幅、高さ、短幅および短高さを含むいくつかの用語は、L字型パーティションに関連付けられている。
【0109】
図14は、本開示のいくつかの実施形態によるLタイプパーティショニングツリーの4つの例を示す。ブロックは、1つのL字型パーティション(パーティション1)と1つの長方形パーティション(パーティション0)を含む2つのパーティションにパーティショニングされ得る。
【0110】
III.フレーム内ブロックコピー(Intra block copy)
【0111】
フレーム内ブロックコピー(IntraBCまたはIBC)は、フレーム間画像予測に類似したコーディングツールである。主な違いは、IntraBCでは、予測ブロックは、(例えば、ループ内フィルタリングが適用される前に)現在画像の再構築されたサンプルから形成される。したがって、IntraBCは、現在画像内の「動き補償」と見なされることができる。
【0112】
ブロックベクトル(BV: block vector)は、予測ブロックの位置を特定するためにコーディングされ得る。BVの精度は、整数であり得る。BVは、予測器の位置を特定するために、ビットストリーム内で、信号で通知され得る。現在ブロックについて、現在ブロックがIntraBCモードでコーディングされるかどうかを示すフラグ(例えば、IBCフラグ)は、まず、ビットストリーム内で送信される。次に、現在ブロックがIntraBCモードでコーディングされた場合、BV差分(diff)は、現在BVから参照BVを減算することによって得られて、次に、diffは、水平成分と垂直成分のdiff値に従って、4つのタイプのうちの1つに分類され得る。タイプ情報は、ビットストリームに伝送され得る。次に、2つの成分のdiffは、タイプ情報に基づいて信号で通知され得る。
【0113】
スクリーンコンテンツコーディングなどのいくつかの関連する例では、IntraBCは、有効なツールである。しかしながら、IntraBCは、ハードウェア設計に困難をもたらすこともある。ハードウェア設計を容易にするために、以下の変更は採用され得る。
【0114】
(1)IntraBCが許可された場合、デブロッキングフィルタ、制約付き方向エンハンスメントフィルタ(CDEF:constrained directional enhancement filter)、ループ復元フィルタなどのループフィルタが無効にされる。これにより、再構築されたサンプルの画像バッファは、IntraBCとフレーム間予測との間で共有され得る。
【0115】
(2)並列復号を容易にするために、予測は、制限された領域を超えることができない。1つのスーパーブロックについて、その左上の位置の座標が(x0,y0)である場合、y<y0およびx<x0+2*(y0-y)であれば、IntraBCは、位置(x,y)での予測にアクセスすることができる。
【0116】
(3)ハードウェアライトバックの遅延を可能にするために、IntraBC予測によって即時再構築された領域にアクセスすることはできない。制限された即時再構築された領域は、1~n個のスーパーブロックの範囲内であってもよい。したがって、修正(2)に加えて、1つのスーパーブロックの左上の位置の座標が(x0,y0)である場合、y<y0およびx<x0+2*(y0-y)-Dであれば、IntraBCは、位置(x,y)での予測にアクセスすることができ、ここで、Dは、制限された即時再構築された成領域を表す。
【0117】
IV.改良されたIBC予測
【0118】
AV1などのいくつかの関連する例では、輝度ブロックおよび色度ブロックは、同じパーティショニングツリーを共有することができ、また、輝度ブロックおよび関連付けられた色度ブロックも、同じIntraBCフラグを共有することができ、これは、IntraBCモードが輝度ブロックと色度ブロックの両方で有効にするか、輝度ブロックおよび色度ブロックの両方で無効にすることができる、ということを意味する。しかしながら、SDPなどのいくつかの場合には、輝度ブロックおよび色度ブロックは、同じパーティショニングツリーを共有したり、異なるパーティショニングツリーを有したりすることができる。したがって、SDPなどのいくつかの場合には、輝度ブロックと色度ブロックの間で常にIntraBCフラグを共有することは、最適ではない場合がある。
【0119】
本開示において、ブロックサイズは、ブロック幅、ブロック高さ、幅および高さの最大値、幅および高さの最小値、ブロックの面積サイズ(幅*高さ)、またはアスペクト比(幅:高さ、または、高さ:幅)などの、ブロックの様々なサイズ属性を指すことができる。スーパーブロックは、最大コーディングユニット(LCU:largest coding unit)を指すことができ、例えば、AV1における128×128のブロックである。SDPは、SDTとも呼ばれ得る。IntraBCフラグは、現在ブロックに対してIntraBCが適用されているかどうかを示すブロックレベルフラグである。
【0120】
本開示は、IntraBCモードをコーディングユニットに適用するかどうかを判定する方法を含み、このコーディングユニットにおいて、例えば、コーディングユニットがSDPを使用する場合、輝度ブロックおよび関連付けられた色度ブロックが部分的なツリー構造を共有することができる。したがって、この方法は、コーディングユニットに対してSDPが有効になっている場合に適用され得る。
【0121】
本開示の態様によれば、輝度ブロックおよび関連付けられた色度ブロックが同じパーティション構造(またはツリー)を共有する(または有する)場合、輝度ブロックおよび色度ブロックのIntraBCフラグは同じである。さもないと、輝度ブロックおよび関連付けられた色度ブロックが異なるパーティショニングツリーを有する場合、輝度ブロックおよび色度ブロックのIntraBCフラグは異なる可能性がある。
【0122】
一実施形態では、輝度ブロックおよび関連付けられた色度ブロックが同じパーティション構造(またはツリー)を共有する場合、輝度ブロックおよび色度ブロックの両方のIntraBCフラグおよびBVは同じである。
【0123】
一実施形態では、輝度ブロックおよび関連付けられた色度ブロックが同じパーティション構造(またはツリー)を共有する場合、輝度ブロックおよび色度ブロックのIntraBCフラグは同じである。さもないと、輝度ブロックおよび関連付けられた色度ブロックが異なるパーティショニングツリーを有する場合、輝度ブロックのみに対して、IntraBCフラグがビットストリーム内で信号で通知され、色度ブロックに対しては、IntraBCフラグが常にゼロ(またはfalse、無効)に設定され得る。
【0124】
一実施形態では、輝度ブロックおよび関連付けられた色度ブロックが同じパーティション構造(またはツリー)を共有する場合、輝度ブロックおよび色度ブロックのIntraBCフラグは同じである。さもないと、輝度ブロックおよび関連付けられた色度ブロックが異なるパーティショニングツリーを有する場合、輝度ブロックおよび関連付けられた色度ブロックに対して、IntraBCフラグが、ビットストリーム内で別々に信号で通知され得る。
【0125】
本開示の態様によれば、輝度ブロックおよび色度ブロックが異なるパーティショニングツリー構造を有する場合、輝度ブロックおよび関連付けられた色度ブロックは、同じIntraBCフラグを共有することができる。
【0126】
一実施形態では、輝度ブロックおよび関連付けられた色度ブロックが異なるパーティショニングツリー構造および同じパーティションサイズを有する場合、輝度ブロックおよび関連付けられた色度ブロックは、同じIntraBCフラグおよび/またはBVを共有することができる。例えば、YUV420フォーマットでは、輝度ブロックのブロックサイズが64×32であり、また、関連付けられた色度ブロックのブロックサイズが32×16であれば、輝度ブロックおよび関連付けられた色度ブロックは、同じパーティションサイズを有する。したがって、輝度ブロックおよび関連付けられた色度ブロックは、同じIntraBCフラグおよび/またはBVを共有することができる。
【0127】
一実施形態では、輝度ブロックおよび関連付けられた色度ブロックが異なるパーティショニングツリー構造を有し、また、輝度ブロックおよび色度ブロックのサイズの差が閾値以下である場合、輝度ブロックおよび関連付けられた色度ブロックは、同じIntraBCフラグおよび/またはBVを共有することができる。例えば、関連付けられた色度ブロックのブロックサイズが輝度ブロックのブロックサイズのK倍以下であり、また、関連付けられた色度ブロックのブロックサイズが輝度ブロックのブロックサイズの1/K倍以上である場合、輝度ブロックおよび関連付けられた色度ブロックは、同じIntraBCフラグおよび/またはBVを共有することができる。一例では、Kは、2または4に設定されている。
【0128】
本開示の態様によれば、同一位置に配置される(co-located)輝度ブロックが、現在色度ブロックよりも大きなブロックサイズを使用してコーディングされた場合、色度IntraBCフラグおよび関連付けられたBVは、同一位置に配置される輝度ブロックから継承され得る。
【0129】
本開示の態様によれば、色度ブロックは、複数の同一位置に配置される輝度ブロックに関連付けられてもよく、また、色度ブロックおよび複数の同一位置に配置される輝度ブロックは、異なるパーティショニングツリーを有してもよい。複数の同一位置に配置される輝度ブロックは、IntraBCモードで部分的にまたは完全的にコーディングされてもよい。
【0130】
一実施形態では、複数の同一位置に配置される輝度ブロックがIntraBCモードで完全的にコーディングされる場合、複数の同一位置に配置される輝度ブロックの全てがIntraBCモードでコーディングされ、また、色度ブロックがIntraBCモードでコーディングされる。色度ブロックのBVは、複数の同一位置に配置される輝度ブロックの中央サンプルに関連付けられたBVまたは複数の同一位置に配置される輝度ブロックのコーナーサンプルに関連付けられたBVに基づいて導出され得る。
【0131】
一実施形態では、複数の同一位置に配置される輝度ブロックがIntraBCモードで部分的にコーディングされる場合、複数の同一位置に配置される輝度ブロックの第1サブセットがIntraBCモードでコーディングされ、また、複数の同一位置に配置される輝度ブロックの第2サブセットがフレーム内予測でコーディングされる。複数の同一位置に配置される輝度ブロックの第1サブセットに関連付けられた色度ブロックの第1複数の色度サンプルがIntraBCモードでコーディングされる。当該第1複数の色度サンプルのBVは、複数の同一位置に配置される輝度ブロックの第1サブセットの中央サンプルに関連付けられたBV、または複数の同一位置に配置される輝度ブロックの第1サブセットのコーナーサンプルに関連付けられたBVに基づいて導出され得る。複数の同一位置に配置される輝度ブロックの第2サブセットに関連付けられた色度ブロックの第2複数の色度サンプルは、フレーム内予測でコーディングされる。第2複数の色度サンプルのフレーム内予測モードは、ビットストリーム内で信号で通知されるか、または複数の同一位置に配置される輝度ブロックの第2サブセットのフレーム内予測モードに基づいて導出され得る。次に、色度ブロックの予測ブロックは、第1複数の色度サンプルおよび第2複数の色度サンプルに基づいて生成され得る。
【0132】
V.フローチャート
【0133】
図15は、本開示の一実施形態による例示的な処理(1500)を概説するフローチャートを示す。様々な実施形態では、処理(1500)は、例えば、端末デバイス(210)、(220)、(230)および(240)における処理回路、ビデオエンコーダ(303)の機能を実行する処理回路、ビデオデコーダ(310)の機能を実行する処理回路、ビデオデコーダ(410)の機能を実行する処理回路、フレーム内予測モジュール(452)の機能を実行する処理回路、ビデオエンコーダ(503)の機能を実行する処理回路、予測器(535)の機能を実行する処理回路、フレーム内エンコーダ(622)の機能を実行する処理回路、フレーム内デコーダ(772)の機能を実行する処理回路などの処理回路によって実行される。いくつかの実施形態では、処理(1500)はソフトウェア命令で実現され、したがって、処理回路がソフトウェア命令を実行するとき、当該処理回路は、処理(1500)を実行する。
【0134】
処理(1500)は、通常、ステップ(S1510)で開始することができ、ステップ(S1510)において、処理(1500)は、ビデオビットストリームの一部である現在画像におけるコーディングユニットの予測情報を復号する。次に、処理(1500)は、ステップ(S1520)に進む。
【0135】
ステップ(S1520)において、処理(1500)は、予測情報に基づいて、コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有するかどうかを判定する。コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有する異なる場合、処理(1500)は、ステップ(S1530)に進む。
【0136】
ステップ(S1530)において、処理(1500)は、予測情報に含まれる第1のIBCフラグに基づいて、輝度ブロックがIBCモードでコーディングされるかどうかを判定する。次に、処理(1500)は、ステップ(S1540)に進む。
【0137】
ステップ(S1540)において、処理(1500)は、予測情報に含まれる第1のIBCフラグ、第2のIBCフラグおよびデフォルトモードのうちの1つに基づいて、色度ブロックがIBCモードでコーディングされるかどうかを判定する。次に、処理(1500)は、ステップ(S1550)に進む。
【0138】
ステップ(S1550)において、処理(1500)は、輝度ブロックおよび色度ブロックに基づいて、コーディングユニットを再構築する。次に、処理(1500)は終了する。
【0139】
一実施形態では、処理(1500)は、コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが同じパーティショニングツリーを有することに応答して、予測情報に含まれる第1のIBCフラグに基づいて、輝度ブロックおよび色度ブロックがIBCモードでコーディングされるかどうかを判定する。処理(1500)は、IBCモードでコーディングされている輝度ブロックおよび色度ブロックに基づいて、輝度ブロックおよび色度ブロックが同じブロックベクトルを有すると判定する。
【0140】
一実施形態では、処理(1500)は、輝度ブロックとは異なるパーティショニングツリーを有する色度ブロックに対してIBCモードが無効であることを示すデフォルトモードに基づいて、色度ブロックがIBCモードでコーディングされていないと判定する。
【0141】
一実施形態では、処理(1500)は、輝度ブロックおよび色度ブロックが同じパーティションサイズを有するかどうかを判定する。輝度ブロックおよび色度ブロックが同じパーティションサイズを有することに応答して、処理(1500)は、第1のIBCフラグに基づいて、色度ブロックがIBCモードでコーディングされるかどうかを判定する。
【0142】
一実施形態では、輝度ブロックのブロックサイズは色度ブロックのブロックサイズよりも大きく、処理(1500)は、第1のIBCフラグに基づいて、輝度ブロックおよび色度ブロックがIBCモードでコーディングされるかどうかを判定する。輝度ブロックおよび色度ブロックがIBCモードでコーディングされていることに応答して、処理(1500)は、輝度ブロックおよび色度ブロックが同じブロックベクトルを有すると判定する。
【0143】
一実施形態では、色度ブロックのサンプルの第1サブセットは、IBCモードでコーディングされる第1輝度ブロックと同一位置に配置され、色度ブロックのサンプルの第2サブセットは、第1フレーム内予測モードでコーディングされる第2輝度ブロックと同一位置に配置され、処理(1500)は、色度ブロックのサンプルの第1サブセットがIBCモードでコーディングされると判定する。処理(1500)は、色度ブロックのサンプルの第2サブセットが、予測情報に含まれる第1フレーム内予測モードおよび第2フレーム内予測モードのうちの1つでコーディングされると判定する。
【0144】
一実施形態では、色度ブロックのサンプルの第1サブセットおよび第1輝度ブロックは、同じブロックベクトルを有することができる。
【0145】
VI.コンピュータシステム
【0146】
上記の技術は、コンピュータ読み取り可能な命令を使用するコンピュータソフトウェアとして実現され、また、物理的に1つ以上のコンピュータ読み取り可能な媒体に記憶されることができる。例えば、
図16は、開示された主題の特定の実施形態を実現するのに適したコンピュータシステム(1600)を示す。
【0147】
コンピュータソフトウェアは、任意の適切なマシンコードまたはコンピュータ言語を使用してコーディングされることができ、アセンブリ、コンパイル、リンク、または同様のメカニズムを受けて命令を含むコードを作成することができ、命令は、1つ以上のコンピュータ中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)などによって、直接的に実行されてもよく、またはコード解釈、マイクロコード実行などによって実行されてもよい。
【0148】
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲームデバイス、オブジェクトネットワークデバイス(internet of things devices)などを含む、様々なタイプのコンピュータまたはそのコンポーネントで実行されてもよい。
【0149】
図16に示されるコンピュータシステム(1600)のコンポーネントは、本質的に例示的なものであり、本開示の実施形態を実現するコンピュータソフトウェアの使用範囲または機能に関するいかなる制限も示唆することが意図されていない。コンポーネントの構成は、コンピュータシステム(1600)の例示的な実施形態に示されているコンポーネントのいずれかまたは組み合わせに関連する任意の依存性または要件を有すると解釈されるべきではない。
【0150】
コンピュータシステム(1600)は、いくつかのヒューマンインターフェース入力デバイスを含むことができる。このようなヒューマンインターフェース入力デバイスは、触覚入力(例えば、キーストローク、スワイプ、データグローブの動きなど)、オーディオ入力(例えば、音声、拍手など)、視覚入力(例えば、ジェスチャーなど)、嗅覚入力(図示せず)によって、1人以上のユーザによる入力に応答することができる。ヒューマンインターフェースデバイスはまた、例えばオーディオ(例えば、音声、音楽、環境音など)、画像(例えば、スキャンされた画像、静止画像カメラから得られた写真画像など)、ビデオ(例えば、2次元ビデオ、立体映像を含む3次元ビデオなど)などの、人間による意識的な入力に必ずしも直接関連されているとは限らない、特定のメディアを捕捉するために使用されることもできる。
【0151】
ヒューマンインターフェース入力デバイスは、キーボード(1601)、マウス(1602)、トラックパッド(1603)、タッチスクリーン(1610)、データグローブ(図示せず)、ジョイスティック(1605)、マイクロホン(1606)、スキャナ(1607)およびカメラ(1608)(それぞれの1つだけが図示された)のうちの1つまたは複数を含むことができる。
【0152】
コンピューターシステム(1600)はまた、いくつかのヒューマンインターフェース出力デバイスを含むことができる。そのようなヒューマンインターフェース出力デバイスは、例えば、触覚出力、音、光、および嗅覚/味覚によって、1人以上のユーザの感覚を刺激することができる。このようなヒューマンインターフェース出力デバイスは、触覚出力デバイス(例えば、タッチスクリーン(1610)、データグローブ(図示せず)またはジョイスティック(1605)による触覚フィードバックであるが、入力デバイスとして作用しない触覚フィードバックデバイスであってもよい)、オーディオ出力デバイス(例えば、スピーカ(1609)、ヘッドホン(図示せず))、視覚出力デバイス(例えば、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含むスクリーン(1610)であり、各々は、タッチスクリーン入力機能を備えてもよく、あるいは備えていなくてもよいし、各々は、触覚フィードバック機能を備えてもよく、あるいは備えていなくてもよいし、これらのいくつかは、例えば、ステレオグラフィック出力、仮想現実メガネ(図示せず)、ホログラフィックディスプレイとスモークタンク(図示せず)、およびプリンタ(図示せず)などによって、2次元の視覚出力または3次元以上の視覚出力を出力することができる。これらの視覚出力デバイス(例えばスクリーン(1610))は、グラフィックアダプタ(1650)を介してシステムバス(1648)に接続され得る。
【0153】
コンピューターシステム(1600)は、CD/DVDを有するCD/DVD ROM/RW(1620)を含む光学媒体または類似の媒体(1621)、サムドライブ(1622)、リムーバブルハードドライブまたはソリッドステートドライブ(1623)、テープおよびフロッピーディスク(図示せず)などのようなレガシー磁気媒体、セキュリティドングル(図示せず)などのような特殊なROM/ASIC/PLDベースのデバイスなどのような、人間がアクセス可能な記憶デバイスおよびそれらに関連する媒体を含むことができる。
【0154】
当業者はまた、ここで開示されている主題に関連して使用される「コンピュータ読み取り可能な媒体」という用語は、伝送媒体、搬送波、または他の一時的な信号を包含しないことを理解すべきである。
【0155】
コンピューターシステム(1600)はまた、一つ以上の通信ネットワーク(1655)へのネットワークインターフェース(1654)を含むことができる。一つ以上の通信ネットワーク(1655)は、例えば、無線、有線、光学的であってもよい。一つ以上の通信ネットワーク(1655)はさらに、ローカルネットワーク、広域ネットワーク、大都市圏ネットワーク、車両用ネットワークおよび産業用ネットワーク、リアルタイムネットワーク、遅延耐性ネットワークなどであってもよい。一つ以上の通信ネットワーク(1655)の例は、イーサネット(登録商標)、無線LAN、セルラーネットワーク(GSM(登録商標)、3G、4G、5G、LTEなど)などのLAN、テレビケーブルまたは無線広域デジタルネットワーク(有線テレビ、衛星テレビ、地上放送テレビを含む)、車両用および産業用ネットワーク(CANBusを含む)などを含む。いくつかのネットワークは、一般に、いくつかの汎用データポートまたは周辺バス(1649)(例えば、コンピュータシステム(1600)のUSBポート)に接続された外部ネットワークインターフェースアダプタが必要であり、他のシステムは、通常、以下に説明するようにシステムバスに接続することによって、コンピュータシステムシステム(1600)のコアに統合される(例えば、PCコンピュータシステムへのイーサネットインターフェース、またはスマートフォンコンピュータシステムへのセルラーネットワークインターフェース)。これらのネットワークのいずれかを使用して、コンピュータシステム(1600)は、他のエンティティと通信することができる。このような通信は、単方向の受信のみ(例えば、放送TV)、単方向の送信のみ(例えば、Canbusから特定のCanbusデバイスへ)、あるいは、双方向の、例えばローカルまたは広域デジタルネットワークを使用して他のコンピュータシステムへの通信であってもよい。上述のように、特定のプロトコルおよびプロトコルスタックは、それらのネットワークおよびネットワークインターフェースのそれぞれで使用されることができる。
【0156】
上記ヒューマンマシンインタフェースデバイス、ヒューマンアクセス可能な記憶デバイス、およびネットワークインターフェースは、コンピューターシステム(1600)のコア(1640)に接続されることができる。
【0157】
コア(1640)は、1つ以上の中央処理ユニット(CPU)(1641)、グラフィック処理ユニット(GPU)(1642)、フィールドプログラマブルゲートアレイ(FPGA)(1643)の形式の専用プログラマブル処理ユニット、特定のタスクのためのハードウェアアクセラレータ(1644)、グラフィックスアダプタ(1650)などを含むことができる。これらのデバイスは、リードオンリーメモリ(ROM)(1645)、ランダムアクセスメモリ(RAM)(1646)、例えば内部の非ユーザアクセスハードディスクドライブ、SSDなどの内部大容量ストレージ(1647)などとともに、システムバス(1648)を介して接続されてもよい。いくつかのコンピュータシステムでは、付加的なCPU、GPUなどによって拡張を可能にするために、システムバス(1648)に1つ以上の物理的プラグの形でアクセスすることができる。周辺デバイスは、コアのシステムバス(1648)に直接的に接続されてもよく、または周辺バス(1649)を介して接続されてもよい。一例では、スクリーン(1610)は、グラフィックスアダプタ(1650)に接続されて得る。周辺バスのアーキテクチャは、外部コントローラインターフェース(PCI)、汎用シリアルバス(USB)などを含む。
【0158】
CPU(1641)、GPU(1642)、FPGA(1643)、およびアクセラレータ(1644)は、いくつかの命令を実行することができ、これらの命令を組み合わせて上述のコンピュータコードを構成することができる。そのコンピュータコードは、ROM(1645)またはRAM(1646)に記憶されることができる。また、一時的なデータは、RAM(1646)に記憶されることができる一方、永久的なデータは、例えば内部大容量ストレージ(1647)に記憶されることができる。1つ以上のCPU(1641)、GPU(1642)、大容量ストレージ(1647)、ROM(1645)、RAM(1646)などと密接に関連することができる、キャッシュメモリを使用することにより、任意のメモリデバイスに対する高速記憶および検索が可能になる。
【0159】
コンピュータ読み取り可能な媒体は、様々なコンピュータ実行された動作を実行するためのコンピュータコードを有することができる。媒体およびコンピュータコードは、本開示の目的のために特別に設計および構成されたものであってもよく、またはコンピュータソフトウェア分野の技術者によって知られ、利用可能な媒体およびコードであってもよい。
【0160】
限定ではなく例として、アーキテクチャ(1600)、特にコア(1640)を有するコンピュータシステムは、1つ以上の有形な、コンピュータ読み取り可能な媒体に具体化されたソフトウェアを実行する、(CPU、GPU、FPGA、アクセラレータなどを含む)プロセッサとして機能を提供することができる。このようなコンピュータ読み取り可能な媒体は、上記のユーザがアクセス可能な大容量ストレージに関連する媒体であり、コア内部大容量ストレージ(1647)またはROM(1645)などの、不揮発性コア(1640)を有する特定のストレージであってもよい。本開示の様々な実施形態を実現するソフトウェアは、そのようなデバイスに記憶され、コア(1640)によって実行されてもよい。コンピュータ読み取り可能な媒体は、特定のニーズに応じて、1つ以上のメモリデバイスまたはチップを含むことができる。このソフトウェアは、コア(1640)、具体的にはその中のプロセッサ(CPU、GPU、FPGAなどを含む)に、RAM(1646)に記憶されているデータ構造を定義することと、ソフトウェアによって定義されたプロセスに従ってこのようなデータ構造を変更することとを含む、本明細書に説明された特定のプロセスまたは特定のプロセスの特定の部分を実行させることができる。加えてまたは代替として、コンピュータシステムは、ロジックハードワイヤードされているか、または別の方法で回路(例えば、アクセラレータ(1644))に組み込まれているため、機能を提供することができ、この回路は、ソフトウェアの代わりに動作し、またはソフトウェアと一緒に動作して、本明細書に説明された特定のプロセスの特定のプロセスまたは特定の部分を実行することができる。適切な場合には、ソフトウェアへの参照はロジックを含むことができ、逆もまた然りである。適切な場合には、コンピュータ読み取り可能な媒体への参照は、実行されるソフトウェアを記憶する回路(集積回路(IC)など)を含み、実行されるロジックを具体化する回路、またはその両方を兼ね備えることができる。本開示は、ハードウェアおよびソフトウェアの任意の適切な組み合わせを包含する。
【0161】
付録A:頭字語
ALF:Adaptive Loop Filter、適応ループフィルタ
AMVP:Advanced Motion Vector Prediction、高度な動きベクトル予測
APS:Adaptation Parameter Set、適応パラメータセット
ASIC:Application-Specific Integrated Circuit、特定用途向け集積回路
ATMVP:Alternative/Advanced Temporal Motion Vector Prediction、代替/高度な時間的動きベクトル予測
AV1:AOMedia Video 1
AV2:AOMedia Video 2
BMS:Benchmark Set、ベンチマークセット
BV:Block Vector、ブロックベクトル
CANBus:Controller Area Network Bus、コントローラエリアネットワークバス
CB: Coding Block、コーディングブロック
CC-ALF:Cross-Component Adaptive Loop Filter、クロスコンポーネント適応ループフィルタ
CD:Compact Disc、コンパクトディスク
CDEF:Constrained Directional Enhancement Filter、制約付き方向エンハンスメントフィルタ
CPR:Current Picture Referencing、現在画像の参照
CPU:Central Processing Unit、中央処理装置
CRT:Cathode Ray Tube、陰極線管
CTB:Coding Tree Block、コーディングツリーブロック
CTU:Coding Tree Unit、コーディングツリーユニット
CU:Coding Unit、コーディングユニット
DPB:Decoder Picture Buffer、デコーダ画像バッファ
DPCM:Differential Pulse-Code Modulation、差分パルス符号変調
DPS:Decoding Parameter Set、復号パラメータセット
DVD:Digital Video Disc、デジタルビデオディスク
FPGA:Field Programmable Gate Area、フィールドプログラマブルゲートエリア
JCCR:Joint CbCr Residual Coding、共同CbCr残差コーディング
JVET:Joint Video Exploration Team、共同ビデオ探索チーム
GOP::Groups of Pictures、画像グループ
GPU:Graphics Processing Unit、グラフィックス処理ユニット
GSM:Global System for Mobile communications、モバイル通信のグローバルシステム
HDR:High Dynamic Range、ハイダイナミックレンジ
HEVC:High Efficiency Video Coding、高効率ビデオコーディング
HRD:Hypothetical Reference Decoder、仮想参照デコーダ
IBC:Intra Block Copy、フレーム内ブロックコピー
IC:Integrated Circuit、集積回路
ISP:Intra Sub-Partitions、フレーム内サブパーティション
JEM:Joint Exploration Model、共同探索モデル
LAN:Local Area Network、ローカルエリアネットワーク
LCD:Liquid-Crystal Display、液晶ディスプレイ
LR:Loop Restoration Filter、ループ復元フィルタ
LRU:Loop Restoration Unit、ループ復元ユニット
LTE:Long-Term Evolution、長期的な進化
MPM:Most Probable Mode、最確モード
MV:Motion Vector、動きベクトル
OLED:Organic Light-Emitting Diode、有機発光ダイオード
PBs:Prediction Blocks、予測ブロック
PCI:Peripheral Component Interconnect、外部コントローラインターフェース
PDPC:Position Dependent Prediction Combination、位置依存予測組合せ
PLD:Programmable Logic Device、プログラマブルロジックデバイス
PPS:Picture Parameter Set、画像パラメータセット
PU:Prediction Unit、予測ユニット
RAM:Random Access Memory、ランダムアクセスメモリ
ROM:Read-Only Memory、読み取り専用メモリ
SAO:Sample Adaptive Offset、サンプル適応オフセット
SCC:Screen Content Coding、スクリーンコンテンツコーディング
SDR:Standard Dynamic Range、標準ダイナミックレンジ
SEI:Supplementary Enhancement Information、補足強化情報
SNR:Signal Noise Ratio、信号雑音比
SPS:Sequence Parameter Set、シーケンスパラメータセット
SSD:Solid-state Drive、ソリッドステートドライブ
TU:Transform Unit、変換ユニット
USB:Universal Serial Bus、汎用シリアルバス
VPS:Video Parameter Set、ビデオパラメータセット
VUI:Visual Usability Information、ビジュアルユーザビリティ情報
VVC:Versatile Video Coding、多用途ビデオコーディング
WAIP:Wide-Angle Intra Prediction、広角フレーム内予測
【0162】
本開示は、いくつかの例示的な実施形態について説明したが、本開示の範囲内にある変更、配置、および様々な均等置換が存在している。したがって、当業者は、本明細書では明確に示されていないかまたは説明されていないが、本開示の原則を具現しているので、本開示の精神および範囲内にある、様々なシステムおよび方法を設計することができる、ということを理解されたい。
【符号の説明】
【0163】
200 通信システム
210,220,230,240 端末デバイス
250 ネットワーク
300 ストリーミング環境
301 ビデオソース
302 ビデオ画像ストリーム
303 ビデオエンコーダ
304 符号化されたビデオデータ
305 ストリーミングサーバ
306 クライアントサブシステム
307 符号化されたビデオデータのコピー
308 クライアントサブシステム
309 符号化されたビデオデータのコピー
310 ビデオデコーダ
311 ビデオ画像ストリーム
312 ディスプレイ
313 捕捉サブシステム
320 電子デバイス
401 チャネル
410 ビデオデコーダ
412 レンダリングデバイス
415 バッファメモリ
420 エントロピーデコーダ/解析器
421 シンボル
430 電子デバイス
431 受信機
451 スケーラ/逆変換ユニット
452 フレーム内画像予測ユニット
453 動き補償予測ユニット
455 アグリゲータ
456 ループフィルタユニット
457 参照画像メモリ
458 現在画像バッファ
501ソースビデオシーケンス
550コントローラ
530ソースエンコーダ
535予測器
532符号化エンジン
534参照画像メモリ
533デコーダ
545エントロピーエンコーダ
540送信機
560チャネル
block data ブロックデータ
621汎用コントローラ
general control data汎用コントロールデータ
intra prediction resultイントラ予測結果
622イントラエンコーダ
630インターエンコーダ
reference pictures 参照画像
624残差エンコーダ
inter prediction informationイントラ予測情報
628残差デコーダ
inter prediction resultインター予測結果
inter prediction informationインター予測情報
625エントロピーエンコーダ
coded video sequence符号化されたビデオシーケンス
710 ビデオデコーダ
771 エントロピーデコーダ
772 フレーム内デコーダ
773 残差デコーダ
774 再構築モジュール
780 フレーム間デコーダ
1600 コンピュータシステム
1601 キーボード
1602 マウス
1603 トラックパッド
1605 ジョイスティック
1606 マイクロホン
1607 スキャナ
1608 カメラ
1609 スピーカ
1610 スクリーン、タッチスクリーン
1620 CD/DVD ROM/RW
1621 光学媒体
1622 サムドライブ
1623 リムーバブルドライブ
1640 コア
1641 中央処理ユニット(CPU)
1642 グラフィック処理ユニット(GPU)
1643 フィールドプログラマブルゲートアレイ(FPGA)
1644 ハードウェアアクセラレータ
1645 リードオンリーメモリ(ROM)
1646 ランダムアクセスメモリ(RAM)
1647 内部大容量ストレージ
1648 システムバス
1649 周辺バス
1650 グラフィックスアダプタ
1654 ネットワークインターフェース
1655 通信ネットワーク
【手続補正書】
【提出日】2024-08-23
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
デコーダにおいてビデオをコーディングする方法であって、
ビデオビットストリームの一部である現在画像におけるコーディングユニットの予測情報を復号するステップと、
前記予測情報に基づいて、前記コーディングユニットに関連付けられた輝度ブロックおよび色度ブロックが異なるパーティショニングツリーを有するかどうかを判定するステップと、
前記コーディングユニットに関連付けられた前記輝度ブロックおよび前記色度ブロックが異なるパーティショニングツリーを有することに応答して、
前記予測情報に含まれる第1のIBCフラグに基づいて、前記輝度ブロックがフレーム内ブロックコピー(IBC)モードでコーディングされるかどうかを判定するステップと、
前記予測情報に含まれる前記第1のIBCフラグ、第2のIBCフラグおよびデフォルトモードのうちの1つに基づいて、前記色度ブロックが前記IBCモードでコーディングされるかどうかを判定するステップと、
前記輝度ブロックおよび前記色度ブロックに基づいて、前記コーディングユニットを再構築するステップと、を含む
ことを特徴とする方法。
【外国語明細書】