IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ インターデジタル シーイー パテント ホールディングスの特許一覧

特表2024-538666クロス成分深度-ルーマコーディング
<>
  • 特表-クロス成分深度-ルーマコーディング 図1A
  • 特表-クロス成分深度-ルーマコーディング 図1B
  • 特表-クロス成分深度-ルーマコーディング 図1C
  • 特表-クロス成分深度-ルーマコーディング 図1D
  • 特表-クロス成分深度-ルーマコーディング 図2
  • 特表-クロス成分深度-ルーマコーディング 図3
  • 特表-クロス成分深度-ルーマコーディング 図4
  • 特表-クロス成分深度-ルーマコーディング 図5
  • 特表-クロス成分深度-ルーマコーディング 図6
  • 特表-クロス成分深度-ルーマコーディング 図7
  • 特表-クロス成分深度-ルーマコーディング 図8
  • 特表-クロス成分深度-ルーマコーディング 図9
  • 特表-クロス成分深度-ルーマコーディング 図10
  • 特表-クロス成分深度-ルーマコーディング 図11
  • 特表-クロス成分深度-ルーマコーディング 図12
  • 特表-クロス成分深度-ルーマコーディング 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-10-23
(54)【発明の名称】クロス成分深度-ルーマコーディング
(51)【国際特許分類】
   H04N 19/11 20140101AFI20241016BHJP
   H04N 19/597 20140101ALI20241016BHJP
   H04N 19/186 20140101ALI20241016BHJP
   H04N 19/157 20140101ALI20241016BHJP
   H04N 19/136 20140101ALI20241016BHJP
【FI】
H04N19/11
H04N19/597
H04N19/186
H04N19/157
H04N19/136
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024520021
(86)(22)【出願日】2022-10-05
(85)【翻訳文提出日】2024-05-13
(86)【国際出願番号】 EP2022077679
(87)【国際公開番号】W WO2023057501
(87)【国際公開日】2023-04-13
(31)【優先権主張番号】21306388.6
(32)【優先日】2021-10-05
(33)【優先権主張国・地域又は機関】EP
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.WCDMA
2.3GPP
3.HDMI
(71)【出願人】
【識別番号】518341334
【氏名又は名称】インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(74)【代理人】
【識別番号】100108213
【弁理士】
【氏名又は名称】阿部 豊隆
(72)【発明者】
【氏名】ラート、ガガン ビハリ
(72)【発明者】
【氏名】ナセル、カラム
(72)【発明者】
【氏名】フランソワ、エドゥアール
(72)【発明者】
【氏名】ポワリエ、タンギ
【テーマコード(参考)】
5C159
【Fターム(参考)】
5C159MA04
5C159MA05
5C159MA21
5C159MC11
5C159ME01
5C159PP15
5C159PP16
5C159TA12
5C159TA31
5C159TB08
5C159TC02
5C159TC27
5C159TC42
5C159TD02
5C159TD03
5C159TD12
5C159TD13
5C159UA02
5C159UA05
5C159UA16
5C159UA33
(57)【要約】
クロス成分深度-ルーマコーディングのためのシステム、方法、及び手段が開示される。深度情報は、テクスチャ情報(例えば、ルーマ、クロマ、又はR、G、Bカラー成分情報)のジョイント又はクロス成分コーディングのための情報として使用され得る。深度情報は、対応するテクスチャ情報とジョイントコーディングするために使用され得る。実施例では、デバイスは、ジョイント深度-カラーコーディングモード(JDCC)(例えば、ジョイント深度-ルーマコーディングモード(JDLC))などのコーディングモードが現在のブロックに対して使用されているかどうかを判定し得る。JDCCコーディングモードがブロックに対して使用されている場合、デバイスは、ブロック内の深度サンプルを復号し、復号された深度サンプルに基づいて、ブロック内の対応するカラーサンプル(例えば、ルーマサンプル及び/又はクロマサンプル)を予測し得る。
【特許請求の範囲】
【請求項1】
ビデオ復号デバイスであって、
プロセッサを備え、前記プロセッサが、
ジョイント深度-カラーコーディング(JDCC)モードがコーディングブロックに対して使用されていると判定し、
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定に基づいて、前記コーディングブロックについての深度情報を取得し、
前記深度情報に基づいて、前記コーディングブロック内の対応する複数のカラーサンプルを予測することによって前記コーディングブロックを復号する、ように構成されている、ビデオ復号デバイス。
【請求項2】
前記複数のカラーサンプルが、複数のルーマサンプルを含む、請求項1に記載のビデオ復号デバイス。
【請求項3】
前記複数のカラーサンプルが、複数のクロマサンプルを含む、請求項1に記載のビデオ復号デバイス。
【請求項4】
前記プロセッサが、
JDCC有効化指示を取得するように更に構成されており、前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記JDCCモードが有効化されていることを示す前記JDCC有効化指示と関連付けられた値に少なくとも基づいて判定される、請求項1に記載のビデオ復号デバイス。
【請求項5】
前記プロセッサが、
ブロックレベルJDCC有効化指示を取得するように更に構成されており、前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記JDCCモードが前記コーディングブロックに対して有効化されていることを示す前記ブロックレベルJDCC有効化指示と関連付けられた値に少なくとも基づいて判定される、請求項1に記載のビデオ復号デバイス。
【請求項6】
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記コーディングブロックと関連付けられたJDCC有効化指示、前記コーディングブロックについての深度情報をコーディングすることと関連付けられた予測モード、及び前記コーディングブロックについてのカラー情報をコーディングすることと関連付けられた予測モードに基づく、請求項1に記載のビデオ復号デバイス。
【請求項7】
前記プロセッサが、
前記コーディングブロックについての前記深度情報に基づいて、前記コーディングブロック内の深度エッジ位置を取得し、
前記深度エッジ位置に基づいて、前記コーディングブロックの第1のパーティション及び前記コーディングブロックの第2のパーティションを識別し、
デコーダ側イントラモデル導出(DIMD)を使用して、隣接ブロックの第1のセットに基づいて、前記第1のパーティションのための第1の予測モードを判定し、
DIMDを使用して、隣接ブロックの第2のセットに基づいて、前記第2のパーティションのための第2の予測モードを判定する、ように更に構成されている、請求項1に記載のビデオ復号デバイス。
【請求項8】
前記プロセッサが、
判定された前記第1の予測モードに基づいて、前記第1のパーティション内の第1の複数のカラーサンプルを予測し、
判定された前記第2の予測モードに基づいて、前記第2のパーティション内の第2の複数のカラーサンプルを予測する、ように更に構成されている、請求項7に記載のビデオ復号デバイス。
【請求項9】
前記深度情報が、深度エッジアンカーの指示を含み、前記プロセッサが、
前記深度エッジアンカーと前記コーディングブロックをコーディングするために使用されるイントラ方向モードと関連付けられた方向とに基づいて、深度エッジ位置を取得し、
前記深度エッジ位置に基づいて、コーディングブロックを第1のパーティション及び第2のパーティションに分割する、ように更に構成されており、前記コーディングブロック内の前記対応する複数のカラーサンプルが、前記パーティションに基づいて予測される、請求項1に記載のビデオ復号デバイス。
【請求項10】
前記深度情報が、複数の深度サンプルを含み、前記プロセッサが、
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定に基づいて、前記複数の深度サンプルに基づく、前記コーディングブロック内の前記対応する複数のカラーサンプルを予測するように更に構成されている、請求項1に記載のビデオ復号デバイス。
【請求項11】
前記プロセッサが、
前記深度情報に基づいて、前記コーディングブロック内の深度エッジ位置を取得し、
前記エッジ位置に基づいて、前記コーディングブロックの第1のパーティション及び前記コーディングブロックの第2のパーティションを識別し、
前記第1のパーティション内の第1の複数の深度サンプルと関連付けられた第1の複数の深度サンプル値を取得し、
前記第1の複数の深度サンプル値に基づいて、前記第1のパーティション内の第1の複数のカラーサンプルと関連付けられた第1の複数のカラーサンプル値を予測し、
前記第2のパーティション内の第2の複数の深度サンプルと関連付けられた第2の複数の深度サンプル値を取得し、
前記第2の複数の深度サンプル値に基づいて、前記第2のパーティション内の第2の複数のカラーサンプルと関連付けられた第2の複数のカラーサンプル値を予測する、ように更に構成されている、請求項1に記載のビデオ復号デバイス。
【請求項12】
前記第1のパーティション内の前記複数のカラーサンプルと関連付けられた前記複数のカラーサンプル値が、第1のクロス成分線形モデル(CCLM)を使用して予測され、前記第2のパーティション内の前記複数のカラーサンプルと関連付けられた前記複数のカラーサンプル値が、第2のCCLMを使用して予測される、請求項11に記載のビデオ復号デバイス。
【請求項13】
ビデオ符号化デバイスであって、
プロセッサを備え、前記プロセッサが、
ジョイント深度-カラーコーディング(JDCC)モードを使用してコーディングブロックを符号化するかどうかを判定し、
前記コーディングブロック内の深度情報を取得し、
前記JDCCモードを使用して前記コーディングブロックを符号化するという判定に基づいて、前記深度情報に基づく、前記コーディングブロック内の対応する複数のカラーサンプルを符号化する、ように構成されている、ビデオ符号化デバイス。
【請求項14】
前記複数のカラーサンプルが、複数のルーマサンプルを含む、請求項13に記載のビデオ符号化デバイス。
【請求項15】
前記複数のカラーサンプルが、複数のクロマサンプルを含む、請求項13に記載のビデオ符号化デバイス。
【請求項16】
前記プロセッサが、
スライス、タイル、サブピクチャ、又はブロックのうちの少なくとも1つに対して前記JDCCモードを有効化すると判定し、
前記スライス、タイル、サブピクチャ、又はブロックに対してJDCCが有効化されていることを示すJDCCモード有効化指示をビデオデータ内に含める、ように更に構成されている、請求項13に記載のビデオ符号化デバイス。
【請求項17】
前記プロセッサが、
前記コーディングブロックについての深度情報をコーディングするための第1の予測モードと、前記コーディングブロックについてのカラー情報をコーディングするための第2の予測モードとを判定するように更に構成されており、前記JDCCモードを使用して前記コーディングブロックを符号化するという前記判定が、
前記JDCCモードが前記コーディングブロックに対して有効化されていること、
前記コーディングブロックについての深度情報をコーディングするための前記第1の予測モードがイントラ方向モードであること、
前記コーディングブロックについてのカラー情報をコーディングするための前記第2の予測モードがイントラ方向モードであること、又は
前記コーディングブロックについての深度情報をコーディングするための前記第1の予測モード及び前記コーディングブロックについてのカラー情報をコーディングするための前記第2の予測モードが同じ予測モードであること、のうちの少なくとも1つに基づく、請求項13に記載のビデオ符号化デバイス。
【請求項18】
前記プロセッサが、
前記JDCCモードを使用して前記コーディングブロックを符号化するという前記判定に基づいて、前記コーディングブロックを分割するためのエッジ位置を判定し、
前記エッジ位置を示す指示を前記ビデオデータ内に含める、ように更に構成されている、請求項13に記載のビデオ符号化デバイス。
【請求項19】
前記エッジ位置の前記指示が、参照サンプルアレイ内のエッジアンカー位置を示すように構成されている、請求項18に記載のビデオ符号化デバイス。
【請求項20】
メモリを更に備える、請求項1~18のいずれか一項に記載のデバイス。
【請求項21】
方法であって、
ジョイント深度-カラーコーディング(JDCC)モードがコーディングブロックに対して使用されていると判定することと、
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定に基づいて、前記コーディングブロックについての深度情報を取得することと、
前記深度情報に基づいて、前記コーディングブロック内の対応する複数のカラーサンプルを予測することによって、前記コーディングブロックを復号することと、を含む、方法。
【請求項22】
前記複数のカラーサンプルが、複数のルーマサンプルを含む、請求項21に記載の方法。
【請求項23】
前記複数のカラーサンプルが、複数のクロマサンプルを含む、請求項21に記載の方法。
【請求項24】
JDCC有効化指示を取得することを更に含み、前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記JDCCモードが有効化されていることを示す前記JDCC有効化指示と関連付けられた値に少なくとも基づいて判定される、請求項21に記載の方法。
【請求項25】
ブロックレベルJDCC有効化指示を取得することを更に含み、前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記JDCCモードが前記コーディングブロックに対して有効化されていることを示す前記ブロックレベルJDCC有効化指示と関連付けられた値に少なくとも基づいて判定される、請求項21に記載の方法。
【請求項26】
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記コーディングブロックと関連付けられたJDCC有効化指示、前記コーディングブロックについての深度情報をコーディングすることと関連付けられた予測モード、及び前記コーディングブロックについてのカラー情報をコーディングすることと関連付けられた予測モードに基づく、請求項21に記載の方法。
【請求項27】
前記コーディングブロックについての前記深度情報に基づいて、前記コーディングブロック内の深度エッジ位置を取得することと、
前記深度エッジ位置に基づいて、前記コーディングブロックの第1のパーティション及び前記コーディングブロックの第2のパーティションを識別することと、
デコーダ側イントラモデル導出(DIMD)を使用して、隣接ブロックの第1のセットに基づいて、前記第1のパーティションのための第1の予測モードを判定することと、
DIMDを使用して、隣接ブロックの第2のセットに基づいて、前記第2のパーティションのための第2の予測モードを判定することと、とを更に含む、請求項21に記載の方法。
【請求項28】
判定された前記第1の予測モードに基づいて、前記第1のパーティション内の第1の複数のカラーサンプルを予測することと、
判定された前記第2の予測モードに基づいて、前記第2のパーティション内の第2の複数のカラーサンプルを予測することと、を更に含む、請求項27に記載の方法。
【請求項29】
前記深度情報が、深度エッジアンカーの指示を含み、前記方法が、
前記深度エッジアンカーと前記コーディングブロックをコーディングするために使用されるイントラ方向モードと関連付けられた方向とに基づいて、深度エッジ位置を取得することと、
前記深度エッジ位置に基づいて、コーディングブロックを第1のパーティション及び第2のパーティションに分割することと、を更に含み、前記コーディングブロック内の前記対応する複数のカラーサンプルが、前記パーティションに基づいて予測される、請求項21に記載の方法。
【請求項30】
前記深度情報が複数の深度サンプルを含み、前記方法が、
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定に基づいて、前記複数の深度サンプルに基づく、前記コーディングブロック内の前記対応する複数のカラーサンプルを予測することを更に含む、請求項21に記載の方法。
【請求項31】
前記深度情報に基づいて、前記コーディングブロック内の深度エッジ位置を取得することと、
前記エッジ位置に基づいて、前記コーディングブロックの第1のパーティション及び前記コーディングブロックの第2のパーティションを識別することと、
前記第1のパーティション内の第1の複数の深度サンプルと関連付けられた第1の複数の深度サンプル値を取得することと、
前記第1の複数の深度サンプル値に基づいて、前記第1のパーティション内の第1の複数のカラーサンプルと関連付けられた第1の複数のカラーサンプル値を予測することと、
前記第2のパーティション内の第2の複数の深度サンプルと関連付けられた第2の複数の深度サンプル値を取得することと、
前記第2の複数の深度サンプル値に基づいて、前記第2のパーティション内の第2の複数のカラーサンプルと関連付けられた第2の複数のカラーサンプル値を予測することと、を更に含む、請求項21に記載の方法。
【請求項32】
前記第1のパーティション内の前記複数のカラーサンプルと関連付けられた前記複数のカラーサンプル値が、第1のクロス成分線形モデル(CCLM)を使用して予測され、前記第2のパーティション内の前記複数のカラーサンプルと関連付けられた前記複数のカラーサンプル値が、第2のCCLMを使用して予測される、請求項31に記載の方法。
【請求項33】
方法であって、
ジョイント深度-カラーコーディング(JDCC)モードを使用してコーディングブロックを符号化するかどうかを判定することと、
前記コーディングブロック内の深度情報を取得することと、
前記JDCCモードを使用して前記コーディングブロックを符号化するという判定に基づいて、前記深度情報に基づく、前記コーディングブロック内の対応する複数のカラーサンプルを符号化することと、を含む、方法。
【請求項34】
前記複数のカラーサンプルが、複数のルーマサンプルを含む、請求項33に記載の方法。
【請求項35】
前記複数のカラーサンプルが、複数のクロマサンプルを含む、請求項33に記載の方法。
【請求項36】
スライス、タイル、サブピクチャ、又はブロックのうちの少なくとも1つに対して前記JDCCモードを有効化すると判定することと、
前記スライス、タイル、サブピクチャ、又はブロックに対してJDCCが有効化されていることを示すJDCCモード有効化指示をビデオデータ内に含めることと、を更に含む、請求項33に記載の方法。
【請求項37】
前記コーディングブロックについての深度情報をコーディングするための第1の予測モードと、前記コーディングブロックについてのカラー情報をコーディングするための第2の予測モードとを判定することを更に含み、前記JDCCモードを使用して前記コーディングブロックを符号化するという前記判定が、
前記JDCCモードが前記コーディングブロックに対して有効化されていること、
前記コーディングブロックについての深度情報をコーディングするための前記第1の予測モードがイントラ方向モードであること、
前記コーディングブロックについてのカラー情報をコーディングするための前記第2の予測モードがイントラ方向モードであること、又は
前記コーディングブロックについての深度情報をコーディングするための前記第1の予測モード及び前記コーディングブロックについてのカラー情報をコーディングするための前記第2の予測モードが同じ予測モードであること、のうちの少なくとも1つに基づく、請求項33に記載の方法。
【請求項38】
前記JDCCモードを使用して前記コーディングブロックを符号化するという前記判定に基づいて、前記コーディングブロックを分割するためのエッジ位置を判定することと、
前記エッジ位置を示す指示を前記ビデオデータ内に含めることと、を更に含む、請求項33に記載の方法。
【請求項39】
前記エッジ位置の前記指示が、参照サンプルアレイ内のエッジアンカー位置を示すように構成されている、請求項38に記載の方法。
【請求項40】
非一時的コンピュータ可読媒体に記憶されており、少なくとも1つのプロセッサによって実行されたときに、請求項21~39の少なくとも一項に記載の方法のステップを実行するプログラムコード命令を含むコンピュータプログラム製品。
【請求項41】
プロセッサによって実行されたときに、請求項21~39の少なくとも一項に記載の方法のステップを実行するプログラムコード命令を含むコンピュータプログラム。
【請求項42】
請求項33~39のいずれか一項に記載の方法に従って、前記JDCCコーディングモードを使用して生成される、符号化された深度情報、符号化されたカラー情報、前記JDCCコーディングモード有効化指示、前記エッジ位置、又は前記エッジアンカー位置のうちの1つ以上を含むビデオデータ。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本出願は、2021年10月05日に出願された欧州特許出願第21306388.6号の利益を主張するものであり、その開示は、参照によりその全体が本明細書に組み込まれる。
【背景技術】
【0002】
ビデオコーディングシステムは、デジタルビデオ信号を圧縮して、例えば、かかる信号に必要とされる記憶容量及び/又は送信帯域幅を低減するように使用され得る。ビデオコーディングシステムには、例えば、ブロックベース、ウェーブレットベース、及び/又はオブジェクトベースのシステムが含まれ得る。
【発明の概要】
【0003】
クロス成分深度-カラーコーディング(cross-component depth-color coding)を実行するためのシステム、方法、及び手段が開示される。深度情報はテクスチャ情報(例えば、ルーマ、クロマ、及び/又はR、G、Bカラー成分情報)のジョイント又はクロス成分コーディング(joint or cross-component coding)のために使用され得る。深度情報は対応するテクスチャ情報と一緒に符号化及び/又は復号するために使用され得る。
【0004】
例では、ビデオ復号デバイスは、ジョイント深度-カラーコーディング(joint depth-color coding、JDCC)モード(例えば、ジョイント深度-ルーマコーディング(joint depth-luma coding、JDLC)モード)、及び/又はジョイント深度-クロマコーディングモード(joint depth-chroma coding mode))が、現在のブロックに対して使用されているかどうか判定し得る。JDCCがこのブロックに対して使用されている場合、デバイスは、ブロック内の深度サンプルを復号し、例えば、復号された深度サンプルに基づいて、ブロック内の対応するカラーサンプルを予測し得る。JDCCモードがブロックに対して無効にされている場合、デバイスは、ブロック内のカラーサンプル、例えば、ルーマサンプル及び/又はクロマサンプルを復号し得る(例えば、深度サンプルとは無関係に、ルーマサンプル及び/又はクロマサンプルを復号する)。デバイスは、例えば、コーディングモード(例えば、JDCCモード)がブロックに対して使用されているかどうかを示し得るコーディングモード指示(例えば、JDCC有効化指示などのコーディングモード有効化指示)を取得し得る。
【0005】
デバイスは、ブロックをパーティションに分割するためのエッジを判定し得る。デバイスは、例えば、エッジアンカー、及びブロックをコーディングするために使用されるイントラ方向モードと関連付けられた方向に基づいて、エッジ位置を取得し得る。デバイスは、深度サンプル又はエッジ位置に基づいて、ブロックのパーティション内の深度サンプルを再構成し、同じパーティション内の対応するルーマサンプル及び/又はクロマサンプルを再構成し得る。
【0006】
例えば、ブロックの第1のパーティション及びブロックの第2のパーティションは、例えば、エッジ位置に基づいて、識別し得る。デバイスは、第1のパーティション内の深度サンプルと関連付けられた深度サンプル値を取得し得る。デバイスは、例えば、第1のパーティションと関連付けられた深度サンプル値に基づいて、第1のパーティション内のルーマサンプルと関連付けられたルーマサンプル値を再構成し得る。デバイスは、第2のパーティション内の深度サンプルと関連付けられた深度サンプル値を取得し得る。デバイスは、例えば、第2のパーティションと関連付けられた深度サンプル値に基づいて、第2のパーティション内のルーマサンプルと関連付けられたルーマサンプル値を再構成し得る。
【0007】
例えば、ブロックの第1のパーティション及びブロックの第2のパーティションは、例えば、エッジ位置に基づいて、識別し得る。デバイスは、第1のパーティション内の深度サンプルと関連付けられた深度サンプル値を取得し得る。デバイスは、例えば、第1のパーティションと関連付けられた深度サンプル値に基づいて、第1のパーティション内のクロマサンプルと関連付けられたクロマサンプル値を再構成し得る。デバイスは、第2のパーティション内の深度サンプルと関連付けられた深度サンプル値を取得し得る。デバイスは、例えば、第2のパーティションと関連付けられた深度サンプル値に基づいて、第2のパーティション内のクロマサンプルと関連付けられたクロマサンプル値を再構成し得る。
【0008】
例では、ビデオ符号化デバイスは、コーディングモード(例えば、JDCCモード)を使用してブロックを符号化すべきかどうかを判定し得る。デバイスは、(例えば、JDCCモードを使用してブロックを符号化するという判定に基づいて)ブロック内の深度サンプルを符号化し、例えば、深度サンプルに基づいて、ブロック内の対応するルーマサンプルを符号化し得る。デバイスは、スライス、タイル、サブピクチャ、コーディングユニット、又はブロックのうちの1つ以上に対してJDCCモードを有効化することを判定し得る。デバイスは、例えば、そのスライス、タイル、サブピクチャ、コーディングユニット、又はブロックに対してJDCCモードが有効化されていることを示すために、ビデオデータ(例えば、ビットストリーム)内に指示(例えば、JDCCモード有効化指示などのコーディングモード有効化指示)を含めることを判定し得る。
【0009】
デバイスは、ブロックについて、深度情報をコーディングするための予測モードと、ルーマ及び/又はクロマ情報をコーディングするための予測モードとを判定し得る。デバイスは、以下のうちの1つ以上に基づいて、ブロックを符号化するために、深度サンプル及びカラーサンプル(例えば、ルーマサンプル及び/又はクロマサンプル)をジョイントコーディングするコーディングモードを使用することを判定し得る:コーディングモード(例えば、JDCCモード)がブロックに対して有効化されている、ブロックの深度情報をコーディングするための予測モードがイントラ方向モードである、ブロックのルーマ情報をコーディングするための予測モードがイントラ方向モードである、ブロックの深度情報をコーディングするための予測モードとルーマ情報をコーディングするための予測モードとが同じである、及び/又は同様のもの。デバイスは、例えば、コーディングモード(例えば、JDCCモード)を使用してブロックを符号化するという判定に基づいて、ブロックを分割するためのエッジ位置を判定し得る。デバイスは、ビデオデータ内にエッジ位置の指示を含み得る。エッジ位置の指示は、参照サンプルアレイ内のエッジアンカー位置を示し得る。
【0010】
本明細書で説明されるシステム、方法、及び手段は、デコーダを伴い得る。いくつかの実施例では、本明細書で説明されるシステム、方法、及び手段は、エンコーダを伴い得る。いくつかの実施例では、本明細書で説明されるシステム、方法、及び手段は、(例えば、エンコーダからの、及び/又はデコーダによって受信された)信号を伴い得る。コンピュータ可読媒体は、1つ以上のプロセッサに、本明細書で説明される方法を実行させるための命令を含み得る。コンピュータプログラム製品は命令を含み得、命令は、プログラムが1つ以上のプロセッサによって実行されたときに、1つ以上のプロセッサに本明細書で説明される方法を行わせ得る。
【図面の簡単な説明】
【0011】
図1A】1つ以上の開示された実施形態が実現され得る、代表的な通信システムを例解するシステム図である。
図1B】一実施形態による、図1Aに例解される通信システム内で使用され得る、代表的な無線送信/受信ユニット(Wireless Transmit/Receive Unit、WTRU)を例解するシステム図である。
図1C】一実施形態による、図1Aに例解される通信システム内で使用され得る、代表的な無線アクセスネットワーク(Radio Access Network、RAN)及び代表的なコアネットワーク(Core Network、CN)を例解するシステム図である。
図1D】一実施形態による、図1Aに例解される通信システム内で使用され得る、更なる代表的なRAN及び更なる代表的なCNを例解するシステム図である。
図2】例示的なビデオエンコーダを例解する。
図3】例示的なビデオデコーダを例解する。
図4】様々な態様及び実施例が実現され得るシステムの実施例を例解する。
図5】ウェッジレットパターンを使用して深度をコーディングするための例示的な深度モデリングモードを例解する。
図6】輪郭パターンを使用して深度をコーディングするための例示的な深度モデリングモードを例解する。
図7】JDLCコーディングモードのフローチャートを例解する。
図8】深度情報のコーディング及びルーマ情報のコーディングに対応するコーディングモードのフローチャートを例解する。
図9】予測するために2つのパーティションに割るブロックの例を例解する。
図10】例示的なルーマ予測プロセスを例解する。
図11】ルーマ予測に基づいてクロマ情報を判定するためにエッジ位置を使用する例を例解する。
図12】各パーティションを取り囲む隣接ブロックを有する例示的なブロックを例解する。
図13】パーティションについての深さ情報を判定する一例を例解する。
【発明を実施するための形態】
【0012】
より詳細な理解は、例として添付の図面と併せて与えられる、以下の説明から得られ得る。
【0013】
図1Aは、1つ以上の開示された実施形態が実現され得る、例示的な通信システム100を例解する図である。通信システム100は、音声、データ、ビデオ、メッセージ伝達、ブロードキャストなどのコンテンツを複数の無線ユーザに提供する多重アクセスシステムであり得る。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共有を通じて、このようなコンテンツにアクセスすることを可能にし得る。例えば、通信システム100は、コード分割多重アクセス(Code Division Multiple Access、CDMA)、時分割多重アクセス(Time Division Multiple Access、TDMA)、周波数分割多重アクセス(Frequency Division Multiple Access、FDMA)、直交FDMA(orthogonal FDMA、OFDMA)、シングルキャリアFDMA(Single-Carrier FDMA、SC-FDMA)、ゼロテールユニークワードDFT-Spread OFDM(Zero-Tail Unique-Word DFT-Spread OFDM、ZT UW DTS-s OFDM)、ユニークワードOFDM(Unique Word OFDM、UW-OFDM)、リソースブロックフィルタ処理OFDM、フィルタバンク多重キャリア(Filter Bank Multi Carrier、FBMC)等の、1つ以上のチャネルアクセス方法を用いてもよい。
【0014】
図1Aに示されるように、通信システム100は、無線送信/受信ユニット(WTRU)102a、102b、102c、102dと、RAN104/113と、CN106/115と、公衆交換電話網(Public Switched Telephone Network、PSTN)108と、インターネット110と、その他のネットワーク112と、を含み得るが、開示される実施形態は、任意の数のWTRU、基地局、ネットワーク、及び/又はネットワーク要素を企図していることが、理解されよう。WTRU102a、102b、102c、102dの各々は、無線環境において動作し、かつ/又は通信するように構成された、任意のタイプのデバイスであり得る。例として、それらのいずれも「局」及び/又は「STA(Station)」と称され得るWTRU102a、102b、102c、102dは、無線信号を送信及び/又は受信するように構成され得、ユーザ機器(User Equipment、UE)、移動局、固定加入者ユニット又は移動加入者ユニット、加入ベースのユニット、無線呼出し、携帯電話、携帯情報端末(Personal Digital Assistant、PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、ホットスポット又はMi-Fiデバイス、モノのインターネットデバイス、ウォッチ又はその他の着用式の、ヘッドマウントディスプレイ(Head-Mounted Display、HMD)、車両、ドローン、医療デバイス及びアプリケーション(例えば、遠隔手術用)、工業用デバイス及びアプリケーション(例えば、工業用及び/又は自動処理チェーンコンテキストで動作するロボット及び/又はその他の無線デバイス)、家電デバイス、商業用無線ネットワーク及び/又は工業用無線ネットワークで動作するデバイス等を、含んでもよい。WTRU102a、102b、102c、及び102dのいずれも、互換的にUEと称され得る。
【0015】
通信システム100はまた、基地局114a及び/又は基地局114bを含み得る。基地局114a、114bのそれぞれは、CN106/115、インターネット110、及び/又はその他のネットワーク112などの、1つ以上の通信ネットワークへのアクセスを容易にするために、WTRU102a、102b、102c、102dのうちの少なくとも1つと無線でインターフェース接続するように構成された、任意のタイプのデバイスであってもよい。例として、基地局114a、114bは、基地局トランシーバ(BTS)、ノードB、eノードB、ホームノードB、ホームeノードB、gNB、NRノードB、サイトコントローラ、アクセスポイント(AP)、無線ルータなどであり得る。基地局114a、114bは、各々単一の要素として図示されているが、基地局114a、114bは、任意の数の相互接続された基地局及び/又はネットワーク要素を含み得ることが理解されよう。
【0016】
基地局114aは、基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなど、他の基地局及び/又はネットワーク要素(図示せず)も含み得る、RAN104/113の一部であり得る。基地局114a及び/又は基地局114bは、セル(図示せず)と称され得る、1つ以上の搬送波周波数で無線信号を送信、かつ/又は受信するように、構成され得る。これらの周波数は、認可スペクトル、未認可スペクトル、又は認可スペクトルと未認可スペクトルとの組み合わせであり得る。セルは、相対的に固定され得るか、又は経時的に変化し得る特定の地理的エリアに、無線サービスのカバレッジを提供し得る。セルは、セルセクタに更に分けられ得る。例えば、基地局114aと関連付けられたセルは、3つのセクタに分けられ得る。したがって、一実施形態では、基地局114aは、3つのトランシーバを、すなわち、セルのセクタごとに1つのトランシーバを含み得る。一実施形態では、基地局114aは、多重入力多重出力(multiple-input multiple output、MIMO)技術を採用し得、セルのセクタごとに複数のトランシーバを利用し得る。例えば、ビームフォーミングを使用して、所望の空間方向に信号を送信、かつ/又は受信してもよい。
【0017】
基地局114a、114bは、無線インターフェース116を介して、WTRU102a、102b、102c、102dの1つ以上と通信し得、この無線インターフェースは、任意の好適な無線通信リンク(例えば、無線周波数(RF)、マイクロ波、センチメートル波、マイクロメートル波、赤外線(IR)、紫外線(UV)、可視光など)であり得る。無線インターフェース116は、任意の好適な無線アクセス技術(RAT)を使用して確立され得る。
【0018】
より具体的には、上記のように、通信システム100は、多重アクセスシステムであり得るが、CDMA、TDMA、FDMA、OFDMA、SC-FDMAなどの、1つ以上のチャネルアクセス方式を用い得る。例えば、RAN104/113内の基地局114a、及びWTRU102a、102b、102cは、ユニバーサル移動体通信システム(Universal Mobile Telecommunications System、UMTS)地上無線アクセス(UMTS Terrestrial Radio Access、UTRA)などの無線技術を実現し得るが、これは、広帯域CDMA(Wideband CDMA、WCDMA)を使用して、エアインターフェース115/116/117を確立してもよい。WCDMAは、高速パケットアクセス(High-Speed Packet Access、HSPA)及び/又は進化型HSPA(HSPA+)などの通信プロトコルを含み得る。HSPAは、高速ダウンリンク(Downlink、DL)パケットアクセス(High-Speed Downlink Packet Access、HSDPA)及び/又は高速アップリンクパケットアクセス(High-Speed UL Packet Access、HSUPA)を含んでもよい。
【0019】
一実施形態では、基地局114a及びWTRU102a、102b、102cは、進化型UMTS地上無線アクセス(Evolved UMTS Terrestrial Radio Access、E-UTRA)などの無線技術を実現し得、これは、ロングタームエボリューション(Long Term Evolution、LTE)及び/又はLTE-Advanced(LTE-A)及び/又はLTE-Advanced Pro(LTE-A Pro)を使用して無線インターフェース116を確立し得る。
【0020】
一実施形態では、基地局114a及びWTRU102a、102b、102cは、NR無線アクセスなどの無線技術を実現し得、この技術は、新しい無線(New Radio、NR)を使用して無線インターフェース116を確立し得る。
【0021】
一実施形態では、基地局114a及びWTRU102a、102b、102cは、複数の無線アクセス技術を実現し得る。例えば、基地局114a及びWTRU102a、102b、102cは、例えば、デュアルコネクティビティ(dual connectivity、DC)原理を使用して、LTE無線アクセス及びNR無線アクセスを一緒に実現し得る。したがって、WTRU102a、102b、102cによって利用されるエアインターフェースは、複数のタイプの無線アクセス技術、及び/又は複数のタイプの基地局(例えば、eNB及びgNB)に送られる/そこから送られる送信によって特徴付けられ得る。
【0022】
他の実施形態では、基地局114a及びWTRU102a、102b、102cは、IEEE802.11(すなわち、無線フィデリティ(Wireless Fidelity、WiFi)、IEEE802.16(すなわち、ワイマックス(Worldwide Interoperability for Microwave Access、WiMAX)、CDMA2000、CDMA2000 1X、CDMA2000 EV-DO、暫定規格2000(Interim Standard、IS-2000)、暫定規格95(IS-95)、暫定規格856(IS-856)、汎欧州デジタル移動電話方式(Global System for Mobile communications、GSM)、GSM進化型高速データレート(Enhanced Data rates for GSM Evolution、EDGE)、GSM EDGE(GERAN)などの無線技術を実現し得る。
【0023】
図1Aの基地局114bは、例えば、無線ルータ、ホームノードB、ホームeノードB、又はアクセスポイントであり得るが、事業所、家庭、車両、キャンパス、工業施設、(例えば、ドローンによる使用のための)空中回廊、道路などの場所などの局所的エリアにおける無線接続を容易にするために、任意の好適なRATを利用し得る。一実施形態では、基地局114b及びWTRU102c、102dは、IEEE802.11などの無線技術を実現して、無線ローカルエリアネットワーク(wireless local area network、WLAN)を確立し得る。一実施形態では、基地局114b及びWTRU102c、102dは、IEEE802.15などの無線技術を実現して、無線パーソナルエリアネットワーク(WPAN)を確立し得る。更に別の一実施形態では、基地局114b及びWTRU102c、102dは、セルラーベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE-A、LTE-A Pro、NRなど)を利用して、ピコセル又はフェムトセルを確立し得る。図1Aに示すように、基地局114bは、インターネット110への直接接続を有し得る。したがって、基地局114bは、CN106/115を介してインターネット110にアクセスする必要がない場合がある。
【0024】
RAN104/113は、CN106/115と通信し得るが、これは、音声、データ、アプリケーション、及び/又はボイスオーバインターネットプロトコル(VoIP)サービスをWTRU102a、102b、102c、102dの1つ以上に提供するように構成された、任意の種類のネットワークであり得る。データは、例えば、異なるスループット要件、待ち時間要件、誤り許容要件、信頼性要件、データスループット要件、モビリティ要件などの、様々なサービス品質(QoS)要件を有し得る。CN106/115は、呼制御、支払い請求サービス、移動体位置ベースのサービス、プリペイド通話、インターネット接続性、ビデオ配信などを提供し得る、かつ/又は、ユーザ認証などの高レベルセキュリティ機能を実行し得る。図1Aには示されていないが、RAN104/113及び/又はCN106/115は、RAN104/113と同じRAT又は異なるRATを採用する他のRANと、直接又は間接的に通信し得ることが、理解されよう。例えば、NR無線技術を利用し得るRAN104/113に接続されていることに加えて、CN106/115はまた、GSM、UMTS、CDMA2000、WiMAX、E-UTRA、又はWiFi無線技術を用いて、別のRAN(図示せず)と通信してもよい。
【0025】
CN106/115はまた、PSTN108、インターネット110、及び/又はその他のネットワーク112にアクセスするために、WTRU102a、102b、102c、102dのためのゲートウェイとしての機能を果たしてもよい。PSTN108は、従来型電話サービス(Plain Old Telephone Service、POTS)を提供する回線交換電話網を含み得る。インターネット110は、相互接続されたコンピュータネットワーク及びデバイスのグローバルシステムを含み得るが、これらのネットワーク及びデバイスは、伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(user datagram protocol、UDP)、及び/又はTCP/IPインターネットプロトコルスイートのインターネットプロトコル(IP)などの、共通通信プロトコルを使用する。ネットワーク112は、他のサービスプロバイダによって所有及び/又は運用されている、有線通信ネットワーク及び/又は無線通信ネットワークを含み得る。例えば、ネットワーク112は、RAN104/113と同じRAT、又は異なるRATを採用し得る、1つ以上のRANに接続された別のCNを含み得る。
【0026】
通信システム100におけるWTRU102a、102b、102c、102dのいくつか又は全ては、マルチモード機能を含み得る(例えば、WTRU102a、102b、102c、102dは、異なる無線リンクを介して異なる無線ネットワークと通信するための複数のトランシーバを含み得る)。例えば、図1Aに示すWTRU102cは、セルラーベースの無線技術を採用し得る基地局114a、及びIEEE802無線技術を採用し得る基地局114bと通信するように構成され得る。
【0027】
図1Bは、一例示のWTRU102を例解するシステム図である。図1Bに示すように、WTRU102は、とりわけ、プロセッサ118、トランシーバ120、送信/受信要素122、スピーカ/マイクロフォン124、キーパッド126、ディスプレイ/タッチパッド128、非リムーバブルメモリ130、リムーバブルメモリ132、電源134、全地球測位システム(global positioning system、GPS)チップセット136、及び/又は他の周辺機器138を含み得る。WTRU102は、一実施形態との一貫性を有したまま、前述の要素の任意の部分的組み合わせを含み得ることが理解されよう。
【0028】
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタルシグナルプロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと関連付けられた1つ以上のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、任意の他の種類の集積回路(IC)、ステートマシンなどであり得る。プロセッサ118は、信号符号化、データ処理、電力制御、入力/出力処理、及び/又はWTRU102が無線環境で動作することを可能にする任意の他の機能を実行し得る。プロセッサ118は、送信/受信要素122に結合され得るトランシーバ120に結合され得る。図1Bは、プロセッサ118及びトランシーバ120を別個のコンポーネントとして図示するが、プロセッサ118及びトランシーバ120は、電子パッケージ又はチップにおいて一体に統合され得るということが理解されよう。
【0029】
送信/受信要素122は、無線インターフェース116を介して、基地局(例えば、基地局114a)との間で信号を送信するか、又は受信するように構成され得る。例えば、一実施形態では、送信/受信要素122は、RF信号を送信及び/又は受信するように構成されたアンテナであり得る。一実施形態では、送信/受信要素122は、例えば、IR信号、UV信号、又は可視光信号を送信及び/又は受信するように構成されたエミッタ/検出器であり得る。更に別の実施形態では、送信/受信要素122は、RF信号及び光信号の両方を送信及び/又は受信するように構成され得る。送信/受信要素122は、無線信号の任意の組み合わせを送信及び/又は受信するように構成され得ることが理解されよう。
【0030】
送信/受信要素122は、単一の要素として図1Bに図示されているが、WTRU102は、任意の数の送信/受信要素122を含み得る。より具体的には、WTRU102は、MIMO技術を採用し得る。したがって、一実施形態では、WTRU102は、エアインターフェース116を介して無線信号を送受信するための2つ以上の送信/受信要素122(例えば、複数のアンテナ)を含み得る。
【0031】
トランシーバ120は、送信/受信要素122によって送信される信号を変調し、送信/受信要素122によって受信される信号を復調するように構成され得る。上記のように、WTRU102は、マルチモード機能を有し得る。したがって、トランシーバ120は、例えば、NR及びIEEE802.11などの複数のRATを介してWTRU102が通信することを可能にするための複数のトランシーバを含み得る。
【0032】
WTRU102のプロセッサ118は、スピーカ/マイクロフォン124、キーパッド126、及び/又はディスプレイ/タッチパッド128(例えば、液晶ディスプレイ(LCD)表示ユニット若しくは有機発光ダイオード(organic light-emitting diode、OLED)表示ユニット)に結合され得るが、これらからユーザが入力したデータを受信し得る。プロセッサ118はまた、ユーザデータをスピーカ/マイクロフォン124、キーパッド126、及び/又はディスプレイ/タッチパッド128に出力し得る。加えて、プロセッサ118は、非リムーバブルメモリ130及び/又はリムーバブルメモリ132などの任意の種類の好適なメモリから情報にアクセスし、かつ当該メモリにデータを記憶し得る。非リムーバブルメモリ130は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、ハードディスク、又は任意の他の種類のメモリ記憶デバイスを含み得る。リムーバブルメモリ132は、加入者識別モジュール(subscriber identity module、SIM)カード、メモリスティック、セキュアデジタル(secure digital、SD)メモリカードなどを含み得る。他の実施形態では、プロセッサ118は、サーバ又はホームコンピュータ(図示せず)上など、WTRU102上に物理的に位置していないメモリから情報にアクセスして、当該メモリにデータを記憶し得る。
【0033】
プロセッサ118は、電源134から電力を受信し得、WTRU102における他の構成要素に電力を分配し、かつ/又は制御するように構成され得る。電源134は、WTRU102に電力を供給するための任意の好適なデバイスであり得る。例えば、電源134は、1つ以上の乾電池(例えば、ニッケルカドミウム(nickel-cadmium、NiCd)、ニッケル亜鉛(nickel-zinc、NiZn)、ニッケル金属水素化物(nickel metal hydride、NiMH)、リチウムイオン(lithium-ion、Li-ion)など)、太陽電池、燃料電池などを含み得る。
【0034】
プロセッサ118はまた、GPSチップセット136に結合され得るが、これは、WTRU102の現在の位置に関する位置情報(例えば、経度及び緯度)を提供するように構成され得る。GPSチップセット136からの情報に加えて、又はその代わりに、WTRU102は、無線インターフェース116を介して基地局(例えば、基地局114a、114b)から位置情報を受信し、かつ/又は2つ以上の近接基地局から受信されている信号のタイミングに基づいて、その位置を判定し得る。WTRU102は、一実施形態との一貫性を有したまま、任意の好適な位置判定方法によって位置情報を取得し得ることが理解されよう。
【0035】
プロセッサ118は、他の周辺機器138に更に結合され得るが、他の周辺機器138には、追加の特徴、機能、及び/又は有線若しくは無線接続を提供する1つ以上のソフトウェア及び/又はハードウェアモジュールが含まれ得る。例えば、周辺機器138には、加速度計、電子コンパス、衛星トランシーバ、(写真及び/又はビデオのための)デジタルカメラ、ユニバーサルシリアルバス(universal serial bus、USB)ポート、振動デバイス、テレビトランシーバ、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(frequency modulated、FM)無線ユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、インターネットブラウザ、仮想現実及び/又は拡張現実(Virtual Reality/Augmented Reality、VR/AR)デバイス、アクティビティトラッカなどが含まれ得る。周辺機器138は、1つ以上のセンサを含み得、センサは、ジャイロスコープ、加速度計、ホール効果センサ、磁力計、方位センサ、近接センサ、温度センサ、時間センサ、ジオロケーションセンサ、高度計、光センサ、タッチセンサ、磁力計、気圧計、ジェスチャセンサ、生体認証センサ、及び/又は湿度センサの1つ以上であり得る。
【0036】
WTRU102は、(例えば、UL(Uplink(アップリンク)、例えば、送信用)及びダウンリンク(例えば、受信用)の両方のための特定のサブフレームと関連付けられた)信号のいくつか又は全ての送信及び受信が、並列及び/又は同時であり得る、全二重無線機を含んでもよい。全二重無線機は、ハードウェア(例えば、チョーク)又はプロセッサ(例えば、別個のプロセッサ(図示せず)又はプロセッサ118を介して)を介した信号処理のいずれかを介して自己干渉を低減し、かつ又は実質的に排除するための干渉管理ユニットを含み得る。一実施形態では、WRTU102は、(例えば、UL(例えば、送信用)又はダウンリンク(例えば、受信用)のいずれかのための特定のサブフレームと関連付けられた)信号のうちのいくつか又は全てのうちのどれかの送信及び受信のための、半二重無線機を含み得る。
【0037】
図1Cは、一実施形態による、RAN104及びCN106を例解するシステム図である。上記のように、RAN104は、E-UTRA無線技術を採用して、エアインターフェース116を介してWTRU102a、102b、102cと通信し得る。RAN104はまた、CN106と通信し得る。
【0038】
RAN104は、eノード-B160a、160b、160cを含み得るが、RAN104は、一実施形態との一貫性を有したまま、任意の数のeノード-Bを含み得るということが理解されよう。eノード-B160a、160b、160cは各々、無線インターフェース116を介して、WTRU102a、102b、102cと通信するための1つ以上のトランシーバを含み得る。一実施形態では、eノード-B160a、160b、160cは、MIMO技術を実現し得る。したがって、eノード-B160aは、例えば、複数のアンテナを使用して、WTRU102aに無線信号を送信し、かつ/又はWTRU102aから無線信号を受信し得る。
【0039】
eノード-B160a、160b、160cの各々は、特定のセル(図示せず)と関連付けられ得るが、UL及び/又はDLにおいて、無線リソース管理判定、ハンドオーバ判定、ユーザのスケジューリングなどを処理するように構成され得る。図1Cに示すように、eノード-B160a、160b、160cは、X2インターフェースを介して互いに通信し得る。
【0040】
図1Cに示されるCN106は、モビリティ管理エンティティ(Mobility Management Entity、MME)162、サービングゲートウェイ(Serving Gateway、SGW)164、及びパケットデータネットワーク(Packet Data network、PDN)ゲートウェイ(又はPGW)166を含んでもよい。前述の各要素は、CN106の一部として図示されているが、これらの要素のいずれも、CN事業者以外の事業体によって所有及び/又は運用され得ることが、理解されよう。
【0041】
MME162は、S1インターフェースを介して、RAN104におけるeノード-B162a、162b、162cの各々に接続され得、制御ノードとして機能し得る。例えば、MME162は、WTRU102a、102b、102cのユーザを認証すること、ベアラのアクティブ化/非アクティブ化、WTRU102a、102b、102cの初期アタッチ中に特定のサービングゲートウェイを選択すること、などの役割を果たし得る。MME162は、RAN104と、GSM及び/又はWCDMAなどの他の無線技術を採用する他のRAN(図示せず)との間で切り替えるための制御プレーン機能を提供し得る。
【0042】
SGW164は、S1インターフェースを介してRAN104におけるeノード-B160a、160b、160cの各々に接続され得る。SGW164は、概して、ユーザデータパケットを、WTRU102a、102b、102cとの間でルーティングして、転送し得る。SGW164は、eノードB間ハンドオーバ中にユーザプレーンをアンカする機能、DLデータがWTRU102a、102b、102cに利用可能であるときにページングをトリガする機能、WTRU102a、102b、102cのコンテキストを管理及び記憶する機能などの、他の機能を実行し得る。
【0043】
SGW164は、PGW166に接続され得るが、PGW166は、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にするために、インターネット110などのパケット交換ネットワークへのアクセスをWTRU102a、102b、102cに提供し得る。
【0044】
CN106は、他のネットワークとの通信を容易にし得る。例えば、CN106は、WTRU102a、102b、102cと従来の地上回線通信デバイスとの間の通信を容易にするために、PSTN108などの回路交換ネットワークへのアクセスをWTRU102a、102b、102cに提供し得る。例えば、CN106は、CN106とPSTN108との間のインターフェースとして機能するIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含み得るか、又はこれと通信し得る。加えて、CN106は、WTRU102a、102b、102cに他のネットワーク112へのアクセスを提供し得、この他のネットワークは、他のサービスプロバイダによって所有及び/又は運用されている他の有線及び/又は無線ネットワークを含み得る。
【0045】
WTRUは、無線端末として図1A図1Dに記載されているが、特定の代表的な実施形態では、このような端末は、通信ネットワークとの有線通信インターフェースを(例えば、一時的又は永久的に)使用し得ることが企図される。
【0046】
代表的な実施形態では、他のネットワーク112は、WLANであり得る。
【0047】
インフラストラクチャ基本サービスセット(Basic Service Set、BSS)モードのWLANは、BSSのアクセスポイント(Access Point、AP)及びAPと関連付けられた1つ以上のステーション(station、STA)を有し得る。APは、配信システム(Distribution System、DS)若しくはBSSに入る、及び/又はBSSから出るトラフィックを搬送する、別のタイプの有線ネットワーク/無線ネットワークへのアクセス又はインターフェースを、有してもよい。BSS外から生じる、STAへのトラフィックは、APを通って到達し得、STAに配信され得る。STAからBSS外の宛先へ生じるトラフィックは、APに送信されて、それぞれの宛先に送信され得る。BSS内のSTA間のトラフィックは、例えば、APを通って送信され得、ソースSTAは、APにトラフィックを送信し、APは、トラフィックを宛先STAに配信し得る。BSS内のSTA間のトラフィックは、ピアツーピアトラフィックとしてみなされ得る、かつ/又は称され得る。ピアツーピアトラフィックは、ソースSTAと宛先STAとの間で(例えば、これらの間で直接的に)、直接リンクセットアップ(DLS)を使用して送信され得る。ある特定の代表的な実施形態では、DLSは、802.11e DLS又は802.11zトンネル化DLS(TDLS)を使用し得る。独立BSS(IBSS)モードを使用するWLANは、APを有しない場合があり、IBSS内又はこれを使用するSTA(例えば、STAの全て)は、互いに直接通信し得る。通信のIBSSモードは、本明細書では、「アドホック」通信モードと称され得る。
【0048】
802.11acインフラストラクチャ動作モード又は同様の動作モードを使用するときに、APは、プライマリチャネルなどの固定チャネル上にビーコンを送信し得る。プライマリチャネルは、固定幅(例えば、20MHz幅の帯域幅)又はシグナリングを介して動的に設定される幅であり得る。プライマリチャネルは、BSSの動作チャネルであり得るが、APとの接続を確立するためにSTAによって使用され得る。特定の代表的な実施形態では、例えば、802.11システムにおいて、衝突回避を備えたキャリア感知多重アクセス(CSMA/CA)が実現され得る。CSMA/CAの場合、APを含むSTA(例えば、全てのSTA)は、プライマリチャネルを検知し得る。プライマリチャネルが特定のSTAによってビジーであると検知/検出及び/又は判定された場合、その特定のSTAは、バックオフし得る。1つのSTA(例えば、1つの局のみ)は、所与のBSSにおいて、任意の所与の時間に送信され得る。
【0049】
高スループット(High Throughput、HT)STAは、通信のための40MHz幅のチャネルを使用し得、この40MHz幅のチャネルは、例えば、プライマリ20MHzチャネルと、隣接又は非隣接の20MHzチャネルとの組み合わせを介して形成され得る。
【0050】
非常に高いスループット(Very High Throughput、VHT)STAは、20MHz、40MHz、80MHz、及び/又は160MHz幅のチャネルをサポートし得る。40MHz及び/又は80MHzチャネルは、連続する複数の20MHzチャネルを組み合わせることによって形成され得る。160MHzチャネルは、8つの連続する20MHzチャネルを組み合わせることによって、又は80+80構成と称され得る2つの連続していない80MHzチャネルを組み合わせることによって、形成され得る。80+80構成の場合、チャネル符号化後、データは、データを2つのストリームに分け得るセグメントパーサを通過し得る。逆高速フーリエ変換(Inverse Fast Fourier Transform、IFFT)処理、及び時間ドメイン処理は、各ストリームで別個に行われ得る。ストリームは、2つの80MHzチャネルにマッピングされ得、データは、送信STAによって送信され得る。受信STAの受信器では、80+80構成に対する上記で説明される動作は逆にされ得、組み合わされたデータを媒体アクセス制御(Medium Access Control、MAC)に送信し得る。
【0051】
サブ1GHzの動作モードは、802.11af及び802.11ahによってサポートされる。チャネル動作帯域幅及び搬送波は、802.11n及び802.11acで使用されるものと比較して、802.11af及び802.11ahでは低減される。802.11afは、TVホワイトスペース(TV White Space、TVWS)スペクトルにおいて、5MHz、10MHz及び20MHzの帯域幅をサポートし、802.11ahは、非TVWSスペクトルを使用して、1MHz、2MHz、4MHz、8MHz、及び16MHzの帯域幅をサポートする。代表的実施形態によれば、802.11ahは、マクロ通達範囲エリア内のMTC(Meter Type Control、Machine-Type Communications)デバイスなど、メータタイプの制御/マシンタイプ通信をサポートし得る。MTCデバイスは、特定の能力、例えば、特定の帯域幅及び/又は限定された帯域幅のためのサポート(例えば、これらのためのみのサポート)を含む、限定された能力を有し得る。MTCデバイスは、(例えば、非常に長いバッテリ寿命を維持するために)閾値を上回るバッテリ寿命を有するバッテリを含み得る。
【0052】
複数のチャネル、並びに802.11n、802.11ac、802.11af、及び802.11ahなどのチャネル帯域幅をサポートし得るWLANシステムは、プライマリチャネルとして指定され得るチャネルを含む。プライマリチャネルは、BSSにおける全てのSTAによってサポートされる最大共通動作帯域幅に等しい帯域幅を有し得る。プライマリチャネルの帯域幅は、最小帯域幅動作モードをサポートするBSSで動作する全てのSTAの中から、STAによって設定され、かつ/又は制限され得る。802.11ahの例では、プライマリチャネルは、AP、及びBSSにおける他のSTAが2MHz、4MHz、8MHz、16MHz、及び/又は他のチャネル帯域幅動作モードをサポートする場合であっても、1MHzモードをサポートする(例えば、これのみをサポートする)STA(例えば、MTC型デバイス)に対して1MHz幅であり得る。キャリア感知及び/又はネットワーク割り当てベクトル(Network Allocation Vector、NAV)設定は、プライマリチャネルのステータスに依存し得る。例えば、APに送信する(1MHz動作モードのみをサポートする)STAに起因してプライマリチャネルがビジーである場合、周波数帯域の大部分がアイドルのままであり、利用可能であり得るとしても、利用可能な周波数帯域全体がビジーであるとみなされ得る。
【0053】
米国では、802.11ahにより使用され得る利用可能な周波数帯域は、902MHz~928MHzである。韓国では、利用可能な周波数帯域は917.5MHz~923.5MHzである。日本では、利用可能な周波数帯域は916.5MHz~927.5MHzである。802.11ahに利用可能な総帯域幅は、国のコードに応じて6MHz~26MHzである。
【0054】
図1Dは、一実施形態に係る、RAN113及びCN115を例解するシステム図である。上記のように、RAN113は、NR無線技術を採用して、無線インターフェース116を介して、WTRU102a、102b、102cと通信し得る。RAN113はまた、CN115と通信し得る。
【0055】
RAN113は、gNB180a、180b、180cを含み得るが、RAN113は、一実施形態との一貫性を有したまま、任意の数のgNBを含み得ることが理解されよう。gNB180a、180b、180cは各々、無線インターフェース116を介してWTRU102a、102b、102cと通信するための1つ以上のトランシーバを含み得る。一実施形態では、gNB180a、180b、180cは、MIMO技術を実現し得る。例えば、gNB180a、108bは、ビームフォーミングを利用して、gNB180a、180b、180cに信号を送信し得る、かつ/又はgNB180a、180b、180cから信号を受信し得る。したがって、gNB180aは、例えば、複数のアンテナを使用して、WTRU102aとの間で無線信号を送信、かつ/又は受信し得る。一実施形態では、gNB180a、180b、180cは、キャリアアグリゲーション技術を実現し得る。例えば、gNB180aは、複数の成分搬送波をWTRU102a(図示せず)に送信し得る。これらの成分搬送波のサブセットは、未認可スペクトル上にあり得るが、残りの成分搬送波は、認可スペクトル上にあり得る。一実施形態では、gNB180a、180b、180cは、協調マルチポイント(Coordinated Multi-Point、CoMP)技術を実現し得る。例えば、WTRU102aは、gNB180a及びgNB180b(及び/又はgNB180c)からの協調送信を受信し得る。
【0056】
WTRU102a、102b、102cは、スケーラブルなニューメロロジと関連付けられた送信を使用して、gNB180a、180b、180cと通信し得る。例えば、OFDMシンボル間隔及び/又はOFDMサブキャリア間隔は、無線送信スペクトルの異なる送信、異なるセル、及び/又は異なる部分に対して変化し得る。WTRU102a、102b、102cは、(例えば、様々な数のOFDMシンボルを含む、及び/又は様々な長さの絶対時間が持続する)様々な又は拡張性のある長さのサブフレーム又は送信時間間隔(Transmission Time Interval、TTI)を使用して、gNB180a、180b、180cと通信してもよい。
【0057】
gNB180a、180b、180cは、スタンドアロン構成及び/又は非スタンドアロン構成でWTRU102a、102b、102cと通信するように構成され得る。スタンドアロン構成では、WTRU102a、102b、102cは、他のRAN(例えば、eノード-B160a、160b、160cなど)にアクセスすることなく、gNB180a、180b、180cと通信し得る。スタンドアロン構成では、WTRU102a、102b、102cは、モビリティアンカポイントとしてgNB180a、180b、180cの1つ以上を利用し得る。スタンドアロン構成では、WTRU102a、102b、102cは、未認可帯域における信号を使用して、gNB180a、180b、180cと通信し得る。非スタンドアロン構成では、WTRU102a、102b、102cは、gNB180a、180b、180cと通信し、これらに接続する一方で、eノード-B160a、160b、160cなどの別のRANとも通信し、これらに接続し得る。例えば、WTRU102a、102b、102cは、1つ以上のgNB180a、180b、180c及び1つ以上のeノード-B160a、160b、160cと実質的に同時に通信するためのDC原理を実現し得る。非スタンドアロン構成では、eノード-B160a、160b、160cは、WTRU102a、102b、102cのモビリティアンカとして機能し得、gNB180a、180b、180cは、WTRU102a、102b、102cをサービス提供するための追加のカバレッジ及び/又はスループットを提供し得る。
【0058】
gNB180a、180b、180cのそれぞれは、特定のセル(図示せず)と関連付けられてもよく、無線リソース管理意思判定、ハンドオーバ意思判定、UL及び/又はDLにおけるユーザのスケジューリング、ネットワークスライシングのサポート、デュアルコネクティビティ、NRとE-UTRAとの間のインターワーキング、ユーザプレーン機能(User Plane Function、UPF)184a、184bへのユーザプレーンデータの経路指定、アクセス及びモビリティ管理機能(Access and Mobility Management Function、AMF)182a、182bへの制御プレーン情報の経路指定等を処理するように、構成されてもよい。図1Dに示すように、gNB180a、180b、180cは、Xnインターフェースを介して互いに通信し得る。
【0059】
図1Dに示すCN115は、少なくとも1つのAMF182a、182b、少なくとも1つのUPF184a、184b、少なくとも1つのセッション管理機能(Session Management Function、SMF)183a、183b、及び場合によってはデータネットワーク(Data Network、DN)185a、185bを含み得る。前述の各要素は、CN115の一部として図示されているが、これらの要素のいずれも、CN事業者以外の事業体によって所有及び/又は運用され得ることが、理解されよう。
【0060】
AMF182a、182bは、N2インターフェースを介してRAN113におけるgNB180a、180b、180cの1つ以上に接続され得、制御ノードとして機能し得る。例えば、AMF182a、182bは、WTRU102a、102b、102cのユーザの認証、ネットワークスライシングのサポート(例えば、異なる要件を有する異なるPDUセッションの処理)、特定のSMF183a、183bの選択、登録エリアの管理、NASシグナリングの終了、モビリティ管理等の役割を果たし得る。ネットワークスライスは、WTRU102a、102b、102cを利用しているサービスのタイプに基づいて、WTRU102a、102b、102cのCNサポートをカスタマイズするために、AMF182a、182bによって使用され得る。例えば、異なるネットワークスライスは、高信頼低遅延(URLLC)アクセスに依存するサービス、高速大容量(eMBB)アクセスに依存するサービス、マシンタイプ通信(MTC)アクセスのためのサービス等の異なる使用事例のために、確立され得る。AMF162は、RAN113と、LTE、LTE-A、LTE-A Pro及び/又はWiFiなどの非3GPPアクセス技術などのその他の無線技術を用いるその他のRAN(図示せず)と、の間で交換するための、制御プレーン機能を提供してもよい。
【0061】
SMF183a、183bは、N11インターフェースを介して、CN115内のAMF182a、182bに接続され得る。SMF183a、183bはまた、N4インターフェースを介して、CN115内のUPF184a、184bに接続され得る。SMF183a、183bは、UPF184a、184bを選択及び制御し、UPF184a、184bを通るトラフィックのルーティングを構成し得る。SMF183a、183bは、UE IPアドレスを管理して割り当てること、PDUセッションを管理すること、ポリシ施行及びQoSを制御すること、ダウンリンクデータ通知を提供することなどの、他の機能を実行し得る。PDUセッション種別は、IPベース、非IPベース、イーサネットベースなどであり得る。
【0062】
UPF184a、184bは、N3インターフェースを介して、RAN113内のgNB180a、180b、180cのうちの1つ以上に接続することができ、これにより、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にするために、インターネット110等のパケット交換ネットワークへのアクセスをWTRU102a、102b、102cに提供し得る。UPF184、184bは、パケットをルーティングして転送すること、ユーザプレーンポリシを施行すること、マルチホームPDUセッションをサポートすること、ユーザプレーンQoSを処理すること、ダウンリンクパケットをバッファすること、モビリティアンカリングを提供することなどの、他の機能を実行し得る。
【0063】
CN115は、他のネットワークとの通信を容易にし得る。例えば、CN115は、CN115とPSTN108との間のインターフェースとして機能するIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含み得るか、又はこれと通信し得る。加えて、CN115は、WTRU102a、102b、102cに他のネットワーク112へのアクセスを提供し得、この他のネットワークは、他のサービスプロバイダによって所有及び/又は運用されている他の有線及び/又は無線ネットワークを含み得る。一実施形態では、WTRU102a、102b、102cは、UPF184a、184bへのN3インターフェース、及びUPF184a、184bとDN185a、185bとの間のN6インターフェースを介して、UPF184a、184bを通じて、ローカルデータネットワーク(DN)185a、185bに、接続されてもよい。
【0064】
図1A図1D、及び図1A図1Dの対応する説明から見て、WTRU102a~d、基地局114a~b、eノード-B160a~c、MME162、SGW164、PGW166、gNB180a~c、AMF182a~b、UPF184a~b、SMF183a~b、DN185a~b、及び/又は本明細書で説明される任意のその他のデバイスのうちの1つ以上に関する、本明細書で説明される機能のうちの1つ以上又は全ては、1つ以上のエミュレーションデバイス(図示せず)によって実行され得る。エミュレーションデバイスは、本明細書に記載される機能の1つ以上又は全てをエミュレートするように構成された1つ以上のデバイスであり得る。例えば、エミュレーションデバイスを使用して、他のデバイスを試験し、かつ/又は、ネットワーク及び/若しくはWTRU機能をシミュレートしてもよい。
【0065】
エミュレーションデバイスは、ラボ環境及び/又は事業者ネットワーク環境における他のデバイスの1つ以上の試験を実行するように設計され得る。例えば、1つ以上のエミュレーションデバイスは、通信ネットワーク内の他のデバイスを試験するために、有線及び/又は無線通信ネットワークの一部として完全に若しくは部分的に実装及び/又は展開されている間、1つ以上若しくは全ての機能を実行してもよい。1つ以上のエミュレーションデバイスは、有線及び/又は無線通信ネットワークの一部として一時的に実装/展開されている間、1つ以上若しくは全ての機能を実行し得る。エミュレーションデバイスは、試験を目的として別のデバイスに直接結合され得る、及び/又は地上波無線通信を使用して試験を実行し得る。
【0066】
1つ以上のエミュレーションデバイスは、有線及び/又は無線通信ネットワークの一部として実装/展開されていない間、全てを含む1つ以上の機能を実行し得る。例えば、エミュレーションデバイスは、1つ以上の構成要素の試験を実行するために、試験実験室での試験シナリオ、並びに/又は展開されていない(例えば、試験用の)有線及び/若しくは無線通信ネットワークにおいて利用され得る。1つ以上のエミュレーションデバイスは、試験機器であり得る。RF回路(例えば、1つ以上のアンテナを含み得る)を介した直接RF結合及び/又は無線通信は、データを送信及び/又は受信するように、エミュレーションデバイスによって使用され得る。
【0067】
本出願は、ツール、特徴、実施例、モデル、アプローチなどを含む様々な態様を記載している。これらの態様の多くは、具体的に記載され、少なくとも個々の特性を示すために、限定的であり得るように記載されることが多い。しかしながら、これは、説明を明確にすることを目的としており、それらの態様の適用又は範囲を限定するものではない。実際、異なる態様の全てが組み合わされ、交換されて、更なる態様を提供し得る。その上、態様は、同様に、先の出願に説明される態様と組み合わされ、かつ交換され得る。
【0068】
本出願において説明及び企図される態様は、多くの異なる形態で実現され得る。本明細書に記載の図5図12は、いくつかの実施例を提供し得るが、他の実施例も企図される。図5図12の考察は、実装形態の範囲を限定するものではない。態様のうちの少なくとも1つは、概して、ビデオ符号化及び復号に関し、少なくとも1つの他の態様は、概して、生成又は符号化されたビットストリームを送信することに関する。これら及び他の態様は、方法、装置、説明される方法のうちのいずれかに従ってビデオデータを符号化若しくは復号するための命令を記憶したコンピュータ可読記憶媒体、及び/又は説明される方法のうちのいずれかに従って生成されたビットストリームを記憶したコンピュータ可読記憶媒体として実現され得る。
【0069】
本出願では、「再構成された」及び「復号された」という用語は交換可能に使用され得、「ピクセル」及び「サンプル」という用語は交換可能に使用され得、「画像」、「ピクチャ」、及び「フレーム」という用語は交換可能に使用され得る。
【0070】
様々な方法が本明細書に説明されており、本方法の各々は、説明された方法を達成するための1つ以上のステップ又はアクションを含む。ステップ又はアクションの特定の順序が方法の適切な動作のために必要とされない限り、特定のステップ及び/又はアクションの順序及び/又は使用は、修正又は組み合わされ得る。加えて、「第1の」、「第2の」などの用語は、様々な実施例において、例えば、「第1の復号」及び「第2の復号」などの要素、コンポーネント、ステップ、動作などを修正するために使用され得る。かかる用語の使用は、具体的に必要とされない限り、修正された動作に対する順序付けを意味するものではない。そのため、本実施例では、第1の復号は、第2の復号の前に実行される必要はなく、例えば、第2の復号の前、第2の復号中、又は第2の復号と重複する時間中に発生し得る。
【0071】
本出願に記載の様々な方法及び他の態様は、図2及び図3に示すように、ビデオエンコーダ200及びデコーダ300のモジュール、例えば、復号モジュールを変更するために使用され得る。その上、本明細書で開示される主題は、例えば、標準又は推奨に記載されているかどうかにかかわらず、既存の又は将来開発されるかどうかにかかわらず、任意のタイプ、形式、又はバージョンのビデオコーディング、並びに任意のかかる標準及び推奨の拡張に適用され得る。別段の指示がない限り、又は技術的に不可能でない限り、本出願に記載の態様は、個々に又は組み合わせて使用され得る。
【0072】
本出願で説明される実施例において、様々な数値が使用されている。これら及び他の特定の値は、例を説明する目的であり、説明される態様は、これらの特定の値に限定されない。
【0073】
図2は、例示的なビデオエンコーダを示す図である。例示的なエンコーダ200の変形例が企図されるが、エンコーダ200は、全ての予想される変形例を説明することなく、明確にする目的で以下に記載される。
【0074】
符号化される前に、ビデオシーケンスは、符号化前処理(201)、例えば、カラー変換を入力カラーピクチャに適用すること(例えば、RGB 4:4:4からYCbCr 4:2:0への変換)、又は圧縮に対してより弾力的な信号分布を得るために入力ピクチャ成分の再マッピングを実行すること(例えば、カラー成分のうちの1つのヒストグラム平坦化を使用して)を経ることができる。メタデータは、その前処理と関連付けられ、ビットストリームに添付され得る。
【0075】
エンコーダ200では、以下に記載のように、ピクチャは、エンコーダ要素によって符号化される。符号化されるピクチャは、分割(202)され、例えば、コーディングユニット(coding unit、CU)の単位で処理される。各ユニットは、例えば、イントラモード又はインターモードのいずれかを使用して符号化される。ユニットがイントラモードで符号化されるとき、イントラ予測(260)を実行する。インターモードでは、動き推定(275)及び動き補償(270)が実行される。エンコーダは、ユニットを符号化するためにイントラモード又はインターモードのうちのどちらを使用すべきかを判定し(205)、例えば、予測モードフラグによってイントラ/インターの判定を示す。予測残差は、例えば、原画像ブロックから予測されたブロックを減算(210)することによって計算される。
【0076】
この予測残差は、次いで、変換(225)され、量子化(230)される。量子化された変換係数、並びに動きベクトル及び他のシンタックス要素は、ビットストリームを出力するためにエントロピーコーディング(245)される。エンコーダは、変換をスキップし、量子化を非変換残差信号に直接適用することができる。エンコーダは、変換及び量子化の両方をバイパスすることができ、すなわち、残差は、変換プロセス又は量子化プロセスを適用することなく直接コーディングされる。
【0077】
エンコーダは、符号化されたブロックを復号して、更なる予測のための参照を提供する。量子化された変換係数は、予測残差を復号するために逆量子化(240)され、逆変換(250)される。復号された予測残差と予測されたブロックとを組み合わせて(255)、画像ブロックが再構成される。ループ内フィルタ(265)は再構成されたピクチャに適用され、例えば、符号化アーティファクトを低減するためのデブロッキング/サンプル適応オフセット(Sample Adaptive Offset、SAO)フィルタリングを実行する。フィルタリングされた画像は、参照ピクチャバッファ(280)に記憶される。
【0078】
図3は、ビデオデコーダの実施例を示す図である。例示的なデコーダ300では、ビットストリームは、以下に説明されるように、デコーダ要素によって復号される。ビデオデコーダ300は、概して、図2に記載の符号化パスとは逆の復号パスを実行する。エンコーダ200もまた、概して、ビデオデータを符号化することの一部として、ビデオ復号を実行する。
【0079】
特に、デコーダの入力は、ビデオビットストリームを含み、ビデオエンコーダ200によって生成され得る。ビットストリームは、最初に、変換係数、動きベクトル、及び他のコーディングされた情報を取得するために、エントロピー復号(330)される。ピクチャ分割情報は、ピクチャがどのように分割されているかを示す。したがって、デコーダは、復号されたピクチャ分割情報に従ってピクチャを分け得る(335)。変換係数は、予測残差を復号するために、逆量子化(340)され、逆変換(350)される。復号された予測残差と予測されたブロックとを組み合わせて(355)、画像ブロックが再構成される。予測されたブロックは、イントラ予測(360)又は動き補償予測(すなわち、インター予測)(375)から取得(370)され得る。ループ内フィルタ(365)は、再構成された画像に適用される。フィルタリングされた画像は、参照ピクチャバッファ(380)に記憶される。
【0080】
復号されたピクチャは、復号後処理(385)、例えば、逆カラー変換(例えば、YCbCr 4:2:0からRGB 4:4:4への変換)、又は符号化前処理(201)において実行された再マッピングプロセスの逆を実行する逆再マッピングを更に経ることができる。復号後処理は、符号化前処理において導出され、ビットストリーム内にシグナリングされたメタデータを使用することができる。実施例では、復号された画像(例えば、復号後処理が使用される場合、ループ内フィルタ(365)の適用後及び/又は復号後処理(385)の後)は、ユーザへのレンダリングのためにディスプレイデバイスに送信され得る。
【0081】
図4は、本明細書に説明される様々な態様及び実施例が実現され得るシステムの実施例を示す図である。システム400は、以下に説明される様々なコンポーネントを含むデバイスとして具体化され得、本明細書に説明される態様のうちの1つ以上を実行するように構成されている。かかるデバイスの実施例としては、これらに限定されないが、パーソナルコンピュータ、ラップトップコンピュータ、スマートフォン、タブレットコンピュータ、デジタルマルチメディアセットトップボックス、デジタルテレビ受信機、パーソナルビデオ記録システム、コネクテッド家電、及びサーバなどの様々な電子デバイスが挙げられる。システム400の要素は、単独で、又は組み合わせて、単一の集積回路(IC)、複数のIC、及び/又は別個のコンポーネントに具現化され得る。例えば、少なくとも1つの実施例では、システム400の処理及びエンコーダ/デコーダ要素は、複数のIC及び/又は別個のコンポーネントにわたって分散される。様々な実施例では、システム400は、例えば、通信バスを介して、又は専用の入力ポート及び/若しくは出力ポートを通じて、1つ以上の他のシステム又は他の電子デバイスに通信可能に結合される。様々な実施例では、システム400は、本明細書に説明される態様のうちの1つ以上を実装するように構成されている。
【0082】
システム400は、例えば、本明細書に記載される様々な態様を実装するために、それ自体にロードされた命令を実行するように構成された少なくとも1つのプロセッサ410を含む。プロセッサ410は、組み込みメモリ、入出力インターフェース、及び当該技術分野において知られている様々な他の回路を含むことができる。システム400は、少なくとも1つのメモリ420(例えば、揮発性メモリデバイス及び/又は不揮発性メモリデバイス)を含む。システム400は、記憶デバイス440を含み、これは、不揮発性メモリ及び/又は揮発性メモリを含むことができ、これらのメモリとしては、電気的消去可能なプログラマブル読み出し専用メモリ(Electrically Erasable Programmable Read-Only Memory、EEPROM)、読み出し専用メモリ(ROM)、プログラマブル読み出し専用メモリ(Programmable Read-Only Memory、PROM)、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(Dynamic Random Access Memory、DRAM)、スタティックランダムアクセスメモリ(Static Random Access Memory、SRAM)、フラッシュ、磁気ディスクドライブ、及び/又は光ディスクドライブが挙げられるが、これらに限定されない。記憶デバイス440は、非限定的な例として、内部記憶デバイス、付属記憶デバイス(取り外し可能及び取り外し不可能な記憶デバイスを含む)、及び/又はネットワークアクセス可能な記憶デバイスを含むことができる。
【0083】
システム400は、例えば、符号化されたビデオ又は復号されたビデオを提供するためにデータを処理するように構成されたエンコーダ/デコーダモジュール430を含み、エンコーダ/デコーダモジュール430は、それ自体のプロセッサ及びメモリを含むことができる。エンコーダ/デコーダモジュール430は、符号化機能及び/又は復号機能を実行するためにデバイス内に含まれ得るモジュールを表す。知られているように、デバイスは、符号化モジュール及び復号モジュールのうちの一方又は両方を含むことができる。加えて、エンコーダ/デコーダモジュール430は、システム400の別個の要素として実装され得るか、又は当業者に知られているように、ハードウェアとソフトウェアの組み合わせとしてプロセッサ410内に組み込まれ得る。
【0084】
本明細書に説明される様々な態様を実行するためにプロセッサ410又はエンコーダ/デコーダ430にロードされるプログラムコードは、記憶デバイス440に記憶され、その後、プロセッサ410による実行のためにメモリ420上にロードされ得る。様々な実施例によれば、プロセッサ410、メモリ420、記憶デバイス440、及びエンコーダ/デコーダモジュール430のうちの1つ以上は、本明細書に説明されるプロセスの実行中に様々なアイテムのうちの1つ以上を記憶することができる。かかる記憶されたアイテムは、これらに限定されないが、入力ビデオ、復号されたビデオ、又は復号されたビデオの一部、ビットストリーム、マトリックス、変数、並びに方程式、式、演算、及び演算ロジックの処理から中間結果又は最終結果を含むことができる。
【0085】
いくつかの実施例では、プロセッサ410及び/又はエンコーダ/デコーダモジュール430の内部のメモリは、命令を記憶し、符号化又は復号中に必要な処理のための作業メモリを提供するために使用される。ただし、他の実施例では、処理デバイスの外部のメモリ(例えば、処理デバイスは、プロセッサ410又はエンコーダ/デコーダモジュール430のいずれかであり得る)が、これらの機能のうちの1つ以上のために使用される。外部メモリは、メモリ420及び/又は記憶デバイス440、例えば、ダイナミック揮発性メモリ及び/又は不揮発性フラッシュメモリであり得る。いくつかの実施例では、外部不揮発性フラッシュメモリが、例えば、テレビのオペレーティングシステムを記憶するために使用される。少なくとも1つの実施例では、RAMなどの高速外部ダイナミック揮発性メモリが、ビデオ符号化及び復号動作のためのワーキングメモリとして使用される。
【0086】
システム400の要素への入力は、ブロック445に示されるように、様々な入力デバイスを通して提供され得る。かかる入力デバイスとしては、これらに限定されないが、(i)例えば、放送局によって地上波で送信されるRF信号を受信する無線周波数(radio frequency、RF)部分、(ii)コンポーネント(COMP)入力端子(又は一組のCOMP入力端子)、(iii)ユニバーサルシリアルバス(USB)入力端子、及び/又は(iv)高解像度マルチメディアインターフェース(High Definition Multimedia Interface、HDMI)入力端子が挙げられる。他の実施例には、図4には示されていないが、コンポジットビデオが含まれる。
【0087】
様々な実施例では、ブロック445の入力デバイスは、当該技術分野で知られているように、関連付けられたそれぞれの入力処理要素を有する。例えば、RF部分は、(i)所望の周波数を選択すること(信号を選択すること、又は信号をある帯域の周波数に帯域制限することとも称される)、(ii)選択された信号をダウンコンバートすること、(iii)(例えば)ある特定の実施例ではチャネルと称され得る信号周波数帯域を選択するために、より狭い周波数帯域に再び帯域制限すること、(iv)ダウンコンバートされ帯域制限された信号を復調することと、(v)誤り訂正を実行すること、及び/又は(vi)所望のデータパケットストリームを選択するために逆多重化することと、に好適な要素と関連付けられ得る。様々な実施例のRF部分は、これらの機能を実行するための1つ以上の要素、例えば、周波数セレクタ、信号セレクタ、帯域リミッタ、チャネルセレクタ、フィルタ、ダウンコンバータ、復調器、誤り訂正器、及び多重分離器を含む。RF部分は、様々なこれらの機能を実行するチューナを含むことができ、例えば、受信した信号をより低い周波数(例えば、中間周波数又は近ベースバンド周波数)に又はベースバンドにダウンコンバートすることを含む。1つのセットトップボックスの実施例では、RF部分及びその関連付けられた入力処理要素は、有線(例えば、ケーブル)媒体によって送信されたRF信号を受信し、フィルタ処理、ダウンコンバート、及び所望の周波数帯域への再度のフィルタ処理によって周波数選択を実行する。様々な実施例は、上で説明される(及び他の)要素の順序を再配列し、これらの要素のいくつかを除去し、並びに/又は他の要素を追加して、類似の機能若しくは異なる機能を実行する。要素を追加することは、例えば、増幅器及びアナログ-デジタル変換器を挿入するなど、既存の要素間に要素を挿入することを含み得る。様々な実施例では、RF部分は、アンテナを含む。
【0088】
USB端子及び/又はHDMI端子は、システム400をUSB接続及び/又はHDMI接続を介して他の電子デバイスに接続するためのそれぞれのインターフェースプロセッサを含むことができる。入力処理の様々な態様、例えば、リードソロモン誤り訂正は、例えば、必要に応じて、別個の入力処理IC内又はプロセッサ410内に実現され得ることを理解されたい。同様に、USB又はHDMIインターフェース処理の態様は、必要に応じて、別個のインターフェースIC内又はプロセッサ410内に実現され得る。例えば、メモリ及び記憶要素と組み合わせて動作する、プロセッサ410及びエンコーダ/デコーダ430を含む様々な処理要素に、復調され、誤り訂正され、逆多重化されたストリームを提供して、出力デバイス上に提示するために、必要に応じて、データストリームを処理する。
【0089】
システム400の様々な要素は、統合型筐体内に提供され得る。統合型筐体内では、様々な要素が相互接続され、好適な接続配列425、例えば、Inter-IC(I2C)バス、配線、及びプリント回路基板を含む当該技術分野で知られている内部バスを使用して、それらの間でデータを送信し得る。
【0090】
システム400は、通信チャネル460を介して他のデバイスとの通信を可能にする通信インターフェース450を含む。通信インターフェース450は、通信チャネル460によってデータを送信及び受信するように構成されたトランシーバを含むことができるが、これに限定されない。通信インターフェース450は、モデム又はネットワークカードを含むことができるが、これに限定されず、通信チャネル460は、例えば、有線及び/又は無線媒体内に実現され得る。
【0091】
データは、様々な実施例において、Wi-Fiネットワーク、例えば、IEEE802.11(IEEEは、the Institute of Electrical and Electronics Engineersを指す)などの無線ネットワークを使用して、システム400にストリーミングされるか、又は他の方法で提供される。これらの実施例のWi-Fi信号は、Wi-Fi通信用に適合された通信チャネル460及び通信インターフェース450を介して受信される。これらの実施例の通信チャネル460は、典型的には、ストリーミングアプリケーション及び他のオーバートップ通信を可能にするためにインターネットを含む外部ネットワークへのアクセスを提供するアクセスポイント又はルータに接続される。他の実施例は、入力ブロック445のHDMI接続によってデータを提供するセットトップボックスを使用して、ストリーミングされたデータをシステム400に提供する。更に他の実施例は、入力ブロック445のRF接続を使用して、ストリーミングされたデータをシステム400に提供する。上記のように、様々な実施例は、非ストリーミング様式でデータを提供する。加えて、様々な実施例は、Wi-Fi以外の無線ネットワーク、例えば、セルラーネットワーク又はBluetooth(登録商標)ネットワークを使用する。
【0092】
システム400は、ディスプレイ475、スピーカ485、及び他の周辺デバイス495を含む様々な出力デバイスに出力信号を提供することができる。様々な実施例のディスプレイ475は、例えば、タッチスクリーンディスプレイ、有機発光ダイオード(OLED)ディスプレイ、湾曲ディスプレイ、及び/又は折り畳み式ディスプレイのうちの1つ以上を含む。ディスプレイ475は、テレビ、タブレット、ラップトップ、携帯電話(モバイルフォン)、又は他のデバイスのためのものであり得る。また、ディスプレイ475を、他のコンポーネントと統合することができ(例えば、スマートフォンの場合のように)、又は別個にする(例えば、ラップトップ用の外部モニタ)こともできる。他の周辺デバイス495は、様々な実施例において、スタンドアロンデジタルビデオディスク(若しくはデジタル多用途ディスク)(両方の用語についてDVD)、ディスクプレーヤ、ステレオシステム、及び/又は照明システムのうちの1つ以上を含む。様々な実施例は、システム400の出力に基づいて機能を提供する1つ以上の周辺デバイス495を使用する。例えば、ディスクプレーヤは、システム400の出力を再生する機能を実行する。
【0093】
様々な実施例では、制御信号は、AV.Link、コンシューマエレクトロニクス制御(Consumer Electronics Control、CEC)、又はユーザ介入の有無を問わずデバイス間の制御を可能にする他の通信プロトコルなどのシグナリングを使用して、システム400とディスプレイ475、スピーカ485、又は他の周辺デバイス495との間で通信される。出力デバイスは、それぞれのインターフェース470、480、及び490を通じた専用接続を介してシステム400に通信可能に結合され得る。代替的に、出力デバイスは、通信インターフェース450を介し、通信チャネル460を使用して、システム400に接続され得る。ディスプレイ475及びスピーカ485は、例えば、テレビなどの電子デバイス内のシステム400の他のコンポーネントと単一のユニットに統合され得る。様々な実施例では、ディスプレイインターフェース470は、例えば、タイミングコントローラ(timing controller、TCon)チップなどのディスプレイドライバを含む。
【0094】
ディスプレイ475及びスピーカ485は、代替的に、例えば、入力445のRF部分が別個のセットトップボックスの一部分である場合、他のコンポーネントのうちの1つ以上とは別個であり得る。ディスプレイ475及びスピーカ485が外部コンポーネントである様々な実施例では、出力信号は、例えば、HDMIポート、USBポート、又はCOMP出力を含む専用の出力接続を介して提供され得る。
【0095】
これらの実施例は、プロセッサ410によって、又はハードウェアによって、又はハードウェア及びソフトウェアの組み合わせによって実現されるコンピュータソフトウェアによって実行され得る。非限定的な実施例として、これらの実施例は、1つ以上の集積回路によって実現され得る。メモリ420は、技術環境に適切な任意のタイプであり得、非限定的な例として、光メモリデバイス、磁気メモリデバイス、半導体ベースのメモリデバイス、固定メモリ、及びリムーバブルメモリなどの任意の適切なデータ記憶技術を使用して実現され得る。プロセッサ410は、技術環境に適切な任意のタイプのものであり得、非限定的な例として、マイクロプロセッサ、汎用コンピュータ、専用コンピュータ、及びマルチコアアーキテクチャに基づくプロセッサのうちの1つ以上を包含することができる。
【0096】
様々な実装形態は、復号を伴う。本出願で使用する際、「復号」は、例えば、ディスプレイに好適な最終出力をもたらすために、受信した符号化されたシーケンスに対して実行されるプロセスの全て又は一部を包含することができる。様々な実施例では、かかるプロセスは、典型的には、デコーダによって実行されるプロセス、例えば、エントロピー復号、逆量子化、逆変換、及び差動復号のうちの1つ以上を含む。様々な例では、かかるプロセスはまた、又は代替的に、例えば、以下のうちの1つ以上など、本出願で説明される様々な実装形態のデコーダによって実行されるプロセスを含む:コーディングモード(例えば、ジョイント深度-カラーコーディングモード(JDCC)、ジョイント深度-ルーマコーディングモード(JDLC)、及び/又はジョイント深度-クロマコーディングモード)が現在のブロックに対して使用されているかどうかを判定すること、コーディングモードが現在のブロックに対して使用されている(例えば、JDCCモードが使用されている)場合、現在のブロック内の深度サンプルを復号し、復号された深度サンプルに基づいて現在のブロック内の対応するルーマサンプル及び/又はカラーサンプルを予測すること、など。
【0097】
更なる実施例として、一実施例では、「復号」はエントロピー復号のみを指し、別の実施例では、「復号」は、差動復号のみを指し、別の実施例では、「復号」は、エントロピー復号及び差動復号の組み合わせを指す。「復号プロセス」という句が、具体的に動作のサブセットを指すことを意図とするものであるか、又は全体としてより広範な復号プロセスを指すことを意図とするものであるかは、具体的な説明の背景に基づいて明らかになり、当業者によって十分に理解されると考えられる。
【0098】
様々な実装形態は、符号化を伴う。「復号」に関する上記の考察と同様に、本出願で使用される「符号化」は、例えば、符号化されたビットストリームを作り出すために入力ビデオシーケンスに対して実行されるプロセスの全て又は一部を包含することができる。様々な実施例では、かかるプロセスは、典型的には、エンコーダによって実行されるプロセス、例えば、分割、差動符号化、変換、量子化、及びエントロピー符号化のうちの1つ以上を含む。様々な例では、かかるプロセスはまた、又は代替的に、例えば、以下のうちの1つ以上など、本出願で説明される様々な実装形態のエンコーダによって実行されるプロセスを含む:コーディングモード(例えば、JDCCモード、JDLCモード、及び/又はジョイント深度-クロマコーディングモード)を使用してブロックを符号化するかどうかを判定すること、コーディングモード(例えば、JDCCモード)を使用してブロックを符号化するという判定に基づいて、ブロック内の深度サンプルを符号化し、深度サンプルに基づいてブロック内の対応するルーマサンプル及び/又はカラーサンプルを符号化すること、など。
【0099】
更なる実施例として、一実施例では、「符号化」はエントロピー符号化のみを指し、別の実施例では、「符号化」は差動符号化のみを指し、別の実施例では、「符号化」は差動符号化及びエントロピー符号化の組み合わせを指す。「符号化プロセス」という句が、具体的に動作のサブセットを指すことを意図とするものであるか、又は全体としてより広範な符号化プロセスを指すことを意図とするものであるかは、具体的な説明の背景に基づいて明らかになり、当業者によって十分に理解されると考えられる。
【0100】
本明細書で使用されるシンタックス要素、例えば、コーディングモード指示(例えば、コーディングモード有効化指示)に関するコーディングシンタックスなどは、説明的用語であることに留意されたい。したがって、これらは他のシンタックス要素名の使用を排除するものではない。
【0101】
図がフロー図として提示されている場合、その図は対応する装置のブロック図も提供するものと理解されたい。同様に、図がブロック図として提示されている場合、その図は対応する方法/プロセスのフロー図も提供するものと理解されたい。
【0102】
本明細書に説明される実装形態及び態様は、例えば、方法又はプロセス、装置、ソフトウェアプログラム、データストリーム、又は信号において実現され得る。たとえ単一の形態の実装形態の文脈でのみ考察される場合でも(例えば、方法としてのみ考察される)、考察された特徴の実装形態は、他の形態(例えば、装置又はプログラム)でも実装することができる。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアで実装され得る。本方法は、例えば、プロセッサで実行され得るが、プロセッサは、該して処理デバイスを指し、例えば、コンピュータ、マイクロプロセッサ、集積回路、又はプログラマブル論理デバイスが含まれる。プロセッサには、例えば、エンドユーザ間の情報の通信を容易にする、コンピュータ、携帯電話、ポータブル/携帯情報端末(Personal Digital Assistant、「PDA」)などのデバイスなどの通信デバイスも含まれる。
【0103】
「一実施例」若しくは「実施例」又は「一実装形態」若しくは「実装形態」、並びにそれらの他の変形例への言及は、実施例に関連して説明される特定の特徴、構造、特性などが少なくとも1つの実施例に含まれることを意味する。そのため、本出願全体を通して様々な場所に現れる「一実施例では」若しくは「実施例では」又は「一実装形態では」若しくは「実装形態では」という句、並びに任意の他の変形例の出現は、必ずしも全てが同じ実施例を指すとは限らない。
【0104】
加えて、本出願は、様々な情報を「判定する」ことに言及し得る。情報を判定することは、例えば、情報を推定すること、情報を計算すること、情報を予測すること、又は情報をメモリから取り出すことのうちの1つ以上を含むことができる。取得することは、受信すること、取り出すこと、構築すること、生成すること、及び/又は判定することを含み得る。
【0105】
更に、本出願は、様々な情報に「アクセスすること」に言及する場合がある。情報にアクセスすることは、例えば、情報を受信すること、(例えば、メモリから)情報を取得すること、情報を記憶すること、情報を移動すること、情報をコピーすること、情報を計算すること、情報を判定すること、情報を予測すること、又は情報を推定することのうちの1つ以上を含むことができる。
【0106】
加えて、本出願は、様々な情報を「受信すること」に言及する場合がある。受信することは、「アクセスすること」と同様に、広義の用語であることを意図している。情報を受信することは、例えば、情報にアクセスすること、又は(例えば、メモリから)情報を取得することのうちの1つ以上を含むことができる。更に、「受信すること」は、概して、例えば、情報を記憶する、情報を処理する、情報を送信する、情報を移動する、情報をコピーする、情報を消去する、情報を計算する、情報を判定する、情報を予測する、又は情報を推定するなどの操作時に、何らかの方式で関与する。
【0107】
例えば、「A/B」、「A及び/又はB」及び「A及びBのうちの少なくとも1つ」の場合、次の「/」、「及び/又は」、及び「のうちの少なくとも1つ」のいずれかの使用は、第1のリストされた選択肢(A)のみの選択、又は第2のリストされた選択肢(B)のみの選択、又は両方の選択肢(A及びB)の選択を包含することが意図されていることを理解されるべきである。更なる実施例として、「A、B、及び/又はC」及び「A、B、及びCのうちの少なくとも1つ」の場合、かかる表現は、第1のリストされた選択肢(A)のみの選択、又は第2のリストされた選択肢(B)のみの選択、又は第3のリストされた選択肢(C)のみの選択、又は第1及び第2のリストされた選択肢(A及びB)のみの選択、又は第1及び第3のリストされた選択肢(A及びC)のみの選択、又は第2及び第3のリストされた選択肢のみの選択(B及びC)のみ、又は3つ全ての選択肢の選択(A及びB及びC)を包含することが意図される。このことは、当該技術分野及び関連技術分野の当業者に明らかであるように、リストされたアイテムの数だけ拡張され得る。
【0108】
また、本明細書で使用されるとき、「シグナリングする」という語は、特に、対応するデコーダに対して何かを示すことを意味する。エンコーダ信号は、例えば、コーディングモード指示(例えば、ジョイント深度ルーマコーディングモード有効化指示、ジョイント深度クロマコーディングモード有効化指示、ジョイント深度-カラーコーディングモード有効化指示)などを含み得る。このようにして、例では、同じパラメータがエンコーダ側とデコーダ側の両方で使用される。したがって、例えば、エンコーダは、デコーダが同じ特定のパラメータを使用することができるように、特定のパラメータをデコーダに送信することができる(明示的なシグナリング)。逆に、デコーダが既に特定のパラメータ並びに他のパラメータを有する場合、単にデコーダが特定のパラメータを知り選択することを可能にするために、送信せずにシグナリングを使用し得る(暗黙的なシグナリング)。いかなる実際の機能の送信を回避することによって、様々な実施例においてビット節約が実現される。シグナリングは、様々な方式で達成され得ることが理解されるべきである。例えば、様々な実施例では、1つ以上のシンタックス要素、フラグなどを使用して、対応するデコーダに情報をシグナリングする。上記は、「信号」という語の動詞形に関連し、「信号」という語は、本明細書では名詞としても使用されることがある。
【0109】
当業者には明らかであるように、実装形態は、例えば、記憶又は送信され得る情報を搬送するようにフォーマットされた様々な信号を生成し得る。情報は、例えば、方法を実行するための命令、又は説明されている実装形態の1つによって生成されるデータを含むことができる。例えば、信号は、説明される実施例のビットストリームを搬送するようにフォーマットされ得る。かかる信号は、例えば、(例えば、スペクトルの無線周波数部分を使用して)電磁波として、又はベースバンド信号としてフォーマットされ得る。フォーマットすることは、例えば、データストリームを符号化し、符号化されたデータストリームで搬送波を変調することを含み得る。信号が搬送する信号は、例えば、アナログ情報又はデジタル情報であり得る。信号は、知られているように、様々な異なる有線又は無線リンクによって送信され得る。信号は、プロセッサ可読媒体に記憶されるか、プロセッサ可読媒体からアクセス若しくは受信され得る。
【0110】
多くの実施例が、本明細書に説明されている。実施例の特徴は、様々な特許請求のカテゴリ及びタイプにわたって単独で又は任意の組み合わせで提供され得る。更に、実施例は、本明細書に説明される特徴、デバイス、又は態様のうちの1つ以上を、単独で又は任意の組み合わせで、様々な特許請求のカテゴリ及びタイプにわたって含み得る。例えば、本明細書に説明される特徴は、本明細書に説明されるように生成された情報を含むビットストリーム又は信号に実現され得る。情報により、デコーダが、記載の実施形態のいずれかに従って、ビットストリーム、エンコーダ、ビットストリーム、及び/又はデコーダを復号することが可能になり得る。例えば、本明細書に記載の特徴は、ビットストリーム又は信号を生成及び/又は送信及び/又は受信及び/又は復号することによって実現され得る。例えば、本明細書に記載の特徴は、方法、プロセス、装置、命令を記憶する媒体、データを記憶する媒体、又は信号として実現され得る。例えば、本明細書に記載の特徴は、TV、セットトップボックス、携帯電話、タブレット、又は復号を実行する他の電子デバイスによって実装され得る。TV、セットトップボックス、携帯電話、タブレット、又は他の電子デバイスは、結果として生じる画像(例えば、ビデオビットストリームの残差再構成からの画像)を(例えば、モニタ、スクリーン、又は他のタイプのディスプレイを使用して)表示し得る。TV、セットトップボックス、携帯電話、タブレット、又は他の電子デバイスは、符号化された画像を含む信号を受信し、復号を実行し得る。
【0111】
クロス成分深度-カラーコーディングを実行するためのシステム、方法、及び手段が開示される。深度情報は、テクスチャ情報(例えば、ルーマ、クロマ、及び/又はR、G、Bカラー成分情報)のジョイント又はクロス成分コーディングのために使用され得る。深度情報は、対応するテクスチャ情報と一緒に符号化及び/又は復号するために使用され得る。
【0112】
実施例では、ビデオ復号デバイスは、ジョイント深度-カラーコーディング(JDCC)モード(例えば、ジョイント深度-ルーマコーディング(JDLC)モード)、及び/又はジョイント深度-クロマコーディングモード)が現在のブロックに対して使用されているかどうかを判定し得る。JDCCがこのブロックに対して使用されている場合、デバイスは、ブロック内の深度サンプルを復号し、例えば、復号された深度サンプルに基づいて、ブロック内の対応するカラーサンプルを予測し得る。JDCCモードがブロックに対して無効である場合、デバイスは、ブロック内のカラーサンプル、例えば、ルーマサンプル及び/又はクロマサンプルを復号し得る(例えば、深度サンプルとは無関係に、ルーマサンプル及び/又はクロマサンプルを復号する)。デバイスは、例えば、コーディングモード(例えば、JDCCモード)がブロックに対して使用されているかどうかを示し得るコーディングモード指示(例えば、JDCC有効化指示などのコーディングモード有効化指示)を取得し得る。
【0113】
デバイスは、ブロックをパーティションに分割するためのエッジを判定し得る。デバイスは、例えば、エッジアンカー、及びブロックをコーディングするために使用されるイントラ方向モードと関連付けられた方向に基づいて、エッジ位置を取得し得る。デバイスは、深度サンプル又はエッジ位置に基づいて、ブロックのパーティション内の深度サンプルを再構成し、同じパーティション内の対応するルーマサンプル及び/又はクロマサンプルを再構成し得る。
【0114】
例えば、ブロックの第1のパーティション及びブロックの第2のパーティションは、例えば、エッジ位置に基づいて、識別し得る。デバイスは、第1のパーティション内の深度サンプルと関連付けられた深度サンプル値を取得し得る。デバイスは、例えば、第1のパーティションと関連付けられた深度サンプル値に基づいて、第1のパーティション内のルーマサンプルと関連付けられたルーマサンプル値を再構成し得る。デバイスは、第2のパーティション内の深度サンプルと関連付けられた深度サンプル値を取得し得る。デバイスは、例えば、第2のパーティションと関連付けられた深度サンプル値に基づいて、第2のパーティション内のルーマサンプルと関連付けられたルーマサンプル値を再構成し得る。
【0115】
例えば、ブロックの第1のパーティション及びブロックの第2のパーティションは、例えば、エッジ位置に基づいて、識別し得る。デバイスは、第1のパーティション内の深度サンプルと関連付けられた深度サンプル値を取得し得る。デバイスは、例えば、第1のパーティションと関連付けられた深度サンプル値に基づいて、第1のパーティション内のクロマサンプルと関連付けられたクロマサンプル値を再構成し得る。デバイスは、第2のパーティション内の深度サンプルと関連付けられた深度サンプル値を取得し得る。デバイスは、例えば、第2のパーティションと関連付けられた深度サンプル値に基づいて、第2のパーティション内のクロマサンプルと関連付けられたクロマサンプル値を再構成し得る。
【0116】
実施例では、ビデオ符号化デバイスは、コーディングモード(例えば、JDCCモード)を使用してブロックを符号化するかどうかを判定し得る。デバイスは、(例えば、JDCCモードを使用してブロックを符号化するという判定に基づいて)ブロック内の深度サンプルを符号化し、例えば、深度サンプルに基づいて、ブロック内の対応するルーマサンプルを符号化し得る。デバイスは、スライス、タイル、サブピクチャ、コーディングユニット、又はブロックのうちの1つ以上に対してJDCCモードを有効化することを判定し得る。デバイスは、例えば、スライス、タイル、サブピクチャ、コーディングユニット、又はブロックについてJDCCモードが有効化されていることを示すために、ビットストリーム内に指示(例えば、JDCCモード有効化指示などのコーディングモード有効化指示)を含めることを判定し得る。
【0117】
デバイスは、ブロックに対して、深度情報をコーディングするための予測モードと、ルーマ及び/又はクロマ情報をコーディングするための予測モードとを判定し得る。デバイスは、以下のうちの1つ以上に基づいて、ブロックを符号化するために、深度サンプル及びカラーサンプル(例えば、ルーマサンプル及び/又はクロマサンプル)をジョイントコーディングするコーディングモードを使用することを判定し得る:コーディングモード(例えば、JDCCモード)がブロックに対して有効化される、ブロックの深度情報をコーディングするための予測モードがイントラ方向モードである、ブロックのルーマ情報をコーディングするための予測モードがイントラ方向モードである、ブロックの深度情報をコーディングするための予測モードとルーマ情報をコーディングするための予測モードとが同じである、及び/又は同様のもの。デバイスは、例えば、コーディングモード(例えば、JDCCモード)を使用してブロックを符号化するという判定に基づいて、ブロックを分割するためのエッジ位置を判定し得る。デバイスは、エッジ位置の指示をビットストリーム内に含め得る。エッジ位置の指示は、参照サンプルアレイ内のエッジアンカー位置を示し得る。
【0118】
本明細書で説明されるシステム、方法、及び手段は、デコーダを伴い得る。いくつかの実施例では、本明細書で説明するシステム、方法、及び手段は、エンコーダを伴い得る。いくつかの実施例では、本明細書で説明するシステム、方法、及び手段は、(例えば、エンコーダからの、及び/又はデコーダによって受信された)信号を伴い得る。コンピュータ可読媒体は、1つ以上のプロセッサに、本明細書で説明される方法を実行させるための命令を含み得る。コンピュータプログラム製品は命令を含み得、命令は、プログラムが1つ以上のプロセッサによって実行されたときに、1つ以上のプロセッサに本明細書で説明される方法を行わせ得る。
【0119】
実施例では、コーディングモードは、テクスチャ情報(例えば、ルーマ及び/又はクロマ情報)をコーディング(例えば、ジョイント又はクロス成分コーディング)するための情報として、深度情報を使用し得る。圧縮効率は、例えば、品質を維持しながらビットレートを低減することによって、又はビットレートを維持しながら品質を改善することによって改善され得る。深度情報は、ピクチャ内のブロック(例えば、すべてのブロック又はブロックのサブセット)について、又はピクチャ内のブロックのサブセットについてコーディングされ得る。深度情報は、例えば、深度情報がピクチャのエリア内でコーディングされる場合、対応するテクスチャ情報をコーディングする(例えば、ジョイントコーディングする)ために使用され得る。
【0120】
例えば、ルーマ情報及び深度情報はジョイントコーディングされ得る。マルチビュープラス深度(multi-view plus depth、MVD)バージョンでは、深度マップは、例えば、ルーマピクチャと関連付けられた解像度(例えば、ルーマピクチャと同じ解像度)の密なモノクロピクチャとして、ビデオコンテンツの(例えば、各)テクスチャピクチャに対して利用可能であり得る。深度マップは、キャプチャされたビデオシーンのジオメトリ(例えば、基本ジオメトリ)を表し得る。
【0121】
実施例では、ピクチャはコーディングツリーユニット(coding tree units、CTUs)に分割され得る。CTUは、コーディング処理単位(例えば、基本コーディング処理単位)を表し得る。CTUは、例えば、ビデオ信号(例えば、ビデオ信号がモノクロであるか、又は複数のカラー成分を含むか)に応じて、1つ以上のコーディングツリーブロック(coding tree blocks、CTBs)を含み得る。(例えば、YCbCr 4:2:0ビデオと関連付けられた)例では、CTUは、ルーマCTB及び(例えば、2つの)クロマCTBを含み得る(例えば、クロマCTBは各々、ルーマCTBのサイズの4分の1であり得る)。CTUサイズ(例えば、最大CTUサイズ)は、例えば、CTUの最大CTBによって定義され得る。CTUサイズ(例えば、最大CTUサイズ)は、64×64サンプル又は128×128サンプルであり得る。CTUは、コーディングユニット(CU)に再帰的に分けることができる。実施例では、CUの再帰的サブパーティショニングは、1つ以上(例えば、3つ)のパーティショニングモードに従って行われ得る:四分木(例えば、4つの等しいサイズのCUへの分割)、三分木(例えば、サイズ1/4、2/4、1/4の3つのCUへの分割)、及び/又は二分木(例えば、2つの等しいサイズのCUへの分割)。例えば、CUをCUサイズよりも小さいサイズの変換ユニット(transform units、TUs)に割る場合、追加の分割が実行され得る。実施例では、CUは予測ユニット(prediction units、PUs)に分けることができる。PUは、CUレベルにおいて同じパラメータを共有し得る(例えば、コーディングモード)。実施例では、CUは、異なるPUパラメータ(例えば、動きベクトル)を有し得るPUに分け得る。実施例では(例えば、イントラスライスの場合)、別個のルーマコーディングツリー及びクロマコーディングツリーが適用され得る(例えば、その場合、ルーマCTB及びクロマCTBは、例えば、それら自体のコーディングツリーに従って、再帰的に割ることができる)。
【0122】
深度コーディングモードは、ビデオシーケンスを符号化及び/又は復号するために使用され得る。実施例では、深度モデリングモード(depth modeling modes、DMMs)と呼ばれることがある、深度情報をコーディングするための異なるモードが使用され得る。図5は、ウェッジレットパターンを使用して深度をコーディングするための例示的な深度モデリングモードを例解する。実施例では、DMMは、ウェッジレットパターンを使用し得る。図5に示されているように、ウェッジレットパターンを使用するDMMは、各部分が一定の深度値を有するように、直線を使用してブロックを2つの部分に分け得る。図6は、輪郭パターンを使用して深度をコーディングするための例示的な深度モデリングモードを例解する。実施例では、DMMは、各部分について一定の深度値を用いて、様々な部分に分割するために輪郭パターンを使用し得る。予測ユニット(PU)は、(例えば、DMMを介して)(例えば、2つの)矩形でないエリアに分けることができ、深度の一定パーティション値(constant partition value、CPV)はエリアごとに符号化され得る。
【0123】
シーン(例えば、同じシーン)のテクスチャフレームと深度フレームとの間の相関を利用するために、パーティションの成分間予測が実行され得る。実施例では、深度ブロックのための矩形でないブロック分割を予測することが有効化され得る。成分間予測は、テクスチャから深度情報を予測するために使用され得る。テクスチャ情報は、(例えば、最初に)コーディングされ得、テクスチャ情報は、深度情報をコーディングするために使用され得る。テクスチャ情報は、例えば、深度ブロックのセグメンテーション(例えば、パーティション情報)を判定するために使用され得る。ルーマ情報は、深度情報を判定するために使用され得る。ルーマのセグメンテーションは、深度のセグメンテーションを判定するために使用することができる。ルーマブロックは、(例えば、深度ブロックの分割であると判定される)ブロックの分割を導出するために分析され得る。
【0124】
ブロックのパーティションのCPV値は、例えば、ブロックの分割が導出されたことを考慮して、例えば、コーディングすべきブロックを囲むサンプル(例えば、コーディングすべきブロックを囲む隣接する左及び上の深度サンプル)から予測され得る。
【0125】
マルチモデル線形モデル(multi-model linear model、MMLM)が使用され得る。クロス成分線形モデル(cross-component linear model、CCLM)は、(例えば、3つの)MMLMモードを含み得る。(例えば、それぞれの)MMLMモードでは、再構成された隣接サンプルは、例えば、しきい値を使用して、(例えば、2つの)クラスに分類され得る。しきい値は、隣接サンプルから再構成されたルーマの平均であり得る。(例えば、各)クラスの線形モデルは、例えば、最小二乗平均(least-mean-square、LMS)演算を使用して導出される。CCLMモードの場合、線形モデルを導出するためにLMS演算が使用され得る。
【0126】
位置依存イントラ予測合成(Position dependent intra prediction combination、PDPC)オペレーションが実行され得る。実施例では、(例えば、DCモード、平面(planar)モード、及び方向性(angular)モードを用いた)イントラ予測の結果は、PDPCオペレーションによって修正され得る。PDPCは、境界参照サンプル、及びフィルタ処理された境界参照サンプルを用いたイントラ予測の組合せを呼び出し得るイントラ予測オペレーションであり得る。PDPCは、例えば、シグナリングなしに、以下のイントラモード、すなわち、平面、DC、水平以下のイントラ角度、及び/又は垂直以上かつモード80以下のイントラ角度のうちの1つ以上に適用され得る。PDPCは、例えば、現在のブロックがブロックベースのデルタパルスコード変調(block-based delta pulse code modulation、Bdpcm)モードにある場合、又は複数参照ライン(multiple reference line、MRL)インデックスが0よりも大きい場合、スキップされ得る(例えば、適用されない)。
【0127】
予測サンプルpred(x’,y’)は、イントラ予測モード(例えば、DC、平面、角度)及び参照サンプルの線形結合を使用して、例えば、式1に従って予測され得る。
【0128】
【数1】
x,-1及びR-1,yは、それぞれ、(例えば、現在の)サンプル(x,y)の上境界及び左境界に位置する参照サンプルを表し得る。
【0129】
例えば、PDPCがDC、平面、水平、及び垂直イントラモード(例えば、追加の)に適用される場合、境界フィルタは使用されることを控え得る(例えば、必要とされない)。DCモード境界フィルタ又は水平/垂直モードエッジフィルタの場合、境界フィルタが使用され得る(例えば、必要とされる)。DC及び平面モードのためのPDPCプロセスは、同一であり得る。方向性モードに関して、現在の方向性モードがHOR_IDX又はVER_IDXである場合、左又は上の参照サンプルは、それぞれ使用されないことがある。PDPC重み及びスケールファクタは、予測モード及び/又はブロックサイズに依存し得る。PDPCは、4(例えば、ピクセル)以上の幅及び高さ(例えば、一方又は両方)を有するブロックに適用され得る。
【0130】
実施例では、テクスチャ及び深度情報は、ピクチャのブロック(例えば、すべてのブロック又はブロックのサブセット)についてコーディングされ得る。深度マップは、例えば、ルーマ情報からの成分間予測を使用してコーディングされ得る。テクスチャ及び深度情報がコーディングされ得る。深度情報コーディングは、例えば、テクスチャ情報に基づいて実行され得る。本明細書で使用される場合、コーディングは、符号化及び/又は復号を含み得る。
【0131】
例えば、深度情報が使用されない(例えば、必要とされない)場合、深度情報を(例えば、すべてのピクチャのすべてのブロックについて)コーディングすることは、例えば、圧縮に関して、非効率的であり得る(例えば、不利である)。テクスチャ情報は、深度情報からコーディングされ得る。
【0132】
実施例では、深度情報は、例えば、テクスチャのより良好なコーディング効率を得るために、コーディングプロセスにおいて(例えば、ブロックレベルで)使用され得る。テクスチャコーディングは、例えば、深度に関連する、中間情報をコーディングすることによって改善され得る。
【0133】
例示的なJDCCモードでは、深度情報は、テクスチャ情報(例えば、ルーマ及びクロマ、並びに/又はR、G、Bカラー成分情報)のコーディング(例えば、ジョイント又はクロス成分コーディング)のための情報(例えば、追加又は中間情報)として使用され得る。深度情報は、ピクチャのブロック(例えば、すべてのブロック)に対して、又はピクチャのブロックの一部(例えば、一部のみ)に対してコーディングすることができる。深度情報は、例えば、深度情報がピクチャのエリア内でコーディングされる場合、対応するテクスチャ情報をコーディングする(例えば、ジョイントコーディングする)ために使用され得る。
【0134】
実施例では、深度情報は、テクスチャ情報の前にコーディングされる中間情報として使用され得る。深度情報は、テクスチャ情報を予測及びコーディングするために使用され得る。
【0135】
実施例では、深度情報は、CCLMプロセス中にサンプルをクラス(例えば、2つのクラスなど)に分類するために使用され得る。深度情報は、異なるサンプルのクラスに対して異なる線形モデルを適用するために使用され得る。例えば、2つのクラスのサンプルに対して2つの異なる線形モデルが使用され得て、例えば、各クラスに対して(例えば、1つの)線形モデルが使用され得る(例えば、複数のパーティションの各々に対して1つの線形モデルが適用される)。実施例では、CCLMモデルは、(例えば、各)パーティションについての深度情報からルーマ情報を予測するために使用され得る。
【0136】
実施例では、PDPCプロセスは、例えば、深度情報に基づいて、エッジ上のサンプルに対して修正され得る。
【0137】
深度情報は、以下のうちの1つ以上のために使用され得る:イントラ予測のための参照サンプル補間及び平滑化、最確モード(most probable mode、MPM)導出、デコーダ側イントラモード導出(decoder side intra mode derivation、DIMD)、及び/又は、それと同等のもの。
【0138】
テクスチャ情報は、(例えば、少なくとも1つの)カラー成分(例えば、ルーマ及び/又はクロマ)を含み得る。テクスチャ情報は、(例えば、非モノクロYUVビデオの場合)ルーマ成分及び2つのクロマ成分を含み得る。テクスチャ情報は、(例えば、少なくとも)1つのカラー成分(例えば、R、G、又はB)を含み得る。本明細書で提供される例は、例示的なテクスチャ情報としてルーマ成分を使用するが、本明細書で提供される例は、クロマ及び/又はR、G、Bカラー情報などの他のテクスチャ情報にも適用され得る。ルーマ、テクスチャ、クロマ、及びカラー成分という用語は、本明細書では互換的に使用され得る。
【0139】
ブロックレベルモードは、深度及びテクスチャ情報をコーディング(例えば、ジョイントコーディング)することを伴い得る。実施例では、ジョイント深度-ルーマコーディング(JDLC)コーディングモードが、ブロックレベルで使用され得る。JDLCは、深度及びルーマ情報のコーディング(例えば、ジョイントコーディング)に対応し得る。JDLCは、深度及びテクスチャ情報(例えば、ルーマ、クロマ、及び/又はR、G、Bカラー成分情報)のコーディング(例えば、ジョイントコーディング)に対応し得る。代替のサポートされるコーディングモードは、(例えば、任意の)深度データをコーディングすることなしに、例えば、ルーマ、クロマのコーディングに対応し得る。
【0140】
図7は、JDLCコーディングモードのようなJDCCモードの例を示す。コーディングモードは、入力ビットストリームにおいて解析されたデータから導出され得る(例えば、図7の700に示されるように)。図7の701に示されるように、コーディングモードがルーマコーディングを伴うモード(例えば、ルーマ専用コーディング)に該当するのか、それともジョイント深度及びルーマコーディングを伴うモード(例えば、「モード=JDLC?」)に該当するのかを判定するために、コーディングモードがチェックされ得る。例えば、図7の702に示されるように、例えば、コーディングモードがルーマコーディング(例えば、ルーマ専用コーディング)を伴うモードに該当する場合、ブロックのルーマサンプルは、(例えば、深度情報なしに、又は深度情報とは無関係に)復号され得る。そうでない場合、例えば、コーディングモードがジョイント深度及びルーマコーディングを伴うモードに該当する場合、深度及びルーマサンプルのジョイント復号が実行され得る(例えば、図7の703に示されるように)。当業者であれば理解するように、図7に示すプロセスは、符号化及び復号の両方に適用し得る。
【0141】
実施例では、JDLCコーディングモードは、深度情報をコーディングし、次いで、例えば、深度情報に基づいてルーマ情報をコーディングすることを伴い得る。コーディングモードは、深度情報をコーディングすること、及び深度情報に基づいてルーマ情報をコーディングすることに対応し得る。図8は、深度情報に基づいてルーマ情報をコーディングすることに対応する例示的なコーディングモードを示す。ブロックをコーディングするために使用されるコーディングモードは、入力ビットストリーム内でパースされたデータから導出され得る(例えば、図8の800に示されるように)。図8の801に示されるように、コーディングモードがルーマコーディング(例えば、ルーマ専用コーディング)を伴うモードに該当するか、又は深度情報ベースのルーマコーディングを伴うモードに該当するかを判定するために、コーディングモードがチェックされ得る。例えば、コーディングモードがルーマコーディング(例えば、ルーマ専用コーディング)を伴うモードに該当する場合、ブロックのルーマサンプルが復号され得る(例えば、図8の802に示されるように)。そうでない場合、例えば、コーディングモードが深度情報ベースのルーマコーディングを伴うモードに該当する場合、深度情報が(例えば、最初に)復号されてもよく、次いで、例えば、以前に復号された深度情報に基づいて、ルーマサンプルが復号され得る(例えば、図8の803に示されるように)。当業者であれば理解するように、図8に示すプロセスは、符号化及び復号の両方に適用し得る。
【0142】
JDLCなどのJDCCは、例えば、ビデオデータ内の指示を介して、有効化され得る。JDLCは、ピクチャのエリア(例えば、スライス、タイル、サブピクチャ)に対して、又はブロックレベル(例えば、CTU、CUレベル、PU、又はTUレベル)において、(例えば、指示を介して)有効化され得る。
【0143】
JDLCなどのJDCCは、例えば、指示を介して(例えば、フラグを使用して)、有効化され得る(例えば、アクティブ化)。実施例では、JDCCが(例えば、ビデオデータ内のJDCC有効化指示などの指示を介して)ブロックに対して有効化される(例えば、アクティブ化される)場合、(例えば、同じ)予測モードが、深度並びにルーマ及び/又はクロマに対してコーディングされ得る。JDCCモードが使用されるかどうかは、例えば、シグナル指示(例えば、フラグ)に基づいて判定され得る。
【0144】
実施例では、深度情報は、例えば、条件が満たされる場合、コーディング/復号され得る(例えば、図7及び図8に関して本明細書で説明されるように)。実施例では、条件は、以下のうちの1つ以上を含み得る:コーディングモード(例えばJDLC)が例えば指示(例えばフラグ)を介してブロックに対して有効化される(例えばアクティブ化される)、同じ予測モードが深度及びルーマをコーディングするために使用される、深度及びルーマをコーディングするための予測モードがイントラ方向モードである、及び/又は同様のもの。深度情報は、深度ブロックを複数のパーティション(例えば、2つのパーティション)に割る深度エッジの参照サンプルアレイ内の位置を示し得る(少なくとも示していた)。
【0145】
図9は、予測するために2つのパーティションに割るブロックの例を例解する。深度ブロックを2つのパーティションに割るエッジの参照サンプルアレイ内の位置は、エッジアンカー(EA)と呼ばれ得る(例えば、図9に示されるように)。図9に示されるように、予測するブロック(BP)は900で示され、予測のための参照サンプルは901で示される。図9は、対角方向902及びコード化されイントラ方向予測モード903を示す。参照サンプルアレイ内のエッジ位置は、エッジアンカー(EA)904と呼ばれ得る(例えば、円として図9に示されているように)。図9は、ブロック内の2つのパーティション間のエッジ905の位置を示す。
【0146】
実施例では、深度情報は、パーティション(例えば、各パーティション)についてコーディングされ得る。(例えば、各)パーティションについて深度値(例えば、単一の深度値)がコーディングされ得る。深度情報は、エリア内で(例えば、エリアごとに)一定であり得る。深度値は、例えば、(例えば、それらが利用可能である場合)隣接ブロックからの深度データ(例えば、深度情報)から予測され得る。エッジの左側のパーティションについての深度値の予測は、EAの左側に位置する参照深度サンプル(例えば、図9に示されているように、BPに隣接する左列からの参照サンプル、及びEAの左側に位置するBPの上の上端ラインからの参照サンプル)から計算され得る。エッジの右側のパーティションについての深度値の予測は、EAの右側に位置する参照深度サンプルから計算され得る(例えば、図9に示されるように、EAの右側に位置するBPの上の上端ラインからの参照サンプル)。実施例では、パーティション(例えば、各パーティション)についてコーディングされた深度データは、パラメトリックモデルのパラメータ値から作られ得る。例えば、線形モデルのパラメータ(a,b,c)は、式2に従って定義され得る。
【0147】
【数2】
パラメータ(a、b、c)は、パーティション間で異なり得る(例えば、パーティションP1についてとパーティションP2についてとで異なる)。パラメータ(例えば、パラメトリックモデルパラメータ)は、例えば、隣接する深度サンプルが利用可能である場合(例えば、利用可能であるとき)、隣接する深度サンプルから、又は隣接パラメトリックモデルパラメータが利用可能である場合(例えば、利用可能であるとき)、隣接ブロックに対して使用されるパラメトリックモデルパラメータから予測され得る。
【0148】
図10は、例示的なルーマ予測プロセスを例解する。ルーマ予測プロセスが実行され得る(例えば、深度情報に関して本明細書で説明される条件がコーディングされる場合、深度及びルーマを予測するために同じ予測モードが使用される場合、及び/又は予測モードがイントラ方向モードである場合)。イントラ方向予測モデルは、エッジ位置を識別するための参照サンプルアレイを判定するために使用され得る(例えば、図10の1000に示されるように)。例えば、深度情報及び/又はルーマ情報をコーディングすることと関連付けられた予測モードが判定され得る。深度情報及び/又はルーマ情報をコーディングすることと関連付けられた予測モードは、例えば、DIMDを使用して判定され得る。例えば、イントラ方向予測モードが対角方向より下であるか対角方向より上であるか(例えば、又はイントラ予測モードがそれぞれ水平又は垂直方向に該当する場合)は、エッジ位置を識別するための参照サンプルアレイを判定するために使用され得る(例えば、図10の1000に示されるように)。実施例では、例えば、イントラ方向モードが対角方向より下である場合(例えば、そのように判定される場合)、参照サンプルアレイ内のエッジ位置(例えば、現在のブロックの左に位置する)が復号され得る(例えば、図10の1001に示されるように)。実施例では、例えば、イントラ方向モードが対角方向より上である場合(例えば、そのように判定される場合)、参照サンプルアレイ内のエッジ位置(例えば、現在のブロックの上端に位置する)が復号され得る(例えば、図10の1002に示されるように)。
【0149】
例えば、パーティションに対応する深度サンプル情報を含み得る、パーティションについての深度情報が復号され得る。ブロックは、例えば、示されるように、ブロックBP 900内部のエッジ905によって(例えば、図9に示されるように)、分割され得る(例えば、図10の1003に示されるように、イントラ予測方向を使用してエッジ位置EAを伝搬することによって取得される深度エッジによって割られる)。復号された深度情報からのルーマサンプルの予測は、例えば、ルーマ予測シグナルを取得するために、実行され得る(例えば、図10の1004に示されるように)。例えば、(例えば、各)パーティションPi(例えば、i=1,2)について、例えば、(例えば、図12に示されるように)パーティションPiとエッジの同じ側にある隣接するルーマサンプル又はブロックから、(例えば、デコーダ側イントラモード導出(DIMD)手法を使用して)イントラ予測モードを判定することができ、ルーマブロックの第1のセットはパーティションP1と同じ側にあり、ルーマブロックの第2のセットはパーティションP2と同じ側にあり、ルーマブロックはエッジによって横切られる。(例えば、各)パーティションは、それぞれの(例えば、異なる)DIMD手法を使用し得る。エッジEAによって横切られる隣接ルーマブロックは、例えば、パーティションPiと同じ側にあるルーマブロック内のサンプルの数に比例して、考慮に入れられ得る。実施例では、DIMDから(例えば、各)パーティションPi(例えば、i=1,2)について導出された(例えば、パーティションPiと同じエッジの側からの隣接ルーマブロックを使用して計算された)イントラモードdir_DIMDiは、例えば、2つの方向モードインデックスの加重和として、エッジdir_EAに対応する方向モードと混合され得る(例えば、重みw1及びw2は、各モードについて0.5に等しくても、w2=1-w1であってもよく、w1は、[0,1]内の離散値の事前定義されたセット内で導出され、インデックスは、どの値が使用されるかを示すために推測又はシグナリングされる)。パーティションPiに適用される、結果として得られるモードdir_MIXEDiは、式3を用いて計算され得る。
【0150】
【数3】
ルーマサンプルのための(例えば、本明細書で説明される)プロセスは、クロマサンプルを予測するためにも適用することができる。
【0151】
例えば、カラー情報のコーディングと関連付けられた予測モードが判定され得る。カラー情報のコーディングと関連付けられた予測モードは、例えば、DIMDを使用して判定され得る。カラー情報は、ルーマ情報及び/又はクロマ情報を含み得る。深度情報、ルーマ情報及び/又はクロマ情報をコーディングすることと関連付けられた予測モードは、パーティションに基づいて判定され得る。DIMDは、パーティションに対応する隣接ブロックに基づいて、コーディングブロックのパーティション内のサンプルのイントラ予測モードを導出するために実行され得る。
【0152】
深度情報は、参照サンプルアレイ内のエッジアンカーEAの位置を含み得る。EAの位置は、例えば、シグナルを介して示され得る(例えば、それぞれ図7及び図8の703及び/又は803に示されるように)。EAの位置は、例えば、(例えば、イントラ予測方向が対角予測モードの上にあるか下にあるかに応じて)ブロックを囲む上の水平サンプルアレイ又は左の垂直サンプルアレイとして定義される1-Dサンプルアレイにおいて位置が定義されるため、1-Dパラメータとして示され得る。EAの位置は、例えば、フルペル又はサブペル精度で(例えば、シグナルを介して)示され得る。EAの位置(例えば、場所)は、基準位置に対してコーディング/復号され得る。位置が、上の参照サンプルアレイ内で(例えば、シグナルを介して)示される場合、位置は、例えば、上の参照アレイにおける最も左の位置、又は中央の位置、又は最も右の位置に対して(例えば、シグナルを介して)示され得る。位置が、左の参照サンプルアレイ内で(例えば、シグナルを介して)示される場合、位置は、左の参照アレイ内の最上位置、又は中央位置、又は最下位置に対して(例えば、シグナルを介して)示すことができる。
【0153】
ルーマ情報及びクロマ情報は、例えば、ブロック内の深度エッジ位置を知っていることに基づいてコーディングされ得る。深度パーティションエッジのブロック内の位置(例えば、位置を知っている)は、ルーマシグナル及びクロマシグナルを予測するために使用され得る。
【0154】
実施例では、クロマ情報は、例えば、予測を改善するためにエッジ位置が使用される場合、ルーマ予測に基づいて判定され得る。図11は、ルーマ予測に基づいてクロマ情報を判定するためにエッジ位置を使用する例を示す。クロマ情報が、ルーマ予測に基づいて、判定され得、エッジ位置は、例えば、ブロックの同じ位置に再構成されたルーマサンプル(例えば、フィルタ処理された)から、並びにブロックに隣接する再構成されたルーマ(例えば、フィルタ処理された)及び再構成されたクロマサンプルから、ブロックのクロマサンプルを予測するためのクロス成分線形モデル(CCLM)モードに基づいて、予測を改善するために使用される。線形モデルは、例えば、ルーマブロック内の同じ相対位置pにおける、同じ位置にあるルーマサンプルL(p)を使用して、クロマブロック内の相対位置pにおけるクロマサンプルC(p)を予測するために使用され得る。線形モデルは、例えば、式4に示されるように使用され得る。
【0155】
【数4】
pred(p)は、クロマブロック内の相対位置pにおけるクロマサンプル予測であり得、(a,b)は線形モデルパラメータであり得る。CCLMでは、a及びbの値は、例えば、隣接する再構成されたルーマサンプル及びクロマサンプルを使用して判定され得る。
【0156】
実施例では、ブロックに対して複数の(例えば、2つの)線形モデルを判定することができる(例えば、エッジの各側に対して1つのモデル)。図11を参照すると、第1のモデル(a0,b0)は、パーティションP1の隣接する再構成されたサンプルと関連付けられた参照サンプルを用いて判定され得て、第2のモデル(a1,b1)は、パーティションP2の隣接する再構成されたサンプルと関連付けられた参照サンプルを用いて判定され得る。エッジの左側及び右側のクロマサンプル(例えば、それぞれ、図11のパーティションP1及びP2)は、それぞれモデル(a0,b0)及び(a1,b1)を使用して予測され得る。Pi(例えば、i=0、1)の中の任意のピクセルpについて、クロマブロック内の相対位置pにおけるクロマサンプル予測は、式5を使用して判定され得る。
【0157】
【数5】
エッジに近いピクセルpに対しては、例えば式6を使用して、混合プロセスを適用することができる。
【0158】
【数6】
式中、wは混合重みであり得る。実施例では、wは0.5に設定し得るか、又はエッジまでの距離d(p,edge)の関数であり得る。
【0159】
実施例では、コーディングブロックに対して、複数の線形モデルが導出され得る(例えば、パーティションごとに1つずつ)。例えば、エッジのパーティションと同じ側に位置する参照サンプルを使用して(例えば、使用するだけで)、(例えば、各)パーティションに対して、複数の線形モデルが導出され得る。例えば、図11を参照すると、パーティションP1に対して、パーティションP1の隣接する再構成されたサンプルと関連付けられた参照サンプルから、2つのモデル(a0,b0)及び(a0’,b0’)が判定され得て(例えば、MMLMを用いて行われるなど)、パーティションP2に対して、パーティションP2の隣接する再構成されたサンプルと関連付けられた参照サンプルから、2つの他のモデル(a1,b1)及び(a1’,b1’)が判定され得る(例えば、MMLMを用いて行われるなど)。
【0160】
ルーマ情報は、例えば、パラメトリックモデルを使用して、深度情報からコーディング及び/又は復号され得る。実施例では(例えば、深度情報がコーディング又は復号された後)、深度からのルーマ予測が、(例えば、本明細書で説明されるように)(例えば、各)パーティションに適用され得て、例えば、線形モデルを使用して、ルーマブロック内の相対位置pにおけるルーマサンプルC(p)を予測する(例えば、深度ブロック内の同じ相対位置pにおける、同じ位置にある深度サンプルD(p)から)。線形モデルは、式7のように表され得る。
【0161】
【数7】
pred(p)は、ルーマブロック内の相対位置pにおけるルーマサンプル予測であり得、(a,b)は線形モデルパラメータであり得る。
【0162】
例えば、深度サンプルがルーマサンプルと同じ解像度でコーディングされていない場合、例えば、Lpred(p)と(例えば、同じ)解像度及びサンプル位置においてリサンプリングされた深度サンプルD(p)を取得するために、深度サンプルのリサンプリングが適用され得る(例えば、最初に適用され得る)。
【0163】
例えば、エッジ位置情報に基づいて、PDPCが実行され得る。実施例では、PDPCプロセスにおいて、深度エッジ情報が使用され得る。深度エッジ情報は、PDPCプロセスにおいて使用される参照サンプル、例えば、(例えば、図13に示されるように)現在のサンプル(x,y)の上端及び左のRx,-1及びR-1,yが、(例えば、図11に示されるように)それぞれ同じパーティションに属するかどうかを判定するために使用され得る。図13は、パーティションについての深度情報を判定する一例を例解する。
【0164】
例えば、Rx,-1及びR-1,yが現在のサンプルと同じパーティションに属する場合、現在のサンプルに対してPDPCプロセスが実行され得る。図12は、各パーティションを取り囲む隣接ブロックを有する例示的なブロックを例解する。例えば、Rx,-1及びR-1,yが現在のサンプルと同じパーティションに属さない場合、現在のサンプルに対して、PDPCプロセスはスキップされ得る(例えば、適用されない、例えば、図12に示されているように)。例えば、初期予測並びに参照サンプルRx,-1及びR-1,yの重み付けされた和として、位置(x,y)における予測を導出するために、PDPCが使用され得る。
【0165】
実施例では(例えば、参照サンプルが現在のサンプルと同じパーティションに属さない場合)、参照サンプルは、例えば、現在のサンプルと同じパーティションに属する最も近い参照サンプルによって置き換えられ得る。
【0166】
実施例では(例えば、深度情報が利用可能でない場合)、例えば、現在のサンプルと(例えば、4つの)隣接サンプルとの間の差(例えば、絶対差)を計算することによって、エッジ検出が実行され得る。例えば、絶対差のうちの1つが所与のしきい値よりも大きい場合、現在のサンプルは、エッジ上に位置するとみなされ得る。
【0167】
実施例では、例えば、深度情報がルーマとジョイント符号化される場合(例えば、深度情報がルーマより先に符号化される場合)、(例えば、PDPCにおいて修正され得る)境界サンプルを選択するために、深度情報が使用され得る。例えば、(例えば、初期ルーマ予測値を修正するために使用される)2次参照ピクセルが境界サンプルと同じ深度パーティションに属する場合、境界サンプルはPDPCにおいて修正され得る(例えば、あるいは、PDPCオペレーションはそれらのルーマサンプルをスキップし得る)。
【0168】
参照サンプル補間及び平滑化は、イントラ予測のために実行され得る。イントラ予測において使用される参照サンプルは、例えば、いくつかの予測角度に対して、(例えば、平滑化ガウスフィルタを用いて)フィルタ処理され得る。イントラ予測において使用される参照サンプルは、(例えば、2タップ線形フィルタ、4タップ立体フィルタなどを用いて)補間され得る。実施例では、参照サンプル平滑化及び補間のために使用されるべきフィルタは、例えば、(例えば、深度情報がルーマ情報とジョイント符号化される場合)隣接する参照サンプルの深度マップに基づいて選択され得る。例えば、水平方向と垂直方向との間の予測方向(例えば、対角線方向の下及び上)に対して、参照サンプルは左に拡張され得る。補間フィルタ及び平滑化フィルタ(例えば、この場合)は、例えば、深度マップに基づいて、判定され得る。例えば、予測器サンプル(例えば、補間されるべき(例えば、補間される必要がある)予測器サンプル)がエッジアンカーEAに近い場合(例えば、補間参照サンプルが異なる深度マップを有するように)、予測器サンプルと同じ深度マップに属する参照サンプル(例えば、それらの参照サンプルのみ)が使用され得る。4タップ立体フィルタを考慮すると、例えば、最も左又は最も右の参照サンプルが他の深度マップ内にある場合(例えば、その場合のみ)、2タップ補間が実行され得る。例えば、2つの左参照サンプル又は2つの右参照サンプルが、他の深度マップ内にある場合、最近傍補間が使用され得る。
【0169】
最確モード(most probable mode、MPM)導出が実行され得る。実施例では、現在のブロックの上及び/又は左(例えば、それが利用可能である場合)の復号されたブロック内の深度マップは、(例えば、イントラモードコーディングのための)MPMセットの構成を判定するために使用することができる。例えば、エッジアンカーEAの方向に対応するイントラ方向モードは、MPMリストに挿入されるべき(例えば、1つの)候補とみなすことができる。実施例では、エッジアンカーEAの方向は、MPMリストの先頭に配置され得る。実施例では、追加のMPMは、例えば、EAの方向と現在のブロックに隣接するイントラ方向モードとの混合値から、例えば、これらのモードが存在する場合、MPMリストに挿入することができる。
【0170】
デコーダ側イントラモード導出(DIMD)が実行され得る。デコーダ側イントラモード導出(DIMD)において、デコーダは、例えば、ターゲットブロックの上及び左の(例えば、既に)復号されたサンプルを使用して、ルーマピクセル勾配値を推定し得る。勾配は、例えば、4×4ブロックにわたってSobelオペレータを使用して推定し得る。複数のイントラ予測方向は、例えば、計算された勾配のヒストグラムを使用して判定され得る。イントラ予測方向は、線形重み付けを有する平面モードと組み合わされてもよく、結果として生じる予測は、通常の方向性モードから得られる予測と比較され得る。実施例では、深度情報は、例えば、ターゲットブロックの上及び左の復号されたサンプルの深度情報がルーマと一緒に復号される場合、勾配値の推定を改善するために利用することができる。深度情報は、ターゲットルーマブロック内のエッジ及び予測方向を判定するために(例えば、代替的に又は追加的に)直接使用することができる。
【0171】
本明細書で説明されるプロセスは、エンコーダ及びデコーダの両方に適用し得る。
【0172】
特徴及び要素は、特定の組み合わせにおいて上で説明されているが、当業者は、各特徴又は要素が単独で又は他の特徴及び要素との任意の組み合わせで使用することができることを理解されよう。加えて、本明細書に説明される方法は、コンピュータ又はプロセッサによる実行のためにコンピュータ可読媒体に組み込まれたコンピュータプログラム、ソフトウェア又はファームウェアにおいて実行され得る。コンピュータ可読媒体の例としては、電子信号(有線又は無線接続を介して送信される)及びコンピュータ可読記憶媒体が挙げられる。コンピュータ可読記憶媒体の例としては、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内部ハードディスク及びリムーバブルディスクなどの磁気媒体、磁気光学媒体及びCD-ROMディスク及びデジタル多用途ディスク(DVD)などの光学媒体が挙げられるが、これらに限定されない。ソフトウェアと関連付けられたプロセッサを使用して、WTRU、UE、端末、基地局、RNC、又は任意のホストコンピュータにおいて使用するための無線周波数トランシーバを実装し得る。
図1A
図1B
図1C
図1D
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
【手続補正書】
【提出日】2024-06-06
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
ビデオ復号デバイスであって、
プロセッサを備え、前記プロセッサが、
ジョイント深度-カラーコーディング(JDCC)モードがコーディングブロックに対して使用されていると判定し、
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定に基づいて、複数の深度サンプルを含む前記コーディングブロックについての深度情報を取得し、
前記複数の深度サンプルに基づいて、前記コーディングブロック内の対応する複数のカラーサンプルを予測し、
前記コーディングブロック内の予測された前記対応する複数のカラーサンプルに基づいて、前記コーディングブロックを復号する、ように構成されている、ビデオ復号デバイス。
【請求項2】
前記複数のカラーサンプルが、複数のルーマサンプル又は複数のクロマサンプルのうちの少なくとも1つを含む、請求項1に記載のビデオ復号デバイス。
【請求項3】
前記プロセッサが、
JDCC有効化指示を取得するように更に構成されており、前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記JDCC有効化指示と関連付けられた値に少なくとも基づいて判定され、前記JDCC有効化指示が、ブロックレベルJDCC有効化指示である、請求項1に記載のビデオ復号デバイス。
【請求項4】
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記コーディングブロックと関連付けられたJDCC有効化指示、前記コーディングブロックについての深度情報をコーディングすることと関連付けられた予測モード、及び前記コーディングブロックについてのカラー情報をコーディングすることと関連付けられた予測モードに基づく、請求項1に記載のビデオ復号デバイス。
【請求項5】
前記プロセッサが、
前記コーディングブロックについての前記深度情報に基づいて、前記コーディングブロック内の深度エッジ位置を取得し、
前記深度エッジ位置に基づいて、前記コーディングブロックの第1のパーティション及び前記コーディングブロックの第2のパーティションを識別し、
デコーダ側イントラモデル導出(DIMD)を使用して、隣接ブロックの第1のセットに基づいて、前記第1のパーティションのための第1の予測モードを判定し、
判定された前記第1の予測モードに基づいて、前記第1のパーティション内の第1の複数のカラーサンプルを予測し、
DIMDを使用して、隣接ブロックの第2のセットに基づいて、前記第2のパーティションのための第2の予測モードを判定し、
判定された前記第2の予測モードに基づいて、前記第2のパーティション内の第2の複数のカラーサンプルを予測する、ように更に構成されている、請求項1に記載のビデオ復号デバイス。
【請求項6】
前記深度情報が、深度エッジアンカーを含み、前記プロセッサが、
前記深度エッジアンカーと前記コーディングブロックをコーディングするために使用されるイントラ方向モードと関連付けられた方向とに基づいて、深度エッジ位置を取得し、
前記深度エッジ位置に基づいて、コーディングブロックを第1のパーティション及び第2のパーティションに分割する、ように更に構成されており、前記コーディングブロック内の前記対応する複数のカラーサンプルが、前記パーティションに基づいて予測される、請求項1に記載のビデオ復号デバイス。
【請求項7】
前記プロセッサが、
前記深度情報に基づいて、前記コーディングブロック内の深度エッジ位置を取得し、
前記エッジ位置に基づいて、前記コーディングブロックの第1のパーティション及び前記コーディングブロックの第2のパーティションを識別し、
前記第1のパーティション内の第1の複数の深度サンプルと関連付けられた第1の複数の深度サンプル値を取得し、
前記第1の複数の深度サンプル値に基づいて、前記第1のパーティション内の複数のカラーサンプルと関連付けられた複数のカラーサンプル値を予測し、
前記第2のパーティション内の第2の複数の深度サンプルと関連付けられた第2の複数の深度サンプル値を取得し、
前記第2の複数の深度サンプル値に基づいて、前記第2のパーティション内の第2の複数のカラーサンプルと関連付けられた第2の複数のカラーサンプル値を予測する、ように更に構成されている、請求項1に記載のビデオ復号デバイス。
【請求項8】
前記第1のパーティション内の前記複数のカラーサンプルと関連付けられた前記複数のカラーサンプル値が、第1のクロス成分線形モデル(CCLM)を使用して予測され、前記第2のパーティション内の前記複数のカラーサンプルと関連付けられた前記複数のカラーサンプル値が、第2のCCLMを使用して予測される、請求項7に記載のビデオ復号デバイス。
【請求項9】
ビデオ復号の方法であって、
ジョイント深度-カラーコーディング(JDCC)モードがコーディングブロックに対して使用されていると判定することと、
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定に基づいて、複数の深度サンプルを含む前記コーディングブロックについての深度情報を取得することと、
前記複数の深度サンプルに基づいて、前記コーディングブロック内の対応する複数のカラーサンプルを予測することと、
前記コーディングブロック内の予測された前記対応する複数のカラーサンプルに基づいて、前記コーディングブロックを復号することと、を含む、方法。
【請求項10】
JDCC有効化指示を取得することを更に含み、前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記JDCC有効化指示と関連付けられた値に少なくとも基づいて判定され、前記JDCC有効化指示が、ブロックレベルJDCC有効化指示である、請求項8に記載の方法。
【請求項11】
前記JDCCモードが前記コーディングブロックに対して使用されているという前記判定が、前記コーディングブロックと関連付けられたJDCC有効化指示、前記コーディングブロックについての深度情報をコーディングすることと関連付けられた予測モード、及び前記コーディングブロックについてのカラー情報をコーディングすることと関連付けられた予測モードに基づく、請求項8に記載の方法。
【請求項12】
前記コーディングブロックについての前記深度情報に基づいて、前記コーディングブロック内の深度エッジ位置を取得することと、
前記深度エッジ位置に基づいて、前記コーディングブロックの第1のパーティション及び前記コーディングブロックの第2のパーティションを識別することと、
デコーダ側イントラモデル導出(DIMD)を使用して、隣接ブロックの第1のセットに基づいて、前記第1のパーティションのための第1の予測モードを判定することと、
判定された前記第1の予測モードに基づいて、前記第1のパーティション内の第1の複数のカラーサンプルを予測することと、
DIMDを使用して、隣接ブロックの第2のセットに基づいて、前記第2のパーティションのための第2の予測モードを判定することと、
判定された前記第2の予測モードに基づいて、前記第2のパーティション内の第2の複数のカラーサンプルを予測することと、を更に含む、請求項8に記載の方法。
【請求項13】
前記深度情報が、深度エッジアンカーを含み、前記方法が、
前記深度エッジアンカーと前記コーディングブロックをコーディングするために使用されるイントラ方向モードと関連付けられた方向とに基づいて、深度エッジ位置を取得することと、
前記深度エッジ位置に基づいて、コーディングブロックを第1のパーティション及び第2のパーティションに分割することと、を更に含み、前記コーディングブロック内の前記対応する複数のカラーサンプルが、前記パーティションに基づいて予測される、請求項8に記載の方法。
【請求項14】
前記深度情報に基づいて、前記コーディングブロック内の深度エッジ位置を取得することと、
前記エッジ位置に基づいて、前記コーディングブロックの第1のパーティション及び前記コーディングブロックの第2のパーティションを識別することと、
前記第1のパーティション内の第1の複数の深度サンプルと関連付けられた第1の複数の深度サンプル値を取得することと、
前記第1の複数の深度サンプル値に基づいて、前記第1のパーティション内の複数のカラーサンプルと関連付けられた複数のカラーサンプル値を予測することと、
前記第2のパーティション内の第2の複数の深度サンプルと関連付けられた第2の複数の深度サンプル値を取得することと、
前記第2の複数の深度サンプル値に基づいて、前記第2のパーティション内の第2の複数のカラーサンプルと関連付けられた第2の複数のカラーサンプル値を予測することと、を更に含む、請求項8に記載の方法。
【請求項15】
前記第1のパーティション内の前記複数のカラーサンプルと関連付けられた前記複数のカラーサンプル値が、第1のクロス成分線形モデル(CCLM)を使用して予測され、前記第2のパーティション内の前記複数のカラーサンプルと関連付けられた前記複数のカラーサンプル値が、第2のCCLMを使用して予測される、請求項14に記載の方法。
【請求項16】
ビデオ符号化の方法であって、
ジョイント深度-カラーコーディング(JDCC)モードを使用してコーディングブロックを符号化するかどうかを判定することと、
前記コーディングブロック内の深度情報であって、複数の深度サンプルを含む、深度情報を符号化することと、
前記JDCCモードを使用して前記コーディングブロックを符号化するという判定に基づいて、前記深度情報に基づく、前記コーディングブロック内の対応する複数のカラーサンプルを符号化することと、
符号化された前記コーディングブロック及び前記深度情報をビデオデータ内に含めることと、を含む、方法。
【請求項17】
前記複数のカラーサンプルが、複数のルーマサンプル又は複数のクロマサンプルのうちの少なくとも1つを含む、請求項16に記載の方法。
【請求項18】
スライス、タイル、サブピクチャ、又はブロックのうちの少なくとも1つに対して前記JDCCモードを有効化すると判定することと、
前記スライス、タイル、サブピクチャ、又はブロックに対してJDCCが有効化されていることを示すJDCCモード有効化指示を前記ビデオデータ内に含めることと、を更に含む、請求項16に記載の方法。
【請求項19】
前記コーディングブロックについての深度情報をコーディングするための第1の予測モードと、前記コーディングブロックについてのカラー情報をコーディングするための第2の予測モードとを判定することを更に含み、前記JDCCモードを使用して前記コーディングブロックを符号化するという前記判定が、
前記JDCCモードが前記コーディングブロックに対して有効化されていること、
前記コーディングブロックについての深度情報をコーディングするための前記第1の予測モードがイントラ方向モードであること、
前記コーディングブロックについてのカラー情報をコーディングするための前記第2の予測モードがイントラ方向モードであること、又は
前記コーディングブロックについての深度情報をコーディングするための前記第1の予測モード及び前記コーディングブロックについてのカラー情報をコーディングするための前記第2の予測モードが同じ予測モードであること、のうちの少なくとも1つに基づく、請求項16に記載の方法。
【請求項20】
前記JDCCモードを使用して前記コーディングブロックを符号化するという前記判定に基づいて、前記コーディングブロックを分割するためのエッジ位置を判定することと、
前記エッジ位置を示す指示を前記ビデオデータ内に含めることと、を更に含み、前記エッジ位置を示す前記指示が、参照サンプルアレイ内のエッジアンカー位置を示すように構成されている、請求項16に記載の方法。
【請求項21】
ビデオ符号化デバイスであって、
プロセッサを備え、前記プロセッサが、
ジョイント深度-カラーコーディング(JDCC)モードを使用してコーディングブロックを符号化するかどうかを判定し、
前記コーディングブロック内の深度情報であって、複数の深度サンプルを含む、深度情報を符号化し、
前記JDCCモードを使用して前記コーディングブロックを符号化するという判定に基づいて、前記深度情報に基づく、前記コーディングブロック内の対応する複数のカラーサンプルを符号化し、
符号化された前記コーディングブロック及び前記深度情報をビデオデータ内に含める、ように構成されている、ビデオ符号化デバイス。
【請求項22】
前記複数のカラーサンプルが、複数のルーマサンプル又は複数のクロマサンプルのうちの少なくとも1つを含む、請求項21に記載のビデオ符号化デバイス。
【請求項23】
前記プロセッサが、
スライス、タイル、サブピクチャ、又はブロックのうちの少なくとも1つに対して前記JDCCモードを有効にすると判定し、
前記スライス、タイル、サブピクチャ、又はブロックに対してJDCCが有効化されていることを示すJDCCモード有効化指示を前記ビデオデータ内に含める、ように更に構成されている、請求項21に記載のビデオ符号化デバイス。
【請求項24】
前記プロセッサが、
前記コーディングブロックについての深度情報をコーディングするための第1の予測モードと、前記コーディングブロックについてのカラー情報をコーディングするための第2の予測モードとを判定するように更に構成されており、前記JDCCモードを使用して前記コーディングブロックを符号化するという前記判定が、
前記JDCCモードが前記コーディングブロックに対して有効化されていること、
前記コーディングブロックについての深度情報をコーディングするための前記第1の予測モードがイントラ方向モードであること、
前記コーディングブロックについてのカラー情報をコーディングするための前記第2の予測モードがイントラ方向モードであること、又は
前記コーディングブロックについての深度情報をコーディングするための前記第1の予測モード及び前記コーディングブロックについてのカラー情報をコーディングするための前記第2の予測モードが同じ予測モードであること、のうちの少なくとも1つに基づく、請求項21に記載のビデオ符号化デバイス。
【請求項25】
前記プロセッサが、
前記JDCCモードを使用して前記コーディングブロックを符号化するという前記判定に基づいて、前記コーディングブロックを分割するためのエッジ位置を判定し、
前記エッジ位置を示す指示を前記ビデオデータ内に含める、ように更に構成されており、前記エッジ位置を示す前記指示が、参照サンプルアレイ内のエッジアンカー位置を示すように構成されている、請求項21に記載のビデオ符号化デバイス。
【国際調査報告】