(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-10-27
(45)【発行日】2023-11-07
(54)【発明の名称】ピクチャ分割情報をシグナリングする方法及び装置
(51)【国際特許分類】
H04N 19/70 20140101AFI20231030BHJP
【FI】
H04N19/70
(21)【出願番号】P 2022531522
(86)(22)【出願日】2020-11-26
(86)【国際出願番号】 KR2020016944
(87)【国際公開番号】W WO2021107634
(87)【国際公開日】2021-06-03
【審査請求日】2022-06-23
(32)【優先日】2019-11-27
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】502032105
【氏名又は名称】エルジー エレクトロニクス インコーポレイティド
【氏名又は名称原語表記】LG ELECTRONICS INC.
【住所又は居所原語表記】128, Yeoui-daero, Yeongdeungpo-gu, 07336 Seoul,Republic of Korea
(74)【代理人】
【識別番号】100099759
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100165191
【氏名又は名称】河合 章
(74)【代理人】
【識別番号】100114018
【氏名又は名称】南山 知広
(74)【代理人】
【識別番号】100159259
【氏名又は名称】竹本 実
(72)【発明者】
【氏名】ヘンドリー ヘンドリー
(72)【発明者】
【氏名】シータル パルリ
(72)【発明者】
【氏名】キム スンファン
【審査官】岩井 健二
(56)【参考文献】
【文献】Benjamin Bross, Jianle Chen, Shan Liu, and Ye-Kui Wang,Versatile Video Coding (Draft 7),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-P2001 (version 14),16th Meeting: Geneva, CH,2019年11月14日,pp.38-44,96-112
【文献】Sachin Deshpande, and Jonatan Samuelsson,On Subpicture Information Signalling,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-P0579-v2,16th Meeting: Geneva, CH,2019年09月,pp.1-8
【文献】Hendry, and Seethal Paluri,[AHG9]: Miscellaneous HLS clean-ups,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-Q0210_r2,17th Meeting: Brussels, BE,2020年01月,pp.1-8
(58)【調査した分野】(Int.Cl.,DB名)
H04N 19/00 - 19/98
(57)【特許請求の範囲】
【請求項1】
デコーディング装置によって実行される映像デコーディング方法において、
現在ピクチャについての映像情報をビットストリームから獲得するステップと、
前記映像情報に基づいて前記現在ピクチャをデコーディングするステップとを含み、
前記映像情報は、サブピクチャ(sub picture)情報の存在に関する第1フラグ及び、各サブピクチャがただ一つのスライスを含むか否かに関する第2フラグを含み、
前記第1フラグ及び前記第2フラグに基づいて、前記現在ピクチャに含まれたスライスの数が1に等しいと導出される、映像デコーディング方法。
【請求項2】
エンコーディング装置によって実行される映像エンコーディング方法において、
現在ピクチャを分割して少なくとも一つのスライスを導出するステップと、
前記少なくとも一つのスライスに基づいて、前記現在ピクチャに対する映像情報をエンコーディングするステップを含み、
前記映像情報は、サブピクチャ(sub picture)情報の存在に関する第1フラグ及び、前記現在ピクチャにおいて各サブピクチャがただ一つのスライスを含むか否かに関する第2フラグを含み、
前記第1フラグ及び前記第2フラグに基づいて、前記現在ピクチャに含まれたスライスの数は1に等しいことが導出される、映像エンコーディング方法。
【請求項3】
映像に対するデータを送信する方法であって、
現在ピクチャを分割することにより少なくと
も一つのスライスを導出し、前記少なくとも一つのスライスに基づいて前記現在ピクチャに対する映像情報をエンコーディングすることによりビットストリームを生成する方法により、前記ビットストリームを生成するステップと、
前記ビットストリームを含む前記データを送信するステップとを含み、
前記映像情報は、サブピクチャ情報の存在に関する第1フラグと、前記現在ピクチャの中のそれぞれのサブピクチャがただ一つのスライスを含むかに関連する第2フラグを含み、
前記現在ピクチャに含まれるスライスの数は、前記第1フラグ及び前記第2フラグに基づいて、1に等しいと導出される、方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、映像コーディング技術に関し、映像コーディングシステムでピクチャ分割情報をシグナリングする方法及び装置に関する。
【背景技術】
【0002】
最近、HD(High Definition)映像及びUHD(Ultra High Definition)映像のような高解像度、高品質の映像に対する需要が多様な分野で増加している。映像データが高解像度、高品質になるほど、既存の映像データに比べて相対的に送信される情報量またはビット量が増加するので、既存の有無線広帯域回線のような媒体を利用して映像データを送信したり、既存の格納媒体を利用して映像データを格納する場合、送信費用と格納費用が増加される。
【0003】
そこで、高解像度、高品質映像の情報を効果的に送信して格納し、再生するために、高効率の映像圧縮技術が要求される。
【発明の概要】
【技術的課題】
【0004】
本開示の技術的課題は、映像コーディング効率を高める方法及び装置を提供することにある。
【0005】
本開示の他の技術的課題は、ピクチャの分割情報をシグナリングする方法及び装置を提供することにある。
【0006】
本開示のまた他の技術的課題は、現在ピクチャに対する分割情報に基づいて、現在ピクチャに対するデコーディングを実行する方法及び装置を提供することにある。
【技術的解決方法】
【0007】
本開示の一実施形態に係ると、デコーディング装置によって実行される映像デコーディング方法が提供される。前記方法は、現在ピクチャに対する映像情報をビットストリームから獲得するステップ及び前記映像情報に基づいて前記現在ピクチャに対するデコーディングを実行するステップを含み、前記映像情報は、サブピクチャ(sub picture)情報の存在可否に関する第1フラグ、及びサブピクチャがただ一つのスライスを含むのか否かに関する第2フラグを含み、前記第1フラグ及び前記第2フラグに基づいて、前記現在ピクチャに含まれたスライスの個数は1個であることに導出される。
【0008】
本開示の他の一実施形態に係ると、エンコーディング装置によって実行される映像エンコーディング方法が提供される。前記方法は、現在ピクチャを分割して、少なくとも一つのスライスを導出するステップ及び前記少なくとも一つのスライスに基づいて、前記現在ピクチャに対する映像情報をエンコーディングするステップを含み、前記映像情報は、サブピクチャ(sub picture)情報の存在可否に関する第1フラグ、及び前記サブピクチャがただ一つのスライスを含むのか否かに関する第2フラグを含み、前記第1フラグ及び前記第2フラグに基づいて、前記現在ピクチャに含まれたスライスの個数は1個であることに導出される。
【0009】
本開示のまた他の一実施形態に係ると、デコーディング装置によって映像デコーディング方法を実行するように引き起こすエンコーディングされた映像情報を格納するコンピュータ読み取り可能なデジタル格納媒体が提供される。前記一実施形態に係るデコーディング方法は、現在ピクチャに対する映像情報をビットストリームから獲得するステップ及び前記映像情報に基づいて前記現在ピクチャに対するデコーディングを実行するステップを含み、前記映像情報は、サブピクチャ(subpicture)情報の存在可否に関する第1フラグ、及びサブピクチャがただ一つのスライスを含むのか否かに関する第2フラグを含み、前記第1フラグ及び前記第2フラグに基づいて、前記現在ピクチャに含まれたスライスの個数は1個であることに導出される。
【発明の効果】
【0010】
本明細書に係ると、全般的な映像/ビデオ圧縮効率を向上させることができる。
【0011】
本明細書に係ると、ピクチャパーティショニングの効率を向上させることができる。
【0012】
本明細書に係ると、現在ピクチャに対する分割情報に基づいて、ピクチャパーティショニングの効率を向上させることができる。
【図面の簡単な説明】
【0013】
【
図1】本開示が適用可能なビデオ/映像コーディングシステムの例を概略的に示す。
【
図2】本開示が適用可能なビデオ/映像エンコーディング装置の構成を概略的に説明する図面である。
【
図3】本開示が適用可能なビデオ/映像デコーディング装置の構成を概略的に説明する図面である。
【
図4】コーディングされたデータに対する階層構造を例示的に示す。
【
図5】ピクチャをパーティショニングする一例を示す図面である。
【
図6】一実施形態に係るピクチャエンコーディング手順を示す流れ図である。
【
図7】一実施形態に係るピクチャデコーディング手順を示す流れ図である。
【
図8】一実施形態に係るエンコーディング装置の動作を示す流れ図である。
【
図9】一実施形態に係るエンコーディング装置の構成を示すブロック図である。
【
図10】一実施形態に係るデコーディング装置の動作を示す流れ図である。
【
図11】一実施形態に係るデコーディング装置の構成を示すブロック図である。
【
図12】本文書の開示が適用可能なコンテンツストリーミングシステムの例を示す。
【発明の実施のための形態】
【0014】
本文書は、様々な変更を加えることができ、種々の実施例を有することができ、特定実施例を図面に例示し、詳細に説明しようとする。しかしながら、これは、本文書を特定実施例に限定しようとするものではない。本明細書で常用する用語は、単に特定の実施例を説明するために使用されたものであって、本文書の技術的思想を限定しようとする意図で使用されるものではない。単数の表現は、文脈上明白に異なるように意味しない限り、複数の表現を含む。本明細書において「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものが存在することを指定しようとするものであり、一つまたはそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものなどの存在または付加可能性を予め排除しないことと理解されるべきである。
【0015】
一方、本文書で説明される図面上の各構成は、互いに異なる特徴的な機能に関する説明の都合上、独立的に図示されたものであって、各構成が互いに別個のハードウェアや別個のソフトウェアで具現されるということを意味するものではない。例えば、各構成のうち、二つ以上の構成が結合されて一つの構成をなすこともでき、一つの構成を複数の構成に分けることもできる。各構成が統合及び/または分離された実施例も本文書の本質から外れない限り、本文書の権利範囲に含まれる。
【0016】
本明細書において“AまたはB(A or B)”は“ただA”、“ただB”または“AとBの両方とも”を意味することができる。言い換えれば、本文書において“AまたはB(A or B)”は“A及び/またはB(A and/or B)”と解釈されることができる。例えば、本明細書において“A、BまたはC(A、B or C)”は“ただA”、“ただB”、“ただC”、または“A、B及びCの任意の全ての組み合わせ(any combination of A、B and C)”を意味することができる。
【0017】
本文書で使われるスラッシュ(/)や読点(comma)は“及び/または(and/or)”を意味することができる。例えば、“A/B”は“A及び/またはB”を意味することができる。それによって、“A/B”は“ただA”、“ただB”、または“AとBの両方とも”を意味することができる。例えば、“A、B、C”は“A、BまたはC”を意味することができる。
【0018】
本明細書において、“少なくとも一つのA及びB(at least one of A and B)”は、“ただA”、“ただB”または“AとBの両方とも”を意味することができる。また、本明細書において、“少なくとも一つのAまたはB(at least one of A or B)”や“少なくとも一つのA及び/またはB(at least one of A and/or B)”という表現は、“少なくとも一つのA及びB(at least one of A and B)”と同じく解釈されることができる。
【0019】
また、本明細書において、“少なくとも一つのA、B及びC(at least one of A,B and C)”は、“ただA”、“ただB”、“ただC”、または“A、B及びCの任意の全ての組み合わせ(any combination of A、B and C)”を意味することができる。また、“少なくとも一つのA、BまたはC(at least one of A,B or C)”や“少なくとも一つのA、B及び/またはC(at least one of A,B and/or C)”は、“少なくとも一つのA、B及びC(at least one of A,B and C)”を意味することができる。
【0020】
また、本明細書で使われる括弧は、“例えば(for example)”を意味することができる。具体的に、“予測(イントラ予測)”で表示された場合、“予測”の一例として“イントラ予測”が提案されたものである。他の表現としては、本明細書の“予測”は、“イントラ予測”に制限(limit)されるものではなく、“イントラ予測”が“予測”の一例として提案されたものである。また、“予測(即ち、イントラ予測)”で表示された場合にも、“予測”の一例として“イントラ予測”が提案されたものである。
【0021】
本明細書において、一つの図面内で個別的に説明される技術的特徴は、個別的に具現されることもでき、同時に具現されることもできる。
【0022】
以下、添付図面を参照して、本開示の好ましい実施形態についてより詳しく説明する。以下、図面における同じ構成要素に対しては同じ参照符号を用い、同じ構成要素に対して重複する説明は省略され得る。
【0023】
図1は、本開示が適用可能なビデオ/映像コーディングシステムの例を概略的に示す。
【0024】
図1を参照すると、ビデオ/映像コーディングシステムは、第1装置(ソースデバイス)及び第2装置(受信デバイス)を含むことができる。ソースデバイスは、エンコーディングされたビデオ(video)/映像(image)情報またはデータをファイルまたはストリーミング形態でデジタル格納媒体またはネットワークを通じて受信デバイスに伝達することができる。
【0025】
前記ソースデバイスは、ビデオソース、エンコーディング装置、送信部を含むことができる。前記受信デバイスは、受信部、デコーディング装置、及びレンダラを含むことができる。前記エンコーディング装置は、ビデオ/映像エンコーディング装置と呼ばれることができ、前記デコーディング装置は、ビデオ/映像デコーディング装置と呼ばれることができる。送信機は、エンコーディング装置に含まれることができる。受信機は、デコーディング装置に含まれることができる。レンダラは、ディスプレイ部を含むこともでき、ディスプレイ部は、別個のデバイスまたは外部コンポーネントで構成されることもできる。
【0026】
ビデオソースは、ビデオ/映像のキャプチャ、合成または生成過程などを介してビデオ/映像を取得することができる。ビデオソースは、ビデオ/映像キャプチャデバイス及び/またはビデオ/映像生成デバイスを含むことができる。ビデオ/映像キャプチャデバイスは、例えば、一つ以上のカメラ、以前にキャプチャされたビデオ/映像を含むビデオ/映像アーカイブなどを含むことができる。ビデオ/映像生成デバイスは、例えば、コンピュータ、タブレット、及びスマートフォンなどを含むことができ、(電子的に)ビデオ/映像を生成することができる。例えば、コンピュータなどを介して仮想のビデオ/映像が生成されることができ、この場合、ビデオ/映像キャプチャ過程を関連データが生成される過程に代替されることができる。
【0027】
エンコーディング装置は、入力ビデオ/映像をエンコーディングすることができる。エンコーディング装置は、圧縮及びコーディング効率のために、予測、変換、量子化など、一連の手順を実行することができる。エンコーディングされたデータ(エンコーディングされたビデオ/映像情報)は、ビットストリーム(bitstream)形態で出力されることができる。
【0028】
送信部は、ビットストリーム形態で出力されたエンコーディングされたビデオ/映像情報またはデータをファイルまたはストリーミング形態でデジタル格納媒体またはネットワークを介して受信デバイスの受信部に伝達できる。デジタル格納媒体は、USB、SD、CD、DVD、ブルーレイ、HDD、SSDなど、多様な格納媒体を含むことができる。送信部は、あらかじめ決められたファイルフォーマットを介してメディアファイルを生成するためのエレメントを含むことができ、放送/通信ネットワークを介した送信のためのエレメントを含むことができる。受信部は、前記ビットストリームを受信/抽出してデコーディング装置に伝達できる。
【0029】
デコーディング装置は、エンコーディング装置の動作に対応する逆量子化、逆変換、予測など、一連の手順を実行してビデオ/映像をデコーディングすることができる。
【0030】
レンダラは、デコーディングされたビデオ/映像をレンダリングすることができる。レンダリングされたビデオ/映像は、ディスプレイ部を介してディスプレイされることができる。
【0031】
本文書は、ビデオ/映像コーディングに関する。例えば、本文書に開示された方法/実施例は、VVC(Versatile Video Coding)標準、EVC(essential video coding)標準、AV1(AOMedia Video 1)標準、AVS2(2nd generation of audio video coding standard)または次世代ビデオ/映像コーディング標準(例えば、H.267またはH.267)に開示される方法に適用されることができる。
【0032】
本文書ではビデオ/映像コーディングに関する多様な実施例を提示し、他の言及がない限り、前記実施例は、互いに組み合わせて実行されることもできる。
【0033】
本文書において、ビデオ(video)は、時間の流れによる一連の映像(image)の集合を意味することができる。ピクチャ(picture)は、一般的に特定時間帯の一つの映像を示す単位を意味し、スライス(slice)/タイル(tile)は、コーディングにおいてピクチャの一部を構成する単位である。スライス/タイルは、一つ以上のCTU(coding tree unit)を含むことができる。一つのピクチャは、一つ以上のスライス/タイルで構成されることができる。
【0034】
タイルは、特定タイル列及び特定タイル列以内のCTUの四角領域である(A tile is a rectangular region of CTUs within a particular tile column and particular tile row in a picture)。前記タイル列は、CTUの四角領域であり、前記四角領域は、前記ピクチャの高さと同じ高さを有し、幅は、ピクチャパラメータセット内のシンタックス要素により明示されることができる(The tile column is a rectangular region of CTUs having a height equal to the height of the picture and a width specified by syntax elements in the picture parameter set)。前記タイル行は、CTUの四角領域であり、前記四角領域は、ピクチャパラメータセット内のシンタックス要素により明示される幅を有し、高さは、前記ピクチャの高さと同一であり得る(The tile row is a rectangular region of CTUs having a height specified by syntax elements in the picture parameter set and a width equal to the width of the picture)。タイルスキャンは、ピクチャをパーティショニングするCTUの特定の順次的オーダリングを示すことができ、前記CTUは、タイル内のCTUラスタースキャンで連続的に整列されることができ、ピクチャ内のタイルは、前記ピクチャの前記タイルのラスタースキャンで連続的に整列されることができる(A tile scan is a specific sequential ordering of CTUs partitioning a picture in which the CTUs are ordered consecutively in CTU raster scan in a tile whereas tiles in a picture are ordered consecutively in a raster scan of the tiles of the picture)。スライスは、多数の完全なタイルまたは一つのNALユニットに含まれることができるピクチャの一つのタイル内の複数の連続的なCTU行を含むことができる。本文書で、タイルグループとスライスは混用されることができる。例えば、本文書で、tile group/tile group headerは、slice/slice headerと呼ばれ得る。
【0035】
一方、一つのピクチャは、二つ以上のサブピクチャに区分されることができる。サブピクチャは、ピクチャ内の一つ以上のスライスの四角領域であり得る(an rectangular region of one or more slices within a picture)。
【0036】
ピクセル(pixel)またはペル(pel)は、一つのピクチャ(または、映像)を構成する最小の単位を意味することができる。また、ピクセルに対応する用語として「サンプル(sample)」が使用されることができる。サンプルは、一般的にピクセルまたはピクセルの値を示すことができ、ルマ(luma)成分のピクセル/ピクセル値のみを示すこともでき、クロマ(chroma)成分のピクセル/ピクセル値のみを示すこともできる。
【0037】
ユニット(unit)は、映像処理の基本単位を示すことができる。ユニットは、ピクチャの特定領域及び当該領域に関連した情報のうち少なくとも一つを含むことができる。一つのユニットは、一つのルマブロック及び二つのクロマ(例えば、cb、cr)ブロックを含むことができる。ユニットは、場合によって、ブロック(block)または領域(area)などの用語と混用して使用されることができる。一般的な場合、M×Nブロックは、M個の列とN個の行からなるサンプル(または、サンプルアレイ)、または変換係数(transform coefficient)の集合(または、アレイ)を含むことができる。
【0038】
図2は、本文書が適用されることができるビデオ/映像エンコーディング装置の構成を概略的に説明する図である。以下、ビデオエンコーディング装置とは、映像エンコーディング装置を含むことができる。
【0039】
図2に示すように、エンコーディング装置200は、画像分割部(image partitioner)210、予測部(predictor)220、レジデュアル処理部(residual processor)230、エントロピーエンコーディング部(entropy encoder)240、加算部(adder)250、フィルタリング部(filter)260、及びメモリ(memory)270を備えて構成されることができる。予測部220は、インター予測部221及びイントラ予測部222を備えることができる。レジデュアル処理部230は、変換部(transformer)232、量子化部(quantizer)233、逆量子化部(dequantizer)234、逆変換部(inverse transformer)235を備えることができる。レジデュアル処理部230は、減算部(subtractor、231)をさらに備えることができる。加算部250は、復元部(reconstructor)または復元ブロック生成部(recontructged block generator)と呼ばれることができる。上述した画像分割部210、予測部220、レジデュアル処理部230、エントロピーエンコーディング部240、加算部250、及びフィルタリング部260は、実施形態によって1つ以上のハードウェアコンポーネント(例えば、エンコーダチップセットまたはプロセッサ)によって構成されることができる。また、メモリ270は、DPB(decoded picture buffer)を備えることができ、デジタル格納媒体によって構成されることもできる。前記ハードウェアコンポーネントは、メモリ270を内/外部コンポーネントとしてさらに備えることもできる。
【0040】
画像分割部210は、エンコーディング装置200に入力された入力画像(または、ピクチャ、フレーム)を1つ以上の処理ユニット(processing unit)に分割することができる。一例として、前記処理ユニットは、コーディングユニット(coding unit、CU)と呼ばれることができる。この場合、コーディングユニットは、コーディングツリーユニット(coding tree unit、CTU)または最大コーディングユニット(largest coding unit、LCU)からQTBTTT(Quad-tree binary-tree ternary-tree)構造によって再帰的に(recursively)分割されることができる。例えば、1つのコーディングユニットは、クアッドツリー構造、バイナリツリー構造、及び/またはターナリ構造に基づいて下位(deeper)デプスの複数のコーディングユニットに分割されることができる。この場合、例えば、クアッドツリー構造が先に適用され、バイナリツリー構造及び/またはターナリ構造がその後に適用されることができる。または、バイナリツリー構造が先に適用されることもできる。それ以上分割されない最終コーディングユニットに基づいて本開示に係るコーディング手順が行われ得る。この場合、画像特性によるコーディング効率などに基づいて、最大コーディングユニットが最終コーディングユニットとして使用されることができ、または、必要に応じてコーディングユニットは、再帰的に(recursively)もっと下位デプスのコーディングユニットに分割されて最適のサイズのコーディングユニットが最終コーディングユニットとして使用されることができる。ここで、コーディング手順とは、後述する予測、変換、及び復元などの手順を含むことができる。他の例として、前記処理ユニットは、予測ユニット(PU:Prediction Unit)または変換ユニット(TU:Transform Unit)をさらに備えることができる。この場合、前記予測ユニット及び前記変換ユニットは、各々上述した最終コーディングユニットから分割またはパーティショニングされることができる。前記予測ユニットは、サンプル予測の単位であることができ、前記変換ユニットは、変換係数を導く単位及び/または変換係数からレジデュアル信号(residual signal)を導く単位であることができる。
【0041】
ユニットは、場合によって、ブロック(block)または領域(area)などの用語と混用して使用されることができる。一般的な場合、M×Nブロックは、M個の列とN個の行からなるサンプルまたは変換係数(transform coefficient)等の集合を示すことができる。サンプルは、一般的にピクセルまたはピクセルの値を示すことができ、輝度(luma)成分のピクセル/ピクセル値のみを示すことができ、彩度(chroma)成分のピクセル/ピクセル値のみを示すこともできる。サンプルは、1つのピクチャ(または、画像)をピクセル(pixel)またはペル(pel)に対応する用語として使用することができる。
【0042】
エンコーディング装置200は、入力映像信号(原本ブロック、原本サンプルアレイ)でインター予測部221またはイントラ予測部222から出力された予測信号(予測されたブロック、予測サンプルアレイ)を減算して、レジデュアル信号(residual signal、残余ブロック、残余サンプルアレイ)を生成することができ、生成されたレジデュアル信号は、変換部232に送信される。この場合、図示したように、エンコーディング装置200 内で入力映像信号(原本ブロック、原本サンプルアレイ)で予測信号(予測ブロック、予測サンプルアレイ)を減算するユニットは、減算部231と呼ばれ得る。予測部は、処理対象ブロック(以下、現在ブロックとする)に対する予測を行い、前記現在ブロックに対する予測サンプルを含む予測されたブロック(predicted block)を生成することができる。予測部は、現在ブロックまたはCU単位でイントラ予測が適用されるのか、またはインター予測が適用されるのか決めることができる。予測部は、各予測モードに対する説明で、後述するように、予測モード情報など、予測に関する多様な情報を生成してエントロピーエンコーディング部240に伝達することができる。予測に関する情報は、エントロピーエンコーディング部240でエンコーディングされてビットストリーム形態で出力されることができる。
【0043】
イントラ予測部222は、現在ピクチャ内のサンプルを参照して現在ブロックを予測することができる。前記参照されるサンプルは、予測モードによって前記現在ブロックの隣接(neighbor)に位置することができ、または、離れて位置することもできる。イントラ予測で予測モードは、複数の非方向性モードと複数の方向性モードとを含むことができる。非方向性モードは、例えば、DCモード及びプラナーモード(Planarモード)を含むことができる。方向性モードは、予測方向の細かい程度によって、例えば、33個の方向性予測モードまたは65個の方向性予測モードを含むことができる。ただし、これは、例示であり、設定によってそれ以上またはそれ以下の個数の方向性予測モードが使用され得る。イントラ予測部222は、隣接ブロックに適用された予測モードを用いて、現在ブロックに適用される予測モードを決定することもできる。
【0044】
インター予測部221は、参照ピクチャ上で動きベクトルにより特定される参照ブロック(参照サンプルアレイ)に基づいて、現在ブロックに対する予測されたブロックを導くことができる。このとき、インター予測モードで送信される動き情報の量を減らすために、隣接ブロックと現在ブロックとの間の動き情報の相関性に基づいて、動き情報をブロック、サブブロック、またはサンプル単位で予測することができる。前記動き情報は、動きベクトル及び参照ピクチャインデックスを含むことができる。前記動き情報は、インター予測方向(L0予測、L1予測、Bi予測等)情報をさらに含むことができる。インター予測の場合に、隣接ブロックは、現在ピクチャ内に存在する空間的隣接ブロック(spatial neighboring block)と参照ピクチャに存在する時間的隣接ブロック(temporal neighboring block)とを含むことができる。前記参照ブロックを含む参照ピクチャと前記時間的隣接ブロックを含む参照ピクチャとは同じであることができ、異なることもできる。前記時間的隣接ブロックは、同一位置参照ブロック(collocated reference block)、同一位置CU(col CU)などの名前で呼ばれることができ、前記時間的隣接ブロックを含む参照ピクチャは、同一位置ピクチャ(collocated picture、colPic)と呼ばれることもできる。例えば、インター予測部221は、隣接ブロックに基づいて動き情報候補リストを構成し、前記現在ブロックの動きベクトル及び/または参照ピクチャインデックスを導出するために、どの候補が使用されるかを指示する情報を生成することができる。様々な予測モードに基づいてインター予測が行われ得るし、例えば、スキップモードとマージモードとの場合に、インター予測部221は、隣接ブロックの動き情報を現在ブロックの動き情報として利用することができる。スキップモードの場合、マージモードとは異なり、レジデュアル信号が送信されないことがある。動き情報予測(motion vector prediction、MVP)モードの場合、隣接ブロックの動きベクトルを動きベクトル予測子(motion vector predictor)として用い、動きベクトル差分(motion vector difference)をシグナリングすることにより、現在ブロックの動きベクトルを指示することができる。
【0045】
予測部220は、後述する多様な予測方法に基づいて予測信号を生成することができる。例えば、予測部は、一つのブロックに対する予測のために、イントラ予測またはインター予測を適用することができるだけでなく、イントラ予測とインター予測とを同時に適用することもできる。これは、combined inter and intra prediction(CIIP)と呼ばれることができる。また、予測部は、ブロックに対する予測のために、イントラブロックコピー(intra block copy、IBC)予測モードに基づくこともでき、または、パレットモード(palette mode)に基づくこともできる。前記IBC予測モードまたはパレットモードは、例えば、SCC(screen content coding)などのように、ゲームなどのコンテンツ映像/動画コーディングのために使用されることができる。IBCは、基本的に現在ピクチャ内で予測を実行するが、現在ピクチャ内で参照ブロックを導出する点においてインター予測と類似するように実行されることができる。即ち、IBCは、本文書において説明されるインター予測技法のうち少なくとも一つを利用することができる。パレットモードは、イントラコーディングまたはイントラ予測の一例と見なすことができる。パレットモードが適用される場合、パレットテーブル及びパレットインデックスに関する情報に基づいてピクチャ内のサンプル値をシグナリングすることができる。
【0046】
前記予測部(インター予測部221及び/または前記イントラ予測部222を含む)を介して生成された予測信号は、復元信号を生成するために用いられ、またはレジデュアル信号を生成するために用いられることができる。変換部232は、レジデュアル信号に変換技法を適用して変換係数(transform coefficients)を生成することができる。例えば、変換技法は、DCT(Discrete Cosine Transform)、DST(Discrete Sine Transform)、KLT(Karhunen-Loeve Transform)、GBT(Graph-Based Transform)、またはCNT(Conditionally Non-linear Transform)のうち少なくとも一つを含むことができる。ここで、GBTは、ピクセル間の関係情報をグラフで表現するとき、このグラフから得られた変換を意味する。CNTは、以前に復元された全てのピクセル(all previously reconstructed pixel)を利用して予測信号を生成し、それに基づいて取得される変換を意味する。また、変換過程は、正方形の同じ大きさを有するピクセルブロックに適用されることもでき、正方形でない可変大きさのブロックにも適用されることができる。
【0047】
量子化部233は、変換係数を量子化してエントロピーエンコーディング部240に送信し、エントロピーエンコーディング部240は、量子化された信号(量子化された変換係数に関する情報)をエンコーディングしてビットストリームで出力することができる。前記量子化された変換係数に関する情報は、レジデュアル情報と呼ばれ得る。量子化部233は、係数スキャン順序(scan order)に基づいて、ブロック形態の量子化された変換係数を1次元ベクトル形態で再整列することができ、前記1次元ベクトル形態の量子化された変換係数に基づいて、前記量子化された変換係数に関する情報を生成することもできる。エントロピーエンコーディング部240は、例えば、指数ゴロム(exponential Golomb)、CAVLC(context-adaptive variable length coding)、CABAC(context-adaptive binary arithmetic coding)などのような多様なエンコーディング方法を実行することができる。エントロピーエンコーディング部240は、量子化された変換係数外に、ビデオ/イメージ復元に必要な情報(例えば、シンタックス要素(syntax elements)の値等)をともに、または別途にエンコーディングすることもできる。エンコーディングされた情報(例えば、エンコーディングされたビデオ/映像情報)は、ビットストリーム形態でNAL(network abstraction layer)ユニット単位で送信または格納されることができる。前記ビデオ/映像情報は、アダプテーションパラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスパラメータセット(SPS)、またはビデオパラメータセット(VPS)等、多様なパラメータセットに関する情報をさらに含むことができる。また、前記ビデオ/映像情報は、一般制限情報(general constraint information)をさらに含むことができる。本文書において、エンコーディング装置からデコーディング装置に伝達/シグナリングされる情報及び/またはシンタックス要素は、ビデオ/映像情報に含まれることができる。前記ビデオ/映像情報は、前述したエンコーディング手順を通じてエンコーディングされて前記ビットストリームに含まれることができる。前記ビットストリームは、ネットワークを介して送信されることができ、または、デジタル格納媒体に格納されることができる。ここで、ネットワークは、放送網及び/または通信網などを含むことができ、デジタル格納媒体は、USB、SD、CD、DVD、ブルーレイ、HDD、SSDなど、多様な格納媒体を含むことができる。エントロピーエンコーディング部240から出力された信号は、送信する送信部(図示せず)及び/または格納する格納部(図示せず)がエンコーディング装置200の内/外部エレメントとして構成されることができ、または、送信部は、エントロピーエンコーディング部240に含まれることもできる。
【0048】
量子化部233から出力された量子化された変換係数は、予測信号を生成するために用いられることができる。例えば、量子化された変換係数に逆量子化部234及び逆変換部235を介して逆量子化及び逆変換を適用することによって、レジデュアル信号(レジデュアルブロックまたはレジデュアルサンプル)を復元することができる。加算部155は、復元されたレジデュアル信号をインター予測部221またはイントラ予測部222から出力された予測信号に加えることによって、復元(reconstructed)信号(復元ピクチャ、復元ブロック、復元サンプルアレイ)が生成されることができる。スキップモードが適用された場合のように、処理対象ブロックに対するレジデュアルがない場合、予測されたブロックが復元ブロックとして使用されることができる。加算部250は、復元部または復元ブロック生成部と呼ばれることができる。生成された復元信号は、現在ピクチャ内の次の処理対象ブロックのイントラ予測のために使用されることができ、後述するように、フィルタリングを経て次のピクチャのインター予測のために使用されることもできる。
【0049】
一方、ピクチャエンコーディング及び/または復元過程でLMCS(luma mapping with chrom ascaling)が適用されることもできる。
【0050】
フィルタリング部260は、復元信号にフィルタリングを適用して主観的/客観的画質を向上させることができる。例えば、フィルタリング部260は、復元ピクチャに多様なフィルタリング方法を適用して修正された(modified)復元ピクチャを生成することができ、前記修正された復元ピクチャをメモリ270、具体的に、メモリ270のDPBに格納することができる。前記多様なフィルタリング方法は、例えば、デブロッキングフィルタリング、サンプル適応的オフセット(sample adaptive offset、SAO)、適応的ループフィルタ(adaptive loop filter)、両方向フィルタ(bilateral filter)などを含むことができる。フィルタリング部260は、各フィルタリング方法に対する説明で後述するように、フィルタリングに関する多様な情報を生成してエントロピーエンコーディング部290に伝達できる。フィルタリング関する情報は、エントロピーエンコーディング部290でエンコーディングされてビットストリーム形態で出力されることができる。
【0051】
メモリ270に送信された修正された復元ピクチャは、インター予測部280で参照ピクチャとして使われることができる。エンコーディング装置は、これを介してインター予測が適用される場合、エンコーディング装置200とデコーディング装置での予測ミスマッチを避けることができ、符号化効率も向上させることができる。
【0052】
メモリ270のDPBは。修正された復元ピクチャをインター予測部221での参照ピクチャとして使用するために格納することができる。メモリ270は、現在ピクチャ内の動き情報が導出された(または、エンコーディングされた)ブロックの動き情報及び/または既に復元されたピクチャ内のブロックの動き情報を格納することができる。前記格納された動き情報は、空間的隣接ブロックの動き情報または時間的隣接ブロックの動き情報として活用するためにインター予測部221に伝達できる。メモリ270は、現在ピクチャ内の復元されたブロックの復元サンプルを格納することができ、イントラ予測部222に伝達できる。
【0053】
図3は、本文書が適用されることができるビデオ/映像デコーディング装置の構成を概略的に説明する図である。
【0054】
図3に示すように、デコーディング装置300は、エントロピーデコーディング部(entropy decoder)310、レジデュアル処理部(residual processor)320、予測部(predictor)330、加算部(adder)340、フィルタリング部(filter)350、及びメモリ(memoery)360を備えて構成されることができる。予測部330は、インター予測部331及びイントラ予測部332を備えることができる。レジデュアル処理部320は、逆量子化部(dequantizer)321及び逆変換部(inverse transformer)321を備えることができる。上述したエントロピーデコーディング部310、レジデュアル処理部320、予測部330、加算部340、及びフィルタリング部350は、実施形態によって1つのハードウェアコンポーネント(例えば、デコーダチップセットまたはプロセッサ)により構成されることができる。また、メモリ360は、DPB(decoded picture buffer)を備えることができ、デジタル格納媒体により構成されることもできる。前記ハードウェアコンポーネントは、メモリ360を内/外部コンポーネントとしてさらに備えることもできる。
【0055】
ビデオ/画像情報を含むビットストリームが入力されれば、デコーディング装置300は、
図3のエンコーディング装置でビデオ/画像情報が処理されたプロセスに対応して画像を復元することができる。例えば、デコーディング装置300は、前記ビットストリームから取得したブロック分割関連情報に基づいてユニット/ブロックを導出することができる。デコーディング装置300は、エンコーディング装置で適用された処理ユニットを用いてデコーディングを行うことができる。したがって、デコーディングの処理ユニットは、例えば、コーディングユニットであることができ、コーディングユニットは、コーディングツリーユニットまたは最大コーディングユニットからクアッドツリー構造、バイナリツリー構造、及び/またはターナリツリー構造にしたがって分割されることができる。コーディングユニットから1つ以上の変換ユニットが導出され得る。そして、デコーディング装置300を介してデコーディング及び出力された復元画像信号は、再生装置を介して再生されることができる。
【0056】
デコーディング装置300は、
図3のエンコーディング装置から出力された信号をビットストリーム形態で受信することができ、受信された信号は、エントロピーデコーディング部310を介してデコーディングされることができる。例えば、エントロピーデコーディング部310は、前記ビットストリームをパーシングして映像復元(または、ピクチャ復元)に必要な情報(例えば、ビデオ/映像情報)を導出することができる。前記ビデオ/映像情報は、アダプテーションパラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスパラメータセット(SPS)、またはビデオパラメータセット(VPS)など、多様なパラメータセットに関する情報をさらに含むことができる。また、前記ビデオ/映像情報は、一般制限情報(general constraint information)をさらに含むことができる。デコーディング装置は、前記パラメータセットに関する情報及び/または前記一般制限情報に基づいてさらにピクチャをデコーディングすることができる。本文書で後述されるシグナリング/受信される情報及び/またはシンタックス要素は、前記デコーディング手順を介してデコーディングされて、前記ビットストリームから取得されることができる。例えば、エントロピーデコーディング部310は、指数ゴロム符号化、CAVLC、またはCABACなどのコーディング方法を基づいてビットストリーム内の情報をデコーディングし、映像復元に必要なシンタックスエレメントの値、レジデュアルに関する変換係数の量子化された値を出力することができる。より詳しく、CABACエントロピーデコーディング方法は、ビットストリームで各シンタックス要素に該当するbinを受信し、デコーディング対象のシンタックス要素情報と隣接及びデコーディング対象ブロックのデコーディング情報または以前ステップでデコーディングされたシンボル/binの情報を利用して文脈(context)モデルを決定し、決定された文脈モデルによってbinの発生確率を予測してbinの算術デコーディング(arithmetic decoding)を実行して、各シンタックス要素の値に対応するシンボルを生成することができる。このとき、CABACエントロピーデコーディング方法は、文脈モデルの決定後、次のシンボル/binの文脈モデルのためにデコーディングされたシンボル/binの情報を利用して文脈モデルをアップデートすることができる。エントロピーデコーディング部310でデコーディングされた情報のうち、予測に関する情報は、予測部(インター予測部332及びイントラ予測部331)に提供され、エントロピーデコーディング部310でエントロピーデコーディングが実行されたレジデュアル値、即ち、量子化された変換係数及び関連パラメータ情報は、レジデュアル処理部320に入力されることができる。レジデュアル処理部320は、レジデュアル信号(レジデュアルブロック、レジデュアルサンプル、レジデュアルサンプルアレイ)を導出することができる。また、エントロピーデコーディング部310でデコーディングされた情報のうち、フィルタリングに関する情報は、フィルタリング部350に提供されることができる。一方、エンコーディング装置から出力された信号を受信する受信部(図示せず)がデコーディング装置300の内/外部エレメントとしてさらに構成されることができ、または、受信部は、エントロピーデコーディング部310の構成要素でもあり得る。一方、本文書に係るデコーディング装置は、ビデオ/映像/ピクチャデコーディング装置と呼ばれ得、前記デコーディング装置は、情報デコーダ(ビデオ/映像/ピクチャ情報デコーダ)及びサンプルデコーダ(ビデオ/映像/ピクチャサンプルデコーダ)に区分することもできる。前記情報デコーダは、前記エントロピーデコーディング部310を含むことができ、前記サンプルデコーダは、前記逆量子化部321、逆変換部322、加算部340、フィルタリング部350、メモリ360、インター予測部332、及びイントラ予測部331の少なくとも一つを含むことができる。
【0057】
逆量子化部321では、量子化された変換係数を逆量子化して変換係数を出力することができる。逆量子化部321は、量子化された変換係数を2次元のブロック形態で再整列することができる。この場合、前記再整列は、エンコーディング装置で行われた係数スキャン順序に基づいて再整列を行うことができる。逆量子化部321は、量子化パラメータ(例えば、量子化ステップサイズ情報)を用いて量子化された変換係数に対する逆量子化を行い、変換係数(transform coefficient)を取得することができる。
【0058】
逆変換部322では、変換係数を逆変換してレジデュアル信号(レジデュアルブロック、レジデュアルサンプルアレイ)を取得するようになる。
【0059】
予測部は、現在ブロックに対する予測を行い、前記現在ブロックに対する予測サンプルを含む予測されたブロック(predicted block)を生成することができる。予測部は、エントロピーデコーディング部310から出力された前記予測に関する情報に基づいて、前記現在ブロックにイントラ予測が適用されるか、または、インター予測が適用されるかを決定することができ、具体的なイントラ/インター予測モードを決定することができる。
【0060】
予測部330は、後述する多様な予測方法に基づいて予測信号を生成することができる。例えば、予測部は、一つのブロックに対する予測のために、イントラ予測またはインター予測を適用することができるだけでなく、イントラ予測とインター予測とを同時に適用することができる。これは、combined inter and intra prediction(CIIP)と呼ばれ得る。また、予測部は、ブロックに対する予測のために、イントラブロックコピー(intra block copy、IBC)予測モードに基づくこともでき、または、パレットモード(palette mode)に基づくこともできる。前記IBC予測モードまたはパレットモードは、例えば、SCC(screen content coding)などのように、ゲームなどのコンテンツ映像/動画コーディングのために使用されることができる。IBCは、基本的に現在ピクチャ内で予測を実行するが、現在ピクチャ内で参照ブロックを導出する点でインター予測と類似するように実行されることができる。即ち、IBCは、本文書で説明されるインター予測技法のうち少なくとも一つを利用することができる。パレットモードは、イントラコーディングまたはイントラ予測の一例と見なすことができる。パレットモードが適用される場合、パレットテーブル及びパレットインデックスに関する情報が前記ビデオ/映像情報に含まれてシグナリングされることができる。
【0061】
イントラ予測部331は、現在ピクチャ内のサンプルを参照して現在ブロックを予測することができる。前記参照されるサンプルは、予測モードによって前記現在ブロックの隣接(neighbor)に位置することもでき、または離れて位置することもできる。イントラ予測における予測モードは、複数の非方向性モードと複数の方向性モードとを含むことができる。イントラ予測部331は、隣接ブロックに適用された予測モードを利用して、現在ブロックに適用される予測モードを決定することもできる。
【0062】
インター予測部332は、参照ピクチャ上で動きベクトルにより特定される参照ブロック(参照サンプルアレイ)に基づいて、現在ブロックに対する予測されたブロックを誘導することができる。このとき、インター予測モードで送信される動き情報の量を減らすために、隣接ブロックと現在ブロックとの間の動き情報の相関性に基づいて動き情報をブロック、サブブロック、またはサンプル単位で予測することができる。前記動き情報は、動きベクトル及び参照ピクチャインデックスを含むことができる。前記動き情報は、インター予測方向(L0予測、L1予測、Bi予測等)情報をさらに含むことができる。インター予測の場合、隣接ブロックは、現在ピクチャ内に存在する空間的隣接ブロック(spatial neighboring block)と、参照ピクチャに存在する時間的隣接ブロック(temporal neighboring block)とを含むことができる。例えば、インター予測部332は、隣接ブロックに基づいて動き情報候補リストを構成し、受信した候補選択情報に基づいて前記現在ブロックの動きベクトル及び/または参照ピクチャインデックスを導出することができる。多様な予測モードに基づいてインター予測が実行されることができ、前記予測に関する情報は、前記現在ブロックに対するインター予測のモードを指示する情報を含むことができる。
【0063】
加算部340は、取得されたレジデュアル信号を、予測部330から出力された予測信号(予測されたブロック、予測サンプルアレイ)に加えることによって復元信号(復元ピクチャ、復元ブロック、復元サンプルアレイ)を生成することができる。スキップモードが適用された場合のように処理対象ブロックに対するレジデュアルがない場合、予測されたブロックが復元ブロックとして使われることができる。
【0064】
加算部340は、復元部または復元ブロック生成部と呼ばれることができる。生成された復元信号は、現在ピクチャ内の次の処理対象ブロックのイントラ予測のために使われることができ、後述するように、フィルタリングを経て出力されることもでき、または、次のピクチャのインター予測のために使われることもできる。
【0065】
一方、ピクチャデコーディング過程でLMCS(luma mapping with chroma scaling)が適用されることもできる。
【0066】
フィルタリング部350は、復元信号にフィルタリングを適用して主観的/客観的画質を向上させることができる。例えば、フィルタリング部350は、復元ピクチャに多様なフィルタリング方法を適用して修正された(modified)復元ピクチャを生成することができ、前記修正された復元ピクチャをメモリ60、具体的に、メモリ360のDPBに送信できる。前記多様なフィルタリング方法は、例えば、デブロッキングフィルタリング、サンプル適応的オフセット(sample adaptive offset)、適応的ループフィルタ(adaptive loop filter)、両方向フィルタ(bilateral filter)などを含むことができる。
【0067】
メモリ360のDPBに格納された(修正された)復元ピクチャは、インター予測部331で参照ピクチャとして使われることができる。メモリ360は、現在ピクチャ内の動き情報が導出された(または、デコーディングされた)ブロックの動き情報及び/または既に復元されたピクチャ内のブロックの動き情報を格納することができる。前記格納された動き情報は、空間的隣接ブロックの動き情報または時間的隣接ブロックの動き情報として活用するためにインター予測部331に伝達できる。メモリ360は、現在ピクチャ内の復元されたブロックの復元サンプルを格納することができ、イントラ予測部332に伝達できる。
【0068】
本明細書において、エンコーディング装置100のフィルタリング部260、インター予測部221、及びイントラ予測部222で説明された実施例は、それぞれ、デコーディング装置300のフィルタリング部350、インター予測部332、及びイントラ予測部331にも同一または対応するように適用されることができる。
【0069】
前述したように、ビデオコーディングを実行するにあたって圧縮効率を上げるために予測を実行する。それによって、コーディング対象ブロックである現在ブロックに対する予測サンプルを含む予測されたブロックを生成することができる。ここで、前記予測されたブロックは、空間ドメイン(または、ピクセルドメイン)での予測サンプルを含む。前記予測されたブロックは、エンコーディング装置及びデコーディング装置で同様に導出され、前記エンコーディング装置は、原本ブロックの原本サンプル値自体でない前記原本ブロックと前記予測されたブロックとの間のレジデュアルに関する情報(レジデュアル情報)をデコーディング装置にシグナリングすることで画像コーディング効率を上げることができる。デコーディング装置は、前記レジデュアル情報に基づいてレジデュアルサンプルを含むレジデュアルブロックを導出し、前記レジデュアルブロックと前記予測されたブロックを加算して復元サンプルを含む復元ブロックを生成することができ、復元ブロックを含む復元ピクチャを生成することができる。
【0070】
前記レジデュアル情報は、変換及び量子化手順を介して生成されることができる。例えば、エンコーディング装置は、前記原本ブロックと前記予測されたブロックとの間のレジデュアルブロックを導出し、前記レジデュアルブロックに含まれているレジデュアルサンプル(レジデュアルサンプルアレイ)に変換手順を実行して変換係数を導出し、前記変換係数に量子化手順を実行して量子化された変換係数を導出することで、関連したレジデュアル情報を(ビットストリームを介して)デコーディング装置にシグナリングすることができる。ここで、前記レジデュアル情報は、前記量子化された変換係数の値情報、位置情報、変換技法、変換カーネル、量子化パラメータなどの情報を含むことができる。デコーディング装置は、前記レジデュアル情報に基づいて逆量子化/逆変換手順を実行してレジデュアルサンプル(または、レジデュアルブロック)を導出することができる。デコーディング装置は、予測されたブロックと前記レジデュアルブロックに基づいて復元ピクチャを生成することができる。また、エンコーディング装置は、以後ピクチャのインター予測のための参照のために量子化された変換係数を逆量子化/逆変換してレジデュアルブロックを導出し、これに基づいて復元ピクチャを生成することができる。
【0071】
図4は、コーディングされたデータに対する階層構造を例示的に示す。
【0072】
図4を参照すると、コーディングされたデータは、ビデオ/イメージのコーディング処理及びそれ自体を扱うVCL(video coding layer)と、コーディングされたビデオ/イメージのデータを格納して送信する下位システムとの間にあるNAL(Network abstraction layer)に区分されることができる。
【0073】
VCLは、シーケンスとピクチャなどのヘッダに対応するパラメータセット(ピクチャパラメータセット(PPS)、シーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)など)及びビデオ/イメージのコーディング過程に付加的に必要なSEI(Supplemental enhancement information)メッセージを生成することができる。SEIメッセージは、ビデオ/イメージに対する情報(スライスデータ)と分離されている。ビデオ/イメージに対する情報を含むVCLは、スライスデータとスライスヘッダとからなる。一方、スライスヘッダはタイルグループヘッダ(tile group header)と指称され得、スライスデータは、タイルグループデータ(tile group data)と指称され得る。
【0074】
NALでは、VCLで生成されたRBSP(Raw Byte Sequence Payload)にヘッダ情報(NALユニットヘッダ)を付加してNALユニットを生成することができる。この時、RBSPは、VCLで生成されたスライスデータ、パラメータセット、SEIメッセージなどを言う。NALユニットヘッダには、当該NALユニットに含まれるRBSPデータによって特定されるNALユニットタイプ情報を含むことができる。
【0075】
NALの基本単位であるNALユニットは、コーディングされた映像を所定の規格によるファイルフォーマット、RTP(Real-time Transport Protocol)、TS(Transport Strea)などのような下位システムのビット列にマッピングさせる役割を果たす。
【0076】
図示したように、NALユニットは、NALユニットは、VCLで生成されたRBSPによってVCL NALユニットとNon-VCL NALユニットに分けられることができる。VCL NALユニットは、映像に対する情報(スライスデータ)を含んでいるNALユニットを意味することができ、Non-VCL NALユニットは、映像をデコーディングするために必要な情報(パラメータセットまたはSEIメッセージ)を含んでいるNALユニットを意味することができる。
【0077】
前述のVCL NALユニット、Non-VCL NALユニットは、下位システムのデータ規格によってヘッダ情報を付けてネットワークを介して送信されることができる。例えば、NALユニットは、H.266/VVCファイルフォーマット、RTP(Real-time Transport Protocol)、TS(Transport Stream)などのような所定規格のデータ形態に変形されて、多様なネットワークを介して送信されることができる。
【0078】
前述のように、NALユニットは、当該NALユニットに含まれるRBSPデータ構造(structure)によってNALユニットタイプが特定されることができ、このようなNALユニットタイプに対する情報は、NALユニットヘッダに格納されてシグナリングされることができる。
【0079】
例えば、NALユニットが映像に対する情報(スライスデータ)を含むのか否かによって、大きくVCL NALユニットタイプと、Non-VCL NALユニットタイプに分類されることができる。VCL NALユニットタイプは、VCL NALユニットが含むピクチャの性質及び種類などによって分類されることができ、Non-VCL NALユニットタイプは、パラメータセットの種類などによって分類されることができる。
【0080】
以下は、Non-VCL NALユニットタイプが含むパラメータセットの種類などによって特定されたNALユニットタイプの一例である。NALユニットタイプは、パラメータセットの種類などによって特定されることができる。例えば、NALユニットタイプは、APSを含むNALユニットに対するタイプであるAPS(Adaptation Parameter Set)NALユニット、DPSを含むNALユニットに対するタイプであるDPS(Decoding Parameter Set)NALユニット、VPSを含むNALユニットに対するタイプであるVPS(Video Parameter Set)NALユニット、SPSを含むNALユニットに対するタイプであるSPS(Sequence Parameter Set)NALユニット、及びPPSを含むNALユニットに対するタイプであるPPS(Picture Parameter Set)NALユニットの何れか一つに特定されることができる。
【0081】
前述のNALユニットタイプは、NALユニットタイプのためのシンタックス情報を有し、前記シンタックス情報は、NALユニットヘッダに格納されてシグナリングされることができる。例えば、前記シンタックス情報は、nal_unit_typeであり得、NALユニットタイプは、nal_unit_type値で特定されることができる。
【0082】
一方、前述のように、一つのピクチャは複数のスライスを含むことができ、一つのスライスは、スライスヘッダ及びスライスデータを含むことができる。この場合、一つのピクチャ内の複数のスライス(スライスヘッダ及びスライスデータ集合)に対して、一つのピクチャヘッダがさらに付加することができる。前記ピクチャヘッダ(ピクチャヘッダシンタックス)は、前記ピクチャに共通に適用することができる情報/パラメータを含むことができる。前記スライスヘッダ(スライスヘッダシンタックス)は、前記スライスに共通に適用することができる情報/パラメータを含むことができる。前記APS(APSシンタックス)またはPPS(PPSシンタックス)は、一つ以上のスライスまたはピクチャに共通に適用することができる情報/パラメータを含むことができる。前記SPS(SPSシンタックス)は、一つ以上のシーケンスに共通に適用することができる情報/パラメータを含むことができる。前記VPS(VPSシンタックス)は、マルチレイヤに共通に適用することができる情報/パラメータを含むことができる。前記DPS(DPSシンタックス)は、ビデオ全般に共通に適用することができる情報/パラメータを含むことができる。前記DPSは、CVS(coded video sequence)のconcatenationに関する情報/パラメータを含むことができる。本文書で上位レベルシンタックス(High level syntax、HLS)とは、前記APSシンタックス、PPSシンタックス、SPSシンタックス、VPSシンタックス、DPSシンタックス、ピクチャヘッダシンタックス(a picture header syntax)、スライスヘッダシンタックスの少なくとも一つを含むことができる。
【0083】
本文書でエンコーディング装置からデコーディング装置でエンコーディングされてビットストリーム形態でシグナリングされる映像/ビデオ情報は、ピクチャ内パーティショニング関連情報、イントラ/インター予測情報、レジデュアル情報、ループ内フィルタリング情報などを含むだけでなく、前記スライスヘッダに含まれた情報、前記ピクチャヘッダ(Picture header)に含まれた情報、前記APSに含まれた情報、前記PPSに含まれた情報、SPSに含まれた情報、VPSに含まれた情報及び/またはDPSに含まれた情報を含むことができる。また、前記映像/ビデオ情報は、NALユニットヘッダの情報をさらに含むことができる。
【0084】
図5は、ピクチャをパーティショニングする一例を示す図面である。
【0085】
ピクチャは、コーディングツリーユニット(CTU)に分割されることができ、CTUは、コーディングツリーブロック(CTB)に対応されることができる。CTUは、ルマ(luma)サンプルのコーディングツリーブロック、及びこれに対応するクロマ(chroma)サンプルの二つのコーディングツリーブロックを含むことができる。一方、コーディング及び予測などのための CTUの最大許容サイズは、変換のためのCTUの最大許容サイズと違ってもよい。
【0086】
タイルは、ピクチャの矩形領域を覆う一連のCTUに対応することができ、ピクチャは、一つ以上のタイル行と一つ以上のタイル列に分割されることができる。
【0087】
一方、スライスは、整数個の完全なタイルまたは整数個の連続的な完全なCTU行で構成されることができる。この時、ラスタースキャンスライスモード(raster-scan slice mode)及び四角形スライスモード(rectangular slice mode)を含む二つのスライスモードが支援されることができる。
【0088】
ラスタースキャンスライスモードで、スライスは、ピクチャのタイルラスタースキャンで一連の完全なタイルを含むことができる。四角形スライスモードで、スライスはピクチャの四角形領域を集合的に形成する複数の完全なタイルを含むことができる。または、四角形スライスモードで、スライスは、ピクチャの四角形領域を集合的に形成する一つのタイル内の多数の連続的なCTU行を含むことができる。四角形スライス内のタイルは、当該スライスに対応する四角形領域内でタイルラスタースキャン順でスキャンされることができる。
【0089】
一方、サブピクチャ(subpicture)は、ピクチャの四角形領域をカバーする一つ以上のスライスを含むことができる。
【0090】
図5の(a)は、ピクチャをラスタースキャンスライスに分割した一例を示す図面である。例えば、ピクチャは、12個のタイルと3個のラスタースキャンスライスに分割されることができる。
【0091】
また、
図5の(b)は、ピクチャを四角形スライスに分割した一例を示す図面である。例えば、ピクチャは、24個のタイル(6個のタイル列と4個のタイル行)と、9個の四角形スライスに分割されることができる。
【0092】
また、
図5の(c)は、ピクチャをタイル及び四角形スライスに分割した一例を示す図面である。例えば、ピクチャは、24個のタイル(2個のタイル列と、2個のタイル行)と、4個の四角形スライスに分割されることができる。
【0093】
図6は、一実施形態に係るピクチャエンコーディング手順を示す流れ図である。
【0094】
一実施形態において、ピクチャパーティショニング(S600)は、エンコーディング装置の映像分割部210によって実行されることができ、ピクチャエンコーディング(S610)は、エンコーディング装置のエントロピーエンコーディング部240によって実行されることができる。
【0095】
一実施形態に係るエンコーディング装置は、エンコーディング装置は現在ピクチャに含まれたスライス及び/またはタイルを導出することができる(S600)。例えば、エンコーディング装置は、入力された現在ピクチャに対するエンコーディングのために、ピクチャパーティショニングを実行することができる。例えば、エンコーディング装置は、現在ピクチャに含まれたスライス及び/またはタイルを導出することができる。エンコーディング装置は、現在ピクチャの映像特性及びコーディング効率を考慮してピクチャを多様な形態にパーティショニングすることができ、最適なコーディング効率を有するパーティショニング形態を指示する情報を生成して、デコーディング装置にシグナリングすることができる。
【0096】
一実施形態に係るエンコーディング装置は、前記導出されたスライス及び/またはタイルに基づいて、現在ピクチャに対するエンコーディングを実行することができる(S610)。例えば、エンコーディング装置は、スライス及び/またはタイルに関する情報を含むビデオ/映像情報をエンコーディングして、ビットストリーム形態で出力することができる。出力されたビットストリームは、デジタル格納媒体またはネットワークを介してデコーディング装置に伝達されることができる。
【0097】
図7は、一実施形態に係るピクチャデコーディング手順を示す流れ図である。
【0098】
一実施形態において、ビットストリームからビデオ/映像情報を獲得するステップ(S710)、及び現在ピクチャ内スライス及び/またはタイルを導出するステップ(S720)は、デコーディング装置のエントロピーデコーディング部310によって実行されることができ、スライス及び/またはタイルに基づいて現在ピクチャを復元するステップは、デコーディング装置の加算部340によって実行されることができる。
【0099】
一実施形態に係るデコーディング装置は、受信されたビットストリームからビデオ/映像情報を獲得することができる(S710)。前記ビデオ/映像情報は、HLSを含むことができ、HLSは、スライスに関する情報またはタイルに関する情報を含むことができる。スライスに関する情報は、現在ピクチャで一つ以上のスライスを特定する情報を含むことができ、タイルに関する情報は、現在ピクチャで一つ以上のタイルを特定する情報を含むことができる。スライスに関する情報またはタイルに関する情報は、多様なパラメータセット、ピクチャヘッダ及び/またはスライスヘッダを通じて獲得されることができる。
【0100】
一方、現在ピクチャは、一つ以上のスライスを含むタイルまたは一つ以上のタイルを含むスライスを含むことができる。
【0101】
一実施形態に係るデコーディング装置は、スライス及び/またはタイルに関する情報を含むビデオ/映像情報に基づいて、現在ピクチャ内スライス及び/またはタイルを導出することができる(S720)。
【0102】
一実施形態に係るデコーディング装置は、スライス及び/またはタイルに基づいて、現在ピクチャを復元(デコーディング)することができる(S730)。
【0103】
一方、前述のように、ピクチャは、サブピクチャ、タイル及びスライスに分割されることができる。サブピクチャに関する情報は、SPSを通じてシグナリングされることができ、タイル及び四角形スライスに関する情報は、PPSを通じてシグナリングされることができる。また、ラスター-スキャンスライスに関する情報は、スライスヘッダ(slice header)を通じてシグナリングされることができる。
【0104】
例えば、サブピクチャに関する情報を含むSPSシンタックスは、次の表の通りであり得る。
【0105】
【0106】
例えば、タイル及び四角形スライスに関する情報を含むPPSシンタックスは、次の表の通りであり得る。
【0107】
【0108】
また、例えば、ラスター-スキャンスライスに関する情報を含むスライスヘッダシンタックスは、次の表の通りであり得る。
【0109】
【0110】
一方、現在ピクチャ内スライスに関する情報及びタイルに関する情報は、現在ピクチャ内各サブピクチャが単一スライスを含むのか否かに関するフラグを含むことができる。前記フラグは、single_slice_per_subpic_flagまたはpps_single_slice_per_subpic_flagと指称され得るが、これに制限されるのではない。また、サブピクチャに関する情報は、サブピクチャ情報の存在可否に関するフラグを含むことができ、前記フラグは、subpics_present_flagまたはsps_subpic_info_present_flagと指称され得るが、これに制限されるのではない。例えば、サブピクチャに関する情報は、パラメータセット(parameter_set)に含まれることができる。例えば、サブピクチャに関する情報は、SPSに含まれることができる。
【0111】
従来には、サブピクチャ情報の存在可否に関するフラグの値が0の場合には、サブピクチャが単一スライスを含むのか否かに関するフラグの値が0になるように制限した。すなわち、サブピクチャ情報の存在可否に関するフラグの値が0の場合には、サブピクチャが可用でないと判断して、サブピクチャが単一スライスを含むのか否かに関するフラグの値を0に制限した。しかしながら、このような条件は、非常に制限的である。例えば、サブピクチャ情報が存在しない場合でも、現在ピクチャは、二つ以上のタイルに分割されることができ、全てのタイルは、一つのスライス内に含まれることができる。このような場合、現在ピクチャは、単一スライスを含むようになる。
【0112】
したがって、本文書の一実施形態は、サブピクチャ情報の存在可否に関するフラグの値が0の場合には、サブピクチャが単一スライス(only one slice)を含むのか否かに関するフラグの値が0になるようにする制限を無くす方案を提案する。このような場合。サブピクチャが単一スライスを含むのか否かに関するフラグは、サブピクチャ情報が存在しない場合にも現在ピクチャが単一スライスを含む場合を示すことができる。
【0113】
例えば、前述の実施形態に係ると、CLVS(coded layer video sequence)に対してサブピクチャ情報が存在しなくても、サブピクチャが単一スライスを含むのか否かに関するフラグが存在し得る。すなわち、CLVSに対してサブピクチャ情報が存在しなくても、サブピクチャが単一スライスを含むのか否かに関するフラグは、0または1の値を有し得る。
【0114】
例えば、サブピクチャ情報の存在可否に関するフラグの値が0で、サブピクチャが単一スライスを含むのか否かに関するフラグが1の場合、現在ピクチャは、単一スライスを含むことができる。すなわち、シグナリングされるサブピクチャがなく、サブピクチャが単一スライスを含むのか否かに関するフラグの値が1の場合、ピクチャ内スライスの個数は1個であると推論(infer)され得る。
【0115】
また、サブピクチャ情報の存在可否に関するフラグの値が0の場合、現在ピクチャ内サブピクチャの個数は1個であり得る。例えば、サブピクチャ情報の存在可否に関するフラグの値が0の場合、映像情報のSPSを参照する全てのピクチャそれぞれに存在するサブピクチャの個数は1個であり得る。
【0116】
一方、現在ピクチャが含むスライスの個数に関するフラグは、映像情報のPPSに含まれることができる。現在ピクチャが含むスライスの個数に関するフラグは、num_slices_in_pic_minus1またはpps_num_slices_in_pic_minus1と指称され得るが、これに制限されるのではない。また、現在ピクチャが含むサブピクチャの個数に関するフラグは、映像情報のSPSに含まれることができる。現在ピクチャが含むサブピクチャの個数に関するフラグは、sps_num_subpics_minus1と指称され得るが、これに制限されるのではない。
【0117】
シグナリングされるサブピクチャ情報がなく、サブピクチャが単一スライスを含むのか否かに関するフラグの値が1の場合、現在ピクチャが含むスライスの個数に関するフラグは、0の値を有すると推論されることができる。また、シグナリングされるサブピクチャ情報がなく、サブピクチャが単一スライスを含むのか否かに関するフラグの値が1の場合、現在ピクチャが含むスライスの個数に関するフラグ及び現在ピクチャが含むサブピクチャの個数に関するフラグは、同じ値を有することに推論されることができる。
【0118】
また、シグナリングされるサブピクチャがなく、サブピクチャが単一スライスを含むのか否かに関するフラグの値が1の場合、ピクチャ内の全てのCTUは、ピクチャに含まれた単一スライスに属することができる。
【0119】
前述の実施形態に係るサブピクチャが単一スライスを含むのか否かに関するフラグ及び現在ピクチャが含むスライスの個数に関するフラグを含むシンタックスエレメントに対するセマンティクス(semantics)は、次の表のように示すことができる。
【0120】
【0121】
前記表を参照すると、サブピクチャが単一スライスを含むのか否かに関するフラグに対応するsingle_slice_per_subpic_flagの値が1の場合、各サブピクチャは、一つの四角形スライスで構成されることができる。また、single_slice_per_subpic_flagの値が0の場合、各サブピクチャは、一つ以上の四角形スライスで構成されることができる。single_slice_per_subpic_flagの値が1の場合、現在ピクチャが含むスライスの個数に関するフラグに対応するnum_slices_in_pic_minus1の値は、現在ピクチャが含むサブピクチャの個数に関するフラグに対応するSPS_num_subpics_minus1と同じ値を有することに推論されることができる。
【0122】
また、single_slice_per_subpic_flagの値が1で、サブピクチャ情報の存在可否に関するフラグに対応するsubpics_present_flagの値が0の場合、PPSを参照するピクチャは、ピクチャ当たり一つのスライスを有することができる。
【0123】
一方、ピクチャ内のタイルをデコーディングする手順であるスキャニングプロセス(Scanning process)は、下記の表によって決められることができる。
【0124】
【0125】
【0126】
図8は、一実施形態に係るエンコーディング装置の動作を示す流れ図であり、
図9は、一実施形態に係るエンコーディング装置の構成を示すブロック図である。
【0127】
図8で開示された方法は、
図2または
図9で開示されたエンコーディング装置によって実行されることができる。
図9のS810は、
図2に開示された映像分割部210によって実行されることができ、S820は、
図2に開示されたエントロピーエンコーディング部240によって実行されることができる。また、S810乃至S820による動作は、
図1乃至
図7で前述された内容の一部に基づいたのである。よって、
図1乃至
図7で前述された内容と重複する具体的な内容は、説明を省略したり簡単にすることにする。
【0128】
図8を参照すると、一実施形態に係るエンコーディング装置は、現在ピクチャを分割して少なくとも一つのスライスを導出することができる(S810)。例えば、エンコーディング装置の映像分割部210は、前記少なくとも一つのスライスに基づいて、前記現在ピクチャに対する分割情報を生成することができる。
【0129】
一実施形態に係るエンコーディング装置は、少なくとも一つのスライスに基づいて、現在ピクチャに対する映像情報をエンコーディングすることができる(S810)。前記映像情報は、前記少なくとも一つのスライスに基づいて生成した分割情報を含むことができる。
【0130】
例えば、前記映像情報は、サブピクチャ情報の存在可否に関する第1フラグ、及び前記サブピクチャがただ一つのスライスを含むのか否かに関する第2フラグを含むことができる。例えば、前記第1フラグ及び前記第2フラグに基づいて、前記現在ピクチャに含まれたスライスの個数は1個であることに導出されることができる。
【0131】
例えば、前記サブピクチャ情報の存在可否に関する第1フラグの値が0で、前記第2フラグが1の場合、前記現在ピクチャに含まれたスライスの個数は1個であることに導出されることができる。
【0132】
例えば、前記サブピクチャ情報の存在可否に関する第1フラグの値が0の場合、前記現在ピクチャに存在するサブピクチャの個数は1であり得る。
【0133】
例えば、前記サブピクチャ情報の存在可否に関する第1フラグは、前記映像情報のSPS(Sequence Parameter Set)に含まれることができる。
【0134】
例えば、前記サブピクチャがただ一つのスライスを含むのか否かに関する第2フラグは、前記映像情報のPPS(Picture Parameter Set)に含まれることができる。
【0135】
例えば、前記映像情報は、前記現在ピクチャが含むスライスの個数に関する第3フラグを含み、前記第3フラグは、前記映像情報のPPSに含まれることができる。
【0136】
また、例えば、前記映像情報は、前記現在ピクチャが含むサブピクチャの個数に関する第4フラグを含み、前記第4フラグは、前記映像情報のSPSに含まれることができる。
【0137】
また、例えば、前記第1フラグの値が0の場合、前記映像情報のSPSを参照する全てのピクチャそれぞれに存在するサブピクチャの個数は1個であることに導出されることができる。
【0138】
一方、前記映像情報は、前記現在ピクチャに対する予測情報を含むことができる。前記予測情報は、前記現在ピクチャに実行されるインター予測モードまたはイントラ予測モードに対する情報を含むことができる。エンコーディング装置は、前記現在ピクチャに対する予測情報を生成及びエンコーディングすることができる。
【0139】
一方、前記ビットストリームは、ネットワークまたは(デジタル)格納媒体を介してデコーディング装置に送信されることができる。ここで、ネットワークは、放送網及び/または通信網などを含むことができ、デジタル格納媒体は、USB、SD、CD、DVD、ブルーレイ、HDD、SSDなど多様な格納媒体を含むことができる。
【0140】
図10は、一実施形態に係るデコーディング装置の動作を示す流れ図であり、
図11は、一実施形態に係るデコーディング装置の構成を示すブロック図である。
【0141】
図10で開示された方法は、
図3または
図11で開示されたデコーディング装置によって実行されることができる。 具体的には、S1010及びS1020は、
図3に開示されたエントロピーデコーディング部310によって実行されることができる。また、S1010及びS1020による動作は、
図1乃至
図7で前述された内容の一部に基づいたのである。よって、
図1乃至
図7で前述された内容と重複する具体的な内容は、説明を省略したり簡単にすることにする。
【0142】
一実施形態に係るデコーディング装置は、現在ピクチャに対する映像情報をビットストリームから獲得することができる(S1010)。例えば、デコーディング装置のエントロピーデコーディング部310は、現在ピクチャに対する分割情報を含む映像情報をビットストリームから獲得することができる。例えば、分割情報は、現在ピクチャに対するスライス情報を含むことができる。また、映像情報は、予測関連情報またはレジデュアル関連情報の少なくとも一部を含むことができる。例えば、前記予測関連情報は、インター予測モード情報またはインター予測タイプ情報を含むことができる。
【0143】
一実施形態に係るデコーディング装置は、映像情報に基づいて現在ピクチャに対するデコーディングを実行することができる(S1020)。例えば、デコーディング装置のエントロピーデコーディング部310は、前記現在ピクチャに対するスライス情報に基づいて、前記現在ピクチャの分割構造を導出することができる。
【0144】
例えば、前記映像情報は、サブピクチャ情報の存在可否に関する第1フラグ及び前記サブピクチャがただ一つのスライスを含むのか否かに関する第2フラグを含むことができる。例えば、前記第1フラグ及び第2フラグに基づいて、前記現在ピクチャに含まれたスライスの個数は、1個であることに導出されることができる。
【0145】
例えば、前記第1フラグの値が0で、前記第2フラグの値が1の場合、前記現在ピクチャに含まれたスライスの個数は、1個であることに導出されることができる。
【0146】
例えば、前記サブピクチャ情報の存在可否に関するフラグの値が0の場合、 前記現在ピクチャに存在するサブピクチャの個数は1個であり得る。
【0147】
例えば、前記サブピクチャ情報の存在可否に関する第1フラグは、前記映像情報のSPS(Sequence Parameter Set)に含まれることができる。
【0148】
例えば、前記サブピクチャが単一スライスを含むのか否かに関する第2フラグは、前記映像情報のPPS(Picture Parameter Set)に含まれることができる。
【0149】
例えば、前記映像情報は、前記現在ピクチャが含むスライスの個数に関する第3フラグを含み、前記第3フラグは、前記映像情報のPPSに含まれることができる。
【0150】
また、例えば、前記映像情報は、前記現在ピクチャが含むサブピクチャの個数に関する第4フラグを含み、前記現在ピクチャが含むサブピクチャの個数に関するフラグは、前記映像情報のSPSに含まれることができる。
【0151】
また、例えば、前記第1フラグの値が0の場合、前記映像情報のSPSを参照する全てのピクチャそれぞれに存在するサブピクチャの個数は、1個であることに導出されることができる。
【0152】
前述した実施例において、方法は、一連のステップまたはブロックで流れ図に基づいて説明されているが、該当実施例は、ステップの順序に限定されるものではなく、あるステップは、前述と異なるステップと、異なる順序にまたは同時に発生できる。また、当業者であれば、流れ図に示すステップが排他的でなく、他のステップが含まれ、または、流れ図の一つまたはそれ以上のステップが本文書の実施例の範囲に影響を及ぼさずに削除可能であることを理解することができる。
【0153】
前述した本文書の実施例による方法は、ソフトウェア形態で具現されることができ、本文書によるエンコーディング装置及び/またはデコーディング装置は、例えば、TV、コンピュータ、スマートフォン、セットトップボックス、ディスプレイ装置などの映像処理を実行する装置に含まれることができる。
【0154】
本文書において、実施例がソフトウェアで具現される時、前述した方法は、前述した機能を遂行するモジュール(過程、機能など)で具現されることができる。モジュールは、メモリに格納され、プロセッサにより実行されることができる。メモリは、プロセッサの内部または外部にあり、よく知られた多様な手段でプロセッサと連結されることができる。プロセッサは、ASIC(application-specific integrated circuit)、他のチップセット、論理回路及び/またはデータ処理装置を含むことができる。メモリは、ROM(read-only memory)、RAM(random access memory)、フラッシュメモリ、メモリカード、格納媒体及び/または他の格納装置を含むことができる。即ち、本文書で説明した実施例は、プロセッサ、マイクロプロセッサ、コントローラまたはチップ上で具現されて実行されることができる。例えば、各図面で示す機能ユニットは、コンピュータ、プロセッサ、マイクロプロセッサ、コントローラまたはチップ上で具現されて実行されることができる。この場合、具現のための情報(例えば、information on instructions)またはアルゴリズムがデジタル格納媒体に格納されることができる。
【0155】
また、本開示が適用されるデコーディング装置及びエンコーディング装置は、マルチメディア放送送受信装置、モバイル通信端末、ホームシネマビデオ装置、デジタルシネマビデオ装置、監視用カメラ、ビデオ対話装置、ビデオ通信のようなリアルタイム通信装置、モバイルストリーミング装置、格納媒体、カムコーダ、注文型ビデオ(VoD)サービス提供装置、OTTビデオ(Over the top video)装置、インターネットストリーミングサービス提供装置、3次元(3D)ビデオ装置、VR(virtual reality)装置、AR(argumente reality)装置、画像電話ビデオ装置、運送手段端末(例えば、車両(自律走行車両を含む)端末、飛行機端末、船舶端末等)、及び医療用ビデオ装置などに含まれることができ、ビデオ信号またはデータ信号を処理するために使われることができる。例えば、OTTビデオ(Over the top video)装置として、ゲームコンソール、ブルーレイプレーヤ、インターネット接続TV、ホームシアターシステム、スマートフォン、タブレットPC、DVR(Digital Video Recorder)などを含むことができる。
【0156】
また、本開示が適用される処理方法は、コンピュータで実行されるプログラムの形態で生産されることができ、コンピュータが読み取り可能な記録媒体に格納されることができる。また、本文書の実施例(ら)によるデータ構造を有するマルチメディアデータもコンピュータが読み取り可能な記録媒体に格納されることができる。前記コンピュータが読み取り可能な記録媒体は、コンピュータで読みだすことができるデータが格納される全ての種類の格納装置及び分散格納装置を含む。前記コンピュータが読み取り可能な記録媒体は、例えば、ブルーレイディスク(BD)、汎用直列バス(USB)、ROM、PROM、EPROM、EEPROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、及び光学的データ格納装置を含むことができる。また、前記コンピュータが読み取り可能な記録媒体は、搬送波(例えば、インターネットを介した送信)の形態で具現されたメディアを含む。また、エンコーディング方法で生成されたビットストリームがコンピュータが読み取り可能な記録媒体に格納され、または、有無線通信ネットワークを介して送信されることができる。
【0157】
また、本開示の実施形態は、プログラムコードによるコンピュータプログラム製品で具現されることができ、前記プログラムコードは、本文書の実施例(ら)によりコンピュータで実行されることができる。前記プログラムコードは、コンピュータにより読み取り可能なキャリア上に格納されることができる。
【0158】
図12は、本文書の開示が適用可能なコンテンツストリーミングシステムの例を示す。
【0159】
図12を参照すると、本開示が適用されるコンテンツストリーミングシステムは、大きく、エンコーディングサーバ、ストリーミングサーバ、ウェブサーバ、メディアリポジトリ、ユーザ装置及びマルチメディア入力装置を含むことができる。
【0160】
前記エンコーディングサーバは、スマートフォン、カメラ、カムコーダなどのようなマルチメディア入力装置から入力されたコンテンツをデジタルデータで圧縮してビットストリームを生成し、これを前記ストリーミングサーバに送信する役割をする。他の例として、スマートフォン、カメラ、カムコーダなどのようなマルチメディア入力装置がビットストリームを直接生成する場合、前記エンコーディングサーバは省略されることができる。
【0161】
前記ビットストリームは、本文書の実施例に適用されるエンコーディング方法またはビットストリーム生成方法により生成されることができ、前記ストリーミングサーバは、前記ビットストリームを送信または受信する過程で一時的に前記ビットストリームを格納することができる。
【0162】
前記ストリーミングサーバは、ウェブサーバを介したユーザ要請に基づいてマルチメディアデータをユーザ装置に送信し、前記ウェブサーバは、ユーザにどのようなサービスがあるかを知らせる媒介体役割をする。ユーザが前記ウェブサーバに所望のサービスを要請すると、前記ウェブサーバは、これをストリーミングサーバに伝達し、前記ストリーミングサーバは、ユーザにマルチメディアデータを送信する。このとき、前記コンテンツストリーミングシステムは、別途の制御サーバを含むことができ、この場合、前記制御サーバは、前記コンテンツストリーミングシステム内の各装置間の命令/応答を制御する役割をする。
【0163】
前記ストリーミングサーバは、メディア格納所及び/またはエンコーディングサーバからコンテンツを受信することができる。例えば、前記エンコーディングサーバからコンテンツを受信するようになる場合、前記コンテンツをリアルタイムで受信することができる。この場合、円滑なストリーミングサービスを提供するために、前記ストリーミングサーバは、前記ビットストリームを一定時間の間格納することができる。
【0164】
前記ユーザ装置の例として、携帯電話、スマートフォン(smart phone)、ノートブックコンピュータ(laptop computer)、デジタル放送用端末、PDA(personal digital assistants)、PMP(portable multimedia player)、ナビゲーション、スレートPC(slate PC)、タブレットPC(tablet PC)、ウルトラブック(ultrabook)、ウェアラブルデバイス(wearable device、例えば、ウォッチ型端末(smartwatch)、グラス型端末(smart glass)、HMD(head mounted display)、デジタルTV、デスクトップコンピュータ、デジタルサイニジがある。
【0165】
前記コンテンツストリーミングシステム内の各サーバは、分散サーバとして運営されることができ、この場合、各サーバで受信するデータは、分散処理されることができる。
【0166】
本明細書に記載された請求項は、多様な方式で組み合わせることができる。例えば、本明細書の方法請求項の技術的特徴が組み合わせて装置で具現されることができ、本明細書の装置請求項の技術的特徴が組み合わせて方法で具現されることができる。また、本明細書の方法請求項の技術的特徴と装置請求項の技術的特徴が組み合わせて装置で具現されることができ、本明細書の方法請求項の技術的特徴と装置請求項の技術的特徴が組み合わせて方法で具現されることができる。