【文献】
Fogg, C., et al., ”Indication of SMPTE 2084 and 2085 and carriage of 2086 metadata in HEVC”, [online], 14 Jan. 2014, Joint Collaborative Team on Video Coding (JCT−VC) of ITU−T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, Document: JCTVC−P0084r1(version 2), [平成29年4月26日検索], インターネット〈URL:http://phenix.it−sudparis.eu/jct/doc_end_user/documents/16_San%20Jose/wg11/JCTVC−P0084−v2.zip〉
【文献】
”CEA Standard CEA−861−E”, [online], March 2008, CEA, [平成29年4月26日検索], インターネット〈URL:http://electronix.ru/forum/index.php?act=Attach&type=post&id=77872〉, pages 33,35,48,54,55
【文献】
鈴木輝彦,「新ビジネスを拓くH.264/AVC その技術の中核をとらえる」,iNTERNET magazine,2005年3月号(第122号),株式会社インプレス,2005年3月1日,第92〜97頁
【文献】
島森功,「カラーマネジメント入門 第2回 カラーマネジメントの手法と課題」,日経CG(NIKKEI COMPUTER GRAPHICS),1995年12月号(No.111),日経BP社,1995年12月1日,第228〜235頁,ISSN:0912−1609
(58)【調査した分野】(Int.Cl.,DB名)
前記ダイナミックレンジマスタリングInfoFrameは、前記EOTFタイプ情報によるEOTFに対する付加情報を含んでなるものである、請求項1に記載のビデオデータ処理方法。
【発明を実施するための形態】
【0031】
以下、添付の各図面及び添付の各図面に記載した各内容を参照して本発明の実施例を詳細に説明するが、本発明が各実施例によって制限又は限定されることはない。
【0032】
本明細書で使用される用語としては、本発明での機能を考慮しながら、可能な限り現在広く使用される一般的な用語を選択したが、これは、当分野に携わる技術者の意図、慣例又は新たな技術の出現などによって変わり得る。また、特定の場合は、出願人が任意に選定した用語もあり、この場合、該当する発明の説明部分でその意味を記載する。したがって、本明細書で使用される用語は、単純な用語の名称ではなく、その用語が有する実質的な意味と本明細書の全般にわたった内容に基づいて解釈すべきであることを明らかにしておく。
【0033】
図1は、本発明の一実施例に係るビデオデータ処理方法を示した図である。
本発明の一実施例に係るビデオデータ処理方法は、インターフェースを介してソースデバイスからビデオデータ及び前記ビデオデータのダイナミックレンジ関連情報を含むダイナミックレンジマスタリング情報を受信する段階(S1010)及び/又は前記受信したビデオデータを再生する段階(S1020)を含むことができる。ここで、ダイナミックレンジマスタリング情報は、前記ビデオデータに使用されたEOTF(Electro Optical Transfer Function)を識別するEOTFタイプ情報を含むことができる。ダイナミックレンジマスタリング情報に対しては、
図11、
図12及び
図14を参照して詳細に説明する。
【0034】
本発明の他の一実施例によると、ダイナミックレンジマスタリング情報は、マスタリングディスプレイの最大明るさを示す情報及び/又はマスタリングディスプレイの最小明るさを示す情報を含むことができる。ここで、マスタリングディスプレイの最大明るさを示す情報はOrig_white_luminance_level情報を示すことができ、マスタリングディスプレイの最小明るさを示す情報はOrig_black_luminance_level情報を示すことができる。これに対しては、
図11、
図12及び
図14を参照して詳細に説明する。
【0035】
本発明の他の一実施例によると、ダイナミックレンジマスタリング情報は、マスタリングディスプレイの三原色及びホワイト色相の色度座標情報を含むことができる。ここで、マスタリングディスプレイの三原色の色度座標情報及び/又はマスタリングディスプレイのホワイト色相の色度座標情報は、Orig_color_gamut、Red―x、Red―y、Green―x、Green―y、Blue―x、Blue―y、White―x及び/又はWhite―yフィールドを用いてシグナリングすることができる。これに対しては、
図11、
図12及び
図14を参照して詳細に説明する。
【0036】
本発明の他の一実施例によると、ダイナミックレンジマスタリング情報は、EOTFタイプ情報によるEOTFに対する付加情報を含むことができる。ここで、EOTFに対する付加情報は、EOTF_additional_info及び/又はEOTF_Coefficientを含むことができる。これに対しては、
図11及び
図14を参照して説明する。
【0037】
図2は、ビデオ映像を送受信するためにソースデバイスとシンクデバイスが連結された例を示した図である。この図面において、映像のデコーディングと画質処理が可能なソースデバイスと映像の出力が可能なシンクデバイスとの情報交換は次のように行う。
【0038】
ソースデバイス100は、放送、ブルーレイ(Blu―ray(登録商標))、UV(Ultra Violet)、SCSA(Secure Content Storage Association)などの格納媒体、IP(internet protocol)ストリーミングなどの多様な経路で入ってくる映像に対して復号化(decoding)する機器又は画質処理のためのビデオプロセッシングが可能な機器を総称する。例えば、セットトップボックス、ブルーレイディスク(BD)プレーヤーなどの格納媒体のプレーヤー、コンピューターなどがこれに該当する。
【0039】
ソースデバイス100のビデオプロセッシングは、WCG(Wide color gamut)、HDR(high dynamic range)又はその他のポストプロセッシング(post processing)などの画質を変化させる方式を含ませることができる。この場合、映像に対して一括的にビデオプロセッシングを行うのではなく、シンクデバイスが提供するディスプレイ情報、例えば、カラーガマット(color gamut)情報又はダイナミックレンジ情報などに基づいて該当のビデオソースがディスプレイ機器で再生可能であるか否かを判断し、必要な場合、再生に適した画質に変換して提供する。
【0040】
また、ソースデバイス100の映像処理過程をシンクデバイス200でコントロールする必要がある場合、これに対する情報を提供し、ソースデバイス100でいずれの映像処理過程が使用されたのかに対する情報を受けることができる。
【0041】
ソースデバイス100は、シンクデバイス200からディスプレイ関連メタ情報又はディスプレイオプション情報を受信することができる。そして、受信された情報に基づいて、ソースデバイス100は、シンクデバイス200にUHDビデオメタデータとプロセッシングされたビデオのプロセッシングオプション情報を提供することができる。シンクデバイス200は、ソースデバイス100が提供したデータや情報に基づいてソースデバイス100がプロセッシングしたビデオを表出することができる。シンクデバイス200は、該当のディスプレイに合うカラーガマット情報やダイナミックレンジ範囲内でソースデバイス100がプロセッシングしたビデオを表出することができる。
【0042】
図3は、本発明に実施例によってソースデバイスがシンクデバイスと連結された場合、情報を送受信する実施例を示した図である。
【0043】
この例は、ソースデバイスがシンクデバイスとHDMI(登録商標)又はディスプレイポート(Display Port)などの有線インターフェースと連結される場合を示す。この例は、ソースデバイス(Source Device)とシンクデバイス(Sink Device)が有線インターフェースで連結されているとき、EDID(Extended Display Identification Data)のHDR(High Dynamic Range)のデータブロックを通じてシンクデバイス200でソースデバイス100のHDR及びWCG機能を制御(活性化又は非活性化)し、これを用いてソースデバイスがシンクデバイスの変更されたEDIDを読み込む実施例を例示する。
【0044】
ソースデバイスがシンクデバイスに有線インターフェースで連結されると、ソースデバイスは、該当の有線インターフェースの+5Vパワーライン(power line)にハイレベル電圧を印加し、シンクデバイスは、これを通じてソースデバイスが連結されることを確認する(S1)。
【0045】
シンクデバイスは、ローレベル電圧に維持されているホットプラグ検出ライン(Hot Plug Detect line)にハイレベルの電圧を印加することによって、ソースデバイスとシンクデバイスとの連結が完了し、EDIDなどのディスプレイ関連情報(以下、ディスプレイ関連情報という)を読む準備ができたことをソースデバイスに知らせる(S2)。
【0046】
ソースデバイスは、ホットプラグ検出ラインがハイレベルに遷移されることを確認し、ディスプレイデータチャンネルを介してディスプレイ関連情報に対する読み取りをシンクデバイスに要請し(S3)、シンクデバイスは、ディスプレイ関連情報をディスプレイデータチャンネルを介してソースデバイスに伝送する(S4)。
【0047】
シンクデバイスでユーザーの要請によってシグナリングされたり、或いはシンクデバイスの機能的判断によってディスプレイ関連情報のHDRデータブロックのコントロールオプションフラグにおいて該当のフィールドが変更されると(S5)、シンクデバイスは、ソースデバイスにディスプレイ関連情報のアップデートされた情報を知らせるためにホットプラグ検出ラインにローレベルの電圧を印加し、この電圧を一定時間、例えば、少なくとも100msの間維持する(S6)。
【0048】
ソースデバイスでディスプレイ関連情報の読み取りが可能になると、シンクデバイスは、ホットプラグラインにハイレベルの電圧を印加し(S7)、ソースデバイスはこれを感知し、ディスプレイデータチャンネルを介してディスプレイ関連情報の読み取りを要請する(S8)。そして、シンクデバイスは、ディスプレイデータチャンネルを介して変更されたディスプレイ関連情報を送信する(S9)。
【0049】
このような動作に基づいて本発明の実施例に対するソースデバイスとシンクデバイスとの間の情報交換の例を説明すると、次の通りである。
【0050】
本発明の実施例によると、上述したS3又はS8の要請に対する応答として、シンクデバイスは、カラーガマット情報及び明るさ(brightness)情報をソースデバイスに伝達することができる(S4又はS9に含む)。
【0051】
カラーガマット情報は、RGBWに該当する色空間であるCIE xyダイアグラム上のカラープライマリー(color primary)座標或いはBT.709又はBT.2020などのカラーガマット情報を含むことができる。この情報は、インターフェースで定義されているDisplayIDのカラー特性データブロック(color characteristics data block)などを通じて伝達することができる。明るさ関連情報は、最大明るさ又は最小明るさ値を含むことができ、実施例で開示する例によると、インターフェースのDisplayID、EDID、又はEDID拡張(extension)情報などに定義されたデータブロック(data block)を用いて伝達することができる。
【0052】
そうすると、ソースデバイスは、伝達されたディスプレイ関連情報に基づいてビデオの色相又は明るさ情報を調整する必要があるか否かを判断する。ソースデバイスによって色相又は明るさ調整が必要であると判断される場合、ビデオで提供するカラーマッピング(color mapping)或いはダイナミックレンジマッピング(dynamic range mapping)情報に基づいて変換したり、ソースデバイスが自体的にビデオの色相又は明るさ情報を提供する方法を使用することもできる。
【0053】
ソースデバイスは、このように調整された最終映像をシンクデバイスに伝達する。このとき、最終ビデオに対するカラーガマット又はダイナミックレンジ関連メタデータをインターフェースのInfoFrameを通じて伝達することができる。カラーガマット情報の場合、インターフェースのAVI infoFrameで既存に定義しているカラーガマット情報(例えば、BT.709、BT.2020など)を用いて伝達することができる。ダイナミックレンジ関連情報は、最大又は最小明るさ情報を伝達することができ、各実施例で記述する方法を通じて新たなInfoFrameを定義したり、AVI InfoFrameを拡張する方法を通じて伝達することができる。
【0054】
ソースデバイスが最終映像を伝達するとき、ソースデバイスで処理されたビデオプロセッシング(video processing)に対する情報を提供する必要がある場合、各実施例で記述する方法を通じてInfoFrame内のpost_processing_typeを用いてHDR情報又はWCG情報などのビデオプロセッシングユニット(video processing unit)の処理情報を伝達することができる。また、最終映像に対してHDR情報と関連して新たなEOTF(electro―optical transfer function)などの色変換関数情報が定義されて使用されたり、使用される必要がある場合、新たな色変換関数情報をインターフェース情報のフラグなどを用いて伝達することができる。
【0055】
最終処理された映像に対して、シンクデバイスは、ソースデバイスの処理が適切であるか否かを判断し、これに対するフィードバックを通じてソースデバイスの制御が必要であるか否かを判断することができる。この場合、各実施例で記述するDisplayID、EDID、EDID拡張情報などに定義されたデータブロック内のコントロールオプションフラグを通じてこれを制御することができる。WCG情報又はHDR情報などのソースデバイスのビデオプロセッシングで処理された結果が適切である場合、シンクデバイスは、WCG情報又はHDR情報と関連したビットを活性化(on)させ、同一の処理が継続されるように制御することができる。
【0056】
処理が不適切である場合、シンクデバイスは、WCG情報又はHDR情報と関連したビットを非活性化(off)させることによって、ソースデバイスで現在遂行中のビデオプロセッシングを使用しないように制御することができる。
【0057】
シンクデバイスは、コントロールオプションフラグを通じて伝達された情報が現在ソースデバイスで処理中のビデオプロセッシングと異なる場合、コントロールオプションフラグにある情報を基準としてビデオプロセッシングを変更する。変更されたビデオ処理と関連してUHDビデオメタデータが変更される場合、InfoFrame内のカラー特性(color characteristics)情報及び明るさ情報を変更し、ポストプロセッシングタイプ(post_processing_type)を変更したビデオプロセッシング過程に合わせてアップデートすることができる。そして、S5の過程が行われる。
【0058】
以下では、シンクデバイスがソースデバイスに伝達される情報を例示する。
本発明の実施例によると、ソースデバイスがHDR関連情報を処理する場合、シンクデバイスが再生可能な情報に基づいて、ソースデバイスは、シンクデバイスに適した映像処理を行うことができる。この場合、シンクデバイスは、ディスプレイ明るさ範囲に対する適切な情報、例えば、シンクブラック輝度レベル(Sink Black Luminance Level)、シンクホワイト輝度レベル(Sink White Luminance Level)、及びソースデバイスのポストプロセッシングをコントロールできるフラグなどをソースデバイスに伝達することができる。この場合、DisplayID、EDID、或いはEDID拡張のデータブロックを用いることができるが、これに対する詳細な例を開示すると、次の通りである。
【0059】
図4は、本発明の実施例によってシンクデバイスがソースデバイスに伝達する情報の一例を示した図である。
【0060】
この図面は、DisplayIDのデータブロックを用いてソースデバイスがシンクデバイスに伝達する情報の例を示す。
【0061】
この図面は、DisplayIDのデータブロックのオフセットフィールド、バリュー(value)フィールド、及びそれに対する記述(description)とフォーマットを例示する。例えば、DisplayIDのデータブロックのオフセットフィールドが0x00で、バリューフィールドが0x14である場合、HDRデータブロックを示すことができる。
【0062】
この図面で例示したように、オフセットフィールドが0x03である場合、ソースデバイスのポストプロセッシングをコントロールできるフラグ(コントロールオプションフラグ)を示すことができる。これに対する詳細なバリューの例については後で説明する。
【0063】
そして、オフセットフィールドが0x04又は0x05である場合、シンクデバイス自体の表現可能な明るさ値(シンクブラック輝度レベル、シンクホワイト輝度レベルなど)に対する情報を伝達することができる。
【0064】
DisplayIDのデータブロックは、後でオフセットフィールド値によってビデオ処理に必要な各情報をさらに含むことができる。例えば、オフセットフィールドが0x03である場合、現在の予備(reserved)フィールドなどを用いてHDRと関連するポストプロセッシング関連情報を伝達することができる。
【0065】
ここで、オフセットフィールドやバリューフィールド値は任意の値として変更可能であり、コントロールオプションフラグの詳細な例とシンクデバイスのディスプレイ情報に対する例は以下で開示する。
【0066】
図5は、本発明の実施例によってシンクデバイスがソースデバイスに伝達する情報の一例として、前記で開示した実施例の具体的なフィールド値を例示した図である。
【0067】
シンクデバイスがソースデバイスに伝達する情報としてDisplayIDのデータブロックのコントロールオプションフラグは、ソースデバイスが行うポストプロセッシング過程をコントロール(オン/オフ)するフィールドである。本発明の実施例によると、これを用いてソース/シンクデバイスのインターフェース上で今後提供される多様なオプションを示すことができるが、ここでは、HDR、WCG関連オプションを開示した。
【0068】
前記でDisplayIDのデータブロックのオフセットフィールドが0x03である場合、ソースデバイスを制御できるコントロールオプションフラグ情報であることを示すことができることを開示した。バリューフィールドのビット位置によってソースデバイスのHDRプロセッシングを活性化させたり、ソースデバイスのWCGプロセッシングを活性化させることができる。この例では、下位2個のビットでこれに対する情報をそれぞれ表現した。
【0069】
本実施例で開示したフィールドは、ユーザーの要請によってシグナリングされるか、或いはシンクデバイスの機能的判断によって(シンクデバイスの処理能力が上位にある場合など)制御され得る。本発明の実施例は、予備ビット(Reserved bit)を用いてFRC(Frame Rate Control)と、マルチレイヤービデオ強化(multi―layer video enhancement)の機能に対してシンク―ソースデバイス間の情報交換を行うこともできる。ここで、オフセットフィールドやバリューフィールド値は、任意の値として変更可能である。
【0070】
図6は、開示した本発明の実施例に係るコントロールオプションフラグの詳細な例を示した図である。
コントロールオプションフラグを示すオフセットフィールドのバリューフィールドの下位2個のビットにそれぞれソースデバイスで行われるHDR、WCG処理に対するコントロールを行わせる情報を設定することができる。二つのフラグに対する組み合わせによって、下記の例示のように使用することができる。
【0071】
この例において、バリューフィールドが00000000である場合、ソースデバイスで何ら処理もしないことを示す。例えば、バリューフィールドが10000000である場合、ソースデバイスのHDR処理に対する情報を示すが、ソースデバイスでHDRのみを処理するオプションを示すことができる。他の例として、バリューフィールドが01000000である場合、ソースデバイスのWCG処理に対する情報を示し、ソースデバイスでWCGのみを処理するオプションを示すことができる。
【0072】
他の例として、バリューフィールドが11000000である場合、シンクデバイスで伝達した情報に基づいてソースデバイスがHDR及びWCGに対して全て処理できるようにするコントロールオプション情報を示し、この値を初期値として使用することができる。
【0073】
図7は、記述した本発明の実施例に係るシンクデバイスダイナミックレンジ情報の詳細な例を示した図である。
開示したように、シンクデバイスは、DisplayIDのデータブロックを用いてシンクデバイスのダイナミックレンジ情報をソースデバイスに伝達し、シンクデバイスが表現可能な明るさ情報などをソースデバイスに知らせることができる。
【0074】
シンクデバイスのダイナミックレンジに対する情報は、シンクデバイスのディスプレイで表現可能なダイナミックレンジを表現するための最大及び最小物理的明るさ値(nit或いはcd/m2単位)を称する。
【0075】
例えば、DisplayIDのデータブロックのオフセットフィールドが60x04又は0x05である場合、シンクデバイスのダイナミックレンジ情報を示す。
【0076】
この例において、DisplayIDのデータブロックのオフセットフィールドが0x04である場合、下位8ビットより高い8個のビットを用いてシンクデバイスの最も低いレベルの明るさ情報を示すことができる。
【0077】
DisplayIDのデータブロックのオフセットフィールドが0x05である場合、バリューフィールドの最下位1ビットは、シンクデバイスの最も低いレベルの明るさ情報を示し、バリューフィールドの残りのビットでシンクデバイスの最も高いレベルの明るさ情報を示すことができる。
【0078】
ここで、オフセットフィールドやバリューフィールド値は、任意の値として変更可能である。
【0079】
この情報を用いて示すことができるシンクデバイスの最小明るさ情報(sink_black_luminance_levelと表記)、及び最大明るさ情報(sink_white_luminance_level)は下記のように示すことができる。
【0080】
例えば、シンクデバイスの最小明るさ情報(sink_black_luminance_level)は、ディスプレイで表現可能な最小明るさを示すための値であって、一般的な最低明るさを考慮して、0〜0.05範囲に対して0.0001単位で値を表現することができる。すなわち、ディスプレイの物理的明るさをBrightness_black(cd/m2単位)とするとき、実際の最小明るさは、この最小明るさ情報(sink_black_luminance_level)から下記のように算出することができる。
【0081】
Brightness_black=sink_black_luminance_level x 10000
(0<=sink_black_luminance_level<=500<29)
【0082】
例えば、リファレンスモニター(reference monitor)の場合、0.05cd/m2を最小基準明るさとし、10000(10進数)を掛けた値である500を伝送することができる。
【0083】
シンクデバイスの最大明るさ情報(sink_white_luminance_level)は、ディスプレイで表現可能な最大明るさを示すための値であって、一般的な最大明るさを考慮して、100〜10000の範囲に対して100単位で値を表現することができる。すなわち、ディスプレイの物理的明るさをBrightness_white(cd/m2単位)とするとき、実際の最大明るさは、この最大明るさ情報(sink_white_luminance_level)から下記のように算出することができる。
【0084】
Brightness_white=sink_white_luminance_level x 100
(1<=sink_white_luminance_level<=100<27)
【0085】
例えば、リファレンスモニターの場合、100cd/m2を最大基準明るさとし、100(10進数)で割った値の割り前である1値を伝送することができる。
【0086】
本発明の一実施例によると、シンクデバイスの最大明るさ情報及び/又はシンクデバイスの最小明るさ情報は、ディスプレイの明るさ範囲に対する性能を示すことができる。すなわち、本発明の一実施例に係るシンクデバイスの最大明るさ情報及び/又はシンクデバイスの最小明るさ情報は、ディスプレイの性能を考慮して、コンテンツを最適な環境でレンダリングするために要求されるコンテンツの最大明るさ情報(Desired content Max Luminance data)及び/又は最小明るさ情報(Desired content Min Luminance data)を示すことができる。
【0087】
シンクデバイスからソースデバイスにディスプレイ関連情報を伝達する他の実施例を開示する。
図8は、本発明の実施例によってシンクデバイスからソースデバイスに伝達するディスプレイ関連情報として、DisplayIDのディスプレイパラメーターデータブロックを例示した図である。
ディスプレイ関連情報として、DisplayIDのディスプレイパラメーターデータブロックは、モニターの全体的なパラメーターを含むことができる。この図面で例示したように、例えば、ディスプレイパラメーターデータブロックには、映像の水平又は垂直サイズ(オフセットフィールドが0x03又は0x04)、水平又は垂直ピクセルの個数(オフセットフィールドが0x05又は0x06)、モニターでサポート可能な機能に対するフラグ(オフセットフィールドが0x0B)、伝達関数で使用されるガンマ(オフセットフィールドが0x0C)、ディスプレイアスペクト比(display aspect ratio)(オフセットフィールドが0x0D)、ピクセルビットデプス(pixel bit depth)(オフセットフィールドが0x0E)などの情報が含まれる。
【0088】
本発明の実施例によると、ディスプレイパラメーターデータブロックは、前記で記述したコントロールオプションフラグ情報及びシンクデバイスダイナミックレンジ情報を含むことができる。すなわち、本発明の実施例によると、シンクデバイスは、前記で開示したコントロールオプションフラグ及びシンクデバイスダイナミックレンジ情報を含むディスプレイパラメーターデータブロック情報をソースデバイスに伝達することができる。
【0089】
この実施例において、ディスプレイパラメーターデータブロックのオフセットフィールドが0x0Fである場合、コントロールオプションフラグを示すことができ、オフセットフィールドが0x10又は0x11である場合、シンクデバイス自体の表現可能な明るさ値(シンクブラック輝度レベル、シンクホワイト輝度レベルなど)に対する情報を含むことができる。
【0090】
オフセットフィールドが0x0Fである場合のコントロールオプションフラグに対するバリューフィールド、オフセットフィールドが0x10又は0x11である場合のシンクデバイスダイナミックレンジ情報に対するバリューフィールド及び各バリューフィールドに対する説明は、
図5〜
図7で例示した通りである。ここで、オフセットフィールドやバリューフィールド値は、任意の値として変更可能である。
【0091】
本発明の実施例は、伝達特性ガンマ(Transfer Characteristic Gamma)を通じてHDRに適した伝達曲線(transfer curve)情報を伝達することができる。
【0092】
シンクデバイスからソースデバイスにディスプレイ関連情報を伝達する他の実施例を開示する。
【0093】
図9は、本発明の実施例で記述するディスプレイ関連情報として、ディスプレイデバイスデータブロックを例示した図である。本発明の実施例は、ディスプレイデバイスデータブロックを用いてソースデバイスがシンクデバイスに伝達する情報の例を示す。
【0094】
ディスプレイデバイスデータブロックは、ディスプレイパネル自体の特性を示すことができる情報を含む。ディスプレイデバイスデータブロックは、ディスプレイデバイスの種類(オフセットフィールドが0x03)、ディスプレイデバイスの動作モード(operating mode)(オフセットフィールドが0x04)、ピクセル数で示すことができる映像サイズ(オフセットフィールドが0x05〜0x08)、ディスプレイアスペクト比(オフセットフィールドが0x09〜0x0A)、ビットデプス(bit depth)(オフセットフィールドが0x0E)、応答速度(オフセットフィールドが0x0F)などを示す。本発明の実施例は、この図面で例示したように、ディスプレイデバイスデータブロックと共に、ディスプレイパネルの開示したコントロールオプションフラグ情報とシンクデバイスダイナミックレンジ情報をソースデバイスに伝達することができる。
【0095】
本発明の実施例によると、ディスプレイデバイスデータブロックのオフセットフィールドが0x0Fである場合、コントロールオプションフラグを示すことができ、ディスプレイデバイスデータブロックのオフセットフィールドが0x10又は0x11である場合、シンクデバイスダイナミックレンジ情報を示すことができる。
【0096】
ディスプレイデバイスデータブロックのオフセットフィールドが0x0Fである場合のバリューフィールドの例と、ディスプレイデバイスデータブロックのオフセットフィールドが0x10又は0x11である場合のバリューフィールドの例は、
図5〜
図7又は
図8で例示した通りである。ここで、オフセットフィールドやバリューフィールド値は、任意の値として変更可能である。
【0097】
シンクデバイスがソースデバイスにディスプレイ関連情報を伝達する他の例として、シンクデバイスは、DisplayIDのベンダー独自のデータブロック(Vendor―Specific Data Block)を用いてコントロールオプションフラグとシンクデバイスダイナミックレンジ情報を伝達することができる。ベンダー独自のデータブロックは、シンクデバイスがデータブロックに定義されていない情報を伝達する場合に使用するデータであって、このデータブロックに前記で開示したコントロールオプションフラグ及びシンクデバイスダイナミックレンジ情報を含ませて伝達することができる。
【0098】
シンクデバイスがソースデバイスにディスプレイ関連情報を伝達する更に他の例として、シンクデバイスは、DisplayIDの製品識別データブロック(Product Identification Data Block)を用いることができる。
【0099】
DisplayIDの製品識別データブロックは、ディスプレイデバイスの製造企業に対する情報、ディスプレイデバイスのシリアル番号(serial number)、製品ID(Product ID)などを含むことができる。このとき、シンクデバイスがディスプレイデバイスの製造企業、製造年月、製品IDなどを通じて各製品の情報を確認できる場合、この情報を用いて各製品に対応するダイナミックレンジ情報をソースデバイスに伝達することができる。本発明によると、DisplayIDの製品識別データブロックが製品の識別情報としてダイナミックレンジ情報を伝達する場合、コントロールオプションフラグは、前記で開示した各実施例のうちいずれか一つの例を通じて伝達する。
【0100】
シンクデバイスがソースデバイスにディスプレイ関連情報を伝達する更に他の例として、シンクデバイスが伝達特性データブロック(Transfer Characteristics Data Block)を用いてディスプレイ関連情報をソースデバイスに伝達することができる。伝達特性データブロックは、ディスプレイの伝達曲線関連情報を伝達するデータブロックである。伝達特性データブロックのディスプレイ時に任意のガンマ関数(gamma function)を使用したり、区分的線形曲線(piecewise linear curve)をサポートする場合、これを表示するためのデータブロックである。ディスプレイパネルのピーク輝度(peak luminance)及び最下位輝度を定義した部分はないので、シンクデバイスは、伝達特性データブロックに前記で開示したコントロールオプションフラグ及びシンクデバイスダイナミックレンジ情報を含むダイナミックレンジ情報をソースデバイスに伝達することができる。
【0101】
図10は、本発明の一実施例によってシンクデバイスがソースデバイスにディスプレイ関連情報を伝達する更に他の例を示した図である。本発明の実施例によると、シンクデバイスは、CEA(Consumer Electronics Association)EDID拡張情報を用いてディスプレイ関連情報をソースデバイスに伝達することができる。
【0102】
シンクデバイスは、CEA―861のVESAで定義したEDIDの他に、CEシンクデバイスでサポート可能なデバイス属性情報を含むCEA EDID拡張情報をソースデバイスに伝達することができる。この場合、シンクデバイスは、この図面で例示したダイナミックレンジ情報をソースデバイスに伝達することができる。
【0103】
CEA EDID拡張情報の拡張データブロック(extension data block)は、ビデオ、オーディオ、スピーカー割り当て(Speaker Allocation)、ベンダー独自(Vendor―Specific)、及びビデオ性能データブロック(Video Capability data block)を含むことができる。拡張データブロックは、このデータブロックをそれぞれ識別するために予め定義されたタグコード(Tag Code)を各データブロックの1番目のバイトのビット5及び7に含む。
【0104】
発明の実施例によると、CEA EDID拡張データブロックの1番目のバイトのビット5及び7は、ダイナミックレンジ情報を表示するタグコードを含むことができる。
【0105】
そして、この図面で例示したように、CEA EDID拡張データブロック内にダイナミックレンジ情報を、前記で例示したように、シンクデバイスの最小明るさ情報(Lowest Brightness level of Sink device(LSB)のうち下位8ビットより高い8ビット(higher 8 bits)情報、シンクデバイスの最小明るさのLSB情報(Lowest Brightness level of Sink device(LSB))、及びシンクデバイスの最大明るさ情報(Highest Brightness level of Sink device(合計7ビット))と表現することができる。ビット割り当ては、任意的なものとして変更可能である。よって、本発明の実施例によると、シンクデバイスがCEAのEDID拡張情報を用いてソースデバイスにディスプレイ関連情報のうちシンクデバイスの最大/最小明るさ情報を伝達することができる。
【0106】
本発明の一実施例に係るシンクデバイスの最大明るさ情報は、シンクデバイスで処理可能な最大明るさ情報を示すことができ、シンクデバイスの最小明るさ情報は、シンクデバイスで処理可能な最小明るさ情報を示すことができる。
【0107】
本発明の実施例によってソースデバイスからシンクデバイスに伝達する情報を開示すると、次の通りである。
【0108】
ソースデバイスは、シンクデバイスのディスプレイ関連情報及びカラーガマット関連情報に基づいてコンテンツの明るさ及びカラーガマットなどがシンクデバイスに適しているか否かを判断し、必要な場合、ソースデバイスは、コンテンツの明るさ及びカラーガマットなどを変換することができる。ここで、超高画質映像を処理する場合、ソースデバイスはいずれの処理が行われたのかに対する情報、及び映像処理後の明るさ及びカラーガマットに対する情報をシンクデバイスに伝達しなければならない。これは、シンクデバイスのポストプロセッシングを制御するためのものであるが、これに対する実施例を詳細に開示すると、次の通りである。
【0109】
本発明に実施例により、ソースデバイスは、CEA 861に定義されたInfoFrameを通じてシンクデバイスに超高画質映像処理関連情報を伝達することができる。
【0110】
図11は、本発明に実施例によってソースデバイスからシンクデバイスに伝達する情報を例示した図である。
【0111】
CEA 861でソース/シンクデバイスのインターフェース情報として定義されたInfoFrameのうちカラーガマット情報は、AVI InfoFrameを通じて伝達することができる。本発明の実施例は、ソースデバイスが超高画質映像処理に対する情報をInfoFrameを通じてシンクデバイスに伝達する。これを用いて、超高画質映像の明るさ情報、任意のカラーガマット情報、及びHDR情報又はWCG情報などの映像処理情報をシンクデバイスに伝達することができる。本実施例によると、ソースデバイスは、遂行したポストプロセッシングに対する情報、ポストプロセッシング後のコンテンツの明るさ情報、ポストプロセッシング前のコンテンツ明るさ情報及びカラー表現範囲情報をシンクデバイスに伝達することができる。
【0112】
ポストプロセッシングに対する情報はコンテンツの状態に対する情報を含み、シンクデバイスの要請に対する応答として使用することができる。ポストプロセッシング後のコンテンツの明るさ情報は、コンテンツの最小明るさ情報(black_luminance_level)及びコンテンツの最大明るさ情報(white_luminance_level)を含むことができる。ポストプロセッシング前のコンテンツの最小明るさ情報(orig_black_luminance_level)及び最大明るさ情報(orig_white_luminance_level)を含むこともできる。コンテンツのカラー表現範囲情報はOrig_color_gamut情報で示したが、これについては後で詳細に説明する。
【0113】
InfoFrameタイプコード(Type Code)は、このInfoFrameのタイプを示すが、例えば、この値が0x07である場合、UHD映像処理に対する情報を含むフレームを示すことができる。ここで、UHD映像処理に対する情報は、ダイナミックレンジマスタリング情報(Dynamic Range and Mastering information)と命名することができる。本発明の一実施例に係るダイナミックレンジマスタリング情報は、コンテンツのダイナミックレンジ関連情報を含むことができる。
【0114】
InfoFrameバージョン番号(Version Number)は、このフレームのバージョン情報を示し、HDR InfoFrameの長さはHDR InfoFrameの長さ情報を示す。
【0115】
データバイト(Data Byte)1のP3〜P0フィールドは、post_processing_type_flagであって、ソースデバイスが行うポストプロセッシング過程をコントロール(オン/オフ)するためのフィールドである。ここでは、このフィールドを用いてHDR情報又はWCG情報関連オプション情報を開示し、これに対する詳細な例については後で説明する。本発明の一実施例は、BT.709で製作されたコンテンツをBT.2020でエンコーディングして伝送する場合、このフィールド及び/又は後述するオリジナルカラーガマット情報(Orig_color_gamut)を用いてコンテンツカラーガマット(contents color gamut)及び/又はコンテナカラーガマット(container color gamut)を区分し、それぞれをシグナリングすることができる。これについては後で詳細に説明する。
【0116】
そして、データバイト1のR2〜R0フィールドは予備ビットを示し、E0フィールドは、new_EOTF_flagを通じて新たな色変換関数(EOTFなど)を使用するか否かを示す。予備ビットは、後でHDR情報に適した新たなEOTFが定義されると使用可能なフラグである。
データバイト2は、コンテンツで表現する最小明るさ情報を含むことができるが、ここでは、black_luminance_levelと表現した。この実施例では、最小明るさ情報の最高8ビットをデータバイト2フィールドに表現するようにした。
【0117】
コンテンツの最小明るさ情報は、一般的な最低明るさを考慮して、0〜0.05の範囲に対して0.0001単位で値を表現することができる。すなわち、ディスプレイの物理的明るさをBrightness_black(cd/m2単位)とするとき、次のような関係を有する。
【0118】
Brightness_black=black_luminance_level x 10000
(0<=black_luminance_level<=500<29)
【0119】
例えば、リファレンスモニターの場合、0.05cd/m2を最小基準明るさとし、10000(10進数)を掛けた値である500を明るさ情報と表現することができる。
【0120】
データバイト3は、この図面で例示したように、コンテンツ最小明るさ情報(black_luminance_level)の最下位1ビット、及びコンテンツ最大明るさ情報(white_luminance_level)7ビットを含むことができる。
【0121】
最大明るさ情報(white_luminance_level)は、コンテンツで表現する最大明るさを示すための情報であって、一般的な最大明るさを考慮して、100〜10000の範囲に対して100単位で値を表現することができる。すなわち、ディスプレイの物理的明るさをBrightness_white(cd/m2単位)とすると、次のような関係を有する。
【0122】
Brightness_white=white_luminance_level x 100
(1<=white_luminance_level<=100<27)
【0123】
例えば、リファレンスモニターの場合、100cd/m2を最大基準明るさとし、100(10進数)で割った値の割り前である1値を明るさ情報と表現することができる。
【0124】
データバイト4は、コンテンツのオリジナル最小明るさ情報(Orig_black_luminance_level)の最上位8ビットを表現することができ、データバイト5は、コンテンツのオリジナル最小明るさ情報(Orig_black_luminance_level)の最下位1ビット、及びコンテンツのオリジナル最大明るさ情報(Orig_white_luminance_level))7ビットを表現することができる。
【0125】
コンテンツのオリジナル最小明るさ情報(Orig_black_luminance_level)は、ソースデバイスでHDR処理前のコンテンツの最小明るさを示す。表現方法及び範囲はblack_luminance_levelと同一であり、本実施例において、フィールドの具現は、post_processing_typeでHDR情報がオンになったと表示される場合のみに伝送するようにオプションを与えることもできる。
【0126】
同様に、コンテンツのオリジナル最小明るさ情報(Orig_white_luminance_level)は、ソースデバイスでHDR処理前のコンテンツの最大明るさを示す。表現方法及び範囲はwhite_luminance_levelと同一であり、同様に、本実施例において、フィールドの具現は、post_processing_typeでHDR情報がオンになったと表示される場合のみに伝送するようにオプションを与えることもできる。
【0127】
本発明の一実施例によると、コンテンツの明るさ範囲(contents dynamic range)と区分される明るさ範囲(dynamic range)に対するシグナリングが必要である場合、上述したオリジナル最小明るさ情報(Orig_black_luminance_level)及び/又はオリジナル最小明るさ情報(Orig_white_luminance_level)を使用することができる。このとき、上述したコンテンツの明るさ範囲と区分される明るさ範囲は、イメージプロセッシング(image processing)前後の明るさ範囲、エンコーディング時に使用された明るさ範囲、マスタリングディスプレイ(mastering display)の明るさ範囲、ターゲットディスプレイ(target display)の明るさ範囲、コンテナ(container)の明るさ範囲などを含むことができる。ここで、コンテナの明るさ範囲は、原本コンテンツの明るさ範囲(Dynamic range)とコンテナの明るさ範囲とが異なる場合のコンテナの最大/最小明るさ範囲を示すことができる。例えば、原本コンテンツの明るさ範囲(Dynamic range)とコンテナの明るさ範囲とが異なる場合とは、LDR(Low Dynamic Range)で製作されたコンテンツをHDR(High Dynamic Range)でエンコーディングして伝送する場合、HDRで製作されたコンテンツをLDRでエンコーディングして伝送する場合、狭い明るさ範囲を有するコンテンツを広い明るさ範囲を有するコンテナに伝送する場合、広い明るさ範囲を有するコンテンツを狭い明るさ範囲を有するコンテナに伝送する場合などを含むことができる。ここで、コンテナの明るさ範囲は、コンテンツの明るさ範囲と区分される意味であって、ディスプレイの明るさ範囲を示すことができる。また、上述したマスタリングディスプレイは、コンテンツ及び/又はディスプレイの明るさ及び/又はカラー情報によってマスタリング過程が行われるディスプレイを示すことができる。よって、マスタリングディスプレイの明るさ範囲は、ディスプレイでサポート可能な明るさ範囲を示すことができる。
【0128】
データバイト6は、オリジナルカラーガマット情報(Orig_color_gamut)及び予備ビットを含むことができる。オリジナルカラーガマット情報(Orig_color_gamut)は、ソースデバイスでWCG処理前のコンテンツの色表現範囲を示す。標準色表現範囲に対する詳細な例については後で説明する。本実施例において、フィールドの具現は、post_processing_typeでWCGがオンになったと表示される場合のみに伝送するようにオプションを与えることもできる。
【0129】
本発明の一実施例は、ソースデバイスで別途のカラーガマットマッピング(color gamut mapping)処理を行わない場合のうち、原本コンテンツのカラーガマットとコンテナのカラーガマットとが異なる場合、post_processing_typeの値を0000(何ら処理もしない)又は1111(異なるカラーガマット(Different color gamut))でシグナリングすることによって、オリジナルカラーガマット情報(Orig_color_gamut)を使用してコンテンツカラーガマット及びコンテナカラーガマットとを区分し、各カラーガマットに対する情報をディスプレイ装置に伝達することができる。ここで、上述した原本コンテンツのカラーガマットとコンテナのカラーガマットとが異なる場合は、BT.709で製作されたコンテンツをBT.2020でエンコーディングして伝送する場合を含むことができる。本発明の他の一実施例は、CEA 861―FのAVI InfoFrame内のデータバイト2、3のカラリメトリ定義(C1、C0)と拡張されたカラリメトリ(EC2、EC1、EC0)を用いてコンテナカラーガマットを表現し、Orig_color_gamutを用いてコンテナカラーガマットを表現することができる。これと反対に、本発明の更に他の一実施例は、CEA 861―FのAVI InfoFrame内のデータバイト2、3のカラリメトリ定義(C1、C0)と拡張されたカラリメトリ(EC2、EC1、EC0)を用いてコンテンツカラーガマットを表現し、Orig_color_gamutを用いてコンテナカラーガマットを表現することができる。また、本発明の更に他の一実施例は、Orig_color_gamutを用いてコンテンツカラーガマットを表現し、Red―x、Red―y、Green―x、Green―y、Blue―x、Blue―y、White―x及び/又はWhite―yを用いてコンテナカラーガマットを表現することができる。これと反対に、本発明の更に他の一実施例は、Orig_color_gamutを用いてコンテナカラーガマットを表現し、Red―x、Red―y、Green―x、Green―y、Blue―x、Blue―y、White―x及び/又はWhite―yを用いてコンテンツカラーガマットを表現することができる。ここで、コンテナカラーガマットは、コンテンツカラーガマットと区分される意味であって、ディスプレイのカラーガマットを示すことができる。さらに、本発明の一実施例に係るOrig_color_gamut、Red―x、Red―y、Green―x、Green―y、Blue―x、Blue―y、White―x及び/又はWhite―yは、カラープライマリー(color primaries)(例えば、三原色)及び/又はホワイト色相の色度座標を含むことができる。
【0130】
本発明の一実施例によると、コンテンツのカラーガマットと区分されるカラーガマットに対するシグナリングが必要な場合、上述したオリジナルカラーガマット情報(Orig_color_gamut)を使用することができる。このとき、上述したコンテンツのカラーガマットと区分されるカラーガマットは、イメージプロセッシング前後のカラーガマット、コンテナのカラーガマット、エンコーディング時に使用されたカラーガマット、マスタリングディスプレイのカラーガマット、ターゲットディスプレイのカラーガマットなどを含むことができる。ここで、マスタリングディスプレイは、コンテンツ及び/又はディスプレイの明るさ及び/又はカラー情報によってマスタリング過程が行われるディスプレイを示すことができる。すなわち、マスタリングディスプレイのカラーガマットは、ディスプレイでサポート可能なカラーガマットを示すことができる。
【0131】
データバイト7からデータバイト16は、任意のカラーガマット情報を示すことができるフィールドである。この図面において、任意のカラーガマット情報は、Red―x、Red―y、Green―x、Green―y、Blue―x、Blue―y、White―x、White―yで例示した。
【0132】
ここで、Red―xは、色空間(例えば、CIE 1931)のR色相のx座標を0〜1の値に対して2進法で示したものであるが、本実施例は、全体10ビットを使用し、データバイト9の上位8ビットとデータバイト6の上位2ビットを使用することができる。
【0133】
同様に、Red―yは、色空間(例えば、CIE 1931)のR色相のy座標を0〜1の値に対して2進法で示したものである。本実施例は、全体10ビットを使用してこの色情報を示し、データバイト10の上位8ビットとデータバイト6の下位2ビットを使用することができる。
【0134】
ソースデバイスは、前記で開示したコンテンツのオリジナルカラーガマット情報(Orig_color_gamut)で適切な情報を表現できない場合、データバイト7からデータバイト16を使用してカラーガマット情報を伝達することができる。
【0135】
本発明の他の実施例として、
図11で開示した、或いはオリジナルカラーガマット情報(Orig_color_gamut)は使用せず、データバイト7からデータバイト16に該当する情報のみを使用してオリジナルカラーガマット情報を伝送することもできる。又は、オリジナルカラーガマット情報(Orig_color_gamut)が特定の値を示す場合のみにデータバイト7からデータバイト16に該当する情報をさらに活用することもできる。
データバイト17は、E3フィールド、E2フィールド、E1フィールド、E0フィールド及び/又は係数の個数(Number of Coefficients)フィールドを含むことができる。
【0136】
E3〜E1フィールドは、EOTF_typeであって、HDRコンテンツの最適な画質のためにコンテンツ製作者が使用したEOTFの種類を示すことができる。本発明の一実施例によると、複数のEOTF標準を制定することができ、コンテンツ製作者が任意にEOTFを定義して使用することができる。EOTF_type値が示す内容については後で詳細に説明する。
【0137】
E0フィールドは、private_EOTF_coeff_flagを示すことができる。このフィールド値が1である場合、このフィールドは、EOTF_typeによる別途の係数が使用されたことを示すことができる。例えば、互いに異なる最大明るさによって適切なEOTF係数が異なる場合のように、同一の関数に対して互いに異なる係数が使用される場合、本発明の一実施例は、このフィールドを用いてこれに対する適切な係数を伝送することができる。また、本発明の他の一実施例によると、別途のパラメーターがセッティングされ、EOTF_typeを通じてシグナリングされ得る。このフィールド値が0である場合、このフィールドは、汎用的に使用されるデフォルト(default)パラメーターが使用されることを示すことができる。ここで、パラメーターと係数は、同一の意味で使用することができる。本発明の一実施例によると、E0フィールドが1である場合、データバイト18〜18+Nをさらに使用することができ、E0フィールドが0である場合、データバイト18〜18+Nは使用しないこともある。
係数の個数フィールドは、上述したE0フィールドが1を示す場合に使用される係数の個数を示すことができる。
【0138】
データバイト18は、EOTF_additional_infoフィールドを含むことができる。EOTF_additional_infoフィールドは、EOTF_typeによって追加的な情報が伝達される必要がある場合、EOTF_typeによる追加的な情報を示すことができる。例えば、互いに異なる最大明るさによって適切なEOTF係数が異なる場合、このフィールドは、目標とする最大明るさ(target max brightness)に対する情報を含むことができる。本発明の一実施例によると、与えられたEOTF_typeに対して多様な条件による複数のEOTF関数の係数を伝達する必要がある場合、例えば、最大明るさによって係数が変わり、多様な最大明るさによる各係数を全て伝達しなければならない場合、このフィールドは、各係数に対する情報を提供するために使用することができる。この場合、各条件の個数を示すフィールドを別途に指定し、各条件に対してEOTF_target_max_brightness、EOTF_Coefficient1〜Nを指定する方法を使用することができる。
【0139】
データバイト18+1〜18+Nは、それぞれEOTF_Coefficient 1〜Nフィールドを含むことができる。EOTF_Coefficient 1〜Nフィールドは、E0フィールドが1である場合に使用されるパラメーター値を示すことができる。また、このフィールドは、任意のEOTF関数を伝送するのに使用することができる。
上述した各情報は、インターフェース上でソースからシンクに伝送されることを前提とすることができる。しかし、これら各情報は、ビデオの内部(例えば、SEIメッセージ)及び/又はストレージ(storage)の別途のメタデータ伝達方法を通じて伝送することができる。よって、同一の情報がビデオソースにも定義されている場合があり、そうでない場合、ソースデバイスで該当コンテンツに対する追加メタデータを外部サーバーなどを通じて別途に受けることができる。
【0140】
本発明の一実施例によると、この図面で示したInfoFrameは、ダイナミックレンジ及びマスタリングInfoFrameと命名することができる。
【0141】
図12は、本発明の実施例によって開示したポストプロセッシングタイプ情報の詳細な例を開示した図である。開示したように、ソースデバイスがUHD映像をシンクデバイスに合わせてポストプロセッシングした場合、ディスプレイ関連情報及びカラーガマット情報をInfoFrameを通じてシンクデバイスに伝達することができる。
【0142】
InfoFrameデータバイト1のP3〜P0フィールドは、post_processing_typeを示し、HDR情報又はWCG情報関連オプションを示すが、ポストプロセッシングタイプはこの図面で例示した通りである。
【0143】
例えば、post_processing_typeが0000である場合、ソースデバイスで何ら処理もしないことを示し、post_processing_typeが0001である場合、ソースデバイスがダイナミックレンジマッピングを行ったことを示す。
【0144】
例えば、post_processing_typeが0010である場合、ソースデバイスがカラーガマットマッピングを行ったことを示し、post_processing_typeが0011である場合、シンクデバイスが伝達した情報に基づいてこれに合わせてソースデバイスが処理したことを示す。この値は初期値(initial value)として使用することができる。
【0145】
post_processing_typeが0110〜1000である場合、後でマルチレイヤー―ビデオ強化の機能に対してシンク―ソース間の情報交換のために使用することができ、post_processing_typeが1001〜1110である場合、ユーザープライベート(User private)のために使用することができる。
【0146】
例えば、post_processing_typeが1111である場合、オリジナルカラーガマット情報(Orig_color_gamut)がコンテンツカラーガマット及びコンテナカラーガマットを区分してシグナリングするのに使用されることを示すことができる。すなわち、本発明の一実施例は、コンテンツカラーガマットと区分される意味のカラーガマットに対するシグナリングが必要である場合、post_processing_typeフィールドを用いることができる。これと同一の方法で、本発明の他の一実施例は、コンテンツの明るさ範囲(contents dynamic range)と区分される意味の明るさ範囲(dynamic range)に対するシグナリングが必要である場合、post_processing_typeフィールドを用いることができる。この場合、例えば、post_processing_typeとして1110を割り当てることができる。
【0147】
図13は、本発明の実施例によって開示したオリジナルカラーガマット情報(Orig_color_gamut)の詳細な例を開示した図である。
【0148】
記述したように、ソースデバイスがUHD映像をシンクデバイスに合わせてプロセッシングした場合、コンテンツのオリジナルカラーガマット情報(Orig_color_gamut)をシンクデバイスに伝送することができる。
【0149】
この例において、オリジナルコンテンツのカラーガマット情報(Orig_color_gamut)のフィールドが0000である場合、オリジナルコンテンツのカラーはREC.709に従うことを示し、オリジナルコンテンツのカラーガマット情報(Orig_color_gamut)のフィールドが0001である場合、オリジナルコンテンツのカラーはBT.2020 NCLに従うことを示す。同様に、このフィールドが0010、0011、0100、0101である場合、それぞれオリジナルコンテンツのカラーはxvYCC、DCI―P3、Adobe RGB及びBT.2020CLによって定義されたことを示す。
【0150】
図14は、本発明の実施例によってソースデバイスがシンクデバイスに伝達する映像のカラー情報を伝達する他の例を開示する。
【0151】
本発明の実施例は、AVI InfoFrameバージョン3の形式を拡張し、ソースデバイスが処理した映像のポストプロセッシングタイプ情報(post_processing_type_flag)、色変換関数情報(new_EOTF_flag)及び映像の明るさ情報(black_luminance_level又はwhite_luminance_level)をシンクデバイスに伝達することができる。又は、本発明の実施例は、ソース/シンクデバイスのインターフェース上で定義された新たなAVI InfoFrameを用いてソースデバイスが処理した映像のポストプロセッシングタイプ情報(post_processing_type_flag)、色変換関数情報(new_EOTF_flag)及び映像の明るさ情報(black_luminance_level又はwhite_luminance_level)をシンクデバイスに伝達することができる。
【0152】
開示したAVI InfoFrameは、データバイトによってソースデバイスがシンクデバイスに処理された映像の情報を伝達することができる。この例において、データバイト14〜データバイト29は、
図11〜
図13で例示したデータバイト1〜データバイト16の情報をそれぞれ含むことができる。
【0153】
したがって、本実施例によると、ソースデバイスは、遂行したポストプロセッシングに対する情報を提供する情報、ポストプロセッシング後のコンテンツの明るさ情報、ポストプロセッシング前のコンテンツ明るさ情報及びカラー表現範囲情報をシンクデバイスに伝達することができる。
【0154】
本発明の実施例は、AVI InfoFrameバージョン3の形式を拡張し、Orig_color_gamut、RGBWインデックス、EOTF_type、private_EOTF_coeff_flag、係数の個数、EOTF_additional_info及び/又はEOTF_Coefficientをシンクデバイスに伝達することができ、ソース/シンクデバイスのインターフェース上で定義された新たなAVI InfoFrameを用いて上述した情報を伝達することができる。
【0155】
この図面において、データバイト30〜データバイト31+Nは、
図11〜
図13で例示したデータバイト17〜データバイト18+N情報をそれぞれ含むことができる。
【0156】
図15は、本発明の一実施例に係る信号処理装置の各実施例及びその動作を例示した図である。
【0157】
まず、本発明の一実施例に係る信号処理装置の実施例は、ソースデバイス100及びシンクデバイス200を含む。
【0158】
ソースデバイス100は、デコーダー110、カラーガマットマッピング部120、ダイナミックレンジマッピング部130、ポストプロセッシング部140、メタデータプロセッサ150及びオプションコントローラー160を含む。
【0159】
ソースデバイス100のカラーガマットマッピング部120、ダイナミックレンジマッピング部130及びポストプロセッシング部140はビデオ処理部と称することができ、ビデオ処理部のカラーガマットマッピング部120、ダイナミックレンジマッピング部130及びポストプロセッシング部140は、ビデオ処理時に前のブロックとは関係なく、それぞれ個別的に必要な場合に動作することができる。
【0160】
シンクデバイス200は、ソースデバイスコントローラー210、メタデータプロセッサ220及びパネルコントローラー230を含む。ソースデバイス100がシンクデバイス200とインターフェースで連結された場合、
図3で例示したプロトコルによって情報を送受信することができる。以下で記述するデバイス間の情報の伝送と受信はインターフェースを介して行われる。
【0161】
ソースデバイス100は、エンコーディングされたUHDビデオストリームを復号し、必要に応じて復号されたUHDビデオを後処理したり、シンクデバイス200の表出能力に合わせてUHDビデオを処理し、処理されたUHDビデオをシンクデバイスに提供することができる。
【0162】
シンクデバイス200は、ソースデバイス100がデコーディングしたUHDビデオを受信して表出できるが、ソースデバイス100にシンクデバイス200の表出能力に対する情報を提供し、ソースデバイス100からシンクデバイス200が表出可能なUHDビデオを受信して表出することができる。
【0163】
ソースデバイス100のオプションコントローラー160は、シンクデバイス200とのインターフェースを介してビデオオプション信号を伝送し、ディスプレイ関連情報を要請することができる。ディスプレイ関連情報は、ディスプレイカラーガマット情報及びディスプレイ明るさ関連情報を含むことができる。ソースデバイス100からシンクデバイス200に伝送するビデオオプション情報は、
図11〜
図14の例に従うことができる。
【0164】
ソースデバイス100のメタデータプロセッサ150は、UHDビデオに対するメタデータをシンクデバイス100に伝送することができ、シンクデバイス220は、ディスプレイと関連するメタデータをソースデバイス100に伝送することができる。
【0165】
ソースデバイス100のデコーダーは、エンコーディングされたUHDビデオストリームを受信して復号することができる。
【0166】
カラーガマットマッピング部120は、デコーディングされたUHDビデオのカラーガマット情報をマッピングするが、この場合、シンクデバイス200のディスプレイ関連情報を用いたり、UHDビデオ内のメタデータに基づいてUHDビデオのカラーガマット情報をマッピングして変更することができる。
【0167】
又は、ダイナミックレンジマッピング部130は、デコーディングされたUHDビデオに対するダイナミックレンジをマッピングできるが、記述したように、シンクデバイス200のディスプレイ関連情報を用いたり、UHDビデオ内のメタデータに基づいてUHDビデオのダイナミックレンジをマッピングして変更することができる。
【0168】
ポストプロセッシング部140は、デコーディングされたUHDビデオに対してビデオポストプロセッシングを行うことができ、同様に、ディスプレイ関連情報に基づいてビデオポストプロセッシングを行うことができる。
【0169】
メタデータプロセッサ150は、UHDビデオのメタデータをシンクデバイス200に伝送し、シンクデバイスからディスプレイと関連するメタデータを受信することができる。
【0170】
オプションコントローラー160は、シンクデバイス200にビデオオプション情報を伝送し、シンクデバイス200からディスプレイオプション情報を受信することができる。シンクデバイス100からソースデバイス200に伝送するディスプレイオプション情報の例は、
図4〜
図10に例示した通りである。一方、ソースデバイス100からシンクデバイス200に伝送するビデオオプション情報は、
図11〜
図14の例に従うことができる。
【0171】
シンクデバイス200のソースデバイスコントローラー210は、ソースデバイス100をコントロールできるコントロール信号を伝送することができ、ユーザーからユーザーコントロール信号を受信することもできる。
【0172】
シンクデバイス200のメタデータコントローラー220は、ソースデバイス100からUHDビデオのメタデータを受信することができ、ディスプレイ機器と関連するメタデータをソースデバイス100に伝送することができる。メタデータプロセッサ220は、ソースデバイスコントローラー210にビデオプロセッシングコントロール信号を伝送し、ソースデバイスコントローラー210がコントロール信号を伝送するようにすることができる。
【0173】
パネルコントローラー230は、メタデータプロセッサ220のディスプレイコントロール信号によってディスプレイパネルを制御することができる。
【0174】
本発明の実施例は、ディスプレイに適応的なビデオ処理を可能にすることができる。すなわち、本発明の各実施例は、シンクデバイス200の性能によってそれぞれソース―シンクデバイス間の情報交換、ビデオプロセッシング、及びディスプレイされる方式がそれぞれ変わり得る。以下では、シンクデバイス200のメタデータ情報をソースデバイス100に伝送し、ソースデバイスでディスプレイ関連情報に基づいて映像処理をした後、シンクデバイス200でこれを受信し、ビデオを出力する例に対して詳細に記述する。
【0175】
まず、シンクデバイス200がハイエンドUHDシンクデバイスである場合に対する第1の実施例を開示する。
【0176】
シンクデバイス200がハイエンドUHDシンクデバイスである場合、シンクデバイス200は、ディスプレイ関連メタデータをソースデバイス100に伝送することができる。ディスプレイ関連情報は、ディスプレイのカラーガマット情報(又はRGBWに該当するカラープライマリー情報)及びディスプレイ明るさ範囲関連情報(例えば、ピーク輝度情報、ブラック輝度情報)を含むことができる。シンクデバイス200のメタデータプロセッサ220は、ディスプレイ関連情報を処理することができる。例えば、シンクデバイス200のメタデータプロセッサ220は、ディスプレイ関連情報を格納してコンテンツ処理及びディスプレイ時に参照することができ、必要に応じてソースデバイス100にこの情報を再び要請することもできる。
【0177】
ソースデバイス100は、ディスプレイ関連情報をシンクデバイス200に伝達するとき、ディスプレイの色相及び明るさと関連するメタデータのみならず、ソースデバイス100のコントロール信号も伝達することができる。
【0178】
ソースデバイス100のコントロール信号は、ソースデバイス100が如何なる種類のビデオプロセッシングを行えるのかに対する情報を含むことができる。ソースデバイス100のコントロール信号は、シンクデバイス200のソースデバイスコントローラー210が伝達するディスプレイ可能な色範囲に基づいて生成することもでき、シンクデバイス200から受けた情報なしでデフォルト処理要請によって生成することもできる。
【0179】
ソース―シンクデバイス間の情報交換過程は、二つのデバイスが連結された時点で動作するが、ソース―シンクデバイスが連結された状態で放送又はストリーミングコンテンツが入力される場合、コンテンツが変更される場合、又は特定シーン(scene)が変更される時点などで二つのデバイスの情報交換を再び行うことができる。
【0180】
シンクデバイス200がハイエンドUHDシンクデバイスである場合、ビデオプロセッシングは次のように処理することができる。
【0181】
ソースデバイス100のポストプロセッシング部140は、メタデータプロセッサ150からシンクデバイス200のディスプレイ関連情報に基づいてデコーディングされたUHDビデオに後処理を行うべきであるか否かを判断し、これに対するコントロール信号を出力することができる。ソースデバイス100は、UHDビデオのWCG情報又はHDR情報と関連する映像処理、例えば、カラーガマットマッピング又はダイナミックレンジマッピングを行うことができる。シンクデバイス200のディスプレイ性能がビデオの後処理後にUHDビデオを再生するのに十分である場合、ソースデバイス100のオプションコントローラー160は、ポストプロセッシング部140にそれに対する情報を伝達することができる。シンクデバイス200のディスプレイカラーガマット情報又は明るさ情報がビデオのWCG情報又はHDR情報を変更するのに基礎となり得る場合、メタデータプロセッサ150は、カラーガマットマッピング部120又はダイナミックレンジマッピング部130にディスプレイ関連メタデータを伝送することができる。
【0182】
ソースデバイス100のポストプロセッシング部140は、ビデオと共に伝送されるメタデータ、例えば、WCG SEIメッセージ又はHDR SEIメッセージを用いてポストプロセッシングを行うこともできる。ビデオデコーダー110又はポストプロセッシング部140は、スケーラブルコーディング(scalable coding)によって強化層(enhancement layer)データが伝送された場合、強化層データをデコーディングし、出力されるビデオの画質を高めることができる。
【0183】
出力ビデオの画質がディスプレイ画質に合わせて追加的に向上可能であるが、シンクデバイス200からのビデオ処理のための追加情報がない場合、ソースデバイス100は自体的に画質向上機能を行うことができる。
メタデータプロセッサ150は、デコーディング又は後処理されたビデオのWCG情報又はHDR情報を含むUHDビデオメタデータをシンクデバイス200に伝達する。また、オプションコントローラー160は、処理されたビデオプロセッシング情報をビデオオプション情報(video option signal)に含ませてソースデバイスコントローラー210に伝送することができる。ビデオオプション情報は、
図11〜
図14の例に従うことができる。
【0184】
デコーダー110が復号化した映像自体がディスプレイに適したビデオである場合、ビデオのWCG情報又はHDR情報に対して別途の処理なしで再生のためにシンクデバイス200に伝達することもできる。この場合、オプションコントローラー160は、ビデオに対して別途の処理がなかったことをシグナリングすることができる。
【0185】
シンクデバイス200は、UHDビデオをディスプレイ機器を通じて表出させることができる。この場合、シンクデバイス200は、ソースデバイス100を通じて処理された映像をそのまま再生できるが、ソースデバイス100が伝達する映像が実際にディスプレイに適する形に処理されたか否かを判断することができる。そして、シンクデバイス200のソースデバイスコントローラー210は、ソースデバイス100にコントロール信号を出力することができる。シンクデバイス200のソースデバイスコントローラー210は、映像が適切に処理されない場合、ソースデバイス100のビデオプロセッシングのうち問題となる部分を判断し、該当のビデオプロセッシングがオフになるように知らせることができる。このようなコントロール機能は、ユーザーの要請に応じてオン/オフになり得る。シンクデバイス200は、ソースデバイス100が処理可能な或いは処理しているビデオプロセッシングオプション(video processing option)をユーザーに出力し、これをコントロールできるメニュー又はインターフェース(UI)をユーザーに提供することができる。
【0186】
シンクデバイス200は、ディスプレイ機器の明るさ及び色相を調整できる機能を有する場合、シンクデバイス200のメタデータプロセッサ220の情報を分析した後、パネルコントローラー230を通じてディスプレイ機器を調整し、コンテンツに適した再生環境を提供することができる。
【0187】
次に、シンクデバイス200が既存のUHDシンクデバイスである場合に対する第2の実施例を開示する。第1の実施例と同一の部分に対する例は第1の実施例に従う。
【0188】
シンクデバイス200は、既存のUHDシンクデバイスに対するメタデータをソースデバイス100に伝送する。既存のUHDシンクデバイスに対するメタデータは、ディスプレイカラーガマット情報(或いはRGBWに該当するカラープライマリー情報)及びディスプレイ明るさ関連情報(例えば、ピーク輝度情報、ブラック輝度情報)を含むことができる。ソースデバイス100のメタデータプロセッサ150は、既存のUHDシンクデバイスに対するメタデータを受信して処理することができる。
【0189】
ソースデバイス100のオプションコントローラー160は、メタデータプロセッサ150で獲得したディスプレイ関連情報に基づいてデコーディングされたUHDビデオに対して後処理過程を経るか否かを判断し、コントロール信号を出力する。
【0190】
ディスプレイの性能がビデオで表現しようとする画質(色相及び明るさ)に及ばない場合、ビデオに適切な処理を経てディスプレイで表現可能な色相及び明るさに変化させることができる。例えば、ソースデバイス100のカラーガマットマッピング部120又はダイナミックレンジマッピング部130は、UHDビデオのカラーガマット情報やダイナミックレンジ情報をディスプレイ機器に合う情報にマッピングすることができる。
【0191】
ソースデバイス100は、ビデオデータ内のメタデータ、例えば、WCG SEIメッセージ、HDR SEIメッセージなどに基づいてこれを変換させることもでき、ソースデバイス100の自体的機能によってこれを行うこともできる。ビデオデータのWCG情報又はHDR情報が変更された場合、オプションコントローラー160は、これをビデオオプション情報(video option signal)に含ませてシンクデバイス200に伝送することができる。ビデオオプション情報は、
図11〜
図14の例に従うことができる。
【0192】
シンクデバイス200のディスプレイの色相及び明るさ表現範囲がビデオの色相及び明るさ範囲をサポートできる場合、ソースデバイス100は、追加的なビデオプロセッシングなしでビデオをシンクデバイス200に伝送することができる。そして、ソースデバイス100のオプションコントローラー160は、UHDビデオのメタデータ、WCG情報又はHDR情報が処理されていないことをビデオオプション信号(video option signal)を通じてシンクデバイス200に伝達することができる。
【0193】
シンクデバイス200のディスプレイ機器は、UHDビデオを再生することができる。シンクデバイス200が受信したUHDビデオのWCG情報又はHDR情報がシンクデバイス200のディスプレイ機器に適切でないと判断される場合、ソースデバイスコントローラー210は、これに対するコントロール信号をソースデバイス100に伝達することができる。ユーザーは、ユーザーメニュー又はインターフェース(UI)を通じてディスプレイ機器と関連する機能を調節することもできる。
【0194】
図16は、本発明の一実施例に係るEOTFタイプの構成を示した図である。
本発明の一実施例によると、EOTFタイプが000であると、予備ビットであることをを示すことができ、EOTFタイプが001であると、EOTF_type1の変換曲線が使用されることを示すことができ、EOTFタイプが010であると、EOTF_type2の変換曲線が使用されることを示すことができ、EOTFタイプが011〜111であると、ユーザープライベートであることを示すことができる。
【0195】
図17は、本発明の一実施例に係るDCI―P3カラーガマットをシグナリングするための方法を示した図である。
本発明は、DCI―P3などの新たなカラーガマットを定義するために、次のような実施例を提供することができる。
【0196】
本発明の一実施例は、既存のAVI InfoFrame17010内のデータバイト2に含まれたC1及びC0フィールドを用いて、カラーガマットの拡張のためにデータバイト3に含まれたEC2〜EC0フィールドが使用されることをシグナリングすることができる(17020)。そして、EC2〜EC0フィールドの予備ビットを用いてDCI―P3をシグナリングすることができる。すなわち、EC2〜EC0が111であると、DCI―P3が使用されることを示すことができる(17030、17040)。
【0197】
本発明の他の一実施例は、既存のAVI InfoFrame17010内のデータバイト3に含まれたEC2〜EC0フィールドの予備ビットを用いてカラリメトリの拡張があることをシグナリングすることができる。すなわち、EC2〜EC0が111であると、カラリメトリの拡張があることを示すことができる(17030、17050)。そして、上述したAVI InfoFrame内のデータバイト19又は上述したダイナミックレンジ及びマスタリングInfoFrame内のデータバイト6に含まれた予備ビットであるS3〜S0フィールドを用いてDCI―P3が使用されることをシグナリングすることができる(17060、17070)。このとき、必要に応じて3ビット以下又はこれを超えるビットを使用することができる。さらに、上述した予備ビットであるS3〜S0フィールドを用いて任意のカラーガマットが使用されることをシグナリングすることができる(17070)。
【0198】
図18は、本発明の他の一実施例に係るDCI―P3カラーガマットをシグナリングするための方法を示した図である。
【0199】
本発明の一実施例は、既存のAVI InfoFrame18010内のデータバイト2に含まれたC1及びC0フィールドを用いて、カラーガマットの拡張のためにデータバイト3に含まれたEC2〜EC0フィールドが使用されることをシグナリングすることができる(18020)。そして、既存のAVI InfoFrame18010内のデータバイト3に含まれたEC2〜EC0フィールドの予備ビットを用いてカラリメトリの拡張があることをシグナリングすることができる。すなわち、EC2〜EC0が111であると、カラリメトリの拡張があることを示すことができる(18030、18040)。そして、本発明の一実施例に係るダイナミックレンジ及びマスタリングInfoFrame内の予備ビットを用いてDCI―P3が使用されることをシグナリングすることができる。例えば、この図面に示したように、データバイト1に含まれた予備ビットを使用することができる(18060)。さらに、上述した予備ビットを用いて任意のカラーガマットが使用されることをシグナリングすることができる(18050)。
【0200】
図19は、本発明の更に他の一実施例に係るDCI―P3カラーガマットをシグナリングするための方法を示した図である。
本発明の一実施例は、DCI―P3などの新たなカラーガマットをシグナリングするために新たなInfoFrameを定義することができる。例えば、InfoFrameタイプが0x08であるInfoFrameを新たに定義し、新たなカラーガマットのためのビットを割り当て、新たなカラーガマットが使用されることをシグナリングすることができる。
【0201】
本発明の他の一実施例は、既存のAVI InfoFrameフォーマットを拡張する方法であって、この図面に示したように、データバイト14を新たに定義することができる。このとき、既存のAVI InfoFrame内のデータバイト2に含まれたC1及びC0フィールドを用いて、カラーガマットの拡張のためにデータバイト3に含まれたEC2〜EC0フィールドが使用されることをシグナリングすることができる。そして、既存のAVI InfoFrame内のデータバイト3に含まれたEC2〜EC0フィールドの予備ビットを用いてカラリメトリの拡張があることをシグナリングすることができる。すなわち、EC2〜EC0が111であると、カラリメトリの拡張があることを示すことができる。ここで、本発明の一実施例は、下位互換性を考慮する場合、既存のAVI InfoFrameと同一のバージョン番号を使用しながら、データバイト3のEC2〜EC0フィールドが111であると、カラリメトリの拡張があると認識し、データバイト14を読み込むことができる。その一方、下位互換性を考慮しなくてもよい場合、この図面に示したように、本発明の他の一実施例は、AVI InfoFrameに新たなバージョン番号を付与し、AVI InfoFrameの長さを14に設定し、該当のInfoFrameがデータバイト14まで定義されていることをシグナリングし、データバイト3のEC2〜EC0フィールドが111であると、カラリメトリの拡張があると認識し、該当のカラリメトリをシグナリングすることができる。
【0202】
図20は、本発明の一実施例によってシンクデバイスが処理可能な伝達関数に対する情報を伝達するための方法を示した図である。
この図面は、DisplayIDのデータブロックを用いてソースデバイスがシンクデバイスに伝達する情報の例を示すことができ、この図面に示したオフセットフィールドが0x00〜0x05である場合に対する詳細な説明は上述した通りである。
【0203】
本発明の一実施例は、この図面に示したように、オフセットフィールドを割り当て、シンクデバイスの伝達関数関連情報を追加的に伝達することができる。このとき、本発明の一実施例は、予め指定されている伝達関数(BT.1886、SMPTE ST 2084など)をシグナリングすることができ、任意の伝達関数に対する詳細情報をシグナリングすることができる。
【0204】
この図面に示したように、オフセットフィールドが0x06であると、このフィールドは、伝達関数タイプフラグ(Transfer Function Type flag)を示すことができる。伝達関数タイプフラグは、伝達関数タイプをシグナリングすることができる。本発明の一実施例は、それぞれの伝達関数をフラグに指定することによって、複数の伝達関数をサポートする場合にも、サポートする全ての伝達関数を同時にシグナリングすることができる。ここで、伝達関数は、BT.1886、SMPTE ST 2084、伝統的ガンマ(Traditional gamma)―SDR輝度範囲(Luminance Range)、伝統的ガンマ(Traditional gamma)―HDR輝度範囲(Luminance Range)などを含むことができる。ここで、伝達関数は、EOTF(Electro Optical Transfer Function)を含むことができる。
【0205】
オフセットフィールドが0x07〜0x0Aであると、このフィールドは、不特定(Unspecified)のTF詳細(details)を示すことができる。本発明の一実施例は、任意の伝達関数をサポートする場合、別途のシグナリングを通じてこれを表現することができる。例えば、任意の伝達関数をサポートする場合、伝達関数タイプフラグ=0x80(16進数)又は10000000(2進数)と示すことができる。本発明の一実施例は、任意の伝達関数もその種類が多様な場合を考慮して、各伝達関数のタイプをシグナリングし、各タイプによって必要な係数の個数、ビットデプス、各タイプによる最大/最小明るさ情報などの付加情報を伝達することができる。このとき、伝達関数タイプは、多くの種類の伝達関数のうち一つを称することができ、複数の伝達関数を伝達する場合、複数の伝達関数が使用されることを示すビット(例えば、タイプの個数(Number of types)フィールド)を別途に割り当てた後、このフィールドを用いて複数の伝達関数の順序を示すことができる。不特定のTF詳細が含む情報に対しては、後で詳細に説明する。
【0206】
オフセットフィールドが0x0B又はそれ以上であると、このフィールドは、不特定のTF係数を示すことができる。本発明の一実施例は、このフィールドを用いて任意の伝達関数に対する係数情報を伝達することができる。上述した係数情報は、伝達関数の変曲点、区間、使用される関数に対する情報などを含むことができる。
【0207】
本発明の一実施例によると、シンクデバイスがソースデバイスに伝達する情報は、EDID(Extended Display Identification Data)情報と命名することができる。ここで、EDID情報は、シンクデバイスの性能を示すことができる。さらに、EDID情報は、シンクデバイスのHDRに関する性能を示すHDRスタティックメタデータブロック(HDR Static Metadata Data Block)を含み、前記HDRスタティックメタデータは、上述した伝達関数タイプに対する情報を含むことができる。
【0208】
本発明の一実施例に係るEDID情報は、一つ以上のデータブロックを含むことができる。
【0209】
本発明の一実施例に係るHDRスタティックメタデータは、データブロックに含ませて伝送することができる。さらに、HDRスタティックメタデータは、該当データブロックがHDRスタティックメタデータを含むデータブロックであることを識別する情報及び/又は該当データブロックの長さを示す情報を含むことができる。
【0210】
図21は、本発明の一実施例によってシンクデバイスが処理可能な伝達関数に対する情報を伝達するための方法に使用される具体的なフィールド値を示した図である。
【0211】
本発明の一実施例によると、オフセットが0x06であるフィールドは伝達関数タイプを示すために使用し、0x07〜0x0Aフィールドは不特定のTF詳細を示すために使用し、0x0B〜それ以上のフィールドは不特定のTF係数を示すために使用することができる。ここで、不特定のTF詳細は、任意の伝達関数をシンクデバイスがサポートする場合、任意の伝達関数に対する付加情報を示し、任意の伝達関数の終了(不特定の伝達関数のタイプ(Type of Unspecified Transfer Function ))、任意の伝達関数に使用された係数の個数(不特定伝達関数内の係数の個数(Number of coefficients in Unspecified Transfer Function))、任意の伝達関数を複数の伝達関数が構成する場合、各伝達関数のタイプの個数(Number of types)、ビットデプス、シンクデバイスの最小明るさ情報(Lowest Brightness level of Sink device)及び/又はシンクデバイスの最大明るさ情報(Highest Brightness level of Sink device)を含むことができる。
【0212】
オフセットフィールドが0x06である場合、バリュー値の上位1ビットは、シンクデバイスが不特定の伝達関数を処理可能であることを示すことができ、その次の1ビットは、BT.1886によるEOTFを処理可能であることを示すことができ、その次の1ビットは、SMPTE ST 2084によるEOTFを処理可能であることを示すことができる。
【0213】
オフセットフィールドが0x07である場合、バリュー値の上位4ビットは、不特定の伝達関数のタイプ(Type of Unspecified Transfer Function )を示すために使用することができ、下位4ビットは、不特定の伝達関数内の係数の個数(Number of coefficients in Unspecified Transfer Function)を示すために使用することができる。
【0214】
オフセットフィールドが0x08である場合、バリュー値の上位2ビットは、タイプの個数(Number of types)を示すために使用することができ、その次の2ビットは、ビットデプスを示すために使用することができる。
【0215】
オフセットフィールドが0x09である場合、バリュー値は、シンクデバイスの最小明るさ情報(Lowest Brightness level of Sink device)を示すことができる。
【0216】
オフセットフィールドが0x0Aである場合、バリュー値の上位1ビットは、シンクデバイスの最小明るさ情報(Lowest Brightness level of Sink device)をLSBと示すことができ、残りの7ビットは、シンクデバイスの最大明るさ情報(Highest Brightness level of Sink device)を示すことができる。
【0217】
オフセットフィールドが0x0B〜それ以上である場合、バリュー値は、任意の伝達関数に使用される係数情報を示すことができる。
【0218】
図22は、本発明の一実施例に係る超高画質放送信号受信装置の動作を示したフローチャートである。
【0219】
本発明の一実施例に係る超高画質放送信号受信装置は、逆多重化部(Demultiplexer)1010、デコーダー(Decoder)1020、EOTF遂行部(Electro―Optical Transfer Function)1030、区分部1040及び/または制御部(Controller)1050を含むことができる。
【0220】
逆多重化部(Demultiplexer)1010は、受信部(Receiver)(図示せず)を含むことができる。受信部は、超高画質放送コンテンツを受信することができ、広域明るさ範囲メタデータ(High Dynamic Range metarada;HDR metadata)を受信することができる。広域明るさ範囲メタデータは、超高画質放送コンテンツで表現された明るさ情報、及び受信装置のディスプレイ環境に適するように超高画質放送コンテンツを変換させる方法に対する情報を示すことができる。逆多重化部は、多重化されて受信された超高画質放送ストリーム(UHD stream)をそれぞれの単位ストリーム(Elementary Stream)に逆多重化させることができる。例えば、単位ストリームは、ビデオデータを伝送するビデオ単位ストリーム、オーディオデータを伝送するオーディオ単位ストリームなどを含むことができる。広域明るさ範囲メタデータも、超高画質メディアデータと共に多重化されて一つの超高画質放送ストリームとして受信され得る。この場合、逆多重化部は、多重化されて受信された超高画質放送ストリームをそれぞれの単位ストリーム及び/またはディスプレイ情報メタデータに逆多重化させることができる。
【0221】
デコーダー(Decoder)1020は、逆多重化された単位ストリームが伝送するメディアデータ及び/またはディスプレイ情報メタデータをデコーディングすることができる。単位ストリームが伝送するメディアデータは、超高画質ビデオデータを含むことができる。
【0222】
EOTF遂行部(Electro―Optical Transfer Function)1030は、デコーディングされた超高画質ビデオデータを対象にしてエンコーディング(encoding)過程で使用されていた伝送曲線(transfer curve)に沿って適切な演算を行うことができる。このとき、既存のEOTF以外にも、HDRに適したEOTFを使用することができ、任意のEOTFを新たに定義して使用することができる。既存のEOTFの一例として、ITU―R BT.1886に記載のガンマ(gamma)変換がこれに該当し得る。HDRに適したEOTFの一例として、知覚的量子化(Perceptual Quantization)などがこれに該当し得る。任意のEOTFとしては、新たな(new)―EOTFを使用することができる。EOTF遂行部で使用されるEOTFに対する情報は、VUIメッセージ(音声ユーザーインターフェースメッセージ(Voice User Interface message))またはメタデータを介して伝送することができる。上述したEOTFに対する情報は、本発明の一実施例に係る広域明るさ範囲メタデータに含ませて伝送することができ、これに関しては後で詳細に説明する。EOTF遂行部によるEOTF遂行は、受信装置の動作の流れに従って制御部の処理過程後に行うことができ、制御部の処理過程中に行うことができる。当該図面に示したように、本発明の一実施例に係る受信装置の動作では、線形明るさグラデーション(linear luminance gradation)での変換を仮定している。したがって、本発明の一実施例に係る受信装置は、デコーディング直後にEOTFを行う。ここで、EOTF(Electro―Optical Transfer Function;EOTF)とは、ディスプレイのデジタル入力値と出力明るさ値との関係を示したり、ディスプレイの入力明るさ値と出力デジタル値との関係を示す変換関数である。
【0223】
区分部1040は、本発明の一実施例に係る受信装置のディスプレイで表現可能な明るさ範囲(Dynamic Range;DR)情報と、広域明るさ範囲メタデータを通じて受信された超高画質放送コンテンツの明るさ範囲情報とを比較してコンテンツの変換有無を判断することができる。ここで、受信装置のディスプレイで表現可能な明るさ範囲情報は、受信装置で表現可能な明るさ範囲の最大値、最小値及びビット深度(bit depth)を含むことができる。ここで、超高画質放送コンテンツの明るさ範囲情報は、超高画質放送コンテンツで表現された最大基準明るさを示す最大基準明るさ情報、超高画質放送コンテンツで表現された最小基準明るさを示す最小基準明るさ情報、及びビット深度(bit depth)を含むことができる。区分部は、既に設定された判断基準に従って受信装置のディスプレイ環境を区分することができる。本発明の一実施例によると、受信装置のディスプレイ環境は、既存の明るさ範囲を有するディスプレイ(場合1)、既存の明るさ範囲より広い明るさ範囲を有するが、超高画質放送コンテンツで表現された明るさ範囲を全て収容できないディスプレイ(場合2)、及び超高画質放送コンテンツで表現された明るさ範囲より広い範囲を表現できるディスプレイ(場合3)のうちいずれか一つに区分することができる。ここで、受信装置のディスプレイ環境の区分のための既に設定された判断基準と既存の明るさ範囲に対しては、後で詳細に説明する。
【0224】
制御部(Controller)1050は、本発明の一実施例に係る受信装置のディスプレイ環境に適するように超高画質放送コンテンツを変換させることができる。また、区分部で区分された本発明の一実施例に係る受信装置のディスプレイ環境に適するように超高画質放送コンテンツを変換させることができる。制御部は、超高画質放送コンテンツで表現された明るさ範囲を既に設定された判断基準に従って区分することができ、区分された各区間別に異なる種類の変換方法を用いて超高画質放送コンテンツを変換させることができる。ここで、コンテンツで表現された明るさ範囲を区分する判断基準に対しては後で説明する。制御部は、本発明の一実施例に係る受信装置のディスプレイ環境が、第1の場合または第2の場合であるときは、受信した広域明るさ範囲メタデータを用いて超高画質放送コンテンツを変換させることができ、第3の場合であるときは超高画質放送コンテンツを変換させない。
【0225】
本発明の一実施例に係る超高画質放送信号受信装置は、超高画質放送コンテンツを再生する再生部を含むことができる。再生部は、後述するクリッピングオプションが使用される場合、超高画質放送コンテンツで表現された全体の明るさ範囲のうち後述するクリッピング明るさ範囲情報が示す特定範囲の明るさに対してのみ再生することができる。
【0226】
本発明の一実施例に係る超高画質放送コンテンツを変換させる過程は、視聴者によってTVのプリセット(preset)に予め指定することができ、この場合、別途の選択段階なしで自動的に超高画質放送コンテンツを変換させることができる。TVのプリセット(preset)にコンテンツの変換有無を予め指定した場合は、チャンネル転換時にもこのような設定を同一に維持することができる。コンテンツの変換有無は、超高画質放送コンテンツ供給段階で指定することができ、この場合、受信装置でコンテンツの変換をサポートする場合、別途の選択段階なしで自動的にコンテンツを変換させることができる。
【0227】
本発明の一実施例によると、超高画質放送コンテンツで表現された明るさ情報などを含む広域明るさ範囲メタデータは、シーンバイシーン(scene by scene)で受信することができる。
本発明の一実施例によると、予約視聴環境でもEPG(Electronic Program Guide)などを通じて広域明るさ範囲メタデータを基盤にする広域明るさ範囲を有する超高画質放送コンテンツに対して予め知らせることができる。この場合、視聴者は、EPG上の特定コンテンツの変換を予約することができる。このとき、受信装置は、これを記憶してから、当該コンテンツが選択されたとき、自動的に超高画質放送コンテンツを受信装置のディスプレイ環境に適するように変換させることができる。
【0228】
本発明の一実施例に係る受信装置は、チャンネル転換時、現在チャンネルで放映される受信装置のディスプレイ環境に合わせて変換されたコンテンツの変換関連情報を記憶することができ、その後、現在のチャンネルに再び戻り、該当コンテンツが継続して放映中であるとき、以前に記憶された変換関連情報を再び使用して再生することができる。
【0229】
本発明の一実施例に係る受信装置は、受信される超高画質放送コンテンツに適したディスプレイ環境で受信装置のディスプレイ環境を調整するのに必要なディスプレイ情報メタデータを受信することができる。この場合、本発明の一実施例に係る受信装置は、受信したディスプレイ情報メタデータを用いて超高画質放送コンテンツに適するように受信装置のディスプレイ環境を調整することができる。
【0230】
図23は、本発明の一実施例に係る受信装置のディスプレイ環境を区分する判断基準を示した図である。
本発明の一実施例に係る超高画質放送信号受信装置のディスプレイ環境は、既存の明るさ範囲を有するディスプレイ(場合1)、既存の明るさ範囲より広い明るさ範囲を有するが、超高画質放送コンテンツで表現された明るさ範囲を全て収容できないディスプレイ(場合2)、及び超高画質放送コンテンツで表現された明るさ範囲より広い範囲を表現できるディスプレイ(場合3)のうちいずれか一つに区分することができる。
【0231】
本発明の一実施例に係る受信装置のディスプレイ環境を区分する判断基準は、超高画質放送コンテンツで表現された最大基準明るさを示す最大基準明るさ情報(luminance_max)、超高画質放送コンテンツで表現された明るさ範囲のうち必須的に表現されなければならない明るさ範囲の最大値を示す必須最大明るさ情報(luminance_upper_bound)、及び超高画質放送信号受信装置のディスプレイで表現可能な明るさ範囲の最大値(max_display_brightness)が該当し得る。
【0232】
当該図面を見ると、受信装置のディスプレイで表現可能な明るさ範囲の最大値(max_display_brightness)が、コンテンツで表現された最大基準明るさ(luminance_max)に既に設定された値(alpha)を足した値より大きいか同じであると、本発明の一実施例に係る受信装置のディスプレイは場合3に区分することができる。そして、場合3に該当しないと共に、受信装置のディスプレイで表現可能な明るさ範囲の最大値(max_display_brightness)がコンテンツで必須的に表現されなければならない明るさ範囲の最大値である必須最大明るさ(luminance_upper_bound)に既に設定された値(beta)を足した値より小さいか同じであると、本発明の一実施例に係る受信装置のディスプレイは場合1に区分することができる。そして、場合3及び場合1の条件を満足しないと、本発明の一実施例に係る受信装置のディスプレイは場合2に区分することができる。ここで、既存の明るさ範囲を有するディスプレイ(場合1)において、既存の明るさ範囲は、コンテンツで必須的に表現されなければならない明るさ範囲の最大値である必須最大明るさ(luminance_upper_bound)に既に設定された値(beta)を足した値より小さい範囲を意味し得る。当該図面において、アルファ(alpha)及びベータ(beta)値は、本発明の一実施例に係る受信装置のディスプレイ及び超高画質放送コンテンツの特性を参照して予め設定することができ、追加的に伝送することができる。
【0233】
本発明の一実施例によると、当該図面で既に設定された値であるアルファ(alpha)及びベータ(beta)は0に設定することができる。この場合、本発明の一実施例に係る受信装置のディスプレイ環境は、受信装置のディスプレイで表現可能な明るさ範囲の最大値が、必須最大明るさ情報が示す値より小さいか同じ第1の場合(場合1)、受信装置のディスプレイで表現可能な明るさ範囲の最大値が、必須最大明るさ情報が示す値より大きく、最大基準明るさ情報が示す値より小さい第2の場合(場合2)、及び受信装置のディスプレイで表現可能な明るさ範囲の最大値が、最大基準明るさ情報が示す値より大きいか同じ第3の場合(場合3)に区分することができる。
【0234】
本発明の一実施例によると、超高画質放送信号受信装置のディスプレイ環境を区分するための判断基準として、最大基準明るさ情報、必須最大明るさ情報及び受信装置のディスプレイで表現可能な明るさ範囲の最大値を用いることができる。ここで、明るさ範囲の最大値を判断基準として用いる理由は、LDR(Low dynamic Range)映像に比べて、HDR映像で高輝度成分(明るい部分)の比重が相対的に高いためである。しかし、必要に応じて、低輝度成分(暗い部分)を判断基準として超高画質放送信号受信装置のディスプレイ環境を区分することができる。この場合、超高画質放送コンテンツで表現された最小基準明るさを示す最小基準明るさ情報(luminance_min)、超高画質放送コンテンツで表現された明るさ範囲のうち必須的に表現されなければならない明るさ範囲の最小値を示す必須最小明るさ情報(luminance_lower_bound)及び超高画質放送信号受信装置のディスプレイで表現可能な明るさ範囲の最小値(min_display_brightness)が本発明の一実施例に係る受信装置のディスプレイ環境を区分する判断基準となり得る。
【0235】
本発明の一実施例に係る受信装置のディスプレイ環境を区分するために用いられる判断基準は、後述する広域明るさ範囲メタデータに含ませて伝送することができる。
【0236】
図24は、本発明の一実施例に係る超高画質放送コンテンツの映像処理過程を示した図である。
本発明の一実施例に係る超高画質放送コンテンツの映像処理過程は、EOTF遂行段階(Electro―Optical Transfer Function;S3010)、ディスプレイ明るさ範囲区分段階(Display Dynamic Range Categorization;S3020)、コンテンツ変換段階(Display Adaptive Dynamic Range transformation;S3030)及び/または量子化段階(Quantization;S3040)を含むことができる。
EOTF遂行段階(Electro―Optical Transfer Function;S3010)でデコーディングされた超高画質ビデオデータは、EOTF関数を用いて変換させることができる。EOTF遂行に関する詳細な説明は、上述した本発明の一実施例に係る受信装置のEOTF遂行部1030に対する説明に取り替える。
【0237】
ディスプレイ環境区分段階(Display Dynamic Range Categorization;S3020)において、本発明の一実施例に係る受信装置のディスプレイ環境は、既に設定された判断基準に従って既存の明るさ範囲を有するディスプレイ(場合1)、既存の明るさ範囲より広い明るさ範囲を有するが、超高画質放送コンテンツで表現された明るさ範囲を全て収容できないディスプレイ(場合2)、及び超高画質放送コンテンツで表現された明るさ範囲より広い範囲を表現できるディスプレイ(場合3)のうちいずれか一つに区分することができる。これに関する詳細な説明は、上述した本発明の一実施例に係る受信装置の区分部1040に対する説明に取り替える。以下、本明細書では、区分された受信装置のディスプレイ環境(場合1、場合2、場合3)のそれぞれに対して、本発明の一実施例に係る受信装置の動作を区分して説明する。
【0238】
コンテンツ変換段階(Display Adaptive Dynamic Range transformation;S3030)において、本発明の一実施例に係る受信装置の制御部は、受信装置のディスプレイ環境を考慮して受信された超高画質放送コンテンツの明るさ範囲(Dynamic Range;DR)を変換させることができる。以下、ディスプレイ環境区分段階(S3020)で区分された受信装置のディスプレイ環境の各場合に対して区分して説明する。
【0239】
本発明の一実施例に係る超高画質放送信号受信装置が、既存の明るさ範囲を有するディスプレイを有する場合(場合1)、ディスプレイの明るさ範囲(DR)がコンテンツの明るさ範囲(DR)を十分に収容できない場合に該当し得る。この場合、以下の各変換方法を通じて受信装置の特性を考慮して、製作者の意図によってコンテンツを変換させることができる。
【0240】
本発明の一実施例によると、超高画質放送コンテンツの変換のためにクリッピング(clipping)オプションを使用することができる。クリッピングとは、一定成分以上または以下の明るさ成分に対してディスプレイしないように設定するオプションである。明るさ範囲(DR)上でコンテンツの明るさ成分が一定区間内に集中していると判断され、別途の変換を行わないことが受信装置のディスプレイで該当コンテンツを再生するのに最適な状況であると判断される場合、クリッピング方法を使用することができる。後述する広域明るさ範囲メタデータ(HDR metadata)に含まれたクリッピングフラグ情報(clipping_flag)を1に指定することによって、クリッピングオプションが使用可能であることを示すことができる。クリッピングフラグ情報(clipping_flag)が1を示す場合、受信装置のディスプレイで別途の変換なしで再生されることを望む領域の明るさに対するデジタル値であるクリッピング明るさ範囲情報(luma_cliping_upper_bound、luma_clipping_lower_bound)をシグナリングすることができる。クリッピング明るさ範囲情報は、後述する広域明るさ範囲メタデータに含ませて伝送することができる。クリッピングオプションは、クリッピングオプションの使用後にも、コンテンツ自体の飽和欠陥(saturation artifact)による問題が少なく発生するという効果がある。また、超高画質放送コンテンツで表現しようとする明るさ範囲(DR)領域、すなわち、受信装置のディスプレイで別途の変換なしで再生されることを望む明るさ範囲領域(luma_cliping_upper_bound、luma_clipping_lower_bound)及びビット深度(bit depth)が、現在の受信装置のディスプレイで明るさ範囲(DR)及びビット深度(bit depth)と一致する場合、コンテンツの核心明るさ領域の情報を現在の受信装置のディスプレイで最大限に表現することができる。
【0241】
本発明の一実施例によると、超高画質放送コンテンツの変換のために線形明るさ範囲変換(linear dynamic range transformation)方法を使用することができる。線形明るさ範囲変換とは、超高画質放送コンテンツ製作者によって予め定められた変換式を使用する方法のうち一つであって、コンテンツの全体明るさ範囲(DR)に対して線形マッピング(linear mapping)をする方法である。後述する広域明るさ範囲メタデータ(HDR metadata)に含まれた線形マッピングフラグ情報(linear_mapping_flag)を1に指定することによって、線形明るさ範囲変換方法が使用されることを示すことができる。また、後述する広域明るさ範囲メタデータ(HDR metadata)に含まれた必須最大明るさ情報と最大基準明るさ情報とを同一の値に設定し、必須最小明るさ情報と最小基準明るさ情報とを同一の値に設定した後、核心明るさ領域に使用される変換曲線の種類を識別する変換曲線タイプ情報を0x00に設定することによって、線形明るさ範囲変換方法が使用されることを示すことができる。ここで、必須最大明るさ情報、最大基準明るさ情報、必須最小明るさ情報、最小基準明るさ情報、核心明るさ領域及び変換曲線タイプ情報に対しては、後で詳細に説明する。
【0242】
本発明の一実施例によると、超高画質放送コンテンツの変換のために適応性明るさ範囲変換(adaptive dynamic range transformation)方法を使用することができる。適応性明るさ範囲変換とは、超高画質放送コンテンツ製作者によって予め定められた変換式を区間によって異なる形に適用する方法である。本発明の一実施例に係る超高画質放送信号受信装置のディスプレイで表現される多様な明るさ範囲をサポートするために、超高画質放送コンテンツの明るさ範囲(DR)は三つの区間に区分することができる。超高画質放送コンテンツの明るさ範囲(DR)は、必須最小明るさ情報(luminance_lower_bound)と必須最大明るさ情報(luminance_upper_bound)との間の領域を示す核心明るさ範囲領域、必須最大明るさ情報(luminance_upper_bound)と最大基準明るさ情報(luminance_max)との間の領域を示す上位明るさ範囲領域、及び最小基準明るさ情報(luminance_min)と必須最小明るさ情報(luminance_lower_bound)との間の領域を示す下位明るさ範囲領域に区分することができる。ここで、核心明るさ範囲領域は核心領域と略称し、上位明るさ範囲領域は上位領域と略称し、下位明るさ範囲領域は下位領域と略称することができる。区分された各区間が受信装置のディスプレイの明るさ範囲(DR)で占める比率を伝送することができる。核心明るさ範囲領域比率(mid_DR_percentage)及び上位明るさ範囲領域比率(upper_DR_percentage)が伝送されることによって、計算を通じてそれぞれのディスプレイに合う区間別の明るさを設定することができる。ここで、下位明るさ領域比率は、100から核心明るさ範囲領域比率及び上位明るさ範囲領域比率を差し引くことによって計算することができる。本発明の一実施例に係る適応性明るさ範囲変換方法の変換過程に製作者の意図を反映するために、後述する広域明るさ範囲メタデータを通じてコンテンツの明るさ範囲の区分のための情報(luminance_upper_bound、luminance_lower_bound)、区分された各区間に対する情報(luma_upper_value、luma_lower_value)、及び区分された各区間に対する変換式に対する情報(mid_DR_transformation_curve_type、upper_DR_transformation_curve_type、lower_DR_transformation_curve_type)を伝送することができる。ここで、必須最小明るさ情報(luminance_lower_bound)、必須最大明るさ情報(luminance_upper_bound)、最大基準明るさ情報(luminance_max)、最小明るさ情報(luminance_lower_bound)及び核心明るさ範囲領域比率(mid_DR_percentage)、上位明るさ範囲領域比率(upper_DR_percentage)に対しては、後で詳細に説明する。
【0243】
本発明の一実施例に係る超高画質放送信号受信装置が既存に比べて広い明るさ範囲(DR)を有するが、超高画質放送コンテンツの明るさ範囲(DR)を全て収容できない場合(場合2)、以下の各変換方法を通じて受信装置の特性及び製作者の意図を考慮してコンテンツを変換させることができる。
本発明の一実施例によると、超高画質放送信号受信装置が既存の明るさ範囲を有するディスプレイを有する場合(場合1)と同様に、超高画質放送コンテンツの変換のためにクリッピング(clipping)オプションを使用することができる。これに対する説明は、上述した場合1でクリッピングに対する説明に取り替える。
【0244】
本発明の一実施例によると、超高画質放送信号受信装置が既存の明るさ範囲を有するディスプレイを有する場合(場合1)と同様に、超高画質放送コンテンツの変換のために線形明るさ範囲変換(linear dynamic range transformation)方法を使用することができる。これに対する説明は、上述した場合1で線形明るさ範囲変換方法に対する説明に取り替える。さらに、超高画質放送信号受信装置が既存に比べて広い明るさ範囲(DR)を有するが、超高画質放送コンテンツの明るさ範囲(DR)を全て収容できない場合(場合2)は、受信装置のディスプレイで表現可能な追加明るさ範囲(DR)考慮のための明るさ範囲の差値(luminance_upper_bound_diff[i])を伝送することによって線形明るさ範囲変換区間を定めることができる。ここで、追加明るさ範囲(DR)考慮のための明るさ範囲の差値(luminance_upper_bound_diff[i])は、後述する広域明るさ範囲メタデータに含ませて伝送することができる。
【0245】
本発明の一実施例によると、超高画質放送信号受信装置が既存の明るさ範囲を有するディスプレイを有する場合(場合1)と同様に、超高画質放送コンテンツの変換のために適応性明るさ範囲変換(adaptive dynamic range transformation)方法を使用することができる。これに対する説明は、上述した場合1で適応性明るさ範囲変換方法に対する説明に取り替える。さらに、本発明の一実施例に係る超高画質放送信号受信装置が既存に比べて広い明るさ範囲(DR)を有するが、超高画質放送コンテンツの明るさ範囲(DR)を全て収容できない場合(場合2)の適応性明るさ範囲変換方法は、既存の明るさ範囲を有する場合1に比べて追加された明るさ範囲(DR)をうまく活用できる方法である。追加領域差情報(luminance_upper_bound_diff[i])、変更核心明るさ範囲領域比率情報(mid_DR_percentage[i])及び変更上位明るさ範囲領域比率情報(upper_DR_percentage[i])を使用してコンテンツで表現された明るさ範囲の各区間別の明るさ範囲(DR)の変換程度を調節することができる。
【0246】
max_display_brightness<luminance_upper_bound+luminance_upper_bound_diff[0]+・・・+luminance_upper_bound_diff[i]を満足する場合、すなわち、超高画質放送信号受信装置のディスプレイで表現可能な明るさ範囲の最大値(max_display_brightness)が、必須最大明るさ情報(luminance_upper_bound)に追加領域差情報(luminance_upper_bound_diff[i])を足した値より小さい場合は、核心明るさ範囲領域及び/または上位明るさ範囲領域を変更することができ、これによって、変更された領域に適用される変換曲線も変更されるので、後述する変更上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type[i])、変更上位領域変換曲線細部情報(upper_DR_transformation_curve())、変更上位明るさ範囲領域比率情報(upper_DR_percentage[i])及び/または変更核心明るさ範囲領域比率情報(mid_DR_percentage[i])を新たに適用することができる。上述した追加領域差情報、変更上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type[i])、変更上位領域変換曲線細部情報(upper_DR_transformation_curve())、変更上位明るさ範囲領域比率情報(upper_DR_percentage[i])及び/または変更核心明るさ範囲領域比率情報(mid_DR_percentage[i])に対しては、後で詳細に説明する。
【0247】
本発明の一実施例に係る超高画質放送信号受信装置が既存に比べて広い明るさ範囲(DR)を有するが、超高画質放送コンテンツの明るさ範囲(DR)を全て収容できない場合(場合2)、一般ディスプレイの既存の明るさ範囲と比較すると、追加された明るさ範囲(DR)によって全体の出力明るさ範囲(output dynamic range)が増加するようになるが、このとき、変更核心明るさ範囲領域比率情報(mid_DR_percentage[i])の比率が、変更上位明るさ範囲領域比率情報(upper_DR_percentage[i])に比べて、占める比重が既存と類似する場合は、中間明るさ領域情報を詳細に示すことを意味することができ、変更上位明るさ範囲領域比率情報(upper_DR_percentage[i])の比重が増加する場合は、高輝度成分に対する明るさ情報をより詳細に示すことを意味することができる。
【0248】
本発明の一実施例に係る超高画質放送信号受信装置のディスプレイの明るさ範囲(DR)が超高画質放送コンテンツの明るさ範囲(DR)を十分に収容する場合(場合3)は、超高画質放送コンテンツを別途の変換過程なしでそのまま再生させることができる。
【0249】
量子化段階(Quantization;S3040)では、本発明の一実施例に係る受信装置のディスプレイに適した明るさ範囲を有するように変換された超高画質放送コンテンツをディスプレイのビット深度(bit depth)に合うように量子化(quantization)することができる。
【0250】
本発明の一実施例に係る超高画質放送コンテンツの映像処理過程は、ディスプレイ環境調整段階(Display characteristics adjustment)及び/または再生段階(Display)をさらに含むことができる。ディスプレイ環境調整段階(Display characteristics adjustment)では、超高画質放送コンテンツ製作者が意図したディスプレイ環境に適するように受信装置のディスプレイ環境を調整することができる。メタデータを通じてコンテンツ製作者が意図したディスプレイ環境に対する情報を提供することができ、これを用いて、本発明の一実施例に係る超高画質放送信号受信装置はディスプレイ環境を調整することができる。再生段階(Display)では、超高画質放送コンテンツの製作者の意図及び受信装置のディスプレイ特性に合わせて明るさ範囲(DR)が変換されたコンテンツを視聴者に提供することができる。本発明の一実施例に係る超高画質放送信号受信装置のディスプレイの明るさ範囲(DR)が超高画質放送コンテンツの明るさ範囲(DR)を十分に収容する場合(場合3)は、別途の変換なしで原本通りのコンテンツを視聴者に提供することができる。
【0251】
図25は、本発明の一実施例に係るクリッピング(clipping)オプションと線形明るさ範囲変換(linear dynamic range transformation)方法を示した図である。
当該図面において、x軸は、本発明の一実施例に係る超高画質放送コンテンツの明るさ範囲を示すことができ、y軸は、本発明の一実施例に係る超高画質放送信号受信装置のディスプレイで表現可能な明るさ範囲(DR)を示すことができる。入力明るさ範囲(Input dynamic range)は、明るさ範囲の変換前のコンテンツの明るさ範囲になり、出力明るさ範囲(Output dynamic range)は、受信装置のディスプレイで表現可能な明るさ範囲に合わせて変換されたコンテンツの明るさ範囲になり得る。
【0252】
当該図面に示した二つの変換曲線のうち勾配がより大きい曲線は、クリッピングオプションが使用された状況を示すことができ、勾配がより小さい曲線は、線形明るさ範囲変換(linear dynamic range transformation)方法が使用された状況を示すことができる。
【0253】
図26は、本発明の一実施例に係る広域明るさ範囲メタデータを通じて伝送される変換曲線(transformation curve)の種類を示した図である。
本発明の一実施例によると、超高画質放送信号受信装置のディスプレイ環境に適するように超高画質放送コンテンツを変換させる過程で、製作者によって予め選択された特定変換式を使用することができる。コンテンツの変換に使用される変換式には、当該図面に示したように、線形曲線(linear curve)、指数曲線(exponential curve)、S曲線(s curve)、ログ曲線(logarithmic curve)、多くの曲線が組み合わされた曲線(combination curve)及びLUT(Look Up Table)を使用することができ、製作者によって選択された最適な変換曲線は、後述する広域明るさ範囲メタデータに含まれた核心領域変換曲線細部情報(mid_DR_transformation_curve())、上位領域変換曲線細部情報(upper_DR_transformation_curve())、下位領域変換曲線細部情報(lower_DR_transformation_curve())を通じて伝送することができる。
【0254】
図27は、本発明の一実施例に係る超高画質放送信号受信装置のディスプレイの区分による適応性明るさ範囲変換(adaptive dynamic range transformation)方法を示した図である。
本発明の一実施例に係る超高画質放送信号受信装置のディスプレイ環境は、既に設定された判断基準に従って区分することができる。超高画質放送信号受信装置のディスプレイ環境は、既存の明るさ範囲を有するディスプレイ(場合1)、既存の明るさ範囲より広い明るさ範囲を有するが、超高画質放送コンテンツで表現された明るさ範囲を全て収容できないディスプレイ(場合2)、及び超高画質放送コンテンツで表現された明るさ範囲より広い範囲を表現できるディスプレイ(場合3)のうちいずれか一つに区分することができる。ディスプレイ環境の区分に対する詳細な説明は、上述した超高画質放送信号受信装置の区分部に対する説明に取り替える。
当該図面において、x軸は、入力明るさ範囲(Input dynamic range)を示し、y軸は、出力明るさ範囲(Output dynamic range)を示すことができる。入力明るさ範囲(Input dynamic range)に超高画質放送コンテンツの明るさ範囲(DR)が入力されると、変換過程を経て出力明るさ範囲(Output dynamic range)として超高画質放送信号受信装置のディスプレイの明るさ範囲(DR)を出力することができる。
【0255】
当該図面に示した、必須最小明るさ情報(luminance_lower_bound)は、超高画質放送コンテンツで表現された明るさ範囲のうち必須的に表現されなければならない明るさ範囲の最小値を示すことができる。必須最大明るさ情報(luminance_upper_bound)は、超高画質放送コンテンツで表現された明るさ範囲のうち必須的に表現されなければならない明るさ範囲の最大値を示すことができる。必須最大明るさ情報(luminance_upper_bound)が示す値に追加された値を示す必須最大明るさ差情報(luminance_upper_bound_diff)は、既存の明るさ範囲より広い明るさ範囲を有するが、超高画質放送コンテンツで表現された明るさ範囲を全て収容できないディスプレイ(場合2)に適するように超高画質放送コンテンツを変換させる場合、コンテンツの核心明るさ範囲領域を拡張するために用いることができる。すなわち、場合2において、超高画質放送コンテンツの核心明るさ範囲領域は、必須最大明るさ差情報(luminance_upper_bound_diff)が示す値だけ拡張することができる。結果的に、場合2において、核心明るさ範囲領域は、必須最小明るさ情報(luminance_lower_bound)が示す値と、必須最大明るさ情報(luminance_upper_bound)が示す値に必須最大明るさ差情報(luminance_upper_bound_diff)が示す値を足した値との間の領域を示すことができる。最大基準明るさ情報(luminance_max)は、超高画質放送コンテンツで表現された最大基準明るさを示すことができ、最小基準明るさ情報(luminance_min)は、超高画質放送コンテンツで表現された最小基準明るさを示すことができ、最小基準明るさ情報は、当該図面に示していないが、グラフで原点位置の値を示すことができる。
【0256】
当該図面を見ると、本発明の一実施例による場合3のディスプレイでは、超高画質放送コンテンツで表現された明るさ範囲より広い範囲を表現できるので、入力明るさ範囲の全区間に対して勾配が1である線形変換曲線を用いることができる。本発明の一実施例に係る場合2のディスプレイの場合、拡張された核心明るさ範囲領域では線形変換曲線が使用されたが、下位明るさ範囲領域及び必須最大明るさ差情報(luminance_upper_bound_diff)によって変更された上位明るさ範囲領域では、それぞれ指数曲線、ログ曲線を使用することができる。本発明の一実施例に係る場合1のディスプレイの場合、核心明るさ範囲領域では線形曲線を使用することができ、下位明るさ範囲領域及び上位明るさ範囲領域ではそれぞれ指数曲線、ログ曲線を使用することができる。当該図面において、入力明るさ範囲の各領域で使用される変換曲線としては、線形曲線(linear curve)、指数曲線(exponential curve)、S曲線(s curve)、ログ曲線(logarithmic curve)、多くの曲線が組み合わされた曲線(combination curve)及びLUT(Look Up Table)のうちいずれか一つを使用することができる。ここで、核心明るさ範囲領域、下位明るさ範囲領域及び上位明るさ範囲領域に対する詳細な説明は、上述した超高画質放送コンテンツの映像処理過程を示した図面に対する説明に取り替える。
【0257】
図28は、本発明の一実施例に係るSEIメッセージ(Supplemental Enhancement Information message)の構造を示した図である。
本発明の一実施例に係る広域明るさ範囲メタデータ(Dynamic range transformation info(payloadSize))は、SEIメッセージを伝送するパケットのペイロードに含ませて伝送することができる。
【0258】
図29は、本発明の一実施例に係るSEIメッセージ(Supplemental Enhancement Information message)に含まれて伝送される広域明るさ範囲メタデータ(Dynamic range transformation info(payloadSize))を示した図である。
【0259】
本発明の一実施例に係る広域明るさ範囲メタデータ(High Dynamic Range metadata;HDR metadata)は、超高画質放送コンテンツで表現された明るさ情報と、超高画質放送信号受信装置のディスプレイ環境に適するように超高画質放送コンテンツを変換させる方法に対する情報を示すメタデータを示す。上述した広域明るさ範囲メタデータは、Dynamic range transformation information、Dynamic range transformation info(payloadSize)またはdynamic_range_transformation_metadata()と命名及び表記することができる。
【0260】
本発明の一実施例に係る広域明るさ範囲メタデータは、最大基準明るさ情報(luminance_max)、最小基準明るさ情報(luminance_min)、任意のEOTF情報(private_EOTF)、EOTF係数個数情報(number_of_coeff)、EOTF係数情報(transfer_curve_coeff[i])、クリッピングフラグ情報(clipping_flag)、線形マッピングフラグ情報(linear_mapping_flag)、クリッピング最大明るさ範囲情報(luma_clipping_upper_bound)、クリッピング最小明るさ範囲情報(luma_clipping_lower_bound)、必須最大明るさ情報(luminance_upper_bound)、必須最小明るさ情報(luminance_lower_bound)、必須最大明るさデジタル値(luma_upper_value)、必須最小明るさデジタル値(luma_lower_value)、核心領域変換曲線タイプ情報(mid_DR_transformation_curve_type)、核心領域変換曲線細部情報(mid_DR_transformation_curve())、核心明るさ範囲領域比率情報(mid_DR_percentage)、上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type)、上位領域変換曲線細部情報(upper_DR_transformation_curve())、上位明るさ範囲領域比率情報(upper_DR_percentage)、下位領域変換曲線タイプ情報(lower_DR_transformation_curve_type)、下位領域変換曲線細部情報(lower_DR_transformation_curve())、追加領域個数情報(number_luminance_upper_bound_diff)、追加領域差情報(luminance_upper_bound_diff[i])、追加領域差デジタル値(luma_upper_value_diff[i])、変更上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type[i])、変更上位領域変換曲線細部情報(upper_DR_transformation_curve())、変更上位明るさ範囲領域比率情報(upper_DR_percentage[i])及び/または変更核心明るさ範囲領域比率情報(mid_DR_percentage[i])を含むことができる。
【0261】
最大基準明るさ情報(luminance_max)は、超高画質放送コンテンツで表現された最大基準明るさを示す。すなわち、明るさ範囲(DR)の最大値を示す。例えば、参照モニター(reference monitor)の場合、100cd/m^2を最大基準明るさと定めており、この場合、一般的な範囲を考慮して前記値を100(10進数)で割った値の割り前である1が伝送され得る。
【0262】
最小基準明るさ情報(luminance_min)は、超高画質放送コンテンツで表現された最小基準明るさを示す。すなわち、明るさ範囲(DR)の最小値を示す。例えば、参照モニター(reference monitor)の場合、0.05cd/m^2を最小基準明るさと定めており、この場合、一般的な範囲を考慮して前記値に100(10進数)を掛けた値である5が伝送され得る。
【0263】
任意のEOTF情報(private_EOTF)は、任意のEOTF関数が使用されるか否かを示す。一般に、ITU―R BT.1886、REC.709、BT.2020などのように広く使用されるEOTFが使用される場合は、VUI情報によって伝達することができる。しかし、未だに標準として定められていないEOTFが使用される場合、当該フィールド値を1に設定して示すことができる。例えば、標準として定められていないEOTF、すなわち、任意のEOTFとして知覚的量子化(perceptual quantization)を使用することができる。
【0264】
EOTF係数個数情報(number_of_coeff)は、任意のEOTFに使用された係数の個数を示す。
【0265】
EOTF係数情報(transfer_curve_coeff[i])は、任意のEOTFに使用された係数を示す。
【0266】
クリッピングフラグ情報(clipping_flag)は、クリッピングオプションが使用されるか否かを示す情報であって、クリッピングオプションの使用が許容される場合、1の値を有することができる。
【0267】
線形マッピングフラグ情報(linear_mapping_flag)は、線形明るさ範囲変換(linear dynamic range transformation)方法の使用有無を示す。線形明るさ範囲変換(linear dynamic range transformation)方法が使用される場合、1の値を有する。
クリッピング最大明るさ範囲情報(luma_clipping_upper_bound)は、クリッピングオプションが使用される場合にディスプレイされる明るさ範囲(DR)で上位臨界点に対するデジタル値(digtal value)を示す。
【0268】
クリッピング最小明るさ範囲情報(luma_clipping_lower_bound)は、クリッピングオプションが使用される場合にディスプレイされる明るさ範囲(DR)で下位臨界点に対するデジタル値(digtal value)を示す。
【0269】
必須最大明るさ情報(luminance_upper_bound)は、超高画質放送コンテンツで表現された明るさ範囲のうち必須的に表現されなければならない明るさ範囲の最大値(nit単位)を示す。必須最大明るさ情報は、受信装置のディスプレイの種類を判断する基準になり得る。また、受信装置のディスプレイの種類を判断する別途の基準をシグナリングすることができる。
【0270】
必須最小明るさ情報(luminance_lower_bound)は、超高画質放送コンテンツで表現された明るさ範囲のうち必須的に表現されなければならない明るさ範囲の最小値(nit単位)を示す。必須最小明るさ情報は、受信装置のディスプレイの種類を判断する基準になり得る。また、受信装置のディスプレイの種類を判断する別途の基準をシグナリングすることができる。
【0271】
必須最大明るさデジタル値(luma_upper_value)は、必須最大明るさ情報(luminance_upper_bound)に該当するデジタル値(digital value)を示す。
【0272】
必須最小明るさデジタル値(luma_lower_value)は、必須最小明るさ情報(luminance_lower_bound)に該当するデジタル値(digital value)を示す。
【0273】
核心領域変換曲線タイプ情報(mid_DR_transformation_curve_type)としては、核心明るさ範囲領域で使用される明るさ範囲変換曲線を識別する。変換曲線は、線形曲線(linear curve)、指数曲線(exponential curve)、S曲線(s curve)、ログ曲線(logarithmic curve)、多くの曲線が組み合わされた曲線(combination curve)及びLUT(Look Up Table)のうちいずれか一つを使用することができる。
【0274】
核心領域変換曲線細部情報(mid_DR_transformation_curve())は、核心領域変換曲線タイプ情報(mid_DR_transformation_curve_type)によって識別された変換曲線による追加情報を示す。例えば、線形曲線(linear curve)が使用される場合、勾配情報を伝送することができ、指数曲線(exponential curve)やログ曲線(logarithmic curve)が使用される場合、底に対する情報を伝送することができ、S曲線(s curve)が使用される場合、変曲点の座標及び各区間に対する底とy截片に対する情報を伝送することができ、多くの曲線が組み合わされた曲線(combination curve)が使用される場合、各区間のx座標、各区間の曲線種類及び当該グラフに対する情報を伝送することができる。
【0275】
核心明るさ範囲領域比率情報(mid_DR_percentage)は、超高画質放送コンテンツの明るさ範囲のうち核心明るさ範囲領域が受信装置のディスプレイの全体明るさ範囲(DR)で占める比率を示す。
【0276】
上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type)としては、上位明るさ範囲領域で使用される明るさ範囲変換曲線を識別する。変換曲線は、線形曲線(linear curve)、指数曲線(exponential curve)、S曲線(s curve)、ログ曲線(logarithmic curve)、多くの曲線が組み合わされた曲線(combination curve)及びLUT(Look Up Table)のうちいずれか一つを使用することができる。
【0277】
上位領域変換曲線細部情報(upper_DR_transformation_curve())は、上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type)によって識別された変換曲線による追加情報を示す。例えば、線形曲線(linear curve)が使用される場合、勾配情報を伝送することができ、指数曲線(exponential curve)やログ曲線(logarithmic curve)が使用される場合、底に対する情報を伝送することができ、S曲線(s curve)が使用される場合、変曲点の座標及び各区間に対する底とy截片に対する情報を伝送することができ、多くの曲線が組み合わされた曲線(combination curve)が使用される場合、各区間のx座標、各区間の曲線種類及び当該グラフに対する情報を伝送することができる。
【0278】
上位明るさ範囲領域比率情報(upper_DR_percentage)は、超高画質放送コンテンツの明るさ範囲のうち上位明るさ範囲領域が受信装置のディスプレイの全体明るさ範囲(DR)で占める比率を示す。
【0279】
下位領域変換曲線タイプ情報(lower_DR_transformation_curve_type)としては、下位明るさ範囲領域で使用される明るさ範囲変換曲線を識別する。変換曲線は、線形曲線(linear curve)、指数曲線(exponential curve)、S曲線(s curve)、ログ曲線(logarithmic curve)、多くの曲線が組み合わされた曲線(combination curve)及びLUT(Look Up Table)のうちいずれか一つを使用することができる。
【0280】
下位領域変換曲線細部情報(lower_DR_transformation_curve())は、下位領域変換曲線タイプ情報(lower_DR_transformation_curve_type)によって識別された変換曲線による追加情報を示す。例えば、線形曲線(linear curve)が使用される場合、勾配情報を伝送することができ、指数曲線(exponential curve)やログ曲線(logarithmic curve)が使用される場合、底に対する情報を伝送することができ、S曲線(s curve)が使用される場合、変曲点の座標及び各区間に対する底とy截片に対する情報を伝送することができ、多くの曲線が組み合わされた曲線(combination curve)が使用される場合、各区間のx座標、各区間の曲線種類及び当該グラフに対する情報を伝送することができる。
【0281】
追加領域個数情報(number_luminance_upper_bound_diff)は、核心明るさ範囲領域を拡張するために使用される変数の個数を示す。
【0282】
追加領域差情報(luminance_upper_bound_diff[i])は、超高画質放送コンテンツでi+1番目の明るさ値を構成するための差値を示す。既存の明るさ範囲より広い明るさ範囲を有するが、超高画質放送コンテンツで表現された明るさ範囲を全て収容できないディスプレイ(場合2)で核心明るさ範囲領域を拡張する場合、必須最大明るさ情報(luminance_upper_bound)は、luminance_upper_bound+luminance_upper_bound_diff[0]+・・・+luminance_upper_bound_diff[i]が示す値に変更することができる。
【0283】
追加領域差デジタル値(luma_upper_value_diff[i])は、超高画質放送コンテンツでi+1番目の明るさ値に対するデジタル値(digital value)を示す。既存の明るさ範囲より広い明るさ範囲を有するが、超高画質放送コンテンツで表現された明るさ範囲を全て収容できないディスプレイ(場合2)で核心明るさ範囲領域を拡張する場合、必須最大明るさデジタル値(luma_upper_value)は、luma_upper_value+luma_upper_value_diff[0]+・・・+luma_upper_value_diff[i]が示す値に変更することができる。
【0284】
変更上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type[i])は、i+1番目の明るさ範囲をサポートする場合、変更された上位明るさ範囲領域で使用される変換曲線を識別することができる。すなわち、変更上位領域変換曲線タイプ情報は、核心明るさ範囲領域が拡張される場合、これによって変更された上位明るさ範囲領域で使用される変換曲線を識別することができる。
【0285】
変更上位領域変換曲線細部情報(upper_DR_transformation_curve())は、変更上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type[i])によって識別された変換曲線による追加情報を示す。すなわち、i+1番目の明るさ範囲をサポートする場合、変更された上位明るさ範囲領域で使用される変換曲線に対する細部事項を示す。
【0286】
変更上位明るさ範囲領域比率情報(upper_DR_percentage[i])は、超高画質放送コンテンツの核心明るさ範囲領域が変更される場合、これによって変更された上位明るさ範囲領域が受信装置のディスプレイの全体明るさ範囲(DR)で占める比率を示す。
変更核心明るさ範囲領域比率情報(mid_DR_percentage[i])は、超高画質放送コンテンツの核心明るさ範囲領域が変更される場合、変更された核心明るさ範囲領域が受信装置のディスプレイの全体明るさ範囲(DR)で占める比率を示す。
【0287】
本発明の一実施例に係る広域明るさ範囲メタデータは、EOTFタイプ情報(EOTF_type)及び/またはEOTF付加情報(EOTF_additional_info)をさらに含むことができる。EOTFタイプ情報(EOTF_type)は、HDRコンテンツの最適画質のためにコンテンツ製作者が使用したEOTFの種類を示すことができる。複数のEOTF関連標準が制定されたり、コンテンツ製作者が任意のEOTFを定義して使用する場合にも、受信側は、EOTFタイプ情報を用いて使用されたEOTFの種類を識別することができる。EOTF付加情報(EOTF_additional_info)は、上述したEOTFタイプ情報によって追加的な情報が伝達される必要がある場合、使用されたEOTFに対する追加的な情報を伝達するために使用される。与えられたEOTFタイプ情報に対して、多様な条件で複数のEOTF関数の係数を伝達する必要がある場合、送信側は、EOTF付加情報(EOTF_additional_info)を用いて各係数に対する情報を提供することができる。例えば、コンテンツの多様な最大明るさ条件によって適したEOTF関数の係数が変わる場合、各最大明るさ条件による係数が全て伝達されなければならない。この場合、上述したEOTF付加情報内にコンテンツの最大明るさ条件の個数を指定するフィールドを別途に定義し、各最大明るさ条件に対して目標最大明るさ情報(EOTF_target_max_brightness)及びEOTF関数の各係数に対する情報(EOTF_coefficient[i])を示す方法で上述したEOTF付加情報を用いることができる。
【0288】
図30は、本発明の一実施例に係る核心領域変換曲線タイプ情報(mid_DR_transformation_curve_type)を示した図である。
【0289】
核心領域変換曲線タイプ情報(mid_DR_transformation_curve_type)の値が0x00である場合、変換曲線として線形曲線(linear curve)が使用されることを示し、0x01である場合、変換曲線としてログ曲線(logarithmic curve)が使用されることを示し、0x02である場合、変換曲線として指数曲線(exponential curve)が使用されることを示し、0x03である場合、変換曲線としてS曲線(s curve)が使用されることを示し、0x04である場合、変換曲線として多くの曲線が組み合わされた曲線(combination curve)が使用されることを示し、0x05である場合、LUT(Look Up Table)が使用されることを示すことができる。
【0290】
当該図面では、核心領域変換曲線タイプ情報に対して説明しているが、上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type)及び下位領域変換曲線タイプ情報(lower_DR_transformation_curve_type)にも当該図面の内容を同一に適用することができる。
【0291】
図31は、本発明の一実施例に係る変換曲線細部情報(DR_transformation_curve)を示した図である。
【0292】
本発明の一実施例に係る変換曲線細部情報(DR_transformation_curve)は、勾配情報(gradient)、底情報(coeff_a、coeff_a1)、変曲点座標情報(intersection_x)、y截片情報(coeff_a2)、組み合わされた曲線の個数情報(num_section)、変換曲線タイプ情報(DR_transformation_curve_type[i])、エントリー長さ情報(entry_length)、エントリー入力情報(in_value)及び/またはエントリー出力情報(out_value)を含むことができる。
【0293】
勾配情報(gradient)は、変換曲線として線形曲線(linear curve)が使用される場合、線形曲線の勾配を示す。
【0294】
底情報(coeff_a、coeff_a1)は、変換曲線として指数曲線(exponential curve)、S曲線(s curve)及び/またはログ曲線(logarithmic curve)が使用される場合、指数関数またはログ関数の底を示す。
【0295】
変曲点座標情報(intersection_x)は、変換曲線としてS曲線(s curve)が使用される場合、変曲点の座標を示す。
y截片情報(coeff_a2)は、変換曲線としてS曲線(s curve)が使用される場合、変曲点を基準にして両側の曲線のそれぞれに対するy截片値を示す。
【0296】
組み合わされた曲線の個数情報(num_section)は、変換曲線として多くの曲線が組み合わされた曲線(combination curve)が使用される場合、組み合わされた曲線の個数を示す。
【0297】
変換曲線タイプ情報(DR_transformation_curve_type[i])は、変換曲線として多くの曲線が組み合わされた曲線(combination curve)が使用される場合、組み合わされた各曲線の種類を識別する。
【0298】
エントリー長さ情報(entry_length)は、超高画質放送コンテンツの変換のためにLUT(Look―Up Table)が使用される場合、LUTに含まれるエントリーの長さを示す。
【0299】
エントリー入力情報(in_value)は、超高画質放送コンテンツの変換のためにLUT(Look―Up Table)が使用される場合、LUTに入力される値を示す。
【0300】
エントリー出力情報(out_value)は、超高画質放送コンテンツの変換のためにLUT(Look―Up Table)が使用される場合、LUTによって出力される値を示す。
【0301】
図32は、本発明の一実施例に係るEIT(Event Information Table)を示した図である。
【0302】
本発明の一実施例に係るEIT(Event Information Table)は、table_idフィールド、section_syntax_indicatorフィールド、private_indicatorフィールド、section_lengthフィールド、source_idフィールド、version_numberフィールド、current_next_indicatorフィールド、section_numberフィールド、last_section_numberフィールド、protocol_versionフィールド、num_events_in_sectionフィールド、event_idフィールド、start_timeフィールド、ETM_locationフィールド、length_in_secondsフィールド、title_lengthフィールド、title_text()フィールド、descriptors_lengthフィールド、descriptor()フィールド及び/またはCRC_32フィールドを含むことができる。
【0303】
table_idフィールドは、当該テーブルがEIT(Event Information Table)であることを識別する。
【0304】
section_syntax_indicatorフィールドは、MPEG―2 private_section tableのロング(long)形態を示すために1にセッティングされる1ビットフィールドである。
private_indicatorフィールドは、1にセッティングされる1ビットフィールドである。
【0305】
section_lengthフィールドは、このフィールドの後にあるテーブルセクションの長さをバイト数で示す。
【0306】
source_idフィールドは、該当セクションで記述されるイベントを伝送する仮想チャンネルのソースアイディー(source id)を示す。
【0307】
version_numberフィールドは、テーブルのバージョン番号を示す5ビットフィールドである。
【0308】
current_next_indicatorフィールドは、1ビットフィールドであって、このテーブルが現在適用可能であるか、それとも次に適用可能であるかを示す。
【0309】
section_numberフィールドは、セクションの番号を示す。
【0310】
last_section_numberフィールドは、最後のセクションの番号を識別する。
【0311】
protocop_versionフィールドは、現在のプロトコルで定義されたパラメーターと異なるパラメーターを伝送する現在のテーブルタイプを後で許容するための機能を有するフィールドである。
【0312】
num_events_in_sectionフィールドは、該当テーブルセクションに含まれたイベントの個数を示す。
【0313】
event_idフィールドは、記述されたイベントを示す特定の数字を識別する。ここで、特定の数字は、イベントETM_idの一部分としての役割をすることができる。
【0314】
start_timeフィールドは、該当イベントの開始時間をGPSセカンドを基準にして示す。仮想チャンネルでイベントの開始時間を示す値は、放映中のイベントの終了時間を示す値より大きくなり得る。イベントの終了時間は、イベントの開始時間とイベントの長さを時間として示した値との和と定義することができる。
【0315】
ETM_locationフィールドは、チャンネル、イベントまたはデータイベントのための拡張されたテキストメッセージの存在有無を示す。
【0316】
length_in_secondsフィールドは、イベントの持続時間を秒単位で示す。
【0317】
title_lengthフィールドは、タイトルテキスト(title_text)の長さを示す。該当フィールドの値が0であると、該当イベントにタイトルがないことを示す。
title_text()フィールドは、イベントの題目(title)をマルチプルストリング構造(multiple string structure)の形式で示す。
【0318】
descriptors_lengthフィールドは、後に続いて記述されるイベントディスクリプタ(descriptor())の全体の長さを示す。
【0319】
descriptor()は、テーブル内に位置するディスクリプタループ(descriptor loop)である。ディスクリプタループ(descriptor loop)は、追加的なディスクリプタを含むことができる。EIT内には0個以上のディスクリプタを含ませることができ、当該ディスクリプタは、各イベントごとに適用される情報を記述するイベントレベルディスクリプタ(event level descriptor)に該当し得る。本発明の一実施例に係る広域明るさ範囲メタデータは、イベントレベルディスクリプタに含まれて伝送され得る。本発明の一実施例に係る広域明るさ範囲メタデータがEITのイベントレベルディスクリプタに含まれて伝送される場合、受信装置は、イベントレベル(event level)でコンテンツの明るさ範囲変換のためのメタデータが含まれているか否かを確認することができ、受信装置で該当コンテンツを収容できるか否かを判断することができる。広域明るさ範囲メタデータを含むディスクリプタを明るさ範囲変換情報ディスクリプタと命名することができ、これに対しては後で詳細に説明する。超高画質サービスの種類を識別する情報を含む超高画質プログラム情報ディスクリプタがEITに含まれて伝送され得る。これに対しては後で説明する。
【0320】
CRC_32フィールドは、データの無欠性をチェックできるCRC値を含む。CRC値は、全体のEITセクションが処理された後、Annex A of ISO―13818―1 “MPEG―2 Systems”[13]に定義されているデコーダー内のレジスタから0値が出力されることを保証することができる。
【0321】
図33は、本発明の一実施例に係る明るさ範囲変換情報ディスクリプタ(dynamic_range_transformation_info_descriptor)を示した図である。
【0322】
本発明の一実施例に係る明るさ範囲変換情報ディスクリプタ(dynamic_range_transformation_info_descriptor)は、descriptor_tagフィールド、descriptor_lengthフィールド、number_of_HDR_infoフィールド及び/またはdynamic_range_transformation_metadata()フィールドを含むことができる。
【0323】
descriptor_tagフィールドは、当該ディスクリプタが明るさ範囲変換情報ディスクリプタであることを識別する。
【0324】
descriptor_lengthフィールドは、当該ディスクリプタの長さを示す。
【0325】
number_of_HDR_infoフィールドは、当該ディスクリプタに含まれた広域明るさ範囲メタデータの個数を示す。シーンバイシーン(scene by scene)で場面ごとにコンテンツの変換方法などが変わる場合、製作者が意図する広域明るさ範囲モード(mode)の個数を示すことができる。
【0326】
dynamic_range_transformation_metadata()フィールドは、超高画質放送コンテンツで表現された明るさ情報と、超高画質放送信号受信装置のディスプレイ環境に適するように超高画質放送コンテンツを変換させる方法に対する情報を示す。当該フィールドは、広域明るさ範囲メタデータと命名することができ、これに対しては後で詳細に説明する。
【0327】
図34は、本発明の一実施例に係る明るさ範囲変換情報ディスクリプタ(dynamic_range_transformation_info_descriptor())に含まれた広域明るさ範囲メタデータ(dynamic_range_transformation_metadata())を示した図である。
【0328】
本発明の一実施例に係る広域明るさ範囲メタデータ(dynamic_range_transformation_metadata())は、最大基準明るさ情報(luminance_max)、最小基準明るさ情報(luminance_min)、必須最大明るさ情報(luminance_upper_bound)、必須最小明るさ情報(luminance_lower_bound)、追加領域個数情報(number_luminance_upper_bound_diff)及び/または追加領域差情報(luminance_upper_bound_diff[i])を含むことができる。
【0329】
本発明の一実施例に係る広域明るさ範囲メタデータ(dynamic_range_transformation_metadata())は、任意のEOTF情報(private_EOTF)、EOTF係数個数情報(number_of_coeff)、EOTF係数情報(transfer_curve_coeff[i])、クリッピングフラグ情報(clipping_flag)、線形マッピングフラグ情報(linear_mapping_flag)、クリッピング最大明るさ範囲情報(luma_clipping_upper_bound)、クリッピング最小明るさ範囲情報(luma_clipping_lower_bound)、必須最大明るさデジタル値(luma_upper_value)、必須最小明るさデジタル値(luma_lower_value)、核心領域変換曲線タイプ情報(mid_DR_transformation_curve_type)、核心領域変換曲線細部情報(mid_DR_transformation_curve())、核心明るさ範囲領域比率情報(mid_DR_percentage)、上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type)、上位領域変換曲線細部情報(upper_DR_transformation_curve())、上位明るさ範囲領域比率情報(upper_DR_percentage)、下位領域変換曲線タイプ情報(lower_DR_transformation_curve_type)、下位領域変換曲線細部情報(lower_DR_transformation_curve())、追加領域差デジタル値(luma_upper_value_diff[i])、変更上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type[i])、変更上位領域変換曲線細部情報(upper_DR_transformation_curve())、変更上位明るさ範囲領域比率情報(upper_DR_percentage[i])及び/または変更核心明るさ範囲領域比率情報(mid_DR_percentage[i])をさらに含むことができる。
【0330】
本発明の一実施例に係る広域明るさ範囲メタデータ(dynamic_range_transformation_metadata())に含まれた各情報に対する詳細な説明は、上述したSEIメッセージ(Supplemental Enhancement Information message)に含まれて伝送される広域明るさ範囲メタデータ(Dynamic range transformation info(payloadSize))部分に対する説明に取り替える。
【0331】
本発明の一実施例に係る広域明るさ範囲メタデータ(dynamic_range_transformation_metadata())は、EOTFタイプ情報(EOTF_type)及び/またはEOTF付加情報(EOTF_additional_info)をさらに含むことができる。EOTFタイプ情報(EOTF_type)は、HDRコンテンツの最適画質のためにコンテンツ製作者が使用したEOTFの種類を示すことができる。複数のEOTF関連標準が制定されたり、コンテンツ製作者が任意のEOTFを定義して使用する場合にも、受信側は、EOTFタイプ情報を用いて使用されたEOTFの種類を識別することができる。EOTF付加情報(EOTF_additional_info)は、上述したEOTFタイプ情報によって追加的な情報が伝達される必要がある場合、使用されたEOTFに対する追加的な情報を伝達するために使用される。与えられたEOTFタイプ情報に対して、多様な条件で複数のEOTF関数の係数を伝達する必要がある場合、送信側は、EOTF付加情報(EOTF_additional_info)を用いて各係数に対する情報を提供することができる。例えば、コンテンツの多様な最大明るさ条件に応じて適したEOTF関数の係数が変わる場合、各最大明るさ条件による係数が全て伝達されなければならない。この場合、上述したEOTF付加情報内にコンテンツの最大明るさ条件の個数を指定するフィールドを別途に定義し、各最大明るさ条件に対して目標最大明るさ情報(EOTF_target_max_brightness)及びEOTF関数の各係数に対する情報(EOTF_coefficient[i])を示す方法で上述したEOTF付加情報を用いることができる。
【0332】
本発明の一実施例によると、一つのイベントに対して複数の広域明るさ範囲メタデータが存在し得る。すなわち、一つの超高画質放送コンテンツに一貫して広域明るさ範囲メタデータが適用されるのではなく、各場面によって異なるメタデータが適用され、異なる方法によって変換され得る。この場合、本発明の一実施例に係る超高画質放送信号受信装置のディスプレイで超高画質放送コンテンツが収容可能であるか否かを判断する必要がある。このために、超高画質放送コンテンツの明るさ範囲情報及び受信装置のディスプレイを区分するのに必要な基準情報を、本発明の一実施例に係る広域明るさ範囲メタデータを用いて伝送することができる。
【0333】
図35は、本発明の一実施例に係る超高画質プログラム情報ディスクリプタ(UHD_program_info_descriptor())を示した図である。
【0334】
本発明の一実施例に係る超高画質プログラム情報ディスクリプタ(UHD_program_info_descriptor())は、descriptor_tagフィールド、descriptor_lengthフィールド及び/またはUHD_service_typeフィールドを含むことができる。
【0335】
descriptor_tagフィールドは、当該ディスクリプタが明るさ範囲変換情報ディスクリプタであるか否かを識別する。
【0336】
descriptor_lengthフィールドは、当該ディスクリプタの長さを示す。
【0337】
UHD_service_typeフィールドは、超高画質サービス(UHD service)の種類に対する情報を提供することによって多様な超高画質サービスを提供することができる。例えば、超高画質サービスの種類には、UHD1(4K)及びUHD2(8K)があり得る。また、超高画質サービスの種類は、画質(quaility)によって区分することができ、ユーザーによって任意に指定することができる。
【0338】
図36は、本発明の一実施例に係る超高画質プログラム情報ディスクリプタ(UHD_program_info_descriptor())に含まれたUHD_service_typeフィールドを示した図である。
【0339】
本発明の一実施例に係るUHD_service_typeのフィールド値が0000であると、UHD1サービスであることを示し、0001であるとUHD2サービスであることを示し、1000―1111であると、ユーザーによって指定された特定サービスであることを示すことができる。例えば、ユーザーは、UHD_service_typeを1001(color enhanced UHD1(4K) service)に指定し、色感向上(color enhancement)が使用されることを示すことができる。
【0340】
本発明の一実施例によると、UHD_service_typeを1001(clor enhanced UHD1(4K) service)に指定し、メタデータを用いてディスプレイ環境の調整が可能であることを示すことができる。UHD_service_typeが0000(UHD1 service)である場合、EIT内への明るさ範囲変換情報ディスクリプタ(dynamic_range_transformation_info_descriptor())の存在有無を確認することによって、メタデータを用いて受信装置のディスプレイに適するように超高画質放送コンテンツを変換させることが可能であるか否かを判断することができる。
【0341】
本発明の一実施例によると、明るさ範囲変換情報ディスクリプタ(dynamic_range_transformation_info_descriptor())を用いて、コンテンツ供給者は、再生されることを望むコンテンツの明るさ範囲が視聴者のディスプレイで表現可能であるか否かを判断することができる。これを用いて、現在または未来時点に再生されるコンテンツに対しても広域明るさ範囲メタデータの使用有無を予め判断することができ、予約録画などの状況のために受信機を予めセッティングすることができる。
【0342】
図37は、本発明の一実施例に係るTVCT(Terrestrial Virtual Channel Table)を示した図である。
【0343】
本発明の一実施例に係るTVCT(Terrestrial Virtual Channel Table)は、table_idフィールド、section_syntax_indicatorフィールド、private_indicatorフィールド、section_lengthフィールド、transport_stream_idフィールド、version_numberフィールド、current_next_indicatorフィールド、section_numberフィールド、last_section_numberフィールド、protocop_versionフィールド、num_channels_in_sectionフィールド、short_nameフィールド、major_channel_numberフィールド、minor_channel_numberフィールド、モジュレーションモード(modulation mode)フィールド、carrier_frequencyフィールド、channel_TSIDフィールド、program_numberフィールド、ETM_locationフィールド、access_controlledフィールド、非表示(hidden)フィールド、hide_guideフィールド、service_typeフィールド、source_idフィールド、descriptors_lengthフィールド及び/またはdescriptor()を含むことができる。
【0344】
table_idフィールドはテーブルを識別する。
図9に示したテーブルはTVCTであるので、table_idの値は0x08である。
【0345】
section_syntax_indicatorフィールドは、MPEG―2 private_section tableのロング(long)形態を示すために1にセッティングされる1ビットフィールドである。(This 1―bit field shall be set to ‘1’ to always indicate the “long” form of the MPEG―2 private_section table.)
【0346】
private_indicatorフィールドは、1にセッティングされる1ビットフィールドである。(This 1―bit field shall be set to ‘1’.)
【0347】
section_lengthフィールドは、このフィールドの後にあるテーブルセクションの長さをバイト数で示す。(This is a 12―bit field,the first two bits of which shall be “00”.It specifies the number of bytes of the section,starting immediately following the section_length field and including the CRC.The section_length shall not exceed 1021 so that the entire section has a maximum length of 1024 bytes.)
【0348】
transport_stream_idフィールドは、テーブル内にあるMPEG―2伝送ストリーム(Transport Strem:TS)の識別子を示す。(To distinguish each transport stream within a single network(terrestrial,cable or satellite) from another,MPEG―2 established the use of a 16―bit(ranging from 0 to 65535) transport_stream_identifier,which is also called a TSID.)
【0349】
version_numberフィールドは、テーブルのバージョン番号を示す5ビットフィールドである。(This 5―bit field is the version number of the PSIP_section.The version_number shall be incremented by 1 modulo 32 when a change in the information carried within the PSIP_section occurs.When the current_next_indicator is set to ‘0’,then the version_number shall be that of the next applicable PSIP_section with the same table_id,table_id_extension,and section_number.)
【0350】
current_next_indicatorフィールドは、1ビットフィールドであって、このテーブルが現在適用可能であるか、それとも次に適用可能であるかを示す。(A 1―bit field,which when set to ‘1’ indicates that the PSIP_section sent is currently applicable.When the current_next_indicator is set to ‘1’,then the version_number shall be that of the currently applicable PSIP_section.When the bit is set to ‘0’,it indicates that the PSIP_section sent is not yet applicable and shall be the next PSIP_section with the same section_number,table_id_extension,and table_id to become valid.)
【0351】
section_numberフィールドは、セクションの番号を示す。(This 8―bit field gives the number of the PSIP_section.The section_number of the first section in a PSIP table shall be 0x00.The section_number shall be incremented by 1 with each additional section in PSIP table.The scope of the section_number shall be defined by the table_id and table_id_extension.That is,for each PSIP table and value of the table_id_extension field,there is the potential for the full range of section_number values.)
【0352】
last_section_numberフィールドは、最後のセクションの番号を識別する。(This 8―bit field specifies the number of the last section(that is,the section with the highest section_number) of the PSIP table of which this section is a part.Its scope is the same as for the section_number field.)
【0353】
protocop_versionフィールドは、現在のプロトコルで定義されたパラメーターと異なるパラメーターを伝送する現在のテーブルタイプを後で許容するための機能を有するフィールドである。(An 8―bit unsigned integer field whose function is to allow,in the future,this table type to carry parameters that may be structured differently than those defined in the current protocol.At present,the only valid value for protocol_version is zero.Non―zero values of protocol_version may be used by a future version of this standard to indicate structurally different tables.)
【0354】
num_channels_in_sectionフィールドは、仮想チャンネル解像度の個数を示す。(The num_channels_in_section field in ATSC Cable Virtual Channel table CVCT table sections is an eight―bit field that indicates the number of virtual channel definitions to follow in the table section.)
【0355】
short_nameフィールドは、仮想チャンネルのためのショートネーム(short name)を示す112ビットフィールドである。(The short_name field is a 112―bit field in ATSC CVCT table sections that gives the short_name for the virtual channel.Each letter of the short_name is formatted as a 16―bit Unicode character,with the high order byte transmitted first.So,short_name for TVCT and CVCT entries is seven Unicode characters,which short_name for SVCT entries is eight Unicode characters.If the display name is less than the number of permitted characters,0/0x00 is appended to the end until the alloted number of bits has been reached.)
【0356】
major_channel_numberフィールドは、仮想チャンネルと関連するメジャーチャンネルの数を示す。(A 10―bit number that represents the “major” channel number associated with the virtual channel being defined in this iteration of the “for” loop.Each virtual channel shall be associated with a major and a minor channel number.The major channel number,along with the minor channel number,act as the user's reference number for the virtual channel.The major_channel_number shall be between 1 and 99.The value of major_channel_number shall be set such that in no case is a major_channel_number/minor_channel_number pair duplicated within the TVCT.)
【0357】
minor_channel_numberフィールドは、仮想チャンネルと関連するマイナーチャンネルの数を示す。(A 10―bit number in the range 0 to 999 that represents the “minor” or “sub”―channel number.This field,together with major_channel_number,performs as a two―part channel number,where minor_channel_number represents the second or right―hand part of the number.When the service_type is analog television,minor_channel_number shall be set to 0.)
【0358】
モジュレーションモード(modulation mode)フィールドは、仮想チャンネルの伝送キャリアに対する変調方式を示す。(The modulation_mode is an eight―bit field in a virtual channel entry tells receivers the modulation used to transmit individual channels.)
【0359】
carrier_frequencyフィールドは、伝送仮想チャンネルによって使用されるキャリア周波数情報を伝送する。(The carrier frequency is a 32―bit field that transmits the carrier frequency used by the transport carrying the virtual channel.)
【0360】
channel_TSIDフィールドは、仮想チャンネルと関連するMPEG―2プログラムを伝送する伝送ストリーム(Transport Stream:TS)に対するMPEG―2伝送ストリーム(Transport Stream) IDを示す。(The channel_TSID is a 16―bit unsigned integer field that gives the transport_stream_id of the channel that carries(or for inactive channels,will carry) the virtual channel.)
【0361】
program_numberフィールドは、TS内の各プログラムサービスまたは仮想チャンネルを識別する。(The program_number is a 16―bit unsigned integer that uniquely identifies each program service(or virtual channel) present in a transport stream.)
【0362】
ETM_locationフィールドは、チャンネル、イベントまたはデータイベントのための拡張されたテキストメッセージの存在有無を示す。(The ETM_location field denotes whether there is an extended text message for the channel(Channel Extended Text table or CETT),event(Event Extended Text table) or data event(Data Extended Text table).)
【0363】
access_controlledフィールドは、該当の仮想チャンネルと連関したイベントが制御されるか否かを示す。(When access_controlled is set to ‘1’,means that events associated with this virtual channel may be access controlled.When set to ‘0’,access to event is not controlled.)
【0364】
非表示(hidden)フィールドは、該当チャンネルが仮想チャンネル数字の直接入力(direct entry)(またはフィールド、属性、個体)によって接近できるか否かを意味する。(When hidden is set to ‘1’,means the channel cannot be accessed by direct entry of the virtual channel number.When set to ‘0’,virtual can be accessed by direct entry.)
【0365】
hide_guideフィールドは、該当チャンネルが仮想チャンネル数字の直接入力(direct entry)(またはフィールド、属性、個体)によって接近できるか否かを意味する。(When hide_guide is set to ‘1’,means the channel cannot be accessed by direct entry of the virtual channel number.When set to ‘0’,virtual can be accessed by direct entry.)
【0366】
service_typeフィールドは、仮想チャンネルでセッティングされたサービスタイプを識別する。(The service_type is a 6―bit enumerated field that identifies the type of service set in the virtual channel.)UHDサービスのための一実施例として、サービスタイプ(service type)は、パラメーター化サービス(parameterized service)(0x07)、拡張されたパラメーター化サービス(extended parameterized service)(0x09)または新たなDTVサービス(new DTV service)(0x10)に指定することができる。上述したサービス名称及び値(value)は一実施例であって、他の名称または値に設定することもできる。
【0367】
source_idフィールドは、16ビットの符号が定められていない整数であって、仮想チャンネルと連関したプログラミングソースを示す。(A 16―bit unsigned integer number that identifies the programming source associated with the virtual channel.In this context,a source is one specific source of video,text,data,or audio programming.Source ID value zero is reserved.Source ID values in the range 0x0001 to 0x0FFF shall be unique within the Transport Stream that carris the VCT,while values 0x1000 to 0xFFFF shall be unique at the regional level.Values for source_ids 0x1000 and above shall be issued and administered by a Registration Authority designated by the ATSC.)
【0368】
descriptors_lengthフィールドは、次のディスクリプタフィールドのバイトの長さを伝送する。(The descriptors_length is a 10―bit unsigned integer field that signals the length in bytes of the descriptor field to follow.If there are no descriptors present,zero would be appropriate.)
【0369】
descriptor()フィールドは、テーブル内に位置するディスクリプタループ(descriptor loop)である。ディスクリプタループ(descriptor loop)は追加的なディスクリプタを含むことができる。
【0370】
図38は、本発明の一実施例に係る超高画質放送サービスであることを識別できるディスクリプタを示した図である。
【0371】
本発明の一実施例に係るTVCTで超高画質級(UHD級)ビデオがサービスされるか否かは、後述する方法によってシグナリングすることができる。
【0372】
service_typeが0x07である場合、ビデオサービスを記述することができ、コンポーネントリストディスクリプタ(component list descriptor)を通じて伝送されるstream_info_details()に含まれた情報を通じて該当ストリームが受信装置でデコーディング及び再生可能であるか否かを判断することができる。また、UHDディスクリプタ及び/またはサービスロケーションディスクリプタ(service location descriptor)を通じて超高画質サービスに対する情報を提供することができる。
【0373】
service_typeが0x09である場合、パラメーター化サービスディスクリプタ(parameterized service descriptor)をさらに用いることができ、これを用いて超高画質サービスに対する具体的な情報を提供することができる。また、コンポーネントリストディスクリプタ(component list descriptor)及び/またはサービスロケーションディスクリプタ(service location descriptor)を通じて超高画質サービスに対する情報を提供することができる。
【0374】
service_typeが0x10である場合、UHDディスクリプタ及び/またはサービスロケーションディスクリプタ(service location descriptor)を通じて超高画質サービスに対する情報を提供することができる。
【0375】
図39は、本発明の他の一実施例に係るビデオデータ処理方法を示した図である。
【0376】
本発明の一実施例に係るビデオデータ処理方法は、ビデオデータをデコーディングする段階(S39010)及び/又はインターフェースを介して前記デコーディングされたビデオデータ及び前記ビデオデータのダイナミックレンジ関連情報を含むダイナミックレンジマスタリング情報をシンクデバイスに伝送する段階(S39020)を含むことができる。ここで、ダイナミックレンジマスタリング情報は、前記ビデオデータに使用されたEOTF(Electro Optical Transfer Function)を識別するEOTFタイプ情報を含むことができる。ダイナミックレンジマスタリング情報に対しては、
図11、
図12及び
図14を参照して詳細に説明した。
【0377】
本発明の他の一実施例によると、ダイナミックレンジマスタリング情報は、マスタリングディスプレイの最大明るさを示す情報及び/又はマスタリングディスプレイの最小明るさを示す情報を含むことができる。ここで、マスタリングディスプレイの最大明るさを示す情報はOrig_white_luminance_level情報を示すことができ、マスタリングディスプレイの最小明るさを示す情報はOrig_black_luminance_level情報を示すことができる。これに対しては、
図11、
図12及び
図14を参照して詳細に説明した。
【0378】
本発明の他の一実施例によると、ダイナミックレンジマスタリング情報は、マスタリングディスプレイの三原色及びホワイト色相の色度座標情報を含むことができる。ここで、マスタリングディスプレイの三原色の色度座標情報及び/又はマスタリングディスプレイのホワイト色相の色度座標情報はOrig_color_gamut、Red―x、Red―y、Green―x、Green―y、Blue―x、Blue―y、White―x及び/又はWhite―yフィールドを用いてシグナリングすることができる。これに対しては、
図11、
図12及び
図14を参照して詳細に説明した。
【0379】
本発明の他の一実施例によると、ダイナミックレンジマスタリング情報は、EOTFタイプ情報によるEOTFに対する付加情報を含むことができる。ここで、EOTFに対する付加情報は、EOTF_additional_info及び/又はEOTF_Coefficientを含むことができる。これに対しては、
図11及び
図14を参照して説明した。
【0380】
図40は、本発明の一実施例に係るビデオデータ処理装置の構成を示した図である。
【0381】
本発明の一実施例に係るビデオデータ処理装置40030は、受信部40010及び/又は再生部40020を含むことができる。
【0382】
受信部は、インターフェースを介してソースデバイスからビデオデータ及び前記ビデオデータのダイナミックレンジ関連情報を含むダイナミックレンジマスタリング情報を受信することができる。ここで、前記ダイナミックレンジマスタリング情報は、前記ビデオデータに使用されたEOTF(Electro Optical Transfer Function)を識別するEOTFタイプ情報を含むことができる。
【0383】
再生部は、前記受信したビデオデータを再生することができる。
本発明の一実施例に係るビデオデータ処理装置40030の構成は、上述したビデオデータ処理方法(
図1)の対応する各段階を行うことができる。また、各構成は、ハードウェアに該当したり、ハードウェアに結合して処理することができる。
【0384】
図41は、本発明の他の一実施例に係るビデオデータ処理装置の構成を示した図である。
【0385】
本発明の一実施例に係るビデオデータ処理装置41030は、デコーダー41010及び/又は伝送部41020を含むことができる。
デコーダーは、ビデオデータをデコーディングすることができる。
【0386】
伝送部は、インターフェースを介して前記デコーディングされたビデオデータ及び前記ビデオデータのダイナミックレンジ関連情報を含むダイナミックレンジマスタリング情報をシンクデバイスに伝送することができる。ここで、前記ダイナミックレンジマスタリング情報は、前記ビデオデータに使用されたEOTF(Electro Optical Transfer Function)を識別するEOTFタイプ情報を含むことができる。
【0387】
本発明の一実施例に係るビデオデータ処理装置41030の構成は、上述したビデオデータ処理方法(
図39)の対応する各段階を行うことができる。また、各構成は、ハードウェアに該当したり、ハードウェアに結合して処理することができる。
【0388】
本発明の各実施例に係るモジュール、ユニット又はブロックは、メモリ(又は格納ユニット)に格納された連続した遂行過程を実行するプロセッサ/ハードウェアであり得る。上述した実施例に記述した各段階又は各方法は、ハードウェア/プロセッサによって行うことができる。また、本発明が提示する各方法はコードとして実行することができる。このコードは、プロセッサで読み取り可能な格納媒体に使用することができ、したがって、本発明の各実施例に係る装置が提供するプロセッサによって読み取り可能である。
【0389】
説明の便宜上、各図面を分けて説明したが、各図面に敍述している各実施例を併合して新たな実施例を具現するように設計することも可能である。そして、当業者の必要に応じて、以前に説明した各実施例を実行するためのプログラムが記録されているコンピューターで判読可能な記録媒体を設計することも本発明の権利範囲に属する。
【0390】
本発明に係る装置及び方法は、上述した各実施例の構成と方法を限定的に適用するものではなく、上述した各実施例は、多様に変形できるように各実施例の全部又は一部を選択的に組み合わせて構成することもできる。
【0391】
一方、本発明の映像処理方法は、ネットワークデバイスに備えられたプロセッサで読み取り可能な記録媒体にプロセッサで読み取り可能なコードとして具現することが可能である。プロセッサで読み取り可能な記録媒体は、プロセッサによって読まれるデータが格納される全ての種類の記録装置を含む。プロセッサで読み取り可能な記録媒体の例としては、ROM、RAM、CD―ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ格納装置などがあり、また、インターネットを介した伝送などのキャリアウェーブの形態で具現されるものも含む。また、プロセッサで読み取り可能な記録媒体は、ネットワークで連結されたコンピューターシステムに分散し、分散方式でプロセッサが読み取り可能なコードを格納して実行することができる。
【0392】
以上では、本発明の好ましい実施例に対して図示して説明したが、本発明は、上述した特定の実施例に限定されるものではなく、特許請求の範囲で請求する本発明の要旨から逸脱することなく、当該発明の属する技術分野で通常の知識を有する者によって多様な変形実施が可能であることは当然であり、このような変形実施は、本発明の技術的思想や展望から個別的に理解してはならないだろう。
【0393】
そして、当該明細書では、物件発明と方法発明を全て説明しており、必要に応じて両発明の説明は補充的に適用することができる。
【0394】
[発明の実施形態]
発明の実施形態は、上述したように、発明を実施するための形態で説明した。