【文献】
Frank Bossen, Philipp Kosse,Simplified motion vector coding method,Joint Collaborative Team on Video Coding (JCT-VC),2010年 7月21日,JCTVC-B094
【文献】
Jiali Zheng et al.,Extended Direct Mode for Hierarchical B Picture Coding,IEEE International Conference on Image Processing, 2005. ICIP 2005.,IEEE,2005年 9月11日,Vol.2,p.II-265-268
(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0031】
以下、本発明の実施の形態について、図面を参照しながら説明する。
【0032】
(実施の形態1)
図3は、本発明に係る動画像符号化方法を用いた動画像符号化装置の一実施の形態の構成を示すブロック図である。
【0033】
動画像符号化装置100は、
図3に示すように、直交変換部101、量子化部102、逆量子化部103、逆直交変換部104、ブロックメモリ105、フレームメモリ106、イントラ予測部107、インター予測部108、インター予測制御部109、ピクチャタイプ決定部110、時間ダイレクトベクトル算出部111、co-located参照方向決定部112、および可変長符号化部113を備えている。
【0034】
直交変換部101は、入力画像列に対し、画像領域から、周波数領域への変換を行う。量子化部102は、周波数領域に変換された入力画像列に対し、量子化処理を行う。逆量子化部103は、量子化部102により、量子化処理された入力画像列に対し、逆量子化処理を行う。逆直交変換部104は、逆量子化処理された入力画像列に対し、周波数領域から、画像領域への変換を行う。ブロックメモリ105は、入力画像列をブロック単位で保存し、フレームメモリ106は、入力画像列をフレーム単位で保存する。ピクチャタイプ決定部110は、Iピクチャ、Bピクチャ、Pピクチャのいずれのピクチャタイプで入力画像列を符号化するかを決定し、ピクチャタイプ情報を生成する。イントラ予測部107は、ブロックメモリ105に保存されているブロック単位の入力画像列を用いて、符号化対象ブロックをイントラ予測により符号化し、予測画像データを生成する。インター予測部108は、フレームメモリ106に保存されているフレーム単位の入力画像と、動き検出により導出した動きベクトルとを用いて、符号化対象ブロックをインター予測により符号化し、予測画像データを生成する。co-located参照方向決定部112は、符号化対象ピクチャより、表示時間順で、前方に位置するピクチャに含まれるブロック(以降、前方参照ブロックと呼ぶ)、または、後方に位置するピクチャに含まれるブロック(以降、後方参照ブロックと呼ぶ)のいずれをco-locatedブロックとするかを決定する。また、co-located参照方向決定部112は、前方参照ブロックまたは後方参照ブロックのいずれをco-locatedブロックとして決定したのかに応じて、co-located参照方向フラグをピクチャ毎に生成し、符号化対象ピクチャに付随させる。ここで、co-locatedブロックとは、符号化対象ブロックを含むピクチャとは異なるピクチャ内のブロックで、かつ、ピクチャ内における位置が、符号化対象ブロックと同じ位置になるブロックである。
【0035】
時間ダイレクトベクトル算出部111は、co-locatedブロックの参照動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補を導出する。時間ダイレクトベクトル算出部111は、co-locatedブロックが、2つの前方参照動きベクトル、または、2つの後方参照の動きベクトルを有している場合には、co-locatedブロックの2つの動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1、時間ダイレクトベクトル2)を導出する。また、時間ダイレクトベクトル算出部111は、時間ダイレクトベクトル1、時間ダイレクトベクトル2に、それぞれに対応する、予測動きベクトルインデックスの値を割り振る。時間ダイレクトベクトル算出部111は、co-locatedブロックが、2つの前方参照動きベクトル、または、2つの後方参照動きベクトルを有していない場合には、co-locatedブロックが前方参照ブロックであるか、後方参照ブロックであるかにより、時間ダイレクトに用いるco-locatedブロックの動きベクトルを決定する。すなわち、co-locatedブロックが後方参照ブロックである場合には、時間ダイレクトベクトル算出部111は、co-locatedブロックの前方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。ここで、co-locatedブロックが前方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部111は、後方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。一方、co-locatedブロックが前方参照ブロックである場合には、時間ダイレクトベクトル算出部111は、co-locatedブロックの後方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。ここで、co-locatedブロックが後方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部111は、前方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。
【0036】
インター予測制御部109は、複数の予測動きベクトル候補から、動き検出により導出された動きベクトルとの誤差が最も小さい予測動きベクトル候補を用いて、動きベクトルの符号化を行うと決定する。ここで、誤差は、予測動きベクトル候補と、動き検出により導出された動きベクトルとの差分値を示す。また、決定した予測動きベクトルに対応する予測動きベクトルインデックスをブロック毎に生成する。そして、予測動きベクトルインデックスと、予測動きベクトル候補と動きベクトルとの誤差を示す誤差情報とを、可変長符号化部113に送る。
【0037】
直交変換部101は、生成された予測画像データと、入力画像列との予測誤差データに対し、画像領域から、周波数領域への変換を行う。量子化部102は、周波数領域へ変換した予測誤差データに対し、量子化処理を行う。可変長符号化部113は、量子化処理された予測誤差データ、予測動きベクトルインデックス、予測動きベクトル候補の誤差情報、ピクチャタイプ情報、co-located参照方向フラグに対し、可変長符号化処理を行うことで、ビットストリームを生成する。
【0038】
図4は、本発明に係る動画像符号化方法の処理フローの概要を示すフローチャートである。ステップS101では、co-located参照方向決定部112は、予測動きベクトル候補を時間ダイレクトで導出する際に、前方参照ブロック、または、後方参照ブロックのいずれをco-locatedブロックとするか決定する。また、co-located参照方向決定部112は、co-locatedブロックが前方参照ブロックであるか後方参照ブロックであるかを示すco-located参照方向フラグをピクチャ毎に生成し、ピクチャに付随させる。
【0039】
ステップS102では、時間ダイレクトベクトル算出部111は、co-locatedブロックの参照動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補を導出する。すなわち、co-locatedブロックが、2つの前方参照動きベクトル、または、2つの後方参照動きベクトルを有している場合には、時間ダイレクトベクトル算出部111は、co-locatedブロックの2つの動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1、時間ダイレクトベクトル2)を導出する。また、時間ダイレクトベクトル算出部111は、時間ダイレクトベクトル1、時間ダイレクトベクトル2に、それぞれに対応する、予測動きベクトルインデックスの値を割り振る。ここで、一般に、予測動きベクトルインデックスは、値の小さい場合に必要な情報量が少なくなる。一方、値が大きくなると、必要な情報量が大きくなる。従って、より精度の高い動きベクトルとなる可能性の高い動きベクトルに対応する、予測動きベクトルインデックスの値を小さくすると、符号化効率が高くなる。そこで、co-locatedブロックの参照動きベクトル1(mvL0)を用いて導出した時間ダイレクトベクトル1に対するインデックスの値を、co-locatedブロックの参照動きベクトル2(mvL1)を用いて導出した時間ダイレクトベクトル2に対するインデックスの値よりも小さくする。co-locatedブロックが、2つの前方参照動きベクトル、または、2つの後方参照動きベクトルを有している場合には、参照動きベクトル2よりも参照動きベクトル1の方を優先して動き検出した可能性が高く、参照動きベクトル1を用いて導出した時間ダイレクトベクトルの方が、精度がよくなる可能性が高いためである。また、co-locatedブロックを含むピクチャから、co-locatedブロックが参照する参照ピクチャまでの距離に基づいてインデックスの値を割り振ってもよい。例えば、co-locatedブロックを含むピクチャから、co-locatedブロックが参照する参照ピクチャまでの間に含まれるピクチャ数に応じて距離を決定する。参照動きベクトル1の距離が、参照動きベクトル2の距離より短い場合には、時間ダイレクトベクトル1のインデックスの値を、時間ダイレクト2のインデックスの値よりも小さくする。参照動きベクトルの絶対値の大きさに基づいて、インデックスの値を決定してもよい。
【0040】
一方、co-locatedブロックが、2つの前方参照動きベクトル、または、2つの後方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部111は、co-locatedブロックが前方参照ブロックであるか、後方参照ブロックであるかにより、時間ダイレクトに用いるco-locatedブロックの動きベクトルを決定する。すなわち、co-locatedブロックが後方参照ブロックである場合には、時間ダイレクトベクトル算出部111は、co-locatedブロックの前方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。ここで、co-locatedブロックが前方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部111は、後方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。一方、co-locatedブロックが前方参照ブロックである場合には、時間ダイレクトベクトル算出部111は、co-locatedブロックの後方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。ここで、co-locatedブロックが後方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部111は、前方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。
【0041】
ステップS103では、インター予測制御部109は、動き検出により導出された動きベクトルを用いてインター予測によりピクチャを符号化する。また、インター予測制御部109は、予測動きベクトル候補から、誤差の最も小さい予測動きベクトルを用いて、動きベクトルの符号化を行うと決定する。例えば、予測動きベクトル候補と、動き検出により導出された動きベクトルとの差分値を誤差とし、最も誤差の小さい予測動きベクトル候補を、動きベクトルの符号化を行う際に用いると決定する。そして、可変長符号化部113は、選択された予測動きベクトル候補に対応する予測動きベクトルインデックスと、決定された予測動きベクトル候補の誤差情報とを可変長符号化する。
【0042】
図5Aは、予測動きベクトル候補の一例を示す図である。動きベクトルA(MV_A)は、符号化対象ブロックの左隣に位置する隣接ブロックAの動きベクトルである。動きベクトルB(MV_B)は、符号化対象ブロックの上隣に位置する隣接ブロックBの動きベクトルである。動きベクトルC(MV_C)は、符号化対象ブロックの右上隣に位置する隣接ブロックCの動きベクトルである。また、Median(MV_A,MV_B,MV_C)は、動きベクトルA、B、Cの中間値を示している。ここで、中間値は、以下に示す(式1)〜(式3)により導出される。
【0044】
図5Bは、予測動きベクトルインデックスの割り当て方の一例を示す図である。予測動きベクトルインデックスの値は、Median(MV_A,MV_B,MV_C)に対応する値を「0」とし、動きベクトルAに対応する値を「1」とし、MV_Bに対応する値を「2」とし、MV_Cに対応する値を「3」とし、時間ダイレクトベクトル1に対応する値を「4」とし、時間ダイレクトベクトル2に対応する値を「5」としている。予測動きベクトルインデックスの割り当て方は、この例に限らない。
【0045】
図6は、予測動きベクトルインデックスを可変長符号化する際に用いる、符号表の一例を示す図である。予測動きベクトルインデックスの値の小さい順に、符号長の短い符号を割り当てている。従って、予測精度が良い可能性の高い予測動きベクトル候補に対応する、予測動きベクトルインデックスの値を小さくすることにより、符号化効率を向上させることができる。
【0046】
図7は、インター予測制御部109における、予測動きベクトル候補の決定フローを示すフローチャートである。ステップS201では、予測動きベクトル候補インデックスmvp_idx=0、最小動きベクトル誤差=∞とする。ステップS202では、予測動きベクトル候補インデックスmvp_idxが予測動きベクトル候補数より小さいか否かを判断する。ステップS202において、予測動きベクトル候補インデックスmvp_idxが予測動きベクトル候補数より小さいと判断された場合(ステップS202でYes)に、ステップS203では、動きベクトル誤差を動き検出により導出した動きベクトルと予測動きベクトル候補との差により算出する。ステップS204では、ステップS202において算出した動きベクトル誤差が最小動きベクトル誤差より小さいか否かを判断する。ステップS204において動きベクトル誤差が最小動きベクトル誤差より小さいと判断された場合(ステップS204でYes)に、ステップS205では、最小動きベクトル誤差を算出した動きベクトル誤差とし、予測動きベクトルインデックスを予測動きベクトル候補インデックスmvp_idxとする。ステップS206では、予測動きベクトル候補インデックスmvp_idxに「1」を加算し、ステップS202に戻る。ステップS202において、予測動きベクトル候補インデックスmvp_idxが予測動きベクトル候補数より小さくないと判断された場合(ステップS202でNo)に、ステップS207では、最小動きベクトル誤差と予測動きベクトルインデックスとを可変長符号化する。以上のように
図7に示すフローにより、動き検出により導出した動きベクトルとの誤差が最も小さい予測動きベクトル候補を、動きベクトルを符号化する際に用いると決定する。そして、決定した予測動きベクトル候補の誤差情報と、決定した予測動きベクトルを示す予測動きベクトルインデックスを可変長符号化する。
【0047】
図8は、
図4のステップS102の詳細な処理フローを示すフローチャートである。以下、
図8について説明する。ステップS301では、時間ダイレクトベクトル算出部111は、co-locatedブロックが、参照動きベクトルを有しているか否かを判断する。ステップS301において、co-locatedブロックが参照動きベクトルを有していると判断された場合(ステップS301でYes)に、ステップS302では、時間ダイレクトベクトル算出部111は、co-locatedブロックが前方を2度参照、または、後方を2度参照しているか否かを判断する。ステップS302において、co-locatedブロックが、前方を2度参照、または、後方を2度参照していると判断された場合(ステップS302でYes)には、ステップS303では、時間ダイレクトベクトル算出部111は、co-locatedブロックの動きベクトル(mvL0)を用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。ステップS304では、時間ダイレクトベクトル算出部111は、co-locatedブロックの動きベクトル(mvL1)を用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル2)を導出する。ステップS305では、時間ダイレクトベクトル算出部111は、予測動きベクトル候補に、時間ダイレクトベクトル1、2を追加する。
【0048】
ステップS302において、co-locatedブロックが、前方を2度参照、または、後方を2度参照していないと判断された場合(ステップS302でNo)には、ステップS306では、時間ダイレクトベクトル算出部111は、co-locatedブロックが後方参照ブロックであるか否かを判断する。ステップS306において、co-locatedブロックが後方参照ブロックであると判断された場合(ステップS306でYes)に、ステップS7では、時間ダイレクトベクトル算出部111は、co-locatedブロックが前方参照動きベクトル(mvL0)を有するか否かを判断する。ステップS7において、co-locatedブロックが前方参照動きベクトル(mvL0)を有する判断された場合(ステップS307でYes)には、ステップS308では、時間ダイレクトベクトル算出部111は、前方参照動きベクトル(mvL0)を用いて、時間ダイレクトにより、時間ダイレクトベクトル1を導出する。一方、ステップS307において、co-locatedブロックが前方参照動きベクトル(mvL0)を有していないと判断された場合(ステップS307でNo)には、ステップS309では、時間ダイレクトベクトル算出部111は、co-locatedブロックの後方参照動きベクトル(mvL1)を用いて、時間ダイレクトにより、時間ダイレクトベクトル1を導出する。ステップS306において、co-locatedブロックが後方参照ブロックではない、すなわち、前方参照ブロックであると判断された場合(ステップS306でNo)には、ステップS310では、時間ダイレクトベクトル算出部111は、co-locatedブロックが後方参照動きベクトル(mvL1)を有しているか否かを判断する。ステップS10において、co-locatedブロックが後方参照動きベクトル(mvL1)を有していると判断された場合(ステップS310でYes)に、ステップS311では、時間ダイレクトベクトル算出部111は、後方参照動きベクトル(mvL1)を用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。一方、ステップS310において、co-locatedブロックが後方参照動きベクトル(mvL1)を有していないと判断された場合(ステップS310でNo)には、ステップS312では、時間ダイレクトベクトル算出部111は、co-locatedブロックの前方参照動きベクトル(mvL0)を用いて、時間ダイレクトにより、時間ダイレクトベクトル1を導出する。ステップS13では、時間ダイレクトベクトル算出部111は、ステップS308、ステップS309、ステップS311、ステップS312において導出した時間ダイレクトベクトル1を、予測動きベクトル候補に追加する。
【0049】
ステップS301において、co-locatedブロックが参照動きベクトル(mvL0、mvL1)を有していないと判断された場合(ステップS301でNo)には、ステップS314では、時間ダイレクトベクトル算出部111は、時間ダイレクトにより、予測動きベクトル候補を導出することは行わず、予測動きベクトル候補に追加を行わない。
【0050】
次に、時間ダイレクトにより、動きベクトルを導出する方法について、詳細に説明する。
【0051】
図9Aは、co-locatedブロックが前方に2度参照している場合、すなわち、前方参照動きベクトルを2つ(mvL0、mvL1)有している場合に、それぞれの動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1、時間ダイレクトベクトル2)を導出する方法を示している。以下の計算式により、予測動きベクトル候補(TemporalMV1、2)を導出する。
【0052】
TemporalMV1=mvL0×(B8−B4)/(B4−B2)…(式4)
TemporalMV2=mvL1×(B8−B4)/(B4−B0)…(式5)
【0053】
ここで、(B4−B0)は、ピクチャB4とピクチャB0の表示時間における時間差情報、(B8−B4)は、ピクチャB8とピクチャB4の表示時間における時間差情報を示す。
【0054】
図9Bは、co-locatedブロックが後方に2度参照している場合、すなわち、後方参照動きベクトルを2つ(mvL0、mvL1)有している場合に、それぞれの動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1、時間ダイレクトベクトル2)を導出する方法を示している。以下の計算式により、予測動きベクトル候補(TemporalMV1、2)を導出する。
【0055】
TemporalMV1=mvL0×(B2−B0)/(B4−B2)…(式6)
TemporalMV2=mvL1×(B2−B0)/(B8−B2)…(式7)
【0056】
ここで、(B4−B0)は、ピクチャB4とピクチャB0の表示時間における時間差情報、(B8−B4)は、ピクチャB8とピクチャB4の表示時間における時間差情報を示す。
【0057】
図10Aは、co-locatedブロックが後方参照ブロックであり、前方参照動きベクトルと、後方参照動きベクトルとを有する場合に、前方参照動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1)を導出する方法を示している。前方参照動きベクトルを用いて、以下の計算式により、予測動きベクトル候補(TemporalMV1)を導出する。
【0058】
TemporalMV1=mvL0×(B2−B0)/(B4−B0)…(式8)
【0059】
ここで、(B2−B0)は、ピクチャB2とピクチャB0の表示時間における時間差情報、(B4−B0)は、ピクチャB4とピクチャB0の表示時間における時間差情報を示す。
【0060】
図10Bは、co-locatedブロックが後方参照ブロックであり、後方参照動きベクトルのみ有する場合に、後方参照動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1)を導出する方法を示している。後方参照動きベクトルを用いて、以下の計算式により、予測動きベクトル候補を導出する。
【0061】
TemporalMV1=mvL1×(B2−B0)/(B4−B8)…(式9)
【0062】
図11Aは、co-locatedブロックが前方参照ブロックであり、前方参照動きベクトルと、後方参照動きベクトルとを有する場合に、後方参照動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1)を導出する方法を示している。後方参照動きベクトルを用いて、以下の計算式により、予測動きベクトル候補を導出する。
【0063】
TemporalMV1=mvL1×(B6−B8)/(B4−B8)…(式10)
【0064】
図11Bは、co-locatedブロックが前方参照ブロックであり、前方参照動きベクトルのみ有する場合に、前方参照動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1)を導出する方法を示している。後方参照動きベクトルを用いて、以下の計算式により、予測動きベクトル候補を導出する。
【0065】
TemporalMV1=mvL0×(B6−B8)/(B4−B0)…(式11)
【0066】
このように、本実施の形態は、動きベクトルを符号化する際に、複数の予測動きベクトル候補から、最も誤差の小さい予測動きベクトル候補を用いることにより、符号化効率を向上させることができる。例えば、動き検出による動きベクトルと、予測動きベクトル候補との差分値と誤差とする。また、co-locatedブロックの位置、及び、co-locatedブロックの有する参照動きベクトルの数に応じて、時間ダイレクトの際に用いるco-locatedブロックの参照動きベクトルを選択することにより、精度の高い予測動きベクトル候補に絞ることができ、符号化、復号化の際における処理負荷を軽減することが可能となる。具体的には、co-locatedブロックが、前方2度参照、又は、後方2度参照している場合には、co-locatedブロックの2つの動きベクトルを用いて、時間ダイレクトにより導出した予測動きベクトル候補(時間ダイレクトベクトル1、時間ダイレクトベクトル2)の精度が近似する可能性が高い。従って、このような場合には、両方を予測動きベクトル候補とする。一方、co-locatedブロックが前方参照動きベクトルと、後方参照動きベクトルとを有している場合には、co-locatedブロックの位置に応じて、時間ダイレクトに用いる動きベクトルを選択する。co-locatedブロックが後方参照ブロックである場合には、前方参照動きベクトルを用いる。前方参照動きベクトルは、co-locatedブロックを含むピクチャから、符号化対象ブロックを含むピクチャ方向への動きベクトルであり、後方参照動きベクトルよりも予測誤差が小さくなる可能性が高いためである。一方、co-locatedブロックが前方参照ブロックである場合には、後方参照動きベクトルを用いる。後方参照動きベクトルは、co-locatedブロックを含むピクチャから、符号化対象ブロックを含むピクチャ方向への動きベクトルであり、前方参照動きベクトルよりも予測誤差が小さくなる可能性が高いためである。
【0067】
なお、本実施の形態では、co-locatedブロックが前方2度参照、または、後方2度参照しているか否かを判断しているが、更に、co-locatedブロックの位置も同時に判断してもよい。具体的には、
図8のステップS302において、co-locatedブロックが前方参照ブロックである場合に、前方を2度参照しているか、または、co-locatedブロックが後方参照ブロックである場合に、後方を2度参照しているかを判断する。co-locatedブロックが後方参照ブロックである場合に、後方参照動きベクトルは、co-locatedブロックを含むピクチャから、符号化対象ブロックを含むピクチャとは反対側に位置するピクチャ方向への動きベクトルであるため、予測精度が低くなる。このような場合に、時間ダイレクトベクトル1、2の両方を導出することにより、予測精度を高める。このように、予測精度が低くなる場合にのみ、時間ダイレクトベクトル1、2を求めることにより、予測精度を高めつつ、処理量を抑制することが可能になる。
【0068】
また、
図8においては、co-locatedブロックが参照動きベクトルを有していない場合には、時間ダイレクトベクトルを算出しないとしているが、他のブロックをco-locatedブロックとすることにより、時間ダイレクトベクトルを算出することが可能である。例えば、co-locatedブロックが後方参照ブロックであり、参照動きベクトルを有していない場合には、前方参照ブロックをco-locatedブロックとすることが考えられる。この場合、前方参照ブロックの参照動きベクトルのうち、表示順で、後方の参照動きベクトルを用いることにより、予測精度を向上させることが可能である。また、前方参照ブロックが、表示順で、後方の参照動きベクトルを有していない場合には、表示順で、前方の参照動きベクトルを用いることにより、時間ダイレクトベクトルを導出することが可能となる。一方、co-locatedブロックが前方参照ブロックであり、参照動きベクトルを有していない場合には、後方参照ブロックをco-locatedブロックとすることが考えられる。この場合、後方参照ブロックの参照動きベクトルのうち、表示順で、前方の参照動きベクトルを用いることにより、予測精度を向上させることが可能である。また、後方参照ブロックが、表示順で、前方の参照動きベクトルを有していない場合には、表示順で、後方の参照動きベクトルを用いることにより、時間ダイレクトベクトルを導出することが可能となる。なお、co-locatedブロックは、符号化対象ピクチャの参照ピクチャリストL0のインデックスの値が「0」のピクチャ内のブロックを用いている。従って、参照ピクチャリストL0のインデックスの値が「0」で特定されるco-locatedブロックが参照動きベクトルを有さない場合には、参照ピクチャリストL1のインデックスの値が「0」で特定されるco-locatedブロックの参照動きベクトルを用いることが考えられる。
【0069】
(実施の形態2)
本実施の形態は、
図8に示す判断ステップS302が、実施の形態1と異なる。以下、実施の形態1と異なる点を中心に説明する。
【0070】
図12は、
図4のステップS102の実施の形態2における詳細な処理フローを示すフローチャートである。以下、
図12について説明する。
【0071】
図12のステップS402では、時間ダイレクトベクトル算出部111は、参照リストL1と参照リストL2における参照ピクチャに対する参照ピクチャインデックスの割り当て方が同じであるかを判断している。一般に、参照リストL2は、表示時間順で、符号化対象ピクチャより後方に位置するピクチャに対し、参照ピクチャインデックスを割り振る。一方、参照リストL1は、表示時間順で、符号化対象ピクチャより前方に位置するピクチャに対し、参照ピクチャインデックスを割り振る。従って、参照リストL2と、参照リストL1における参照ピクチャに対する参照ピクチャインデックスの割り振り方が同じ場合には、参照方向が、符号化対象ピクチャよりも表示順で前方、または、後方のいずれか一方に制限される。
【0072】
ステップS402において、参照リストL1と、参照リストL2における参照ピクチャに対する参照ピクチャインデックスの割り当て方が同じであると判断された場合(ステップS402でYes)に、ステップS403、ステップS404において、時間ダイレクトベクトル算出部111は、co-locatedブロックの参照動きベクトルmvL0、mvL1を用いて時間ダイレクトにより、時間ダイレクトベクトル1、2を導出する。参照動きベクトルmvL0、mvL1は、同じ参照方向であるため、予測精度が近似する。従って、両方を予測動きベクトル候補に追加することにより、予測精度を向上させることが可能である。co-locatedブロックが、参照動きベクトルmvL0、mvL1のいずれか一方しか有していない場合には、いずれか一方のみを用いて、時間ダイレクトにより、時間ダイレクトベクトル1を導出する。すなわち、S3、S4のいずれか一方のみを実行する。ステップS406以降の処理は、実施の形態1と同じであるため説明を省略する。
【0073】
このように、本実施の形態は、参照リストに基づいて判断を行うことにより、符号化・復号化の際の処理量を軽減している。参照リストは、ピクチャ毎に有していることから、ピクチャ単位で判断すればよく、ブロック単位で判断する必要がなくなるため、処理量を軽減することが可能となる。
【0074】
(実施の形態3)
図13は、本発明に係る動画像復号化方法を用いた動画像復号化装置の一実施の形態の構成を示すブロック図である。
【0075】
本実施の形態では、復号化対象ピクチャより、表示時間順で、前方に位置するピクチャに含まれるブロックを、前方参照ブロックと呼ぶ。また、復号化対象ピクチャより、表示時間順で、後方に位置するピクチャに含まれるブロックを、後方参照ブロックと呼ぶ。
【0076】
動画像復号化装置200は、
図13に示すように、可変長復号化部201、逆量子化部202、逆直交変換部203、ブロックメモリ204、フレームメモリ205、イントラ予測部206、インター予測部207、インター予測制御部208、時間ダイレクトベクトル算出部209を備えている。
【0077】
可変長復号化部201は、入力されたビットストリームに対し、可変長復号化処理を行い、ピクチャタイプ情報、予測動きベクトルインデックス、co-located参照方向フラグ、可変長復号化処理を行ったビットストリームを生成する。逆量子化部202は、可変長復号化処理を行ったビットストリームに対し、逆量子化処理を行う。逆直交変換部203は、逆量子化処理を行ったビットストリームを、周波数領域から、画像領域への変換し、予測誤差画像データとする。ブロックメモリ204は、予測誤差画像データと、予測画像データが加算されて生成された画像列を、ブロック単位で保存し、フレームメモリ205は、画像列を、フレーム単位で保存する。イントラ予測部206は、ブロックメモリ204に保存されているブロック単位の画像列を用いて、イントラ予測することにより、復号化対象ブロックの予測誤差画像データを生成する。インター予測部207は、フレームメモリ205に保存されているフレーム単位の画像列を用いて、インター予測することにより、復号化対象ブロックの予測誤差画像データを生成する。時間ダイレクトベクトル算出部209は、co-locatedブロックの参照動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補を導出する。co-locatedブロックが、2つの前方参照動きベクトル、または、2つの後方参照の動きベクトルを有している場合には、co-locatedブロックの2つの動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1、時間ダイレクトベクトル2)を導出する。また、時間ダイレクトベクトル算出部209は、時間ダイレクトベクトル1、時間ダイレクトベクトル2に、それぞれに対応する、予測動きベクトルインデックスの値を割り振る。co-locatedブロックが、2つの前方参照動きベクトル、または、2つの後方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部209は、co-locatedブロックが前方参照ブロックであるか、後方参照ブロックであるかにより、時間ダイレクトに用いるco-locatedブロックの動きベクトルを決定する。co-locatedブロックが後方参照ブロックである場合には、時間ダイレクトベクトル算出部209は、co-locatedブロックの前方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。co-locatedブロックが前方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部209は、後方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。一方、co-locatedブロックが前方参照ブロックである場合には、時間ダイレクトベクトル算出部209は、co-locatedブロックの後方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。co-locatedブロックが後方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部209は、前方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。インター予測制御部208は、複数の予測動きベクトル候補から、予測動きベクトルインデックスに基づいて、インター予測の際に用いる動きベクトルを決定する。また、インター予測制御部208は、決定した予測動きベクトル候補のベクトルの値に、予測動きベクトル候補の誤差情報を加算することにより、インター予測の際に用いる動きベクトルとする。
【0078】
最後に、復号化した予測画像データと、予測誤差画像データとを加算することにより、復号画像列を生成する。
【0079】
図14は、本発明に係る動画像復号化方法の処理フローの概要を示すフローチャートである。ステップS501では、可変長復号化部201は、ピクチャ単位で、co-located参照方向フラグを復号化する。
【0080】
ステップS502では、時間ダイレクトベクトル算出部209は、co-located参照フラグに基づいて、前方参照ブロックをco-locatedブロックとするか、後方参照ブロックをco-locatedブロックとするか決定する。時間ダイレクトベクトル算出部209は、co-locatedブロックの参照動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補を導出する。co-locatedブロックが、2つの前方参照動きベクトル、または、2つの後方参照動きベクトルを有している場合には、co-locatedブロックの2つの動きベクトルを用いて、時間ダイレクトにより、予測動きベクトル候補(時間ダイレクトベクトル1、時間ダイレクトベクトル2)を導出する。また、時間ダイレクトベクトル算出部209は、時間ダイレクトベクトル1、時間ダイレクトベクトル2に、それぞれに対応する、予測動きベクトルインデックスの値を割り振る。予測動きベクトルインデックスの割り振り方は、実施の形態1に従う。co-locatedブロックが、2つの前方参照動きベクトル、または、2つの後方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部209は、co-locatedブロックが前方参照ブロックであるか、後方参照ブロックであるかにより、時間ダイレクトに用いるco-locatedブロックの動きベクトルを決定する。co-locatedブロックが後方参照ブロックである場合には、時間ダイレクトベクトル算出部209は、co-locatedブロックの前方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。co-locatedブロックが前方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部209は、後方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。一方、co-locatedブロックが前方参照ブロックである場合には、時間ダイレクトベクトル算出部209は、co-locatedブロックの後方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。co-locatedブロックが後方参照動きベクトルを有していない場合には、時間ダイレクトベクトル算出部209は、前方参照動きベクトルを用いて、時間ダイレクトにより予測動きベクトル候補(時間ダイレクトベクトル1)を導出する。
【0081】
ステップS503では、インター予測制御部208は、複数の予測動きベクトル候補から、予測動きベクトルインデックスに基づいて、インター予測の際に用いる動きベクトルを決定する。また、インター予測制御部208は、決定した予測動きベクトル候補に、誤差情報を加算し、動きベクトルを導出する。導出した動きベクトルを用いて、インター予測により復号化を行う。
【0082】
このように、本実施の形態によれば、復号化対象ブロックに最適な動きベクトルを選択することができるため、高効率で圧縮したビットストリームを適切に復号することが可能になる。
【0083】
また、co-locatedブロックの位置、及び、co-locatedブロックの有する参照動きベクトルの数に応じて、時間ダイレクトの際に用いるco-locatedブロックの参照動きベクトルを選択することにより、精度の高い予測動きベクトル候補に絞ることができ、処理負荷を軽減することが可能となる。具体的には、co-locatedブロックが、前方2度参照、又は、後方2度参照している場合には、co-locatedブロックの2つの動きベクトルを用いて、時間ダイレクトにより導出した予測動きベクトル候補(時間ダイレクトベクトル1、時間ダイレクトベクトル2)の精度が近似する可能性が高い。従って、このような場合には、両方を予測動きベクトル候補とする。一方、co-locatedブロックが前方参照動きベクトルと、後方参照動きベクトルとを有している場合には、co-locatedブロックの位置に応じて、時間ダイレクトに用いる動きベクトルを選択する。co-locatedブロックが後方参照ブロックである場合には、前方参照動きベクトルを用いる。前方参照動きベクトルは、co-locatedブロックを含むピクチャから、符号化対象ブロックを含むピクチャ方向への動きベクトルであり、後方参照動きベクトルよりも予測誤差が小さくなる可能性が高いためである。一方、co-locatedブロックが前方参照ブロックである場合には、後方参照動きベクトルを用いる。後方参照動きベクトルは、co-locatedブロックを含むピクチャから、符号化対象ブロックを含むピクチャ方向への動きベクトルであり、前方参照動きベクトルよりも予測誤差が小さくなる可能性が高いためである。
【0084】
なお、本実施の形態では、co-locatedブロックが前方2度参照、または、後方2度参照しているか否かを判断しているが、更に、co-locatedブロックの位置も同時に判断してもよい。具体的には、co-locatedブロックが前方参照ブロックである場合に、前方を2度参照しているか、または、co-locatedブロックが後方参照ブロックである場合に、後方を2度参照しているかを判断する。co-locatedブロックが後方参照ブロックである場合に、後方参照動きベクトルは、co-locatedブロックを含むピクチャから、符号化対象ブロックを含むピクチャとは反対側に位置するピクチャ方向への動きベクトルであるため、予測精度が低くなる。このような場合に、時間ダイレクトベクトル1、2の両方を導出することにより、予測精度を高める。このように、予測精度が低くなる場合にのみ、時間ダイレクトベクトル1、2を求めることにより、予測精度を高めつつ、処理量を抑制することが可能になる。
【0085】
また、co-locatedブロックが前方2度参照、または、後方2度参照しているか否かの判断に換えて、参照リストL1と参照リストL2における参照ピクチャに対する参照ピクチャインデックスの割り当て方が同じであるかを判断してもよい。一般に、参照リストL2は、表示時間順で、符号化対象ピクチャより後方に位置するピクチャに対し、参照ピクチャインデックスを割り振る。一方、参照リストL1は、表示時間順で、符号化対象ピクチャより前方に位置するピクチャに対し、参照ピクチャインデックスを割り振る。従って、参照リストL2と、参照リストL1における参照ピクチャに対する参照ピクチャインデックスの割り振り方が同じ場合には、参照方向が、符号化対象ピクチャよりも表示順で前方、または、後方のいずれか一方に制限される。このように、参照リストに基づいて判断を行うことにより、処理量を軽減することが可能である。参照リストは、ピクチャ毎に有していることから、ピクチャ単位で判断すればよく、ブロック単位で判断する必要がなくなるためである。
【0086】
また、co-locatedブロックが参照動きベクトルを有していない場合には、他のブロックをco-locatedブロックとすることにより、時間ダイレクトベクトルを算出することが可能である。例えば、co-locatedブロックが後方参照ブロックであり、参照動きベクトルを有していない場合には、前方参照ブロックをco-locatedブロックとすることが考えられる。この場合、前方参照ブロックの参照動きベクトルのうち、表示順で、後方の参照動きベクトルを用いることにより、予測精度を向上させることが可能である。また、前方参照ブロックが、表示順で、後方の参照動きベクトルを有していない場合には、表示順で、前方の参照動きベクトルを用いることにより、時間ダイレクトベクトルを導出することが可能となる。一方、co-locatedブロックが前方参照ブロックであり、参照動きベクトルを有していない場合には、後方参照ブロックをco-locatedブロックとすることが考えられる。この場合、後方参照ブロックの参照動きベクトルのうち、表示順で、前方の参照動きベクトルを用いることにより、予測精度を向上させることが可能である。また、後方参照ブロックが、表示順で、前方の参照動きベクトルを有していない場合には、表示順で、後方の参照動きベクトルを用いることにより、時間ダイレクトベクトルを導出することが可能となる。なお、co-locatedブロックは、符号化対象ピクチャの参照ピクチャリストL0のインデックスの値が「0」のピクチャ内のブロックを用いている。従って、参照ピクチャリストL0のインデックスの値が「0」で特定されるco-locatedブロックが参照動きベクトルを有さない場合には、参照ピクチャリストL1のインデックスの値が「0」で特定されるco-locatedブロックの参照動きベクトルを用いることが考えられる。
【0087】
(実施の形態4)
上記各実施の形態で示した動画像符号化方法(画像符号化方法)または動画像復号化方法(画像復号方法)の構成を実現するためのプログラムを記憶メディアに記録することにより、上記各実施の形態で示した処理を独立したコンピュータシステムにおいて簡単に実施することが可能となる。記憶メディアは、磁気ディスク、光ディスク、光磁気ディスク、ICカード、半導体メモリ等、プログラムを記録できるものであればよい。
【0088】
さらにここで、上記各実施の形態で示した動画像符号化方法(画像符号化方法)や動画像復号化方法(画像復号方法)の応用例とそれを用いたシステムを説明する。当該システムは、画像符号化方法を用いた画像符号化装置、及び画像復号方法を用いた画像復号装置からなる画像符号化復号装置を有することを特徴とする。システムにおける他の構成について、場合に応じて適切に変更することができる。
【0089】
図15は、コンテンツ配信サービスを実現するコンテンツ供給システムex100の全体構成を示す図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex106、ex107、ex108、ex109、ex110が設置されている。
【0090】
このコンテンツ供給システムex100は、インターネットex101にインターネットサービスプロバイダex102および電話網ex104、および基地局ex106からex110を介して、コンピュータex111、PDA(Personal Digital Assistant)ex112、カメラex113、携帯電話ex114、ゲーム機ex115などの各機器が接続される。
【0091】
しかし、コンテンツ供給システムex100は
図15のような構成に限定されず、いずれかの要素を組合せて接続するようにしてもよい。また、固定無線局である基地局ex106からex110を介さずに、各機器が電話網ex104に直接接続されてもよい。また、各機器が近距離無線等を介して直接相互に接続されていてもよい。
【0092】
カメラex113はデジタルビデオカメラ等の動画撮影が可能な機器であり、カメラex116はデジタルカメラ等の静止画撮影、動画撮影が可能な機器である。また、携帯電話ex114は、GSM(登録商標)(Global System for Mobile Communications)方式、CDMA(Code Division Multiple Access)方式、W−CDMA(Wideband-Code Division Multiple Access)方式、若しくはLTE(Long Term Evolution)方式、HSPA(High Speed Packet Access)の携帯電話機、またはPHS(Personal Handyphone System)等であり、いずれでも構わない。
【0093】
コンテンツ供給システムex100では、カメラex113等が基地局ex109、電話網ex104を通じてストリーミングサーバex103に接続されることで、ライブ配信等が可能になる。ライブ配信では、ユーザがカメラex113を用いて撮影するコンテンツ(例えば、音楽ライブの映像等)に対して上記各実施の形態で説明したように符号化処理を行い(即ち、本発明の画像符号化装置として機能する)、ストリーミングサーバex103に送信する。一方、ストリーミングサーバex103は要求のあったクライアントに対して送信されたコンテンツデータをストリーム配信する。クライアントとしては、上記符号化処理されたデータを復号化することが可能な、コンピュータex111、PDAex112、カメラex113、携帯電話ex114、ゲーム機ex115等がある。配信されたデータを受信した各機器では、受信したデータを復号化処理して再生する(即ち、本発明の画像復号装置として機能する)。
【0094】
なお、撮影したデータの符号化処理はカメラex113で行っても、データの送信処理をするストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。同様に配信されたデータの復号化処理はクライアントで行っても、ストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。また、カメラex113に限らず、カメラex116で撮影した静止画像および/または動画像データを、コンピュータex111を介してストリーミングサーバex103に送信してもよい。この場合の符号化処理はカメラex116、コンピュータex111、ストリーミングサーバex103のいずれで行ってもよいし、互いに分担して行ってもよい。
【0095】
また、これら符号化・復号化処理は、一般的にコンピュータex111や各機器が有するLSIex500において処理する。LSIex500は、ワンチップであっても複数チップからなる構成であってもよい。なお、動画像符号化・復号化用のソフトウェアをコンピュータex111等で読み取り可能な何らかの記録メディア(CD−ROM、フレキシブルディスク、ハードディスクなど)に組み込み、そのソフトウェアを用いて符号化・復号化処理を行ってもよい。さらに、携帯電話ex114がカメラ付きである場合には、そのカメラで取得した動画データを送信してもよい。このときの動画データは携帯電話ex114が有するLSIex500で符号化処理されたデータである。
【0096】
また、ストリーミングサーバex103は複数のサーバや複数のコンピュータであって、データを分散して処理したり記録したり配信するものであってもよい。
【0097】
以上のようにして、コンテンツ供給システムex100では、符号化されたデータをクライアントが受信して再生することができる。このようにコンテンツ供給システムex100では、ユーザが送信した情報をリアルタイムでクライアントが受信して復号化し、再生することができ、特別な権利や設備を有さないユーザでも個人放送を実現できる。
【0098】
なお、コンテンツ供給システムex100の例に限らず、
図16に示すように、デジタル放送用システムex200にも、上記各実施の形態の少なくとも動画像符号化装置(画像符号化装置)または動画像復号化装置(画像復号装置)のいずれかを組み込むことができる。具体的には、放送局ex201では映像データに音楽データなどが多重化された多重化データが電波を介して通信または衛星ex202に伝送される。この映像データは上記各実施の形態で説明した動画像符号化方法により符号化されたデータである(即ち、本発明の画像符号化装置によって符号化されたデータである)。これを受けた放送衛星ex202は、放送用の電波を発信し、この電波を衛星放送の受信が可能な家庭のアンテナex204が受信する。受信した多重化データを、テレビ(受信機)ex300またはセットトップボックス(STB)ex217等の装置が復号化して再生する(即ち、本発明の画像復号装置として機能する)。
【0099】
また、DVD、BD等の記録メディアex215に記録した多重化データを読み取り復号化する、または記録メディアex215に映像信号を符号化し、さらに場合によっては音楽信号と多重化して書き込むリーダ/レコーダex218にも上記各実施の形態で示した動画像復号化装置または動画像符号化装置を実装することが可能である。この場合、再生された映像信号はモニタex219に表示され、多重化データが記録された記録メディアex215により他の装置やシステムにおいて映像信号を再生することができる。また、ケーブルテレビ用のケーブルex203または衛星/地上波放送のアンテナex204に接続されたセットトップボックスex217内に動画像復号化装置を実装し、これをテレビのモニタex219で表示してもよい。このときセットトップボックスではなく、テレビ内に動画像復号化装置を組み込んでもよい。
【0100】
図17は、上記各実施の形態で説明した動画像復号化方法および動画像符号化方法を用いたテレビ(受信機)ex300を示す図である。テレビex300は、上記放送を受信するアンテナex204またはケーブルex203等を介して映像データに音声データが多重化された多重化データを取得、または出力するチューナex301と、受信した多重化データを復調する、または外部に送信する多重化データに変調する変調/復調部ex302と、復調した多重化データを映像データと、音声データとに分離する、または信号処理部ex306で符号化された映像データ、音声データを多重化する多重/分離部ex303を備える。
【0101】
また、テレビex300は、音声データ、映像データそれぞれを復号化する、またはそれぞれの情報を符号化する音声信号処理部ex304、映像信号処理部ex305(本発明の画像符号化装置または画像復号装置として機能する)を有する信号処理部ex306と、復号化した音声信号を出力するスピーカex307、復号化した映像信号を表示するディスプレイ等の表示部ex308を有する出力部ex309とを有する。さらに、テレビex300は、ユーザ操作の入力を受け付ける操作入力部ex312等を有するインタフェース部ex317を有する。さらに、テレビex300は、各部を統括的に制御する制御部ex310、各部に電力を供給する電源回路部ex311を有する。インタフェース部ex317は、操作入力部ex312以外に、リーダ/レコーダex218等の外部機器と接続されるブリッジex313、SDカード等の記録メディアex216を装着可能とするためのスロット部ex314、ハードディスク等の外部記録メディアと接続するためのドライバex315、電話網と接続するモデムex316等を有していてもよい。なお記録メディアex216は、格納する不揮発性/揮発性の半導体メモリ素子により電気的に情報の記録を可能としたものである。テレビex300の各部は同期バスを介して互いに接続されている。
【0102】
まず、テレビex300がアンテナex204等により外部から取得した多重化データを復号化し、再生する構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、CPU等を有する制御部ex310の制御に基づいて、変調/復調部ex302で復調した多重化データを多重/分離部ex303で分離する。さらにテレビex300は、分離した音声データを音声信号処理部ex304で復号化し、分離した映像データを映像信号処理部ex305で上記各実施の形態で説明した復号化方法を用いて復号化する。復号化した音声信号、映像信号は、それぞれ出力部ex309から外部に向けて出力される。出力する際には、音声信号と映像信号が同期して再生するよう、バッファex318、ex319等に一旦これらの信号を蓄積するとよい。また、テレビex300は、放送等からではなく、磁気/光ディスク、SDカード等の記録メディアex215、ex216から多重化データを読み出してもよい。次に、テレビex300が音声信号や映像信号を符号化し、外部に送信または記録メディア等に書き込む構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、制御部ex310の制御に基づいて、音声信号処理部ex304で音声信号を符号化し、映像信号処理部ex305で映像信号を上記各実施の形態で説明した符号化方法を用いて符号化する。符号化した音声信号、映像信号は多重/分離部ex303で多重化され外部に出力される。多重化する際には、音声信号と映像信号が同期するように、バッファex320、ex321等に一旦これらの信号を蓄積するとよい。なお、バッファex318、ex319、ex320、ex321は図示しているように複数備えていてもよいし、1つ以上のバッファを共有する構成であってもよい。さらに、図示している以外に、例えば変調/復調部ex302や多重/分離部ex303の間等でもシステムのオーバフロー、アンダーフローを避ける緩衝材としてバッファにデータを蓄積することとしてもよい。
【0103】
また、テレビex300は、放送等や記録メディア等から音声データ、映像データを取得する以外に、マイクやカメラのAV入力を受け付ける構成を備え、それらから取得したデータに対して符号化処理を行ってもよい。なお、ここではテレビex300は上記の符号化処理、多重化、および外部出力ができる構成として説明したが、これらの処理を行うことはできず、上記受信、復号化処理、外部出力のみが可能な構成であってもよい。
【0104】
また、リーダ/レコーダex218で記録メディアから多重化データを読み出す、または書き込む場合には、上記復号化処理または符号化処理はテレビex300、リーダ/レコーダex218のいずれで行ってもよいし、テレビex300とリーダ/レコーダex218が互いに分担して行ってもよい。
【0105】
一例として、光ディスクからデータの読み込みまたは書き込みをする場合の情報再生/記録部ex400の構成を
図18に示す。情報再生/記録部ex400は、以下に説明する要素ex401、ex402、ex403、ex404、ex405、ex406、ex407を備える。光ヘッドex401は、光ディスクである記録メディアex215の記録面にレーザスポットを照射して情報を書き込み、記録メディアex215の記録面からの反射光を検出して情報を読み込む。変調記録部ex402は、光ヘッドex401に内蔵された半導体レーザを電気的に駆動し記録データに応じてレーザ光の変調を行う。再生復調部ex403は、光ヘッドex401に内蔵されたフォトディテクタにより記録面からの反射光を電気的に検出した再生信号を増幅し、記録メディアex215に記録された信号成分を分離して復調し、必要な情報を再生する。バッファex404は、記録メディアex215に記録するための情報および記録メディアex215から再生した情報を一時的に保持する。ディスクモータex405は記録メディアex215を回転させる。サーボ制御部ex406は、ディスクモータex405の回転駆動を制御しながら光ヘッドex401を所定の情報トラックに移動させ、レーザスポットの追従処理を行う。システム制御部ex407は、情報再生/記録部ex400全体の制御を行う。上記の読み出しや書き込みの処理はシステム制御部ex407が、バッファex404に保持された各種情報を利用し、また必要に応じて新たな情報の生成・追加を行うと共に、変調記録部ex402、再生復調部ex403、サーボ制御部ex406を協調動作させながら、光ヘッドex401を通して、情報の記録再生を行うことにより実現される。システム制御部ex407は例えばマイクロプロセッサで構成され、読み出し書き込みのプログラムを実行することでそれらの処理を実行する。
【0106】
以上では、光ヘッドex401はレーザスポットを照射するとして説明したが、近接場光を用いてより高密度な記録を行う構成であってもよい。
【0107】
図19に光ディスクである記録メディアex215の模式図を示す。記録メディアex215の記録面には案内溝(グルーブ)がスパイラル状に形成され、情報トラックex230には、予めグルーブの形状の変化によってディスク上の絶対位置を示す番地情報が記録されている。この番地情報はデータを記録する単位である記録ブロックex231の位置を特定するための情報を含み、記録や再生を行う装置において情報トラックex230を再生し番地情報を読み取ることで記録ブロックを特定することができる。また、記録メディアex215は、データ記録領域ex233、内周領域ex232、外周領域ex234を含んでいる。ユーザデータを記録するために用いる領域がデータ記録領域ex233であり、データ記録領域ex233より内周または外周に配置されている内周領域ex232と外周領域ex234は、ユーザデータの記録以外の特定用途に用いられる。情報再生/記録部ex400は、このような記録メディアex215のデータ記録領域ex233に対して、符号化された音声データ、映像データまたはそれらのデータを多重化した多重化データの読み書きを行う。
【0108】
以上では、1層のDVD、BD等の光ディスクを例に挙げ説明したが、これらに限ったものではなく、多層構造であって表面以外にも記録可能な光ディスクであってもよい。また、ディスクの同じ場所にさまざまな異なる波長の色の光を用いて情報を記録したり、さまざまな角度から異なる情報の層を記録したりなど、多次元的な記録/再生を行う構造の光ディスクであってもよい。
【0109】
また、デジタル放送用システムex200において、アンテナex205を有する車ex210で衛星ex202等からデータを受信し、車ex210が有するカーナビゲーションex211等の表示装置に動画を再生することも可能である。なお、カーナビゲーションex211の構成は例えば
図17に示す構成のうち、GPS受信部を加えた構成が考えられ、同様なことがコンピュータex111や携帯電話ex114等でも考えられる。
【0110】
図20Aは、上記実施の形態で説明した動画像復号化方法および動画像符号化方法を用いた携帯電話ex114を示す図である。携帯電話ex114は、基地局ex110との間で電波を送受信するためのアンテナex350、映像、静止画を撮ることが可能なカメラ部ex365、カメラ部ex365で撮像した映像、アンテナex350で受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部ex358を備える。携帯電話ex114は、さらに、操作キー部ex366を有する本体部、音声を出力するためのスピーカ等である音声出力部ex357、音声を入力するためのマイク等である音声入力部ex356、撮影した映像、静止画、録音した音声、または受信した映像、静止画、メール等の符号化されたデータもしくは復号化されたデータを保存するメモリ部ex367、又は同様にデータを保存する記録メディアとのインタフェース部であるスロット部ex364を備える。
【0111】
さらに、携帯電話ex114の構成例について、
図20Bを用いて説明する。携帯電話ex114は、表示部ex358及び操作キー部ex366を備えた本体部の各部を統括的に制御する主制御部ex360に対して、電源回路部ex361、操作入力制御部ex362、映像信号処理部ex355、カメラインタフェース部ex363、LCD(Liquid Crystal Display)制御部ex359、変調/復調部ex352、多重/分離部ex353、音声信号処理部ex354、スロット部ex364、メモリ部ex367がバスex370を介して互いに接続されている。
【0112】
電源回路部ex361は、ユーザの操作により終話及び電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することにより携帯電話ex114を動作可能な状態に起動する。
【0113】
携帯電話ex114は、CPU、ROM、RAM等を有する主制御部ex360の制御に基づいて、音声通話モード時に音声入力部ex356で収音した音声信号を音声信号処理部ex354でデジタル音声信号に変換し、これを変調/復調部ex352でスペクトラム拡散処理し、送信/受信部ex351でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex350を介して送信する。また携帯電話ex114は、音声通話モード時にアンテナex350を介して受信した受信データを増幅して周波数変換処理およびアナログデジタル変換処理を施し、変調/復調部ex352でスペクトラム逆拡散処理し、音声信号処理部ex354でアナログ音声信号に変換した後、これを音声出力部ex357から出力する。
【0114】
さらにデータ通信モード時に電子メールを送信する場合、本体部の操作キー部ex366等の操作によって入力された電子メールのテキストデータは操作入力制御部ex362を介して主制御部ex360に送出される。主制御部ex360は、テキストデータを変調/復調部ex352でスペクトラム拡散処理をし、送信/受信部ex351でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex350を介して基地局ex110へ送信する。電子メールを受信する場合は、受信したデータに対してこのほぼ逆の処理が行われ、表示部ex358に出力される。
【0115】
データ通信モード時に映像、静止画、または映像と音声を送信する場合、映像信号処理部ex355は、カメラ部ex365から供給された映像信号を上記各実施の形態で示した動画像符号化方法によって圧縮符号化し(即ち、本発明の画像符号化装置として機能する)、符号化された映像データを多重/分離部ex353に送出する。また、音声信号処理部ex354は、映像、静止画等をカメラ部ex365で撮像中に音声入力部ex356で収音した音声信号を符号化し、符号化された音声データを多重/分離部ex353に送出する。
【0116】
多重/分離部ex353は、映像信号処理部ex355から供給された符号化された映像データと音声信号処理部ex354から供給された符号化された音声データを所定の方式で多重化し、その結果得られる多重化データを変調/復調部(変調/復調回路部)ex352でスペクトラム拡散処理をし、送信/受信部ex351でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex350を介して送信する。
【0117】
データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受信する場合、または映像およびもしくは音声が添付された電子メールを受信する場合、アンテナex350を介して受信された多重化データを復号化するために、多重/分離部ex353は、多重化データを分離することにより映像データのビットストリームと音声データのビットストリームとに分け、同期バスex370を介して符号化された映像データを映像信号処理部ex355に供給するとともに、符号化された音声データを音声信号処理部ex354に供給する。映像信号処理部ex355は、上記各実施の形態で示した動画像符号化方法に対応した動画像復号化方法によって復号化することにより映像信号を復号し(即ち、本発明の画像復号装置として機能する)、LCD制御部ex359を介して表示部ex358から、例えばホームページにリンクされた動画像ファイルに含まれる映像、静止画が表示される。また音声信号処理部ex354は、音声信号を復号し、音声出力部ex357から音声が出力される。
【0118】
また、上記携帯電話ex114等の端末は、テレビex300と同様に、符号化器・復号化器を両方持つ送受信型端末の他に、符号化器のみの送信端末、復号化器のみの受信端末という3通りの実装形式が考えられる。さらに、デジタル放送用システムex200において、映像データに音楽データなどが多重化された多重化データを受信、送信するとして説明したが、音声データ以外に映像に関連する文字データなどが多重化されたデータであってもよいし、多重化データではなく映像データ自体であってもよい。
【0119】
このように、上記各実施の形態で示した動画像符号化方法あるいは動画像復号化方法を上述したいずれの機器・システムに用いることは可能であり、そうすることで、上記各実施の形態で説明した効果を得ることができる。
【0120】
また、本発明はかかる上記実施の形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。
【0121】
(実施の形態5)
上記各実施の形態で示した動画像符号化方法または装置と、MPEG−2、MPEG4−AVC、VC−1など異なる規格に準拠した動画像符号化方法または装置とを、必要に応じて適宜切替えることにより、映像データを生成することも可能である。
【0122】
ここで、それぞれ異なる規格に準拠する複数の映像データを生成した場合、復号する際に、それぞれの規格に対応した復号方法を選択する必要がある。しかしながら、復号する映像データが、どの規格に準拠するものであるか識別できないため、適切な復号方法を選択することができないという課題を生じる。
【0123】
この課題を解決するために、映像データに音声データなどを多重化した多重化データは、映像データがどの規格に準拠するものであるかを示す識別情報を含む構成とする。上記各実施の形態で示す動画像符号化方法または装置によって生成された映像データを含む多重化データの具体的な構成を以下説明する。多重化データは、MPEG−2トランスポートストリーム形式のデジタルストリームである。
【0124】
図21は、多重化データの構成を示す図である。
図21に示すように多重化データは、ビデオストリーム、オーディオストリーム、プレゼンテーショングラフィックスストリーム(PG)、インタラクティブグラフィックスストリームのうち、1つ以上を多重化することで得られる。ビデオストリームは映画の主映像および副映像を、オーディオストリーム(IG)は映画の主音声部分とその主音声とミキシングする副音声を、プレゼンテーショングラフィックスストリームは、映画の字幕をそれぞれ示している。ここで主映像とは画面に表示される通常の映像を示し、副映像とは主映像の中に小さな画面で表示する映像のことである。また、インタラクティブグラフィックスストリームは、画面上にGUI部品を配置することにより作成される対話画面を示している。ビデオストリームは、上記各実施の形態で示した動画像符号化方法または装置、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠した動画像符号化方法または装置によって符号化されている。オーディオストリームは、ドルビーAC−3、Dolby Digital Plus、MLP、DTS、DTS−HD、または、リニアPCMのなどの方式で符号化されている。
【0125】
多重化データに含まれる各ストリームはPIDによって識別される。例えば、映画の映像に利用するビデオストリームには0x1011が、オーディオストリームには0x1100から0x111Fまでが、プレゼンテーショングラフィックスには0x1200から0x121Fまでが、インタラクティブグラフィックスストリームには0x1400から0x141Fまでが、映画の副映像に利用するビデオストリームには0x1B00から0x1B1Fまで、主音声とミキシングする副音声に利用するオーディオストリームには0x1A00から0x1A1Fが、それぞれ割り当てられている。
【0126】
図22は、多重化データがどのように多重化されるかを模式的に示す図である。まず、複数のビデオフレームからなるビデオストリームex235、複数のオーディオフレームからなるオーディオストリームex238を、それぞれPESパケット列ex236およびex239に変換し、TSパケットex237およびex240に変換する。同じくプレゼンテーショングラフィックスストリームex241およびインタラクティブグラフィックスex244のデータをそれぞれPESパケット列ex242およびex245に変換し、さらにTSパケットex243およびex246に変換する。多重化データex247はこれらのTSパケットを1本のストリームに多重化することで構成される。
【0127】
図23は、PESパケット列に、ビデオストリームがどのように格納されるかをさらに詳しく示している。
図23における第1段目はビデオストリームのビデオフレーム列を示す。第2段目は、PESパケット列を示す。
図23の矢印yy1,yy2, yy3, yy4に示すように、ビデオストリームにおける複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。各PESパケットはPESヘッダを持ち、PESヘッダには、ピクチャの表示時刻であるPTS(Presentation Time−Stamp)やピクチャの復号時刻であるDTS(Decoding Time−Stamp)が格納される。
【0128】
図24は、多重化データに最終的に書き込まれるTSパケットの形式を示している。TSパケットは、ストリームを識別するPIDなどの情報を持つ4ByteのTSヘッダとデータを格納する184ByteのTSペイロードから構成される188Byte固定長のパケットであり、上記PESパケットは分割されTSペイロードに格納される。BD−ROMの場合、TSパケットには、4ByteのTP_Extra_Headerが付与され、192Byteのソースパケットを構成し、多重化データに書き込まれる。TP_Extra_HeaderにはATS(Arrival_Time_Stamp)などの情報が記載される。ATSは当該TSパケットのデコーダのPIDフィルタへの転送開始時刻を示す。多重化データには
図24下段に示すようにソースパケットが並ぶこととなり、多重化データの先頭からインクリメントする番号はSPN(ソースパケットナンバー)と呼ばれる。
【0129】
また、多重化データに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program Association Table)、PMT(Program Map Table)、PCR(Program Clock Reference)などがある。PATは多重化データ中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは0で登録される。PMTは、多重化データ中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を持ち、また多重化データに関する各種ディスクリプタを持つ。ディスクリプタには多重化データのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、ATSの時間軸であるATC(Arrival Time Clock)とPTS・DTSの時間軸であるSTC(System Time Clock)の同期を取るために、そのPCRパケットがデコーダに転送されるATSに対応するSTC時間の情報を持つ。
【0130】
図25はPMTのデータ構造を詳しく説明する図である。PMTの先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダが配置される。その後ろには、多重化データに関するディスクリプタが複数配置される。上記コピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後には、多重化データに含まれる各ストリームに関するストリーム情報が複数配置される。ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタから構成される。ストリームディスクリプタは多重化データに存在するストリームの数だけ存在する。
【0131】
記録媒体などに記録する場合には、上記多重化データは、多重化データ情報ファイルと共に記録される。
【0132】
多重化データ情報ファイルは、
図26に示すように多重化データの管理情報であり、多重化データと1対1に対応し、多重化データ情報、ストリーム属性情報とエントリマップから構成される。
【0133】
多重化データ情報は
図26に示すようにシステムレート、再生開始時刻、再生終了時刻から構成されている。システムレートは多重化データの、後述するシステムターゲットデコーダのPIDフィルタへの最大転送レートを示す。多重化データ中に含まれるATSの間隔はシステムレート以下になるように設定されている。再生開始時刻は多重化データの先頭のビデオフレームのPTSであり、再生終了時刻は多重化データの終端のビデオフレームのPTSに1フレーム分の再生間隔を足したものが設定される。
【0134】
ストリーム属性情報は
図27に示すように、多重化データに含まれる各ストリームについての属性情報が、PID毎に登録される。属性情報はビデオストリーム、オーディオストリーム、プレゼンテーショングラフィックスストリーム、インタラクティブグラフィックスストリーム毎に異なる情報を持つ。ビデオストリーム属性情報は、そのビデオストリームがどのような圧縮コーデックで圧縮されたか、ビデオストリームを構成する個々のピクチャデータの解像度がどれだけであるか、アスペクト比はどれだけであるか、フレームレートはどれだけであるかなどの情報を持つ。オーディオストリーム属性情報は、そのオーディオストリームがどのような圧縮コーデックで圧縮されたか、そのオーディオストリームに含まれるチャンネル数は何であるか、何の言語に対応するか、サンプリング周波数がどれだけであるかなどの情報を持つ。これらの情報は、プレーヤが再生する前のデコーダの初期化などに利用される。
【0135】
本実施の形態においては、上記多重化データのうち、PMTに含まれるストリームタイプを利用する。また、記録媒体に多重化データが記録されている場合には、多重化データ情報に含まれる、ビデオストリーム属性情報を利用する。具体的には、上記各実施の形態で示した動画像符号化方法または装置において、PMTに含まれるストリームタイプ、または、ビデオストリーム属性情報に対し、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示す固有の情報を設定するステップまたは手段を設ける。この構成により、上記各実施の形態で示した動画像符号化方法または装置によって生成した映像データと、他の規格に準拠する映像データとを識別することが可能になる。
【0136】
また、本実施の形態における動画像復号化方法のステップを
図28に示す。ステップexS100において、多重化データからPMTに含まれるストリームタイプ、または、多重化データ情報に含まれるビデオストリーム属性情報を取得する。次に、ステップexS101において、ストリームタイプ、または、ビデオストリーム属性情報が上記各実施の形態で示した動画像符号化方法または装置によって生成された多重化データであることを示しているか否かを判断する。そして、ストリームタイプ、または、ビデオストリーム属性情報が上記各実施の形態で示した動画像符号化方法または装置によって生成されたものであると判断された場合には、ステップexS102において、上記各実施の形態で示した動画像復号方法により復号を行う。また、ストリームタイプ、または、ビデオストリーム属性情報が、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠するものであることを示している場合には、ステップexS103において、従来の規格に準拠した動画像復号方法により復号を行う。
【0137】
このように、ストリームタイプ、または、ビデオストリーム属性情報に新たな固有値を設定することにより、復号する際に、上記各実施の形態で示した動画像復号化方法または装置で復号可能であるかを判断することができる。従って、異なる規格に準拠する多重化データが入力された場合であっても、適切な復号化方法または装置を選択することができるため、エラーを生じることなく復号することが可能となる。また、本実施の形態で示した動画像符号化方法または装置、または、動画像復号方法または装置を、上述したいずれの機器・システムに用いることも可能である。
【0138】
(実施の形態6)
上記各実施の形態で示した動画像符号化方法および装置、動画像復号化方法および装置は、典型的には集積回路であるLSIで実現される。一例として、
図29に1チップ化されたLSIex500の構成を示す。LSIex500は、以下に説明する要素ex501、ex502、ex503、ex504、ex505、ex506、ex507、ex508、ex509を備え、各要素はバスex510を介して接続している。電源回路部ex505は電源がオン状態の場合に各部に対して電力を供給することで動作可能な状態に起動する。
【0139】
例えば符号化処理を行う場合には、LSIex500は、CPUex502、メモリコントローラex503、ストリームコントローラex504、駆動周波数制御部ex512等を有する制御部ex501の制御に基づいて、AV I/Oex509によりマイクex117やカメラex113等からAV信号を入力する。入力されたAV信号は、一旦SDRAM等の外部のメモリex511に蓄積される。制御部ex501の制御に基づいて、蓄積したデータは処理量や処理速度に応じて適宜複数回に分けるなどされ信号処理部ex507に送られ、信号処理部ex507において音声信号の符号化および/または映像信号の符号化が行われる。ここで映像信号の符号化処理は上記各実施の形態で説明した符号化処理である。信号処理部ex507ではさらに、場合により符号化された音声データと符号化された映像データを多重化するなどの処理を行い、ストリームI/Oex506から外部に出力する。この出力された多重化データは、基地局ex107に向けて送信されたり、または記録メディアex215に書き込まれたりする。なお、多重化する際には同期するよう、一旦バッファex508にデータを蓄積するとよい。
【0140】
なお、上記では、メモリex511がLSIex500の外部の構成として説明したが、LSIex500の内部に含まれる構成であってもよい。バッファex508も1つに限ったものではなく、複数のバッファを備えていてもよい。また、LSIex500は1チップ化されてもよいし、複数チップ化されてもよい。
【0141】
また、上記では、制御部ex501が、CPUex502、メモリコントローラex503、ストリームコントローラex504、駆動周波数制御部ex512等を有するとしているが、制御部ex501の構成は、この構成に限らない。例えば、信号処理部ex507がさらにCPUを備える構成であってもよい。信号処理部ex507の内部にもCPUを設けることにより、処理速度をより向上させることが可能になる。また、他の例として、CPUex502が信号処理部ex507、または信号処理部ex507の一部である例えば音声信号処理部を備える構成であってもよい。このような場合には、制御部ex501は、信号処理部ex507、またはその一部を有するCPUex502を備える構成となる。
【0142】
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
【0143】
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
【0144】
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
【0145】
(実施の形態7)
上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データを復号する場合、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データを復号する場合に比べ、処理量が増加することが考えられる。そのため、LSIex500において、従来の規格に準拠する映像データを復号する際のCPUex502の駆動周波数よりも高い駆動周波数に設定する必要がある。しかし、駆動周波数を高くすると、消費電力が高くなるという課題が生じる。
【0146】
この課題を解決するために、テレビex300、LSIex500などの動画像復号化装置は、映像データがどの規格に準拠するものであるかを識別し、規格に応じて駆動周波数を切替える構成とする。
図30は、本実施の形態における構成ex800を示している。駆動周波数切替え部ex803は、映像データが、上記各実施の形態で示した動画像符号化方法または装置によって生成されたものである場合には、駆動周波数を高く設定する。そして、上記各実施の形態で示した動画像復号化方法を実行する復号処理部ex801に対し、映像データを復号するよう指示する。一方、映像データが、従来の規格に準拠する映像データである場合には、映像データが、上記各実施の形態で示した動画像符号化方法または装置によって生成されたものである場合に比べ、駆動周波数を低く設定する。そして、従来の規格に準拠する復号処理部ex802に対し、映像データを復号するよう指示する。
【0147】
より具体的には、駆動周波数切替え部ex803は、
図29のCPUex502と駆動周波数制御部ex512から構成される。また、上記各実施の形態で示した動画像復号化方法を実行する復号処理部ex801、および、従来の規格に準拠する復号処理部ex802は、
図29の信号処理部ex507に該当する。CPUex502は、映像データがどの規格に準拠するものであるかを識別する。そして、CPUex502からの信号に基づいて、駆動周波数制御部ex512は、駆動周波数を設定する。また、CPUex502からの信号に基づいて、信号処理部ex507は、映像データの復号を行う。ここで、映像データの識別には、例えば、実施の形態5で記載した識別情報を利用することが考えられる。識別情報に関しては、実施の形態5で記載したものに限られず、映像データがどの規格に準拠するか識別できる情報であればよい。例えば、映像データがテレビに利用されるものであるか、ディスクに利用されるものであるかなどを識別する外部信号に基づいて、映像データがどの規格に準拠するものであるか識別可能である場合には、このような外部信号に基づいて識別してもよい。また、CPUex502における駆動周波数の選択は、例えば、
図32のような映像データの規格と、駆動周波数とを対応付けたルックアップテーブルに基づいて行うことが考えられる。ルックアップテーブルを、バッファex508や、LSIの内部メモリに格納しておき、CPUex502がこのルックアップテーブルを参照することにより、駆動周波数を選択することが可能である。
【0148】
図31は、本実施の形態の方法を実施するステップを示している。まず、ステップexS200では、信号処理部ex507において、多重化データから識別情報を取得する。次に、ステップexS201では、CPUex502において、識別情報に基づいて映像データが上記各実施の形態で示した符号化方法または装置によって生成されたものであるか否かを識別する。映像データが上記各実施の形態で示した符号化方法または装置によって生成されたものである場合には、ステップexS202において、駆動周波数を高く設定する信号を、CPUex502が駆動周波数制御部ex512に送る。そして、駆動周波数制御部ex512において、高い駆動周波数に設定される。一方、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データであることを示している場合には、ステップexS203において、駆動周波数を低く設定する信号を、CPUex502が駆動周波数制御部ex512に送る。そして、駆動周波数制御部ex512において、映像データが上記各実施の形態で示した符号化方法または装置によって生成されたものである場合に比べ、低い駆動周波数に設定される。
【0149】
さらに、駆動周波数の切替えに連動して、LSIex500またはLSIex500を含む装置に与える電圧を変更することにより、省電力効果をより高めることが可能である。例えば、駆動周波数を低く設定する場合には、これに伴い、駆動周波数を高く設定している場合に比べ、LSIex500またはLSIex500を含む装置に与える電圧を低く設定することが考えられる。
【0150】
また、駆動周波数の設定方法は、復号する際の処理量が大きい場合に、駆動周波数を高く設定し、復号する際の処理量が小さい場合に、駆動周波数を低く設定すればよく、上述した設定方法に限らない。例えば、MPEG4−AVC規格に準拠する映像データを復号する処理量の方が、上記各実施の形態で示した動画像符号化方法または装置により生成された映像データを復号する処理量よりも大きい場合には、駆動周波数の設定を上述した場合の逆にすることが考えられる。
【0151】
さらに、駆動周波数の設定方法は、駆動周波数を低くする構成に限らない。例えば、識別情報が、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示している場合には、LSIex500またはLSIex500を含む装置に与える電圧を高く設定し、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データであることを示している場合には、LSIex500またはLSIex500を含む装置に与える電圧を低く設定することも考えられる。また、他の例としては、識別情報が、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示している場合には、CPUex502の駆動を停止させることなく、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データであることを示している場合には、処理に余裕があるため、CPUex502の駆動を一時停止させることも考えられる。識別情報が、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示している場合であっても、処理に余裕があれば、CPUex502の駆動を一時停止させることも考えられる。この場合は、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する映像データであることを示している場合に比べて、停止時間を短く設定することが考えられる。
【0152】
このように、映像データが準拠する規格に応じて、駆動周波数を切替えることにより、省電力化を図ることが可能になる。また、電池を用いてLSIex500またはLSIex500を含む装置を駆動している場合には、省電力化に伴い、電池の寿命を長くすることが可能である。
【0153】
(実施の形態8)
テレビや、携帯電話など、上述した機器・システムには、異なる規格に準拠する複数の映像データが入力される場合がある。このように、異なる規格に準拠する複数の映像データが入力された場合にも復号できるようにするために、LSIex500の信号処理部ex507が複数の規格に対応している必要がある。しかし、それぞれの規格に対応する信号処理部ex507を個別に用いると、LSIex500の回路規模が大きくなり、また、コストが増加するという課題が生じる。
【0154】
この課題を解決するために、上記各実施の形態で示した動画像復号方法を実行するための復号処理部と、従来のMPEG−2、MPEG4−AVC、VC−1などの規格に準拠する復号処理部とを一部共有化する構成とする。この構成例を
図33Aのex900に示す。例えば、上記各実施の形態で示した動画像復号方法と、MPEG4−AVC規格に準拠する動画像復号方法とは、エントロピー符号化、逆量子化、デブロッキング・フィルタ、動き補償などの処理において処理内容が一部共通する。共通する処理内容については、MPEG4−AVC規格に対応する復号処理部ex902を共有し、MPEG4−AVC規格に対応しない、本発明特有の他の処理内容については、専用の復号処理部ex901を用いるという構成が考えられる。復号処理部の共有化に関しては、共通する処理内容については、上記各実施の形態で示した動画像復号化方法を実行するための復号処理部を共有し、MPEG4−AVC規格に特有の処理内容については、専用の復号処理部を用いる構成であってもよい。
【0155】
また、処理を一部共有化する他の例を
図33Bのex1000に示す。この例では、本発明に特有の処理内容に対応した専用の復号処理部ex1001と、他の従来規格に特有の処理内容に対応した専用の復号処理部ex1002と、本発明の動画像復号方法と他の従来規格の動画像復号方法とに共通する処理内容に対応した共用の復号処理部ex1003とを用いる構成としている。ここで、専用の復号処理部ex1001、ex1002は、必ずしも本発明、または、他の従来規格に特有の処理内容に特化したものではなく、他の汎用処理を実行できるものであってもよい。また、本実施の形態の構成を、LSIex500で実装することも可能である。
【0156】
このように、本発明の動画像復号方法と、従来の規格の動画像復号方法とで共通する処理内容について、復号処理部を共有することにより、LSIの回路規模を小さくし、かつ、コストを低減することが可能である。