IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社ミラティブの特許一覧

特許7406229配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
<>
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図1
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図2
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図3
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図4
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図5
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図6
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図7
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図8
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図9
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図10
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図11
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図12
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図13
  • 特許-配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-19
(45)【発行日】2023-12-27
(54)【発明の名称】配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
(51)【国際特許分類】
   H04N 21/61 20110101AFI20231220BHJP
【FI】
H04N21/61
【請求項の数】 7
(21)【出願番号】P 2019195707
(22)【出願日】2019-10-28
(65)【公開番号】P2021069100
(43)【公開日】2021-04-30
【審査請求日】2022-10-27
(73)【特許権者】
【識別番号】518260552
【氏名又は名称】株式会社ミラティブ
(74)【代理人】
【識別番号】110001106
【氏名又は名称】弁理士法人キュリーズ
(72)【発明者】
【氏名】漢 祐介
【審査官】益戸 宏
(56)【参考文献】
【文献】国際公開第2010/069427(WO,A1)
【文献】特開2001-025023(JP,A)
【文献】特開2010-239588(JP,A)
【文献】特開2002-369203(JP,A)
【文献】特開2002-344932(JP,A)
【文献】米国特許出願公開第2016/0142750(US,A1)
【文献】国際公開第2019/048426(WO,A1)
【文献】米国特許出願公開第2007/0098079(US,A1)
【文献】米国特許出願公開第2007/0174880(US,A1)
【文献】Jennehag,U., & Pettersson,S.,On Synchronization Frames for Channel Switching in a GOP-Based IPTV Environment,5th IEEE Consumer Communications and Networking Conference 2008,IEEE,2008年01月,638 -642,ieeexplore.ieee.org/document/4446445
【文献】Fuchs,H. & Farber,N.,Optimizing channel change time in IPTV applications,2008 IEEE International Symposium on Broadband Multimedia Systems and Broadcasting,IEEE,2008年04月,ieeexplore.ieee.org/document/4536619
【文献】Jennehag,U., Zhang,T., & Pettersson,S.,Improving Transmission Efficiency in H.264 based IPTV Systems,IEEE Transactions on Broadcasting,vol. 53, no. 1,IEEE,2007年03月,69-78,ieeexplore.ieee.org/document/4114797
(58)【調査した分野】(Int.Cl.,DB名)
H04N 21/00 ー 21/858
(57)【特許請求の範囲】
【請求項1】
配信端末からの映像データを含む動画データを被配信端末に対してリアルタイム配信する配信システムであって、
前記配信端末から、キーフレームのデータと映像に関する差分データとを含むエンコード処理された映像データを入力するデータ入力部と、
前記エンコード処理された映像データから選択された前記キーフレームのデータを記憶するデータ記憶部と、
前記配信システムにアクセスした被配信端末に対して、前記エンコード処理された映像データを配信する第1のデータ配信部と、
前記配信システムにアクセスした前記被配信端末に対して、前記記憶されたキーフレームのデータを配信する第2のデータ配信部と、
を有することを特徴とする配信システム。
【請求項2】
映像データと音声データとを含む動画データを配信端末から被配信端末に対してリアルタイム配信する配信システムであって、
前記映像データは、キーフレームのデータおよび映像に関する差分データを含み、
前記配信端末から映像データと音声データを入力するデータ入力部と、
前記音声データが前記映像データの各データと相違した時間間隔で入力される場合、前記音声データの時間間隔と前記映像データの各データの時間間隔とを対応させるよう調整して出力するデータ出力部と、
前記キーフレームのデータおよび映像に関する差分データを含む映像データと前記音声データを前記被配信端末に配信する第1のデータ配信部と、
前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、
を有することを特徴とする配信システム。
【請求項3】
前記映像データは、前記キーフレームのデータと前記映像に関する差分データを含む所定のデータ単位の映像データとするとともに、
前記第1のデータ配信部は、前記映像データを前記データ単位ごとに前記被配信端末に配信し、
前記第2のデータ配信部は、前記第1のデータ配信部により配信される前記データ単位の配信時間内において、前記データ単位の配信時間よりも短い所定の配信時間間隔で前記データ単位の映像データと並行して少なくとも前記キーフレームのデータを前記被配信端末に配信することを特徴とする請求項1又は2に記載の配信システム。
【請求項4】
前記第1のデータ配信部は、前記データ単位の配信時間内において、前記データ単位の各データの配信時間間隔を前記データ単位の配信時間よりも短い所定の時間間隔として前記被配信端末に配信するとともに、
前記第2のデータ配信部は、前記第1のデータ配信部における前記データ単位の各データの配信時間間隔と同じ配信時間間隔で少なくとも前記キーフレームのデータを前記被配信端末に配信することを特徴とする請求項に記載の配信システム。
【請求項5】
映像データと音声データとを含む動画データを配信端末から被配信端末に対してリアルタイム配信する配信システムであって、
前記映像データは、キーフレームのデータと映像に関する差分データを含み、
前記配信端末から映像データと音声データを入力するデータ入力部と、
前記キーフレームのデータおよび映像に関する差分データを含む映像データと前記音声データとを前記被配信端末に配信する第1のデータ配信部と、
前記映像データから少なくとも前記キーフレームのデータと、前記音声データのデコード処理を行うためのデータとを前記被配信端末に配信する第2のデータ配信部と、
を有することを特徴とする配信システム。
【請求項6】
配信システムの各構成機器のコンピュータを、請求項1乃至5のいずれか1項に記載の配信システムとして機能させることを特徴とするプログラム。
【請求項7】
請求項に記載のプログラムを記憶することを特徴とするコンピュータ読み取り可能な記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体に関し、特に、動画データを配信端末から被配信端末に配信する配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体に関する。
【背景技術】
【0002】
近年、動画データを配信する配信システムが広く利用されている。この動画データの配信システムには、例えば、所定のサーバを介して動画データを配信端末から被配信端末に配信するシステムがある。
【0003】
このような配信システムでは、配信する動画データをGOP単位等の所定のデータ単位のデータとして配信し、データ単位のデータは、例えば、Iフレーム等のキーフレームのデータとこれに時系列的に続くPフレーム(差分フレーム)やBフレーム(差分フレーム)等の映像に関する差分データで構成され、被配信端末は、任意のタイミングでサーバにアクセスし、キーフレームのデータと映像に関する差分データにより視聴可能な映像データを生成して視聴することができる。
【0004】
このような動画データの配信システムは、特許文献1に開示される技術を参照することができる。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2019-29870号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
ところで、上述したデータ単位の配信時間(データ単位において最初のデータが配信されてから最後のデータが配信されるまでの時間)は数十秒程度に設定されることが多い。
【0007】
このため、被配信端末が配信時間の途中でサーバにアクセスした場合にあっては、映像に関する差分データが配信されるのみでキーフレームの映像データが配信されず次のデータ単位の配信が行われるまでの間、映像を視聴できないことがありタイムラグが生じることがある。上述の通り、データ単位の配信時間は数十秒程度に設定されることが多く、被配信端末の視聴者からは、最初のアクセスにおける視聴のタイムラグが長くキーフレームの映像データを並行して配信する等の改善が望まれていた。
【0008】
本願発明は上記事情に鑑みてなされたものであり、キーフレームの映像データを並行して配信することができる配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体を提供することを目的とする。
【課題を解決するための手段】
【0009】
上記目的を達成するために、本発明に係る配信システムは、動画データを配信する配信システムであって、前記動画データは、映像データを含むとともに、前記映像データは、キーフレームのデータを含み、前記キーフレームのデータを配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする。
【0010】
上記目的を達成するために、本発明に係る配信システムは、動画データを配信端末から被配信端末に配信する配信システムであって、前記動画データは、映像データを含むとともに、前記映像データは、キーフレームのデータを含み、前記配信端末から映像データを入力するデータ入力部と、前記キーフレームのデータを前記被配信端末に配信する第1のデータ配信部と、前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする。
【0011】
上記目的を達成するために、本発明に係る配信システムは、動画データを配信端末から被配信端末に配信する配信システムであって、前記動画データは、映像データと音声データを含むとともに、前記映像データは、キーフレームのデータと映像に関する差分データを含み、前記配信端末から映像データと音声データを入力するデータ入力部と、前記映像データと前記音声データを前記被配信端末に配信するするとともに、前記キーフレームのデータと映像に関する差分データを含む映像データを前記被配信端末に配信する第1のデータ配信部と、前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする。
【0012】
本発明によれば、上記構成により、キーフレームの映像データを並行して配信することができる。
【0013】
前記映像データは、前記キーフレームのデータと前記映像に関する差分データを含む所定のデータ単位の映像データとするとともに、前記第1のデータ配信部は、前記映像データを前記データ単位ごとに前記被配信端末に配信し、前記第2のデータ配信部は、前記第1のデータ配信部により配信される前記データ単位の配信時間内において、前記データ単位の配信時間よりも短い所定の配信時間間隔で前記データ単位の映像データと並行して少なくとも前記キーフレームのデータを前記被配信端末に配信することができる。
【0014】
前記第1のデータ配信部は、前記データ単位の配信時間内において、前記データ単位の各データの配信時間間隔を前記データ単位の配信時間よりも短い所定の時間間隔として前記被配信端末に配信するとともに、前記第2のデータ配信部は、前記第1のデータ配信部における前記データ単位の各データの配信時間間隔と同じ配信時間間隔で少なくとも前記キーフレームのデータを前記被配信端末に配信することが好ましい。
【0015】
前記映像データから少なくとも前記キーフレームのデータを記憶するデータ記憶部を有し、前記第2のデータ配信部は、前記データ記憶部に記憶されたデータを前記被配信端末に配信することができる。
【0016】
前記映像データと前記音声データのデコード処理を行うデコード処理部を有することとすれば、第1のデータと第2のデータのデコード処理を行うことができる。
【0017】
前記デコード処理を行うためのデータは、前記第1のデータ配信部により配信されるデータに含まれるとともに、前記第2のデータ配信部により配信されるデータに含まれ、前記第2のデータ配信部により前記被配信端末に配信されることができる。
【0018】
前記第2のデータ配信部により配信されたデコード処理を行うためのデータにより、前記被配信端末に前記デコード処理部を設定することとすれば、被配信端末でデコード処理を行うことができる。
【0019】
前記デコード処理部は、前記被配信端末に設定することができる。
【0020】
前記デコード処理を行うためのデータは、前記映像データのデコード処理を行うためのデータおよび/または前記音声データのデコード処理を行うためのデータを含むことができる。
【0021】
上記目的を達成するために、本発明に係るプログラムは、映像データを含む動画データを配信する配信システムのコンピュータを、前記映像データにおけるキーフレームのデータを配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする。
【0022】
上記目的を達成するために、本発明に係るプログラムは、動画データを配信端末から被配信端末に配信する配信システムのコンピュータを、前記配信端末から映像データを入力するデータ入力部と、前記映像データにおけるキーフレームのデータを前記被配信端末に配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする。
【0023】
上記目的を達成するために、本発明に係るプログラムは、映像データと音声データを含む動画データを配信端末から被配信端末に配信する配信システムのコンピュータを、前記配信端末から映像データと音声データを入力するデータ入力部と、キーフレームのデータおよび映像に関する差分データを含む前記映像データと前記音声データを前記被配信端末に配信する第1のデータ配信部と、前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする。
【0024】
上記目的を達成するために、本発明に係るコンピュータ読み取り可能な記憶媒体は、上記プログラムを記憶することを特徴とする。
【発明の効果】
【0025】
本発明によれば、キーフレームの映像データを並行して配信することができる。
【図面の簡単な説明】
【0026】
図1】本発明の実施形態に係る配信システムの全体構成を示す図である。
図2】同配信システムのコンピュータの構成を示すブロック図である。
図3】同配信システムの第1のサーバの構成を示すブロック図である。
図4】同配信システムのデータの構成を示す図で、(a)は多重化されたデータを示す図、(b)は分離されたデータを示す図である。
図5】同配信システムのデータ生成部により生成された映像データの構成を示す図である。
図6】同配信システムの第1のデータ出力部により出力される映像データの構成を示す図である。
図7】同配信システムの第1のデータ出力部により出力される音声データの構成を示す図で、(a)はリップシンク処理前の音声データの構成を示す図、(b)はリップシンク処理後の音声データの構成を示す図である。
図8】同配信システムの第2のサーバの構成を示すブロック図である。
図9】同配信システムの第2のデータ配信部により被配信端末に配信されるデータの構成を示す図である。
図10】同配信システムにおける被配信端末の構成を示すブロック図である。
図11】同配信システムにおけるデータ処理方法を説明するためのフローチャートである。
図12】同配信システムにおけるデータ処理方法を説明するための図11に続くフローチャートである。
図13】従来の配信システムの課題を説明するための図である。
図14】本発明の配信システムの技術的効果を説明するための図で、(a)は第1のデータ配信部により配信されるデータを示す図、(b)は第2のデータ配信部により配信されるデータを示す図である。
【発明を実施するための形態】
【0027】
以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態に係る配信システムの全体構成を示す図、図2は、同配信システムのコンピュータの構成を示すブロック図、図3は、同配信システムの第1のサーバの構成を示すブロック図、図4は、同配信システムのデータの構成を示す図、図5は、同配信システムのデータ生成部により生成された映像データの構成を示す図、図6は、同配信システムの第1のデータ出力部により出力される映像データの構成を示す図、図7は、同配信システムの第1のデータ出力部により出力される音声データの構成を示す図、図8は、同配信システムの第2のサーバの構成を示すブロック図、図9は、同配信システムの第2のデータ配信部により被配信端末に配信されるデータの構成を示す図、図10は、同配信システムにおける被配信端末の構成を示すブロック図である。
【0028】
図1を参照して本発明の配信システム1の概要を説明すると、配信システム1は、動画データ100を配信端末2から第1のサーバ3と第2のサーバ4を介して被配信端末5にリアルタイムに生配信することができる。動画データ100は、映像データ101と音声データ102を含んでおり、映像データ101と音声データ102は、所定にエンコード処理され多重化されたデータとして配信端末2から送信される。
【0029】
第1のサーバ3は、オリジンサーバとし、第2のサーバ4は、エッジサーバとし、配信端末2および被配信端末5は、情報端末装置とすることができる。情報端末装置は、携帯端末装置とすることができ、携帯端末装置は更に携帯電話機、スマートフォン、タブレット端末とすることができる。配信システム1は、ネットワーク通信回線NTを通じて配信端末2、第1のサーバ3、第2のサーバ4、被配信端末5の相互間の通信を可能に構成されている。なお、ネットワーク通信回線NTは、インターネット回線等を含むことができる。
【0030】
配信システム1の各構成機器は、コンピュータとしての一般的な構成を備えている。配信システム1の各構成機器は、図2に示すように、相互にバス1Aを介して接続された中央処理装置(CPU、GPU、DSP)1B、記憶装置(ROM、RAM、ハードディスク、キャッシュメモリ)1C、入力装置(キーボード、タッチパネル、マウス)1D、表示装置(液晶ディスプレー)1E等を有している。記憶装置1Cは、コンピュータ読み取り可能な記憶媒体として機能する。
【0031】
第1のサーバ2は、図3に示すように、第1のデータ入力部10、データ分離部20、データ生成部30、第1のデータ記憶部40、およびデータ出力部50を有している。
【0032】
第1のデータ入力部10は、図4(a)に示すように、配信端末2から多重化された映像データ101と音声データ102(結合された映像データ101と音声データ102)を入力することができる。
【0033】
データ分離部20は、第1のデータ入力部10により入力された多重化された映像データ101と音声データ102(結合された映像データ101と音声データ102)を図4(b)に示すように、分離することができる。
【0034】
データ生成部30は、図5に示すように、データ分離部20により分離されたデータのうち映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行うことができる(映像データ101は、キーフレームのデータ101aと映像に関する差分データ101bを含んでいる)。
【0035】
より詳しくはキーフレームのデータ101aは、Iフレーム(Intra-Picture)のデータとすることができ、映像に関する差分データ101bは、Pフレーム(Predictive-Picture、差分フレーム)のデータとすることができる。ここで、Iフレーム(Intra-Picture)とは、動画中の1フレームを独立して再現可能なフレームであり、動画中のフレームの画像情報を全て含んでいるフレームである。Iフレーム(Intra-Picture)は、映像データのフレーム間予測の基準となるフレームである。Pフレーム(Predictive-Picture)は、直前のIフレームを参照して動画中の1フレームを再現可能なフレームであり、映像データのフレーム間の差分データを含むものである。
【0036】
第1のデータ記憶部40は、エンコード処理された映像データ101と音声データ102のデコード処理を行うためのデータ103を記憶することができる。第1のデータ記憶部40により記憶されるデコード処理を行うためのデータ103は、映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bを含むことができる。
【0037】
映像データ101のデコード処理を行うためのデータ103aは、H.264の規格に基づいたデータとすることができ、H.264の規格に基づいたデータは、NALユニットのデータとすることができる。更に、NALユニットのデータは、SPS(シーケンスパラメータセット)、PPS(ピクチャパラメータセット)、およびSEI(付加拡張情報)メッセージを含むことができる。
【0038】
また、音声データ102のデコード処理を行うためのデータ103bは、AudioSpecificConfigを含むことができる。
【0039】
データ出力部50は、映像データ101を第2のサーバ4に出力することができる。すなわち、データ出力部50は、図6に示すように、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dより詳しくはGOP単位の映像データ101として出力することができる。すなわち、データ出力部50は、データ単位Dの最初のデータをキーフレームのデータ101aとして出力することができる。データ単位Dは、本実施形態にあっては、一のキーフレームのデータ101aと複数の映像に関する差分データ101bを含んでいる。
【0040】
データ出力部50は、映像データ101をデータ単位Dごとに第2のサーバ4に出力することができる。データ出力部50により出力されるデータ単位Dの出力時間は、例えばTとされ、データ単位Dの出力時間T内において、各データの出力時間間隔は、例えばデータ単位Dの出力時間Tよりも短い所定の時間間隔ΔTとして第2のサーバ4に出力することができる。データ単位Dの出力時間は、データ単位Dにおいて最初のデータ(キーフレームのデータ101a)が配信されてから最後のデータ(最後の映像に関する差分データ101b)が出力されるまでの時間となる。
【0041】
データ出力部50は、同じく図6に示すように、第1のデータ記憶部40からエンコード処理された映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加することができる。なお、被配信端末5と接続直後にデータ103aを配信することとしてもよい。
【0042】
また、データ出力部50は、音声データ102を第2のサーバ4に出力することができる。ここで、配信端末2から入力される音声データ102の入力の時間間隔ΔT+tは、映像データ101の入力の時間間隔ΔTと相違した時間間隔で入力されることがある。このため、データ出力部50は、図7に示すように、音声データ102の各データの出力時間間隔を、データ単位Dを構成する映像データ101の各データの出力時間間隔ΔTに対応させるリップシンク処理が可能なように構成されている。すなわち、第1のデータ出力部50は、第1のデータ入力部10により入力された音声データ102の各データに対し数1の係数αを乗じて配信時間間隔を調整しリップシンク処理を行うことができる。
[数1]
α=ΔT/(ΔT+t)
【0043】
更に、データ出力部50は、同じく図7に示すように、第1のデータ記憶部40からエンコード処理された音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して第2のサーバ4に出力することができる。
【0044】
第2のサーバ4は、図8に示すように、第2のデータ入力部60、第2のデータ記憶部70、記憶データ判断部75、データ複製部80、第1のデータ配信部90、および第2のデータ配信部92を有している。第2のサーバ4は、第1のデータ配信部90および第2のデータ配信部92を介して被配信端末5に動画データ100やデコード処理を行うためのデータ103を自動的に配信するプッシュ型の情報配信方式とすることができる。
【0045】
第2のデータ入力部60は、第1のサーバ2のデータ出力部50から出力された映像データ101、音声データ102、およびデコード処理を行うためのデータ103を入力することができる。
【0046】
第2のデータ記憶部70は、第2のデータ入力部60により入力された映像データ101からキーフレームのデータ101aを選択して記憶(キャッシュ)することができる。キーフレームのデータ101aは、データ単位Dを構成するデータの最初に入力されるデータであり、第2のデータ記憶部70は、データ単位Dを構成するデータの最初のデータをキーフレームのデータ101aとして判断し記憶することができる。
【0047】
また、第2のデータ記憶部70は、第2のデータ入力部60により入力されたデータからエンコード処理された映像データ101のデコード処理を行うためのデータ103aを選択して記憶(キャッシュ)することができる。デコード処理を行うためのデータ103aは、ヘッダ情報としてキーフレームのデータ101aの前に付加されたデータであり、第2のデータ記憶部70は、キーフレームのデータ101aの前にあるヘッダ情報をデコード処理を行うためのデータ103aとして判断し記憶することができる。
【0048】
更に、第2のデータ記憶部70は、第2のデータ入力部60により入力されたデータからエンコード処理された音声データ102のデコード処理を行うためのデータ103bを選択して記憶(キャッシュ)することができる。デコード処理を行うためのデータ103bは、ヘッダ情報として音声データの前に付加されたデータであり、第2のデータ記憶部70は、音声データ102の前にあるヘッダ情報をデコード処理を行うためのデータ103bとして選択し記憶することができる。なお、第2のデータ記憶部70は、映像に関する差分データ101bおよび音声データ102を記憶されない非記憶データとして処理するように構成されている。
【0049】
記憶データ判断部75は、第2のデータ入力部60により入力されたデータに関し第2のデータ記憶部70により記憶するデータであるか否かの判断を行うことができる。すなわち、記憶データ判断部75は、データ単位Dを構成する最初のデータを第2のデータ記憶部70により記憶するキーフレームのデータ101aとして判断する。また、記憶データ判断部75は、キーフレームのデータ101aの前にあるヘッダ情報を映像データ101のデコード処理を行うためのデータ103aとして判断する。
【0050】
更に、記憶データ判断部75は、音声データ102の前にあるヘッダ情報を音声データ102のデコード処理を行うためのデータ103bとして判断する。更にまた、記憶データ判断部75は、映像に関する差分データ101bおよび音声データ102については記憶されない非記憶データとして判断する。なお、記憶データ判断部75による記憶データの判断は、キーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データのデコード処理を行うためのデータ103bに所定の識別情報を付与することにより行ってもよい。
【0051】
データ複製部80は、第2のデータ記憶部70により記憶されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを複製することができる。
【0052】
第1のデータ配信部90は、第2のデータ入力部60により入力された映像データ101および音声データ102を被配信端末5に配信することができる。
すなわち、第1のデータ配信部90は、上記の図6と同様に、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dより詳しくはGOP単位の映像データとして被配信端末5に配信することができる。
【0053】
第1のデータ配信部90は、映像データ101をデータ単位Dごとに被配信端末5に配信することができる。第1のデータ配信部90により配信されるデータ単位Dの配信時間は、例えばTとされ、データ単位Dの配信時間T内において、各データの配信時間間隔は、例えばデータ単位Dの配信時間Tよりも短い所定の時間間隔ΔTとして被配信端末5に配信することができる。データ単位Dの配信時間は、上述した出力時間と同様に、データ単位Dにおいて最初のデータ(キーフレームのデータ101a)が配信されてから最後のデータ(最後の映像に関する差分データ101b)が配信されるまでの時間となる。
【0054】
第1のデータ配信部90は、同じく図6に示すように、エンコード処理された映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加して配信することができる。
【0055】
また、第1のデータ配信部90は、音声データ102を被配信端末5に配信することができる。第2のデータ配信部90により配信される音声データ102は、図7に示すように、音声データ102の各データの配信時間間隔ΔT+tを、データ単位Dを構成する映像データ101の各データの配信時間間隔ΔTに対応させるリップシンク処理がされた音声データ102を被配信端末5に配信することができる。
【0056】
更に、第1のデータ配信部90は、同じく図7に示すように、第2のデータ入力部60からエンコード処理された音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して被配信端末5に配信することができる。
【0057】
第2のデータ配信部92は、図9に示すように、第2のデータ記憶部70に記憶されたデータより詳しくはデータ複製部80により複製されたデータ更に詳しくはキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを被配信端末5に更に並行して配信することができる。
【0058】
より詳しくは、第2のデータ配信部92は、図9に示すように、第1のデータ配信部90により配信されるデータ単位Dの配信時間T内において、データ単位Dの配信時間Tよりも短い所定の配信時間間隔ΔTでデータ単位Dの映像データと並行してキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを被配信端末5に配信することができる。
【0059】
より詳しくは、第2のデータ配信部92は、第1のデータ配信部90におけるデータ単位Dの各データの配信時間間隔ΔTと同じ配信時間間隔ΔTでキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを被配信端末5に配信することができる。なお、データ101a、データ103a、データ103bを配信時間T内において予め定められた任意の回数および/またはタイミングで配信するようにしてもよい。
【0060】
被配信端末5は、図10に示すように、第3のデータ入力部94およびデコード処理部96を有している。
【0061】
第3のデータ入力部94は、第2のサーバ4の第1のデータ配信部90から配信されるキーフレームのデータ101a、差分データ101b、および音声データ102を入力するとともに、第2のデータ配信部92から配信されるキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを並行して入力することができる。
【0062】
デコード処理部96は、第3のデータ入力部94により入力された映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bにより映像データ101と音声データ102のデコード処理を行うことができる。
【0063】
ここで、上記した配信システム1の各機能部は、所定のプログラム200を実行させることにより機能をさせることができる。
【0064】
すなわち、プログラム200は、配信システム1の各構成機器のコンピュータを、第1のデータ入力部10、データ分離部20、データ生成部30、第1のデータ記憶部40、データ出力部50、第2のデータ入力部60、第2のデータ記憶部70、記憶データ判断部75、データ複製部80、第1のデータ配信部90、第2のデータ配信部92、第3のデータ入力部94、およびデコード処理部96として機能させることができる。プログラム200は、配信システム1の記憶装置1Cに記憶されている。
【0065】
次に、本発明の配信システム1によるデータ処理方法を図11および図12のフローチャートに基づいて説明する。
【0066】
すなわち、第1のサーバ2のデータ処理方法を図11に示すように、まずステップS10において、第1のデータ入力部10が、配信端末2から多重化された映像データ101と音声データ102を入力する。
【0067】
次いで、ステップS20において、データ分離部20が、第1のデータ入力部10により入力された多重化された映像データ101と音声データ102を分離する。
【0068】
次に、ステップS30において、データ生成部30が、データ分離部20により分離されたデータのうち映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行う。
【0069】
続いて、ステップS40において、データ出力部50が、映像データ101、音声データ102、およびデコード処理を行うためのデータ103を第2のサーバ4に出力する。より詳しくは、データ出力部50は、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dの映像データとして出力する。
【0070】
また、データ出力部50は、映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加して出力する。更に、データ出力部50は、音声データ102の出力時間間隔ΔT+tを、映像データ101の出力時間間隔ΔTに対応させるリップシンク処理を行うとともに、音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して出力する。
【0071】
次に、第2のサーバ4および被配信端末5のデータ処理方法を図12に示すように、ステップS50において、第2のデータ入力部60が、第1のサーバ2のデータ出力部50から出力された映像データ101、音声データ102、およびデコード処理を行うためのデータ103を入力する。
【0072】
次いで、ステップS60において、記憶データ判断部75が、第2のデータ入力部60により入力されたデータに関し第2のデータ記憶部70により記憶するデータであるか否かの判断を行う。すなわち、記憶データ判断部75は、データ単位Dを構成する最初のデータを第2のデータ記憶部70により記憶するキーフレームのデータ101aとして判断し、更にキーフレームのデータ101aの前にあるヘッダ情報を映像データ101のデコード処理を行うためのデータ103aとして判断し、音声データ102の前にあるヘッダ情報を音声データ102のデコード処理を行うためのデータ103bとして判断し、映像に関する差分データ101bおよび音声データ102は非記憶データとして判断する。
【0073】
続いて、ステップS65において、第2のデータ記憶部70が、記憶データ判断部75により記憶するデータとして判断されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを記憶する。また、第2のデータ記憶部70は、映像に関する差分データ101bおよび音声データ102は非記憶データとして処理する。
【0074】
次に、ステップ70において、データ複製部80が、第2のデータ記憶部70により記憶されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを複製する。
【0075】
続いて、ステップS80において、第1のデータ配信部90が、第2のデータ入力部60により入力された映像データ101および音声データ102を被配信端末5に配信する。すなわち、第2のデータ配信部90は、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dの映像データとして配信する。また、第1のデータ配信部90は、エンコード処理された映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加して配信する。更に、第1のデータ配信部90は、リップシンク処理がされた音声データ102を被配信端末5に配信する。また更に、第1のデータ配信部90は、第2のデータ入力部60からエンコード処理された音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して配信する。
【0076】
次いで、ステップS80に並行するステップS90において、第2のデータ配信部92が、データ複製部80により複製されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データのデコード処理を行うためのデータ103bを被配信端末5に更に並行して配信する。
【0077】
次に、ステップS100において、被配信端末5のユーザが所定のタイミングで第2のサーバ4にアクセスする。このアクセスにより、被配信端末5の第3のデータ入力部94が、第2のサーバ4の第1のデータ配信部90から配信される少なくとも映像に関する差分データ101bおよび音声データ102を入力するとともに、第2のデータ配信部92から配信されるキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを並行して入力する。
【0078】
続いて、ステップS110において、デコード処理部96が、第3のデータ入力部94により入力された映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bにより映像データ101と音声データ102のデコード処理を行う。これにより、被配信端末5のユーザは動画100の視聴を行うことができる。
【0079】
以上説明したように、本発明によれば、キーフレームのデータ101aを被配信端末5に並行して配信する第2のデータ配信部92を有することとしたので、キーフレームのデータ101aを並行して配信することができる。
【0080】
すなわち、従来においては、図13に示すように、例えば、「Pフレーム1」の配信タイミングで被配信端末5のユーザがアクセスをした場合にあっては、次のデコード処理を行うためのデータ103a,103bやキーフレームのデータ101aが配信されるまでΔA時間だけ視聴のタイムラグを生じることとなる。
【0081】
これに対し、本発明においては、図14に示すように、例えば、「Pフレーム1」の配信タイミングでユーザがアクセスをした場合にあっても、第2のデータ配信部92によりデコード処理を行うためのデータ103a,103bやキーフレームのデータ101aが並行して配信されているので、ΔA時間の視聴のタイムラグを生じることなく視聴することができる。
【0082】
また、本発明によれば、被配信端末5にデコード処理部96を設定するとともに、デコード処理部96は、第2のデータ配信部92により配信されたデコード処理を行うためのデータ103によりデコード処理を行うこととしたので、被配信端末5でデコード処理を行うことができる。
【0083】
なお、本発明は上述した実施形態に限定されることなく、種々の変形実施、応用実施が可能であることは勿論である。
すなわち、上述した実施形態にあっては、第2のデータ配信部92は、映像データ101からキーフレームのデータ101aを被配信端末5に配信することとしているが、更に映像に関する差分データ101bや音声データ102を配信することとしても所要の効果を奏する。すなわち、第2のデータ配信部92は、映像データ100から少なくともキーフレームのデータ101aを被配信端末5に配信することとすれば、本発明の技術的効果を達成することができる。
【0084】
また、上述した実施形態にあっては、映像に関する差分データ101bは、Pフレームのデータとすることとしているが、更にIフレームとPフレームとの間に映像に関する差分データ101bとしてBフレーム(Bi-directionally Predictive-Picture、差分フレーム)のデータを含むこととしてもよい。
【0085】
更に、上述した実施形態にあっては、デコード処理を行うためのデータ103は、映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bを含むこととしているが、いずれか一方としても所要の効果を奏することができる。すなわち、デコード処理を行うためのデータ103は、映像データ101のデコード処理を行うためのデータ103aおよび/または音声データ102のデコード処理を行うためのデータ103を含むこととすれば、本発明の技術的効果を達成することができる。
【0086】
更にまた、映像データ101のデコード処理を行うためのデータ103aは、SPS、PPS、およびSEIを含むこととしているが、少なくともいずれかを含むこととすればよい。また、映像データ101のデコード処理を行うためのデータ103aは、SPS、PPS、およびSEI以外のデータを含むこととしてよい。
【0087】
また、更に、音声データ102のデコード処理を行うためのデータ103bは、AudioSpecificConfigを含むこととしているが、他のデータを含むこととしてもよい。
【0088】
更にまた、上述した実施形態にあっては、第1のサーバ2におけるデータ生成部30において、映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行うこととしているが、配信端末2において、キーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行うこととして、第1のデータ入力部10が、キーフレームのデータ101aと映像に関する差分データ101bを入力することとしても所要の効果を奏することができる。
【0089】
また、上述した実施形態にあっては、データ単位Dは、一のキーフレームのデータ101aと複数の映像に関する差分データ101bを含むこととしているが、ヘッダ情報としてキーフレームのデータ101aの前に付加される映像データ101のデコード処理を行うためのデータ103aを更に含めてデータ単位Dとすることとしてもよい。
【0090】
更に、上述した実施形態にあっては、データ単位Dの配信時間(出力時間)は、データ単位Dにおいて最初のデータ(キーフレームのデータ101a)が配信されてから最後のデータ(最後の映像に関する差分データ101b)が出力されるまでの時間とすることとしているが、最初のデータを映像データ101のデコード処理を行うためのデータ103aとして、データ単位Dの配信時間(出力時間)を設定することとしてもよい。
【符号の説明】
【0091】
NT:ネットワーク通信回線
1:配信システム
1A:バス
1B:中央処理装置
1C:記憶装置
1D:入力装置
1E:表示装置
2:配信端末
3:第1のサーバ
4:第2のサーバ
5:被配信端末
10:第1のデータ入力部
20:データ分離部
30:データ生成部
40:第1のデータ記憶部
50:データ出力部
60:第2のデータ入力部
70:第2のデータ記憶部
80:データ複製部
90:第1のデータ配信部
92:第2のデータ配信部
94:第3のデータ入力部
96:デコード処理部
100:動画データ
101:映像データ
101a:キーフレームのデータ
101b:映像に関する差分データ
102:音声データ
103:デコード処理を行うためのデータ
103a:映像データのデータ処理を行うためのデータ
103b:音声データのデコード処理を行うためのデータ
200:プログラム
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14