IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社東芝の特許一覧 ▶ 東芝電機サービス株式会社の特許一覧

特開2024-140380放送データ処理装置及び放送データ処理方法
<>
  • 特開-放送データ処理装置及び放送データ処理方法 図1
  • 特開-放送データ処理装置及び放送データ処理方法 図2
  • 特開-放送データ処理装置及び放送データ処理方法 図3
  • 特開-放送データ処理装置及び放送データ処理方法 図4
  • 特開-放送データ処理装置及び放送データ処理方法 図5
  • 特開-放送データ処理装置及び放送データ処理方法 図6
  • 特開-放送データ処理装置及び放送データ処理方法 図7
  • 特開-放送データ処理装置及び放送データ処理方法 図8
  • 特開-放送データ処理装置及び放送データ処理方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024140380
(43)【公開日】2024-10-10
(54)【発明の名称】放送データ処理装置及び放送データ処理方法
(51)【国際特許分類】
   H04N 21/242 20110101AFI20241003BHJP
   H04N 21/24 20110101ALI20241003BHJP
   H04H 60/06 20080101ALI20241003BHJP
【FI】
H04N21/242
H04N21/24
H04H60/06
【審査請求】未請求
【請求項の数】21
【出願形態】OL
(21)【出願番号】P 2023051495
(22)【出願日】2023-03-28
(71)【出願人】
【識別番号】000003078
【氏名又は名称】株式会社東芝
(71)【出願人】
【識別番号】598076591
【氏名又は名称】東芝インフラシステムズ株式会社
(74)【代理人】
【識別番号】100111121
【弁理士】
【氏名又は名称】原 拓実
(74)【代理人】
【識別番号】100200218
【弁理士】
【氏名又は名称】沼尾 吉照
(72)【発明者】
【氏名】菅原 幸弘
(72)【発明者】
【氏名】木浦 健一
【テーマコード(参考)】
5C164
【Fターム(参考)】
5C164SB06S
5C164SB10P
5C164SB41P
5C164SC21S
5C164YA21
(57)【要約】
【課題】各RTPパケット間のタイミングずれを視聴者が許容できる一定の範囲にまで補正する放送データ処理装置及び放送データ処理方法を提供することである。
【解決手段】データ処理後の映像データを格納する映像データ格納部と、データ処理後の音声データを格納する音声データ格納部と、前記映像データ格納部から読み出した映像データと前記音声データ格納部から読み出した音声データとの遅れを判定する第3の判定部と、前記第3の判定部による判定の結果、前記音声データが映像データに対して所定の閾値以上の遅れであるとき、前記第3の判定部によって前記映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記音声データが映像データに対して進んでいるとき、前記音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定する。
【選択図】図1
【特許請求の範囲】
【請求項1】
外部から受信した映像データ、音声データ又は装置内に格納されている映像データ、音声データに対してそれぞれ所定の処理を施すデータ処理部と、
前記データ処理部で処理した映像データを格納する第2の映像データ格納部と、
前記データ処理部で処理した音声データを格納する第2の音声データ格納部と、
前記第2の映像データ格納部から読み出した映像データと前記第2の音声データ格納部から読み出した音声データとの遅れを判定する第3の判定部と、
前記第3の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと音声データとを出力し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第3の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第3の判定部によって前記第2の音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定する第2の制御部と、
を有する放送データ処理装置。
【請求項2】
映像データを格納する第1の映像データ格納部と、
音声データを格納する第1の音声データ格納部と、
前記第1の映像データ格納部から読み出した映像データと前記第1の音声データ格納部から読み出した音声データとの遅れを判定する第1の判定部と、
前記第1の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと音声データとを出力し、前記第1の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第1の判定部によって前記第1の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第1の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第1の判定部によって前記第1の音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定する第1の制御部と、
を有する第1のタイミングずれ補正部と、
前記第1のタイミングずれ補正部から出力された映像データに対して所定の処理が成された映像データを格納する第2の映像データ格納部と、
前記第1のタイミングずれ補正部から出力された音声データに対して所定の処理が成された音声データを格納する第2の音声データ格納部と、
前記第2の映像データ格納部から読み出した映像データと前記第2の音声データ格納部から読み出した音声データとの遅れを判定する第3の判定部と、
前記第3の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと音声データとを出力し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第3の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第3の判定部によって前記第2の音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定する第2の制御部と、
を有する第2のタイミングずれ補正部と、
を有する放送データ処理装置。
【請求項3】
前記所定の閾値が映像データにおける1フレーム時間である、
請求項1又は請求項2に記載の放送データ処理装置。
【請求項4】
前記映像データ及び前記音声データはRTPパケットとして記憶されており、RTPパケットのヘッダ情報から取得したタイミング情報に基づいて映像データと音声データとの遅れを判定する、
請求項1又は請求項2に記載の放送データ処理装置。
【請求項5】
外部から受信した映像データ、補助データ又は装置内に格納されている映像データ、補助データに対してそれぞれ所定の処理を施すデータ処理部と、
前記データ処理部で処理した映像データを格納する第2の映像データ格納部と、
前記データ処理部で処理した補助データを格納する第2の補助データ格納部と、
前記第2の映像データ格納部から読み出した映像データと前記第2の補助データ格納部から読み出した補助データとの遅れを判定する第4の判定部と、
前記第4の判定部による判定の結果、前記補助データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと補助データとを出力し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第4の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記補助データとの遅れを判定し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも進んでいるとき、前記第4の判定部によって前記第2の補助データ格納部に格納されている次の補助データと前記映像データとの遅れを判定する第2の制御部と、
を有する放送データ処理装置。
【請求項6】
映像データを格納する第1の映像データ格納部と、
補助データを格納する第1の補助データ格納部と、
前記第1の映像データ格納部から読み出した映像データと前記第1の補助データ格納部から読み出した補助データとの遅れを判定する第2の判定部と、
前記第2の判定部による判定の結果、前記補助データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと補助データとを出力し、前記第2の判定部による判定の結果、前記補助データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第2の判定部によって前記第1の映像データ格納部に格納されている次の映像データと前記補助データとの遅れを判定し、前記第2の判定部による判定の結果、前記補助データが前記映像データよりも進んでいるとき、前記第2の判定部によって前記第1の補助データ格納部に格納されている次の補助データと前記映像データとの遅れを判定する第1の制御部と、
を有する第1のタイミングずれ補正部と、
前記第1のタイミングずれ補正部から出力された映像データに対して所定の処理が成された映像データを格納する第2の映像データ格納部と、
前記第1のタイミングずれ補正部から出力された補助データに対して所定の処理が成された補助データを格納する第2の補助データ格納部と、
前記第2の映像データ格納部から読み出した映像データと前記第2の補助データ格納部から読み出した補助データとの遅れを判定する第4の判定部と、
前記第4の判定部による判定の結果、前記補助データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと補助データとを出力し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第4の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記補助データとの遅れを判定し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも進んでいるとき、前記第4の判定部によって前記第2の補助データ格納部に格納されている次の補助データと前記映像データとの遅れを判定する第2の制御部と、
を有する第2のタイミングずれ補正部と、
を有する放送データ処理装置。
【請求項7】
前記所定の閾値が映像データにおける1フレーム時間である、
請求項5又は請求項6に記載の放送データ処理装置。
【請求項8】
前記映像データ及び前記補助データはRTPパケットとして記憶されており、RTPパケットのヘッダ情報から取得したタイミング情報に基づいて映像データと補助データとの遅れを判定する、
請求項5又は請求項6に記載の放送データ処理装置。
【請求項9】
外部から受信した映像データ、音声データ及び補助データ又は装置内に格納されている映像データ、音声データ及び補助データに対してそれぞれ所定の処理を施すデータ処理部と、
前記データ処理部で処理した映像データを格納する第2の映像データ格納部と、
前記データ処理部で処理した音声データを格納する第2の音声データ格納部と、
前記データ処理部で処理した補助データを格納する第2の補助データ格納部と、
前記第2の映像データ格納部から読み出した映像データと前記第2の音声データ格納部から読み出した音声データとの遅れを判定する第3の判定部と、
前記第2の映像データ格納部から読み出した映像データと前記第2の補助データ格納部から読み出した補助データとの遅れを判定する第4の判定部と、
前記第3の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第3の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第3の判定部によって前記第2の音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定する制御部であって、前記第3の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、前記映像データと前記音声データを読出し、
前記第4の判定部による判定の結果、前記補助データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データ、音声データ及び補助データと出力し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第4の判定部によって前記第2の映像データ格納部に格納されている次の映像データと補助データとの遅れを判定し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも進んでいるとき、前記第4の判定部によって前記第2の補助データ格納部に格納されている次の補助データと前記映像データとの遅れを判定する第2の制御部と、
を有する放送データ処理装置。
【請求項10】
映像データを格納する第1の映像データ格納部と、
音声データを格納する第1の音声データ格納部と、
補助データを格納する第1の補助データ格納部と、
前記第1の映像データ格納部から読み出した映像データと前記第1の音声データ格納部から読み出した音声データとの遅れを判定する第1の判定部と、
前記第1の映像データ格納部から読み出した映像データと前記第1の補助データ格納部から読み出した補助データとの遅れを判定する第2の判定部と、
前記第1の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第1の判定部によって前記第1の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第1の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第1の判定部によって前記第1の音声データ格納部に格納されている次の音声データを前記映像データとの遅れを判定する制御部であって、前記第1の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、前記映像データと前記音声データを読出し、
前記第2の判定部による判定の結果、前記補助データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データ、音声データ及び補助データを出力し、前記第2の判定部による判定の結果、前記補助データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第1の判定部によって前記第1の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第2の判定部による判定の結果、前記補助データが前記映像データよりも進んでいるとき、前記第2の判定部によって前記第1の補助データ格納部に格納されている次の補助データと前記映像データとの遅れを判定する第1の制御部と、
を有する第1のタイミングずれ補正部と、
前記第1のタイミングずれ補正部から出力された映像データに対して所定の処理が成された映像データを格納する第2の映像データ格納部と、
前記第1のタイミングずれ補正部から出力された音声データに対して所定の処理が成された音声データを格納する第2の音声データ格納部と、
前記第1のタイミングずれ補正部から出力された補助データに対して所定の処理が成された補助データを格納する第2の補助データ格納部と、
前記第2の映像データ格納部から読み出した映像データと前記第2の音声データ格納部から読み出した音声データとの遅れを判定する第3の判定部と、
前記第2の映像データ格納部から読み出した映像データと前記第2の補助データ格納部から読み出した補助データとの遅れを判定する第4の判定部と、
前記第3の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第3の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第3の判定部によって前記第2の音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定する制御部であって、前記第3の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、前記映像データと前記音声データを読出し、
前記第4の判定部による判定の結果、前記補助データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データ、音声データ及び補助データを出力し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第4の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記補助データとの遅れを判定し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも進んでいるとき、前記第4の判定部によって前記第2の補助データ格納部に格納されている次の補助データと前記映像データとの遅れを判定する第2の制御部と、
を有する第2のタイミングずれ補正部と、
を有する放送データ処理装置。
【請求項11】
前記所定の閾値が映像データにおける1フレーム時間である、
請求項9又は請求項10に記載の放送データ処理装置。
【請求項12】
前記映像データ、前記音声データ及び前記補助データはRTPパケットとして記憶されており、RTPパケットのヘッダ情報から取得したタイミング情報に基づいて映像データ、音声データ及び補助データとの遅れを判定する、
請求項9又は請求項10に記載の放送データ処理装置。
【請求項13】
外部から受信した映像データ、音声データ又は装置内に格納されている映像データ、音声データに対してそれぞれ所定の処理を施すデータ処理部にて所定の処理を施し、
前記データ処理部で処理した映像データを格納する第2の映像データ格納部に格納し、
前記データ処理部で処理した音声データを格納する第2の音声データ格納部に格納し、
前記第2の映像データ格納部から読み出した映像データと前記第2の音声データ格納部から読み出した音声データとの遅れを判定する第3の判定部で判定し、
前記第3の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと音声データとを出力し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第3の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第3の判定部によって前記第2の音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定する、
放送データ処理方法。
【請求項14】
前記所定の閾値が映像データにおける1フレーム時間である、
請求項13に記載の放送データ処理方法。
【請求項15】
前記映像データ及び前記音声データはRTPパケットとして記憶されており、RTPパケットのヘッダ情報から取得したタイミング情報に基づいて映像データと音声データとの遅れを判定する、
請求項13又は請求項14に記載の放送データ処理方法。
【請求項16】
外部から受信した映像データ、補助データ又は装置内に格納されている映像データ、補助データに対してそれぞれ所定の処理を施すデータ処理部にて所定の処理を施し、
前記データ処理部で処理した映像データを格納する第2の映像データ格納部に格納し、
前記データ処理部で処理した補助データを格納する第2の補助データ格納部に格納し、
前記第2の映像データ格納部から読み出した映像データと前記第2の補助データ格納部から読み出した補助データとの遅れを判定する第2の判定部で判定し、
前記第2の判定部による判定の結果、前記補助データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと補助データとを出力し、前記第2の判定部による判定の結果、前記補助データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第2の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記補助データとの遅れを判定し、前記第2の判定部による判定の結果、前記補助データが前記映像データよりも進んでいるとき、前記第2の判定部によって前記第2の補助データ格納部に格納されている次の補助データと前記映像データとの遅れを判定する、
放送データ処理方法。
【請求項17】
前記所定の閾値が映像データにおける1フレーム時間である、
請求項16に記載の放送データ処理方法。
【請求項18】
前記映像データ及び前記補助データはRTPパケットとして記憶されており、RTPパケットのヘッダ情報から取得したタイミング情報に基づいて映像データと補助データとの遅れを判定する、
請求項16又は請求項17に記載の放送データ処理方法。
【請求項19】
映像データを第1の映像データ格納部に格納し、
音声データを第1の音声データ格納部に格納し、
補助データを第1の補助データ格納部に格納し、
前記第1の映像データ格納部から読み出した映像データと前記第1の音声データ格納部から読み出した音声データとの遅れを判定する第1の判定部で判定し、
前記第1の映像データ格納部から読み出した映像データと前記第1の補助データ格納部から読み出した補助データとの遅れを判定する第2の判定部で判定し、
前記第1の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第1の判定部によって前記第1の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第1の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第1の判定部によって前記第1の音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定し、前記第1の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、前記映像データと前記音声データを読出し、
前記第2の判定部による判定の結果、前記補助データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データ、音声データ及び補助データを出力し、前記第2の判定部による判定の結果、前記補助データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第1の判定部によって前記第1の映像データ格納部に格納されている次の映像データと次の音声データとの遅れを判定し、前記第2の判定部による判定の結果、前記補助データが前記映像データよりも進んでいるとき、前記第2の判定部によって前記第1の補助データ格納部に格納されている次の補助データと前記映像データとの遅れを判定し、
処理された映像データを第2の映像データ格納部に格納し、
処理された音声データを第2の音声データ格納部に格納し、
処理された補助データを第2の補助データ格納部に格納し、
前記第2の映像データ格納部から読み出した映像データと前記第2の音声データ格納部から読み出した音声データとの遅れを判定する第3の判定部で判定し、
前記第2の映像データ格納部から読み出した映像データと前記第2の補助データ格納部から読み出した補助データとの遅れを判定する第4の判定部で判定し、
前記第3の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第3の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第3の判定部によって前記第2の音声データ格納部に格納されている次の音声データを前記映像データとの遅れを判定し、前記第3の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、前記映像データと前記音声データを読出し、
前記第4の判定部による判定の結果、前記補助データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データ、音声データ及び補助データを出力し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第3の判定部によって前記第2の映像データ格納部に格納されている次の映像データと次の音声データとの遅れを判定し、前記第4の判定部による判定の結果、前記補助データが前記映像データよりも進んでいるとき、前記第4の判定部によって前記第2の補助データ格納部に格納されている次の補助データと前記映像データとの遅れを判定する、
放送データ処理方法。
【請求項20】
前記所定の閾値が映像データにおける1フレーム時間である、
請求項19に記載の放送データ処理方法。
【請求項21】
前記映像データ、前記音声データ及び前記補助データはRTPパケットとして記憶されており、RTPパケットのヘッダ情報から取得したタイミング情報に基づいて映像データ、音声データ及び補助データとの遅れを判定する、
請求項19又は請求項20に記載の放送データ処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は、放送データ処理装置及び放送データ処理方法に関する。
【背景技術】
【0002】
放送システムにおけるマスタ送出システムでは、スタジオ、回線センタ、サーバシステム等から入力される素材を、運行システムに従い自動的に切り替え、効果処理部で文字やロゴの映像への重畳や、音声の加工/合成、字幕などの補助データの重畳を行っている。その後、符号化、多重化部で、映像や音声の符号化や、データ放送や番組表などの付加情報を多重化し、送信システムに出力する。
【0003】
近年、マスタ送出システムに入力される素材の伝送に関して、SDI(Serial Digital Interface)をRTP(Real-time Transport Protocol)パケット化してIP(Internet Protocol)ネットワークで伝送する伝送方式が実現されているが、SMPTE ST2110規格では、映像、音声、補助データ(Ancillary。以下ANCと称する。)を、異なるRTPパケットで伝送する。
【0004】
従って、ある送信装置からマスタ送出システムへ素材を伝送した際に、マスタ送出システムが受信した映像、音声、ANCのRTPパケットの間には、伝送路で生じたタイミングのずれが発生する可能性がある。
【0005】
また、受信した映像、音声、ANCのRTPパケットを装置内で処理する際に、映像処理部、音声処理部、ANC処理部の処理レイテンシが同一ではないため、伝送路で発生するのと同様に、装置内でも映像、音声、ANC各データのタイミング関係のずれが発生する可能性がある。
【0006】
上記タイミングのずれをFPGA(Field-Programmable Gate Array)といったハードウェアで処理する場合は、映像、音声、ANC処理部の遅延量が固定であることが多く、調整することは容易であった。
【0007】
一方で、近年、マシンスペックの向上により汎用コンピュータ上で映像、音声、ANCのソフトウェアベースの処理がされることがあり、ソフトウェアではコンピュータの負荷状況により遅延量の変動が発生するためタイミング関係のずれの調整が難しいという課題がある。
【0008】
映像と音声の間のタイミングのずれ(リップシンク)があると視聴者にとって違和感が生じるため、文献BT.1359-1に示されているように視聴者が許容できる一定の範囲に抑える必要がある。また、ANCには映像に対応した字幕や、局間制御信号などのタイミング情報が含まれているため、映像とANCのタイミングのずれも放送に影響を及ぼす。
【0009】
特に、近年クラウド上にシステムを実現する方式も検討されており、放送局とクラウド間などの伝送路も考えられるため、各放送データのタイミングずれは大きくなると予想される。
【先行技術文献】
【特許文献】
【0010】
【特許文献1】特開2020-162078号公報
【発明の概要】
【発明が解決しようとする課題】
【0011】
従来は、上述したように映像、音声、ANCのRTPパケット受信時に伝送路上で発生した遅延により、映像、音声、ANCのタイミング関係のずれが発生する可能性がある。さらに、各データの受信後においても、装置内で加工等の処理する際に映像、音声、ANC各データのタイミング関係のずれが発生する可能性がある。
【0012】
これらのタイミング関係のずれが発生した映像、音声、ANCのRTPパケットを送信すると、タイミング関係のずれが発生したまま各データを送信することとなる。
【0013】
ここで、このような各放送データのタイミング関係のずれについて、特許文献1やSMPTE ST2110-10にはRTPパケットのタイムスタンプを利用して、各パケット間の時間合わせをすることでこのタイミングずれが補正される旨が記載されている。
【0014】
しかし、これらの記載には具体的にこのタイミングずれを補正する方法まで言及がなく、どのようにすれば文献BT.1359-1に示されているように視聴者が許容できる一定の範囲にまでこのタイミングずれを補正することができるのか不明である。
【0015】
そこで本発明が解決しようとする課題は、各RTPパケット間のタイミングずれを視聴者が許容できる一定の範囲にまで補正する放送データ処理装置及び放送データ処理方法を提供することである。
【課題を解決するための手段】
【0016】
上記課題を解決するために、実施形態の放送データ処理装置は、外部から受信した映像データ、音声データ又は装置内に格納されている映像データ、音声データに対してそれぞれ所定の処理を施すデータ処理部と、前記データ処理部で処理した映像データを格納する第2の映像データ格納部と、前記データ処理部で処理した音声データを格納する第2の音声データ格納部と、前記第2の映像データ格納部から読み出した映像データと前記第2の音声データ格納部から読み出した音声データとの遅れを判定する第3の判定部と、前記第3の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと音声データとを出力し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記3の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第3の判定部によって前記第2の音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定する第2の制御部とを有する。
【0017】
また、上記課題を解決するために、実施形態の放送データ処理方法は、外部から受信した映像データ、音声データ又は装置内に格納されている映像データ、音声データに対してそれぞれ所定の処理を施すデータ処理部にて所定の処理を施し、前記データ処理部で処理した映像データを格納する第2の映像データ格納部に格納し、前記データ処理部で処理した音声データを格納する第2の音声データ格納部に格納し、前記第2の映像データ格納部から読み出した映像データと前記第2の音声データ格納部から読み出した音声データとの遅れを判定する第3の判定部で判定し、前記第3の判定部による判定の結果、前記音声データが映像データに対して所定の閾値未満の遅れであるとき、読み出した映像データと音声データとを出力し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも所定の閾値以上の遅れであるとき、前記第3の判定部によって前記第2の映像データ格納部に格納されている次の映像データと前記音声データとの遅れを判定し、前記第3の判定部による判定の結果、前記音声データが前記映像データよりも進んでいるとき、前記第3の判定部によって前記第2の音声データ格納部に格納されている次の音声データと前記映像データとの遅れを判定する。
【図面の簡単な説明】
【0018】
図1】第1の実施形態に係る放送データ処理装置の概略ブロック図
図2】データ格納部におけるデータ構造の例
図3】映像データと音声データ間のタイミングずれ補正のフロー図
図4】第2の実施形態に係る放送データ処理装置の概略ブロック図
図5】映像データとANCデータ間のタイミングずれ補正のフロー図
図6】第3の実施形態に係る放送データ処理装置の概略ブロック図
図7】映像データ、音声データ及びANCデータ間のタイミングずれ補正のフロー図
図8】第4の実施形態に係る放送データ処理装置の概略ブロック図
図9】装置内に格納されている素材ファイルを再生する場合の放送データ処理フロー図
【発明を実施するための形態】
【0019】
以下、図面を参照して発明を実施するための実施形態について説明する。
【0020】
(第1の実施形態)
第1の実施形態に係る放送データ処理装置を以下に示す。
【0021】
本実施形態における放送データ処理装置10は、例えば、図1に示すように、音声RTPパケット受信部11及び映像RTPパケット受信部12を備えている。そして、RTPパケットとして記憶されている映像データ及び音声データを受信する音声RTPパケット受信部11及び映像RTPパケット受信部12は、それぞれIPネットワークから受信した1サンプル分の音声RTPパケット及び1フレーム分の映像RTPパケットから各タイムスタンプ及び音声データ、映像データを抽出する。
【0022】
そして、放送データ処理装置10は第1のタイミングずれ補正部101と第2のタイミングずれ補正部102を備えている。
【0023】
第1のタイミングずれ補正部101は、第1の音声データ格納部13A及び第1の映像データ格納部14Aを備えており、抽出されたタイムスタンプ及び各データはそれぞれこれらのデータ格納部に格納される。
【0024】
これらのデータ格納部は、各データのRTPパケットのヘッダ情報から取得したタイミングのずれを吸収するためのバッファ(例えば、リングバッファ)である。このバッファであるデータ格納部に格納するデータの構造は、図2に示すように、タイムスタンプと実データとがセットとして格納部の各アドレスに格納されている。一般的に、映像データは1フレームまたは1フィールド毎、音声データは1サンプル毎にタイムスタンプと実データを格納する。
【0025】
また、第1のタイミングずれ補正部101は第1のデータ読出し部15Aを備えており、PTPマスタから時刻同期部16を経て送られるタイミング情報を基に、タイミング生成部17によって生成されたフレームタイミングを待って、各データ格納部に格納されたデータを読出すことができる。
【0026】
さらに、第1のタイミングずれ補正部101は第1の判定部18Aを備えており、読出された各データのタイムスタンプを時刻に変換し、各データの遅れ時間を検出/算出し、予め決められた所定の閾値未満であるかどうかを判定する。この閾値は、視聴者が許容できる一定の範囲であって、例えば、ITU-R BT.1359-1に記載があるように、各データのタイムスタンプの時刻の差が-180~+90(ms)のずれのことをいう。ここで、各データのタイミングずれが無い状態とは各データのタイムスタンプの時刻の差が±0(ms)のことをいう。
【0027】
加えて、第1のタイミングずれ補正部101は各データのタイミングずれを補正する制御部である第1の制御部19Aを備えており、第1の判定部18Aの判定結果によって閾値以上であった場合に、各データのタイミングのずれが閾値未満となるように補正をする機能をもつ。
【0028】
第1の制御部19Aは、音声データが映像データよりも進んでいる場合、読み出された1サンプル分の音声データは廃棄され、再度第1の音声データ格納部13Aから音声データを読出し、閾値未満の音声データを読出すまで繰り返す。
【0029】
また、音声データが映像データに対して閾値以上に遅れている場合、読出された映像データは廃棄され、読出された音声データは第1の音声データ格納部13Aに戻されて、再度映像データ格納部14Aから映像データを読出し、閾値未満となるまで繰り返す。
【0030】
本実施形態に係る放送データ処理装置10は、データ処理部である音声処理部20及び映像処理部21を備えている。第1の判定部18Aによって閾値未満であった各データはそれぞれ音声処理部20及び映像処理部21に出力され、加工、データの重畳等の処理がなされる。
【0031】
次に、第2のタイミングずれ補正部102は、第2の音声データ格納部13B及び第2の映像データ格納部14Bを備えている。上述した音声処理部20及び映像処理部21にて処理された各データをそれぞれ格納するためである。
【0032】
さらに、第2のタイミングずれ補正部102は、第2のデータ読出し部15B、第3の判定部18B、第2の制御部19Bを備えており、それぞれ上述した第1のデータ読出し部15A、第1の判定部18A、第1の制御部19Aと同等の機能を有しており、音声処理部20及び映像処理部21にて処理された各データに対して同様の処理を行う。
【0033】
また、本実施形態に係る放送データ処理装置10は、音声RTPパケット送信部22及び映像RTPパケット送信部23を備えており、タイミングのずれが閾値未満である各データは音声RTPパケット送信部22及び映像RTPパケット送信部23によって出力される。
【0034】
次に本実施形態に係る放送データ処理方法を以下に示す。また、本実施形態に係る処理方法の動作の一例を図3のフローチャートに示す。
【0035】
図3のフローチャートは、第1のタイミングずれ補正部101及び第2のタイミングずれ補正部102が行う、受信した映像、音声のデータ間のタイミングが、伝送路の影響及び音声処理部20及び映像処理部21における処理でずれていた場合に、視聴者が許容できる一定の範囲にまでこのずれを補正することができるような補正フローチャートである。
【0036】
具体的には、第1の制御部19A及び第2の制御部19Bが、映像、音声データとセットになっているタイムスタンプを比較しながら、タイミングずれの補正が行われる。
【0037】
第1のタイミングずれ補正部101も第2のタイミングずれ補正部102も、処理方法は同様であるため、以下には第1のタイミングずれ補正部101での処理方法のみを記載し、第2のタイミングずれ補正部102における対象部については括弧書きにて符号のみ記載する。
【0038】
システム全体は、ある時刻源に同期しているとし、放送データ処理装置10もPTPマスタを通じて、時刻同期部16がシステムに同期化しているとする。タイミング生成部17は、時刻同期部16が持つ時刻から一定周期のタイミング、例えばフレームタイミングを生成し、処理の開始タイミングとして使用する。
【0039】
本実施形態における補正フローチャートでは、処理の開始となるフレームタイミングを待って(S101)、フレームタイミングになったときに第1の映像データ格納部14A(14B)に1フレーム以上の映像データが存在するかどうかを確認する(S102)。1フレーム以上の映像データが存在しない場合は、フレームタイミング待ちへ戻ることになるが(S102のNo)、1フレーム以上の映像データが存在する場合は第1の映像データ格納部14A(14B)から1フレーム分のデータを読み出す(S103)。
【0040】
次に、第1の音声データ格納部13A(13B)に1フレーム以上の音声データが存在するかどうかを確認し(S104)、1フレーム以上の音声データが存在しない場合(S104のNo)、読出された1フレーム分の映像データは第1の映像データ格納部14A(14B)へ戻される(S114)。1サンプル以上の音声データが存在する場合(S104のYes)、第1の音声データ格納部13A(13B)から1サンプル分の音声データを読み出す(S105)。音声データは1602又は1601サンプルで1フレーム分のデータとなる。
【0041】
次に、読み出された映像データのフレームのタイムスタンプを時刻に変換したもの(Tvideo)と読み出された音声データのサンプルのタイムスタンプを時刻に変換したもの(Taudio)とを比較することで、映像データに対する音声データの遅れ(Tdiff1)を算出する(S106)。つまり、Tdiff1 = Taudio-Tvideoであって、Tdiff1≧0の場合は音声データが映像データに対して遅れていることを意味する。また、|Tdiff1|<1フレーム時間の場合、映像データと音声データのずれは1フレーム未満であることを意味する。
【0042】
ここで、Tdiff1≧0かつ|Tdiff1|<1フレーム時間の場合、すなわち音声データが映像データに対して遅れており、かつその遅れが1フレーム時間未満である場合(S107)、第1の音声データ格納部13A(第2の音声データ格納部13B)からS105で読み出した1サンプル分の音声データを含めた1フレーム分の音声データを読み出す。読み出した映像データは映像処理部21に出力し、読み出した音声データは音声処理部20に出力される。
【0043】
その後、S101に戻って、次の映像フレームの補正を行うこととなる。
【0044】
次に、音声データが映像データに対して1フレーム時間以上遅れている場合(S110)、読み出した1フレーム分の映像データは廃棄され、読み出された1サンプル分の音声データは第1の音声データ格納部13A(13B)に戻されて(S111)、第1の映像データ格納部14(14B)に次の1フレーム以上の映像データが存在するか否かの確認ステップ(S102)に戻ることなる。これは音声データが映像データに対して1フレーム時間未満の遅れとなるまで繰り返されることとなる。
【0045】
なお、本実施形態においては、映像データに対する音声データの遅れが1フレーム時間未満であることを許容するようなフローとしたが、この閾値の変更は可能である。
【0046】
これは、ITU-R BT.1359-1に記載があるように、映像データに対して音声データが進んでいることは、映像データに対して音声データが遅れていることよりも許容幅が狭く、一般的に映像データに対して音声データの方が進んでいる方が視聴者の違和感が大きいと言われているためである。
【0047】
また、音声データが映像データよりも進んでいる場合(S112)、読み出された1サンプル分の音声データは廃棄され、再度第1の音声データ格納部13A(13B)から次の1フレーム分以上の音声データが存在するかどうかの確認ステップ(S104)に戻ることとなり、新たな音声データを読み出して、映像データに対して進んでいない音声データを読み出すまで繰り返されることとなる(S113)。これは音声データの映像データに対する進み度合いが1フレーム時間未満でも1フレーム時間以上でも適用されるステップとなる。
【0048】
第1のタイミングずれ補正部101でずれが補正された映像データ及び音声データは映像処理部21及び音声処理部20にて加工等の処理が成され、各データはそれぞれ、第2の映像データ格納部14B及び第2の音声データ格納部13Bに格納される。
【0049】
第2の映像データ格納部14B及び第2の音声データ格納部13Bに格納された映像データと音声データとは映像処理部21及び音声処理部20での処理時間の差に伴って、再び、ずれが発生したものとなっている。
【0050】
第2のタイミングずれ補正部102では、上述した第1のタイミングずれ補正部101でのずれ補正と同様の補正が成され、補正がなされた音声データと映像データはそれぞれ、音声RTPパケット送信部22及び映像RTPパケット送信部に各データが出力されることで本実施形態における映像データの補正は完了する。
【0051】
第2のタイミングずれ補正部102で補正が成された音声データと映像データはそれぞれ、音声RTPパケット送信部22及び映像RTPパケット送信部23からRTPパケットとして出力される。
【0052】
以上より、本実施形態によれば、以下に示すような効果が得られる。
【0053】
受信した映像、音声のデータ間のタイミングが、伝送路及び加工等の処理の影響でずれていた場合に、そのずれを第1の制御部19A及び第2の制御部19Bの補正フローにて検出し、視聴者が許容できる一定の範囲にそのずれを補正して放送データを出力することが出来る。
【0054】
(第2の実施形態)
第1の実施形態では、映像データと音声データとのずれを補正する形態であったが、第2の実施形態は、映像データと補助データ(ANCデータ)とのタイミングのずれを補正する形態である。第2の実施形態に係る放送データ処理装置を以下に示す。
【0055】
本実施形態に係る放送データ処理装置について、図4を参照して説明するが、本実施形態に係る放送データ処理装置30は、構成の一部が第1の実施形態と異なるものであるため、第1の実施形態の放送データ処理装置10と同等の構成については、第1の実施形態と同じ符号を付与しており、説明を省略する。
【0056】
本実施形態における放送データ処理装置30は、図4に示すように、第1の実施形態に係る放送データ処理装置10における音声データがANCデータに置き換わっているものである。ここで、ANCデータとは補助データの一例であり、例えば、字幕データのことをいう。
【0057】
放送データ処理装置10が備えていた第1の判定部18A及び第3の判定部18Bは、それぞれ第2の判定部33A及び第4の判定部33Bに置き換わっている。第2の判定部33A及び第4の判定部33Bは、第1の判定部18A及び第3の判定部18Bで判定対象としていた音声データをANCデータへ置き換えて判定する。
【0058】
上記に伴って、第1の実施形態における第1のタイミングずれ補正部101及び第2のタイミングずれ補正部102もそれぞれ、第1のタイミングずれ補正部301及び第2のタイミングずれ補正部302に置き換わっている。
【0059】
次に本実施形態に係る放送データ処理方法を以下に示す。本実施形態に係る処理方法の動作の一例を図5のフローチャートに示す。
【0060】
具体的には、第1の実施形態と同様に第1の制御部19A及び第2の制御部19Bが、映像データ、ANCデータとセットになっているタイムスタンプを比較しながら、ずれの補正が行われる。
【0061】
なお、システム全体の構成や図5における第1の実施形態の補正フローチャートと同等の構成については、第1の実施形態と同様であるため、説明を省略する。また、第1の実施形態と同様に、第1のタイミングずれ補正部301も第2のタイミングずれ補正部302も、処理方法は同様であるため、以下には第1のタイミングずれ補正部301での処理方法のみを記載し、第2のタイミングずれ補正部302における対象部については括弧書きにて符号のみ記載する。なお、本実施形態における第2の補助データ格納部は第2のANCデータ格納部32Bである。
【0062】
第1の実施形態の補正フローチャートにおけるS104において、1サンプル分の音声データの有無を確認していたが、本実施形態においては第1の補助データ格納部である第1のANCデータ格納部32A(32B)に1フレーム分のANCデータがあるかどうかを確認する(S204)。
【0063】
次に、第1の実施形態における第1の判定部18A(18B)は本実施形態においては第2の判定部33A(33B)となる。第2の判定部33A(33B)では、読み出された映像データのフレームのタイムスタンプを時刻に変換したもの(Tvideo)とANCデータのフレームのタイムスタンプを時刻に変換したもの(Tanc)を比較することで、映像データに対するANCデータの遅れ(Tdiff2)を算出する(S206)。つまり、Tdiff2=Tanc-Tvideoであって、Tdiff2≧0の場合はANCデータが映像データに対して遅れていることを意味する。また、|Tdiff2|<1フレーム時間の場合、映像データとANCデータのずれは1フレーム時間未満であることを意味する。
【0064】
ここで、Tdiff2≧0かつ|Tdiff2|<1フレーム時間である、すなわちANCデータが映像データに対して遅れており、かつその遅れが1フレーム時間未満である場合(S207)、読み出した映像データは映像処理部21に出力し、読み出したANCデータはANC処理部34に出力することで本実施形態における映像データの1フレーム分の補正は完了する。その後、S201に戻って、次の映像フレームの補正を行うこととなる。
【0065】
次に、ANCデータが映像データに対して1フレーム時間以上遅れている場合(S210)、読み出した1フレーム分の映像データは廃棄され、読み出された1フレーム分のANCデータは第1のANCデータ格納部32A(32B)に戻されて(S211)、第1の映像データ格納部14A(14B)に次の1フレーム以上の映像データが存在するか否かの確認ステップ(S202)に戻ることなる。これはANCデータが映像データに対して1フレーム時間未満の遅れとなるまで繰り返されることとなる。
【0066】
また、ANCデータが映像データよりも進んでいる場合(S212)、読み出された1フレーム分のANCデータは廃棄され、再度第1のANCデータ格納部32A(32B)から次の1フレーム分以上のANCデータが存在するか否かの確認ステップ(S204)に戻ることとなり、新たなANCデータを読み出して、映像データに対して進んでいないANCデータを読み出すまで繰り返されることとなる(S213)。これはANCデータの映像データに対する進み度合いが1フレーム時間未満でも1フレーム時間以上でも適用されるステップとなる。
【0067】
なお、本実施形態においても、映像データに対するANCデータの遅れが1フレーム時間未満であることを許容するようなフローとしたが、この閾値の変更は可能である。
【0068】
以上より、本実施形態によれば、以下に示すような効果が得られる。
【0069】
受信した映像データ、ANCデータ間のタイミングが、伝送路の影響及び加工等の処理でずれていた場合に、そのずれを補正フローにて検出し、視聴者が許容できる一定の範囲にそのずれを補正して放送データを出力することが出来る。
【0070】
(第3の実施形態)
第3の実施形態に係る放送データ処理装置を以下に示す。
【0071】
本実施形態に係る放送データ処理装置について、図6を参照して説明するが、本実施形態に係る放送データ処理装置40は、第1の実施形態に係る第1のタイミングずれ補正部101に第2の実施形態に係る第1のタイミングずれ補正部301の構成を加えたものを第1のタイミングずれ補正部401とし、第1の実施形態に係る第2のタイミングずれ補正部102に第2の実施形態に係る第2のタイミングずれ補正部302の構成を加えたものを第2のタイミングずれ補正部402としたうえで、一部の機能が変更されているものであるため、第1の実施形態の放送データ処理装置10及び第2の実施形態に係る放送データ処理装置30と同等の構成については、第1の実施形態及び第2の実施形態と同じ符号を付与しており、説明を省略する。
【0072】
また、本実施形態に係る第1の制御部19A及び第2の制御部19Bは映像データと音声データ及び映像データとANCデータ両者のずれ関係を補正することで、映像データ、音声データ及びANCデータの3データ全てのずれ関係を視聴者が許容できる一定の範囲に補正することができる。
【0073】
本実施形態に係る放送データ処理方法を以下に示す。本実施形態に係る処理方法の動作の一例を図7のフローチャートに示す。なお、システム全体の構成や図7における第1の実施形態及び第2の実施形態の補正フローチャートと同等の構成については、説明を省略する。
【0074】
変更される第3の実施形態における補正フローの一部は下記である。
【0075】
なお、第1の実施形態及び第2の実施形態と同様に、第1のタイミングずれ補正部401も第2のタイミングずれ補正部402も処理方法は同様であるため、以下には第1のタイミングずれ補正部401での処理方法のみを記載し、第2のタイミングずれ補正部402における対象部については括弧書きにて符号のみ記載する。
【0076】
第2の実施形態にかかる第1のタイミングずれ補正部301(302)において、第1のANCデータ格納部32A(32B)に1フレーム以上のANCデータが存在しなかった場合は、既に読み出された映像データを第1の映像データ格納部14A(14B)に戻していたが(S214)、本実施形態においては映像データ及び音声データをそれぞれ第1の映像データ格納部14A(14B)及び第1の音声データ格納部13A(13B)に戻され(S325)、再度第1の実施形態に係る第1のタイミングずれ補正部101(102)における補正フローが再開される。
【0077】
また、第2の実施形態に係る第1のタイミングずれ補正部301(302)において、ANCデータが映像データに対して1フレーム以上遅れている場合(S210)、読み出した1フレーム分の映像データは廃棄され、読み出された1フレーム分のANCデータは第1のANCデータ格納部32A(32B)に戻されて、第1の映像データ格納部14A(14B)に1フレーム以上の映像データが存在するか否かの確認ステップ(S202)に戻ることとなっているが、本実施形態においては、読み出した1フレーム分の映像データ及び音声データは廃棄され、読み出された1フレーム分のANCデータは第1のANCデータ格納部32A(32B)に戻されて(S321)、再度第1の実施形態係る第1のタイミングずれ補正部101(102)における補正フローが再開される。
【0078】
なお、本実施形態においても、映像データに対する音声データ及びANCデータの遅れが1フレーム時間未満であることを許容するようなフローとしたが、この閾値の変更は可能である。
【0079】
以上より、本実施形態によれば、本実施形態に係る第1の制御部19A及び第2の制御部19Bは映像データと音声データ及び映像データとANCデータ両者のずれ関係を補正することで、映像データ、音声データ及びANCデータの3データ全てのずれ関係を視聴者が許容できる一定の範囲に補正することができる。
【0080】
(第4の実施形態)
第4の実施形態に係る放送データ処理装置を以下に示す。
【0081】
本実施形態に係る放送データ処理装置50について、図8及び図9を参照して説明するが、本実施形態に係る放送データ処理装置50は、外部ネットワークから各データを受信した場合ではなく、装置内に格納されている素材、例えば、SSD(Solid State Drive)に格納されたMXF(Material Exchange Format)ファイルを再生する場合の放送データ処理装置であって、その構成を図8に示す。なお、素材の格納部はSSDに限られるものではなくHDD(Hard Disc drive)等他の記憶装置であっても良い。また、格納される素材についてもMXFファイルに限定されるものではなく、音声データはWAVファイル(Waveform Audio File)、ANCデータはテキストデータ等他の形式のファイルであっても良い。
【0082】
本実施形態においては、第3の実施形態に係る第2のタイミングずれ補正部402へ出力されるデータを処理する構成の一部が第3の実施形態と異なるため、第3の実施形態の放送データ処理装置40と同等の構成については、第3の実施形態と同じ符号を付与しており、説明を省略する。
【0083】
本実施形態においては、第3の実施形態における第1のタイミングずれ補正部401及び各RTPパケット受信部11~13を代替して、素材格納部51、素材再生部52、音声素材データ格納部53、映像素材データ格納部54、ANC素材データ格納部55を備えている。
【0084】
素材格納部51は放送装置内のMXFファイル等を再生用に格納している。
【0085】
素材再生部52は、各素材を再生する場合に素材再生部52で再生開始時刻に基づきSMPTE ST2110-10で規定されるタイムスタンプ情報を付加する。タイムスタンプが付加されることで、第2のタイミングずれ補正部402において各データのタイミング関係のずれを補正することが可能となる。
【0086】
音声素材データ格納部53、映像素材データ格納部54、ANC素材データ格納部55は、素材再生部52でタイムスタンプを付加された各データについて格納する。
【0087】
次に、本実施形態に係る放送データ処理方法を以下に示す。
【0088】
本実施形態に係る放送データ処理方法の動作の一例を図9のフローチャートに示す。なお、第2のタイミングずれ補正部402のフローチャートは第3の実施形態のフローチャートである図7と同様であるため、図9から省略し、説明も省略する。
【0089】
まず、時刻同期部16から再生開始時刻のタイムスタンプを取得する(S401)。
【0090】
素材格納部51に格納された映像素材データは、素材格納部51から1フレーム分読み出される(S402)。
【0091】
そして、素材再生部52において、読み出された映像素材データにタイムスタンプが付加される(403)。
【0092】
そして、そのタイムスタンプと映像素材データは共に映像素材データ格納部54に格納される(404)。
【0093】
次に再生される映像素材データが存在する場合(S405のNo)は、再度次の映像素材データを素材格納部51から1フレーム分読み出すことでS402~S404が繰り返される。
【0094】
次に再生される映像データが無い場合(S405のYes)は、素材の再生を終了し、第3の実施形態におけるS301へフローが続き、映像データ、音声データ、ANCデータのタイミングずれ補正が第3の実施形態と同様に実施される。
【0095】
なお、ANC素材データ、音声データについても同様であって(S502~S505、S602~S605)、各データについて上記フローが完了すると、第3の実施形態における放送データ処理方法のフローチャートのS301へフローが続くこととなる。
【0096】
以上より、本実施形態においては、外部ネットワークから各データを受信した場合ではなく、装置内に格納されている素材ファイルを再生する場合の放送データ処理によって生じたタイミングずれを補正することが出来る。
【0097】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【符号の説明】
【0098】
10…第1の実施形態に係る放送データ処理装置、11…音声RTPパケット受信部、12…映像RTPパケット受信部、13A…第1の音声データ格納部、13B…第2の音声データ格納部、14A…第1の映像データ格納部、14B…第2の映像データ格納部、15A…第1のデータ読出し部、15B…第2のデータ読出し部、16…時刻同期部、17…タイミング生成部、18A…第1の判定部、18B…第3の判定部、19A…第1の制御部、19B…第2の制御部、20…音声処理部、21…映像処理部、22…音声RTPパケット送信部、23…映像RTPパケット送信部、30…第2の実施形態に係る放送データ処理装置、31…ANCRTPパケット受信部、32A…第1のANCデータ格納部、32B…第2のANCデータ格納部、33A…第2の判定部、33B…第4の判定部、34…ANC処理部、35…ANCRTPパケット送信部、40…第3の実施形態に係る放送データ処理装置、50…第4の実施形態に係る放送データ処理装置、51…素材格納部、52…素材再生部、53…音声素材データ格納部、54…映像素材データ格納部、55…ANC素材データ格納部、101…第1の実施形態に係る第1のタイミングずれ補正部、102…第1の実施形態に係る第2のタイミングずれ補正部、301…第2の実施形態に係る第1のタイミングずれ補正部、302…第2の実施形態に係る第2のタイミングずれ補正部、401…第3の実施形態に係る第1のタイミングずれ補正部、402…第3の実施形態に係る第2のタイミングずれ補正部
図1
図2
図3
図4
図5
図6
図7
図8
図9