IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本放送協会の特許一覧

<>
  • 特許-表示制御装置及びプログラム 図1
  • 特許-表示制御装置及びプログラム 図2
  • 特許-表示制御装置及びプログラム 図3
  • 特許-表示制御装置及びプログラム 図4
  • 特許-表示制御装置及びプログラム 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-01-05
(45)【発行日】2022-01-20
(54)【発明の名称】表示制御装置及びプログラム
(51)【国際特許分類】
   G09G 5/22 20060101AFI20220113BHJP
   H04N 21/431 20110101ALI20220113BHJP
   G09G 5/00 20060101ALI20220113BHJP
   G09G 5/10 20060101ALI20220113BHJP
   G09G 5/30 20060101ALI20220113BHJP
【FI】
G09G5/22 630M
H04N21/431
G09G5/00 530M
G09G5/00 550C
G09G5/10 Z
G09G5/30 650
【請求項の数】 3
(21)【出願番号】P 2018006595
(22)【出願日】2018-01-18
(65)【公開番号】P2019124869
(43)【公開日】2019-07-25
【審査請求日】2020-11-30
(73)【特許権者】
【識別番号】000004352
【氏名又は名称】日本放送協会
(74)【代理人】
【識別番号】100141139
【弁理士】
【氏名又は名称】及川 周
(74)【代理人】
【識別番号】100171446
【弁理士】
【氏名又は名称】高田 尚幸
(74)【代理人】
【識別番号】100114937
【弁理士】
【氏名又は名称】松本 裕幸
(74)【代理人】
【識別番号】100171930
【弁理士】
【氏名又は名称】木下 郁一郎
(72)【発明者】
【氏名】望月 菊佳
(72)【発明者】
【氏名】小出 大一
【審査官】塚本 丈二
(56)【参考文献】
【文献】特開2016-152574(JP,A)
【文献】国際公開第2016/125691(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G09G 5/00-5/42
H04N 21/431
(57)【特許請求の範囲】
【請求項1】
コンテンツの映像データと、前記コンテンツの映像に重ねて表示される文字情報と、前記文字情報の表示に用いる輝度値である文字情報輝度値とを受信する受信部と、
視聴環境を解析する視聴環境解析部と、
前記受信部が受信した前記文字情報輝度値を、前記視聴環境解析部が解析した前記視聴環境に基づいて調整した調整輝度値を算出する算出部と、
記調整輝度値と所定の基準輝度値との差分に基づいて輝度値を調整した前記映像データに、前記受信部が受信した前記文字情報輝度値により前記文字情報を重ねて表示させる合成映像データを生成する合成部と
前記合成映像データを表示装置に表示する表示制御部と、
を備えることを特徴とする表示制御装置。
【請求項2】
前記算出部は、前記視聴環境を表す各項目の解析値に応じて調整量を決定し、前記受信部が受信した前記文字情報輝度値を前記調整量により調整して前記調整輝度値を算出する、
ことを特徴とする請求項1に記載の表示制御装置。
【請求項3】
コンピュータを、請求項1又は請求項に記載の表示制御装置として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、表示制御装置及びプログラムに関する。
【背景技術】
【0002】
コンテンツの映像の上に重ねて、コンテンツに関する文字情報等を、視聴者の視聴能力に応じて表示させる技術がある(例えば、特許文献1参照)。また、HDR(High Dynamic Range)画像の上に、画像特性の異なる字幕データを違和感がないように調整して表示する技術がある(例えば、特許文献2参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2007-184740号公報
【文献】特開2017-169075号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
昨今、HDR制作による映像コンテンツが増加しており、輝度レンジ(明るさの幅)は従来に比べて大きくなっている。一方で、映像の明るさによって、その上に重ねて表示される字幕の見え方は異なる。例えば、暗い背景映像の上に通常レベルの輝度の白い文字を乗せると白色に見える。しかし、同じレベルの文字を明るい背景映像の上に乗せるとグレー色に見えてしまい、文字が見づらいことがある。
【0005】
また、ライフスタイルの変化により映像の視聴環境も変わってきている。例えば、室内でテレビジョン受信機によって視聴する以外に、外や暗い喫茶店の中でのスマートフォンによる視聴や、スマートグラスやVR(virtual reality)などウェアラブル端末による視聴も増加している。太陽下での視聴と、薄暗い部屋の中での視聴では、周辺環境の明るさも大きく異なる。
【0006】
字幕は有用な情報を伝えるものであり、特にクローズドキャプションは聴覚障碍者のみならず、日常において音を聞けない状況においても、コンテンツを理解するうえで重要である。近年、高解像度になるにつれ字幕が多用される傾向にあり、背景映像や周辺視聴環境によらず、常に見やすい文字情報としてユーザに届ける必要がある。
【0007】
スマートフォンなどでは、センサーで明るさを検知し、画面自体の輝度値を調整する機能を備えている。しかしながら、画面全体の輝度値の制御を行っているため、映像に影響がないように、字幕の表示のみを調整することはできない。
【0008】
本発明は、このような事情を考慮してなされたもので、コンテンツの映像の上に重ねた文字情報を見やすく表示することができる表示制御装置及びプログラムを提供する。
【課題を解決するための手段】
【0010】
本発明の一態様は、コンテンツの映像データと、前記コンテンツの映像に重ねて表示される文字情報と、前記文字情報の表示に用いる輝度値である文字情報輝度値とを受信する受信部と、視聴環境を解析する視聴環境解析部と、前記受信部が受信した前記文字情報輝度値を、前記視聴環境解析部が解析した前記視聴環境に基づいて調整した調整輝度値を算出する算出部と、前記調整輝度値と所定の基準輝度値との差分に基づいて輝度値を調整した前記映像データに、前記受信部が受信した前記文字情報輝度値により前記文字情報を重ねて表示させる合成映像データを生成する合成部と、前記合成映像データを表示装置に表示する表示制御部と、を備えることを特徴とする表示制御装置である
この発明によれば、表示制御装置は、視聴環境の解析結果に基づいて文字情報が見やすい輝度値を算出し、算出した輝度値と文字情報の基準輝度値との差分に基づいて映像データの輝度値を調整する。表示制御装置は、輝度値を調整した映像データに、受信した輝度値の文字情報を重ねて表示装置に表示する。
これより、表示制御装置は、基準輝度値で文字情報が見やすいように、視聴環境に合わせてコンテンツの映像の輝度を調整し、文字情報を重ねて表示装置に表示することができる。
【0011】
本発明の一態様は、上述の表示制御装置であって、前記算出部は、前記視聴環境を表す各項目の解析値に応じて調整量を決定し、前記受信部が受信した前記文字情報輝度値を前記調整量により調整して前記調整輝度値を算出する。
この発明によれば、表示装置は、視聴環境を表す各項目の解析値を各種センサーの検出結果や装置の種類、設定等に基づいて取得し、取得した解析値に応じた調整量により、文字情報輝度値を調整する。
これより、表示制御装置は、視聴環境に応じて、映像データの上に重ねたときに文字情報を見やすく表示できる輝度を算出することができる。
【0012】
本発明の一態様は、コンピュータを、上述したいずれかの表示制御装置として機能させるためのプログラムである。
【発明の効果】
【0013】
本発明によれば、コンテンツの映像の上に重ねた文字情報を見やすく表示することができる。
【図面の簡単な説明】
【0014】
図1】本発明の第1の実施形態によるコンテンツ配信システムの機能ブロック図である。
図2】同実施形態による調整量一覧情報の例を示す図である。
図3】同実施形態による受信装置の処理を示すフロー図である。
図4】第2の実施形態によるコンテンツ配信システムの機能ブロック図である。
図5】同実施形態による受信装置の処理を示すフロー図である。
【発明を実施するための形態】
【0015】
以下、図面を参照しながら本発明の実施形態を詳細に説明する。
【0016】
[第1の実施形態]
図1は、第1の実施形態によるコンテンツ配信システム1の構成を示すブロック図である。同図に示すように、コンテンツ配信システム1は、コンテンツ配信装置2と、受信端末3とを備える。受信端末3は、表示制御装置の一例である。同図においては、コンテンツ配信装置2及び受信端末3をそれぞれ1台のみ示しているが、コンテンツ配信装置2と、受信端末3とはそれぞれ任意の台数とすることができる。
【0017】
コンテンツ配信装置2はコンテンツ提供側の装置であり、受信端末3は視聴者側の装置である。コンテンツ配信装置2は、コンテンツデータの映像を解析して映像の輝度レベルを取得し、取得した輝度レベルに基づいて、コンテンツデータの映像に重ねて表示する文字情報の適切な輝度レベルを算出する。コンテンツ配信装置2は、コンテンツデータと、文字情報と、文字情報の輝度レベルを受信端末3に配信する。受信端末3は、センサーなどにより視聴環境値を取得可能である。視聴環境値は、視聴環境の解析結果を表す値である。受信端末3は、コンテンツ配信装置2から受信した文字情報の輝度レベルを視聴環境値に基づいて調整することにより、自端末の視聴環境に適した文字情報の輝度レベルを算出する。受信端末3は、コンテンツデータの映像の上に、算出した調整後の輝度レベルにより文字情報を重ねて表示するよう映像を合成して提示する。
【0018】
以下では、コンテンツデータが番組の映像データ及び音声データを含んでおり、文字情報が字幕データである場合を例に説明する。映像データは、各フレームにおける各画素の輝度レベル及び色差の情報を含む。また、コンテンツデータ及び字幕データには、提示タイミング情報が付加されている。提示タイミング情報は、映像、音声、字幕を提示するタイミングを表す。提示タイミング情報を用いることにより、受信端末3において、コンテンツの映像や音声と、字幕データが示す文字とを同期させて提示することができる。以下では、コンテンツの映像の輝度レベルを「映像レベル」、字幕の輝度レベルを「字幕レベル」、字幕の色差を「字幕色差」と記載する。
【0019】
コンテンツ配信装置2は、映像解析部21及び配信部22を備える。コンテンツ配信装置2は、物理的に異なる複数の装置で実現されてもよく、1台の装置で実現されてもよい。映像解析部21は、コンテンツデータの映像の特徴量を解析し、解析結果に基づいて字幕レベルを決定する。例えば、映像解析部21は、映像レベルと、最適な字幕レベルとの関係の情報を予め保持している。映像解析部21は、各フレームの映像レベルに基づいて、そのフレームの映像に上に重ねて提示する字幕の最適な字幕レベルを映像解析値として決定する。なお、映像解析部21は、フレーム群毎に、それらフレーム群に含まれる映像の特徴量に基づいて字幕レベルを決定してもよい。配信部22は、コンテンツデータ、字幕データ、フレーム毎又はフレーム群毎の映像解析値の字幕レベル及び字幕色差を受信端末3に配信する。配信は、放送と通信のいずれでもよく、放送と通信を組み合わせてもよい。例えば、配信部22は、コンテンツデータを放送で配信し、字幕データ、字幕レベル及び字幕色差を通信で配信してもよい。
【0020】
受信端末3は、コンテンツ配信装置2から配信されるコンテンツを再生可能な端末である。受信端末3は、例えば、テレビジョン受信機、パーソナルコンピュータ、スマートフォン、タブレット端末である。受信端末3は、受信部31、視聴環境解析部32、記憶部33、字幕レベル決定部34、字幕生成部35、映像字幕合成部36、出力制御部37及び出力部38を備える。
【0021】
受信部31は、コンテンツ配信装置2から配信されたコンテンツデータ、字幕データ、字幕レベル(映像解析値)及び字幕色差を受信する。受信部31は、コンテンツデータに含まれる映像データを映像字幕合成部36に、音声データを出力制御部37に出力する。さらに、受信部31は、字幕データ、字幕レベル(映像解析値)及び字幕色差を字幕レベル決定部34に出力する。
【0022】
視聴環境解析部32は、視聴環境を解析し、解析結果を表す環境解析値を字幕レベル決定部34に出力する。視聴環境には、例えば、視聴環境の明るさ、受信端末3の端末種別、表示デバイスの種類、表示デバイスの画面の明るさ、視聴距離、ユーザ種別などがある。視聴環境の明るさとは、表示デバイスの周辺環境の明るさである。端末種別は、例えば、テレビジョン受信機、パーソナルコンピュータ、スマートフォン、タブレット端末、VR(仮想現実)、AR(拡張現実)などである。端末種別として、受信端末3の機種の情報を用いてもよい。表示デバイスの種類は、テレビジョン受信機用ディスプレイ、パーソナルコンピュータ用モニタ、スマートフォンのディスプレイ、タブレット端末のディスプレイ、ウェアラブルモニター、バーチャルスコープ、ヘッドマウントなどである。さらに、表示デバイスの種類に、8K、4K、2Kなどの解像度の情報や、表示デバイスの大きさの情報、有機EL、液晶などの種別を含んでもよい。視聴距離は、視聴者の目と表示デバイスとの距離である。ユーザ種別は、視聴者の属性である。
【0023】
記憶部33は、環境解析値に基づく字幕レベルの調整量を示す調整量一覧情報を記憶している。字幕レベル決定部34は、視聴環境解析部32から受信した視聴環境値に基づいて字幕レベルの調整量を記憶部33に記憶される調整量一覧情報から読み出す。字幕レベル決定部34は、コンテンツ配信装置2から配信された字幕レベル(映像解析値)を、読み出した調整量に基づいて調整する。字幕レベル決定部34は、受信部31から受信した字幕レベル(映像解析値)を調整された字幕レベルに変更し、字幕データ及び字幕色差と共に字幕生成部35に出力する。字幕生成部35は、字幕レベル決定部34から受信した字幕データ、字幕レベル及び字幕色差に基づいて字幕の映像データを生成し、映像字幕合成部36へ出力する。
【0024】
映像字幕合成部36は、コンテンツの映像データに、字幕生成部35が生成した字幕の映像データを重ねて、字幕合成済み映像データを生成する。映像字幕合成部36は、生成した字幕合成済み映像データを出力制御部37に出力する。出力制御部37は、字幕合成済み映像データと音声データとを同期させて出力部38に出力する。出力部38は、表示デバイスとスピーカである。表示デバイスは字幕合成済み映像データを表示し、スピーカは音声データを出力する。なお、出力部38は、受信端末3と接続される外部の装置でもよい。
【0025】
図2は、記憶部33に記憶される調整量一覧情報を示す図である。調整量一覧情報は、視聴環境の各項目の値と字幕レベルの調整量との対応を示す。各項目の値は、1以上の視聴環境値から得られる。視聴環境値は、視聴環境の明るさ、端末種別、表示デバイス種別、表示デバイスの画面の明るさ、視聴距離、ユーザ種別等の値である。同図に示す調整量一覧情報は、各項目に対応したパラメータと、それら項目の値に応じたパラメータの値とを紐付けた情報である。パラメータ値は字幕レベルの調整量を表す。同図に示す調整量一覧情報はさらに、パラメータ値が連続値であるか離散値であるかの情報も含む。
【0026】
例えば、項目「視聴環境の明るさ」には、照度センサー等による明るさの検出値に定数a1(a1は正の値)を乗算した値を、パラメータp1の値として用いることが設定されている。これにより、環境が明るいほど、字幕レベルを上げるよう調整することができる。定数a1の値は、例えば、端末種別や表示デバイス種別等他の条件によって変更可能としてもよい。
【0027】
また、項目には「視聴環境の明るさと表示デバイスの画面の明るさの比」が含まれる。このように、視聴環境の項目には、複数種類の視聴環境値から得られるものも含まれ得る。また、ある項目が所定の値である場合に、他の項目の値に基づくパラメータ値を変更してもよい。例えば、「端末種別」がVRの場合、視野を全てカバーするバーチャルスコープなどのウェアラブルデバイスを使用するため、視聴環境の明るさに基づくパラメータp1の値を0などの定数にする。また、「端末種別」がARの場合、周囲の映像とコンテンツの映像とを組み合わせるため、視聴環境の明るさから決まるパラメータp1の値に所定の係数a2を乗算する。また、表示デバイス種別として透過タイプのARが得られた場合はさらに、表示デバイスの透過率から決まるパラメータp8を用いる。
【0028】
視聴距離に対応したパラメータp6の値は、連続値でもよく、離散値でもよい。同図に示すように離散値である場合、テレビの視聴距離(数メートル程度)である区分A、スマートフォンやタブレット端末の視聴距離(数十センチ程度)である区分B、ウェアラブルモニター等の視聴距離(数センチ~十数センチ程度)である区分Cのように分けることができる。ユーザ種別は、例えば、ノーマル、高齢者、目に障がいのある方などである。
【0029】
なお、同図に示す調整量一覧情報の項目は例であり、各項目のうち任意の一部のみを使用してもよく、他の項目の視聴環境をさらに使用してもよい。また、受信端末3の出荷時に、当該端末に適した調整量一覧情報を記憶部33に書き込んでおいてもよく、受信端末3がコンテンツ配信装置2又は他の装置から放送又は通信により調整量一覧情報を受信し、記憶部33に書き込んでもよい。
【0030】
図3は、受信端末3の動作を示す処理フローである。受信端末3は、コンテンツ配信装置2から配信されたデータを受信するたびに、同図に示す処理フローを実行する。
まず、受信端末3の受信部31は、コンテンツ配信装置2から配信されたデータを受信する(ステップS110)。受信部31は、コンテンツデータに含まれる映像データを映像字幕合成部36に、音声データを出力制御部37に、字幕データ、フレーム毎又はフレーム群毎の字幕レベル及び字幕色差を字幕レベル決定部34に出力する。
【0031】
受信端末3に字幕データを表示するモードが設定されている場合(ステップS120:YES)、視聴環境解析部32は、視聴環境を解析し、解析結果を表す環境解析値を字幕レベル決定部34に出力する(ステップS130)。視聴環境解析部32は、各環境解析値を以下のように取得する。
【0032】
視聴環境解析部32は、視聴環境の明るさを、受信端末3が備える、又は、受信端末3と接続される照度センサーから得る。視聴環境解析部32は、予め記憶された受信端末3の端末種別を記憶部33から読み出す。視聴環境解析部32は、予め記憶された表示デバイス種別や、表示デバイスに現在設定されている画面の明るさ及び透過率を、記憶部33から読み出すか、表示デバイスから取得する。
【0033】
視聴環境解析部32は、視聴距離の区分を、受信端末3の端末種別及び表示デバイス種別の一方又は両方から得る。例えば、端末種別がテレビジョン受信機であれば数メートルの区分A、端末種別がスマートフォンであれば数十センチの区分B、ウェアラブルモニターであれば数センチ~十数センチの区分Cとする。また、端末種別がテレビジョン受信機である場合に、表示デバイス種別が8K、4K、2Kのいずれであるかに基づいて、視聴距離の区分を決定することもできる。なお、視聴環境解析部32は、受信端末3又は表示デバイスが備えるセンサーが測定したユーザの顔と表示デバイスとの距離を、視聴距離として取得してもよい。
【0034】
視聴環境解析部32は、予め記憶されたユーザ種別を記憶部33又は外部のユーザ管理装置(図示せず)から読み出す。なお、視聴環境解析部32は、表示デバイスにユーザ種別を入力するよう促すメッセージを表示し、メッセージに応じてユーザが入力したユーザ種別を取得してもよい。
【0035】
字幕レベル決定部34は、視聴環境解析部32から受信した視聴環境値に基づいて得られる各項目の値に対応したパラメータp1、p2、p3、…、pn(nは1以上の整数)の値を記憶部33に記憶される調整量一覧情報から読み出す。なお、取得できない項目に関するパラメータ値については、0などのデフォルトの値を用いてもよい。例えば、照度計なしであればp1=p5=0、スマートフォン端末であればp2=10、高齢者であればp7=5である。また、例えば、端末種別がVRである場合、p2=20であり、視聴環境に明るさの検出値にかかわらずp1=0である。
【0036】
字幕レベル決定部34は、下記の式(1)を用いて、調整後の字幕レベルを算出する(ステップS140)。式(1)は、コンテンツ配信装置2から配信された映像解析値である字幕レベルxを、パラメータp1~pnの値を用いて調整し、調整後の字幕レベルyを算出する式である。
【0037】
y=x+k1×p1+k2×p3+k3×p3+…+kn×pn …(1)
【0038】
ただし、式(1)により算出したy>上限値のときは、yを上限値とする。例えば、上限値は100である。また、係数k1~knは予め決められた値でもよく、任意の項目の視聴環境の値や他の条件に応じて一部又は全ての係数k1~knの値が決められてもよい。例えば、端末種別がARである場合、表示デバイスの透過率に応じて、視聴環境の明るさに紐付けられたパラメータp1の係数k1を変更してもよい。
【0039】
字幕レベル決定部34は、受信部31から受信した字幕データ及び字幕色差と、調整後の字幕レベルyを字幕生成部35に出力する。字幕生成部35は、字幕データと字幕レベルy及び字幕色差に基づいて字幕の映像データを生成する(ステップS150)。映像字幕合成部36は、コンテンツの映像データに字幕の映像データを重ねた字幕合成済み映像データを生成する(ステップS160)。出力制御部37は、字幕合成済み映像データと音声データとを同期させて出力部38に出力する(ステップS170)。
【0040】
出力制御部37は、受信端末3に字幕データを表示するモードが設定されていない場合や、字幕データを受信していない場合(ステップS120:NO)、コンテンツの映像データ及び音声データを同期させて出力部38に出力する(ステップS170)。
【0041】
なお、受信端末3は、字幕の表示を行わないときも、ステップS130以降の処理を行ってもよい。ただし、ステップS160において、映像字幕合成部36は、コンテンツの映像データに字幕の映像データを重ねずにそのまま出力制御部37に出力する。
【0042】
上記において字幕レベル決定部34は、コンテンツ配信装置2から配信された映像解析値の字幕レベルを変更することによって調整後の輝度レベルとしているが、字幕の色を変更して輝度レベルを変更してもよい。赤の画素値をR、緑の画素値をG、青の画素値をBとしたときに、輝度Y=α×R+β×G+γ×Bとなる。なお、α,β,γの値は規格等により異なり、例えば、(α,β,γ)=(0.2126、0.7152,0.0722)、(α,β,γ)=(0.299,0.5,0.114)などである。字幕レベル決定部34は、字幕レベル及び字幕色差に基づいて字幕のR、G、Bの値を算出し、上記の輝度と色の関係を利用して、調整後の字幕レベルyとなるように、字幕のR、G、Bの値を変更する。
【0043】
また、受信端末3は、受信部31が受信したコンテンツデータ、字幕データ、字幕レベル及び字幕色差を記憶部33又は外部の記憶装置に保存しておき、ユーザが入力した指示に応じて記憶部33又は外部の記憶装置からこれらデータを読み出す保存再生部(図示せず)をさらに備えてもよい。保存再生部は、読み出した映像データを映像字幕合成部36に、音声データを出力制御部37に、字幕データ、フレーム毎又はフレーム群毎の字幕レベル及び字幕色差を字幕レベル決定部34に出力し、受信端末3は、ステップS120以降の処理を行う。これにより、受信端末3は、保存しておいたコンテンツに、そのときの視聴環境に合わせて輝度を調整した字幕を重ねて表示させることができる。
【0044】
[第2の実施形態]
第1の実施形態においては、字幕レベルを調整したが、本実施形態では、コンテンツの映像レベルを調整することによって、見やすい字幕とする。
【0045】
図4は、本実施形態のコンテンツ配信システム1aの構成を示すブロック図である。同図において、図1に示す第1の実施形態のコンテンツ配信システム1と同一の部分には同一の符号を付し、その説明を省略する。図4に示すように、コンテンツ配信システム1aは、受信端末3に代えて、受信端末3aを備える。
【0046】
受信端末3aが図1に示す第1の実施形態の受信端末3と異なる点は、受信部31、字幕レベル決定部34、映像字幕合成部36に代えて、受信部31a、字幕レベル決定部34a、映像字幕合成部36aを備える点と、映像レベル決定部41及び映像生成部42をさらに備える点である。
【0047】
受信部31aは、コンテンツデータに含まれる映像データを映像レベル決定部41に、音声データを出力制御部37に、字幕データ、フレーム毎又はフレーム群毎の字幕レベル(映像解析値)及び字幕色差を字幕レベル決定部34aに出力する。字幕レベル決定部34aは、第1の実施形態の字幕レベル決定部34と同様の処理により字幕レベルyを算出し、映像レベル決定部41に出力する。字幕レベル決定部34aは、字幕生成部35に、コンテンツ配信装置2から配信された字幕レベル(映像解析値)をそのまま出力する。
【0048】
映像レベル決定部41は、映像データの輝度レベルを、字幕レベル決定部34aから受信した字幕レベルyと基準字幕レベルIとの差に基づいて調整する。映像生成部42は、映像レベル決定部41により調整された輝度レベルを用いたコンテンツの映像データを生成し、映像字幕合成部36aに出力する。映像字幕合成部36aは、映像生成部42が生成した映像データの上に、字幕生成部35が生成した字幕データを重ねた字幕合成済み映像データを生成する。
【0049】
図5は、受信端末3aの動作を示す処理フローである。受信端末3aは、コンテンツ配信装置2から配信されたデータを受信するたびに、同図に示す処理フローを実行する。
まず、受信端末3aの受信部31aは、コンテンツ配信装置2から配信されたデータを受信する(ステップS210)。受信部31aは、コンテンツデータに含まれる音声データを出力制御部37に、字幕データ、フレーム毎又はフレーム群毎の字幕レベル及び字幕色差を字幕レベル決定部34aに出力する。
【0050】
受信端末3aに字幕データを表示するモードが設定されている場合(ステップS220:YES)、受信部31aは、コンテンツデータに含まれる映像データを映像レベル決定部41に出力する。さらに、視聴環境解析部32は、視聴環境を解析し、解析結果を表す環境解析値を字幕レベル決定部34aに出力する(ステップS230)。字幕レベル決定部34aは、第1の実施形態の字幕レベル決定部34と同様に式(1)により、コンテンツ配信装置2から配信された映像解析値である字幕レベルxを、視聴環境値に基づいて得られたパラメータの値により調整した字幕レベルyを算出する(ステップS240)。字幕レベル決定部34aは、算出した字幕レベルyを映像レベル決定部41に出力し、受信部31aから受信した字幕データ、字幕レベルx及び字幕色差を字幕生成部35に出力する。
【0051】
映像レベル決定部41は、式(2)を用いて、映像レベルの調整量zを、字幕レベル決定部34aから受信した字幕レベルyと基準字幕レベルIとに基づいて算出する。
【0052】
z=I-y …(2)
【0053】
なお、基準字幕レベルIの値は、受信端末3aで設定してもよく、コンテンツ配信装置2から映像解析値とともに送信してもよい。映像レベル決定部41は、コンテンツの映像データの映像レベルを、調整量zにより調整した値に変更し、映像生成部42に出力する(ステップS250)。映像生成部42は、映像レベル決定部41により調整された映像レベルの映像データを生成し、映像字幕合成部36に出力する(ステップS260)。
【0054】
例えば、基準字幕レベルI=75、字幕レベルy=85の場合、式(2)により、調整量z=75-85=-10となる。この場合、映像生成部42は、配信された映像データよりも輝度を10だけ落とした映像レベルの映像データを生成する。これは、字幕レベルを一定の基準値75にするように、映像レベルを変化させる用途などで利用できる。
【0055】
字幕生成部35は、字幕レベル決定部34aから受信した字幕データ、字幕レベルx及び字幕色差に基づいて字幕の映像データを生成し、映像字幕合成部36aに出力する(ステップS270)。映像字幕合成部36aは、映像生成部42が生成したコンテンツの映像データに、字幕生成部35が生成した字幕の映像データを重ねた字幕合成済み映像データを生成する(ステップS280)。出力制御部37は、字幕合成済み映像データと音声データとを同期させて出力部38に出力する(ステップS290)。
【0056】
なお、受信端末3aに字幕データを表示するモードが設定されていない場合や、字幕データを受信していない場合(ステップS220:NO)、受信部31aは、コンテンツデータに含まれる映像データを出力制御部37に出力する。出力制御部37は、コンテンツの映像データ及び音声データを同期させて出力部38に出力する(ステップS290)。
【0057】
なお、字幕生成部35が字幕の映像データを生成するステップS270の処理は、ステップS230~ステップS260の処理と並行して行ってもよい。
【0058】
また、上記において映像レベル決定部41は、コンテンツの映像レベルを変更することによって調整後の輝度としているが、コンテンツの映像の色を第1の実施形態の字幕レベル決定部34と同様の方法により変更して、調整後の輝度となるようにしてもよい。
【0059】
なお、受信端末3aは、字幕の表示を行わないときも、ステップS230以降の処理を行ってもよい。ただし、ステップS240において字幕レベル決定部34aは、基準字幕レベルIを設定した字幕レベルyを映像レベル決定部41に出力するか、ステップS250において、映像レベル決定部41は映像レベルの調整量zを0とする。
【0060】
また、受信端末3aは、受信部31が受信したコンテンツデータ、字幕データ、字幕レベル及び字幕色差を記憶部33又は外部の記憶装置に保存しておき、ユーザが入力した指示に応じて記憶部33又は外部の記憶装置からこれらデータを読み出す保存再生部(図示せず)をさらに備えてもよい。保存再生部は、読み出した映像データを映像レベル決定部41に、音声データを出力制御部37に、字幕データ、フレーム毎又はフレーム群毎の字幕レベル及び字幕色差を字幕レベル決定部34aに出力し、受信端末3aは、ステップS220以降の処理を行う。
【0061】
上述した実施形態によれば、受信端末3、3aは、あらゆる視聴環境下において、コンテンツの映像の上に適切な輝度レベルの字幕を合成して表示することができる。よって、視聴者は、背景映像に応じた眩しくも暗くもないちょうどよい明るさの字幕を読むことができ、より快適に情報を得やすくなる。
【0062】
以上説明した実施形態によれば、表示制御装置は、受信部、視聴環境解析部、算出部、合成部及び表示制御部を備える。表示制御装置は、例えば、受信端末3、3aである。受信部は、コンテンツの映像データと、コンテンツの映像に重ねて表示される文字情報と、文字情報の表示に用いる輝度値とを受信する。視聴環境解析部は、視聴環境を解析する。算出部は、受信部が受信した輝度値を、視聴環境解析部が解析した視聴環境に基づいて調整した調整輝度値を算出する。例えば、算出部は、字幕レベル決定部34、34aである。合成部は、コンテンツの映像データに、調整輝度値により文字情報を重ねて表示させる合成映像データを生成する。あるいは、合成部は、調整輝度値と所定の基準輝度値との差分に基づいて輝度値を調整した映像データに、受信部が受信した輝度値により文字情報を重ねて表示させる合成映像データを生成する。例えば、合成部は映像字幕合成部36、36aであり、合成映像データは字幕合成済み映像データである。表示制御部は、合成映像データを表示装置に表示する。例えば、表示制御部は出力制御部37であり、表示装置は出力部38の表示デバイスである。これにより、表示制御装置は、コンテンツの映像の上に重ねた文字情報を見やすく表示デバイスに表示することができる。
【0063】
なお、上述の受信装置30、30aは、内部にコンピュータシステムを有している。そして、受信装置30、30aの動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
【0064】
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
【符号の説明】
【0065】
1、1a…コンテンツ配信システム
2…コンテンツ配信装置
3、3a…受信端末
21…映像解析部
22…配信部
31、31a…受信部
32…視聴環境解析部
33…記憶部
34、34a…字幕レベル決定部
35…字幕生成部
36、36a…映像字幕合成部
37…出力制御部
38…出力部
41…映像レベル決定部
42…映像生成部
図1
図2
図3
図4
図5