(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0017】
以下、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の一実施形態に係る放送通信連携システム100の全体構成図である。放送通信連携システム100は、放送局1と、放送用アンテナ2と、サービスサーバ3と、受信機4とを含んで構成される。この放送通信連携システム100では、受信機4において、ISDB(Integrated Services Digital Broadcasting:統合デジタル放送サービス)方式によって放送局1から提供される放送サービスと、インターネット等により構成される通信ネットワークNを介してサービスサーバ3から提供される通信サービスとが連携される。これにより、放送通信連携サービスが受信機4のユーザに提供される。
本実施形態では、放送通信連携システム100は、Hybridcast(登録商標)システムであるものとする。Hybridcastとは、同報性、高品質、高信頼という放送の特徴と、視聴者の個別の要求に応えることができるという通信の特徴とを生かしたシステムを構築するための仕組みである。Hybridcastシステムは、放送サービスを中心に置きながら、通信の活用によってサービスを強化するという観点で、放送と通信のハイブリッドサービスを実現することができる。
【0018】
放送局1は、番組編成設備と、番組送出設備と、送信設備とを含んで構成される一般的なデジタル放送用の放送設備(図示省略)を備える。
放送局1は、放送設備によって、コンテンツや、イベント情報(Event Information Table:EIT)や、AIT(以下、アプリケーション管理情報とも適宜呼ぶ)等を制作する。そして、放送局1は、放送設備によって、これらコンテンツ、イベント情報及びAIT等を多重化した放送信号を生成し、当該放送信号を放送波に変調して放送用アンテナ2から送信する。
【0019】
このような放送波に含まれるコンテンツとしては、放送スケジュールに従って放送される番組を構成する映像や音声の各データを含むコンテンツ(以下、番組コンテンツと呼ぶ)の他、番組コンテンツとは非同期に発生するコンテンツ、例えば緊急地震速報等を含むコンテンツ(以下、緊急コンテンツと呼ぶ)も存在する。
【0020】
イベント情報は、番組コンテンツの名称、番組コンテンツの放送日時、番組コンテンツの説明等、コンテンツに関するメタ情報を含む。以下、テーブル形式のイベント情報をEITと呼ぶ。
AIT(アプリケーション管理情報)は、受信機4で実行可能な1以上のアプリケーションを管理するための情報である。AITには、1以上のアプリケーションのそれぞれに対応し、当該1以上のアプリケーションのそれぞれを管理するための個別管理情報が含まれる。個別管理情報には、管理対象のアプリケーションを識別するアプリケーションID、当該アプリケーションのライフサイクルを制御するライフサイクル制御情報、当該アプリケーションの所在を示すロケーション情報等が含まれている(後述の
図5参照)。
【0021】
アプリケーションにより提供されるコンテンツには、番組コンテンツに連動するコンテンツ及び番組コンテンツに連動しないコンテンツが含まれる。以下、アプリケーションにより提供されるコンテンツをアプリ用コンテンツという。
【0022】
放送信号は、従来のデジタル放送の放送信号と同一であり、ARIB(登録商標)(Association of Radio Industries and Broadcast:社団法人電波産業会)標準規格で規定される。
【0023】
図2は、デジタル放送に係る放送信号の伝送プロトコルのスタックを示す図である。
図2に示すように、デジタル放送によって提供される映像、音声等の各種データは、国際標準規格MPEG−2 Systemsで規定されるTSパケット(トランスポートストリームパケット)に格納されて、時分割で多重伝送される。
【0024】
TSパケットには、
図2に示すように、セクション(Section)に対してPSI(Program Specific Information)/SI(Service Information)が規定されている。PSI/SIには、TSパケットに格納されているデータの種別を示す情報や、コンテンツの種別を示す情報が含まれている。上述のEITは、SIに含まれている。
【0025】
TSパケットによるデータ伝送は、セクションを用いてデータを伝送する方式とPES(Packetized Elementary Stream)パケットを用いてデータを伝送する方式(データストリーム伝送方式)とに分類される。
【0026】
セクションを用いてデータを伝送する方式には、データカルーセル伝送方式と、イベントメッセージ伝送方式がある。
【0027】
データカルーセル伝送方式は、1以上のデータを一定周期で繰り返し伝送する伝送方式である。データカルーセル伝送方式によって伝送される個々のデータ(モジュール)には、それらを一意に識別するための識別情報が付されている。データカルーセル伝送方式は、受信機4側に個々のデータを任意のタイミングで取得させるために用いられる。
【0028】
イベントメッセージ伝送方式は、放送局1から受信機4に対して、トリガ信号を送るための方式である。イベントメッセージ伝送方式は、データ量が少ないメッセージを放送局1から受信機4に伝送する場合に用いられる。
【0029】
データストリーム伝送方式は、伝送するデータをPESパケットに収容してストリームとして伝送する伝送方式である。データストリーム伝送方式は、映像、音声、字幕データ等のリアルタイム型のデータや、他のストリームとの同期を要するデータの伝送に用いられる。
【0030】
ここで、AITは、TSパケットを用いて様々な方法によって伝送可能である。
即ち、AITは、TSパケットのSIに含まれるEITに対して記述することによって伝送可能である。
【0031】
また、AITは、セクションを用いてデータカルーセル伝送方式により伝送可能である。AITをデータカルーセル伝送方式により伝送する場合、受信機4側でAITであることを認識できるようにモジュールに対して識別情報が付される。
【0032】
また、AITは、PESとしてコンテンツの映像や音声に多重させて伝送可能である。
【0033】
また、AITは、バイナリ表現又はXML(Extensible Markup Language)によるテキスト表現で記述して、TSパケットに格納することができる。
本実施形態では、AITの伝送方法は、上記の伝送方法の少なくともいずれかに予め規定されているものとする。
【0034】
なお、XMLをベースとした、マルチメディア符号化用に開発されたBMLは、W3C(登録商標)(World Wide Web Consortium)が定義したxHTMLを基礎とし、手続き型言語にはJavaScript(登録商標)を基礎としたECMAScriptを用いて国際標準との整合性を考慮して定義された規格である。
【0035】
サービスサーバ3は、図示は省略するが、放送済みの番組コンテンツや、アプリ用コンテンツを配信するコンテンツ配信サーバと、受信機4で動作する各種のアプリケーションを配信するアプリケーション配信サーバとを備える。
【0036】
サービスサーバ3は、放送局1の設備と通信可能に接続されており、番組コンテンツや、番組コンテンツのメタデータを放送局1から受信する。
サービスサーバ3は、受信機4から番組コンテンツの取得要求を受け付けたことに応じて、受信機4に対して番組コンテンツを送信する。
【0037】
また、サービスサーバ3は、受信機4からアプリケーションの取得要求を受け付けたことに応じて、受信機4に対してアプリケーションを送信する。さらに、サービスサーバ3は、受信機4においてアプリケーションが実行されている場合に、映像や音声等の各データを含むアプリ用コンテンツを受信機4に送信する。
【0038】
また、サービスサーバ3は、必要に応じて、番組コンテンツに対してAITを多重化させて受信機4に送信する。また、サービスサーバ3は、受信機4からAITの取得要求を受け付けたことに応じて、受信機4に対してAITを送信する。
【0039】
また、サービスサーバ3は、番組コンテンツの所定シーンに対する視聴者の視聴状態を示す情報(以下、視聴状態情報と呼ぶ)と、放送局1から放送された放送信号に含まれる番組コンテンツを特定する番組IDと、を関連付けた関連付け情報を受信機4から受信する。
ここで、関連付け情報には、視聴状態情報が所定シーンを視聴した時の視聴者の画像である画像関連付け情報と、視聴状態情報が所定シーンを視聴した時の視聴者の音声情報である音声関連付け情報と、が含まれる。
【0040】
また、サービスサーバ3は、受信機4から受信した画像関連付け情報をもとに、視聴者の動作認識や表情認識を行い、これを用いて視聴者の番組に関する関心度等を算出し、当該視聴者に勧める番組や当該番組や所定シーンに関連する情報を生成し、当該情報を受信機4や受信機4に接続された携帯端末等に送信する。
【0041】
また、サービスサーバ3は、受信機4から受信した音声関連付け情報をもとに、視聴者の発話内容や周囲の暗騒音区間を抽出し、この抽出の結果を用いて視聴者の番組に関する関心度等を算出し、当該視聴者に勧める番組や当該番組や所定シーンに関連する情報を生成し、当該情報を受信機4や受信機4に接続された携帯端末等に送信する。
【0042】
受信機4は、放送局1からの放送又はサービスサーバ3との通信を介して受信する番組コンテンツに対して所定の処理を行うことにより、番組コンテンツを構成する映像や音声を同期して出力する。また、受信機4は、AITに基づいて、アプリケーションを適宜取得し、取得したアプリケーションを起動して実行する。また例えば、受信機4は、実行されているアプリケーションによってサービスサーバ3からアプリ用コンテンツを取得し、番組コンテンツに連携させて出力することも可能である。なお、アプリ用コンテンツの出力は、必ずしも番組コンテンツに連携させる必要はない。
以下、このような受信機4の機能について詳述する。
【0043】
まず、理解を容易にするため、
図3を参照して、受信機4が有する機能の一部の概要を説明する。
図3は、放送通信連携システム100の概要を示す図である。
【0044】
図3の例では、視聴状態情報として、視聴者の顔の表情が写った画像のデータ、及び、視聴者が発声した音声のデータが採用されている。このため、当該画像を撮影するためのカメラデバイス5、及び、視聴者の音声を入力するためのマイクロフォンデバイス6(以下、マイクデバイス6と略称する)が、受信機4に接続されている。なお、
図3においては、カメラデバイス5とマイクデバイス6とは受信機4からみて外部機器となっているが、これはあくまでも例示であって、後述するように、カメラデバイス5及びマイクデバイス6は受信機4に内蔵されていてもよい。また、受信機4は、スマートフォンや携帯電話機等で構成される携帯端末10と連動して動作することもできる。
【0045】
受信機4は、放送局1が放送した番組コンテンツを含んだ放送信号を受信して、当該番組コンテンツを再生する。
このとき、受信機4は、当該番組コンテンツにおける所定シーンを再生させているときに、カメラデバイス5に視聴者を撮影させて、その結果得られる画像のデータを視聴状態情報として取得したり、マイクデバイス6から入力した視聴者の音声のデータを視聴状態情報として取得する。
また、受信機4は、当該番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報を取得する。
さらに、受信機4は、当該番組コンテンツを特定する番組IDを取得する。
次に、受信機4は、これら取得した情報を関連付けた情報(以下、関連付け情報と呼ぶ)を生成する。即ち、当該番組コンテンツにおける所定シーンについての視聴状態情報並びに時刻情報、及び番組IDが関連付けられた関連付け情報が生成される。
そして、受信機4は、関連付け情報を、通信によりサービスサーバ3に提供する。
【0046】
サービスサーバ3は、関連付け情報を受信すると、これに対するサービスフィードバック情報として、当該番組コンテンツの所定シーンに関連する各種情報や、当該視聴者に推薦する別の番組コンテンツの情報を、受信機4や携帯端末10に送信する。
【0047】
さらに以下、
図4を参照して、受信機4について詳述する。
図4は、受信機4の機能構成を示すブロック図である。
受信機4は、放送波受信部11と、第1分離部12と、放送AIT取得部13と、通信部14と、第2分離部15と、通信AIT取得部16と、アプリケーション実行制御部17と、音声制御部18と、表示制御部19と、スピーカ20と、ディスプレイ21と、メモリ22と、AIT記憶部23、外部機器接続手段としてのデバイス接続部24と、関連付け部25とを備える。
【0048】
放送波受信部11は、放送用アンテナ2を介して放送局1から送信されている放送波を受信する。
【0049】
第1分離部12は、放送波受信部11に受信された放送波を復調することによって、放送信号、即ちTSパケットを抽出する。そして、第1分離部12は、TSパケットのPSI/SIを参照して、TSパケットに含まれているデータの種別を判別し、映像、音声、EIT、番組ID等の各種データを分離して抽出する。また、第1分離部12は、予め規定されているAITの伝送方法に応じて、セクションやPESを参照してAITを分離して抽出する。
【0050】
続いて、第1分離部12は、TSパケットのPESに含まれているデータが音声データである場合、この音声データを音声制御部18に出力する。また、第1分離部12は、TSパケットのPESに含まれているデータが映像データである場合、この映像データを表示制御部19に出力する。
【0051】
また、第1分離部12は、抽出したEIT、番組IDやその他の各種データをメモリ22に記憶させる。また、第1分離部12は、AITを抽出した場合、抽出したAITを放送AIT取得部13に出力する。
【0052】
放送AIT取得部13は、第1分離部12から出力されたAITを取得し、AIT記憶部23に記憶させる。
【0053】
通信部14は、通信ネットワークNを介するサーバ群3との間で各種情報を送受信したり、リモートコントローラR(以下、リモコンRと略記する)からの操作信号を受信したり、携帯端末10との間で各種情報を送受信する。
【0054】
第2分離部15は、サーバ群3から通信ネットワークNを介して送信されてきて通信部14に受信されたデータの種別を判別し、その判別結果に基づいてデータの出力先を分離する。例えば、第2分離部15は、受信したデータがAITであると判別した場合、このAITを通信AIT取得部16に出力する。また、第2分離部15は、受信したデータがアプリケーションであると判別した場合、このアプリケーションをアプリケーション実行制御部17に出力する。
【0055】
また、第2分離部15は、受信したデータがTSパケットであると判別した場合、映像、音声、AIT、番組ID等の各種データをTSパケットから分離して抽出する。そして、第2分離部15は、AITを抽出した場合、このAITを通信AIT取得部16に出力し、AIT以外のデータを抽出した場合、このデータをアプリケーション実行制御部17に出力する。
【0056】
通信AIT取得部16は、第2分離部15から出力されたAITを取得し、AIT記憶部23に記憶させる。
【0057】
アプリケーション実行制御部17は、AIT又はリモコンRを介したユーザの実行指示に基づいてアプリケーションを取得し、取得したアプリケーションの実行を制御する。例えば、アプリケーション実行制御部17は、関連付け情報を生成して出力するアプリケーションを起動した場合、当該アプリケーションの実行によって、メモリ22に記憶された番組ID及びユーザを特定するユーザIDを関連付け部25に出力する。
【0058】
メモリ22は、EIT、番組ID等の番組コンテンツのメタ情報やその他各種情報を記憶する。
AIT記憶部23は、放送AIT取得部13及び通信AIT取得部16によって取得されたAITを記憶する。
【0059】
デバイス接続部24は、カメラデバイス5やマイクデバイス6等のデバイスを接続し、当該デバイスからの入力情報を視聴状態情報として関連付け部25に供給する。
具体的には、デバイス接続部24は、アプリケーション実行制御部17により実行されたアプリケーション(以下、Hybridcastアプリケーションとも呼ぶ)によって、カメラデバイス5により視聴者が撮影された結果得られる画像のデータを、視聴状態情報として取得して、関連付け部25に出力する。また、デバイス接続部24は、アプリケーション実行制御部17により実行されたアプリケーションによって、マイクデバイス6から入力された視聴者の音声のデータを、視聴状態情報として取得して、関連付け部25に出力する。
なお、デバイス接続部24に接続されるデバイスは、カメラデバイス5やマイクデバイス6に限られず、その他例えば、視聴者の位置情報を取得可能なジャイロセンサや、視聴者の動作を検知可能な光センサであってもよい。
さらに、デバイス接続部24に接続とは、外部機器に接続することのみを意味せず、内蔵機器に接続することも意味する。従って、カメラデバイス5やマイクデバイス6は、外部機器である必要は特になく、受信機4に内蔵されていてもよい。
なお、デバイス接続部24のさらなる詳細については、
図6乃至
図10を参照して後述する。
【0060】
関連付け部25は、番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTSを表示制御部19から取得する。関連付け部25は、当該所定シーンを視聴した時の視聴者の視聴状態を示す視聴状態情報として、画像又は音声のデータをデバイス接続部24から取得する。関連付け部25は、番組IDやユーザID等のID情報をメモリ22から取得する。
関連付け部25は、これらの取得した情報、即ち、NPT又はPTSと、画像又は音声のデータとしての視聴状態情報と、ID情報とを関連付けることによって、関連付け情報を生成して、通信部14を介してサービスサーバ3に送信する。
なお、関連付け部25のさらなる詳細については、
図11乃至
図14を参照して後述する。
【0061】
さらに以下、このような機能的構成を有する受信機4のうち、デバイス接続部24について、
図6乃至
図10を参照して説明する。
【0062】
上述の如く、デバイス接続部24には、カメラデバイス5やマイクデバイス6といったデバイスが接続される。ただし、デバイス接続部24は、デバイスが単に物理的に接続されたとしても、当該デバイスを発見して認識しなければ、当該デバイスからの情報を視聴状態情報として関連付け部25に出力することはできない。
【0063】
図6は、このようなデバイスの発見に関する動作を説明する図であって、Hybridcast機能のレイヤの関係を示す図である。
図6に示すように、Hybridcast機能のレイヤとしては、下層から上層に向かう順に、ハードウェア、システムソフトウェア、ヴァーチャルマシン、Hybridcast基本ライブラリ及び拡張ライブラリ、並びに、Hybridcastアプリケーションが存在する。
デバイス接続部24におけるデバイスの発見の動作は、本実施形態では、拡張ライブラリ(ソフトウェアプログラム)の1つである機器発見ライブラリによって行われる。
【0064】
図7は、デバイス接続部24の概念を示す図である。
図7に示すように、アプリケーション実行制御部17により実行されるHybridcastアプリケーションが、デバイス接続部24に設けられるデバイスマネージャやHID(Human Interface Device)等とやり取りをする。
ここで、一般的なフィジカルネットワーク層におけるデバイスマネージャインプリメンテイションやHIDインプリメンテイションは、本実施形態では、従来から存在するものが流用される。このため、
図8乃至
図10のシーケンス図に示すような各種各様のリスナーを実装し、同シーケンス図に示すような各種イベント等を生成して処理するクラスとして、デバイスマネージャやHIDを含むインプリメンテイションクラスを実装することにより、デバイス接続部24が実現される。
【0065】
図8は、動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、所定の外部機器がデバイスとして接続されたときのシーケンス図を示している。
ステップS1において、関連付け部25は、番組IDやユーザID等のID情報をメモリ22から取得する。ただし、ID情報の取得は、ステップS1の処理タイミングだけではなく、放送局1からの番組コンテンツの変わり目等で随時行われる。
【0066】
次に、デバイスマネージャによる機器発見部分のシーケンスとして、次のようなステップS2乃至S9の処理が実行される。
ステップS2において、アプリケーション実行制御部17により実行されるHybridcastアプリケーション(
図8乃至
図10のシーケンス図の説明ではアプリと略称する)は、デバイス接続部24において、デバイスマネージャインスタンスを登録する。
ステップS3において、デバイスマネージャは、関連付け部25に対してアプリを通知する。
ステップS4において、関連付け部25は、関連付け部物理情報をデバイスマネージャに通知する。ここで、関連付け部物理情報とは、視聴者状態情報(画像や音声)を物理的にどこに流すべきかを示す情報である。
ステップS5において、アプリは、デバイスディスカバリーリスナを生成する。即ち、デバイスディスカバリイベントが登録される。
ステップS6において、デバイスマネージャが、HIDに対してデバイスの発見を試みる。
ステップS7において、HIDは、その応答をデバイスマネージャに返す。
ステップS8において、デバイスマネージャは、ステップS7の応答から得られたデバイス情報と、ステップS4において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
ステップS9において、デバイスマネージャは、デバイス情報をアプリに送ることによって、新しいデバイスをアプリに通知する。
【0067】
このようにして、デバイスマネージャによる機器発見部分のシーケンスとして、ステップS2乃至S9の処理が実行されると、それに引き続き、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、次のようなステップS10乃至S14の処理が実行される。
ステップS10において、アプリは、デバイスインスタンスに対して、デバイスステイタスリスナーを登録する。
ステップS11において、デバイスインスタンスは、デバイスの状況(例えば電源状態がON状態なのかOFF状態なのかといった状況)を、HIDに対して確認する。
ステップS12において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、デバイスの電源状態がOFF状態の場合には、さらに
図9に示す処理が必要になるが、この処理については後述する。
ステップS13において、デバイスインスタンスは、HIDから通知されたデバイスの状況を、アプリに通知する。
ステップS14において、デバイスインスタンスは、デバイスの入力データ(画像や音声のデータであって、視聴者状態情報になるデータ)を関連付け部25に出力する制御を実行すべく、関連付け部25の通知をHIDに対して行う。
【0068】
ここで、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスについて説明する。
先ず、デバイスの電源状態によらず、ステップS11の処理は実行されるが、デバイスの電源状態がOFF状態である場合には、ステップS12の処理の代わりに、
図9のシーケンス図に従った処理が実行される。
図9は、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンス図である。
ステップS12−1の処理は、ステップS12と実質同一の処理である。ただし、ステップS12−1においては、電源状態がOFF状態である旨がデバイスインスタンスに通知される。
そこで、ステップS33において、デバイスインスタンスは、デバイスの電源状態をON状態に遷移させる要求(以下、デバイス電源ON要求と呼ぶ)を、デバイスマネージャに対して行う。
ステップS34において、デバイスマネージャは、デバイスの電源状態をON状態に遷移させる。
ステップS12−2において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、この場合、電源状態がON状態である旨がデバイスインスタンスに通知される。
その後、上述した
図8のステップS13及びS14の処理が実行される。
【0069】
このようにして、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、
図8のステップS10乃至S14の処理(デバイスの電源状態がOFF状態の場合
図9の処理)が実行されると、次に引き続き、次のようなステップS15乃至S19の処理が実行される。
ステップS15において、アプリは、デバイスインスタンスに対して、入力イベントを要求する。
ステップS16において、デバイスインスタンスは、HIDに対して、入力イベントを要求する。
ステップS17において、デバイスは、即ちここでは外部機器であるカメラデバイス5又はマイクデバイス6は、画像又は音声のデータをHIDに入力する。
ステップS18において、HIDは、ステップS17の処理で入力された画像又は音声のデータを、入力データとして関連付け部25に提供する。なお、関連付け部25は、当該入力データを視聴者状態情報として取得する。
ステップS19において、表示制御部19は、ステップS18の処理時点のNPT/PTSを関連付け部25に提供する。
これ以降、アプリから入力イベントが要求される毎に、ステップS15乃至S19の処理が繰り返し実行される。
【0070】
以上まとめると、デバイス接続部24においては、デバイスマネージャが機能する。このデバイスマネージャの主な機能は、HID(デバイス)を発見し、発見したデバイスのデバイス情報と、関連付け部情報とを一緒に用いてデバイスインスタンスを生成することである。
また、このようにしてデバイスマネージャにより生成されたデバイスインスタンスの機能は、アプリから入力イベントを受け取り、HIDと関連付け部25とを制御することである。
また、関連付け部25の機能は、デバイス(HID)からの入力データ(画像や音声のデータであって、視聴者状態情報となるデータ)と、受信機4の内部情報(NPT/PTSといった時間情報やID情報)とを関連付けることである。
【0071】
ところで、デバイス接続部24に接続されるデバイスは、上述したように、外部機器に特に限定されず、受信機4の内蔵機器であってもよい。
【0072】
図10は、動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、デバイスとして受信機4の内蔵機器を用いる場合のシーケンス図を示している。
図10と
図8とを比較するに、
図10のステップS51乃至S54は、
図8のステップS1乃至S4と同様の処理である。
しかしながら、
図10においては、
図8のステップS5乃至S7に相当する処理は存在しない。内蔵機器の発見は不要だからである。このため、
図10のステップS55においては、デバイスマネージャは、内蔵機器の既知情報と、ステップS54において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
また、
図10においては、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスが存在しない。即ち、
図10においては、
図8のステップS10乃至S14(デバイスの電源状態がOFF状態の場合には
図9)に相当する処理は存在しない。内蔵機器の場合、ステイタスリスナーは不要だからである。即ち、デバイスマネージャから状況を変更可能だからである。
なお、
図10のステップS56乃至S60は、
図8のステップS15乃至S19と同様の処理である。即ち、アプリから入力イベントが要求される毎に、ステップS56乃至S60の処理が繰り返し実行される。
【0073】
以上、
図4の機能的構成を有する受信機4のうち、デバイス接続部24の詳細について、
図6乃至
図10を参照して説明した。次に、このような受信機4のうち、関連付け部25の詳細について、
図11乃至
図14を参照して説明する。
【0074】
図11は、関連付け部25の機能構成の一例を示す機能ブロック図である。
関連付け部25は、画像情報取得部251と、相対時間情報取得部252と、ID(番組・ユーザID)取得部253と、画像関連付け部254と、により画像関連付け情報を生成する。
画像情報取得部251は、デバイス接続部24から入力データとして出力された画像(動画のコマ又は静止画)のデータ(
図8のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時の視聴者が写った画像のデータを、視聴者状態情報として取得する。
相対時間情報取得部252は、表示制御部19から出力された所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTS(
図8のステップS19参照)を取得する。
ID(番組・ユーザID)取得部253は、アプリケーション実行制御部17から出力された番組ID及びユーザID(
図8のステップS1のID情報)を取得する。
画像関連付け部254は、画像情報取得部251に取得された画像のデータと、相対時間情報取得部252に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部253に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、画像関連付け部254により生成される関連付け情報を、特に、画像関連付け情報と呼ぶ。画像関連付け部254は、アプリケーション実行制御部17がアプリケーションを終了させるまで、随時、画像関連付け情報を通信部14に出力する。
【0075】
図12は、
図11の例の関連付け部25の処理の流れを説明するフローチャートである。
ステップS101において、関連付け部25は、画像情報取得部251で画像(動画のコマ又は静止画)のデータを取得し、相対時間情報取得部252で時刻情報(NPT又はPTS)を取得し、ID取得部253で番組ID及びユーザIDを取得する。
ステップS102において、画像関連付け部254は、ステップS101で取得した各種情報、即ち、画像のデータ、時刻情報、並びに番組ID及びユーザIDを関連付けることによって、画像関連付け情報を生成する。
ステップS103において、画像関連付け部254は、ステップS102で生成した画像関連付け情報を通信部14に出力する。
ステップS104において、関連付け部25は、アプリケーション実行制御部17がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS101に処理を戻し、終了させた場合は本処理を終了させる。
【0076】
関連付け部25から出力された画像関連付け情報は、通信部14を介して、サービスサーバ3(
図4参照)に送信される。
サービスサーバ3は、受信した画像関連付け情報をもとに画像処理を行う。これにより、サービスサーバ3は、視聴者が「どのシーンで笑った」、「どのシーンで興味を失った」等の情報を推定し、視聴者に特別な動作をさせることなく、視聴者の視聴状態を推定することが可能となる。
【0077】
図13は、関連付け部25の機能構成の別の例を示す機能ブロック図である。
関連付け部25は、音声情報取得部255と、相対時間情報取得部252と、ID(番組・ユーザID)取得部253と、音声関連付け部256と、により音声関連付け情報(音声の関連付けられたアップリンク情報)を生成する。
音声情報取得部255は、デバイス接続部24から入力データとして出力された音声のデータ(
図8のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時に発した音声のデータを、音声情報として取得する。
音声関連付け部256は、音声情報取得部255に取得された音声情報と、相対時間情報取得部252に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部253に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、音声関連付け部256により生成される関連付け情報を、特に、音声関連付け情報と呼ぶ。音声関連付け部256は、アプリケーション実行制御部17がアプリケーションを終了させるまで、随時、音声関連付け情報を通信部14に出力する。
【0078】
図14は、
図13の例の関連付け部25の処理の流れを説明するフローチャートである。
ステップS201において、関連付け部25は、音声情報取得部255で音声情報を取得し、相対時間情報取得部252で時刻情報(NPT又はPTS)を取得し、ID取得部253で番組ID及びユーザIDを取得する。
ステップS202において、音声関連付け部256は、ステップS201で取得した各種情報、即ち、音声情報、時刻情報、番組ID及びユーザIDを関連付けることによって、音声関連付け情報を生成する。
ステップS203において、音声関連付け部256は、ステップS202で生成した音声関連付け情報を通信部14に出力する。
ステップS204において、関連付け部25は、アプリケーション実行制御部17がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS201に処理を戻し、終了させた場合は本処理を終了させる。
【0079】
本実施形態によれば、以下のような効果がある。
(1)受信機4のデバイス接続部24においては、デバイスマネージャによって、関連付け部25の情報とデバイス(例えばカメラデバイス5やマイクデバイス6)の情報とに基づいて、デバイスインスタンスが生成される。そして、デバイスインスタンスによって、デバイスと関連付け部25とが制御され、アプリケーションからの入力イベント要求があると、デバイスから入力情報が取得されて関連付け部25に供給される。
このようにして、放送と通信の連携を図るシステムにおいて、受信機4にデバイスを接続させて機能させるための適切な仕組みが実現される。
【0080】
(2)デバイスマネージャによって、さらに、外部機器としてのデバイスが発見される。
これにより、放送と通信の連携を図るシステムにおいて、外部機器としてのデバイスに受信機を接続させて機能させるための適切な仕組みが実現される。
【0081】
なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
本実施形態では、例えば、デバイスとしてカメラデバイス及びマイクデバイスを備えているが、これに限られるものではなく、視聴者の視聴状態情報を取得できる限り、カメラデバイス又はマイクデバイスのいずれかを備えればよい。