(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-05-13
(45)【発行日】2022-05-23
(54)【発明の名称】動画配信装置、動画配信方法、および、動画配信プログラム
(51)【国際特許分類】
H04N 21/238 20110101AFI20220516BHJP
G06F 3/04845 20220101ALI20220516BHJP
H04L 67/00 20220101ALI20220516BHJP
H04N 21/234 20110101ALI20220516BHJP
H04N 21/239 20110101ALI20220516BHJP
【FI】
H04N21/238
G06F3/0484 150
H04L67/00
H04N21/234
H04N21/239
(21)【出願番号】P 2021009553
(22)【出願日】2021-01-25
(62)【分割の表示】P 2020086353の分割
【原出願日】2020-05-15
【審査請求日】2021-01-25
【審判番号】
【審判請求日】2021-11-11
【早期審理対象出願】
(73)【特許権者】
【識別番号】598138327
【氏名又は名称】株式会社ドワンゴ
(74)【代理人】
【識別番号】100108855
【氏名又は名称】蔵田 昌俊
(74)【代理人】
【識別番号】100103034
【氏名又は名称】野河 信久
(74)【代理人】
【識別番号】100179062
【氏名又は名称】井上 正
(74)【代理人】
【識別番号】100153051
【氏名又は名称】河野 直樹
(74)【代理人】
【識別番号】100199565
【氏名又は名称】飯野 茂
(74)【代理人】
【識別番号】100162570
【氏名又は名称】金子 早苗
(72)【発明者】
【氏名】志賀 雄太
(72)【発明者】
【氏名】細田 浩司
(72)【発明者】
【氏名】間島 大智
【合議体】
【審判長】畑中 高行
【審判官】樫本 剛
【審判官】新井 寛
(56)【参考文献】
【文献】特開2020-17244(JP,A)
【文献】特開2017-118381(JP,A)
【文献】特許第6198983(JP,B1)
【文献】特開2020-36251(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 21/00 - 21/858
(57)【特許請求の範囲】
【請求項1】
配信者端末から供給されるリアルタイム動画データを取得する第1取得部と、
視聴者端末の操作により
視聴者により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得部と、ここにおいて、
前記視聴者により選択された前記コミュニケーション画像は、
前記視聴者の感情や意思を少なくとも文字により表現するための画像であり、
前記配信者端末から供給される入力情報を取得する第3取得部と、
前記配信者端末からの入力情報が配信者用コミュニケーション画像の投入を要求する情報を含むときに、
前記リアルタイム動画データと前記コミュニケーション画像と前記配信者用コミュニケーション画像のデータとを用いて前記視聴者端末において前記コミュニケーション画像および前記配信者用コミュニケーション画像が所定の動作を行うように生成された配信用動画データ、若しくは、
前記視聴者端末において前記コミュニケーション画像と、前記リアルタイム動画データと、前記配信者用コミュニケーション画像とを
、前記視聴者端末において前記コミュニケーション画像および前記配信者用コミュニケーション画像が所定の動作を行うように合成可能とする配信用動画データ
を、前記視聴者端末に配信する配信部と、を備え、
前記配信者用コミュニケーション画像が行う前記所定の動作は、前記配信者用コミュニケーション画像から前記コミュニケーション画像に対する物理法則に基づく動作を含み、
前記コミュニケーション画像と前記配信者用コミュニケーション画像は、配信者と
前記視聴者との双方向のコミュニケーションを容易にするための画像である、
動画配信装置。
【請求項2】
前記視聴者端末から供給される入力情報は、選択された前記コミュニケーション画像の識別情報を含み、
前記コミュニケーション画像が前記視聴者端末に表示された際に前記識別情報に対応する動作を行うように前記配信用動画データを生成する生成部を更に備えた、請求項1記載の動画配信装置。
【請求項3】
前記配信者端末からの入力情報は、前記視聴者端末にて表示されている前記コミュニケーション画像の一括消去、前記コミュニケーション画像の投入禁止、投入される前記コミュニケーション画像の透明度の調整、投入される前記コミュニケーション画像の表示画面上の滞在時間の調整、又は、投入される前記コミュニケーション画像の間引きを行う要求情報を含み得、
前記配信部は、前記配信者端末からの入力情報に含まれる前記要求情報に基づく前記配信用動画データを配信する、請求項2記載の動画配信装置。
【請求項4】
配信者端末から供給されるリアルタイム動画データを取得する第1取得ステップと、 視聴者端末の操作により
視聴者により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得ステップと、ここにおいて、
前記視聴者により選択された前記コミュニケーション画像は、
前記視聴者の感情や意思を少なくとも文字により表現するための画像であり、
前記配信者端末から供給される入力情報を取得する第3取得ステップと、
前記配信者端末からの入力情報が配信者用コミュニケーション画像の投入を要求する情報を含むときに、
前記リアルタイム動画データと前記コミュニケーション画像と前記配信者用コミュニケーション画像のデータとを用いて前記視聴者端末において前記コミュニケーション画像および前記配信者用コミュニケーション画像が所定の動作を行うように生成された配信用動画データ、若しくは、
前記視聴者端末において前記コミュニケーション画像と、前記リアルタイム動画データと、前記配信者用コミュニケーション画像とを
、前記視聴者端末において前記コミュニケーション画像および前記配信者用コミュニケーション画像が所定の動作を行うように合成可能とする配信用動画データ
を、前記視聴者端末に配信する配信ステップと、を備え、
前記配信者用コミュニケーション画像が行う前記所定の動作は、前記配信者用コミュニケーション画像から前記コミュニケーション画像に対する物理法則に基づく動作を含み、
前記コミュニケーション画像と前記配信者用コミュニケーション画像は、配信者と
前記視聴者との双方向のコミュニケーションを容易にするための画像である、
動画配信方法。
【請求項5】
コンピュータに、請求項4に記載の動画配信方法を実行させる動画配信プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、動画配信装置、動画配信方法、および、動画配信プログラムに関する。
【背景技術】
【0002】
近年、個人が容易に動画コンテンツを配信することができる環境が整いつつあり、視聴者は多くの動画コンテンツの中から見たいものを選択することが可能となっている。配信者がリアルタイム(生放送)で動画コンテンツを配信するときには、例えば視聴者がコメントを投稿することにより配信者と視聴者との間でコミュニケーションをとることができ、配信者は視聴者の反応に応じた対応が可能となり、視聴者は生放送ならではの臨場感を楽しむことも可能である。
【0003】
特許文献1では、コメント以外の手段を用いて、配信者と視聴者との間でコミュニケーションを行う技術が提案されている。例えば特許文献1には、視聴者がバーチャル空間にオブジェクト(仮想アイテム)を投入する技術が開示されている。例えば特許文献1には、サーバは、配信者端末によって操作されるオブジェクトが存在する仮想空間のデータを視聴者端末及び配信者端末に配信する配信部と、仮想空間内へ投入される仮想アイテムの投入入力を配信者端末および/または視聴者端末から受付ける受付部とを備え、配信部は、仮想アイテム制御部によって制御された仮想アイテムのデータを仮想空間のデータと合わせて配信すること、および、投げ入れられる仮想アイテムが文字の外形形状を有している場合の演出について、「文字そのものが上から降ってくるという面白さがある」との記載がある。(例えば特許文献1の[0110]段落)
また、「1つの番組の放送において投入可能な仮想アイテムの数の上限があってもよい。また、上限数の仮想アイテムが投入された以降であっても、一定時間の経過または特定の条件を満たすことによって、再び投入可能な仮想アイテムが充填されてもよい」との記載がある。(例えば特許文献1の[0094]段落)
また、「ユーザ管理部2gは、各ライブコンテンツが用いる仮想空間へ投げ込まれた仮想的なアイテムの履歴と、そのアイテムの種類などの情報も記録している」との記載もある。(例えば特許文献1の[0029]段落)
また、仮想アイテムの制御の例として、仮想アイテムの投入を禁止してもよいことが記載されている。(例えば特許文献1の[0095]段落)
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
生放送で動画コンテンツを配信する配信者は、視聴者のリアルタイムの反応に応じてコンテンツを進めることが可能である。しかしながら、例えばスマートフォンによりコンテンツを視聴している視聴者にとっては、コンテンツの内容に対して即時にコメントを入力することは難しく、視聴者と配信者とのコミュニケーションをテンポよく行うことが困難であった。
【0006】
そこで、視聴者と配信者とのコミュニケーションを行う手段として、「エモーション」サービスが検討されている。エモーションは、視聴者の感情や意思を文字や色彩などにより表現した画像を、コンテンツ表示画面に投入させることにより、視聴者と配信者との間でのコミュニケーションを容易にする手段である。例えば、視聴者は、動画コンテンツを視聴しながら、コンテンツ表示画面の周囲の領域に提示されている複数のエモーション画像の中から、自身の意思や感情を表すものを選択することにより、コンテンツ表示画面内にエモーション画像を投入することが可能である。したがって、視聴者は、生放送されている動画コンテンツの内容に対して、即時に、自身の意思や感情を配信者に伝えることが可能である。
【0007】
一方で、エモーション画像が、動画コンテンツの表示画面内に投入されて一定時間滞在するよう制御されると、多くのエモーション画像が表示画面内に投入されることにより、動画コンテンツが見え辛くなり、その結果、動画コンテンツを却って盛り下げてしまう可能性がある。
【0008】
本発明は上記事情を鑑みて成されたものであって、生放送で動画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供する動画配信装置、動画配信方法、および、動画配信プログラムを提供することを目的とする。
【課題を解決するための手段】
【0009】
本発明の第1態様による動画配信装置は、配信者端末から供給されるリアルタイム動画データを取得する第1取得部と、視聴者端末の操作により視聴者により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得部と、ここにおいて、前記視聴者により選択された前記コミュニケーション画像は、前記視聴者の感情や意思を少なくとも文字により表現するための画像であり、前記配信者端末から供給される入力情報を取得する第3取得部と、前記配信者端末からの入力情報が配信者用コミュニケーション画像の投入を要求する情報を含むときに、前記リアルタイム動画データと前記コミュニケーション画像と前記配信者用コミュニケーション画像のデータとを用いて前記視聴者端末において前記コミュニケーション画像および前記配信者用コミュニケーション画像が所定の動作を行うように生成された配信用動画データ、若しくは、前記視聴者端末において前記コミュニケーション画像と、前記リアルタイム動画データと、前記配信者用コミュニケーション画像とを、前記コミュニケーション画像および前記配信者用コミュニケーション画像が所定の動作を行うように合成可能とする配信用動画データを、前記視聴者端末に配信する配信部と、を備え、前記配信者用コミュニケーション画像が行う前記所定の動作は、前記配信者用コミュニケーション画像から前記コミュニケーション画像に対する物理法則に基づく動作を含み、前記コミュニケーション画像と前記配信者用コミュニケーション画像は、配信者と前記視聴者との双方向のコミュニケーションを容易にするための画像である。
【0010】
本発明の第2態様による動画配信装置は、第1態様による動画配信装置において、前記視聴者端末から供給される入力情報は、選択された前記コミュニケーション画像の識別情報を含み、前記コミュニケーション画像が前記視聴者端末に表示された際に前記識別情報に対応する動作を行うように前記配信用動画データを生成する生成部を更に備える。
【0011】
本発明の第3態様による動画配信装置は、第2態様による動画配信装置において、前記配信者端末からの入力情報は、前記視聴者端末にて表示されている前記コミュニケーション画像の一括消去、前記コミュニケーション画像の投入禁止、投入される前記コミュニケーション画像の透明度の調整、投入される前記コミュニケーション画像の表示画面上の滞在時間の調整、又は、投入される前記コミュニケーション画像の間引きを行う要求情報を含み得、前記配信部は、前記配信者端末からの入力情報に含まれる前記要求情報に基づく前記配信用動画データを配信する。
本発明の第4態様による動画配信方法は、配信者端末から供給されるリアルタイム動画データを取得する第1取得ステップと、視聴者端末の操作により視聴者により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得ステップと、ここにおいて、前記視聴者により選択された前記コミュニケーション画像は、前記視聴者の感情や意思を少なくとも文字により表現するための画像であり、前記配信者端末から供給される入力情報を取得する第3取得ステップと、前記配信者端末からの入力情報が配信者用コミュニケーション画像の投入を要求する情報を含むときに、前記リアルタイム動画データと前記コミュニケーション画像と前記配信者用コミュニケーション画像のデータとを用いて前記視聴者端末において前記コミュニケーション画像および前記配信者用コミュニケーション画像が所定の動作を行うように生成された配信用動画データ、若しくは、前記視聴者端末において前記コミュニケーション画像と、前記リアルタイム動画データと、前記配信者用コミュニケーション画像とを、前記コミュニケーション画像および前記配信者用コミュニケーション画像が所定の動作を行うように合成可能とする配信用動画データを、前記視聴者端末に配信する配信ステップと、を備え、前記配信者用コミュニケーション画像が行う前記所定の動作は、前記配信者用コミュニケーション画像から前記コミュニケーション画像に対する物理法則に基づく動作を含み、前記コミュニケーション画像と前記配信者用コミュニケーション画像は、配信者と前記視聴者との双方向のコミュニケーションを容易にするための画像である。
【0012】
本発明の第5態様による動画配信プログラムは、コンピュータに、第4態様による動画配信方法を実行させる動画配信プログラム。
【発明の効果】
【0016】
本発明によれば、生放送で画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供する動画配信装置、動画配信方法、および、動画配信プログラムを提供することができる。
【図面の簡単な説明】
【0017】
【
図1】
図1は、実施形態の動画配信装置を含む動画コンテンツ配信システムの概略的構成を示す図である。
【
図2】
図2は、第1実施形態の動画配信装置の一構成例を概略的に示すブロック図である。
【
図3】
図3は、リアルタイムで配信されているコンテンツの視聴者端末における表示例を概略的に示す図である。
【
図4】
図4は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。
【
図5】
図5は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。
【
図6】
図6は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。
【
図7】
図7は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。
【
図8】
図8は、視聴者端末の表示画面の一部にて投入されたエモーション画像の表示例を概略的に示す図である。
【
図9】
図9は、視聴者端末の表示画面の一部に表示されたエモーション画像の例を概略的に示す図である。
【
図10】
図10は、リアルタイムで配信されているコンテンツの視聴者端末における他の表示例を概略的に示す図である。
【
図11】
図11は、第1実施形態の動画配信装置における動画配信方法の一例について説明するためのフローチャートである。
【
図12A】
図12Aは、リアルタイムで配信されているコンテンツを表示する視聴者端末の操作の一例を説明するための図である。
【
図13】
図13は、第3実施形態の動画配信装置の一構成例を概略的に示すブロック図である。
【発明を実施するための形態】
【0018】
以下に、実施形態の動画コンテンツ配信システム、動画配信方法、および、動画配信プログラムについて、図面を参照して詳細に説明する。
図1は、実施形態の動画配信装置を含む動画コンテンツ配信システムの概略的構成を示す図である。
【0019】
動画配信システムは、配信者端末10と、動画配信装置30と、を備えている。動画配信装置30は、ネットワークを介して配信者端末10および視聴者端末20と通信可能に接続され得る。なお、
図1では、3台の視聴者端末20が図示されているが、視聴者端末20の数は図示した数に限定されるものではなく、ゼロでもあり得る。
【0020】
配信者端末10は、例えばビデオカメラなどの動画ソースに接続可能なコンピュータなどの電子デバイス、例えば、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、デジタルミュージックプレイヤー、電子書籍リーダなど)、VR(Virtual Reality)端末、AR(Augmented Reality)端末などであり得るが、これらに限られない。配信者端末10は、例えば、少なくとも1つのプロセッサと、プロセッサにより実行されるプログラムが記憶された記憶部と、を備え、ソフトウエアにより又はソフトウエアとハードウエアとの組み合わせにより種々の機能を実現可能に構成されている。
【0021】
視聴者端末20は、コンピュータなどの電子デバイスであって、例えば、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、デジタルミュージックプレイヤー、電子書籍リーダなど)、VR(Virtual Reality)端末、AR(Augmented Reality)端末などであり得るが、これらに限られない。
【0022】
視聴者端末20は、例えば、少なくとも1つのプロセッサと、プロセッサにより実行されるプログラムが記録されたメモリと、を備え、ソフトウエアにより又はソフトウエアとハードウエアとの組み合わせにより種々の機能を実現可能に構成されている。
【0023】
視聴者端末20は、動画配信装置30から動画データやリアルタイム動画リストデータなどのコンテンツデータを受信し、図示しない表示手段や音響手段などにより視聴者へコンテンツを提示することが可能である。
【0024】
図2は、第1実施形態の動画配信装置の一構成例を概略的に示すブロック図である。 動画配信装置30は、第1取得部321および第2取得部322を含む受信部32と、生成部34と、配信部38と、配信制御部35と、を備えている。
【0025】
動画配信装置30は、例えば、上記構成の機能を実現するプログラムを実行するプロセッサおよびプログラムを格納したメモリと、を備え得る。プロセッサは、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、またはDSP(Digital Signal Processor)、などであってもよい。また、メモリは、動画配信装置の動作を実現するためにプロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータなどを一時的に格納する。
【0026】
また、動画配信装置30は、さらに、ネットワークに接続可能な通信部と、大容量のデータを蓄積するためのデータ記憶部(図示せず)を備え得る。データ記憶部は、動画配信装置30に内蔵されてもよいし、動画配信装置30に外付けされてもよい。データ記憶部は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの不揮発性記憶媒体を含み得る。
【0027】
受信部32は、ネットワークを介して、配信者端末10と、視聴者端末20と、通信可能であり、第1取得部321と、第2取得部322と、を含み得る。例えば、受信部32は、配信者端末10から動画データを受信したり、視聴者端末20からの配信要求を受信したりする。受信部32は、視聴者端末20から受信した配信要求を配信制御部35と生成部34とへ送信する。視聴者端末20からの配信要求は、視聴者又は視聴者端末20の識別情報と、動画コンテンツの識別情報とを含み得る。
【0028】
第1取得部321は、ネットワークを介して配信者端末10から逐次送信されるリアルタイム動画データを受信可能である。具体的には、第1取得部321は、配信者端末10からリアルタイム配信用の動画データを受信する。第1取得部321は、受信した動画データを生成部34へ送信する。
【0029】
第2取得部322は、視聴者端末20から、動画コンテンツに対応する入力情報を受信可能である。具体的には、第2取得部322が視聴者端末20から受信する入力情報は、視聴している動画コンテンツの識別情報や、視聴者が入力したコメントや、コンテンツ表示画面に投入するエモーション画像(コミュニケーション画像)EMに関する情報(識別情報など)や、視聴者による視聴者端末20の操作情報(操作時間長や操作時の圧力など)を含み得る。第2取得部322は、受信した入力情報を生成部34へ送信する。
【0030】
なお、エモーション画像EMは、視聴者の感情や意思を文字や色彩などにより表現するための画像であって、視聴者の操作に基づいてコンテンツ表示画面に投入され、視聴者と配信者との間でのコミュニケーションを容易にする手段である。
【0031】
配信制御部35は、画像データのリアルタイム配信の動作を制御する。配信制御部35は、視聴者端末20による配信要求を受信部32から受け取り、視聴者端末20へ画像データが配信されるように配信部38を制御する。また、配信制御部35は、例えば図示しない時計を含み、時計から得られる時間情報と、画像データのリアルタイム配信に割り当てられた時間枠とを比較し、画像データのリアルタイム配信の開始および終了を管理してもよい。また配信制御部35は、配信用動画データが受信されたことによりリアルタイムで動画コンテンツの配信を開始し、配信用動画データが終了したことにより動画コンテンツの配信を終了するように、リアルタイム配信の開始および終了を管理してもよい。
【0032】
生成部34は、チャージ量管理部36を含む。チャージ量管理部36は、受信部32から視聴者端末20による配信要求を受け取り、第2取得部322から視聴者端末20からの入力情報を受け取る。
【0033】
チャージ量管理部36は、取得した配信要求に基づいて視聴者又は視聴者端末20を識別し、リアルタイムで配信されている動画コンテンツのそれぞれについて、視聴者毎(又は視聴者端末20毎)にチャージ量を割り当てる。なお、チャージ量管理部36が視聴者毎にチャージ量を管理する際には、予め登録されている視聴者の識別情報(ユーザー名やパスワードや会員レベルなど)を用いて、チャージ量の管理を行うことができる。なお、視聴者の識別情報は、動画配信装置30の記憶部に記憶されていてもよく、動画配信装置30の外部のサーバにより管理されていてもよい。
【0034】
視聴者毎に割り当てられるチャージ量の最大値は、視聴者の会員レベルにより異なっていても良い。例えば、チャージ量管理部36は、一般会員よりもレベルの高いプレミアム会員に対して、一般会員よりもチャージ量の最大値が大きくなるように、チャージ量の管理を行うことができる。
【0035】
チャージ量管理部36は、視聴者端末20からの配信要求および入力情報に基づいて、視聴者端末20から投入されるエモーション画像EMにより消費されるチャージ量を管理する。チャージ量管理部36は、例えば、視聴者が視聴する動画コンテンツ毎に、投入するエモーション画像EMに応じたチャージ量を、視聴者毎に割り当てられたチャージ量から消費させる。エモーション画像EMを動画コンテンツに投入することにより消費されるチャージ量は、同じであってもよく異なっていてもよい。エモーション画像EM毎に消費されるチャージ量が異なる場合には、例えば、エモーション画像EMの識別情報と、消費されるチャージ量とが関連付けられて記憶部に記憶されている。
【0036】
また、チャージ量管理部EMは、所定時間経過後にチャージ量がゼロから最大値まで回復するように、時間経過に応じてチャージ量の値を増加させる。なお、チャージ量を回復する際の他の態様として、チャージ量管理部EMは、チャージ量をゼロから最大値まで回復する必要はなく、例えば最大値よりも小さい値までチャージ量を回復したときに一旦回復を停止してもよい。また、視聴者は、チャージ量の回復中であっても、エモーション画像EMによる消費量を超えていればエモーション画像EMを動画コンテンツに投入可能である。
【0037】
チャージ量管理部36は、リアルタイムで配信されているコンテンツのそれぞれにおいて、視聴者毎に割り当てられたチャージ量の現在の値が、エモーション画像EMに対応する値以上であるときには、視聴者毎に割り当てられたチャージ量を消費させて、エモーション画像EMを表示させる表示情報を生成する。
【0038】
チャージ量管理部36は、リアルタイムで配信されているコンテンツのそれぞれにおいて、視聴者毎に割り当てられたチャージ量の現在の値が、エモーション画像に対応する値未満であるときには、例えば、チャージ量が不足していることを表示させる表示情報を生成する。
【0039】
また、チャージ量管理部36は、視聴者端末20からの入力情報に基づいて、配信されている動画コンテンツのそれぞれに対して、配信開始から終了までの期間において、エモーション画像EMの投入履歴を管理することができる。チャージ量管理部36は、例えば、配信されているコンテンツの各々についてエモーション画像EM毎に投入された数をカウントし、投入数が多い順に、投入数を示すグラフを表示し、グラフの近傍に対応するエモーション画像EMを指標として表示するための表示情報を生成することが出来る。動画コンテンツに投入されたエモーション画像EMの履歴管理については後に図面を参照して説明する。
【0040】
生成部34は、第1取得部321からリアルタイム動画データを受信し、第2取得部322から視聴者による入力情報を受信する。生成部34は、リアルタイム動画データに、例えば視聴者端末20から入力された入力情報に基づくコメントおよびエモーション画像EMが重畳されるように、配信用動画データを生成することが出来る。生成部34は、例えば、アルファブレンド、ピクチャーインピクチャーなどの公知の技法を用いて、リアルタイム動画データにコメントおよびエモーション画像EMを合成してもよい。また、生成部34は、視聴者端末20にてリアルタイム動画データにコメントおよびエモーション画像EMを合成可能となるように、配信用動画データを生成してもよい。生成部34は、生成した配信用動画データを配信部38へ送信する。
【0041】
生成部34は、例えば、リアルタイム動画データの再生映像の画面の一部または全部をリサイズして、または画面の一部をトリミングして入力情報と合成してもよいし、リアルタイム動画データの再生映像の画面の一部が露出し、残部が隠れるように評価情報と合成してもよい。また、生成部34は、視聴者端末からの配信要求に応じて複数の配信用動画データを切り替えて配信可能とするために、表示する画像が異なる複数の配信用動画データを生成して配信部38へ送信してもよい。
【0042】
また、生成部34は、チャージ量管理部36にて生成された表示情報に基づいてエモーション画像EMを視聴者端末20にて表示させるときには、後述するように、エモーション画像EMの種類に応じて、画像が表示画面上にて所定の動作を行うよう配信用エモーション動画データを生成することが出来る。生成部34は、生成した配信用エモーション動画データを含む配信用動画データを配信部へ38送信することができる。
【0043】
なお、配信された動画データと、コメントを表示するためのデータと、配信用エモーション動画データとは、視聴者端末20において合成されて表示され得る。生成部34にて配信用動画データと、コメントを表示するためのデータと、配信用エモーション動画データとを予め合成してから、配信部38より視聴者端末に配信されても構わない。
【0044】
また、生成部34は、表示画面上に視聴者に視認されない透明の障害物を配置し、動画コンテンツの視聴の妨げにならないように、エモーション画像EMを画面の外側や周囲の領域へ誘導することができる。
【0045】
配信部38は、ネットワークと通信可能に接続し、生成部34からの配信用動画データを受け取り、配信要求を受けた視聴者端末20へ配信する。配信部38は、例えば配信用動画データの配信先などを配信制御部35によって制御される。
なお、配信部38は、配信済みの配信用動画データを直ちに破棄してもよいが、例えばリプレイまたはスローモーション再生を可能とするために所定期間バッファリングしていてもよい。
【0046】
以下に、視聴者端末20での動画コンテンツの表示画面の一例を参照しながら、動画配信装置30の動作の一例について具体的に説明する。
図3は、リアルタイムで配信されているコンテンツの視聴者端末における表示例を概略的に示す図である。ここでは、視聴者端末20がパーソナルコンピュータであるときのコンテンツ表示の一例を示している。
【0047】
図3の表示例では、動画コンテンツが表示される部分を含む第1領域100と、エモーション画像EMの一覧を視聴者に提示する第2領域110とが、コンピュータの画面上で並んで表示されている。
【0048】
第1領域100は、動画コンテンツが表示される部分と、操作ボタンやタイムバーなどが表示される部分と、視聴者がコメントを入力する入力欄などを含んでいる。
【0049】
動画コンテンツには、種々のエモーション画像EMが投入されている。ここでは、複数種類のエモーション画像EMが投入された例を示している。これらのエモーション画像EMは、例えば、画面の上部から画面の底部へ落下する動作、画面の底部から生えてくる動作、画面内に投げ込まれる動作、画面底部において左右のいずれか一方から転がり込む動作、画像が瞬きをするような動作、画像が破裂したり爆発したりする動作、弾性体のように跳ねる動作など、エモーション画像EMにより表現される視聴者の感情や意思をより強調するように動作を行う。
【0050】
エモーション画像EMの動作は、例えば、動画配信装置30の生成部34において、古典力学的な法則(質量、速度、摩擦、風)などから得られるものの動きや、衝突、流体などの物理演算を行うことにより決定され得る。例えば、生成部34は、エモーション画像EMのそれぞれに設定された質量、重量、弾性率、表面の摩擦係数、硬度などの値を用いて、物理法則に基づいてエモーション画像EMの動作を演算することができる。
【0051】
生成部34は、エモーション画像EMが所定時間画面内に滞在した後に、エモーション画像EMが表示領域の外部へ誘導されたり、徐々に消えたりするように配信用動画データを生成することができる。生成部34は、エモーション画像EMが画面上で表示されなくなるまでの所定時間を、コンテンツ動画に投入されるエモーション画像EMの単位時間当たりの数に基づいて調整してもよい。
【0052】
また、生成部34は、動画コンテンツに投入されるエモーション画像EMの単位時間当たりの数が所定の閾値を超えた場合には、エモーション画像EMを間引いて表示させてもよい。上記のように、エモーション画像EMが表示される時間や表示される数を調整することにより、視聴者が動画コンテンツの視聴を妨げられることがなくなる。生成部34は、例えば、一定の秒数当たりにエモーション画像EMが投入される個数や、視聴者端末20の表示画面上に滞在しているエモーション画像EMの個数を制御することができる。
【0053】
また、生成部34は、表示画面上に、視聴者に視認されない透明の障害物を配置し、動画コンテンツの視聴の妨げにならないように、エモーション画像EMを画面の外側や周囲の領域へ誘導することができる。例えば、生成部34は、透明な物体をエモーション画像EMの障害物として画面上に配置することにより、エモーション画像EMが落下する底部が水平に対して傾斜するようにしてもよい。このことにより、例えば画面上部から底部へ落下したエモーション画像EMは、底部に配置された透明な物体上を転がったり滑り落ちたりして画面の外へ誘導され得る。
【0054】
また、例えば、生成部34は、透明な物体をエモーション画像EMの障害物として画面中央に配置してもよい。このことにより、例えば画面上部から底部へ落下するエモーション画像EMや、画面に投げ込まれるエモーション画像EMが画面中央を横切ることがなくなり、画面底部から上部に向かって延びるエモーション画像EMは画面中央に到達することがなくなる。したがって、エモーション画像EMにより視聴者が動画コンテンツの視聴を妨げられることがなくなる。
【0055】
図4は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。ここでは、
図3に示す第2領域110を概略的に示している。 第2領域110は、チャージ量を表示するチャージ表示領域112と、エモーション画像EMの一覧を表示するエモーション一覧表示領域114と、エモーション画像EMの投入履歴を表示する履歴表示領域116と、を含む。
【0056】
エモーション一覧表示領域114には、複数のエモーション画像EMが並んで配置されている。視聴者は、例えばエモーション一覧表示領域114において投入したいエモーション画像EMをクリックすることにより選択することが可能である。視聴者端末は視聴者が表示画面に接触したことを検出するセンサを備えていてもよく、その場合には、視聴者は、エモーション一覧表示領域114において投入したいエモーション画像EMに指やタッチペンなどで接触することにより選択することが可能である。視聴者が選択したエモーション画像EMの識別情報は、入力情報として動画配信装置30へ送信される。
【0057】
図5乃至
図7は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。
図5乃至
図7では、
図4に示すチャージ表示領域112の複数の表示例を概略的に示している。
【0058】
チャージ表示領域112は、エモーション一覧表示領域114の上側(表示画面上の垂直方向における上側)に配置されている。チャージ表示領域112には、視聴者毎に設定されたアイコンICNと、ユーザ名と、チャージ量を視覚的に示すグラフBRと、が表示されている。
【0059】
グラフBRは、視聴者端末の表示画面の水平方向に延びた棒グラフであって。チャージ量が100%であるときに最大の長さとなり、チャージ量に応じてグラフの長さが変化するように表示される。チャージ量は、チャージ量管理部36により、リアルタイムで配信されているコンテンツのそれぞれに対し、視聴者毎に管理される。エモーション画像EMそれぞれにチャージ量の消費量が設定されており、視聴者は、割り当てられたチャージ量を利用してエモーション画像EMを動画コンテンツに投入することができる。
【0060】
例えば、視聴中のコンテンツについて500のチャージ量を有している視聴者が、100のチャージ量を消費するエモーション画像EMを投入した場合、視聴者の有する残りのチャージ量が400となり、グラフBRの水平方向の長さが消費されたチャージ量(100)の分だけ短くなる。
【0061】
チャージ量の最大値は、視聴者のユーザレベルにより異なっていてもよい。例えば、
図5に示す表示例では、視聴者のユーザレベルが上位であって、チャージ量の最大値が1,500である。
図6に示す表示例では、視聴者のユーザレベルが下位であって、チャージ量の最大値が500である。
【0062】
図7では、チャージ量がゼロとなったときのチャージ表示領域112の表示例を示している。チャージ量は、チャージ量管理部36により、0%の状態から所定時間経過後に100%となるように回復するように管理される。チャージ量がエモーション画像EMを投入可能な値よりも低い状態であるときには、例えば、エモーション画像EMが選択不可(非アクティブ表示)となり、グラフBR近傍に「回復するまでお待ちください」などの表示が成されてもよい。
【0063】
図8は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。ここでは、
図4に示す履歴表示領域116の表示例を概略的に示している。
【0064】
履歴表示領域116は、エモーション一覧表示領域114の下側(表示画面上の垂直方向における下側)に配置されている。履歴表示領域116には、視聴者が視聴中の動画コンテンツにおいて、現時点までに投入されたエモーション画像EMの履歴が、投入数の多い順に並んで配置されている。
【0065】
図8に示す例では、履歴表示領域116には、投入数に対応するグラフG1-G5と、グラフG1-G5のそれぞれに対応するエモーション画像EMと、が表示されている。グラフG1-G5は表示画面上の水平方向に延びた棒グラフであって、グラフG1-G5の水平方向の長さがエモーション画像EMの投入数に応じて設定されている。グラフG1-G5は、表示画面上の水平方向に並んで配置されている。
【0066】
この例では、「草」、「どんまい」、「なるほど」、「おめ」、「W」、の順にエモーション画像EMの投入数が多くなっている。例えば、最も投入数が多い「草」のエモーション画像EMが、対応するグラフG1の近傍に表示されている。
【0067】
図9は、視聴者端末の表示画面の一部に表示されたエモーション画像の例を概略的に示す図である。
この例では、第1領域100の一部を示しており、「おつ」、「なるほど」、「かわいい」、「草」、「W」、「いいね」などの文字によるエモーション画像EMと、ハート型の図形によるエモーション画像EMとが、動画コンテンツに投入されている。
【0068】
これらのエモーション画像EMは、視聴者の感情や意思を表現するように、色彩や形状や動きが設定されている。例えば、「草」の文字によるエモーション画像EMは、草が地面から生える動きを模した動きをするように設定され得る。例えば、ハート型の図形によるエモーション画像EMは、表示画面の垂直方向の上側から投入され、ふわふわと画面内を漂いながら下側へ落ちていくように設定され得る。例えば、「W」の文字によるエモーション画像EMは視聴者が笑っている様子を表す為に、表示画面内を跳ねたり振動したりするよう動作が設定され得る。
【0069】
コンテンツに投入された複数のエモーション画像EMは、例えば、生成部34における物理演算により動作を設定することが可能であり、投入時の動作が終了すると重力により画面の底部に積み上げられる状態となる。なお、エモーション画像EMは、所定時間画面内に滞在した後には、画面の外へ誘導されたり徐々に消えたりするように表示されるため、エモーション画像EMで画面がいっぱいになり、動画コンテンツの視聴が妨げられることはない。
【0070】
上記
図3-
図9により、動画配信装置30から供給された配信用動画データに基づく視聴者端末20の表示例について説明したが、視聴者端末20における表示例はこれに限定されるものではない。
図10は、リアルタイムで配信されているコンテンツの視聴者端末における他の表示例を概略的に示す図である。ここでは、視聴者端末20が、スマートフォンやタブレット端末などのモバイル端末である場合の表示例を概略的に示している。
【0071】
図10の表示例では、動画コンテンツが表示される部分を含む第3領域200と、エモーション画像EMの一覧を視聴者に提示する第4領域210とが、例えばモバイル端末の画面上で並んで表示されている。
【0072】
第3領域200は、
図3に示す第1領域100の表示形態を変更したものであって、動画コンテンツが表示される部分と、操作ボタンやタイムバーなどが表示される部分と、視聴者がコメントを入力するための入力ボタンなどを含んでいる。
【0073】
第4領域210は、
図3に示す第2領域110の表示形態を変更したものであって、第4領域210は、チャージ量を表示するチャージ表示領域212と、エモーション画像EMの一覧を表示するエモーション一覧表示領域214と、エモーション画像EMの投入履歴を表示する履歴表示領域216と、を含む。
【0074】
第3領域200および第4領域210に含まれる表示要素については、視聴者端末20がパーソナルコンピュータである場合の表示例と同様であるため、ここでは説明を省略する。
【0075】
スマートフォンやタブレット端末などのモバイル端末は、表示画面上にて視聴者が接触した位置を検出するセンサを有するものであって、視聴者は、エモーション一覧表示領域214に提示されたエモーション画像EMのいずれかを指やタッチペンにより選択することにより、動画コンテンツに投入するエモーション画像EMを選択することが出来る。
【0076】
図11は、第1実施形態の動画配信装置における動画配信方法の一例について説明するためのフローチャートである。
動画配信装置30において、第1取得部321は、配信者端末10から供給されるリアルタイム動画データを取得する(ステップS1)。
【0077】
第2取得部322は、視聴者が視聴者端末20を操作することにより選択されたエモーション画像(コミュニケーション画像)EMの情報を含む入力情報を取得する(ステップS2)。なお、視聴者端末20から供給される入力情報は、視聴者が入力したコメントの情報も含み得る。
【0078】
続いて、生成部34は、第1取得部321からリアルタイム動画データを受け取り、第2取得部322から入力情報を受け取る。また生成部34は、受信部32を介して、視聴者端末20からの配信要求を受信することができる。
【0079】
生成部34は、視聴者端末20からの配信要求と入力情報とにより、視聴者又は視聴者端末20と、視聴者が視認している動画コンテンツを特定することが可能である。また、生成部34は、視聴者が視認している動画コンテンツに対して投入したエモーション画像EMを、入力情報に含まれるエモーション画像EMの識別情報に基づいて特定することができる。生成部34は、チャージ量管理部36にて生成された表示情報を用いて視聴者端末20の表示画面上で所定の動作を行う配信用エモーション動画データを生成し、配信用エモーション動画データとリアルタイム動画データと用いて配信用動画データを生成することが出来る(ステップS3)。
【0080】
配信部38は、生成部34から配信用動画データを受け取り、配信制御部35の制御により配信要求を受けた視聴者端末20に対して配信用動画データを配信する(ステップS4)。
【0081】
上記のように、本実施形態の動画配信装置、動画配信方法および動画配信プログラムによれば、生放送で動画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供することができる。
【0082】
次に、第2実施形態の動画配信装置、動画配信方法、および、動画配信プログラムについて図面を参照して詳細に説明する。
なお、以下の説明において、上述の第1実施形態と同様の構成については同一の符号を付して説明を省略する。
【0083】
本実施形態の動画配信装置では、チャージ量管理部36の動作が上述の第1実施形態と異なっている。
本実施形態では、視聴者が生放送の動画コンテンツを視聴しているときにエモーション画像EMを選択して投入する操作において、例えばエモーション画像EMにカーソルの位置を合わせてマウスを長押しする操作の時間長や、エモーション画像EMを指先やタッチペンなどで接触する操作により表示画面に対して生じる圧力が、視聴者端末20から動画配信装置30に入力情報として供給される。なお、視聴者の操作により表示画面に対して生じる圧力の情報は、視聴者端末20において圧力センサにより検出された圧力の値であってもよく、視聴者端末20の表示画面を視聴者が指先で接触した際の接触面積の値であってもよい。チャージ量管理部36は、視聴者端末20から供給された操作時の接触面積の値に基づいて、操作時の圧力の値を演算することが可能に構成され得る。
【0084】
図12Aは、リアルタイムで配信されているコンテンツを表示する視聴者端末の操作の一例を説明するための図である。
ここでは、視聴者端末20の表示画面の第2領域110(若しくは第4領域210)に表示されたエモーション画像EMの一覧の中から、「わこつ」の文字によるエモーション画像EMを選択する場合を一例として説明する。
【0085】
視聴者は、選択したエモーション画像EMにより消費されるチャージ量を、マウスをクリックまたは画面を接触する操作の時間長や、操作時に画面に対して生じる圧力に応じて調整することができる。
【0086】
動画配信装置30のチャージ量管理部36は、視聴者端末20からの入力情報に含まれる操作の時間長や操作時の圧力の情報に基づいて、視聴者端末20における第2領域110(若しくは第4領域210)の表示状態を変更することが出来る。例えば、視聴者が「わこつ」の文字によるエモーション画像EM上にカーソルを合わせてマウスをクリック(若しくは指先やタッチペンなどにより接触)すると、「わこつ」の文字によるエモーション画像EMが選択される。選択されたエモーション画像EM上には、消費されるチャージ量と、消費されるチャージ量のレベルを表す円状(若しくは円弧状)の棒グラフが表示される。
【0087】
図12Aでは、選択したエモーション画像EMにより消費されるチャージ量が4段階で変化する様子を示している。チャージ量管理部36は、入力情報に含まれる操作の時間長又は操作時の圧力が第1閾値以下であるときには、消費されるチャージ量が「100」となり、「わこつ」の文字によるエモーション画像EMの近傍に「100」と表示され、エモーション画像EMを囲む円状の棒グラフが表示されるように表示情報を生成することができる。
【0088】
チャージ量管理部36は、入力情報に含まれる操作時間長又は操作時の圧力が第1閾値より大きくなると、消費されるチャージ量は操作時間長又は圧力の値に応じて「100」を超えた値とすることができる。チャージ量管理部36は、例えば消費されるチャージ量の初期値を「100」として、操作時間長又は圧力が第2閾値(>第1閾値)を超えたときに最大値「500」となるよう、操作時間長又は圧力の値に応じて初期値から最大値の間で連続的に変化するように設定されてもよく、第1閾値と第2閾値との間に複数の閾値を設けて、操作時間長又は圧力の値が閾値を超えるごとに段階的(非連続的)に消費されるチャージ量が大きくなる(例えば「100」、「200」、…「500」と非連続的に大きくなる)ように設定されてもよい。
【0089】
チャージ量管理部36は、消費されるチャージ量に応じて、第2領域110(又は第4領域210)においてエモーション画像EMの近傍に表示される消費チャージ量の数値を変更するとともに、エモーション画像EMを囲む円に沿って表示される円弧状の棒グラフの長さを変更するように、表示情報を生成することができる。
【0090】
また、チャージ量管理部36は、消費されるチャージ量の値に応じて、第2領域110(又は第4領域210)にて選択されたエモーション画像EMの大きさを変更するように表示情報を生成してもよい。
図12Aに示した例では、消費されるチャージ量が大きくなると、選択されたエモーション画像EMも大きく表示されている。
生成部34は、チャージ量管理部36にて生成された表示情報に基づいて配信用動画データを生成することが可能であり、エモーション画像EMのチャージ量の大きさ(若しくは、操作時間長又は圧力の値)に応じて、エモーション画像EMの大きさや動作を変更して動画コンテンツに投入させることが出来る。
【0091】
なお、
図12Aでは、「わこつ」の文字によるエモーション画像EMを選択したときの表示例を示したが、他のエモーション画像EMを選択した場合であっても同様である。
【0092】
図12Bは、
図12Aに示す視聴者端末の表示例の一部を示す図である。
ここでは、視聴者により選択されたエモーション画像EM上に表示される消費チャージ量と円状若しくは円弧状のグラフの画像のみを示している。視聴者は、「わこつ」の文字以外の他のエモーション画像EMも選択することが可能であり、チャージ量管理部36は、他のエモーション画像EMについても、視聴者による操作時間長又は操作時の圧力に応じて消費されるチャージ量を調整することができる。
【0093】
本実施形態の動画配信装置30は、上記以外は上述の第1実施形態と同様である。
【0094】
すなわち、本実施形態の動画配信装置、動画配信方法および動画配信プログラムによれば、生放送で動画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供することができる。
【0095】
次に、第3実施形態の動画配信装置、動画配信方法、および、動画配信プログラムについて図面を参照して詳細に説明する。
図13は、第3実施形態の動画配信装置の一構成例を概略的に示すブロック図である。 本実施形態の動画配信装置30は、受信部32が第3取得部323を更に備えている。
【0096】
第3取得部323は、配信者端末10から供給される入力情報を取得する。配信者端末10からの入力情報は、例えば、生放送中の動画コンテンツに投入されたエモーション画像EMの一括消去を要求する情報や、エモーション画像EMの投入禁止を要求する情報や、投入されるエモーション画像EMの透明度の調整を要求する情報や、投入されるエモーション画像EMの視聴者端末20の表示画面上の滞在時間の調整を要求する情報や、視聴者端末20の表示画面上で所定の動作を行う配信者用エモーション画像の投入を要求する情報や、投入されるエモーション画像EMの間引きを要求する情報が含まれ得る。第3取得部323は、配信者端末10からの入力情報を生成部34へ供給する。
【0097】
生成部34は、第3取得部323から供給された入力情報に基づいて、配信用動画データを生成することができる。
【0098】
生成部34は、エモーション画像EMの一括消去を要求する情報を入力情報として受け取ったときには、例えば、対応する動画コンテンツに投入されたエモーション画像EMを風で吹き飛ばしたり、爆弾が爆発することにより表示画面外へと吹き飛ばしたりするように、配信用画像データを生成することができる。
【0099】
また、生成部34は、エモーション画像EMの投入禁止を要求する情報を入力情報として受け取ったときには、例えば、エモーション画像EMの投入禁止を示す画像を動画コンテンツの一部に表示するとともに、第2領域110(又は第4領域210)にてエモーション画像EMを選択不可(非アクティブ状態)とするように配信用画像データを生成することができる。
【0100】
また、生成部34は、投入されるエモーション画像EMの透明度の調整を要求する情報を入力情報として受け取ったときには、例えば、エモーション画像EMが視聴者端末20の表示画面に表示される際の透明度(透過率)を要求された値に調整して表示させることができる。
【0101】
また、生成部34は、投入されるエモーション画像EMの視聴者端末20の表示画面上の滞在時間の調整を要求する情報を入力情報として受け取ったときには、例えば、エモーション画像EMが視聴者端末20の表示画面上に滞在する時間を要求されたように調整し、より短く又はより長く表示画面上に滞在させることができる。
【0102】
また、生成部34は、視聴者端末20の表示画面上で所定の動作を行う配信者用エモーション画像の投入を要求する情報を入力情報として受け取ることも可能である。例えば、配信者は、爆発により画面内のエモーションを吹き飛ばす爆弾の配信者用エモーション画像を動画コンテンツに投入することが可能であって、生成部34は、配信者用エモーション画像を動画コンテンツに投入して、所定の動作を行わせることが可能である。
【0103】
また、生成部34は、投入されるエモーション画像EMの間引きを要求する情報を入力情報として受け取ったときには、動画コンテンツに投入されるエモーション画像EMのうちいくつかをランダムに間引くように配信用画像データを生成したり、投入されたエモーション画像EMが視聴者端末20の表示画面に表示されてから消えるまでの時間を短くなるように配信用画像データを生成したりすることができる。
本実施形態の動画配信装置30は、上記以外は上述の第1実施形態と同様である。
【0104】
すなわち、本実施形態の動画配信装置、動画配信方法および動画配信プログラムによれば、生放送で動画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供することができる。
【0105】
なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【符号の説明】
【0106】
10…配信者端末、20…視聴者端末、30…動画配信装置、32…受信部、34…生成部、35…配信制御部、36…チャージ量管理部、38…配信部、100…第1領域、110…第2領域、112、212…チャージ表示領域、114、214…エモーション一覧表示領域、116、216…履歴表示領域、200…第3領域、210…第4領域、321…第1取得部、322…第2取得部、323…第3取得部、EM…エモーション画像(コミュニケーション画像)、G1-G5、BR…グラフ