(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-12-09
(45)【発行日】2022-12-19
(54)【発明の名称】動画配信システム、動画配信方法及び動画配信プログラム
(51)【国際特許分類】
H04N 21/2668 20110101AFI20221212BHJP
H04N 21/258 20110101ALI20221212BHJP
H04N 21/235 20110101ALI20221212BHJP
【FI】
H04N21/2668
H04N21/258
H04N21/235
(21)【出願番号】P 2020035863
(22)【出願日】2020-03-03
(62)【分割の表示】P 2019122907の分割
【原出願日】2018-12-12
【審査請求日】2021-06-22
(73)【特許権者】
【識別番号】504437801
【氏名又は名称】グリー株式会社
(74)【代理人】
【識別番号】100126572
【氏名又は名称】村越 智史
(72)【発明者】
【氏名】倉淵 彩
【審査官】鈴木 順三
(56)【参考文献】
【文献】特許第6420930(JP,B1)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 21/00 - 21/858
(57)【特許請求の範囲】
【請求項1】
一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクト及び第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトを含む共演動画を視聴ユーザの視聴ユーザ装置において再生させ、
前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置及び前記第2ユーザが使用する第2ユーザ装置に表示指示オブジェクトを表示させ、
前記第1ユーザ装置における前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクトに対応付けて前記第1ギフトを表示するとともに前記第1ユーザ装置の画面から前記表示指示オブジェクトを削除する一方で前記第2ユーザ装置の画面からは前記表示指示オブジェクトを削除しない、
動画配信システム。
【請求項2】
前記一又は複数のコンピュータプロセッサは、前記第1ユーザ装置において前記表示指示オブジェクトが操作された後に前記第2ユーザ装置において前記表示指示オブジェクトが操作された場合に、前記共演動画において前記第2キャラクタオブジェクトに対応付けて前記第1ギフトを表示する、
請求項1に記載の動画配信システム。
【請求項3】
前記共演動画において、前記第1ギフトが前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの両方に対応付けて表示される、
請求項2に記載の動画配信システム。
【請求項4】
一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクト及び第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトを含む共演動画を視聴ユーザの視聴ユーザ装置において再生させ、
前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置に表示指示オブジェクトを表示させ、
前記第1ユーザ装置における前記表示指示オブジェクトへの操作に応じて、前記第1ユーザ装置において前記複数のキャラクタオブジェクトの中から指定キャラクタオブジェクトの指定を受け付け、
前記共演動画において前記指定キャラクタオブジェクトに対応付けて前記第1ギフトを表示する、
動画配信システム。
【請求項5】
前記複数のキャラクタオブジェクトは、第3ユーザの動きに基づいて生成される第3キャラクタオブジェクトを含む、
請求項4に記載の動画配信システム。
【請求項6】
前記一又は複数のコンピュータプロセッサは、前記表示指示オブジェクトが選択された場合に、前記複数のキャラクタオブジェクトのうちのいずれかを選択するための選択肢を前記第1ユーザ装置に表示する、
請求項4又は5に記載の動画配信システム。
【請求項7】
一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクト及び第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトを含む共演動画を視聴ユーザの視聴ユーザ装置において再生させ、
前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置及び前記第2ユーザが使用する第2ユーザ装置に表示指示オブジェクトを表示させ、
前記第1ユーザ装置において前記表示指示オブジェクトが操作された場合には前記共演動画において前記第1キャラクタオブジェクトに対応付けて前記第1ギフトを表示するとともに前記第2ユーザ装置において前記表示指示オブジェクトを選択不能とし、前記第2ユーザ装置において前記表示指示オブジェクトが操作された場合には前記共演動画において前記第2キャラクタオブジェクトに対応付けて前記第1ギフトを表示するとともに前記第1ユーザ装置において前記表示指示オブジェクトを選択不能とする、
動画配信システム。
【請求項8】
前記第1ギフトは、装着部位と関連付けられた装着ギフトであり、
前記装着ギフトは、前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記複数のキャラクタオブジェクトのいずれかの前記装着部位と対応する位置に表示される、
請求項1から7のいずれか1項に記載の動画配信システム。
【請求項9】
前記視聴ユーザから前記第1ギフトとは異なる第2ギフトに関する第2表示要求を受け付けたことに応じて、前記共演動画に前記第2ギフトを表示させる、
請求項1から8のいずれか1項に記載の動画配信システム。
【請求項10】
前記第2ギフトは、前記複数のキャラクタオブジェクトの特定の部位と対応付けられずに前記共演動画に表示される、
請求項9に記載の動画配信システム。
【請求項11】
前記第2ギフトは、前記共演動画において移動するように表示される、
請求項9又は10に記載の動画配信システム。
【請求項12】
前記第2ギフトは、前記視聴ユーザが前記第2ギフトを購入したことに応じて、前記共演動画に表示される、
請求項9から11のいずれか1項に記載の動画配信システム。
【請求項13】
前記表示指示オブジェクトは、操作によって選択可能なアクティベート状態と操作しても選択されないディアクティベート状態との間で切り替えられる、
請求項1から12のいずれか1項に記載の動画配信システム。
【請求項14】
前記共演動画は、前記視聴ユーザ装置により生成される、
請求項1から13のいずれか1項に記載の動画配信システム。
【請求項15】
前記共演動画は、前記第1ユーザ装置から受信した前記第1ユーザの動きを示す第1モーションデータ及び
前記第2ユーザが使用する第2ユーザ装置から受信した前記第2ユーザの動きを示す第2モーションデータに基づいて生成される、
請求項14に記載の動画配信システム。
【請求項16】
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクト及び第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトを含む共演動画を視聴ユーザの視聴ユーザ装置において再生させる工程と、
前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置及び前記第2ユーザが使用する第2ユーザ装置に表示指示オブジェクトを表示させる工程と、
前記第1ユーザ装置における前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクトに対応付けて前記第1ギフトを表示するとともに前記第1ユーザ装置の画面から前記表示指示オブジェクトを削除する一方で前記第2ユーザ装置の画面からは前記表示指示オブジェクトを削除しない工程と、
を備える動画配信方法。
【請求項17】
一又は複数のコンピュータプロセッサに、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクト及び第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトを含む共演動画を視聴ユーザの視聴ユーザ装置において再生させる工程と、
前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置及び前記第2ユーザが使用する第2ユーザ装置に表示指示オブジェクトを表示させる工程と、
前記第1ユーザ装置における前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクトに対応付けて前記第1ギフトを表示するとともに前記第1ユーザ装置の画面から前記表示指示オブジェクトを削除する一方で前記第2ユーザ装置の画面からは前記表示指示オブジェクトを削除しない工程と、
を実行させる動画配信プログラム。
【請求項18】
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクト及び第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトを含む共演動画を視聴ユーザの視聴ユーザ装置において再生させる工程と、
前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置に表示指示オブジェクトを表示させる工程と、
前記第1ユーザ装置における前記表示指示オブジェクトへの操作に応じて、前記第1ユーザ装置において前記複数のキャラクタオブジェクトの中から指定キャラクタオブジェクトの指定を受け付ける工程と、
前記共演動画において前記指定キャラクタオブジェクトに対応付けて前記第1ギフトを表示する工程と、
を備える動画配信方法。
【請求項19】
一又は複数のコンピュータプロセッサに、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクト及び第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトを含む共演動画を視聴ユーザの視聴ユーザ装置において再生させる工程と、
前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置に表示指示オブジェクトを表示させる工程と、
前記第1ユーザ装置における前記表示指示オブジェクトへの操作に応じて、前記第1ユーザ装置において前記複数のキャラクタオブジェクトの中から指定キャラクタオブジェクトの指定を受け付ける工程と、
前記共演動画において前記指定キャラクタオブジェクトに対応付けて前記第1ギフトを表示する工程と、
を実行させる動画配信プログラム。
【請求項20】
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクト及び第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトを含む共演動画を視聴ユーザの視聴ユーザ装置において再生させる工程と、
前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置及び前記第2ユーザが使用する第2ユーザ装置に表示指示オブジェクトを表示させる工程と、
前記第1ユーザ装置において前記表示指示オブジェクトが操作された場合には前記共演動画において前記第1キャラクタオブジェクトに対応付けて前記第1ギフトを表示するとともに前記第2ユーザ装置において前記表示指示オブジェクトを選択不能とし、前記第2ユーザ装置において前記表示指示オブジェクトが操作された場合には前記共演動画において前記第2キャラクタオブジェクトに対応付けて前記第1ギフトを表示するとともに前記第1ユーザ装置において前記表示指示オブジェクトを選択不能とする工程と、
を備える動画配信方法。
【請求項21】
一又は複数のコンピュータプロセッサに、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクト及び第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む複数のキャラクタオブジェクトを含む共演動画を視聴ユーザの視聴ユーザ装置において再生させる工程と、
前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記視聴ユーザ装置から第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置及び前記第2ユーザが使用する第2ユーザ装置に表示指示オブジェクトを表示させる工程と、
前記第1ユーザ装置において前記表示指示オブジェクトが操作された場合には前記共演動画において前記第1キャラクタオブジェクトに対応付けて前記第1ギフトを表示するとともに前記第2ユーザ装置において前記表示指示オブジェクトを選択不能とし、前記第2ユーザ装置において前記表示指示オブジェクトが操作された場合には前記共演動画において前記第2キャラクタオブジェクトに対応付けて前記第1ギフトを表示するとともに前記第1ユーザ装置において前記表示指示オブジェクトを選択不能とする工程と、
を実行させる動画配信プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本明細書における開示は、動画配信システム、動画配信方法及び動画配信プログラムに関する。本明細書における開示は、より具体的には、ユーザの動きに基づいて生成されるキャラクタオブジェクトを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラムに関する。
【背景技術】
【0002】
従来から、配信ユーザの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システムが知られている。このような動画配信システムは、例えば、特開2015-184689号公報(特許文献1)及び「長谷川 雄介,ヴァーチャルアイドル新時代の幕開け PROJECT MariA,CG WORLD,日本,株式会社ボーンデジタル,2017年11月10日,第231巻,pp.74-79」(非特許文献1)に開示されている。
【0003】
配信ユーザの動きに基づいて生成されたキャラクタオブジェクトを含む動画を配信する動画配信サービスが提供されている。このようなサービスとして、株式会社ドワンゴが提供する「バーチャルキャスト」が知られている。バーチャルキャストでは、ある配信ユーザが配信している動画に他のユーザのキャラクタオブジェクトが入り込み、二人の配信ユーザが各々のキャラクタオブジェクトを介して動画内で仮想的に共演することができる。
【0004】
コンテンツを視聴する視聴ユーザからの要求に応じて、当該視聴ユーザが購入したギフトに対応するギフトオブジェクトを表示画面に表示させるコンテンツ配信システムも知られている。例えば、特開2012-120098号公報(特許文献2)に開示されている動画配信システムでは、視聴ユーザは、ギフトアイテムを購入し、この購入したギフトアイテムを配信ユーザに対してギフトとして提供することができる。ギフトは、視聴ユーザからの表示要求に応じて配信中の動画に表示される。ギフトの表示要求は、当該ギフトが視聴ユーザによって購入されたことに応じて自動的に生成されることもある。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2015-184689号公報
【文献】特開2012-120098号公報
【非特許文献】
【0006】
【文献】長谷川 雄介,ヴァーチャルアイドル新時代の幕開け PROJECT MariA,CG WORLD,日本,株式会社ボーンデジタル,2017年11月10日,第231巻,pp.74-79
【文献】株式会社ドワンゴ、 [バーチャルキャスト]凸について″、[online]、[平成30年11月25日検索]、インターネット〈URL:https://qa.nicovideo.jp/faq/show/10740?back=front%2Fcategory%3Ashow&category_id=718&page=1&site_domain=default&sort=sort_access&sort_order=desc〉
【発明の概要】
【発明が解決しようとする課題】
【0007】
従来の動画配信システムでは、視聴ユーザから配信ユーザに対してギフトが提供される。二人以上の配信ユーザが共演している共演動画において視聴ユーザから当該配信ユーザの各々へのギフトを受け付けると、各配信ユーザが単体で動画を配信する場合よりも受け付けられるギフトの数が多くなる。また、このため、共演動画において受け付けたギフトを表示すると、各配信ユーザに対して提供されたギフトによって配信動画が乱雑になってしまい、配信動画のクオリティが保てないという問題がある。
【0008】
本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、共演動画に視聴ユーザからのギフトを整然と表示できる動画配信システム、動画配信方法及び動画配信プログラムを提供することである。
【課題を解決するための手段】
【0009】
本発明の一態様による動画配信システムは、一又は複数のコンピュータプロセッサを備え、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、第1ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む第1動画を配信し、前記第1動画を視聴する視聴ユーザから第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1動画を表示する前記第1ユーザの第1ユーザ装置に表示指示オブジェクトを表示させる一方で、前記視聴ユーザが使用する視聴ユーザ装置及び前記第1動画を表示する第2ユーザが使用する第2ユーザ装置には前記表示指示オブジェクトを表示させず、前記第2ユーザからの共演申請に基づいて、前記第1キャラクタオブジェクト及び前記第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む共演動画を配信し、前記共演動画を表示する前記第1ユーザ装置及び前記共演動画を表示する前記第2ユーザ装置に前記表示指示オブジェクトを表示させ、前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの少なくとも一方と対応付けて前記第1ギフトを表示する。
【0010】
本発明の一態様において、前記第1ユーザ装置において前記表示指示オブジェクトが操作された場合には前記第2ユーザ装置から前記表示指示オブジェクトを選択不能とし、前記第2ユーザ装置において前記表示指示オブジェクトが操作された場合には前記第1ユーザ装置から前記表示指示オブジェクトを選択不能とする。
【0011】
本発明の一態様において、前記第1ユーザ装置において前記表示指示オブジェクトを選択可能とする一方で前記第2ユーザ装置においては前記表示指示オブジェクトを選択不能とする。
【0012】
本発明の一態様において、前記第前記第1ユーザ装置における前記表示指示オブジェクトの操作により、前記共演動画において前記第2キャラクタオブジェクトに対応付けて前記第1ギフトを表示する。
【0013】
本発明の一態様において、前記第1ギフトは、前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの装着部位と関連付けられた装着ギフトであり、前記装着ギフトは、前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記装着部位と対応する位置に表示される。
【0014】
本発明の一態様において、前記視聴ユーザから前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの特定の部位と対応付けられずに第2ギフトに関する第2表示要求を受け付けたことに応じて、前記共演動画に前記第2ギフトを表示させる。
【0015】
本発明の一態様において、前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの一方のみと対応付けて前記第1ギフトを表示する。
【0016】
本発明の一態様は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法に関する。当該動画配信方法は、第1ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む第1動画を配信する工程と、前記第1動画を視聴する視聴ユーザから第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1動画を表示する前記第1ユーザの第1ユーザ装置に表示指示オブジェクトを表示させる一方で、前記視聴ユーザが使用する視聴ユーザ装置及び前記第1動画を表示する第2ユーザが使用する第2ユーザ装置には前記表示指示オブジェクトを表示させない工程と、前記第2ユーザからの共演申請に基づいて、前記第1キャラクタオブジェクト及び前記第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む共演動画を配信する工程と、前記共演動画を表示する前記第1ユーザ装置及び前記共演動画を表示する前記第2ユーザ装置に表示指示オブジェクトを表示させる工程と、前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの少なくとも一方と対応付けて前記第1ギフトを表示する工程と、を備える。
【0017】
本発明の一態様による動画配信プログラムは、一又は複数のコンピュータプロセッサに、第1ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む第1動画を配信する工程と、前記第1動画を視聴する視聴ユーザから第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1動画を表示する前記第1ユーザの第1ユーザ装置に表示指示オブジェクトを表示させる一方で、前記視聴ユーザが使用する視聴ユーザ装置及び前記第1動画を表示する第2ユーザが使用する第2ユーザ装置には前記表示指示オブジェクトを表示させない工程と、前記第2ユーザからの共演申請に基づいて、前記第1キャラクタオブジェクト及び前記第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む共演動画を配信する工程と、前記共演動画を表示する前記第1ユーザ装置及び前記共演動画を表示する前記第2ユーザ装置に表示指示オブジェクトを表示させる工程と、前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの少なくとも一方と対応付けて前記第1ギフトを表示する工程と、を実行させる。
【発明の効果】
【0018】
本発明の実施形態によれば、共演動画に視聴ユーザからのギフトを整然と表示できる。
【図面の簡単な説明】
【0019】
【
図1】一実施形態による動画配信システムを示すブロック図である。
【
図2】
図1の動画配信システムで配信される動画を配信する配信ユーザ及び当該配信ユーザが使用している配信ユーザ装置を模式的に示す模式図である。
【
図3】一実施形態において視聴ユーザ装置10に表示される表示画面の例を示す図である。
【
図4a】一実施形態において配信ユーザ装置20aに表示される表示画面の例を示す図である。
【
図4b】一実施形態において配信ユーザ装置20bに表示される表示画面の例を示す図である。
【
図5】一実施形態において視聴ユーザ装置10に表示される表示画面の例を示す図である。
図5の表示画面においては通常オブジェクトの例が表示されている。
【
図6】一実施形態において視聴ユーザ装置10に表示される表示画面の例を示す図である。
図6の表示画面においては装着オブジェクトの例が表示されている。
【
図7a】一実施形態において配信ユーザ装置20aに表示される表示画面の例を示す図である。
図7aの表示画面においては装着オブジェクトの例が表示されている。
【
図7b】一実施形態において配信ユーザ装置20bに表示される表示画面の例を示す図である。
図7bの表示画面においては装着オブジェクトの例が表示されている。
【
図8】一実施形態において視聴ユーザ装置10に表示される共演動画の表示画面の例を示す図である。
【
図9a】一実施形態において配信ユーザ装置20aに表示される共演動画の表示画面の例を示す図である。
【
図9b】一実施形態において配信ユーザ装置20bに表示される共演動画の表示画面の例を示す図である。
【
図10】一実施形態において視聴ユーザ装置10に表示される共演動画の表示画面の例を示す図である。
図10の表示画面においては、装着オブジェクト138がキャラクタオブジェクト31に装着されている。
【
図11a】一実施形態において配信ユーザ装置20aに表示される共演動画の表示画面の例を示す図である。
図11aの表示画面においては、装着オブジェクト138がキャラクタオブジェクト31に装着されている。
【
図11b】一実施形態において配信ユーザ装置20bに表示される共演動画の表示画面の例を示す図である。
図11bの表示画面においては、装着オブジェクト138がキャラクタオブジェクト31に装着されている。
【
図12】一実施形態において視聴ユーザ装置10に表示される共演動画の表示画面の例を示す図である。
図12の表示画面においては、装着オブジェクト138がキャラクタオブジェクト131に装着されている。
【
図13a】一実施形態において配信ユーザ装置20aに表示される共演動画の表示画面の例を示す図である。
図13aの表示画面においては、装着オブジェクト138がキャラクタオブジェクト131に装着されている。
【
図13b】一実施形態において配信ユーザ装置20bに表示される共演動画の表示画面の例を示す図である。
図13bの表示画面においては、装着オブジェクト138がキャラクタオブジェクト131に装着されている。
【
図14】一実施形態における動画配信処理の流れを示すフロー図である。
【
図15】一実施形態において通常ギフトを表示する処理の流れを示すフロー図である。
【
図16】一実施形態において装着ギフトを表示する処理の流れを示すフロー図である。
【発明を実施するための形態】
【0020】
以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。
【0021】
図1及び
図2を参照して、一実施形態による動画配信システムについて説明する。
図1は、一実施形態による動画配信システム1を示すブロック図であり、
図2は、動画配信システム1で動画を配信するユーザUa,Ub及び当該ユーザUa,Ubが使用している配信ユーザ装置20a,20bを模式的に示す模式図である。配信装置20a及び配信装置20bは、動画配信システム1で配信される動画を視聴する機能を有していてもよい。
【0022】
動画配信システム1は、視聴ユーザ装置10と、配信ユーザ装置20a,20bと、サーバ装置60と、ストレージ70と、を備える。視聴ユーザ装置10と、配信ユーザ装置20と、サーバ装置60と、ストレージ70とは、ネットワーク50を介して相互に通信可能に接続されている。サーバ装置60は、後述するように、配信ユーザUa及び配信ユーザUbのキャラクタのアニメーションを含む動画を配信するように構成される。
【0023】
この動画は、サーバ装置60から視聴ユーザ装置10及び配信ユーザ装置20a,20bに配信される。配信された動画は、視聴ユーザ装置10のディスプレイに表示される。視聴ユーザ装置10のユーザである視聴ユーザは、配信された動画を視聴ユーザ装置10により視聴することができる。図面を簡潔するために
図1には視聴ユーザ装置10が1台だけ示されているが、動画配信システム1は、複数の視聴ユーザ装置を備えていてもよい。配信ユーザUa,Ubは、配信された動画を視聴することにより、動画中の動画を確認しながらパフォーマンスを行うことができる。
【0024】
図示の実施形態において、配信ユーザ装置20aは、コンピュータプロセッサ21aと、通信I/F22aと、ディスプレイ23aと、カメラ24aと、マイク25aと、を備えている。同様に、配信ユーザ装置20bは、コンピュータプロセッサ21bと、通信I/F22bと、ディスプレイ23bと、カメラ24bと、マイク25bと、を備えている。配信ユーザ装置20aと配信ユーザ装置20bとは同様の構成及び機能を有しているため、両者を特に区別する必要がない場合には、両者をまとめて配信ユーザ装置20と呼ぶことがあり、その構成要素もコンピュータプロセッサ21などと呼ぶことがある。
【0025】
コンピュータプロセッサ21は、ストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。
図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。
【0026】
通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。配信ユーザ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。
【0027】
ディスプレイ23は、表示パネルと、タッチパネルと、を有する。タッチパネルは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネルは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。
【0028】
カメラ24は、配信ユーザUa,Ubの顔を連続的に撮像し、配信ユーザUa,Ubの顔の撮像データを取得する。カメラ24により撮像された配信ユーザUa,Ubの顔の撮像データは、通信I/F22を介してサーバ装置60に送信される。カメラ24は、人物の顔の奥行きを検出可能な3Dカメラであってもよい。
【0029】
マイク25は、入力された音声を音声データに変換するように構成された集音装置である。マイク25は、配信ユーザUa,Ubの音声入力を取得することができるように構成され。マイク25により取得された配信ユーザUa,Ubの音声入力は音声データに変換され、この音声データが通信I/F22を介してサーバ装置60に送信される。
【0030】
視聴ユーザ装置10は、配信ユーザ装置20と同様の構成要素を備えてもよい。例えば、視聴ユーザ装置10は、コンピュータプロセッサ、通信I/F、ディスプレイ、及びカメラを備えてもよい。視聴ユーザ装置10は、所定のアプリケーションソフトウェアをダウンロード及びインストールすることにより、配信ユーザ装置20と同様の機能を奏してもよい。
【0031】
視聴ユーザ装置10及び配信ユーザ装置20は、スマートフォンなどの情報処理装置である。視聴ユーザ装置10及び配信ユーザ装置20は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。視聴ユーザ装置10及び配信ユーザ装置20の各々は、上記の構成要素以外に、ジャイロセンサ等の各種センサを備えるセンサユニット、及び各種情報を記憶するストレージを備えてもよい。
【0032】
次に、サーバ装置60について説明する。図示の実施形態において、サーバ装置60は、コンピュータプロセッサ61と、通信I/F62と、ストレージ63と、を備えている。
【0033】
コンピュータプロセッサ61は、ストレージ63又はその他のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ61は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ61は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。
図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ61は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。
【0034】
通信I/F62は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置60は、通信I/F62を介して、他の装置とデータを送受信することができる。
【0035】
ストレージ63は、コンピュータプロセッサ61によりアクセスされる記憶装置である。ストレージ63は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ63には、様々なプログラムが記憶され得る。ストレージ63に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ装置60とは物理的に別体のストレージ(例えば、ストレージ70)に格納されてもよい。
【0036】
本明細書において、コンピュータプロセッサ21又はコンピュータプロセッサ61によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令はそれぞれ、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21又はコンピュータプロセッサ61によって実行されるプログラム又は当該プログラムに含まれる命令はそれぞれ、複数の仮想コンピュータプロセッサにより実行されてもよい。
【0037】
次に、ストレージ63に記憶されるデータについて説明する。図示の実施形態においては、ストレージ63には、モデルデータ63a、オブジェクトデータ63b、及び前記以外の配信動画の生成及び配信に必要な様々なデータが記憶される。
【0038】
モデルデータ63aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ63aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ63aは、例えば、キャラクタの顔及び顔以外の部分の骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ63aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。
【0039】
オブジェクトデータ63bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ63bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ63bには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。
【0040】
オブジェクトデータ63bには、上記以外にも、ギフトオブジェクトが含まれ得る。ギフトオブジェクトは、動画を視聴している視聴ユーザからのギフトの表示要求に基づいて動画に表示される。ギフトオブジェクトには、エフェクトギフトに対応するエフェクトオブジェクトと、通常ギフトに対応する通常オブジェクトと、装着ギフトに対応する装着オブジェクトと、メッセージギフトに対応するメッセージオブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトを購入することができる。視聴ユーザと配信ユーザ(例えば、配信ユーザUa,Ub)との区別は、ユーザの行為に着目した区別である。例えば、動画配信システム1において、あるユーザが動画を視聴する場合には当該ユーザは視聴ユーザと呼ばれるが、そのユーザが動画を配信する場合には配信ユーザと呼ばれる。
【0041】
エフェクトギフトを示すエフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトである。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられずに表示される点で装着オブジェクトと異なっている。
【0042】
通常ギフトを示す通常オブジェクトは、視聴ユーザから配信ユーザ(例えば、配信ユーザUa,Ub)へのギフトを示すオブジェクトであり、例えばぬいぐるみ、花束、アクセサリ、又は前記以外のギフトやプレゼントに適した物品を模したオブジェクトである。一態様において、通常オブジェクトは、キャラクタオブジェクトと接しないように動画の表示画面に表示される。一態様において、通常オブジェクトは、キャラクタオブジェクトと重複しないように動画の表示画面に表示される。通常オブジェクトは、仮想空間においてキャラクタオブジェクト以外のオブジェクトと重複するように表示されてもよい。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装着オブジェクトと異なっている。一態様において、通常オブジェクトをキャラクタオブジェクトと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタオブジェクトの顔を含む頭部以外の部分と重複し、当該キャラクタオブジェクトの頭部とは重複しないように表示される。一態様において、通常オブジェクトをキャラクタオブジェクトと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタオブジェクトの顔を含む上半身以外の部分と重複し、当該キャラクタオブジェクトの上半身とは重複しないように表示される。
【0043】
装着ギフトを示す装着オブジェクトは、キャラクタオブジェクトの特定の部位(装着部位)と関連付けて表示画面に表示されるオブジェクトである。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装着オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように表示画面に表示される。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装着オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように表示画面に表示される。特定の部位は、3次元座標空間における位置を示す3次元位置情報で特定されてもよいし、3次元座標空間の位置情報に関連付けられていてもよい。例えばキャラクタの頭部において、特定の部位は、頭部の前方左側、前方右側、後方左側、後方右側、中央前側、中央後側、左目、右目、左耳、右耳、及び髪全体という単位で定められてもよい。
【0044】
装着オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリ(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトに装着可能なオブジェクトである。装着オブジェクトに対応するオブジェクトデータ63bには、当該装着オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着部位情報が含まれてもよい。ある装着オブジェクトの装着部位情報は、当該装着オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装着オブジェクトがカチューシャである場合には、当該装着オブジェクトの装着部位情報は、当該装着オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装着オブジェクトが装着される装着部位情報が3次元座標空間の位置として特定される場合には、当該装着部位情報は3次元座標空間における複数の位置と関連付けられてもよい。例えば「カチューシャ」を示す装着オブジェクトが装着される位置を示す装着部位情報は、キャラクタオブジェクトの「頭部後方左側」と「頭部後方右側」の2つの部位と関連付けられてもよい。つまり、「カチューシャ」を示す装着オブジェクトは、「頭部後方左側」及び「頭部後方右側」の両方に装着されてもよい。装着オブジェクトがTシャツである場合には、当該装着オブジェクトの装着部位情報は、当該装着オブジェクトがキャラクタオブジェクトの「胴部」に装着されることを示してもよい。
【0045】
装着部位が共通する2種類の装着オブジェクトは、時間を隔てて動画に表示される。すなわち、装着部位が共通する2種類の装着オブジェクトは、時間を隔ててキャラクタオブジェクトに装着される。言い換えると、装着部位が共通する2種類の装着オブジェクトは、キャラクタオブジェクトに同時には装着されない。例えば、カチューシャを示す装着オブジェクト及び帽子を示す装着オブジェクトに関し、装着部位としていずれも「頭部」が設定されている場合、カチューシャを示す装着オブジェクトと帽子を示す装着オブジェクトとは同時には表示されない。
【0046】
ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装着オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装着オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されてもよい。
【0047】
次に、コンピュータプロセッサ21a,21bにより実現される機能についてより具体的に説明する。コンピュータプロセッサ21aは、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、フェイスモーションデータ生成部211aとして機能する。同様に、コンピュータプロセッサ21bは、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、フェイスモーションデータ生成部211bとして機能する。コンピュータプロセッサ21a,21bにより実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21a,21b以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21a,21bにより実現される機能の少なくとも一部は、例えば、サーバ装置60に搭載されているコンピュータプロセッサ61により実現されてもよい。
【0048】
フェイスモーションデータ生成部211aは、カメラ24aの撮像データに基づいて、配信ユーザUaの顔の動きのデジタル表現であるフェイスモーションデータを生成する。同様に、フェイスモーションデータ生成部211bは、カメラ24bの撮像データに基づいて、配信ユーザUbの顔の動きのデジタル表現であるフェイスモーションデータを生成する。フェイスモーションデータは、時間の経過に伴って随時生成される。フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、フェイスモーションデータ生成部211aにて生成されるフェイスモーションデータは、配信ユーザUaの顔の動き(表情の変化)を時系列的にデジタル表現することができ、フェイスモーションデータ生成部211bにて生成されるフェイスモーションデータは、配信ユーザUbの顔の動き(表情の変化)を時系列的にデジタル表現することができる。フェイスモーションデータ生成部211a,211bにて生成されたフェイスモーションデータは、通信I/F22a,22bを介してサーバ装置60に送信される。
【0049】
配信ユーザ装置20においては、フェイスモーションデータ生成部211aにて生成されるフェイスモーションデータに加えて、配信ユーザUa,Ubの体の顔以外の各部位の位置及び向きのデジタル表現であるボディモーションデータを生成してもよい。配信ユーザ装置20は、フェイスモーションデータに加えて、ボディモーションデータをサーバ装置60に送信してもよい。ボディモーションデータを生成するために、配信ユーザUa,Ubは、モーションセンサを装着してもよい。配信ユーザ装置20は、配信ユーザUa,Ubに装着されたモーションセンサの検出情報に基づいて、ボディモーションデータを生成することができるように構成されてもよい。ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、配信ユーザUa,Ubの体の動きを時系列的にデジタルデータとして表現する。配信ユーザUa,Ubに装着されたモーションセンサの検出情報に基づくボディモーションデータの生成は、例えば、撮影スタジオで行われてもよい。撮影スタジオには、ベースステーションと、トラッキングセンサと、ディスプレイと、が備えられてもよい。ベースステーションは、多軸レーザーエミッターであってもよい。配信ユーザUa,Ubに装着されるモーションセンサは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。撮影スタジオに備えられるベースステーションは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。また、撮影スタジオと別室には、サポーターコンピュータが設置されていてもよい。撮影スタジオのディスプレイは、サポートコンピュータから受信した情報を表示するように構成されてもよい。サーバ装置60は、サポーターコンピュータが設置されている部屋と同じ部屋に設置されてもよい。サポーターコンピュータが設置されている部屋と撮影スタジオとはガラス窓によって隔てられていてもよい。この場合、サポーターコンピュータのオペレータ(本明細書では「サポーター」ということがある。)は、配信ユーザUa,Ubを視認できる。サポーターコンピュータは、サポーターの操作に応じて、撮影スタジオに備えられた各種装置の設定を変更することができるように構成されてもよい。サポーターコンピュータは、例えば、ベースステーションによる走査インターバルの設定、トラッキングセンサの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。サポーターは、サポーターコンピュータにメッセージを入力し、当該入力されたメッセージを撮影スタジオのディスプレイに表示することができる。
【0050】
配信ユーザ装置20は、配信プログラム及び/又はそれ以外のプログラムをコンピュータプロセッサで実行することにより、フェイスモーションデータ生成部211a以外の機能を実現してもよい。例えば、配信ユーザ装置20は、動画視聴用の視聴プログラムを実行することにより受信した動画を再生する機能を実現してもよい。配信プログラムと視聴プログラムとは、一つのアプリケーションソフトウェアにパッケージングされていてもよいし、別個のアプリケーションソフトウェアとして提供されてもよい。
【0051】
視聴ユーザ装置10は、配信ユーザ装置20と同様の機能を提供するように構成されてもよい。例えば、視聴ユーザ装置10は、動画視聴用の視聴プログラムを実行することにより受信した動画を再生する機能を実現してもよく、配信プログラムを実行することによりフェイスモーションデータ生成部211aの機能と同様の機能を実現してもよい
【0052】
次に、コンピュータプロセッサ61により実現される機能についてより具体的に説明する。コンピュータプロセッサ61は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、アニメーション生成部61a、動画生成部61b、動画配信部61c、ギフト要求処理部61d、ギフト購入処理部61e、及び共演申請処理部61fとして機能する。
【0053】
アニメーション生成部61aは、配信ユーザ装置20のフェイスモーションデータ生成部211aによって生成されたフェイスモーションデータを、モデルデータ63aに含まれる所定のモデルデータに適用することにより、キャラクタオブジェクトのアニメーションを生成するように構成される。アニメーション生成部61aは、キャラクタオブジェクトの表情が当該フェイスモーションデータに基づいて変化するように、当該キャラクタオブジェクトのアニメーションを生成することができる。具体的には、アニメーション生成部61aは、配信ユーザUaに関するフェイスモーションデータに基づいて、配信ユーザUaの表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。同様に、アニメーション生成部61aは、配信ユーザUbに関するフェイスモーションデータに基づいて、配信ユーザUbの表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。
【0054】
配信ユーザ装置20から配信ユーザUa,Ubに関するボディモーションデータが提供される場合には、アニメーション生成部61aは、配信ユーザUa,Ubに関するボディモーションデータ及びフェイスモーションデータに基づいて、配信ユーザUa,Ubの体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。
【0055】
動画生成部61bは、配信ユーザUaの動画を配信する場合には、オブジェクトデータ63bを用いて背景を示す背景画像を生成し、この背景画像と、配信ユーザUaに対応するキャラクタオブジェクトのアニメーションと、を含む動画を生成することができる。動画生成部61bは、生成した動画に、配信ユーザ装置20aから受信した音声データに基づいて生成される配信ユーザUaの音声を合成することができる。同様に、動画生成部61bは、配信ユーザUbの動画を配信する場合には、オブジェクトデータ63bを用いて背景を示す背景画像を生成し、この背景画像と、配信ユーザUbに対応するキャラクタオブジェクトのアニメーションと、を含む動画を生成することができる。動画生成部61bは、生成した動画に、配信ユーザ装置20bから受信した音声データに基づいて生成される配信ユーザUbの音声を合成することができる。動画生成部61bによって生成される動画において、配信ユーザUa,Ubに対応するキャラクタオブジェクトは、背景画像に重畳して表示される。以上のようにして、動画生成部61bは、配信ユーザUa又は配信ユーザUbの表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成し、このアニメーションに配信ユーザUa又は配信ユーザUbの音声が合成された配信用の動画を生成することができる。配信ユーザUaのキャラクタオブジェクト及び配信ユーザUbのキャラクタオブジェクトを両方とも含む共演動画については後述する。
【0056】
動画配信部61cは、動画生成部61bにおいて生成された動画を配信する。この動画は、ネットワーク50を介して視聴ユーザ装置10及びこれら以外の視聴ユーザ装置に配信される。生成された動画は、配信ユーザ装置20a,20bにも配信される。受信された動画は、視聴ユーザ装置10及び配信ユーザ装置20a,20bにおいて再生される。
【0057】
動画配信部61cから配信された動画の表示例を
図3及び
図4a~
図4bに示す。これらの図では、配信ユーザUbが配信ユーザ装置20bを用いて、自らのキャラクタオブジェクトを含む動画を配信し、当該動画が視聴ユーザ装置10及び配信ユーザ装置20a,20bにおいて再生されていると想定している。
図4aにおいては、配信ユーザUaは、動画配信を行っておらず、別の配信ユーザである配信ユーザUbによって配信されている動画を視聴していると想定している。後述する
図6、
図7a、及び
図7bについても同様の想定を行う。このため、
図3、
図4a~
図4b、
図6、及び
図7a~
図7bに関する説明においては、配信ユーザUaのことも視聴ユーザと呼ぶことがある。
図3は、視聴ユーザ装置10において再生されている動画の表示例を示し、
図4aは、配信ユーザ装置20aにおいて再生されている動画の表示例を示し、
図4bは、配信ユーザ装置20bにおいて再生されている動画の表示例を示す。
【0058】
図3に示されているように、視聴ユーザ装置10のディスプレイには、サーバ装置60から配信された動画の表示画像30が表示される。この視聴ユーザ装置10に表示されている表示画像30には、アニメーション生成部61aにより生成された配信ユーザUbのキャラクタオブジェクト31と、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、が含まれている。
【0059】
図4aに示されているように、配信ユーザ装置20aのディスプレイには、サーバ装置60から配信された動画の表示画像130が表示される。この表示画像130には、表示画像30と同様に、配信ユーザUbのキャラクタオブジェクト31と、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、が含まれている。これに加えて、表示画像130には、配信ユーザUbが配信している動画において配信ユーザUbとの共演を申請するための共演申請ボタン36が含まれる。配信ユーザ装置20aは、例えば、視聴プログラムを含むアプリケーションソフトウェアを実行することにより、配信された動画の表示画像130を表示することができる。
【0060】
図3に示されているように、一実施形態において、視聴ユーザ装置10の表示画像30には共演申請ボタン36が含まれない。例えば、視聴ユーザ装置10に配信プログラムを含むアプリケーションソフトウェアがダウンロードもしくはインストールされていない場合、及びは、視聴ユーザ装置10において配信プログラムを含むアプリケーションソフトウェアが起動されていない場合に、共演申請ボタン36が含まれないように視聴ユーザ装置10の表示画像30が生成される。他の実施形態では、視聴ユーザ装置10の表示画像30にも共演申請ボタン36を表示してもよい。例えば、視聴ユーザ装置10に配信プログラムを含むアプリケーションソフトウェアがダウンロードもしくはインストールされている場合、または、視聴ユーザ装置10において配信プログラムを含むアプリケーションソフトウェアが起動されている場合に、共演申請ボタン36が含まれるように視聴ユーザ装置10の表示画像30が生成される。
【0061】
キャラクタオブジェクト31は、上記のように、配信ユーザUbのフェイスモーションデータをモデルデータ63aに含まれているモデルデータに適用することにより生成されているため、配信ユーザUbの表情の動きに同期してその表情が変化する。配信ユーザ装置20からボディモーションデータが提供される場合には、キャラクタオブジェクト31は、その顔以外の部位も、配信ユーザUbの体の動きに同期して変化するように制御され得る。
【0062】
ギフトボタン32は、視聴ユーザ装置10への操作によって選択可能に表示画面30に表示されている。ギフトボタン32は、例えば、視聴ユーザ装置10のタッチパネルのうちギフトボタン32が表示されている領域へのタップ操作により選択され得る。一実施形態において、ギフトボタン32が選択されると、表示画面30に、視聴中の動画を配信している配信ユーザ(ここでは、配信ユーザUbである。)にギフティングするギフトを選択するためのウィンドウが表示される。当該視聴ユーザは、当該ウィンドウに表示されているギフトの中からギフティング対象とするギフトを購入することができる。他の実施形態においては、ギフトボタン32が選択されたことに応じて、表示画面30に、購入済みのギフトの一覧を含むウィンドウが表示される。この場合、当該視聴ユーザは、当該ウィンドウに表示されているギフトの中からギフティング対象とするギフトを選択することができる。ギフティング又は購入可能なギフトには、エフェクトギフト、通常ギフト、装着ギフト、及びこれら以外のギフトが含まれ得る。
【0063】
評価ボタン33は、視聴ユーザ装置10を使用する視聴ユーザによって選択可能に表示画面30に表示されている。評価ボタン33は、例えば、視聴ユーザ装置10のタッチパネルのうち評価ボタン33が表示されている領域へのタップ操作により選択され得る。動画を視聴中の視聴ユーザによって評価ボタン33が選択されると、当該動画への肯定的な評価がなされたことを示す評価情報がサーバ装置60に送信されてもよい。サーバ装置60は、視聴ユーザ装置10及びこれ以外の視聴ユーザ装置からの評価情報を集計することができる。評価ボタン33の選択により、当該動画への否定的な評価がなされたことを示す評価情報がサーバ装置60に送信されてもよい。動画への肯定的な評価を示す評価情報をポジティブ評価情報と呼び、動画への否定的な評価がなされたことを示す評価情報をネガティブ評価情報と呼んでもよい。
【0064】
コメントボタン34は、ユーザによって選択可能に表示画面30に表示される。コメントボタン34が例えばタップ操作により選択されると、コメントを入力するためのコメント入力ウィンドウが表示画面30に表示される。視聴ユーザは、視聴ユーザ装置10又は配信ユーザ装置20aの入力機構を介してコメントを入力することができる。入力されたコメントは、視聴ユーザ装置10及び配信ユーザ装置20aからサーバ装置60に送信される。サーバ装置60は、視聴ユーザ装置10、配信ユーザ装置20a、及びこれら以外のユーザ装置からのコメントを受け付け、当該コメントを表示画像30内のコメント表示領域35に表示する。コメント表示領域35には、各ユーザから投稿されたコメントが、例えば時系列に表示される。コメント表示領域35は、表示画面30の一部の領域を占める。コメント表示領域35に表示可能なコメント数には上限がある。図示の例では、コメント表示領域35には3つまでコメントが表示され得る。コメント表示領域35に設定されている上限を超えたコメントの投稿がなされた場合には、投稿時間が古いコメントから順にコメント表示領域35から削除される。このため、受け付けるコメントの頻度が高くなるほどコメント領域35における各コメントの表示時間は短くなる。
【0065】
図4bに示されているように、配信ユーザ装置20bのディスプレイには、サーバ装置60から配信された動画の表示画像40が表示される。この配信ユーザ装置20bに表示される表示画像40には、配信ユーザUbに対応するキャラクタオブジェクト31と、視聴ユーザによって表示要求がなされた装着ギフトを表示するための表示指示ボタン42a~42cと、コメント表示領域35と、が含まれている。配信ユーザ装置20bに表示される表示画像40には、表示画像30及び表示画像130と同じ背景画像、キャラクタオブジェクト画像、及びコメントが含まれている。他方、表示画像40は、ギフトボタン32、評価ボタン33、コメントボタン34、及び共演申請ボタン36を含んでおらず、表示指示ボタン42a~42cを含んでいる点で表示画像30及び表示画像130と異なっている。
【0066】
表示指示ボタン42a~42cは、視聴ユーザから後述する装着ギフトを表示するための表示要求を受け付けたことに応じて表示画面40に表示される。図示の実施形態においては、表示画像40に3つの表示指示ボタン42a~42cが表示されている。表示指示ボタン42a~42cの各々は、配信ユーザによって選択可能に表示画面40に表示される。表示指示ボタン42a~42cのいずれかが例えばタップ操作により選択されると、この選択された表示指示ボタンに対応する装着ギフトを表示するための操作が行われる。このように、表示指示ボタン42a~42cは、装着ギフトを配信中の動画に表示させる指示を行うための表示指示オブジェクトである。このため、本明細書においては、表示指示ボタン42a~42cを表示指示オブジェクト42a~42cと呼ぶことがある。また、表示指示オブジェクト42a~42cを互いに区別する必要がない場合には、単に表示指示オブジェクト42と呼ぶことがある。装着ギフトの表示の具体例については後述する。表示画面40は、上記のサポーターコンピュータに表示されてもよい。表示指示オブジェクト42a~42cは、サポーターによる当該サポーターコンピュータの操作に応じて選択されてもよい。
【0067】
装着ギフトの表示を要求する表示要求が受け付けられるたびに、当該表示要求に対応する表示指示オブジェクト42が表示画面40に追加される。表示画面40に表示可能な表示指示オブジェクト42の数には上限がある。図示の実施形態では、表示画面40に表示可能な表示指示オブジェクト42の上限数は3である。この場合、表示画面40には、表示指示オブジェクトを3つ表示できる表示領域を有している。装着ギフトの表示要求を4以上受け付けた場合には、4番目以降の表示要求に対応する表示指示オブジェクト42は表示画面40には表示されない。4番目に受け付けられた装着ギフトの表示要求に対応する表示指示オブジェクト42は、既に表示されている3つの表示指示オブジェクト42のうちのいずれかが選択されて、表示領域に空きができた場合に表示画面40に表示される。
【0068】
ギフト要求処理部61dは、視聴ユーザからギフトの表示要求を受け付け、当該表示要求に応じたギフトオブジェクトを表示するための処理を行う。各視聴ユーザは、自らの視聴ユーザ装置を操作することにより、ギフトの表示要求をサーバ装置60に送信することができる。ギフトの表示要求には、視聴ユーザのユーザIDと、表示を要求するギフトを特定するギフト識別情報(ギフトID)及び/又は表示を要求するギフトに対応するギフトオブジェクトを特定するギフトオブジェクト識別情報(ギフトオブジェクトID)と、が含まれてもよい。
【0069】
上述のように、ギフトを示すギフトオブジェクトには、エフェクトギフトに対応するエフェクトオブジェクトと、通常ギフトに対応する通常オブジェクトと、装着ギフトに対応する装着オブジェクトと、が含まれ得る。装着ギフトは、第1ギフトの例である。装着オブジェクトを第1ギフトオブジェクトと呼ぶことがある。装着ギフト(または装着オブジェクト)の表示を要求する表示要求は、第1表示要求の例である。エフェクトギフト及び通常ギフトは、第2ギフトの例である。エフェクトオブジェクト及び通常オブジェクトを総称して第2ギフトオブジェクトと呼ぶことがある。エフェクトギフト(もしくはエフェクトオブジェクト)または通常ギフト(もしくは通常オブジェクト)の表示を要求する表示要求は、第2表示要求の例である。
【0070】
一態様において、ギフト要求処理部61dは、視聴ユーザから特定の通常ギフトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された通常ギフトを示す通常オブジェクトを動画に表示させるための処理を行う。例えば、バッグを示す通常ギフトの表示要求がなされた場合には、
図5に示すように、ギフト要求処理部61dにより当該表示要求に基づいてバッグを示す通常オブジェクト37aが表示画像30に表示される。同様に、熊のぬいぐるみを示す通常ギフトの表示要求がなされた場合には、
図5に示すように、ギフト要求処理部61dにより当該表示要求に基づいて熊のぬいぐるみを示す通常オブジェクト37bが表示画像30に表示される。図示を省略しているが、配信ユーザ装置20aにおける表示画像130及び配信ユーザ装置20bにおける表示画像40にも、表示画像30と同様に、通常オブジェクト37a,37bが表示される。
【0071】
一態様において、ギフト要求処理部61dは、視聴ユーザから特定のエフェクトギフトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求されたエフェクトギフトに対応するエフェクトオブジェクトを動画の表示画像に表示させるための処理を行う。例えば、紙吹雪や花火を示すエフェクトギフトの表示要求がなされた場合には、ギフト要求処理部61dは、図当該表示要求に基づいて紙吹雪や花火を示すエフェクトギフトに対応するエフェクトオブジェクト(不図示)が表示画像30、表示画像130、及び表示画像40に表示される。
【0072】
通常ギフトの表示要求には、当該通常ギフトを示す通常オブジェクトの表示位置を指定する表示位置指定パラメータが含まれてもよい。この場合、ギフト要求処理部61dは、表示位置指定パラメータによって指定された位置に通常オブジェクトを表示することができる。キャラクタオブジェクト31の表示位置及び表示範囲が定められている場合には、表示位置指定パラメータによって、当該キャラクタオブジェクト31に対する相対的な位置が通常オブジェクトの表示位置として指定され得る。
【0073】
一態様において、通常オブジェクトは、動画の表示画像30内で移動するように表示されてもよい。例えば、通常オブジェクト37a,37bは、画面の上から下に向かって落下するように表示されてもよい。この場合、通常オブジェクト37a,37bは、落下開始から表示画像30の下端まで落下する間当該表示画像30内に表示され、表示画像30の下端に落下した後に当該表示画像30から消滅してもよい。通常オブジェクト37a,37bの画面内での移動方向は任意に設定され得る。例えば、通常オブジェクト37a,37bは、表示画像30において、左から右へ、右から左へ、左上から左下へ、またはこれら以外の方向に移動してもよい。通常オブジェクト37a,37bは、様々な軌道上を移動することができる。例えば、通常オブジェクト37a,37bは、直線軌道上、円軌道上、楕円軌道上、螺旋軌道上、またはこれら以外の軌道上を移動することができる。視聴ユーザは、通常オブジェクトの表示要求に、表示位置指定パラメータに加えてまたは表示位置指定パラメータに代えて、通常オブジェクト37a,37bの移動方向を指定する移動方向パラメータ及び通常オブジェクト37a,37bが移動する軌道を指定する軌道パラメータの少なくとも一方を含めることができる。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより小さいものは、キャラクタオブジェクト31に、その一部又は全部を重複させて表示してもよい。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、表示画像30における大きさが基準となる大きさより大きいものは、キャラクタオブジェクト31と重複しない位置に表示される。別の一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいものは、キャラクタオブジェクト31の後ろに表示されてもよい。通常オブジェクト37a,37bは、表示画像130及び表示画像40においても上記のように移動するように表示されてもよい。
【0074】
一態様において、ギフト要求処理部61dは、視聴ユーザから特定の装着オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、
図4bに示すように、配信ユーザ装置20における表示画面40に表示指示オブジェクト42a~42cを表示する。この表示指示オブジェクト42a~42cの各々は、表示要求がなされた装着ギフトと対応付けられている。表示指示オブジェクト42a~42cのいずれかが選択されると、その選択された表示指示オブジェクトに対応付けられている装着ギフトが配信中の動画に表示される。例えば、表示指示オブジェクト42bに猫耳を模したカチューシャが対応付けられている場合に、表示指示オブジェクト42bが選択されると、ギフト要求処理部61dは、選択された表示指示オブジェクト42bに対応するカチューシャを示す装着オブジェクト38を配信中の動画に表示させる。カチューシャを示す装着オブジェクト38を含む動画の表示例が
図6及び
図7a~
図7bに示されている。また、
図7bに示されているように、選択された表示指示オブジェクト42bは、表示画面40から削除される。
【0075】
装着オブジェクトは、キャラクタオブジェクトの特定の部位(装着部位)と関連付けて動画内に表示される。例えば、装着オブジェクトは、キャラクタオブジェクトの当該装着部位に接するように動画内に表示されてもよい。装着オブジェクト38は、キャラクタオブジェクトの当該装着部位に装着されるように動画内に表示されてもよい。一実施形態において、カチューシャを示す装着オブジェクト38は、キャラクタオブジェクトの頭部と対応付けられている。このため、
図6及び
図7a~
図7bに示されている表示例では、装着オブジェクト38がキャラクタオブジェクト31の頭部に装着されている。装着オブジェクトは、キャラクタオブジェクトの当該装着部位の動きに付随して動くように動画の表示画面内に表示されてもよい。例えば、カチューシャを示す装着オブジェクト38を装着したキャラクタオブジェクト31の頭部が動くと、あたかもカチューシャがキャラクタオブジェクト31の頭部に装着されているかのごとく、カチューシャを示す装着オブジェクト38もキャラクタオブジェクト31の頭部に付随して動く。
【0076】
上述したように、オブジェクトデータ63bは、装着オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着部位情報を含んでもよい。一態様において、ギフト要求処理部61dは、キャラクタオブジェクトに装着オブジェクトが装着されている場合には、当該装着オブジェクトの表示時間が経過するまでは、当該装着オブジェクトの装着部位情報が示す部位と同じ又は重複する部位に装着される他の装着オブジェクトの表示を禁止する。例えば、「頭部後方左側」及び「頭部後方右側」の両方に関連付けられたカチューシャと、「頭部後方左側」に関連付けられたヘアアクセサリとは、「頭部後方左側」が重複しているため、カチューシャが表示されている場合には、装着部位情報として「頭部後方左側」が設定されているヘアアクセサリの表示は禁止される。一方、「頭部後方左側」及び「頭部後方右側」に関連付けられたカチューシャと、「(頭部のうち)左耳」及び「(頭部のうち)右耳」に関連付けられたイヤリングは、キャラクタオブジェクトにおける装着部位が重複していないため、同時に装着することができる。
【0077】
一実施形態においては、装着部位が同じ又は重複する複数の装着オブジェクトの表示を禁止するために、表示が禁止される装着オブジェクトを表示するための表示指示オブジェクト42がディアクティベートされてもよい。
図4bに示されている実施形態において、表示指示オブジェクト42aは、装着部位情報として「頭部後方左側」が設定されたヘアアクセサリの表示を指示するためのオブジェクト(ボタン)であると想定する。この場合、このヘアアクセサリを示す装着オブジェクトは、キャラクタオブジェクト31がカチューシャを示す装着オブジェクト38を装着中であるため、装着オブジェクト38がキャラクタオブジェクト31に装着されている間は、動画への表示が禁止される。一実施形態においては、このヘアアクセサリを示す装着オブジェクトの動画への表示を禁止するために、当該ヘアアクセサリを示す装着オブジェクトに対応付けられている表示指示オブジェクト42aがディアクティベートされる。例えば、表示指示オブジェクト42aは、装着オブジェクト38がキャラクタオブジェクト31に装着されている間、操作されても選択不能とされる。別の実施形態において、装着オブジェクト38がキャラクタオブジェクト31に装着されている間、表示指示オブジェクト42aは、表示画面40から消去される。ディアクティベートされた表示指示オブジェクト42aは、カチューシャの表示時間が経過したことに応じて、再びアクティベートされる。表示指示オブジェクト42aを再びアクティベートするために、例えば、選択不能とされていた表示指示オブジェクト42aが再び選択可能とされてもよいし、非表示となっていた表示指示オブジェクト42aを再び表示画面40に表示させてもよい。
【0078】
一態様において、ギフト購入処理部61eは、動画の視聴ユーザからの要求に応じて、当該動画に関連して購入可能な複数のギフトオブジェクトの各々の購入情報を当該視聴ユーザの視聴ユーザ装置(例えば、視聴ユーザ装置10及び配信ユーザ装置20a)に送信する。各ギフトオブジェクトの購入情報には、当該ギフトオブジェクトの種類(エフェクトオブジェクト、通常オブジェクト、または装着オブジェクト)、当該ギフトオブジェクトの画像、当該ギフトオブジェクトの価格、及びこれら以外のギフトオブジェクトの購入に必要な情報が含まれ得る。視聴ユーザは、視聴ユーザ装置10又は配信ユーザ装置20aに表示されているギフトオブジェクトの購入情報に基づいて、購入するギフトオブジェクトを選択することができる。購入対象のギフトオブジェクトの選択は、視聴ユーザ装置10又は配信ユーザ装置20aの操作により行われてもよい。購入対象のギフトオブジェクトが視聴ユーザによって選択されると、当該ギフトオブジェクトの購入要求がサーバ装置60に送信される。ギフト購入処理部61eは、当該購入要求に基づいて、決済処理を行う。この決済処理が完了すると、当該購入されたギフトオブジェクトは、当該視聴ユーザによって保有される。ストレージ23に、ギフトを購入した視聴ユーザのユーザIDと対応づけて、購入されたギフトのギフトID(又は当該ギフトを示すギフトオブジェクトのギフトオブジェクトID)が記憶されてもよい。
【0079】
購入可能なギフトオブジェクトは、動画ごとに異なっていてもよい。購入可能なギフトオブジェクトは、複数の動画において購入可能であってもよい。つまり、購入可能なギフトオブジェクトには、各動画に固有の固有ギフトオブジェクトと、複数の動画において購入可能な共通ギフトオブジェクトと、が含まれてもよい。例えば、紙吹雪を示すエフェクトオブジェクトは、複数の動画において購入可能な共通ギフトオブジェクトであってもよい。
【0080】
一態様においては、所定の動画を視聴中にエフェクトオブジェクトを購入した場合、当該エフェクトオブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象のエフェクトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。所定の動画を視聴中に通常オブジェクトを購入した場合、上記と同様に、当該通常オブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象の通常ギフトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。
【0081】
他の態様においては、購入対象のエフェクトオブジェクトについてギフト購入処理部61eにおける決済処理が完了したことに応じて、決済完了通知が視聴ユーザ装置10に送信され、当該視聴ユーザ装置10において、購入されたエフェクトオブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が表示されてもよい。視聴ユーザが、当該購入されたエフェクトオブジェクトについて表示要求を行うことを選択した場合には、当該購入されたエフェクトオブジェクトの表示を要求する表示要求が、当該視聴ユーザのクライアント装置からギフト要求処理部61dに送信され、ギフト要求処理部61dにおいて、当該購入対象のエフェクトオブジェクトを動画70に表示させる処理が行われてもよい。購入対象が通常オブジェクトの場合にも、上記と同様に、購入された通常オブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が視聴ユーザ装置10に表示されてもよい。
【0082】
共演申請処理部61fは、一の配信ユーザに対して他の配信ユーザから共演申請があった場合に、当該共演申請に基づいて、当該一の配信ユーザと当該他の配信ユーザとが仮想的に共演する共演動画を生成する。以下では、配信ユーザUbのキャラクタオブジェクト31を含む動画を視聴している配信ユーザUaから配信ユーザUbとの共演申請がなされるケースを想定して説明を行う。共演申請処理部61fは、配信ユーザUaからの共演申請だけでなく、様々な配信ユーザからの共演申請に基づいて共演動画を生成することができる。
【0083】
一実施形態において、共演申請処理部61fは、配信ユーザUaからの共演申請を受け付け、当該共演申請に応じて共演動画を生成する。配信ユーザUaは、配信ユーザ装置20aを操作することにより、共演申請をサーバ装置60に送信することができる。具体的には、配信ユーザ装置20aに表示されている共演申請ボタン36が選択されると、配信ユーザ装置20aからサーバ装置60に対して共演申請が送信される。共演申請ボタン36は、例えば、配信ユーザ装置20aのタッチパネルのうち共演申請ボタン36が表示されている領域へのタップ操作により選択され得る。共演申請ボタン36が選択されたことに応じて、配信ユーザ装置20aにおいて配信プログラムを含むアプリケーションソフトウェアが起動されてもよい。配信ユーザ装置20aから送信される共演申請には、配信ユーザUaを識別するユーザIDが含まれてもよい。
【0084】
配信ユーザ装置20aから共演申請を受け付けたことに応じて、共演申請処理部61fは、当該共演申請を許可するか否かを決定する。共演申請処理部61fは、共演申請を行った配信ユーザUaに関する様々な情報に基づいて共演可否を決定することができる。例えば、配信ユーザUaに対する他のユーザからの評価が所定の基準より高い場合に配信ユーザUaからの共演申請を許可することができ、逆に、配信ユーザUaに対する他のユーザからの評価が所定の基準よりも低い場合には配信ユーザUaからの共演申請を拒否することができる。また、配信ユーザUaからの共演申請を許可するか否かを配信ユーザUbに問い合わせ、その回答に応じて共演の可否を決定してもよい。
【0085】
一実施形態において、配信ユーザUaからの共演申請が許可された場合には、共演申請処理部61fは、配信ユーザUaと配信ユーザUbとが共演する共演動画を生成する。共演動画の生成のために、共演申請処理部61fは、配信ユーザUaから、当該配信ユーザUaのフェイスモーションデータ及び音声データを取得する。配信ユーザUaのフェイスモーションデータは、共演申請とともに配信ユーザ装置20aからサーバ装置60に送信されてもよいし、共演申請が許可された後にサーバ装置60からの要求に応じて配信ユーザ装置20aからサーバ装置60に送信されてもよい。配信ユーザUaの体の動きもアニメーションとして表現される場合には、配信ユーザUaのフェイスモーションデータとともにボディモーションデータがサーバ装置60に提供されてもよい。共演申請処理部61fは、配信ユーザUaからフェイスモーションデータが取得できない場合には、配信ユーザUaから音声データのみを取得してもよい。例えば、配信ユーザUaが使用する配信ユーザ装置20aがフェイスモーションデータ生成部211aの機能またはこれ以外の動画配信のための機能を備えていない場合、当該機能がディスエーブルされている場合、及びこれら以外の場合には、共演申請処理部61fは、配信ユーザUaからフェイスモーションデータ(及びボディモーションデータ)を取得せず音声データを取得してもよい。
【0086】
一実施形態において、共演申請処理部61fは、配信ユーザUaのフェイスモーションデータに基づいて、配信ユーザUbのキャラクタオブジェクト31を含む動画に、配信ユーザUaのキャラクタオブジェクトのアニメーションを追加することで、共演画像を生成する。配信ユーザUaのキャラクタオブジェクトのアニメーションは、アニメーション生成部61aにおいて、配信ユーザUaのフェイスモーションデータに基づいて生成されてもよい。配信ユーザUaのキャラクタオブジェクトのアニメーションは、配信ユーザUaのフェイスモーションデータをモデルデータ63aに含まれている配信ユーザUa用のモデルデータに適用することにより生成されてもよい。例えば、共演申請処理部61fは、配信ユーザUaのキャラクタオブジェクトのアニメーションを含むレイヤーを生成し、このレイヤーを配信ユーザUbのキャラクタオブジェクト31を含む動画に重畳することで、配信ユーザUaのキャラクタオブジェクト及び配信ユーザUbのキャラクタオブジェクト31を含む共演動画を生成することができる。共演申請処理部61fは、配信ユーザUaからフェイスモーションデータ(及びボディモーションデータ)を取得せず音声データを取得した場合には、配信ユーザUbのキャラクタオブジェクト31を含む動画に、配信ユーザUaから取得した音声データに基づいて生成される音声を重畳することで、配信ユーザUbのキャラクタオブジェクト31と配信ユーザUaの音声とを含む共演動画を生成することができる。共演申請処理部61fは、モデルデータ63aとして配信ユーザUa用のモデルデータが設定されていない場合にも、配信ユーザUbのキャラクタオブジェクト31を含む動画に、配信ユーザUaから取得した音声データに基づいて生成される音声を重畳することで、配信ユーザUbのキャラクタオブジェクト31と配信ユーザUaの音声とを含む共演動画を生成することができる。このように、配信ユーザUaは、自らの音声により配信ユーザUbと共演することができる。
【0087】
共演申請処理部61fは、配信ユーザUaからフェイスモーションデータを取得できない場合に配信ユーザUaの音声と配信ユーザUbのキャラクタオブジェクト31を含む共演動画を配信し、その後配信ユーザUaからフェイスモーションデータを取得したタイミングで、配信ユーザUaのフェイスモーションデータに基づいて配信ユーザUaのキャラクタオブジェクトを生成することで、配信ユーザUaのキャラクタオブジェクト及び配信ユーザUbのキャラクタオブジェクト31を含む共演動画を生成することができる。このように、共演申請処理部61fは、配信ユーザUaの音声と配信ユーザUbのキャラクタオブジェクト31を含む共演動画を、配信ユーザUaのキャラクタオブジェクト及び配信ユーザUbのキャラクタオブジェクト31を含む共演動画に切り替えることができる。これとは逆に、共演申請処理部61fは、配信ユーザUaのキャラクタオブジェクト及び配信ユーザUbのキャラクタオブジェクト31を含む共演動画を、配信ユーザUaの音声と配信ユーザUbのキャラクタオブジェクト31を含む共演動画に切り替えることができる。このように、音声による共演が行われている共演動画(「音声共演動画」と呼ぶことがある。)とキャラクタオブジェクトによる共演が行われている共演動画(「キャラクタ共演動画」と呼ぶことがある。)とは、交互に切り替え可能とされてもよい。
【0088】
生成された共演動画は、動画配信部61cにより配信される。共演動画は、配信ユーザ装置20aで作成されてもよい。共演動画が配信ユーザ装置20aで生成される場合には、当該共演動画が配信ユーザ装置20aからサーバ装置60に送信され、サーバ装置60の動画配信部61cにより配信される。
【0089】
動画配信部61cから配信された共演動画の表示例を
図8及び
図9a~
図9bに示す。これらの図では、配信ユーザUbが配信している動画に対して配信ユーザUaが共演申請をして、その結果、配信ユーザUaのキャラクタオブジェクト及び配信ユーザのキャラクタオブジェクトを含む共演動画が配信されており、配信ユーザUaは、
図7aに示されている画像を視聴中に共演申請ボタン36を選択したと想定されている。
【0090】
図8に示されているように、視聴ユーザ装置10のディスプレイには、サーバ装置60から配信された共演動画の表示画像230が表示される。この視聴ユーザ装置10に表示されている共演動画の表示画像230には、配信ユーザUbのキャラクタオブジェクト31に加えて、配信ユーザUaのキャラクタオブジェクト131が含まれている。配信ユーザUaのキャラクタオブジェクト131は、上記のように、アニメーション生成部61a又は共演申請処理部61fにおいて生成される。共演動画の表示画像230は、
図3に示されている元の配信画像と同様に、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、を含んでいる。
【0091】
共演動画の配信画像230は、図示のとおり、横長の画像である。共演申請処理部61f又は動画配信部61cは、共演画像を配信する場合、横長の画像として配信する。これにより、視聴ユーザ装置10には、共演動画の配信画像230が横長の画像として表示される。一実施形態においては、
図3に示されているように、元の動画(画像)が縦長だとしても、共演画像は横長に変換されて配信される。共演画像は、二人の配信ユーザのキャラクタオブジェクトを含むため、横長の画像とすることにより、二人分のキャラクタオブジェクトを重複なく表示しやすくなる。例えば、共演画像においては、視聴ユーザの視点で向かって左半分を元の配信ユーザのキャラクタオブジェクトに割り当てられる領域とし、右半分を共演申請を行った配信ユーザのキャラクタオブジェクトに割り当てられる領域としてもよい。各配信ユーザへの領域の割り当ては、キャラクタオブジェクト同士が重複しないように任意に定められてもよい。
【0092】
図9a及び
図9bに示されているように、配信ユーザ装置20a及び配信ユーザ装置20bのディスプレイには、サーバ装置60から配信された共演動画の表示画像330が表示される。この表示画像330には、表示画像230と同じ背景画像、キャラクタオブジェクト画像、及びコメントが含まれている。他方、表示画像330は、ギフトボタン32、評価ボタン33、及びコメントボタン34を含んでおらず、表示指示ボタン42a,42c,42dを含んでいる点で表示画像230と異なっている。配信ユーザUa及び配信ユーザUbは、同じ共演画像の配信者となっているため、配信ユーザUaの配信ユーザ装置20aと配信ユーザUbの配信ユーザ装置20bには同じ表示画像330が表示されている。表示画像330も表示画像230と同様に、複数のキャラクタオブジェクトを重複なく配置するという観点から横長に表示されている。
図8及び
図9a~
図9bに示されている例では、
図8に示されている共演画像を視聴している視聴ユーザからイヤリングを示す装着ギフトの表示要求(第1表示要求)がなされ、その結果、当該表示要求に応じて配信ユーザ装置20a及び配信ユーザ装置20bの表示画像には、表示指示オブジェクト42dが追加されていると想定する。表示指示オブジェクト42dは、装着部位情報として「耳」が設定されたイヤリングの表示を指示するためのオブジェクト(ボタン)である。
【0093】
図9a及び
図9bに示されている共演動画において配信ユーザUaと配信ユーザUbとが共演している場合、配信ユーザUaは配信ユーザ装置20aに表示されている表示指示オブジェクト42dを選択することにより、表示指示オブジェクト42dに対応する装着ギフトを自らのキャラクタオブジェクト131に装着することができる。同様に、配信ユーザUbは配信ユーザ装置20bに表示されている表示指示オブジェクト42dを選択することにより、表示指示オブジェクト42dに対応する装着ギフトを自らのキャラクタオブジェクト31に装着することができる。表示指示オブジェクト42dに対応する装着ギフトは、配信ユーザUaのキャラクタオブジェクト131及び配信ユーザUbのキャラクタオブジェクト31の一方又は両方に装着される。
【0094】
配信ユーザUbによって表示指示オブジェクト42dが選択された場合には、配信ユーザ装置20bからサーバ装置60に対して表示指示オブジェクト42dが選択されたことを示す選択通知が送信される。サーバ装置60では、ギフト要求処理部61dにより、表示指示オブジェクト42dに対応するイヤリングを示す装着オブジェクト138を配信中の共演動画に表示させる。イヤリングを示す装着オブジェクト138には、装着部位として「耳」が設定されているので、装着オブジェクト138はキャラクタオブジェクト31の耳に装着される。イヤリングを示す装着オブジェクト138を装着したキャラクタオブジェクト31を含む動画の表示例が
図10及び
図11a~
図11bに示されている。また、
図11a及び
図11bに示されているように、選択された表示指示オブジェクト42dは、表示画面330から削除されてもよい。配信ユーザUbによって表示指示オブジェクト42dが選択された場合にその表示指示オブジェクト42dを表示画面330から削除しなくともよい。この場合、共演相手の配信ユーザUaも表示指示オブジェクト42dを選択することができる。配信ユーザUaによって表示指示オブジェクト42dが選択されると、装着オブジェクト138が配信ユーザUaのキャラクタ131に装着される。共演している配信ユーザUaと配信ユーザUbのうちの一方により表示指示オブジェクト42dが選択された場合、その選択を行った配信ユーザの配信ユーザ装置に表示される表示画面から表示指示オブジェクト42dを削除し、選択を行っていない配信ユーザの配信ユーザ装置の表示画面には表示指示オブジェクト42dを継続して表示してもよい。例えば、配信ユーザUbが表示指示オブジェクト42dを選択し配信ユーザUaは表示指示オブジェクト42dを選択していない場合には、配信ユーザUbの配信ユーザ装置20bの表示画面330からは表示指示オブジェクト42dを削除し、配信ユーザUaの配信ユーザ装置20aの表示画面330には表示指示オブジェクト42dをそのまま表示しておいてもよい。これにより、配信ユーザUaは、配信ユーザUbよりも後のタイミングで表示指示オブジェクト42dを選択し、自らのキャラクタオブジェクト131に装着オブジェクト138を装着させることができる。
【0095】
配信ユーザUaによって表示指示オブジェクト42dが選択された場合には、配信ユーザ装置20aからサーバ装置60に対して表示指示オブジェクト42dが選択された旨が通知される。サーバ装置60では、ギフト要求処理部61dにより、表示指示オブジェクト42dに対応するイヤリングを示す装着オブジェクト138が配信ユーザUaのキャラクタ131に装着された共演動画が生成される。イヤリングを示す装着オブジェクト138を装着したキャラクタオブジェクト31を含む動画の表示例が
図12及び
図13a~
図13bに示されている。
【0096】
配信ユーザUaと配信ユーザUbとが共演動画において共演している場合、装着ギフトを表示するための表示指示オブジェクト(例えば、表示指示オブジェクト42a~42d)は、配信ユーザUaの配信ユーザ装置20aと配信ユーザUbの配信ユーザ装置20bの少なくとも一方に表示される。
図9a及び
図9bに示されている実施形態では、表示指示オブジェクト42a,42c,42dが配信ユーザ装置20a及び配信ユーザ装置20bの両方に表示されている。この場合、配信ユーザUa及び配信ユーザUbのいずれもが表示指示オブジェクト42a,42c,42dを選択することができる。一実施形態において、配信ユーザUa及び配信ユーザUbのうちの一方が表示されている表示指示オブジェクトを選択すると、他方のユーザはその選択された表示指示オブジェクトを選択できなくなる。例えば、
図11a及び
図11bに示されているように、配信ユーザUbによって表示指示オブジェクト42dが選択された場合、配信ユーザUbの配信ユーザ装置20bに表示されている表示画像330から表示指示オブジェクト42dが削除されるとともに、配信ユーザUaの配信ユーザ装置20aに表示されている表示画像330からも表示指示オブジェクト42dが削除される。これにより、配信ユーザUbによって表示指示オブジェクト42dが選択された後は、共演相手である配信ユーザUaによる当該表示指示オブジェクト42dの選択はできなくなる。これとは逆に、配信ユーザUaによって表示指示オブジェクト42dが選択された後は、共演相手である配信ユーザUbによる当該表示指示オブジェクト42dの選択はできなくなる。
【0097】
他の実施形態においては、視聴ユーザが装着ギフトをギフティングするときに、共演動画で共演している配信ユーザのいずれに対してギフティングを行うかを指定することができる。より具体的には、視聴ユーザは、装着ギフトの表示を要求する第1表示要求に、共演動画において共演している配信ユーザのうちのどのユーザに対して当該装着ギフトをギフティングするのか指定することができる。例えば、
図8及び
図9a~
図9bに示されている実施形態においては、
図8に示されている共演画像を視聴しているユーザは、ギフトボタン32を選択することにより、ギフティング対象として装着ギフトを選択し、さらに選択した装着ギフトのギフティング先として配信ユーザUa又は配信ユーザUbを選択することができる。配信ユーザUa又は配信ユーザUbの選択は、それぞれのキャラクタオブジェクト131又はキャラクタオブジェクト31の選択を通じて行われてもよい。上述したイヤリングを示す装着ギフトの表示要求において配信ユーザUb(キャラクタオブジェクト31)が指定してされている場合には、当該装着ギフトに対応する表示指示オブジェクト42dは、配信ユーザUbの配信ユーザ装置20bに表示され、指定されていない配信ユーザUaの配信ユーザ装置20aには表示されなくともよい。他の態様において、イヤリングを示す装着ギフトの表示要求において配信ユーザUb(キャラクタオブジェクト31)が指定してされている場合には、当該装着ギフトに対応する表示指示オブジェクト42dは、配信ユーザUaの配信ユーザ装置20a及び配信ユーザUbの配信ユーザ装置20bの両方に表示されるが、指定されていない配信ユーザUaの配信ユーザ装置20aからは当該表示指示オブジェクト42dが選択できなくされてもよい。このように、装着ギフトの表示要求においてギフティング先が指定されている場合には、指定された配信ユーザの配信ユーザ装置においては当該装着ギフトに対する表示指示オブジェクトが選択可能とされ、指定された配信ユーザ以外の配信ユーザの配信ユーザ装置においては当該装着ギフトに対する表示指示オブジェクトが選択不能とされる。
【0098】
他の実施形態においては、表示指示オブジェクトは、共演動画の元となる動画を配信していた配信ユーザの配信ユーザ装置においてのみ選択可能とされてもよい。
図8及び
図9a~
図9bに表示されている例では、元々は配信ユーザUbが配信していた動画に配信ユーザUaが共演申請を行ったため、表示指示オブジェクト42a,42c,42dは、配信ユーザUbの配信ユーザ装置20bにおいて選択可能とされる一方で、配信ユーザUaの配信ユーザ装置20aでは選択不能としてもよい。例えば、表示指示オブジェクト42a,42c,42dは、配信ユーザ装置20bにおいて表示される一方で、配信ユーザUaの配信ユーザ装置20aには表示されなくともよい。
【0099】
共演している配信ユーザが表示指示オブジェクトを選択して装着ギフトの表示を行う場合には、その選択された装着ギフトが装着されるキャラクタオブジェクトを指定してもよい。例えば、配信ユーザUbが表示指示オブジェクト42dを選択して装着ギフト138を共演動画において表示させる場合、自らのキャラクタオブジェクト31に装着させてもよいし、共演相手である配信ユーザUaのキャラクタ131に装着させてもよい。例えば、配信ユーザ装置20bにおいて表示指示オブジェクト42dが選択された場合には、当該配信ユーザ装置20bにキャラクタオブジェクトの選択肢が表示されてもよい。
【0100】
次に、
図14~
図16を参照して、一態様による動画配信処理について説明する。
図14は、一実施形態における動画配信処理の流れを示すフロー図であり、
図15は、一実施形態における通常オブジェクトを表示する処理の流れを示すフロー図であり、
図16は、一実施形態における装着オブジェクトを表示する処理の流れを示すフロー図である。これらの図を参照して説明される動画配信処理においては、配信ユーザUbが配信ユーザ装置20bを用いて取得したフェイスモーションデータに基づいて生成された動画が配信されており、この動画を視聴している配信ユーザUaから共演申請がなされることが想定されている。
【0101】
まず、ステップS11では、配信ユーザUbの顔の動き(表情)のデジタル表現であるフェイスモーションデータが生成される。フェイスモーションデータの生成は、例えば、配信ユーザ装置20のフェイスモーションデータ生成部211aで行われる。配信ユーザ装置20においては、配信ユーザUbからの音声入力に基づいて音声データが生成されてもよい。生成されたフェイスモーションデータ及び音声データは、サーバ装置60に送信される。
【0102】
次に、ステップS12において、配信ユーザ装置20からのフェイスモーションデータが、配信ユーザUb用のモデルデータに適用されることにより、配信ユーザUbの表情の動きに同期して動くキャラクタオブジェクトのアニメーションが生成される。このアニメーションの生成は、例えば、上記のアニメーション生成部61aで行われる。
【0103】
次に、ステップS13において、配信ユーザUbに対応するキャラクタオブジェクトのアニメーションを含む動画が生成される。この動画には、配信ユーザUbの音声が合成されてもよい。キャラクタオブジェクトのアニメーションは、背景画像に重畳して表示される。この動画の生成は、例えば、上記の動画生成部61bで行われる。
【0104】
次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワーク50を介して視聴ユーザ装置10及びこれら以外の視聴ユーザ装置並びに配信ユーザ装置に配信される。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。
【0105】
次に、ステップS15に進み、配信ユーザUb以外のユーザから共演申請がなされたか否かが判定される。共演申請は、例えば、配信ユーザUaからなされる。配信ユーザUaによって共演申請がなされた場合には、処理はステップS16に進む。ステップS16では、配信ユーザUaのフェイスモーションデータに基づいて、配信ユーザUaのキャラクタオブジェクト131のアニメーションが生成される。そして、配信中の動画(配信ユーザUbのキャラクタオブジェクト31を含む動画)に、配信ユーザUaのキャラクタオブジェクト131のアニメーションを追加することで、共演画像を生成する。ステップS16における処理は、例えば、上記の共演申請処理部61fで行われる。
【0106】
次に、ステップS17に移行し、ステップS16にて生成された共演動画が配信される。この共演動画は、ネットワーク50を介して視聴ユーザ装置10及びこれら以外の視聴ユーザ装置並びに配信ユーザ装置に配信される。共演動画には、例えば、
図8、
図9a及び
図9bに示されているように、配信ユーザUaのキャラクタオブジェクト131のアニメーション及び配信ユーザUbのキャラクタオブジェクト31のアニメーションが含まれる。
【0107】
次に、ステップS18に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、配信ユーザUbが配信ユーザ装置20bにおいて配信を終了するための操作を行ったこと、またはこれら以外の条件である。終了条件が成就していなければステップS11~S17の処理が繰り返し実行され、配信ユーザUbの動きに同期したアニメーションを含む動画、又は、配信ユーザUaとの共演が継続している場合には共演動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。
【0108】
次に、
図15をさらに参照して、動画の配信中に行われる通常ギフトの表示処理について説明する。通常ギフトの表示処理は、
図14に示した動画の配信処理と並行して行われる。
【0109】
動画の配信中に、ステップS21において、通常ギフトの表示要求がなされたか否かが判定される。例えば、視聴ユーザは、自らが保有する通常ギフトの中から一又は複数の特定の通常ギフトを選択し、この選択された通常ギフトの表示を要求する表示要求を視聴ユーザ装置10からサーバ装置60に対して送信することができる。上述したように、所定の通常ギフトの購入処理又は決済処理がなされたことに応じて、当該所定の通常ギフトの表示要求が生成されてもよい。
【0110】
通常ギフトの表示要求がなされた場合には、当該表示処理はステップS22に進む。ステップS22においては、当該表示要求に基づいて、表示が要求された通常ギフトを配信中の動画に表示させるための処理が行われる。例えば、所定の動画の配信中に通常ギフトの表示要求がなされると、
図5に示されているように、視聴ユーザ装置10の表示画面30内に表示要求がなされた通常ギフトに対応する通常オブジェクト37a,37bが表示される。
【0111】
通常ギフトの表示要求がなされていない場合には、通常ギフトの表示処理は終了する。
図15に示されている通常ギフトの表示処理は、動画の配信期間中に繰り返し行われる。エフェクトギフトの表示処理も、上述した通常ギフトの表示処理と同様の手順で行われ得る。
【0112】
次に、
図16をさらに参照して、動画の配信中に行われる装着ギフトの表示処理について説明する。装着ギフトの表示処理は、
図14に示した動画の配信処理と並行して行われる。また、装着ギフトの表示処理は、
図15に示した通常ギフトの表示処理と並行して行われてもよい。
【0113】
動画の配信中に、ステップS31において、装着ギフトの表示要求がなされたか否かが判定される。例えば、第1視聴ユーザは、自らが保有する装着ギフトの表示を要求する表示要求を視聴ユーザ装置10からサーバ装置60に対して送信することができる。
【0114】
装着ギフトの表示要求がなされた場合には、当該表示処理はステップS32に進む。ステップS32においては、当該表示要求に基づいて、表示が要求された装着ギフトに関連付けられた表示指示オブジェクトが配信ユーザ装置20の表示画面40に表示される。例えば、カチューシャを示す装着ギフトの表示要求がなされた場合には、当該装着ギフトに関連付けられた表示指示オブジェクト42bが配信ユーザ装置20の表示画面40に表示される。
【0115】
次に、ステップS33において、配信ユーザ装置20における表示画面40に含まれている表示指示オブジェクトの中から、特定の表示指示オブジェクトが選択されたか否かが判定される。
【0116】
特定の表示指示オブジェクトが選択された場合には、ステップS34において、配信中の動画の表示画面に、当該選択された特定の表示指示オブジェクトに対応する装着ギフトを表示する処理が行われる。例えば、表示画面40に含まれている表示指示オブジェクト42bが選択された場合には、
図6、
図7a及び
図7bに示されているように、表示画像30及び表示画像40に、選択された表示指示オブジェクト42bに対応付けられている装着オブジェクト38が表示される。また、選択された表示指示オブジェクト42bは、表示画面40から削除される。
【0117】
ステップS33において、表示指示オブジェクトがいずれも選択されなかった場合、及び、ステップS34において装着ギフトの表示処理が完了した場合には、装着ギフトの表示処理は終了する。
【0118】
上記の一実施形態によれば、共演動画の視聴ユーザから装着ギフトの表示を要求する第1表示要求がなされた場合に、当該装着ギフトをただちに共演動画内に表示するのではなく、配信ユーザUa又は配信ユーザUbによる表示指示オブジェクト42a~42dの選択に応じて当該装着ギフトを表示している。これにより、共演動画の視聴ユーザから装着ギフトのギフティングが大量になされても、共演動画内に装着オブジェクトを整然と表示することができる。これにより、視聴ユーザの視聴体験の劣化を防止することができる。上記の一実施形態によれば、装着ギフトは、共演している配信ユーザUaのキャラクタオブジェクトと配信ユーザUbのキャラクタオブジェクトの一方のみに装着される。この場合、共演動画内に表示される装着オブジェクトの数を抑制することができるので、共演動画に装着オブジェクトをより整然と表示することができる。
【0119】
上記の一実施形態によれば、配信ユーザUaの配信ユーザ装置20aと配信ユーザUbの配信ユーザ装置20bの両方に表示指示オブジェクトが表示される。これにより、共演申請を行った配信ユーザUaにも、共演動画においてギフティングされた装着ギフトを装着する機会が与えられる。配信ユーザUaは、ギフティングを多く集めている配信ユーザUbに共演申請をすることで、多くの装着ギフトを装着する機会を得ることができる。配信ユーザは、自らのキャラクタオブジェクトに魅力的なデコレーションを行うことを望むものである。このように、上記の実施形態によれば、配信ユーザUaに対して共演申請を行う誘因を付与することができる。
【0120】
上記の一実施形態によれば、視聴ユーザによる装着オブジェクトのギフティング先の指定が可能となる。これにより、共演している配信ユーザに横取りされることなく、意図した配信ユーザに対して装着ギフトをギフティングすることができる。
【0121】
上記の一実施形態によれば、元の動画を配信していた配信ユーザ(例えば、配信ユーザUb)の配信ユーザ装置20bにのみ表示指示オブジェクトが表示される。共演動画においては二人以上の配信ユーザが共演しているが、元の動画を配信していた配信ユーザに当該動画の管理を行わせることが望ましい。上記の実施形態によれば、装着ギフトを表示するか否かについて、共演申請を行った共演者ではなく、元の動画を配信していた配信ユーザに決定を委ねることができる。
【0122】
通常ギフト37a,37bについては、装着ギフト38に比べて表示時間を短く設定することができ、また、通常オブジェクト37a,37bは、キャラクタオブジェクト31と接しないようにまたはキャラクタオブジェクト31の前側ではなく背後に表示されてもよい。この場合、通常オブジェクト37a,37bは、配信中の動画においてキャラクタオブジェクト31の視認性に与える影響が小さい。よって、通常ギフトについては、視聴ユーザからの表示要求に応じて自動的に(配信ユーザUa,Ubの許可がなく)動画に表示してもキャラクタオブジェクト31の視認性の悪化によるユーザの視聴体験の劣化にはつながりにくい。
【0123】
上記実施形態によれば、キャラクタオブジェクト31などのキャラクタオブジェクトを含む動画を視聴する視聴ユーザは、当該キャラクタオブジェクトに愛着があると考えられる。よって、エフェクトギフトや通常ギフトよりも、キャラクタオブジェクトに装着ギフトを装着させることで当該キャラクタオブジェクトの見栄えをよくすることができるので、当該装着ギフトを提供した視聴ユーザの満足度を高めることができる。このように、キャラクタオブジェクトが装着可能な装着オブジェクトにより、当該キャラクタオブジェクトが含まれる動画を繰り返し視聴する誘因をユーザに提供することができる。
【0124】
上記実施形態による動画配信システム1においては、ユーザがキャラクタに対して装着オブジェクトを贈ることができる。これにより、かかる装着オブジェクトを贈ることができないシステムと比べて、独自性の高いシステムを提供することができ、当該システムにより独自性の高いサービスを提供することができる。これにより、動画配信システム1により多くのユーザを惹き付けることができるので、動画配信システム1における動画の視聴回数を多くすることができる。
【0125】
上記実施形態による動画配信システム1においては、配信ユーザUa,Ubは、スマートフォンなどのカメラを備えた配信ユーザ装置20により自らの表情に応じて動くキャラクタオブジェクトを含む動画を配信することができる。このように、動画配信システム1においては、配信ユーザUa,Ubが動画を配信するための設備が簡略化されているので、配信ユーザUa,Ubが参加しやすいプラットフォームが実現されている。
【0126】
本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。
【0127】
コンピュータプロセッサ61により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ61以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ61により実現される機能の少なくとも一部は、例えば、配信ユーザ装置20のコンピュータプロセッサ21により実現されてもよく、視聴ユーザ装置10のコンピュータプロセッサにより実現されてもよい。具体的には、アニメーション生成部61a及び動画生成部61bの機能の一部又は全部は、配信ユーザ装置20において実行されてもよい。例えば、配信ユーザ装置20において生成された動画がサーバ装置60に送信され、サーバ装置60から視聴ユーザ装置10に配信されてもよい。
【0128】
配信ユーザUbのキャラクタオブジェクト31を含む動画を視聴している配信ユーザUaから配信ユーザUbとの共演申請がなされる場合には、共演申請を行った配信ユーザUaのキャラクタオブジェクト131のアニメーションは、サーバ装置60、配信ユーザUaの配信ユーザ装置20a、配信ユーザUbの配信ユーザ装置20b、視聴ユーザ装置10、又はこれら以外の装置で生成されてもよい。一つの例において、配信ユーザUaのキャラクタオブジェクト131のアニメーションが配信ユーザUbの配信ユーザ装置20bで生成される場合には、配信ユーザUaの配信ユーザ装置20aから配信ユーザUbの配信ユーザ装置20bに対して、配信ユーザUaのフェイスモーションデータ及び音声データが送信される。配信ユーザ装置20bでは、配信ユーザ装置20aから受信した配信ユーザUaのフェイスモーションデータ及び音声データを配信ユーザUa用のモデルデータに適用することでキャラクタオブジェクト131のアニメーションが生成される。この配信ユーザUa用のモデルデータは、サーバ装置60から配信ユーザ装置20aへ送信されてもよい。他の例において、配信ユーザUaのキャラクタオブジェクト131のアニメーションが視聴ユーザ装置10で生成される場合には、配信ユーザUaの配信ユーザ装置20aから視聴ユーザ装置10に対して配信ユーザUaのフェイスモーションデータ及び音声データが送信され、配信ユーザUbの配信ユーザ装置20bから視聴ユーザ装置10に対して配信ユーザUbのフェイスモーションデータ及び音声データが送信される。視聴ユーザ装置10では、配信ユーザ装置20aから受信した配信ユーザUaのフェイスモーションデータ及び音声データを配信ユーザUa用のモデルデータに適用することでキャラクタオブジェクト131のアニメーションが生成され、配信ユーザ装置20bから受信した配信ユーザUbのフェイスモーションデータ及び音声データを配信ユーザUb用のモデルデータに適用することでキャラクタオブジェクト31のアニメーションが生成されてもよい。このを配信ユーザUa用のモデルデータ及び配信ユーザUb用のモデルデータは、サーバ装置60から視聴ユーザ装置10へ送信されてもよい。このように、配信ユーザのキャラクタオブジェクトのアニメーションは、動画配信システム1に含まれる任意の装置で生成され得る。キャラクタオブジェクトのアニメーションは、
図1に明示的に示されていない装置で生成されてもよい。キャラクタオブジェクトのアニメーションを生成する装置には、配信ユーザUaの配信ユーザ装置20aから配信ユーザUaのフェイスモーションデータ及び音声データが送信され、配信ユーザUbの配信ユーザ装置20bから配信ユーザUbのフェイスモーションデータ及び音声データが送信される。フェイスモーションに加えてボディモーションが送信されてもよい。
【0129】
また、生成された配信ユーザUaのキャラクタオブジェクト131と配信ユーザUbの配信動画とキャラクタオブジェクト31とを含む共演動画の生成は、サーバ装置60、配信ユーザUaの配信ユーザ装置20a、配信ユーザUbの配信ユーザ装置20b、又は視聴ユーザ装置10のいずれで行われてもよい。
【0130】
共演動画は、三人以上の配信ユーザのキャラクタオブジェクトを含んでもよい。つまり、三人以上の配信ユーザが、各々のキャラクタオブジェクトを利用して動画内で仮想的に共演してもよい。
【0131】
以下に、本願の原出願の出願時の特許請求の範囲に記載された発明を付記する。
[1]
一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む第1動画を配信し、
前記第1動画を視聴する第2ユーザからの共演申請に基づいて、前記第1キャラクタオブジェクト及び前記第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む共演動画を配信し、
前記共演動画を視聴する視聴ユーザから第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置に表示指示オブジェクトを表示させる一方で、前記第2ユーザが使用する第2ユーザ装置には前記表示指示オブジェクトを表示させず、
前記第1ユーザ装置における前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの少なくとも一方と対応付けて前記第1ギフトを表示する、
動画配信システム。
[2]
前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの一方のみと対応付けて前記第1ギフトを表示する、
[1]に記載の動画配信システム。
[3]
前記第1ユーザ装置における前記表示指示オブジェクトの操作により、前記共演動画において前記第2キャラクタオブジェクトに対応付けて前記第1ギフトを表示する、
[1]又は[2]に記載の動画配信システム。
[4]
前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの両方と対応付けて前記第1ギフトを表示する、
[1]に記載の動画配信システム。
[5]
前記第1ギフトは、前記第1キャラクタオブジェクト又は前記第2キャラクタオブジェクトの装着部位と関連付けられた装着ギフトであり、
前記装着ギフトは、前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記装着部位と対応する位置に表示される、
[1]から[4]のいずれか1項に記載の動画配信システム。
[6]
前記視聴ユーザから前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの特定の部位と対応付けられずに第2ギフトに関する第2表示要求を受け付けたことに応じて、前記共演動画に前記第2ギフトを表示させる、
[1]から[5]のいずれか1項に記載の動画配信システム。
[7]
前記第2ギフトは、前記共演動画において移動するように表示される、
[6]に記載の動画配信システム。
[8]
前記表示指示オブジェクトは、操作によって選択可能なアクティベート状態と操作しても選択されないディアクティベート状態との間で切り替えられる、
[1]から[7]のいずれか1項に記載の動画配信システム。
[9]
前記第1動画は縦長の画像であり、前記共演動画は横長の画像である、
請求項1から9のいずれか1項に記載の動画配信システム。
[10]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む第1動画を配信する工程と、
前記第1動画を視聴する第2ユーザからの共演申請に基づいて、前記第1キャラクタオブジェクト及び前記第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む共演動画を配信する工程と、
前記共演動画を視聴する視聴ユーザから第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置に表示指示オブジェクトを表示させる一方で、前記第2ユーザが使用する第2ユーザ装置には前記表示指示オブジェクトを表示させない工程と、
前記第1ユーザ装置における前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの少なくとも一方と対応付けて前記第1ギフトを表示する工程と、
を備える動画配信方法。
[11]
一又は複数のコンピュータプロセッサに、
第1ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む第1動画を配信する工程と、
前記第1動画を視聴する第2ユーザからの共演申請に基づいて、前記第1キャラクタオブジェクト及び前記第2ユーザの動きに基づいて生成される第2キャラクタオブジェクトを含む共演動画を配信する工程と、
前記共演動画を視聴する視聴ユーザから第1ギフトに関する第1表示要求を受け付けたことに応じて、前記第1ユーザの第1ユーザ装置に表示指示オブジェクトを表示させる一方で、前記第2ユーザが使用する第2ユーザ装置には前記表示指示オブジェクトを表示させない工程と、
前記第1ユーザ装置における前記表示指示オブジェクトへの操作に応じて、前記共演動画において前記第1キャラクタオブジェクト及び前記第2キャラクタオブジェクトの少なくとも一方と対応付けて前記第1ギフトを表示する工程と、
を実行させる動画配信プログラム。
【符号の説明】
【0132】
1 動画配信システム