(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-19
(45)【発行日】2024-08-27
(54)【発明の名称】コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
(51)【国際特許分類】
H04L 67/131 20220101AFI20240820BHJP
H04L 67/00 20220101ALI20240820BHJP
G06F 3/04815 20220101ALI20240820BHJP
H04N 7/14 20060101ALI20240820BHJP
H04N 21/235 20110101ALI20240820BHJP
H04N 21/258 20110101ALI20240820BHJP
H04N 21/431 20110101ALI20240820BHJP
【FI】
H04L67/131
H04L67/00
G06F3/04815
H04N7/14 170
H04N21/235
H04N21/258
H04N21/431
(21)【出願番号】P 2023060546
(22)【出願日】2023-04-04
(62)【分割の表示】P 2020060174の分割
【原出願日】2019-06-28
【審査請求日】2023-04-28
(73)【特許権者】
【識別番号】598138327
【氏名又は名称】株式会社ドワンゴ
(74)【代理人】
【識別番号】100131451
【氏名又は名称】津田 理
(74)【代理人】
【識別番号】100167933
【氏名又は名称】松野 知紘
(74)【代理人】
【識別番号】100184181
【氏名又は名称】野本 裕史
(72)【発明者】
【氏名】川上 量生
(72)【発明者】
【氏名】小嶋 尚
(72)【発明者】
【氏名】齊藤 寛明
(72)【発明者】
【氏名】清水 俊博
【審査官】中川 幸洋
(56)【参考文献】
【文献】特開2018-106391(JP,A)
【文献】米国特許出願公開第2019/0188895(US,A1)
【文献】特開2003-150978(JP,A)
【文献】米国特許出願公開第2012/0131478(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
H04L 67/131
H04L 67/00
G06F 3/04815
H04N 7/14
H04N 21/235
H04N 21/258
H04N 21/431
(57)【特許請求の範囲】
【請求項1】
参加者が用いる端末と接続されるコンテンツ配信装置であって、
前記参加者に対応する仮想キャラクタの仮想空間における配置を、参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
第1トリガを検知し、その後に
前記端末から送信される第2トリガを検知するトリガ検知部と、
前記仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、を備え、
前記表示制御データ配信部は、
前記第1トリガが検知されるまでは、前記仮想空間における前記仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
前記第1トリガが検知されたことに応答して、前記仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成し、
前記第2トリガが検知されたことに応答して、配置が変更されていた前記仮想キャラクタの前記仮想空間における配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置に戻した前記表示制御データを生成するコンテンツ配信装置。
【請求項2】
前記第1トリガは、前記端末から送信される、請求項1に記載のコンテンツ配信装置。
【請求項3】
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記仮想キャラクタが所定位置に近づくよう、前記仮想空間における前記仮想キャラクタの配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成する、請求項1または2に記載のコンテンツ配信装置。
【請求項4】
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記仮想キャラクタが所定位置を向くよう、前記仮想空間における前記仮想キャラクタの配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成する、請求項1または2に記載のコンテンツ配信装置。
【請求項5】
前記仮想キャラクタは位置取得部は、前記仮想キャラクタの前記仮想空間における配置を、前記端末の入力インターフェースに対する参加者の入力に応じて取得する、請求項1乃至4のいずれかに記載のコンテンツ配信装置。
【請求項6】
参加者が用いる端末と接続されるコンピュータを、
前記参加者に対応する仮想キャラクタの仮想空間における配置を、参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
第1トリガを検知し、その後に
前記端末から送信される第2トリガを検知するトリガ検知部と、
前記仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、として機能させ、
前記表示制御データ配信部は、
前記第1トリガが検知されるまでは、前記仮想空間における前記仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
前記第1トリガが検知されたことに応答して、前記仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成し、
前記第2トリガが検知されたことに応答して、配置が変更されていた前記仮想キャラクタの前記仮想空間における配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置に戻した前記表示制御データを生成するコンテンツ配信プログラム。
【請求項7】
仮想キャラクタ配置取得部が、参加者に対応する仮想キャラクタの仮想空間における配置を、参加者の動作に対応して取得するステップと、
トリガ検知部が、第1トリガを検知し、その後に
前記参加者が用いる端末から送信される第2トリガを検知するステップと、
表示制御データ配信部が、前記仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信するステップと、を備え、
前記表示制御データ配信部は、
前記第1トリガが検知されるまでは、前記仮想空間における前記仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、
前記第1トリガが検知されたことに応答して、前記仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成し、
前記第2トリガが検知されたことに応答して、配置が変更されていた前記仮想キャラクタの前記仮想空間における配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置に戻した前記表示制御データを生成するコンテンツ配信方法。
【請求項8】
参加者の動作に応じて、前記参加者に対応する仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、
前記参加者の指示に応じて、第1トリガを前記コンテンツ配信サーバに送信し、その後に第2トリガを前記コンテンツ配信サーバに送信するトリガ生成部と、
前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、を備え、
前記表示制御部は、
前記第1トリガの送信前は、前記仮想空間における前記仮想キャラクタの配置を、前記参加者の動作に対応した配置とする前記表示制御データを受信し、
前記第1トリガの送信後は、前記仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを受信し、
前記第2トリガの送信後は、配置が変更されていた前記仮想キャラクタの前記仮想空間の配置を、前記参加者の動作に対応した配置とする前記表示制御データを受信するコンテンツ表示装置。
【請求項9】
コンピュータを、
参加者の動作に応じて、前記参加者に対応する仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、
前記参加者の指示に応じて、第1トリガを前記コンテンツ配信サーバに送信し、その後に第2トリガを前記コンテンツ配信サーバに送信するトリガ生成部と、
前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、として機能させ、
前記表示制御部は、
前記第1トリガの送信前は、前記仮想空間における前記仮想キャラクタの配置を、前記参加者の動作に対応した配置とする前記表示制御データを受信し、
前記第1トリガの送信後は、前記仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを受信し、
前記第2トリガの送信後は、配置が変更されていた前記仮想キャラクタの前記仮想空間の配置を、前記参加者の動作に対応した配置とする前記表示制御データを受信するコンテンツ表示プログラム。
【請求項10】
仮想キャラクタ制御部が、 参加者の動作に応じて、前記参加者に対応する仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信するステップと、
トリガ生成部が、前記参加者の指示に応じて、第1トリガを前記コンテンツ配信サーバに送信し、その後に第2トリガを前記コンテンツ配信サーバに送信するステップと、
表示制御部が、前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるステップと、を備え、
前記表示制御部は、
前記第1トリガの送信前は、前記仮想空間における前記仮想キャラクタの配置を、前記参加者の動作に対応した配置とする前記表示制御データを受信し、
前記第1トリガの送信後は、前記仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを受信し、
前記第2トリガの送信後は、配置が変更されていた前記仮想キャラクタの前記仮想空間の配置を、前記参加者の動作に対応した配置とする前記表示制御データを受信するコンテンツ表示方法。
【請求項11】
請求項1乃至5のいずれかに記載のコンテンツ配信装置と、
請求項8に記載のコンテンツ表示装置と、を備えるシステム。
【請求項12】
前記コンテンツ配信装置が、前記表示制御データを前記コンテンツ表示装置に送信することにより、前記コンテンツ表示装置には、前記仮想キャラクタが配置された前記仮想空間の少なくとも一部が表示される、請求項11に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、仮想キャラクタが配置された仮想空間をコンテンツとして配信するコンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法に関する。また、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法に関する。
【背景技術】
【0002】
特許文献1には、仮想キャラクタが配置された仮想空間をディスプレイに表示させるコンテンツ配信サーバが開示されている。仮想キャラクタはユーザが動作させるものであり、通常は、ユーザの動作が仮想キャラクタの動作に忠実に反映されるような表示が行われる。そのようにすることで、仮想空間に対する没入感が得られるためである。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、ディスプレイの大きさは有限であるため、ユーザの動作を仮想キャラクタの動作に忠実に反映させようとすると、仮想キャラクタが見づらくなることがある。
【0005】
本開示はこのような事情に鑑み、仮想空間に配置される仮想キャラクタをより見やすく表示させることができるコンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム、ならびに、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示の一態様によれば、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、第1トリガを検知するトリガ検知部と、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、を備え、前記表示制御データ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成する、コンテンツ配信装置が提供される。
【0007】
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比べて、前記第1仮想キャラクタが強調表示されるよう、前記仮想空間における前記第1仮想キャラクタの配置が変更された前記表示制御データであって、前記第2仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
【0008】
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタが所定位置に近づくよう、前記仮想空間における前記第1仮想キャラクタ
の配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
【0009】
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタが所定位置を向くよう、前記仮想空間における前記第1仮想キャラクタの配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
【0010】
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、前記所定位置は、前記第2仮想キャラクタの位置であるのが望ましい。
【0011】
前記所定位置は、前記複数の仮想キャラクタのいずれとも異なる位置であるのが望ましい。
【0012】
前記所定位置は、前記複数の仮想キャラクタのうち、前記第1トリガと関連付けられていない第3仮想キャラクタの位置であるのが望ましい。
【0013】
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第1参加者の端末から送信されたものであり、前記表示制御データは、前記第2仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第1表示制御データと、前記第1トリガに関連付けられていない第3仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための第2表示制御データと、を含み、前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比べて、前記第1仮想キャラクタが強調表示されるよう、前記第1仮想キャラクタの配置が変更された前記第1表示制御データを生成し、前記第1トリガが検知されるまでも、前記第1トリガが検知された後も、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記第2表示制御データを生成するのが望ましい。
【0014】
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタおよび前記第1トリガに関連付けられた第2仮想キャラクタが互いに向き合うよう、前記仮想空間における前記第1仮想キャラクタおよび前記第2仮想キャラクタの配置が変更された前記表示制御データを生成するのが望ましい。
【0015】
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1トリガに関連付けられていない第3仮想キャラクタが前記第1仮想キャラクタを向くよう、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データを生成するのが望ましい。
【0016】
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタが発話する際には前記第3仮想キャラクタが前記第1仮想キャラクタを向くよう、前記第1トリガに関連付けられた第2仮想キャラクタが発話する際には前記第3仮想キャラクタが前記第2仮想キャラクタを向くよう、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データを生成するのが望ましい。
【0017】
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1トリガに関連付けられていない第3仮想キャラクタおよび第4仮想キャラクタの前記仮想空間における位置を、前記仮想キャラクタ配置取得部によって取得された前記第3仮想キャラクタおよび前記第4仮想キャラクタの相対的な位置関係を考慮して変更された前記表
示制御データを生成するのが望ましい。
【0018】
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1仮想キャラクタの表示態様が変更された前記表示制御データを生成するのが望ましい。
【0019】
前記第1トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1仮想キャラとの会話開始に対応するのが望ましい。
【0020】
前記トリガ検知部は、前記第1トリガが検知された後に第2トリガを検知し、前記表示制御データ配信部は、前記第2トリガが検知されたことに応答して、配置が変更されていた前記第1仮想キャラクタの前記仮想空間における配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置に戻した前記表示制御データを生成するのが望ましい。
【0021】
前記第2トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1仮想キャラとの会話開始に対応するのが望ましい。
【0022】
本開示の別の態様によれば、コンピュータを、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、第1トリガを検知するトリガ検知部と、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信する表示制御データ配信部と、として機能させ、前記表示制御データ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成する、コンテンツ配信プログラムが提供される。
【0023】
本開示の別の態様によれば、仮想キャラクタ配置取得部が、複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得するステップと、トリガ検知部が、第1トリガを検知するステップと、表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配信するステップと、を備え、前記表示制御データ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データを生成し、前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを生成する、コンテンツ配信方法が提供される。
【0024】
本開示の別の態様によれば、参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配信サーバに送信するトリガ生成部と、前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、を備え、前記表示制御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キャラクタの
うち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを受信する、コンテンツ表示装置が提供される。
【0025】
本開示の別の態様によれば、コンピュータを、参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配信サーバに送信するトリガ生成部と、前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、として機能させ、前記表示制御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを受信する、コンテンツ表示プログラムが提供される。
【0026】
仮想キャラクタ制御部が、参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信するステップと、トリガ生成部が、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配信サーバに送信するステップと、表示制御部が、前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるステップと、を備え、前記表示制御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置が変更された前記表示制御データを受信する、コンテンツ表示方法が提供される。
【発明の効果】
【0027】
仮想空間に配置される仮想キャラクタを見やすくできる。
【図面の簡単な説明】
【0028】
【
図1】一実施形態に係るコンテンツ配信システムの概略構成を示すブロック図。
【
図2】参加者端末1aの概略構成を示すブロック図。
【
図4】コンテンツ配信サーバ3の概略構成を示すブロック図。
【
図5】会話開始前のコンテンツ配信システムの処理動作の一例を示すシーケンス図。
【
図6】アバターA~Dが仮想空間に配置された状態を模式的に示す図。
【
図7A】参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図。
【
図7B】参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。
【
図7C】視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図。
【
図8】会話開始後のコンテンツ配信システムの処理動作の一例を示すシーケンス図。
【
図9A】参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図。
【
図9B】参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。
【
図9C】視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図。
【
図10】
図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。
【
図11】
図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。
【
図12】
図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。
【
図13】
図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図。
【
図14】会話終了後のコンテンツ配信システムの処理動作の一例を示すシーケンス図。
【発明を実施するための形態】
【0029】
以下、本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。
【0030】
図1は、一実施形態に係るコンテンツ配信システムの概略構成を示すブロック図である。コンテンツ配信システムは、参加者端末1a~1d、視聴者端末2およびコンテンツ配信サーバ3などから構成され、これらはWAN(World Area Network)などのネットワークを介して通信可能に接続される。なお、便宜上、4つの参加者端末1a~1dおよび1つの視聴者端末2を描いているが、これらの数に何ら制限はない。
【0031】
このコンテンツ配信システムは、参加者端末1a~1dのユーザのそれぞれに対応するアバター(仮想キャラクタ)が所定の仮想空間内で活動する様子(以下「コンテンツ」という)を、参加者端末1a~1dや視聴者端末2でリアルタイムに視聴できるようにするものである。
【0032】
[参加者端末1a~1dの構成]
参加者端末1a~1dはアバターを仮想空間内で活動させるユーザ(以下「参加者」という)が用いるものである。なお、以下では、自身に対応するアバターを仮想空間内で活動させることを「参加する」ともいう。そして、参加者端末1a~1dを用いる参加者をそれぞれ参加者A~Dと呼び、参加者A~Dに対応するアバターをそれぞれアバターA~Dと呼ぶ。参加者端末1a~1dの構成は共通するため、代表して参加者端末1aについて説明する。
【0033】
図2は、参加者端末1aの概略構成を示すブロック図である。参加者端末1aは、通信部11、操作部12、動作入力部13、記憶部14、ディスプレイ15および制御部16などを有する。
【0034】
通信部11は、有線通信または無線通信を行うためのNIC(Network Interface Card
controller)を有する通信インターフェースであり、ネットワークを介してコンテンツ
配信サーバ3と通信を行う。操作部12は参加者が種々の指示を行うための入力インターフェースである。動作入力部13はアバターを仮想空間内で活動させるための動作を参加者から受け付ける入力インターフェースである。記憶部14は、RAM(Random Access Memory)やROM(Read Only Memory)などから構成され、各種制御処理を実行するため
のプログラムや種々のデータなどを非一時的あるいは一時的に記憶する。ディスプレイ15にはコンテンツなどが表示される。
【0035】
制御部16は、アバター制御部161、トリガ生成部162および表示制御部163などを有する。これら各部の少なくとも一部は、ハードウェアによって実装されてもよいし、参加者端末1aの処理回路(プロセッサ)が記憶部14に記憶された所定のプログラムを実行することによって実現されてもよい。
【0036】
アバター制御部161は、参加者Aによる動作入力部13に対する動作に応じて、アバターを仮想空間内で活動させるためのデータを生成する。ここでの活動とは、移動などの動作や会話などである。このデータは通信部11からコンテンツ配信サーバ3に送信される。なお、このデータは通信部11から他の参加者端末1b~1dあるいは視聴者端末2に送信されてもよい。
【0037】
トリガ生成部162は、ユーザによる操作部12に対する所定操作あるいは動作入力部13に対する所定動作に応じて、トリガを生成する。このトリガは通信部11からコンテンツ配信サーバ3に送信される。なお、このトリガは通信部11から他の参加者端末1b~1dあるいは視聴者端末2に送信されてもよい。本実施形態では、トリガの例として、他ユーザに対応するアバターとの会話開始に対応する会話開始トリガと、開始された会話の終了に対応する会話終了トリガについて述べる。後述するように、トリガに応じて仮想空間内に配置されたアバターの配置が変更される。
【0038】
表示制御部163は、コンテンツ配信サーバ3から送信される表示制御データ(後述)を受信し、この表示制御データに基づいてディスプレイ15にコンテンツを表示させる。
【0039】
一例として、参加者端末1aはスマートフォン(あるいはタブレット端末)であってよい。スマートフォンは、タッチパネルディスプレイや、マイクを有する。タッチパネルディスプレイは、例えば液晶ディスプレイと透過性のタッチパッドとが重ね合わせて配置されたものであり、液晶ディスプレイがディスプレイ15として機能し、タッチパッドが操作部12および動作入力部13として機能する。
【0040】
そして、タッチパッドに対する参加者の操作に応じて、仮想空間内のアバターが活動する。例えば、参加者がタッチパッド上で右方向にスワイプすることで、アバターが仮想空間内で右方向に移動する。また、マイクが動作入力部13として機能し、マイクに対する参加者の発話に応じて仮想空間内のアバターが活動してもよい。例えば、マイクに対するユーザの発言が仮想空間におけるアバターの発言に反映されてもよい。その他、スマートフォンに設けられた加速度センサ等の各種センサやボタンが操作部12および/または動作入力部13として機能してもよい。
【0041】
別の例として、参加者端末1aの操作部12は、操作ボタン、キーボード、ポインティングデバイスなどから構成されるVR(Virtual Reality)用のスティック型コントロー
ラであってもよい。動作入力部13は参加者の動きを検出するモーションセンサであってもよい。検出された参加者の動き(モーションデータ)に応じて、仮想空間内のアバターが動作する。例えば、参加者が右を向くと、仮想空間内でアバターが右を向く。さらに、ディスプレイ15はHMD(Head Mount Display)であってもよい。
【0042】
以上述べたように、参加者端末1aは、スマートフォンのように1つの装置から構成されてもよいし、VR用コントローラ、モーションセンサおよびHMDのように複数の装置から構成されてもよい。
【0043】
[視聴者端末2の構成]
視聴者端末2は、コンテンツに参加することなく、コンテンツを視聴するユーザ(以下「視聴者」という)が用いるものである。
【0044】
図3は、視聴者端末2の概略構成を示すブロック図である。視聴者端末2は、参加者端末1aにおける動作入力部13、アバター制御部161およびトリガ生成部162を省略したものとなっている。コンテンツの視聴のみであれば、このような簡易な構成の視聴者端末2で足りる。もちろん、コンテンツに参加することなく、参加者端末1aを用いてコンテンツを視聴できてよい。
【0045】
[コンテンツ配信サーバ3の構成]
図4は、コンテンツ配信サーバ3の概略構成を示すブロック図である。コンテンツ配信サーバ3は、通信部31、記憶部32および制御部33などを有する。なお、コンテンツ配信サーバ3は1つの装置から構成されてもよいし、複数の装置から構成されてもよい。
【0046】
通信部31は、有線通信または無線通信を行うためのNICを備える通信インターフェースであり、ネットワークを介して参加者端末1a~1dおよび視聴者端末2と通信を行う。記憶部32は、RAMやROMなどから構成され、各種制御処理を実行するためのプログラムや種々のデータなどを非一時的あるいは一時的に記憶する。
【0047】
制御部33は、アバター配置取得部331、トリガ検知部332、および、表示制御データ配信部333などを有する。これらの少なくとも一部は、ハードウェアで実装されてもよいし、コンテンツ配信サーバ3の処理回路(プロセッサ)が記憶部32に記憶された所定のプログラムを実行することによって実現されてもよい。
【0048】
アバター配置取得部331は、各参加者に対応する各アバターの仮想空間における配置を、参加者端末1a~1dのアバター制御部161から取得する。例えば、参加者端末1aの動作入力部13に対する参加者Aの動作に対応して、アバターAの仮想空間における配置を取得する。取得した配置が一時的に記憶部32に記憶されてもよい。なお、本明細書における配置とは、仮想空間におけるアバターの位置およびアバターの向きの両方でもよいし、少なくとも一方でもよい。
【0049】
トリガ検知部332は参加者端末1a~1dのトリガ生成部162によってトリガが生成されたことを検知する。ここで、会話開始トリガには会話に参加するアバター(以下「会話アバター」という)が関連付けられている。言い換えると、会話開始トリガに関連付けられているのが会話アバターであり、関連付けられていないアバターは会話に参加しない(以下「非会話アバター」という)。トリガ検知部322は会話開始トリガに関連付けられている会話アバターの特定も行う。なお、会話アバターは、通常は会話開始トリガを生成した参加者端末を用いる参加者に対応するアバターを含む複数のアバターであるが、1つのアバターのみであってもよい。
【0050】
表示制御データ配信部333は、アバター配置取得部331によって取得された各アバターの配置およびトリガ検知部332によって検知されたトリガに基づき、表示制御データを生成して参加者端末1a~1dおよび視聴者端末2に配信する。具体的には、表示制御データ配信部333は、アバター制御部333aと、表示制御データ生成部333bとを有する。
【0051】
アバター制御部333aは各アバターの仮想空間における配置を制御し、各アバターの仮想空間における配置を示すアバター配置情報を生成する。アバター制御部333aは各アバターの表示態様を制御し、アバター配置情報はアバターの表示態様を含んでいてもよ
い。このアバター配置情報は、参加者端末1a~1dのディスプレイ15や視聴者端末2のディスプレイ23にコンテンツを表示させるため、すなわち、表示制御データの生成のために用いられる。
【0052】
具体的には、会話開始トリガが検知されるまでは、アバター制御部333aはアバター配置取得部331が取得した配置に従ってアバターを仮想空間に配置して、アバター配置情報を生成する。会話開始トリガが検知されるまでのアバターの配置は、参加者端末1a~1dの動作入力部13に対するユーザ動作が忠実に反映されたものといえる。
【0053】
また、会話開始トリガが検知されたことに応答して、アバター制御部333aは少なくとも一部のアバター(例えば、少なくも一部の会話アバター)の仮想空間における配置を変更して、アバター配置情報を更新する。変更後の配置はアバター配置取得部331が取得した配置とは必ずしも一致しない。すなわち、会話開始トリガが検知された後のアバターの配置は、参加者端末1a~1dの動作入力部13に対する参加者の動作が忠実に反映されたものにはなっていない。
【0054】
なお、配置の変更とは、仮想空間における位置の変更でもよいし、仮想空間におけるアバターの向きの変更でもよいし、その両方でもよい。変更の例としては、会話アバターが強調表示されるような変更、会話アバターが所定位置に近づくような変更、会話アバターが所定位置を向くような変更である。また、仮想空間の一部のみがディスプレイ15,23に表示されない場合に、全ての会話アバターが表示されるよう会話アバターの位置を変更するものでもよい。あるいは、会話アバターの表示態様を変更(通常は6頭身だが、会話アバターのみ8頭身にするなど)してもよい。詳細については後述する。
【0055】
なお、変更前のアバターの配置(アバター配置取得部331によって取得された配置)が失われないよう、アバター制御部333aは当該変更前のアバターの配置を記憶部32に記憶しておくのが望ましい。
【0056】
そして、会話開始トリガの後に会話終了トリガが検知されたことに応答して、アバター制御部333aは配置が変更されていたアバターの配置を、アバター配置取得部331が取得した配置に戻して、アバター配置情報を更新する。これにより、会話終了トリガが検知された後のアバターの配置は、参加者端末1a~1dの動作入力部13に対する参加者の動作が忠実に反映されたものに戻る。このとき、アバター制御部333aは、記憶部32に記憶しておいたアバターの配置を利用してもよい。
【0057】
表示制御データ生成部333bは、アバター制御部333aが生成・更新したアバター配置情報を用い、参加者端末1a~1dのディスプレイ15および視聴者端末2のディスプレイ23にコンテンツを表示させるための表示制御データを生成する。表示制御データは通信部31から参加者端末1a~1dおよび視聴者端末2に配信される。
【0058】
なお、ディスプレイ15,23に表示される画像のレンダリングは、参加者端末1a~1dの表示制御部163および視聴者端末2の表示制御部251が行ってもよいし、コンテンツ配信サーバ3の表示制御データ生成部333bが行ってもよい。
【0059】
参加者端末1a~1dがレンダリングを行う場合、アバター配置情報に基づく仮想空間における各アバターの配置や表示態様を示すデータが表示制御データとして配信される。そして、表示制御データに基づき、参加者端末1a~1dの表示制御部163が仮想空間に各アバターが配置されたコンテンツの画像を生成して、ディスプレイ15に表示させる。視聴者端末2がレンダリングを行う場合も同様である。
【0060】
一方、コンテンツ配信サーバ3の表示制御データ生成部333bがレンダリングを行う場合、表示制御データ生成部333bは、アバター配置情報に基づいて、仮想空間に各アバターが配置されたコンテンツの画像に対応するデータ(画像データ)を生成する。そして、生成された画像データが表示制御データとして配信される。そして、この表示制御データに基づいて、表示制御部163,251がディスプレイ15,23にコンテンツの画像を表示させる。
【0061】
以上述べたように、レンダリングは、参加者端末1a~1dおよび視聴者端末2が行ってもよいし、コンテンツ配信サーバ3が行ってもよいが、タイムラグが生じないようにするためには前者の方が望ましい。
【0062】
ここで、参加者端末1a~1dおよび視聴者端末2に表示されるコンテンツは、参加者端末1a~1dおよび視聴者端末2に共通でもよいが、互いに異なるのが望ましい。具体的には、参加者端末1aにはアバターAを視点とする仮想空間がコンテンツとして表示される。参加者端末1b~1dも同様である。また、視聴者端末2には、仮想空間における任意の位置(例えば仮想空間を俯瞰できる位置)に設定された仮想カメラを視点とする仮想空間がコンテンツとして表示される。
【0063】
また、視点が切替可能であってもよい。例えば参加者端末1aには、初期設定としてアバターAから見た仮想空間が表示されるが、操作部12に対する所定の操作に応答して、他のアバターから見た仮想空間や、仮想カメラから見た仮想空間が表示されてもよい。また、視聴者端末2には、初期設定として仮想カメラから見た仮想空間が表示されるが、操作部22に対する所定の操作に応答して、特定のアバターから見た仮想空間が表示されてもよい。また、仮想空間において、設置位置が異なる、あるいは、ズームが異なる複数の仮想カメラが設定され、いずれの仮想カメラから見た仮想空間を表示するかを切り替え可能であってもよい。さらに、仮想空間の全体が表示されてもよいし、その一部分のみが表示されてもよい。
【0064】
[会話開始前のコンテンツ配信システムの処理動作]
図5は、会話開始前のコンテンツ配信システムの処理動作の一例を示すシーケンス図である。なお、以下では参加者端末1aのみを記載するが、他の参加者端末1b~1dも同様である。
【0065】
参加者Aが参加者端末1aにおける動作入力部13に対して所定の動作を行うと、アバター制御部161は仮想空間内でアバターAを動作させるためのデータを生成し、これをコンテンツ配信サーバ3に送信する(ステップS1)。ここでのアバターAの動作とは、仮想空間におけるアバターAの配置であり、具体的には仮想空間内でアバターAを移動させたり、アバターAが特定の方向を向くようにしたりすることである。
【0066】
そして、コンテンツ配信サーバ3は上記データを受信する。このデータに基づいて、アバター配置取得部331はアバターAの仮想空間における配置(位置および/または向き)を取得する(ステップS11)。この配置は参加者Aの動作入力部13に対する動作がそのまま反映されている。
【0067】
続いて、取得された配置に基づいて、アバター制御部333aはアバターAの仮想空間における配置を設定し、アバター配置情報を生成する(ステップS12)。やはり、この配置も参加者Aの動作入力部13に対する動作がそのまま反映されたものである。
【0068】
次に、生成されたアバター配置情報に基づいて、表示制御データ生成部333bは表示制御データを生成する。そして、表示制御データは参加者端末1aに配信される(ステッ
プS13)。また、他の参加者端末1b~1dおよび視聴者端末2にも表示制御データが配信される。
【0069】
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aの表示制御部165は表示制御データを受信する。この表示制御データは各参加者A~Dの動作に対応してアバターA~Dが仮想空間に配置されたものとなっている。このような表示制御データに基づいて、表示制御部163はディスプレイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステップS2)。他の参加者端末1b~1dおよび視聴者端末2も同様にコンテンツを表示させる。以上の処理が、いずれかの参加者端末1a~1dからアバターを動作させるためのデータが送信される度に繰り返される。
【0070】
図6は、アバターA~Dが仮想空間に配置された状態を模式的に示す図である。図示のように、左側から順にアバターA~Dが配置されているものとする。
【0071】
図7Aは、参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図であり、
図6と対応している。
図7Aに示すように、
図6のアバターAから見た仮想空間が参加者端末1aのディスプレイ15に表示される。参加者端末1aがスマートフォンである場合、通常のディスプレイ15は縦長であるため、横方向に圧縮されて見えるが、
図6におけるアバターA~Dの位置や向きを忠実に再現したものとなっている。
【0072】
図7Bは、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図であり、
図6と対応している。
図7Bに示すように、
図6のアバターDから見た仮想空間が参加者端末1bのディスプレイ15に表示される。
【0073】
図7Cは、視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図であり、
図6と対応している。
図7Cでは、仮想空間を手前側上方から見る位置に仮想カメラが配置され、仮想空間の全体が仮想カメラの視界に入っていることを想定している。そして、この仮想カメラから見た仮想空間が視聴者端末2のディスプレイ23に表示される。
【0074】
なお、参加者端末1a~1dおよび視聴者端末2でレンダリングを行う場合、表示制御データはアバターA~Dの仮想空間における配置を示せばよいので、参加者端末1a~1dおよび視聴者端末2に送信される表示制御データは共通とすることができる。そして、参加者端末1a~1dおよび視聴者端末2のそれぞれが表示制御データを処理し、アバターA~Dおよび仮想カメラから見た仮想空間を表示する画像を生成する。
【0075】
一方、参加者端末1a~1dおよび視聴者端末2でレンダリングを行う場合、
図7A~
図7Cに示す画像に対応する画像データが表示制御データとして送信される。そのため、参加者端末1a~1dおよび視聴者端末2に送信される表示制御データは互いに異なる。
【0076】
[会話開始後のコンテンツ配信システムの処理動作]
図8は、会話開始後のコンテンツ配信システムの処理動作の一例を示すシーケンス図であり、
図5に引き続いて行われるものである。
【0077】
参加者Aが参加者端末1aに対して会話開始の指示を行うと、トリガ生成部162は会話開始トリガを生成し、これをコンテンツ配信サーバ3に送信する(ステップS21)。なお、会話開始トリガに関連付けられたアバターすなわち会話アバターを特定するための情報もコンテンツ配信サーバ3に送信される。会話開始の指示は操作部12および/または動作入力部13に対して行われる。
【0078】
参加者端末1aがスマートフォンである場合、会話開始の指示は、例えばマイクへの発話、タッチパネルディスプレイに表示された文字入力欄に対する特定の文字や単語(例えば「!」や「おはよう」等)の入力、ボタンの押下、タッチパネルディスプレイに表示された所定アイコンのタッチ、スマートフォンを縦向きから横向きに回転させたこと(加速度センサで検知される)である。
【0079】
また、参加者Aは会話アバターを特定してもよい。一例として、タッチパネルディスプレイに表示されているアバターの中から任意のアバターをタップすることで、会話アバターを指定してもよい。あるいは、仮想空間に配置されているアバターの一覧から任意のアバターを選択してもよい。また、独り言のような場合には、会話アバターを特定しなくてもよい(この場合、会話アバターはアバターAのみとなる)。
【0080】
また、参加者端末1aがVR用のコントローラを含む場合、会話開始の指示はコントローラに設けられた所定のボタンの押下であってよい。そして、コントローラの動きに連動して仮想空間内に表示されるポインタによって、会話アバターを特定してもよい。
【0081】
会話開始トリガが送信されると、コンテンツ配信サーバ3のトリガ検知部332は会話開始トリガを検知する(ステップS31)。また、トリガ検知部332は当該会話開始トリガに関連付けられた会話アバターを特定する(ステップS32)。なお、会話アバターは必ずしも参加者Aが特定する必要はなく、会話の文脈に応じてトリガ検知部332が自動的に特定してもよい。
【0082】
会話開始トリガの検知に応答して、アバター制御部333aは少なくとも一部のアバターの仮想空間における配置を変更して、アバター配置情報を更新する(ステップS33)。このような配置の変更を行う結果、仮想空間におけるアバターの配置は、各参加者の動作入力部13に対する動作から外れたものとなる。
【0083】
なお、ここで更新されるアバター配置情報は参加者端末1a~1dおよび視聴者端末2ごとに異なり得る。すなわち、参加者端末1a~1dおよび視聴者端末2のそれぞれ用に(言い換えると、各アバター用および仮想カメラ用に)アバター配置情報が生成される。
【0084】
次に、生成されたアバター配置情報に基づいて、表示制御データ生成部333bは表示制御データを生成する。そして、表示制御データは参加者端末1aに配信される(ステップS34)。また、他の参加者端末1b~1dおよび視聴者端末2にも表示制御データが配信される。アバター配置情報が参加者端末1a~1dおよび視聴者端末2ごとに異なる場合、参加者端末1a~1dおよび視聴者端末2でレンダリングを行う場合であっても、表示制御情報は参加者端末1a~1dおよび視聴者端末2ごとに異なる。
【0085】
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aの表示制御部165は表示制御データを受信する。この表示制御データは、
図5のステップS2で受信される表示制御データと比較すると、仮想空間における会話アバターの配置が変更されたものとなっている。このような表示制御データに基づいて、表示制御部163はディスプレイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステップS22)。他の参加者端末1b~1dおよび視聴者端末も同様にコンテンツを表示させる。
【0086】
なお、会話開始トリガが検知された後も、コンテンツ配信サーバ3のアバター配置取得部331は、各参加者端末1a~1dのアバター制御部161からアバターの仮想空間における配置を取得し、アバターの配置に反映させたり、必要に応じて記憶部32に記憶しておく。
【0087】
図9Aは、参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す図である。また、
図9Bは、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。
図9Cは、視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図である。
図9A~
図9Cは、それぞれ
図7A~
図7Cと対応している。
図6の状態でアバターA,Cを会話アバターとする会話開始トリガが検知されたことを想定しており、
図9Aは会話アバターの視点、
図9Bは非会話アバターの視点、
図9Cは仮想カメラの視点となっている。
【0088】
図9Aに示すように、会話アバターAの会話相手である会話アバターCがディスプレイ15の中央付近に表示される。より詳しくは、
図6の状態から会話アバターCが移動していない(参加者CがアバターCを移動させるための動作を行っていない)場合であっても、会話開始トリガに応答して、会話アバターCがディスプレイ15の中央付近に表示される。これは、
図8のステップS33において、参加者端末1a用に会話アバターCが会話アバターAに近づくよう変更されたことを意味する。また、会話アバターCが
図6より大きく表示されてもよい。
【0089】
このようにすることで、仮に会話相手の会話アバターCが自身(会話アバターA)から離れている場合であっても、また、ディスプレイ15が小さい場合であっても、会話アバターCが強調されて見やすく表示できる。
【0090】
また、会話アバターCが会話アバターAを向くように(ディスプレイ15において正面を向くように)するのが望ましい。より詳しくは、
図6の状態で会話アバターCが会話アバターAを向いていない場合であっても、会話開始トリガに応答して、会話アバターCが会話アバターAを向く。会話アバターA,Cが互いに向かい合うのが自然なためである。
【0091】
さらに、非会話アバターB,Dが会話アバターAまたは会話アバターCを向くようにするのが望ましい。より詳しくは、
図6の状態で非会話アバターB,Dが会話アバターAまたは会話アバターCを向いていない場合であっても、会話開始トリガに応答して、非会話アバターB,Dが会話アバターAまたは会話アバターCを向く。非会話アバターB,Dも会話アバターAまたは会話アバターCに着目するのが自然であるためである。また、非会話アバターB,Dは、会話アバターAが発話するタイミングでは会話アバターAを向き(ディスプレイ15において正面を向き)、会話アバターCが発話するタイミングでは会話アバターCを向くようにしてもよい。
【0092】
また、非会話アバターB,Dの配置位置は
図6と同じであってもよいし異なっていてもよい。異なる場合でも、
図6の配置位置、より具体的には非会話アバターB,Dの相対的な位置関係を考慮したものであるのが望ましい。例えば、
図6では非会話アバターBより右側に非会話アバターDがいるため、
図9Aにおいても、そのような位置関係を維持すべく、非会話アバターBより右側に非会話アバターDが配置されるのがよい。いずれにせよ、会話アバターCに比べて重要度は低いので、非会話アバターB,Dは不自然にならないように適宜表示すればよい。
【0093】
さらに、アバターの発言を吹き出し内に表示してもよい。他の図では図示していないが、同様である。
【0094】
なお、参加者Aの操作に応じて、ディスプレイ15に表示されるコンテンツを
図7Aと
図9Aとで切替可能であってもよい。
【0095】
図9Bに示すように、非会話アバターDに対応する参加者端末1dのディスプレイ15
に表示されるコンテンツは
図7Aと同じであってもよい。このようなコンテンツは、会話開始トリガが検知された後も、参加者端末1d用には、
図8のステップS33における変更を行わず、引き続きアバター配置取得部331によって取得された配置に基づいてアバター制御部333aがアバター配置情報を生成すればよい。
【0096】
図9Cに示すように、仮想カメラからの視点において、会話アバターA,Cがディスプレイ23の中央付近に表示される。これは、
図8のステップS33において、視聴者端末2用に(仮想カメラ用に)会話アバターA,Cが仮想カメラの位置に近づくよう変更されたことを意味する。
【0097】
このようにすることで、仮に会話アバターA,Cが互いに離れている場合であっても、また、ディスプレイ23が小さい場合であっても、会話アバターA,Cが強調されて、見やすく表示できる。
【0098】
また、会話アバターA,Cは仮想カメラの位置を向く(ディスプレイ23において正面を向く)ようにするのが望ましい。さらに、会話アバターでないアバターB,Dが会話アバターA,Cを向くようにするのが望ましい。また、非会話アバターB,Dは、会話アバターAが発話するタイミングでは会話アバターAを向き、会話アバターCが発話するタイミングでは会話アバターCを向くようにしてもよい。
【0099】
さらに、
図9Aと同様に、非会話アバターB,Dの配置位置は
図6と同じであってもよいし異なっていてもよい。
【0100】
なお、視聴者ユーザの操作に応じて、ディスプレイ23に表示されるコンテンツを
図7Cと
図9Cとで切替可能であってもよい。
【0101】
図10は、
図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。
図9Bと異なり、会話アバターA,Cが非会話アバターDの位置を向いている(ディスプレイ15において正面を向いている)。このような表示によれば、非会話アバターDに対応する参加者Dにとっても、自らを向いているアバターA,Cが会話アバターであることが分かりやすい。
【0102】
図11は、
図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。
図10と異なり、会話アバターA,Cが互いに向き合っている。向き合って会話するような表示が自然であるためである。なお、
図9Cにおいても同様に、会話アバターA,Cが互いに向き合うようにしてもよい。
【0103】
図12は、
図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。
図10および
図11と異なり、会話アバターAは非会話アバターDと会話アバターCの間の位置を向き、会話アバターCは非会話アバターDと会話アバターAの間の位置を向くようにしてもよい。非会話アバターDに対応する参加者DにとってもアバターA,Cが会話アバターであることが分かりやすく、かつ、会話アバターA、Cが向き合っているようにも見え、自然である。なお、
図9Cにおいても同様に、会話アバターAが仮想カメラと会話アバターCの間の位置を向き、会話アバターCが仮想カメラと会話アバターAの間の位置を向くようにしてもよい。
【0104】
図13は、
図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す図である。
図9Aと同様、会話アバターA,Cがディスプレイ15の中央付近に表示されてもよい。このときの会話アバターA,Cの向きは、
図10~
図12のいずれかと同様であってよい。
【0105】
なお、会話アバターと非会話アバターの配置に関し、予め複数のテンプレートを定めて記憶部32に記憶しておいてもよい。そして、アバター制御部333aは、会話開始トリガが検知されると、会話アバターや非会話アバターの数などに応じて定まるルールに基づいて適切なテンプレートを選択する。そして、アバター制御部333aは選択したテンプレートに各アバターを当て嵌めることによって、仮想空間に各アバターを配置してもよい。
【0106】
[会話終了後のコンテンツ配信システムの処理動作]
図14は、会話終了後のコンテンツ配信システムの処理動作の一例を示すシーケンス図であり、
図8に引き続いて行われるものである。
【0107】
参加者Aが参加者端末1aに対して会話終了の指示を行うと、トリガ生成部162は会話終了トリガを生成し、これをコンテンツ配信サーバ3に送信する(ステップS41)。会話終了の指示は操作部12および/または動作入力部13に対して行われる。また、会話終了の指示は、会話開始の指示と同様であってよい。
【0108】
例えば、参加者端末1aがスマートフォンである場合、会話終了の指示は、例えばマイクへの発話、タッチパネルディスプレイに表示された文字入力欄に対する特定の文字や単語の入力、ボタンの押下、タッチパネルディスプレイに表示された所定アイコンのタッチ、スマートフォンを横向きから縦向きに回転させたこと(加速度センサで検知される)である。
【0109】
また、参加者端末1aがVR用のコントローラを含む場合、会話終了の指示はコントローラに設けられた所定のボタンの押下であってよい。
【0110】
会話終了トリガが送信されると、コンテンツ配信サーバ3のトリガ検知部332は会話終了トリガを検知する(ステップS51)。
【0111】
会話終了トリガの検知に応答して、アバター制御部333aは
図8のステップS33で変更されていたアバターの配置を元に戻す(ステップS52)。具体的には、アバター制御部333aは、アバター配置取得部331によって取得されたアバターの配置に基づいてアバターAの仮想空間における配置を設定して、アバター配置情報を更新する。これにより、仮想空間における各アバターの配置は参加者の動作入力部13に対する動作がそのまま反映されたものに戻るものである。
【0112】
次に、アバター配置情報に基づいて、表示制御データ生成部333bは表示制御データを生成し、参加者端末1aに配信する(ステップS53)。また、他の参加者端末1b~1dおよび視聴者端末2にも表示制御データが配信される。
【0113】
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aは表示制御データを受信する。この表示制御データに基づいて、表示制御部163はディスプレイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステップS42)。他の参加者端末1b~1dおよび視聴者端末も同様にコンテンツを表示させる。
【0114】
以上により、会話開始トリガの検知後は
図9A~
図9Cのような表示だったものが、会話終了トリガの検知により、
図7A~
図7Cのような表示に戻る。
【0115】
このように、本実施形態では、会話トリガの開始に応じて仮想空間におけるアバターの配置を変更する。これにより、仮想空間に配置されるアバターを見やすく表示できる。
【0116】
以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が生じない限り、適宜組み合わせ可能である。
【符号の説明】
【0117】
1a~1d 参加者端末
11 通信部
12 操作部
13 操作入力部
14 記憶部
15 ディスプレイ
16 制御部
17 アバター制御部
18 トリガ生成部
19 表示制御部
2 視聴者端末
21 通信部
22 操作部
23 ディスプレイ
24 記憶部
25 制御部
26 表示制御部
3 コンテンツ配信サーバ
31 通信部
32 記憶部
33 制御部
331 アバター配置取得部
332 トリガ検知部
333 表示制御データ配信部
333a アバター制御部
333b 表示制御データ生成部