IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

特開2023-181567情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法
<>
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図1
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図2
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図3
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図4
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図5
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図6
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図7
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図8
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図9
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図10
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図11
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図12
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図13
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図14
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図15
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図16
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図17
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図18
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図19
  • 特開-情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 図20
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023181567
(43)【公開日】2023-12-25
(54)【発明の名称】情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法
(51)【国際特許分類】
   G06F 3/048 20130101AFI20231218BHJP
   A63F 13/65 20140101ALI20231218BHJP
   A63F 13/53 20140101ALI20231218BHJP
   A63F 13/54 20140101ALI20231218BHJP
   A63G 31/16 20060101ALI20231218BHJP
   A63J 99/00 20090101ALI20231218BHJP
   G06F 3/01 20060101ALI20231218BHJP
   G06F 3/0487 20130101ALI20231218BHJP
   H04N 5/93 20060101ALI20231218BHJP
   H04N 5/92 20060101ALI20231218BHJP
   G10H 1/00 20060101ALI20231218BHJP
【FI】
G06F3/048
A63F13/65
A63F13/53
A63F13/54
A63G31/16
A63J99/00 Z
G06F3/01 570
G06F3/0487
H04N5/93
H04N5/92 010
G10H1/00 102Z
【審査請求】未請求
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2020188554
(22)【出願日】2020-11-12
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】100104215
【弁理士】
【氏名又は名称】大森 純一
(74)【代理人】
【識別番号】100196575
【弁理士】
【氏名又は名称】高橋 満
(74)【代理人】
【識別番号】100168181
【弁理士】
【氏名又は名称】中村 哲平
(74)【代理人】
【識別番号】100160989
【弁理士】
【氏名又は名称】関根 正好
(74)【代理人】
【識別番号】100117330
【弁理士】
【氏名又は名称】折居 章
(74)【代理人】
【識別番号】100168745
【弁理士】
【氏名又は名称】金子 彩子
(74)【代理人】
【識別番号】100176131
【弁理士】
【氏名又は名称】金山 慎太郎
(74)【代理人】
【識別番号】100197398
【弁理士】
【氏名又は名称】千葉 絢子
(74)【代理人】
【識別番号】100197619
【弁理士】
【氏名又は名称】白鹿 智久
(72)【発明者】
【氏名】高橋 正宏
(72)【発明者】
【氏名】西出 幸子
(72)【発明者】
【氏名】白川 実祐樹
(72)【発明者】
【氏名】津田 崇基
【テーマコード(参考)】
5C053
5D478
5E555
【Fターム(参考)】
5C053GB06
5C053HA01
5C053HA21
5C053JA22
5C053LA01
5C053LA11
5C053LA14
5D478GG03
5E555AA25
5E555AA46
5E555AA57
5E555AA64
5E555AA76
5E555BA02
5E555BA04
5E555BB04
5E555BC04
5E555BE17
5E555CA42
5E555CA44
5E555CA45
5E555CB21
5E555CB48
5E555CB66
5E555DA02
5E555DA23
5E555DB41
5E555DB53
5E555DB57
5E555DC09
5E555DC13
5E555DC84
5E555DC85
5E555EA05
5E555FA00
(57)【要約】      (修正有)
【課題】音による拡張現実の体験を共有することが可能な情報処理装置、情報処理方法、情報処理システム及びデータ生成方法を提供する。
【解決手段】サーバ装置及び各端末装置は、ネットワークを介して通信可能に接続される情報処理システムにおいて、端末装置(情報処理装置)は、取得部(端末データ管理部)と、生成部(ライブコンテンツ生成部)と、を具備する。取得部は、ユーザが音による拡張現実を体験中に発生したイベントEごとに、イベントEで提示される音データを含む視聴覚データがタイムライン6に沿って記録されたイベント情報10を取得する。生成部は、イベント情報10に基づいて、タイムライン6を基準に視聴覚データを再生する再生データを生成する。
【選択図】図3
【特許請求の範囲】
【請求項1】
ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示される音データを含む視聴覚データがタイムラインに沿って記録されたイベント情報を取得する取得部と、
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する生成部と
情報処理装置。
【請求項2】
請求項1に記載の情報処理装置であって、
前記視聴覚データは、前記イベントに関連する視覚データを含む
情報処理装置。
【請求項3】
請求項2に記載の情報処理装置であって、
前記視覚データは、前記音データの内容を視覚的に表すデータである
情報処理装置。
【請求項4】
請求項2に記載の情報処理装置であって、
前記視覚データは、前記イベントが発生した際に収音された音声又は環境音の内容を視覚的に表すデータである
情報処理装置。
【請求項5】
請求項1に記載の情報処理装置であって、
前記イベント情報は、前記タイムラインにおける前記イベントを発生させるトリガの検出タイミングを含む
情報処理装置。
【請求項6】
請求項5に記載の情報処理装置であって、
前記イベント情報は、前記イベントにおける前記視聴覚データの提示タイミングを含み、
前記生成部は、前記視聴覚データの提示タイミングを基準に、前記再生データにおいて前記視聴覚データが再生されるタイミングを設定する
情報処理装置。
【請求項7】
請求項6に記載の情報処理装置であって、
前記視聴覚データの提示タイミングは、前記トリガの検出タイミングに対する相対的な時間として記録される
情報処理装置。
【請求項8】
請求項1に記載の情報処理装置であって、
前記イベント情報は、前記イベントにおける前記視聴覚データの提示位置を含み、
前記生成部は、前記視聴覚データの提示位置を基準に、前記再生データにおいて前記視聴覚データが再生される位置を設定する
情報処理装置。
【請求項9】
請求項1に記載の情報処理装置であって、
前記視聴覚データは、前記イベントが発生した際の状況を表す状況情報に基づいて生成されたデータ、又は前記状況情報に基づいて選択されたデータである
情報処理装置。
【請求項10】
請求項9に記載の情報処理装置であって、
前記状況情報は、前記ユーザの周辺環境、前記ユーザのステータス、及び前記ユーザの動作内容の少なくとも1つに関する情報を含む
情報処理装置。
【請求項11】
請求項1に記載の情報処理装置であって、
前記取得部は、第1のユーザを対象とするイベントに関する前記イベント情報を取得し、
前記生成部は、前記再生データとして、前記第1のユーザとは異なる第2のユーザに対して、前記第1のユーザを対象とするイベントを視聴可能なように提示する共有データを生成する
情報処理装置。
【請求項12】
請求項11に記載の情報処理装置であって、
前記生成部は、前記第1のユーザ及び前記第2のユーザの相対距離、又は前記第1のユーザ及び前記第2のユーザの所属の少なくとも一方が所定の条件を満たした場合に、前記共有データを生成する
情報処理装置。
【請求項13】
請求項11に記載の情報処理装置であって、
前記生成部は、前記第1のユーザを対象とするイベントにおける前記音データの提示位置と前記第2のユーザの位置との相対的な位置関係に基づいて、前記共有データにおける前記音データの再生音量又は再生方位の少なくとも一方を調整する
情報処理装置。
【請求項14】
請求項1に記載の情報処理装置であって、
前記生成部は、前記再生データとして、前記タイムラインに沿って前記イベントを再現する再現コンテンツを生成する
情報処理装置。
【請求項15】
請求項14に記載の情報処理装置であって、
前記取得部は、前記ユーザが前記音による拡張現実を体験する際に撮影された体験画像を取得し、
前記生成部は、前記タイムラインに沿って、前記体験画像に前記視聴覚データによる演出を加えることで前記再現コンテンツを生成する
情報処理装置。
【請求項16】
請求項15に記載の情報処理装置であって、
前記体験画像は、前記ユーザを含む前記音による拡張現実の体験者が携帯するカメラ、又は前記体験者の周辺に配置されたカメラの少なくとも一方により撮影された画像である
情報処理装置。
【請求項17】
請求項15に記載の情報処理装置であって、
前記生成部は、前記イベントにおける前記音データの提示位置と前記体験画像の撮影位置との相対的な位置関係に基づいて、前記再現コンテンツにおける前記音データの再生音量又は再生方位の少なくとも一方を調整する
情報処理装置。
【請求項18】
ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示された音データを含む視聴覚データがタイムラインに沿って記録されたイベント情報を取得し、
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する
ことをコンピュータシステムが実行する情報処理方法。
【請求項19】
ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示された音データを含む視聴覚データをタイムラインに沿って記録してイベント情報を生成する記録部と、
前記イベント情報を取得する取得部と、
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する生成部と
を具備する情報処理システム。
【請求項20】
ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示された音データを含む視聴覚データがタイムラインに沿って記録されたイベント情報を取得し、
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する
ことをコンピュータシステムが実行するデータ生成方法。
【発明の詳細な説明】
【技術分野】
【0001】
本技術は、拡張現実のコンテンツを提供可能な情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法に関する。
【背景技術】
【0002】
特許文献1には、ユーザの体の動きに応じて、リアルタイムにコンテンツを提供するシステムが記載されている。このシステムでは、ユーザの移動動作における所定状態のタイミングが予測され、この予測されたタイミングでコンテンツが再生される。これにより、例えば仮想的な足音いったコンテンツを、ユーザの歩行に合わせて適正なタイミングで再生することが可能となる(特許文献1の明細書段落[0016][0020][0028][0036]図1図4等)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】国際公開第2020/090223号
【発明の概要】
【発明が解決しようとする課題】
【0004】
引用文献1のように、音を再生することで現実感を拡張する方法が開発されている。このような音による拡張現実(AR:Augmented Reality)は、ユーザが個別に体験できる一方で、その体験内容を他者に伝えることが難しい場合がある。このため、音による拡張現実の体験を共有することが可能な技術が求められている。
【0005】
以上のような事情に鑑み、本技術の目的は、音による拡張現実の体験を共有することが可能な情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法を提供することにある。
【課題を解決するための手段】
【0006】
上記目的を達成するため、本技術の一形態に係る情報処理装置は、取得部と、生成部とを具備する。
前記取得部は、ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示される音データを含む視聴覚データがタイムラインに沿って記録されたイベント情報を取得する。
前記生成部は、前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する。
【0007】
この情報処理装置では、音による拡張現実の体験中に生じたイベントを記録したイベント情報が取得される。イベント情報には、各イベントで提示される音データを含む視聴覚データがタイムラインに沿って記録されている。このイベント情報をもとに、タイムライン上で視聴覚データを再生する再生データが生成される。これにより、ユーザの体験内容を再現することが可能となり、音による拡張現実の体験を共有することが可能となる。
【0008】
前記視聴覚データは、前記イベントに関連する視覚データを含んでもよい。
【0009】
前記視覚データは、前記音データの内容を視覚的に表すデータであってもよい。
【0010】
前記視覚データは、前記イベントが発生した際に収音された音声又は環境音の内容を視覚的に表すデータであってもよい。
【0011】
前記イベント情報は、前記タイムラインにおける前記イベントを発生させるトリガの検出タイミングを含んでもよい。
【0012】
前記イベント情報は、前記イベントにおける前記視聴覚データの提示タイミングを含んでもよい。この場合、前記生成部は、前記視聴覚データの提示タイミングを基準に、前記再生データにおいて前記視聴覚データが再生されるタイミングを設定してもよい。
【0013】
前記視聴覚データの提示タイミングは、前記トリガの検出タイミングに対する相対的な時間として記録されてもよい。
【0014】
前記イベント情報は、前記イベントにおける前記視聴覚データの提示位置を含んでもよい。この場合、前記生成部は、前記視聴覚データの提示位置を基準に、前記再生データにおいて前記視聴覚データが再生される位置を設定してもよい。
【0015】
前記視聴覚データは、前記イベントが発生した際の状況を表す状況情報に基づいて生成されたデータ、又は前記状況情報に基づいて選択されたデータであってもよい。
【0016】
前記状況情報は、前記ユーザの周辺環境、前記ユーザのステータス、及び前記ユーザの動作内容の少なくとも1つに関する情報を含んでもよい。
【0017】
前記取得部は、第1のユーザを対象とするイベントに関する前記イベント情報を取得してもよい。この場合、前記生成部は、前記再生データとして、前記第1のユーザとは異なる第2のユーザに対して、前記第1のユーザを対象とするイベントを視聴可能なように提示する共有データを生成してもよい。
【0018】
前記生成部は、前記第1のユーザ及び前記第2のユーザの相対距離、又は前記第1のユーザ及び前記第2のユーザの所属の少なくとも一方が所定の条件を満たした場合に、前記共有データを生成してもよい。
【0019】
前記生成部は、前記第1のユーザを対象とするイベントにおける前記音データの提示位置と前記第2のユーザの位置との相対的な位置関係に基づいて、前記共有データにおける前記音データの再生音量又は再生方位の少なくとも一方を調整してもよい。
【0020】
前記生成部は、前記再生データとして、前記タイムラインに沿って前記イベントを再現する再現コンテンツを生成してもよい。
【0021】
前記取得部は、前記ユーザが前記音による拡張現実を体験する際に撮影された体験画像を取得してもよい。この場合、前記生成部は、前記タイムラインに沿って、前記体験画像に前記視聴覚データによる演出を加えることで前記再現コンテンツを生成してもよい。
【0022】
前記体験画像は、前記ユーザを含む前記音による拡張現実の体験者が携帯するカメラ、又は前記体験者の周辺に配置されたカメラの少なくとも一方により撮影された画像であってもよい。
【0023】
前記生成部は、前記イベントにおける前記音データの提示位置と前記体験画像の撮影位置との相対的な位置関係に基づいて、前記再現コンテンツにおける前記音データの再生音量又は再生方位の少なくとも一方を調整してもよい。
【0024】
本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示された音データを含む視聴覚データがタイムラインに沿って記録されたイベント情報を取得することを含む。
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データが生成される。
【0025】
本技術の一形態に係る情報処理システムは、記録部と、取得部と、生成部とを有する。
前記記録部は、ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示された音データを含む視聴覚データをタイムラインに沿って記録してイベント情報を生成する。
前記取得部は、前記イベント情報を取得する。
前記生成部は、前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する。
【0026】
本技術の一形態に係るデータ生成方法は、コンピュータシステムにより実行されるデータ生成方法であって、ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示された音データを含む視聴覚データがタイムラインに沿って記録されたイベント情報を取得することを含む。
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データが生成される。
【図面の簡単な説明】
【0027】
図1】本技術の第1の実施形態に係る情報処理システムの構成例を示す模式図である。
図2】音によるARの概要を示す模式図である。
図3】イベント情報の生成フローを示す模式図である。
図4図1に示す情報処理システムの機能的な構成例を示すブロック図である。
図5】複数のユーザの間でイベントを共有させる処理の一例を示すフローチャートである。
図6】共有データを用いて共有される共有イベントの一例を示す模式図である。
図7】共有イベントに伴うイベント情報の一例を示す模式図である。
図8】共有イベントに伴うイベント情報の一例を示す模式図である。
図9】比較例として挙げるイベントの一例を示す模式図である。
図10】第2の実施形態に係る情報処理システムの構成例を示す模式図である。
図11】音によるARの再現コンテンツの一例を示す模式図である。
図12図10に示すサーバ装置の機能的な構成例を示すブロック図である。
図13】再現コンテンツの生成方法の一例を示すフローチャートである。
図14】再現コンテンツの生成に用いるイベント情報の一例を示す模式図である。
図15】ユーザが一人で参加するアトラクションの流れを示す模式図である。
図16】ユーザが一人で体験するセッションの一例を示す模式図である。
図17】ユーザがグループで体験するセッションの一例を示す模式図である。
図18】ユーザ同士が撮影した撮影映像をベースとする再現コンテンツについて説明するための模式図である。
図19】コンテキストに応じた再現コンテンツの生成例を示す模式図である。
図20】収音データを用いた再現コンテンツの生成例を示す模式図である。
【発明を実施するための形態】
【0028】
以下、本技術に係る実施形態を、図面を参照しながら説明する。
【0029】
<第1の実施形態>
[情報処理装置の構成]
図1は、本技術の第1の実施形態に係る情報処理システムの構成例を示す模式図である。
情報処理システム100は、複数のユーザ1を対象として音によるAR(サウンドAR)の体験を提供するシステムである。情報処理システム100は、サーバ装置20と、少なくとも1つの端末装置30とを有する。サーバ装置20は、音によるAR体験全体を管理する装置である。端末装置30は、各ユーザ1が携帯して使用する装置である。サーバ装置20及び各端末装置30は、ネットワーク50を介して通信可能に接続される。
ネットワーク50としては、例えばインターネットや、プライベートネットワーク等を利用した接続回線が用いられる。
【0030】
図2は、音によるARの概要を示す模式図である。
音によるARとは、音声や効果音等の音(ARサウンド3)を実世界に重ねて再生することで、ユーザ1に仮想的なオブジェクトやインタラクションを知覚させる拡張現実(AR)である。
音によるARは、例えばテーマパークや各種の体験型イベント等のアトラクションとして提供される。アトラクションに参加したユーザ1は、例えば図2に示すようにイヤホン2が付属した端末装置30を携帯して会場内を移動する。
イヤホン2としては、例えば外部の音が聞こえるように構成されたオープン型のイヤホンが用いられる。あるいは、外部の音を取り込み可能なクローズ型のイヤホンが用いられてもよい。これにより、再生したいARサウンド3を、実世界の音に重畳して提示することが可能となる。また、外部の音が遮断されないため、安全性を高めることができる。またイヤホン2に代えて、ヘッドホン等の再生装置が用いられてもよい。
【0031】
なお、音によるARでは、ARサウンド3のみならず、ARビジュアルが再生されてもよい。ARビジュアルは、例えば実世界の映像に重畳される仮想キャラクタや、実世界の映像に加えられる視覚効果等の視覚的な情報である。例えば、端末装置30に搭載されたカメラが撮影した実世界の映像が端末装置30のディスプレイに表示される。この時、実世界の映像にARビジュアルが重畳される。
ARビジュアルとしては、典型的にはARサウンド3と関連する情報(例えばキャラクタ等)、あるいはARサウンド3の内容を表す情報(例えば擬音を表すエフェクト等)が用いられる。なおARビジュアルは、必ずしもARサウンド3と関連する必要はない。
【0032】
アトラクションでは、ユーザ1の位置情報や行動が適宜検出される。例えば、ユーザ1の位置情報は、Bluetooth(登録商標)、ビーコン、GPS等を用いて検出され、ユーザ1の行動は、IMU(慣性計測装置)等のモーションセンサを用いて検出される。
このように検出されたユーザ1の位置情報や行動等をトリガとして、実世界にARサウンド3を重ねて再生することで、ユーザ1の体験が演出される。従って、ユーザ1が体験する内容は、ユーザ1ごとに異なる内容となる。
【0033】
図2に示す例では、ARサウンド3として、仮想的な足音3aや仮想的な音声3bが再生される。ここでは、ARサウンド(仮想的な足音3aや仮想的な音声3b)が音符を用いて模式的に図示されている。
【0034】
例えば、ユーザ1の移動動作に合わせて、仮想的な足音3a(効果音)が提示される。この場合、ユーザ1が足を着地させるたびに、その着地のタイミングにあわせて仮想的な足音3aがイヤホン2から再生される。これにより、雪原や水溜まり等の仮想的な地面を歩くような感覚を知覚させることや、仮想的なキャラクタとして歩行しているような感覚を知覚させることが可能となる。
また例えば、実世界の所定の位置に定位させた仮想的な音声3bが提示される。ここでは、実世界に設置されたベンチ51の上に定位させた仮想的な音声3bが再生される。従って、例えばベンチ51がユーザ1の背後にある場合、仮想的な音声3bは、ユーザ1の背後から聞こえるように再生される。また仮想的な音声3bの音量は、ベンチ51に近づくほど大きくなるように調整される。これにより、あたかもベンチ51の上に目に見えないキャラクタが存在しているかのような感覚を体験させることが可能となる。
この他、音によるARの内容は限定されず、音声、効果音、BGM等のARサウンドを利用した任意の内容を設計することが可能である。
【0035】
以下では、シナリオ(筋書き)に沿って進行するアトラクションを例に挙げて、音によるARの内容等を説明する。
ここでは、1つのシナリオに沿って得られる体験をセッションとして捉える。セッションとは、一連のシナリオの開始から終了までに生じるひとかたまりの事象を意味する。あるいは、シナリオの開始から終了までの期間を指してセッションと記載する場合もある。
【0036】
音によるARでは、シナリオの進行中に、ユーザ1の位置情報や行動等をトリガとして少なくとも1つのイベントが発生する。このイベントに合わせてARサウンド3が提示される。またイベントに合わせてARビジュアルが提示されてもよい。
すなわち、イベントは、セッション中に発生し、ARサウンド3やARビジュアル等のデータを実世界に付加する一連の処理であると言える。またセッションは、少なくとも1つのイベントを含むイベントの集合となる。
【0037】
例えば、図2に示す例では、ユーザ1の足が着地するたびに1つのイベントが発生し、仮想的な足音3aが再生される。この場合、ユーザ1が着地動作を行った回数だけイベントが発生することになり、1つのセッションには多数のイベントが含まれることになる。
また例えば、ユーザ1の行動等をトリガとして1つのイベントが発生し、仮想的な音声3bが再生される。そのイベントが終了すると、シナリオに合わせた次の音声等を提示するイベントが開始可能となる。このようにして、シナリオに沿って設計された複数のイベントが、ユーザの行動等に応じて順次発生し、シナリオが進行することになる。この場合、順次発生するイベントの集合がセッションとなる。
【0038】
また、アトラクションには、ユーザ1が単独で参加する場合、及びグループで参加する場合がある。さらに、アトラクションには、ガイドがつけられる場合がある。
従って、ユーザ1は、音によるARの体験者(アトラクションの参加者)であるといえる。また、ガイドとは、ユーザ1と同じグループに入り、体験を共有しながらシナリオの進行を担当するスタッフである。グループとは、同一のセッションで体験を共有する複数のユーザ1を含む団体である。ガイドがつけられている場合には、ユーザ1及びガイドからなる団体がグループとなる。
【0039】
例えば、ユーザ1の動作をトリガとしてARサウンド3(例えば仮想的な足音等)が提示されるようなイベントを考える。イベントが発生すると、ARサウンド3がイヤホン2で再生され、動作を行ったユーザ1にだけARサウンド3が提示される。この場合、同じセッションに参加する他のユーザ1には、イベントを発生させたユーザ1が体験している内容は知覚されない。
このように、音によるARでは、同一のセッションに参加しているユーザ1の間でも、各ユーザ1の体験が共有されないといった場合が考えられる。
【0040】
そこで、本実施形態では、複数のユーザ1を含むグループがアトラクションに参加する場合に、各ユーザ1が互いの体験内容を共有するための技術について説明する。
この技術は、ユーザ1の実体験に適用される。実体験とは、今まさにリアルタイムで進行しているセッションを意味する。従って、本実施形態で説明する技術は、セッション(シナリオ)の進行中にリアルタイムに適用される技術であると言える。
【0041】
図3は、イベント情報の生成フローを示す模式図である。イベント情報10とは、セッション中に発生するイベントEの内容を記録した情報である。
本実施形態では、イベント情報10を利用して、ユーザ1ごとに発生するイベントEを、他のユーザ1が視聴できるように提示する処理が実行される。
ここでは図3を参照して、イベント情報10の生成フローについて説明する。
【0042】
音によるARでは、イベントEごとにARデータ11が提示される。上記したように、ARデータ11には、実世界に重畳される聴覚データ(ARサウンド3のデータ)が含まれる。またARデータ11には、イベントEに関連する視覚データ(ARビジュアル4のデータ)が含まれる。本実施形態では、ARデータ11は、視聴覚データに相当する。
図3には、セッション中に提示されるARデータ11のライブラリとしてサウンドライブラリ13及びビジュアルライブラリ14がそれぞれ模式的に図示されている。
【0043】
サウンドライブラリ13は、あらかじめ制作されたARサウンド3のデータが格納されたデータベースである。ARサウンド3は、音によるARにおいて、仮想空間に発生する音(サウンド)の総称である。以下では、ARサウンド3のデータを指して、単にARサウンド3と記載する場合がある。本実施形態では、ARサウンド3のデータ(ARサウンド3)は、音データに相当する。
【0044】
ARサウンド3には、例えば効果音、ナレーション、BGM等が含まれる。
効果音は、例えばセッション中に検出されたトリガに応じて再生される音である。図2を参照して説明した仮想的な足音は、効果音の一例である。
ナレーションは、例えばシナリオの進行等に用いられる言語による音声である。図2を参照して説明した仮想的な音声は、ナレーションの一例である。
BGMは、例えばトリガによらず再生される音である。また、トリガに応じてBGM
が変更されてもよい。BGMには、楽曲データや環境音等が用いられる。
【0045】
ビジュアルライブラリ14は、あらかじめ制作されたARビジュアル4のデータが格納されたデータベースである。ARビジュアル4は、オブジェクト又はサウンドに対して仮想的に付加される視覚的な情報の総称であり、画像データや視覚効果を伴うエフェクトデータを含む。以下では、ARビジュアル4のデータを指して、単にARビジュアル4と記載する場合がある。本実施形態では、ARビジュアル4のデータ(ARビジュアル4)は、視覚データに相当する。
例えば、実行中のセッションでは、カメラ越しにリアルタイムで視認されるようにARビジュアル4が提示される。
【0046】
ARビジュアル4には、例えば仮想キャラクタのグラフィックデータ、発話や擬音等のテキストデータ、自然現象を模したエフェクトのデータ、デジタルエフェクトのデータ等が含まれる。
仮想キャラクタのグラフィックデータは、例えば仮想キャラクタを表す3Dモデルデータや、2次元的な画像データである。
発話や擬音等のテキストデータは、例えば発話内容を表すテキストや、効果音を擬音で表現するテキストを表示するデータ(フォントやアニメーション等)である。
自然現象を模したエフェクトのデータは、例えば雨、風、雷、雪、花びら、落ち葉といった自然現象を表現する画像データである。
デジタルエフェクトのデータは、例えば画像処理を指定するデータである。例えば画像をぼかす処理や、画面全体を振動させるといった視覚効果を指定するデータ等が用いられる。
【0047】
なお、ARサウンド3及びARビジュアル4は、互いに関連づけて記憶される。例えば仮想的な足音を表すARサウンド3が、その足音の擬音をテキストとして表すARビジュアル4と対応付けて記憶される。あるいは、仮想的なキャラクタのARビジュアル4とその音声を表すARサウンド3とが対応付けて記憶される。このように、ARビジュアル4には、ARサウンド3の内容を視覚的に表すデータが含まれる。
【0048】
また図3には、映像ライブラリ15及びイベントライブラリ16がそれぞれ模式的に図示されている。映像ライブラリ15及びイベントライブラリ16は、セッション中に生成されるデータが格納されるデータベースであり、セッションの進行とともに逐次構築される。
【0049】
映像ライブラリ15は、撮影映像5が格納されたデータベースである。撮影映像5は、ユーザ1が音によるARを体験する際に撮影された映像である。すなわち撮影映像5は、セッションの進行中(ユーザの実体験中)に撮影される。
具体的には、撮影映像5は、ユーザ1を含む音によるARの体験者が携帯するカメラ(以下携帯カメラと記載する)により撮影された映像である。携帯カメラは、例えば各ユーザ1が携帯する端末装置30に設けられる。
あるいは、撮影映像5は、体験者の周辺に配置されたカメラ(以下定点カメラと記載する)により撮影された映像である。定点カメラは、街灯カメラのように固定されていてもよいし、移動可能であってもよい。
【0050】
このように、体験者の携帯カメラや定点カメラによって実体験時に撮影された映像が撮影映像5として用いられる。
なお撮影映像5には、動画像の他にも静止画像が含まれてもよい。また撮影映像5に映っているユーザ1は、ユーザ1の位置情報や被写体認識等により識別可能である。
本実施形態では、撮影映像5は、体験画像に相当する。
【0051】
イベントライブラリ16は、イベント情報10が格納されたデータベースである。上記したように、イベント情報10とは、セッション中に発生したイベントごとにその内容をタイムラインに沿って記録した情報である。
後述するように、本実施形態では、各端末装置30によりイベント情報10が生成される。そして各端末装置30から送信されたイベント情報10がイベントライブラリ16に格納される。
【0052】
音によるARでは、イベントが発生するとARサウンド3が提示される。
イベント情報には、このようにイベントで提示されたARサウンド3が記録される。またイベント情報10には、ARサウンド3と関連するARビジュアル4が記録される。なお、このARビジュアル4は、イベント中に実際に提示されたものでなくてもよい。
【0053】
さらに、イベント情報10には、タイムライン6上の時間(時刻)を表す時間情報が付加される。図3では、太い黒色の矢印を用いてタイムライン6が模式的に図示されている。
ここでタイムライン6とは、例えば1つのセッションにおける時間軸である。例えばセッションの開始時刻をゼロとするタイムライン6が設定される。あるいは、タイムライン6として、アトラクションが行われる地域の標準時間等が用いられてもよい。いずれにしろ、セッション内の時間を記述する際の基準としてタイムライン6が用いられる。
【0054】
時間情報には、タイムライン6において、イベントEが発生したタイミングを表す情報が含まれる。例えばユーザ1の行動等に応じたトリガの検出タイミングが、イベントEが発生したタイミングとして記録される。
すなわち、イベント情報10には、タイムライン6におけるイベントEを発生させるトリガの検出タイミングが含まれる。これにより、各イベントEを適正なタイミングで共有させるといったことが可能となる。
【0055】
また時間情報には、タイムライン6において、ARデータ11(ARサウンド3及びARビジュアル4)を提示する提示タイミングを表す情報が含まれる。すなわちイベント情報10には、イベントEにおけるARデータ11の提示タイミングが含まれる。
ARデータ11の提示タイミングは、例えばイベントEが発生したタイミングと同時でもよい。また、イベントEが発生してから一定の待機時間の後にARデータ11が提示される場合等には、待機時間が時間情報として記録されてもよい。このようにARデータ11の提示タイミングは、トリガ8の検出タイミングに対する相対的な時間として記録されてもよい。
従って、ARデータ11の提示タイミングは、実際にARデータ11が提示された時間であってもよいし、ARデータ11を提示する予定時間であってもよい。これにより、ARデータ11が再生されるタイミング等を自由に設定することが可能となる。
【0056】
このように、イベント情報は、ユーザ1が音によるARを体験中に発生したイベントEごとに、イベントEで提示されるARサウンド3を含むARデータ11がタイムラインに沿って記録された情報である。
なお、本開示においてデータを記録することは、対象のデータそのものを格納すること、及び、対象のデータを指定する情報を格納することの両方を含む。従って、イベント情報10には、ARサウンド3やARビジュアル4のデータがそのまま格納されてもよいし、ARサウンド3やARビジュアル4を指定する情報(ID番号等)が格納されてもよい。
【0057】
また、イベント情報10には、イベントEに関連する各種の位置情報7が付加される。図3では、場所を表すアイコンを用いて各位置情報7が模式的に図示されている。
位置情報7には、イベントEが発生した時のユーザ1の場所(体験位置)が含まれる。ユーザ1の体験位置は、例えば端末装置30に搭載された位置センサの出力や撮影映像5から算出される。
また位置情報7には、イベントEにおいて、ARデータ11(ARサウンド3及びARビジュアル4)を提示する提示位置が含まれる。ARデータ11の提示位置は、イベントの種類等に応じて異なる。例えば仮想的な足音を提示するイベントEでは、ARデータ11の提示位置は、ユーザ1の体験位置と一致する。また例えば仮想的な音声を実世界に定位して提示するイベントEでは、ARデータ11の提示位置が予め設定されている。なおARサウンド3やARビジュアル4の提示位置は、同じ位置であるとは限らない。
【0058】
この他、イベント情報には、イベントの対象となるユーザを識別するIDや、ユーザの所属等を表す情報が含まれてもよい。
【0059】
図3に示すように、1つのセッションがタイムライン6に沿って進行している状態を考える。セッションの進行中は、セッションに参加したユーザ1(端末装置30)ごとにトリガ8の有無が常時監視される。そしてトリガ8(イベントE)が検出されると、イベントEに応じたARデータ11を提示する処理が実行される。
具体的には、検出されたトリガ8に従って、ARサウンド3及びARビジュアル4がそれぞれサウンドライブラリ13及びビジュアルライブラリ14から提供され、適切なタイミングで再生される。これにより、イベントEに応じた音によるAR体験を提供することが可能となる。
【0060】
またトリガ8が検出されると、そのイベントEに対応するARサウンド3及びARビジュアル4が、イベント情報10としてタイムライン6に沿って記録される。この時、ユーザ1の体験位置、ARデータ11の提示位置、ARデータ11の提示タイミング等がイベント情報10に付加される。
【0061】
また、同時に携帯カメラや定点カメラを用いて撮影された撮影映像5が、その撮影位置や撮影方向を含む位置情報7とともに、映像ライブラリ15に記録される。例えば携帯カメラにより撮影された撮影映像5は、ユーザ1の体験を主観的に撮影した映像となり、定点カメラにより撮影された撮影映像5は、ユーザ1の体験を客観的に撮影した映像となる。すなわち、セッション中のユーザ1の体験は、客観・主観の撮影映像5として映像ライブラリに記録される。
このように、本実施形態では、ユーザ1が音によるARを体験している最中に、ユーザ1が体験するイベントEのイベント情報10と、体験の様子を撮影した撮影映像5とが並行して記録される。
【0062】
図4は、図1に示す情報処理システム100の機能的な構成例を示すブロック図である。図4Aは、サーバ装置20の構成例を示すブロック図である。また図4Bは、端末装置30の構成例を示すブロック図である。
【0063】
サーバ装置20は、複数の端末装置30から出力されたデータを収集管理するとともに、必要に応じて各端末装置30に対してデータを出力する。すなわち、サーバ装置20は、データサーバとして機能する。図4Aに示すように、サーバ装置20は、通信部21と、記憶部22と、サーバ制御部23とを有する。
通信部21は、ネットワーク50を介して他のデバイスとの間でネットワーク通信を行う通信モジュールである。通信部21は、例えばサーバ装置20で生成されたデータを送信するデータ送信機能と、ネットワーク50を介して他のデバイス(端末装置30等)から送信されたデータを受信するデータ受信機能とを有する。
通信部21の具体的な構成は限定されず、有線LAN、無線LAN、光通信等に対応した各種の通信モジュールが用いられてよい。
【0064】
記憶部22は、不揮発性の記憶デバイスである。記憶部22としては、例えばSSD(Solid State Drive)等の固体素子を用いた記録媒体や、HDD(Hard Disk Drive)等の磁気記録媒体が用いられる。この他、記憶部22として用いられる記録媒体の種類等は限定されず、例えば非一時的にデータを記録する任意の記録媒体が用いられてよい。
記憶部22には、サーバ制御プログラムが記憶される。サーバ制御プログラムは、例えばサーバ装置20全体の動作を制御するプログラムである。
また図4Aに示すように、記憶部22には、上記したサウンドライブラリ13、ビジュアルライブラリ14、映像ライブラリ15、及びイベントライブラリ16が記憶される。
【0065】
サーバ制御部23は、サーバ装置20の動作を制御する。サーバ制御部23は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部22に記憶されているサーバ制御プログラムをRAMにロードして実行することにより、種々の処理が実行される。
本実施形態では、サーバ制御部23が、サーバ制御プログラムを実行することで、機能ブロックとして、サーバデータ管理部24が実現される。
【0066】
サーバデータ管理部24は、サーバ装置20が扱うデータを管理する。
例えば、サーバデータ管理部24は、端末装置30から送信されたデータを取得して、記憶部22内の各ライブラリに適宜格納する。本実施形態では、端末装置30により生成されたイベント情報10がイベントライブラリ16に格納される。また、端末装置30(携帯カメラ)により撮影された撮影映像5が映像ライブラリ15に格納される。
また例えば、サーバデータ管理部24は、端末装置30から送信されたコマンド等に応じて、記憶部22内の各ライブラリを参照して必要なデータを読み込み、読み込んだデータを端末装置30に送信する。本実施形態では、サーバデータ管理部24を介して、各端末装置30が生成したイベント情報10が、端末装置30の間で共有される。なおイベント情報10を共有する処理は、リアルタイムで行われる。
【0067】
図4Bに示す端末装置30は、ユーザ1に音声や映像を提示可能な携帯型の再生装置である。端末装置30としては、例えばスマートフォンや携帯音楽プレーヤ等が用いられる。図4Bに示すように、端末装置30は、音声出力部31と、画像表示部32と、撮影部33と、センサ部34と、通信部35と、記憶部36と、端末制御部40とを有する。
【0068】
音声出力部31は、イヤホン2に搭載されたスピーカを駆動する音声信号を出力する。例えば音声信号を有線で出力するオーディオアンプや、音声信号を無線で出力する通信モジュール等が、音声出力部31として用いられる。この他、音声出力部31の具体的な構成は限定されない。
例えば、ARサウンド3等の音声データに基づいて、音声信号が生成されイヤホン2に出力される。この結果、イヤホン2からはARサウンド3等の音声が再生され、ユーザ1は音による聴覚的なARを体験することが可能となる。
【0069】
画像表示部32は、画像を表示するディスプレイである。例えば、液晶ディスプレイや有機ELディスプレイ等を備える表示モジュールが、画像表示部32として用いられる。
例えば、後述する撮影部33により撮影された映像(撮影映像5)にARビジュアル4等が重畳されて画像表示部32に出力される。これにより、ユーザ1は画像による視覚的なARを体験することが可能となる。
【0070】
撮影部33は、端末装置30に設けられたカメラであり、端末装置30から見た実世界の景色を撮影する。例えば、CMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサを備えるデジタルカメラが撮影部33として用いられる。
撮影部33は、上記したユーザ1が携帯する携帯カメラとして機能する。また撮影部33により撮影された映像は、撮影映像5として映像ライブラリ15に適宜格納される。
【0071】
センサ部34は、端末装置30に設けられた複数のセンサからなるセンサモジュールである。センサ部34には、動作センサや位置センサ等の各種のセンサが含まれる。
動作センサは、端末装置30の動作状態を検出するセンサである。動作センサとしては、例えば3軸加速度センサ、3軸ジャイロセンサ、及び3軸コンパスセンサからなる9軸センサが用いられる。
位置センサは、外部からの信号に基づいて端末装置30の現在位置を検出するセンサである。位置センサとしては、GPS(Global Positioning System)衛星からの電波を受信して現在位置を検出する測位モジュールが用いられる。あるいは所定の電波を利用したビーコンモジュールが位置センサとして用いられてもよい。
この他、センサ部34の具体的な構成は限定されず、温度センサや照度センサ等が設けられてもよい。。
【0072】
通信部35は、ネットワーク50を介して他のデバイスとの間でネットワーク通信を行う通信モジュールである。通信部35は、例えば端末装置30で生成されたデータを送信するデータ送信機能と、ネットワーク50を介してサーバ装置20から送信されたデータを受信するデータ受信機能とを有する。
通信部35の具体的な構成は限定されず、有線LAN、無線LAN、光通信等に対応した各種の通信モジュールが用いられてよい。
【0073】
記憶部36は、不揮発性の記憶デバイスである。記憶部36としては、例えばSSD等の固体素子を用いた記録媒体や、HDD等の磁気記録媒体が用いられる。この他、記憶部36として用いられる記録媒体の種類等は限定されず、例えば非一時的にデータを記録する任意の記録媒体が用いられてよい。
記憶部36には、端末装置30全体の動作を制御する端末制御プログラムが記憶される。
また記憶部36には、音によるARで用いられるARデータ11のライブラリが記憶される。ARデータ11のライブラリは、例えば、サーバ装置20の記憶部22に記憶されたサウンドライブラリ13及びビジュアルライブラリ14に含まれるデータの全部又は一部を適宜ダウンロードして構築される。あるいは、予めARデータ11のライブラリ(サウンドライブラリ13及びビジュアルライブラリ14)が記憶部36にインストールされてもよい。
【0074】
端末制御部40は、端末装置30の動作を制御する。端末制御部40は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部36に記憶されている端末制御プログラムをRAMにロードして実行することにより、種々の処理が実行される。端末制御部40は、本実施形態に係る情報処理装置に相当する。
【0075】
端末制御部40として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。また例えばGPU(Graphics Processing Unit)等のプロセッサが端末制御部40として用いられてもよい。
【0076】
本実施形態では、端末制御部40のCPUが本実施形態に係るプログラム(制御プログラム)を実行することで、機能ブロックとして、端末データ管理部41と、トリガ検出部42と、共有イベント判定部43と、ライブコンテンツ生成部44とが実現される。そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法及びデータ生成方法が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
【0077】
端末データ管理部41は、端末装置30が扱うデータを管理する。例えば端末データ管理部41は、サーバ装置20から送信されたデータを取得し、記憶部36に格納する。あるいは、端末データ管理部41は、サーバ装置20から送信されたデータを端末装置30の他の機能ブロックに出力する。また、端末データ管理部41は、端末装置30で生成されたデータや、記憶部36に格納されたデータを、サーバ装置20に適宜送信する。この他、記憶部36に記憶されたデータの読み出し等が適宜実行される。
【0078】
本実施形態では、端末データ管理部41により、端末ユーザを対象とするイベントEに関するイベント情報10が生成される。端末ユーザとは、端末装置30を使用するユーザ1である。本実施形態では、端末ユーザは、第2のユーザに相当する。
例えば、端末装置30において端末ユーザを対象とするイベントEが発生すると、そのイベントEに関するイベント情報10が生成される。具体的には、発生したイベントEの種類や発生タイミング、そのイベントEで提示されるARデータ(ARサウンド・ARビジュアル)の種類や提示タイミング等がタイムライン6に沿って記録される。
端末データ管理部41により生成された端末ユーザのイベント情報10は、サーバ装置20に送信される、あるいは後述するライブコンテンツ生成部44に出力される。
【0079】
このように、情報処理システム100では、各端末装置30に設けられた端末データ管理部41により、ユーザ1が音によるARを体験中に発生したイベントEごとに、イベントEで提示されるARサウンド3を含むARデータ11がタイムライン6に沿って記録されてイベント情報10が生成される。
本実施形態では、各端末装置30に設けられた端末データ管理部41により、記録部が実現される。
【0080】
また本実施形態では、端末データ管理部41により、他のユーザを対象とするイベントEに関するイベント情報10が取得される。他のユーザとは、他の端末装置30を使用するユーザ1である。本実施形態では、他のユーザは、第1のユーザに相当する。
例えば、他の端末装置30では、その端末装置30を使用する他のユーザを対象とするイベントEが発生すると、そのイベントEに関するイベント情報10が生成されてサーバ装置20に送信される。端末データ管理部41は、他の端末装置30がサーバ装置20に送信した他のユーザのイベント情報10を取得する。
同様に、サーバ装置20に送信された端末ユーザのイベント情報10は、他の端末装置30に送信されることになる。これにより、各端末装置30の間で、イベント情報10(イベントライブラリ16)が共有されることになる。
本実施形態では、端末データ管理部41は、取得部として機能する。
【0081】
トリガ検出部42は、ユーザ1(端末ユーザ)を対象とするイベントEのトリガ8を検出する。
トリガ8としては、例えばユーザ1の動作が設定される。この場合、センサ部34の動作センサの出力に基づいて、ユーザ1がトリガ8となる動作(歩行動作や所定のジェスチャ等)を行ったか否かが判定される。また例えばユーザ1の位置に応じたトリガ8が設定されてもよい。この場合、センサ部34の位置センサの出力に基づいて、ユーザ1が所定の領域に侵入したか否かが判定される。また経過時間に応じたトリガ8等が設定されてもよい。この他、複数のトリガ8を組み合わせて1つのイベントEのトリガ8として用いることも可能である。
【0082】
本実施形態では、トリガ8が検出されると、そのトリガ8に応じたイベントEが実行される。すなわち、トリガ8の検出タイミングがイベントEの発生タイミングとなる。なお、複数のトリガ8が組み合わせて用いられる場合には、最後に検出されたトリガ8の検出タイミングがイベントEの発生タイミングとなる。
上記したイベント情報10は、典型的にはトリガ8が検出されると即座に生成され、他の端末装置30と共有される。
【0083】
共有イベント判定部43は、共有イベントが発生したか否かを判定する。
ここで、共有イベントとは、複数のユーザ1の間で共有されるイベントEである。例えば、共有イベントでは、イベントEの体験内容が複数のユーザ1にリアルタイムで共有されるようにARデータ11が提示される。
ここでは、端末ユーザとともに音によるARを体験している他のユーザを対象として発生したイベントEが、共有イベントに該当するか否かが判定される。この判定処理では、例えば各ユーザ1の位置や所属、イベントEの種類等に関する条件が判定される。この点については、後に詳しく説明する。
【0084】
ライブコンテンツ生成部44は、音によるARのライブコンテンツを生成する。ここで、ライブコンテンツとは、音によるARを体験するユーザ1にリアルタイムで提供されるコンテンツである。
ライブコンテンツ生成部44では、タイムライン6を基準にARデータ11を再生する再生データが生成される。再生データとしては、例えばARデータ11(ARサウンド3及びARビジュアル4)の種類、提示タイミング、及び提示位置等の再生パラメータを指定するデータが生成される。この再生データに従って、ARデータ11を再生することで、端末ユーザにライブコンテンツを提供することが可能である。すなわち、本実施形態では、再生データを生成することで、ライブコンテンツが生成される。
【0085】
例えば、ライブコンテンツ生成部44では、端末装置30を使用する端末ユーザを対象とする個別のイベントE(以下、個別イベントと記載する)のライブコンテンツが生成される。
例えば、個別イベントのトリガ8が検出された場合、その個別イベントに対応するARデータ11を再生する再生データが生成される。この再生データは、端末ユーザに個別イベントを体験させるデータとなる。
【0086】
さらに、ライブコンテンツ生成部44では、他のユーザのイベント情報10に基づいて、再生データが生成される。
具体的には、再生データとして、他のユーザとは異なる端末ユーザに対して、他のユーザを対象とするイベントEを視聴可能なように提示する共有データが生成される。
【0087】
上記したように、本実施形態では、他のユーザのイベント情報10が取得される。この他のユーザのイベント情報10に基づいて、他のユーザを対象とするイベントEに対応するARデータ11をタイムライン6に沿って再生する再生データ(共有データ)が生成される。
この共有データに従ってARデータ11を再生することで、他のユーザが体験するイベントEを、同一のタイムライン6に沿って端末ユーザに体験させることが可能となる。これにより、複数のユーザ1の間で音によるARの体験を共有することが可能となる。
【0088】
なお、共有データを生成する処理は、共有イベント判定部43により、共有イベントと判定されたイベントに対して実行される。すなわち、他のユーザにとっての個別イベントが、端末ユーザから見て共有イベントとなる場合に、他のユーザの個別イベントが視聴可能に提示される。
この他、ライブコンテンツ生成部44の具体的な動作については、後に詳しく説明する。
本実施形態では、ライブコンテンツ生成部44は、生成部に相当する。
【0089】
<端末装置の動作>
図5は、複数のユーザ1の間でイベントを共有させる処理の一例を示すフローチャートである。図5に示す処理は、セッションの進行中に端末装置30において継続して実行されるループ処理である。
まず端末装置30においてイベントライブラリ16が同期される(ステップ101)。この処理は、他の端末装置30で発生したイベントEに関するイベント情報を共有する処理である。具体的には、端末データ管理部41により、他の端末装置30で生成されたイベント情報10が、サーバ装置20を経由して取得される。
【0090】
次に、共有イベント判定部43により、共有イベントが発生したか否かが判定される(ステップ102)。ここでは、ステップ101で取得したイベント情報10に基づいて、他の端末装置30で新たに発生したイベントEが、共有イベントに該当するか否かが判定される。
【0091】
本実施形態では、共有イベントの判定処理として、他のユーザ及び端末ユーザの相対距離が所定の条件を満たしているか否かが判定される。具体的には、相対距離が閾値以下である場合、判定対象のイベントが、共有イベントであると判定される。これにより、十分に近くにいる他のユーザに発生したイベントEを共有することが可能となる。
なお相対距離の閾値は、イベントEの種類等に応じて適宜設定されてよい。例えば仮想的な音声を提示するイベントEでは、閾値は5m~10m程度に設定される。
【0092】
また本実施形態では、共有イベントの判定処理として、他のユーザ及び端末ユーザの所属が所定の条件を満たしているか否かが判定される。具体的には、各ユーザの所属するグループが同一である場合、判定対象のイベントが、共有イベントであると判定される。これにより、同じグループに所属するユーザに発生したイベントEを共有することが可能となる。
【0093】
また共有イベントの判定処理として、相対距離及び所属の両方が所定の条件を満たしているか否かが判定されてもよい。
判定対象のイベントが、共有イベントであると判定されると、共有データの生成処理が実行される(図5のステップ103)。
このように、本実施形態では、他のユーザ及び端末ユーザの相対距離、又は他のユーザ及び端末ユーザの所属の少なくとも一方が所定の条件を満たした場合に、共有データが生成される。これにより、体験を共有するべきユーザ1を適切に設定することが可能となり、違和感のない体験の共有を実現することが可能となる。
【0094】
新たに発生したイベントEが共有イベントであると判定された場合(ステップ102のYes)、ライブコンテンツ生成部44により、イベントEを共有するための共有データが生成される(ステップ103)。この場合、端末装置30を使用する端末ユーザには共有データに従ってARデータ11が提示される。これにより、他のユーザが体験するイベントを、端末ユーザに体験させることが可能となる。
なお、新たに発生したイベントEが共有イベントではないと判定された場合(ステップ102のNo)、再度ステップ101が実行されイベントライブラリ16が改めて同期される。
【0095】
図6は、共有データを用いて共有される共有イベントの一例を示す模式図である。図6には、音によるARを体験するセッションに参加しているユーザ1a及びユーザ1bが模式的に図示されている。
【0096】
このセッションでは、参加者の着地動作にあわせて仮想的な足音を表すARサウンド3が提示される。また、参加者の足元を撮影した撮影映像5には、仮想的な足音に対応するARビジュアル4(擬音や音符等)が重畳して提示される。
また、図6に示すセッションでは、1度の着地に対してイベントEが1回発生する。従って、ユーザ1が着地動作を行った回数だけイベントEが発生する。
【0097】
以下では、図中左側のユーザ1bを端末ユーザとして、ユーザ1bが使用する端末装置30bにおける共有データの生成処理を中心に説明する。この場合、図中右側のユーザ1aは、ユーザ1bから見て他のユーザとなり、ユーザ1aが使用する端末装置30aは、他の端末装置30となる。
【0098】
<共有データの生成処理>
共有データの生成処理では、ライブコンテンツ生成部44により、ARデータ11の提示タイミングを基準に、共有データにおいてARデータ11が再生されるタイミングが設定される。典型的には、ARデータ11の提示タイミングで、ARデータ11を再生させる共有データが生成される。
図6に示す例では、ユーザ1aに再生されたARサウンド3をユーザ1bに再生するための共有データが生成される。
【0099】
例えばユーザ1aの着地をトリガ8として検出する場合、ユーザ1aの着地と同時にイベントEが発生し、即座にARサウンド3が再生される。この場合、イベント情報10として記録されるトリガ8の検出タイミング及びARサウンド3の提示タイミングは、互いに略同じタイミングとなる。
従って端末装置30bでは、ライブコンテンツ生成部44により、イベント情報10の取得後、可能な限り早いタイミングでARサウンド3を再生するように指示する共有データ が生成される。このような場合であっても、ユーザ1aの動作に応じたARサウンド3をユーザ1bに提示することが可能となる。
【0100】
また例えば、ユーザ1aの着地を予測して、ユーザ1が着地を行う前にトリガ8が検出することも可能である(引用文献1参照)。この場合、着地が予測されるタイミングや、着地までの待機時間等がARサウンド3の提示タイミングとして設定される。
従って端末装置30bでは、着地が予測されるタイミングでARサウンド3を再生するように指示する共有データが生成される。これにより、ユーザ1aの動作に応じたARサウンド3を遅滞なく提示することが可能となる。
【0101】
また共有データの生成処理では、ライブコンテンツ生成部44により、ARデータ11の提示位置を基準に、共有データにおいてARデータ11が再生される位置が設定される。ここで、ARデータ11が再生される位置とは、ARデータ11を定位させる実空間上の位置である。典型的には、イベント情報10で指定されたARデータ11の提示位置が、ARデータ11を再生させる位置に設定される。
【0102】
図6に示す例では、ユーザ1aの足元からARサウンド3が聞こえてくるように、ユーザ1bに再生するための共有データが生成される。具体的には、ユーザ1aの足元からARサウンド3が聞こえるように、ARサウンド3の再生音量及び再生方位が調整される。
例えばユーザ1aとの距離が離れているほど再生音量が小さく調整される。またユーザ1bから見てユーザ1aがいる方位からARサウンド3が聞こえるように再生方位が調整される。なお、再生音量及び再生方位のどちらか一方のみが調整されてもよい。
【0103】
例えばユーザ1aがユーザ1bの左隣りにいる場合、ユーザ1bの左下方からARサウンド3が聞こえるように再生される。逆に、ユーザ1aがユーザ1bの右隣りにいる場合、ユーザ1bの右下方からARサウンド3が聞こえるように再生される。すなわち、共有データに従って再生されるARサウンド3は、ユーザ1bの位置に係わらず、一定の位置(ユーザ1aの足元)から聞こえるように再生される。
【0104】
このように、本実施形態では、他のユーザ(ユーザ1a)を対象とするイベントにおけるARサウンド3の提示位置と端末ユーザ(ユーザ1b)の位置との相対的な位置関係に基づいて、共有データにおけるARサウンド3の再生音量又は再生方位の少なくとも一方が調整される。
【0105】
例えば、図6では、ユーザ1aの動作に伴い、イベントE1及びE2が発生する。このイベントE1及びE2に伴うARデータ11は、ユーザ1aのみならずユーザ1bにも視聴可能に提示される。同様に、ユーザ1bの動作に伴い、イベントE3及びE4が発生した場合には、イベントE3及びE4に伴うARデータ11が、ユーザ1bのみならずユーザ1aにも視聴可能に提示される。
このように、本実施形態では、グループでのAR体験において、他のユーザが擬似空間上で体験したARサウンド3やARビジュアル4を、特定の距離内であれば自分(端末ユーザ)の空間に定位させて体験することが可能である。これにより、音によるARの体験内容をリアルタイムで共有することが可能となり、優れたエンターテイメント性を発揮することが可能となる。
【0106】
<共有イベントの具体例>
図7及び図8は、共有イベントに伴うイベント情報の一例を示す模式図である。図7A図7C及び図8A図8Cでは、ユーザ1aを対象として発生したイベントEが、ユーザ1bに共有される共有イベントとなる。すなわち、ユーザ1aがトリガ8を発生させ、ユーザ1bは同じグループでそれを客観的に実体験している。
各図には、共有イベントに関するイベント情報10が模式的に図示されている。以下では、各イベントにおけるシステムの動作と、想定されるシナリオの一例についてそれぞれ説明する。
【0107】
図7Aでは、ユーザ1aを対象とするトリガ8が検出され、イベントEが発生すると、ユーザ1aにARサウンド3が提示される。トリガ8の種類としては、ユーザ1のアクション(ジェスチャ)、エリアイン、時間経過等が挙げられる。
例えば、ユーザ1aの端末装置30では、トリガ8(イベントE)に対応するARサウンド3がサウンドライブラリ13から選択され、即時再生される。
この時、イベント情報10には、ARサウンド3の種類及び提示タイミング等が記録される。なお、図7Aに示すイベント情報10には、ARサウンド3の提示位置に関する情報は記録されない。
ユーザ1bの端末装置30では、イベント情報10が取得され、そこに記録されたARサウンド3が即時再生される。これにより、ユーザ1aが体験しているイベントEをほとんど同じタイミングでユーザ1bに体験させることが可能となる。
【0108】
図7Aで想定されるシナリオの例として、仮想的な足音を再生するシナリオが挙げられる。例えばユーザ1が特定のエリアに入ると、BGM等が切り替わってシナリオが開始される。このシナリオ(セッション)は一定の時間(例えば2分間等)で終了し、次のシナリオに切り替わる。
このシナリオでは、例えばユーザ1aが歩くと、そのステップにあわせて仮想的な足音が聞こえるようにARサウンド3が再生される。また、ユーザ1aのステップに応じた仮想的な足音がユーザ1bにも聞こえるように再生される。
【0109】
図7Bでは、ユーザ1aを対象とするトリガ8が検出され、イベントEが発生すると、ユーザ1aの位置に応じてARサウンド3が提示される。
例えば、ユーザ1aの端末装置30では、トリガ8が検出されたときのユーザ1aの位置(体験位置25a)が検出される。またイベントEに対応するARサウンド3がサウンドライブラリ13から選択される。そして、ARサウンド3が再生されるべき音源の位置(提示位置26s)とユーザ1aの位置(体験位置25a)との相対位置に応じてARサウンド3がユーザ1aに再生される。
【0110】
この時、イベント情報10には、ARサウンド3の種類及び提示タイミングに加え、ARサウンド3の提示位置26sが記録される。
ユーザ1bの端末装置30では、イベント情報10が取得され、そこに記録されたARサウンド3の提示位置26sとユーザ1bの位置(体験位置25b)との相対位置に応じてARサウンド3がユーザ1bに再生される。これにより、ユーザ1a及び1bの両者に対して、実世界の提示位置26sから聞こえるようにARサウンド3を提示することが可能となる。
【0111】
図7Bで想定されるシナリオの例として、位置ごとに異なる効果音を再生するシナリオが挙げられる。このシナリオでは、例えばユーザ1aがあるエリアでジャンプすると特定の効果音(ARサウンド3)が再生される。またユーザ1aが別のエリアでジャンプすると、別の効果音が再生される。また、ユーザ1aのジャンプに応じた効果音は、ユーザ1bにも聞こえるように再生される。この時、効果音の提示位置26sは、実世界上の所定の位置(例えばユーザ1aの足元等)に設定され、ユーザ1a及び1bには、提示位置26sから聞こえるように効果音が再生される。
【0112】
図7Cでは、ユーザ1aを対象とするトリガ8が検出され、イベントEが発生すると、ユーザ1aの位置に応じてARサウンド3及びARビジュアル4が提示される。また、ユーザ1aは、端末装置30の携帯カメラ(撮影部33)で、実世界の景色を撮影しているものとする。
例えば、ユーザ1aの端末装置30では、イベントEが発生するとユーザ1aの体験位置25aが検出される。またイベントEに対応するARサウンド3がサウンドライブラリ13から選択される。そして、ARサウンド3の提示位置26sとユーザ1aの体験位置25aとの相対位置に応じてARサウンド3がユーザ1aに再生される。
【0113】
またARサウンド3の再生と同時に、ARサウンド3に対応するARビジュアル4がビジュアルライブラリ14から選択される。そして、ARビジュアル4が表示されるべき位置(提示位置26v)とユーザ1aの体験位置25a(あるいは撮影映像5aの撮影位置27a)との相対位置に応じてARビジュアル4がユーザ1aに表示される。具体的には、撮影映像5aに重畳してARビジュアル4が提示される。
従って、ユーザ1aが実体験としてカメラ越しに見ているときには、ARサウンド3とARビジュアル4の両方が、ユーザ1aとの相対位置を再現して撮影映像5aに重畳される。
【0114】
この時、イベント情報10には、ARサウンド3の情報(種類、提示タイミング、提示位置26s)に加え、ARビジュアル4の情報(種類、提示タイミング、提示位置26v)が記録される。また、ユーザ1aが撮影した撮影映像5aは、その撮影位置27aの情報とともに、映像ライブラリ15に記録される。
ユーザ1bの端末装置30では、イベント情報10が取得され、そこに記録されたARサウンド3の提示位置26sとユーザ1bの位置(体験位置25b)との相対位置に応じてARサウンド3がユーザ1bに再生される。
【0115】
図7Cで想定されるシナリオの例として、実世界のオブジェクトが発話をするシナリオが挙げられる。このシナリオでは、例えばユーザ1aが石像に近づくと、石像がしゃべりはじめる。この場合、石像の発話する音声がARサウンド3として再生される。また、ユーザ1aが石像にカメラを向けると、石像の表情を表すARビジュアル4が撮影映像5に重畳されて表示される。ここでは、セリフに合わせて石像の口が動く等のアニメーションが再生される。この時、ユーザ1aの端末装置30では、提示位置26vを基準にARビジュアル4を重畳する処理が実行される。
この時、ユーザ1bには、石像のある方向からセリフが聞こえるように、ARサウンド3が再生される。これにより、ユーザ1a発生させた石像がしゃべるイベントを、ユーザ1bも同時に体験することが可能となる。
【0116】
図8Aでは、図7Aと同様にユーザ1aの位置に応じてARサウンド3及びARビジュアル4が提示される。また、ユーザ1aに加えユーザ1bも、端末装置30の携帯カメラで、実世界の景色を撮影しているものとする。以下では、ユーザ1a及びユーザ1bが撮影した画像を撮影映像5a及び5bと記載し、撮影映像5a及び5bが撮影された位置を撮影位置27a及び27bと記載する。
【0117】
例えば、ユーザ1aの端末装置30では、イベントEに対応するARサウンド3がサウンドライブラリ13から選択される。そして、ARサウンド3の提示位置26sとユーザ1aの体験位置25aとの相対位置に応じてARサウンド3がユーザ1aに再生される。
またARサウンド3に対応するARビジュアル4がビジュアルライブラリ14から選択される。そして、ARビジュアル4の提示位置26vとユーザ1aの体験位置25a(あるいは撮影映像5aの撮影位置27a)との相対位置が再現されるように、撮影映像5aにARビジュアル4が重畳されて表示される。
この時、イベント情報10には、ARサウンド3の情報(種類、提示タイミング、提示位置26s)及び、ARビジュアル4の情報(種類、提示タイミング、提示位置26v)が記録される。
【0118】
同様にユーザ1bの端末装置30では、イベント情報10が取得され、そこに記録されたARサウンド3の提示位置26sとユーザ1bの体験位置25bとの相対位置に応じてARサウンド3がユーザ1bに再生される。
また、イベント情報10に記録されたARビジュアル4が、その提示位置26vとユーザ1bの体験位置25b(あるいは撮影映像5bの撮影位置27b)との相対位置が再現されるように、撮影映像5bにARビジュアル4が重畳されて表示される。
【0119】
また、ユーザ1aが撮影した撮影映像5aは、その撮影位置27aの情報とともに、映像ライブラリ15に記録される。同様に、ユーザ1bが撮影した撮影映像5bは、その撮影位置27bの情報とともに、映像ライブラリ15に記録される。
【0120】
図8Aで想定されるシナリオの例として、実世界のオブジェクトとのインタラクションを表現するようなシナリオが挙げられる。このシナリオでは、例えばユーザ1aが石像の前で大きくジャンプすると、地鳴りの音(ARサウンド3)が響きわたる。また石像が苦しみ始める声(ARサウンド3)が再生される。
この時、ユーザ1a(ユーザ1b)がカメラ越しに石像を見ると、撮影映像5a(撮影映像5b)には、石像が崩れはじめている様子を表すARビジュアル4が重畳される。
また、ユーザ1bがカメラ越しにユーザ1aを見ると、撮影映像5bには、ユーザ1aに光彩がかかりユーザ1aがエネルギーを放出している様子を表すARビジュアル4が重畳される。このように、一方のユーザ1にだけ見えるようなARビジュアル4を提示することも可能である。
【0121】
図8Bでは、図8Aと同様に、ユーザ1a及び1bがそれぞれ撮影映像5a及び5bを撮影している。また図8Bでは、さらに定点カメラ46(固定カメラ)により、撮影位置27cから撮影映像5cが撮影されている。
定点カメラ46により撮影された撮影映像5cは、撮影位置27cの情報とともに映像ライブラリ15に記録される。
【0122】
また図8Bでは、定点カメラ46により撮影された撮影映像5cが、ユーザ1a及びユーザ1bがいる場所とは別の会場に設けられたモニター等にリアルタイムで表示される。
この場合、ARサウンド3及びARビジュアル4が、定点カメラ46の撮影位置27cとの相対位置を再現して撮影映像5cに重畳される。これにより、ユーザ1a及び1bが体験するイベントEを、その場にいない多数のユーザ1に視聴させることが可能となる。
【0123】
図8Aで想定されるシナリオの例として、ユーザ1a及び1bが共同で進行させるシナリオが挙げられる。このシナリオでは、例えばユーザ1a及び1bがほぼ同時にジャンプすると、雷が鳴り響く音及びスコールが降り始める音を表すARサウンド3が再生される。この時、ユーザ1a及び1bが撮影した撮影映像5a及び5bには、スコールを表すARビジュアル4が重畳される。
また定点カメラ46の撮影映像5cには、ユーザ1a及び1bがジャンプした後に、ユーザ1a及び1bから光が空に向かっていく様子を表すARビジュアル4が重畳される。その後、撮影映像5cには、エリア全体にスコールが降っている様子を表すARビジュアル4が重畳される。このように、体験の当事者以外に見えるようなARビジュアル4を提示することも可能である。
【0124】
図8Cでは、イベントEが発生した際の状況に応じたARデータ11が提示される。図8Cに示すイベントEでは、図8Bと同様に、ARサウンド3及びARビジュアル4を含むARデータ11が提示され、撮影映像5a~5cが撮影されている。
【0125】
ここでは、ARデータ11として、イベントEが発生した際の状況を表す状況情報に基づいて生成されたデータ、または状況情報に基づいて選択されたデータが用いられる。
従って、例えば同一のシナリオに従って設計されたイベントEであっても、その発生状況によっては、提示されるARデータ11が変化する。これにより、実際の環境に合った体験を提供することが可能となり、エンターテイメント性を向上することが可能である。
本実施形態では、イベントEに使用するARデータ11を設定する際に、そのイベントEを検出した端末装置30により状況情報が取得される。
【0126】
状況情報には、ユーザ1の周辺環境、ユーザ1のステータス、及びユーザ1の動作内容の少なくとも1つに関する情報が含まれる。
ユーザ1の周辺環境に関する情報とは、例えば天候、時間、季節、温度、イベントEの開催位置(屋外・屋内)等の情報である。例えばネットワークを介して現在位置の天候の情報等が読み込まれる。
ユーザ1のステータスに関する情報とは、例えばユーザ1が所持しているアイテム、セッションにおけるユーザ1の役割、ユーザ1の身長・体重・体格・性別といった、各ユーザ1の状態(ステータス)を表す情報である。この情報は、例えばセッションが開始される前に入力されたユーザ1の情報等を参照して取得される。
ユーザ1の動作内容に関する情報とは、ユーザ1の動作の種類や規模(運動量)、ユーザ1の表情や声の大きさ等を表す情報である。この情報は、例えば端末装置30に搭載された動作センサの出力や、ユーザを撮影した画像等に基づいて取得される。
この他、状況情報の具体的な内容や状況情報を取得する方法は限定されない。例えば、シナリオの進行状況等に関する情報が状況情報として用いられてもよい。
【0127】
また本実施形態では、状況情報に基づいて、共有データにより再生されるARデータ11が選択される。すなわち、共有イベントが発生した場合に、その時の天候やユーザ1のステータスによって、再生するARデータ11が選択される。
このように、本実施形態では、状況情報に応じて、ARサウンド3やARビジュアル4の内容を変えることや、再生を有効にすること(聞こえる/聞こえないの選択)が可能となる。
これにより、ARデータ11の再生条件等を細かく設定したイベントE等を設計することが可能となる。
【0128】
例えば、図8Cでは、状況情報として、アイテム情報28及び天候情報29が用いられる。アイテム情報28及び天候情報29は、それぞれハートのマーク及び太陽のマークにより模式的に図示されている。
例えば、天候情報29に基づいて、ARサウンド3及びARビジュアル4がそれぞれサウンドライブラリ13及びビジュアルライブラリ14から取得される。例えば晴天用、曇天用、雨天用等のARデータ11が予めライブラリに格納され、天候情報に応じて適宜選択される。あるいは、基本となるARデータ11に各天候用のエフェクトを作用させて、新たなARデータ11が生成されてもよい。
【0129】
また例えば、アイテム情報28に基づいて、ARサウンド3及びARビジュアル4を再生するかどうかが選択される。ここでは、ユーザ1aがアイテムを所持しているものとする。例えば、ARサウンド3は、ユーザ1a及びユーザ1bの両方に再生される。一方で、ARビジュアル4は、アイテムを所持しているユーザ1にのみ表示され、ユーザ1bには表示されない。逆に、アイテムを所持していないユーザ1bにのみARビジュアル4が表示されてもよい。
【0130】
図8Cで想定されるシナリオの例として、アイテムや天候に合わせて進行するシナリオが挙げられる。例えば、ユーザ1aがシナリオの中でアイテム(鈴)を入手していたとする。このとき、ユーザ1aが実世界に配置された門をくぐると、アイテムの鈴が勝手に鳴り始める。鈴の音は、ユーザ1a及びユーザ1bに提示されるARサウンド3である。
ユーザ1bがカメラを通してユーザ1aを見ると、ユーザ1aが頭から流血している様子を表すARビジュアル4が撮影映像5bに重畳される。このARビジュアル4はユーザ1aには表示されないため、ユーザ1aは自分がどうなっているかを知ることはできない。
【0131】
さらに、鈴の音が徐々に低くなり、それに合わせたARビジュアル4が撮影映像5a及び bに重畳される。このARビジュアル4は、天候情報29等に基づいて選択される。
例えば、イベントEが発生した時間が昼間であれば、カメラ越しに夜の世界を表現するARビジュアル4が選択される。また例えば、イベントEが発生した時期が夏であれば、カメラ越しに雪が降り始める様子を表現するARビジュアル4が選択される。
【0132】
また、定点カメラ46が撮影する撮影映像5cには、上記したセッション中に使用される全てのARビジュアル4が重畳される。この結果、別会場に設けられたモニターには、ユーザ1aが流血している様子に加え、景色が夜の世界に変化する様子が映しだされる。この場合、ユーザ1a及びユーザ1bにとっては、実体験の際に肉眼で見たものとは異なる光景が映し出されていることになる。
このように、ユーザ1a及び1bの体験内容を包括した映像等を、リアルタイムで他のユーザと共有することも可能である。
【0133】
以上、本実施形態に係る端末制御部40では、音によるARの体験中に生じたイベントEを記録したイベント情報10が取得される。イベント情報10には、各イベントEで提示されるARサウンド3を含むARデータ11がタイムライン6に沿って記録されている。このイベント情報10をもとに、タイムライン6上でARデータ11を再生する共有データが生成される。これにより、端末ユーザに対して他のユーザの体験内容を再現することが可能となり、音による拡張現実の体験を共有することが可能となる。
【0134】
図9は、比較例として挙げるイベントの一例を示す模式図である。図9では、2人のユーザ1a及びユーザ1bに仮想的な足音を表すARサウンド3が提示される。ここでは、ユーザ1aに提示されるARサウンド3は、ユーザ1bには再生されず、ユーザ1bに提示されるARサウンド3は、ユーザ1aには再生されない。
この結果、各ユーザ1は自分の歩行動作に応じた仮想的な足音は聞けるものの、他のユーザ1がどのような足音を聞いているかはわからない。すなわち、音によるARの体験は、各ユーザ1ごとに閉じており、互い共有されない。
【0135】
これに対し、本実施形態では、音によるARを体験している最中に発生したイベントEが、イベント情報10として記録される。イベント情報10には、ARを体験する各ユーザ1を対象とするイベントEで提示されるARデータ11が、タイムライン6に沿って記録されている。従って、イベント情報10を用いることで、複数のユーザ1の間で、どのようなイベントEが起こっているかといった情報を、同一のタイムラインでモニタリングすることが可能となる。これにより、イベントEを共有させたいユーザ1に対して、そのイベントEのARデータ11を略同時に提示するといったことが可能となり、音によるARの体験内容をリアルタイムで共有することが可能となる。
【0136】
<第2の実施形態>
本技術に係る第2の実施形態の情報処理システムについて説明する。これ以降の説明では、上記の実施形態で説明した情報処理システム100における構成及び作用と同様な部分については、その説明を省略又は簡略化する。
【0137】
図10は、第2の実施形態に係る情報処理システムの構成例を示す模式図である。情報処理システム200は、音によるARの体験内容を、体験中に生成されたイベント情報に基づいて再現コンテンツとして提供するシステムである。
情報処理システム200は、サーバ装置220と、少なくとも1つの端末装置230と、少なくとも1つの再生装置240とを有する。サーバ装置220、端末装置230、及び再生装置240は、ネットワーク50を介して通信可能に接続される。
このように、情報処理システム200は、図1に示す情報処理システム100に再生装置240を加えた構成となっていると言える。
【0138】
サーバ装置220は、音によるAR体験全体を管理するとともに、再現コンテンツを生成する装置である。サーバ装置220の構成については図12を参照して説明する。
端末装置230は、各ユーザ1が携帯して使用する装置である。端末装置230は、例えば図1に示す端末装置30と同様に構成される。
再生装置240は、例えばAR体験が終了した後に、ユーザ1が再現コンテンツを再生するために用いる装置である。ユーザ1は、再生装置240に表示された所定のGUI(Graphical User Interface)等を介して、再現コンテンツを要求することが可能である。再生装置240としては、例えばユーザ1が所持するスマートフォンやPC等が用いられる。また端末装置230がそのまま再生装置240として用いられてもよい。
【0139】
図11は、音によるARの再現コンテンツの一例を示す模式図である。
再現コンテンツ60は、タイムラインに沿ってイベントEを再現するように構成されたデータである。再現コンテンツ60は、典型的には音声を含む映像データとして生成される。
本実施形態では、音によるARの体験中に撮影された撮影映像5を、イベント情報10に基づいて加工した映像が、再現コンテンツ60として生成される。
なお再現コンテンツ60は、音声データや画像データとして構成されてもよい。
【0140】
ここでは、音によるARを体験したユーザ1が、再生装置240を介してサーバ装置220にアクセスし、再現コンテンツ60の生成を要求する場合を想定する。従って、再現コンテンツ60を生成する際には、イベント情報10が記録されたイベントライブラリ16がサーバ装置220内にすでに構築されているものとする。
また生成された再現コンテンツ60は、ユーザ1の後日の振り返り(追体験)に用いられる。あるいは、ユーザ1から第三者へ再現コンテンツ60が共有され、音によるARの体験をシェアするためのメディアとして用いられる。
【0141】
図11には、音によるARを体験したユーザ1a及びユーザ1bが撮影された撮影映像5が模式的に図示されている。この撮影映像5は、あるイベントEが発生した際に撮影された映像である。サーバ装置220では、このような撮影映像5に、イベントEで提示されたARサウンド3や、そのARサウンド3に対応するARビジュアル4を重畳することで、再現コンテンツ60が生成される。
再現コンテンツ60において、各ARデータ11(ARサウンド3及びARビジュアル4)を提示するタイミングは、イベント情報10を記録する際に用いたタイムライン6を基準に設定される。これにより、ユーザ1が実際に体験した内容を忠実に再現することが可能となる。
【0142】
例えば、イベントEにおいてオブジェクト4aの移動音(図6では虫の羽音)を表す効果音(ARサウンド3)が提示されたとする。この場合、撮影映像5には、効果音に対応するオブジェクト4aの映像や効果音を表す擬音等のARビジュアル4が重畳される。
また例えば、イベントEにおいてキャラクタ4bが発話するナレーション(ARサウンド3)が提示されたとする。この場合、撮影映像5には、発話動作を行うキャラクタ4bの映像や、ナレーションの内容を表すテキスト4c等のARビジュアル4が重畳される。
なお、ARビジュアル4は、体験時に提示されたものでもよいし、体験時には提示されなかったものでもよい。
【0143】
このように、再現コンテンツ60には、複数のイベントEで提示されたARサウンド3や、そのARサウンド3に応じたARビジュアル4を提示するコンテンツとなる。これにより、1つのシナリオに対応するセッションを復元することが可能となり、セッションの追体験が可能となる。
ここで追体験とは、記録したセッションを後から再生して、擬似的に体験するセッション、およびその一部のことである。追体験には、セッションを主観的に体験する主観体験、及びセッションを客観的に体験する客観体験の両方が含まれる。
【0144】
例えば図11に示す例では、ユーザ1a及びユーザ1bが客観的に撮影された撮影映像5を用いるため、客観的な追体験が可能となる。これに対し、例えばユーザ1a及びユーザ1bが自ら撮影した撮影映像5を用いた場合、主観的な追体験が可能となる。
このように、本実施形態では、映像ライブラリ15は、追体験の際の動画のベースとなる撮影映像5のデータベースとなる。追体験のセッションでは、撮影映像5は、記録映像のように用いられることになる。
【0145】
図12は、図10に示すサーバ装置220の機能的な構成例を示すブロック図である。
サーバ装置220は、複数の端末装置230から出力されたデータ(イベント情報10や撮影映像5)を収集管理して、それらのライブラリ(イベントライブラリ16及び映像ライブラリ15)を生成する。またサーバ装置220は、再生装置240から送信された要求コマンドに応じて、再現コンテンツ60を生成する。
図12Aに示すように、サーバ装置220は、通信部221と、記憶部222と、サーバ制御部223とを有する。通信部221及び記憶部222は、例えば図1に示すサーバ装置20の通信部21及び記憶部22と同様に構成される。
【0146】
サーバ制御部223は、サーバ装置220の動作を制御する。サーバ制御部223は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部222に記憶されているサーバ制御プログラムをRAMにロードして実行することにより、種々の処理が実行される。サーバ制御部223は、本実施形態に係る情報処理装置に相当する。
【0147】
本実施形態では、サーバ制御部223のCPUが本実施形態に係るプログラム(サーバ制御プログラム)を実行することで、機能ブロックとして、サーバデータ管理部224と、再現コンテンツ生成部225とが実現される。そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法及びデータ生成方法が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
【0148】
サーバデータ管理部224は、サーバ装置220が扱うデータを管理する。
例えば、音によるARのアトラクションが実行されている間、サーバデータ管理部224は、端末装置230から送信されたイベント情報10及び撮影映像5を取得して、記憶部222内のイベントライブラリ16及び映像ライブラリ15にそれぞれ格納する。
また、音によるARのアトラクションが終了すると、サーバデータ管理部224は、再生装置240から送信される要求コマンドを取得して、再現コンテンツ生成部225に出力する。
また、再現コンテンツ60が生成される場合には、再現コンテンツ生成部225により要求されたイベント情報や撮影映像5を各ライブラリから読み出して、再現コンテンツ生成部225に出力する。
本実施形態では、サーバデータ管理部224は、取得部として機能する。
【0149】
再現コンテンツ生成部225は、イベント情報10に基づいて、再現コンテンツ60を生成する。再現コンテンツ60は、図11を参照して説明したように、タイムライン6を基準にARデータ11を再生する再生データである。
なお再現コンテンツ60は、第1の実施形態で説明した共有データとは異なり、ユーザ1が音によるARの体験を終えた後で生成され、ユーザ1が体験したイベントEを再現する再生データである。
このように、再現コンテンツ生成部225は、再生データとして、タイムライン6に沿ってイベントEを再現する再現コンテンツ60を生成する。
本実施形態では、再現コンテンツ生成部225は、生成部に相当する。
【0150】
具体的には、再現コンテンツ生成部225は、タイムライン6に沿って、撮影映像5にARデータ11による演出を加えることで再現コンテンツ60を生成する。ここで、ARデータ11による演出を加える処理は、ARデータ11を用いて行われる撮影映像5の加工処理を意味する。
【0151】
例えば、ARサウンド3を撮影映像5の音声として重畳する処理も、演出を加える処理である。
また例えば、ARビジュアル4が画像データであった場合、画像データを撮影映像5に重畳する処理が実行される。また例えば、ARビジュアル4がデジタルエフェクトを指定するデータであった場合、指定されたデジタルエフェクトを撮影映像5に適用する処理が実行される。この時、撮影映像5とともにデプス画像等が取得され、被写体認識やデプスセンシングを用いて、対象となる実物体を識別・計測してARビジュアル4が重畳されてもよい。これにより、ARビジュアル4が自然に重畳された再現コンテンツ60を生成することが可能である。
再現コンテンツ生成部225では、これらのARデータ11が提示(再生)されるタイミングがタイムライン6に沿って設定される。この点については、後に詳しく説明する。
【0152】
<サーバ装置の動作>
図13は、再現コンテンツ60の生成方法の一例を示すフローチャートである。図13に示す処理は、例えば再生装置240から送信された要求コマンドに応じてサーバ装置220で実行される処理である。あるいは、1つのセッションが終了した際に、図13に示す処理が自動的に実行されてもよい。
【0153】
まず再現コンテンツ生成部225により、再現コンテンツ60の対象(再現対象)が設定される(ステップ201)。再現対象とは、再現コンテンツ60の生成対象となるセッション、またはイベントである。
例えばユーザ1が再生装置240に表示されたGUI画面等を介して、再現コンテンツ60を生成するセッションや時間帯等を設定する。ここで設定された情報は、再現コンテンツ60の生成を要求する要求コマンドとともにサーバ装置220に送信される。サーバ装置220では、サーバデータ管理部224により要求コマンドが取得され、再現コンテンツ生成部225に出力される。
再現コンテンツ生成部225では、例えばユーザが設定したセッションがそのまま再現対象のセッションとして設定される。あるいはユーザが設定した時間帯に含まれるイベントEが再現対象として設定されてもよい。
【0154】
次に、サーバデータ管理部224により、イベントライブラリ16が参照され、再現コンテンツ60の生成に必要なイベント情報10が取得される(ステップ202)。
具体的には、再現対象として設定されたイベントE(セッション)のイベント情報10がイベントライブラリ16から読み込まれる。この時、再現対象となるイベントEを撮影した撮影映像5が映像ライブラリ15から読み込まれる。なお映像ライブラリ15には、同じタイミングで撮影された複数の撮影映像5が記録されている場合もある。この場合、必要な撮影映像5が適宜読み込まれる。
イベント情報10及び撮影映像5は、再現コンテンツ生成部225に出力される。
【0155】
次に、再現コンテンツ生成部225により、再現対象となるイベント情報10及びその撮影映像5に基づいて、再現コンテンツ60が生成される(ステップ203)。具体的には、イベント情報10に記録されたARデータ11(ARサウンド3及びARビジュアル4)を、対応する撮影映像5に付加する処理が実行される。撮影映像5が複数ある場合には、各撮影映像5に対してARデータ11が付加される。
生成された再現コンテンツ60は、サーバデータ管理部224により、再生装置240に送信される。これにより、ユーザ1は所望の再現コンテンツ60を視聴することが可能となる。
以下では、再現コンテンツ60の生成処理について詳しく説明する。
【0156】
<再現コンテンツの生成処理>
図14は、再現コンテンツ60の生成に用いるイベント情報10の一例を示す模式図である。ここでは、再現コンテンツ60の生成に用いるイベント情報10及び撮影映像5と、それらが記録されたときの状況が模式的に図示されている。
上記の実施形態で説明したように、イベント情報10には、実体験の際に発生したイベントE及び実体験の際に撮影された撮影映像5が、同一のタイムライン6のタイムコードとともに保存されている。図14に示すイベント情報10及び撮影映像5は、例えば図8Cに示す実体験中に記録された情報である。
【0157】
ここでは、イベント情報10として、ARサウンド3の情報(種類、提示タイミング、提示位置26s)及び、ARビジュアル4の情報(種類、提示タイミング、提示位置26v)が記録される。
これらのARデータ11は、例えば天候情報29やアイテム情報28(状況情報)に応じて選択・生成されたデータであり、イベント情報10には、これらの状況情報も記録される。
また、撮影映像5として、ユーザ1a及び1bにより撮影された撮影映像5a及び5bと、定点カメラ46により撮影された撮影映像5cが記録される。
【0158】
まず、ARデータ11を再生するタイミングについて説明する。
再現コンテンツ60の生成処理では、再現コンテンツ生成部225により、ARデータ11の提示タイミングを基準に、再現コンテンツ60においてARデータ11が再生されるタイミングが設定される。
典型的には、ARデータ11の提示タイミングで、ARデータ11を再生させる再現コンテンツ60が生成される。すなわち、再現コンテンツ60となる撮影映像5において、ARサウンド3を再生するタイミングやARビジュアル4を重畳するタイミングは、イベント情報10に記録された提示タイミングに設定される。
【0159】
ここで、ARサウンド3の提示タイミングと、ARビジュアル4の提示タイミングとの関係について説明する。例えばARサウンド3の提示タイミングは、実体験において実際にARサウンド3が提示されたタイミングである。これに対して、ARビジュアル4の提示タイミングは、ARサウンド3の提示タイミングを基準にして設定されたタイミングである。
従って、ARビジュアル4の提示タイミングは、ARサウンド3の提示タイミングと一致していてもよいし、その前後に設定されていてもよい。
【0160】
例えばARサウンド3が足音を表す効果音であり、ARビジュアル4が足音の擬音を表す画像であるとする。この場合、擬音の提示タイミングは、足音の提示タイミングと一致するように設定される。すなわち、ARビジュアル4は、ARサウンド3と同期して提示される。従って、再現コンテンツ60では足音と同時にその擬音が提示されることになる。
この他にも、例えば場所を指定するようなARサウンド3の内容を表すARビジュアル4(例えば、○○に行くといったテキスト)が用いられる場合に、提示タイミングが同期される。あるいは、ARサウンド3とのインタラクションを表すARビジュアル4が用いられる場合(例えば雨音に対応して傘をさす画像を表示する場合等)に、提示タイミングが同期される。
【0161】
また例えば、ARサウンド3が雨音を表す効果音であり、ARビジュアル4が雨雲を表す画像であるとする。この時、雨雲の提示タイミングが、雨音の提示タイミングよりも前に設定される。これにより、雨が降り出す前に雨雲が出現する様子等を表現することが可能となる。
また例えば、ARサウンド3が雷鳴を表す効果音であり、ARビジュアル4が雷を表す画像(あるいはエフェクト)であるとする。この時、雷の画像やエフェクトの提示タイミングが、雷鳴の提示タイミングよりも後に設定される。これにより、あえて雷鳴よりも後に雷が発生する様子等を表現することが可能となる。
このように、ARビジュアル4の提示タイミングをARサウンド3の提示タイミングからずらして設定することで、再現コンテンツ60において様々な演出効果を発揮することが可能である。
【0162】
次に、再現コンテンツ60に用いる撮影映像5について説明する。
再現コンテンツ60(追体験の動画)は、少なくとも1つの撮影映像5をベースに生成される。すなわち、再現対象となるイベントEを撮影した撮影映像5の全部又は一部にARデータ11を重畳して、再現コンテンツ60が生成される。
【0163】
図14に示す例では、再現コンテンツ60は、撮影映像5a~5cを素材として構成される。例えば、ユーザ1aを対象とする再現コンテンツ60を生成する場合、完全主観の動画であればユーザ1a本人が撮影した撮影映像5aを用いて再現コンテンツ60が生成される。また、二人称の動画であればユーザ1bが撮影した撮影映像5bが用いられ、三人称の客観動画であれば定点カメラ46により撮影された撮影映像5cが用いられる。また、ダイジェスト動画であれば各撮影映像5a~5cのシーンを適宜組み合わせて、再現コンテンツ60が構成される。
これにより、ユーザ1が体験した内容を様々な視点で記録した再現コンテンツ60を提供することが可能となる。
【0164】
次に、再現コンテンツ60におけるARデータ11の提示位置について説明する。
再現コンテンツ60の各シーンでは、そのシーンを撮影したカメラの位置(撮影位置27)を起点に、ARデータ11を再生する位置を相対的に配置して、ARデータ11が各カメラの撮影映像5に重畳される。
【0165】
例えば、ARサウンド3は、撮影映像5の撮影位置27から見てARサウンド3の提示位置26sが存在する方向から再生されるように重畳される。また再生音量は、撮影位置27からARサウンドの提示位置26sまでの距離に応じて設定される。
このように、再現コンテンツ60の生成処理では、イベントEにおけるARサウンド3の提示位置26sと撮影映像5の撮影位置27との相対的な位置関係に基づいて、再現コンテンツ60におけるARサウンド3の再生音量又は再生方位の少なくとも一方が調整される。
これにより、実体験で提示されたARサウンド3の位置や方位を再現した再現コンテンツ60を提供することが可能となる。
【0166】
また例えば、ARビジュアル4は、撮影映像5の撮影位置27から見たARビジュアル4の提示位置26vに重畳される。この時、ARビジュアル4の姿勢やサイズ等が、撮影位置27からARビジュアルの提示位置26sまでの方向や距離に応じて適宜調整される。
このように、再現コンテンツ60の生成処理では、イベントEにおけるARビジュアル4の提示位置26vと撮影映像5の撮影位置27との相対的な位置関係に基づいて、再現コンテンツ60におけるARビジュアル4の姿勢又はサイズの少なくとも一方が調整される。
これにより、実体験で提示されたARビジュアル4の位置や方位を再現した再現コンテンツ60を提供することが可能となる。
【0167】
次に、再現コンテンツ60における外部変数の調整について説明する。
再現コンテンツ60の生成処理では、シナリオの進行に影響を及ぼさない範囲において、天候情報29等の外部変数の内容を変更することも可能である。
例えば、雨天に体験した内容を、晴天での体験に変更するといったことや、夏に体験した内容を、冬の体験に変更するといったことが可能である。この場合、ARデータ11の選択等が変化し、実体験の時とは異なる演出を付けることも可能である。
この他、ユーザ1のステータス(アイテム情報28や体格等)等が変更されてもよい。このように、ARデータ11の選択に係るパラメータを変更することで、実体験の内容を拡張して再現することが可能となる。
【0168】
<再現コンテンツの具体例>
アトラクションに参加するユーザ1は、個人であるケースとグループであるケースとが考えられる。
個人のケースでは、一人のユーザ1の体験がイベント情報10として記録され、ユーザ1の体験内容を再現する再現コンテンツ60が生成される。またグループのケースでは、複数のユーザ1の体験がイベント情報10として記録され、各ユーザの体験内容が一連の体験として再現する再現コンテンツ60が生成される。
以下では、ユーザ1が実際に体験する内容とその再現コンテンツ60の例について、個人のケースとグループのケースとに分けてそれぞれ説明する。
【0169】
図15は、ユーザが一人で参加するアトラクションの流れを示す模式図である。
まず、アトラクションに参加するユーザ1は、音によるARを提供するアプリケーションがインストールされた端末装置230を借り受ける。この時、ユーザ1は、スタッフ9からアトラクションについての説明(イントロダクション)を受け、体験がスタートする。
体験中のユーザ1は、端末装置230に接続されたイヤホン2を装着する。例えばユーザ1はガイダンスに従って移動しながら様々なシナリオに沿ったセッション(イベントE)を体験することになる。この間、サーバ装置220にはユーザ1に関するイベント情報10が蓄積される。
体験が終了すると、端末装置230がスタッフ9に返却される。この時、端末装置230の返却と引き換えにQRコード(登録商標、以下同じ)48が提示される。このQRコード48は、再現コンテンツ60を提供するサイトやアプリケーションへのリンクとして用いられる。ユーザ1は、自身のスマートフォン等を用いて、QRコード48のリンク先にアクセスすることで、自身の体験を再現した再現コンテンツを取得することが可能である。
【0170】
図16は、ユーザが一人で体験するセッションの一例を示す模式図である。
図16A図16Dには、一人のユーザ1が体験するセッションの例がイラストを用いて模式的に図示されている。
【0171】
図16Aに示すセッションでは、端末装置230を通じてエリア(スポット)に応じたナレーション(NA)や空間音響等の効果音(SE)といったARサウンド3が提示される。ここでは、セッション中に提示されるARデータ11は、ARサウンド3のみであり、ARビジュアル4は用いられない。この場合、ユーザ1は、肉眼では確認できないものの、あたかもその場に何かがいるような感覚を体験することになる。
また体験の様子は、定点カメラ46により撮影される。
図16Aに示すセッションの再現コンテンツ60は、定点カメラ46が撮影した撮影映像5をベースに作成される。この場合、撮影映像5には、ナレーションや効果音等のARサウンド3に加え、ナレーションを発話しているキャラクタ4b等のARビジュアル4が重畳される。従ってユーザ1は、再現コンテンツ60を視聴することで、実体験中にはわからなかったキャラクタ4bの正体を知ることが可能となる。また撮影映像5には、効果音を表す擬音や音符等のARビジュアル4が重畳される。これにより、効果音を視覚的に演出することが可能となり、リッチな追体験を提供することが可能となる。
【0172】
図16Bに示すセッションでは、ユーザ1の周りで音(音源)が動き回るようなARサウンド3が提示される。ここでは、セッション中に提示されるARデータ11は、ARサウンド3のみであり、ARビジュアル4は用いられない。この場合、ユーザ1は、肉眼では確認できない何かが自身の周りを移動しているかのような感覚を体験することになる。
また体験の様子は、定点カメラ46により撮影される。
図16Bに示すセッションの再現コンテンツ60は、定点カメラ46が撮影した撮影映像5をベースに作成される。この場合、撮影映像5には、ユーザ1の周りを動きまわるARサウンド3に加え、その音源となるオブジェクト4a等のARビジュアル4が重畳される。これによりユーザ1は、自身の周りを動きまわる音源の正体を視認することが可能となる。なお、音源の位置は、定点カメラ46の撮影位置27を基準に調整されてもよいし、ユーザ1に提示された際の位置がそのまま用いられてもよい。
【0173】
図16Cに示すセッションでは、ユーザ1を誘導するナレーション等のARサウンド3が提示される。ここでは、音による誘導により、音源となるキャラクタ4bを探すようなシナリオが進行する。例えば、ナレーションが聞こえる方にユーザ1が移動すると、ナレーションの声が大きくなる。また例えば、間違った方向にユーザ1が移動すると、方向が違う旨のナレーション等が再生される。そして、ユーザ1がナレーションの聞こえる方向を端末装置230(携帯カメラ)で撮影すると、撮影映像5に重畳してナレーションを発話するキャラクタ4bが提示される。
図16Cに示すセッションの再現コンテンツ60は、ユーザ1が端末装置230で撮影した撮影映像5をベースに作成される。この場合、撮影映像5には、ナレーションを発話するキャラクタ4bが重畳される。この時、ナレーションの内容等を表すテキストが新たなARビジュアル4として追加されてもよい。
【0174】
図16Dに示すセッションでは、ユーザ1の動作に応じたARサウンド3が提示される。ここでは、ユーザ1の着地動作に合わせて仮想的な足音を表すARサウンド3が再生される。この体験の様子は、定点カメラ46で撮影される。
図16Dに示すセッションの再現コンテンツ60は、定点カメラ46で撮影した撮影映像5をベースに作成される。この場合、撮影映像5には、ユーザ1のステップに合わせて再生される足音に加え、足音の擬音や足跡等を表すARビジュアル4が重畳される。これにより、ユーザ1の体験した足音を音と画像の両方で再現することが可能となり、ユーザ1は自身の体験内容を、第3者と容易に共有することが可能となる。
【0175】
図17は、ユーザ1がグループで体験するセッションの一例を示す模式図である。
図17A図17Dには、二人のユーザ1a及びユーザ1bがグループとして体験するセッションの例がイラストを用いて模式的に図示されている。なお図17A図17Dに示すセッションは、図16A図16Dに示すセッションと同様である。
【0176】
グループでアトラクションに参加する場合、端末装置230がグループ内の各ユーザ1a及び1bにそれぞれ貸し出される。
アトラクションの体験中は、例えば第1の実施形態で説明したように、各ユーザ1a及び1bの共有イベントについて共有データが生成され、各ユーザ1a及び1bの体験が共有される。なお、体験を共有させる処理が行われない場合にも、本技術は適用可能である。
また体験の終了後は、端末装置230の返却と引き換えにQRコード48が提示される。この時、グループ内の各ユーザ1a及び1bには、それぞれ個別のQRコード48が提示される。
【0177】
図17Aに示すセッションでは、ARサウンド3として、エリアに応じたナレーションや効果音が提示される。またこのセッション中は、ARビジュアル4は提示されない。ユーザ1a及びユーザ1bは、肉眼では確認できない音源が存在しているかのような感覚を体験する。この時、実世界における音源の位置は、ユーザ1a及びユーザ1bのいずれにとっても同じ位置となるようにARサウンド3が再生される。また体験の様子は、定点カメラ46により撮影される。
図17Aに示すセッションの再現コンテンツ60は、定点カメラ46が撮影した撮影映像5をベースに作成される。この場合、撮影映像5には、ナレーション及び効果音に加え、ナレーションを発話しているキャラクタ4bや効果音を表す擬音等のARビジュアル4が重畳される。これにより、1つの再現コンテンツ60で、ユーザ1a及びユーザ1bが二人で体験した内容を追体験することが可能となる。
【0178】
図17Bに示すセッションでは、ユーザ1a及び1bの周りで音(音源)が動き回るようなARサウンド3が提示される。またこのセッション中は、ARビジュアル4は提示されない。ここでは、ユーザ1a及び1bは、自分たちの周囲を動き回る音源が存在しているかのような感覚を体験する。また体験の様子は、定点カメラ46により撮影される。
図17Bに示すセッションの再現コンテンツ60は、定点カメラ46が撮影した撮影映像5をベースに作成される。この場合、撮影映像5には、ARサウンド3とその音源となるオブジェクト4a等のARビジュアル4とが重畳される。これにより、ユーザ1a及び1bは、音源の動きを視覚的に確認しながら、自分たちの体験を振り返るといったことが可能となる。
【0179】
図17Cに示すセッションでは、各ユーザ1a及び1bを誘導するナレーション等のARサウンド3が提示される。またユーザ1a及び1bがナレーションの聞こえる方向を端末装置230(携帯カメラ)で撮影すると、撮影映像5に重畳してナレーションを発話するキャラクタ4bが提示される。この時、ユーザ1a及び1bの撮影位置は互いに異なるため、それぞれの撮影映像5には異なる方向から撮影されたキャラクタ4bが重畳される。
図17Cに示すセッションの再現コンテンツ60は、ユーザ1a及び1bが各々の端末装置230で撮影した撮影映像5をベースに作成される。従って、ユーザ1a及び1bに提供される再現コンテンツ60は、それぞれが選択した撮影位置からキャラクタ4bを撮影した映像となる。このように、ユーザ1a及び1bは、オリジナルの記録映像をそれぞれ取得することが可能である。
【0180】
図17Dに示すセッションでは、ユーザ1a及び1bの動作に応じた仮想的な足音を表すARサウンド3が提示される。ここでは、ユーザ1a及び1bの体験が共有され、互いの着地動作に合わせた仮想的な足音が、それぞれの着地点から再生される。この体験の様子は、定点カメラ46で撮影される。
図17Dに示すセッションの再現コンテンツ60は、定点カメラ46で撮影した撮影映像5をベースに作成される。この場合、撮影映像5には、ユーザ1a及び1bのステップに合わせて再生される全ての足音と、それらに対応するARビジュアル4とが重畳される。これにより、ユーザ1a及びユーザ1bが二人で体験した内容を音と画像の両方で再現することが可能となり、二人が共有した感覚を追体験するといったことが可能となる。
【0181】
図18は、ユーザ1同士が撮影した撮影映像5をベースとする再現コンテンツ60について説明するための模式図である。図18A図18Cには、ユーザ1a及び1bが、二人で参加したセッションの再現コンテンツ60を視聴するまでの流れが模式的に図示されている。ここでは、セッション中にユーザ1aがユーザ1bを撮影した撮影映像5をベースとして、再現コンテンツ60が生成される。
【0182】
このセッションでは、図18Aに示すように、実世界に配置されたベンチ51の付近に定位したARサウンド3(ナレーション、効果音、BGM等)が各ユーザ1a及び1bに提示される。例えばユーザ1bがARサウンド3の音源を推定し、ベンチ51に移動して座ったとする。この場合、図18Bに示すように、ベンチ51に座ったユーザ1bには、耳元で聞こえるようにARサウンド3が提示される。例えば、ユーザ1bが耳元で音声等が聞こえることに驚いて、その旨をユーザ1aに伝える。また、ユーザ1aは、ベンチ51の近傍に目に見えない何かがいると考え、ベンチ51に座るユーザ1bの様子を撮影する。
ここでは、ユーザ1aが撮影中に視認する撮影映像5(スルー画像)には、ARビジュアル4等が重畳されないものとする。
【0183】
図18Cには、セッションの終了後、ユーザ1a及び1bが、再現コンテンツ60を確認する様子が示されている。この再現コンテンツ60は、図18Bで、ユーザ1aが撮影した撮影映像5をベースに、ユーザ1bが聞いたARサウンド3と、そのARサウンド3に対応するARビジュアル4とが重畳された映像である。
この場合、各ユーザ1a及び1bは、ユーザ1bの隣にいた仮想的なキャラクタ4bの正体や、ユーザ1bの周辺で聞こえていた効果音の正体等を、再現コンテンツ60を視聴することで初めて確認することが可能となる。このように、セッション中にユーザ1がグループで体験した内容を、後から補うような再現コンテンツ60を提供することが可能である。これにより、ユーザ1は、アトラクションが終了した後でも、自分たちの体験内容を新しい要素とともに楽しむことができる。
なお、スルー画像の時点でキャラクタ4bが重畳して提示されてもよい。この場合、撮影中にキャラクタ4bとユーザ1とのインタラクション等が実現されてもよい。
【0184】
<コンテキストに応じた再現コンテンツの生成>
図19は、コンテキストに応じた再現コンテンツ60の生成例を示す模式図である。ここでは、実体験における、ユーザ1や環境などのコンテキストに合わせて、再現コンテンツ60のエフェクトを変化させるケースについて説明する。コンテキストとは、例えばセッションの状況や流れを意味する。
【0185】
図19に示す例では、肉眼では見えないキャラクタ4bがナレーションでユーザ1を誘導するセッションが撮影される(図19の左側)。またセッションの再現コンテンツ60(図19の右側)では、ユーザ1の表情や反応等に応じたエフェクトが重畳される。
この時、例えばユーザ1の表情や反応が喜びを表している場合には、ユーザ1が喜んでいるというコンテキストを表現するようなARビジュアル4が重畳される。この例では、撮影映像5やその時の音声等に基づいて感情を識別する処理等を実行することで、コンテキストが判定される。
【0186】
コンテキストを判定するための情報としては、図8C等を参照して説明した状況情報(天候情報やアイテム情報等)が参照される。
例えば、撮影映像5や環境音から、セッションの状況を表す状況情報が抽出される。なお環境音を収音する際には、バイノーラル録音等が用いられてもよい。バイノーラル録音では、例えばユーザ1の耳元で音声が録音される。これによりユーザ1の頭部での音響効果等が反映され音源の位置等を精度よく表現するデータを録音可能である。
【0187】
また、予めユーザ1等により設定された情報が、ユーザ1のステータスを表す状況情報として用いられてもよいし、シナリオの進行状況等を表す情報(例えばシナリオの分岐等)が状況情報として用いられてもよい。
また、撮影映像5において各ユーザ1を特定した情報等が状況情報として用いられてもよい。この場合、例えば任意の個人認証技術等を用いて、撮影映像5に映るユーザ1がそれぞれ特定される。このように、各ユーザ1を特定することでARデータ11を詳細にカスタマイズすることが可能となる。
【0188】
本実施形態では、このように取得された状況情報に基づいて、コンテキストに合ったARサウンド3やARビジュアル4を選択する処理や、コンテキストに合った形にARサウンド3やARビジュアル4を変化させる処理(変化処理)が実行される。あるいは、コンテキストに合った形にARサウンド3やARビジュアル4を自動発生させる処理が実行されてもよい。これらの処理は、イベント情報10を生成するときに実行されてもよいし、再現コンテンツ60を生成するときに実行されてもよい。
以下では、ARデータ11(ARサウンド3及びARビジュアル4)のバリエーションと、各バリエーションについて想定される変化処理について説明する。なお以下で説明する変化処理は、ARサウンド3及びARビジュアル4の少なくとも一方を変化させる処理である。
【0189】
効果音の一例として"足音"、"ドアの開閉音"、"楽器演奏"について説明する。
"足音"に対応して"擬音の画像"が提示される場合、ユーザ1の体格に応じて音を変化させる変化処理が実行される。
"ドアの開閉音"に対応して"擬音の画像"が提示される場合、ユーザ1がドアを開閉する速度に連動するように音を変化させる変化処理が実行される。
"楽器演奏"に対応して"音符や楽譜の画像"が提示される場合、演奏の上手い下手に応じて音符や楽譜のデザインを変化させる変化処理が実行される。
【0190】
自然現象を表す音の一例として"雨の音"、"風の音"、"雷の音"について説明する。
"雨の音"に対応して"雨の画像"が提示される場合、時間に応じて雨の強さを変化させる変化処理が実行される。
"風の音"に対応して"擬音の画像"が提示される場合、場所に応じて風の強さを変化させる変化処理が実行される。
"雷の音"に対応して"デジタルエフェクト"が提示される場合、タイミングや場所に応じて雷の大きさやエフェクトの規模を変化させる変化処理が実行される。
【0191】
発話の一例として"話声"、"ナビゲーション"について説明する。
"話声"に対応して"テキスト"が提示される場合、話声のトーンや感情に合わせてテキストの色やフォントを変化させる変化処理が実行される。
"ナビゲーション"に対応して"テキスト"が提示される場合、ナビゲーションの音量に応じてテキストのサイズを変化させる変化処理が実行される。
【0192】
空間音響の一例として"こだま"、"エコー"について説明する。
"こだま"に対応して"デジタルエフェクト"が提示される場合、場所に応じてこだまが戻ってくるタイミングを変化させる変化処理が実行される。
"エコー"に対応して"デジタルエフェクト"が提示される場合、空間の広さに応じてエコーの響きやエフェクトを変化させる変化処理が実行される。
【0193】
BGMの一例として"歌曲"、"演奏"について説明する。
"歌曲"に対応して"テキスト"が提示される場合、歌曲の曲調に応じてテキストのフォントを変化させる変化処理が実行される。
"演奏"に対応して"音符や楽譜の画像"が提示される場合、演奏の曲調に応じて音符の動き量を変化させる変化処理が実行される。
ここで示した例は、あくまで一例であり、コンテキストに応じたARデータ11を選択・生成・調整する任意の処理が実行されてよい。
【0194】
<収音データを用いた再現コンテンツの生成>
図20は、収音データを用いた再現コンテンツ60の生成例を示す模式図である。ここでは、実体験中に収音された収音データを用いて、再現コンテンツ60を生成する方ケースについて説明する。
収音データは、例えば、イベント発生時に収音された音声及び環境音を表すデータであり、例えば上記したバイノーラル録音等の手法を用いて収音される。この他、端末装置230を用いたステレオ録音やモノラル録音を用いて収音データが収音されてもよい。
【0195】
図20に示す例では、実世界の景色(図では滝の景色)について説明するナレーションがARサウンド3として再生される(図20の左側)。またセッションの再現コンテンツ60(図20の右側)は、ユーザ1自身が景色を撮影した撮影映像5をベースに生成される。この再現コンテンツ60には、ナレーションのテキストと、ナレーションを発話したキャラクタ4bとがARビジュアル4として重畳される。
さらに、再現コンテンツ60には、撮影時にユーザ1が発した音声(収音データ)を表すARビジュアル4が提示される。図20に示す例では、ユーザ1が発した「見えた」という音声が、吹き出しで囲まれたテキスト4cにより表現されている。
【0196】
このように、ARビジュアル4として、イベントが発生した際に収音された音声又は環境音(収音データ)の内容を視覚的に表すデータが用いられてもよい。
収音データに対応するARビジュアル4の生成処理には、例えば音検知や音声認識等の音声処理が用いられる。例えば、音検知により人間の音声が検知されて録音される。そして音声認識により、録音内容がテキストとして抽出され、そのテキストを含むビジュアルが自動生成される。
なお、人間の音声以外の環境音から、その環境を表すビジュアルが自動生成されてもよい。例えば波音から海を表現したビジュアル等を生成することも可能である。
このように、収音データを表すARビジュアル4を再現コンテンツ60に融合することで、
体験中にユーザ1が喋った声や環境音が追体験に融合される。これにより、ユーザ1の体験を拡張することが可能となる。
【0197】
以上、本実施形態に係るサーバ制御部223では、音によるARの体験中に生じたイベントEを記録したイベント情報10が取得される。イベント情報10には、各イベントEで提示されるARサウンド3を含むARデータ11がタイムライン6に沿って記録されている。このイベント情報10をもとに、タイムライン6上でARデータ11を再生する再現コンテンツ60が生成される。これにより、ユーザ1の体験内容を再現することが可能となり、音による拡張現実の体験を共有することが可能となる。
【0198】
音によるARを体験する場合、その体験には個人差が生じやすい。一般に音声は共通のスケールが設定しづらく体験した個人により感じ方が異なる。また、音声の種類も多様で、一意に感覚を対応づけて設定するといったことが難しい。また音声の感じ方は、体験する側の経験や感性に依存してしまうことが多い。このことが、音によるARの体験を設計する際の難易度を高くし、また音によるARを体験する際には設計意図とのミスマッチの原因となり、音によるARを提供するシステムの普及・発展を阻害する恐れがある。
また、屋外や複数人で音によるARを体験する場合には、ユーザに対して音声を聞き取りやすい環境を用意できないケースがあり得る。このような、環境的な要因も体験の設計や実装のハードルとなり得る。
また、音声は目に見えないため体験した内容を他者と共有するのが難しい。例えば音声を擬音化した際の文言やその強弱や受けた印象など、体験の支配的なインプットが体験者の感覚に依存する。このため、共通言語でのコミュニケーションだけで体験内容を十分に共有することは難しい。またSNS(social networking service)等の映像を主としたソーシャルメディアで、体験内容を第3者と共有するためには、各人の体験を適正に映像で残す仕組みが必要となる。
【0199】
これに対して、本実施形態では、音によるARの音声(ARサウンド3)に連動して、関係するARビジュアル等のエフェクトを撮影映像5に重畳した再現コンテンツ60が生成される。この再現コンテンツ60を再生することで、ユーザ1が体験中に聴いたARサウンド3が改めて提示されるとともに、音声内容やユーザ1の状況に応じたARビジュアル4が体験中の映像に重畳して提示される。
また、ユーザ1が体験したARサウンド3・ARビジュアル4は、タイムライン6で管理されているためいつでも再現することが可能である。
【0200】
これにより、ユーザ1が実際に体験した内容を第3者に視聴させることが可能となる。これにより、ユーザ1が感じた効果を、そのまま他の人に伝えることが可能となる。
また、体験時に使用したデータを改めて組み合わせることで、体験内容をクリアに再現することが可能となる。これにより、例えば実際の体験では聴きにくかった内容等を改めて確認するといったことが可能となる。
さらに、再現コンテンツ60は、独立したデータとして扱うことが可能である。これにより、SNS等を介して音によるARの体験を容易にシェアすることが可能となる。
【0201】
また再現コンテンツ60では、ARビジュアル4等が付加されることで、追体験をリッチに演出することが可能となり、優れたエンターテイメント性を発揮することが可能となる。
またアトラクションの主催者やARの体験の設計者には、更なる表現手段を与えることが可能であり、設計の自由度を向上するとともに、設計の難易度を下げる効果が期待される。さらに体験者にとっては実体験だけではなく、追体験もカバーすることで体験価値は大きく向上する。
【0202】
また本技術を用いることで、関連産業の拡大を図ることが可能である。例えば、音によるARの体験が拡張されることで、リアリティを重視した実体験から、仮想的なキャラクタベースの疑似体験等、展開できるイベントが多種多様に発展する。また、テーマパークなどの実体験に加え、追体験をベースとしたリモート型のエンターテイメント等への展開も期待され、エンターテイメント産業の拡大が予想される。
また音声のみならず映像を扱うことで、ソフトウエアやクラウドサービス等の開発環境の更なる整備が必要とされ、周辺産業への発展も期待できる。さらに、追体験をサポートするためにカメラなどの映像装置、実体験をリッチにするためのスマートグラス等のハードウェア産業への貢献も大きい。
【0203】
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
【0204】
上記では、音によるARのセッションをリアルタイムで共有させる共有データを生成する情報処理システム100と、音によるARのセッションを体験後に再現する再現コンテンツを生成する情報処理システム200とを分けて記載した。これに限定されず、共有データ及び再現コンテンツの両方の再生データを生成可能なシステムが構築されてもよい。
【0205】
上記では、ユーザにより操作される端末装置及びサーバ装置等のコンピュータにより、本技術に係る情報処理方法が実行される場合を説明した。しかしながらこれらのコンピュータとネットワーク等を介して通信可能な他のコンピュータとにより、本技術に係る情報処理方法、及びデータ生成方法が実行されてもよい。
【0206】
すなわち本技術に係る情報処理方法、及びデータ生成方法は、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
【0207】
コンピュータシステムによる本技術に係る情報処理方法、及びデータ生成方法の実行は、例えば、イベント情報の取得、及び再生データの生成等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
【0208】
すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
【0209】
以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
【0210】
本開示において、「同じ」「等しい」「直交」等は、「実質的に同じ」「実質的に等しい」「実質的に直交」等を含む概念とする。例えば「完全に同じ」「完全に等しい」「完全に直交」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
【0211】
なお、本技術は以下のような構成も採ることができる。
(1)ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示される音データを含む視聴覚データがタイムラインに沿って記録されたイベント情報を取得する取得部と、
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する生成部と
情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記視聴覚データは、前記イベントに関連する視覚データを含む
情報処理装置。
(3)(2)に記載の情報処理装置であって、
前記視覚データは、前記音データの内容を視覚的に表すデータである
情報処理装置。
(4)(2)又は(3)に記載の情報処理装置であって、
前記視覚データは、前記イベントが発生した際に収音された音声又は環境音の内容を視覚的に表すデータである
情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記イベント情報は、前記タイムラインにおける前記イベントを発生させるトリガの検出タイミングを含む
情報処理装置。
(6)(5)に記載の情報処理装置であって、
前記イベント情報は、前記イベントにおける前記視聴覚データの提示タイミングを含み、
前記生成部は、前記視聴覚データの提示タイミングを基準に、前記再生データにおいて前記視聴覚データが再生されるタイミングを設定する
情報処理装置。
(7)(6)に記載の情報処理装置であって、
前記視聴覚データの提示タイミングは、前記トリガの検出タイミングに対する相対的な時間として記録される
情報処理装置。
(8)(1)から(7)のうちいずれか1つに記載の情報処理装置であって、
前記イベント情報は、前記イベントにおける前記視聴覚データの提示位置を含み、
前記生成部は、前記視聴覚データの提示位置を基準に、前記再生データにおいて前記視聴覚データが再生される位置を設定する
情報処理装置。
(9)(1)から(8)のうちいずれか1つに記載の情報処理装置であって、
前記視聴覚データは、前記イベントが発生した際の状況を表す状況情報に基づいて生成されたデータ、又は前記状況情報に基づいて選択されたデータである
情報処理装置。
(10)(9)に記載の情報処理装置であって、
前記状況情報は、前記ユーザの周辺環境、前記ユーザのステータス、及び前記ユーザの動作内容の少なくとも1つに関する情報を含む
情報処理装置。
(11)(1)から(10)のうちいずれか1つに記載の情報処理装置であって、
前記取得部は、第1のユーザを対象とするイベントに関する前記イベント情報を取得し、
前記生成部は、前記再生データとして、前記第1のユーザとは異なる第2のユーザに対して、前記第1のユーザを対象とするイベントを視聴可能なように提示する共有データを生成する
情報処理装置。
(12)(11)に記載の情報処理装置であって、
前記生成部は、前記第1のユーザ及び前記第2のユーザの相対距離、又は前記第1のユーザ及び前記第2のユーザの所属の少なくとも一方が所定の条件を満たした場合に、前記共有データを生成する
情報処理装置。
(13)(11)又は(12)に記載の情報処理装置であって、
前記生成部は、前記第1のユーザを対象とするイベントにおける前記音データの提示位置と前記第2のユーザの位置との相対的な位置関係に基づいて、前記共有データにおける前記音データの再生音量又は再生方位の少なくとも一方を調整する
情報処理装置。
(14)(1)から(13)のうちいずれか1つに記載の情報処理装置であって、
前記生成部は、前記再生データとして、前記タイムラインに沿って前記イベントを再現する再現コンテンツを生成する
情報処理装置。
(15)(14)に記載の情報処理装置であって、
前記取得部は、前記ユーザが前記音による拡張現実を体験する際に撮影された体験画像を取得し、
前記生成部は、前記タイムラインに沿って、前記体験画像に前記視聴覚データによる演出を加えることで前記再現コンテンツを生成する
情報処理装置。
(16)(15)に記載の情報処理装置であって、
前記体験画像は、前記ユーザを含む前記音による拡張現実の体験者が携帯するカメラ、又は前記体験者の周辺に配置されたカメラの少なくとも一方により撮影された画像である
情報処理装置。
(17)(15)又は(16)のうちいずれか1つに記載の情報処理装置であって、
前記生成部は、前記イベントにおける前記音データの提示位置と前記体験画像の撮影位置との相対的な位置関係に基づいて、前記再現コンテンツにおける前記音データの再生音量又は再生方位の少なくとも一方を調整する
情報処理装置。
(18)ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示された音データを含む視聴覚データがタイムラインに沿って記録されたイベント情報を取得し、
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する
ことをコンピュータシステムが実行する情報処理方法。
(19)ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示された音データを含む視聴覚データをタイムラインに沿って記録してイベント情報を生成する記録部と、
前記イベント情報を取得する取得部と、
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する生成部と
を具備する情報処理システム。
(20)ユーザが音による拡張現実を体験中に発生したイベントごとに、前記イベントで提示された音データを含む視聴覚データがタイムラインに沿って記録されたイベント情報を取得し、
前記イベント情報に基づいて、前記タイムラインを基準に前記視聴覚データを再生する再生データを生成する
ことをコンピュータシステムが実行するデータ生成方法。
【符号の説明】
【0212】
E、E1~E4…イベント
1、1a、1b…ユーザ
3…ARサウンド
4…ARビジュアル
5a~5c…撮影映像
6…タイムライン
7…位置情報
8…トリガ
10…イベント情報
11…ARデータ
20、220…サーバ装置
23、223…サーバ制御部
24、224…サーバデータ管理部
225…再現コンテンツ生成部
30、30a、30b、230…端末装置
40…端末制御部
41…端末データ管理部
44…ライブコンテンツ生成部
60…再現コンテンツ
100、200…情報処理システム
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20