(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-05
(45)【発行日】2024-08-14
(54)【発明の名称】コンピュータプログラム、情報処理装置、情報処理システム及び拡張現実画像表示方法
(51)【国際特許分類】
G06T 19/00 20110101AFI20240806BHJP
G06F 3/01 20060101ALI20240806BHJP
G06F 3/0346 20130101ALI20240806BHJP
G06T 7/00 20170101ALI20240806BHJP
H04N 21/431 20110101ALI20240806BHJP
H04N 23/60 20230101ALI20240806BHJP
H04N 23/63 20230101ALI20240806BHJP
【FI】
G06T19/00 600
G06F3/01 570
G06F3/0346 422
G06T7/00 300
H04N21/431
H04N23/60 500
H04N23/63
(21)【出願番号】P 2020214078
(22)【出願日】2020-12-23
【審査請求日】2023-06-23
(31)【優先権主張番号】P 2020091502
(32)【優先日】2020-05-26
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】520185199
【氏名又は名称】株式会社MAGIC
(74)【代理人】
【識別番号】100114557
【氏名又は名称】河野 英仁
(74)【代理人】
【識別番号】100078868
【氏名又は名称】河野 登夫
(72)【発明者】
【氏名】齋藤 真介
(72)【発明者】
【氏名】山崎 大佑
【審査官】▲徳▼田 賢二
(56)【参考文献】
【文献】特開2019-020738(JP,A)
【文献】特開2020-017176(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
G06F 3/01
G06F 3/0346
G06T 7/00
H04N 21/431
H04N 23/60
H04N 23/63
G06Q 30/0601
(57)【特許請求の範囲】
【請求項1】
コンピュータに、実空間を撮影するカメラ及び画像を表示する表示部を有する眼鏡型のウェアラブルデバイスに対して拡張現実画像を表示する処理を行わせるコンピュータプログラムであって、
前記カメラが撮影した画像に基づいて、ライブ会場に設置されたマーカーを検出し、
ライブ中に検出したマーカーに応じた拡張現実画像を前記ウェアラブルデバイスの前記表示部に表示する
処理を実行させる、コンピュータプログラム。
【請求項2】
前記カメラが撮影した画像に基づいて、前記ライブに出演する出演者の所定の動きを検出し、
検出した前記所定の動きに応じた拡張現実画像を前記ウェアラブルデバイスの前記表示部に表示する、
請求項1に記載のコンピュータプログラム。
【請求項3】
前記カメラが撮影した画像に基づいて、前記ライブ会場に設置された表示装置に表示された所定の画像を検出し、
検出した前記所定の画像に応じた拡張現実画像を前記ウェアラブルデバイスの前記表示部に表示する、
請求項1又は請求項2に記載のコンピュータプログラム。
【請求項4】
ライブ中の所定時点に至った場合に、前記所定時点に応じた拡張現実画像を前記ウェアラブルデバイスの前記表示部に表示する、
請求項1から請求項3までのいずれか1つに記載のコンピュータプログラム。
【請求項5】
前記ライブに参加した複数の観客がそれぞれ自身から所定距離だけ離れた位置に見えるように、各観客のウェアラブルデバイスの前記表示部に所定の拡張現実画像を表示する、
請求項1から請求項4までのいずれか1つに記載のコンピュータプログラム。
【請求項6】
前記ライブに関連して支払った料金の金額に応じた拡張現実画像を前記ウェアラブルデバイスの前記表示部に表示する、
請求項1から請求項5までのいずれか1つに記載のコンピュータプログラム。
【請求項7】
実空間を撮影するカメラ及び画像を表示する表示部を有する眼鏡型のウェアラブルデバイスに対して拡張現実画像を表示する処理を行う情報処理装置であって、
前記カメラが撮影した画像に基づいて、ライブ会場に設置されたマーカーを検出する検出部と、
ライブ中に検出したマーカーに応じた拡張現実画像を前記ウェアラブルデバイスの前記表示部に表示する表示処理部と
を備える情報処理装置。
【請求項8】
ライブ会場に設置されたマーカーと、実空間を撮影するカメラ及び画像を表示する表示部を有する眼鏡型のウェアラブルデバイスに対して拡張現実画像を表示する処理を行う情報処理装置とを備える情報処理システムであって、
前記情報処理装置は、
前記カメラが撮影した画像に基づいて、ライブ会場に設置されたマーカーを検出する検出部と、
ライブ中に検出したマーカーに応じた拡張現実画像を前記ウェアラブルデバイスの前記表示部に表示する表示処理部と
を有する、情報処理システム。
【請求項9】
情報処理装置が、実空間を撮影するカメラ及び画像を表示する表示部を有する眼鏡型のウェアラブルデバイスに対して拡張現実画像を表示する拡張現実画像表示方法であって、
前記カメラが撮影した画像に基づいて、ライブ会場に設置されたマーカーを検出し、
ライブ中に検出したマーカーに応じた拡張現実画像を前記ウェアラブルデバイスの前記表示部に表示する
拡張現実画像表示方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザが装着して利用する眼鏡型のウェアラブルデバイスに拡張現実画像を表示するコンピュータプログラム、情報処理装置、情報処理システム及び拡張現実画像表示方法に関する。
【背景技術】
【0002】
AR(Augmented Reality;拡張現実)グラス、スマートグラス又はヘッドマウントディスプレイ等の眼鏡型のウェアラブルデバイスが普及し始めている。例えばARグラスは、眼鏡のレンズに相当する部分に透過型(透光性)のディスプレイを備えており、このディスプレイに種々の文字又は画像等の情報表示を行うことができる。ARグラスを装着したユーザは、透過型のディスプレイを透して実空間を視認することができ、且つ、ディスプレイに表示された種々の情報を得ることができる。またARグラスには周囲の実空間を撮影するカメラ又はセンサ等が備えられており、ユーザが視認する実空間に対して適切な位置に画像表示を行うことにより、実空間に仮想的な情報を重畳してユーザに提供することができる。この技術は、拡張現実と呼ばれる技術であり、注目されている。
【0003】
特許文献1においては、ユーザの頭部に対する位置の変化を検出するセンサ群と、位置の変化を検出した場合に所定処理を実行する制御部とを備えるヘッドマウントディスプレイが提案されている。このヘッドマウントディスプレイは、眼鏡形状であり、ブリッジに設けられたタッチセンサとモーションセンサとをセンサ群として含む。ヘッドマウントディスプレイの制御部は、タッチセンサが接触を検知し、且つ、モーションセンサが動きを検出した場合に、所定処理を実行する。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
ARグラス等のウェアラブルデバイスを利用した拡張現実の技術は初期段階であり、この技術をどのように利用するのか、この技術を利用してどのようなサービスを提供するのかが模索されている段階である。
【0006】
本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、拡張現実の技術を利用した新たなサービスを実現することが期待できるコンピュータプログラム、情報処理装置、情報処理システム及び拡張現実画像表示方法を提供することにある。
【課題を解決するための手段】
【0007】
本発明に係るコンピュータプログラムは、コンピュータに、実空間を撮影するカメラ及び画像を表示する表示部を有する眼鏡型のウェアラブルデバイスに対して拡張現実画像を表示する処理を行わせるコンピュータプログラムであって、前記カメラが撮影した画像に基づいて、ライブ会場に設置されたマーカーを検出し、ライブ中に検出したマーカーに応じた拡張現実画像を前記ウェアラブルデバイスの前記表示部に表示する処理を実行させる。
【発明の効果】
【0008】
本発明による場合は、拡張現実の技術を利用した新たなサービスを実現することが期待できる。
【図面の簡単な説明】
【0009】
【
図1】本実施の形態に係る情報処理システムの概要を説明するための模式図である。
【
図2】本実施の形態に係る情報処理システムの概要を説明するための模式図である。
【
図4】本実施の形態に係る情報処理システムの構成を示すブロック図である。
【
図5】本実施の形態に係る端末装置の構成を示すブロック図である。
【
図6】本実施の形態に係るARグラスの構成を示すブロック図である。
【
図7】本実施の形態に係るサーバ装置の構成を示すブロック図である。
【
図8】本実施の形態に係る端末装置が行う拡張現実データの取得処理の手順を示すフローチャートである。
【
図9】本実施の形態に係るサーバ装置が行う拡張現実データの送信処理の手順を示すフローチャートである。
【
図10】本実施の形態に係るサーバ装置が行うライブ管理処理の手順を示すフローチャートである。
【
図11】本実施の形態に係る端末装置が行う拡張現実の画像の表示処理の手順を示すフローチャートである。
【
図12】実施の形態2に係る情報処理システムがライブの準備段階で行う処理を説明するための模式図である。
【
図13】端末装置が表示する拡張現実画像の表示位置の設定画面の一例を示す模式図である。
【
図14】端末装置が表示する拡張現実画像の表示位置の設定画面の一例を示す模式図である。
【
図15】実施の形態2に係る情報処理システムがライブの開催中に行う処理を説明するための模式図である。
【
図16】実施の形態2に係る端末装置の構成を示すブロック図である。
【
図17】実施の形態2に係るサーバ装置が行う処理の手順を示すフローチャートである。
【
図18】実施の形態2に係る端末装置がライブの準備段階において行う処理の手順を示すフローチャートである。
【
図19】実施の形態2に係る端末装置がライブ中に行う処理の手順を示すフローチャートである。
【
図20】実施の形態2に係る端末装置が行う処理の手順を示すフローチャートである。
【発明を実施するための形態】
【0010】
本発明の実施形態に係る情報処理システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
【0011】
<実施の形態1>
<システム概要>
図1及び
図2は、本実施の形態に係る情報処理システムの概要を説明するための模式図である。本実施の形態に係る情報処理システムは、例えば音楽のライブ又はコンサート等のイベントにて利用され得る。
図1はライブ会場の様子を示すものであり、ステージ上には歌手又は演奏家等のアーティスト1がおり、ライブ会場には多数の観客2が集まっている。本実施の形態において観客2は、メガネ型のウェアラブルデバイスであるARグラス10(
図3にて図示する)をそれぞれ装着してライブに参加する。
【0012】
ARグラス10には、ライブ会場に設置されたマーカー4、ライブ会場に設置されたディスプレイ装置5に表示されたマーカー5a、アーティスト1の動作、及び、ライブの進行状況等に応じて種々の画像(拡張現実画像)が表示される。またARグラス10からは、拡張現実画像と共に音声出力が行われてもよい。
図2には、ARグラス10を通して見たライブ会場の様子を示してある。観客2は、ARグラス10を透過してステージ及びその上のアーティスト1等を視認することができると共に、ARグラスに表示された画像3を視認することができる。これにより観客2は、ステージ及びアーティスト1等の実空間に画像3が重畳された拡張現実を体験することができる。
【0013】
図3は、ARグラスの外観を示す模式図である。本実施の形態に係るARグラス10は、いわゆる眼鏡の形状であり、眼鏡のフレーム11に表示部12、カメラ13及び音声出力部17等が保持された構成である。表示部12は眼鏡のレンズに相当する箇所に設けられており、ARグラス10は右目用及び左眼用の2つの表示部12を備えている。表示部12は、透過型(透光性)であり、ARグラス10を装着したユーザ(観客2)は、表示部12を透過して周囲の景色を視認することができる。またカメラ13は、例えばフレーム11のブリッジ又はテンプル(つる)等の部分に適宜に配置される。カメラ13は、ARグラス10を装着したユーザの前方を撮影し、例えばユーザの視野範囲を撮影する。音声出力部17は、例えばフレーム11のテンプル又はモダン等の部分、ARグラス10を装着した際にユーザの耳の近傍に位置する部分に配置される。音声出力部17は、いわゆるスピーカであり、ARグラス10を装着したユーザが音声出力部17からの音声と、周辺の音声との両方を聞くことができる構成であることが好ましい。音声出力部17は、例えば骨伝導スピーカであってもよい。またARグラス10は、装着した観客2の周囲の音声等を取得するマイク(図示は省略する)を備えていてもよい。マイクは、例えばフレーム11の適宜の部分に配置され得る。
【0014】
また、ARグラス10は、フレーム11の端部に通信ケーブル14が接続されている。通信ケーブル14は、例えばスマートフォン又はタブレット型端末装置等の端末装置20に接続される。これによりARグラス10は、通信ケーブル14を介して端末装置20との間でデータの送受信を行うことができる。ARグラス10は、端末装置20から送信される画像を表示部12に表示し、端末装置20から送信される音声を音声出力部から出力すると共に、カメラ13が撮影した画像及びマイクが取得した音声等のデータを端末装置20へ送信する。端末装置20は、ARグラス10から送信されたデータに基づいてユーザの周囲の実空間を認識する処理、及び、ARグラス10の表示部12に拡張現実を実現するための画像を表示する処理を行う。
【0015】
図4は、本実施の形態に係る情報処理システムの構成を示すブロック図である。本実施の形態に係る情報処理システムは、ライブにおける拡張現実を制御するサーバ装置30を備えている。サーバ装置30は、例えば第4世代移動通信システム(4G)もしくは第5世代移動通信システム(5G)等の携帯電話通信網、又は、無線LAN(Local Area Network)等の無線通信により端末装置20との間でデータの送受信を行うことができる。サーバ装置30は、多数の観客2がそれぞれ有する端末装置20に対して、拡張現実を実現するための画像及び音声等のデータを送信する。
【0016】
本実施の形態においてサーバ装置30から各端末装置20への画像及び音声等のデータの送信は、ライブの開始前に予め行われる。例えばライブの開始前に一部又は全部のデータがサーバ装置30から端末装置20へ送信され、端末装置20がこのデータをライブの終了まで保持している。サーバ装置30は、例えば予め送信した画像を表示するタイミングの指示等を端末装置20へ送信し、この指示等に応じて端末装置20が予め記憶した画像及び音声等の出力を行うことができる。また更には表示のタイミング等の情報も予め端末装置20に送信しておき、端末装置20がこのタイミング情報に従って画像を表示してもよい。ただし、サーバ装置30から端末装置20へのデータの送信は、ライブの開始前に行うのではなく、ライブ中にリアルタイムで行われてもよい。
【0017】
本実施の形態に係る情報処理システムでは、例えば端末装置20がARグラス10のカメラ13の撮影画像からライブ会場に設置されたマーカーを検出する処理を行う。マーカーとは、拡張現実の画像を表示する契機となる目印であり、予め登録された文字、記号、図形、形状、模様、画像又は写真等の様々なものが用いられ得る。マーカーは2次元のもの又は3次元のもののいずれであってもよい。本例においては、例えばライブ会場のセット又はアーティスト1の衣装等をマーカーとして利用することができる。端末装置20は、検出したマーカーに対して定められた画像を、このマーカーの位置を基準として相対的に定められる位置となるように、ARグラス10の表示部12に表示する処理を行う。また端末装置20は、マーカーに対して定められた音声を音声出力部17から出力する処理を行ってもよい。
【0018】
また本実施の形態に係る情報処理システムでは、端末装置20が検出するマーカーを、例えばライブ会場に設置された大型のディスプレイ装置5に表示することができる。例えばライブの運営者がマニュアル操作で、又は、サーバ装置30等の装置が自動で、ライブ中にディスプレイ装置5に表示するマーカーを適宜に変更することによって、観客2のARグラス10に表示する拡張現実の画像を適宜に変更することができる。
【0019】
また本実施の形態に係る情報処理システムでは、ライブの舞台上のアーティスト1の所定の動き又はポーズ等をマーカーとして用いることができる。端末装置20は、ARグラス10のカメラ13が撮影した画像からアーティスト1の動きを検出し、アーティスト1の所定の動きに対して定められた拡張現実の画像をARグラス10の表示部12に表示する。これによりアーティスト1が予め定められた動き又はポーズをとることで、観客2のARグラス10に所定の拡張現実の画像を表示することができる。例えば、アーティスト1が踊るダンス等における所定の振り付け又はポーズ等に対応してARグラス10に所定の拡張現実の画像を表示することができる。また例えば端末装置20は、ARグラス10のカメラ13が撮像した画像から人の顔を検出する顔検出処理と、検出した顔及び登録済の人物の顔が一致するか否かを判定する顔認証処理とを行ってもよい。この場合に端末装置20は、顔認証処理に基づいてライブの舞台上に特定のアーティスト1が登場したことを判断し、このアーティスト1に対応付けられた拡張現実の画像を表示することができる。
【0020】
また本実施の形態に係る情報処理システムでは、所定の音楽又は音声等の検出に応じて端末装置20が拡張現実の画像をARグラス10に表示することができる。これは、所定の音楽又は音声等をマーカーとして扱うものである。端末装置20は、例えばARグラス10に設けられたマイク、又は、端末装置20に設けられたマイクにより、観客2の周辺の音楽又は音声等を取得する。端末装置20は、例えばマイクにて取得した音楽が所定の楽曲である場合に、この楽曲に対して定められた拡張現実の画像をARグラス10に表示する。また端末装置20は、例えばマイクにて取得した音声に対して音声認識の処理を行い、アーティスト1が所定の言葉又はセリフ等を発した場合に、対応する拡張現実の画像をARグラス10に表示する。
【0021】
また本実施の形態に係る情報処理システムでは、例えばライブの開始から5分後、10分後、1時間後…等の所定の時間経過に応じて、端末装置20はARグラス10に所定の拡張現実の画像を表示することができる。画像の表示タイミングは、ライブの開始を基準とするのではなく、例えば時刻で定められてもよい。また画像の表示タイミングは、端末装置20が判断してもよく、サーバ装置30が表示タイミングを判断して端末装置20へ表示命令等を与えてもよい。ライブ開始のタイミングをサーバ装置30が端末装置20に通知し、端末装置20がこの通知に同期して表示タイミングを判断してもよい。また時間又は時刻等に応じた画像の表示は、マーカーの有無に関係なく行われてよく、又は、時間の条件及びマーカー検出の条件が揃った場合に行われてもよい。
【0022】
また本実施の形態に係る情報処理システムでは、マーカーの検出なしで端末装置20がARグラス10に所定の拡張現実の画像を表示することができる。例えば端末装置20は、上述の時間経過に応じた画像表示をマーカーの検出なしで行うことができる。また例えば端末装置20は、サーバ装置30から与えられる命令等に応じて、所定の画像を表示することができる。この場合にサーバ装置30は、例えばライブの進行状況等に応じて、画像の表示命令又は表示する画像のデータ等を端末装置20へ送信することができる。
【0023】
また例えば端末装置20は、GPS(Global Positioning System)の位置情報を取得し、所定の位置又は位置範囲内に存在する場合に、所定の画像を表示することができる。例えば複数の会場でライブが行われる音楽フェスティバルにおいて、GPSの位置情報に基づいてユーザがいずれの会場にいるかを端末装置20が判断し、会場に対応付けられた拡張現実の画像をARグラス10に表示することができる。また例えばユーザが会場以外の場所にいる場合、端末装置20は、会場の位置及び道順等の情報をARグラス10に表示してもよい。
【0024】
また本実施の形態に係る情報処理システムでは、例えばライブ会場に設置されたカメラ(図示は省略する)等でライブ会場内のステージ及び客席等を撮影してもよい。このカメラが撮影した画像はサーバ装置30へ与えられ、サーバ装置30は、この画像からライブの様子を判断して、ライブに参加している各ユーザの端末装置20に対して拡張現実の画像を表示する命令等を与えてもよい。例えばサーバ装置30は、ライブ会場内の多数の観客2のうちの8割以上がペンライトを振ったことをカメラの撮影画像から判断し、これに応じて特定の拡張現実の画像を表示する命令等を端末装置20へ送信することができる。
【0025】
また本実施の形態に係る情報処理システムでは、ライブ中にARグラス10又は端末装置20にて受け付けたユーザの操作に応じて、拡張現実の画像をARグラス10に表示してもよい。例えば端末装置20は、ライブ中にこのライブに関する評価等を受け付け、受け付けた評価等をサーバ装置30へ送信する。サーバ装置30は、例えばライブに参加している観客2からの評価を集計し、8割以上の観客2から高評価が得られた場合に、所定の拡張現実の画像をARグラス10に表示することができる。
【0026】
また本実施の形態に係る情報処理システムでは、端末装置20が録画機能を備えている。端末装置20が録画する画像は、ARグラス10のカメラ13が撮影した画像に、拡張現実の画像を重畳したものである。また端末装置20は、マイクにて取得した音声に、拡張現実の音声を重畳したものを録音する機能を有していてよい。端末装置20は、録画及び録音したデータを、例えば1つのファイルとしてメモリ等に記憶しておく。端末装置20にて録画及び録音されたデータは、例えばSNS(Social Networking Service)等のサービスを利用して観客2が公開可能であってもよく、逆に著作権等の保護を目的として公開不可能とされてもよい。
【0027】
なお本実施の形態においては、ARグラス10に通信ケーブル14を介して接続された端末装置20が拡張現実の画像処理等を行うものとするが、これに限るものではなく、例えば端末装置20を用いない構成、いわゆるスタンドアロン型のARグラスが採用されてもよい。例えば端末装置20の機能をARグラス10が備えてもよい。この場合にARグラス10は、サーバ装置30との通信を行って画像を受信すると共に、マーカーの検出及び拡張現実を実現するための画像表示処理等を行ってもよい。また例えば、サーバ装置30が端末装置20の処理を行ってもよい。この場合にARグラス10は、カメラ13の撮像画像をサーバ装置30へ送信し、サーバ装置30から送信される画像を表示部12に表示する。サーバ装置30は、複数のARグラス10に対して表示部12に表示するための画像のデータを送信する。なおサーバ装置30は、1つの装置ではなく、複数の装置の協働により実現されるサーバシステムであってよい。
【0028】
また本実施の形態においては、情報処理システムを音楽のライブに利用する例を説明するが、本情報処理システムの適用はライブに限らない。例えば製品発表会、演劇、サーカス又はスポーツ観戦等のように、観客2が参加する種々のイベントに本情報処理システムを適用することができる。本実施の形態に係る情報処理システムは、舞台又は競技場等の周囲に複数の観客2が集まるイベントに好適である。また更に、例えば美術館もしくは博物館、又は、美術作品を展示したイベント等に本情報処理システムを適用することができる。この場合には、例えば展示物の周囲にマーカーを配置するか、又は、展示物自体をマーカーとして用いて、ARグラス10に仮想現実の画像を表示することができる。
【0029】
<装置構成>
図5は、本実施の形態に係る端末装置20の構成を示すブロック図である。本実施の形態に係る端末装置20は、処理部(プロセッサ)21、記憶部(ストレージ)22、無線通信部(トランシーバ)23、有線通信部(トランシーバ)24、表示部(ディスプレイ)25及び操作部26等を備えて構成されている。端末装置20は、例えばスマートフォン、タブレット型端末装置又はパーソナルコンピュータ等の汎用の情報処理装置を用いて構成され得る。
【0030】
処理部21は、CPU(Central Processing Unit)又はMPU(Micro-Processing Unit)等の演算処理装置、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等を用いて構成されている。処理部21は、記憶部22に記憶されたプログラム22aを読み出して実行することにより、ライブ会場に設置又は表示等されたマーカーを検出する処理、及び、拡張現実の画像を表示する処理等の種々の処理を行う。
【0031】
記憶部22は、例えばフラッシュメモリ等の不揮発性のメモリ素子を用いて構成されている。記憶部22は、処理部21が実行する各種のプログラム、及び、処理部21の処理に必要な各種のデータを記憶する。本実施の形態において記憶部22は、処理部21が実行するプログラム22aと、ARグラス10の表示部12に表示する拡張現実の拡張現実データ22bとを記憶している。また記憶部22は、端末装置20により録画及び録音されたデータを記憶することができる。
【0032】
記憶部22に記憶されるプログラム22aは、拡張現実を実現する画像表示を行うためのアプリケーションプログラム、いわゆるアプリである。本実施の形態においてプログラム22aは遠隔のサーバ装置等により配信され、これを端末装置20が通信にて取得し、記憶部22に記憶する。ただしプログラム22aは、例えば端末装置20の製造段階において記憶部22に書き込まれてもよい。例えばプログラム22aは、メモリカード又は光ディスク等の記録媒体98に記録されたプログラム22aを端末装置20が読み出して記憶部22に記憶してもよい。例えばプログラム22aは、記録媒体98に記録されたものを書込装置が読み出して端末装置20の記憶部22に書き込んでもよい。プログラム22aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体98に記録された態様で提供されてもよい。
【0033】
記憶部22に記憶される拡張現実データ22bは、ARグラス10の表示部12に表示する拡張現実の画像のデータである。また拡張現実データ22bには、拡張現実の音声として出力する音声データが含まれていてもよい。ただし以下においては、拡張現実として画像を表示する例を説明し、音声の出力については説明を省略する。端末装置20は、例えばライブの開始前までに、サーバ装置30が配信する拡張現実データ22bをダウンロードして記憶部22に記憶しておくことができる。また例えば端末装置20は、ライブ中にリアルタイムで又はそれに近いタイミングで、サーバ装置30から拡張現実データ22bを取得して記憶部22に記憶してもよい。拡張現実データ22bに含まれる画像のデータは、2次元画像又は3次元画像のいずれであってもよく、静止画像又は動画像のいずれであってもよい。
【0034】
無線通信部23は、例えば第4世代移動通信システム(4G)もしくは第5世代移動通信システム(5G)等の携帯電話通信網、又は、無線LAN(Local Area Network)等の無線通信により、種々の装置との間で通信を行う。本実施の形態において無線通信部23は、サーバ装置30との間で無線によるデータの送受信を行う。無線通信部23は、処理部21から与えられたデータをサーバ装置30へ送信すると共に、サーバ装置30から受信したデータを処理部21へ与える。
【0035】
有線通信部24は、例えばUSB(Universal Serial Bus)の通信規格に従って、通信ケーブルを介して接続された他の装置との間で通信を行う。本実施の形態において有線通信部24は、通信ケーブル14を介して接続されたARグラス10との間でデータの送受信を行う。有線通信部24は、処理部21から与えられたデータをARグラス10へ送信すると共に、ARグラス10から受信したデータを処理部21へ与える。なお本実施の形態においては、端末装置20及びARグラス10が有線通信を行う構成とするが、これに限るものではなく、例えばBluetooth(登録商標)等の無線通信を行ってもよい。
【0036】
表示部25は、液晶ディスプレイ等を用いて構成されており、処理部21の処理に基づいて種々の画像及び文字等を表示する。
【0037】
操作部26は、ユーザの操作を受け付け、受け付けた操作を処理部21へ通知する。例えば操作部26は、機械式のボタン又は表示部25の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部26は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは端末装置20に対して取り外すことが可能な構成であってもよい。
【0038】
なお図示は省略するが、端末装置20は、GPS信号を受信するGPS受信部、及び、周辺の音声を取得するマイク等を備えてよい。
【0039】
また本実施の形態に係る端末装置20は、記憶部22に記憶されたプログラム22aを処理部21が読み出して実行することにより、検出処理部21a及び拡張現実処理部21b等がソフトウェア的な機能部として処理部21に実現される。検出処理部21aは、ARグラス10のカメラ13が撮影した画像に基づいて、ライブ会場に設置又は表示等されたマーカーを検出する処理を行う。例えば検出処理部21aは、予めマーカーとして記憶した画像とカメラ13の撮影画像とを比較し、撮影画像中にマーカーの画像が含まれているか否か、及び、含まれている場合にはその位置等を検出する。検出処理部21aが検出するマーカーは、例えばライブ会場に設置された大道具、小道具、これらの一部分等とすることができる。また検出処理部21aが検出するマーカーは、例えばライブ会場に設置されたディスプレイ装置5に表示された画像又はこの画像の一部分等とすることができる。また検出処理部21aが検出するマーカーは、例えばアーティスト1の衣装、アーティスト1のポーズ、アーティスト1の動き等とすることができる。また例えば検出処理部21aは、ARグラス10又は端末装置20が備えるマイクから取得した音楽又は音声等に基づいて、予めマーカーとして定められた音楽又は音声等を検出してもよい。
【0040】
拡張現実処理部21bは、例えば検出処理部21aが検出したマーカー、ライブ開始からの時間経過、又は、サーバ装置30からの命令等に応じて、ARグラス10の表示部12に拡張現実の画像を表示する処理を行う。拡張現実処理部21bは、例えば検出処理部21aが検出したマーカーに対応する拡張現実データを記憶部22から読み出し、マーカーの位置等に応じて表示する画像の位置及び向き等を調整した画像をARグラス10へ送信することにより、ARグラス10の表示部12にマーカーに応じた拡張現実の画像を表示することができる。この場合にARグラス10に表示される画像は、ARグラス10を装着する観客2とマーカーとの位置関係に応じて変化する。
【0041】
また拡張現実処理部21bは、ライブ開始から所定時間が経過した場合又はサーバ装置30から所定の表示命令を与えられた場合等に、時間経過又は表示命令等に応じた拡張現実データを記憶部22から読み出し、ARグラス10へ表示すべき画像を送信することにより、ARグラス10の表示部12に時間経過又は表示命令等に応じた拡張現実の画像を表示することができる。この場合に表示される画像は、マーカーの有無に関係なく表示されてもよく、マーカーに対応付けて表示されてもよい。端末装置20がマーカーの有無に関係なく画像を表示する場合、ARグラス10に表示される画像は、観客2の位置等に関係なく表示されるため、全ての観客2が同じ画像をARグラス10を通して視認することができる。例えば自身から5m先にキャラクタが存在するように見える拡張現実の画像をマーカーに関係なく端末装置20が表示することによって、全ての観客2は自身から5m先に存在するキャラクタをARグラス10を通して視認する。
【0042】
また拡張現実処理部21bは、上記の画像表示と同様に、例えば検出処理部21aが検出したマーカー、ライブ開始からの経過時間、又は、サーバ装置30からの命令等に応じて、拡張現実データに含まれる拡張現実の音声をARグラス10の音声出力部17から出力する処理を行ってよい。
【0043】
また拡張現実処理部21bは、観客2がARグラス10を通して見たライブの画像の録画、及び、ARグラス10を装着して聞いた音声の録音等の処理を行ってよい。拡張現実処理部21bは、ARグラス10のカメラ13が撮影した画像と、ARグラス10の表示部12に表示した画像とを重畳した画像のデータを記憶部22に記憶することで録画を行う。また拡張現実処理部21bは、ARグラス10又は端末装置20のマイクが取得した音声と、ARグラス10の音声出力部17から出力した音声とを重畳した音声のデータを記憶部22に記憶することで録音を行う。
【0044】
図6は、本実施の形態に係るARグラス10の構成を示すブロック図である。本実施の形態に係るARグラス10は、表示部12、カメラ13、処理部15、有線通信部16及び音声出力部17等を備えて構成されている。表示部12は、処理部15から与えられる画像を表示する。
図6においては表示部12を1つ図示しているが、本実施の形態においてARグラス10は、右目用及び左目用の2つ表示部12を有している。ただしARグラス10は、左右が一続きの表示部12を有してもよい。また本実施の形態において表示部12は、透過型(透光性)であり、観客2は表示部12を通して実空間を視認することができる。ただし表示部12は非透過型であってもよく、この場合には端末装置20がカメラ13にて撮影された実空間の画像に拡張現実の画像を重畳したものを表示部12に表示すればよい。
【0045】
カメラ13は、例えばレンズ及び撮像素子等を用いて構成されている。カメラ13は、ARグラス10を装着した観客2の前方を撮影すべく、ARグラス10のフレーム11に搭載されている。カメラ13は、例えば180°又はそれ以上の画角を有するものであってよく、少なくとも観客2の視野範囲を撮影できるものであることが好ましい。なおARグラス10は、複数のカメラ13を有していてもよい。カメラ13は、撮影した画像を処理部15へ与える。
【0046】
処理部15は、例えばCPU又はMPU等の演算処理装置を用いて構成されている。処理部15は、カメラ13が撮影した画像を端末装置20へ送信する処理、及び、端末装置20から受信した拡張現実の画像を表示部12に表示する処理等を行う。
【0047】
有線通信部16は、例えばUSBの通信規格に従って、通信ケーブル14を介して接続された端末装置20との間でデータの送受信を行う。有線通信部16は、例えば処理部15から与えられたカメラ13の撮影画像を端末装置20へ送信すると共に、端末装置20から受信した拡張現実の画像を処理部15へ与える。
【0048】
音声出力部17は、いわゆるスピーカであり、処理部15の処理に従って、種々の音声を出力する。
【0049】
なお図示は省略するが、ARグラス10は、GPS信号を受信するGPS受信部、及び、周辺の音声を取得するマイク等を備えてよい。
【0050】
図7は、本実施の形態に係るサーバ装置30の構成を示すブロック図である。本実施の形態に係るサーバ装置30は、処理部31、記憶部32及び通信部33等を備えて構成されている。なお本実施の形態においては、1つのサーバ装置30にて処理が行われるものとして説明を行うが、複数のサーバ装置30が分散して処理を行ってもよい。
【0051】
処理部31は、CPU、MPU又はGPU(Graphics Processing Unit)等の演算処理装置、ROM及びRAM等を用いて構成されている。処理部31は、記憶部32に記憶されたサーバプログラム32aを読み出して実行することにより、観客2の端末装置20へ拡張現実の画像を送信する処理、及び、ライブを管理する処理等の種々の処理を行う。
【0052】
記憶部32は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部32は、処理部31が実行する各種のプログラム、及び、処理部31の処理に必要な各種のデータを記憶する。本実施の形態において記憶部32は、処理部31が実行するサーバプログラム32aと、端末装置20へ送信する拡張現実の拡張現実データ32bとを記憶している。
【0053】
本実施の形態においてサーバプログラム32aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、サーバ装置30は記録媒体99からサーバプログラム32aを読み出して記憶部32に記憶する。ただし、サーバプログラム32aは、例えばサーバ装置30の製造段階において記憶部32に書き込まれてもよい。また例えばサーバプログラム32aは、遠隔の他のサーバ装置等が配信するものをサーバ装置30が通信にて取得してもよい。例えばサーバプログラム32aは、記録媒体99に記録されたものを書込装置が読み出してサーバ装置30の記憶部32に書き込んでもよい。サーバプログラム32aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。
【0054】
記憶部32に記憶される拡張現実データ32bは、各観客2の端末装置20へ送信され、この端末装置20に接続されたARグラス10の表示部12に表示される拡張現実の画像及び音声出力部17から出力される音声等のデータである。拡張現実データ32bは、例えばライブの主催者等が予め作成してサーバ装置30の記憶部32に記憶しておく。なお拡張現実データ32bの作成は、サーバ装置30にて行われてもよく、別の装置で行われてもよい。
【0055】
通信部33は、携帯電話通信網及びインターネット等を含むネットワークを介して、種々の装置との間で通信を行う。本実施の形態において通信部33は、ライブに参加する複数の観客2の端末装置20との間で通信を行う。通信部33は、処理部31から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部31へ与える。
【0056】
なお記憶部32は、サーバ装置30に接続された外部記憶装置であってよい。またサーバ装置30は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。またサーバ装置30は、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。
【0057】
また本実施の形態に係るサーバ装置30の処理部31には、記憶部32に記憶されたサーバプログラム32aを処理部31が読み出して実行することにより、データ送信処理部31a及びライブ管理処理部31b等が、ソフトウェア的な機能部として処理部31に実現される。
【0058】
データ送信処理部31aは、記憶部32に記憶された拡張現実データ32bを観客2の端末装置20へ送信する処理を行う。本実施の形態においてデータ送信処理部31aは、ライブの開始前に予め端末装置20へ拡張現実データ32bを送信する。ライブのチケットに拡張現実データ32bのダウンロードコード等が印刷されており、端末装置20はこのコードの入力を受け付けた場合に、受け付けたコードを送信してサーバ装置30へ拡張現実データ32bの送信を要求する。サーバ装置30のデータ送信処理部31aは、端末装置20からの送信要求に応じて、コードに対応するライブの拡張現実データ32bを記憶部32から読み出し、読み出した拡張現実データ32bを要求元の端末装置20へ送信する。なお、上記の拡張現実データ32bの送信方法及び送信タイミング等は一例であってこれに限るものではない。データ送信処理部31aは、例えばライブ中に必要な画像をリアルタイムで端末装置20へ送信してもよい。
【0059】
ライブ管理処理部31bは、ライブ中における拡張現実の画像の表示タイミング等を管理する処理を行う。ライブ管理処理部31bは、例えばライブの開始及び終了を端末装置20に通知する。またライブ管理処理部31bは、例えばライブの開始後の時間の経過を計時し、所定時間が経過した場合に所定の拡張現実の画像の表示命令を端末装置20へ与える。またライブ管理処理部31bは、例えばライブの主催者等の操作に応じて拡張現実の画像の表示タイミングを判断し、画像を表示すべきタイミングに至ったと判断した場合に表示命令を端末装置20へ送信する。またライブ管理処理部31bは、例えばライブ会場に設置されたディスプレイ装置5に表示する画像を管理してもよい。なお拡張現実の音声出力を行う場合、ライブ管理処理部31bは、同様にして拡張現実の音声出力タイミング等を管理してよい。
【0060】
またライブ管理処理部31bは、例えば会場に設置されたカメラにて会場の舞台又は客席等を撮影した画像に基づいて、表示タイミング等を決定してもよい。例えばライブ管理処理部31bは、会場の客席を撮影した画像からペンライトを振る観客2を検出する処理を行い、検出された観客2の人数が閾値を超える場合、又は、全観客数に対する検出された観客の人数が閾値を超える場合等に、所定の拡張現実の画像を表示するタイミングと判断することができる。
【0061】
またライブ管理処理部31bは、ライブ中にARグラス10又は端末装置20にて受け付けたユーザの操作に基づいて、表示タイミング等を決定してもよい。例えばライブ管理処理部31bは、ライブに参加している観客2の端末装置20からこのライブに関する評価の情報を取得し、取得した評価を集計する。ライブ管理処理部31bは、評価の集計結果と予め定められた閾値とを比較し、閾値より高い評価が得られた場合に所定の拡張現実の画像を表示するタイミングと判断することができる。
【0062】
<拡張現実処理>
本実施の形態に係る情報処理システムでは、例えばライブのチケットを購入した観客2の端末装置20へ、ライブに必要な拡張現実データをサーバ装置30が予め送信する。例えばライブのチケットには拡張現実データのダウンロードコードが印刷されており、観客2は端末装置20にてアプリ(プログラム22a)を起動してコードの入力を行う。コードの入力を受け付けた端末装置20は、このコードをサーバ装置30へ送信して拡張現実データの送信を要求する。サーバ装置30は、端末装置20からの要求に応じて、コードに対応するライブに必要な拡張現実データを記憶部32から読み出し、要求元の端末装置20へ送信する。なおコードは、例えば電子メール等で送信されてもよく、また例えばバーコード又は2次元コード等で提供されてもよい。
【0063】
図8は、本実施の形態に係る端末装置20が行う拡張現実データの取得処理の手順を示すフローチャートである。本実施の形態に係る端末装置20の処理部21は、ライブのチケット等に印刷されたライブのコードの入力をユーザから受け付ける(ステップS1)。処理部21は、受け付けたコードをサーバ装置30へ送信して、拡張現実の画像表示に必要な拡張現実データの送信を要求する(ステップS2)。
【0064】
その後、処理部21は、サーバ装置30から拡張現実データを受信したか否かを判定する(ステップS3)。拡張現実データを受信していない場合(S3:NO)、処理部21は、拡張現実データを受信するまで待機する。拡張現実データを受信した場合(S3:YES)、処理部21は、受信した拡張現実データを記憶部22に記憶して(ステップS4)、処理を終了する。
【0065】
図9は、本実施の形態に係るサーバ装置30が行う拡張現実データの送信処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置30の処理部31のデータ送信処理部31aは、端末装置20から拡張現実データの送信の要求が与えられたか否かを判定する(ステップS11)。端末装置20からの要求が与えられていない場合(S11:NO)、データ送信処理部31aは、端末装置20から拡張現実データの送信を要求されるまで待機する。拡張現実データの送信の要求が与えられた場合(S11:YES)、データ送信処理部31aは、端末装置20から要求と共に送信されるコードに対応するライブにて用いられる拡張現実の拡張現実データを記憶部32から読み出す(ステップS12)。データ送信処理部31aは、読み出した拡張現実データを、要求元の端末装置20へ送信し(ステップS13)、処理を終了する。
【0066】
ライブ当日。観客2は、ライブ会場を訪れた後、端末装置20にARグラス10を接続して装着するとともに、上記のコードを端末装置20に入力してライブの開始を待つ。サーバ装置30は、ライブの開始時刻に至った場合、全ての観客2の端末装置20(正しいコードが入力された端末装置20)に対して、ライブの開始を通知する。この通知を受けた端末装置20は、ARグラス10の表示部12に拡張現実の画像を表示する処理を開始する。
【0067】
端末装置20は、ARグラス10のカメラ13にて撮影された画像を取得し、この撮影画像に含まれるマーカーの検出を行う。また端末装置20は、ARグラス10のマイク又は自身のマイクが取得した音声に含まれるマーカーの検出を行ってもよい。本実施の形態において端末装置20が検出するマーカーは、例えば以下のものが挙げられる。
(1)会場に設置された大道具、小道具もしくはアーティスト1が着用している衣装等、又は、これらに描かれている文字、記号もしくは画像等。
(2)会場に設置されたディスプレイ装置5等の表示装置に表示された文字、記号又は画像等。
(3)アーティスト1の動き又はポーズ等。
(4)所定の音楽又は音声等
【0068】
上記(1)及び(2)について、端末装置20は、予めマーカーとして登録された画像と、カメラ13の撮影画像(又はその一部分)とが一致する場合に、マーカーが存在すると判断することができる。上記(3)について、端末装置20は、カメラ13の撮影画像に映された人(アーティスト1)を抽出し、抽出した人の動き又はポーズを判定する。端末装置20は、判定した動き又はポーズと、マーカーとして登録された動き又はポーズとが一致する場合に、マーカーが存在すると判断することができる。上記(4)について、端末装置20は、マイクにて取得した音声を基に音声認識等の処理を行い、予め定められた楽曲又は言葉等が音声に含まれる場合に、音声のマーカーが存在すると判断することができる。
【0069】
端末装置20は、カメラ13の撮影画像からマーカーを検出した場合、検出したマーカーに対応付けられた拡張現実の画像を記憶部22の拡張現実データ22bから読み出す。端末装置20は、検出したマーカーの位置及び大きさ等に応じて、表示する拡張現実の画像の向き及び大きさ等を調整して表示用の画像を生成し、生成した画像をARグラス10へ送信する。ARグラス10は、端末装置20からの画像を受信し、拡張現実の画像を表示部12に表示する。マーカーに応じて表示される拡張現実の画像は、ライブ会場における観客2の位置等に応じて、観客2毎にそれぞれ向き又は大きさ等が異なる画像となり得る。また端末装置20は、検出したマーカーに対応付けられた拡張現実の音声をARグラス10の音声出力部17から出力してよい。
【0070】
また本実施の形態において端末装置20は、マーカーの検出なしで所定の拡張現実の画像をARグラス10に表示することができる(拡張現実の音声出力についても同様である)。例えば端末装置20は、ライブ開始からの時間経過で予め定められたタイミングで所定の画像をARグラス10に表示する。また例えば端末装置20は、サーバ装置30からの命令に応じて所定の画像をARグラス10に表示する。マーカーの検出なしで表示される拡張現実の画像はライブ会場における各観客2の位置等に関係なく表示され、全ての観客2のARグラス10に同じ拡張現実の画像が表示される。即ち、端末装置20が例えばマーカーに関係なく5m先にキャラクタが存在するように見える拡張現実の画像をARグラス10に表示した場合、全ての観客2のARグラス10に自身から5m先に存在するキャラクタの画像が表示される。
【0071】
図10は、本実施の形態に係るサーバ装置30が行うライブ管理処理の手順を示すフローチャートである。なお本フローチャートでは、拡張現実の画像を表示する場合について説明し、拡張現実の音声を出力する場合については説明を省略する。本実施の形態に係るサーバ装置30の処理部31のライブ管理処理部31bは、例えばライブの主催者等による操作、又は、ライブの開始時刻に至ったこと等に応じて、ライブに参加する観客2の端末装置20へライブ開始を通知する(ステップS21)。ライブ管理処理部31bは、自身のタイマ機能等を利用して、ライブ開始からの経過時間の計時を開始する(ステップS22)。
【0072】
ライブ管理処理部31bは、予め定められたライブのスケジュールと、経過時間の計時結果とに基づいて、拡張現実の画像を表示すべきタイミングに至ったか否かを判定する(ステップS23)。なおライブのスケジュールは、例えばライブの主催者等が予め作成し、サーバ装置30にスケジュールのデータを記憶しておく。拡張現実の画像の表示タイミングに至った場合(S23:YES)、ライブ管理処理部31bは、観客2の端末装置20に対して、例えば表示すべき画像を識別する情報を付した表示命令を送信し(ステップS24)、ステップS23へ処理を戻す。
【0073】
拡張現実の画像の表示タイミングに至っていない場合(S23:NO)、ライブ管理処理部31bは、予め定められたライブのスケジュールと、経過時間の計時結果とに基づいて、ライブの終了のタイミングに至ったか否かを判定する(ステップS25)。ライブの終了タイミングに至っていない場合(S25:NO)、ライブ管理処理部31bは、ステップS23へ処理を戻す。ライブの終了タイミングに至った場合(S25:YES)、ライブ管理処理部31bは、観客2の端末装置20に対して、ライブの終了を通知し(ステップS26)、処理を終了する。
【0074】
図11は、本実施の形態に係る端末装置20が行う拡張現実の画像の表示処理の手順を示すフローチャートである。なお本フローチャートでは、拡張現実の画像を表示する場合について説明し、拡張現実の音声を出力する場合については説明を省略する。本実施の形態に係る端末装置20の処理部21は、サーバ装置30からライブの開始を通知されたか否かを判定する(ステップS41)。ライブの開始を通知されていない場合(S41:NO)、処理部21は、ライブの開始を通知されるまで待機する。
【0075】
ライブの開始を通知された場合(S41:YES)、処理部21の検出処理部21aは、ARグラス10のカメラ13が撮影した画像を取得してマーカーの検出処理を行い、撮影画像の中に所定のマーカーが存在するか否かを判定する(ステップS42)。マーカーが存在する場合(S42:YES)、処理部21の拡張現実処理部21bは、検出されたマーカーに対応する拡張現実の拡張現実データを記憶部22から読み出す(ステップS43)。拡張現実処理部21bは、検出されたマーカーの位置等に応じて、ARグラス10の表示する拡張現実の画像の位置、向き及び大きさ等を調整する(ステップS44)。拡張現実処理部21bは、調整後の拡張現実の画像をARグラス10へ送信して(ステップS45)、ARグラス10に拡張現実の画像の表示し、ステップS49へ処理を進める。
【0076】
撮影画像の中にマーカーが存在しない場合(S42:NO)、拡張現実処理部21bは、サーバ装置30から拡張現実の画像の表示命令が与えられたか否かを判定する(ステップS46)。表示命令が与えられていない場合(S46:NO)、拡張現実処理部21bは、ステップS49へ処理を進める。表示命令が与えられた場合(S46:YES)、拡張現実処理部21bは、サーバ装置30からの表示命令に応じた拡張現実データを記憶部22から読み出す(ステップS47)。拡張現実処理部21bは、読み出した拡張現実データに基づき、表示すべき拡張現実の画像をARグラス10へ送信して(ステップS48)、ARグラス10に拡張現実の画像の表示し、ステップS49へ処理を進める。
【0077】
処理部21は、サーバ装置30からライブの終了を通知されたか否かを判定する(ステップS49)。ライブの終了を通知されていない場合(S49:NO)、処理部21は、ステップS42へ処理を戻し、上述の処理を繰り返して行う。サーバ装置30からライブの終了を通知された場合(S49:YES)、処理部21は、処理を終了する。
【0078】
<まとめ>
以上の構成の本実施の形態に係る端末装置20は、ARグラス10のカメラ13が撮影した画像に基づいて、ライブ会場に設置されたマーカーを検出し、ライブ中に検出したマーカーに応じた拡張現実の画像をARグラス10の表示部12に表示する処理を行う。これによりライブ会場でARグラス10を装着した観客2は、例えばライブに出演するアーティスト1の周囲にキャラクタ等の画像が重畳された拡張現実を体験することができるため、本実施の形態に係る情報処理システムはライブの趣向性を向上することが期待でき、拡張現実の技術を利用した新たなライブのサービスを提供することが期待できる。
【0079】
また本実施の形態に係る端末装置20は、ARグラス10のカメラ13が撮影した画像に基づいて、ライブに出演するアーティスト1の所定の動き又はポーズ等をマーカーとして検出し、検出した動き又はポーズ等に応じた所定の拡張現実の画像をARグラス10の表示部12に表示する。これにより情報処理システムは、ライブに出演するアーティスト1の動き又はポーズ等に連動して拡張現実の画像を表示することができ、ライブの趣向性をより向上することが期待できる。
【0080】
また本実施の形態に係る端末装置20は、ARグラス10のカメラ13が撮影した画像に基づいて、ライブ会場に設置されたディスプレイ装置5等に表示された所定の画像をマーカーとして検出し、検出したマーカーに応じた拡張現実の画像をARグラス10の表示部12に表示する。これによりディスプレイ装置5等の表示の変更に応じてARグラス10の表示部12に表示される拡張現実の画像を変更することができる。
【0081】
また本実施の形態に係る端末装置20は、ライブの開始からの経過時間等に応じた所定の表示タイミングに至った場合に、サーバ装置30から与えられる表示命令に応じて、この表示タイミングに応じた拡張現実の画像をARグラス10の表示部12に表示する。なお表示タイミングに至ったか否かの判定は、サーバ装置30ではなく、端末装置20にて行ってもよい。これにより端末装置20は、ライブの進行のスケジュール等に応じた拡張現実の画像をARグラス10に表示することができる。
【0082】
また本実施の形態に係る端末装置20は、ライブに参加した複数の観客がそれぞれ装着するARグラス10において同じ配置となるように、マーカーの検出の有無に関わらず、所定の拡張現実の画像をARグラス10の表示部12に表示する。これにより情報処理システムは、ライブ会場における各観客2の位置等に関わらず、各観客2のARグラス10に同じ拡張現実の画像を同じ配置で表示することができる。
【0083】
<変形例>
変形例に係る情報処理システムでは、観客2が支払った料金の価格に応じて、ARグラス10に表示する拡張現実の画像に差異が設けられている。例えばライブ会場の観客席にはS席、A席及びB席等の区別があり、それぞれに価格が異なっている。又は、観客席の価格とは別に、拡張現実の料金が設定されてもよい。変形例に係る情報処理システムでは、高価格の支払いを行った観客2に対して、より程度の高い(例えば、より趣向性が高い、より迫力がある、より派手な、又は、より拡張現実の画像のデータ量が多い等々)拡張現実を提供する。
【0084】
変形例に係る情報処理システムでは、例えばライブの拡張現実に関する料金を支払った観客2に対して、支払った料金の価格に応じたチケットが配布される。チケットには拡張現実の拡張現実データをサーバ装置30からダウンロードするためのコードが記載されているが、変形例に係る情報処理システムでは価格に応じたコードがチケットに記載される。このチケットに記載されたコードを端末装置20から入力してサーバ装置30から拡張現実データをダウンロードすることにより、端末装置20には価格に応じた拡張現実の拡張現実データがダウンロードされる。サーバ装置30は、価格に応じた複数の拡張現実データをコードに対応付けてデータベースに記憶しており、端末装置20から拡張現実データの送信要求と共に与えられるコードに対応した拡張現実データを読み出して、要求元の端末装置20へ送信する。
【0085】
これにより各端末装置20には、観客2が支払った料金の価格に応じた拡張現実データが記憶される。ライブ中にはこの拡張現実データに基づいて拡張現実の画像の表示が行われるため、ARグラス10を装着した観客2は価格に応じた拡張現実のライブを体験することができる。
【0086】
なお、価格に応じた拡張現実のライブ体験を観客2に提供する方法は、本変形例にて説明したダウンロード用のコードを利用する方法に限らない。例えばライブ会場においてARグラス10を観客2に対して貸与するものとし、観客2が支払った価格に応じたARグラス10を貸与してもよい。この場合、例えば価格に応じた機能又は性能のARグラス10を観客2に貸与することができる。また例えば、同じ機能又は性能のARグラス10を観客2に貸与するが、各ARグラス10に対して価格に応じた個別のIDが設定され、このIDに応じてサーバ装置30から端末装置20(又はARグラス10)に価格に応じた拡張現実の画像を送信することができる。また例えば、ARグラス10が拡張現実データを記憶する構成の場合、又は、ARグラス10と共に端末装置20を貸与する場合には、予め価格に応じた仮想現実の画像のデータをARグラス10又は端末装置20にダウンロードしたものを貸与することができる。
【0087】
<実施の形態2>
実施の形態2に係る情報処理システムでは、例えばライブ会場等の実空間をARグラス10又は端末装置20が認識し、認識した実空間に対応付けられた拡張現実の画像をARグラス10に表示する。これは、実空間をマーカーとみなして拡張現実の画像を表示する技術ということができ、例えばVPS(Virtual Positioning System)と呼ばれる画像から位置を特定する技術を用いて拡張現実の画像表示を行うものである。
【0088】
図12は、実施の形態2に係る情報処理システムがライブの準備段階で行う処理を説明するための模式図である。ライブの準備段階において、例えばライブの主催者等は、アーティスト1及び観客2が存在しないライブ開催前のライブ会場を、カメラ40にて撮影する。なおカメラ40は、いわゆるビデオカメラ又はデジタルカメラ等の撮影専用の装置であってもよく、撮影機能付きのスマートフォン又はタブレット型端末装置等の装置であってもよい。カメラ40にて撮影されたライブ会場の画像(動画像又は静止画像)は、通信によりサーバ装置30へ送信される。
【0089】
実施の形態2に係るサーバ措置30は、カメラ40が撮影した画像に基づいて、ライブ会場を3次元仮想空間として再現した3次元情報を生成する。このときにサーバ装置30は、例えばカメラ40が撮影した2次元画像に対してエッジ又は角等を抽出する画像処理を行い、実空間に存在する物の角等の位置を示す3次元仮想空間上の点の座標を複数算出したものを3次元情報とすることができる。サーバ装置30は、作成したライブ会場に対応する3次元情報を記憶部32に記憶する。
【0090】
またライブの主催者等は、ライブの開催前に、ライブ中に表示する拡張現実の画像を作成すると共に、拡張現実の画像をライブ会場のいずれの位置に表示するかを設定する作業を行う。実施の形態2において主催者等は、この作業をパーソナルコンピュータ又はタブレット型端末装置等の端末装置50を用いて行う。
【0091】
なお
図12においては、カメラ40及び端末装置50を別の装置としているが、これに限るものではなく、端末装置50が撮影機能を備える装置であれば、ライブ会場の撮影を端末装置50が行ってもよい。また
図12においては、カメラ40がサーバ装置30へ撮影した画像を直接的に送信しているが、これに限るものではなく、カメラ40が撮影した画像を端末装置50が取得し、端末装置50がサーバ装置30へ画像を送信してもよい。
【0092】
端末装置50は、カメラ40が撮影した画像に基づいてサーバ装置30が生成したライブ会場の3次元情報を取得し、取得した3次元情報に基づいて、ライブ会場を再現した3次元仮想空間を表示部に表示する。また主催者等は、ライブ中に表示する仮想現実の画像を予め作成し、端末装置50の記憶部に記憶しておく。端末装置50は、表示した3次元仮想空間における座標の指定等の操作を主催者等から受け付け、受け付けた座標を拡張現実の画像を表示する位置とする。拡張現実の画像が複数存在する場合、端末装置50は、画像毎に表示位置の受け付けを行ってよい。端末装置50は、拡張現実の画像とその表示位置とを対応付けた表示位置設定を作成し、拡張現実の画像及び表示位置設定をサーバ装置30へ送信する。
【0093】
図13及び
図14は、端末装置50が表示する拡張現実画像の表示位置の設定画面の一例を示す模式図である。なお
図13には拡張現実画像の配置前の状態を示し、
図14には拡張現実画像の配置後の状態を示している。端末装置50が表示する設定画面には、仮想空間表示領域101、拡張現実画像選択領域102、演出選択領域103及びエフェクト選択領域104等が設けられている。
【0094】
設定画面の仮想空間表示領域101は、サーバ装置30が生成したライブ会場の3次元情報に基づいて3次元仮想空間として再現されたライブ会場を表示する領域である。端末装置50は、サーバ装置30からライブ会場の3次元情報を取得し、取得した3次元情報に基づいてライブ会場の3次元仮想空間を再現する。
【0095】
設定画面の拡張現実画像選択領域102は、仮想空間表示領域101の下方に設けられ、予め作成された一又は複数の拡張現実の画像が一覧表示された領域である。ユーザは、拡張現実画像選択領域102に一覧表示された画像の中から、配置対象となる画像を選択することができる。
【0096】
設定画面の演出選択領域103は、仮想空間表示領域101の上方に、いわゆるタブの形式で設けられる。本例では、「オープニング演出」、「1曲目演出」、「アンコール煽り演出」等のラベルが付された複数のタブが演出選択領域103として設けられている。ユーザは、演出選択領域103のタブを選択することによって、表示位置を設定する拡張現実画像が表示されるのがライブのいずれのタイミングであるかを選択することができる。
【0097】
エフェクト選択領域104は、仮想空間表示領域101の右側に設けられ、拡張現実の画像を表示する際に付与するエフェクト(特殊効果)を選択するための領域である。エフェクト選択領域104には、エフェクトに対応する一又は複数のアイコンが並べて表示されている。ユーザはエフェクト選択領域104に表示されたアイコンを一又は複数選択することができ、選択されたアイコンに対応するエフェクトが拡張現実画像を表示する際に付与される。
【0098】
端末装置50が設定画面を表示した状態において、ユーザは、配置対象の画像を選択した後、仮想空間表示領域101にて任意の表示位置を指定することで、選択した画像の表示位置を設定することができる。端末装置50は、仮想空間表示領域101に対する表示位置(座標)の指定を受け付け、選択された拡張現実画像と表示位置とを対応付けて記憶する。端末装置50は、
図14に示すように、表示位置が設定された拡張現実画像を、その表示位置に対応させて仮想空間表示領域101に表示する。また端末装置50は、拡張現実画像及び表示位置を、演出選択領域103にて選択された演出、及び、エフェクト選択領域104にて選択されたエフェクト等の情報に対応付けて記憶してよい。
【0099】
なお、
図13及び
図14に示した設定画面は一例であって、これに限るものではない。
【0100】
上記の処理により、主催者等によるライブ中に表示する仮想現実の画像の準備がなされる。準備が完了した後、実施の形態2に係る情報処理システムでは、サーバ装置30が、仮想現実の画像及びこの画像の表示位置設定等を含むデータを、予めライブの観客が使用する端末装置20に配信する。端末装置20は、サーバ装置30から配信された情報を受信し、受信した情報を少なくともライブが終了するまで記憶部22に記憶しておく。なお実施の形態2においては、拡張現実の画像及び表示位置設定等の情報を予め観客の端末装置20に配信しておくものとしたが、これに限るものではなく、これらの情報をライブ中にリアルタイムで配信してもよい。
【0101】
図15は、実施の形態2に係る情報処理システムがライブの開催中に行う処理を説明するための模式図である。実施の形態2に係る情報処理システムにおいては、ライブの開催中に観客2のARグラス10に拡張現実の画像を表示するタイミングは、主催者等による端末装置50の操作により決定される。
【0102】
実施の形態2に係る端末装置50は、例えば予め作成して記憶されたライブ中に表示する複数の拡張現実の画像を記憶部から読み出し、読み出した複数の画像を所定の順序で並べて表示部に一覧表示する。このときに複数の画像を並べる所定の順序は、例えばライブで表示する順序とすることができる。端末装置50は、一覧表示した画像からの選択操作、及び、選択された画像の表示を指示する操作を、主催者等から受け付ける。
【0103】
端末装置50は、拡張現実の画像の表示を指示する操作を受け付けた場合、拡張現実の画像の表示指示をサーバ装置30へ送信する。この表示指示には、例えば拡張現実の画像に対して一意に付された画像ID等の情報が含まれ得る。端末装置50から拡張現実の画像の表示指示を受信したサーバ装置30は、ライブに参加している全ての観客2の端末装置20へ、拡張現実の画像の表示指示を送信する。
【0104】
観客2が使用する端末装置20は、ARグラス10のカメラ13にてライブ会場の撮影を行い、撮影した画像に基づいてライブ会場を3次元仮想空間として再現する3次元情報を生成する。このときに端末装置20が生成する3次元情報は、
図12に示したライブの準備段階においてサーバ装置30がカメラ40にて撮影された画像に基づいて生成するライブ会場の3次元情報と略同じものとなる。
【0105】
端末装置20は生成した3次元情報をサーバ装置30へ送信し、サーバ装置30は自身が作成した3次元情報と端末装置20が作成した3次元情報とが一致するか否かの判断を行う。なおこの際の判断は、2つの3次元情報が完全に一致することを要求するものではなく、同じ実空間に基づく3次元画像であると判断し得る程度に一致すればよい。
【0106】
3次元情報が一致したと判断した場合、サーバ装置30は、その旨を端末装置20へ通知すると共に、自身の3次元情報の座標と、端末装置20の3次元情報の座標とを一致させるために必要な情報を送信する。このときに送信する情報には、例えば3次元仮想空間の座標の原点位置、x軸方向、y軸方向、z軸方向等の情報が含まれ得る。この情報を受信した端末装置20が自身の3次元情報について座標を修正する処理を行うことにより、サーバ装置30が認識したライブ会場の3次元仮想空間と、端末装置20が認識したライブ会場の3次元仮想空間とを同じ座標系で扱うことができる。
【0107】
ライブの開始後、サーバ装置30から拡張現実の画像の表示指示を受信した観客2の端末装置20は、受信した表示指示に含まれる画像ID等の情報に基づいて、予め記憶部22に記憶しておいた拡張現実の画像の中から、表示すべき画像を読み出す。また端末装置20は、この画像に対応付けられた表示位置設定を読み出す。端末装置20は、読み出した画像と、表示位置設定に設定された座標情報とをARグラス10へ与える。ARグラス10は、端末装置20から与えられた座標情報に基づいて、端末装置20から与えられた画像を表示部12に表示する。これによりARグラス10を装着したユーザは、ライブ会場に拡張現実の画像が重畳された拡張現実を体験することができる。
【0108】
図16は、実施の形態2に係る端末装置50の構成を示すブロック図である。実施の形態2に係る端末装置50は、処理部(プロセッサ)51、記憶部(ストレージ)52、通信部(トランシーバ)53、表示部(ディスプレイ)54及び操作部55等を備えて構成されている。端末装置50は、例えばパーソナルコンピュータ又はタブレット型端末装置等の汎用の情報処理装置を用いて構成され得る。
【0109】
処理部51は、CPU又はMPU等の演算処理装置、ROM及びRAM等を用いて構成されている。処理部51は、記憶部52に記憶されたプログラム52aを読み出して実行することにより、ライブ中に表示する拡張現実の画像の作成及び編集等の操作を受け付ける処理、拡張現実の画像の表示位置の設定を受け付ける処理、並びに、ライブ中に拡張現実の画像を表示する指示を受け付ける処理等の種々の処理を行う。
【0110】
記憶部52は、例えばハードディスク又はフラッシュメモリ等の記憶装置を用いて構成されている。記憶部52は、処理部51が実行する各種のプログラム、及び、処理部51の処理に必要な各種のデータを記憶する。本実施の形態において記憶部52は、処理部51が実行するプログラム52aと、拡張現実の画像データ52bとする。
【0111】
記憶部22に記憶されるプログラム52aは、ライブの主催者等が拡張現実の画像の生成及び表示指示等の操作を行うためのアプリケーションプログラムである。実施の形態においてプログラム52aは遠隔のサーバ装置等により配信され、これを端末装置50が通信にて取得し、記憶部52に記憶する。ただしプログラム52aは、例えば端末装置50の製造段階において記憶部52に書き込まれてもよい。例えばプログラム52aは、メモリカード又は光ディスク等の記録媒体97に記録されたプログラム52aを端末装置50が読み出して記憶部52に記憶してもよい。例えばプログラム52aは、記録媒体97に記録されたものを書込装置が読み出して端末装置50の記憶部52に書き込んでもよい。プログラム52aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体97に記録された態様で提供されてもよい。
【0112】
記憶部52に記憶される画像データ52bは、ライブ中にARグラス10に表示する拡張現実の画像のデータである。これらの画像のデータは、端末装置50に手作成されてもよく、別の装置にて作成されたものを端末装置50が通信等により取得して記憶部52に記憶してもよい。拡張現実の画像は、2次元画像又は3次元画像のいずれであってもよく、静止画像又は動画像のいずれであってもよい。
【0113】
通信部53は、例えば第4世代移動通信システム(4G)もしくは第5世代移動通信システム(5G)等の携帯電話通信網、又は、無線LAN(Local Area Network)等の無線通信により、種々の装置との間で通信を行う。本実施の形態において通信部53は、サーバ装置30との間で無線によるデータの送受信を行う。通信部53は、処理部51から与えられたデータをサーバ装置30へ送信すると共に、サーバ装置30から受信したデータを処理部51へ与える。なお通信部53は、無線通信ではなく、有線通信を行うものであってもよい。
【0114】
表示部54は、液晶ディスプレイ等を用いて構成されており、処理部51の処理に基づいて種々の画像及び文字等を表示する。なお液晶ディスプレイ等の表示装置が端末装置50とは別に設けられてもよく、この場合に端末装置50は表示部54を備えず、別体の表示装置に画像信号等を出力して画像表示を行ってもよい。
【0115】
操作部55は、ユーザの操作を受け付け、受け付けた操作を処理部51へ通知する。例えば操作部56は、キーボード又はマウス等の入力デバイスを用いて構成されてよく、これらの入力デバイスは端末装置50に対して取り外すことが可能な構成であってよい。また操作部55は、表示部54の表面に設けられたタッチパネル等の入力デバイスであってもよい。
【0116】
また本実施の形態に係る端末装置50は、記憶部52に記憶されたプログラム52aを処理部51が読み出して実行することにより、設定処理部51a及び表示指示部51b等がソフトウェア的な機能部として処理部51に実現される。
【0117】
設定処理部51aは、拡張現実の画像の表示位置の設定を受け付ける処理を行う。設定処理部51aは、サーバ装置30からライブ会場の3次元情報を取得し、取得した3次元情報に基づいてライブ会場を再現した3次元仮想空間の画像を表示部54に表示する。また設定処理部51aは、ライブ会場の3次元仮想空間の表示領域の近傍に、記憶部52に画像データ52bとして記憶された一又は複数の画像を一覧表示する。設定処理部51aは、一覧表示した画像の中から設定対象の画像の選択を受け付けると共に、表示した3次元仮想空間のライブ会場における表示位置の指定を受け付ける。設定処理部51aは、選択された画像に対して指定された表示位置の3次元座標の情報を対応付けた表示位置設定を作成して記憶部52に記憶すると共に、サーバ装置30へ送信する。
【0118】
表示指示部51bは、ライブ中に観客のARグラス10に拡張現実の画像を表示する指示を、ライブの主催者等から受け付ける処理を行う。表示指示部51bは、例えばライブ中に表示する拡張現実の画像を記憶部52から読み出して表示部54に一覧表示すると共に、各画像の表示指示を受け付けるボタン等を表示する。表示指示部51bは、操作部55に対する操作を受け付けることにより画像の表示指示を受け付けて、表示する画像のID等の情報を含む表示指示をサーバ装置30へ送信する。
【0119】
図17は、実施の形態2に係るサーバ装置30が行う処理の手順を示すフローチャートである。実施の形態2に係るサーバ装置30の処理部31は、カメラ40が撮影したライブ会場を撮影した画像を、例えば通信により取得する(ステップS61)。処理部31は、取得した画像に基づいて、ライブ会場を3次元仮想空間として再現した3次元情報を生成する(ステップS62)。処理部31は、生成したライブ会場の3次元情報を記憶部32に記憶する(ステップS63)。
【0120】
その後、処理部31は、ライブの主催者等が使用する端末装置50から、ライブ会場を3次元仮想空間として再現した画像を表示するために、3次元情報の送信が要求されたか否かを判定する(ステップS64)。要求されていない場合(S64:NO)、処理部31は、端末装置50からの要求がなされるまで待機する。要求がなされた場合(S64:YES)、処理部31は、記憶部32に記憶したライブ会場の3次元情報を要求元の端末装置50へ送信する(ステップS65)。
【0121】
その後、処理部31は、3次元情報を送信した端末装置50から、拡張現実の画像とその表示位置とを対応付けた設定情報を受信したか否かを判定する(ステップS66)。設定情報を受信していない場合(S66:NO)、処理部31は、設定情報を受信するまで待機する。仮想現実の画像の表示位置に関する設定情報を受信した場合(S66:YES)、処理部31は、受信した設定情報を記憶部32に記憶して(ステップS67)、処理を終了する。
【0122】
図18は、実施の形態2に係る端末装置50がライブの準備段階において行う処理の手順を示すフローチャートである。実施の形態2に係る端末装置50の処理部51の設定処理部51aは、3次元仮想空間として再現されたライブ会場を表示するための3次元情報をサーバ装置30に要求する(ステップS81)。設定処理部51aは、ステップS81の要求に応じてサーバ装置30から送信されるライブ会場の3次元情報を受信したか否かを判定する(ステップS82)。3次元情報を受信していない場合(S82:NO)、設定処理部51aは、3次元情報を受信するまで待機する。
【0123】
サーバ装置30から3次元情報を受信した場合(S82:YES)、設定処理部51aは、拡張現実の画像の表示位置の設定を受け付けるための設定画面を表示部54に表示する(ステップS83)。この設定画面には、例えばライブ会場を3次元仮想空間として再現した画像と、予め作成された一又は複数の拡張現実の画像とが並べて表示される。
【0124】
設定処理部51aは、表示部54に表示した設定画面において、操作部55に対する操作に基づき、設定対象となる拡張現実の画像の選択を受け付ける(ステップS84)。また設定処理部51aは、選択された画像の表示位置を、3次元仮想空間の座標情報として受け付ける(ステップS85)。設定処理部51aは、拡張現実の画像を識別するID等と、この画像を表示する位置の座標情報とを対応付けた表示位置設定をサーバ装置30へ送信し(ステップS86)、処理を終了する。
【0125】
図19は、実施の形態2に係る端末装置50がライブ中に行う処理の手順を示すフローチャートである。実施の形態2に係る端末装置50の処理部51の表示指示部51bは、例えばライブ中に表示する拡張現実の画像とこれを表示する操作を受け付けるボタンとが並べられた表示指示受付画面を表示部54に表示する(ステップS101)。
【0126】
表示指示部51bは、例えば表示指示受付画面において画像と共に表示されたボタンに対する操作の有無を判定することにより、拡張現実の画像を表示する操作がなされたか否かを判定する(ステップS102)。拡張現実の画像を表示する操作がなされていない場合(S102:NO)、表示指示部51bは、操作がなされるまで待機する。拡張現実の画像を表示する操作がなされた場合(S102:YES)、表示指示部51bは、例えば表示する画像のID等の情報を含む表示指示をサーバ装置30へ送信する(ステップS103)。
【0127】
表示指示部51bは、例えばライブが終了して表示指示受付画面の表示を終了する操作を受け付けたか否かに基づき、表示指示の受け付けを終了するか否かを判定する(ステップS104)。終了しない場合(S104:NO)、表示指示部51bは、ステップS102へ処理を戻す。終了する場合(S104:YES)、表示指示部51bは、例えば表示指示受付画面を非表示として、処理を終了する。
【0128】
図20は、実施の形態2に係る端末装置20が行う処理の手順を示すフローチャートである。実施の形態2に係る端末装置20の処理部21は、例えばライブが開始する前の時点において、サーバ装置30が配信する拡張現実の画像及びその表示位置設定を取得する(ステップS111)。処理部21は、取得した拡張現実の画像及び表示位置設定を記憶部22に記憶する(ステップS112)。
【0129】
その後、例えばライブの開始前又はライブ中において、処理部21は、ARグラス10のカメラ13が撮影した画像を取得する(ステップS113)。処理部21は、取得した撮影画像に基づいて、ライブ会場を3次元仮想空間として再現した3次元情報を生成する(ステップS114)。処理部21は、例えば生成した3次元情報をサーバ装置30へ送信し、サーバ装置30からの応答を受信することによって、自身が3次元仮想空間として認識したライブ会場の3次元座標系と、サーバ装置30が3次元仮想空間として認識したライブ会場の3次元座標系とを一致させる座標合わせを行う(ステップS115)。
【0130】
例えばライブの開始後において、処理部21は、サーバ装置30から拡張現実の画像の表示指示を受信したか否かを判定する(ステップS116)。表示指示を受信していない場合(S116:NO)、処理部21は、表示指示を受信するまで待機する。表示指示を受信した場合(S116:YES)、処理部21は、表示を指示された拡張現実の画像を記憶部22から読み出す(ステップS117)。処理部21は、読み出した画像に対応する表示位置設定に基づいて、この画像の表示位置を決定する(ステップS118)。処理部21は、読み出した画像をARグラス10へ与えると共に、決定した表示位置をARグラス10へ通知することにより、ARグラス10の表示部12に拡張現実の画像を設定された表示位置となるように表示する(ステップS119)。
【0131】
処理部21は、例えばライブが終了して拡張現実の画像の表示を終了する操作を受け付けたか否かに基づき、拡張現実の画像の表示を終了するか否かを判定する(ステップS120)。終了しない場合(S120:NO)、処理部21は、ステップS116へ処理を戻す。終了する場合(S120:YES)、処理部21は、例えばARグラス10へ拡張現実の画像の表示の終了を指示して、処理を終了する。
【0132】
以上の構成の実施の形態2に係る情報処理システムでは、カメラ40がライブ会場を撮影した画像に基づいて、サーバ装置30がライブ会場に対応する3次元仮想空間の情報を生成する。サーバ装置30は、生成した3次元情報をライブの主催者等が使用する端末装置50へ送信し、端末装置50を介して3次元仮想空間に対する拡張現実の画像の表示位置の設定を受け付けて、受け付けた表示位置設定を記憶部32に記憶する。これにより実施の形態2に係る情報処理システムでは、ライブの準備段階において、拡張現実の画像の表示位置の設定をライブの主催者等が容易に行うことが期待できる。
【0133】
また実施の形態2に係る情報処理システムでは、端末装置50がライブ中に仮想現実の画像を表示する指示を受け付け、サーバ装置30へ表示指示を送信する。これに応じてサーバ装置30は、ライブの観客が使用する全ての端末装置20へ表示指示を送信する。これによりライブの主催者等は、ライブの進行に合わせて拡張現実の画像の表示を操作することができる。
【0134】
また実施の形態2に係る情報処理システムでは、観客のARグラス10のカメラ13が撮影した画像に基づいて、端末装置20がライブ会場に対応する3次元仮想空間の情報を生成する。端末装置20は、拡張現実の画像及びこの画像の表示位置の設定情報をサーバ装置30から取得する。端末装置20は、生成した3次元仮想空間の情報と、取得した表示位置の設定情報とに基づいて、取得した拡張現実の画像をARグラス10の表示部12に表示する処理を行う。これにより端末装置20は、ライブ会場に対応する3次元仮想空間に対して表示位置が設定された拡張現実の画像を適切に表示することができる。
【0135】
また実施の形態2に係る情報処理システムでは、観客が使用する端末装置20は、ライブの主催者等が使用する端末装置50からの表示指示を、サーバ装置30を介して受信する。端末装置20は、受信した表示指示に応じて、拡張現実の画像をARグラス10の表示部12に表示する。これにより、ライブの進行に合わせた主催者等の操作に応じて、観客のARグラス10に拡張現実の画像を表示することができる。
【0136】
なお実施の形態2においては、ライブの主催者等が端末装置50を用いて種々の操作を行う構成としたが、これに限るものではなく、サーバ装置30に表示部及び操作部等が備えられている場合には、主催者等がサーバ装置30を用いて種々の操作を行ってもよい。即ち、サーバ装置30及び端末装置50は1つの装置であってもよい。またサーバ装置30及び端末装置50の役割分担は、実施の形態2に示したものに限らず、適宜に変更され得る。また観客の端末装置20は、ARグラス10のカメラ13が撮影した画像を基にライブ会場に対応する3次元情報を生成する構成としたが、これに限るものではなく、撮影画像を端末装置20がサーバ装置30へ送信し、サーバ装置30が受信した画像に基づいて3次元情報を生成して端末装置20へ送信してもよい。
【0137】
また実施の形態2においては、ライブ中に主催者等が端末装置50を操作することで観客のARグラス10に拡張現実の画像を表示するタイミングを制御しているが、これに限るものではない。例えば予め定められた時刻又は時間経過等に応じて拡張現実の画像を表示させてもよく、また例えばライブの進行状況をサーバ装置30が判断して拡張現実の画像を表示させてもよい。
【0138】
また実施の形態2に係る情報処理システムは、実施の形態1に係る情報処理システムが行うマーカーの検出に応じた仮想現実の画像の表示を併用してもよい。この場合に情報処理システムは、例えば3次元仮想空間の情報に基づいて表示位置が設定された仮想現実の画像を、マーカーを検出したタイミングで表示してもよい。
【0139】
また実施の形態2に係る情報処理システムでは、ライブの準備段階においてカメラ40にてライブ会場を撮影し、撮影した画像に基づいてライブ会場に対応する3次元仮想空間の情報を生成しているが、これに限るものではない。例えば、以前のライブ等においてライブ会場に対応する3次元仮想空間の情報を生成済みであり、この情報を再利用できる場合には、ライブの準備段階においてカメラ40によるライブ会場の撮影を行わなくてもよい。サーバ装置30は、ライブ会場に対応する3次元仮想空間の情報をデータベースに蓄積し、これを必要とするライブの主催者等へ配信してよい。
【0140】
また、実施の形態2に係る情報処理システムのその他の構成は、実施の形態1に係る情報処理システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。
【0141】
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
【符号の説明】
【0142】
1 アーティスト
2 観客
3 画像(拡張現実画像)
4 マーカー
5 ディスプレイ装置
5a マーカー
10 ARグラス
11 フレーム
12 表示部
13 カメラ
14 通信ケーブル
15 処理部
16 有線通信部
20 端末装置
21 処理部
21a 検出処理部
21b 拡張現実処理部(表示処理部)
22 記憶部
22a プログラム
22b 拡張現実データ
23 無線通信部
24 有線通信部
25 表示部
26 操作部
30 サーバ装置
31 処理部
31a データ送信処理部
31b ライブ管理処理部
32a サーバプログラム
32b 拡張現実データ
33 通信部
40 カメラ
50 端末装置
51 処理部
51a 設定処理部
51b 表示指示部
52 記憶部
52a プログラム
52b 画像データ
53 通信部
54 表示部
55 操作部
97,98,99 記録媒体