(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023123389
(43)【公開日】2023-09-05
(54)【発明の名称】コミュニケーションシステム
(51)【国際特許分類】
G06T 19/00 20110101AFI20230829BHJP
【FI】
G06T19/00 300B
G06T19/00 600
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2023023799
(22)【出願日】2023-02-17
(31)【優先権主張番号】P 2022026831
(32)【優先日】2022-02-24
(33)【優先権主張国・地域又は機関】JP
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 配布資料、パナソニック株式会社、令和3年2月25日
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 SPORTS CHANGE MAKERSプレイベント、パナソニックセンター東京、令和3年3月9日
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 https://www.1-10.com/project/smart-solution、令和3年8月19日 〔刊行物等〕 配布資料、パナソニック株式会社、令和3年8月12日 〔刊行物等〕 https://www.panasonic.com/global/olympic/ja/sportschangemakers.html、https://channel.panasonic.com/jp/contents/34773/、https://channel.panasonic.com/jp/contents/34774/、令和3年8月23日
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 https://www.1-10.com/news、https://www.1-10.com/wpdata/wp-content/uploads/2021/10/Smart-Digital-Field_20211012_.pdf、https://youtu.be/6A1Yj4UeDBM、令和3年10月12日
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 https://www.1-10.com/news、https://www.1-10.com/wpdata/wp-content/uploads/2022/01/SUSTAINABLE-CONECT2022_プレスリリース_220121.pdf、https://www.1-10.com/wpdata/wp-content/uploads/2022/01/続報SUSTAINABLE-CONECT2022_リリース_220125.pdf、https://eventregist.com/e/D20Bs5IwE3TG、令和4年1月21日、25日
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 https://youtu.be/5j3YVAK5Mq0、令和4年2月1日
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 https://www.1-10.com/project/qurios、https://www.1-10.com/wpdata/wp-content/uploads/2022/07/%E3%83%95%E3%82%9A%E3%83%AC%E3%82%B9%E3%83%AA%E3%83%AA%E3%83%BC%E3%82%B9_QURIOS%E4%BA%8B%E6%A5%AD_%E7%AC%AC1%E5%BC%BE_.pdf、https://prtimes.jp/main/html/rd/p/000000129.000016942.html、令和4年7月11日
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 https://www.1-10.com/wpdata/wp-content/uploads/2022/11/%E3%83%95%E3%82%9A%E3%83%AC%E3%82%B9%E3%83%AA%E3%83%AA%E3%83%BC%E3%82%B9_%E7%9F%B3%E8%A6%8B%E9%8A%80%E5%B1%B1%E3%83%A1%E3%82%BF%E3%83%8F%E3%82%99%E3%83%BC%E3%82%B9%E3%83%95%E3%82%9A%E3%83%AD%E3%82%B7%E3%82%99%E3%82%A7%E3%82%AF%E3%83%88_20221116.pdf、https://prtimes.jp/main/html/rd/p/000000142.000016942.html、令和4年11月16日 〔刊行物等〕 令和4年11月26日、石見銀山 茅葺き屋根の家「鄙舎」(島根県大田市大森町)
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 公益財団法人 東京観光財団、TOKYO MICEテクノロジー導入ガイドライン、第18頁、令和5年1月27日
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 https://prtimes.jp/main/html/rd/p/000000147.000016942.html、令和5年2月1日 〔刊行物等〕 Metaverse Japan Summit 2023、令和5年2月2日
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 〔刊行物等〕 営業案内一覧(別表)
(71)【出願人】
【識別番号】512130121
【氏名又は名称】株式会社ワントゥーテン
(74)【代理人】
【識別番号】110001069
【氏名又は名称】弁理士法人京都国際特許事務所
(72)【発明者】
【氏名】澤邊 芳明
【テーマコード(参考)】
5B050
【Fターム(参考)】
5B050BA09
5B050BA12
5B050CA08
5B050DA01
5B050EA07
5B050EA19
5B050EA24
5B050EA27
5B050FA02
5B050FA06
5B050FA10
5B050FA14
(57)【要約】 (修正有)
【課題】実イベントと模擬イベントの参加者に一体感を感じさせることができるコミュニケーションシステムを提供する。
【解決手段】コミュニケーションシステム1は、模擬イベントの表示データ、現実イベント空間と仮想イベント空間の対応位置情報、実イベントに参加する第1ユーザと模擬イベントに参加する第2ユーザのアバター表示データが保存された記憶部、第1ユーザの位置に応じた視点で現実イベント空間の画像を取得する画像取得部及び表示部を備えた第1端末30と、第1端末位置取得部と、入力部及び表示部を備えた第2端末50と、を備える。第2端末はさらに、第2ユーザのアバターの位置情報を取得する第2ユーザ位置取得部と、第1ユーザのアバターを配置した模擬イベントの画像を自身の表示部に表示させる第2表示制御部とを有する。第1端末はまた、第2ユーザのアバターを配置した画像を自身の表示部に表示させる第1表示制御部を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
現実イベント空間で開催される実イベントに対応する模擬イベントを仮想イベント空間に表示するための表示データ、該現実イベント空間内の位置と該仮想イベント空間内の位置を対応付ける対応位置情報、該現実イベント空間で前記実イベントに参加する第1ユーザのアバターの表示データ、及び該仮想イベント空間で前記模擬イベントに参加する第2ユーザのアバターの表示データが保存された記憶部と、
前記第1ユーザにより用いられる端末であって、該第1ユーザの位置に応じた視点で捉えた前記現実イベント空間の画像を取得する画像取得部、及び表示部を備えた第1端末と、
前記現実イベント空間における前記第1端末の位置の情報を取得する第1端末位置取得部と、
前記第2ユーザにより用いられる、入力部及び表示部を備えた第2端末と、
前記入力部を通じた操作により設定される、前記仮想イベント空間における前記第2ユーザのアバターの位置の情報を取得する第2ユーザ位置取得部と、
前記第2ユーザ位置取得部により取得された前記第2ユーザのアバターの位置を、前記対応位置情報に基づいて前記現実イベント空間における位置に変換し、該変換後の位置に該第2ユーザのアバターを配置した画像を前記第1端末の表示部に表示させる第1表示制御部と、
前記第1端末位置取得部により取得された前記第1端末の位置を、前記対応位置情報に基づいて前記仮想イベント空間における位置に変換して前記第1ユーザのアバターを配置し、前記第2ユーザのアバターの位置に応じた視点で捉えた模擬イベントの画像を前記第2端末の表示部に表示させる第2表示制御部と
を備えることを特徴とするコミュニケーションシステム。
【請求項2】
前記記憶部に、さらに、前記現実イベント空間における基準位置情報が保存されており、
前記第1端末位置取得部は、前記画像取得部によって取得された前記現実イベント空間の画像を前記基準位置情報と照合することにより前記第1端末の位置の情報を取得する
ことを特徴とする請求項1に記載のコミュニケーションシステム。
【請求項3】
前記記憶部に、さらに、それぞれがユーザの感情を表現した画像である複数の感情画像のデータが保存されており、
さらに、
前記第1端末及び前記第2端末の一方において前記感情画像の1つを選択する操作を受け付ける感情画像選択受付部と、
前記第1端末及び前記第2端末の他方の表示部に、前記感情画像選択受付部が操作を受け付けた端末のユーザのアバターとともに前記選択された感情画像を表示させる感情画像表示部と
を備えることを特徴とする請求項1に記載のコミュニケーションシステム。
【請求項4】
前記記憶部に、さらに、それぞれがユーザの感情を表現するアバターの動作である感情動作のデータが保存されており、
さらに、
前記第1端末及び前記第2端末の一方において前記感情動作の1つを選択する操作を受け付ける感情動作選択受付部と、
前記第1端末及び前記第2端末の他方の表示部に、前記感情動作選択受付部が操作を受け付けた端末のユーザのアバターに前記選択された感情動作を実行させた画像を表示させる感情動作実行部と
を備えることを特徴とする請求項1に記載のコミュニケーションシステム。
【請求項5】
前記記憶部に、さらに、前記現実イベント空間と前記仮想空間のそれぞれに配置される拡張表示対象、及び該拡張表示対象に対応付けられた拡張表示内容の情報が保存されており、
さらに、
前記第1端末位置取得部により取得された位置の情報に基づいて該第1端末のユーザの視線が前記拡張表示対象に予め決められた時間滞留していると判断した場合に、当該拡張表示対象とともに前記拡張表示内容を前記第1端末の表示部に表示させる画像データを生成し、前記第2ユーザ位置取得部により取得された位置の情報に基づいて該第2ユーザのアバターの視線が前記拡張表示対象に予め決められた時間滞留していると判断した場合に、当該拡張表示対象とともに前記拡張表示内容を前記第2端末の表示部に表示させる拡張表示部
を備えることを特徴とする請求項1に記載のコミュニケーションシステム。
【請求項6】
前記記憶部に、さらに、前記現実イベント空間において投影される動画像のデータ、該動画像の投影場所、及び該動画像を投影するタイミングの情報が保存されており、
前記第2表示制御部は、前記タイミングで、前記仮想イベント空間における前記投映場所に対応する位置に前記動画像を投影した画像を前記第2端末の表示部に表示させる
ことを特徴とする請求項1に記載のコミュニケーションシステム。
【請求項7】
前記第2端末が複数存在する場合に、該複数の第2端末を複数のグループに分けてそれぞれに仮想イベント空間を設定し、
前記第1端末表示制御部が、前記複数のグループのいずれかに分類された前記第2端末のユーザのアバターのみを前記第1端末の表示部に表示させる
ことを特徴とする請求項1に記載のコミュニケーションシステム。
【請求項8】
さらに、
前記第2端末から、前記第1ユーザの一人を指定して該第1ユーザとつながりを持つことを希望する要請を受け付け、該第1ユーザが所有する第1端末に対して第2端末の所有者である第2ユーザとのつながりの諾否を問い合わせ、該第1端末から許諾の操作が行われた場合に該第1端末と該第2端末の連携を設定するユーザ仲介部
を備えることを特徴とする請求項1に記載のコミュニケーションシステム。
【請求項9】
前記ユーザ仲介部が、さらに、前記連携が設定された第1端末と第2端末のみから書き込み及び閲覧可能なチャット画面を、該第1ユーザが使用する前記第1端末の表示部と、該第2ユーザが使用する前記第2端末の表示部のそれぞれに表示する
ことを特徴とする請求項8に記載のコミュニケーションシステム。
【請求項10】
前記ユーザ仲介部が、前記第1端末で取得された画像を、該第1端末との間で連携が設定された第2端末の表示部に表示する
ことを特徴とする請求項8に記載のコミュニケーションシステム。
【請求項11】
現実イベント空間で開催される実イベントの参加者である第1ユーザが使用する端末であって該第1ユーザの視点で捉えた前記現実イベント空間の画像を取得する画像取得部及び該画像取得部により取得される画像を表示する表示部を備えた第1端末と、
仮想イベント空間で開催される前記実イベントに対応する模擬イベントの参加者である第2ユーザが使用する端末であって入力部及び表示部を備えた第2端末と、
前記第1端末及び前記第2端末と通信可能に設けられ、前記模擬イベントを仮想イベント空間に表示するための表示データ、前記現実イベント空間内の位置と該仮想イベント空間内の位置を対応付ける対応位置情報、及び該仮想イベント空間で前記模擬イベントに参加する第2ユーザのアバターの表示データが保存された記憶部を有するサーバ装置とを含み、
前記第2端末又は前記サーバ装置が前記入力部を通じた操作により設定される、前記仮想イベント空間における前記第2ユーザのアバターの位置の情報を取得する第2ユーザ位置取得部を有するコミュニケーションシステムにおいて、
前記第1端末を、
前記現実イベント空間における前記第1端末の位置の情報を取得する第1端末位置取得部と、
前記第2ユーザ位置取得部により取得された前記第2ユーザのアバターの位置を、前記対応位置情報に基づいて前記現実イベント空間における位置に変換し、該変換後の位置に該第2ユーザのアバターを配置した画像を前記第1端末の表示部に表示させる第1表示制御部
として動作させることを特徴とするプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、現実空間で行われるイベントと、該イベントを模して仮想空間で行われる模擬イベントを連携するために用いられる技術に関する。
【背景技術】
【0002】
近年では、高速インターネット網の普及やデジタル技術の進歩に伴い、インターネット上に設けられた仮想空間で様々な態様のイベントを行うことができるシステムが用いられている。例えば、現実空間で行われる音楽ライブや仮装大会などのイベントを模した模擬イベントを仮想空間で行うことができるシステムがある。また、特許文献1には、教室を模した部屋を設けた仮想空間においてオンライン授業を行うことが記載されている。これらのシステムでは、ユーザが予め設定した自らのアバターを仮想空間に登場させて模擬イベントに参加する。模擬イベントの参加者は、自らのアバターを仮想空間内で移動させることにより、現実空間で行われるイベントに参加するのと同様の体験をすることができる。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記のようなシステムを用いれば、現実空間で行われるイベント(実イベント)と同時に進行するように、その実イベントを模した模擬イベントを仮想空間で開催することが可能である。しかし、従来のシステムでは、現実空間で行われる実イベントと仮想空間で行われる模擬イベントとがそれぞれ独立して進行するため、これらのイベントの参加者が共通のイベントに参加しているという一体感を感じることができないという問題があった。
【0005】
本発明が解決しようとする課題は、現実空間で行われるイベントの参加者と仮想空間で行われる模擬イベントの参加者に一体感を感じさせることができる技術を提供することである。
【課題を解決するための手段】
【0006】
上記課題を解決するために成された本発明に係るコミュニケーションシステムは、
現実イベント空間で開催される実イベントに対応する模擬イベントを仮想イベント空間に表示するための表示データ、該現実イベント空間内の位置と該仮想イベント空間内の位置を対応付ける対応位置情報、該現実イベント空間で前記実イベントに参加する第1ユーザのアバターの表示データ、及び該仮想イベント空間で前記模擬イベントに参加する第2ユーザのアバターの表示データが保存された記憶部と、
前記第1ユーザにより用いられる端末であって、該第1ユーザの位置に応じた視点で捉えた前記現実イベント空間の画像を取得する画像取得部、及び表示部を備えた第1端末と、
前記現実イベント空間における前記第1端末の位置の情報を取得する第1端末位置取得部と、
前記第2ユーザにより用いられる、入力部及び表示部を備えた第2端末と、
前記入力部を通じた操作により設定される、前記仮想イベント空間における前記第2ユーザのアバターの位置の情報を取得する第2ユーザ位置取得部と、
前記第2ユーザ位置取得部により取得された前記第2ユーザのアバターの位置を、前記対応位置情報に基づいて前記現実イベント空間における位置に変換し、該変換後の位置に該第2ユーザのアバターを配置した画像を前記第1端末の表示部に表示させる第1表示制御部と、
前記第1端末位置取得部により取得された前記第1端末の位置を、前記対応位置情報に基づいて前記仮想イベント空間における位置に変換して前記第1ユーザのアバターを配置し、前記第2ユーザのアバターの位置に応じた視点で捉えた模擬イベントの画像を前記第2端末の表示部に表示させる第2表示制御部と
を備えることを特徴とする。
【0007】
本発明に係るコミュニケーションシステムは、現実空間に設けられたイベント空間(現実イベント空間)においてイベント(実イベント)を開催するとともに、該現実イベント空間に対応する模擬イベントを仮想空間に設けられたイベント空間(仮想イベント空間)で開催する際に用いられる。このシステムでは、現実イベント空間で実イベントに参加する第1ユーザは、第1ユーザの位置に応じた視点で捉えた現実イベント空間の画像を取得する画像取得部と表示部とを備えた第1端末を使用する。また、仮想イベント空間で模擬イベントに参加する第2ユーザは、入力部と表示部を備えた第2端末を使用する。なお、第1ユーザの位置に応じた視点で捉えた画像は、第1ユーザが頭部に装着するMRグラス等のデバイスに前記画像取得部が設けられたものである場合には該第1ユーザの視点から捉えた画像であり、第1ユーザが使用するタブレット端末等のポータブルデバイスに前記画像取得部が設けられたものである場合には、そのタブレット端末の撮影部から捉えた画像である。
【0008】
第1ユーザが実イベントに参加している間、現実イベント空間内を移動する第1ユーザが使用する第1端末の位置の情報が、第1端末位置情報取得部により取得される。第1端末の位置の情報には、第1端末の向きに関する情報が含まれうる。第2ユーザは、第2端末の入力部を通じた操作により仮想イベント空間にアバターを登場させ、その中で自由に移動させることができる。第2ユーザが模擬イベントに参加している間、第2ユーザのアバターの位置の情報は第2ユーザ位置取得部により取得される。
【0009】
第1表示制御部は、記憶部に予め保存された対応位置情報に基づいて、第2ユーザのアバターの位置を現実イベント空間における位置に変換し、その位置に該第2ユーザのアバターを配置した画像を第1端末の表示部に表示させる。従って、第1ユーザは、現実イベント空間に第2ユーザのアバターが存在しているかのような画像を視認することができる。また、第2表示制御部は、前記対応位置情報に基づいて、第1端末の位置を前記仮想空間における位置に変換してその位置に第1ユーザのアバターを配置し、第2ユーザのアバターの位置に応じた視点で捉えた模擬イベントの画像を第2端末の表示部に表示させる。従って、第2ユーザは、現実イベント空間にいる第1ユーザのアバターを含んだ仮想イベント空間の画像を視認することができる。なお、第2ユーザのアバターの位置に応じた視点とは、該アバターの視点そのものに限らず、アバターの後方からアバターを含めて仮想イベント空間を捉えるような視点などであってもよい。また、そうした複数の視点を切り替え可能にしてもよい。
【0010】
このように、本発明に係るコミュニケーションシステムでは、現実イベント空間で実イベントに参加する第1ユーザと、仮想イベント空間で模擬イベントに参加する第2ユーザのそれぞれが使用する端末に、お互いのアバターを表示させて、現実の空間で行われる実イベントの参加者と仮想空間で行われる模擬イベントの参加者に一体感を感じさせることができる。
【0011】
本発明に係るコミュニケーションシステムは、
前記記憶部に、さらに、前記現実イベント空間における基準位置情報が保存されており、
前記第1端末位置取得部は、前記画像取得部によって取得された前記現実イベント空間の画像を前記基準位置情報と照合することにより前記第1端末の位置の情報を取得する
ものとすることができる。
【0012】
上記態様のコミュニケーションシステムでは、第1端末の画像取得部で撮影した画像を現実イベント空間の基準位置情報と照合することにより、高い精度で第1端末の位置及び向きの情報を取得することができる。
【0013】
前記第1端末には、例えば、MR (Mixed Reality) グラスを用いることができる。MRグラスはメガネ型のデジタルデバイスである。MRグラスには、使用者が着用するメガネ型のデバイスのレンズに3次元ホログラム等の画像を表示し、使用者自身の眼で直接捉えた現実空間とともに視認させるもの(光学シースルー型)と、デバイスに搭載されたセンサを通じて現実イベント空間を認識して画像化し、その画像に3次元ホログラム等の画像を重畳して表示部に表示するもの(ビデオシースルー型)がある。第1端末としてビデオシースルー型のMRグラスを用いる場合は、例えば、該MRグラスが有するセンサを通じて取得した現実イベント空間の画像に含まれる基準位置の情報を、予め用意された現実イベント空間の画像(例えば現実イベント空間の基準位置情報)と照合すればよい。また、第1端末として光学シースルー型のMRグラスを用いる場合は、例えば、予め現実イベント空間の複数の位置に配置されたセンサとの間で近距離通信を行い、その応答時間から第1端末の位置を特定し、加速度センサによって向きを特定するという構成を採ることができる。MRグラスは一般的なメガネと同様に装着するものであるため両手が自由になる。なお、タブレット端末などもビデオシースルー型の端末の一つである。
【0014】
本発明に係るコミュニケーションシステムでは、
前記記憶部に、さらに、それぞれがユーザの感情を表現した画像である複数の感情画像のデータが保存されており、
さらに、
前記第1端末及び前記第2端末の一方において前記感情画像の1つを選択する操作を受け付ける感情画像選択受付部と
を備え、
前記第1端末及び前記第2端末の他方の表示部に、前記感情画像選択受付部が操作を受け付けた端末のユーザのアバターとともに前記選択された感情画像を表示させる感情画像表示部と
を備えた構成を採ることができる。
【0015】
また、本発明に係るコミュニケーションシステムでは、
前記記憶部に、さらに、それぞれがユーザの感情を表現するアバターの動作である感情動作のデータが保存されており、
さらに、
前記第1端末及び前記第2端末の一方において前記感情動作の1つを選択する操作を受け付ける感情動作選択受付部と、
前記第1端末及び前記第2端末の他方の表示部に、前記感情動作選択受付部が操作を受け付けた端末のユーザのアバターに前記選択された感情動作を実行させた画像を表示させる感情動作実行部と
を備えた構成を採ることができる。
【0016】
上記2つの態様のコミュニケーションシステムでは、第1ユーザと第2ユーザの間で豊かな感情表現を行うことができる。
【発明の効果】
【0017】
本発明に係るコミュニケーションシステムを用いることにより、現実空間で行われるイベントの参加者と仮想空間で行われる模擬イベントの参加者に一体感を感じさせることができる。
【図面の簡単な説明】
【0018】
【
図1】本発明に係るコミュニケーションシステムの一実施例の全体の概略構成図。
【
図7】本実施例の第1端末の表示部にアバターの動作を表示した表示例。
【
図8】本実施例の第2端末の表示部にアバターの動作を表示した表示例。
【
図9】本実施例の第1端末の表示部に説明文を拡張表示した表示例。
【
図10】本実施例の第2端末の表示部に説明文を拡張表示した表示例。
【
図11】本実施例の第2端末に映像を同期表示した表示例。
【
図12】本実施例の第1端末の表示部の別の一表示例。
【
図13】本実施例の第1端末の表示部にチャット画面を表示した例。
【
図14】本実施例の第2端末の表示部の別の一表示例。
【
図15】本実施例の第1端末又は第2端末の表示部に表示されるチャット画面の例。
【
図16】本実施例の第1端末又は第2端末の表示部に表示される参加者一覧画面の例。
【
図17】本実施例において第1端末で取得した画像を第2端末の表示部に表示させる態様を説明する図。
【
図18】本実施例において第1端末で取得した画像を第2端末の表示部に全画面表示させた状態の例。
【
図19】本実施例において第1端末で取得した画像を第2端末の表示部に小画面で表示させた状態の例。
【
図20】本実施例において第1端末のインカメで取得した画像を第2端末の表示部に表示させた状態の例。
【
図21】本実施例のコミュニケーションシステムで具現化されるデジタルツインを説明する図。
【
図22】本実施例のコミュニケーションシステムを屋外のイベントに適用した一例。
【発明を実施するための形態】
【0019】
本発明に係るコミュニケーションシステムの一実施例について、以下、図面を参照して説明する。本実施例のコミュニケーションシステム1は、現実のイベント空間における実イベント、仮想のイベント空間における、実イベントを模した模擬イベントを同時に開催する際に用いられる。
【0020】
図1に、本実施例のコミュニケーションシステム1全体の概略構成を示す。本実施例のコミュニケーションシステム1は、サーバ装置10、第1端末30、及び第2端末50を備えており、これらはインターネットを介して相互に接続されている。第1端末30は、現実のイベント空間において実イベントに参加するユーザ(第1ユーザ)により用いられる。第2端末50は、仮想のイベント空間において模擬イベントに参加するユーザ(第2ユーザ)により用いられる。
図1には2つの第1端末30と3つの第2端末50を図示しているが、これらの数は任意に変更可能である。
【0021】
図2に、サーバ装置10の要部構成を示す。サーバ装置10は、記憶部11のほかに、機能ブロックとして、ユーザ登録受付部21、参加受付部22、及びユーザ仲介部23を備えている。本実施例のサーバ装置10はクラウドサーバとして設けられている。サーバ装置10は、第1端末30及び第2端末50との間で通信可能なコンピュータ装置であればよく、パーソナルコンピュータなどを用いることもできる。サーバ装置10には、必要に応じて入力部や表示部を設けることができる。
【0022】
記憶部11には、ユーザ情報記憶部12とイベントデータ記憶部13が設けられている、ユーザ情報記憶部12には、ユーザ情報が保存されている。ユーザ情報には、各ユーザの識別情報(例えば識別番号)、ユーザ名とパスワードの情報、連絡先(メールアドレス等)、各ユーザが使用する端末の種別及び識別情報(例えば端末の型番と識別番号。複数の端末を所持している場合はそれぞれについての種別及び識別情報)、仮想イベント空間に表示させるために用いる各ユーザのアバターの表示データ、及び各ユーザと交流のあるユーザの識別情報が含まれうる。
【0023】
イベントデータ記憶部13には、実イベントが行われる空間(現実イベント空間)の画像データと複数の基準位置のデータ、模擬イベントが行われる空間(仮想イベント空間)の表示データ、及び現実イベント空間内の位置と仮想イベント空間内の位置を対応付ける対応位置情報が保存されている。対応位置情報は、現実イベント空間に設けられた複数の基準位置と、該複数の基準位置のそれぞれに対応する仮想空間内の位置を対応づけた情報として保存されている。この情報は、例えば、各基準位置にARマーカーなどを用いたり、スマートフォンやタブレットに付属するカメラからの映像を解析して予め用意された3次元マップにおけるカメラの位置を特定するVPS(Visual Positioning Service/System)と呼ばれる技術を用いたりすることにより作成することができる。現実イベント空間内の基準位置には、例えば、その空間内に存在する物体の角部などの視覚的な特徴を有する位置(識別しやすい位置)が選択される。現実イベント空間に設けられた複数の基準位置の情報は、本発明における基準位置情報に相当する。なお、基準位置情報に含まれる現実イベント空間の複数の基準位置と、対応位置情報において用いる現実イベント空間の複数の基準位置は、同じであってもよく、異なっていてもよい。
【0024】
図3に第1端末30の要部構成を示す。第1端末30は、記憶部31と画像取得部32を備えている。また、第1端末30は、機能ブロックとして、第1端末位置取得部33、第1表示制御部34、拡張表示部35、感情画像選択受付部36、及び感情動作選択受付部37を備えている。これらの機能ブロックは、第1端末30に予めインストールされている専用のアプリケーションを動作させるとともに、後述するスクリプトをサーバ装置10からダウンロードして、第1端末用のプログラムをプロセッサで実行することにより具現化される。上記アプリケーションには、イベントの内容に関係なく共通して用いられるデータ(例えば、感情を表現するためのアイコン731やアクションボタン732等のデータ)や、それらのデータを記憶部31から読み出して表示する機能が含まれる。一方、スクリプトは、イベント毎に作成され、イベント毎に固有の処理を行うプログラムである。
【0025】
第1端末30にダウンロードされるスクリプトには、イベント記憶部13に保存されている現実イベント空間の基準位置情報を用いて、現実イベント空間で撮影された画像から第1端末30の位置及び向きを特定する処理や、対応位置情報を用いて仮想イベント空間における位置を現実イベント空間に変換する処理を行うプログラムが含まれる。このプログラムには、例えば、所定の時間間隔で、センサにより取得した現実イベント空間の画像に含まれる基準位置の情報をパラメータ化し、予めインデックス化された基準位置情報と照合して第1端末30の位置及び向きをキャリブレーションするものを用いることができる。
【0026】
第1端末30には、例えば、タブレット端末、スマートフォンなどのポータブルデバイスや、MRグラスなどの頭部装着型のデバイスが用いられ、画像取得部32には、これらのデバイスが有するカメラが用いられる。第1端末30には入力部41と表示部42も設けられている。本実施例では上記のように専用のアプリケーションに含まれるデータ及びプログラムとダウンロードしたスクリプトにより各機能ブロックを具現化する構成としたが、専用のアプリケーションのみ、又はスクリプトのみでこれらの機能ブロックを具現化してもよい。
【0027】
図4に第2端末50の要部構成を示す。第2端末50は、記憶部51を備えている。また、第2端末50は、機能ブロックとして、第2ユーザ位置取得部52、第2表示制御部53、拡張表示部54、感情画像選択受付部55、及び感情動作選択受付部56を備えている。これらの機能ブロックは、第2端末50に予めインストールされている専用のアプリケーションを動作させるとともに、後述するスクリプトをサーバ装置10からダウンロードして、第2端末用のプログラムをプロセッサで実行することにより具現化される。このアプリケーションにも、イベントの内容に関係なく共通して用いられるデータ(例えば、感情を表現するためのアイコン731やアクションボタン732等のデータ)や、それらのデータを記憶部51から読み出して表示したりする機能が含まれる。
【0028】
第2端末50にダウンロードされるスクリプトには、イベント記憶部13に保存されている対応位置情報を用いて現実イベント空間における位置を仮想イベント空間に変換する処理を行うプログラムが含まれる。スクリプトは、イベント毎に作成され、イベント毎に固有の処理を行うプログラムである。
【0029】
第2端末50には、例えば、パーソナルコンピュータなどの据置型デバイス、タブレット端末、スマートフォンなどのポータブルデバイス、VRグラスなどの頭部装着型のデバイスが用いられる。第2端末50にも入力部61と表示部62が設けられている。本実施例では上記のように専用のアプリケーションに含まれるデータ及びプログラムとダウンロードしたスクリプトにより各機能ブロックを具現化する構成としたが、専用のアプリケーションのみ、又はスクリプトのみでこれらの機能ブロックを具現化してもよい。
【0030】
次に、本実施例のコミュニケーションシステム1を用いて実イベントと模擬イベントを開催する際の流れを説明する。
【0031】
実イベント及び模擬イベントを開催する際には、予め実イベント及び模擬イベントの組(以下、これらをまとめて「イベントセット」とも呼ぶ。)を特定する情報(イベント名等)及び開催日時の情報をイベントデータ記憶部13に保存しておく。また、実イベントが行われる空間(現実イベント空間)の画像データ、模擬イベントが行われる空間(仮想イベント空間)の表示データを用意してイベントデータ記憶部13に保存しておく。さらに、現実イベント空間内の複数の位置を基準位置として設定し、それら複数の基準位置のそれぞれに対応する仮想空間内の位置(対応基準位置)を定め、両者を対応付けた対応位置情報を作成してイベントデータ記憶部13に保存しておく。さらに、実イベント空間に配置されている展示物等の物品や壁面等の各部のうち、その物品等に関連する文章、画像、あるいは映像を表示させるもの(以下、「拡張表示対象」と呼ぶ。)について、当該物品等と文章等を対応づけたデータもイベントデータ記憶部13に保存しておく。さらに、実イベントの開催中に現実イベント空間のスクリーン等に表示することが予定されている画像や映像のデータ、その表示場所、及び表示するタイミングの情報もイベントデータ記憶部13に保存しておく。
【0032】
イベントデータ記憶部13には、また、第1端末30及び第2端末50で実行するスクリプト(プログラム)も保存されている。第1端末30において動作させるプログラムは、第1端末30の画像取得部32により取得される画像と現実イベント空間に設定された複数の基準位置のデータ(基準位置情報)を照合して第1端末30の位置及び向きを特定し、その位置及び向きに応じて第2ユーザのアバターの表示データを生成するなどの処理を実行するものである。第2端末50において動作させるプログラムは、第2端末50の入力部61を通じた操作により設定される第2ユーザの位置及び向きに応じて第1ユーザのアバターや他の第2ユーザのアバターの表示データを生成するなどの処理を実行するものである。第1端末30及び第2端末50における動作の詳細は後述する。
【0033】
これらの必要なデータをイベントデータ記憶部13に保存する処理が完了すると、実イベント及び模擬イベントが開催可能な状態となる。
【0034】
参加受付部22は、記憶部11に保存されているイベントセットのうち、開催可能な状態となっているものを読み出して参加を受け付ける。参加受付部22は、記憶部11に保存されているユーザの連絡先に、参加を受け付けているイベントセットを記載したウェブサイトのアドレスを記載した電子メールを送信する。また、参加受付部22は、既にユーザ登録されている者が所持している端末に予めインストールされているアプリケーションを通じて参加を受け付けているイベントセットの情報を通知する。電子メールや通知を受信したユーザは、受信した電子メール等に記載されているウェブサイトにアクセスし、自らのユーザ名及びパスワードを入力してログインした後、参加を希望するイベントセットの情報を確認する。そして、参加を希望するイベントセットについて、実イベントと模擬イベントのいずれに参加するかを選択する。ユーザが実イベントへの参加を選択した場合には、第1端末30において動作させるスクリプトをダウンロードする画面が表示される。スクリプトがダウンロードされると、参加受付部22は当該ユーザを当該イベントセットにおける第1ユーザに設定し、ユーザ情報記憶部12に保存されている当該ユーザの端末を第1端末30に設定して、これらの情報をイベントデータ記憶部13に保存する。また、ユーザが模擬イベントへの参加を選択した場合には、第2端末50において動作させるスクリプトをダウンロードする画面が表示される。スクリプトがダウンロードされると、参加受付部22は当該ユーザを当該イベントセットにおける第2ユーザに設定し、ユーザ情報記憶部12に保存されている当該ユーザの端末を第2端末50に設定して、これらの情報をイベントデータ記憶部13に保存する。
【0035】
イベントセットへの参加を受け付けるサイトには、新規ユーザ登録を行うことが可能な画面も設けられている。未登録者によって新規ユーザ登録を行う画面の表示が選択されると、ユーザ登録受付部21は、連絡先(メールアドレス等)を入力させる。連絡先が入力されるとユーザ登録受付部21は、その連絡先にユーザ登録を行うウェブサイトへのリンクを付した電子メールを送信し、ユーザ名とパスワードを設定させる。ユーザ名とパスワードが設定されると、新規のユーザとして新たな識別番号が付され、ユーザ情報記憶部12に保存される。また、イベント参加者用プログラムをダウンロードすることによって上記同様に新規ユーザ登録を行うこともできる。
【0036】
ユーザとして登録された者には、ユーザ毎に設定ページが設けられ、そのページを通じて、当該ユーザの登録情報の変更、アバターの作成、使用する端末の情報の入力等を行うことができる。
【0037】
ここでは、ユーザ登録を行ったユーザを対象にイベントへの参加を受け付ける場合を説明したが、ユーザ登録を行うことなく、スクリプトをダウンロードしてユーザ名を設定するのみでイベントへの参加を可能としてもよい。
【0038】
イベントセットの開催日時になると、現実イベント空間では実イベントが開始される。これと同時に予め設定されたウェブサイト上で模擬イベントも開始される。これらの実イベントと模擬イベントは同期して進行する1組のイベントセットであり、実イベントに参加する第1ユーザと模擬イベントに参加する第2ユーザとの間での交流も可能になっている。従って、現実イベント空間と該現実イベント空間と対になるデジタルツインの空間で1つのイベントセットが実行される、と言い換えてもよい。第2ユーザとして参加する者は、ユーザ名及びパスワードを入力してこのウェブサイトにアクセスすることにより模擬イベントに参加する。模擬イベントへの参加開始時には当該第2ユーザのアバターが初期位置(例えば仮想イベント空間の入口)に配置されている。模擬イベントの開催中、第2ユーザは入力部を通じた操作によって自らのアバターを仮想イベント空間内の任意の位置に移動させることができる。
【0039】
現実イベント空間で実イベントに参加している第1ユーザが使用する第1端末30では、画像取得部32が所定の時間間隔で現実イベント空間の画像のデータを取得する。所定の時間間隔で取得する画像データには動画データも含まれうる。第1端末位置取得部33は、先にダウンロードしたスクリプト(プログラム)によって、画像取得部32が取得した画像のデータを、現実イベント空間における複数の基準位置のデータと照合して画像に含まれる基準位置を抽出し、抽出した基準位置に基づいて当該画像が取得された現実イベント空間における位置及び向き(即ち、現実イベント空間における第1端末30の位置及び向き)の情報を取得する。この処理には、上記のVPSを好適に用いることができる。第1端末位置取得部33は、第1端末30の位置及び向きの情報を所定の時間間隔で(又はサーバ装置10からのリクエストを受けて)サーバ装置10に送信する。
【0040】
サーバ装置10は、所定の時間間隔で第1端末30に対し、その時点で収集されている第2ユーザのアバターの位置及び向きとアバターの表示データの情報を送信する。第1端末30では、先にダウンロードしたスクリプト(プログラム)により、対応位置情報に基づいて、第2ユーザのアバターの仮想イベント空間における位置を現実イベント空間における位置に変換する。続いて、第1表示制御部34が、そのアバターの3次元ホログラム画像を生成して各アバターにユーザ名を付した表示データを生成する。また、画像取得部32により取得した現実イベント空間の画像データに生成した3次元ホログラム画像を含む表示データを重畳した画像を表示部42に表示する(第1端末30が光学シースルー型のMRグラスである場合は、3次元ホログラム画像のみを表示部42に表示する)。なお、第1ユーザが複数存在し、画像取得部32が取得した現実イベント空間の画像に他の第1ユーザが写っている場合は、該他の第1ユーザを含む現実イベント空間の画像に、第2ユーザのアバターの3次元ホログラム画像を重畳したものが第1端末30の表示部42に表示される。つまり、第1端末30の表示部42には、他の第1ユーザは実像として表示され、第2ユーザはアバターとして表示される。
【0041】
図5に、第1端末30の表示部42に表示される画面の一例を示す。第1ユーザが使用する第1端末30の表示部42には、実イベントに参加している他の第1ユーザの実像を含む現実イベント空間の画像に、模擬イベントに参加している第2ユーザのアバター72及びそのユーザ名を重畳した画像が表示される。なお、
図5に示す画面例には第1ユーザの実像は含まれず(即ち、現実イベント空間において第1ユーザが向いている方向に他の第1ユーザは存せず)、3人の第2ユーザのアバター72が、実空間の背景に重畳して表示されている。
【0042】
仮想イベント空間で実イベントに参加している第2ユーザが使用する第2端末50では、第2ユーザが入力部61を通じて自らのアバターを移動させる毎に、その入力情報がサーバ装置10に送信される。第2端末50では、アバターが移動する毎に、第2ユーザ位置取得部52が仮想イベント空間における第2ユーザのアバターの位置及び向きを特定し、順次、その情報をサーバ装置10に送信する。
【0043】
また、サーバ装置10は、所定の時間間隔で、イベントデータ記憶部13に保存されている仮想イベント空間の表示データとともに、第1ユーザの位置及び向きと該ユーザのアバターの表示データと、他の第2ユーザのアバターの位置及び向きの情報と該アバターの表示データを第2端末50に送信する。第2端末50では、先にダウンロードしたスクリプト(プログラム)により、対応位置情報に基づいて、第1端末30の現実イベント空間における位置を仮想イベント空間における位置に変換する。続いて、第2表示制御部53が、該第2端末50の使用者である第2ユーザのアバターから見た仮想イベント空間に第1端末30の位置及び向きに応じて第1ユーザのアバターを配置し、さらに他の第2ユーザの位置及び向きに応じて他の第2ユーザのアバターを配置した画像を生成して表示部42に表示する。このように、第2端末50の表示部62には、第1ユーザと他の第2ユーザはいずれもアバターとして表示される。ここでは第2ユーザのアバターの視点で捉えた仮想イベント空間の画像を表示するが、第2ユーザのアバターの後方から、該アバターを含めて仮想イベント空間を捉えた画像(第2ユーザ自身のアバターを含む画像)などを表示してもよい。また、そうした複数の視点で捉えた仮想イベント空間の画像を切り替え可能に表示してもよい。
【0044】
図6に、第2端末50の表示部62に表示される画面の一例を示す。
図6に示すように、第2ユーザが使用する第2端末50の表示部62には、仮想イベント空間の画像とともに、実イベントに参加している第1ユーザのアバター71と、模擬イベントに参加している他の第2ユーザのアバター72が表示される。なお、表示設定を変更することにより、画面上に第1ユーザのユーザ名や第2ユーザのユーザ名を併せて表示させることもできる。
【0045】
図6に示す例では表示部62の左下に補助画面73を表示している。この補助画面73には、自らの感情を表現するためのアイコンの表示/非表示を切り替える感情表示ボタン731及びアクションの表示/非表示を切り替えるアクション表示ボタン732が表示される。補助画面73の表示は、所定の入力操作(例えば表示部62の画面の左下の領域をダブルタップすること)によってON/OFFすることができる。
図6は感情表示ボタン731をクリックした状態であり、これによって複数の感情表現に対応するアイコン7311が表示されている。本実施例におけるアイコン7311は画像データであるが、画像データに限らず修飾を施した文字データ等としてもよい。
【0046】
図6に示す画面では、第2ユーザがアイコン7311のいずれかを選択することにより、自らの感情を表現することができる。第2ユーザによりアイコン7311のいずれかを選択する操作が行われると、感情画像選択受付部55により受け付けられ、選択されたアイコン7311の情報がサーバ装置10に送信される。サーバ装置10では、第2端末50から受信した情報を蓄積しておき、第1端末30に対して上記所定の時間間隔で第2ユーザのアバターの位置及び向きと表示データを送信する際に、第2端末50から受信したアイコン7311の情報を付して第1端末30に送信する。第2端末50に対して他の第2ユーザのアバターの位置及び向きと表示データを送信する際も同様に、他の第2端末50(上記他の第2ユーザが使用する第2端末50)から受信したアイコン7311の情報を付して他の第2端末50に送信する。
【0047】
第1端末30では、第2ユーザの位置情報とともにアイコン7311の情報を受信すると、第1表示制御部34が、そのアイコン7311を選択した第2端末50のユーザのアバター72の近傍にアイコン7311を表示する画像データを生成して表示部42に表示する。第1端末30では、
図5に示すように、第2ユーザのアバター72の上部にアイコン7311が表示される。また、第2表示制御部53でも同様に、他の第2ユーザの位置情報とともにアイコン7311の情報を受信すると、第2表示制御部53が、そのアイコン7311を選択した第2端末50のユーザのアバター72の近傍にアイコンを表示する画像データを生成して表示部62に表示する。第2端末50では、
図6に示すように、アイコン7311が表示される。
【0048】
また、
図6に示す画面において、第2ユーザがアクション表示ボタン732をクリックして表示されるアクションを選択することによっても自らの感情を表現することもできる。第2ユーザによりいずれかのアクションを選択する操作が行われると、感情動作選択受付部56により受け付けられ、選択されたアクションの情報がサーバ装置10に送信される。サーバ装置10では、第2端末50から受信した情報を蓄積しておき、第1端末30に対して上記所定の時間間隔で第2ユーザのアバターの位置及び向きと表示データを送信する際に、第2端末50から受信したアクションの情報を付して第1端末30に送信する。第2端末50に対して他の第2ユーザのアバターの位置及び向きと表示データを送信する際も同様に、他の第2端末50(上記他の第2ユーザが使用する第2端末50)から受信したアクションの情報を付して他の第2端末50に送信する。
【0049】
第1端末30では、第2ユーザの位置情報とともにアクションの情報を受信すると、第1表示制御部34が、そのアクションを選択した第2端末50のユーザのアバター72に、そのアクションに応じた動作をさせる画像データを生成して表示部42に表示する。第1端末30では、
図7に示すように、アバター721の動作を含む画像が表示部42に表示される。また、第2表示制御部53でも同様に、他の第2ユーザの位置情報とともにアクションの情報を受信すると、
図8に示すように、その第2ユーザのアバター721に当該動作をさせる画像データを生成して表示部62に表示する。
【0050】
ここでは、第2ユーザがアイコン731やアクションボタン732を選択する例を説明したが、第1ユーザも同様にアイコン731やアクションボタン732を選択することができ、第1端末30の感情画像選択受付部36と感情動作選択受付部37が上記同様に機能する。
図5に示した表示例の画面において所定の操作(例えば画面をダブルタップ)を行うと、
図6と同様に、表示部42に補助画面73を表示することができる。補助画面73の操作は第2ユーザと同様に行えばよく、サーバ装置10でも第2ユーザによるアイコン7311やアクションの選択時と同様の処理がなされる。ただし、本実施例では、第1ユーザによってアイコン7311やアクションが選択されたときに、それらの選択に応じた画像データを生成して表示部62に表示するのは第2表示制御部53のみである。つまり、第1ユーザが視認する第1端末30の表示部42に表示する画像データはアクションの選択の前後で変更しない。これは、第1端末30に表示される他の第1ユーザはアバターではなく実像であり、第1ユーザの実像に動作を付与することが不可能であるためである。ただし、実像で表示される第1ユーザの近傍にアイコン7311を表示することは可能であるため、第1ユーザがアイコン7311を選択した場合には、当該ユーザの実像の近傍にアイコン7311を表示してもよい。また、アクションが選択された場合に、第1ユーザの実像の近傍に選択されたアクションに対応する動きを付したアイコンを表示するようにしてもよい。
【0051】
実イベントの開催中、拡張表示部35は、第1端末位置取得部33が取得した第1端末30の位置及び姿勢の情報に基づいて、第1ユーザの位置に応じた視線の方向(第1端末30の画像取得部32が捉えている方向)を特定する。そして、第1ユーザの視線の方向が予め設定された拡張表示対象74に一定時間(例えば5秒)滞留していることを検出すると、当該拡張表示対象74に対応する拡張表示情報をイベントデータ記憶部13から読み出す。拡張表示情報が読み出されると、第1表示制御部34が、
図9に示すように、拡張表示対象74の近傍に拡張表示741を重畳した画像を表示部42に表示する。
【0052】
また、模擬イベントの開催中にも、拡張表示部54は、第2ユーザのアバター72の位置及び姿勢の情報に基づいて、第2ユーザのアバターの視線の方向を特定する。そして、第2ユーザのアバター72の視線の方向が予め設定された拡張表示対象に一定時間(例えば5秒)滞留していることを検出すると、当該拡張表示対象に対応する拡張表示情報をイベントデータ記憶部13から読み出す。拡張表示情報が読み出されると、第2表示制御部53が、
図10に示すように、拡張表示対象74の近傍に拡張表示741を重畳した画像を表示部62に表示する。
【0053】
実イベントの開催中、事前に用意されたイベントの進行に従って、現実イベント空間に設けられたスクリーン等に映像などを投影する場合がある。このように事前に投影時間(イベント開始後の経過時間)と投影場所(スクリーン等)が決められている場合には、投影する動画像や音声のデータがイベントデータ記憶部13に保存される。第2表示制御部53は、模擬イベント開始後の経過時間が投影時間になると、イベントデータ記憶部13に保存されている動画像の投影データ及び音声データを読み出し、仮想イベント空間のスクリーンに動画像を投影した画像を表示部62に表示するとともに、音声データに基づく音声を出力する。これにより、
図11に示すように現実イベント空間(左図)で実イベントに参加する第1ユーザと仮想イベント空間(右図)で模擬イベントに参加する第2ユーザが同じ映像等の動画像を同時に視聴することができる。
【0054】
上記のように動画像がスクリーン等に投影され、音声が出力されている間、第2端末50では、第2ユーザが自らのアバター72をスクリーンに近づけることによって動画像の音量を大きくし、スクリーンから遠ざけることによって動画像の音量を小さくすることができる。
【0055】
本実施例のコミュニケーションシステム1では、第1ユーザと第2ユーザ、又は第2ユーザ間でのテキストチャット(オープンチャット及びプライベートチャット)及び音声通話や、第1ユーザから第2ユーザに対する画像や動画の配信を行うことができる。以下、これらについて説明する。なお、以下の動作においても、上記した動作と同様に、第1表示制御部34が第1端末30の表示部42の画面表示を制御し、第2表示制御部53が第2端末50の表示部62の画面表示を制御するが、説明が冗長になることを避けるため第1表示制御部34及び第2表示制御部53についての記載を省略する。
【0056】
オープンチャットは、実イベントの参加者である第1ユーザと、模擬イベントの参加者である第2ユーザの全てが書き込み及び閲覧可能なチャットである。プライベートチャットには、TORIMAKIチャットと、ダイレクトチャットがある。プライベートチャットについては後記する。
【0057】
図12に、第1ユーザが使用する第1端末30の表示部42に表示される画面の一例を示す。画面の下部には、チャットボタン81、配信開始ボタン82、及び参加者ボタン83が設けられている。また、この画面例では、上述のアイコン7311を呼び出すための感情表示ボタン731(エモティコン)とアクション表示ボタン(エモアクション)732を含む補助画面73が画面左上に表示されている。
【0058】
チャットボタン81を押すと、
図13に示すようなチャット画面811が表示される。チャット画面811にはOPENボタン812と、TORIMAKIボタン813が配置されており、OPENボタン812を押すとオープンチャットの画面が表示され、書き込み及び閲覧が可能になる。TORIMAKIボタン813を押すとTORIMAKIチャットの画面が表示される。また、チャット画面811が表示された状態(
図13)でチャットボタン81を押すと、チャット画面が非表示に切り替えられる(
図12)。
【0059】
第2ユーザが、第2端末50の表示部62に表示されている第1ユーザのアバター71のいずれかを選択する所定の操作(例えばアバター71をダブルタップ)を行うと、
図14に示すように、該第1ユーザのアバター71の近傍(
図14では上部)に“TORIMAKIになる”ボタン92が表示される。
【0060】
第2ユーザが、表示部62の“TORIMAKIになる”ボタン92を押すと、サーバ装置10では、そのボタンが押されたアバター71に対応する第1ユーザをユーザ仲介部23が特定する。そして、当該第1ユーザの第1端末30に対して、第2ユーザからTORIMAKIのリクエストがあったことを通知し、その諾否を問い合わせる。第1ユーザがTORIMAKIのリクエストを許諾すると、その情報がサーバ装置10に送信される。サーバ装置10では、第1ユーザによって第2ユーザがTORIMAKIになることが許諾されたことを受信すると、ユーザ仲介部23が、第1端末30と、該第1端末30の所有者である第1ユーザのTORIMAKIとして許諾された第2ユーザが所有する第2端末50を連携させて、当該第1ユーザのTORIMAKIとして当該第2ユーザを登録(第1ユーザに対する第2ユーザのつながりを設定)する。また、両者がプライベートチャット(TORIMAKIチャット)を行うためのチャットルームを開設する。これにより、第1端末30と、該第1端末30の所有者である第1ユーザのTORIMAKIとして許諾された第2ユーザが所有する第2端末50の間で連携が設定される。なお、本実施例では、一人の第1ユーザに対して1乃至複数の第2ユーザが同時にTORIMAKIになることができる。
【0061】
第1ユーザが
図13に示すチャット画面811に配置されたTORIMAKIボタン813を押すと、自らのTORIMAKIである第2ユーザとの間でプライベートチャットを行うための画面が表示される。また、第2ユーザが、TORIMAKIとして許諾された後にチャット画面91でTORIMAKIボタン912を押すと(
図15参照)、自らと、自らがTORIMAKIとなった第1ユーザと、他のTORIMAKI(即ち、第1ユーザと、該第1ユーザの全てのTORIMAKI)の間でプライベートチャットを行うための画面が表示される。
【0062】
このチャット画面91にはOPENボタン911、TORIMAKIボタン912、及びDIRECTボタン913が設けられている。
図15は、TORIMAKIボタン912が押され、TORIMAKIチャット画面が表示された例である。このTOROIMAKIチャットには、第1ユーザと、該第1ユーザのTORIMAKIとして許諾された第2ユーザのみが書き込み及び閲覧することができる。TORIMAKIチャットでは、第1ユーザ又は第2ユーザからテキスト情報が入力される毎に、サーバ装置10のユーザ仲介部23を介して互いの端末にテキスト情報が送信され、それぞれの表示部42、62に表示される。また、第1ユーザが第2ユーザからのTORIMAKIのリクエストを許諾すると、上記のプライベートチャットに加え、両者の間での音声通話を行うことも可能になる。この音声通話は、全てのTORIMAKIとの間で行うものと、TORIMAKIのうち一人のみと行うもののいずれであってもよい。また、それらを切り替え可能にしてもよい。
【0063】
また、
図14に示す画面で右下に表示される参加者一覧表示93(
図16に拡大図を再掲)によって、実イベントに参加している第1ユーザ及び模擬イベントに参加している第2ユーザを確認することができる。この参加者一覧表示93において第1ユーザ名931及び第2ユーザ名932の横に表示されるチャットボタン933のいずれかを押すことにより、当該ユーザと1対1でのダイレクトチャットが開始される。
図15に示すチャット画面91でDIRECTボタン913を押すと、ダイレクトチャット画面が表示される。ダイレクトチャット中には、当該ユーザとの間で1対1の音声通話も可能である。第1ユーザの横に表示されるボタン934を押すと、上記“TORIMAKIになる”ボタン92を押した場合と同様に、当該第1ユーザに対してTORIMAKIのリクエストが送信される。
【0064】
図13に示した第1端末30の表示部42の画面例にはダイレクトチャットを表示していないが、第1端末30においても第1ユーザ及び第2ユーザのいずれか一人を指定することによりダイレクトチャット及び音声通話を行うことができる。
図12及び
図13の画面例で左下に表示される参加者ボタン83を押すと、
図16と同様に第1ユーザ及び第2ユーザの一覧が表示される。この一覧で一人のユーザを選択してチャットボタンを押すことによりダイレクトチャット及び音声通話が開始される。なお、現実空間で実イベントに参加中である第1ユーザ同士はその場で会話することが可能であるため、第1ユーザ同士でのダイレクトチャットを行わない構成としてもよいが、他の第1ユーザに対して秘密を保持したい事項について会話する場合などを考慮して、本実施例では第1ユーザ間でのダイレクトチャットも可能にしている。
【0065】
図12及び
図13に示す配信開始ボタン82は、第1ユーザが、自らが使用する第1端末50の画像取得部32で取得した画像(動画を含む)を、自らのTORIMAKIである第2ユーザに配信する処理を実行するボタンである。例えば、TORIMAKIである第2ユーザが、チャットや音声通話を通じて、現実空間において興味のある場所の撮影を第1ユーザにリクエストし、リクエストを受けた第1ユーザが自らの第1端末30でリクエストされた場所を撮影した画像や動画をリアルタイムで自らのTORIMAKIである第2ユーザに配信することができる(
図17参照)。このとき、第1ユーザは、撮影中の画像や動画について口頭で説明を行うことにより、その音声データも同時にTORIMAKIに配信することができる。
【0066】
第1端末30から配信される画像や動画、音声のデータは、サーバ装置10のユーザ仲介部23を介して、該第1端末30の所有者である第1ユーザのTORIMAKIである第2ユーザが所有する第2端末50に送信される。第2端末50では、表示部62に第1端末30の画像取得部32で撮影された画像や動画が全画面表示される(
図18参照)。これにより、第2ユーザは、自らがTORIMAKIとなった第1ユーザが使用する第1端末30の画像取得部32で捉えられた現実イベント空間の画像や動画をリアルタイムで共有することができる。第2端末50の表示部62における小画面の大きさは適宜に変更可能である。
【0067】
しかし、ある第2ユーザによるリクエストに応じて第1ユーザが配信した画像や動画が、全てのTORIMAKIにとって興味のある内容であるとは限らない。そこで、第2端末50では、
図18に示す全画面表示の状態で、EXITボタン941を押すことによって第1端末30から配信される画像や動画の表示を終了させたり、縮小ボタン942を押すことによって第1端末30から配信される画像や動画を小画面95に表示させたりすることができる(
図19参照)。
【0068】
図17~
図19は、第1ユーザが第1端末30で撮影した現実イベント空間の画像や動画を自らのTORIMAKIに配信する例であるが、第1端末30の画像取得部32の設定を変更する(インカメラを使用する設定に変更する)ことにより、第1ユーザ自らの画像をTORIMAKIに配信することもできる。これにより、第1ユーザは自らの画像を自らのTORIMAKIに話しかけるなどの配信を行うことができる。
図20は、第1ユーザがインカメを用いて自らの画像を配信した場合に第2端末50の表示部62に表示される画面の一例である。なお、第1ユーザがインカメラを用いて自らの画像を配信する際には、第1端末30の表示部42には、インカメラで取得した画像を全画面表示してもよく、アウトカメラで取得した画像の上に、インカメラで取得した画像を小画面で表示してもよい。
【0069】
また、ユーザ仲介部23は、第1ユーザと、該第1ユーザがTORIMAKIとして承認した第2ユーザのそれぞれのユーザ情報に相互の識別情報を記入してユーザ情報記憶部12に保存する。これにより、それぞれのユーザ情報に、TORIMAKIとして交流のあるユーザとしてお互いのユーザ情報が記録される。交流のあるユーザの一覧は、例えば、各ユーザがユーザ名とパスワードを使用してアクセス可能なユーザ情報設定部で確認することができる。あるいは、実イベント及び模擬イベントを終了する際、あるいは第1ユーザ又は第2ユーザがイベントから退出する際に、お互いにTORIMAKIとして交流があったユーザとして記録することの許諾を求め、双方から許諾が得られた場合にのみ、交流ユーザとして記録してもよい。また、ユーザ間の交流について、全てのユーザ情報をお互いに公開する、ユーザ名と連絡先情報のみを公開する、ユーザ名のみを公開する、といった複数の段階を設定し、お互いが許諾したレベルの情報を公開するような構成を採ることもできる。
【0070】
本実施例のコミュニケーションシステム1では、上記の構成を採ることによって、仮想空間(
図21の下部)に現実空間(
図21の上部)と同一の環境(デジタルツイン環境)を提供することができる。また、こうしたデジタルツイン環境で上記のTORIMAKIシステムを活用することによって、現実空間で取得した画像や動画を、仮想空間に参加している第2ユーザがリアルタイムで共有することができる。
【0071】
従来、現実空間を模した仮想空間において様々な体験をさせるものが存在しているが、仮想空間で現実空間を再現する場合には、そのデータ量や画像処理にかかる負荷などの観点から現実空間における情報の一部を割愛した仮想空間が形成されることが多い。そのため、仮想空間では現実空間のようなリアルさを体感することができないことが多い。これに対し、上記のTORIMAKIシステムでは現実空間において第1ユーザが撮影した、リアルな画像や動画を、該第1ユーザのTORIMAKIとなった第2ユーザが共有することができる。なお、上記はいずれも屋内の現実空間としたが、
図22に示すように屋外の現実空間に対してデジタルツインとなる仮想空間を提供することもできる。
【0072】
本実施例のコミュニケーションシステム1は、種々の場面での活用が考えられる。例えば、第1ユーザが著名人やインフルエンサーなどである場合にそのファンが該第1ユーザのTORIMAKIとなって、その活動をフォローすることが考えられる。あるいは、関係者以外の立ち入りが禁止されている場所について、当該場所の関係者が第1ユーザとなり、その場所に興味を持つ者がそのTORIMAKIとなって普段は見ることができない場所(バックヤード)や場面(動物の出産シーン)の画像やその場所の解説の配信をリクエストすることが考えられる。そのような場所として、例えば、遊園地、動物園、水族館、工場、飛行場のバックヤードや、寺院や美術館における重要文化財の設置場所などが挙げられる。さらには、アパレルブランド等のショップの店員が第1ユーザとなり、そのショップに興味がある者がそのTORIMAKIとなってそのショップの商品等の紹介をリクエストすることが考えられる。さらには、外出することが困難な障碍者や引きこもりである者が、自らが興味を持つ場所にいるツアーガイドや居住者のTORIMAKIとなり、興味を持つ場所の映像や解説の配信をリクエストすることも考えられる。さらには、遠隔地に住む者に対する教育の場を提供する目的で使用することもできる。
【0073】
以上、説明したように、本実施例のコミュニケーションシステム1では、現実イベント空間における実イベントと、仮想イベント空間における模擬イベントを同時に並行して行うだけでなく、予めイベントデータ記憶部13に保存されている基準位置情報に基づいて第1端末30の位置及び向きを特定し、また、対応位置情報に基づいて現実イベント空間と仮想イベント空間の位置情報を相互に変換する。これにより、現実イベント空間でイベントに参加する第1ユーザのアバター71を仮想イベント空間に表示させて第2端末50の表示部62に表示することができる。また、第2ユーザのアバター72の3次元ホログラム画像を第1端末30の表示部42に表示することもできる。また、実イベントにおいて投影される動画像を仮想イベント空間内の模擬イベントでも同時に投影することができるため、第1ユーザと第2ユーザが同じ動画像を同時に視聴することができる。
【0074】
本実施例のコミュニケーションシステム1では、第1ユーザと第2ユーザはそれぞれ、自らの感情を表現するアイコン731やアクションボタン732を選択することにより、他のユーザにアピールすることができる。また、第1ユーザと第2ユーザの間で、又は第2ユーザ間でプライベートチャットにより交流することもできる。
【0075】
さらに、本実施例のコミュニケーションシステム1では、現実空間で行われる実イベントに参加している第1ユーザのTORIMAKIとなることで、仮想空間で模擬イベントに参加している第2ユーザが、現実空間におけるリアルな画像や動画を共有することができる。
【0076】
上記実施例は一例であって、本発明の趣旨に沿って適宜に変更することができる。
【0077】
上記実施例では、サーバ装置10の記憶部11にイベントデータ記憶部13を設け、そこにイベントの開催に必要な各種のデータを保存しておく構成としたが、イベントデータ記憶部13に保存されるデータの一部又は全部を第1端末30の記憶部31や第2端末50の記憶部51に記憶させてもよい。また、上記実施例では、第1端末30が第1端末位置取得部33を備え、第2端末50が第2ユーザ位置取得部52を備え、また、第1端末30において第1表示制御部34が表示部42に表示するデータを生成し、第2端末50において第2表示制御部53が表示部62に表示するデータを生成する構成としたが、これらを含む機能ブロックの一部又は全部をサーバ装置10に備えた構成を採ることもできる。
【0078】
上記実施例では、第1端末位置取得部33が、第1端末30の画像取得部32が取得した画像データをイベントデータ記憶部13に保存されている現実イベント空間における複数の基準位置のデータと照合することにより、第1端末30の位置及び向きを特定したが、他の方法を採ることもできる。例えば、現実イベント空間の複数の位置に予めセンサを配置し、第1端末30との間で近距離通信を行って各センサに対する応答時間を求めることにより第1端末30の位置を特定し、第1端末30が有する加速度センサによって第1端末の向きを特定することもできる。
【0079】
上記実施例では、投影時刻と投影場所が事前に決められた動画像データを用いたが、イベントの開催前に予定していなかった動画像が投影されることもあり得る。その場合には、例えば、適宜の時間間隔で、複数の第1端末30の画像取得部32により取得された画像データを統合することにより現実イベント空間の画像データを生成し、イベントデータ記憶部13に保存されている現実イベント空間の画像データを照合することにより、両者の相違を検出し、相違が検出された場所の画像データから投影データを生成するように構成することができる。あるいは、現実イベント空間に、予め複数の画像取得部を配置しておき、各画像取得部により取得された画像の変化に基づいて事前に予定されていなかった動画像が投影されていることを検出した場合に、その動画像を検出した画像取得部のデータから投影データを生成するようにしてもよい。
【0080】
また、上記実施例では、第1ユーザのアバター71と第2ユーザのアバター72を全て仮想イベント空間に表示したが、仮想イベント空間で開催される模擬イベントに多数の第2ユーザが参加した場合、仮想イベント空間内に第2ユーザのアバター72を表示しきれなくなることが考えられる。その場合には、仮想イベント空間を複数設け、第2ユーザを複数のグループに分け、それぞれをグループ毎に設けた仮想イベント空間に振り分けてアバター72を表示すればよい。その場合には、第1端末30の表示部42には、いずれか1つの仮想イベント空間における第2ユーザのアバター72のみを表示すればよい。また、どの仮想空間のアバターを第1端末30の表示部42に表示するかを第1ユーザに選択させてもよい。あるいは、当該第1ユーザと交流のある第2ユーザのアバター72のみを第1端末30の表示部42に表示するようにしてもよい。
【0081】
また、著名人である第1ユーザのTORIMAKIになってイベントを楽しむ場合、TORIMAKIである第2ユーザは、他の第1ユーザや第2ユーザについて特に興味を持たないことが多く、TORIMAKIとなった第1ユーザ以外の第1ユーザのアバター71や他の第2ユーザのアバター72が仮想空間に表示されることが煩わしく感じやすい。こうした場合には、第2ユーザが所定の操作を行うことによって、自らがTORIMAKIとなっている第1ユーザのアバター71のみを表示させる表示形態や、自らがTORIMAKIとなっている第1ユーザのアバター71と、そのTORIMAKIである第2ユーザのアバター72のみを表示させる表示形態に切り替え可能な構成を採るとよい。
【0082】
上記実施例のTORIMAKIシステムでは一人の第1ユーザに対して1乃至複数の第2ユーザがTORIMAKIとなる構成としたが、複数の第1ユーザに対して複数の第2ユーザがTORIMAKIとなり、TORIMAKIグループを形成するようにしてもよい。その場合には、第2端末50の表示部62に、複数の第1ユーザが同時に配信する画像や動画をそれぞれ表示する画面を個別に設けるとよい。
【0083】
上記実施例では、1つの現実イベント空間に対して1つの仮想イベント空間を対応付けたが、1つの現実イベント空間に対して互いに異なる複数の仮想イベント空間を対応付けてもよい。例えば、複数の異なる事業者のそれぞれが提供する仮想イベント空間を1つの現実イベントに対応付け、異なる事業者がそれぞれ作成した仮想空間をAPI(Application Programming Interface)連携させ、1つの現実イベント空間に対応して設けられた複数の仮想イベント空間の間でユーザが移動することを可能にしてもよい。あるいは、現実イベント空間に対応する仮想空間にEコマース(Electric Commerce)機能を設定するなどして、仮想イベント空間において、現実イベント空間よりも多くの体験を可能とするように構成することもできる。また、上記実施例では、現実イベント空間を模した仮想イベント空間としたが、仮想イベント空間は現実イベント空間に対応するものであって、相互の空間内の位置が対応付けられたものであればよく、必ずしも現実イベント空間を模したものである必要はない。例えば、現実イベント空間を適宜にデフォルメした仮想イベント空間を用いることができる。
【0084】
[態様]
上述した例示的な実施形態が以下の態様の具体例であることは、当業者には明らかである。
【0085】
(第1項)
本発明の一態様に係るミュニケーションシステムは、
現実イベント空間で開催される実イベントに対応する模擬イベントを仮想イベント空間に表示するための表示データ、該現実イベント空間内の位置と該仮想イベント空間内の位置を対応付ける対応位置情報、該現実イベント空間で前記実イベントに参加する第1ユーザのアバターの表示データ、及び該仮想イベント空間で前記模擬イベントに参加する第2ユーザのアバターの表示データが保存された記憶部と、
前記第1ユーザにより用いられる端末であって、該第1ユーザの位置に応じた視点で捉えた前記現実イベント空間の画像を取得する画像取得部、及び表示部を備えた第1端末と、
前記現実イベント空間における前記第1端末の位置の情報を取得する第1端末位置取得部と、
前記第2ユーザにより用いられる、入力部及び表示部を備えた第2端末と、
前記入力部を通じた操作により設定される、前記仮想イベント空間における前記第2ユーザのアバターの位置の情報を取得する第2ユーザ位置取得部と、
前記第2ユーザ位置取得部により取得された前記第2ユーザのアバターの位置を、前記対応位置情報に基づいて前記現実イベント空間における位置に変換し、該変換後の位置に該第2ユーザのアバターを配置した画像を前記第1端末の表示部に表示させる第1表示制御部と、
前記第1端末位置取得部により取得された前記第1端末の位置を、前記対応位置情報に基づいて前記仮想イベント空間における位置に変換して前記第1ユーザのアバターを配置し、前記第2ユーザのアバターの位置に応じた視点で捉えた模擬イベントの画像を前記第2端末の表示部に表示させる第2表示制御部と
を備える。
【0086】
(第11項)
本発明の別の一態様に係るコミュニケーションシステム用プログラムは、
現実イベント空間で開催される実イベントの参加者である第1ユーザが使用する端末であって該第1ユーザの視点で捉えた前記現実イベント空間の画像を取得する画像取得部及び該画像取得部により取得される画像を表示する表示部を備えた第1端末と、
仮想イベント空間で開催される前記実イベントに対応する模擬イベントの参加者である第2ユーザが使用する端末であって入力部及び表示部を備えた第2端末と、
前記第1端末及び前記第2端末と通信可能に設けられ、前記模擬イベントを仮想イベント空間に表示するための表示データ、前記現実イベント空間内の位置と該仮想イベント空間内の位置を対応付ける対応位置情報、及び該仮想イベント空間で前記模擬イベントに参加する第2ユーザのアバターの表示データが保存された記憶部を有するサーバ装置とを含み、
前記第2端末又は前記サーバ装置が前記入力部を通じた操作により設定される、前記仮想イベント空間における前記第2ユーザのアバターの位置の情報を取得する第2ユーザ位置取得部を有するコミュニケーションシステムにおいて、
前記第1端末を、
前記現実イベント空間における前記第1端末の位置の情報を取得する第1端末位置取得部と、
前記第2ユーザ位置取得部により取得された前記第2ユーザのアバターの位置を、前記対応位置情報に基づいて前記現実イベント空間における位置に変換し、該変換後の位置に該第2ユーザのアバターを配置した画像を前記第1端末の表示部に表示させる第1表示制御部
として動作させることを特徴とするプログラム。
【0087】
第1項に係るコミュニケーションシステム、及び第11項に係るプログラムを実行することにより具現化されるコミュニケーションシステムは、現実空間に設けられたイベント空間(現実イベント空間)においてイベント(実イベント)を開催するとともに、該現実イベント空間に対応する模擬イベントを仮想空間に設けられたイベント空間(仮想イベント空間)で開催する際に用いられる。このシステムでは、現実イベント空間で実イベントに参加する第1ユーザは、第1ユーザの位置に応じた視点で捉えた現実イベント空間の画像を取得する画像取得部と表示部とを備えた第1端末を使用する。また、仮想イベント空間で模擬イベントに参加する第2ユーザは、入力部と表示部を備えた第2端末を使用する。なお、第1ユーザの位置に応じた視点で捉えた画像は、第1ユーザが頭部に装着するMRグラス等のデバイスに前記画像取得部が設けられたものである場合には該第1ユーザの視点から捉えた画像であり、第1ユーザが使用するタブレット端末等のポータブルデバイスに前記画像取得部が設けられたものである場合には、そのタブレット端末の撮影部から捉えた画像である。
【0088】
第1ユーザが実イベントに参加している間、現実イベント空間内を移動する第1ユーザが使用する第1端末の位置の情報が、第1端末位置情報取得部により取得される。第1端末の位置の情報には、第1端末の向きに関する情報が含まれうる。第2ユーザは、第2端末の入力部を通じた操作により仮想イベント空間にアバターを登場させ、その中で自由に移動させることができる。第2ユーザが模擬イベントに参加している間、第2ユーザのアバターの位置の情報は第2ユーザ位置取得部により取得される。
【0089】
第1表示制御部は、記憶部に予め保存された対応位置情報に基づいて、第2ユーザのアバターの位置を現実イベント空間における位置に変換し、その位置に該第2ユーザのアバターを配置した画像を第1端末の表示部に表示させる。従って、第1ユーザは、現実イベント空間に第2ユーザのアバターが存在しているかのような画像を視認することができる。また、第2表示制御部は、前記対応位置情報に基づいて、第1端末の位置を前記仮想空間における位置に変換してその位置に第1ユーザのアバターを配置し、第2ユーザのアバターの位置に応じた視点で捉えた模擬イベントの画像を第2端末の表示部に表示させる。従って、第2ユーザは、現実イベント空間にいる第1ユーザのアバターを含んだ仮想イベント空間の画像を視認することができる。なお、第2ユーザのアバターの位置に応じた視点とは、該アバターの視点そのものに限らず、アバターの後方からアバターを含めて仮想イベント空間を捉えるような視点などであってもよい。また、そうした複数の視点を切り替え可能にしてもよい。
【0090】
このように、上記コミュニケーションシステムでは、現実イベント空間で実イベントに参加する第1ユーザと、仮想イベント空間で模擬イベントに参加する第2ユーザのそれぞれが使用する端末に、お互いのアバターを表示させて、現実の空間で行われる実イベントの参加者と仮想空間で行われる模擬イベントの参加者に一体感を感じさせることができる。
【0091】
(第2項)
第2項に係るコミュニケーションシステムは、第1項に係るコミュニケーションシステムにおいて、
前記記憶部に、さらに、前記現実イベント空間の画像データが保存されており、
前記第1端末位置取得部は、前記画像取得部によって取得された前記現実イベント空間の画像を前記画像データと照合することにより前記第1端末の位置の情報を取得する。
【0092】
第2項に係るコミュニケーションシステムでは、第1端末の画像取得部で撮影した画像を現実イベント空間の基準位置情報と照合することにより、高い精度で第1端末の位置及び向きの情報を取得することができる。
【0093】
(第3項)
第3項に係るコミュニケーションシステムは、第1項又は第2項に係るコミュニケーションシステムにおいて、
前記記憶部に、さらに、それぞれがユーザの感情を表現した画像である複数の感情画像のデータが保存されており、
さらに、
前記第1端末及び前記第2端末の一方において前記感情画像の1つを選択する操作を受け付ける感情画像選択受付部と、
前記第1端末及び前記第2端末の他方の表示部に、前記感情画像選択受付部が操作を受け付けた端末のユーザのアバターとともに前記選択された感情画像を表示させる感情画像表示部と
を備える。
【0094】
(第4項)
第4項に係るコミュニケーションシステムは、第1項から第3項のいずれかに係るコミュニケーションシステムにおいて、
前記記憶部に、さらに、それぞれがユーザの感情を表現するアバターの動作である感情動作のデータが保存されており、
さらに、
前記第1端末及び前記第2端末の一方において前記感情動作の1つを選択する操作を受け付ける感情動作選択受付部と、
前記第1端末及び前記第2端末の他方の表示部に、前記感情動作選択受付部が操作を受け付けた端末のユーザのアバターに前記選択された感情動作を実行させた画像を表示させる感情動作実行部と
を備える。
【0095】
第3項及び第4項に係るコミュニケーションシステムでは、第1ユーザと第2ユーザの間で豊かな感情表現を行うことができる。
【0096】
(第5項)
第5項に係るコミュニケーションシステムは、第1項から第4項のいずれかに係るコミュニケーションシステムにおいて、
前記記憶部に、さらに、前記現実イベント空間と前記仮想空間のそれぞれに配置される拡張表示対象、及び該拡張表示対象に対応付けられた拡張表示内容の情報が保存されており、
さらに、
前記第1端末位置取得部により取得された位置の情報に基づいて該第1端末のユーザの視線が前記拡張表示対象に予め決められた時間滞留していると判断した場合に、当該拡張表示対象とともに前記拡張表示内容を前記第1端末の表示部に表示させる画像データを生成し、前記第2ユーザ位置取得部により取得された位置の情報に基づいて該第2ユーザのアバターの視線が前記拡張表示対象に予め決められた時間滞留していると判断した場合に、当該拡張表示対象とともに前記拡張表示内容を前記第2端末の表示部に表示させる拡張表示部
を備える。
【0097】
第5項に係るコミュニケーションシステムでは、実イベント及び模擬イベントにおける展示物等に興味を持った第1ユーザや第2ユーザに限定して、その展示物等に関する詳細な説明などを提供することができる。また、そうした展示物等に興味を持たないユーザには表示されないため、そうしたユーザが余計な表示に煩わしさを感じることもない。
【0098】
(第6項)
第6項に係るコミュニケーションシステムは、第1項から第5項のいずれかに係るコミュニケーションシステムにおいて、
前記記憶部に、さらに、前記現実イベント空間において投影される動画像のデータ、該動画像の投影場所、及び該動画像を投影するタイミングの情報が保存されており、
前記第2表示制御部は、前記タイミングで、前記仮想イベント空間における前記投映場所に対応する位置に前記動画像を投影した画像を前記第2端末の表示部に表示させる。
【0099】
第6項に係るコミュニケーションシステムでは、仮想イベント空間においても、現実イベント空間と同時にリアルタイムで動画像を閲覧することができる。
【0100】
(第7項)
第7項に係るコミュニケーションシステムは、第1項から第6項のいずれかに係るコミュニケーションシステムにおいて、
前記第2端末が複数存在する場合に、該複数の第2端末を複数のグループに分けてそれぞれに仮想イベント空間を設定し、
前記第1端末表示制御部が、前記複数のグループのいずれかに分類された前記第2端末のユーザのアバターのみを前記第1端末の表示部に表示させる
【0101】
第7項に係るコミュニケーションシステムでは、模擬イベントに多数の第2ユーザが参加している場合でも、第1端末の表示部及び第2端末の表示部に表示されるアバターの数を制限して仮想空間に配置するため、第1ユーザ及び第2ユーザが多数のアバターの表示に煩わしさを感じることがない。
【0102】
(第8項)
第8項に係るコミュニケーションシステムは、第1項から第7項のいずれかに係るコミュニケーションシステムにおいて、
さらに、
前記第2端末から、前記第1ユーザの一人を指定して該第1ユーザとつながりを持つことを希望する要請を受け付け、該第1ユーザが所有する第1端末に対して第2端末の所有者である第2ユーザとのつながりの諾否を問い合わせ、該第1端末から許諾の操作が行われた場合に該第1端末と該第2端末の連携を設定するユーザ仲介部
を備える。
(第8項)
第8項に係るコミュニケーションシステムでは、リクエストを発した第2ユーザと、そのリクエストを承諾した第1ユーザとの間にプライベートなつながりを形成することができる。
【0103】
(第9項)
第9項に係るコミュニケーションシステムは、第8項に係るコミュニケーションシステムにおいて、
前記ユーザ仲介部が、さらに、前記連携が設定された第1端末と第2端末のみから書き込み及び閲覧可能なチャット画面を、該第1ユーザが使用する前記第1端末の表示部と、該第2ユーザが使用する前記第2端末の表示部のそれぞれに表示する。
【0104】
第9項に係るコミュニケーションシステムでは、つながりが形成された第1ユーザと第2ユーザのみが書き込み及び閲覧可能なチャットを通じてプライベートな交流を持つことができる。
【0105】
(第10項)
第10項に係るコミュニケーションシステムは、第8項又は第9項に係るコミュニケーションシステムにおいて、
前記ユーザ仲介部が、前記第1端末で取得された画像を、該第1端末との間で連携が設定された第2端末の表示部に表示する。
【0106】
第10項に係るコミュニケーションシステムでは、模擬イベントに参加し、第1ユーザとの間でプライベートなつながりを形成した第2ユーザが、現実イベント空間において第1ユーザが取得した画像をリアルタイムで楽しむことができる。
【符号の説明】
【0107】
1…コミュニケーションシステム
10…サーバ装置
11…記憶部
12…ユーザ情報記憶部
13…イベントデータ記憶部
21…ユーザ登録受付部
22…参加受付部
23…ユーザ仲介部
30…第1端末
31…記憶部
32…画像取得部
33…第1端末位置取得部
34…第1表示制御部
35…拡張表示部
36…感情画像選択受付部
37…感情動作選択受付部
41…入力部
42…表示部
50…第2端末
51…記憶部
52…第2ユーザ位置取得部
53…第2表示制御部
54…拡張表示部
55…感情画像選択受付部
56…感情動作選択受付部
61…入力部
62…表示部
71、711…第1ユーザのアバター
72、721…第2ユーザのアバター
73…補助画面
731…感情表示ボタン
7311…アイコン
732…アクション表示ボタン
74…拡張表示対象
741…拡張表示
81…チャットボタン
811…チャット画面
812…OPENボタン
813…TORIMAKIボタン
82…配信開始ボタン
83…参加者ボタン
91…チャット画面
911…OPENボタン
912…TORIMAKIボタン
913…DIRECTボタン
92…“TORIMAKIになる”ボタン
93…参加者一覧表示
931…第1ユーザ名
932…第2ユーザ名
933…チャットボタン
934…ボタン
941…EXITボタン
942…縮小ボタン
95…小画面