IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社コロプラの特許一覧

<>
  • 特開-プログラム及びシステム 図1
  • 特開-プログラム及びシステム 図2
  • 特開-プログラム及びシステム 図3
  • 特開-プログラム及びシステム 図4
  • 特開-プログラム及びシステム 図5
  • 特開-プログラム及びシステム 図6
  • 特開-プログラム及びシステム 図7
  • 特開-プログラム及びシステム 図8
  • 特開-プログラム及びシステム 図9
  • 特開-プログラム及びシステム 図10
  • 特開-プログラム及びシステム 図11
  • 特開-プログラム及びシステム 図12
  • 特開-プログラム及びシステム 図13
  • 特開-プログラム及びシステム 図14
  • 特開-プログラム及びシステム 図15
  • 特開-プログラム及びシステム 図16
  • 特開-プログラム及びシステム 図17
  • 特開-プログラム及びシステム 図18
  • 特開-プログラム及びシステム 図19
  • 特開-プログラム及びシステム 図20
  • 特開-プログラム及びシステム 図21
  • 特開-プログラム及びシステム 図22
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024127018
(43)【公開日】2024-09-20
(54)【発明の名称】プログラム及びシステム
(51)【国際特許分類】
   G06F 3/0481 20220101AFI20240912BHJP
   G06F 3/04845 20220101ALI20240912BHJP
   H04N 7/15 20060101ALI20240912BHJP
   G06F 3/01 20060101ALI20240912BHJP
   G06F 3/04815 20220101ALI20240912BHJP
   G06T 19/00 20110101ALI20240912BHJP
【FI】
G06F3/0481
G06F3/04845
H04N7/15 170
G06F3/01 560
G06F3/04815
G06T19/00 300B
【審査請求】有
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023035845
(22)【出願日】2023-03-08
(71)【出願人】
【識別番号】509070463
【氏名又は名称】株式会社コロプラ
(74)【代理人】
【識別番号】110000442
【氏名又は名称】弁理士法人武和国際特許事務所
(72)【発明者】
【氏名】山崎 聡士
【テーマコード(参考)】
5B050
5C164
5E555
【Fターム(参考)】
5B050AA03
5B050BA06
5B050BA09
5B050BA12
5B050CA07
5B050CA08
5B050EA04
5B050EA19
5B050EA26
5B050FA02
5B050FA05
5B050FA06
5B050FA13
5B050FA14
5C164FA10
5C164MA03S
5C164SB01S
5C164SB08S
5C164UD41S
5C164VA21P
5E555AA27
5E555AA42
5E555AA52
5E555AA61
5E555AA76
5E555BA05
5E555BA38
5E555BB05
5E555BB38
5E555BC08
5E555BC09
5E555BC20
5E555BD01
5E555BE17
5E555CC22
5E555DA08
5E555DB32
5E555DB53
5E555DC11
5E555DC13
5E555DC21
5E555DC30
5E555DD06
5E555EA11
5E555FA00
(57)【要約】
【課題】仮想空間内での楽しみ方の多様化を維持しつつ、意に反するオブジェクトの変更が拡散されるのを防止可能なプログラムを提供する。
【解決手段】プログラムは、コンピュータを、仮想空間から生成した知覚データをユーザに知覚させる知覚手段と、複数のユーザのうちの第1ユーザの操作に従って、第1ユーザと異なる第2ユーザに関連付けられて仮想空間内に配置されたオブジェクトを、複数のユーザに共通の共通態様から、第1ユーザによって選択された特別態様に変更する変更手段として機能させる。知覚手段は、特別態様のオブジェクトを含む知覚データを、第1ユーザに知覚させる。プログラムは、コンピュータを、特別態様のオブジェクトを含む知覚データの第1ユーザによる拡散を制限するように制御する拡散制御手段としてさらに機能させる。
【選択図】図19
【特許請求の範囲】
【請求項1】
コンピュータを、
仮想空間から生成した知覚データをユーザに知覚させる知覚手段と、
複数のユーザのうちの第1ユーザの操作に従って、前記第1ユーザと異なる第2ユーザに関連付けられて前記仮想空間内に配置されたオブジェクトを、複数のユーザに共通の共通態様から、前記第1ユーザによって選択された特別態様に変更する変更手段として機能させ、
前記知覚手段は、前記特別態様の前記オブジェクトを含む前記知覚データを、前記第1ユーザに知覚させ、
前記コンピュータを、前記特別態様の前記オブジェクトを含む前記知覚データの前記第1ユーザによる拡散を制限するように制御する拡散制御手段としてさらに機能させる、プログラム。
【請求項2】
請求項1に記載のプログラムにおいて、
前記拡散制御手段は、前記オブジェクトを前記共通態様に戻した前記知覚データが拡散可能になるように制御する、プログラム。
【請求項3】
請求項1に記載のプログラムにおいて、
前記知覚データは、前記オブジェクトの外見を示す視覚データを含み、
前記拡散制御手段は、前記オブジェクトの前記特別態様に変更された部分をマスクした前記視覚データが拡散可能になるように制御する、プログラム。
【請求項4】
請求項1に記載のプログラムにおいて、
前記拡散制御手段は、前記第2ユーザが許可したことに応じて、前記特別態様の前記オブジェクトを含む前記知覚データが拡散可能になるように制御する、プログラム。
【請求項5】
請求項1に記載のプログラムにおいて、
前記拡散制御手段は、前記第1ユーザと所定の関係を有するユーザが登録されるリストに前記第2ユーザが登録されていることに応じて、前記特別態様の前記知覚データが拡散可能になるように制御する、プログラム。
【請求項6】
請求項1に記載のプログラムにおいて、
前記拡散制御手段は、前記知覚データのストレージへの保存、通信ネットワークを通じた他の装置への前記知覚データの送信を制御する、プログラム。
【請求項7】
請求項1に記載のプログラムにおいて、
前記オブジェクトは、前記第2ユーザの操作によって前記仮想空間内で動作するアバターを含み、
前記変更手段は、前記アバターの外見を前記特別態様に変更し、
前記知覚手段は、前記知覚データとして、前記仮想空間を仮想カメラで撮像した仮想空間画像を表示画面に表示させ、
前記拡散制御手段は、外見が前記特別態様に変更された前記アバターを含む前記仮想空間画像の複製を制御する、プログラム。
【請求項8】
仮想空間から生成した知覚データをユーザに知覚させる知覚手段と、
複数のユーザのうちの第1ユーザの操作に従って、前記第1ユーザと異なる第2ユーザによって前記仮想空間内に配置されたオブジェクトを、複数のユーザに共通の共通態様から、前記第1ユーザによって選択された特別態様に変更する変更手段とを備え、
前記知覚手段は、
前記特別態様の前記オブジェクトを含む前記知覚データを、前記第1ユーザに知覚させ、
前記共通態様の前記オブジェクトを含む前記知覚データを、前記第1ユーザと異なるユーザに知覚させ、
前記特別態様の前記オブジェクトを含む前記知覚データの前記第1ユーザによる拡散を制限するように制御する拡散制御手段をさらに備える、システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、プログラム及びシステムに関する。
【背景技術】
【0002】
近年、複数のユーザがアバターを通じてコミュニケーションする仮想空間(メタバース空間)を提供するサービスが普及しつつある。このようなサービスでは、ユーザが自身のアバター(以下、「本人アバター」と表記する。)の外見(例えば、服装、装飾品)を変更可能に構成されている。そして、本人アバターの外見の変更は、仮想空間を共有する全てのユーザの端末に反映される。
【0003】
一方、特許文献1、2には、仮想空間内での楽しみ方を多様化させる目的で、他のユーザのアバターの外見を変更する技術が開示されている。そして、特許文献1、2によれば、第1ユーザが第2ユーザのアバターの外見を変更したとすると、この変更は、第1ユーザの端末にのみ反映され、第2ユーザを含む他のユーザの端末では変更前の状態が維持される。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特許第6818106号公報
【特許文献2】特開2022-147265号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1、2において、第2ユーザは、自身のアバターの外見を第1ユーザが変更したことを認識できない場合がある。そのため、第2ユーザの意に反する外見に変更されたアバターが、不特定のユーザに拡散される可能性がある。なお、このような課題は、外見の変更に限定されず、アバターの変更にも限定されない。
【0006】
本発明は、上記の事情に鑑みてなされたものであり、その目的は、仮想空間内での楽しみ方の多様化を維持しつつ、意に反するオブジェクトの変更が拡散されるのを防止可能なプログラムを提供することにある。
【課題を解決するための手段】
【0007】
前記課題を解決するため、本発明に係るプログラムは、コンピュータを、仮想空間から生成した知覚データをユーザに知覚させる知覚手段と、複数のユーザのうちの第1ユーザの操作に従って、前記第1ユーザと異なる第2ユーザに関連付けられて前記仮想空間内に配置されたオブジェクトを、複数のユーザに共通の共通態様から、前記第1ユーザによって選択された特別態様に変更する変更手段として機能させ、前記知覚手段は、前記特別態様の前記オブジェクトを含む前記知覚データを、前記第1ユーザに知覚させ、前記コンピュータを、前記特別態様の前記オブジェクトを含む前記知覚データの前記第1ユーザによる拡散を制限するように制御する拡散制御手段としてさらに機能させる。
【発明の効果】
【0008】
本発明によれば、仮想空間内での楽しみ方の多様化を維持しつつ、意に反するオブジェクトの変更が拡散されるのを防止することができる。
【図面の簡単な説明】
【0009】
図1】本実施形態に係るシステムの概要を示す図である。
図2】サーバのハードウェア構成図である。
図3】ユーザ端末の一例であるHMDセットのハードウェア構成図である。
図4】ユーザ端末の他の例であるタブレット端末のハードウェア構成図である。
図5】仮想空間の一態様を概念的に表す図である。
図6】仮想空間において視界領域をX方向から見たYZ断面を表す図である。
図7】仮想空間において視界領域をY方向から見たXZ断面を表す図である。
図8】第1実施形態に係るサーバ及びユーザ端末の機能ブロック図である。
図9】第1実施形態に係るサーバの処理を示すフローチャートである。
図10】第1実施形態に係るユーザ端末の処理を示すフローチャートである。
図11】演出変更処理のフローチャートである。
図12】第1ユーザのモニタに表示される仮想空間画像の例である。
図13】第2ユーザのモニタに表示される仮想空間画像の例である。
図14】第1ユーザにイメージ候補を選択させるインタフェースの例である。
図15】演出データベースの一例である。
図16】第1ユーザのモニタに表示される仮想空間画像を特別態様に変更した結果の例である。
図17】第1ユーザに演出をカスタマイズさせるインタフェースの例である。
図18】第2実施形態に係るサーバ及びユーザ端末の機能ブロック図である。
図19】第2実施形態に係るユーザ端末の処理を示すフローチャートである。
図20】複製制御処理のフローチャートである。
図21】フレンドリストのデータ例である。
図22】ユーザ端末のモニタに表示される仮想空間画像の例である。
【発明を実施するための形態】
【0010】
以下、実施形態に係るシステム1を図面に基づいて説明する。なお、以下に記載する本発明の実施形態は、本発明を具体化する際の一例を示すものであって、本発明の範囲を実施形態の記載の範囲に限定するものではない。従って、本発明は、実施形態に種々の変更を加えて実施することができる。
【0011】
[システム1の概要]
図1は、本実施形態に係るシステム1の概要を示す図である。図1に示すように、システム1は、サーバ10と、ユーザ端末20A、20B、20C(以下、これらを総称して、「ユーザ端末20」と表記することがある。)とを主に備える。なお、図1には3つのユーザ端末20が図示されているが、システム1に含まれるユーザ端末20の例はこれに限定されない。サーバ10及びユーザ端末20は、通信ネットワーク2を介して相互通信可能に接続されている。通信ネットワーク2の具体例は特に限定されないが、例えば、インターネット、移動体通信システム(例えば、4G、5G等)、Wi-Fi(登録商標)等の無線ネットワーク、またはこれらの組み合わせで構成される。
【0012】
本実施形態に係るシステム1は、サーバ10が提供する共通の仮想空間を、複数のユーザ端末20A~20Cそれぞれのユーザに体験させるためのシステムである。より詳細には、ユーザ端末20は、ユーザに関連付けられたキャラクタ(以下、「アバター」と表記することがある。)を仮想空間に配置し、予め設定された視点から仮想空間を見た画像をユーザ端末20に表示させる。
【0013】
また、ユーザ端末20は、操作装置に対するユーザの操作に連動して、仮想空間内でアバターを動作させる。アバターの動作とは、例えば、仮想空間内で移動すること、身体の各部を動かすこと、姿勢を変えること、顔の表情を変化させること、発話すること、仮想空間内に配置されたオブジェクトを動かすこと等を含む。
【0014】
さらに、ユーザ端末20は、アバターの動作やステータスの変化を示すアバターデータを、通信ネットワーク2を通じてサーバ10に送信する。サーバ10は、ユーザ端末20から受信したアバターデータを、通信ネットワーク2を通じて他のユーザ端末20に送信する。そして、ユーザ端末20は、サーバ10から受信したアバターデータに基づいて、仮想空間内の対応するアバターの動作やステータスを更新する。
【0015】
[サーバ10の構成]
図2は、サーバ10のハードウェア構成図である。サーバ10は、例えば、ワークステーション、またはパーソナルコンピュータ等の汎用コンピュータで実現される。図2に示すように、サーバ10は、プロセッサ11と、メモリ12と、ストレージ13と、入出力インタフェース14と、通信インタフェース15とを主に備える。サーバ10の各構成要素は、通信バス19に接続されている。
【0016】
プロセッサ11は、メモリ12またはストレージ13に格納されているサーバプログラム13Pに含まれる一連の命令を実行することによって、後述する処理を実現する。プロセッサ11は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)、その他のデバイスとして実現される。
【0017】
メモリ12は、サーバプログラム13P及びデータを一時的に保持する。サーバプログラム13Pは、例えば、ストレージ13からロードされる。データは、サーバ10に入力されたデータと、プロセッサ11によって生成されたデータとを含む。例えば、メモリ12は、RAM(Random Access Memory)、その他の揮発メモリとして実現される。
【0018】
ストレージ13は、サーバプログラム13P及びデータを永続的に保持する。ストレージ13は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。また、ストレージ13は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに他の例として、ストレージ13は、サーバ10に内蔵されることに代えて、外部記憶装置としてサーバ10に接続されていてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のユーザ端末20が使用される場面において、サーバプログラム13Pやデータの更新を一括して行うことが可能になる。
【0019】
入出力インタフェース14は、モニタ、入力装置(例えば、キーボード、ポインティングデバイス)、外部記憶装置、スピーカ、カメラ、マイク、センサ等の外部装置をサーバ10に接続するためのインタフェースである。プロセッサ11は、入出力インタフェース14を通じて外部装置と通信する。入出力インタフェース14は、例えば、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(High-Definition Multimedia Interface、登録商標)、その他の端子で用いて実現される。
【0020】
通信インタフェース15は、通信ネットワーク2に接続されている他の装置(例えば、ユーザ端末20)と通信する。通信インタフェース15は、例えば、LAN(Local Area Network)等の有線通信インタフェース、Wi-Fi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)等の無線通信インタフェースとして実現される。
【0021】
[ユーザ端末20の構成]
図3は、ユーザ端末20の一例であるHMD(Head Mounted Display)セットのハードウェア構成図である。図4は、ユーザ端末20の他の例であるタブレット端末のハードウェア構成図である。ユーザ端末20は、例えば、図3に示すHMDセット、図4に示すタブレット端末の他、スマートフォン、フィーチャーフォン、ラップトップ型コンピュータ、デスクトップコンピュータ等として実現される。
【0022】
図3に示すように、HMDセットとして実現されるユーザ端末20は、プロセッサ21と、メモリ22と、ストレージ23と、入出力インタフェース24と、通信インタフェース25とを有するコンピュータ26を備える。コンピュータ26の各構成要素は、通信バス29に接続されている。プロセッサ21、メモリ22、ストレージ23、入出力インタフェース24、通信インタフェース25、通信バス29の基本的な構成は、図2に示すプロセッサ11、メモリ12、ストレージ13、入出力インタフェース14、通信インタフェース15、通信バス19と共通する。また、ストレージ23は、端末プログラム23Pを保持する。
【0023】
また、HMDセットとして実現されるユーザ端末20は、コンピュータ26の外部装置として、HMD30と、動きセンサ41と、操作装置42と、触覚装置43と、嗅覚装置44と、味覚装置45とを備える。HMD30、動きセンサ41、操作装置42、触覚装置43、嗅覚装置44、及び味覚装置45は、入出力インタフェース24を通じてプロセッサ21に接続されている。
【0024】
HMD30は、ユーザの頭部に装着されて、仮想空間をユーザに提供する。より詳細には、HMD30は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。HMD30は、モニタ31(表示画面)と、注視センサ32と、カメラ33、34と、マイク35と、スピーカ36とを主に備える。
【0025】
一例として、モニタ31は、非透過型の表示装置として実現される。モニタ31は、例えば、ユーザの両目の前方に位置するようにHMD30の本体に配置されている。非透過型のモニタ31は、例えば、液晶モニタ、有機EL(Electro Luminescence)モニタとして実現される。
【0026】
他の例として、モニタ31は、透過型の表示装置として実現される。この場合のHMD30は、ユーザの目を覆う密閉型ではなく、メガネ型のような開放型となる。モニタ31は、仮想空間を構成する画像の一部と、現実空間とを同時に表示する構成を含んでいてもよい。一例として、透過型のモニタ31は、HMD30に搭載されたカメラで撮像した現実空間の画像を表示してもよい。他の例として、透過型のモニタ31は、透過率を調整可能に構成されていてもよい。そして、透過型のモニタ31は、表示領域の一部の透過率を高く設定して、現実空間を直接視認できるようにしてもよい。
【0027】
また、モニタ31は、ユーザに3次元画像を視認させるために、以下の構成を採用してもよい。一例として、モニタ31は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含んでもよい。他の例として、モニタ31は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合のモニタ31は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
【0028】
注視センサ32は、ユーザの右目及び左目の視線が向けられる方向を検知する。つまり、注視センサ32は、ユーザの視線を検知する。注視センサ32は、例えば、アイトラッキング機能を有するセンサにより実現される。注視センサ32は、右目用のセンサ及び左目用のセンサを含むことが好ましい。注視センサ32は、ユーザの右目及び左目に赤外光を照射するとともに、照射光に対する角膜及び虹彩からの反射光を受けることにより各眼球の回転角を検知する。そして、注視センサ32は、検知した各回転角に基づいて、ユーザの視線を特定する。
【0029】
カメラ33は、HMD30を装着したユーザの顔の上部(より詳細には、ユーザの目、眉等)を撮像する。カメラ34は、HMD30を装着したユーザの顔の下部(より詳細には、ユーザの鼻、口等)を撮像する。例えば、HMD30の筐体のうち、ユーザに対面する側にカメラ33が取り付けられ、ユーザと対面する側と反対側にカメラ34が取り付けられる。なお、HMD30は、2台のカメラ33、34に代えて、ユーザの顔全体を撮像する1台のカメラを備えてもよい。
【0030】
マイク35は、ユーザの発話を音声信号(電気信号)に変換してコンピュータ26に出力する。スピーカ36は、コンピュータ26から出力された音声信号を音声に変換してユーザに出力する。なお、HMD30は、スピーカ36に替えてイヤホンを含み得る。
【0031】
動きセンサ41は、HMD30の動きを検出するためのポジショントラッキング機能を有する。一例として、動きセンサ41は、HMD30が発する複数の赤外線を読み取って、現実空間内におけるHMD30の位置及び傾きを検出してもよい。他の例として、動きセンサ41は、カメラで実現されてもよい。この場合の動きセンサ41は、カメラから出力されるHMD30の画像情報を解析して、HMD30の位置及び傾きを検出する。さらに他の例として、動きセンサ41は、角速度センサ、地磁気センサ、あるいは加速度センサで実現されてもよい。
【0032】
操作装置42は、有線または無線によりコンピュータ26に接続されている。操作装置42は、ユーザによるコンピュータ26に対する命令の入力(操作)を受け付ける。一例として、操作装置42は、ユーザが把持した状態で操作する、所謂コントローラでもよい。他の例として、操作装置42は、ユーザの身体あるいは衣類の一部に装着可能に構成され、モーションセンサによってユーザの動きを検知するものでもよい。但し、操作装置42の具体例はこれらに限定されず、キーボード、ポインティングデバイス、タッチパネル等でもよい。
【0033】
触覚装置43は、例えば、ユーザ端末20のユーザが装着する手袋状の装置である。そして、触覚装置43は、振動や圧力等を発生させることによって、仮想空間内でアバターが触った物(オブジェクト)の触感(例えば、質感、硬さ、重さ等)をユーザに感じさせる。
【0034】
嗅覚装置44は、例えば、ユーザ端末20のユーザの鼻を覆うマスク状の装置である。そして、嗅覚装置44は、複数の匂い成分を組み合わせてマスク内に放出することによって、仮想空間内でアバターが嗅いだ匂いをユーザに感じさせる。
【0035】
味覚装置45は、例えば、ユーザ端末20のユーザが口に含むゲル状の装置である。そして、味覚装置45は、ゲルに電気信号を出力することによって、仮想空間内でアバターが食べた(飲んだ)物の味をユーザに感じさせる。
【0036】
但し、ユーザの触覚、嗅覚、味覚に刺激を与える具体的な方法は、前述の例に限定されず、脳に直接電気信号を出力する方法等でもよい。また、触覚装置43、嗅覚装置44、及び味覚装置45の一部または全部は省略可能である。
【0037】
図4に示すように、タブレット端末として実現されるユーザ端末20は、プロセッサ21と、メモリ22と、ストレージ23と、通信インタフェース25と、モニタ31と、カメラ33、34と、マイク35と、スピーカ36と、動きセンサ41と、操作装置42とを主に備える。タブレット端末の各構成要素は、通信バス29に接続されている。プロセッサ21、メモリ22、ストレージ23、通信インタフェース25、モニタ31、カメラ33、34、マイク35、スピーカ36、動きセンサ41、操作装置42の基本的な構成は、HMDセットの場合と共通するので、以下、タブレット端末に特有の構成を説明する。また、図4に示すユーザ端末20は、触覚装置43、嗅覚装置44、及び味覚装置45を備えていなくてもよい。
【0038】
モニタ31は、平板状の筐体の表面に設けられている。カメラ33は、平板状の筐体の表面に取り付けられて、モニタ31を視認するユーザの顔を撮像する、所謂インカメラである。カメラ34は、平板状の筐体の裏面(モニタ31と反対側の面)に取り付けられて、周囲を撮像する、所謂アウトカメラである。動きセンサ41は、筐体の動き(例えば、互いに直交する3軸周りの回転)を検知する。タブレット端末に好適な操作装置42としては、例えば、モニタ31に重畳されて、ユーザによる各種タッチ操作(例えば、タップ、スライド、フリック、ピンチイン、ピンチアウト等)を受け付けるタッチパネルである。
【0039】
[仮想空間90の概要]
図5は、仮想空間90の一態様を概念的に表す図である。図6は、仮想空間90において視界領域94をX方向から見たYZ断面を表す図である。図7は、仮想空間90において視界領域94をY方向から見たXZ断面を表す図である。
【0040】
図5に示すように、仮想空間90は、中心Cの360度方向の全体を覆う全天球状の構造を有する。図5では説明を複雑にしないために、仮想空間90の上半分の天球が例示されている。仮想空間90では各メッシュが規定される。各メッシュの位置は、仮想空間90に規定されるグローバル座標系であるXYZ座標系における座標値として予め規定されている。仮想空間90に展開可能なパノラマ画像91(静止画、動画等)を構成する各部分画像は、仮想空間90において対応する各メッシュにそれぞれ対応付けられる。
【0041】
例えば、仮想空間90では、中心Cを原点とするXYZ座標系が規定される。XYZ座標系は、例えば、実座標系に平行である。XYZ座標系における水平方向、鉛直方向(上下方向)、及び前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)が実座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)が実座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)が実座標系のz軸と平行である。
【0042】
仮想空間90には、ユーザ端末20に対応付けられた仮想カメラ92が配置される。仮想空間90内における仮想カメラ92の位置は、仮想空間90内におけるユーザの視点に相当する。また、仮想カメラ92の向きは、仮想空間90におけるユーザの視線(基準視線93)に相当する。そして、プロセッサ21は、仮想カメラ92の位置と向きとに基づいて、仮想空間90における視界領域94(仮想カメラ92の画角)を規定する。
【0043】
図6に示すように、視界領域94は、YZ断面において領域95を含む。領域95は、仮想空間90内で基準視線93を含む鉛直断面(YZ断面)において、基準視線93を中心とする極角αの範囲である。図7に示すように、視界領域94は、XZ断面において領域96を含む。領域96は、仮想空間90内で基準視線93を含む水平断面(XZ断面)において、基準視線93を中心とする方位角βの範囲である。
【0044】
プロセッサ21は、仮想空間90に展開されたパノラマ画像91のうち、視界領域94に含まれる部分画像を、仮想カメラ92が撮像した仮想空間画像97として生成(抽出)する。そして、プロセッサ21は、生成した仮想空間画像97をモニタ31に表示させる。すなわち、視界領域94は、仮想空間90内におけるユーザの視界に相当する。さらに、仮想空間90内で仮想カメラ92の位置及び向きの変化に追従して視界領域94が移動し、モニタ31に表示される仮想空間画像97が更新される。すなわち、ユーザの視界が移動する。
【0045】
例えば、プロセッサ21は、操作装置42で受け付けたユーザの操作に連動して、仮想空間90内で仮想カメラ92を移動させる。また、プロセッサ21は、動きセンサ41で検知されたユーザ端末20の動き(例えば、互いに直交する3軸周りの回転)に連動して、仮想カメラ92の向き(すなわち、基準視線93)を変化させる。さらに、プロセッサ21は、位置及び向きが変化した後の仮想カメラ92で撮像した仮想空間画像97をモニタ31に表示させる。
【0046】
[第1実施形態]
[サーバ10及びユーザ端末20の機能ブロック図]
図8は、第1実施形態に係るサーバ10及びユーザ端末20の機能ブロック図である。図8に示すように、メモリ12にロードされたサーバプログラム13Pは、サーバ10を、同期手段110、中継手段120として機能させる。また、メモリ22にロードされた端末プログラム23Pは、ユーザ端末20(コンピュータ26)を、定義手段210、配置手段220、生成手段230、知覚手段240、選択手段250、変更手段260、カスタマイズ手段270、通知手段280、付与手段290として機能させる。
【0047】
同期手段110は、ユーザ端末20の1つから通信ネットワーク2を通じて受信した同期データを、他の全てのユーザ端末20に送信する。同期データは、全てのユーザ端末20が同期して保持すべきデータである。同期データは、アバターデータ及びアイテムデータを含む。これにより、全てのユーザ端末20A~20Cは、同一の同期データを保持する。その結果、全てのユーザ端末20A~20Cそれぞれで定義される仮想空間90において、同一の位置に同一のアバター及びアイテムが配置される。すなわち、全てのユーザ端末20A~20Cにおいて、アバター及びアイテムが同期される。
【0048】
中継手段120は、第1のユーザ端末20から受信した中継データを、第2のユーザ端末20に中継する。中継データとは、特定のユーザ端末20の間で送受信されるデータである。すなわち、中継手段120は、中継データに含まれる宛先情報で示されるユーザ端末20のみに中継データを送信する。但し、中継データの宛先は、1つに限定されない。中継データは、例えば、後述する通知データ、付与データ、及び問合せデータを含む。
【0049】
定義手段210は、現実空間に対応する仮想空間90を定義する。より詳細には、定義手段210は、仮想空間90を示す仮想空間データをメモリ22に展開する。仮想空間データは、例えば、パノラマ画像91と、仮想空間90内に配置される基本オブジェクト(例えば、建物、植物)の形状及び位置とを示す。また、仮想空間データは、仮想空間90のBGMを示すBGMデータを含んでもよい。なお、仮想空間データは、予めサーバ10からダウンロードしてストレージ23に保持されていてもよいし、仮想空間90を定義する際にサーバ10からダウンロードされてもよい。また、定義手段210は、複数の仮想空間90のうちから操作装置42を通じて選択された仮想空間90を定義してもよい。仮想空間90を定義する具体的な処理は既に周知なので、詳細な説明は省略する。
【0050】
配置手段220は、定義手段210で定義された仮想空間90に任意オブジェクトを配置する。ここでは、ユーザ端末20Aで端末プログラム23Pが実行される場合を説明する。配置手段220が仮想空間90に配置する任意オブジェクトは、例えば、ユーザ端末20Aのユーザのアバター(以下、「本人アバター」と表記する。)と、他のユーザ端末20B、20Cのユーザのアバター(以下、「他人アバター」と表記する。)と、アイテムとを含む。
【0051】
アバターは、ユーザ端末20を通じたユーザの操作に追従して、仮想空間90内で動作するキャラクタを指す。アバター(本人アバター、他人アバター)は、アバターデータによって定義される。アバターデータは、例えば、仮想空間90内におけるアバターの位置(XYZ座標)、アバターの形状(例えば、背格好、肌の色、表情、しぐさ)を示す。また、アバターデータは、アバターが身に着けているアイテム(例えば、衣装、装飾品等)を示すアイテムデータを含む。
【0052】
アイテムは、仮想空間90内に置かれるあらゆる物(例えば、家具、飲食物、装飾、乗り物)を指す。アイテムは、仮想空間90内の道、建物、自然(海、川、山)等の基本オブジェクトとは区別される。アイテムデータは、仮想空間データに予め含められていてもよいし、アバターが持ち物を取り出すことによって新たに生成されてもよい。アイテムデータは、アイテムの種類、アイテムの形状、仮想空間90内におけるアイテムの位置を示す。
【0053】
まず、配置手段220は、ストレージ23に予め記憶されているアバターデータに基づいて、本人アバターを仮想空間90に配置する。そして、配置手段220は、本人アバターのアバターデータを、通信ネットワーク2を通じてサーバ10に送信する。また、配置手段220は、動きセンサ41または操作装置42を通じたアバターの動作指示に基づいて、仮想空間90内で本人アバターを動作させる。さらに、配置手段220は、本人アバターの動作に追従して、仮想空間90内で仮想カメラ92を移動させる。そして、配置手段220は、本人アバターの動作後の状態を示すようにアバターデータを更新し、更新したアバターデータを通信ネットワーク2を通じてサーバ10に送信する。
【0054】
また、配置手段220は、他人アバターのアバターデータを、通信ネットワーク2を通じてサーバ10から受信する。そして、配置手段220は、サーバ10から受信したアバターデータに基づいて、他人アバターを仮想空間90に配置する。さらに、配置手段220は、アバターデータが更新される度に他人アバターを配置し直すことによって、仮想空間90内で他人アバターが動作する。
【0055】
さらに、配置手段220は、アイテムデータで示されるアイテムを仮想空間90に配置する。また、配置手段220は、本人アバターがアイテムを動かした場合に、アイテムの移動後の状態を示すようにアイテムデータを更新し、更新したアイテムデータを通信ネットワーク2を通じてサーバ10に送信する。さらに、配置手段220は、他人アバターがアイテムを動かした場合に、更新されたアイテムデータを通信ネットワーク2を通じてサーバ10から受信して、仮想空間90内のアイテムの位置を更新する。
【0056】
ここで、仮想空間データ、アバターデータ、及びアイテムデータは、仮想空間90を定義(特定)するデータである。換言すれば、仮想空間データ、アバターデータ、及びアイテムデータは、仮想空間90の演出の態様を決定するデータである。仮想空間90の演出とは、視覚、聴覚、触覚、嗅覚、及び味覚のうちの少なくとも1つを通じて、仮想空間90の状態を表現することを指す。
【0057】
生成手段230は、配置手段220によって配置されたアバター及びアイテムの位置関係に従って、知覚データを生成する。知覚データは、モニタ31によって出力される視覚データ、スピーカ36によって出力される聴覚データ、触覚装置43によって出力される触覚データ、嗅覚装置44によって出力される嗅覚データ、味覚装置45によって出力される味覚データの少なくとも1つを含む。また、本明細書では、視覚データ及び聴覚データを総称して、「視聴覚データ」と表記する。
【0058】
まず、生成手段230は、仮想カメラ92で仮想空間90内を撮像した仮想空間画像97を生成する。より詳細には、生成手段230は、パノラマ画像91のうちの視界領域94に相当する画像を仮想空間画像97として抽出して、仮想空間画像97を示す仮想空間画像データをメモリ22に記憶させる。また、生成手段230は、所定の時間(例えば、1/60秒)間隔で生成した仮想空間画像97を時系列に並べて、仮想空間映像データを生成する。仮想空間画像データ及び仮想空間映像データは、視覚データの一例である。
【0059】
また、生成手段230は、仮想空間90内のアバターのうち、視界領域94に含まれるアバターの発話データを抽出(生成)する。発話データは、ユーザ端末20のユーザがマイク35を入力した音声データであって、アバターデータに含まれる。また、生成手段230は、予め設定された仮想空間90のBGMデータを抽出(生成)する。発話データ及びBGMデータは、聴覚データの一例である。
【0060】
また、生成手段230は、本人アバターが触ったアイテムの触感を示す触覚データを抽出(生成)する。また、生成手段230は、本人アバターの近くにあるアイテムの匂いを示す嗅覚データを抽出(生成)する。さらに、生成手段230は、本人アバターが口に入れたアイテムの味を示す味覚データを抽出(生成)する。触覚データ、嗅覚データ、及び味覚データは、例えば、アイテムデータに含まれていてもよい。
【0061】
知覚手段240は、生成手段230が生成した知覚データ(すなわち、仮想空間90の演出)をユーザ端末20のユーザに知覚させる。より詳細には、知覚手段240は、視覚データで示される画像または映像をモニタ31に表示(出力)し、聴覚データで示される音声をスピーカ36から出力し、触覚データで示される触感を触覚装置43を通じて出力し、嗅覚データで示される匂いを嗅覚装置44を通じて出力し、味覚データで示される味を味覚装置45を通じて出力する。
【0062】
選択手段250は、仮想空間90の演出イメージを表す複数のイメージ候補をユーザに提示し、提示したイメージ候補のうちの1つをユーザに選択させる。イメージ候補とは、仮想空間90の演出のイメージを決定(統一)するための指標となるパラメータである。また、イメージ候補は、複数のグループのいずれか1つに属している。グループは、共通のイメージ候補を纏める名称である。
【0063】
グループ“イベント”のイメージ候補としては、例えば、“クリスマス”、“正月”、“ハロウィン”等が挙げられる。グループ“天気”のイメージ候補としては、例えば、“晴れ”、“雨”、“雪”等が挙げられる。グループ“季節”のイメージ候補としては、例えば、“春”、“夏”、“秋”、“冬”等が挙げられる。グループ“時代”のイメージ候補としては、例えば、“19世紀”、“20世紀”、“21世紀”等が挙げられる。グループ“時刻”のイメージ候補としては、例えば、“朝”、“昼”、“夜”等が挙げられる。グループ“宗教”のイメージ候補としては、例えば、“キリスト教”、“イスラム教”、“仏教”等が挙げられる。
【0064】
また、1つのグループに属するイメージ候補の数は、2以上であれば特に限定されない。そして、選択手段250は、仮想空間90内での本人アバターの活動実績に応じて、ユーザに提示(例えば、図14(B)の選択画面61に表示)するイメージ候補の数を変更してもよい。一例として、選択手段250は、仮想空間90内での本人アバターの活動時間が長いほど、イメージ候補の数を増やしてもよい。他の例として、選択手段250は、仮想空間90内で開催されるイベントを本人アバターがクリアしたことに応じて、新たなイメージ候補を追加してもよい。
【0065】
さらに、選択手段250は、演出を変更可能な複数の変更対象について、前記変更手段260に変更させるか否かをユーザに選択させてもよい。一例として、変更対象とは、図14(B)に示すように、“視覚”、“聴覚”、“触覚”、“嗅覚”、“味覚”等でもよい。他の例として、変更対象とは、“他人アバターの外見”、“他人アバターの声”、“アイテムの外見”、“アイテムの匂い”、“アイテムの味”、“BGM”等でもよい。なお、選択手段250は、変更手段260に変更させるか否かを、複数の変更対象それぞれについて個別に選択させてもよいし、複数の変更対象について一括して選択させてもよい。
【0066】
変更手段260は、ユーザが選択したイメージ候補に合わせて、仮想空間90の演出を共通態様から特別態様に変更する。変更手段260は、例えば、図15を参照して後述する演出データベースに基づいて、仮想空間90の演出を変更する。共通態様とは、全てのユーザ端末20A、20B、20Cに共通に設定された演出の態様である。一方、特別態様とは、イメージ候補が選択されたユーザ端末20に対して特別に設定された演出の態様である。また、変更手段260は、仮想空間90の演出のうち、視覚、聴覚、味覚、嗅覚、触覚のうちの少なくとも1つの演出を変更する。
【0067】
カスタマイズ手段270は、特別態様の演出をユーザにカスタマイズさせる。カスタマイズ手段270は、例えば、演出の変更対象(例えば、アバターの上半身)と、変更の態様(例えば、衣装)とをユーザに選択させる。そして、カスタマイズ手段270は、ユーザによって選択された変更対象の演出を、ユーザによって選択された態様に変更(すなわち、アバターの上半身の衣装を着せ替える)する。カスタマイズ手段270が演出をカスタマイズする具体的な方法は、例えば、特許文献1、2に記載されているように既に周知なので、詳細な説明は省略する。
【0068】
通知手段280は、変更手段260またはカスタマイズ手段270によってアバターの外見が特別態様に変更されたことに応じて、特別態様のアバターの外見を、当該アバターを操作するユーザ端末20に通知する。より詳細には、通知手段280は、特別態様のアバターの外見を示す画像と、宛先のユーザ端末20の端末IDとを含む通知データを、通信ネットワーク2を通じてサーバ10に送信する。
【0069】
付与手段290は、特別態様のアバターの外見を実現するためのアイテムデータ(すなわち、衣装や装飾品を示すアイテムデータ)を、当該アバターを操作するユーザ端末20に付与する。より詳細には、付与手段290は、付与するアイテムデータと、宛先のユーザ端末20の端末IDとを含む付与データを、通信ネットワーク2を通じてサーバ10に送信する。
【0070】
付与データを受信したユーザ端末20のユーザは、付与されたアイテムデータを用いてアバターの外見を切り替える切替操作を実行することができる。切替操作によって切り替えられたアバターの外見は、全てのユーザ端末20A、20B、20Cのモニタ31に反映される。すなわち、切替操作によって入り替えられたアバターの外見は、共通態様の演出となる。
【0071】
[第1実施形態に係るシステム1の動作]
図9図17を参照して、第1実施形態に係るシステム1の動作を説明する。第1実施形態では、部屋を模した仮想空間90内に、ユーザ端末20A、20B、20CのユーザA、B、Cによって操作されるアバター50A、50B、50Cがいることを想定する。以下、ユーザ端末20Aの処理を中心に説明する。すなわち、ユーザ端末20AのユーザAは「第1ユーザ」の一例であり、ユーザ端末20B、20CのユーザB、Cは「第2ユーザ」の一例である。また、ユーザ端末20A、20B、20Cそれぞれの仮想カメラ92を、仮想カメラ92A、92B、92Cと表記する。
【0072】
図9は、第1実施形態に係るサーバ10の処理を示すフローチャートである。図10は、第1実施形態に係るユーザ端末20Aの処理を示すフローチャートである。図11は、演出変更処理のフローチャートである。図12は、第1ユーザのモニタ31に表示される仮想空間画像97の例である。図13は、第2ユーザのモニタ31に表示される仮想空間画像97の例である。図14は、第1ユーザにイメージ候補を選択させるインタフェースの例である。図15は、演出データベースの一例である。図16は、第1ユーザのモニタ31に表示される仮想空間画像97を特別態様に変更した結果の例である。図17は、第1ユーザに演出をカスタマイズさせるインタフェースの例である。サーバ10による図9の処理と、ユーザ端末20Aによる図10の処理とは、並行して実行される。
【0073】
サーバ10は、図9に示す処理を所定の時間間隔毎に繰り返し実行する。まず、サーバ10は、ユーザ端末20A~20Cから同期データ(S11)または中継データ(S12)を受信するまで、ステップS13以降の処理の実行を待機する。なお、ユーザ端末20A~20Cそれぞれからは、同期データ及び中継データが不定期に送信される。
【0074】
サーバ10(同期手段110)は、ユーザ端末20A~20Cの1つから通信ネットワーク2を通じて同期データを受信した場合に(S11:Yes)、他の全てのユーザ端末20A~20Cに通信ネットワーク2を通じて受信した同期データを送信(中継)する(S13)。これにより、全てのユーザ端末20A~20Cが同一の同期データを保持する。また、サーバ10(中継手段120)は、ユーザ端末20A~20Cの1つから通信ネットワーク2を通じて中継データを受信した場合に(S12:Yes)、宛先情報で示されるユーザ端末20のみに、通信ネットワーク2を通じて中継データを送信(中継)する(S14)。
【0075】
図10に示すように、ユーザ端末20A(定義手段210)は、ストレージ23に記憶された仮想空間データをメモリ12に展開することによって、仮想空間90を定義する(S21)。また、本実施形態に係る仮想空間データは、テーブル51、絵画52、ケーキ53、ティーカップ54、55、56を示すアイテムデータと、BGMデータ“デフォルトBGM”とを含むものとする。そこで、ユーザ端末20A(配置手段220)は、図12(A)に示すように、当該アイテムデータに従って、テーブル51、絵画52、ケーキ53、ティーカップ54、55、56を、仮想空間90内に配置する。
【0076】
次に、ユーザ端末20A(配置手段220)は、図12(A)に示すように、ステップS21で定義された仮想空間90に本人アバター50A及び仮想カメラ92Aを配置すると共に、通信ネットワーク2を通じてサーバ10にアバターデータを送信する(S22)。本人アバター50の初期位置は、例えば、仮想空間90の中心Cである。また、仮想カメラ92の位置は、例えば、本人アバター50の頭の位置でもよいし、本人アバター50の後方でもよい。
【0077】
次に、ユーザ端末20A(配置手段220)は、通信ネットワーク2を通じてサーバ10からアバターデータを受信した場合に(S23:Yes)、図12(A)に示すように、受信したアバターデータに従って仮想空間90に他人アバター50B、50Cを配置する(S24)。同様に、ユーザ端末20A(配置手段220)は、通信ネットワーク2を通じてサーバ10からアイテムデータを受信した場合に(S23:Yes)、受信したアイテムデータに従って仮想空間90にアイテムを配置する(S24)。
【0078】
次に、ユーザ端末20A(生成手段230及び知覚手段240)は、仮想空間90の演出をユーザに知覚させるための知覚データを生成して出力する(S29)。まず、ユーザ端末20A(生成手段230)は、仮想カメラ92Aの視界領域94を特定し、特定した視界領域94に含まれる他人アバター50B、50C、テーブル51、絵画52、ケーキ53、ティーカップ54、55、56を含む仮想空間画像97を、視覚データとして生成する。また、ユーザ端末20A(生成手段230)は、仮想空間データに含まれるBGMデータ“デフォルトBGM”を、聴覚データとして抽出(生成)する。そして、ユーザ端末20A(知覚手段240)は、図12(B)に示すように、生成した仮想空間画像97をモニタ31に表示し、BGMデータ“デフォルトBGM”で示される音楽をスピーカ36から出力する。
【0079】
なお、ユーザ端末20A、20Bでも同一の仮想空間90が生成される。しかしながら、アバター50B、50Cの視点(仮想カメラ92B、92C)が異なるので、モニタ31に表示される仮想空間画像97は、図12(B)とは異なる。例えば、アバター50Bの仮想カメラ92Bは、図13(A)の位置からアバター50A、50Bを向いている。そのため、ユーザ端末20Bのモニタ31には、図13(B)に示される仮想空間画像97が表示される。また図示は省略するが、ユーザ端末20Cのモニタ31には、アバター50A、50Bを含む仮想空間画像97が表示される。なお、図12(B)及び図13(B)に表示されるアバター50Bは異なる方向を向いているはずであるが、図面を簡略化するために、アバター50A、50B、50Cは全て正面を向けて図示している。
【0080】
次に、ユーザ端末20A(配置手段220)は、本人アバター50の動作を指示する操作を操作装置42を通じて受け付けた場合に(S25:Yes)、操作装置42に対するユーザの操作に従って本人アバター50を動作させ、本人アバター50に追従して仮想カメラ92を移動させ、動作後の本人アバター50を示すアバターデータを、通信ネットワーク2を通じてサーバ10に送信する(S26)。そして、ユーザ端末20A(生成手段230及び知覚手段240)は、移動後の本人アバター50Aに対応する知覚データを生成して出力する(S29)。
【0081】
一例として、ユーザ端末20A(配置手段220)は、仮想空間90内で本人アバター50Aを移動させた場合に、移動後の仮想カメラ92の視界領域94に含まれる仮想空間画像97を生成して、モニタ31に表示させる。他の例として、ユーザ端末20A(配置手段220)は、マイク35を通じて入力された声を、本人アバター50Aの声としてスピーカ36を通じて出力する。他の例として、ユーザ端末20A(配置手段220)は、本人アバター50Aにティーカップ54を持たせた場合に、ティーカップ54の触感を示す触覚データを生成して触覚装置43を通じて出力し、紅茶の匂いを示す嗅覚データを生成して嗅覚装置44を通じて出力する。さらに他の例として、ユーザ端末20A(配置手段220)は、本人アバター50Aにティーカップ54の中の紅茶を飲ませた場合に、紅茶の味を示す味覚データを生成して味覚装置45を通じて出力する。
【0082】
このように、ユーザ端末20A、20B、20Cは、共通の仮想空間90を異なる視点から撮像した仮想空間画像97(視覚データ)を生成して、モニタ31に表示させる。同様に、ユーザ端末20A、20B、20Cは、アバター50A、50B、50Cの動作に合わせて、共通の仮想空間90から生成(抽出)した異なる聴覚データ、触覚データ、嗅覚データ、味覚データを出力する。すなわち、ユーザ端末20A、20B、20Cそれぞれのユーザが知覚する具体的な情報は異なる。
【0083】
但し、ユーザ端末20A、20B、20Cは、同一の仮想空間データ、アバターデータ、及びアイテムデータを用いて、ステップS21~S26、S29の処理を実行している。すなわち、ユーザ端末20A、20B、20Cそれぞれで実行されるステップS21~S26、S29の処理は、仮想空間90の共通態様の演出をユーザに知覚させることの一例である。換言すれば、ユーザA、B、Cは、ユーザ端末20A、20B、20Cを通じて、共通態様の演出を知覚する。
【0084】
また、図12図16に示すように、モニタ31には、メニューアイコン60が表示される。ユーザ端末20A(選択手段250)は、メニューアイコン60を選択する操作を操作装置42を通じて受け付けたことに応じて(S27:Yes)、図14(A)に示すように、[イメージ変更]アイコンと、[カスタマイズ]アイコンとをモニタ31に表示させると共に、図11に示す演出変更処理を実行する(S28)。演出変更処理は、仮想空間90の演出を共通態様から特別態様に変更する処理である。換言すれば、演出変更処理は、ユーザ端末20Aにおける仮想空間90の演出を、ユーザ端末20B、20Cにおける仮想空間90の演出とは独立して、特別な演出に変更する処理である。
【0085】
ユーザ端末20A(選択手段250)は、[イメージ変更]アイコンを選択する操作を操作装置42を通じて受け付けたことに応じて(S41:イメージ変更)、図14(B)に示すように、選択画面61をモニタ31に表示させる(S42)。選択画面61は、グループ“イベント”、“天気”、“季節”、グループ“イベント”に属する複数のイメージ候補“クリスマス”、“正月”、“ハロウィン”、変更手段260に変更させる変更対象“視覚”、“聴覚”、“触覚”、“嗅覚”、“味覚”を、ユーザに選択させる画面である。そして、ユーザ端末20A(選択手段250)は、グループ、イメージ候補、及び変更対象を選択するユーザの操作を、操作装置42を通じて受け付ける(S43)。
【0086】
次に、ユーザ端末20A(変更手段260)は、選択画面61を通じてグループ、イメージ候補、及び変更対象が選択されたことに応じて(S43:Yes)、図15に示す演出データベースに基づいて、ユーザ端末20Aにおける仮想空間90の演出を、共通態様から特別態様に変更する(S44)。ここでは、図14(B)に示すように、グループ“イベント”、イメージ候補“クリスマス”、変更対象“視覚”、“聴覚”、“味覚”が選択されたものとして、以下の処理を説明する。
【0087】
図15は、グループ“イベント”に対応する演出データベースである。演出データベースは、イメージ候補に対応する特別態様の演出方法(より詳細には、同期データ)を記憶するデータベースである。例えば、演出データベースには、イメージ候補“クリスマス”に対応付けて、男性衣装のアイテムデータ“サンタ衣装1”と、女性衣装のアイテムデータ“サンタ衣装2”と、装飾のアイテムデータ“クリスマスリース”と、料理のアイテムデータ“ターキー”と、飲み物のアイテムデータ“ワイン”と、BGMデータ“ジングルベル”を記憶している。
【0088】
一例として、演出データベースは、ユーザ端末20A、20B、20Cそれぞれのストレージ23に記憶されている。そして、演出データベースは、ユーザ端末20のユーザによってカスタマイズされてもよい。他の例として、演出データベースは、サーバ10のストレージ13に記憶されている。そして、サーバ10は、ユーザ端末20からのリクエストに基づいて、演出データベースをユーザ端末20に送信してもよい。また、演出データベースは、サーバ10の管理者によってカスタマイズされてもよい。
【0089】
一例として、ユーザ端末20A(変更手段260)は、イメージ候補“クリスマス”が選択された場合に、図16(A)に示すように、ユーザ端末20A上で定義した仮想空間90内において、他人アバター50B、50Cの衣装をサンタ衣装に変更し、絵画52をクリスマスリース52Aに変更し、ケーキ53をターキー53Aに変更し、ティーカップ54、55、56をワイングラス54A、55A、56Aに変更し、BGMを“デフォルトBGM”から“ジングルベル”に変更する。
【0090】
他の例として、ユーザ端末20A(変更手段260)は、イメージ候補“正月”が選択された場合に、図16(B)に示すように、ユーザ端末20A上で定義した仮想空間90内において、他人アバター50B、50Cの衣装を和装に変更し、絵画52を正月飾り52Bに変更し、ケーキ53をおせち53Bに変更し、ティーカップ54、55、56をぐい呑み54B、55B、56Bに変更し、BGMを“デフォルトBGM”から“Happy New Year”に変更する。
【0091】
ここで、前述の例では、“視覚”、“味覚”が変更対象として選択されているので、ティーカップ54の見た目はワイングラス54Aまたはぐい呑み54Bに変更され、これらの中身を本人アバター50Aに飲ませるとワインまたは日本酒の味が知覚される。一方、“触覚”、“嗅覚”が変更対象として選択されていないので、変更されたアイテムの触感や匂いは変更されない。
【0092】
すなわち、ユーザ端末20A(変更手段260)は、ステップS24、S26で配置手段220が仮想空間90内に配置したアイテムを、演出データベースから抽出したアイテムデータで示されるアイテムに置換する。また、ユーザ端末20A(変更手段260)は、仮想空間データに含まれるBGMデータを、演出データベースから抽出したBGMデータに置換する。換言すれば、ユーザ端末20A(変更手段260)は、ユーザ端末20A上のみにおいて、全てのユーザが保持する同期データを、演出データベースから抽出したデータで上書きする。このようにして変更された仮想空間90の演出は、特別態様である。
【0093】
なお、変更手段260によって特別態様に変更可能なのは、前述の例に限定されない。他の例として、他人アバター50B、50Cの肌の色や声が変更されてもよい。他の例として、グループ“天気”のイメージ候補に合わせて、雲、雨、雪等を追加してもよい。他の例として、グループ“時刻”のイメージ候補に合わせて、太陽、月、星を切り替えてもよい。さらに他の例として、グループ“時代”のイメージ候補に合わせて、自動車、馬車を切り替えてもよい。
【0094】
次に、ユーザ端末20A(生成手段230及び知覚手段240)は、特別態様の演出に変更された仮想空間90から知覚データを生成して、ユーザに知覚させる(S45)。ステップS45の処理は、図10のステップS29と共通する。すなわち、ユーザ端末20Aのモニタ31には、図16(A)または、図16(B)に示す仮想空間画像97が表示される。その他の知覚データについても同様に更新される。これにより、ユーザ端末20AのユーザAは、仮想空間90の特別態様の演出を知覚する。すなわち、ユーザ端末20Aの知覚手段240は、第1知覚手段の一例である。
【0095】
一方、演出データベースから抽出したデータは、ユーザ端末20B、20Cには送信されない。すなわち、ユーザ端末20A上における仮想空間90の演出の変更は、他のユーザ端末20B、20Cには反映されない。そのため、ユーザ端末20Bのモニタ31には、図13(B)に示す仮想空間画像97が引き続き表示される。換言すれば、ユーザ端末20B、20Cは、仮想空間90の共通態様の演出を引き続きユーザに知覚させる。すなわち、ユーザ端末20B、20Cの知覚手段240は、第2知覚手段の一例である。
【0096】
なお、特別態様の演出は、ユーザ端末20Aのユーザ(すなわち、イメージ候補を選択した第1ユーザ)のみが知覚することに限定されず、第1ユーザと所定の関係を有するユーザも知覚してよい。第1ユーザと所定の関係を有するユーザとは、例えば、現実空間で第1ユーザの近くにいるユーザ、第1ユーザのフレンドリスト(後述)に登録されたユーザ、仮想空間内で第1ユーザのアバターと行動を共にしているアバターのユーザなど、第1ユーザとの物理的または心理的な距離が、その他のユーザより近いユーザを指す。
【0097】
また、ユーザ端末20Aは、ステップS44~S45で他人アバターの外見を変更したか否かを判定する(S46)。そして、ユーザ端末20Aは、他人アバターの外見を変更したと判定したことに応じて(S46:Yes)、図16(A)に示すように、「この衣装をプレゼントしますか?」とのメッセージと、[Yes]アイコンと、[No]アイコンとをモニタ31に表示させる。そして、ユーザ端末20Aは、[Yes]アイコンまたは[No]アイコンを選択するユーザの操作を、操作装置42を通じて受け付ける(S47)。
【0098】
次に、ユーザ端末20A(付与手段290)は、[Yes]アイコンが選択されたことに応じて(S47:Yes)、演出データベースから抽出した衣装のアイテムデータを含む付与データを、サーバ10を経由してユーザ端末20B、20Cに送信する(S48)。ユーザ端末20B、20Cは、サーバ10を経由して付与データを受信する。そして、ユーザ端末20B、20Cは、付与データに含まれるアイテムデータを、ストレージ23に記憶させる。付与データの送受信には、周知の課金処理やNFT(Non-Fungible Token)技術を利用することができる。
【0099】
例えば、ユーザ端末20BのユーザBは、付与データに含まれるアイテムデータ(外見データの一例)を用いて、アバター50Bの外見を変更することができる。そして、ユーザ端末20Bは、外見が変更されたアバター50Bを示すアバターデータを、通信ネットワーク2を通じてサーバ10に送信する。これにより、アバター50Bの外見の変更が全てのユーザ端末20A、20Cに反映される。すなわち、ユーザ端末20BのユーザBは、ユーザ端末20Aから受信した付与データを用いて、ユーザ端末20A上での特別態様のアバター50Bの外見を、共通態様として採用することができる。ユーザ端末20Cについても同様である。
【0100】
一方、ユーザ端末20A(通知手段280)は、[No]アイコンが選択されたことに応じて(S47:No)、特別態様に変更されたアバター50B、50Cの外見を示す画像を含む通知データを、サーバ10を経由してユーザ端末20B、20Cに送信する(S49)。ユーザ端末20B、20Cは、サーバ10を経由して通知データを受信する。そして、ユーザ端末20B、20Cは、通知データに含まれる画像をモニタ31に表示させることによって、ユーザ端末20A上でアバター50B、50Cの外見が変更されたことを報知する。
【0101】
また、ユーザ端末20A(カスタマイズ手段270)は、[カスタマイズ]アイコンを選択する操作を操作装置42を通じて受け付けたことに応じて(S41:カスタマイズ)、図17(A)に示すように、演出をカスタマイズする部位を選択するためのポインタ62をモニタ31に表示させる。次に、ユーザ端末20A(カスタマイズ手段270)は、ポインタ62によってカスタマイズする部位(例えば、アバター50Bの下半身)が選択された場合に、当該部位の演出をカスタマイズ(この場合は、着せ替え)可能なアイテム63、64のアイテムリストを、モニタ31に表示させる(S50)。そして、ユーザ端末20A(カスタマイズ手段270)は、アイテムリスト内のアイテム63、64の1つを選択するユーザの操作を、操作装置42を通じて受け付ける(S51)。
【0102】
次に、ユーザ端末20A(カスタマイズ手段270)は、例えば、アイテム64が選択されたことに応じて(S51:Yes)、図17(B)に示すように、ポインタ62を通じて選択された部位の衣装(演出)を、アイテムリストから選択したアイテム64に置換(カスタマイズ)する(S52)。次に、ユーザ端末20Aは、ステップS52でカスタマイズされた演出を反映させるために、ステップS45~S49の処理を実行する。なお、ステップS50~S52の処理は、視覚的なカスタマイズに限定されず、聴覚的、触覚的、嗅覚的、味覚的なカスタマイズにも適用可能である。また、ステップS50~S52の処理は、ステップS44で特別態様の演出に変更された部位に限定して実行されてもよいし、共通態様の演出のままの部位に対して実行されてもよい。
【0103】
そして、ユーザ端末20Aは、端末プログラム23Pの終了を指示する操作(例えば、ログアウト)を操作装置42を通じて受け付けるまで、図10の処理を繰り返し実行する。なお、ユーザ端末20Aは、同期データを不定期に受信し、ユーザ操作を不定期に受け付ける。すなわち、ステップS24、S26、S28の処理は、任意のタイミング及び頻度で実行される。
【0104】
[第1実施形態の作用効果]
第1実施形態によれば、ユーザに選択させたイメージ候補に合わせて、仮想空間90の演出を変更するので、仮想空間90の演出を選択されたイメージ候補で表されるイメージに統一することができる。これにより、複数の部位を個別に指定して演出を変更するのと比較して、仮想空間90の演出を、簡単な操作で所望のイメージに変更できる。
【0105】
より詳細には、演出データベースに登録された複数の項目(アバター、アイテム、BGM等)の演出を纏めて変更することによって、仮想空間90全体の演出を統一して変更することができる。また、演出データベースを更新することによって、流行りの演出を取り入れることができる。但し、変更手段260は、演出データベースに基づいて演出を変更することに限定されず、AI技術を用いてイメージ候補に合う演出に変更してもよい。
【0106】
また、第1実施形態によれば、演出を変更する対象をユーザに選択させることによって、ユーザが所望する範囲で演出を変更することができる。これにより、過剰な演出の変更を防止することができる。
【0107】
また、第1実施形態によれば、特別態様に変更された演出をカスタマイズ可能にすることによって、仮想空間90の演出をユーザの好みに近づけることができる。
【0108】
また、第1実施形態によれば、他人アバター50B、50Cの外見の変更を、当該アバター50B、50Cを操作するユーザに通知するので、他のユーザの意に反した外見の変更の抑止効果が期待できる。
【0109】
また、第1実施形態によれば、他人アバター50B、50Cの外見を変更するアイテムデータを、当該アバター50B、50Cのユーザに付与することによって、仮想空間90の演出を変更したい第1ユーザだけでなく、他人アバター50B、50Cの第2ユーザもメリットを享受することができる。
【0110】
また、第1実施形態によれば、仮想空間90内での本人アバター50Aの活動実績に応じて、選択画面61に表示するイメージ候補の数を変更することによって、仮想空間90内での活動を促すことができる。これにより、仮想空間90の活性化にも寄与する。
【0111】
[第2実施形態]
図18図22を参照して、第2実施形態に係るシステム1を説明する。なお、第1実施形態との共通点の詳細な説明は省略し、相違点を中心に説明する。
【0112】
[サーバ10及びユーザ端末20の機能ブロック図]
図18は、第2実施形態に係るサーバ10及びユーザ端末20の機能ブロック図である。第2実施形態に係るサーバ10の機能ブロックは、第1実施形態と共通する。一方、第2実施形態において、メモリ22にロードされた端末プログラム23Pは、図18に示すように、ユーザ端末20(コンピュータ26)を、定義手段210、配置手段220、生成手段230、知覚手段240、変更手段300、複製手段310、拡散制御手段320として機能させる。第2実施形態に係る定義手段210、配置手段220、生成手段230、及び知覚手段240の役割は、第1実施形態と共通する。
【0113】
変更手段300は、操作装置42を通じたユーザの操作に従って、仮想空間90の演出を共通態様から特別態様に変更する。特に、第2実施形態に係る変更手段300は、他人アバター50B、50Cの外見を共通態様から特別態様に変更(すなわち、衣装、装飾品を置換)する。一例として、変更手段300は、第1実施形態に係る変更手段260及びカスタマイズ手段270と共通の処理を実行してもよい。他の例として、変更手段300は、特許文献1、2に記載の方法で仮想空間90の演出を変更してもよい。
【0114】
なお、変更手段300が演出の態様を変更するのは、ユーザがユーザ端末20を通じて仮想空間90に配置するオブジェクトであれば、アバターに限定されずアイテムでもよい。また、変更手段300が演出の態様を変更するのは、ユーザに関連付けられて仮想空間90に配置されるオブジェクトであれば、ユーザが仮想空間90に配置するオブジェクトに限定されない。さらに、変更手段300が変更するのは、外見(すなわち、視覚データ)に限定されず、聴覚データ、触覚データ、嗅覚データ、味覚データでもよい。
【0115】
複製手段310は、生成手段230によって生成された(換言すれば、知覚手段240がユーザに知覚させる)知覚データを複製する。一例として、複製とは、知覚データをキャプチャしてストレージ23に保存することを指してもよい。他の例として、複製とは、他のユーザ端末20との間で知覚データを共有するために、知覚データを共有サーバ(例えば、SNSサーバ、ファイル交換サーバ、ストリーミングサーバ)にアップロードすることを指してもよい。また、複製後の知覚データは、複製前の知覚データと完全同一であることに限定されず、一部が編集(改変)されていてもよい。すなわち、知覚データを編集してから複製することも、本明細書中の「複製」の範疇に含まれる。
【0116】
拡散制御手段320は、特別態様のオブジェクトを含む知覚データ(以下、「特別態様の知覚データ」と表記することがある。)がユーザ端末20のユーザによって拡散されるのを制限するように制御する。「ユーザによる知覚データの拡散」とは、当該知覚データを不特定の人が知覚する可能性があるユーザの行為(操作)を指す。なお、拡散には、知覚データを不特定の人に知覚させる直接的な行為のみならず、その蓋然性が高い行為、またはその前段階の行為(例えば、キャプチャ)を含んでもよい。また、拡散は、多数の人に知覚させることを目的とせず、不特定の1人に知覚させるものでもよい。
【0117】
拡散制御手段320は、例えば、特別態様の知覚データを複製手段310が複製するのを制御する。一例として、複製の制御とは、特別態様の知覚データの複製を禁止することを指してもよい。他の例として、複製の制御とは、特別態様から共通態様に戻した知覚データが拡散可能になるように制御する(すなわち、複製手段310に複製させる)ことを指してもよい。さらに他の例として、複製の制御とは、特別態様に変更された部分をマスクした知覚データが拡散可能になるように制御する(すなわち、複製手段310に複製させる)ことを指してもよい。但し、拡散制御手段320による制御の対象は、複製手段310による複製に限定されず、特別態様の知覚データが不特定の人に知覚され得るあらゆる処理を指す。
【0118】
[第2実施形態に係るシステム1の動作]
図19図22を参照して、第2実施形態に係るシステム1の動作を説明する。図19は、第2実施形態に係るユーザ端末20Aの処理を示すフローチャートである。図20は、複製制御処理のフローチャートである。図21は、フレンドリストのデータ例である。図22は、ユーザ端末20A、20Bのモニタ31に表示される仮想空間画像97の例である。第2実施形態における仮想空間90の前提は、第1実施形態と共通する。
【0119】
図19のステップS61~S66、S70の処理は、図10のステップS21~S26、S29と共通する。これにより、ユーザ端末20Aのモニタ31には図12(B)に示す仮想空間画像97が表示され、ユーザ端末20Bのモニタ31には図13(B)に示す仮想空間画像97が表示され、ユーザ端末20Cのモニタ31にはアバター50A、50Bを含む仮想空間画像(図示省略)が表示される。これらは、共通態様のアバター50A、50B、50Cを含む知覚データを知覚させることの一例である。
【0120】
図12(B)及び図13(B)の例において、アバター50B及びアバター50Bが身に着けているアイテムは、ユーザBによって仮想空間90に配置されたオブジェクト(ユーザBに関連付けられて仮想空間90に配置されたオブジェクト)の一例である。また、ユーザBが自身のアイテムリストからケーキ53を取り出して仮想空間90に配置したとすると、当該ケーキ53は、ユーザBによって仮想空間90に配置されたオブジェクト(ユーザBに関連付けられて仮想空間90に配置されたオブジェクト)の他の例である。すなわち、第2ユーザに関連付けられて仮想空間90に配置されたオブジェクトとは、第2ユーザが演出の態様の決定権を有するオブジェクトを指す。
【0121】
また、第2実施形態に係るメニューアイコン60が選択されると、図22(A)に示すように、[変更]アイコンと、[複製]アイコンとがモニタ31に表示される。そして、ユーザ端末20A(変更手段300)は、[変更]アイコンを選択する操作を操作装置42を通じて受け付けたことに応じて(S67:変更)、ユーザ操作に従って仮想空間90の演出を共通態様から特別態様に変更する(S68)。ユーザ端末20A(変更手段300)は、例えばステップS68において、図11のステップS42~S44の処理、図11のステップS50~S52の処理、または特許文献1、2に記載されたアバターの衣装を着せ替える処理を実行する。
【0122】
次に、ユーザ端末20A(生成手段230及び知覚手段240)は、演出が特別態様に変更された仮想空間90から知覚データを生成して出力する(S70)。これにより、ユーザ端末20Aのモニタ31には、例えば、図16(A)に示す仮想空間画像97が表示される。この処理は、特別態様のアバターを含む知覚データを知覚させることの一例である。一方、ユーザ端末20B、20Cのモニタ31には、共通態様のアバター50A、50B、50Cを含む仮想空間画像97が表示される。この処理は、共通態様のアバターを含む知覚データを知覚させることの一例である。
【0123】
また、ユーザ端末20A(拡散制御手段320)は、[複製]アイコンを選択する操作を操作装置42を通じて受け付けたことに応じて(S67:複製)、図20に示す複製制御処理を実行する(S69)。複製制御処理は、直前のステップS70で生成された特別態様の知覚データの複製を制御(許可、制限、禁止)する処理である。
【0124】
まず、ユーザ端末20A(拡散制御手段320)は、知覚データに特別態様の他人アバターが含まれているか否かを判定する(S81)。そして、ユーザ端末20A(拡散制御手段320)は、知覚データに特別態様の他人アバターが含まれていないと判定したことに応じて(S81:Yes)、特別態様の知覚データを複製手段310が複製するのを許可する(S82)。すなわち、ユーザ端末20A(複製手段310)は、ステップS82において、知覚データを編集せずに複製する。後述するステップS84、S87についても同様である。
【0125】
また、ユーザ端末20A(拡散制御手段320)は、知覚データに特別態様の他人アバター50B、50Cが含まれていると判定したことに応じて(S81:No)、他人アバター50B、50Cを操作するユーザが図21(A)に示すフレンドリストに登録されているか否かを判定する(S83)。そして、ユーザ端末20A(拡散制御手段320)は、図21(A)に示すフレンドリストに、特別態様の他人アバター50B、50CのユーザB、C全てが登録されていると判定したことに応じて(S83:Yes)、特別態様の知覚データを複製手段310が複製するのを許可する(S84)。
【0126】
フレンドリストは、仮想空間90を共有するユーザA、ユーザB、ユーザC毎に設けられる。ユーザA、Cの間で「フレンド申請」及び「承諾」の手続きが行われると、ユーザAのフレンドリストに「ユーザC」が登録され、ユーザCのフレンドリストに「ユーザA」が登録される。また、ユーザB、Cの間で「フレンド申請」及び「承諾」の手続きが行われると、ユーザBのフレンドリストに「ユーザC」が登録され、ユーザCのフレンドリストに「ユーザB」が登録される。
【0127】
フレンド申請及び承諾の手続きは、2人のユーザが相互に合意することの一例である。すなわち、2人のユーザが相互に合意することによって、一方のユーザのフレンドリストに他方のユーザが登録される。一方、本明細書中の「リスト」は、お気に入りリストやフォローリストのように、一方の意思のみによって登録されるリストとは異なる。フレンドリストは、ユーザ端末20A、20B、20Cのストレージ23に記憶されていてもよいし、サーバ10のストレージ13に記憶されていてもよい。フレンドリストに登録されたユーザは、第1ユーザと所定の関係を有するユーザの一例である。
【0128】
一方、ユーザ端末20A(拡散制御手段320)は、図21(A)に示すフレンドリストに、特別態様の他人アバター50BのユーザBが登録されていないと判定したことに応じて(S83:No)、特別態様に変更されたアバター50Bの外見を示す画像を含む問合せデータを、サーバ10を経由してユーザ端末20Bに送信する(S85)。ユーザ端末20Bは、サーバ10を経由して問合せデータを受信する。そして、ユーザ端末20Bは、図22(B)に示すように、「このアバターの複製を認めますか?」とのメッセージと、問合せデータに含まれる画像と、[Yes]アイコンと、[No]アイコンとをモニタ31に表示させる。
【0129】
そして、ユーザ端末20Bは、[Yes]アイコンを選択する操作を操作装置42を通じて受け付けたことに応じて、サーバ10を経由してユーザ端末20Aに許可データを送信する。[Yes]アイコンの選択または許可データの送信は、ユーザ端末20Bのユーザ(すなわち、第2ユーザ)が許可したことの一例である。一方、ユーザ端末20Bは、[No]アイコンを選択する操作を操作装置42を通じて受け付けたことに応じて、サーバ10を経由してユーザ端末20Aに拒否データを送信する。
【0130】
次に、ユーザ端末20A(拡散制御手段320)は、サーバ10を経由してユーザ端末20Bから許可データを受信したことに応じて(S86:Yes)、特別態様の知覚データを複製手段310が複製するのを許可する(S87)。一方、ユーザ端末20A(拡散制御手段320)は、サーバ10を経由してユーザ端末20Bから拒否データを受信したことに応じて(S86:No)、複製手段310が特別態様の知覚データを複製するのを制限する(S88)。ユーザ端末20A(拡散制御手段320)は、例えばステップS88において、特別態様の知覚データを複製手段310が複製するのを禁止してもよいし、特別態様から共通態様に戻した知覚データを複製手段310が複製するのを許可してもよいし、特別態様に変更された部分をマスク(例えば、モザイク)した知覚データ(この場合は、視覚データ)を複製手段310が複製するのを許可してもよい。
【0131】
複製手段310は、ステップS82、S84、S87、S88において、拡散制御手段320の制御に従って(換言すれば、拡散制御手段320の許可した範囲で)、知覚データを複製する。複製手段310による知覚データの複製を許可、制限、禁止することは、特別態様の知覚データのユーザ端末20Aのユーザによる拡散を制限する制御の一例である。但し、拡散を制限する制御の内容及び順序は、図20の例に限定されない。
【0132】
[第2実施形態の作用効果]
第2実施形態によれば、特別態様の他人アバター50B、50Cを含む知覚データの複製を制御することによって、ユーザB、Cの意に反した他人アバター50B、50Cの変更が拡散されるのを防止できる。一方、ユーザ端末20A上では、他人アバター50B、50Cを特別態様に変更することができるので、仮想空間90内での楽しみ方の多様化を維持することができる。
【0133】
また、第2実施形態によれば、知覚データの複製を完全に禁止するのではなく、他人アバター50B、50Cを共通態様に戻したり、他人アバター50B、50Cの特別態様の部分をマスクして複製することによって、仮想空間90内での楽しみ方の多様化と、意に反する他人アバター50B、50Cの変更の拡散防止とを両立できる。
【0134】
また、第2実施形態によれば、特別態様の他人アバター50Bの複製をユーザBが許可した場合に、特別態様の他人アバター50Bを含む知覚データが複製される。これにより、ユーザBの許可した他人アバター50Bの変更は拡散可能になる。但し、特別態様の他人アバター50Bの複製の可否の問合せ及び回答は、ステップS85、S86のように仮想空間90を通じたものに限定されない。他の例として、ユーザ端末20Aは、サーバ10を経由せずに、問合せデータ、許可データ、拒否データを、ユーザ端末20Bとの間で直接送受信してもよい。
【0135】
さらに、第2実施形態によれば、フレンドリストにユーザCが登録されている場合に、特別態様の他人アバター50Cを含む知覚データが複製される。フレンドリストに登録されているユーザCは、ユーザAと近しい関係にあると考えられるので、ユーザCが暗黙の了解を与えていると見做せるからである。
【0136】
但し、拡散を制限する制御は、特別態様の他人アバター50B、50Cを含む知覚データに限定されず、特別態様のアイテム(例えば、ターキー53A、ワイングラス54A、55A、56A等)含む知覚データに対して実行されてもよい。また、特別態様は、視覚データに限定されず、聴覚データ、触覚データ、嗅覚データ、味覚データでもよい。他の例として、拡散制御手段320は、声色が変更された他人アバター50B、50Cを示すアバターデータの拡散を制限するように制御してもよい。さらに他の例として、拡散制御手段320は、ケーキ53の外見、味、匂いがターキー35Aに変更されたアイテムデータの拡散を制限するように制御してもよい。
【0137】
[その他の実施形態]
また、本発明に係るプログラムは、単一のプログラムに限定されず、複数のプログラムの集合体でもよい。また、本発明に係るプログラムは、単一の装置で実行されるものに限定されず、複数の装置で分担して実行されてもよい。さらに、サーバ10及びユーザ端末20の役割分担は、前述の例に限定されない。すなわち、サーバ10の処理の一部がユーザ端末20によって実行されてもよいし、ユーザ端末20の処理の一部がサーバ10によって実行されてもよい。
【0138】
さらに、プログラムによって実現される各手段の一部または全部は、集積回路等のハードウェアで実現することもできる。さらに、プログラムは、コンピュータによって読み出し可能な非一過性の記録媒体に記録されて提供されてもよい。記録媒体とは、例えば、ハードディスク、SDカード、DVDの他、インターネット上のサーバ等を指す。
【符号の説明】
【0139】
1…システム、2…通信ネットワーク、3…検知装置、10…サーバ、11,21…プロセッサ、12,22…メモリ、13,23…ストレージ、13P…サーバプログラム、14,24…入出力インタフェース、15,25…通信インタフェース、19,29…通信バス、20…ユーザ端末、23P…端末プログラム、26…コンピュータ、30…HMD、31…モニタ、32…注視センサ、33,34…カメラ、35…マイク、36…スピーカ、41…動きセンサ、42…操作装置、43…触覚装置、44…嗅覚装置、45…味覚装置、50A…本人アバター、50B,50C…他人アバター、51…テーブル、52…絵画、52A…クリスマスリース、52B…正月飾り、53…ケーキ、53A…ターキー、53B…おせち、54,55,56…ティーカップ、54A,55A,55B…ワイングラス、54B,55B,55B…ぐい呑み、60…メニューアイコン、61…選択画面、62…ポインタ、63,64…アイテム、90…仮想空間、91…パノラマ画像、92…仮想カメラ、92A…自己視点カメラ、92B,92B,92C,92D…設定視点カメラ、93…基準視線、94…視界領域、95,96…領域、97…仮想空間画像、110…同期手段、120…中継手段、210…定義手段、220…配置手段、230…生成手段、240…知覚手段、250…選択手段、260,300…変更手段、270…カスタマイズ手段、280…通知手段、290…付与手段、310…複製手段、320…拡散制御手段
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
【手続補正書】
【提出日】2024-08-15
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0007
【補正方法】変更
【補正の内容】
【0007】
前記課題を解決するため、本発明に係るプログラムは、コンピュータを、仮想空間から生成した知覚データをユーザに知覚させる知覚手段と、複数のユーザのうちの第1ユーザの操作に従って、前記第1ユーザと異なる第2ユーザに関連付けられて前記仮想空間内に配置されたオブジェクトを、複数のユーザに共通の共通態様から、前記第1ユーザによって選択された特別態様に変更する変更手段として機能させ、前記知覚手段は、前記特別態様の前記オブジェクトを含む前記知覚データを、前記第1ユーザに知覚させ、前記コンピュータを、前記特別態様の前記オブジェクトを含まない前記知覚データの前記第1ユーザによる拡散を許可し、前記特別態様の前記オブジェクトを含む前記知覚データの前記第1ユーザによる拡散を制限するように制御する拡散制御手段としてさらに機能させる。
【手続補正2】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
コンピュータを、
仮想空間から生成した知覚データをユーザに知覚させる知覚手段と、
複数のユーザのうちの第1ユーザの操作に従って、前記第1ユーザと異なる第2ユーザに関連付けられて前記仮想空間内に配置されたオブジェクトを、複数のユーザに共通の共通態様から、前記第1ユーザによって選択された特別態様に変更する変更手段として機能させ、
前記知覚手段は、前記特別態様の前記オブジェクトを含む前記知覚データを、前記第1ユーザに知覚させ、
前記コンピュータを、前記特別態様の前記オブジェクトを含まない前記知覚データの前記第1ユーザによる拡散を許可し、前記特別態様の前記オブジェクトを含む前記知覚データの前記第1ユーザによる拡散を制限するように制御する拡散制御手段としてさらに機能させる、プログラム。
【請求項2】
請求項1に記載のプログラムにおいて、
前記拡散制御手段は、前記オブジェクトを前記共通態様に戻した前記知覚データが拡散可能になるように制御する、プログラム。
【請求項3】
請求項1に記載のプログラムにおいて、
前記知覚データは、前記オブジェクトの外見を示す視覚データを含み、
前記拡散制御手段は、前記オブジェクトの前記特別態様に変更された部分をマスクした前記視覚データが拡散可能になるように制御する、プログラム。
【請求項4】
請求項1に記載のプログラムにおいて、
前記拡散制御手段は、前記第2ユーザが許可したことに応じて、前記特別態様の前記オブジェクトを含む前記知覚データが拡散可能になるように制御する、プログラム。
【請求項5】
請求項1に記載のプログラムにおいて、
前記拡散制御手段は、前記第1ユーザと所定の関係を有するユーザが登録されるリストに前記第2ユーザが登録されていることに応じて、前記特別態様の前記知覚データが拡散可能になるように制御する、プログラム。
【請求項6】
請求項1に記載のプログラムにおいて、
前記拡散制御手段は、前記知覚データのストレージへの保存、通信ネットワークを通じた他の装置への前記知覚データの送信を制御する、プログラム。
【請求項7】
請求項1に記載のプログラムにおいて、
前記オブジェクトは、前記第2ユーザの操作によって前記仮想空間内で動作するアバターを含み、
前記変更手段は、前記アバターの外見を前記特別態様に変更し、
前記知覚手段は、前記知覚データとして、前記仮想空間を仮想カメラで撮像した仮想空間画像を表示画面に表示させ、
前記拡散制御手段は、外見が前記特別態様に変更された前記アバターを含む前記仮想空間画像の複製を制御する、プログラム。
【請求項8】
仮想空間から生成した知覚データをユーザに知覚させる知覚手段と、
複数のユーザのうちの第1ユーザの操作に従って、前記第1ユーザと異なる第2ユーザによって前記仮想空間内に配置されたオブジェクトを、複数のユーザに共通の共通態様から、前記第1ユーザによって選択された特別態様に変更する変更手段とを備え、
前記知覚手段は、
前記特別態様の前記オブジェクトを含む前記知覚データを、前記第1ユーザに知覚させ、
前記共通態様の前記オブジェクトを含む前記知覚データを、前記第1ユーザと異なるユーザに知覚させ、
前記特別態様の前記オブジェクトを含まない前記知覚データの前記第1ユーザによる拡散を許可し、前記特別態様の前記オブジェクトを含む前記知覚データの前記第1ユーザによる拡散を制限するように制御する拡散制御手段をさらに備える、システム。