IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特開2024-114081情報処理システム、情報処理装置、情報処理方法、およびプログラム
<>
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図1
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図2
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図3
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図4
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図5
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図6
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図7
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図8
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図9
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図10
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図11
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図12
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図13
  • 特開-情報処理システム、情報処理装置、情報処理方法、およびプログラム 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024114081
(43)【公開日】2024-08-23
(54)【発明の名称】情報処理システム、情報処理装置、情報処理方法、およびプログラム
(51)【国際特許分類】
   G06Q 50/10 20120101AFI20240816BHJP
   G06Q 50/20 20120101ALI20240816BHJP
   G09B 5/02 20060101ALI20240816BHJP
   G09B 19/00 20060101ALI20240816BHJP
【FI】
G06Q50/10
G06Q50/20
G09B5/02
G09B19/00 G
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023019476
(22)【出願日】2023-02-10
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】110000338
【氏名又は名称】弁理士法人 HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】小嶋 一行
(72)【発明者】
【氏名】西田 健太郎
(72)【発明者】
【氏名】川島 尚己
(72)【発明者】
【氏名】辻 篤史
(72)【発明者】
【氏名】野中 崇史
【テーマコード(参考)】
2C028
5L049
5L050
【Fターム(参考)】
2C028BB01
5L049CC11
5L049CC34
5L050CC11
5L050CC34
(57)【要約】
【課題】仮想空間を用いたサービスを提供する相手を提供者が好適にサポートすることを支援する。
【解決手段】情報処理システム(1)は、第2ユーザに仮想空間上で提供されるサービスを進行させる進行部(11)と、第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力部(12)とを備え、所定条件は、第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。
【選択図】図1
【特許請求の範囲】
【請求項1】
第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる進行手段と、
前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力手段と、
を備え、
前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む、
情報処理システム。
【請求項2】
前記サービスは、前記第1ユーザから複数の前記第2ユーザに提供され、
前記ユーザ情報出力手段は、
複数の前記第2ユーザのそれぞれに関するユーザ情報を出力し、
状態が前記所定条件を満たすことが検出された第2ユーザに関するユーザ情報と、前記所定条件を満たさない第2ユーザに関するユーザ情報とを、判別可能な態様で出力する、
請求項1に記載の情報処理システム。
【請求項3】
前記所定条件は、前記第2ユーザの生体情報に基づき取得される行動情報に関する条件を含む、
請求項1または2に記載の情報処理システム。
【請求項4】
前記所定条件は、
前記第2ユーザが前記仮想空間において注目している仮想オブジェクトに関する条件を含む、
請求項1または2に記載の情報処理システム。
【請求項5】
前記サービスは、複数の要素サービスを含み、
前記ユーザ情報出力手段は、前記複数の要素サービスのうち前記第1ユーザによって指定された要素サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザに関する前記ユーザ情報に、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が所定条件を満たすこととを含めて出力する、
請求項1または2に記載の情報処理システム。
【請求項6】
前記ユーザ情報出力手段は、
前記第2ユーザの状態が前記所定条件を満たした時点における前記ユーザ情報を少なくとも記憶装置に記憶しておき、
前記サービスの進行中または終了後に前記記憶装置を参照して、前記第2ユーザの状態が少なくとも過去において前記所定条件を満たしたことを、前記第1ユーザが認識可能に出力する、
請求項1または2に記載の情報処理システム。
【請求項7】
前記サービスの進行中に、前記第2ユーザの状態を示す情報を取得する取得手段と、
前記サービスの進行中に、前記情報が示す状態が所定条件を満たす第2ユーザを検出する検出手段、をさらに備える、
請求項1または2に記載の情報処理システム。
【請求項8】
仮想空間を示す画像を表示する表示手段と、
第1ユーザから第2ユーザに前記仮想空間上で提供されるサービスを進行させる進行手段と、
前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を、前記第1ユーザが認識可能に出力するユーザ情報出力手段と、
を備え、
前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む、
情報処理装置。
【請求項9】
情報処理システムが、
第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させることと、
前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力することと、
を含み、
前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む、
情報処理方法。
【請求項10】
コンピュータを情報処理システムとして機能させるプログラムであって、
前記コンピュータを、
第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる進行手段と、
前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力手段と、
として機能させ、
前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、仮想空間において提供されるサービスに関連する情報処理システム、情報処理装置、情報処理方法、およびプログラムに関する。
【背景技術】
【0002】
情報通信技術の進歩に伴い、離れた場所に存在する相手に通信を介してサービスを提供する技術が求められている。
【0003】
特許文献1には、オンライン授業を受講している生徒の行動に関する第1情報に基づき、オンライン授業に対する生徒の学習状態を評価し、学習状態に基づいてオンライン授業の進捗を補助する情報処理装置が開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】国際公開第2022/024742号
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に記載の情報処理装置は、仮想空間上でサービスを提供する場合は想定されていない。例えば、仮想空間上でサービスを提供する場合、サービスの提供者は、サービスを提供する相手の仮想位置を考慮することで当該相手を好適にサポートできる場合がある。しかしながら、特許文献1に記載されている情報処理装置を用いて仮想空間においてオンライン授業を提供する場合、サービスの提供者である教師は、サービスを提供する相手である生徒の仮想位置を考慮することができない。そのため、教師が生徒を好適にサポートする上で改善の余地がある。
【0006】
本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、仮想空間上でサービスを提供する相手を提供者が好適にサポートすることを支援する技術を提供することである。
【課題を解決するための手段】
【0007】
本発明の一態様に係る情報処理システムは、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる進行手段と、前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力手段と、を備え、前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。
【0008】
本発明の一態様に係る情報処理装置は、仮想空間を示す画像を表示する表示手段と、第1ユーザから第2ユーザに前記仮想空間上で提供されるサービスを進行させる進行手段と、前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を、前記第1ユーザが認識可能に出力するユーザ情報出力手段と、を備え、前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。
【0009】
本発明の一態様に係る情報処理方法は、情報処理システムが、第1ユーザから第2ユーザに前記仮想空間上で提供されるサービスを進行させることと、前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力することと、を含み、前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。
【0010】
本発明の一態様に係るプログラムは、コンピュータを情報処理システムとして機能させるプログラムであって、前記コンピュータを、第1ユーザから第2ユーザに前記仮想空間上で提供されるサービスを進行させる進行手段と、前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力手段と、として機能させ、前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。
【発明の効果】
【0011】
本発明の一態様によれば、仮想空間上でサービスを提供する相手を提供者が好適にサポートすることを支援することができる。
【図面の簡単な説明】
【0012】
図1】本発明の実施形態1に係る情報処理システムの構成を示すブロック図である。
図2】本発明の実施形態1に係る情報処理方法の流れを示すフロー図である。
図3】本発明の実施形態1に係る情報処理装置の構成を示すブロック図である。
図4】本発明の実施形態1に係る情報処理方法の流れを示すフロー図である。
図5】本発明の実施形態2に係るに係る情報処理システムの構成を示すブロック図である。
図6】本発明の実施形態2に係るに係る検出部が分析する第2ユーザの状態の例を示す表である。
図7】本発明の実施形態2に係るに係る情報処理方法の流れを示すフロー図である。
図8】本発明の実施形態2に係るユーザ情報出力部が出力する画像の一例を示す図である。
図9】本発明の実施形態2に係るに係るユーザ情報出力部が出力する画像の他の例を示す図である。
図10】本発明の実施形態2に係るユーザ情報出力部が出力する画像のさらに他の例を示す図である。
図11】本発明の実施形態2に係るユーザ情報出力部が出力する画像のさらに他の例を示す図である。
図12】本発明の実施形態3に係る情報処理システムの構成を示すブロック図である。
図13】本発明の実施形態3に係る情報処理方法の流れを示すフロー図である。
図14】本発明の各例示的実施形態に係る情報処理システム、情報処理装置、および仮想現実デバイスのハードウェア構成の一例を示すブロック図である。
【発明を実施するための形態】
【0013】
〔例示的実施形態1〕
本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
【0014】
(情報処理システム1の構成)
本例示的実施形態に係る情報処理システム1の構成について、図1を参照して説明する。図1は、本例示的実施形態に係る情報処理システム1の構成を示すブロック図である。
【0015】
情報処理システム1は、仮想空間上でのサービスの提供に用いられるシステムである。以下では、サービスを提供するユーザを第1ユーザ、サービスを提供されるユーザを第2ユーザと称する。
【0016】
情報処理システム1は、図1に示すように、進行部11およびユーザ情報出力部12を備えている。進行部11およびユーザ情報出力部12は、それぞれ本例示的実施形態において、進行手段およびユーザ情報出力手段を実現する構成である。
【0017】
進行部11は、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる。
【0018】
ユーザ情報出力部12は、サービスの進行中に、第2ユーザの状態が所定条件を満たすことが検出されると、第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を出力する。また、所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。
【0019】
以上のように、本例示的実施形態に係る情報処理システム1においては、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる進行部11と、サービスの進行中に、第2ユーザの状態が所定条件を満たすことが検出されると、第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力部12とを備える構成が採用されている。また、所定条件は、第2ユーザの生体情報に基づき取得される感情情報に関する条件を含んでいる。
【0020】
このように、本例示的実施形態に係る情報処理システム1は、サービスを提供する相手である第2ユーザの仮想位置と、第2ユーザの感情が所定条件を満たすこととを含むユーザ情報を出力する。そのため、本例示的実施形態に係る情報処理システム1は、第2ユーザの仮想位置と感情とを考慮したサービスを第1ユーザが提供することを支援することができる。
【0021】
したがって、本例示的実施形態に係る情報処理システム1によれば、仮想空間上でサービスを提供する相手である第2ユーザを、サービスの提供者である第1ユーザが好適にサポートすることを支援することができる。
【0022】
(情報処理方法S1の流れ)
本例示的実施形態に係る情報処理方法S1の流れについて、図2を参照して説明する。図2は、本例示的実施形態に係る情報処理方法S1の流れを示すフロー図である。
【0023】
(ステップS11)
ステップS11において、進行部11は、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる。
【0024】
(ステップS12)
ステップS12において、ユーザ情報出力部12は、サービスの進行中に、第2ユーザの状態が所定条件を満たすことが検出されると、第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を出力する。また、所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。
【0025】
以上のように、本例示的実施形態に係る情報処理方法S1においては、進行部11が、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させるステップS11と、ユーザ情報出力部12が、サービスの進行中に、第2ユーザの状態が所定条件を満たすことが検出されると、第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を出力するステップS12とを含んでいる。また、所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含んでいる。
【0026】
したがって、本例示的実施形態に係る情報処理方法S1によれば、上述した情報処理システム1と同等の効果が得られる。
【0027】
(情報処理装置2の構成)
本例示的実施形態に係る情報処理装置2の構成について、図3を参照して説明する。図3は、本例示的実施形態に係る情報処理装置2の構成を示すブロック図である。
【0028】
情報処理装置2は、仮想空間上でのサービスの提供に用いられる装置である。情報処理装置2は、仮想空間を用いて第1ユーザから第2ユーザに提供されるサービスを、画像を表示することによって進行させる。
【0029】
情報処理装置2は、図3に示すように、進行部21、ユーザ情報出力部22、および表示部23を備えている。進行部21、ユーザ情報出力部22、および表示部23は、それぞれ本例示的実施形態において、進行手段、ユーザ情報出力手段、および表示手段を実現する構成である。
【0030】
進行部21は、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる。
【0031】
ユーザ情報出力部22は、サービスの進行中に、第2ユーザの状態が所定条件を満たすことが検出されると、第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を、第1ユーザが認識可能に出力する。また、所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。
【0032】
表示部23は、仮想空間を示す画像を表示する。
【0033】
一例として、ユーザ情報出力部22は、ユーザ情報を、第2ユーザの仮想空間における仮想位置を示す画像であって、第2ユーザの感情が所定条件を満たすことを第1ユーザが認識可能な画像を、表示部23に出力する。
【0034】
以上のように、本例示的実施形態に係る情報処理装置2においては、仮想空間を示す画像を表示する表示部23と、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる進行部21と、サービスの進行中に、第2ユーザの状態が所定条件を満たすことが検出されると、第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を、第1ユーザが認識可能に出力するユーザ情報出力部22とを備える構成が採用されている。また、所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含んでいる。
【0035】
このように、本例示的実施形態に係る情報処理装置2は、サービスを提供する相手である第2ユーザの位置と、第2ユーザの感情が所定条件を満たすこととを含むユーザ情報を、第1ユーザが認識可能に出力する。そのため、本例示的実施形態に係る情報処理装置2は、第2ユーザの位置と、第2ユーザの感情が所定条件を満たしていることとを、第1ユーザに認識させることができる。
【0036】
したがって、本例示的実施形態に係る情報処理装置2によれば、上述した情報処理システム1と同等の効果が得られる。
【0037】
(情報処理方法S2の構成)
本例示的実施形態に係る情報処理方法S2の流れについて、図4を参照して説明する。図4は、本例示的実施形態に係る情報処理方法S2の流れを示すフロー図である。
【0038】
(ステップS21)
ステップS21において、表示部23は、仮想空間を示す画像を表示する。
【0039】
(ステップS22)
ステップS22において、進行部11は、第1ユーザから第2ユーザに、表示部23が表示した仮想空間上で提供されるサービスを進行させる。
【0040】
(ステップS23)
ステップS23において、ユーザ情報出力部22は、サービスの進行中に、第2ユーザの状態が所定条件を満たすことが検出されると、第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を、第1ユーザが認識可能に出力する。また、所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。
【0041】
以上のように、本例示的実施形態に係る情報処理方法S2においては、表示部23が、仮想空間を示す画像を表示するステップS21と、進行部11が、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させるステップS22と、ユーザ情報出力部12が、サービスの進行中に、第2ユーザの状態が所定条件を満たすことが検出されると、第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を、第1ユーザが認識可能に出力するステップS23とを含んでいる。また、所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含んでいる。
【0042】
したがって、本例示的実施形態に係る情報処理方法S1によれば、上述した情報処理システム1と同等の効果が得られる。
【0043】
〔例示的実施形態2〕
本発明の第2の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
【0044】
(情報処理システム100Aの概要)
本例示的実施形態に係る情報処理システム100Aの概要について、図5を参照して説明する。図5は、本例示的実施形態に係る情報処理システム100Aの構成を示すブロック図である。
【0045】
図5に示すように、本例示的実施形態に係る情報処理システム100Aは、仮想現実デバイス1A、仮想現実デバイス2A、および情報処理装置3Aを備えている。仮想現実デバイス1A、仮想現実デバイス2A、および情報処理装置3Aは、それぞれネットワークNを介して通信可能に接続されている。
【0046】
ネットワークNの具体例としては、例えば、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網(3G、LTE:Long Term Evolution、4G、5G、ローカル5G等)、又は、これらのネットワークの組み合わせが挙げられる。ただし、ネットワークNはこれらに限られない。
【0047】
情報処理システム100Aでは、仮想現実デバイス2Aを使用する第2ユーザに、第1ユーザは仮想現実デバイス1Aを使用して仮想空間上でサービスを提供する。具体的には、情報処理システム100Aでは、情報処理装置3Aが、仮想現実デバイス1Aからサービスを進行させることを示す進行情報を取得する。そして、情報処理装置3Aは、取得した進行情報に基づいて、第1ユーザから第2ユーザに提供されるサービスを進行させる。
【0048】
情報処理装置3Aの例として、据え置き型のコンピュータおよびシングルボードコンピュータが挙げられる。また、仮想現実デバイス1Aおよび仮想現実デバイス2Aの例として、スマートフォン、タブレット、PC(Personal Computer)、ノート型PC、および家庭用ゲーム機が挙げられる。なお、情報処理装置3A、仮想現実デバイス1A、および仮想現実デバイス2Aは、これらに限定されない。
【0049】
図5では、情報処理システム100Aに仮想現実デバイス1Aおよび仮想現実デバイス2Aがそれぞれ1つ含まれている構成であるが、情報処理システム100Aに含まれる仮想現実デバイス1Aおよび仮想現実デバイス2Aの数は限定されない。一例として、情報処理システム100Aには、1つの仮想現実デバイス1Aと、複数の仮想現実デバイス2Aとが含まれていてもよい。換言すると、情報処理システム100Aにおけるサービスは、第1ユーザから複数の第2ユーザに提供されてもよい。
【0050】
情報処理システム100Aに、1つの仮想現実デバイス1Aと、複数の仮想現実デバイス2Aとが含まれている場合の例として、教師が仮想空間上において複数の学生に対して授業を行う仮想空間上での授業が挙げられる。この場合、第1ユーザである教師が仮想現実デバイス1Aを使用し、第2ユーザである複数の学生のそれぞれが仮想現実デバイス2Aを使用する。なお、情報処理システム100Aには、複数の教師がそれぞれ利用する仮想現実デバイス1Aが含まれていてもよい。
【0051】
本例示的実施形態では、第1ユーザである教師が仮想現実デバイス1Aを使用し、第2ユーザである複数の学生のそれぞれが仮想現実デバイス2Aを使用する場合を例に挙げ、説明する。
【0052】
(仮想現実デバイス1Aの構成)
仮想現実デバイス1Aは、図5に示すように、制御部10A、表示部13A、音声出力部14A、入力部17A、および通信部18Aを備えている。
【0053】
表示部13Aは、画像を表示する表示デバイスである。一例として、表示部13Aは、制御部10Aから出力された、第2ユーザの仮想空間における仮想位置と、当該第2ユーザの状態が所定条件を満たすこととを含むユーザ情報に基づき、当該第2ユーザが仮想位置に位置しており、当該第2ユーザの状態が所定条件を満たしていることを、第1ユーザが認識可能な態様で画像表示する。
【0054】
本例示的実施形態においても、所定条件は、第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む。また、所定条件は、第2ユーザの生体情報に基づき取得される行動情報に関する条件を含んでもよい。また、所定条件は、第2ユーザの生体情報に基づき取得される環境情報に関する条件を含んでもよい。感情情報、行動情報、および環境情報については、後述する。
【0055】
表示部13Aの例として、ヘッドマウントディスプレイ、スマートグラス、および液晶ディスプレイが挙げられるが、これらに限定されない。
【0056】
音声出力部14Aは、音声を出力するデバイスである。一例として、音声出力部14Aは、制御部10Aから出力された、第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報に基づき、当該第2ユーザが仮想位置に位置しており、当該第2ユーザの状態が所定条件を満たしていることを、第1ユーザが認識可能な態様で音声出力する。
【0057】
音声出力部14Aの例として、スピーカ、ヘッドフォン、およびイヤフォンが挙げられるが、これらに限定されない。
【0058】
入力部17Aは、データの入力を受け付けるインタフェースである。一例として、入力部17Aは、第1ユーザによって入力された操作であって、サービスを進行させる旨の操作を示す操作情報の入力を受け付ける。他の例として、入力部17Aは、第1ユーザが発した音声を含む音声情報の入力を受け付ける。
【0059】
入力部17Aの例として、キーボード、マウス、およびマイクが挙げられるが、これらに限定されない。
【0060】
通信部18Aは、ネットワークNを介してデータを送受信するインタフェースである。一例として、通信部18Aは、制御部10Aから出力された進行情報を情報処理装置3Aに送信したり、情報処理装置3Aから出力されたユーザ情報を受信したりする。
【0061】
通信部18Aの例として、イーサネット(登録商標)、Wi-Fi(登録商標)、およびローカル5Gといった各種通信規格における通信チップ、およびUSB(Universal Serial Bus)準拠のコネクタが挙げられるが、これらに限定されない。
【0062】
(制御部10Aの機能)
制御部10Aは、仮想現実デバイス1Aが備える各構成要素を制御する。また、制御部10Aは、図5に示すように、進行部11A、ユーザ情報出力部12A、取得部15A、および出力部16Aを備えている。進行部11Aおよびユーザ情報出力部12Aは、それぞれ本例示的実施形態において、進行手段およびユーザ情報出力手段を実現する構成である。
【0063】
進行部11Aは、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる。一例として、進行部11Aは、後述する取得部15Aが取得した操作情報が示す、サービスを進行させる旨の操作に基づき、当該サービスを進行させることを示す進行情報を生成することにより、第1ユーザから第2ユーザに提供されるサービスを進行させる。進行部11Aは、生成した進行情報を出力部16Aに供給する。
【0064】
ユーザ情報出力部12Aは、複数の第2ユーザのそれぞれに関するユーザ情報を出力する。また、ユーザ情報出力部12Aは、状態が所定条件を満たすことが検出された第2ユーザに関するユーザ情報と、所定条件を満たさない第2ユーザに関するユーザ情報とを、判別可能な態様で出力する。
【0065】
そのため、ユーザ情報出力部12Aは、サービスが複数の第2ユーザに提供される場合、所定条件を満たす第2ユーザと所定条件を満たさない第2ユーザとを、第1ユーザに判別させることができる。
【0066】
ここで、第2ユーザに関するユーザ情報とは、第2ユーザの属性を示す情報が含まれる情報を指す。一例として、第2ユーザに関する情報には、第2ユーザの仮想空間における仮想位置を示す仮想位置情報、および第2ユーザの状態が所定条件を満たすことを示す情報の少なくとも何れかが含まれる。
【0067】
仮想位置情報の一例として、仮想空間を示す二次元または三次元のマップ上に、第2ユーザの仮想空間における仮想位置をプロットした当該マップが挙げられる。また、仮想位置情報の他の例として、第2ユーザの仮想空間における仮想位置を音声で表した音声情報が挙げられる。音声情報の具体例としては、例えば、「後ろから三列目の右側の席」という音声を示す音声情報が挙げられる。また、仮想位置情報は、上述したマップおよび音声情報の組み合わせであってもよい。ただし、仮想位置情報は、これらに限られない。
【0068】
また、ユーザ情報出力部12Aは、第2ユーザの仮想空間における仮想位置と、当該第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を表示部13Aに出力することによって、当該第2ユーザが仮想位置において、当該第2ユーザの状態が所定条件を満たしていることを、第1ユーザが認識可能な態様で表示部13Aに表示させてもよい。
【0069】
また、ユーザ情報出力部12Aは、第2ユーザの仮想空間における仮想位置と、当該第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を音声出力部14Aに出力することによって、当該第2ユーザが仮想位置において、当該第2ユーザの状態が所定条件を満たしていることを、第1ユーザが認識可能な態様で音声出力部14Aから音声を出力させてもよい。
【0070】
取得部15Aは、入力部17Aまたは通信部18Aを介してデータを取得する。取得部15Aが取得するデータの例として、サービスを進行させる旨の操作を示す操作情報、およびユーザ情報が挙げられる。
【0071】
出力部16Aは、通信部18Aを介してデータを出力する。出力部16Aが出力するデータの例として、進行部11Aが生成した進行情報が挙げられる。
【0072】
(仮想現実デバイス2Aの構成)
仮想現実デバイス2Aは、図5に示すように、制御部20A、表示部23A、音声出力部24A、入力部27A、通信部28A、およびセンサ29Aを備えている。
【0073】
表示部23Aは、画像を表示する表示デバイスである。一例として、表示部23Aは、制御部20Aから出力されたサービス情報が示すサービスの内容における画像を表示する。
【0074】
表示部23Aの例として、ヘッドマウントディスプレイ、スマートグラス、および液晶ディスプレイが挙げられるが、これらに限定されない。
【0075】
音声出力部24Aは、音声を出力するデバイスである。一例として、音声出力部24Aは、制御部20Aから出力されたサービス情報が示すサービスの内容における音声を出力する。音声出力部24Aの例として、スピーカ、ヘッドフォン、およびイヤフォンが挙げられるが、これらに限定されない。
【0076】
入力部27Aは、データの入力を受け付けるインタフェースである。一例として、入力部27Aは、第2ユーザが利用する仮想空間における仮想位置を示す仮想位置情報を取得する。入力部27Aの例として、キーボード、マウス、およびマイクが挙げられるが、これらに限定されない。
【0077】
通信部28Aは、ネットワークNを介してデータを送受信するインタフェースである。一例として、通信部28Aは、制御部20Aから出力された第2ユーザの生体情報を情報処理装置3Aに送信したり、情報処理装置3Aから出力されたサービス情報を受信したりする。通信部28Aの例として、イーサネット、Wi-Fi、およびローカル5Gといった各種通信規格における通信チップ、およびUSB準拠のコネクタが挙げられるが、これらに限定されない。
【0078】
センサ29Aは、仮想現実デバイス2Aの周辺の情報を示すセンサ情報を出力する。一例として、センサ29Aは、第2ユーザの動き(頭の動き、手の動き)、第2ユーザの歩数、第2ユーザの生理指標、第2ユーザを撮像した画像(目の動き、瞬きに関する情報、注視する動き)、および第2ユーザが発した音声の少なくとも何れかの生体情報をセンサ情報として制御部20Aに出力する。第2ユーザの生理指標の例として、脈波、脳波、心拍、および発汗が挙げられる。
【0079】
センサ29Aの例として、ジャイロセンサ、加速度センサ、カメラ、および脈波センサが挙げられるが、これらに限定されない。
【0080】
(制御部20Aの機能)
制御部20Aは、仮想現実デバイス2Aが備える各構成要素を制御する。また、制御部20Aは、図5に示すように、取得部25Aおよび出力部26Aを備えている。
【0081】
取得部25Aは、入力部27A、通信部28A、およびセンサ29Aから出力されたデータを取得する。取得部25Aが取得するデータの例として、入力部27Aから出力された仮想位置情報、通信部28Aから出力されたサービス情報、およびセンサ29Aから出力された生体情報が挙げられる。
【0082】
出力部26Aは、表示部23A、音声出力部24A、または通信部28Aにデータを出力する。出力部26Aが出力するデータの例として、表示部23Aに出力させる画像、音声出力部24Aに出力させる音声、および通信部28Aに出力する生体情報、仮想位置情報、および仮想現実デバイス2Aを他の仮想現実デバイス2Aなどと識別するための識別情報が挙げられる。識別情報の一例として、仮想現実デバイス2Aのシリアルナンバー、および仮想現実デバイス2Aを使用するユーザのIDが挙げられるが、これらに限定されない。
【0083】
(情報処理装置3Aの構成)
情報処理装置3Aは、図5に示すように、制御部30、通信部38、および記憶部39を備えている。
【0084】
通信部38は、ネットワークNを介してデータを送受信するインタフェースである。一例として、通信部38は、制御部30から出力されたユーザ情報を仮想現実デバイス1Aに送信したり、仮想現実デバイス2Aから出力された生体情報を受信したりする。通信部38の例として、イーサネット、Wi-Fi、およびローカル5Gといった各種通信規格における通信チップ、およびUSB準拠のコネクタが挙げられるが、これらに限定されない。
【0085】
記憶部39には、制御部30が参照するデータが格納されている。記憶部39に格納されているデータの例として、進行情報、および仮想位置情報などが挙げられる。記憶部39の例として、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、または、これらの組み合わせが挙げられるが、これらに限定されない。
【0086】
(制御部30の機能)
制御部30は、情報処理装置3Aが備える各構成要素を制御する。また、制御部30は、図5に示すように、サービス進行部31、出力部32、取得部33、検出部34、および判定部35を備えている。
【0087】
サービス進行部31は、記憶部39に格納されている進行情報に基づいて、仮想空間を用いて第1ユーザから第2ユーザに提供されるサービスを進行させる。一例として、サービス進行部31は、進行情報に基づいて進行させたサービスの内容を示すサービス情報を生成することにより、第1ユーザから第2ユーザに提供されるサービスを進行させる。サービス進行部31は、生成したサービス情報を記憶部39に格納する。
【0088】
出力部32は、通信部38を介してデータを出力する。出力部32が出力するデータの例として、記憶部39に格納されているサービス情報およびユーザ情報が挙げられる。
【0089】
取得部33は、通信部38を介してデータを取得する。一例として、取得部33は、仮想現実デバイス1Aから出力された進行情報を取得する。他の例として、取得部33は、仮想現実デバイス2Aから出力された生体情報、仮想位置情報、および識別情報を取得する。取得部33は、取得したデータを記憶部39に格納する。
【0090】
検出部34は、記憶部39に格納されている第2ユーザの生体情報を参照して、第2ユーザの状態として、第2ユーザの感情を分析する。また、検出部34は、分析した感情が所定条件を満たす第2ユーザを検出する。また、検出部34は、検出した第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を生成する。
【0091】
また、検出部34はさらに、記憶部39に格納されている第2ユーザの生体情報を参照して、ユーザの状態として、第2ユーザの行動および第2ユーザが置かれている環境を分析してもよい。検出部34が実行する処理の例について、後述する。
【0092】
検出部34が分析する第2ユーザの状態の例について、図6を参照して説明する。図6は、本例示的実施形態に係る検出部34が分析する第2ユーザの状態の例を示す表である。
【0093】
検出部34は、第2ユーザの生体情報を参照して、図6に示すように、第2ユーザの状態として、第2ユーザの感情を示す感情分析データを生成する。さらに、検出部34は、第2ユーザの行動を示す行動分析データ、および第2ユーザが置かれている環境を示す環境データを生成してもよい。
【0094】
感情分析データは、感情の分析結果としてデータ属性を示す情報を含む。データ属性の例として、「HAPPY」、「SAD」、「ANGRY」、および「RELAXED」が挙げられる。
【0095】
行動分析データは、行動の分析結果としてデータ属性を示す情報を含む。データ属性の例として、「発話量」、「うなずき」、「視線」、および「覚醒度」が挙げられる。
【0096】
環境データは、環境の分析結果としてデータ属性を示す情報を含む。のデータ属性の例として、「掴んだVRオブジェクト種別」、および「視界に入ったVRオブジェクト種別」が挙げられる。
【0097】
また、図6に示すように、データ属性に応じて、上述したユーザ情報出力部12Aが表示する表示属性種別および属性別表示処理が決められていてもよい。一例として、感情分析データは、データ属性に応じて「表示属性1」の種別で表示され、表示属性1では「色1」~「色4」によって識別可能に表示される。他の例として、行動分析データは、データ属性に応じて「表示属性2」の種別で表示され、表示属性2では「形状1」~「形状4」によって識別可能に表示される。さらに他の例として、環境データは、データ属性に応じて「表示属性3」の種別で表示され、表示属性3では「装飾1」または「装飾2」によって識別可能に表示される。
【0098】
上述したように、検出部34は、行動分析データを生成してもよい。そのため、所定条件は、第2ユーザの生体情報に基づき取得される行動情報(行動分析データ)に関する条件を含む所定条件であってもよい。
【0099】
当該構成により、情報処理システム100Aでは、特定の感情を持っている第2ユーザ、または特定の行動をしている第2ユーザを、第1ユーザに認識させることができる。
【0100】
また、上述したように、検出部34は、環境情報(環境データ)を生成してもよい。そのため、所定条件は、第2ユーザが仮想空間において注目している仮想オブジェクトに関する条件を含む所定条件であってもよい。第2ユーザが仮想空間において注目している仮想オブジェクトに関する条件の例として、第2ユーザが特定の仮想オブジェクトに注目している、および第2ユーザが特定の仮想オブジェクトに接触している、が挙げられるが、これらに限定されない。
【0101】
当該構成により、情報処理システム100Aでは、仮想空間において特定の仮想オブジェクトに注目(接触)している第2ユーザ、および第2ユーザが注目(接触)している仮想オブジェクトを、第1ユーザに認識させることができる。
【0102】
判定部35は、検出部34が所定条件を満たす第2ユーザを検出したか否かを判定する。
【0103】
(検出部34が検出する第2ユーザの状態の例1)
検出部34は、第2ユーザの生体情報を参照して、第2ユーザの状態として第2ユーザの感情を分析する。この場合、検出部34は、既知の技術を用いることにより、第2ユーザの生体情報を参照して第2ユーザが持っている感情の程度を示す感情価と、覚醒度とを算出し、算出した感情価および覚醒度に基づき、感情を分析する。
【0104】
以下では、プラスの感情価は、第2ユーザが快適な感情をどの程度持っていることを示し、マイナスの感情価は、第2ユーザが不快な感情をどの程度持っていることを示す。また、プラスの覚醒度は、第2ユーザがどの程度覚醒しているかを示し、マイナスの覚醒度は、第2ユーザがどの程度眠気を持っているかを示す。
【0105】
例えば、第2ユーザの感情価がプラスであり、覚醒度もプラスであった場合、検出部34は、第2ユーザの感情は「HAPPY」であることを示す感情分析データを生成する。一方、第2ユーザの感情価がプラスであり、覚醒度はマイナスであった場合、検出部34は、第2ユーザの感情は「RELAXED」であることを示す感情分析データを生成する。また、感情分析データには、算出された感情価および覚醒度が含まれていてもよい。
【0106】
また、第2ユーザの感情価がマイナスであり、覚醒度がプラスであった場合、検出部34は、第2ユーザの感情は「ANGRY」であることを示す感情分析データを生成する。一方、第2ユーザの感情価がマイナスであり、覚醒度もマイナスであった場合、検出部34は、第2ユーザの感情は「SAD」であることを示す感情分析データを生成する。ただし、感情分析データは、上述した例に限定されない。
【0107】
(検出部34が検出する第2ユーザの状態の例2)
検出部34は、第2ユーザの生体情報を参照して、第2ユーザの状態として第2ユーザの行動を分析する。
【0108】
一例として、検出部34は、第2ユーザが発した音声を示す生体情報に基づき、第2ユーザが発話しているか否かを検出する。検出部34は、第2ユーザが発話していることを検出すると、第2ユーザが発話していることを示す行動分析データを生成する。
【0109】
他の例として、検出部34は、第2ユーザの頭の動きを示す生体情報に基づき、第2ユーザがうなずいているか否かを検出する。検出部34は、第2ユーザがうなずいている動きを検出すると、第2ユーザがうなずいていることを示す行動分析データを生成する。
【0110】
さらに他の例として、検出部34は、第2ユーザの視線を示す生体情報に基づき、第2ユーザが注目している仮想オブジェクトを検出する。検出部34は、当該仮想オブジェクトを検出すると、第2ユーザが注目している仮想オブジェクトを示す行動分析データを生成する。
【0111】
さらに他の例として、検出部34は、第2ユーザの生理指標を示す生体情報に基づき、第2ユーザがどの程度覚醒しているかを示す覚醒度を算出する。検出部34は、算出した覚醒度を示す行動分析データを生成する。ただし、行動分析データは、上述した例に限定されない。
【0112】
(検出部34が検出する第2ユーザの状態の例3)
検出部34は、第2ユーザの生体情報を参照して、第2ユーザが置かれている環境を分析する。
【0113】
一例として、検出部34は、第2ユーザが仮想オブジェクトに注目しており、さらに、当該仮想オブジェクトを手で掴む動きを検出する。検出部34は、当該動きを検出すると、第2ユーザが仮想オブジェクトを掴んだこと、および当該仮想オブジェクトを示す環境データを生成する。
【0114】
他の例として、検出部34は、第2ユーザの視界に入っている仮想オブジェクトを検出する。検出部34は、当該仮想オブジェクトを検出すると、当該仮想オブジェクトを示す環境データを生成する。ただし、環境データは、上述した例に限定されない。
【0115】
(情報処理方法S100Aの流れ)
本例示的実施形態に係る情報処理方法S100Aの流れについて、図7を参照して説明する。図7は、本例示的実施形態に係る情報処理方法S100Aの流れを示すフロー図である。
【0116】
情報処理方法S100Aは、サービスの進行中に実行される。例えば、情報処理方法S100Aは、サービスの進行中に、所定間隔で繰り返し実行されてもよい。これにより、仮想現実デバイス1Aの表示部13Aには、所定条件を満たす第2ユーザの仮想位置がリアルタイムに表示される。
【0117】
また、図7では、仮想現実デバイス2Aが実行する処理が記載されているが、情報処理方法S100Aでは、複数の仮想現実デバイス2Aが実行する処理を、他の仮想現実デバイス2A等も実行する。
【0118】
(ステップS101)
ステップS101において、仮想現実デバイス2Aの取得部25Aは、センサ29Aから出力された生体情報を取得する。取得部25Aは、取得した生体情報を出力部26Aに供給する。
【0119】
(ステップS102)
ステップS102において、出力部26Aは、取得部25Aから供給された生体情報を情報処理装置3Aに出力する。また、ステップS102において、出力部26Aは、仮想空間における第2ユーザの仮想位置を示す仮想位置情報、および仮想現実デバイス2Aを他の仮想現実デバイス2Aなどと識別するための識別情報を、生体情報とともに情報処理装置3Aに出力する。
【0120】
(ステップS103)
ステップS103において、情報処理装置3Aの取得部33は、仮想現実デバイス2Aから出力された生体情報を取得する。また、ステップS103において、取得部33は、仮想現実デバイス2Aから出力された仮想位置情報および識別情報を取得する。取得部33は、取得した生体情報、仮想位置情報、および識別情報を関連付けて記憶部39に格納する。
【0121】
(ステップS104)
仮想現実デバイス1Aの表示部13Aは、仮想空間を示す画像を表示する。
【0122】
(ステップS105)
ステップS105において、取得部15Aは、入力部17Aから出力された操作情報を取得する。進行部11Aは、取得部15Aが取得した操作情報が示す、サービスを進行させる旨の操作に基づき、当該サービスを進行させることを示す進行情報を生成する。次に、進行部11Aは、生成した進行情報を出力部16Aに供給する。
【0123】
(ステップS106)
ステップS106において、出力部16Aは、進行部11Aが生成した進行情報を情報処理装置3Aに出力する。
【0124】
(ステップS107)
ステップS107において、情報処理装置3Aの取得部33は、仮想現実デバイス1Aから出力された進行情報を取得する。取得部33は、取得した進行情報を記憶部39に格納する。
【0125】
(ステップS108)
ステップS108において、サービス進行部31は、記憶部39に格納されている進行情報に基づいて進行させたサービスの内容を示すサービス情報を生成する。サービス進行部31は、生成したサービス情報を記憶部39に格納する。
【0126】
ここで、図7には不図示であるが、出力部32は、サービス進行部31が生成したサービス情報を、仮想現実デバイス2Aに出力する。仮想現実デバイス2Aの取得部25Aは、当該サービス情報を取得し、当該サービス情報を出力部26Aに供給する。出力部26Aは、当該サービス情報に基づき、表示部23Aに表示させる画像および音声出力部24Aに出力させる音声の少なくとも何れかを変更することにより、サービスが進行される。
【0127】
また、上述したステップS101~ステップS103と、ステップS104~ステップS107との処理順は、限定されない。例えば、ステップS101~ステップS103と、ステップS104~ステップS106とは、それぞれ異なる所定の時間間隔で実行されてもよい。
【0128】
(ステップS109)
ステップS109において、検出部34は、サービスの進行中に、状態が所定条件を満たす第2ユーザを検出する。
【0129】
例えば、所定条件が感情分析データに関する条件であって、感情が「HAPPY」であること、であった場合、検出部34は、感情分析データが示す感情が「HAPPY」である第2ユーザを検出する。
【0130】
他の例として、所定条件が行動分析データに関する条件であって、行動が「発話していること」であった場合、検出部34は、行動分析データが示す行動が「発話していること」である第2ユーザを検出する。
【0131】
さらに他の例として、所定条件が環境データに関する条件であって、環境が「仮想オブジェクトを掴んでいる」であった場合、検出部34は、環境データが示す環境が、第2ユーザが仮想オブジェクトを掴んだこと、および当該仮想オブジェクトを示している第2ユーザを検出する。
【0132】
検出部34は、記憶部39に格納されている仮想位置情報および識別情報を参照し、検出した第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を生成する。ここで、検出部34は、算出した感情価を、ユーザ情報に含めてもよい。
【0133】
(ステップS110)
ステップS110において、判定部35は、検出部34が所定条件を満たす第2ユーザを検出したか否かを判定する。ステップS110において、検出部34が所定条件を満たす第2ユーザを検出していないと判定された場合(ステップS110:NO)、情報処理方法S100Aの処理はステップS101に戻る。
【0134】
(ステップS111)
ステップS110において、検出部34が所定条件を満たす第2ユーザを検出したと判定された場合(ステップS110:YES)、ステップS111において、出力部32は、検出部34が生成したユーザ情報を仮想現実デバイス1Aに出力する。また、ステップS111において、出力部32は、検出部34が検出した第2ユーザ以外の第2ユーザの仮想位置を示す仮想位置情報を含むユーザ情報を、あわせて仮想現実デバイス1Aに出力してもよい。
【0135】
(ステップS112)
ステップS112において、仮想現実デバイス1Aの取得部15Aは、情報処理装置3Aから出力されたユーザ情報を取得する。取得部15Aは、取得したユーザ情報をユーザ情報出力部12Aに供給する。
【0136】
(ステップS113)
ステップS113において、ユーザ情報出力部12Aは、取得部15Aから供給されたユーザ情報を出力する。すなわち、ユーザ情報出力部12Aは、状態が所定条件を満たす第2ユーザの仮想空間における仮想位置と、当該第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を出力する。さらに、ユーザ情報出力部12Aは、第2ユーザの仮想空間における仮想位置と、当該第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を、第1ユーザが認識可能に出力する。
【0137】
(出力されるユーザ情報の例1)
ユーザ情報出力部12Aが出力するユーザ情報の一例について、図8を参照して説明する。図8は、本例示的実施形態に係るユーザ情報出力部12Aが出力する画像の一例を示す図である。図8では、ユーザ情報出力部12Aは、特定の学生(感情が任意の感情になった学生、発話のあった学生、および仮想オブジェクトに関する条件を満たす学生)を、他の学生と判別可能に表示する。
【0138】
まず、ユーザ情報出力部12Aは、図8の左側に示すように、仮想位置情報および識別情報を参照し、第2ユーザである複数の学生(学生_A~学生_T)のそれぞれが位置する仮想位置に、当該学生が位置していることを示す画像を表示する。
【0139】
さらに、所定条件が、学生の状態が任意の感情になったこと、であった場合、すなわち、ユーザ情報に学生の感情を示す情報が含まれている場合を想定する。この場合、ユーザ情報出力部12Aは、ユーザ情報を参照して、図8の左側に示すように、学生_A~学生_Tのそれぞれの感情が、「HAPPY」、「ANGRY」、「RELAXED」、および「SAD」の何れであるかを、教師が認識可能な色によって表示する。例えば、図8の左側に示す図では、学生_Kは感情が「HAPPY」であり、学生_Mは感情が「SAD」であることが、認識可能に表示されている。
【0140】
また、ユーザ情報出力部12Aは、図8の左側に示すように、第2ユーザである学生_A~学生_Tのうち、発話のあった学生と、発話のない学生とを、第1ユーザである教師が認識可能な形状によって表示する。例えば、図8の左側に示す図では、学生_Kは発話があり、学生_Mは発話がないことが、認識可能に表示されている。
【0141】
また、ユーザ情報出力部12Aは、図8の左側に示すように、第2ユーザである学生_A~学生_Tのうち、所定の仮想オブジェクトを掴んだ学生と、視界に所定の仮想オブジェクトが入っている学生とを、第1ユーザである教師が認識可能な装飾によって表示する。例えば、図8の左側に示すように、学生_Kは所定の仮想オブジェクトを掴んでおり、学生_Eは視界に所定の仮想オブジェクトが入っていることが、認識可能に表示されている。
【0142】
また、ユーザ情報出力部12Aは、学生全体に対して、ある状態になっている学生の割合を示す画像を表示してもよい。例えば、ユーザ情報出力部12Aは、図8の右側の上側に示すように、学生全体に対して、感情が「HAPPY」の学生の割合(60%)、感情が「ANGRY」の学生の割合(15%)、感情が「SAD」の学生の割合(15%)、および感情が「RELAXED」の学生の割合(10%)を、円グラフによって表示する。
【0143】
また、ユーザ情報に、感情価と覚醒度とが含まれている場合、ユーザ情報出力部12Aは、各学生の感情価と覚醒度とを座標軸とした画像を表示してもよい。例えば、ユーザ情報出力部12Aは、図8の右側の下側に示すように、x軸を感情価、y軸を覚醒度として、各学生の感情価と覚醒度とをプロットしたグラフを表示する。
【0144】
このように、ユーザ情報出力部12Aは、仮想空間上でのサービスの進行中に、学生(第2ユーザ)がどのような状態になっているのか、リアルタイムに教師(第1ユーザ)に認識させることができる。
【0145】
また、ユーザ情報出力部12Aは、第2ユーザのそれぞれが位置する仮想位置に、当該第2ユーザが位置していることを示す画像を表示する。そのため、ユーザ情報出力部12Aは、例えば、ある状態の第2ユーザが特定の位置に集まっている場合、第1ユーザに当該特定の位置に位置している第2ユーザは当該ある状態になりやすいことを、第1ユーザに認識させることができる。
【0146】
(出力されるユーザ情報の例2)
ユーザ情報出力部12Aが出力するユーザ情報の他の例について、図9を参照して説明する。図9は、本例示的実施形態に係るユーザ情報出力部12Aが出力する画像の他の例を示す図である。
【0147】
まず、上述したステップS112において、仮想現実デバイス1Aの取得部15Aは、取得したユーザ情報を、記憶部(図5には不図示)に格納する。すなわち、仮想現実デバイス1Aは、取得したユーザ情報の履歴を取る。本例では、ユーザ情報出力部12Aは、記憶部に格納されているユーザ情報の履歴を参照して、各学生の状態の履歴を示す画像を表示する。
【0148】
例えば、所定条件に、学生が発話している状態になったこと、が含まれている場合、すなわち、学生が発話していることを示す情報がユーザ情報に含まれている場合を想定する。この場合、ユーザ情報出力部12Aは、記憶部に格納されているユーザ情報の履歴を参照して、各学生がこれまで発話した時間を計測する。そして、ユーザ情報出力部12Aは、図9のグラフG1に示すように、各学生がこれまで発話した時間を示す棒グラフを表示する。
【0149】
また、ユーザ情報出力部12Aは、特定の学生の発話量を、表示してもよい。換言すると、ユーザ情報出力部12Aは、特定の学生の生体情報の少なくとも1つを、表示してもよい。
【0150】
他の例として、所定条件に、学生が覚醒している状態であること、および学生が発話している状態になったこと、が含まれている場合、すなわち、ユーザ情報に、学生の覚醒度と学生が発話していることを示す情報とが含まれている場合を想定する。この場合、ユーザ情報出力部12Aは、記憶部に格納されているユーザ情報の履歴を参照して、各学生がこれまで発話した時間を計測する。そして、ユーザ情報出力部12Aは、図9のグラフG2に示すように、x軸を覚醒度、y軸を発話時間として、各学生の覚醒度と発話量とをプロットしたグラフを表示する。
【0151】
また、さらに他の例として、所定条件が、学生の感情が任意の感情になったこと、であり、さらに、所定条件に、学生が発話している状態になったことが含まれている場合、すなわち、ユーザ情報に、学生が発話していることと学生の感情とがユーザ情報に含まれている場合を想定する。この場合、ユーザ情報出力部12Aは、記憶部に格納されているユーザ情報の履歴を参照して、各学生がこれまでに発話した時間を計測する。そして、ユーザ情報出力部12Aは、図9のグラフG3に示すように、各時刻における各学生の発話量と、各時刻において、学生全体に対して、ある感情になっている学生の割合を示す画像を表示する。
【0152】
なお、ユーザ情報の履歴は、情報処理装置3Aの記憶部39に格納されていてもよい。この場合、情報処理装置3Aの出力部32は、仮想現実デバイス1Aからの要求により、ユーザ情報の履歴を出力すればよい。
【0153】
このように、ユーザ情報出力部12Aは、ユーザ情報の履歴を参照して、発話量と第2ユーザの状態との関係を、第1ユーザに認識させることができる。そのため、ユーザ情報出力部12Aは、第1ユーザに、ユーザの状態に応じて第2ユーザに発話させる(または発話させない)ことにより、第2ユーザをサービスに適した状態にさせることができる。
【0154】
(出力されるユーザ情報の例3)
教師(第1ユーザ)から学生(第2ユーザ)に提供されるサービスは、複数の要素サービスを含んでいてもよい。要素サービスとは、サービスを構成する要素であり、例えば、時間的な構成要素、空間的な構成要素、およびこれらの組み合わせ等であってもよい。
【0155】
時間的な構成要素である要素サービスの一例としては、サービスが提供される期間のうち部分的な期間において提供される要素サービスが挙げられる。そのような要素サービスの一例としては、後述する図9のグラフG3示したような、授業の導入、前半パート、グループワーク、後半パートが挙げられる。
【0156】
また、空間的な構成要素である要素サービスの一例としては、サービスが提供される空間のうち部分的な空間において提供される要素サービスが挙げられる。そのような要素サービスの一例としては、教室の左側、右側でそれぞれ進行するグループワーク、会場の1階、2階でそれぞれ進行するディスカッション、会場内の一部で進行する映像コンテンツの視聴などが挙げられる。ただし、要素サービスは、上述した具体例に限られない。
【0157】
例えば、図9のグラフG3に示すように、教師から学生に提供されるサービスは、要素サービスとして、「導入」、「前半パート」、「グループワーク」、および「後半パート」を含んでいてもよい。一例として、サービス提供中における要素サービスを示す情報は、仮想現実デバイス1Aから情報処理装置3Aに出力される進行情報に含まれていてもよい。
【0158】
この場合、ユーザ情報出力部12Aは、複数の要素サービスのうち教師によって指定された要素サービスの進行中に、学生の状態が所定条件を満たすことが検出されると、当該学生に関するユーザ情報に、当該学生の仮想空間における仮想位置と、当該学生の状態が所定条件を満たすこととを含めて出力してもよい。
【0159】
例えば、情報処理装置3Aの取得部33が、仮想現実デバイス1Aから、要素サービスを指定する情報として、「前半パート」を指定する情報を取得した場合を想定する。この場合、検出部34は、進行中のサービスが「前半パート」になると、状態が所定条件を満たす第2ユーザを検出する処理(上述したステップS109)を実行する。以降、上述したステップS110~ステップS113が実行される。
【0160】
また、ユーザ情報出力部12Aは、サービス提供後、教師によって指定された要素サービスの期間におけるユーザ情報を出力する構成であってもよい。例えば、仮想現実デバイス1Aの取得部15Aが、要素サービス「グループワーク」を指定する旨を示す操作情報を取得した場合を想定する。この場合、ユーザ情報出力部12Aは、記憶部に格納されているユーザ情報の履歴を参照して、「グループワーク」の期間におけるユーザ情報を出力する。
【0161】
このように、ユーザ情報出力部12Aは、要素サービスを指定されることにより、指定された要素サービスの期間における第2ユーザの状態を第1ユーザに認識させることができる。
【0162】
(出力されるユーザ情報の例4)
ユーザ情報出力部12Aが出力するユーザ情報のさらに他の例について、図10を参照して説明する。図10は、本例示的実施形態に係るユーザ情報出力部12Aが出力する画像のさらに他の例を示す図である。
【0163】
ユーザ情報出力部12Aは、第2ユーザの状態が所定条件を満たした時点におけるユーザ情報を少なくとも記憶装置に記憶しておいてもよい。また、ユーザ情報出力部12Aは、サービスの進行中または終了後に記憶装置を参照して、第2ユーザの状態が少なくとも過去において所定条件を満たしたことを、第1ユーザが認識可能に出力してもよい。ユーザ情報出力部12Aがユーザ情報を記憶させる記憶装置の例として、仮想現実デバイス1Aが備える記憶部(図5に不図示)および情報処理装置3Aの記憶部39が挙げられる。
【0164】
例えば、ユーザ情報出力部12Aは、図10に示すように、サービス進行中に、図8に示した図に、操作を受け付ける操作子OP1を追加した画像を表示する。一例として、取得部15Aが、画像を停止させる旨を示す操作を示す操作情報を取得した場合、ユーザ情報出力部12Aは、サービス進行中に表示している画像を停止させる。
【0165】
また、サービス終了後に、取得部15Aが、提供したサービスのある時点(例えば、サービス開始時点、サービス開始から所定時間経過した時点、サービスが複数の要素サービスを含む場合は、ある要素サービスの開始時点、など)を示す旨の操作情報を取得した場合を想定する。この場合、ユーザ情報出力部12Aは、図10に示すように、ある時点における、学生の仮想位置と、学生の状態が所定条件を満たすこととを含むユーザ情報と、操作を受け付ける操作子OP1とを含む画像を表示する。
【0166】
また、取得部15Aが、所定の時間を進める(または、所定の時間戻す)操作を示す操作情報を取得した場合、ユーザ情報出力部12Aは、表示したある時点から所定の時間進めた(または、所定の時間戻した)学生の仮想位置と、学生の状態が所定条件を満たすこととを含むユーザ情報とを含む画像を表示する。
【0167】
このように、ユーザ情報出力部12Aは、サービスの進行中または終了後に、ユーザ情報を記憶した記憶装置を参照して、第2ユーザの状態が過去において少なくとも所定条件を満たしたことを、第1ユーザが認識可能に出力する。そのため、ユーザ情報出力部12Aは、第1ユーザにサービス提供中であっても、過去に第2ユーザがどの状態になったのかを認識させることができる。また、ユーザ情報出力部12Aは、サービス提供後であっても、過去に第2ユーザがどの状態になったのかを認識させることができる。
【0168】
(出力されるユーザ情報の例5)
ユーザ情報出力部12Aが出力するユーザ情報のさらに他の例について、図11を参照して説明する。図11は、本例示的実施形態に係るユーザ情報出力部12Aが出力する画像のさらに他の例を示す図である。
【0169】
上述した例2において、所定条件に、第2ユーザが仮想空間において注目している仮想オブジェクトがある、が含まれている場合、すなわち、ユーザ情報に学生が注目している仮想オブジェクトを示す情報が含まれている場合を想定する。この場合、ユーザ情報出力部12Aは、記憶部に格納されているユーザ情報を参照して、仮想オブジェクト毎に、各学生が注目している時間を計測する。そして、ユーザ情報出力部12Aは、図11に示すように、各学生が注目している仮想オブジェクトと、注目していた時間とを関連付けた表を表示する。
【0170】
図11に示す表には、例えば、学生_Aは、仮想空間における学生_Bを示す仮想オブジェクトを140秒間、注目していたことが示されている。また、図11に示す表には、学生_Bは、仮想空間における先生を示す仮想オブジェクトを680秒間、注目していたことが示されている。
【0171】
また、取得部15Aが、第1ユーザから仮想オブジェクトを指定する旨の操作情報を取得した場合、ユーザ情報出力部12Aは、当該操作情報によって指定された仮想オブジェクトに注目している学生を、他の学生と認識可能に表示してもよい。
【0172】
このように、ユーザ情報出力部12Aは、ユーザ情報の履歴を参照して、第2ユーザが注目している仮想オブジェクトと、注目している時間との関係を、第1ユーザに認識させることができる。そのため、例えば、グループワークなど、複数の第2ユーザが話し合う場において、第2ユーザがグループワークに参加できているかどうかを、第1ユーザに認識させることができる。
【0173】
(情報処理システム100Aの効果)
以上のように、本例示的実施形態に係る情報処理システム100Aにおいては、仮想現実デバイス1Aは、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる進行部11Aと、サービスの進行中に、第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの仮想空間における仮想位置と、当該第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力部12Aとを備える構成が採用されている。
【0174】
したがって、本例示的実施形態に係る情報処理システム100Aによれば、仮想空間上のサービスを提供する相手である第2ユーザを、サービスの提供者である第1ユーザが好適にサポートすることを支援することができる。
【0175】
(変形例1)
例示的実施形態2では、複数の第2ユーザがそれぞれ使用する仮想現実デバイス2Aの全てから生体情報を取得しなくてもよく、所定の条件を満たす第2ユーザが使用する仮想現実デバイス2Aから、生体情報を取得する構成であってもよい。一例として、何れかの第2ユーザが発話したことを検出した場合に、当該第2ユーザが使用する仮想現実デバイス2Aから生体情報を取得し、発話を検出していない第2ユーザが使用する仮想現実デバイス2Aからは生体情報を取得しなくてもよい。
【0176】
また、例示的実施形態2では、情報処理システム100Aに、1つの仮想現実デバイス1Aと、複数の仮想現実デバイス2Aとが含まれている場合について説明した。これに限らず、情報処理システム100Aに、1つの仮想現実デバイス1Aと、1つの仮想現実デバイス2Aとが含まれる構成であってもよい。一例として、1人の教師が仮想現実デバイス1Aを使用し、1人の学生が仮想現実デバイス2Aを使用し、教師が学生に仮想空間上での授業を行ってもよい。
【0177】
この場合、仮想現実デバイス1Aは、1人の学生(第2ユーザ)の状態が所定条件を満たすことが検出されると、当該学生の仮想空間における仮想位置と、当該学生の状態が所定条件を満たすこととを含むユーザ情報を、1人の教師(第1ユーザ)が認識可能な態様で出力する。
【0178】
このように、情報処理システム100Aでは、第1ユーザおよび第2ユーザの数(換言すると、仮想現実デバイス1Aおよび仮想現実デバイス2Aの数)は限定されず、様々な形態において用いられことができる。
【0179】
(変形例2)
例示的実施形態2では、第1ユーザから第2ユーザに仮想空間上で提供されるサービスとして、教師が仮想空間上において複数の学生に対して授業を行う仮想空間上での授業を例に挙げたが、当該サービスはこれに限定されない。当該サービスの他の例として、講演および会議が挙げられる。
【0180】
情報処理システム100Aを講演に用いる場合、第1ユーザである講演者が仮想現実デバイス1Aを使用し、第2ユーザである聴衆が仮想現実デバイス2Aを使用してもよい。
【0181】
情報処理システム100Aを会議に用いる場合、第1ユーザである発言者が仮想現実デバイス1Aを使用し、第2ユーザである他の参加者が仮想現実デバイス2Aを使用してもよい。
【0182】
このように、情報処理システム100Aでは、様々なシーンにおいて用いられることができる。
【0183】
〔例示的実施形態3〕
本発明の第3の例示的実施形態について、図面を参照して詳細に説明する。なお、上述の例示的実施形態にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
【0184】
(情報処理システム200Aの概要)
本例示的実施形態に係る情報処理システム200Aの概要について、図12を参照して説明する。図12は、本例示的実施形態に係る情報処理システム200Aの構成を示すブロック図である。
【0185】
図12に示すように、本例示的実施形態に係る情報処理システム200Aは、仮想現実デバイス4A、仮想現実デバイス2A、および情報処理装置6Aを備えている。仮想現実デバイス4A、仮想現実デバイス2A、および情報処理装置6Aは、それぞれネットワークNを介して通信可能に接続されている。
【0186】
情報処理システム200Aでは、上述した情報処理システム100Aと同様、仮想現実デバイス2Aを使用する第2ユーザに、第1ユーザは仮想現実デバイス4Aを使用して仮想空間上でサービスを提供する。なお、仮想現実デバイス2Aは、上述した情報処理システム100Aにおける仮想現実デバイス2Aと同じ機能を有しているため、説明を省略する。
【0187】
(仮想現実デバイス4Aの構成)
仮想現実デバイス4Aは、図12に示すように、制御部40A、表示部13A、音声出力部14A、入力部17A、および通信部18Aを備えている。表示部13A、音声出力部14A、入力部17A、および通信部18Aの機能については、上述した通りである。
【0188】
制御部40Aは、仮想現実デバイス4Aが備える各構成要素を制御する。また、制御部40Aは、図12に示すように、進行部11A、ユーザ情報出力部12A、取得部45A、出力部16A、第2ユーザ検出部41A、および判定部42Aを備えている。進行部11A、ユーザ情報出力部12A、取得部45A、および第2ユーザ検出部41Aは、それぞれ本例示的実施形態において、進行手段、ユーザ情報出力手段、取得手段、および検出手段を実現する構成である。進行部11A、ユーザ情報出力部12A、および出力部16Aの機能については、上述した通りである。
【0189】
取得部45Aは、サービス進行中に、第2ユーザの状態を示す情報を取得する。第2ユーザの状態を示す情報として、第2ユーザの感情を示す感情情報、第2ユーザの行動を示す行動情報、および第2ユーザが置かれている環境を示す環境情報が挙げられる。
【0190】
第2ユーザ検出部41Aは、サービス進行中に、取得部45Aが取得した情報が示す状態が所定条件を満たす第2ユーザを検出する。所定条件については、上述した通りである。
【0191】
判定部42Aは、第2ユーザ検出部41Aが所定条件を満たすユーザを検出したか否かを判定する。
【0192】
(情報処理装置6Aの構成)
情報処理装置6Aは、図12に示すように、制御部60、通信部38、および記憶部39を備えている。通信部38および記憶部39の機能については、上述した通りである。
【0193】
制御部60は、情報処理装置6Aが備える各構成要素を制御する。また、制御部60は、図12に示すように、サービス進行部31、出力部32、取得部33、および分析部64を備えている。サービス進行部31、出力部32、および取得部33の機能については、上述した通りである。
【0194】
分析部64は、第2ユーザの生体情報を参照して、第2ユーザの状態を分析する。分析部64が第2の状態を分析する方法については、上述した通りである。分析部64は、分析した第2ユーザの状態を示す情報を、記憶部39に格納する。
【0195】
(情報処理方法S200Aの流れ)
本例示的実施形態に係る情報処理方法S200Aの流れについて、図13を参照して説明する。図13は、本例示的実施形態に係る情報処理方法S200Aの流れを示すフロー図である。
【0196】
(ステップS101~ステップS108)
仮想現実デバイス2Aが生体情報を取得するステップS101から、情報処理装置6Aがサービスを進行するステップS108までの処理については、上述した通りである。
【0197】
(ステップS201)
ステップS201において、情報処理装置6Aの分析部64は、第2ユーザの生体情報を参照して、第2ユーザの状態を分析する。分析部64は、分析した第2ユーザの状態を示す情報を、記憶部39に格納する。
【0198】
(ステップS202)
ステップS202において、出力部32は、分析部64が分析した第2ユーザの状態を示す情報を仮想現実デバイス4Aに出力する。ここで、出力部32は、当該第2ユーザの仮想位置を示す仮想位置情報を、ステップS202において仮想現実デバイス4Aに出力してもよい。
【0199】
(ステップS203)
ステップS203において、取得部45Aは、情報処理装置6Aから出力された第2ユーザの状態を示す情報を取得する。取得部45Aは、取得した情報を第2ユーザ検出部41Aに供給する。
【0200】
(ステップS204)
ステップS204において、第2ユーザ検出部41Aは、取得部45Aから供給された情報が示す状態が所定条件を満たす第2ユーザを検出する。第2ユーザ検出部41Aは、検出した第2ユーザの仮想空間における仮想位置と、第2ユーザの状態が所定条件を満たすこととを含むユーザ情報を生成する。
【0201】
(ステップS205)
ステップS205において、判定部42Aは、第2ユーザ検出部41Aが所定条件を満たす第2ユーザを検出したか否かを判定する。ステップS205において、第2ユーザ検出部41Aが所定条件を満たす第2ユーザを検出していないと判定された場合(ステップS205:NO)、情報処理方法S200Aの処理はステップS101に戻る。
【0202】
(ステップS113)
ステップS205において、第2ユーザ検出部41Aが所定条件を満たす第2ユーザを検出したと判定された場合(ステップS205:YES)、ステップS113において、ユーザ情報出力部12Aは、ステップS204において生成されたユーザ情報を出力する。
【0203】
(情報処理システム200Aの効果)
以上のように、本例示的実施形態に係る情報処理システム200Aにおいては、仮想現実デバイス4Aは、サービス進行中に、ユーザの状態を示す情報を取得する取得部45Aと、サービス進行中に、取得部45Aが取得した情報が示す状態が所定条件を満たす第2ユーザを検出する第2ユーザ検出部41Aとを備える構成を採用している。
【0204】
そのため、本例示的実施形態に係る情報処理システム200Aにおいては、仮想現実デバイス4Aは、第2ユーザの状態を示す情報を取得することにより、第2ユーザの状態が所定条件を満たしていることを、第1ユーザに認識させることができる。
【0205】
〔ソフトウェアによる実現例〕
情報処理システム1、情報処理装置2、3A、6A、仮想現実デバイス1A、2A、4Aの一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
【0206】
後者の場合、情報処理システム1、情報処理装置2、3A、6A、仮想現実デバイス1A、2A、4Aは、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図14に示す。コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを情報処理システム1、情報処理装置2、3A、6A、仮想現実デバイス1A、2A、4Aとして動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、情報処理システム1、情報処理装置2、3A、6A、仮想現実デバイス1A、2A、4Aの各機能が実現される。
【0207】
プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、TPU(Tensor Processing Unit)、量子プロセッサ、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
【0208】
なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
【0209】
また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。
【0210】
〔付記事項1〕
本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
【0211】
〔付記事項2〕
上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
【0212】
(付記1)
第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる進行手段と、前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力手段と、を備え、前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む、情報処理システム。
【0213】
(付記2)
前記サービスは、前記第1ユーザから複数の前記第2ユーザに提供され、前記ユーザ情報出力手段は、複数の前記第2ユーザのそれぞれに関するユーザ情報を出力し、状態が前記所定条件を満たすことが検出された第2ユーザに関するユーザ情報と、前記所定条件を満たさない第2ユーザに関するユーザ情報とを、判別可能な態様で出力する、付記1に記載の情報処理システム。
【0214】
(付記3)
前記所定条件は、前記第2ユーザの生体情報に基づき取得される行動情報に関する条件を含む、付記1または2に記載の情報処理システム。
【0215】
(付記4)
前記所定条件は、前記第2ユーザが前記仮想空間において注目している仮想オブジェクトに関する条件を含む、付記1~3の何れかに記載の情報処理システム。
【0216】
(付記5)
前記サービスは、複数の要素サービスを含み、前記ユーザ情報出力手段は、前記複数の要素サービスのうち前記第1ユーザによって指定された要素サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザに関する前記ユーザ情報に、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が所定条件を満たすこととを含めて出力する、付記1~4の何れかに記載の情報処理システム。
【0217】
(付記6)
前記ユーザ情報出力手段は、前記第2ユーザの状態が前記所定条件を満たした時点における前記ユーザ情報を少なくとも記憶装置に記憶しておき、前記サービスの進行中または終了後に前記記憶装置を参照して、前記第2ユーザの状態が少なくとも過去において前記所定条件を満たしたことを、前記第1ユーザが認識可能に出力する、付記1~5の何れかに記載の情報処理システム。
【0218】
(付記7)
前記サービスの進行中に、前記第2ユーザの状態を示す情報を取得する取得手段と、前記サービスの進行中に、前記情報が示す状態が所定条件を満たす第2ユーザを検出する検出手段、をさらに備える、付記1~6の何れかに記載の情報処理システム。
【0219】
(付記8)
仮想空間を示す画像を表示する表示手段と、第1ユーザから第2ユーザに前記仮想空間上で提供されるサービスを進行させる進行手段と、前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を、前記第1ユーザが認識可能に出力するユーザ情報出力手段と、を備え、前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む、情報処理装置。
【0220】
(付記9)
情報処理システムが、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させることと、前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力することと、を含み、前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む、情報処理方法。
【0221】
(付記10)
コンピュータを情報処理システムとして機能させるプログラムであって、前記コンピュータを、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる進行手段と、前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力手段と、として機能させ、前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む、プログラム。
【0222】
(付記11)
少なくとも1つのプロセッサを備え、前記プロセッサは、第1ユーザから第2ユーザに仮想空間上で提供されるサービスを進行させる進行処理と、前記サービスの進行中に、前記第2ユーザの状態が所定条件を満たすことが検出されると、当該第2ユーザの前記仮想空間における仮想位置と、当該第2ユーザの状態が前記所定条件を満たすこととを含むユーザ情報を出力するユーザ情報出力処理と、を実行し、前記所定条件は、前記第2ユーザの生体情報に基づき取得される感情情報に関する条件を含む、情報処理装置。
【0223】
なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記進行処理と、前記ユーザ情報出力処理と、を前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
【符号の説明】
【0224】
1、100A、200A 情報処理システム
1A、2A、4A 仮想現実デバイス
2、3A、6A 情報処理装置
10A、20A、30、40A、60 制御部
11、11A、21 進行部
12、12A、22 ユーザ情報出力部
13A、23、23A 表示部
14A、24A 音声出力部
15A、25A、33、45A 取得部
16A、26A、32 出力部
17A、27A 入力部
18A、28A、38 通信部
29A センサ
31 サービス進行部
34 検出部
35、42A 判定部
39 記憶部
41A 第2ユーザ検出部
64 分析部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14