(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024113877
(43)【公開日】2024-08-23
(54)【発明の名称】ユーザ特性判定装置
(51)【国際特許分類】
G06F 3/01 20060101AFI20240816BHJP
【FI】
G06F3/01 510
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2023019134
(22)【出願日】2023-02-10
(71)【出願人】
【識別番号】392026693
【氏名又は名称】株式会社NTTドコモ
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100121980
【弁理士】
【氏名又は名称】沖山 隆
(74)【代理人】
【識別番号】100128107
【弁理士】
【氏名又は名称】深石 賢治
(74)【代理人】
【識別番号】100183081
【弁理士】
【氏名又は名称】岡▲崎▼ 大志
(72)【発明者】
【氏名】松永 透
(72)【発明者】
【氏名】片岡 敬志郎
(72)【発明者】
【氏名】上田 一将
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA71
5E555BA02
5E555BA04
5E555BB02
5E555BB04
5E555BC04
5E555BE17
5E555CB16
5E555CB49
5E555DB32
5E555EA05
5E555FA00
(57)【要約】
【課題】ユーザの行動特性を容易且つ適切に判定することができるユーザ特性判定装置を提供する。
【解決手段】一実施形態のユーザ特性判定装置10は、ユーザに関連付けられたアバターA1を動作させることが可能に構成された仮想空間VS内において、ユーザがアバターA1に実行させたアクションに関するアクション情報を取得する取得部12と、所定期間において取得部12により取得されたアクション情報に基づいて、ユーザの行動特性を判定する判定部14と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
ユーザに関連付けられたアバターを動作させることが可能に構成された仮想空間内において、前記ユーザが前記アバターに実行させたアクションに関するアクション情報を取得する取得部と、
所定期間において前記取得部により取得された前記アクション情報に基づいて、前記ユーザの行動特性を判定する判定部と、
を備える、ユーザ特性判定装置。
【請求項2】
前記判定部により判定された前記ユーザの行動特性に基づいて、前記ユーザに通知するための通知情報を生成し、前記通知情報を前記ユーザに通知する通知部を更に備える、
請求項1に記載のユーザ特性判定装置。
【請求項3】
前記取得部は、前記所定期間において、前記仮想空間における前記ユーザの仮想視点の向きを変更する操作に関する操作情報を更に取得し、
前記判定部は、前記所定期間において前記取得部により取得された前記操作情報にも基づいて、前記所定期間における前記ユーザの行動特性を判定する、
請求項1に記載のユーザ特性判定装置。
【請求項4】
前記判定部は、第1期間において前記取得部により取得された前記アクション情報と、前記第1期間よりも前の第2期間において前記取得部により取得された前記アクション情報と、に基づいて、前記第1期間における前記ユーザの行動特性を判定する、
請求項1に記載のユーザ特性判定装置。
【請求項5】
前記取得部は、前記仮想空間内に存在する仮想オブジェクトと前記アバターとの前記仮想空間における距離に基づいて、前記仮想オブジェクトに対する前記アバターの接近動作及び前記仮想オブジェクトに対する前記アバターの接近を回避する回避動作の少なくとも一方を検出することによって、前記接近動作及び前記回避動作の少なくとも一方である特定動作を示す前記アクション情報を取得し、
前記判定部は、少なくとも前記所定期間において前記特定動作を示す前記アクション情報が取得されたか否かに基づいて、前記ユーザの行動特性を判定する、
請求項1に記載のユーザ特性判定装置。
【請求項6】
前記仮想オブジェクトは、前記ユーザとは異なる他のユーザに関連付けられたアバターである、
請求項5に記載のユーザ特性判定装置。
【請求項7】
前記判定部は、予め登録された前記ユーザの属性情報にも基づいて、前記ユーザの行動特性を判定する、
請求項1~6のいずれか一項に記載のユーザ特性判定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の一側面は、ユーザ特性判定装置に関する。
【背景技術】
【0002】
特許文献1には、現実空間において、ユーザの位置及び活動状態をセンシングし、センシングの結果に基づいてユーザの行動履歴情報を生成し、当該行動履歴情報に基づいてユーザの属性スコアを算出する情報処理方法が開示されている。上記特許文献1に開示された情報処理方法によれば、ユーザの行動履歴に基づいて、ユーザの属性(人となり)が抽出される。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記情報処理方法を実行するためには、ユーザの位置及び活動状態等をセンシングするための各種センサがユーザ毎に必要となる。また、このような物理的なセンサによって検出可能な内容には限界があるため、ユーザが現実空間で行った行動内容の詳細を網羅的且つ効率的に検出することは難しい。
【0005】
そこで、本発明の一側面は、ユーザの行動特性を容易且つ適切に判定することができるユーザ特性判定装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一側面に係るユーザ特性判定装置は、ユーザに関連付けられたアバターを動作させることが可能に構成された仮想空間内において、ユーザがアバターに実行させたアクションに関するアクション情報を取得する取得部と、所定期間において取得部により取得されたアクション情報に基づいて、ユーザの行動特性を判定する判定部と、を備える。
【0007】
本発明の一側面に係るユーザ特性判定装置においては、ユーザに関連付けられたアバターを動作させることが可能な仮想空間内におけるユーザの行動内容(すなわち、ユーザがアバターに実行させたアクション)を示すアクション情報に基づいて、ユーザの行動特性が判定される。上記構成によれば、現実空間におけるユーザの実際の位置及び活動状態等をセンシングする必要がないため、このようなセンシングに必要な物理的なセンサ機器を不要とすることができる。また、仮想空間におけるアクション情報は、全てデータ化されるため、容易且つ確実に保存及び参照することができる。従って、上記ユーザ特性判定装置によれば、ユーザの行動特性を容易且つ適切に判定することができる。
【発明の効果】
【0008】
本発明の一側面によれば、ユーザの行動特性を容易且つ適切に判定することができるユーザ特性判定装置を提供することができる。
【図面の簡単な説明】
【0009】
【
図1】一実施形態に係るユーザ特性判定装置を含む情報システムの構成の一例を示す図である。
【
図2】ユーザに提供される仮想空間画像の一例を示す図である。
【
図5】ユーザ特性判定装置の動作の一例を示すフローチャートである。
【
図6】ユーザ特性判定装置のハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0010】
以下、添付図面を参照して、本発明の一実施形態について詳細に説明する。なお、図面の説明において同一又は相当要素には同一符号を付し、重複する説明を省略する。
【0011】
図1は、一実施形態に係るユーザ特性判定装置10を含む情報システム1の一例を示す図である。情報システム1は、ユーザ特性判定装置10と、ユーザ端末20と、を含んでいる。ユーザ特性判定装置10とユーザ端末20とは、有線又は無線の通信ネットワークを介して、互いにデータ通信可能に接続されている。ユーザ特性判定装置10とユーザ端末20との間には、データ通信を中継する一以上の装置が介在してもよい。
【0012】
図1においては、1台のユーザ端末20のみが図示されているが、情報システム1は、複数のユーザの各々によって使用される複数のユーザ端末20が含まれてもよい。この場合、ユーザ特性判定装置10は、複数のユーザ端末20の各々に対して、以下に説明される処理を実行することにより、複数のユーザの各々の行動特性を判定するように構成され得る。
【0013】
ユーザ特性判定装置10は、仮想空間においてユーザによって実行されるアバターのアクションを示すアクション情報に基づいて、当該ユーザの行動特性を判定する装置である。「仮想空間」とは、コンピュータ上に表示される画像によって表現される仮想の二次元又は三次元の空間である。本実施形態では一例として、仮想空間は、複数のユーザ間で共有される仮想的な三次元空間として構成されると共に、各ユーザに関連付けられたアバターを動作させることが可能に構成されている。「アバター」とは、仮想空間内で定義される仮想オブジェクトの一種であり、ユーザに関連付けられる。「仮想オブジェクト」とは、現実世界には存在せず、コンピュータシステム上で表現される仮想的な物体である。仮想オブジェクトは、例えば、二次元又は三次元のコンピュータグラフィックス(CG)によって表現され得る。ただし、仮想オブジェクトの表現方法は限定されない。例えば、仮想オブジェクトは、アニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。
【0014】
ユーザ端末20は、ユーザにより使用されるコンピュータ端末である。ユーザ端末20の種類は限定されない。例えば、ユーザ端末20は、デスクトップPC、ラップトップPC等のパーソナルコンピュータであってもよいし、ユーザの手に保持されるスマートフォン、タブレット端末等の端末装置であってもよいし、ユーザの頭部等の身体の一部に装着されるウェアラブルデバイスであってもよい。ウェアラブルデバイスの例としては、ゴーグル型、グラス型(眼鏡型)、帽子型等のヘットマウントディスプレイ等が挙げられる。
【0015】
図1に示されるように、ユーザ端末20は、表示部21と、操作部22と、を備える。
【0016】
表示部21は、ユーザに提供される仮想空間を示す仮想空間画像50(
図2参照)を表示する部分である。ユーザ端末20がPCである場合には、表示部21は、ディスプレイモニタによって構成され得る。ユーザ端末20がスマートフォン等の携帯端末である場合には、表示部21は、タッチパネルディスプレイによって構成され得る。ユーザ端末20がヘッドマウントディスプレイである場合には、表示部21は、ユーザの両目の前方に配置されるディスプレイによって構成され得る。
【0017】
操作部22は、ユーザからの入力操作を受け付ける部分である。ユーザ端末20がPCである場合には、操作部22は、マウス、キーボード等の入力デバイスによって構成され得る。ユーザ端末20がスマートフォン等の携帯端末である場合には、タッチパネルディスプレイが上述した表示部21として機能すると共に操作部22としても機能し得る。ユーザ端末20がヘッドマウントディスプレイである場合には、操作部22は、ユーザの手に握られる専用のコントローラ等によって構成され得る。ただし、上記は一例であり、操作部22は、上記以外の他の操作インターフェースを備えてもよい。他の操作インターフェースの例としては、ユーザの音声を入力する音声入力デバイス、ユーザのモーション(例えば、手の動きなどのジェスチャ動作)をセンシングするモーションセンサ等が挙げられる。本実施形態では、ユーザ端末20は、操作部22が受け付けた入力操作を示す操作情報を、ユーザ特性判定装置10に送信する。
【0018】
図1に示されるように、ユーザ特性判定装置10は、仮想空間生成部11と、取得部12と、記憶部13と、判定部14と、通知部15と、を備える。
【0019】
仮想空間生成部11は、ユーザに提供される仮想空間VS(
図2参照)を生成する。一例として、仮想空間生成部11は、仮想現実(VR:Virtual Reality)空間としての仮想空間VSを生成する。ただし、仮想空間生成部11により生成される仮想空間は、拡張現実(AR:Augmented Reality)空間、複合現実(MR:Mixed Reality)空間等のVR空間以外の仮想空間であってもよい。仮想空間生成部11は、例えば、仮想空間VSを示すデータ(例えば、仮想空間VSを描画するためのレンダリングデータ等を含むデータ)を生成し、ユーザ端末20に提供(送信)する。ユーザ端末20は、当該仮想空間VSを示すデータに基づいて、表示部21に仮想空間VSを示す仮想空間画像50を表示させる。
【0020】
取得部12は、仮想空間内において、ユーザがアバターに実行させたアクションに関するアクション情報を取得する。例えば、取得部12は、ユーザ端末20から上述した操作情報(操作部22が受け付けた入力操作を示す情報)を受信し、当該操作情報のうちアバターにより実行されるアクションに関する情報をアクション情報として抽出(取得)する。すなわち、取得部12は、ユーザがアバターを動作させるために入力した操作の履歴情報(操作ログ)に基づいて、アクション情報を取得してもよい。或いは、取得部12は、上記方法に代えて(或いは上記方法と併用して)、他の方法によってアクション情報を取得してもよい。他の方法の例としては、仮想空間内においてアバターが動作した様子を示すアバター映像を事後的に解析することにより、アクション情報を取得してもよい。上記方法によれば、仮に操作ログを取得できない場合においても、取得部12は、アバター映像からアバターにより実行されたアクション内容を検出することによって、アクション情報を取得できる。
【0021】
アクション情報に含まれる情報の例としては、アバターの移動動作(例えば、歩く動作、走る動作等)、アバターの移動以外の動作(例えば、ジャンプ動作等)、種々のエモート(例えば、踊る動作、手を振る動作、頭部を動かす動作(頷き動作、首振り動作等))、アバターの表情の変更、会話動作、その他特定の条件に合致する動作(例えば、後述する回避動作、接近動作等)等が挙げられる。
【0022】
図2は、ユーザに提供される仮想空間画像50の一例を示す図である。
図2を参照して、ユーザによって入力される操作情報の例について説明する。
図2の例では、ユーザに対応するアバターA1の後方に仮想的に配置された三人称視点としての仮想視点(仮想カメラ)から見た仮想空間VSを示す画像(映像)が、仮想空間画像50として生成されている。アバターA1の前方に位置するアバターA2は、アバターA1に関連付けられたユーザとは異なる他のユーザに関連付けられたアバターである。なお、仮想空間画像50は、アバターA1の目の位置に配置された仮想視点(一人称視点)に基づいて生成されてもよい。この場合、仮想空間画像50には、アバターA1が表示されない。
【0023】
図2の例では、タッチパネルディスプレイとして構成された表示部21の表示領域に、仮想空間画像50が表示されている。一例として、仮想空間画像50は、仮想空間画像50の左下隅に配置された円形状の操作領域51と、仮想空間画像50の右下隅に配置された操作領域52と、仮想空間画像50の中央下方の領域に配置された複数のアイコンM1を含むメニューMと、を表示項目として含んでいる。
【0024】
操作領域51は、アバターA1の移動操作を行うための領域である。例えば、ユーザは、指で操作領域51の中央部(白丸部分)をタッチした後に指をスライドさせる動作を実行することにより、指をスライドさせた方向に向けてアバターA1を移動させることができる。言い換えれば、ユーザが上述したようなスライド操作を行った場合、当該スライド操作に対応する指示情報(すなわち、アバターA1の移動を指示する指示情報)が、ユーザ端末20からユーザ特性判定装置10へと送信される。取得部12は、このような指示情報に基づいて、アバターA1の移動アクションを示すアクション情報を取得(抽出)できる。
【0025】
操作領域52は、仮想視点の向き(すなわち、ユーザが仮想空間VSを見る方向)を変更する操作を行うための領域である。例えば、ユーザは、指で操作領域52の中央部(斜線ハッチング部分)をタッチした後に指をスライドさせる動作を実行することにより、指をスライドさせた方向に仮想視点の向きを変えることができる。言い換えれば、ユーザが上述したようなスライド操作を行った場合、当該スライド操作に対応する操作情報(すなわち、仮想視点の向きの変更を指示する操作情報)が、ユーザ端末20からユーザ特性判定装置10へと送信される。本実施形態では、取得部12は、このような操作情報についても、アクション情報と同様に取得する。
【0026】
メニューMは、一例として、横方向に等間隔に配置された複数(一例として5つ)のアイコンM1を含んでいる。各アイコンM1には、アバターA1の所定の動作が関連付けられている。ユーザは、アバターA1に実行させたい動作に対応するアイコンM1をタッチすることにより、当該動作をアバターA1に実行させることができる。
図2の例では、中央に配置されたアイコンM1は、アバターA1の表情を変更する動作をアバターA1に実行させるためのアイコンである。また、当該アイコンM1をタッチすると、より詳細なアクション内容を指定するためのメニューM2が開くように構成されている。ユーザは、メニューM2内に表示された複数の表情(例えば、笑いの表情、無関心の表情、怒りの表情、泣く表情等)の各々を示すアイコン(
図2の例では表情を模式的に表現した顔型のアイコン)のうちから所望のアイコンをタッチすることにより、アバターA1の表情を選択されたアイコンに対応する表情に変更できる。上記の例においては、例えば、ユーザによって笑いの表情のアイコンがタッチされた場合には、アバターA1の表情を笑顔にすることを示すアクション情報が、取得部12によって取得されることになる。
【0027】
また、
図2の例では、ユーザがよく利用するアクション(一例として、「うなずく」及び「ジャンプ」)を指示するための操作ボタンC1がメニューMの下方に配置されている。ユーザは、このような操作ボタンC1をタッチすることにより、当該操作ボタンC1に対応するアクションをアバターA1に実行させることができる。
【0028】
なお、上述した操作方法は一例に過ぎない。すなわち、アバターA1のアクションを指示する操作は、音声入力、専用コントローラに対する入力操作(例えば、所定のボタンの押下等)等の他の種々の方法によって入力され得る。取得部12は、ユーザに提供される操作インターフェースの種類に応じた方法によって、ユーザによって入力された操作に関する情報(上述した指示情報及び操作情報等)を取得すればよい。
【0029】
記憶部13は、ユーザ特性判定装置10において利用される各種データを記憶する。一例として、記憶部13は、取得部12により取得されたアクション情報を取得時刻(すなわち、アバターのアクションが実行された時刻)に関連付けて蓄積(保存)する。複数のユーザにサービスが提供される場合、すなわち、ユーザ特性判定装置10が複数のユーザのアクション情報を取得する場合には、アクション情報は、ユーザ毎に区別して記憶される。すなわち、アクション情報は、取得時刻を示す時間情報とユーザを識別するユーザ情報(ユーザID等)とに関連付けて記憶される。ただし、記憶部13に記憶されるデータの形式は上記に限られない。例えば、1つのアクション(例えば一定速度で歩く動作等)が一定期間継続する場合には、当該アクションに対応するアクション情報には、当該アクションが実行された期間(例えば、アクションの開始時刻及び終了時刻)が関連付けられてもよい。このように、一例として、記憶部13には、どの時刻(或いは時間帯)に、どのユーザによって、どのようなアバターのアクションが実行されたかを特定可能な態様で、各アクション情報が記憶される。
【0030】
記憶部13は、アクション情報以外のデータも記憶してもよい。上述したように、本実施形態では、記憶部13は、取得部12によって取得された、仮想空間におけるユーザの仮想視点の向きを変更する操作に関する操作情報についても、上述したアクション情報と同様に記憶する。また、本実施形態では、記憶部13は、予め登録されたユーザの属性情報も記憶する。属性情報は、ユーザの属性に関する情報である。ユーザの属性の例としては、性別、年齢、体型(身長、体重等)、趣味、嗜好、性格、現実空間における種々の行動履歴等が挙げられる。ユーザの属性情報は、例えば、上述したような各種属性についてのアンケートに対するユーザの回答結果に基づいて、生成及び記憶され得る。
【0031】
判定部14は、所定期間において取得部12により取得されたアクション情報(一又は複数のアクション情報)に基づいて、ユーザの行動特性を判定する。本実施形態では、取得部12によって取得されたアクション情報は、記憶部13に蓄積される。このため、判定部14は、記憶部13にアクセスすることにより、所定期間に取得された一以上のアクション情報を参照することができる。
【0032】
「行動特性」とは、ユーザの行動パターン及び思考の傾向等である。行動特性は、ユーザの脳の特徴及び遺伝的要素等の先天的な要素に基づくと共に、ユーザを取り巻く環境等の後天的な要素によっても変化し得る。すなわち、ある期間において観察されるユーザの行動特性は、当該期間におけるユーザの環境(状況)に起因するユーザの精神状態によっても変化し得る。言い換えれば、ある期間におけるユーザの行動特性には、当該期間におけるユーザの精神状態が反映され得る。
【0033】
「所定期間」は、任意に定められ得る。例えば、比較的短期間において、ユーザの精神状態によって変化し得るタイムリーな行動特性を判定したい場合には、所定期間は、例えば、1~2時間等の短期間に設定され得る。また、例えば、中期的なユーザの行動特性を判定したい場合には、所定期間は、1ヶ月間等のある程度長い期間に設定され得る。
【0034】
以下、判定部14による行動特性の判定処理のいくつかの例を説明する。ただし、判定部14は、以下に示す全ての例に対応する処理を実行する構成に限定されない。例えば、判定部14は、以下に示す一部の例に対応する処理のみを実行するように構成されてもよい。また、判定部14は、以下に示す例以外の処理を実行するように構成されてもよい。
【0035】
(第1の例)
ユーザがアバターA1の移動速度を指定してアバターA1を移動させることが可能である場合について考える。この場合、判定部14は、所定期間におけるアバターA1の移動速度に基づいて、上記所定期間におけるユーザの行動特性を判定してもよい。例えば、判定部14は、上記所定期間に含まれるアバターA1の一以上のアクション情報の中から、予め設定された閾値速度以下の速度で歩くアクション(とぼとぼ歩き)を示すアクション情報を抽出する。判定部14は、このように抽出されたアクション情報に基づいて、上記所定期間におけるとぼとぼ歩きの頻度(回数)又は期間が予め設定された閾値以上か否かを判定し、閾値以上である場合に、落ち込みやすい(言い換えれば、ストレスコントロールが苦手である)ことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0036】
第1の例に関連する他の処理として、判定部14は、所定期間に含まれるアバターA1のアクション情報に基づいて、上記所定期間におけるアバターA1の平均歩行速度が一般的なユーザの平均歩行速度よりも速いか否かを判定し、アバターA1の平均歩行速度が一般的なユーザの平均歩行速度よりも速い場合に、元気溌剌であることを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。なお、上記例において、「一般的なユーザの平均歩行速度」は、例えば、ある期間における複数のユーザの操作履歴に基づく統計処理等によって、事前に算出された上で記憶部13に記憶されていればよい。
【0037】
(第2の例)
判定部14は、上記所定期間において取得部12により取得された操作情報(仮想空間VSにおけるユーザの仮想視点の向きを変更する操作に関する情報)にも基づいて、上記所定期間におけるユーザの行動特性を判定してもよい。例えば、上述した第1の例において、上記所定期間において実行されたアバターA1のとぼとぼ歩きの頻度又は期間が閾値以上であったとしても、仮想視点の向きを変更する操作が頻繁に行われている場合(例えば、上記所定期間において仮想視点の向きを変更する操作の頻度が予め定められた閾値以上である場合等)には、ユーザは落ち込んでいるわけではなく、仮想空間VS内においてアバターA1の周囲の景色を眺めながら移動している可能性がある。
【0038】
従って、例えば、所定期間において実行されたアバターA1のとぼとぼ歩きの頻度又は期間が閾値以上であるが、上記所定期間にユーザにより実行された仮想視点の向きを変更する操作の頻度が予め定められた閾値以上である場合には、判定部14は、落ち込みやすいことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定しないように、上述した第1の例の判定結果を修正(補正)してもよい。一方、所定期間において実行されたアバターA1のとぼとぼ歩きの頻度又は期間が閾値以上であり、且つ、上記所定期間にユーザにより実行された仮想視点の向きを変更する操作の頻度が予め定められた閾値未満である場合には、判定部14は、上述した第1の例のように、落ち込みやすいことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0039】
以上のように、所定期間におけるアクション情報と共に、上記所定期間における操作情報(仮想空間VSにおけるユーザの仮想視点の向きを変更する操作に関する情報)も考慮することにより、上記所定期間におけるユーザの行動特性をより精度良く判定することが可能となる。なお、上記の説明では、所定期間におけるアバターA1の移動速度に基づいてユーザの行動特性を判定する処理(第1の例)において上記操作情報を更に用いる場合について説明したが、第2の例の処理は、上記形態に限られない。すなわち、所定期間における上記操作情報を用いて判定を行う処理(言い換えれば、上記所定期間におけるアクション情報のみに基づく判定結果を上記所定期間における上記操作情報に基づいて補正する処理)は、アバターA1の移動速度以外のアクション情報に基づいてユーザの行動特性を判定する場合にも適用され得る。
【0040】
(第3の例)
判定部14は、所定期間において実行されたアバターA1のエモートを示すアクション情報に基づいて、上記所定期間におけるユーザの行動特性を判定してもよい。例えば、判定部14は、上記所定期間におけるアバターA1のエモートの頻度が予め設定された閾値以上である場合に、楽しいことが好きである(明るい性格である)ことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。上記とは逆に、判定部14は、上記所定期間におけるアバターA1のエモートの頻度が予め設定された閾値以下である場合に、消極的である(おとなしい性格である)ことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0041】
(第4の例)
判定部14は、所定期間において実行されたアバターA1の会話動作(例えば、他のアバターに対する発話)を示すアクション情報に基づいて、上記所定期間におけるユーザの行動特性を判定してもよい。例えば、判定部14は、上記所定期間におけるアバターA1の会話動作の頻度が予め設定された閾値以上である場合に、積極的であることを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。上記とは逆に、判定部14は、上記所定期間におけるアバターA1の会話動作の頻度が予め設定された閾値以下である場合に、消極的である(人見知りである)ことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0042】
第4の例に関連する他の処理として、判定部14は、所定期間において実行されたアバターA1の会話動作の継続時間に基づいて、上記所定期間におけるユーザの行動特性を判定してもよい。例えば、判定部14は、上記所定期間におけるアバターA1の会話動作の継続時間が予め設定された閾値以上である場合に、協調性がある(他のユーザとのコミュニケーションを好む)ことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。上記とは逆に、判定部14は、上記所定期間におけるアバターA1の会話動作の継続時間が予め設定された閾値以下である場合に、一人の時間を好む(他のユーザとのコミュニケーションをあまり好まない)ことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0043】
(第5の例)
判定部14は、所定期間において、アバターA1が他のアバターの近傍(例えば、他のアバターの位置から予め定められた閾値距離範囲内の領域)に位置するときに実行されたジャンプ動作を示すアクション情報に基づいて、上記所定期間におけるユーザの行動特性を判定してもよい。例えば、判定部14は、アバターA1が他のアバターの近傍に位置するときに実行されたジャンプ動作の頻度が予め設定された閾値以上である場合に、他人に対する攻撃心が高い(他人をからかったり煽ったりする傾向がある)ことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0044】
(第6の例)
第6の例の前提として、取得部12は、仮想空間VS内に存在する仮想オブジェクトとアバターA1との仮想空間VSにおける距離に基づいて、当該仮想オブジェクトに対するアバターA1の接近を回避する回避動作(特定動作)を検出することによって、回避動作を示すアクション情報を取得する。仮想オブジェクトの例としては、アバターA1に対応するユーザとは異なる他のユーザに関連付けられたアバター(例えば、
図2の例におけるアバターA2)が挙げられる。
【0045】
図3を参照して、回避動作の例について説明する。
図3の(A)及び(B)は、仮想空間VSを上方から見た場合のアバターA1,A2の位置関係を模式的に示している。
図3の(A)は、ある時点t1におけるアバターA1,A2の位置関係を示しており、
図3の(B)は、時点t1よりも後の時点t2におけるアバターA1,A2の位置関係を示している。
図3において、アバターA2を中心とする円形状の領域Rは、アバターA2からの距離が予め設定された距離(例えば、仮想空間VS内で定義される2m)以内の領域(アバターA2の近傍領域)を示している。
【0046】
図3の例では、時点t1において、アバターA1がそのまま直進した場合にはアバターA2の近傍領域(領域R)に進入する状況である。このような状況下において、時点t1から時点t2までの間に、アバターA1が領域Rに進入しないように、ユーザがアバターA1を移動させている。
【0047】
例えば、取得部12は、アバターA1の移動を示すアクション情報(移動の軌跡を含む情報)と、上記移動が行われた期間におけるアバターA2の位置を示す情報と、に基づいて、
図3の例に示されるようなアバターA1の移動(すなわち、アバターA2に対するアバターA1の接近を回避する回避動作)を検出することができる。このように検出された回避動作を示すアクション情報は、記憶部13に記憶される。
【0048】
上記のような取得部12の処理が実行される場合において、判定部14は、少なくとも所定期間において回避動作を示すアクション情報が取得されたか否かに基づいて、ユーザの行動特性を判定してもよい。例えば、判定部14は、上記所定期間において実行された回避動作の頻度(回数)が予め設定された閾値以上である場合に、消極的(人見知り)であることを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0049】
なお、上記例では、アバター同士の接近を回避する回避動作を例示したが、アバター以外の仮想オブジェクトに対するアバターA1の接近を回避するアクションが、上述した回避動作として用いられてもよい。上記仮想オブジェクトの例としては、動物等を模したNPC(Non Player Character)オブジェクト等が挙げられる。この場合、判定部14は、上記所定期間において実行された回避動作の頻度(回数)が予め設定された閾値以上である場合に、上記仮想オブジェクト(上記例では、動物)が苦手(或いはあまり好きではない)ことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0050】
第6の例によれば、仮想空間VS内において他の仮想オブジェクトへの接近を回避する動作をユーザが行ったか否かに基づいて、ユーザの行動特性を容易に判定することができる。なお、上記のような回避動作を現実空間において検出することは必ずしも容易ではない。これに対して、上述した第6の例によれば、仮想空間VS内において、
図3を用いて例示したような処理を実行することにより、簡易的な処理によって確実に回避動作を検出でき、当該検出結果に基づいてユーザの行動特性を精度良く判定することができる。
【0051】
上記第6の例に関連する他の処理として、取得部12は、所定期間における仮想オブジェクトに対するアバターA1の接近動作(特定動作)を示すアクション情報を取得してもよい。接近動作は、回避動作とは逆の動作である。例えば、
図3の(B)の破線矢印に示されるように、アバターA1が他の仮想オブジェクト(
図2の例では、アバターA2)の近傍領域(領域R)に進入した場合に、取得部12は、アバターA1の接近動作を検出及び取得すればよい。この場合、判定部14は、少なくとも所定期間において接近動作を示すアクション情報が取得されたか否かに基づいて、ユーザの行動特性を判定してもよい。例えば、判定部14は、上記所定期間において実行された接近動作の頻度(回数)が予め設定された閾値以上である場合に、積極的(コミュニケーション好き)であることを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。また、アバター以外の仮想オブジェクト(例えば、上述したような動物等を模したNPCオブジェクト)に対する接近動作が用いられる場合、判定部14は、上記所定期間において実行された接近動作の頻度(回数)が予め設定された閾値以上である場合に、上記仮想オブジェクト(上記例では、動物)を好むことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0052】
第6の例に関連する他の処理によれば、仮想空間VS内において他の仮想オブジェクトに接近する動作をユーザが行ったか否かに基づいて、ユーザの行動特性を容易に判定することができる。なお、上記のような接近動作を現実空間において検出することは必ずしも容易ではない。これに対して、上述した処理によれば、仮想空間VS内において、簡易的な処理によって確実に接近動作を検出でき、当該検出結果に基づいてユーザの行動特性を精度良く判定することができる。
【0053】
(第7の例)
判定部14は、第1期間において取得部12により取得されたアクション情報と、第1期間よりも前の第2期間において取得部12により取得されたアクション情報と、に基づいて、第1期間におけるユーザの行動特性を判定する。
【0054】
例えば、第2期間(過去期間)に取得されたアクション情報に基づいて、上述した第3の例の処理が実行されることにより、第2期間におけるユーザの行動特性が「楽しいことが好きである」と判定されたとする。このような場合において、第2期間よりも後の第1期間(判定対象期間)に取得されたアクション情報のみに基づいて、上述した第3の例の処理が実行されることにより、第1期間におけるユーザの行動特性が「消極的である」と判定されたとする。
【0055】
この場合、判定部14は、第1期間に取得されたアクション情報に基づく判定結果である「消極的である」を、そのまま第1期間におけるユーザの行動特性として決定してもよいが、過去期間(第2期間)の判定結果とのギャップに基づいて、第1期間におけるユーザの行動特性を更に詳細に判定してもよい。例えば、上記のように、第1期間と第2期間とでユーザの行動特性の判定結果に一定以上の差(或いは、真逆の傾向)がある場合には、判定部14は、第1期間におけるユーザの行動特性を単に「消極的である」と判定するのではなく、「特別な事情で落ち込んでおり、普段よりも積極性を発揮できない状態になっている」ことを示す行動特性を、第1期間におけるユーザの行動特性として判定してもよい。
【0056】
第7の例によれば、第1期間におけるユーザの行動特性(例えば、第1期間に取得されたアクション情報から把握される行動傾向)と、第2期間におけるユーザの行動特性(例えば、第2期間に取得されたアクション情報から把握される行動傾向)と、の比較に基づいて、時間的な変化が考慮されたユーザの行動特性をより詳細に判定することができる。例えば、上記例のように、第1期間における判定結果と第1期間よりも過去の第2期間における判定結果との間に一定以上の差がある場合に、当該差を考慮することにより、第1期間におけるユーザの行動特性をより精度良く判定することが可能となる。なお、上記の判定は、例えば、第1期間に取得されたアクション情報に基づく判定結果と第2期間に取得されたアクション情報に基づく判定結果との複数の組み合わせの各々に対して所定の判定結果(上記例における「特別な事情で落ち込んでおり、普段よりも積極性を発揮できない状態になっている」に対応する判定結果)を関連付けたテーブル情報を予め用意しておき、当該テーブル情報を参照することによって実行され得る。
【0057】
(第8の例)
判定部14は、予め登録されたユーザの属性情報にも基づいて、ユーザの行動特性を判定する。例えば、年輩のユーザがアバターをゆっくりと移動させる操作を行うことは年相応な操作と考えられるため、ユーザの精神面に特に問題は生じていない可能性が高いと考えられる。一方で、年若いユーザがアバターをゆっくりと移動させる操作(例えば、第1の例における「とぼとぼ歩き」)を多用することは、年不相応な操作と考えられるため、ユーザの精神面に問題が生じている可能性があると考えられる。このように、アバターに実行させたアクションの内容がユーザ間で同一であったとしても、ユーザの属性(上記例では、年齢)によって、所定期間におけるユーザの行動特性(精神状態が考慮された行動特性)の適切な判定結果が異なり得る。
【0058】
そこで、例えば、判定部14は、ユーザの属性情報に基づいて、上述したような各例の判定処理において用いられる閾値を調整してもよい。例えば、判定部14は、年輩のユーザ(例えば、年齢が所定の閾値以上のユーザ)に対して第1の例を実行する場合には、「とぼとぼ歩きの頻度又は期間」についての閾値を大きく設定することにより、とぼとぼ歩きの頻度がある程度多かったとしても、当該ユーザの行動特性が「落ち込みやすい」と判定され難くしてもよい。一方、年若いユーザ(例えば、年齢が所定の閾値以下のユーザ)に対して第1の例を実行する場合には、「とぼとぼ歩きの頻度又は期間」についての閾値を上記年輩のユーザに設定される閾値よりも小さくしてもよい。
【0059】
また、他の例としては、ユーザの属性情報として、ユーザの所属(例えば、学生、会社員、主婦等のステータス)が考慮されてもよい。例えば、仮想空間VS内において、学生であるユーザに対して、受験勉強等を行うための学習コンテンツが提供されている場合について考える。すなわち、仮想空間VSが本来的に学習を行う場所として学生であるユーザに提供されている場合について考える。判定部14は、このような属性情報(学生)を有するユーザについて、上記第4の例において、所定期間(例えば1ヶ月間)における会話動作の頻度が閾値以上と判定された場合(言い換えれば、仮想空間VS内での学習が疎かになっており、他のユーザとの会話動作が多い場合)には、上記属性情報を加味することによって、勉強を怠けがち(楽な方向に流されやすい性格である)ことを示す行動特性を、上記所定期間におけるユーザの行動特性として判定してもよい。
【0060】
以上述べたように、第8の例によれば、ユーザの属性情報を考慮することにより、所定期間におけるユーザの行動特性をより精度良く判定することが可能となる。
【0061】
通知部15は、判定部14により判定されたユーザの行動特性に基づいて、当該ユーザに通知するための通知情報を生成し、通知情報を当該ユーザに通知する。
図4を参照して、通知部15の処理の一例について説明する。
図4の例は、判定部14により、アバターA1に対応するユーザの所定期間における行動特性が、「落ち込んでおり、普段よりも消極的である」と判定された場合を示している。このような場合、一例として、通知部15は、上記判定結果に応じた通知情報として、ユーザに対するアドバイスとなる通知情報を生成してもよい。この例では、通知部15は、「少し元気がないですね。元気を出すために広場に行ってみましょう!」というテキストが記載された通知情報Nを生成し、アバターA1の頭部付近に吹き出し表示の形態で通知情報Nを表示させることにより、通知情報Nをユーザに通知している。
【0062】
なお、通知部15により生成される通知情報の種類は、上記例のようなアドバイスに限られない。例えば、通知情報は、現在のユーザの行動特性の判定結果を単に示す情報であってもよい。また、通知情報の形式は、上記例のようにテキスト情報を画面上に表示する形態に限られない。例えば、通知部15は、判定結果をテキスト以外の表現(例えば、イラストアイコン)によって示すビジュアル情報を仮想空間画像50に表示させることによって、通知情報をユーザに通知してもよい。或いは、通知部15は、ユーザ端末20が備えるスピーカー等の出力装置を介して、通知情報を音声出力してもよい。通知部15の処理によれば、ユーザに対して判定結果を知らせたり、判定結果に応じたアドバイスを与えたりすることが可能となるため、ユーザの利便性を向上させることができる。
【0063】
次に、
図5を参照して、ユーザ特性判定装置10の動作の一例(ユーザ特性判定方法の一例)について説明する。ここでは一例として、
図2の例におけるアバターA1に対応するユーザの行動特性を判定する場合について説明する。
【0064】
ステップS1において、仮想空間生成部11は、ユーザに提供される仮想空間VS(
図2参照)を生成する。一例として、仮想空間生成部11により生成された仮想空間VSを示すデータ(例えば、仮想空間VSを描画するためのレンダリングデータ等を含むデータ)は、ユーザが使用するユーザ端末20に提供(送信)される。ユーザ端末20は、当該仮想空間VSを示すデータに基づいて、表示部21に仮想空間VSを示す仮想空間画像50を表示させる。
【0065】
ステップS2において、取得部12は、ユーザがアバターA1に実行させたアクションに関するアクション情報を取得する。取得部12により取得されたアクション情報は、判定部14が参照可能なように蓄積される。本実施形態では一例として、アクション情報は、記憶部13に蓄積される。
【0066】
ステップS3において、判定部14は、所定期間において取得部12により取得されたアクション情報(一又は複数のアクション情報)に基づいて、ユーザの行動特性を判定する。例えば、判定部14は、上述した第1の例~第8の例の処理を実行することにより、所定期間におけるユーザの行動特性を判定する。
【0067】
ステップS4において、通知部15は、判定部14により判定されたユーザの行動特性に基づいて、当該ユーザに通知するための通知情報N(
図2参照)を生成し、通知情報Nを当該ユーザに通知する。一例として、
図2に示されるように、通知部15は、当該ユーザに提供される仮想空間画像50において、アバターA1の近傍に通知情報Nを表示させることにより、当該ユーザに通知情報Nを通知する。
【0068】
以上説明したユーザ特性判定装置10においては、ユーザに関連付けられたアバターA1を動作させることが可能な仮想空間VS内におけるユーザの行動内容(すなわち、ユーザがアバターA1に実行させたアクション)を示すアクション情報に基づいて、ユーザの行動特性が判定される。上記構成によれば、現実空間におけるユーザの実際の位置及び活動状態等をセンシングする必要がないため、このようなセンシングに必要な物理的なセンサ機器を不要とすることができる。また、仮想空間VSにおけるアクション情報は、全てデータ化されるため、容易且つ確実に保存及び参照することができる。従って、ユーザ特性判定装置10によれば、ユーザの行動特性を容易且つ適切に判定することができる。
【0069】
なお、上記実施形態では、ユーザ特性判定装置10はユーザ端末20とは別の装置として構成されたが、ユーザ特性判定装置10はユーザ端末20と同一であってもよい。すなわち、上述したユーザ特性判定装置10の各機能(
図1参照)は、ユーザ端末20に組み込まれてもよい。言い換えれば、ユーザ端末20が、上述したユーザ特性判定装置10として機能してもよい。或いは、上述したユーザ特性判定装置10の機能の一部は、ユーザ端末20に組み込まれてもよい。その場合、上述したユーザ特性判定装置10及びユーザ端末20を含む情報システム1が、ユーザ特性判定装置として機能する。ただし、複数のユーザの各々の行動特性を判定する場合には、上記実施形態のように、ユーザ特性判定装置10は、ユーザ端末20とは別の装置として構成されることが好ましい。また、上記実施形態において説明したユーザ特性判定装置10の一部の処理は省略されてもよい。例えば、ユーザ特性判定装置10は、仮想空間生成部11を備えなくてもよい。すなわち、ユーザ端末20に配信される仮想空間VSに関するデータは、ユーザ特性判定装置10とは異なる装置によって生成されてもよい。
【0070】
また、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
【0071】
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。
【0072】
例えば、本開示の一実施の形態におけるユーザ特性判定装置10は、本開示の情報処理方法を行うコンピュータとして機能してもよい。
図6は、本開示の一実施の形態に係るユーザ特性判定装置10のハードウェア構成の一例を示す図である。ユーザ特性判定装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。なお、ユーザ端末20もユーザ特性判定装置10と同様のハードウェア構成を備えてもよい。
【0073】
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。ユーザ特性判定装置10のハードウェア構成は、
図6に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
【0074】
ユーザ特性判定装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
【0075】
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。
【0076】
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、ユーザ特性判定装置10の各機能部(例えば、判定部14等)は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
【0077】
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る情報処理方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
【0078】
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
【0079】
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
【0080】
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
【0081】
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
【0082】
また、ユーザ特性判定装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
【0083】
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。
【0084】
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
【0085】
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
【0086】
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
【0087】
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
【0088】
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
【0089】
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
【0090】
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
【0091】
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
【0092】
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々な情報要素は、あらゆる好適な名称によって識別できるので、これらの様々な情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
【0093】
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
【0094】
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
【0095】
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
【0096】
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
【0097】
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
【符号の説明】
【0098】
10…ユーザ特性判定装置、12…取得部、14…判定部、15…通知部、A1,A2…アバター(仮想オブジェクト)、N…通知情報、VS…仮想空間。