IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社電通の特許一覧

<>
  • 特許-情報処理システム 図1
  • 特許-情報処理システム 図2
  • 特許-情報処理システム 図3A
  • 特許-情報処理システム 図3B
  • 特許-情報処理システム 図4
  • 特許-情報処理システム 図5
  • 特許-情報処理システム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-17
(45)【発行日】2024-10-25
(54)【発明の名称】情報処理システム
(51)【国際特許分類】
   G06F 3/01 20060101AFI20241018BHJP
   G06F 3/04842 20220101ALI20241018BHJP
   G06Q 30/0241 20230101ALI20241018BHJP
   G06T 19/00 20110101ALI20241018BHJP
【FI】
G06F3/01 510
G06F3/04842
G06Q30/0241
G06T19/00 300A
【請求項の数】 11
(21)【出願番号】P 2020197819
(22)【出願日】2020-11-30
(65)【公開番号】P2022086027
(43)【公開日】2022-06-09
【審査請求日】2023-05-22
(73)【特許権者】
【識別番号】320005501
【氏名又は名称】株式会社電通
(74)【代理人】
【識別番号】230104019
【弁護士】
【氏名又は名称】大野 聖二
(74)【代理人】
【識別番号】100106840
【弁理士】
【氏名又は名称】森田 耕司
(74)【代理人】
【識別番号】100131451
【弁理士】
【氏名又は名称】津田 理
(74)【代理人】
【識別番号】100167933
【弁理士】
【氏名又は名称】松野 知紘
(74)【代理人】
【識別番号】100174137
【弁理士】
【氏名又は名称】酒谷 誠一
(74)【代理人】
【識別番号】100184181
【弁理士】
【氏名又は名称】野本 裕史
(72)【発明者】
【氏名】末冨 亮
【審査官】星野 裕
(56)【参考文献】
【文献】国際公開第2020/153031(WO,A1)
【文献】特開2018-124665(JP,A)
【文献】特開2018-069069(JP,A)
【文献】特開2019-101468(JP,A)
【文献】特開平10-261090(JP,A)
【文献】特表2013-517051(JP,A)
【文献】特開2019-021347(JP,A)
【文献】特表2019-525288(JP,A)
【文献】国際公開第2018/011988(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/048
G06Q 30/0241
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
仮想現実空間内においてアバターを操作中のユーザの実環境におけるモーションデータを取得するモーションデータ取得部と、
取得されたモーションデータに基づいて、前記ユーザの属性を推定する属性推定部と、
広告が実環境における現実の商品の広告である場合には、推定された属性に応じた広告を仮想現実空間内に出力し、広告が仮想現実空間内におけるバーチャルの商品の広告である場合には、推定された属性および前記アバターの情報に応じた広告を前記仮想現実空間内に出力する広告出力部
を備えた情報処理システム。
【請求項2】
前記属性推定部は、
取得されたモーションデータに基づいて、前記ユーザの骨格の動きを推定する第1推定部と、
推定された骨格の動きに基づいて、前記ユーザの属性を推定する第2推定部と、
を有する、
請求項1に記載の情報処理システム。
【請求項3】
前記モーションデータ取得部は、前記ユーザが前記アバターの操作に利用しているヘッドマウントディスプレイおよび/またはコントローラと、前記ユーザを撮影するカメラと、前記ユーザの体幹および/または体肢に装着されたトラッキングセンサのうちの少なくとも1つから、前記モーションデータを取得する、
請求項1または2に記載の情報処理システム。
【請求項4】
前記ユーザの属性は、前記ユーザの年齢と性別のうちの少なくとも1つを含む、
請求項1~のいずれかに記載の情報処理システム。
【請求項5】
コンピュータが実行する情報処理方法であって、
仮想現実空間内においてアバターを操作中のユーザの実環境におけるモーションデータを取得するステップと、
取得されたモーションデータに基づいて、前記ユーザの属性を推定するステップと、
広告が実環境における現実の商品の広告である場合には、推定された属性に応じた広告を仮想現実空間内に出力し、広告が仮想現実空間内におけるバーチャルの商品の広告である場合には、推定された属性および前記アバターの情報に応じた広告を前記仮想現実空間内に出力するステップと、
を含む情報処理方法。
【請求項6】
コンピュータに、
仮想現実空間内においてアバターを操作中のユーザの実環境におけるモーションデータを取得するステップと、
取得されたモーションデータに基づいて、前記ユーザの属性を推定するステップと、
広告が実環境における現実の商品の広告である場合には、推定された属性に応じた広告を仮想現実空間内に出力し、広告が仮想現実空間内におけるバーチャルの商品の広告である場合には、推定された属性および前記アバターの情報に応じた広告を前記仮想現実空間内に出力するステップと、
を実行させるための情報処理プログラム。
【請求項7】
ユーザが操作するアバターの仮想現実空間内における行動ログを取得する行動ログ取得部と、
取得された行動ログに基づいて、前記ユーザの属性を推定する属性推定部と、
広告が実環境における現実の商品の広告である場合には、推定された属性に応じた広告を仮想現実空間内に出力し、広告が仮想現実空間内におけるバーチャルの商品の広告である場合には、推定された属性および前記アバターの情報に応じた広告を前記仮想現実空間内に出力する広告出力部
を備えた情報処理システム。
【請求項8】
前記行動ログは、前記アバターが訪れたワールドと、前記アバターが掴んだ物と、前記アバターが誰と会話したかと、前記アバターが見たもののうちの少なくとも1つを含む、
請求項に記載の情報処理システム。
【請求項9】
前記ユーザの属性は、前記ユーザの年齢と性別のうちの少なくとも1つを含む、
請求項7または8に記載の情報処理システム。
【請求項10】
コンピュータが実行する情報処理方法であって、
ユーザが操作するアバターの仮想現実空間内における行動ログを取得するステップと、
取得された行動ログに基づいて、前記ユーザの属性を推定するステップと、
広告が実環境における現実の商品の広告である場合には、推定された属性に応じた広告を仮想現実空間内に出力し、広告が仮想現実空間内におけるバーチャルの商品の広告である場合には、推定された属性および前記アバターの情報に応じた広告を前記仮想現実空間内に出力するステップと、
を含む情報処理方法。
【請求項11】
コンピュータに、
ユーザが操作するアバターの仮想現実空間内における行動ログを取得するステップと、
取得された行動ログに基づいて、前記ユーザの属性を推定するステップと、
広告が実環境における現実の商品の広告である場合には、推定された属性に応じた広告を仮想現実空間内に出力し、広告が仮想現実空間内におけるバーチャルの商品の広告である場合には、推定された属性および前記アバターの情報に応じた広告を前記仮想現実空間内に出力するステップと、
を実行させるための情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、仮想現実空間内においてアバターを操作するユーザの属性を推定する情報処理システムに関する。
【背景技術】
【0002】
従来から、仮想現実空間内でユーザに対して広告を表示する技術が知られている。しかしながら、事前の情報入力無しにヘッドマウントディスプレイ(HMD)の利用者を推定することができていないため、利用者の属性に応じた広告の出し分けができていない。
【0003】
特許文献1には、仮想現実空間内におけるユーザの過去の一連の行動(たとえば、仮想現実空間上のアイテムを拾って、仮想現実空間に登場する人物に対して拾ったアイテムを渡し、代わりに別のアイテムを受け取ったというような行動)を認証用のパスワードとして事前に記憶(登録)しておき、仮想現実空間内においてユーザがとった新たな行動と、事前に記憶(登録)していた過去の行動との間に一定以上の相関があるか否かを判定し、その判定結果に基づいてユーザの認証を行う技術が提案されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2018-190164号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に記載の技術は、ユーザの認証(本人以外による成りすましではないことの確認)を行う技術であり、ユーザの属性(性別や年齢など)を推定することはできなかった。また、特許文献1に記載の技術では、あるユーザの認証を行うためには、事前(認証前)に、仮想現実空間内における当該ユーザの過去の一連の行動を認証用のパスワードとして記憶(登録)しておく必要があり、すなわち、ユーザからの事前の情報入力が必要であった。
【0006】
ウェブブラウザを利用する利用者の属性を事前の情報入力無しに推定する技術として、ウェブブラウザに保存されたクッキー(cookie)を取得して利用する手法が知られているが、プライバシー保護の観点からクッキーを今後取得しづらくなることが予想され、クッキーを利用することなくユーザの属性を推定する技術が求められている。
【0007】
本発明は、以上のような点を考慮してなされたものである。本発明の目的は、仮想現実空間内においてアバターを操作するユーザの属性を事前の情報入力無しに推定できる技術を提供することにある。
【課題を解決するための手段】
【0008】
本発明の第1の態様に係る情報処理システムは、
仮想現実空間内においてアバターを操作中のユーザの実環境におけるモーションデータを取得するモーションデータ取得部と、
取得されたモーションデータに基づいて、前記ユーザの属性を推定する属性推定部と、
を備える。
【0009】
このような態様によれば、仮想現実空間内においてアバターを操作中のユーザの実環境におけるモーションデータを取得し、当該モーションデータに基づいてユーザの属性を推定することで、ユーザからの事前の情報入力無しに、かつ、クッキーを利用することなく、当該ユーザの属性を推定できる。
【0010】
本発明の第2の態様に係る情報処理システムは、第1の態様に係る情報処理システムであって、
推定された属性に応じた広告を前記仮想現実空間内に出力する広告出力部
をさらに備える。
【0011】
このような態様によれば、ユーザの属性に応じた広告の出し分けが可能であり、広告効果を高めることができる。
【0012】
本発明の第3の態様に係る情報処理システムは、第1または2の態様に係る情報処理システムであって、
前記属性推定部は、
取得されたモーションデータに基づいて、前記ユーザの骨格の動きを推定する第1推定部と、
推定された骨格の動きに基づいて、前記ユーザの属性を推定する第2推定部と、
を有する。
【0013】
本発明の第4の態様に係る情報処理システムは、第1~3のいずれかの態様に係る情報処理システムであって、
前記モーションデータ取得部は、前記ユーザが前記アバターの操作に利用しているヘッドマウントディスプレイおよび/またはコントローラと、前記ユーザを撮影するカメラと、前記ユーザの体幹および/または体肢に装着されたトラッキングセンサのうちの少なくとも1つから、前記モーションデータを取得する。
【0014】
本発明の第5の態様に係る情報処理システムは、第1~4のいずれかの態様に係る情報処理システムであって、
前記ユーザの属性は、前記ユーザの年齢と性別のうちの少なくとも1つを含む。
【0015】
本発明の第6の態様に係る情報処理方法は、
コンピュータが実行する情報処理方法であって
仮想現実空間内においてアバターを操作中のユーザの実環境におけるモーションデータを取得するステップと、
取得されたモーションデータに基づいて、前記ユーザの属性を推定するステップと、
を含む。
【0016】
本発明の第7の態様に係る情報処理プログラムは、
コンピュータに、
仮想現実空間内においてアバターを操作中のユーザの実環境におけるモーションデータを取得するステップと、
取得されたモーションデータに基づいて、前記ユーザの属性を推定するステップと、
を実行させるための情報処理プログラムである。
【0017】
本発明の第8の態様に係る情報処理システムは、
ユーザが操作するアバターの仮想現実空間内における行動ログを取得する行動ログ取得部と、
取得された行動ログに基づいて、前記ユーザの属性を推定する属性推定部と、
を備える。
【0018】
このような態様によれば、ユーザが操作するアバターの仮想現実空間内における行動ログを取得し、当該行動ログに基づいてユーザの属性を推定することで、ユーザからの事前の情報入力無しに、かつ、クッキーを利用することなく、当該ユーザの属性を推定できる。
【0019】
このような態様によれば、ユーザの属性に応じた広告の出し分けが可能であり、広告効果を高めることができる。
【0020】
本発明の第9の態様に係る情報処理システムは、第8の態様に係る情報処理システムであって、
推定された属性に応じた広告を前記仮想現実空間内に出力する広告出力部
をさらに備える。
【0021】
本発明の第10の態様に係る情報処理システムは、第8または9の態様に係る情報処理システムであって、
前記行動ログは、前記アバターが訪れたワールドと、前記アバターが掴んだ物と、前記アバターが誰と会話したかと、前記アバターが見たもののうちの少なくとも1つを含む。
【0022】
本発明の第11の態様に係る情報処理システムは、第8~10のいずれかの態様に係る情報処理システムであって、
前記ユーザの属性は、前記ユーザの年齢と性別のうちの少なくとも1つを含む。
【0023】
本発明の第12の態様に係る情報処理方法は、
コンピュータが実行する情報処理方法であって、
ユーザが操作するアバターの仮想現実空間内における行動ログを取得するステップと、
取得された行動ログに基づいて、前記ユーザの属性を推定するステップと、
を含む。
【0024】
本発明の第13の態様に係る情報処理プログラムは、
コンピュータに、
ユーザが操作するアバターの仮想現実空間内における行動ログを取得するステップと、
取得された行動ログに基づいて、前記ユーザの属性を推定するステップと、
を実行させるための情報処理プログラムである。
【発明の効果】
【0025】
本発明によれば、仮想現実空間内においてアバターを操作するユーザの属性を事前の情報入力無しに推定できる技術を提供できる。
【図面の簡単な説明】
【0026】
図1図1は、第1の実施形態に係る情報処理システムの概略的な構成を示す図である。
図2図2は、第1の実施形態の一変形例に係る情報処理システムの概略的な構成を示す図である。
図3A図3Aは、ユーザのモーションデータに基づいてユーザの属性を推定するプロセスの一例を説明するための図である。
図3B図3Bは、ユーザのモーションデータに基づいてユーザの属性を推定するプロセスの一例を説明するための図である。
図4図4は、第1の実施形態に係る情報処理システムの動作の一例を示すフローチャートである。
図5図5は、第2の実施形態に係る情報処理システムの概略的な構成を示す図である。
図6図6は、第2の実施形態に係る情報処理システムの動作の一例を示すフローチャートである。
【発明を実施するための形態】
【0027】
以下に、添付の図面を参照して、実施の形態を詳細に説明する。なお、以下の説明および以下の説明で用いる図面では、同一に構成され得る部分について、同一の符号を用いるとともに、重複する説明を省略する。
【0028】
(第1の実施形態)
図1は、第1の実施形態に係る情報処理システム1の概略的な構成を示す図である。情報処理システム1は、仮想現実空間内においてアバターを操作するユーザの属性を推定するシステムである。
【0029】
図1に示すように、情報処理システム1は、ヘッドマウントディスプレイ(HMD)2と、コントローラ3と、制御装置4とを備えている。ヘッドマウントディスプレイ2と制御装置4は(望ましくは無線接続により)通信可能であり、制御装置4とコントローラ3も通信可能となっている。
【0030】
このうちヘッドマウントディスプレイ2は、ユーザの頭部に装着され、ユーザに対して各種情報を出力するインターフェースである。ヘッドマウントディスプレイ2は、表示部21と、音声出力部22と、モーションセンサ23とを有している。
【0031】
表示部21は、たとえば液晶ディスプレイや有機ELディスプレイ等であり、ヘッドマウントディスプレイ2を装着したユーザの両眼の視野を覆う。これにより、ユーザは、表示部21に表示された映像を見ることができる。表示部21には、静止画、動画、文書、ホームページその他任意のオブジェクト(電子ファイル)が表示される。表示部21の表示態様に特に制限はなく、奥行きを持った仮想空間(仮想現実空間)の任意の位置にオブジェクトが表示される態様でもよいし、仮想平面の任意の位置にオブジェクトが表示される態様でもよい。
【0032】
音声出力部22は、ユーザに対して各種情報を音(音波または骨伝導)で出力するインターフェースであり、たとえばイヤホンやヘッドホン、スピーカーなどである。
【0033】
モーションセンサ23は、実環境におけるユーザの頭部の向きや動き(加速、回転等)を検出する手段である。モーションセンサ23は、たとえば加速度センサ、角速度センサ(ジャイロセンサ)、地磁気センサなどの様々のセンサを含んでいてもよい。
【0034】
コントローラ3は、ユーザの手に保持され、ユーザからの操作を受け付ける入力インターフェースである。コントローラ3は、操作部31と、モーションセンサ32とを有している。
【0035】
操作部31は、ユーザの指の動きに応じた入力を受け付ける手段であり、たとえばボタンやレバー、十字キー、タッチパッドなどである。操作部31からの操作入力により、ユーザは、仮想現実空間内でアバターを移動させたり発話させたりすることができる。
【0036】
モーションセンサ32は、実環境におけるユーザの手(または腕)の向きや動き(加速、回転等)を検出する手段である。モーションセンサ32は、たとえば加速度センサ、角速度センサ(ジャイロセンサ)、地磁気センサなどの様々のセンサを含んでいてもよい。
【0037】
次に、制御装置4について説明する。図示された例では、制御装置4は、1台のコンピュータから構成されているが、これに限定されるものではなく、ネットワークを介して互いに通信可能に接続された複数台のコンピュータから構成されていてもよい。制御装置4の機能の一部または全部は、プロセッサが所定の情報処理プログラムを実行することによって実現されてもよいし、ハードウェアで実現されてもよい。
【0038】
図1に示すように、制御装置4は、モーションデータ取得部41と、属性推定部42と、広告出力部43とを有している。
【0039】
このうちモーションデータ取得部41は、仮想現実空間内においてアバターを操作中のユーザの実環境におけるモーションデータを取得する。具体的には、たとえば、モーションデータ取得部41は、ヘッドマウントディスプレイ2から、実環境におけるユーザの頭部の向きや動き(加速、回転等)を検出したデータを、モーションデータとして取得してもよい。また、モーションデータ取得部41は、コントローラ3から、実環境におけるユーザの手(または腕)の向きや動き(加速、回転等)を検出したデータを、モーションデータとして取得してもよい。
【0040】
一変形例として、図2に示すように、ユーザを外部から撮影するカメラ5が制御装置4に通信可能に接続されている場合には、モーションデータ取得部41は、カメラ5から、実環境におけるユーザの身体の向きや動き(加速、回転等)を撮影した画像データを、モーションデータとして取得してもよい。
【0041】
図示は省略するが、ユーザの体幹(たとえば腰)および/または体肢(たとえば足)に追加のトラッキングセンサ(不図示)が装着されている場合には、モーションデータ取得部41は、当該トラッキングセンサから、実環境におけるユーザの体幹および/または体肢の向きや動き(加速、回転等)を検出したデータを、モーションデータとして取得してもよい。
【0042】
属性推定部42は、モーションデータ取得部41により取得された実環境におけるモーションデータに基づいて、ユーザの属性(たとえば、年齢、性別、身長など)を推定する。図示された例では、属性推定部42は、第1推定部421と、第2推定部422とを有している。
【0043】
第1推定部421は、モーションデータ取得部41により取得された実環境におけるモーションデータに基づいて、ユーザの骨格の動き(たとえば、腰をかがめるスピード、肩の上がり方や可動範囲、手足の長さなど)を推定する。具体的には、たとえば、第1推定部421は、過去の複数のユーザの実環境におけるモーションデータと、当該ユーザの骨格の動きとの関係性を機械学習した学習済みモデルを用いて、モーションデータ取得部41により取得された新たなモーションデータを入力として、ユーザの骨格の動きを推定してもよい。機械学習アルゴリズムとしては、たとえばディープラーニング(深層学習)が用いられてもよい。あるいは、たとえば、第1推定部421は、ユーザの実環境におけるモーションデータの計測値と、当該ユーザの骨格の動きとの関係性を規定するルール(対応表や関数)を用いて、モーションデータ取得部41により新たに取得されたモーションデータを入力として、ユーザの骨格の動きを推定してもよい。モーションデータ取得部41が、カメラ5から、実環境におけるユーザの身体の向きや動き(加速、回転等)を撮影した画像データを、モーションデータとして取得した場合には、第1推定部421は、当該画像データを画像処理することにより、ユーザの骨格の動きを推定してもよい。
【0044】
第2推定部422は、第1推定部421により推定された骨格の動き(たとえば、腰をかがめるスピード、肩の上がり方や可動範囲、手足の長さなど)に基づいて、ユーザの属性(たとえば、年齢、性別、身長など)を推定する。一例として、図3Aに示すように、ユーザの肩の上がり方が所定値より低い(または肩の可動範囲が所定値より狭い)場合には、ユーザの年齢が40代以上であると推定してもよい。また、たとえば、ユーザの肩の上がり方が所定値より低い(または肩の可動範囲が所定値より狭い)場合であって、さらに、ユーザの腰をかがめるスピードが所定値より遅い場合には、ユーザが50代以上であると推定してもよい。他方、図3Bに示すように、ユーザの肩の上り方が所定値より高い(または肩の可動範囲が所定値より広い)場合には、ユーザの年齢が30代以下であると推定してもよい。また、たとえば、ユーザの肩の上り方が所定値より高い(または肩の可動範囲が所定値より広い)場合であって、さらに、ユーザの腰をかがめるスピードが所定値より速い場合には、ユーザが20代以下であると推定してもよい。
【0045】
第2推定部422は、第1推定部421により推定された骨格の動きを入力として、ルールベースで(対応表や関数を用いて)ユーザの属性を推定してもよいし、骨格の動きとユーザの属性との関係性を機械学習した学習済みモデルを用いて、ユーザの属性を推定してもよい。機械学習アルゴリズムとしては、たとえばディープラーニング(深層学習)が用いられてもよい。
【0046】
広告出力部43は、属性推定部42により推定された属性に応じた広告(たとえば音声広告、動画広告、3Dオブジェクト広告など)を、たとえば外部の広告主のサーバ(不図示)から取得し、ヘッドマウントディスプレイ2の表示部21または音声出力部22を介して仮想現実空間内に出力する。
【0047】
広告出力部43は、広告が実環境における現実の商品の広告である場合には、ユーザ本人の属性に応じた広告を仮想現実空間内に出力してもよい。また、広告出力部43は、広告が仮想現実空間内におけるバーチャルの商品の広告である場合には、アバターの情報を加味した広告を仮想現実空間内に出力してもよい。たとえば、広告出力部43は、動物系のアバターの場合には、翼のオプションアイテムの広告を出力し、女性のアバターの場合には、ネイルのオプションアイテムの広告を出力してもよい。
【0048】
次に、このような構成からなる情報処理システム1の動作の一例について、図4を参照して説明する。図4は、情報処理システム1の動作の一例を示すフローチャートである。
【0049】
図4に示すように、まず、ユーザがヘッドマウントディスプレイ2およびコントローラ3を用いて仮想現実空間内においてアバターを操作する際に、モーションデータ取得部41が、アバターを操作中のユーザの実環境におけるモーションデータを、ヘッドマウントディスプレイ2およびコントローラ3から取得する(ステップS10)。モーションデータ取得部41は、アバターを操作中のユーザの実環境におけるモーションデータを、カメラ5やトラッキングセンサ(不図示)から取得してもよい。
【0050】
次に、属性推定部42が、モーションデータ取得部41により取得された実環境におけるモーションデータに基づいて、ユーザの属性(たとえば、年齢、性別、身長など)を推定する。
【0051】
具体的には、たとえば、まず、第1推定部421が、モーションデータ取得部41により取得された実環境におけるモーションデータに基づいて、ユーザの骨格の動き(たとえば、腰をかがめるスピード、肩の上がり方や可動範囲、手足の長さなど)を推定する(ステップS11)。
【0052】
次いで、第2推定部422が、第1推定部421により推定された骨格の動き(たとえば、腰をかがめるスピード、肩の上がり方や可動範囲、手足の長さなど)に基づいて、ユーザの属性(たとえば、年齢、性別、身長など)を推定する(ステップS12)。
【0053】
その後、広告出力部43が、属性推定部42により推定された属性に応じた広告(たとえば音声広告、動画広告、3Dオブジェクト広告など)を、たとえば外部の広告主のサーバ(不図示)から取得し、ヘッドマウントディスプレイ2の表示部21または音声出力部22を介して仮想現実空間内に出力する。
【0054】
以上のような本実施の形態によれば、モーションデータ取得部41が、仮想現実空間内においてアバターを操作中のユーザの実環境におけるモーションデータを取得し、属性推定部42が、当該モーションデータに基づいてユーザの属性を推定するため、ユーザからの事前の情報入力無しに、かつ、ウェブブラウザに保存されているクッキーを利用することなく、当該ユーザの属性を推定することが可能である。
【0055】
また、本実施の形態によれば、広告出力部43が、属性推定部42により推定された属性に応じた広告を仮想現実空間内に出力するため、ユーザの属性に応じた広告の出し分けが可能であり、広告効果を高めることができる。
【0056】
(第2の実施形態)
次に、第2の実施形態に係る情報処理システム10について説明する。図5は、第2の実施形態に係る情報処理システム10の概略的な構成を示す図である。
【0057】
図2に示すように、情報処理システム10は、ヘッドマウントディスプレイ(HMD)2と、コントローラ3と、制御装置40とを備えている。ヘッドマウントディスプレイ2と制御装置40は(望ましくは無線接続により)通信可能であり、制御装置40とコントローラ3も通信可能となっている。
【0058】
このうちヘッドマウントディスプレイ2およびコントローラ3の構成は、上述した第1の実施形態と同様であり、説明を省略する。
【0059】
図示された例では、制御装置40は、1台のコンピュータから構成されているが、これに限定されるものではなく、ネットワークを介して互いに通信可能に接続された複数台のコンピュータから構成されていてもよい。制御装置40の機能の一部または全部は、プロセッサが所定の情報処理プログラムを実行することによって実現されてもよいし、ハードウェアで実現されてもよい。
【0060】
図5に示すように、制御装置40は、行動ログ取得部44と、属性推定部45と、広告出力部43とを有している。
【0061】
このうち行動ログ取得部44は、ユーザが操作するアバターの仮想現実空間内における行動ログを取得する。ここで、行動ログは、たとえば、仮想現実空間内においてアバターが訪れたワールド(どのワールドを訪れたか)と、仮想現実空間内においてアバターが掴んだ物(何を掴んだか)と、仮想現実空間内においてアバターが誰と会話したかと、仮想現実空間内においてアバターが見たもの(何を見たか)のうちの少なくとも1つを含んでいてもよい。
【0062】
属性推定部45は、行動ログ取得部44により取得された仮想現実空間内におけるアバターの行動ログに基づいて、当該アバターを操作するユーザの属性(たとえば、年齢、性別、身長など)を推定する。たとえば、属性推定部45は、アバターの行動ログに基づいて、当該アバターを操作するユーザの嗜好を大別し、大別されたユーザの嗜好に基づいて当該ユーザの属性を推定してもよい。
【0063】
属性推定部45は、行動ログ取得部44により取得された仮想現実空間内におけるアバターの行動ログを入力として、ルールベースで(対応表や関数を用いて)ユーザの属性を推定してもよいし、過去の複数のアバターの行動ログとアバターを操作するユーザの属性との関係性を機械学習した学習済みモデルを用いて、ユーザの属性を推定してもよい。機械学習アルゴリズムとしては、たとえばディープラーニング(深層学習)が用いられてもよい。
【0064】
属性推定部45は、行動ログ取得部44により取得された仮想現実空間内におけるアバターの行動ログに基づいて、当該アバターを操作するユーザの属性を推定する際に、ユーザのバイタルデータ(たとえば、ユーザのウェアラブルデバイスから取得される心拍数など)をさらに照合して、ユーザの属性を推定してもよい。
【0065】
広告出力部43は、属性推定部42により推定された属性に応じた広告(たとえば音声広告、動画広告、3Dオブジェクト広告など)を、たとえば外部の広告主のサーバ(不図示)から取得し、ヘッドマウントディスプレイ2の表示部21または音声出力部22を介して仮想現実空間内に出力する。
【0066】
広告出力部43は、広告が実環境における現実の商品の広告である場合には、ユーザ本人の属性に応じた広告を仮想現実空間内に出力してもよい。また、広告出力部43は、広告が仮想現実空間内におけるバーチャルの商品の広告である場合には、アバターの情報を加味した広告を仮想現実空間内に出力してもよい。たとえば、広告出力部43は、動物系のアバターの場合には、翼のオプションアイテムの広告を出力し、女性のアバターの場合には、ネイルのオプションアイテムの広告を出力してもよい。
【0067】
次に、このような構成からなる情報処理システム10の動作の一例について、図6を参照して説明する。図6は、情報処理システム10の動作の一例を示すフローチャートである。
【0068】
図6に示すように、まず、ユーザがヘッドマウントディスプレイ2およびコントローラ3を用いて仮想現実空間内においてアバターを操作する際に、行動ログ取得部44が、仮想現実空間内におけるアバターの行動ログを取得する(ステップS20)。
【0069】
次に、属性推定部45が、行動ログ取得部44により取得された仮想現実空間内におけるアバターの行動ログに基づいて、当該アバターを操作するユーザの属性(たとえば、年齢、性別、身長など)を推定する(ステップS21)。
【0070】
その後、広告出力部43が、属性推定部42により推定された属性に応じた広告(たとえば音声広告、動画広告、3Dオブジェクト広告など)を、たとえば外部の広告主のサーバ(不図示)から取得し、ヘッドマウントディスプレイ2の表示部21または音声出力部22を介して仮想現実空間内に出力する。
【0071】
以上のような本実施の形態によれば、行動ログ取得部44が、ユーザが操作するアバターの仮想現実空間内における行動ログを取得し、属性推定部45が、当該行動ログに基づいてユーザの属性を推定するため、ユーザからの事前の情報入力無しに、かつ、ウェブブラウザに保存されているクッキーを利用することなく、当該ユーザの属性を推定することが可能である。
【0072】
また、本実施の形態によれば、上述した第1の実施形態と同様に、広告出力部43が、属性推定部42により推定された属性に応じた広告を仮想現実空間内に出力するため、ユーザの属性に応じた広告の出し分けが可能であり、広告効果を高めることができる。
【0073】
なお、上述した実施の形態の記載ならびに図面の開示は、特許請求の範囲に記載された発明を説明するための一例に過ぎず、上述した実施の記載または図面の開示によって特許請求の範囲に記載された発明が限定されることはない。上述した実施の形態の構成要素は、発明の主旨を逸脱しない範囲で任意に組み合わせることが可能である。
【0074】
また、本実施の形態に係る情報処理システム1、10の少なくとも一部はコンピュータによって構成され得るが、コンピュータに情報処理システム1、10の少なくとも一部を実現させるためのプログラム及び当該プログラムを非一時的(non-transitory)に記録したコンピュータ読取可能な記録媒体も、本件の保護対象である。
【符号の説明】
【0075】
1、10 情報処理システム
2 ヘッドマウントディスプレイ
21 表示部
22 音声出力部
23 モーションセンサ
3 コントローラ
31 操作部
32 モーションセンサ
4、40 制御装置
41 モーションデータ取得部
42、45 属性推定部
421 第1推定部
422 第2推定部
43 広告出力部
44 行動ログ取得部
5 カメラ
図1
図2
図3A
図3B
図4
図5
図6