IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社meleapの特許一覧

特許7185814情報処理装置、情報処理方法及びプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-11-30
(45)【発行日】2022-12-08
(54)【発明の名称】情報処理装置、情報処理方法及びプログラム
(51)【国際特許分類】
   A63F 13/86 20140101AFI20221201BHJP
   A63F 13/69 20140101ALI20221201BHJP
   A63F 13/52 20140101ALI20221201BHJP
   A63F 13/428 20140101ALI20221201BHJP
   A63F 13/35 20140101ALI20221201BHJP
   G06F 3/01 20060101ALI20221201BHJP
   A63F 13/847 20140101ALI20221201BHJP
【FI】
A63F13/86
A63F13/69 500
A63F13/52
A63F13/428
A63F13/35
G06F3/01 510
G06F3/01 570
A63F13/847
【請求項の数】 9
(21)【出願番号】P 2019204288
(22)【出願日】2019-11-11
(65)【公開番号】P2021074354
(43)【公開日】2021-05-20
【審査請求日】2022-01-14
【早期審査対象出願】
(73)【特許権者】
【識別番号】515029190
【氏名又は名称】株式会社meleap
(74)【代理人】
【識別番号】100205659
【弁理士】
【氏名又は名称】齋藤 拓也
(74)【代理人】
【識別番号】100154748
【弁理士】
【氏名又は名称】菅沼 和弘
(72)【発明者】
【氏名】福田 浩士
【審査官】宇佐田 健二
(56)【参考文献】
【文献】特開2016-116638(JP,A)
【文献】特開2019-181074(JP,A)
【文献】特許第6492212(JP,B1)
【文献】特開2014-155544(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A63F 13/00-13/98,9/24
G06F 3/01
(57)【特許請求の範囲】
【請求項1】
プレイヤの動きに応じてオブジェクトを動作させるゲームを実行するゲーム実行手段と、
前記プレイヤ以外で前記ゲームに関係する複数の第三者の夫々の行動に対して、1人の第三者単体の行動に関する第1行動情報と、複数人の第三者による連動した行動に関する第2行動情報とを取得する情報取得手段と、
前記情報取得手段により取得された前記第1行動情報に基づいて、前記オブジェクトを含む前記ゲームに第1の影響を与える変化を発生させ、かつ、前記第2行動情報に基づいて、前記オブジェクトを含む前記ゲームに第2の影響を与える変化を発生させる反映手段と、
を備え
前記1人の第三者単体の行動と前記複数人の第三者による連動した行動が、同じ種類だが異なる程度の応援であり、かつ、前記第1の影響と前記第2の影響が、異なる種類の影響である、
情報処理装置。
【請求項2】
前記反映手段は、
前記情報取得手段により取得された前記第三者の行動情報に基づいて、予め設定された条件に合致する行動を判定する行動判定手段と、
前記行動判定手段により判定された前記行動に基づいて、前記オブジェクトを含む前記ゲームに影響を与える変化を発生させるゲーム反映手段と、
を備える請求項1に記載の情報処理装置。
【請求項3】
前記ゲーム実行手段は、
プレイヤが透過型のディスプレイを通して見える現実の空間に、拡張現実空間又は複合現実空間におけるオブジェクトを重ねて前記ディスプレイに表示させて、前記プレイヤの動きに応じて前記オブジェクトを動作させるゲームを実行する、
請求項1又は2に記載の情報処理装置。
【請求項4】
前記ゲーム実行手段は、
現実のプレイヤに対応する仮想現実空間上のアバターが当該プレイヤの動き又はゲーム機の操作に応じて動き、該アバターの動きに応じて仮想現実空間の画像が変化するゲームを実行する、
請求項1又は2に記載の情報処理装置。
【請求項5】
前記条件は、
前記第三者から取得された行動情報に含まれる行動が有効な行動であると判定するための行動判定条件と、前記行動判定条件に合致した行動を、ゲームにどのように反映させるかを示すゲーム反映内容とを対応させたものである、
請求項2項に記載の情報処理装置。
【請求項6】
前記第三者が操作可能な情報端末を有し、
前記行動情報は、
前記第三者の動き、声、又は前記情報端末に対する前記第三者の操作を前記情報端末が検出した状況の変化を示す情報を含み、
前記反映手段は、
前記状況の変化を示す情報が予め設定された閾値を超えた場合に、前記オブジェクトを含む前記ゲームに変化を発生させる、
請求項2項に記載の情報処理装置。
【請求項7】
前記変化を示す情報は、
前記情報端末に対する前記第三者のボタンの押下操作、前記第三者の歩数、前記第三者の声、前記第三者の体の動き、前記第三者が所持する物の動きのうち1つ以上の変化を含む、
請求項6に記載の情報処理装置。
【請求項8】
プレイヤの動きに応じてオブジェクトを動作させるゲームを実行するステップと、
前記プレイヤ以外で前記ゲームに関係する複数の第三者の夫々の行動に対して、1人の第三者単体の行動に関する第1行動情報と、複数人の第三者による連動した行動に関する第2行動情報とを取得するステップと、
前記第1行動情報に基づいて、前記オブジェクトを含む前記ゲームに第1の影響を与える変化を発生させ、かつ、前記第2行動情報に基づいて、前記オブジェクトを含む前記ゲームに第2の影響を与える変化を発生させる反映ステップと、
を有し、
前記1人の第三者単体の行動と前記複数人の第三者による連動した行動が、同じ種類だが異なる程度の応援であり、かつ、前記第1の影響と前記第2の影響が、異なる種類の影響である、
情報処理方法。
【請求項9】
情報処理装置に処理を実行させるプログラムにおいて、
前記情報処理装置を、
プレイヤの動きに応じてオブジェクトを動作させるゲームを実行するゲーム実行手段と、
前記プレイヤ以外で前記ゲームに関係する複数の第三者の夫々の行動に対して、1人の第三者単体の行動に関する第1行動情報と、複数人の第三者による連動した行動に関する第2行動情報とを取得する情報取得手段と、
前記情報取得手段により取得された前記第1行動情報に基づいて、前記オブジェクトを含む前記ゲームに第1の影響を与える変化を発生させ、かつ、前記第2行動情報に基づいて、前記オブジェクトを含む前記ゲームに第2の影響を与える変化を発生させる反映手段、
として機能させ
前記1人の第三者単体の行動と前記複数人の第三者による連動した行動が、同じ種類だが異なる程度の応援であり、かつ、前記第1の影響と前記第2の影響が、異なる種類の影響である、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法及びプログラムに関する。
【背景技術】
【0002】
例えばコートやフィールド等の限られたエリアで2つのチームに分かれたプレイヤどうしが対戦する拡張現実体感型のゲームが知られている。
近年では、ゲーム内で対戦するプレイヤだけでなく、プレイヤ以外の第三者、例えばゲームを視聴する視聴者等が所望のプレイヤ(被応援プレイヤ)を応援する仕組みも構築されている(例えば特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2018-015354号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来のゲームは、視聴者がプレイヤを応援すると言っても、応援メッセージやスタンプをプレイヤに送ることで、その量(応援熱量)に応じてプレイヤにポイントが付与される程度であり、視聴者等の第三者がプレイヤと共にゲームに参加している体感を得るというところまでには至っていない。
また、このように現実のプレイヤにオブジェクトを重ねて表示するゲームでは、プレイヤの頭や手の動きをどれだけ正確にトラッキングできるかが、ゲームを視聴したりプレイする上で重要である。
さらに、火の玉やボール等のオブジェクトをプレイヤが投げたり発射するようなゲームでは、プレイヤの投げる動作に対してオブジェクトが手離れするタイミングが、ゲームを視聴したりプレイする上で重要である。
しかし、現状、トラッキング精度や手離れ感という面で充分ではなく、プレイヤとオブジェクトの一体感や現実感が感じられないことも多く、見映えに欠けてゲームを楽しめないことがある。
【0005】
本発明は、このような状況に鑑みてなされたものであり、本発明は、プレイヤやそれ以外の第三者がゲームを楽しむことができるようにすることを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するため、本発明の一態様の情報処理装置は、
プレイヤの動きに応じてオブジェクトを動作させるゲームを実行するゲーム実行手段と、
前記プレイヤ以外で前記ゲームに関係する第三者の行動に関する行動情報を取得する情報取得手段と、
前記情報取得手段により取得された前記第三者の行動情報に基づいて、前記オブジェクトを含む前記ゲームに影響を与える変化を発生させる反映手段と、
を備える。
本発明の一態様の上記情報処理装置に対応する情報処理方法及びプログラムも、本発明の一態様の情報処理方法及びプログラムとして提供される。
【発明の効果】
【0007】
本発明によれば、プレイヤやそれ以外の第三者がゲームを楽しむことができるようになる。
【図面の簡単な説明】
【0008】
図1】本発明に係る第1実施形態のARゲームの概要を示す図である。
図2図1のARゲームとサービスを提供する情報処理システムの構成を示す図である。
図3図2の情報処理システムのうちサーバのハードウェア構成を示す図である。
図4図3のサーバの機能的構成を示す図である。
図5】取得した行動情報のうち応援行動と判定するための条件が記憶されたテーブルを示す図である。
図6】取得した行動情報のうち応援行動と判定するための条件が記憶されたテーブルを示す図である。
図7図1乃至図3のサーバの動作を示すフローチャートである。
図8】第2実施形態の情報処理システムの構成を示す図である。
図9図8の情報処理システムの各機器の機能的構成を示す図である。
図10】第2実施形態において手のポジションをトラッキングする動作を説明するための図である。
図11】第2実施形態においてマーカートラッキングにより頭部のポジションをトラッキングする動作を説明するための図である。
図12】第2実施形態においてワールドトラッキングにより頭部のポジションをトラッキングする動作を説明するための図である。
図13】第2実施形態において2つのトラッキング情報を同期させる動作を説明するための図である。
図14】第2実施形態において同期結果として出力される情報を示す図である。
図15】トラッキング技術を応用する他の例を示す図である。
図16】第3実施形態の情報処理システムの構成を示す図である。
図17】発射タイミングを判定する動作を説明するための図である。
図18】プレイヤの視線を維持する動作を説明するための図である。
図19】発射方向を判定する動作を説明するための図である。
図20】プレイヤの背後からみた空間を示す図である。
図21】プレイヤが放つシュートを一定の高さに制限する例を示す図である。
図22】アームセンサの回転情報を利用してシュートを制御したりチャージする例と、チャージ後に腕を振るとシュートを放てるようになる例を示す図である。
図23】相手チームのプレイヤが放ったシュートをキャッチする様子を示す図である。
図24】所定範囲でのシュートの発射を制限する様子を示す図である。
【発明を実施するための形態】
【0009】
以下、本発明の実施形態について図面を用いて説明する。
図1は、本発明に係る第1実施形態に係る情報処理システムを示す図である。
【0010】
(第1実施形態)
図1に示すように、第1実施形態の情報処理システムは、1人以上のプレイヤPA-1乃至PA-m、プレイヤPB-1乃至PB-mが、第1チームAと第2チームBの2つのチームに分かれて、体を動かして技を発動させてフィールドを自由に動き回り、味方と連携して相手にダメージを与えて、生き残る人数を競い合い楽しむ拡張現実体感型のスポーツイベント(以下「ARゲーム:Augmented Reality Game」と呼ぶ)を提供する。
また、この情報処理システムは、ARゲームに一人以上の視聴者である応援者UA-1乃至UA-h、応援者UB-1乃至UB-kが参加していることを体感することができる応援者支援サービスを提供する。
プレイヤPA-1乃至PA-mは、第1チームAのプレイヤである。プレイヤPB-1乃至PB-mは、第2チームBのプレイヤである。
応援者UA-1乃至UA-h、応援者UB-1乃至UB-kは、ゲームを視聴する視聴者であり、自分の好きなチームやプレイヤを応援する応援者といえるが、相手チームの応援者にとっては、妨害者であるため、これらを含め、プレイヤP以外でゲームに関係する第三者と言える。
【0011】
なお、以下では、個々の端末を識別する必要がないときは、プレイヤ端末1(ヘッドマウントディスプレイ1-1(以下「HMD1-1」と呼ぶ)及びアームセンサ2)、応援者端末3と呼ぶ。また、プレイヤについても個人を特定する必要がないときは、プレイヤP、プレイヤPA、プレイヤPB等と呼ぶ。さらに、応援者についても個人を特定する必要がないときは、応援者U、応援者UA、UB等と呼ぶ。
【0012】
応援者UA-1乃至UA-hは、プレイヤPA-1乃至PA-mやそのチームを応援するための応援エリアにて応援する。応援者UB-1乃至UB-hは、プレイヤPB-1乃至PB-mやそのチームを応援するための応援エリアにて応援する。
【0013】
図2に示すように、図1の情報処理システムは、プレイヤPA-1乃至PA-m、プレイヤPB-1乃至PB-mが装着するプレイヤ端末1(HMD1-1、アームセンサ1-2)と、一人以上の応援者UA-1乃至UA-h、UB-1乃至UB-kが操作する応援者端末3-1乃至3-nと、ARゲームを動作させつつ夫々の応援者端末3-1乃至3-nにより検知及び送信される応援行動を基にARゲームに影響を与えるサーバ4とがネットワークNを介して相互に接続して構成される。
【0014】
なお、以下では、応援者端末3-1乃至3-nについて、個々の端末を識別する必要がないときは、応援者端末3と呼ぶ。
【0015】
プレイヤ端末1は、装着しているプレイヤPの動きを検出する。HMD1-1には、プレイヤPの動きを検出するセンサと通信機能とスピーカとディスプレイとカメラ等が備えられている。即ちHMD1-1は、プレイヤPの視線とその移動や頭部の動きを検出する。
【0016】
スピーカは、通信機能により受信されるゲームの音声や周囲の声援等の音声をプレイヤPが聞けるように出力する。ディスプレイには、通信機能により受信されるゲームの3DCGホログラム映像(エナジーボールEBやシールドSH等の3Dオブジェクト)が、ディスプレイを通じて実際に見える現実の空間に重ねて表示される。3DCGとは、three-dimensional computer graphicsの略称である。
【0017】
アームセンサ1-2は、プレイヤPの腕の動きを検出する。ゲーム上では、例えば腕が垂直方向にたてられると、その動きをアームセンサ1-2が検出してサーバ4に通知し、サーバ4でのゲーム処理でプレイヤPの前方にシールドSHが立てた状態でディスプレイに表示される。また、ボールを投げるように腕が振られると、エナジーボールEBが手から投げた方向に発射されるようにディスプレイに表示される。
アームセンサ1-2は、HMD1-1の周辺機器に含まれ、HMD1-1とも通信する。これ以外に、HMD1-1の周辺機器として、例えばVive Tracker、OptiTrack等があり、これを利用してもよい。
【0018】
応援者端末3-1乃至3-nは、プレイヤPA-1乃至PA-m、プレイヤPB-1乃至PB-mを応援する応援者Uが操作可能な情報端末であり、応援者Uの応援行動を含む各種行動を検出する。
応援者端末3-1乃至3-nにより検出される行動としては、例えば応援者端末3-1乃至3-nに入力される応援者の声、応援者Uによるボタンの押下操作やタッチ操作、応援者端末3-1乃至3-nのカメラ機能によって撮像される応援者Uの画像の動き、応援者Uが応援者端末3-1乃至3-nを手で持って動かす動作、応援者Uが飛び跳ねたときに応援者端末3-1乃至3-nが上下動を検出する動作(万歩計による歩数計測等)、応援者Uが歩行したときに一緒に応援者端末3-1乃至3-nの位置が変位しそれを検出する動作(方向計測や移動計測等)等が含まれる。なお、万歩計は、登録商標である。
【0019】
図3は、図2の情報処理システムのうち、サーバ4のハードウェア構成を示す図である。
図3に示すように、サーバ4は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、バス24と、入出力インターフェース25と、表示部27と、入力部28と、記憶部29と、通信部30と、ドライブ31と、を備えている。
【0020】
CPU21は、ROM22に記録されているプログラム、又は、記憶部29からRAM23にロードされたプログラムに従って各種の処理を実行する。RAM23には、CPU21が各種の処理を実行する上において必要なデータ等も適宜記憶される。
【0021】
CPU21、ROM22及びRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インターフェース25も接続されている。入出力インターフェース25には、表示部27、入力部28、記憶部29、通信部30及びドライブ31が接続されている。
【0022】
表示部27は、液晶等のディスプレイにより構成され、画面を表示する。入力部28は、各種ハードウェアボタン又はソフトウェアボタン等で構成され、利用者の指示操作に応じて入力される各種情報を受け付ける。
【0023】
記憶部29は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部30は、例えばLANインターフェースであり、インターネットを含むネットワークNを介して他の装置(図2の例ではプレイヤ端末1や応援者端末3等)との間で通信を行う。
【0024】
ドライブ31は、必要に応じて設けられる。ドライブ31には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア32が適宜装着され、リムーバブルメディア32に対してデータやプログラムを読み出し動作、及び書き込み動作する。ドライブ31によってリムーバブルメディア32から読み出されたプログラムは、必要に応じて記憶部29にインストールされる。また、リムーバブルメディア32は、記憶部29に記憶されている各種データも、記憶部29と同様に記憶することができる。
【0025】
なお、サーバ4以外の装置、例えばプレイヤ端末1や応援者端末3等のハードウェアは、サーバ4とほぼ同様であり、図示は省略する。
【0026】
応援者端末3-1乃至3-nは、応援者Uが所持する情報端末、例えばスマートホンやタブレット端末等であり、これらの端末の場合、表示部27及び入力部28が一体化し人の指等による操作を受け付けるタッチパネルを備える。タッチパネルにより応援者Uによるタッチ操作が可能である。応援者端末3-1乃至3-nを、すべての観戦者が持つ必要はない。この他、情報端末としては、例えばテレビジョン装置、パーソナルコンピュータ、コンソールゲーム等が含まれる。
【0027】
また、近年のスマートホンは、赤外線センサ、ジャイロセンサ、磁気センサ(方位センサ)、接近センサ、気圧センサ、温度センサ、光センサ、加速度センサ(モーションセンサ)や心拍センサ、血圧センサ等の各種センサやその他、マイク、GPS信号受信機能、無線LAN等の通信機能等を備えており、応援者端末3-1乃至3-n自体で人の行動を検出し、行動情報として外部へ発信(伝達)することができる。
サーバ4は、夫々の応援者端末3-1乃至3-nより発信された行動情報を取得して、取得した行動情報に基づいて、様々な処理を行うことができる。
【0028】
次に、図4を参照して図2の情報処理システムの機能的構成を説明する。図4は、図2の情報処理システムに含まれる図3のサーバ4の機能的構成を示す図である。
【0029】
図4に示すように、サーバ4の記憶部29は、会員情報記憶部41、ゲーム情報記憶部42、応援情報記憶部43等として機能する。
会員情報記憶部41には、例えばユーザID及びパスワード等を含む会員情報が記憶されている。このゲームに参加するプレイヤPは、プレイヤとして会員登録する。プレイヤPは、ハンドル名等やチーム名等を登録する。
この他に、応援者Uも応援者として会員登録し、応援している所望のプレイヤPのハンドル名やチーム名等を事前登録しておくことができる。
なお、応援者Uの会員登録は、必須ではなく、Webサイトにアクセスし、ゲームを観戦している中で、画面の応援ボタンを押すことで応援することがもできる。
【0030】
ゲーム情報記憶部42には、ゲーム上でオブジェクトをHMD1-1に表示し、動作させるための情報の他に、パラメータ等の設定情報、チームの成績、ゲームの履歴等も記憶される。
応援情報記憶部43には、図5に示すように、各応援者端末3から夫々取得された行動が応援行動であると判定するための条件(応援行動判定条件)と、この応援行動判定条件に合致した応援行動を、ゲームにどのように反映させるかを示す情報(ゲーム反映内容)とを対応させたテーブル70が記憶されている。
即ち、このテーブル70は、各応援者Uから夫々取得された行動情報に含まれる行動が有効な行動であると判定するための行動判定条件と、この行動判定条件に合致した行動を、ゲームにどのように反映させるかを示すゲーム反映内容とを対応させたものである。
行動情報は、視聴者の動き、声、又は応援者端末3に対する応援者Uの操作を応援者端末3が検出した状況の変化を示す情報を含む。
状況の変化は、応援者端末3に対する応援者Uのボタン操作、応援者Uの歩数、応援者Uの声、応援者Uの体の動き、応援者Uが所持する物の動きのうち1つ以上の変化を含む。応援者Uの状況が変化したと判定するため、夫々の行動には閾値が設定されている。例えば歩数ならば何歩以上、拍手ならば何回以上、声であれば何dB以上等である。
【0031】
サーバ4のCPU21は、ゲーム実行部51、Webサーバ部52、行動情報取得部53及び反映部54として機能する。
ゲーム実行部51は、プレイヤPの動きに応じてオブジェクトを動作させるゲームを実行する。ゲーム実行部51は、HMD1-1を装着したプレイヤPが当該HMD1-1を通じて見える現実の空間にAR空間におけるオブジェクト(エナジーボールEBやシールドSH等)を重ねてHMD1-1に表示させて、プレイヤPの動き(頭の動き、ハンドジェスチャーや視線移動といったナチュラルユーザインタフェース)に応じてオブジェクトを動作させるARゲームをHMD1-1上で実行する。
【0032】
Webサーバ部52は、ネットワークNに上記ARゲームの運営サイトを公開し、運営サイトで会員登録した会員に対して、ゲームに関するサービスを提供する。会員登録を済ませた会員には、会員ID及びパスワードが付与されるので、会員は、自身が所持する情報端末(HMD1-1や応援者端末3-1乃至3-n等)で運営サイトにアクセスし、会員ID及びパスワードにて会員ページにログインすることで、会員としてのサービスの提供が受けられる。
【0033】
行動情報取得部53は、プレイヤP以外でゲームに関係する第三者の行動に関する行動情報を取得する。
行動情報取得部53は、ゲームを観戦する応援者Uが行った応援行動に関する行動情報を、各応援者端末3-1乃至3-nから通信部30を通じて受信し取得する。つまり行動情報取得部53は、応援者Uが所持する応援者端末3から応援者Uの応援行動の情報を取得する。
反映部54は、行動情報取得部53により各応援者端末3-1乃至3-nから取得された行動情報に基づいて、オブジェクトを含むゲームに影響を与える変化を発生させる。
反映部54は、行動情報を基に応援行動と判定した行動に対して、オブジェクトを含むゲームの動きに状態変化をもたらすようにゲーム実行部51を制御する。
【0034】
反映部54は、行動判定部61及びゲーム反映部62等を有する。
行動判定部61は、行動情報取得部53により各応援者端末3-1乃至3-nから取得された行動情報に基づいて、予め設定された条件に合致する行動を判定する。具体的には、行動判定部61は、行動情報取得部53により各応援者端末3-1乃至3-nから行動情報が取得されると、応援情報記憶部43のテーブル70を参照して、予めテーブル70に設定された応援行動判定条件に、取得された行動情報に含まれる行動が合致するか否かを判定し、合致する行動が含まれていた場合は、応援行動と判定する。
なお、行動判定部61は、応援者Uの状況の変化が予め設定された閾値を超えた場合に、ゲーム反映部62に通知し、オブジェクトを含むゲームに変化を発生させる。例えば歩数ならば何歩以上、拍手ならば何回以上、声であれば何dB以上等である。
【0035】
ゲーム反映部62は、行動判定部61により判定された行動に基づいて、オブジェクトを含むゲームに影響を与える変化を発生させる。即ち、ゲーム反映部62は、行動判定部61により応援行動と判定された場合、応援行動に対応するゲーム反映内容をテーブル70から読み出して、その内容のようにゲームが動作するように制御信号をゲーム実行部51へ出力する。
【0036】
次に、図7を参照してこの情報処理システムの動作(サービスの内容)を説明する。図7は、図2の情報処理システムのうち図4のサーバの動作を示すフローチャートである。
【0037】
この情報処理システムの場合、ゲームに参加するプレイヤP及び観戦者である応援者Uは、サーバ4が公開する会員サイトにログインし、応援者Uがどのチーム(どのプレイヤ)の応援者Uかを登録する。なお、会員登録の際に、予め好きなチームやプレイヤP(被応援者)を登録しておけば、ログイン時に被応援者の登録を省くことができる。
【0038】
ゲームが開始されてから、応援者Uがゲームを視聴しつつ所望のチームやプレイヤPを応援する際に、例えば好きなチームやプレイヤPに「声援を送る」、「飛び跳ねる」、「旗を振る」等の行動を起こすと、その応援者の行動を応援者端末3-1乃至3-nが行動情報として検出し、検出した行動情報をサーバ4へ送信する。
【0039】
「声援を送る」という行動は、応援者端末3-1乃至3-nでは、マイクに入力された音声データとして検出し、それが応援者の行動情報として送信される。「飛び跳ねる」という行動は、応援者端末3-1乃至3-nでは、万歩計機能の歩数として計数されて、歩数が応援者の行動情報として送信される。「旗を振る」という行動は、応援者端末3-1乃至3-nでは、カメラ機能の画像認識により旗振行動として認識されて、旗振行動に該当するコマンドが送信される。
なお、ネットワークNの容量や通信速度等に余裕があれば、応援者端末3-1乃至3-nのカメラ機能で撮像した応援者Uの画像(動画等)を行動情報としてサーバ4へ送ってもよい。このように応援者Uの行動は、行動情報に変換されて送信される。なお、ここで例示したのは一例であり、これ以外にも様々な応援行動があり、応援行動として判定される行動の一部を、図5及び図6のテーブル70の応援行動判定条件の欄に開示する。
【0040】
サーバ4では、図7のステップS11において、行動情報取得部53が、プレイヤP以外でゲームに関係する第三者である応援者Uの行動に関する行動情報を取得する。詳細に説明すると、行動情報取得部53は、各応援者端末3-1乃至3-nがゲームを観戦する応援者Uから検出した行動情報を、通信部30を通じて取得する。
【0041】
すると、ステップS12において、反映部54は、行動情報取得部53により取得された行動情報に基づいて、オブジェクトを含むゲームに影響を与える変化を発生させる。
ステップS12の処理を詳細に説明すると、ステップS21において、行動判定部61は、行動情報取得部53により各応援者端末3-1乃至3-nから取得された行動情報に基づいて、予め設定された条件に合致する行動を判定する。
具体的には、行動判定部61は、行動情報取得部53により各応援者端末3-1乃至3-nから行動情報が取得されると、応援情報記憶部43のテーブル70を参照して、予めテーブル70に設定された応援行動判定条件に、取得された行動情報に含まれる行動が合致するか否かを判定し、合致する行動が含まれていた場合は、応援行動と判定し、応援行動に対応するゲーム反映内容をテーブル70から読み出してゲーム反映部62に通知する。
【0042】
ここで、図5を参照して応援行動がゲームに影響を与える変化を発生させる例を説明する。
サーバ4では、例えばある応援者Uが応援者端末3のボタンを押すと、「端末のボタンを押した」という行動情報が応援者端末3から得られるので、行動判定部61は、図5に示すテーブル70の応援行動判定条件を参照して、その応援行動判定条件の応援行動と得られた行動情報が合致するか否かを判定する。
この判定の結果、「端末のボタンを押した」という行動情報が「端末のボタンを押したら」という応援行動判定条件に合致するため、行動判定部61は、得られた行動情報を応援行動とみなし、同欄の対応するゲーム反映内容である「ライフが増える」という内容をゲームに反映させるようにゲーム反映部62に通知する。なお、上記の「端末」は、応援者端末3を示す。
【0043】
ここから処理の説明に戻る。図7のステップS22において、ゲーム反映部62は、行動判定部61により判定された行動に基づいて、オブジェクトを含むゲームに影響を与える変化を発生させる。即ち、ゲーム反映部62は、行動判定部61により応援行動と判定された場合、応援行動に対応するゲーム反映内容が通知されるので、その反映内容にゲームが動作するように制御情報をゲーム実行部51へ出力し、制御情報を受けたゲーム実行部51は、制御情報が示す内容になるようにゲームを動作させる。
【0044】
(第2実施形態)
次に、図8を参照して本発明に係る第2実施形態に係る情報処理システムを説明する。
なお、この第2実施形態は、第1実施形態で説明した図1及び図2の情報処理システムに含まれる図3のサーバ4のハードウェア構成、及び図4のサーバ4の機能的構成を有しており重複する構成の説明は省略する。
【0045】
第2実施形態の情報処理システムは、図8に示すように、サーバ4と、複数のベースステーション81と、HMD1-1と、アームセンサ1-2とを備える。限られた範囲のフロアFにおいて、現実のプレイヤPがゲームを行う。
この現実の空間をゲーム内の仮想空間に対応させるため、説明上、空間を、ある起点からのx軸、y軸、z軸の座標系で表すものとする。フロアFの周囲の所定の壁面Wには、所定の高さの位置に所定の大きさでマーカーMが設けられている。
夫々のベースステーション81は、多軸レーザー発光器であり、フロアFの角に対角に設置されている。ベースステーション81は、フロアF中に赤外線レーザーを一定間隔で照射する。
【0046】
図9に示すように、情報処理システムは、HMD1-1、アームセンサ1-2及びサーバ4のゲーム実行部51により構成される。
HMD1-1は、カメラ部111と、位置検出部112と、通信部113を有する。カメラ部111は、例えばCCDセンサ等であり、プレイヤPの視線方向の画像を撮像する。なお、画像には、動画、静止画が含まれる。画像は、映像全般を示す。
位置検出部112は、画像認識処理により、カメラ部111により撮像された画像に含まれるマーカーの位置や撮像される画像の偏位に基づいてHMD1-1の位置、つまりHMD1-1が装着されているプレイヤPの頭部の位置(ポジション)を検出する。
一例として、例えばARKit等の画像認識技術を用いるものとする。画像認識技術の例としては、例えばマーカートラッキングやワールドトラッキング等があり、これらの技術を利用するものとする。なお、これら以外の技術を利用してもよい。
通信部113は、サーバ4やHMD1-1と通信する。通信部112は、位置検出部112により検出されたプレイヤPの頭部の位置情報をサーバ4へ送信する。
【0047】
アームセンサ1-2は、赤外線センサ101と、位置検出部102と、通信部103を有する。
赤外線センサ101は、多数の受光センサを搭載し、異なる位置のベースステーション81から照射される赤外線レーザーを受光する。
位置検出部102は、赤外線センサ101が赤外線レーザーを受光した時間や角度からこのアームセンサ1-2が装着されているプレイヤPの腕又は手の位置(ポジション)を検出する。以下、腕又は手を総称し「手」と呼ぶ。一例として、例えばHTC VIVEによるトラッキング技術等を用いるものとする。頭部や手、足を含むものを肢体と呼ぶ。
通信部102は、サーバ4やアームセンサ1-2と通信する。通信部112は、位置検出部102により検出されたプレイヤPの手の位置の位置情報をサーバ4へ送信する。
【0048】
サーバ4のゲーム実行部51は、アームトラッキング部91、頭部トラッキング部92、同期部93及びゲーム制御部94を有する。
頭部トラッキング部92は、HMD1-1から取得したプレイヤPの頭部の位置情報に基づいて、頭部のポジションをトラッキングする。
アームトラッキング部91は、アームセンサ1-2から取得したプレイヤPの手の位置情報に基づいて、手のポジションをトラッキングする。
【0049】
同期部93は、頭部トラッキング部92が頭部のポジションをトラッキングした第1トラッキング情報と、アームトラッキング部91が手のポジションをトラッキングした第2トラッキング情報とを同期させて、同じタイミングでの頭部と手の位置情報を取得、つまり頭部と手の位置を検出する。なお、トラッキング情報とは、ポジションが時系列で変化する遷移情報(距離と方向のベルトル情報)である。
ゲーム制御部94は、同期部93により取得(検出)された頭部と手のポジションに合わせた画像(エフェクト)をゲーム内の仮想空間に表示する制御を行う。
【0050】
続いて、図10乃至図15を参照してこの第2実施形態の情報処理システムの動作を説明する。まず、図10を参照して情報処理システムにおいて手のポジションをトラッキングする動作を説明する。
【0051】
図10に示すように、フロアFの範囲内には、ベースステーション81から赤外線レーザーが一定間隔で照射されている。
プレイヤPがフロアFの内側に入ると、プレイヤPの腕に装着されているアームセンサ1-2の赤外線センサ101により、夫々のベースステーション81から照射されている赤外線レーザーが受光される。
位置検出部102は、赤外線センサ101が赤外線レーザーを受光した時間や角度からプレイヤPの手のポジションを検出する。一例として、例えば空間の座標(x,y,z)=(1,1,1)等が手のポジションとして検出される。
【0052】
続いて、図11及び図12を参照して情報処理システムにおいて頭部のポジションをトラッキングする動作を説明する。HMD1-1の撮像機能を利用したトラッキング技術としては、マーカートラッキングとワールドトラッキングの2つの手法があり、夫々を説明する。
【0053】
マーカートラッキングでは、図11に示すように、フロアFの範囲内にプレイヤPが立った状態で、プレイヤPが、壁面WのマーカーMへ視線を向けると、HMD1-1では、カメラ部111により撮像された壁面Wの画像が位置検出部112に入力される。
位置検出部112は、入力された壁面Wの画像から画像認識処理によりマーカーMを検出し、原点とのズレを補正し、現在の頭部の正しいポジションを検出する。一例として、例えば空間の座標(x,y,z)=(1,2,1)等が頭部のポジションとして検出される。
【0054】
ワールドトラッキングでは、図12に示すように、フロアFの範囲内にプレイヤPが立った状態で、プレイヤPが、周囲を見渡すように視線を移動させると、HMD1-1では、カメラ部111により撮像された周囲の景色が移り変わる画像が位置検出部112に順次入力される。
位置検出部112は、入力された周囲の景色が移り変わる複数の画像をモーションキャプチャーし、画像認識処理により、キャプチャー画像どうしの差異(キャプチャー時刻の差異及び画像の差分)を認識し、現在の頭部の正しいポジションを検出する。一例としては、上記マーカートラッキングと同様に、空間の座標(x,y,z)=(1,2,1)が頭部のポジションとして検出される。
【0055】
次に、図13を参照して情報処理システムにおいて2つのトラッキング情報の同期動作を説明する。
HMD1-1により検出された頭部のポジション(座標)と、アームセンサ1-2により検出された手のポジション(座標)がサーバ4に受信されて、ゲーム実行部51に入力される。
ゲーム実行部51では、アームトラッキング部91が、アームセンサ1-2から順次取得されるプレイヤPの手のポジション(空間の座標)に基づいて、変化する手のポジションをトラッキングする。つまり変化する手の位置を追跡する。
また、頭部トラッキング部92は、HMD1-1から順次取得されるプレイヤPの頭部のポジション(空間の座標)に基づいて、変化する頭部のポジションをトラッキングする。
【0056】
同期部93は、アームトラッキング部91が手のポジションをトラッキングした第1トラッキング情報(ポジションが時系列で変化する情報)と、頭部トラッキング部92が頭部のポジションをトラッキングした第2トラッキング情報(ポジションが時系列で変化する情報)とを同期させて、図13に示すように、同じタイミングでの頭部のポジション((x,y,z)=(1,2,1))と手のポジション((座標(x,y,z)=(1,1,1))を含むトラッキング同期情報を生成し、ゲーム制御部94に出力する。
ゲーム制御部94は、同期部93により生成(出力)されたトラッキング同期情報に含まれる頭やと手のポジションに合わせて動くオブジェクトの画像(エナジーボールEBやエフェクト画像等を含む)をHMD1-1(ゲーム内の三次元仮想空間)に表示する制御を行う。
【0057】
ここで、図14を参照して同期部93により生成されるトラッキング同期情報について説明する。
同期部93は、図14に示すように、上記ポジション(位置情報)の他に、ベクトル(ポジション毎の速度と方向の値)及びローテーション(回転情報)等を含むトラッキング同期情報を生成し出力する。
ポジションは、時刻変化に伴うプレイヤPの頭部のポジションと手のポジションの遷移変位である。例えばある時刻のトラッキングタイミングにおいて、プレイヤPの頭部のポジションが(空間の座標x,y,z)=(1,2,1)、手のポジション(空間の座標x,y,z)=(1,1,1)であったが、その後、プレイヤPが矢印方向Cに移動し、次の時刻のトラッキングタイミングでは、プレイヤPの頭部のポジションが(空間の座標x,y,z)=(5,2,2)、手のポジション(空間の座標x,y,z)=(5,1,2)となった、といった情報である。
ベクトルは、プレイヤPが腕を振ったとき又は腕を回転させたとき、アームセンサ1-2によりポジションの移動が検出されたとき例えば1/30sec毎に検出される各ポジションのベクトルV1乃至V4の値である。ベクトルV1乃至V4の値は、腕を振った力の方向と速度の値、又は腕を回転させた力の方向と速度の値等である。
ローテーションは、xz平面上において、プレイヤPが手の状態(例えば手の甲D1を正面にした状態)から、手首を回転させたときの手の状態(手の平D2を正面に向けた状態)の手の向き又は回転方向である。
【0058】
このようにこの第2実施形態によれば、サーバ4のゲーム実行部51に同期部93を備えて、HMD1-1とアームセンサ1-2の2つのポジションのトラッキング情報を同期させることで、プレイヤPの頭部のポジションと手のポジションが時系列で同期するので、プレイヤPが動く際の頭と手の動きにゲームのオブジェクトを連動させることができるようになり、プレイヤPとオブジェクトの動き(エナジーボールEBやシールドSH等の出現タイミングや出現位置等)のリアルなプレイ感覚を、プレイヤPや応援者Uが感じることができる。
この結果、プレイヤPやそれ以外の第三者である応援者Uがゲームを楽しむことができるようになる。
【0059】
ここで、図15を参照して上記同期部93の同期機能を利用したゲームへの適用例を説明する。
異なる場所に存在するプレイヤどうしが対戦する場合、図14に示すように、一方のプレイヤPAは、現実のフロアFに居るものとすると、他方のプレイヤは、そのフロアFには存在しないことから、他方のプレイヤに対応するアバターAVをHMD1-1に表示させる。なお、アバターは、プレイヤPの仮想空間内における位置や角度、動きに対応する人型のオブジェクトである。
他方のプレイヤも異なる場所でプレイヤPAの居るフロアFと同じ環境のフロアに居て上記同様な方法でトラッキングを行うことで、異なる場所のプレイヤがあたかも同じフロアFで対戦するように仮想現実空間を構成できる。また異なる場所のプレイヤどうしが同じチームになり、他のチームと対戦することもできる。
【0060】
(第3実施形態)
次に、図16を参照して第3実施形態の情報処理システムについて説明する。図16は、第3実施形態の情報処理システムのうちサーバの機能的構成の要部(ゲーム実行部)を示す図である。
なお、この第3実施形態は、第1実施形態で説明した図1及び図2の情報処理システムに含まれる図3のサーバ4のハードウェア構成、図4のサーバ4の機能的構成、第2実施形態で説明した図8の構成を有しており、重複する構成の説明は省略する。
【0061】
第3実施形態の情報処理システムは、図16に示すように、HMD1-1、アームセンサ1-2、ベースステーション81及びサーバ4のゲーム実行部51を有する。HMD1-1、アームセンサ1-2及びベースステーション81は、第2実施形態と同じ構成を有しておりその説明は省略する。
【0062】
サーバ4のゲーム実行部51は、同期部93及びゲーム制御部94を有する。同期部93及びゲーム制御部94については、第2実施形態と同じ構成でありその説明は省略する。
ゲーム制御部94は、発射判定部121及びオブジェクト制御部122を備える。
オブジェクト制御部122は、発射判定部122から通知される発射情報に基づいて、HMD1-1に表示するオブジェクトの動作を制御する。
【0063】
発射判定部121は、同期部93から入力されるトラッキング同期情報に基づいて、プレイヤPの動きに連動するオブジェクト、例えばエナジーボールEB等の発射判定を行い、発射判定の結果として、発射方向と発射タイミングを含む発射情報をオブジェクト制御部122に通知する。
詳細に説明すると、発射判定部121は、同期部93から入力されるトラッキング同期情報に含まれるポジション毎のベクトルに基づいて、プレイヤPの動きに連動するようなタイミングと方向にオブジェクト(エナジーボールEB等)を射出する制御を行う。
【0064】
発射判定部121は、発射タイミング判定部131と発射方向判定部132とを有する。
発射タイミング判定部131は、同期部93から入力されるトラッキング同期情報に含まれるポジション毎のベクトル(方向と速度)に基づいて、オブジェクトの発射タイミング(いつ撃つか)を判定する。
詳細に説明すると、発射タイミング判定部131は、順次入力されるトラッキング同期情報に含まれるポジション毎のベクトルの速度に基づいてオブジェクトの発射タイミング(いつ撃つか)を判定する。
【0065】
例えば図17に示すように、プレイヤPが腕を前方(視線の方向)へ下から上に振って矢印Hの方向に発射動作を行うと、アームセンサ1-2においてポジションの変化が検出され、同期部93から発射判定部121にトラッキング同期情報が順次入力される。
夫々のトラッキング同期情報には、腕の振りによって変化するポジション毎のベクトル(方向と速度)が含まれており、時系列を追って複数のベクトルV1乃至V7が得られる。
発射タイミング判定部131は、ベクトルV1乃至V7が順次得られる中で、前方の速度の値が予め設定された一定の値を超えたタイミングで発射タイミングの判定をスタートする。図17に示す例では、ベクトルV4が得られたタイミングで判定をスタートするものとする。
そして、発射タイミング判定部131は、ベクトルの速度の値が一定の値以下になったときに発射タイミングと判定する。図17に示す例では、ベクトルV7が得られたタイミングが発射タイミングとされる。
【0066】
発射方向判定部132は、同期部93から入力されるトラッキング同期情報に含まれるポジション毎のベクトルに基づいて、オブジェクトの発射方向(どこに撃つか)を判定する。
詳細に説明すると、発射方向判定部132は、図18に示すように、フロアFに立ったプレイヤPがオブジェクトを発射するために前方(視線の方向)に視線Eを向けると、HMD1-1のポジションのY座標(高さ成分)を維持する。つまりプレイヤPの視線を維持する。
その後、図19に示すように、プレイヤPが腕を前方(視線の方向)へ下から上に振って矢印Hの方向に発射動作を行うと、発射方向判定部132は、順次取得されるベクトルV11乃至V14の方向が、前方の一定範囲Gに入った点M1乃至M4を抽出する。
そして、点M1乃至M4が、維持した視線の高さになったときに、発射方向判定部132は、そのベクトルの方向に発射するものと判定する。図19の例では、視線Eの高さの点M4の方向のベクトルV4の向き(角度)でオブジェクトを発射するものと判定する。
このようにして、発射判定部121は、発射タイミング判定部131と発射方向判定部132とによって得られた発射方向と発射タイミングを含む発射情報を生成し、オブジェクト制御部122に通知する。
【0067】
この結果、オブジェクト制御部122は、発射判定部121から通知された発射情報に含まれる発射方向と発射タイミングを用いて、図20に示すように、目線Eの高さ当たりにショットSを放つように制御することができる。
【0068】
このようにこの第3実施形態によれば、ゲーム実行部51に発射判定部121とオブジェクト制御部122とを備えることで、同期部93から入力されるトラッキング同期情報に基づいて、プレイヤPの動きに連動するオブジェクトの発射判定を行い、発射判定の結果に基づいて、オブジェクトの動作を制御するので、プレイヤPがオブジェクトを手で投げたり発射するようなゲームでは、プレイヤPの投げる動作に対してオブジェクトの手離れがスムーズになり、見映えがよくなり、プレイヤPや応援者Uがゲームを楽しむことができるようになる。
【0069】
以上、本発明のいくつかの実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
【0070】
上記実施形態では、プレイヤPがHMD1-1を装着して行うARゲームを一例に説明したが、例えばVRゲームやMRゲームにも適用することができる。また、プレイヤPがHMD1-1を装着するのではなく、プレイヤPがゲーム機やコントローラを操作して行うゲームやテレビゲーム等についても適用できる。VRは、Virtual Realityの略称であり、MRは、Mixed Realityの略称である。
VRゲームでは、ゲーム実行部51は、現実のプレイヤPに対応する仮想現実空間上のアバターが当該プレイヤPの動き又はゲーム機の操作に応じて動き、該アバターの動きに応じて仮想現実空間の画像が変化するゲームを実行する。
MRゲームは、ARゲームとほぼ共通である。即ち、MRゲームでは、ゲーム実行部51は、プレイヤPが透過型ディスプレイを通して見える現実空間の物にオブジェクトを重ねて表示させて、プレイヤPの動きに応じてオブジェクトを動作させる。
また、上記実施形態では、複数のプレイヤPが2つのチームA、Bに分かれて対戦するゲームを一例にして説明したが、この他、プレイヤPが単独で行うゲームや多数のチームが同じフィールドで対戦するゲーム等についても、本発明を適用可能であり、プレイヤPの数やゲームの内容に限定されるものではない。
本発明におけるゲームは、広い意味を持ち、例えばプレイヤPが一人または複数で映像を応援者端末3に配信し、その映像内容に応じて応援者Uが投げ銭をプレゼントするようなショー形式の映像配信アプリケーション等もゲームに含まれる。また、ゲームには、スポーツやイベント等も含まれる。
【0071】
上記第3実施形態の例では、プレイヤPが手でエナジーボールEB等のオブジェクトを投げるようなゲームの例について説明したが、これ以外に、手でオブジェクトをシュートするゲームに対応するため、以下のような制御を行う。
オブジェクト制御部122は、Y軸方向の発射位置(高さ)を固定し、プレイヤPがどのような腕の振り方をしても、また、プレイヤPの頭部の位置がどのような位置であっても、図21に示すように、一定の高さKで目標に向けてシュートJが飛ぶように制御する。
【0072】
この他、腕に付けるアームセンサ1-2をシュートやチャージの制御に利用するようにしてもよい。この場合、例えば図22に示すように、プレイヤPが手を回転させて手の平D2を上にしたとき、つまりアームセンサ1-2を床方向に向けたときの回転情報を用いて、シュートJの発射を制御してもよい。
また、アームセンサ1-2を床方向に向けた状態が一定時間維持することで、次のシュートJを行うためのチャージを完了する。
この場合、チャージが完了した状態で、図22のように腕を矢印Hの方向に振ると、シュートJを発射することができる。
【0073】
また、図23に示すように、相手チームのプレイヤPAが放ったシュートJを、他のチームのプレイヤPBが手元のアームセンサ1-2で受け取れるように制御できる。この場合、例えば三次元空間上でボールのモデルがアームセンサ1-2のポジションから一定の半径の範囲内に入ると、ボールをキャッチできるように条件を設定する。
【0074】
さらに、シュートの誤発射を極力防ぐため、図24に示すように、HMD1-1の位置(頭部の位置)からアームセンサ1-2の位置(手の位置)の距離感で所定の範囲Rについては、強制的にシュートを発射させないよう制御してもよい。
【0075】
さらに、例えば、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
【0076】
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートホンやPC等であってもよい。
【0077】
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。
【0078】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
【0079】
換言すると、本発明が適用される情報処理システムは、上述の図1の実施形態としての情報処理システムを含め、次のような構成を有する各種各様の実施形態を取ることができる。
【0080】
即ち、本発明が適用される情報処理装置(例えば図4のサーバ4等)は、
プレイヤPの動きに応じてオブジェクトを動作させるゲームを実行するゲーム実行手段(例えば図4のゲーム実行部51等)と、
前記プレイヤP以外で前記ゲームに関係する第三者(応援者U)の行動に関する行動情報を取得する情報取得手段(例えば図4の行動情報取得部53等)と、
前記情報取得手段により取得された前記行動情報に基づいて、前記オブジェクトを含む前記ゲームに影響を与える変化を発生させる反映手段(例えば図4の反映部54等)と、
を備える。
この構成を備えることにより、応援者Uが行う応援行動自体が、オブジェクトを含むゲームに影響を与える変化を発生させるので、プレイヤP以外の第三者である応援者UがプレイヤPと共にゲームに参加していることを体感できるようになる。
前記反映手段(例えば図4の反映部54等)は、
前記情報取得手段により取得された前記行動情報に基づいて、予め設定された条件に合致する行動を判定する行動判定手段(例えば図4の行動判定部61等)と、
前記行動判定手段により判定された前記行動に基づいて、前記オブジェクトを含む前記ゲームに影響を与える変化を発生させるゲーム反映手段(例えば図4のゲーム反映部62等)と、
を備える。
この構成を備えることにより、応援者Uの行動が条件に合致した場合に、オブジェクトを含むゲームに影響を与える変化を発生させることにより、応援者Uが有効な応援行動を行ったときにゲームに変化が発生するので、プレイヤP以外の第三者である応援者Uがゲームに参加していることを体感できるようになる。
前記ゲーム実行手段(例えば図4のゲーム実行部51等)は、
プレイヤPが透過型のディスプレイ(例えば図2のHMD1-1等)を通して見える現実の空間に、拡張現実空間又は複合現実空間におけるオブジェクト(例えば図1のエナジーボールEB、シールドSH等)を重ねて前記ディスプレイに表示させて、前記プレイヤの動きに応じて前記オブジェクトを動作させるゲームを実行する。
この構成を備えることにより、ARゲーム又はMRゲームにおいて、プレイヤP以外の第三者である応援者Uがゲームに参加していることを体感できるようになる。
前記ゲーム実行手段(例えば図4のゲーム実行部51等)は、
現実のプレイヤに対応する仮想現実空間上のアバターが当該プレイヤの動き又はゲーム機の操作に応じて動き、該アバターの動きに応じて仮想現実空間の画像が変化するゲームを実行する。
この構成を備えることにより、VRゲームにおいて、プレイヤP以外の第三者である応援者Uがゲームに参加していることを体感できるようになる。
前記条件(例えば図5のテーブル70等)は、第三者(応援者U)夫々から取得された行動情報に含まれる行動が有効な行動であると判定するための行動判定条件(テーブル70の応援行動判定条件)と、前記行動判定条件に合致した行動を、ゲームにどのように反映させるかを示すゲーム反映内容(テーブル70のゲーム反映内容)とを対応させたものである。
この構成を備えることにより、テーブル70に設定されている応援者Uの行動がゲームに反映されるので、応援者Uは、プレイヤP以外の第三者である応援者Uがゲームに参加していることを体感できるようになる。
前記第三者(応援者U)が操作可能な情報端末(例えば図2の応援者端末3)を有し、
前記行動情報は、第三者(応援者U)の動き、声、又は前記情報端末に対する第三者の操作を前記情報端末が検出した状況の変化を示す情報を含み、
前記ゲーム反映手段(例えば図4のゲーム反映部62等)は、
前記状況の変化を示す情報が予め設定された閾値を超えた場合に、前記オブジェクトを含む前記ゲームに変化を発生させる。
この構成を備えることにより、運営側で応援行動として設定した応援者Uの行動のみがゲームに反映されるので、他の妨害行動等でゲームが阻害されることがなくなる。
前記状況の変化を示す情報は、前記情報端末(例えば図2の応援者端末3)に対する前記第三者(応援者U)のボタンの押下操作、前記第三者の歩数、前記第三者の声、前記第三者の体の動き、前記第三者が所持する物(タオル、うちわ、テレビのリモコン、投げ銭、蛍光棒等)の動きのうち1つ以上の変化を含む。
この構成を備えることにより、情報端末の既存の機能を利用し応援者Uの様々な応援行動を検出することができ、その応援行動に応じた反映内容も様々なものにすることができる。
なお、ボタンの押下操作には、ハードウェアのボタンの押下操作だけでなく、画面に表示されるソフトウェアボタン(アイコンやオブジェクト等)の押下操作等を含む。また、押下操作には、単なる押す操作の他に、画面をなぞる操作やはじく操作、複数の指による操作等が含まれる。
【0081】
前記ゲーム実行手段(例えば図9のゲーム実行部51等)は、
プレイヤPの頭部に装着された第1センサ(例えば図9のHMD1-1等)から取得したプレイヤPの頭部の位置情報に基づいて、頭部の位置(ポジション)をトラッキングする第1トラッキング手段(例えば図9の頭部トラッキング部92等)と、
プレイヤPの腕に装着された第2センサ(例えば図9のアームセンサ1-2等)から取得したプレイヤPの手の位置情報に基づいて、手の位置(ポジション)をトラッキングする第2トラッキング手段(例えば図9のアームトラッキング部91等)と、
前記第1トラッキング手段が頭部の位置(ポジション)をトラッキングした第1トラッキング情報と前記第2アームトラッキング手段が手の位置(ポジション)をトラッキングした第2トラッキング情報とを同期させて、同じタイミングでの前記頭部と前記手の位置情報を取得する同期手段(例えば図9の同期部93等)と、
前記同期手段により取得された前記頭部と前記手の位置(ポジション)に合わせた前記オブジェクトの画像をゲーム内の仮想空間に表示する制御を行うゲーム制御手段(例えば図9のゲーム制御部94)と、
を備える。
この構成を備えることにより、現実のプレイヤPにオブジェクトを重ねて表示するゲームでは、プレイヤPの頭や手足を含む肢体の動きにオブジェクトの動きを同期させて、見映えがよくなり、プレイヤPや応援者Uがゲームを楽しむことができるようになる。
【0082】
前記ゲーム実行手段(例えば図16のゲーム実行部51等)は、
前記同期手段(例えば図9図16の同期部93等)から入力されるトラッキング同期情報に基づいて、プレイヤPの動きに連動するオブジェクトの発射判定を行う発射判定手段(例えば図16の発射判定部121等)と、
前記発射判定手段により判定された発射判定の結果に基づいて、オブジェクトの動作を制御するオブジェクト制御手段(例えば図16のオブジェクト制御部122)と、
を備える。
この構成を備えることにより、プレイヤPがオブジェクトを手で投げたり発射するようなゲームでは、プレイヤPの投げる動作に対してオブジェクトの手離れがスムーズになり、見映えがよくなり、プレイヤPや応援者Uがゲームを楽しむことができるようになる。
【符号の説明】
【0083】
1・・・プレイヤ端末、1-1・・・HMD、1-2・・・アームセンサ、3、3-1乃至3-n・・・応援者端末、4・・・サーバ、21・・・CPU、29・・・記憶部、30・・・通信部、41・・・会員情報記憶部、42・・・ゲーム情報記憶部、43・・・応援情報記憶部、51・・・ゲーム実行部、52・・・Webサーバ部、53・・・行動情報取得部、54・・・反映部、61・・・行動判定部、62・・・ゲーム反映部、93・・・同期部、94・・・ゲーム制御部、121・・・発射判定部、122・・・オブジェクト制御部、131・・・発射タイミング判定部、132・・・発射方向判定部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24