IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社セガの特許一覧

<>
  • 特開-シミュレーション装置 図1
  • 特開-シミュレーション装置 図2
  • 特開-シミュレーション装置 図3
  • 特開-シミュレーション装置 図4
  • 特開-シミュレーション装置 図5
  • 特開-シミュレーション装置 図6
  • 特開-シミュレーション装置 図7
  • 特開-シミュレーション装置 図8
  • 特開-シミュレーション装置 図9
  • 特開-シミュレーション装置 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022185742
(43)【公開日】2022-12-15
(54)【発明の名称】シミュレーション装置
(51)【国際特許分類】
   A63B 69/00 20060101AFI20221208BHJP
【FI】
A63B69/00 A
A63B69/00 505H
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2021093546
(22)【出願日】2021-06-03
(71)【出願人】
【識別番号】000132471
【氏名又は名称】株式会社セガ
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】前山 佑介
(72)【発明者】
【氏名】二瓶 渉
(72)【発明者】
【氏名】江口 秀明
(57)【要約】
【課題】ユーザが現実空間で扱う道具の動きに仮想空間で扱う仮想道具の動きを同期させるシミュレーション装置の精度の向上とコストの削減を両立することを目的とする。
【解決手段】ユーザが現実空間で扱う道具の2箇所に設けられ、道具の位置情報を検出する道具位置検出手段と、道具の2箇所の位置情報に基づいて、道具の姿勢情報を算出する道具姿勢算出手段と、ユーザの頭部に装着される装着物に設けられ、ユーザの頭部の位置情報及び姿勢情報を検出する装着物検出手段と、道具の位置情報及び道具の姿勢情報に基づいて、ユーザが仮想空間で扱う仮想道具の軌道情報を算出する軌道情報算出手段と、仮想道具の軌道情報に基づいて、ユーザの頭部の位置情報及び姿勢情報に対応する仮想空間の仮想視点位置から見た仮想道具を含む立体画像を、表示部に表示させる立体画像制御手段と、を有するシミュレーション装置により上記課題を解決する。
【選択図】 図4
【特許請求の範囲】
【請求項1】
ユーザが現実空間で扱う道具の少なくとも2箇所に設けられ、前記道具の位置情報を検出する道具位置検出手段と、
前記道具の少なくとも2箇所の位置情報に基づいて、前記道具の姿勢情報を算出する道具姿勢算出手段と、
前記ユーザの頭部に装着される装着物に設けられ、前記ユーザの頭部の位置情報及び姿勢情報を検出する装着物検出手段と、
前記道具の位置情報及び前記道具の姿勢情報に基づいて、前記ユーザが仮想空間で扱う仮想道具の軌道情報を算出する軌道情報算出手段と、
前記仮想道具の軌道情報に基づいて、前記ユーザの頭部の位置情報及び姿勢情報に対応する前記仮想空間の仮想視点位置から見た前記仮想道具を含む立体画像を、表示部に表示させる立体画像制御手段と、
を有するシミュレーション装置。
【請求項2】
前記仮想空間を移動するオブジェクトの移動情報を算出する移動情報算出手段と、
前記仮想道具の軌道情報、及び前記オブジェクトの移動情報に基づいて、前記仮想道具と前記オブジェクトとのコリジョン判定を行うコリジョン判定手段、を更に有し、
前記立体画像制御手段は、前記コリジョン判定の結果に基づいた前記仮想道具及び前記オブジェクトを含む立体画像を前記表示部に表示させること
を特徴とする請求項1記載のシミュレーション装置。
【請求項3】
前記軌道情報算出手段は、算出した前記仮想道具の軌道情報を、カルマンフィルタを用いて平滑化すること
を特徴とする請求項1又は2記載のシミュレーション装置。
【請求項4】
前記道具位置検出手段及び前記装着物検出手段は、同一の方式で前記位置情報を検出すること
を特徴とする請求項1乃至3の何れか一項に記載のシミュレーション装置。
【請求項5】
前記立体画像制御手段は、前記ユーザから見て少なくとも2つの方向に位置する床面表示部及び壁面表示部に、前記仮想視点位置から見た前記仮想道具及び前記オブジェクトを含む立体画像を表示させるように、右目用及び左目用の画像を生成し、前記右目用及び左目用の画像を交互に前記床面表示部及び壁面表示部に表示させると共に、前記床面表示部及び壁面表示部に表示される右目用及び左目用の画像と同期して、前記ユーザが装着しているメガネの右目及び左目の視界を交互に開閉する制御を行うこと
を特徴とする請求項2記載のシミュレーション装置。
【請求項6】
前記道具位置検出手段は、前記ユーザが現実空間で扱うバットのグリップエンド及び先端に取り付けられており、
前記道具姿勢算出手段は、前記バットのグリップエンドに取り付けられた第1の道具位置検出手段が検出した位置と前記バットの先端に取り付けられた第2の道具位置検出手段が検出した位置とを繋げた線に基づいて、前記道具の姿勢情報を算出すること
を特徴とする請求項1乃至5の何れか一項に記載のシミュレーション装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、シミュレーション装置に関する。
【背景技術】
【0002】
例えば打球具のスイングを解析するための技術の一例として、仮想空間内において精度のよいスイング軌道を表示することが可能なスイング解析システムおよびスイング解析方法が知られている(例えば特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2019-187501号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1のスイング解析システムは、スイング解析装置と、センサ装置と、撮像システムと、ヘッドマウントディスプレイ(HMD)と、マーカと、を含んでいる。センサ装置はバットのグリップエンド部に取り付けられており、グリップエンド部の加速度データおよび角速度データを検出する。撮像システムは光学式モーションキャプチャシステムであり、バットのヘッド部に取り付けられたマーカを撮像することにより、ヘッド部の位置情報及び姿勢情報を取得する。
【0005】
従来のスイング解析システムでは、簡易なトラッキングシステムで精度良く検出することが望まれていた。しかしながら、簡易なトラッキングシステムを利用するスイング解析システムでは、スイングスピードが高速になった場合のスイング軌道を、精度良く検出できない場合があった。
【0006】
なお、上記問題はバットのスイング解析に限定されるものではなく、ユーザが現実空間で扱う道具の動きに、仮想空間で扱う仮想道具の動きを同期させるシミュレーション装置においても同様に生じる。
【0007】
本発明は上記の課題に鑑みなされたものであり、ユーザが現実空間で扱う道具の動きに仮想空間で扱う仮想道具の動きを同期させるシミュレーション装置の精度の向上とコストの削減を両立することを目的とする。
【課題を解決するための手段】
【0008】
上記した課題を解決するために、本願請求項1は、ユーザが現実空間で扱う道具の少なくとも2箇所に設けられ、前記道具の位置情報を検出する道具位置検出手段と、前記道具の少なくとも2箇所の位置情報に基づいて、前記道具の姿勢情報を算出する道具姿勢算出手段と、前記ユーザの頭部に装着される装着物に設けられ、前記ユーザの頭部の位置情報及び姿勢情報を検出する装着物検出手段と、前記道具の位置情報及び前記道具の姿勢情報に基づいて、前記ユーザが仮想空間で扱う仮想道具の軌道情報を算出する軌道情報算出手段と、前記仮想道具の軌道情報に基づいて、前記ユーザの頭部の位置情報及び姿勢情報に対応する前記仮想空間の仮想視点位置から見た前記仮想道具を含む立体画像を、表示部に表示させる立体画像制御手段と、を有することを特徴とする。
【発明の効果】
【0009】
本発明によれば、ユーザが現実空間で扱う道具の動きに仮想空間で扱う仮想道具の動きを同期させるシミュレーション装置の精度の向上とコストの削減を両立できる。
【図面の簡単な説明】
【0010】
図1】本実施形態に係るバッティングシミュレータの一例の概略図である。
図2】本実施形態に係るバッティングシミュレータの一例の3面表示部及びプロジェクタの配置例を示した概略図である。
図3】左打席を利用するユーザ用の立体画像及び右打席を利用するユーザ用の立体画像の一例を示した概略図である。
図4】本実施形態に係るバッティングシミュレータの一例を示したシステム構成図である。
図5】本実施形態に係るコンピュータの一例のハードウェア構成図である。
図6】本実施形態に係るバッティングシミュレータの一例の機能構成図である。
図7】本実施形態に係るバッティングシミュレータの処理手順の一例のフローチャートである。
図8】専用バットの位置情報及び姿勢情報に基づいて、仮想空間におけるバットオブジェクトの軌道情報を算出する処理手順の一例のフローチャートである。
図9】3面表示部に立体表示された仮想バットのスイング軌道の一例のイメージ図である。
図10】本実施形態に係るバッティングシミュレータの一例の概略図である。
【発明を実施するための形態】
【0011】
次に、本発明の実施形態について詳細に説明する。本実施形態では、ユーザが現実空間で扱う道具の動きに、仮想空間で扱う仮想道具の動きを同期させるシミュレーション装置の例として、バッティングシミュレータを例に説明する。バッティングシミュレータではユーザが現実空間で専用バットを持ってスイングすることで、専用バットの動きに同期する仮想空間の仮想バットでスイングできる。
【0012】
[第1の実施形態]
<概要>
図1は本実施形態に係るバッティングシミュレータの一例の概略図である。図2は本実施形態に係るバッティングシミュレータの一例の3面表示部及びプロジェクタの配置例を示した概略図である。図2(A)はバッティングシミュレータを上方から見た概略図を示している。図2(B)はバッティングシミュレータを正面から見た概略図を示している。図2(C)はバッティングシミュレータを側面から見た概略図を示している。
【0013】
図1及び図2に示したように、バッティングシミュレータは、3面表示部10と、床面用プロジェクタ21と、側面用プロジェクタ22と、正面用プロジェクタ23と、を有している。ユーザPは液晶シャッタメガネ41を掛け、頭部にヘルメット(図示せず)を装着し、専用バット42を持った状態でバッティングシミュレータを利用する。
【0014】
3面表示部10は、床面表示部11と、壁面表示部(第1壁面表示部12及び第2壁面表示部13)と、第1~第3湾曲部14~16と、を有する。床面表示部11は、例えば方形形状又は矩形形状である。第1壁面表示部12及び第2壁面表示部13は、例えば上辺が下辺よりも長い台形形状である。床面表示部11、第1壁面表示部12、及び第2壁面表示部13は、それぞれ、実質的に平坦な面である。
【0015】
図1及び図2の例では、第1壁面表示部12と第2壁面表示部13とが、例えば約90度の角度を成す。また、床面表示部11と第1壁面表示部12とが成す角度、及び床面表示部11と第2壁面表示部13とが成す角度は鈍角であることが好ましく、例えば約94度の角度を成す。
【0016】
床面表示部11、第1壁面表示部12、及び第2壁面表示部13の相互間は、第1湾曲部14、第2湾曲部15、及び第3湾曲部16を介して接続されている。例えば床面表示部11と第1壁面表示部12とは、所定の曲率半径の第1湾曲部14を介して滑らかに接続されている。床面表示部11と第2壁面表示部13とは、所定の曲率半径の第2湾曲部15を介して滑らかに接続されている。また、第1壁面表示部12と第2壁面表示部13とは、所定の曲率半径の第3湾曲部16を介して滑らかに接続されている。
【0017】
ユーザPは床面表示部11上の任意の位置に立つことができる。本実施形態では、床面表示部11上の空間を現実空間と呼ぶ。本実施形態の現実空間の位置及び方向は、床面表示部11の隅部(第1壁面表示部12及び第2壁面表示部13に対向する隅部)付近の位置を原点POとする直交座標(XpYpZp座標)を用いて表す。
【0018】
床面表示部11上のユーザPの視点から見ると、例えば床面表示部11は下方向(-Zp方向)に位置する。第1壁面表示部12は、ユーザPの前方右側(+Xp方向)に位置する。第2壁面表示部13は、ユーザPの前方左側(+Yp方向)に位置する。
【0019】
床面表示部11にはスイング領域SRが設けられる。スイング領域SRは、ユーザが専用バット42を第1壁面表示部12及び第2壁面表示部13にぶつける心配なく、安全にスイングすることができるように、第1壁面表示部12及び第2壁面表示部13の双方から所定の離間距離が設けられている。
【0020】
床面用プロジェクタ21、側面用プロジェクタ22、及び正面用プロジェクタ23は3面表示部10に立体画像(立体映像)を映写するための装置である。なお、本実施形態では立体画像の表示方式として、時分割方式を使用する例を説明する。時分割方式の床面用プロジェクタ21、側面用プロジェクタ22、及び正面用プロジェクタ23は、別々に生成された右目用及び左目用の画像を、時分割で交互に3面表示部10に映し出す。時分割方式の床面用プロジェクタ21、側面用プロジェクタ22、及び正面用プロジェクタ23は、アクティブシャッター方式の3Dプロジェクタと呼ばれることがある。
【0021】
また、時分割方式では床面用プロジェクタ21、側面用プロジェクタ22、及び正面用プロジェクタ23によって3面表示部10に時分割で映し出された右目用及び左目用の画像をユーザが右目及び左目で交互に見ることができるように、液晶シャッタメガネ41が利用される。液晶シャッタメガネ41は右目用の画像が3面表示部10に表示されているときに左目の視界を閉じ、左目用の画像が3面表示部10に表示されているときに右目の視界を閉じるように、ユーザの視界を交互に開閉制御する。立体画像の表示方式は、既存の技術を利用でき、円偏光方式、直線偏光方式、フレーム・シーケンシャル方式等、他の方式を使用してもよい。
【0022】
床面用プロジェクタ21は、床面表示部11用のプロジェクタであり、第1壁面表示部12の上方に配置される。床面用プロジェクタ21からの画像は、床面表示部11、第1湾曲部14、第2湾曲部15に映写される。側面用プロジェクタ22は、第1壁面表示部12用のプロジェクタであり、第1壁面表示部12からX方向に十分離れた位置の天井付近に配置される。側面用プロジェクタ22からの映像は、第1壁面表示部12、第1湾曲部14、及び第3湾曲部16に斜め下方に向けて映写される。正面用プロジェクタ23は第2壁面表示部13用のプロジェクタであり、第2壁面表示部13からY方向に十分離れた位置の天井付近に配置される。正面用プロジェクタ23からの映像は、第2壁面表示部13、第2湾曲部15、及び第3湾曲部16に斜め下方に向けて映写される。
【0023】
床面用プロジェクタ21、側面用プロジェクタ22、及び正面用プロジェクタ23によって3面表示部10に映し出される画像は、時分割で交互に映し出される右目用及び左目用の画像である。3面表示部10に時分割で交互に映し出される右目用及び左目用の画像を、装着した液晶シャッタメガネ41を通して見ることにより、床面表示部11上のユーザPは画像を立体として認識することができる。
【0024】
本実施形態に係るバッティングシミュレータでは、図3に示すように、左打席を利用するユーザP及び右打席を利用するユーザPの両方に対応できる。図3は、左打席を利用するユーザ用の立体画像及び右打席を利用するユーザ用の立体画像の一例を示した概略図である。
【0025】
図3(A)は、ユーザPが左打席を利用する場合に、3面表示部10に表示される立体画像の一例を示している。左打席の位置はユーザPが専用バット42を振った際に安全なように設定している。例えば図3(A)は座標で表すと投手映像E1がXp方向に位置する第1壁面表示部12に表示され、ボール映像E2がXp座標に沿って本塁映像E5Hに向かって移動してくる。
【0026】
図3(B)は、ユーザPが右打席を利用する場合に、3面表示部10に表示される立体画像の一例を示している。右打席の位置はユーザPが専用バット42を振った際に安全なように設定している。例えば図3(B)は座標で表すと投手映像E1がYp方向に位置する第2壁面表示部13に表示され、ボール映像E2がYp座標に沿って本塁映像E5Hに向かって移動してくる。図3(A)及び図3(B)とは、床面表示部11に表示される本塁映像E5Hが平面視で90度、変更されている。
【0027】
なお、図1図3では、本実施形態に係るバッティングシミュレータにおいてユーザPが操作を行うための構成、ユーザPからバッティングシミュレータの利用料金を徴収するための構成、ユーザPの視線を検出する構成、専用バット42のスイング軌道を検出する構成、3面表示部10に表示する立体画像を制御する構成、及び打撃結果を判定する構成の図示を省略しているが、図4に示すような構成となる。
【0028】
<システム構成>
図4は、本実施形態に係るバッティングシミュレータの一例を示したシステム構成図である。図4に示すバッティングシミュレータ1は、床面用プロジェクタ21、側面用プロジェクタ22、正面用プロジェクタ23、液晶シャッタメガネ41、専用バット42、ヘルメット43、操作ユニット100、画面表示ユニット110、コイン投入ユニット120、ICカードユニット130、コンピュータ150、液晶シャッタメガネ用発信器190、赤外線センサ210、トラッカ用通信機220a~220c、専用バット42に取り付けられたトラッカ230a~230b、及びヘルメット43に取り付けられたトラッカ230cを有する。
【0029】
バッティングシミュレータ1はコンピュータ150を含む。コンピュータ150は例えばPC(Personal Computer)等であり、1台のPCであってもよいし、複数台のPCが連携して処理を行うものであってもよい。
【0030】
コンピュータ150は、床面用プロジェクタ21、側面用プロジェクタ22、正面用プロジェクタ23、操作ユニット100、画面表示ユニット110、コイン投入ユニット120、ICカードユニット130、液晶シャッタメガネ用発信器190、赤外線センサ210、及びトラッカ用通信機220a~220cがデータ通信可能に接続されている。
【0031】
操作ユニット100はユーザPが操作を行うためのインターフェースとして機能する装置の一つである。操作ユニット100は、例えばボタンやタッチパネルなどの入力装置を有している。画面表示ユニット110はユーザPが操作を行うためのインターフェースとして機能する装置の一つである。画面表示ユニット110は、例えば液晶モニタなどの表示装置や音声を出力するスピーカなどを有している。
【0032】
コイン投入ユニット120はユーザPからバッティングシミュレータの利用料金を徴収する料金徴収装置の一例である。ICカードユニット130は、例えば情報記憶媒体であるICカードの情報を読み書きするICカードリーダライタを含む。ICカードユニット130は、ユーザPのICカードからカードIDなどのユーザPを特定可能な識別情報を読み取ることができる。ユーザPのICカードから読み取られた識別情報は、例えば電子決済や、バッティングシミュレータによるシミュレーション結果の保存などに利用することができる。
【0033】
床面用プロジェクタ21、側面用プロジェクタ22、及び正面用プロジェクタ23はコンピュータ150の制御に従い、3面表示部10に立体画像を表示させる。液晶シャッタメガネ用発信器190は液晶シャッタメガネ41と無線通信可能に接続されている。液晶シャッタメガネ用発信器190はコンピュータ150の制御に従い、液晶シャッタメガネ41の左右のレンズを交互に開閉させる。
【0034】
液晶シャッタメガネ41の左右のレンズは、右目用の画像が3面表示部10に表示されているときにユーザPの左目の視界を閉じ、左目用の画像が3面表示部10に表示されているときにユーザPの右目の視界を閉じるように、開閉制御される。
【0035】
本実施形態に係るバッティングシミュレータ1で利用する専用バット42には、先端にトラッカ230aが取り付けられ、グリップエンドにトラッカ230bが取り付けられている。また、ユーザPが頭部に装着するヘルメット43には、頂点部分にトラッカ230cが取り付けられている。なお、図示した専用バット42へのトラッカ230a及び230bの取り付け方は一例である。また、図示したヘルメット43へのトラッカ230cの取り付け方も一例である。
【0036】
トラッカ230a~230cには、それぞれ赤外線マーカ(図示せず)が取り付けられている。赤外線センサ210はユーザPが利用中の専用バット42及びヘルメット43を撮影可能な位置に設置されている。赤外線センサ210は撮影した画像を解析することにより赤外線マーカの現実空間での位置を検出し、検出した位置情報をコンピュータ150に通知する。赤外線センサ210から通知されるトラッカ230a~230cの位置情報は現実空間における専用バット42の先端、グリップエンド、及びヘルメット43の頂点部分の位置を示している。
【0037】
また、トラッカ用通信機220a~220cはユーザPが利用中の専用バット42及びヘルメット43と無線通信可能な位置に設置されている。例えばトラッカ用通信機220aは専用バット42の先端に取り付けられたトラッカ230aから、トラッカ230aが検出した専用バット42の先端の位置情報及び姿勢情報を受信し、コンピュータ150に通知する。トラッカ用通信機220bは専用バット42のグリップエンドに取り付けられたトラッカ230bから、トラッカ230bが検出した専用バット42のグリップエンドの位置情報及び姿勢情報を受信し、コンピュータ150に通知する。トラッカ用通信機220cはヘルメット43の頂点に取り付けられたトラッカ230cから、トラッカ230cが検出したヘルメット43の頂点の位置情報及び姿勢情報を受信し、コンピュータ150に通知する。
【0038】
なお、赤外線センサ210、トラッカ用通信機220a~220c、及びトラッカ230a~230cは、例えばHTC VIVE(登録商標)のベースステーション、ドングル、及びトラッカなどのトラッキングシステムを用いることができる。
【0039】
上記したように、本実施形態に係るバッティングシミュレータ1では、既存のトラッキングシステムを利用して、専用バット42の位置情報とヘルメット43の位置情報とを得るようにしているため、ユーザPが現実空間で扱う専用バット42などの道具の動きに仮想空間で扱う仮想バットなどの動きを同期させるシミュレーション装置のコストを低減することができる。
【0040】
図4のコンピュータ150は、例えば図5に示したハードウェア構成のコンピュータにより実現される。図5は、本実施形態に係るコンピュータの一例のハードウェア構成図である。
【0041】
図5のコンピュータは、入力装置501、出力装置502、外部I/F503、RAM504、ROM505、CPU506、通信I/F507、及びHDD508などを備えており、それぞれがバスBで相互に接続されている。なお、入力装置501及び出力装置502は必要なときに接続して利用する形態であってもよい。
【0042】
入力装置501は、ユーザが各種信号を入力するのに用いるタッチパネル、操作キーやボタン、キーボードやマウスなどである。出力装置502は、画面を表示する液晶や有機ELなどのディスプレイ、音声や音楽などの音データを出力するスピーカ等で構成されている。通信I/F507は、コンピュータをネットワークに接続するインターフェースである。これによりコンピュータは、通信I/F507を介してデータ通信を行うことができる。
【0043】
また、HDD508はプログラムやデータを格納している不揮発性の記憶装置の一例である。格納されるプログラムやデータにはコンピュータ全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーションなどがある。コンピュータはHDD508に替えて、記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を利用するものであってもよい。
【0044】
外部I/F503は、外部装置とのインターフェースである。外部装置には、記録媒体503aなどがある。これにより、コンピュータ500は外部I/F503を介して記録媒体503aの読み取り及び/又は書き込みを行うことができる。記録媒体503aにはフレキシブルディスク、CD、DVD、SDメモリカード、USBメモリなどがある。
【0045】
ROM505は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM505にはコンピュータの起動時に実行されるBIOS、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。RAM504はプログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)の一例である。
【0046】
CPU506は、ROM505やHDD508などの記憶装置からプログラムやデータをRAM504上に読み出し、処理(出力装置502に出力する画像や音声などを生成する処理も含む)を実行することで、コンピュータ全体の制御や機能を実現する演算装置である。
【0047】
本実施形態に係るバッティングシミュレータ1は、上記したハードウェア構成のコンピュータ150においてプログラムを実行することにより、例えば図6に示すような各種機能を実現できる。
【0048】
<機能構成>
本実施形態に係るバッティングシミュレータ1は、コンピュータ150においてプログラムを実行することにより、例えば図6の機能構成を実現する。図6は本実施形態に係るバッティングシミュレータの一例の機能構成図である。
【0049】
バッティングシミュレータ1は、仮想モデル設定部50、打席選択部52、視点位置算出部54、視線方向設定部56、立体画像制御部58、打撃結果判定部60、バット検出部62、及びヘルメット検出部64を有する。バット検出部62は、バット位置検出部70、バット姿勢算出部72、及び軌道情報算出部74を有する。
【0050】
仮想モデル設定部50は、3次元の仮想空間に種々のオブジェクトを配置する。3次元の仮想空間に配置する種々のオブジェクトには、現実の球場に存在する人、物、又は設備などの様々な事物に対応するオブジェクトが含まれる。これらのオブジェクトには、移動又は動作させることが可能なオブジェクト(例えば投手オブジェクト、ボールオブジェクト、バットオブジェクトなど)と、移動又は動作させないオブジェクト(例えば投球板オブジェクト、左右の打席オブジェクト、本塁オブジェクト、外野フェンスオブジェクトなど)と、を含む。
【0051】
本実施形態に係るバッティングシミュレータ1は動作させることが可能なオブジェクトの一例である投手オブジェクトを動作させることにより、投手が投球する様子を仮想空間で再現した仮想モデルを設定する。仮想モデル設定部50は数々のオブジェクトについての形状データが記憶されている。形状データは、オブジェクトの3次元的な形状のデータ及び模様や色のデータ(テクスチャデータ)を含む。
【0052】
また、仮想モデル設定部50には移動又は動作させることが可能なオブジェクトの動作データが記憶されている。例えば本実施形態に係るバッティングシミュレータ1は、投手オブジェクトを動作させるための投球動作データ及びボールオブジェクトを移動させるためのボール動作データが、動作データとして記憶されている。
【0053】
例えば投手動作データは、投手オブジェクトの投球動作開始時点からの所定時間毎の投手オブジェクトの姿勢を時系列に規定したものである。ボール動作データは、ボールオブジェクトの移動開始時点からの所定時間毎のボールオブジェクトの仮想空間での位置座標を規定したものである。ボール動作データは、例えば現実の投手の投球(ボールの移動経路や速度)をデータ化することにより作成される。ボール動作データに従ってボールオブジェクトを移動させることで、ボールオブジェクトは、現実の投手が投球したボールと同様の移動経路及び速度で仮想空間を移動する。
【0054】
仮想モデル設定部50は、投球板オブジェクト付近に投手オブジェクトを配置し、投手動作データに従って投手オブジェクトに投球動作を行わせる。また、仮想モデル設定部50はボール動作データに従ってボールオブジェクトを移動させる。仮想モデル設定部50は投手オブジェクトの投球動作とボールオブジェクトの移動を同期させ、投手オブジェクトが手を振り下ろしたタイミングでボールオブジェクトの移動を開始させる。
【0055】
打席選択部52は、操作ユニット100に対するユーザPの操作に応じて、左打席又は右打席を選択する。視点位置算出部54は、赤外線センサ210が検出したヘルメット43の頂点部分の位置情報と、トラッカ用通信機220cが検出したヘルメット43の頂点部分の位置情報及び姿勢情報と、に基づき、仮想空間におけるユーザPの視点位置(左右仮想視点位置)を算出する。なお、左右仮想視点位置の算出方法は、既存の技術を利用することができる。
【0056】
視線方向設定部56は、打席選択部52により選択された打席に応じて、立体画像の生成に必要なユーザPの3つの視線方向を設定する。なお、立体画像の生成に必要なユーザPの3つの視線方向の設定方法は、既存の技術を利用することができる。
【0057】
立体画像制御部58は、視点位置算出部54が算出した左右仮想視点位置から、視線方向設定部56が設定したユーザPの3つの視線方向で仮想モデルを見たときの画像をレンダリングすることにより、6つの画像を生成する。例えば立体画像制御部58は左仮想視点位置から床面表示部11、第1壁面表示部12、及び第2壁面表示部13の方向を見たときの3つの画像を、左目用の画像として生成する。また、立体画像制御部58は右仮想視点位置から床面表示部11、第1壁面表示部12、及び第2壁面表示部13の方向を見たときの3つの画像を、右目用の画像として生成する。
【0058】
立体画像制御部58は、別々に生成した右目用及び左目用の画像を、時分割で交互に床面用プロジェクタ21、側面用プロジェクタ22、及び正面用プロジェクタ23に映写させるように制御を行う。また、立体画像制御部58は右目用の画像が3面表示部10に表示されているときにユーザPの左目の視界を閉じ、左目用の画像が3面表示部10に表示されているときにユーザPの右目の視界を閉じるように、開閉制御する。
【0059】
したがって、ユーザPは3面表示部10に時分割で交互に映し出される右目用及び左目用の画像を、装着した液晶シャッタメガネ41を通して見ることにより、3面表示部10に映写された画像を立体として認識することができる。
【0060】
例えば図3に示したように、ボールオブジェクトに対応する映像はボール映像E2として立体表示される。例えばボール映像E2は、ボールオブジェクトの仮想空間での移動に応じて、投手映像E1の位置からユーザPが専用バット42で打撃可能な位置を通って本塁映像E5Hの後方まで移動するように立体表示される。ユーザPは、仮想空間におけるボールオブジェクトの移動経路に対応する移動経路でボール映像E2が移動してくるように認識できる。
【0061】
したがって、ユーザPは移動してくるボール映像E2にタイミング及び位置を合わせて専用バット42をスイングすることができ、現実の野球ボールを使った打撃練習と同じ感覚で打撃練習を行うことができる。
【0062】
打撃結果判定部60は、ユーザPが飛来するボール映像E2に対して専用バット42をスイングしたときに、仮想空間におけるボールオブジェクトの位置(移動経路)と、後述のバット検出部62が検出した仮想空間におけるバットオブジェクト(仮想バット)の位置(移動経路)と、に基づいて、打撃結果を判定する。
【0063】
打撃結果判定部60は、例えば仮想空間でボールオブジェクトとバットオブジェクトとが最接近したときの距離が一定値未満であればボールオブジェクトとバットオブジェクトとが衝突(コリジョン)したと判定し、一定値以上であれば、空振りと判定する。ボールオブジェクトとバットオブジェクトとが衝突したと判定した場合、打撃結果判定部60はボールオブジェクトとバットオブジェクトとが衝突した状況(球速、スイング速度、衝突角度、バットオブジェクトの衝突位置、ボールオブジェクトの回転方向および回転速度など)に基づいて、打球の方向や塁打情報等を判定する。例えば打撃結果判定部60により判定された打撃結果は、立体画像制御部58の制御により3面表示部10に映し出される。
【0064】
バット検出部62は、現実空間においてユーザPがスイングした専用バット42の動きを検出する。バット位置検出部70はトラッカ230aを利用して専用バット42の先端の位置情報を検出する。また、バット位置検出部70はトラッカ230bを利用して専用バット42のグリップエンドの位置情報を検出する。なお、バット位置検出部70は専用バット42の先端及びグリップエンドの位置の検出に、赤外線センサ210から通知されるトラッカ230a~230bの赤外線マーカの位置情報を利用してもよい。
【0065】
バット姿勢算出部72は、バット位置検出部70が検出した専用バット42の先端及びグリップエンドの位置情報に基づいて、専用バット42の姿勢情報を算出する。バット姿勢算出部72は、バット位置検出部70が検出した専用バット42の先端の位置及びグリップエンドの位置を繋げた線に基づいて、専用バット42の姿勢情報を算出する。
【0066】
このように、本実施形態に係るバッティングシミュレータ1では、専用バット42に取り付けられたトラッカ230a及びトラッカ230bが検出した専用バット42の姿勢情報を使用せず、専用バット42の先端及びグリップエンドの位置情報から算出した姿勢情報を利用する。
【0067】
この理由は、スイング速度が高速(例えば90km/h以上)の専用バット42から検出された専用バット42の姿勢情報の精度が損なわれる場合があることが、データ分析により分かった為である。なお、スイング速度が高速(例えば90km/h以上)の専用バット42から検出された専用バット42の位置情報の精度は、姿勢情報と比較して精度が損なわれていなかった。
【0068】
そこで、本実施形態に係るバッティングシミュレータ1では、専用バット42に取り付けられたトラッカ230a及びトラッカ230bが検出した専用バット42の姿勢情報を使用せず、専用バット42の先端及びグリップエンドの位置情報から算出した姿勢情報を利用するようにした。
【0069】
軌道情報算出部74は、バット位置検出部70が検出した専用バット42の先端及びグリップエンドの位置情報と、バット姿勢算出部72が算出した専用バット42の姿勢情報とに基づいて、仮想空間におけるバットオブジェクト(ユーザPが仮想空間で扱う仮想バット)の軌道情報を算出する。なお、軌道情報算出部74は算出したバットオブジェクトの軌道情報を、カルマンフィルタを用いて平滑化する。カルマンフィルタを用いた平滑化は、時系列な測定値を平滑化する方法の一例である。
【0070】
ヘルメット検出部64は、現実空間においてユーザPが頭部に装着するヘルメット43の動きを検出する。ヘルメット検出部64はトラッカ230cを利用してヘルメット43の頂点の位置情報及び姿勢情報を検出する。
【0071】
<バッティングシミュレータの処理>
図7は本実施形態に係るバッティングシミュレータの処理手順の一例のフローチャートである。ステップS10において、バッティングシミュレータ1は操作ユニット100に対するユーザPの操作に基づき、バッティングシミュレーションに必要な情報の選択を受け付ける。例えばユーザPは、打席(右打席又は左打席)と、対戦相手の投手と、球種や球速などにより区別される難易度と、を選択する。
【0072】
ステップS12において、バッティングシミュレータ1はユーザPからの開始指示を受け付け、プレイをスタートする。ユーザPは、液晶シャッタメガネ41を掛け、頭部にヘルメット43を装着し、専用バット42を持った状態で打席に立つ。
【0073】
ステップS14において、バッティングシミュレータ1はユーザPが立体として認識できる投球映像を3面表示部10に表示する。例えばバッティングシミュレータ1は投手オブジェクトが投球動作を行う投球画像を3面表示部10に表示する。また、バッティングシミュレータ1は投球動作にタイミングを合わせてボールオブジェクトに対応するボール映像が投手映像の位置からユーザPが専用バット42で打撃可能な位置を通って本塁映像の後方まで移動するように、3面表示部10に表示する。
【0074】
ユーザPは移動してくるボール映像にタイミング及び位置を合わせて専用バット42をスイングする。ステップS16において、バッティングシミュレータ1は専用バット42の位置情報及び姿勢情報に基づいて、仮想空間におけるバットオブジェクト(ユーザPの専用バット42のスイングと同期して仮想空間でスイングされる仮想バット)の軌道情報を算出する。
【0075】
ステップS18において、バッティングシミュレータ1は仮想空間におけるボールオブジェクトの位置(移動経路)とバットオブジェクトの位置(移動経路)を表す軌道情報とに基づいて、仮想空間でボールオブジェクトとバットオブジェクトとが衝突したか否かを判定する。また、バッティングシミュレータ1は仮想空間でボールオブジェクトとバットオブジェクトとが衝突したと判定すると、ボールオブジェクトとバットオブジェクトとが衝突した状況(球速、スイング速度、衝突角度など)に基づいて、打球の方向や塁打情報等を判定する。
【0076】
ステップS20において、バッティングシミュレータ1は仮想バットであるバットオブジェクトで仮想ボールであるボールオブジェクトを打撃したか否かを判定する。仮想空間でバットオブジェクトとボールオブジェクトとが衝突したと判定した場合、バッティングシミュレータ1は、仮想バットであるバットオブジェクトで仮想ボールであるボールオブジェクトを打撃したと判定する。
【0077】
仮想バットで仮想ボールを打撃したと判定した場合、バッティングシミュレータ1はステップS22に進み、ステップS18の打球の方向や塁打情報等に基づいて、仮想バットにより打撃されたボール映像を3面表示部10に立体表示する。仮想バットで仮想ボールを打撃しなかったと判定した場合、バッティングシミュレータ1は空振りと判定して、ステップS22の処理をスキップする。なお、バッティングシミュレータ1はボールを打撃したか否かに関わらず、仮想バットのスイング軌道を3面表示部10に立体表示する。
【0078】
図7のフローチャートの処理によれば、ボールオブジェクト及びバットオブジェクトなどが配置された仮想モデルをレンダリングすることで、仮想空間における打撃結果を現実空間にボール映像及びバット映像で立体表示できる。
【0079】
図7のステップS16の処理は、例えば図8に示すような処理手順で実行される。図8は専用バットの位置情報及び姿勢情報に基づいて、仮想空間におけるバットオブジェクトの軌道情報を算出する処理手順の一例のフローチャートである。
【0080】
ステップS30において、専用バット42の先端に取り付けられたトラッカ230a及びグリップエンドに取り付けられたトラッカ230bが位置情報を検出する。ステップS32において、バット検出部62は、専用バット42の先端に取り付けられたトラッカ230aが検出した位置情報、及びグリップエンドに取り付けられたトラッカ230bが検出した位置情報を繋げた線に基づいて、専用バット42の姿勢情報を算出する。
【0081】
ステップS34において、バット検出部62はステップS30で検出した専用バット42の先端及びグリップエンドの位置情報と、ステップS32で算出した専用バット42の姿勢情報とに基づいて、現実空間の専用バット42と動きを同期させる仮想空間におけるバットオブジェクト(仮想空間の仮想バット)の軌道情報を算出する。そして、ステップS36において、バット検出部62はカルマンフィルタを用いて、ステップS34で算出した仮想バットの軌道情報を平滑化する。
【0082】
図8のフローチャートの処理によれば、ステップS34で算出した仮想バットの軌道情報を平滑化し、図9に示すように仮想バットの軌道情報を精度よく表示できる。図9は3面表示部に立体表示された仮想バットのスイング軌道の一例のイメージ図である。図9は専用バット42のスイング軌道と同期させた仮想バットのスイング軌道が精度良く表示された例である。
【0083】
[他の実施形態]
上記の実施形態では、3面表示部10がユーザPから見て3つの方向に3つの表示部を有する例を説明したが、例えば図10に示すように、3つの表示部の一つを省略することもできる。
【0084】
図10は本実施形態に係るバッティングシミュレータの一例の概略図である。図10のバッティングシミュレータは、2つの方向に2つの表示部を有する2面表示部を有する例である。
【0085】
図10に示したように、バッティングシミュレータは、2面表示部、床面用プロジェクタ21、及び正面用プロジェクタ23、を有している。ユーザPは第1の実施形態と同様に液晶シャッタメガネ41を掛け、頭部にヘルメット(図示せず)を装着し、専用バット42を持った状態でバッティングシミュレータを利用する。2面表示部は、床面表示部11と、壁面表示部(第2壁面表示部13)と、第2湾曲部15と、を有する。
【0086】
床面用プロジェクタ21、及び正面用プロジェクタ23によって2面表示部に映し出される画像は、時分割で交互に映し出される右目用及び左目用の画像である。2面表示部に時分割で交互に映し出される右目用及び左目用の画像を、装着した液晶シャッタメガネ41を通して見ることにより、床面表示部11上のユーザPは画像を立体として認識することができる。
【0087】
また、上記の実施形態では、投影型のプロジェクタを用いて立体画像を3面表示部10等に投影する例を説明したが、液晶ディスプレイやプラズマディスプレイなどの表示装置を用いて立体画像を表示してもよいし、ヘッドマウントディスプレイを用いて立体画像を表示してもよい。
【0088】
また、上記の実施形態では、ユーザPが現実空間で扱う道具の一例である専用バット42を用いて説明したが、専用バット42以外の道具にも適用可能である。本実施形態は例えば、テニスのラケット、卓球のラケット、バトミントンのラケット、アイスホッケーのスティック、ゴルフのクラブ、剣道の竹刀などの道具に適用することも可能である。
【0089】
さらに、本実施形態に係るバッティングシミュレータ1は、野球などのスポーツの練習の目的で使用することができ、また、ゲームや遊びの目的で使用することもできる。例えばゲームの目的で使用する場合は、スポーツゲームに限定されず、例えばロールプレイングゲームやアクションゲームへの適用も可能である。例えばロールプレイングゲームではユーザPが現実空間で動かす剣や盾などの動きのセンシングに適用することで、仮想空間でユーザPが動かすことのできるゲーム内の剣や盾の動きを、ユーザPが現実空間で動かす剣や盾などの動きと同期できる。
【0090】
(まとめ)
本実施形態によれば、ユーザPが現実空間で扱う専用バット42などの道具の動きに仮想空間で扱う仮想バットなどの動きを同期させるシミュレーション装置のコストを低減することができる。
【0091】
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えばバット位置検出部70は道具位置検出手段の一例である。バット姿勢算出部72は道具姿勢算出手段の一例である。ヘルメット検出部64は装着物検出手段の一例である。軌道情報算出部74は軌道情報算出手段の一例である。立体画像制御部58は立体画像制御手段の一例である。立体画像制御部58は移動情報算出手段としても機能する。打撃結果判定部60はコリジョン判定手段の一例である。
【符号の説明】
【0092】
1 バッティングシミュレータ
10 3面表示部
11 床面表示部
12 第1壁面表示部
13 第2壁面表示部
21 床面用プロジェクタ
22 側面用プロジェクタ
23 正面用プロジェクタ
41 液晶シャッタメガネ
42 専用バット
43 ヘルメット
50 仮想モデル設定部
52 打席選択部
54 視点位置算出部
56 視線方向設定部
58 立体画像制御部
60 打撃結果判定部
62 バット検出部
64 ヘルメット検出部
70 バット位置検出部
72 バット姿勢算出部
74 軌道情報算出部
100 操作ユニット
110 画面表示ユニット
120 コイン投入ユニット
130 ICカードユニット
150 コンピュータ
190 液晶シャッタメガネ用発信器
210 赤外線センサ
220a~220c トラッカ用通信機
230a~230c トラッカ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10