(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-12-15
(45)【発行日】2022-12-23
(54)【発明の名称】インストラクションシステム、プログラム
(51)【国際特許分類】
G06F 3/04815 20220101AFI20221216BHJP
G06F 3/04845 20220101ALI20221216BHJP
G06Q 50/10 20120101ALI20221216BHJP
H04N 5/93 20060101ALI20221216BHJP
G06T 19/00 20110101ALI20221216BHJP
A63B 69/00 20060101ALI20221216BHJP
A63B 71/06 20060101ALI20221216BHJP
【FI】
G06F3/04815
G06F3/04845
G06Q50/10
H04N5/93
G06T19/00 A
A63B69/00 A
A63B71/06 T
(21)【出願番号】P 2020206176
(22)【出願日】2020-12-11
【審査請求日】2020-12-14
(73)【特許権者】
【識別番号】305040558
【氏名又は名称】株式会社アイアイビー
(74)【代理人】
【識別番号】100085338
【氏名又は名称】赤澤 一博
(74)【代理人】
【識別番号】100148910
【氏名又は名称】宮澤 岳志
(72)【発明者】
【氏名】▲高▼松 邦明
【審査官】岩橋 龍太郎
(56)【参考文献】
【文献】国際公開第2018/211571(WO,A1)
【文献】特開2005-208867(JP,A)
【文献】国際公開第2004/107271(WO,A1)
【文献】特開平10-263126(JP,A)
【文献】韓国登録特許第10-1824808(KR,B1)
【文献】米国特許第08620146(US,B1)
【文献】特開2007-087324(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/048-3/04895
G06F 3/14-3/153
G06T 1/00
G06T 11/60-13/80
G06T 17/05
G06T 19/00-19/20
A63B 69/00-69/40
A63B 71/00-71/16
G09B 1/00-9/56
G09B 17/00-19/26
H04N 5/91-5/956
(57)【特許請求の範囲】
【請求項1】
運動する人または物を撮影した動画像と、運動する当該人または当該物を模した三次元オブジェクトとを同期させて表示し、ユーザに提示するためのシステムであって、
前記動画像のデータを格納する動画像データ格納部と、
前記動画像に関連する付随データを格納する付随データ格納部と、
前記
動画像に関連する三次元オブジェクトの運動を規定するデータを格納するモーションデータ格納部と、
ユーザの手による、前記動画像におけるこれから表示させるべき時点を指定する操作を受け付ける再生操作受付部と、
ユーザの手による、前記三次元オブジェクトを表示させる際の視点を指定する操作を受け付ける視点操作受付部と、
前記動画像データ格納部に格納している動画像データ及び前記モーションデータ格納部に格納しているモーションデータを基に、前記動画像及び
これに関連する前記三次元オブジェクトを、同一の表示デバイスに、前記再生操作受付部で指定を受け付けた時点から、動画像と動画像中の人または物を模した三次元オブジェクトの運動とを同期させて表示させ、かつその三次元オブジェクトを前記視点操作受付部で指定を受け付けた視点から見た状態で投影するとともに、前記付随データ格納部に格納している付随データを基に、当該動画像に関連する付随データを当該表示デバイスに表示させる出力制御部とを具備し、
前記出力制御部は、
同一の前記表示デバイスに、一つの前記動画像の表示領域と、一つの前記三次元オブジェクトの表示領域と
、前記動画像の表示領域に表示される動画像に映し出される人または物の動きの内容の解説、運動、機械操作の手順、方法または助言を説明するテキスト情報を含む前記付随データとを
同時に表示させ、
その表示させる付随データは、前記表示デバイスに表示させる前記動画像及び前記三次元オブジェクトの組毎に異なっており、
前記一つの三次元オブジェクトの表示領域内で、前記視点操作受付部で受け付けた操作に応じて、三次元オブジェクトを見る視点の位置、視点から見る視線の方向、並びに視点から三次元オブジェクトまでの距離若しくはズーム倍率をユーザの任意に変化させるインストラクションシステム。
【請求項2】
前記モーションデータ格納部に格納しているモーションデータは、前記動画像データ格納部に格納している動画像データを得るために撮影した人または物と同一人または同一物の同じ運動をモーションキャプチャして得たものである請求項1記載のインストラクションシステム。
【請求項3】
請求項1
または2記載のインストラクションシステムを構築するために用いられるものであって、コンピュータを、
運動する人または物を撮影した動画像のデータを格納する動画像データ格納部、
前記動画像に関連する付随データを格納する付随データ格納部、
前記動画像に関連する運動する人または物を模した三次元オブジェクトの運動を規定するデータを格納するモーションデータ格納部、
ユーザの手による、前記動画像におけるこれから表示させるべき時点を指定する操作を受け付ける再生操作受付部、
ユーザの手による、前記三次元オブジェクトを表示させる際の視点を指定する操作を受け付ける視点操作受付部、並びに、
前記動画像データ格納部に格納している動画像データ及び前記モーションデータ格納部に格納しているモーションデータを基に、前記動画像及び
これに関連する前記三次元オブジェクトを、同一の表示デバイスに、前記再生操作受付部で指定を受け付けた時点から、動画像と動画像中の人または物を模した三次元オブジェクトの運動とを同期させて表示させ、かつその三次元オブジェクトを前記視点操作受付部で指定を受け付けた視点から見た状態で投影するともに、前記付随データ格納部に格納している付随データを基に、当該動画像に関連する付随データを当該表示デバイスに表示させる出力制御部として機能させ、
前記出力制御部は、
同一の前記表示デバイスに、一つの前記動画像の表示領域と、一つの前記三次元オブジェクトの表示領域と
、前記動画像の表示領域に表示される動画像に映し出される人または物の動きの内容の解説、運動、機械操作の手順、方法または助言を説明するテキスト情報を含む前記付随データとを
同時に表示させ、
その表示させる付随データは、前記表示デバイスに表示させる前記動画像及び前記三次元オブジェクトの組毎に異なっており、
前記一つの三次元オブジェクトの表示領域内で、前記視点操作受付部で受け付けた操作に応じて、三次元オブジェクトを見る視点の位置、視点から見る視線の方向、並びに視点から三次元オブジェクトまでの距離若しくはズーム倍率をユーザの任意に変化させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、運動する人及び/または物を撮影した動画像を表示してユーザに提示するインストラクションシステムに関する。
【背景技術】
【0002】
自身で運動を行いまたは機械類を操作するインストラクタ(トレーナ)を撮影し、その動画像(映像)をユーザに提示して運動や機械の操作方法等を教示するオンラインインストラクションシステムが公知である(例えば、下記特許文献を参照)。この種のシステムは、体操、ヨガやストレッチ、ボディビル、武道、格闘技等といった人のフィジカルトレーニングに利用される。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
いわゆるVR(Virautal Reality)動画や360°動画のようなものを除き、動画像の視点は、それを撮影したときのカメラの位置及び向きによって予め規定されている。即ち、動画像を閲覧または視聴するユーザが、所望の方向から対象の人または物を視認することは不可能である。要するに、動画像は二次元の情報であり、それが伝えることのできる内容に限りがある。
【0005】
VR動画または360°動画にしても、撮影したカメラの位置を中心として視線の方向を回動させることはできるものの、対象の人または物を前から見たり、後ろから見たり、横から見たり、上から見たり、あるいは対象の人または物に接近したりすることはできない。
【0006】
一方で、教示を受けるユーザの立場からは、インストラクタの動きを様々な方向から視認したり、特定の部位に近寄り拡大して見たりしたいという要望が存在している。とりわけ、複雑な体の動作を含む運動は、動画像を見ながら真似るだけでは学修することが困難である。
【0007】
以上に鑑みてなされた本発明は、インストラクタの動きを視認して運動の方法等を学ぼうとするユーザの要望に応え得る、より効果的なインストラクションシステムを実現しようとするものである。
【課題を解決するための手段】
【0008】
上述した課題を解決するべく、本発明では、運動する人及び/または物を撮影した動画像と、運動する当該人及び/または当該物を模した三次元オブジェクトとを同期させて表示し、ユーザに提示するためのシステムであって、前記動画像のデータを格納する動画像データ格納部と、前記動画像に関連する付随データを格納する付随データ格納部と、前記動画像に関連する三次元オブジェクトの運動を規定するデータを格納するモーションデータ格納部と、ユーザの手による、前記動画像におけるこれから表示させるべき時点を指定する操作を受け付ける再生操作受付部と、ユーザの手による、前記三次元オブジェクトを表示させる際の視点(三次元オブジェクトを見る視点の仮想空間内での位置、視線の方向、並びに三次元オブジェクトまでの距離若しくはズーム倍率)を指定する操作を受け付ける視点操作受付部と、前記動画像データ格納部に格納している動画像データ及び前記モーションデータ格納部に格納しているモーションデータを基に、前記動画像及びこれに関連する前記三次元オブジェクトを、同一の表示デバイスに、前記再生操作受付部で指定を受け付けた時点から、動画像及び動画像中の人及び/または物を模した三次元オブジェクトの運動を同期させて表示させ、かつその三次元オブジェクトを前記視点操作受付部で指定を受け付けた視点から見た状態で投影するとともに、前記付随データ格納部に格納している付随データを基に、当該動画像に関連する付随データを当該表示デバイスに表示させる出力制御部とを具備するインストラクションシステムを構成した。前記出力制御部は、同一の前記表示デバイスに、一つの前記動画像の表示領域と、一つの前記三次元オブジェクトの表示領域と、前記動画像の表示領域に表示される動画像に映し出される人または物の動きの内容の解説、運動、機械操作の手順、方法または助言を説明するテキスト情報を含む前記付随データとを同時に表示させ、その表示させる付随データは、前記表示デバイスに表示させる前記動画像及び前記三次元オブジェクトの組毎に異なっていて、前記一つの三次元オブジェクトの表示領域内で、前記視点操作受付部で受け付けた操作に応じて、三次元オブジェクトを見る視点の位置、視点から見る視線の方向、並びに視点から三次元オブジェクトまでの距離若しくはズーム倍率をユーザの任意に変化させる。
【0009】
前記モーションデータ格納部に格納しているモーションデータは、例えば、前記動画像データ格納部に格納している動画像データを得るために撮影した人及び/または物と同一人及び/または同一物の同じ運動をモーションキャプチャして得たものである。
【発明の効果】
【0011】
本発明によれば、インストラクタの動きを視認して運動の方法等を学ぼうとするユーザの要望に応え得る、より効果的なインストラクションシステムを実現できる。
【図面の簡単な説明】
【0012】
【
図1】本発明の一実施形態のインストラクションシステムの全体概要を示す図。
【
図2】同実施形態においてクライアントコンピュータが備えるハードウェア資源を示す図。
【
図3】同実施形態においてサーバコンピュータが備えるハードウェア資源を示す図。
【
図4】同実施形態のインストラクションシステムの機能ブロック図。
【
図5】同実施形態のインストラクションシステムが保有する付随データを例示する図。
【
図6】同実施形態のインストラクションシステムが表示デバイスに表示させる動画像及び三次元オブジェクトを含む画面を例示する図。
【
図7】同実施形態のインストラクションシステムが表示デバイスに表示させる動画像及び三次元オブジェクトを例示する図。
【
図8】同実施形態のインストラクションシステムが表示デバイスに表示させる動画像及び三次元オブジェクトを例示する図。
【
図9】同実施形態のインストラクションシステムが表示デバイスに表示させる動画像及び三次元オブジェクトを例示する図。
【
図10】同実施形態のインストラクションシステムが表示デバイスに表示させる動画像及び三次元オブジェクトを例示する図。
【発明を実施するための形態】
【0013】
本発明の一実施形態を、図面を参照して説明する。本実施形態のインストラクションシステムは、体操、ヨガやストレッチ、ボディビル、武道、格闘技等の運動や機械の操作方法等を学ぼうとするユーザに対して、運動や機械操作等を行うインストラクタを撮影した動画像M、及びそのモーションキャプチャに基づいた三次元オブジェクトOを提示し、ユーザの学習及び実践に寄与せんとするものである。
【0014】
図1に示すように、本インストラクションシステムは、ユーザが使用するクライアントコンピュータ1と、各クライアントコンピュータ1と電気通信回線3を介して通信可能に接続するサーバコンピュータ2とを要素として構築される。本インストラクションシステムのユーザは、複数人存在し得る。各ユーザが使用するコンピュータ1もまた、複数存在し得る。電気通信回線3は、PAN(Personal Area Network)、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット等を含む。
【0015】
ユーザが使用するコンピュータ1は、例えば既知の汎用的なパーソナルコンピュータ、携帯電話端末またはタブレット型コンピュータ等の情報処理端末、またはビデオゲーム機である。
図2に示すように、コンピュータ1は、CPU(Central Procesing Unit)1a、メインメモリ1b、補助記憶デバイス1c、GPU1d、オーディオコーデック1e、通信インタフェース1f、操作入力デバイス1g、表示デバイス1h、音声出力デバイス1i等のハードウェア資源を備え、これらがコントローラ(システムコントローラ、I/Oコントローラ等)1jにより制御されて連携動作するものである。
【0016】
補助記憶デバイス1cは、フラッシュメモリやハードディスクドライブ、光学ディスクドライブ、その他である。
【0017】
GPU(Graphics Processing Unit)1dは、CPU1aより受けた描画指示をもとに表示させるべき画面を生成しその画面信号を表示デバイス1hに向けて送出する。GPU1dには、画面や画像のデータを一時的に格納しておくビデオメモリ等が付帯する。表示デバイス1hは、通常はディスプレイであるが、プロジェクタ等であっても構わない。因みに、CPU1a、GPU1d及びメモリ1b等は、SoC(System on Chip)化、即ち一個の集積回路に統合されていることがある。
【0018】
オーディオコーデック1eは、符号化されている音声データを復号化して音声出力デバイス1iであるスピーカ等から音声出力する。オーディオコーデック1eは、ハードウェアとして実装してもよく、ソフトウェアとして実装してもよい。
【0019】
通信インタフェース1fは、電気通信回線3を通じて外部の他のコンピュータ2との間で情報通信を行うためのデバイスである。通信インタフェース1fは、Bluetooth(登録商標)や無線LAN、携帯電話網、WiMAX(Worldwide Interoperability for Microwave Access)網等を介した無線通信を実施するための無線トランシーバ、有線LAN等を介した有線通信を実施するためのNIC(Network Interface Controller)、その他である。
【0020】
操作入力デバイス1gは、コンピュータ1を使用する者が手指で操作するタッチパネル(ディスプレイ1hに重ね合わされたものであることがある)やマウス、トラックパッドといったポインティングデバイス、押下ボタン、キーボード等、またはコンピュータ1を使用する者が肉声により指令を入力する音声入力デバイスとしてのマイクである。コンピュータ1が携行可能なものである場合、当該コンピュータ1に加速度センサが実装されていることがあり、この加速度センサを操作入力デバイス1gに含めることもできる。
【0021】
コンピュータ1にあって、本システムの実現のためにCPU1aにより実行されるべきプログラムは補助記憶デバイス1cに格納され、プログラムの実行の際には補助記憶デバイス1cからメインメモリ1bに読み込まれ、CPU1aによって解読される。コンピュータ1は、プログラムに従って上記ハードウェア資源を作動させる。
【0022】
サーバコンピュータ2は、例えば既知の汎用的なサーバ、パーソナルコンピュータ、ワークステーション等である。サーバコンピュータ2が、クラウドコンピューティングにより構成されることもあり得る。
図3に示すように、コンピュータ2は、CPU2a、メインメモリ2b、補助記憶デバイス2c、GPU2d、通信インタフェース2e等のハードウェア資源を備え、これらがコントローラ2fにより制御されて連携動作するものである。
【0023】
コンピュータ2にあって、本システムの実現のためにCPU2aにより実行されるべきプログラムは補助記憶デバイス2cに格納され、プログラムの実行の際には補助記憶デバイス2cからメインメモリ2bに読み込まれ、CPU2aによって解読される。コンピュータ2は、プログラムに従って上記ハードウェア資源を作動させる。
【0024】
図4に示すように、本インストラクションシステムは、動画像データ格納部101、モーションデータ格納部102、オブジェクトデータ格納部103、付随データ格納部104、出力制御部105、再生操作受付部106及び視点操作受付部107を具備する。なお、後述するが、これら各部101、102、103、104、105、106、107の機能はそれぞれ、クライアントコンピュータ1側で具現してもよく、サーバコンピュータ2側で具現してもよく、両コンピュータ1、2の協働によって具現してもよい。
【0025】
本インストラクションシステムの各部101、102、103、104、105、106、107の機能を詳説する。動画像データ格納部101は、コンピュータ1及び/またはコンピュータ2のメインメモリ1b、2b若しくは補助記憶デバイス1c、2cの所要の記憶領域を用いて、運動するインストラクタ及び/または操作される機械等を撮影して得た動画像データを格納する。動画像Mは、運動や機械操作等を行うインストラクタ及び/または機械等の動きを実写でユーザに提示し、その運動や機械操作等の内容を視覚的にユーザに教示するものである。
【0026】
動画像データは、既知のフォーマット(例えば、MPEG-2やMPEG-4(MP4)等)に則ったデータファイルであり、動画像Mを構成する一連のフレーム群の各々毎に、表示デバイス1hに表示させるべき画像の内容を規定する。周知の通り、動画像データは、それ単独で動画像M中のある時点の画像を構成するキーフレームのデータと、ある時点の直前及び/直後の時点の画像からの差分のみの情報を含むキーフレーム以外のフレームデータとを包含する。このような動画像データを基に、動画像Mを構成する各フレームの画像を順次表示、即ち実写映像を再生することが可能である。また、動画像データファイルは、インストラクタが教示する運動や機械操作等の内容を映像Mとともに音声出力するためのデータである音声トラックを包有することが当然にある。
【0027】
モーションデータ格納部102は、コンピュータ1及び/またはコンピュータ2のメインメモリ1b、2b若しくは補助記憶デバイス1c、2cの所要の記憶領域を用いて、運動するインストラクタ及び/または操作される機械等の動きをモーションキャプチャして得たモーションデータを格納する。モーションキャプチャの具体的な手法としては、既知の任意の技術を採用することができる。モーションデータは、三次元コンピュータグラフィクスにより、運動や機械操作等を行うインストラクタ及び/または機械等を模した三次元オブジェクトOを描画し、その三次元オブジェクトOの動きをユーザに提示することで、運動や機械操作等の内容を視覚的にユーザに教示するためのものである。即ち、モーションデータは、インストラクタ及び/または機械等を模した三次元オブジェクトOの運動を規定する。そして、本インストラクションシステムにおいて、モーションデータが規定する三次元オブジェクトOの動きは、上記の動画像データを基に再生される動画像Mによって表されるインストラクタ及び/または機械等の動きと同等である。
【0028】
モーションデータは、既知のフォーマット(例えば、BVH(BioVision Hierarchy)等)に則ったデータファイルであり、三次元オブジェクトOの一連の動きの各時点のフレーム毎に、表示デバイス1hに表示させるべき三次元オブジェクトOの姿勢や形状等を規定する。モーションデータは、三次元オブジェクトOの骨格(スケルトン)を構成する複数の骨(ボーン)同士を繋ぐ各関節(ジョイント)の、時系列に沿った各フレームにおける三次元仮想空間内での位置座標を含む。なお、モーションデータを得るためのモーションキャプチャ作業は、インストラクタや機械の動きを撮影して動画像データを得るときに同時に行ってもよく、動画像Mの撮影とは別個に行ってもよい。但し、既に述べた通り、動画像M内のインストラクタ及び/または機械等の動きと、モーションデータが示す三次元オブジェクトOの動きとは、合致している必要がある。モーションデータの時間軸方向の解像度即ちフレームレートは、当該モーションデータに対応する動画像データのフレームレートと一致させることが好ましい。
【0029】
オブジェクトデータ格納部103は、コンピュータ1及び/またはコンピュータ2のメインメモリ1b、2b若しくは補助記憶デバイス1c、2cの所要の記憶領域を用いて、運動するインストラクタ及び/または操作される機械等を模した三次元オブジェクトOの形状を記述するオブジェクトデータを格納する。オブジェクトデータは、三次元コンピュータグラフィクスにより、運動や機械操作等を行うインストラクタ及び/または機械等を模した三次元オブジェクトOを描画して表現するために参照される。
【0030】
オブジェクトデータは、既知のフォーマット(例えば、COLLADA(COLLAborative Design Activity)やFBX(FilmBoX)等)に則ったデータファイルであり、インストラクタ及び/または機械等を模した三次元オブジェクトOの外形を規定するポリゴンメッシュやスキン、当該三次元オブジェクトOに内挿される骨格の関節の配置の情報を含む。モーションデータが有する各関節のフレーム毎の位置座標は、オブジェクトデータが有する三次元オブジェクトO内の各関節に対応している。つまり、これらモーションデータ及びオブジェクトデータを基に、三次元仮想空間内で運動する三次元オブジェクトOの各フレームにおける姿形を順次描画して表示、即ち実写でない仮想的な三次元オブジェクトOの映像を再生することが可能である。
【0031】
付随データ格納部104は、コンピュータ1及び/またはコンピュータ2のメインメモリ1b、2b若しくは補助記憶デバイス1c、2cの所要の記憶領域を用いて、動画像データ格納部101に格納している動画像Mに関連する付随データを格納する。付随データは、少なくとも、動画像データ格納部101に格納している動画像データと、モーションデータ格納部102に格納しているモーションデータとを対応付け(紐付け、関連付け)る情報を含む。動画像データに対応するモーションデータは、その動画像M中に写っているインストラクタや機械等の動きと同等の動きを三次元オブジェクトOにより表現するためのデータである。例えば、
図5に示すように、付随データにおいて、少なくとも、動画像データ格納部101に格納している動画像データのうちのあるものを識別する識別子(動画像データのファイル名や当該ファイルの格納場所のディレクトリを指し示すURI(Uniform Resource Identifier)等)と、モーションデータ格納部102に格納してモーションデータのうちの当該動画像Mに対応付けられるモーションデータを識別する識別子(モーションデータのファイル名やURI等)とを組として記述する。また、それら動画像データ及びモーションデータの組と、オブジェクトデータ格納部103に格納しているオブジェクトデータとを対応付けるべく、当該モーションデータを用いて動きを表現する三次元オブジェクトに係るオブジェクトデータを識別する識別子(オブジェクトデータのファイル名やURI等)を付記することがある。
【0032】
加えて、付随データは、動画像データ及びモーションデータの組毎に、当該動画像M(及び、モーションデータ)の内容を示唆するタイトルや単元名、その内容の解説や運動、機械操作の手順、方法、助言その他を説明するテキスト情報Iを含んでいる。
【0033】
出力制御部105は、ユーザが使用するコンピュータ1の表示デバイス1hに、運動や機械操作等を行うインストラクタを撮影した動画像M、及びそのモーションキャプチャに基づいた三次元オブジェクトOを表示出力する制御を実行する。
図6ないし
図10に、動画像M及び三次元オブジェクトOの表示デバイス1hの画面への表示例を示している。本インストラクションシステムでは、インストラクタ及び/またはインストラクタが操作する機械等を撮影した実写の動画像Mと、インストラクタ及び/または機械等を模した仮想的な三次元オブジェクトOのグラフィクスとを、同一の表示デバイス1hの画面内に表示させる。
【0034】
その上で、出力制御部105は、実写の動画像Mと、当該動画像M中の人及び/または物を模した三次元オブジェクトOの運動とを同期させて表示出力する。つまり、ユーザが閲覧または視聴しようとする所望の時点で、動画像M内の実写の人及び/または物と、それを模した三次元オブジェクトOとが、同じ姿勢をとることになる。出力制御部105が描画する動画像Mは、動画像データに基づいている。出力制御部105が描画する三次元オブジェクトOは、その動画像データに対応付けられたモーションデータ及びオブジェクトデータに基づいている。動画像データに含まれる任意の時点のフレームに写っている人や物の姿形と、モーションデータに含まれる同時点のフレームのデータにより規定される三次元オブジェクトOの姿形とは、互いに合致する。即ち、最初のフレームでも、最後のフレームでも、それらの中間のフレームでも、実写の姿形とモーションデータが表現する姿形とが同等になっている。
【0035】
また、出力制御部105は、動画像データが音声トラックを有している場合、実写の映像Mの表示出力とともに、音声出力デバイス1iを介してその音声トラックに基づく音声を出力する制御を実行する。一般に、動画像データを基に再生する映像Mと音声とは同期する。
【0036】
加えて、出力制御部105は、ユーザが使用するコンピュータ1の表示デバイス1hに、動画像Mに関連する付随データ、例えば当該動画像Mの内容を示唆するタイトルや単元名、その内容の解説や運動、機械操作の手順、方法、助言その他を説明するテキストIを表示出力する制御を実行する。出力制御部105が表示させるそれは、その動画像データに対応付けられた付随データに基づいている。なお、付随データとして記述されている動画像Mのタイトルや単元名、その内容の解説等Iを、音声出力デバイス1iを介して音声出力しても構わない。
【0037】
再生操作受付部106は、ユーザによる、動画像Mにおけるこれから表示させるべき時点を指定する操作を受け付ける。
図6に例示しているように、出力制御部105は、動画像M及び三次元オブジェクトOを表示させる画面内に、動画像M及びこれに対応する三次元オブジェクトOの動きの再生/停止を操作するためのボタン61、62、63、64やスライダ(または、シークバー)65を併せて表示させる。具体的に述べると、動画像M及び三次元オブジェクトOの動きの再生を開始するためのボタン61、再生を一時停止するためのボタン62、再生を終了するためのボタン63、再生を最初のフレームから反復するためのボタン64、再生を開始または再開するフレームを選択するいわゆる頭出し用のスライダ65等である。
【0038】
ユーザは、操作入力デバイス1g、特にタッチパネルやマウス等のポインティングデバイスを介して、任意のボタン61、62、63、64をタップまたはクリックしたり、スライダ65をタップ、クリック、スワイプまたはドラッグして移動させたりする操作を行う。再生操作受付部106は、そのようなユーザによる入力を通じて、ユーザの要求である動画像M及び三次元オブジェクトOの動きの再生、一時停止、終了、反復、再生を開始または再開するフレーム(総じて、今から表示デバイス1hに表示させる動画像M及び三次元オブジェクトOの動きの時点即ちフレーム)を指定する操作を受け付ける。
【0039】
そして、出力制御部105は、再生操作受付部106で指定を受け付けた時点のフレームから動画像M及び三次元オブジェクトOの動きを再生、表示デバイス1hの画面に表示させる。当該時点のフレームにおける三次元オブジェクトOの姿勢は、同フレームにおける動画像M中の人や物の姿勢と同様である。当該時点から時間が経過した後の時点のフレームでも、三次元オブジェクトOの姿勢は動画像M中の人や物の姿勢と同様になる。
図7は、ある時点での動画像M及び三次元オブジェクトOの表示例であり、
図8は、それとは別の時点での動画像M及び三次元オブジェクトOの表示例である。動画像Mの再生/停止、頭出しのための操作インタフェース61、62、63、64、65が、そのまま三次元オブジェクトOの動きの再生/停止、頭出しのための操作インタフェースとなっている点が、本インストラクションシステムの一つの特徴である。
【0040】
視点操作受付部107は、ユーザによる、三次元オブジェクトOを表示させる際の視点を指定する操作を受け付ける。
図6に例示しているように、出力制御部105は、動画像M及び三次元オブジェクトOを表示させる画面内に、三次元オブジェクトOを見る視点の仮想空間内での位置、視線の方向、三次元オブジェクトOまでの距離またはズーム倍率等を操作するためのボタン71、72、73、74、75、76やギズモ77を併せて表示させる。具体的に述べると、画面内で三次元オブジェクトOを上下左右に移動させる(三次元オブジェクトOを見る視点の仮想空間内での位置を移動させる)ためのボタン71、72、73、74、画面内で三次元オブジェクトOを拡大する(視点の仮想空間内での位置を三次元オブジェクトOに近づける)ズームイン用のボタン75、逆に三次元オブジェクトOを縮小する(視点の仮想空間内での位置を三次元オブジェクトOから遠ざける)ズームアウト用のボタン76、画面内で三次元オブジェクトOを回転させるかまたは三次元オブジェクトOを見る視線の方向をパン、チルトその他変位させる(三次元オブジェクトOの仮想空間内での向きまたは視線の仮想空間内での方向を変化させる)ためのギズモ77等である。
【0041】
ユーザは、操作入力デバイス1g、特にタッチパネルやマウス等のポインティングデバイスを介して、任意のボタン71、72、73、74、75、76をタップまたはクリックしたり、ギズモ77をスワイプまたはドラッグしたりする操作を行う。視点操作受付部107は、そのようなユーザによる入力を通じて、ユーザが要求する三次元オブジェクトOに対する視点の位置、距離(拡大/縮小倍率)や視線の方向(総じて、表示デバイス1hに三次元オブジェクトOを描画する際の視点)を指定する操作を受け付ける。
【0042】
そして、出力制御部105は、視点操作受付部107で指定を受け付けた視点及び視線の方向から三次元オブジェクトOを見た状態を描画し、表示デバイス1hの画面に表示させる。なお、視点操作受付部107で受け付けた操作に応じて変化させるのはあくまでも、三次元オブジェクトOの画面内での位置、大きさや三次元オブジェクトOを見る方向である。動画像Mと三次元オブジェクトOの動きとは、三次元オブジェクトOに対する視点がユーザの意思で変位したとしても、常に同期している。繰り返しになるが、各時点のフレームにおいて、動画像M中に写っている人及び/または物を模した三次元オブジェクトOの姿形は、動画像M中の当該人及び/または物の姿形に合致している。
図8は、ある時点での動画像M及びある視点から見た三次元オブジェクトOの表示例であり、
図9は、同時点での動画像M及び他の視点から見た三次元オブジェクトOの表示例である。
図10は、同時点での動画像M及びさらに別の視点から見た三次元オブジェクトOの表示例である。
図8、
図9及び
図10の動画像M中の人や物の姿勢と、
図8の三次元オブジェクトOの姿勢と、
図9の三次元オブジェクトOの姿勢と、
図10の三次元オブジェクトOの姿勢とは、共通である。このように、動画像M中に写っている人や物を模した三次元オブジェクトOを様々な角度から見たり、特定の部位を拡大して見たり、縮小して全体を見たりすることができる点が、本インストラクションシステムのもう一つの特徴である。
【0043】
本インストラクションシステムは、クライアントコンピュータ1を主体として構成することもできるし、クライアントコンピュータ1とサーバコンピュータ2との協働として構成することもできる。後者の場合において、クライアントコンピュータ1がシンクライアント化し、サーバコンピュータ2が主体となる可能性がある。以下、システムの態様を列挙する。
【0044】
[I]クライアントコンピュータ1を主体とする態様:
ユーザが使用するクライアントコンピュータ1を動画像データ格納部101、モーションデータ格納部102、オブジェクトデータ格納部103、付随データ格納部104、出力制御部105、再生操作受付部106及び視点操作受付部107として機能させるプログラム(クライアントコンピュータ1側のウェブブラウザ上で動作するもの、例えばHTML(HyperText Markup Language)5、JavaScript(登録商標)、WebAssembly等を用いたものであることがある)が、クライアントコンピュータ1のメインメモリ1b若しくは補助記憶デバイス1cに格納される。
さらに、動画像データ並びにこれに対応付けられたモーションデータ及びオブジェクトデータ、付随データが、動画像データ格納部101、モーションデータ格納部102、オブジェクトデータ格納部103及び付随データ格納部104となるメインメモリ1b若しくは補助記憶デバイス1cに格納される。
この態様では、クライアントコンピュータ1が、必ずしもサーバコンピュータ2と通信を行うことなく、動画像M及び三次元オブジェクトOの動きを表示デバイス1hの画面に表示出力することができる。換言すれば、クライアントコンピュータ1単体で本インストラクションシステムを構築することが可能ということである。
勿論、上記のプログラムや動画像データ、モーションデータ、オブジェクトデータ、付随データをサーバコンピュータ2の補助記憶デバイス2cに格納しており、サーバコンピュータ2からクライアントコンピュータ1に電気通信回線3を介してダウンロード送信することはある。
【0045】
[II]クライアントコンピュータ1を主体とするが、サーバコンピュータ2から適時必要なデータ及び/またはプログラムの提供を受ける態様:
クライアントコンピュータ1が本インストラクションシステムの各部101、102、103、104、105、106、107の役割を担う点は、[I]の態様と同じである。クライアントコンピュータ1を本システムの各部101、102、103、104、105、106、107として機能させるプログラム(クライアントコンピュータ1側のウェブブラウザ上で動作するものであることがある)は、予めクライアントコンピュータ1にアプリケーションプログラムとしてインストールされていてもよいし、動画像M及び三次元オブジェクトOを表示デバイス1hの画面に表示出力する際にサーバコンピュータ2から受信し、メインメモリ1b若しくは補助記憶デバイス1cに格納されてもよい。
クライアントコンピュータ1は、動画像M及び三次元オブジェクトOを表示デバイス1hの画面に表示出力する際に、必要な動画像データ及びこれに対応付けられたモーションデータ、付随データをサーバコンピュータ2から受信する。そして、それらデータが、動画像データ格納部101、モーションデータ格納部102及び付随データ格納部104となるメインメモリ1b若しくは補助記憶デバイス1cに格納される。
このとき、クライアントコンピュータ1が、サーバコンピュータ2から動画像データ及び/またはモーションデータを、ストリーミングまたはプログレッシブダウンロード等の形態で受信することがある。その場合、クライアントコンピュータ1のメインメモリ1b若しくは補助記憶デバイス1cには、再生対象となる動画像データの全体(一つの動画像Mの最初のフレームから最後のフレームまで)が格納されず、当該動画像データの一部(のフレーム群)のみが格納される。同じように、メインメモリ1b若しくは補助記憶デバイス1cに、再生対象のモーションデータの全体(一つの動画像Mに対応するモーションデータの最初のフレームから最後のフレームまで)が格納されず、当該モーションデータの一部(一つの動画像Mの一部のフレーム群に対応しているモーションデータ)のみが格納されることもあり得る。メインメモリ1b若しくは補助記憶デバイス1cに格納される動画像データ及び/またはモーションデータは、再生操作受付部106で指定を受け付けた再生開始時点からある程度の時間の範囲のフレーム群のデータに限られる。
三次元オブジェクトデータもまた、サーバコンピュータ2から電気通信回線を介して受信し、オブジェクトデータ格納部103となるクライアントコンピュータ1のメインメモリ1b若しくは補助記憶デバイス1cに格納される。三次元オブジェクトデータは、動画像データ及びモーションデータとは別に、動画像M及びモーションの再生に先んじてメインメモリ1b若しくは補助記憶デバイス1cに格納されていてもよいし、動画像M及びモーションの再生または動画像データ及びモーションデータの受信と同時期にサーバコンピュータ2から受信してメインメモリ1b若しくは補助記憶デバイス1cに格納されてもよい。
【0046】
[III]サーバコンピュータ2を主体とする態様:
サーバコンピュータ2を動画像データ格納部101、モーションデータ格納部102、オブジェクトデータ格納部103、付随データ格納部104、出力制御部105、再生操作受付部106及び視点操作受付部107として機能させるプログラムが、サーバコンピュータ2のメインメモリ2b若しくは補助記憶デバイス2cに格納される。
さらに、動画像データ並びにこれに対応付けられたモーションデータ及びオブジェクトデータ、付随データが、動画像データ格納部101、モーションデータ格納部102、オブジェクトデータ格納部103及び付随データ格納部104となるメインメモリ2b若しくは補助記憶デバイス2cに格納される。
この態様では、ユーザが使用するクライアントコンピュータ1がシンクライアントとなる。最終的にクライアントコンピュータ1側の表示デバイス1hに動画像M及び三次元オブジェクトOが表示されることに違いはないが、その表示画面はサーバコンピュータ2において演算、生成され、その表示画面を構成し(クライアントコンピュータ1側のウェブブラウザによりレンダリングされるものであることがある)またはその表示画面をクライアントコンピュータ1において表示デバイス1hに表示出力するために必要となるデータが、サーバコンピュータ2からクライアントコンピュータ1に電気通信回線3を介して送信される。
ユーザは、クライアントコンピュータ1において、これから動画像M及び三次元オブジェクトOの動きを表示させるべき時点を指定する操作を行う。例えば、画面内の任意のボタン61、62、63、64をタップまたはクリックしたり、スライダ65をタップ、クリック、スワイプまたはドラッグしたりする。操作入力デバイス1gを介してそのような操作を受け付けたクライアントコンピュータ1は、プログラム(または、スクリプト)に従い、ユーザによる操作の内容を示すデータ(即ち、画面内のどの箇所をタップまたはクリックしたか、どの箇所からどの箇所までをスワイプまたはドラッグしたか、どのボタン61、62、63、64をタップまたはクリックしたか、スライダ65をどこまで移動させたか等)をサーバコンピュータ2に向けて電気通信回線3を介して送信する。サーバコンピュータ2の再生操作受付部106は、このクライアントコンピュータ1からもたらされるデータを受信する形で、これよりクライアントコンピュータ1の表示デバイス1hに表示させる動画像M及び三次元オブジェクトOの動きの時点即ちフレームを指定する操作を受け付ける。
また、ユーザは、クライアントコンピュータ1において、三次元オブジェクトOを表示させる際の視点を指定する操作を行う。例えば、任意のボタン71、72、73、74、75、76をタップまたはクリックしたり、ギズモ77をスワイプまたはドラッグしたりする。操作入力デバイス1gを介してそのような操作を受け付けたクライアントコンピュータ1は、プログラム(または、スクリプト)に従い、ユーザによる操作の内容を示すデータ(即ち、画面内のどの箇所をタップまたはクリックしたか、どの箇所からどの箇所までをスワイプまたはドラッグしたか、どのボタン71、72、73、74、75、76をタップまたはクリックしたか、ギズモ77をどのように変位させたか等)をサーバコンピュータ2に向けて電気通信回線3を介して送信する。サーバコンピュータ2の視点操作受付部107は、このクライアントコンピュータ1からもたらされるデータを受信する形で、クライアントコンピュータ1の表示デバイス1hに三次元オブジェクトOを描画する際の視点を指定する操作を受け付ける。
しかして、サーバコンピュータ2の出力制御部105は、再生操作受付部106で指定を受け付けた時点のフレームから動画像M及び三次元オブジェクトOの動きを再生した表示画面、さらに三次元オブジェクトOについては視点操作受付部107で指定を受け付けた視点及び視線の方向から三次元オブジェクトOを見た状態を描画した表示画面を演算して生成する。そして、その表示画面を構成しまたはその表示画面をクライアントコンピュータ1において表示デバイス1hに表示出力するために必要となるデータを、クライアントコンピュータ1に向けて電気通信回線3を介して送信する。クライアントコンピュータ1は、このサーバコンピュータ2からもたらされるデータを受信し、これを基に動画像M及び三次元オブジェクトOを含む画面を表示デバイス1hに表示させる。
【0047】
なお、上述した態様[I]、[II]、[III]の何れにおいても、あるユーザが作成した動画像データとモーションデータとの組(付随データがさらに付加されることがある)または動画像データ、モーションデータ及びオブジェクトデータの組(付随データがさらに付加されることがある)を、当該ユーザの使用するクライアントコンピュータ1からサーバコンピュータ2にアップロード送信し、それらデータをサーバコンピュータ2の補助記憶デバイス2cに格納、蓄積しておくことができる。サーバコンピュータ2に蓄積したデータは、随時サーバコンピュータ2から他のユーザの使用するクライアントコンピュータ1にダウンロードまたはストリーミング等により送信して提供することができる。三次元オブジェクトデータ単独についても、同様である。
【0048】
本実施形態では、運動する人及び/または物を撮影した動画像Mと、運動する当該人及び/または当該物を模した三次元オブジェクトOとを同期させて表示し、ユーザに提示するためのシステムであって、前記動画像Mのデータを格納する動画像データ格納部101と、前記三次元オブジェクトOの運動を規定するデータを格納するモーションデータ格納部102と、ユーザの手による、前記動画像Mにおけるこれから表示させるべき時点を指定する操作を受け付ける再生操作受付部106と、ユーザの手による、前記三次元オブジェクトOを表示させる際の視点を指定する操作を受け付ける視点操作受付部107と、前記動画像データ格納部101に格納している動画像データ及び前記モーションデータ格納部102に格納しているモーションデータを基に、前記動画像M及び前記三次元オブジェクトOを、同一の表示デバイス1hに、前記再生操作受付部106で指定を受け付けた時点から、動画像M及び動画像M中の人及び/または物を模した三次元オブジェクトOの運動を同期させて表示させ、かつその三次元オブジェクトOを前記視点操作受付部107で指定を受け付けた視点から見た状態で投影する出力制御部105とを具備するインストラクションシステムを構成した。
【0049】
本実施形態によれば、ユーザが、インストラクタとなる人及び/または物を撮影した実写の動画像Mとともに、これと同期した三次元オブジェクトOの動きを看視できる。しかも、運動するインストラクタを模した三次元オブジェクトOを、様々な方向または角度から視認したり、特定の部位を拡大して視認したり、縮小して全体を視認したりする操作が可能である。このことから、二次元情報である動画像Mのみを看視する場合と比較して、ユーザがインストラクタの動きの詳細、特徴を調査、解析または応用することや、自身の動きとインストラクタの動きとの相違点を発見することがより容易になる。例えば、体操、ヨガ、ストレッチ、ボディビル、武道、格闘技や機械操作等のトレーニングにおいて、ユーザがインストラクタの動きを効果的に学ぶことができるようになる。
【0050】
なお、本発明は以上に詳述した実施形態に限られるものではない。各部の具体的な構成や処理の手順等は、本発明の趣旨を逸脱しない範囲で種々変形が可能である。
【符号の説明】
【0051】
1…クライアントコンピュータ
2…サーバコンピュータ
3…電気通信回線
101…動画像データ格納部
102…モーションデータ格納部
103…オブジェクトデータ格納部
104…付随データ格納部
105…出力制御部
106…再生操作受付部
107…視点操作受付部
I…表示させる付随データ
M…動画像
O…三次元オブジェクト