(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-05-27
(45)【発行日】2024-06-04
(54)【発明の名称】レッスン講習システム及びレッスン講習方法
(51)【国際特許分類】
A63B 69/00 20060101AFI20240528BHJP
G09B 19/00 20060101ALI20240528BHJP
G06T 13/40 20110101ALI20240528BHJP
H04N 7/18 20060101ALI20240528BHJP
【FI】
A63B69/00 514
G09B19/00 Z
A63B69/00 A
G06T13/40
H04N7/18 R
(21)【出願番号】P 2020145824
(22)【出願日】2020-08-31
【審査請求日】2023-04-28
(73)【特許権者】
【識別番号】308036402
【氏名又は名称】株式会社JVCケンウッド
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】新海 善弘
(72)【発明者】
【氏名】塩澤 秀章
(72)【発明者】
【氏名】児玉 健太朗
(72)【発明者】
【氏名】豊口 馨
(72)【発明者】
【氏名】猪俣 知英
【審査官】井上 香緒梨
(56)【参考文献】
【文献】特表2014-502178(JP,A)
【文献】特表平10-501156(JP,A)
【文献】特開2013-103010(JP,A)
【文献】特表2015-503938(JP,A)
【文献】国際公開第2011/086466(WO,A1)
【文献】米国特許出願公開第2020/0126284(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
A63B69/00-69/40
A63B71/00-71/16
A63B1/00-26/00
A61B5/06-5/22
(57)【特許請求の範囲】
【請求項1】
講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信する講師側システムと、
受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記講師側システムから送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する受講者側システムと
を備え
、
前記受講者側システムは、複数設けられ、
それぞれの前記受講者側システムは、互いに他の前記受講者側システムについての映像が表示されない
レッスン講習システム。
【請求項2】
前記受講者側システムは、前記講師アバター映像に前記受講者アバター映像
または前記受講者アバター映像の透明度を高めた半透過アバター映像を重畳させて表示する
請求項1に記載のレッスン講習システム。
【請求項3】
前記講師側システムは、前記講師モーション情報を送信し、
前記受講者側システムは、前記講師側システムから送信された前記講師モーション情報を受信し、受信した前記講師モーション情報と、生成した前記受講者モーション情報とに基づいて、前記講師の動きと前記受講者の動きとのズレを検出し、検出結果を出力する
請求項1又は請求項2に記載のレッスン講習システム。
【請求項4】
前記受講者側システムは、前記検出されたズレのうち、ズレの大きさが所定値を超えた部位またはズレが大きい順に所定数の部位を振動させる
請求項3に記載のレッスン講習システム。
【請求項5】
講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信し、
複数の受講者
について、それぞれ体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示
するものであり、
それぞれの前記受講者に対して映像を表示する際には、互いに他の前記受講者についての映像を表示しない
レッスン講習方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、レッスン講習システム及びレッスン講習方法に関する。
【背景技術】
【0002】
自分のダンス映像と離れた場所にいる他人のダンス映像とを1つの表示部に投影することで、自分と他人とが一緒にダンスしているように体験できるダンス装置が知られている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載の技術では、各自が互いの動作を見ることができるため、例えば他の受講者の目を気にすることなくダンス等のレッスンを受講したい場合には不向きである。
【0005】
本発明は、上記に鑑みてなされたものであり、受講者が他の受講者の目を気にすることなく、体の動かし方を習得するためのレッスンを受講することが可能なレッスン講習システム及びレッスン講習方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明に係るレッスン講習システムは、講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信する講師側システムと、受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記講師側システムから送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する受講者側システムとを備える。
【0007】
本発明に係るレッスン講習方法は、講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信し、受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する。
【発明の効果】
【0008】
本発明によれば、受講者が他の受講者の目を気にすることなく、体の動かし方を習得するためのレッスンを受講することができる。
【図面の簡単な説明】
【0009】
【
図1】
図1は、本実施形態に係るレッスン講習システムの一例を示す機能ブロック図である。
【
図2】
図2は、講師が動作する場合の一態様を示す図である。
【
図3】
図3は、講師アバター映像の一例を示す図である。
【
図4】
図4は、受講者が動作する場合の一態様を示す図である。
【
図5】
図5は、受講者アバター映像の一例を示す図である。
【
図6】
図6は、講師側システムの表示装置に表示されるVR映像の一例を示す図である。
【
図7】
図7は、受講者側システムの表示装置に表示されるVR映像の一例を示す図である。
【
図8】
図8は、受講者側システムの表示装置に表示されるVR映像の一例を示す図である。
【
図9】
図9は、本実施形態に係るレッスン講習方法の一例を示すフローチャートである。
【発明を実施するための形態】
【0010】
以下、本発明に係るレッスン講習システム及びレッスン講習方法の実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
【0011】
図1は、本実施形態に係るレッスン講習システム100の一例を示す機能ブロック図である。
図1に示すように、レッスン講習システム100は、講師側システム10と、受講者側システム40と、サーバ30とを備える。レッスン講習システム100は、例えばダンス、ヨガ、体操等のように、体の動かし方を習得するレッスンを受講するためのシステムである。レッスン講習システム100は、例えば受講者側システム40が複数設けられる構成とすることで、複数の受講者に対して講習を行うことが可能である。
【0012】
講師側システム10は、トラッキング装置11と、制御装置12と、表示装置13と、音声出力装置14とを有する。
【0013】
トラッキング装置11は、講師の体の動きを検出する。トラッキング装置11は、検出部11a及び振動発生部11b(
図2参照)を有する。検出部11aは、講師の体の各部に装着され、各部の位置、速度、加速度を検出する。本実施形態において、検出部11aは、例えば頭、肩、胸、肘、手、腰、膝、足等に装着される。検出部11aの装着箇所は上記に限定されず、他の箇所に装着される態様であってもよい。検出部11aは、検出結果を制御装置12に送信する。なお、検出部11aは、講師の体の各部の位置、速度、加速度を検出可能であれば、例えばカメラ等の他の構成であってもよい。振動発生部11bは、検出部11aと一体で設けられ、制御装置12の制御により振動する。
【0014】
制御装置12は、講師側システム10の各部を制御する。制御装置12は、CPU(Central Processing Unit)等の処理装置と、RAM(Random Access Memory)又はROM(Read Only Memory)等の記憶装置を有する。制御装置12は、モーション生成部16と、アバター生成部17と、VR映像生成部18と、表示制御部19と、通信部20と、記憶部21とを有する。
【0015】
モーション生成部16は、検出部11aの検出結果を取得する。モーション生成部16は、検出結果として取得した講師の体の各部の位置、速度、加速度の各情報に基づいて、講師の体の各部の動きを示す講師モーション情報を生成する。
【0016】
アバター生成部17は、講師モーション情報に基づいて講師アバターが動く講師アバター映像を生成する。講師アバターは、予め記憶部21等に記憶される。講師アバターは、例えば仮想空間において3次元的に表示される態様とすることができる。
【0017】
VR映像生成部18は、後述する通信部20がサーバ30から受信するVR(Virtual Reality:仮想現実)空間の情報を取得する。当該VR空間は、例えばダンス等のレッスンルームを示す三次元的な映像である。VR映像生成部18は、取得したVR空間の情報に基づいて、当該VR空間内に講師アバター映像又は後述する受講者アバター映像を組み合わせたVR映像を生成する。
【0018】
表示制御部19は、表示装置13における表示動作を制御する。表示制御部19は、例えばVR映像生成部18で生成されたVR映像を表示装置13に表示させる。
【0019】
通信部20は、サーバ30との間で情報の送受信を行う。通信部20は、サーバ30から、例えばVR空間の映像の情報、後述の受講者アバター映像の情報及び受講者モーション情報等の各情報を受信する。また、通信部20は、例えば制御装置12で生成された講師アバター映像の情報、講師モーション情報等の各情報をサーバ30に送信する。
【0020】
記憶部21は、各種の情報を記憶する。記憶部21は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部21として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部21は、予め設定された講師アバターを記憶する。記憶部21は、制御装置12の各部が処理を行うためのプログラム、データ等の情報を記憶する。記憶部21は、サーバ30から受信したVR空間の映像情報を記憶する。
【0021】
表示装置13は、表示制御部19の制御により、映像等の各種情報を表示する。表示装置13は、例えばVR映像生成部18で生成されたVR映像を表示可能である。表示装置13としては、例えばヘッドマウントディスプレイ等が挙げられるが、これに限定されず、フラットパネルディスプレイ等であってもよい。
【0022】
音声出力装置14は、制御装置12の制御に基づいて、音声を出力する。音声出力装置14としては、例えばスピーカ等が用いられる。
【0023】
受講者側システム40は、トラッキング装置41と、制御装置42と、表示装置43と、音声出力装置44とを有する。
【0024】
トラッキング装置41は、受講者の体の動きを検出する。トラッキング装置41は、検出部41a及び振動発生部41b(
図4参照)を有する。検出部41aは、受講者の体の各部に装着され、各部の位置、速度、加速度を検出する。本実施形態において、検出部41aは、例えば検出部11aと同様の箇所、つまり、頭、肩、胸、肘、手、腰、膝、足等に装着される。検出部41aの装着箇所は上記に限定されず、他の箇所に装着される態様であってもよい。検出部41aは、検出結果を制御装置42に送信する。なお、検出部41aは、受講者の体の各部の位置、速度、加速度を検出可能であれば、例えばカメラ等の他の構成であってもよい。振動発生部41bは、検出部41aと一体で設けられ、制御装置42の制御により振動する。
【0025】
制御装置42は、受講者側システム40の各部を制御する。制御装置42は、CPU等の処理装置と、RAM又はROM等の記憶装置を有する。制御装置42は、モーション生成部46と、アバター生成部47と、半透過アバター生成部48と、VR映像生成部49と、表示制御部50と、ズレ情報出力部51と、通信部52と、記憶部53とを有する。
【0026】
モーション生成部46は、検出部41aの検出結果を取得する。モーション生成部46は、検出結果として取得した受講者の体の各部の位置、速度、加速度の各情報に基づいて、受講者の体の各部の動きを示す受講者モーション情報を生成する。
【0027】
アバター生成部47は、受講者モーション情報に基づいて受講者アバターが動く受講者アバター映像を生成する。アバター生成部47は、生成した受講者アバター映像を記憶部53に記憶する。なお、受講者アバターは、予め記憶部53等に記憶される。受講者アバターは、例えば仮想空間において3次元的に表示される態様とすることができる。
【0028】
半透過アバター生成部48は、生成された受講者アバター映像について透明度を高めた状態とした半透過アバター映像を生成する。半透過アバター生成部48は、受講者アバター映像とは別個に半透過アバター映像を記憶部53に記憶する。
【0029】
VR映像生成部49は、後述する通信部52で受信されるVR空間の情報を取得する。VR映像生成部49は、取得したVR空間の情報に基づいて、当該VR空間内に講師アバター映像と、受講者アバター映像又は半透過アバター映像とを組み合わせたVR映像を生成する。なお、講師アバター映像については、後述する通信部52によって受信する。VR映像生成部49は、講師アバター映像と受講者アバター映像とを組み合わせる場合、講師アバター映像に半透過アバター映像が重畳した状態で表示されるようにVR映像を生成することができる。VR映像生成部49は、例えば半透過アバターと講師アバターとをそれぞれの腰部を基準として重畳させることができる。また、VR映像生成部49は、講師アバター映像と半透過アバター映像とを組み合わせる場合、VR空間内に講師アバター映像と受講者アバター映像とが並んだ状態で表示されるようにVR映像を生成することができる。また、VR映像生成部49は、他の受講者側システム40で生成される受講者アバター映像についてはVR映像に組み合わせないようにする。これにより、他の受講者Sの受講者アバター映像が表示装置43に表示されることが回避される。なお、他の受講者側システム40で生成される受講者アバター映像については、例えばサーバ30から受信できないようにしてもよい。
【0030】
表示制御部50は、表示装置43における表示動作を制御する。表示制御部50は、例えばVR映像生成部49で生成されたVR映像を表示装置43に表示させる。
【0031】
ズレ情報出力部51は、講師の動きと受講者の動きとの間のズレを検出し、検出結果を出力する。ズレ情報出力部51は、通信部52で受信する講師モーション情報を取得する。ズレ情報出力部51は、取得した講師モーション情報と、上記のモーション生成部46で生成された受講者モーション情報とに基づいて、講師Tの動きと受講者Sの動きとのズレを算出する。ズレ情報出力部51は、例えば、検出部41aにおいて検出された箇所ごとにズレを算出することができる。この場合、ズレ情報出力部51は、講師Tに装着される各センサ11a間の距離と受講者Sに装着される各センサ41a間の距離とに基づいて、講師Tと受講者Sとの身長の比率を求める。そして、ズレ情報検出部51は、求めた結果を用いて、講師モーション情報に含まれる各値と受講者モーション情報に含まれる各値との縮尺を一致させる。ズレ情報出力部51は、縮尺が一致した状態で、講師Tの動きと受講者Sの動きとのズレを算出する。ズレ情報出力部51は、ズレの大きさが所定値よりも大きい場合、該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御することができる。これにより、体のどの部位の動きを修正すればよいかを受講者に容易に知らせることができる。また、ズレ情報出力部51は、ズレの大きさが所定値よりも小さい場合であっても、ズレが生じているすべての該当箇所、またはズレが生じている該当箇所のうちズレが大きい順に所定数の該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御してもよい。また、ズレ情報出力部51は、表示制御部50を介して、ズレの有無を表示装置43に表示させてもよいし、後述する音声出力装置44により音声として出力してもよい。
【0032】
通信部52は、サーバ30との間で情報の送受信を行う。通信部52は、サーバ30から、例えばVR空間の映像の情報、講師アバター映像の情報、講師モーション情報等の各情報を受信する。また、通信部52は、例えば制御装置42で生成された受講者アバター映像の情報、半透過アバター映像の情報、受講者モーション情報等の各情報をサーバ30に送信する。
【0033】
記憶部53は、各種情報を記憶する。記憶部53は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部53として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部53は、予め設定された受講者アバターを記憶する。記憶部53は、制御装置42の各部が処理を行うためのプログラム、データ等の情報を記憶する。記憶部53は、サーバ30から受信したVR空間の映像情報を記憶する。
【0034】
表示装置43は、表示制御部50の制御により、映像等の各種情報を表示する。表示装置43は、例えばVR空間映像を表示可能である。表示装置43としては、例えばヘッドマウントディスプレイ等が挙げられるが、これに限定されず、フラットパネルディスプレイ等であってもよい。
【0035】
音声出力装置44は、制御装置42の制御に基づいて、音声を出力する。音声出力装置44としては、例えばスピーカ等が用いられる。
【0036】
サーバ30は、通信部31と、処理部32と、記憶部33とを有する。通信部31は、講師側システム10の通信部20、及び後述する受講者側システム40の通信部52との間で情報の送受信を行う。処理部32は、各レッスン講習を管理する。不図示の入力部等により必要な情報が入力された場合、処理部32は、例えばレッスン講習ごとのVR空間の設定、VR空間に配置する講師用アバター映像及び受講者アバター映像の位置の設定、受講可能な最大受講者数等の設定等を行うことができる。
【0037】
処理部32は、通信部31における情報の送受信を制御する。処理部32の制御により、通信部31を介してVR空間に関する情報、講師モーション情報、講師アバター映像の情報、受講者モーション情報及び受講者アバター映像の情報等の各種情報が送受信される。記憶部33は、各種の情報を記憶する。
【0038】
記憶部33は、通信部31により送受信される各種情報を記憶する。なお、レッスン講習システム100は、記憶部33が例えばレッスン講習における講師Tの講師用アバターと、受講者Sの受講者用アバターとを記憶し、処理部32が講師用アバター映像、受講者用アバター映像、半透過アバター映像及びそれぞれのVR映像を生成してもよい。この場合、講師側システム10のアバター生成部17及びVR映像生成部18と、受講者側システム40のアバター生成部47、半透過アバター生成部48及びVR映像生成部49が設けられなくてもよい。これにより、講師側システム10及び受講者側システム40とサーバ30との間の通信量を抑制できる。
【0039】
次に、上記のレッスン講習システム100を用いたレッスン講習方法を説明する。
図2から
図8は、レッスン講習方法の一例を示す図である。
図2は、講師Tが動作する場合の一態様を示す図である。
図2に示すように、講師Tは、体の各部に検出部11a及び振動発生部11bを装着した状態で、見本となる動作を行う。各検出部11aは、講師Tの動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置12に送信する。制御装置12において、モーション生成部16は、検出部11aの検出結果を取得し、取得した検出結果に基づいて、講師の体の各部の動きを示す講師モーション情報を生成する。モーション生成部16は、生成した講師モーション情報を記憶部21に記憶する。通信部20は、生成された講師モーション情報をサーバ30に送信する。
【0040】
講師モーション情報が生成された後、アバター生成部17は、当該講師モーション情報に基づいて講師アバター映像を生成する。
図3は、講師アバター映像の一例を示す図である。
図3に示すように、アバター生成部17は、講師アバターATが講師の動作に対応した動作を行う講師アバター映像を生成する。アバター生成部17は、生成した講師アバター映像の情報を記憶部21に記憶する。通信部20は、生成された講師アバター映像の情報をサーバ30に送信する。
【0041】
サーバ30は、通信部31により講師側システム10から送信された講師モーション情報及び講師アバター映像の情報を受信する。サーバ30は、受信した各情報を記憶部33に記憶する。
【0042】
受講者側システム40では、受講者Sの所定の操作により通信部52がサーバ30にアクセスし、VR空間の映像の情報、講師モーション情報、講師アバター映像の情報を受信する。VR映像生成部49は、受信したVR空間の映像の情報及び講師アバター映像の情報に基づいてVR映像を生成する。表示制御部50は、生成したVR映像を表示装置43に表示させる。
【0043】
図4に示すように、異なる場所で異なる受講者側システム40を使用する受講者S1、S2は、それぞれ表示装置43に表示されるVR映像を見ながら、体の各部に検出部41a及び振動発生部41bを装着した状態で、講師アバターATの動きに沿って動作を行うことができる。各検出部41aは、受講者S1の動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置42に送信する。制御装置42において、モーション生成部46は、検出部41aの検出結果を取得し、取得した検出結果に基づいて、受講者S1、S2の体の各部の動きを示す受講者モーション情報を生成する。モーション生成部46は、生成した受講者モーション情報を記憶部53に記憶する。通信部52は、生成された受講者モーション情報をサーバ30に送信する。
【0044】
受講者モーション情報が生成された後、アバター生成部47は、当該受講者モーション情報に基づいて受講者アバター映像を生成する。
図5は、受講者アバター映像の一例を示す図である。
図5に示すように、アバター生成部47は、受講者アバターAS1、AS2が講師T(講師アバターAT)の動作に対応した動作を行う受講者アバター映像を生成する。また、半透過アバター生成部48は、生成された受講者アバター映像に基づいて、半透過アバター映像を生成する。アバター生成部47は、生成した受講者アバター映像及び半透過アバター映像の情報を記憶部53に記憶する。通信部52は、生成された受講者アバター映像及び半透過アバター映像の情報をサーバ30に送信する。
【0045】
サーバ30は、通信部31により受講者側システム40から送信された受講者モーション情報、受講者アバター映像及び半透過アバター映像の情報を受信する。サーバ30は、受信した各情報を記憶部33に記憶する。
【0046】
図6は、講師側システム10の表示装置13に表示されるVR映像の一例を示す図である。講師側システム10において、制御装置12は、サーバ30の記憶部33に記憶された受講者モーション情報、受講者アバター映像及び半透過アバター映像の情報を、通信部20を介して受信する。VR映像生成部18は、受信した各情報に基づいてVR映像を生成する。表示制御部19は、生成したVR映像を表示装置13に表示する。
図6に示すように、受講者Sが複数の場合、表示制御部19は、複数の受講者アバターASについての受講者アバター映像を表示装置13に表示することができる。例えば、上記の受講者S1、S2の受講者アバターAS1、AS2をVR空間Vaに並べた状態で表示装置13に表示することができる。これにより、講師T側からは複数の受講者S(AS1、AS2)の動作をまとめて確認できる。
【0047】
図7及び
図8は、受講者側システム40の表示装置43に表示されるVR映像の一例を示す図である。受講者側システム40において、VR映像生成部18は、サーバ30から受信した講師アバター映像と、生成した受講者アバター映像とがVR空間内で対応して配置されるようにVR映像を生成することができる。
【0048】
VR映像生成部49は、例えば
図7に示すように、講師アバターATと半透過アバターAHとがVR空間Vb内で重畳した状態のVR映像を生成することができる。表示制御部19は、生成されたVR映像を表示装置13に表示する。受講者Sは、表示装置43に重畳した状態で表示される講師アバターATと半透過アバターAHとを見比べることにより、受講者Sの動作と講師Tの動作との差異をより容易に把握できる。この場合、VR映像生成部18は、例えば講師アバターATの腰部の位置と半透過アバターAHの腰部の位置とを対応させることで、上半身のズレ及び下半身のズレを受講者Sにより明確に把握させることができる。
【0049】
また、VR映像生成部49は、例えば
図8に示すように、講師アバターATと受講者アバターAS1とがVR空間Vb内に並んだ状態のVR映像を生成することができる。表示制御部19は、生成されたVR映像を表示装置13に表示する。受講者Sは、表示装置43に並んだ状態で表示される講師アバターATと受講者アバターAS1とを見比べることにより、受講者Sの動作と講師Tの動作との差異を容易に把握できる。
【0050】
ズレ情報出力部51は、通信部52で受信した講師モーション情報を取得し、取得した講師モーション情報と、モーション生成部46で生成された受講者モーション情報とに基づいて、講師の動きと受講者の動きとのズレを算出する。ズレ情報出力部51は、ズレ情報出力部51は、ズレの大きさが所定値を超えた場合、該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御することができる。
【0051】
例えば、ズレ情報出力部51は、ズレの算出の結果、講師アバターATに対して、受講者アバターAS1の右肩、左肩、右肘、左肘、左足の位置については所定値よりもズレが小さいが、頭、右腕、左腕、右膝、右足、左膝の各部の位置については所定値よりもズレが大きいと判定したとする。この場合、ズレ情報出力部51は、受講者Sの体に装着された検出部41aのうち、ズレが大きいと判定した頭、右腕、左腕、右膝、右足、左膝に装着された検出部41aと一体の振動発生部41bを振動させる。受講者Sは、振動発生部41bの振動により、講師Tの体の動きに対してズレが大きい部位を容易かつ素早く把握することが可能となり、動作修正につなげることができる。なお、ズレ情報出力部51は、ズレが大きい順に所定数の部位のみについて、振動発生部41bを振動させてもよい。この場合、受講者Sは、講師Tの体の動きに対して優先して修正すべき部位を、より容易に把握することができる。
【0052】
図9は、本実施形態に係るレッスン講習方法の一例を示すフローチャートである。
図9は、講師側システム10の動作である講師側ステップと受講者側システム40の動作である受講者側ステップとを対応させて示している。
図9に示すように、講師側システム10において、トラッキング装置11は、講師Tの体の各部に装着された検出部11a及び振動発生部11bにより、講師Tの動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置12に送信する(ステップS110)。また、受講者側システムにおいて、トラッキング装置41は、受講者Sの体の各部に装着された検出部41a及び振動発生部41bにより、受講者Sの動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置42に送信する(ステップS210)。
【0053】
講師側システム10において、モーション生成部16は、検出部11aの検出結果を取得し、取得した検出結果に基づいて、講師モーション情報を生成する(ステップS120)。また、受講者側システム40において、モーション生成部46は、検出部41aの検出結果を取得し、取得した検出結果に基づいて、受講者モーション情報を生成する(ステップS220)。
【0054】
講師側システム10において、アバター生成部17は、当該講師モーション情報に基づいて講師アバター映像を生成する(ステップS130)。また、受講者側システム40において、アバター生成部47は、当該受講者モーション情報に基づいて受講者アバター映像を生成する(ステップS230)。
【0055】
講師側システム10において、通信部20は、サーバ30との間で情報を送受信する(ステップS140)。ステップS140において、通信部20は、生成された講師モーション情報、講師アバター映像をサーバ30に送信する。また、ステップS140において、通信部20は、後述する受講者モーション情報、受講者アバター映像をサーバ30から受信する。また、受講者側システム40において、通信部52は、生成した各情報をサーバ30に送信する(ステップS240)。ステップS240において、通信部52は、生成された受講者モーション情報、受講者アバター映像をサーバ30に送信する。また、ステップS240において、通信部52は、上記の講師モーション情報、講師アバター映像をサーバ30から受信する。
【0056】
講師側システム10において、VR映像生成部18は、受信した各情報に基づいてVR映像を生成する。表示制御部19は、生成したVR映像を表示装置13に表示する(ステップS150)。講師Tは、表示装置13を見ることにより、受講者Sの動きが適正か否かを容易に把握することができる。また、受講者側システム40において、VR映像生成部49は、受信した各情報に基づいてVR映像を生成する。表示制御部50は、生成したVR映像を表示装置43に表示する(ステップS250)。受講者Sは、表示装置43を見ることにより、見本となる講師Tの動きを容易に把握することができる。
【0057】
また、受講者側システムにおいて、ズレ情報出力部51は、通信部52で受信した講師モーション情報を取得し、取得した講師モーション情報と、モーション生成部46で生成された受講者モーション情報とに基づいて、講師の動きと受講者の動きとのズレを算出する(ステップS260)。ズレ情報出力部51は、ズレ情報出力部51は、ズレの大きさが所定値より大きいか否かを判定する(ステップS270)。ズレ情報出力部51は、ズレの大きさが所定値よりも大きいと判定した場合(ステップS270のYes)、該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御する(ステップS280)。ズレ情報出力部51は、ズレの大きさが所定値よりも大きくないと判定した場合(ステップS270のNo)、ステップS280をスキップする。
【0058】
講師側システム10において、制御装置12は、VR映像を表示した後、全動作が完了したか否かを判定する(ステップS160)。制御装置12は、全動作が完了していないと判定した場合(ステップS160のNo)、ステップS110以降の動作を繰り返し行わせる。また、制御装置12は、全動作が完了したと判定した場合(ステップS160のYes)、動作を終了する。また、受講者側システム40において、制御装置42は、VR映像を表示した後又は振動を発生させた後、全動作が完了したか否かを判定する(ステップS260)。制御装置42は、全動作が完了していないと判定した場合(ステップS260のNo)、ステップS210以降の動作を繰り返し行わせる。また、制御装置42は、全動作が完了したと判定した場合(ステップS260のYes)、動作を終了する。
【0059】
以上のように、本実施形態に係るレッスン講習システム100は、講師Tの体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、講師Tを示す講師アバターが講師モーション情報に基づいて動く講師アバター映像を生成し、生成した講師アバター映像を送信する講師側システム10と、受講者Sの体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、受講者Sを示す受講者アバターが受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、講師側システム10から送信された講師アバター映像を受信し、生成した受講者アバター映像と、受信した講師アバター映像とを対応させて表示する受講者側システム40とを備える。
【0060】
また、本実施形態に係るレッスン講習方法は、講師Tの体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、講師Tを示す講師アバターが講師モーション情報に基づいて動く講師アバター映像を生成し、受講者Sの体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、受講者Sを示す受講者アバターが受講者モーション情報に基づいて動く受講者アバター映像を生成し、生成した受講者アバター映像と、講師側ステップで生成された講師アバター映像とを対応させて表示する。
【0061】
この構成によれば、講師側システム10から送信された講師アバター映像と、受講者側システム40で生成した受講者アバター映像とが受講者システム40の表示装置43に表示され、他の受講者Sについての映像が表示されないため、受講者Sが他の受講者Sの目を気にすることなくレッスン講習を受けることができる。また、講師アバター映像と受講者アバター映像とが対応して表示されるため、受講者Sは、見本となる講師Tの動作を受講者自身の動作と容易に対応させて把握することができる。これにより、適切な動作を受講者Sに直感的に理解させることができる。
【0062】
本実施形態に係るレッスン講習システム100において、受講者側システム40は、講師アバター映像に受講者アバター映像を重畳させて表示する。これにより、受講者Sが講師Tの動作と受講者S自身の動作との一致部分又は不一致部分をより確実に把握することができる。
【0063】
本実施形態に係るレッスン講習システム100において、講師側システム10は、講師モーション情報を送信し、受講者側システム40は、講師側システム10から送信された講師モーション情報を受信し、受信した講師モーション情報と、生成した受講者モーション情報とに基づいて、講師Tの動きと受講者Sの動きとのズレを検出し、検出結果を出力する。これにより、講師Tの動きと受講者Sの動きとのズレを受講者Sにより確実に把握させることができる。
【0064】
本実施形態に係るレッスン講習システム100は、受講者側システム40は、検出されたズレのうち、ズレの大きさが所定値を超えた部位またはズレが大きい順に所定数の部位を振動させる。これにより、受講者Sは、講師Tの体の動きに対して優先して修正すべき部位を、より容易に把握することができる。
【0065】
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態に係るレッスン講習システム100は、サーバ30が講師側システム10と受講者側システム40に対して別個に設けられた構成を例に挙げて説明したが、これに限定されない。例えば、サーバ30が設けられず、サーバ30の機能が講師側システム10及び受講者側システム40の少なくとも一方に搭載された構成であってもよい。
【0066】
また、上記実施形態では、講師アバター及び受講者アバターが仮想空間に3次元的に表示させる態様を例に挙げて説明したが、これに限定されない。講師アバター及び受講者アバターは、例えば所定の方向から見た状態が仮想平面上に2次元的に表示される態様であってもよい。
【符号の説明】
【0067】
AH…半透過アバター、S,S1,S2…受講者、T…講師、AS,AS1,AS2…受講者アバター、Va,Vb…VR空間、F…VR空間の底面、10…講師側システム、11,41…トラッキング装置、11a,41a…検出部、11b,41b…振動発生部、12,42…制御装置、13,43…表示装置、14,44…音声出力装置、16,46…モーション生成部、17,47…アバター生成部、18,49…VR映像生成部、19,50…表示制御部、20,31,52…通信部、21,33,53…記憶部、30…サーバ、32…VR情報処理部、40…受講者側システム、48…半透過アバター生成部、51…ズレ情報出力部、100…レッスン講習システム