(58)【調査した分野】(Int.Cl.,DB名)
前記取得部は、前記対象者の進行方向と平行となる方向、前記進行方向と所定の角度をなす方向、又は、前記進行方向と直交する方向で前記複数の位置から収集された当該対象者の動作情報をそれぞれ取得する、請求項7に記載の動作情報処理装置。
前記取得部は、前記対象者によって実行される前記所定の動作における一連の動作情報を収集できるように複数の位置から収集された当該対象者の動作情報をそれぞれ取得する、請求項1〜6のいずれか一つに記載の動作情報処理装置。
前記出力制御部は、歩行動作を実行する対象者の動作情報に基づいて生成された当該対象者の所定の部位の移動の軌跡を示す軌跡情報、前記所定の部位における速度情報、又は、前記対象者の所定の部位の角度情報を含めた出力情報を前記出力部にて出力させるように制御する、請求項1〜9のいずれか一つに記載の動作情報処理装置。
前記解析部は、前記取得部によって取得された経時的な動作情報を用いて前記センサとの相対位置を算出し、算出した相対位置及び前記センサの位置の変化量に基づいて、前記対象者の移動動作を解析する、請求項18に記載の動作情報処理装置。
【発明を実施するための形態】
【0008】
以下、図面を参照して、実施形態に係る動作情報処理装置を説明する。なお、以下で説明する動作情報処理装置は、動作情報処理装置単体として用いられてもよく、或いは、例えば、カルテシステムや、リハビリ部門システムなどのシステムに組み込まれて用いられる場合であってもよい。ここで、本願に係る動作情報処理装置は、リハビリを実行する対象者の詳細な動作の情報を取得したり、リハビリを実行する対象者の精密な情報を取得したり、移動動作を実行する対象者に対して安定した支援を行ったりすることにより、リハビリを実行する対象者に対して有効な支援を行う。以下、第1〜第4の実施形態において、リハビリを実行する対象者の詳細な動作の情報を取得する動作情報処理装置について説明し、第5〜第7の実施形態において、リハビリを実行する対象者の精密な情報を取得する動作情報処理装置について説明し、第8〜10の実施形態において、移動動作を実行する対象者に対して安定した支援を行う動作情報処理装置について説明する。
【0009】
(第1の実施形態)
図1は、第1の実施形態に係る動作情報処理装置100の構成の一例を示す図である。第1の実施形態に係る動作情報処理装置100は、例えば、医療機関や自宅、職場等において行われるリハビリテーションを支援する装置である。ここで、「リハビリテーション」とは、障害、慢性疾患、老年病など、治療期間が長期にわたる患者の潜在能力を高めて、生活機能ひいては、社会的機能を回復、促進するための技術や方法を指す。かかる技術や方法としては、例えば、生活機能、社会的機能を回復、促進するための機能訓練などが含まれる。ここで、機能訓練としては、例えば、歩行訓練や関節可動域訓練などが挙げられる。また、リハビリテーションの対象となる者を「対象者」と表記する。この対象者は、例えば、病人やけが人、高齢者、障害者等である。また、リハビリテーションが行われる際に、対象者を介助する者を「介助者」と表記する。この介助者は、例えば、医療機関に従事する医師、理学療法士、看護師等の医療従事者や、対象者を自宅で介護する介護士、家族、友人等である。また、リハビリテーションは、「リハビリ」とも略記する。
【0010】
図1に示すように、第1の実施形態において、動作情報処理装置100は、動作情報収集部10a及び動作情報収集部10bに接続される。なお、
図1においては、2つの動作情報収集部を図示しているが、実施形態はこれに限定されるものではなく、例えば、3つ以上の動作情報収集部が動作情報処理装置100に接続される場合であってもよい。また、以下、動作情報収集部10a及び動作情報収集部10bについて区別しない場合に、それらをまとめて動作情報収集部10として説明する場合がある。
【0011】
動作情報収集部10a及び動作情報収集部10bについて説明する。なお、動作情報収集部10a及び動作情報収集部10bは、同様の処理を実行するため、まとめて動作情報収集部10として説明する。
図2は、第1の実施形態に係る動作情報収集部10の構成の一例を示す図である。動作情報収集部10は、リハビリテーションが行われる空間における人物や物体等の動作を検知し、人物や物体等の動作を表す動作情報を収集する。なお、動作情報については、後述の動作情報生成部14の処理を説明する際に詳述する。また、動作情報収集部10としては、例えば、Kinect(登録商標)が用いられる。
【0012】
図2に示すように、動作情報収集部10は、カラー画像収集部11と、距離画像収集部12と、音声認識部13と、動作情報生成部14とを有する。なお、
図2に示す動作情報収集部10の構成は、あくまでも一例であり、実施形態はこれに限定されるものではない。
【0013】
カラー画像収集部11は、リハビリテーションが行われる空間における人物や物体等の被写体を撮影し、カラー画像情報を収集する。例えば、カラー画像収集部11は、被写体表面で反射される光を受光素子で検知し、可視光を電気信号に変換する。そして、カラー画像収集部11は、その電気信号をデジタルデータに変換することにより、撮影範囲に対応する1フレームのカラー画像情報を生成する。この1フレーム分のカラー画像情報には、例えば、撮影時刻情報と、この1フレームに含まれる各画素にRGB(Red Green Blue)値が対応付けられた情報とが含まれる。カラー画像収集部11は、次々に検知される可視光から連続する複数フレームのカラー画像情報を生成することで、撮影範囲を動画撮影する。なお、カラー画像収集部11によって生成されるカラー画像情報は、各画素のRGB値をビットマップに配置したカラー画像として出力されても良い。また、カラー画像収集部11は、受光素子として、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)を有する。
【0014】
距離画像収集部12は、リハビリテーションが行われる空間における人物や物体等の被写体を撮影し、距離画像情報を収集する。例えば、距離画像収集部12は、赤外線を周囲に照射し、照射波が被写体表面で反射された反射波を受光素子で検知する。そして、距離画像収集部12は、照射波とその反射波との位相差や、照射から検知までの時間に基づいて、被写体と距離画像収集部12との距離を求め、撮影範囲に対応する1フレームの距離画像情報を生成する。この1フレーム分の距離画像情報には、例えば、撮影時刻情報と、撮影範囲に含まれる各画素に、その画素に対応する被写体と距離画像収集部12との距離が対応付けられた情報とが含まれる。距離画像収集部12は、次々に検知される反射波から連続する複数フレームの距離画像情報を生成することで、撮影範囲を動画撮影する。なお、距離画像収集部12によって生成される距離画像情報は、各画素の距離に応じた色の濃淡をビットマップに配置した距離画像として出力されても良い。また、距離画像収集部12は、受光素子として、例えば、CMOSやCCDを有する。この受光素子は、カラー画像収集部11で用いられる受光素子と共用されても良い。また、距離画像収集部12によって算出される距離の単位は、例えば、メートル[m]である。
【0015】
音声認識部13は、周囲の音声を集音し、音源の方向特定及び音声認識を行う。音声認識部13は、複数のマイクを備えたマイクアレイを有し、ビームフォーミングを行う。ビームフォーミングは、特定の方向からの音声を選択的に集音する技術である。例えば、音声認識部13は、マイクアレイを用いたビームフォーミングによって、音源の方向を特定する。また、音声認識部13は、既知の音声認識技術を用いて、集音した音声から単語を認識する。すなわち、音声認識部13は、例えば、音声認識技術によって認識された単語、その単語が発せられた方向及びその単語を認識した時刻が対応付けられた情報を、音声認識結果として生成する。
【0016】
動作情報生成部14は、人物や物体等の動作を表す動作情報を生成する。この動作情報は、例えば、人物の動作(ジェスチャー)を複数の姿勢(ポーズ)の連続として捉えることにより生成される。概要を説明すると、動作情報生成部14は、まず、人体パターンを用いたパターンマッチングにより、距離画像収集部12によって生成される距離画像情報から、人体の骨格を形成する各関節の座標を得る。距離画像情報から得られた各関節の座標は、距離画像の座標系(以下、「距離画像座標系」と呼ぶ)で表される値である。このため、動作情報生成部14は、次に、距離画像座標系における各関節の座標を、リハビリテーションが行われる3次元空間の座標系(以下、「世界座標系」と呼ぶ)で表される値に変換する。この世界座標系で表される各関節の座標が、1フレーム分の骨格情報となる。また、複数フレーム分の骨格情報が、動作情報である。以下、第1の実施形態に係る動作情報生成部14の処理を具体的に説明する。
【0017】
図3Aから
図3Cは、第1の実施形態に係る動作情報生成部14の処理を説明するための図である。
図3Aには、距離画像収集部12によって生成される距離画像の一例を示す。なお、
図3Aにおいては、説明の便宜上、線画で表現された画像を示すが、実際の距離画像は、距離に応じた色の濃淡で表現された画像等である。この距離画像において、各画素は、距離画像の左右方向における「画素位置X」と、距離画像の上下方向における「画素位置Y」と、当該画素に対応する被写体と距離画像収集部12との「距離Z」とを対応付けた3次元の値を有する。以下では、距離画像座標系の座標の値を、この3次元の値(X,Y,Z)で表記する。
【0018】
第1の実施形態においては、例えば、動作情報生成部14は、様々な姿勢に対応する人体パターンを、学習により予め記憶している。動作情報生成部14は、距離画像収集部12によって距離画像情報が生成されるごとに、生成された各フレームの距離画像情報を取得する。そして、動作情報生成部14は、取得した各フレームの距離画像情報に対して人体パターンを用いたパターンマッチングを行う。
【0019】
ここで、人体パターンについて説明する。
図3Bには、人体パターンの一例を示す。第1の実施形態において、人体パターンは、距離画像情報とのパターンマッチングに用いられるパターンであるので、距離画像座標系で表現され、また、距離画像に描出される人物と同様、人体の表面の情報(以下、「人体表面」と呼ぶ)を有する。例えば、人体表面は、その人物の皮膚や衣服の表面に対応する。更に、人体パターンは、
図3Bに示すように、人体の骨格を形成する各関節の情報を有する。すなわち、人体パターンにおいて、人体表面と各関節との相対的な位置関係は既知である。
【0020】
図3Bに示す例では、人体パターンは、関節2aから関節2tまでの20点の関節の情報を有する。このうち、関節2aは、頭部に対応し、関節2bは、両肩の中央部に対応し、関節2cは、腰に対応し、関節2dは、臀部の中央部に対応する。また、関節2eは、右肩に対応し、関節2fは、右肘に対応し、関節2gは、右手首に対応し、関節2hは、右手に対応する。また、関節2iは、左肩に対応し、関節2jは、左肘に対応し、関節2kは、左手首に対応し、関節2lは、左手に対応する。また、関節2mは、右臀部に対応し、関節2nは、右膝に対応し、関節2oは、右足首に対応し、関節2pは、右足の足根に対応する。また、関節2qは、左臀部に対応し、関節2rは、左膝に対応し、関節2sは、左足首に対応し、関節2tは、左足の足根に対応する。
【0021】
なお、
図3Bでは、人体パターンが20点の関節の情報を有する場合を説明したが、実施形態はこれに限定されるものではなく、関節の位置及び数は操作者が任意に設定して良い。例えば、四肢の動きの変化のみを捉える場合には、関節2aから関節2dまでのうち、関節2b及び関節2cの情報は取得しなくても良い。また、右手の動きの変化を詳細に捉える場合には、関節2hのみならず、右手の指の関節を新たに設定して良い。なお、
図3Bの関節2a、関節2h、関節2l、関節2p、関節2tは、骨の末端部分であるためいわゆる関節とは異なるが、骨の位置及び向きを表す重要な点であるため、説明の便宜上、ここでは関節として説明する。
【0022】
動作情報生成部14は、かかる人体パターンを用いて、各フレームの距離画像情報とのパターンマッチングを行う。例えば、動作情報生成部14は、
図3Bに示す人体パターンの人体表面と、
図3Aに示す距離画像とをパターンマッチングすることで、距離画像情報から、ある姿勢の人物を抽出する。こうして、動作情報生成部14は、距離画像に描出された人物の人体表面の座標を得る。また、上述したように、人体パターンにおいて、人体表面と各関節との相対的な位置関係は既知である。このため、動作情報生成部14は、距離画像に描出された人物の人体表面の座標から、当該人物内の各関節の座標を算出する。こうして、
図3Cに示すように、動作情報生成部14は、距離画像情報から、人体の骨格を形成する各関節の座標を取得する。なお、ここで得られる各関節の座標は、距離座標系の座標である。
【0023】
なお、動作情報生成部14は、パターンマッチングを行う際、各関節の位置関係を表す情報を補助的に用いても良い。各関節の位置関係を表す情報には、例えば、関節同士の連結関係(例えば、「関節2aと関節2bとが連結」等)や、各関節の可動域が含まれる。関節は、2つ以上の骨を連結する部位である。姿勢の変化に応じて骨と骨とがなす角は変化するものであり、また、関節に応じてその可動域は異なる。例えば、可動域は、各関節が連結する骨同士がなす角の最大値及び最小値等で表される。例えば、動作情報生成部14は、人体パターンを学習する際に、各関節の可動域も学習し、各関節に対応付けてこれを記憶する。
【0024】
続いて、動作情報生成部14は、距離画像座標系における各関節の座標を、世界座標系で表される値に変換する。世界座標系とは、リハビリテーションが行われる3次元空間の座標系であり、例えば、動作情報収集部10の位置を原点とし、水平方向をx軸、鉛直方向をy軸、xy平面に直交する方向をz軸とする座標系である。なお、このz軸方向の座標の値を「深度」と呼ぶことがある。
【0025】
ここで、距離画像座標系から世界座標系へ変換する処理について説明する。第1の実施形態において、動作情報生成部14は、距離画像座標系から世界座標系へ変換するための変換式を予め記憶しているものとする。例えば、この変換式は、距離画像座標系の座標、及び当該座標に対応する反射光の入射角を入力として、世界座標系の座標を出力する。例えば、動作情報生成部14は、ある関節の座標(X1,Y1,Z1)、及び、当該座標に対応する反射光の入射角をこの変換式に入力して、ある関節の座標(X1,Y1,Z1)を世界座標系の座標(x1,y1,z1)に変換する。なお、距離画像座標系の座標と、反射光の入射角との対応関係は既知であるので、動作情報生成部14は、座標(X1,Y1,Z1)に対応する入射角を変換式に入力することができる。また、ここでは、動作情報生成部14が距離画像座標系の座標を世界座標系の座標に変換する場合を説明したが、世界座標系の座標を距離座標系の座標に変換することも可能である。
【0026】
そして、動作情報生成部14は、この世界座標系で表される各関節の座標から骨格情報を生成する。
図4は、動作情報生成部14によって生成される骨格情報の一例を示す図である。各フレームの骨格情報は、当該フレームの撮影時刻情報と、各関節の座標とを含む。例えば、動作情報生成部14は、
図4に示すように、関節識別情報と座標情報とを対応付けた骨格情報を生成する。なお、
図4において、撮影時刻情報は図示を省略する。関節識別情報は、関節を識別するための識別情報であり、予め設定されている。例えば、関節識別情報「2a」は、頭部に対応し、関節識別情報「2b」は、両肩の中央部に対応する。他の関節識別情報についても同様に、各関節識別情報は、それぞれ対応する関節を示す。また、座標情報は、各フレームにおける各関節の座標を世界座標系で示す。
【0027】
図4の1行目には、関節識別情報「2a」と、座標情報「(x1,y1,z1)」とが対応付けられている。つまり、
図3の骨格情報は、あるフレームにおいて頭部が座標(x1,y1,z1)の位置に存在することを表す。また、
図4の2行目には、関節識別情報「2b」と、座標情報「(x2,y2,z2)」とが対応付けられている。つまり、
図4の骨格情報は、あるフレームにおいて両肩の中央部が座標(x2,y2,z2)の位置に存在することを表す。また、他の関節についても同様に、あるフレームにおいてそれぞれの関節がそれぞれの座標で表される位置に存在することを表す。
【0028】
このように、動作情報生成部14は、距離画像収集部12から各フレームの距離画像情報を取得するごとに、各フレームの距離画像情報に対してパターンマッチングを行い、距離画像座標系から世界座標系に変換することで、各フレームの骨格情報を生成する。そして、動作情報生成部14は、生成した各フレームの骨格情報を、動作情報処理装置100へ出力し、後述の動作情報記憶部1301へ格納する。
【0029】
なお、動作情報生成部14の処理は、上述した手法に限られるものではない。例えば、上述では、動作情報生成部14が人体パターンを用いてパターンマッチングを行う手法を説明したが、実施形態はこれに限られるものではない。例えば、人体パターンに替えて、若しくは人体パターンとともに、部位別のパターンを用いてパターンマッチングを行う手法でも良い。
【0030】
また、例えば、上述では、動作情報生成部14が距離画像情報から各関節の座標を得る手法を説明したが、実施形態はこれに限られるものではない。例えば、動作情報生成部14が、距離画像情報とともにカラー画像情報を用いて各関節の座標を得る手法でも良い。この場合、例えば、動作情報生成部14は、カラー画像の座標系で表現された人体パターンとカラー画像情報とでパターンマッチングを行い、カラー画像情報から人体表面の座標を得る。このカラー画像の座標系には、距離画像座標系でいう「距離Z」の情報は含まれない。そこで、動作情報生成部14は、例えば、この「距離Z」の情報については距離画像情報から得て、これら2つの情報を用いた計算処理によって、各関節の世界座標系の座標を得る。
【0031】
また、動作情報生成部14は、カラー画像収集部11によって生成されたカラー画像情報、距離画像収集部12によって生成された距離画像情報及び音声認識部13によって出力された音声認識結果を、必要に応じて動作情報処理装置100へ適宜出力し、後述の動作情報記憶部1301へ格納する。なお、カラー画像情報の画素位置及び距離画像情報の画素位置は、カラー画像収集部11及び距離画像収集部12の位置及び撮影方向に応じて予め対応付け可能である。このため、カラー画像情報の画素位置及び距離画像情報の画素位置は、動作情報生成部14によって算出される世界座標系とも対応付けが可能である。また、同様に、カラー画像情報の撮影時刻情報及び距離画像情報の撮影時刻情報も、予め対応付け可能である。また、動作情報生成部14は、音声認識結果と距離画像情報とを参照し、ある時刻に音声認識された単語が発せられた方向の付近に関節2aがあれば、その関節2aを含む人物が発した単語として出力可能である。更に、動作情報生成部14は、各関節の位置関係を表す情報についても、必要に応じて動作情報処理装置100へ適宜出力し、後述の動作情報記憶部1301へ格納する。
【0032】
なお、ここでは、動作情報収集部10によって一人の対象者の動作が検知される場合を説明したが、実施形態はこれに限定されるものではない。動作情報収集部10の検知範囲に含まれていれば、動作情報収集部10は、複数人の対象者の動作を検知しても良い。
【0033】
また、動作情報収集部10の構成は、上記の構成に限定されるものではない。例えば、光学式、機械式、磁気式等、他のモーションキャプチャによって人物の動作を検出することで動作情報を生成する場合には、動作情報収集部10は、必ずしも距離画像収集部12を有していなくても良い。かかる場合、動作情報収集部10は、モーションセンサとして、人物の動作を検知するために人体に装着させるマーカと、マーカを検出するセンサとを有する。そして、動作情報収集部10は、モーションセンサを用いて人物の動作を検知して動作情報を生成する。また、動作情報収集部10は、カラー画像収集部11によって撮影した画像に含まれるマーカの位置を用いて、カラー画像情報の画素位置と動作情報の座標とを対応付けた上で、必要に応じて動作情報処理装置100へ適宜出力する。また、例えば、動作情報収集部10は、音声認識結果を動作情報処理装置100へ出力しない場合には、音声認識部13を有していなくても良い。
【0034】
更に、上述した実施形態において、動作情報収集部10は、骨格情報として世界座標系の座標を出力したが、実施形態はこれに限られるものではない。例えば、動作情報収集部10は、変換前の距離画像座標系の座標を出力し、距離画像座標系から世界座標系への変換は、必要に応じて、動作情報処理装置100側で行ってもよい。以上、動作情報収集部10の詳細な例について説明した。例えば、動作情報処理装置100に接続された動作情報収集部10a及び動作情報収集部10bは、それぞれ上述した構成を備える。
【0035】
図1の説明に戻る。動作情報処理装置100は、動作情報収集部10から出力される動作情報を用いて、リハビリテーションを支援するための処理を行う。具体的には、動作情報処理装置100は、動作情報収集部10a及び動作情報収集部10bによって収集されたリハビリを実行する対象者の動作情報を同期して表示する。
【0036】
上述したように、従来、リハビリテーションの機能訓練においては、歩行訓練や、関節可動域訓練などの種々の訓練が行われている。ここで、これらの訓練においては、例えば
対象者を多方向から観察したり、所定の距離をとって実行されたりする訓練がある。一例を挙げると、歩行訓練においては、約10m程度の距離を歩行する場合があったり、その様子を前方や側方から観察する場合があったりする。そこで、本実施形態に係る動作情報処理装置100は、リハビリを実行する対象者の詳細な動作の情報を取得することを可能にするように構成される。
【0037】
例えば、動作情報処理装置100は、コンピュータ、ワークステーション等の情報処理装置であり、
図1に示すように、出力部110と、入力部120と、記憶部130と、制御部140とを有する。
【0038】
出力部110は、リハビリを実行する対象者の動作に係る各種情報などを出力する。例えば、出力部110は、動作情報処理装置100を操作する操作者が入力部120を用いて各種要求を入力するためのGUI(Graphical User Interface)を表示したり、動作情報処理装置100において対象者の歩行状態を示す画像情報を表示したりする。例えば、出力部110は、モニタ、スピーカー、ヘッドフォン、ヘッドセットのヘッドフォン部分等である。また、出力部110は、メガネ型ディスプレイやヘッドマウントディスプレイ等、利用者の身体に装着させる方式のディスプレイであってもよい。
【0039】
入力部120は、リハビリを実行する対象者の動作に係る各種情報の入力を受け付ける。例えば、入力部120は、動作情報処理装置100の操作者から各種要求(例えば、表示される画像の選択要求や、GUI上で計測を実行させるための計測要求など)の入力を受け付け、受け付けた各種要求を動作情報処理装置100に転送する。例えば、入力部120は、マウス、キーボード、タッチコマンドスクリーン、トラックボール、マイク、ヘッドセットのマイク部分等である。また、入力部120は、血圧計、心拍計、体温計等の生体情報を取得するセンサであっても良い。
【0040】
記憶部130は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスク装置や光ディスク装置等の記憶装置である。また、制御部140は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路、或いはCPU(Central Processing Unit)が所定のプログラムを実行することで実現することができる。
【0041】
以上、第1の実施形態に係る動作情報処理装置100の構成について説明した。かかる構成のもと、第1の実施形態に係る動作情報処理装置100は、以下、詳細に説明する構成により、リハビリを実行する対象者の詳細な動作の情報を取得することを可能にする。
図5は、第1の実施形態に係る動作情報処理装置100の詳細な構成の一例を示す図である。まず、動作情報処理装置100における記憶部130の詳細について説明する。
図5に示すように、動作情報処理装置100においては、例えば、記憶部130が動作情報記憶部1301と、位置情報記憶部1302とを備える。
【0042】
動作情報記憶部1301は、動作情報収集部10によって収集された各種情報を記憶する。具体的には、動作情報記憶部1301は、動作情報収集部10a及び動作情報収集部10bそれぞれの動作情報生成部14によって生成された各動作情報を記憶する。より具体的には、動作情報記憶部1301は、各動作情報収集部10の動作情報生成部14によって生成されたフレームごとの骨格情報を記憶する。ここで、動作情報記憶部1301は、動作情報生成部14によって出力されたカラー画像情報、距離画像情報及び音声認識結果をフレームごとにさらに対応付けて記憶することも可能である。
【0043】
図6は、第1の実施形態に係る動作情報記憶部1301によって記憶される動作情報の一例を示す図である。動作情報記憶部1301は、
図6に示すように、氏名ごとに、氏名番号と、実施日と、センサと、動作情報とを対応付けた動作情報を記憶する。ここで、「氏名番号」とは、対象者を一意に特定するための識別子であり、氏名ごとに付与される。「実施日」とは、対象者がリハビリの訓練を実施した日時を示す。「センサ」とは、リハビリを実行している対象者の動作情報を収集したセンサを示す。「動作情報」とは、動作情報収集部10a又は動作情報収集部10bによって収集された情報を示す。
【0044】
例えば、動作情報記憶部1301は、
図6に示すように、「氏名:A、氏名番号:1、実施日:20120801_1、センサ:10a、動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報、・」を記憶する。また、例えば、動作情報記憶部1301は、
図6に示すように、「氏名:A、氏名番号:1、実施日:20120801_1、センサ:10b、動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報、・」を記憶する。上記した情報は、「氏名番号」が「1」である「氏名:A」の人物が「2012年」の「8月1日」に実施した「1回目」のリハビリにおいて、「センサ:10a」によって収集された動作情報「カラー画像情報、距離画像情報、音声認識結果、骨格情報など」と、「センサ:10b」によって収集された動作情報「カラー画像情報、距離画像情報、音声認識結果、骨格情報など」とが記憶されていることを示す。
【0045】
ここで、
図6に示す動作情報においては、リハビリの動作を実行している際に撮影された全てのフレームごとの「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」などが時系列順に時間に対応付けて、センサごとに記憶される。すなわち、動作情報記憶部1301は、1回のリハビリ動作中に動作情報収集部10a及び動作情報収集部10bによってそれぞれ収集された「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」などを収集された時間に対応付けて記憶する。換言すると、動作情報記憶部1301は、動作情報収集部10a及び動作情報収集部10bによって収集された動作情報をフレームの時間でそれぞれ対応付けて記憶する。
【0046】
また、動作情報記憶部1301は、
図6に示すように、「氏名:A、氏名番号:1、実施日:20120801_2、センサ:10a、動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報、・」及び「氏名:A、氏名番号:1、実施日:20120801_2、センサ:10b、動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報、・」を記憶する。すなわち、動作情報記憶部1301は、「氏名:A」の人物が「2012年」の「8月1日」に実施した「2回目」のリハビリにおける動作情報も同様に記憶する。
【0047】
同様に、動作情報記憶部1301は、
図6に示すように、他の人物についても、「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」などを含む動作情報を記憶する。このように、動作情報記憶部1301は、対象者ごとに収集されたリハビリの動作情報を、それぞれの対象者に対応付けて記憶する。なお、
図6に示す動作情報はあくまでも一例である。すなわち、動作情報記憶部1301は、
図6に示す「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」以外の情報がさらに対応付けて記憶することができ、また、例えば、動作情報収集部10が音声認識部13を有さない場合には、音声認識結果が含まれないものとして記憶することとなる。
【0048】
位置情報記憶部1302は、後述する制御部140による解析結果を記憶する。具体的には、位置情報記憶部1302は、後述する制御部140が動作情報記憶部1301によって記憶された動作情報を用いて算出したセンサ間の位置を補正するための位置情報を記憶する。なお、位置情報については、後述する。
【0049】
次に、動作情報処理装置100の制御部140の詳細について説明する。
図5に示すように、動作情報処理装置100においては、例えば、制御部140が取得部1401と、位置算出部1402と、表示制御部1403とを備える。
【0050】
取得部1401は、所定の動作(例えば、リハビリなど)を実行する対象者に対して異なる位置から収集した当該対象者の動作情報をそれぞれ取得する。具体的には、取得部1401は、動作情報記憶部1301によって記憶された動作情報を取得する。例えば、取得部1401は、動作情報収集部10a及び動作情報収集部10bによってそれぞれ収集された動作情報を取得する。一例を挙げると、取得部1401は、動作情報収集部10a及び動作情報収集部10bによってそれぞれ収集され、動作情報記憶部1301によってフレームごとに記憶されたカラー画像情報、距離画像情報、音声認識結果及び骨格情報をそれぞれ取得する。
【0051】
図7A〜
図7Dは、第1の実施形態に係る取得部1401によって取得される動作情報の一例を説明するための模式図である。
図7Aにおいては、動作情報収集部10aと、動作情報収集部10bとが図示のように配置(動作情報収集部10aの位置からスライド移動された位置に動作情報収集部10aを配置)され、対象者がz軸方向に沿って歩行訓練を実施している状態の動作情報を取得する場合について示す。例えば、取得部1401は、
図7Aに示すように、対象者がz軸方向に沿って歩行訓練を実施している際に、動作情報収集部10aによって収集された動作情報と、動作情報収集部10bによって収集された動作情報とを、動作情報記憶部1301から取得する。
【0052】
すなわち、取得部1401は、
図7Aに示すように、動作情報収集部10aの撮影領域である領域R1における対象者のカラー画像情報、距離画像情報及び骨格情報などを取得するとともに、動作情報収集部10bの撮影領域である領域R2における対象者のカラー画像情報、距離画像情報及び骨格情報などを取得する。ここで、取得部1401は、例えば、氏名、氏名番号、実施日などをキーとしてそれぞれの動作情報を取得する。換言すると、取得部1401は、各動作情報収集部10によって収集された対象者の歩行訓練における一連の歩行動作にかかる全てのフレームのカラー画像情報、距離画像情報及び骨格情報をそれぞれ取得する。或いは、取得部1401は、リアルタイムで動作情報記憶部1301に格納される各動作情報をリアルタイムに取得する。
【0053】
なお、上述した例はあくまでも一例であり、取得部1401は、その他種々の状態に配置された動作情報収集部10aと、動作情報収集部10bとによって収集された動作情報を取得することができる。例えば、取得部1401は、
図7Bに示すように、動作情報収集部10aと、動作情報収集部10bとがz軸方向に沿って配置され、対象者がz軸方向に沿って歩行訓練を実施している際に、動作情報収集部10aによって収集された動作情報と、動作情報収集部10bによって収集された動作情報とを、動作情報記憶部1301から取得する。
【0054】
また、例えば、取得部1401は、
図7Cに示すように、動作情報収集部10aと、動作情報収集部10bとがz軸方向に沿って斜め方向に向けた状態で配置され、対象者がz軸方向に沿って歩行訓練を実施している際に、動作情報収集部10aによって収集された動作情報と、動作情報収集部10bによって収集された動作情報とを、動作情報記憶部1301から取得する。動作情報収集部10aと、動作情報収集部10bとがこのように配置されることで、対象者の歩行の妨げとならないように歩行ルートが確保される。なお、動作情報収集部10aと、動作情報収集部10bとが図示のように配置された場合においても、動作情報のデータを3次元変換することにより、対象者を正面から表示させることができる。例えば、対象者の歩行の進行方向(z軸方向)に対する動作情報収集部10a及び動作情報収集部10bの向きの角度情報を取得して、角度情報を用いて動作情報の3次元変換を行う。
【0055】
また、例えば、取得部1401は、
図7Dに示すように、動作情報収集部10aと、動作情報収集部10bとがz軸方向に沿って真横方向(z軸方向)に向けた状態で配置され、対象者がz軸方向に沿って歩行訓練を実施している際に、動作情報収集部10aによって収集された動作情報と、動作情報収集部10bによって収集された動作情報とを、動作情報記憶部1301から取得する。これにより、対象者の歩行にかかる動作情報を真横から取得し続けることができる。
【0056】
図5に戻って、位置算出部1402は、取得部1401によって取得された各動作情報を関連付けるための関連情報を算出する。具体的には、位置算出部1402は、取得部1401によって取得された各動作情報を同期させるための同期情報を算出する。より具体的には、位置算出部1402は、動作情報収集部10a及び動作情報収集部10bによってそれぞれ収集された動作情報の位置を同期させる(位置を合わせる)ための同期情報を算出する。以下、位置算出部1402による処理の一例を説明する。
【0057】
図8は、第1の実施形態に係る位置算出部1402による処理の一例を説明するための図である。
図8においては、
図7Aに示す対象者の歩行訓練において、動作情報収集部10aと動作情報収集部10bとによってそれぞれ収集された動作情報を同期させる場合について示す。また、
図8の(A)においては、動作情報収集部10aによって収集されたあるフレームにおける動作情報を模式的に示す。また、
図8の(B)においては、動作情報収集部10bによって収集された、(A)と同一時間のフレームにおける動作情報を模式的に示す。
【0058】
例えば、位置算出部1402は、まず、
図8の(A)に示すように、動作情報収集部10aによって収集されたあるフレームにおいて、腰の関節に対応する2cの座標情報(8,30,10)を抽出する。さらに、位置算出部1402は、
図8の(B)に示すように、動作情報収集部10bによって収集された、(A)と同一時間のフレームにおける腰の関節に対応する2cの座標情報(2,45,3)を抽出する。
【0059】
すなわち、
図7Aを用いて説明すると、位置算出部1402は、例えば、領域R1における対象者の2cの座標(8,30,10)と領域R2における対象者の2cの座標(2,45,3)とを抽出する。そして、位置算出部1402は、抽出した2つの座標から動作情報収集部10aと、動作情報収集部10bとの位置の相対関係を算出する。例えば、位置算出部1402は、2つの2cの座標(8,30,10)と(2,45,3)とから、2つの動作情報収集部10a及び動作情報収集部10bの位置の相対関係(2−8,45−30,3−10)=(−6,15,−7)を算出する。そして、位置算出部1402は、算出した相対関係の情報を動作情報と対応付けて位置情報記憶部1302に格納する。
【0060】
なお、上述した例はあくまでも一例である。すなわち、相対位置を算出するために抽出される位置は、腰に対応する関節2cに限定されるものではなく、例えば、その他の関節が用いられる場合であってもよい。また、相対位置を算出するために抽出されるものは、関節に限定されるものではなく、例えば、各動作情報にそれぞれ含まれる任意の点であってもよい。ここで、任意の点としては、例えば、所定の目印(例えば、運動訓練に用いられる平行棒やダンベル、壁、ドアノブ、電球(光源)などの日常品など)が挙げられる。すなわち、位置算出部1402は、各動作情報収集部10によって収集された動作情報に含まれる所定の目印を用いて、各動作情報収集部10の相対位置を算出する。
【0061】
図5に戻って、表示制御部1403は、位置算出部1402によって算出された関連情報に基づいて、動作情報を関連付けた出力情報を出力部110にて出力させる。具体的には、表示制御部1403は、位置算出部1402によって算出された同期情報に基づいて、動作情報を同期させた出力情報を出力部110にて出力させる。より具体的には、表示制御部1403は、同期情報に基づいて、対象者の位置を合わせた表示情報を出力部110にて表示させるように制御する。より具体的には、表示制御部1403は、位置情報記憶部1302によって記憶された相対位置の情報を用いて、各動作情報に含まれる対象者の位置を合わせた表示情報を表示させる。
【0062】
図9は、第1の実施形態に係る表示制御部1403によって表示される表示情報の一例を示す図である。ここで、
図9においては、動作情報収集部10aによって収集されたカラー画像情報I1と動作情報収集部10bによって収集されたカラー画像情報I2とを位置合わせして表示する場合について示す。例えば、表示制御部1403は、位置算出部1402によって算出された同期情報を用いて、カラー画像情報I1とカラー画像情報I2とを同期させた(位置合わせした)表示画像を出力部110にて表示させる。
【0063】
例えば、位置算出部1402によって、2つの動作情報収集部10の位置の相対関係(−6,15,−7)が算出されると、表示制御部1403は、算出された相対関係(−6,15,−7)によって、各動作情報収集部10における世界座標系の位置を位置合わせした後に、距離画像座標系に変換することで、同一画面上で2つのカラー画像情報の位置を合わせた表示画像を表示させる。すなわち、表示制御部1403は、
図9に示すように、算出された相対関係(−6,15,−7)を用いて、カラー画像情報I1の世界座標系の位置をカラー画像情報I2の世界座標系の位置に位置合わした後に、距離画像座標系に変換することで、カラー画像情報I2にカラー画像情報I1を同期させた表示画像を出力部110に表示させる。
【0064】
従って、表示制御部1403によって位置合わせされた後の表示情報においては、
図9に示すように、カラー画像情報I1とカラー画像情報I2とをつなげた領域内を単一の対象者が歩行する様子を表示させることができる。
【0065】
このように、第1の実施形態に係る動作情報処理装置100は、複数の動作情報収集部10によって収集された動作情報それぞれを位置合わせして表示させることができる。すなわち、動作情報処理装置100は、複数の動作情報収集部10によって収集された複数の動作情報を一つの画像上につなげて表示させることができる。従って、動作情報処理装置100は、
図10に示すような画像の表示も可能である。
【0066】
図10は、第1の実施形態に係る表示制御部1403によって表示される表示情報の一例を示す図である。
図10においては、
図10の(A)に動作情報収集部10aによって収集されたカラー画像情報I3と動作情報収集部10bによって収集されたカラー画像情報I4とをつなげた表示情報の例を示す。
図10の(A)におけるカラー画像情報は、例えば、
図7Dに示すように配置された複数の動作情報収集部10によって収集される。また、
図10の(B)においては、
図10の(A)において示すカラー画像情報にて描出される対象者の歩行訓練における足の着地点の情報に対応する位置に足跡を示した表示情報の一例を示す。すなわち、
図10の(B)は、
図10の(A)に示す対象者の足跡を上から見た図を示す。
【0067】
例えば、
図10の(A)に示すように、歩行訓練を実施している対象者の側方に動作情報収集部10a及び動作情報収集部10bが並べて配置され、収集された動作情報を取得部1401が取得する。そして、位置算出部1402は、取得された各動作情報から動作情報収集部10a及び動作情報収集部10bの相対位置の情報を同期情報として算出する。そして、表示制御部1403は、
図10の(A)に示すように、カラー画像情報I3とカラー画像情報I4とをつなげた表示情報を出力部110にて表示させる。
【0068】
すなわち、表示制御部1403は、
図10の(A)に示すように、動作情報収集部10aの横方向の撮影範囲の距離D1と、動作情報収集部10bの横方向の撮影範囲の距離D2とが位置合わせによってつながれた距離D3の横幅で対象者の歩行訓練の様子を示した表示情報を出力部110にて表示させる。これにより、単一の動作情報収集部10では収集できなかった範囲における対象者の動作(例えば、歩行動作)の情報を取得することができる。
【0069】
さらに、表示制御部1403は、
図10の(B)に示すように、対象者の歩行動作について解析された解析結果をつなげて表示させることも可能である。例えば、
図10の(B)に示すように、
図10の(A)にて示される歩行訓練を実施している対象者の足の着地点の情報をつなげて表示させることができる。
【0070】
かかる場合には、例えば、制御部140は、取得部1401によって取得された動作情報に基づいて、対象者の足の着地点を解析する。一例を挙げると、制御部140は、取得部1401によって取得された各動作情報における足の着地点の位置を解析する。すなわち、制御部140は、動作情報収集部10aによって収集された動作情報(座標情報)に基づいて、当該動作情報における足の着地点の位置の座標を算出する。同様に、制御部140は、動作情報収集部10bによって収集された動作情報(座標情報)に基づいて、当該動作情報における足の着地点の位置の座標を算出する。
【0071】
そして、表示制御部1403は、位置算出部1402によって算出された同期情報を用いて、制御部140にて算出されたそれぞれの足の着地点の位置の位置合わせを実行する。その後、表示制御部1403は、各足の着地点を
図10の(B)に示すような足跡の点で示した表示情報を出力部110にて表示する。これにより、表示制御部1403は、横方向が距離D3となる範囲の足の着地点の情報を表示させることができる。
【0072】
なお、上述した例はあくまでも一例であり、実施形態はこれに限定されるものではない。すなわち、表示情報として表示される情報は、図示した例に限られず、例えば、骨格情報の座標を用いて表示される情報であれば、どのようなものにも適用することができる。すなわち、身体の部位(例えば、頭など)に対応する関節の位置をカラー画像情報の上に線上に示すような場合にも適用することができる。
【0073】
例えば、取得部1401によって取得された動作情報に基づいて、対象者の足の着地点の位置を示した軌跡情報や、対象者の体の所定の部位の角度の情報をカラー画像情報に重畳させた重畳画像情報を表示情報として表示させることができる。ここで、所定の部位の角度とは、対象者の進行方向の前後のゆれを示す回転角度及び対象者の上下方向のゆれを示す回転角度のうち、少なくとも一方である。換言すると、所定の部位の角度とは、垂直方向(鉛直方向)の軸周りの回転角度及び進行方向の軸周りの回転角度である。ここで、この角度は、例えば、肩の向き、腰の向きの角度である。
【0074】
さらに、取得部1401によって取得された動作情報に基づいて、足の着地点の位置の軌跡に加えて、対象者の移動の軌跡を示した軌跡情報を表示情報として表示させることができる。ここで、対象者の移動の軌跡は、対象者の特徴位置の移動軌跡である。また、特徴位置は、対象者の所定の部位の位置、複数の部位の位置を用いて求められた位置、対象者の複数の中心位置及び前記対象者の重心位置のうち、少なくとも一つである。
【0075】
例えば、表示制御部1403は、動作情報収集部10によって動作情報を収集することが可能な空間において足の着地点の軌跡、体の移動した軌跡、体の所定の部位の角度のうち、少なくとも1つを含んだ軌跡情報を出力部110にて表示させる。表示制御部1403は、これらの軌跡情報を上からみた場合や、横からみた場合、或いは、鳥瞰した場合などで示した表示情報を表示させることができる。一例を挙げると、表示制御部1403は、対象者が歩行訓練を実行している間に収集されたxz平面上に左右の足跡と、体の重心の軌跡と、両肩に対応する各関節を結んだ線分とを示した軌跡情報を出力部110にて表示させる。
【0076】
ここで、足跡の情報や、体の移動の軌跡の情報、及び、線分の情報は、それぞれ識別可能に表示させることができる。例えば、表示制御部1403は、足跡において、色などを変えることにより、右足及び左足を区別させたり、歩数を区別させたり、或いは、対象者の歩行の状態(安定した歩行であるか否か)を区別させたりする。
【0077】
また、表示制御部1403は、取得部1401によって取得されたカラー画像情報に種々の情報を重畳させた重畳画像情報を表示情報として出力部110にて表示させることも可能である。具体的には、表示制御部1403は、対象者の体の所定の部位の角度の情報をカラー画像情報に重畳させた重畳画像情報を表示情報として表示させる。例えば、表示制御部1403は、対象者の任意の位置(例えば、関節や、所定の骨の所定の位置)間で結んだ直線をカラー画像情報に重畳した重畳画像情報を表示情報として表示させる。
【0078】
ここで、表示制御部1403は、直線以外にも所定の基準を示す情報(例えば、鉛直方向や水平方向などを示す線分)も同時に重畳させて表示させることも可能である。すなわち、表示制御部1403は、所定の基準に対する対象者の所定の部位の動きを示した重畳画像情報を表示させる。また、表示制御部1403は、対象者が動作を実行している間の当該対象者の所定の部位の位置の軌跡をカラー画像情報に重畳した重畳画像情報を表示させることも可能である。すなわち、表示制御部1403は、カラー画像情報の上に所定の部位の軌跡を示す曲線が重畳された重畳画像情報を表示させる。
【0079】
また、表示制御部1403は、表示情報として、対象者の所定の部位の角度情報(例えば、肘の関節の角度の経時的な変化を示すグラフや、鉛直方向に対する対象者の体軸の角度の経時的な変化を示すグラフなど)を出力部110にて表示させる。また、表示制御部1403は、対象者の所定の部位の速度情報を示すグラフや、加速度情報を示すグラフのなどを表示情報として表示させる。
【0080】
また、上述した例では、動作情報に含まれる所定の部位(例えば、腰に対応する関節)の位置や、平行棒などのものの位置により複数の動作情報を同期させる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、観察者によって指定される場合であってもよい。かかる場合には、入力部120は、複数の動作情報を同期させるための基準の情報を受付ける。
【0081】
図11は、第1の実施形態に係る動作情報の同期の変形例を説明するための図である。
図11においては、
図11の(A)に動作情報収集部10aによって収集されたカラー画像情報を示し、
図11の(B)に動作情報収集部10bによって収集されたカラー画像情報を示す。例えば、入力部120は、
図11の(A)に示すように、対象者の足もとを矢印21で指示された状態でクリックされた場合に、その位置を同期させるための基準の情報として受付ける。同様に、入力部120は、
図11の(B)に示すように、対象者の足もとを矢印21で指示された状態でクリックされた場合に、その位置を直前に受付けた基準に情報に対応する基準の情報として受付ける。
【0082】
ここで、入力部120によって各動作情報における基準の情報が受付けられると、位置算出部1402は、それぞれの基準の情報の座標情報から、同期情報を算出する。そして、表示制御部1403は、位置算出部1402によって算出された同期情報を用いて位置を合わせた表示情報を出力部110にて表示させる。
【0083】
また、上述した例では、対象者や所定の目印の相対的な位置関係に基づいて複数の動作情報を同期させる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の動作情報に含まれる固定のものによる絶対値情報を用いて動作情報を同期させる場合であってもよい。かかる場合には、例えば、動作情報収集部10a及び動作情報収集部10bによってそれぞれ収集されるカラー画像情報にそれぞれ含まれる固定の位置マーカを、当該位置マーカの絶対座標に基づいて位置合わせする。すなわち、動作情報収集部10aによって収集される動作情報と、動作情報収集部10bによって収集される動作情報とを、双方動作情報に含まれる固定の位置マーカの絶対座標で位置合わせすることで、各動作情報を同期させる。なお、固定の位置マーカの絶対座標によって動作情報を同期させるために、動作情報収集部10a及び動作情報収集部10bによって収集される固定の位置マーカの座標と、予め割り当てられた絶対座標との座標変換にかかるキャリブレーションが定期的に実行される。また、上記では位置マーカを用いて、動作情報の同期を行ったが、複数の動作情報収集部10の設置位置を予め決めておき、その決められた設置位置におくことで、動作情報収集部10間の位置関係の把握を行って、動作情報の同期を行うようにしても良い。
【0084】
また、上述した例では、操作者によって指定された基準の情報を用いて動作情報を同期させる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、動作情報収集部10a及び動作情報収集部10bを予め決められた位置に配置する場合であってもよい。かかる場合には、動作情報収集部10a及び動作情報収集部10bによって収集される動作情報に含まれる所定のものの位置関係は常に一定であり、それを用いることで、各動作情報を同期させる場合であってもよい。
【0085】
次に、
図12を用いて、第1の実施形態に係る動作情報処理装置100の処理について説明する。
図12は、第1の実施形態に係る動作情報処理装置100による処理の手順を示すフローチャートである。なお、
図12においては、リハビリとして歩行訓練を実行した場合を一例に挙げて説明する。
【0086】
図12に示すように、第1の実施形態に係る動作情報処理装置100においては、歩行訓練が開始されると、取得部1401が、歩行を実行した対象者の動作情報をそれぞれのセンサから取得する(ステップS101)。すなわち、取得部1401は、複数のセンサによって収集された複数の動作情報を動作情報記憶部1301から取得する。
【0087】
そして、位置算出部1402は、絶対値情報による同期であるか否かを判定する(ステップS102)。一例を挙げると、位置算出部1402は、動作情報収集部10によって収集される動作情報に、例えば、絶対座標の情報を有する固定の位置マーカなどの情報が含まれている場合に、絶対値情報による同期を行うと判定する。或いは、位置算出部1402は、予め操作者によって指定されている場合に、絶対値情報による同期を行うと判定することとしてもよい。
【0088】
ここで、絶対値情報による同期ではないと判定した場合には(ステップS102否定)、位置算出部1402は、取得された各動作情報における所定の基準点に基づいて、センサの相対位置を算出する(ステップS103)。そして、表示制御部1403が、相対位置の情報に基づいて、表示情報を同期させて(ステップS104)、同期させた表示情報を出力部110にて表示するように制御する(ステップS105)。
【0089】
一方、ステップS102において、絶対値情報による同期であると判定した場合には(ステップS102肯定)、位置算出部1402は、各動作情報における絶対値情報を取得する(ステップS106)。そして、表示制御部1403は、絶対値情報に基づいて表示情報を同期させて(ステップS107)、表示情報を表示させる(ステップS105)。
【0090】
上述したように、第1の実施形態によれば、取得部1401は、リハビリテーションを実行する対象者に対して異なる位置から収集された当該対象者の動作情報をそれぞれ取得する。位置算出部1402は、取得部1401によって取得された各動作情報を同期させるための同期情報を算出する。表示制御部1403は、位置算出部1402によって算出された同期情報に基づいて、各動作情報を同期させた出力情報を出力部110にて出力させるように制御する。従って、第1の実施形態に係る動作情報処理装置100は、複数の動作情報を同期させた単一の表示情報として観察者に提供することができ、リハビリを実行する対象者の詳細な動作の情報を取得することを可能にする。その結果、第1の実施形態に係る動作情報処理装置100は、リハビリテーションに対する医師や理学療法士などの評価をより精度よく行うことを可能にする。
【0091】
また、第1の実施形態によれば、位置算出部1402は、取得部1401によって取得された複数の動作情報にそれぞれ含まれる所定の位置に基づいて、同期情報を算出する。従って、第1の実施形態に係る動作情報処理装置100は、精度の高い位置合わせを簡易に実行することを可能にする。
【0092】
また、第1の実施形態によれば、位置算出部1402は、取得部1401によって取得された複数の動作情報にそれぞれ含まれる所定の位置の相対関係又は絶対値を用いて同期情報を算出する。従って、第1の実施形態に係る動作情報処理装置100は、動作情報に含まれる種々の情報を用いて動作情報を同期させることを可能にする。
【0093】
また、第1の実施形態によれば、取得部1401は、対象者の進行方向と平行となる方向、進行方向と所定の角度をなす方向、又は、進行方向と直交する方向で複数の位置から収集された当該対象者の動作情報をそれぞれ取得する。従って、第1の実施形態に係る動作情報処理装置100は、通常のユースケースに容易に適用することを可能にする。
【0094】
また、第1の実施形態によれば、表示制御部1403は、歩行動作を実行する対象者の動作情報に基づいて生成された当該対象者の所定の部位の移動の軌跡を示す軌跡情報、所定の部位における速度情報、又は、対象者の所定の部位の角度情報を含めた表示情報を出力部110にて出力させるように制御する。従って、第1の実施形態に係る動作情報処理装置100は、対象者の歩行訓練に関して、同期情報だけでなく、歩行に関する詳細な評価を提供することを可能にする。
【0095】
(第2の実施形態)
上述した第1の実施形態においては、各動作情報に含まれる所定のフレームの基準点(例えば、腰に対応する関節や、指定されたものなど)の座標を用いて、複数の動作情報の位置合わせを実行する場合について説明した。第2の実施形態においては、各動作情報に含まれる基準点の経時的な位置の変化に基づいて、位置合わせを実行する場合について説明する。第2の実施形態においては、位置算出部1402及び表示制御部1403による処理内容が第1の実施形態と異なる。以下、これらを中心に説明する。
【0096】
第2の実施形態に係る位置算出部1402は、取得部1401によって取得された複数の動作情報にそれぞれ含まれる基準点の位置の経時的変化に基づいて、同期情報を算出する。具体的には、位置算出部1402は、リハビリを実行する対象者における所定の基準点(例えば、腰に対応する関節など)の座標の動きから各動作情報収集部10が配置された位置関係及び向きを算出する。
【0097】
図13は、第2の実施形態に係る位置算出部1402による処理の一例を説明するための図である。
図13においては、
図13の(A)に動作情報収集部10aによって収集された動作情報における基準点の座標の動きを示し、
図13の(B)に動作情報収集部10bによって収集された動作情報における基準点の座標の動きを示す。
【0098】
例えば、位置算出部1402は、
図13の(A)に示すように、動作情報収集部10aによって収集された動作情報において、時刻「t1」における基準点の座標P1から時刻「t2」における基準点の座標P2までの座標の変化を算出する。同様に、位置算出部1402は、
図13の(B)に示すように、動作情報収集部10bによって収集された動作情報において、時刻「t1」における基準点の座標P3から時刻「t2」における基準点の座標P4までの座標の変化を算出する。
【0099】
ここで、実空間においては、
図13の(A)及び(B)それぞれに示す矢印は同一方向に同一の距離動くものである。従って、各矢印の向きから動作情報収集部10a及び動作情報収集部10bが配置された位置関係を算出することができる。すなわち、位置算出部1402は、各動作情報における基準点の座標の動きから動作情報収集部10a及び動作情報収集部10bの位置関係を算出する。そして、位置算出部1402は、算出した位置関係の情報を動作情報に対応付けて位置情報記憶部1302に格納する。
【0100】
第2の実施形態に係る表示制御部1403は、出力部110の表示面内の仮想空間内において、位置算出部1402によって算出された位置関係に応じた位置に、異なる動作情報によって示される2次元画像を配置した表示情報を出力させるように制御する。
図14は、第2の実施形態に係る表示制御部1403によって表示される表示情報の一例を示す図である。
【0101】
例えば、表示制御部1403は、
図14に示すように、表示ウィンドウ内の仮想3次元空間内に、2次元画像を配置した表示情報を表示させる。ここで、表示制御部1403は、
図14に示すように、左側の画像(動作情報収集部10aによって収集されたカラー画像情報)と、右側の画像(動作情報収集部10bによって収集されたカラー画像情報)とを位置算出部1402によって算出された位置関係に応じた位置に2次元の各カラー画像情報を配置した表示情報を表示させる。すなわち、表示制御部1403は、動作情報収集部10a及び動作情報収集部10bが配置された位置関係を反映した位置に2次元のカラー画像情報を配置する。
【0102】
なお、上述した表示情報はあくまでも一例であり、位置算出部1402によって算出された位置関係を用いた表示情報は種々表示させることができる。例えば、表示制御部1403は、算出された位置関係によって対象者の位置を合わせた表示情報を表示させることができる。また、表示制御部1403は、位置算出部1402によって算出された位置関係だけではなく、予め設定された位置関係に応じた位置に2次元の各カラー画像情報を配置した表示情報を表示させることも可能である。
【0103】
上述したように、第2の実施形態によれば、位置算出部1402は、同期情報として、取得部1401によって取得された複数の動作情報にそれぞれ含まれる所定の位置の移動を比較することで、複数の動作情報が収集された各位置の位置関係を算出する。従って、第2の実施形態に係る動作情報処理装置100は、対象者の動きに応じた同期情報を算出することができ、より高精度な位置合わせを実行することを可能にする。
【0104】
また、第2の実施形態によれば、表示制御部1403は、出力部110の表示面内において、位置算出部1402によって算出された位置関係に応じた位置に、異なる動作情報によって示される画像を配置した表示情報を出力させるように制御する。従って、第2の実施形態に係る動作情報処理装置100は、動作情報収集部10の位置関係を反映させた表示情報を表示させることを可能にする。
【0105】
(第3の実施形態)
上述した第1及び第2の実施形態では、動作情報の位置及び時間を同期させる場合について説明した。第3の実施形態では、複数の動作情報収集部10によって収集された複数の動作情報を表示する際に、時間を同期させて表示させる場合について説明する。第3に実施形態においては、表示制御部1403による処理内容が第1及び第2の実施形態と異なる。以下、これを中心に説明する。
【0106】
第3の実施形態に係る表示制御部1403は、取得部1401によって取得された複数の動作情報を時系列に沿って、時間を同期させて出力部110にて表示させるように制御する。
図15は、第3の実施形態に係る表示制御部1403によって表示される表示情報の一例を説明するための図である。
【0107】
例えば、表示制御部1403は、
図15に示すように、対象者の正面に配置された動作情報収集部10bによって収集された動作情報と、対象者の側方に配置された動作情報収集部10aによって収集された動作情報とを時刻を同期させて表示する。ここで、対象者は、例えば、
図15に示すように、首の前屈及び後屈運動や、腰の前屈及び後屈運動などを実行している。
【0108】
図16は、第3の実施形態に係る表示制御部1403によって表示される表示情報の表示例を示す図である。例えば、表示制御部1403は、
図16に示すように、表示ウィンドウの左側に対象者の正面のカラー画像情報(動作情報収集部10bによって収集されたカラー画像情報)を配置し、表示ウィンドウの右側に対象者の側方のカラー画像情報(動作情報収集部10aによって収集されたカラー画像情報)を配置した表示情報を出力部110に表示させる。ここで、表示制御部1403は、各動作情報のカラー画像情報をフレームの時刻で同期させて各領域に表示させる。これにより、第3の実施形態に係る動作情報処理装置100は、複数の角度から対象者を観察した場合のカラー画像情報を時刻を同期させて観察者に提供することができ、観察者にとっては、リハビリを実行する対象者の詳細な動作の情報を取得することができる。
【0109】
(第4の実施形態)
さて、これまで第1〜第3の実施形態について説明したが、上述した第1〜第3の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
【0110】
上述した第1〜第3の実施形態においては、動作情報収集部10が2つである場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、3つ以上の動作情報収集部10が用いられる場合であってもよい。かかる場合には、取得部1401は、各動作情報収集部10によって収集された動作情報を取得する。そして、位置算出部1402は、各動作情報間の同期情報を算出する。そして、表示制御部1403は、算出された同期情報に基づいて、同期させた動作情報を表示させる。
【0111】
上述した第3の実施形態においては、複数の動作情報を複数の領域に時間を同期させて表示させる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、時間を同期させ、かつ、対象者の動きに応じて表示情報を変化させる場合であってもよい。
【0112】
第4の実施形態に係る表示制御部1403は、動作情報に含まれる対象者の動きに応じて、複数の動作情報を表示する際の表示情報を変化させる。
図17A及び
図17Bは、第4の実施形態に係る表示制御部1403によって制御される表示情報の一例を説明するための図である。ここで、
図17A及び
図17Bにおいては、歩行訓練を実施している対象者の側方に3つの動作情報収集部10を配置して、動作情報を収集した場合について示す。また、
図17A及び
図17Bにおいては、収集された動作情報のカラー画像情報を表示させる場合について示す。
【0113】
例えば、表示制御部1403は、
図17Aに示すように、表示ウィンドウに各動作情報収集部10によって収集されたカラー画像情報をそれぞれ表示させるための表示領域を備えた表示情報を表示させる。例えば、表示制御部1403は、
図17Aに示すように、3つの動作情報収集部10にそれぞれ対応する3つの表示領域を、動作情報収集部10の配置に合わせて横方向に並列させた表示情報を表示させる。ここで、例えば、
図17Bに示すように、対象者が図の左側から右側に向かって歩行した際の歩行を表示させる場合には、表示制御部1403は、対象者の移動に伴って、表示ウィンドウ内の表示領域を変化させる。
【0114】
一例を挙げると、表示制御部1403は、
図17Bに示すように、対象者がセンサ1付近を通過している場合には、現時点で直近のセンサ1によって収集されるカラー画像情報を表示させる表示領域と、対象者が次ぎに接近するセンサ2によって収集されるカラー画像情報を表示させる表示領域とを大きく表示させる。そして、対象者がセンサ2付近を通過している場合には、表示制御部1403は、
図17Bに示すように、現時点で直近のセンサ2によって収集されるカラー画像情報を表示させる表示領域と、対象者が次ぎに接近するセンサ3によって収集されるカラー画像情報を表示させる表示領域とを大きく表示させる。このように、表示制御部1403は、対象者の移動に伴って、対象者が大きく映っている領域のカラー画像情報を強調して表示する。なお、かかる強調表示は、単一の領域が表示ウィンドウ全体に表示されるように制御することも可能である。すなわち、表示制御部1403は、現時点で対象者が最大に映る動作情報を抽出して、抽出した動作情報を表示させる表示領域を表示ウィンドウ全体に拡大表示させる。
【0115】
また、表示制御部1403は、強調表示として、強調させたい領域を表示ウィンドウの中心に配置したり、強調させたい領域の枠に色をつけて表示させたりすることができる。また、表示制御部1403は、動作情報収集部10が配置されているか分かるように、表示させることも可能である。例えば、表示制御部1403は、
図17Bに示すように、動作情報収集部10が配置されている側(左側表示ウィンドウの右端、或いは、右側表示ウィンドウの左端)に、小さな表示領域を表示させておくことで、観察者に動作情報収集部10の配置状態を把握させることができる。
【0116】
なお、
図17A及び
図17Bに示す表示情報はあくまでも一例である。例えば、表示領域の配置は横方向に限られず、縦方向や、斜め方向に表示される場合であってもよい。かかる場合には、実際の動作情報収集部10の配置状態が反映された表示領域の配置となる場合であってもよい。
【0117】
また、上述した第1〜第3の実施形態にて説明した動作情報収集部10の配置の例は、あくまでも一例であり、対象者の状況によって種々のユースケースに用いることが可能である。
図18A及び
図18Bは、第4の実施形態に係る動作情報収集部10の配置の一例を示す図である。例えば、
図18Aに示すように、動作情報収集部10は、障害物が存在する動作空間における対象者の歩行訓練の動作情報を網羅するように配置される。すなわち、動作情報収集部10は、障害物によって死角が発生してしまうような動作空間においてリハビリを実行している対象者の動作情報をもれなく収集することが可能である。換言すると、リハビリを実行している対象者に対する死角をなくすことが可能である。
【0118】
また、例えば、
図18Bに示すように、動作情報収集部10は、深度方向(縦方向)、水平方向(横方向)、鉛直方向(上下方向)から対象者の動作情報を収集するように配置される。すなわち、動作情報収集部10は、対象者の動作情報をあらゆる方向から収集するように配置される。これにより、観察者の様々なニーズに応じることが可能になる。
【0119】
また、上述した第1〜第3の実施形態では、動作情報収集部10が2つ又は3つである場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、4つ以上配置される場合であってもよい。
【0120】
上述した第1の実施形態では、動作情報処理装置100が、リハビリを実行する対象者の動作情報を取得して、表示情報を表示する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、各処理がネットワーク上のサービス提供装置によって実行される場合であってもよい。
【0121】
図19は、第4の実施形態に係るサービス提供装置に適用される場合の一例を説明するための図である。
図19に示すように、サービス提供装置200は、サービスセンタ内に配置され、例えば、ネットワーク5を介して、医療機関や、自宅、職場に配置される端末装置300とそれぞれ接続される。医療機関、自宅及び職場に配置された端末装置300は、動作情報収集部10a及び動作情報収集部10bがそれぞれ接続される。そして、各端末装置300は、サービス提供装置200によって提供されるサービスを利用するクライアント機能を備える。なお、
図19においては、動作情報収集部10が2つのみ示されているが、実際には、任意の数の動作情報収集部10(種々のユースケースによって異なる)が各端末装置300に接続される。
【0122】
サービス提供装置200は、動作情報処理装置100と同様の処理をサービスとして端末装置300に提供する。すなわち、サービス提供装置200は、取得部1401と、位置算出部1402と、表示制御部1403と同様の機能部を有する。そして、取得部1401と同様の機能部は、リハビリテーションを実行する対象者に対して異なる位置から収集された当該対象者の動作情報をそれぞれ取得する。そして、位置算出部1402と同様の機能部は、取得部1401と同様の機能部によって取得された各動作情報を同期させるための同期情報を算出する。そして、表示制御部1403と同様の機能部は、位置算出部1402と同様の機能部によって算出された同期情報に基づいて、各動作情報を同期させた出力情報を端末装置300のモニタにて出力させるように制御する。なお、ネットワーク5には、有線又は無線を問わず、インターネット(Internet)、WAN(Wide Area Network)などの任意の種類の通信網を採用できる。
【0123】
また、上述した第1の実施形態における動作情報処理装置100の構成はあくまでも一例であり、各部の統合及び分離は適宜行うことができる。例えば、動作情報記憶部1301と位置情報記憶部1302とを統合したり、取得部1401を複数の動作情報をそれぞれ取得する複数の取得部に分離したりすることが可能である。
【0124】
また、第1の実施形態から第3の実施形態において説明した取得部1401、位置算出部1402及び表示制御部1403の機能は、ソフトウェアによって実現することもできる。例えば、取得部1401、位置算出部1402及び表示制御部1403の機能は、上記の実施形態において取得部1401、位置算出部1402及び表示制御部1403が行うものとして説明した処理の手順を規定した医用情報処理プログラムをコンピュータに実行させることで、実現される。この医用情報処理プログラムは、例えば、ハードディスクや半導体メモリ素子等に記憶され、CPUやMPU等のプロセッサによって読み出されて実行される。また、この医用情報処理プログラムは、CD−ROM(Compact Disc − Read Only Memory)やMO(Magnetic Optical disk)、DVD(Digital Versatile Disc)などのコンピュータ読取り可能な記録媒体に記録されて、配布され得る。
【0125】
上述したように、第1〜第4の実施形態に係る動作情報処理装置100は、リハビリを実行する対象者の詳細な動作の情報を取得することで、リハビリを実行する対象者に対して有効な支援を行う。次に、第5〜第8の実施形態において、リハビリを実行する対象者の精密な情報を取得することで、リハビリを実行する対象者に対して有効な支援を行う動作情報処理装置について説明する。
【0126】
(第5の実施形態)
図20は、第5の実施形態に係る動作情報処理装置100aの構成の一例を示す図である。第5の実施形態に係る動作情報処理装置100aは、第1〜第4の実施形態に係る動作情報処理装置100と同様に、例えば、医療機関や自宅、職場等において行われるリハビリテーションを支援する装置である。
【0127】
図20に示すように、第5の実施形態において、動作情報処理装置100aは、動作情報収集部10及び対象者情報収集部20に接続される。なお、
図20においては、1つの動作情報収集部10と1つの対象者情報収集部20とを図示しているが、実施形態はこれに限定されるものではなく、例えば、2つ以上の動作情報収集部10と2つ以上の対象者情報収集部20とが動作情報処理装置100aに接続される場合であってもよい。ここで、
図20に示す動作情報収集部10は、
図2に示す動作情報収集部10と同様である。すなわち、
図20に示す動作情報収集部10は、対象者の動作の情報を収集し、収集した各種情報を動作情報処理装置100aに送り、後述する記憶部130a(例えば、動作情報記憶部1303など)に格納する。なお、これらの処理については、上述した処理と同様であることから詳細な説明を省略する。
【0128】
対象者情報収集部20は、リハビリテーションを実行する対象者の情報を収集する。具体的には、対象者情報収集部20は、対象者の生体情報や、詳細な動作情報などを収集する。例えば、対象者情報収集部20は、種々のセンサなどである。
図21は、第5の実施形態に係る対象者情報収集部20として適用されるセンサの一例を示す図である。
図21に示すように、対象者情報収集部20は、例えば、MEMS(Micro Electro Mechanical Systems)センサや、高解像度ジェスチャーセンサ、五感センサなどが挙げられる。
【0129】
ここで、対象者情報収集部20として適用されるMEMSセンサとしては、例えば、体温、脈拍、血圧、発汗、脳波、運動量(三軸加速度)などの生体情報を収集するセンサや、圧力センサ、振動センサ、位置センサ、速度センサ、角度センサなどが挙げられる。また、高解像度ジェスチャーセンサとしては、例えば、LEAP(登録商標)や、マーカとトラッキング装置を用いたモーションセンサなどが挙げられる。なお、LAEPは、1/100mm以下の解像度を備える精密なモーションキャプチャシステムである。また、五感センサとしては、例えば、触覚、音声、熱量などを検知するセンサなどが挙げられる。なお、上述したセンサは、あくまでも例であり、対象者情報収集部20として適用されるセンサは、動作情報処理装置100aの用途に応じて、任意に選択される。例えば、上記したセンサ以外にも、身体の導電率、皮膚温度、血中酸素、足圧、眼球運動、咀嚼力などを含めた生体情報を収集することができるセンサであればどのようなものであってもよく、また、赤外線センサ、超音波センサ、衝撃センサ、回転センサ、傾斜センサなどであってもよい。
【0130】
そして、対象者情報収集部20は、収集した対象者情報(例えば、各センサによって収集される対象者の各種情報)を動作情報処理装置100aに対して出力して、後述の対象者情報記憶部に記憶させる。ここで、対象者情報収集部20による対象者情報の収集タイミングは操作者によって任意に設定される。すなわち、対象者情報収集部20は、予め設定された時間ごとに対象者情報を収集する。一例を挙げると、対象者情報収集部20は、動作情報収集部10によって動作情報が収集されるフレームと同じタイミング(同じ時刻)で対象者情報を収集するように設定される。
【0131】
図1に戻って、動作情報処理装置100aは、動作情報収集部10から出力される動作情報と、対象者情報収集部20によって収集される対象者情報を用いて、リハビリテーションを支援するための処理を行う。具体的には、動作情報処理装置100aは、動作情報収集部10によって収集された対象者の動作情報と対象者情報収集部20によって収集された対象者情報とを同期させた表示情報を生成して表示する。
【0132】
上述したように、従来、リハビリテーションの機能訓練においては、歩行訓練や、関節可動域訓練などの種々の訓練が行われている。このような、リハビリテーションにおいては、対象者も様々であり、対象者によっては、例えば、自分に合ったスピードや負荷などでリハビリを実行することが重要であると考えられる。そこで、本実施形態に係る動作情報処理装置100aは、リハビリを実行している対象者の詳細な状態を評価するために、リハビリを実行する対象者の精密な情報を取得することを可能にするように構成される。
【0133】
例えば、動作情報処理装置100aは、コンピュータ、ワークステーション等の情報処理装置であり、
図20に示すように、出力部110と、入力部120と、記憶部130aと、制御部140aとを有する。
【0134】
出力部110は、リハビリを実行する対象者の動作に係る各種情報などを出力する。例えば、出力部110は、動作情報処理装置100aを操作する操作者が入力部120を用いて各種要求を入力するためのGUI(Graphical User Interface)を表示したり、動作情報処理装置100aにおいて対象者の歩行状態を示す画像情報を表示したりする。例えば、出力部110は、モニタ、スピーカー、ヘッドフォン、ヘッドセットのヘッドフォン部分等である。また、出力部110は、メガネ型ディスプレイやヘッドマウントディスプレイ等、利用者の身体に装着させる方式のディスプレイであってもよい。
【0135】
入力部120は、リハビリを実行する対象者の動作に係る各種情報の入力を受け付ける。例えば、入力部120は、動作情報処理装置100aの操作者から各種要求(例えば、表示される画像の選択要求や、GUI上で計測を実行させるための計測要求など)の入力を受け付け、受け付けた各種要求を動作情報処理装置100aに転送する。例えば、入力部120は、マウス、キーボード、タッチコマンドスクリーン、トラックボール、マイク、ヘッドセットのマイク部分等である。
【0136】
記憶部130aは、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスク装置や光ディスク装置等の記憶装置である。また、制御部140は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路、或いはCPU(Central Processing Unit)が所定のプログラムを実行することで実現することができる。
【0137】
以上、第5の実施形態に係る動作情報処理装置100aの構成について説明した。かかる構成のもと、第5の実施形態に係る動作情報処理装置100aは、以下、詳細に説明する構成により、リハビリを実行する対象者の精密の情報を取得することを可能にする。
図22は、第5の実施形態に係る動作情報処理装置100aの詳細な構成の一例を示す図である。まず、動作情報処理装置100aにおける記憶部130aの詳細について説明する。
図22に示すように、動作情報処理装置100aにおいては、例えば、記憶部130aが動作情報記憶部1303と、対象者情報記憶部1304と、表示情報記憶部1305とを備える。
【0138】
動作情報記憶部1303は、動作情報収集部10によって収集された各種情報を記憶する。具体的には、動作情報記憶部1303は、動作情報収集部10の動作情報生成部14によって生成された各動作情報を記憶する。より具体的には、動作情報記憶部1303は、動作情報収集部10の動作情報生成部14によって生成されたフレームごとの骨格情報を記憶する。ここで、動作情報記憶部1303は、動作情報生成部14によって出力されたカラー画像情報、距離画像情報及び音声認識結果をフレームごとにさらに対応付けて記憶することも可能である。
【0139】
図23は、第5の実施形態に係る動作情報記憶部1303によって記憶される動作情報の一例を示す図である。動作情報記憶部1303は、
図23に示すように、氏名ごとに、氏名番号と、実施日と、動作情報とを対応付けた動作情報を記憶する。ここで、「氏名番号」とは、対象者を一意に特定するための識別子であり、氏名ごとに付与される。「実施日」とは、対象者が歩行訓練を実施した日時を示す。「動作情報」とは、動作情報収集部10によって収集された情報を示す。
【0140】
例えば、動作情報記憶部1303は、
図23に示すように、「氏名:A、氏名番号:1、実施日:20120801_1、動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報、・」を記憶する。上記した情報は、「氏名番号」が「1」である「氏名:A」の人物が「2012年」の「8月1日」に実施した「1回目」のリハビリにおける動作情報として、「カラー画像情報」と、「距離画像情報」と、「音声認識結果」と、「骨格情報」とが記憶されていることを示す。
【0141】
ここで、
図23に示す動作情報においては、リハビリを実行している際に撮影された全てのフレームごとの「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」が時系列順に時間に対応付けて記憶される。
【0142】
また、動作情報記憶部1303は、
図23に示すように、「氏名:A、氏名番号:1、実施日:20120801_2、動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報、・」を記憶する。すなわち、動作情報記憶部1303は、「氏名:A」の人物が「2012年」の「8月1日」に実施した「2回目」の歩行における動作情報も同様に記憶する。
【0143】
また、動作情報記憶部1303は、
図23に示すように、「氏名:B、氏名番号:2」の人物についても、「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」を含む動作情報を記憶する。このように、動作情報記憶部1303は、対象者ごとに収集されたリハビリの動作情報を、それぞれの対象者に対応付けて記憶する。なお、
図23に示す動作情報はあくまでも一例である。すなわち、動作情報記憶部1303は、
図23に示す「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」以外の情報をさらに対応付けて記憶することができ、また、例えば、動作情報収集部10が音声認識部13を有さない場合には、音声認識結果を含まれないものとして記憶することとなる。
【0144】
図22に戻って、対象者情報記憶部1304は、対象者情報収集部20によって収集された各種情報を記憶する。具体的には、対象者情報記憶部1304は、対象者がリハビリを実行している間、各時刻で対象者情報収集部20が収集した対象者情報を記憶する。例えば、対象者情報記憶部1304は、動作情報収集部10によって収集されたフレームと同じタイミング(同じ時刻)で収集された対象者情報を記憶する。
【0145】
図24は、第5の実施形態に係る対象者情報記憶部1304によって記憶される対象者情報の一例を示す図である。例えば、対象者情報記憶部1304は、
図24に示すように、氏名ごとに、氏名番号と、実施日と、センサと、対象者情報とを対応付けた対象者情報を記憶する。ここで、「氏名番号」とは、対象者を一意に特定するための識別子であり、氏名ごとに付与される。「実施日」とは、対象者がリハビリを実施した日時を示す。「センサ」とは、リハビリを実行している対象者の情報を収集したセンサを示す。「対象者情報」とは、対象者情報収集部20によって収集された情報を示す。
【0146】
例えば、対象者情報記憶部1304は、
図24に示すように、「氏名:A、氏名番号:1、実施日:20120801_1、センサ:圧力センサ、対象者情報:圧力情報」を記憶する。また、例えば、動作情報記憶部1303は、
図24に示すように、「氏名:A、氏名番号:1、実施日:20120801_1、センサ:高解像度ジェスチャーセンサ、対象者情報:動作情報」を記憶する。上記した情報は、「氏名番号」が「1」である「氏名:A」の人物が「2012年」の「8月1日」に実施した「1回目」のリハビリにおいて、「センサ:圧力センサ」によって収集された対象者情報「圧力情報」と、「センサ:高解像度ジェスチャーセンサ」によって収集された対象者情報「動作情報」とが記憶されていることを示す。
【0147】
ここで、
図24に示す対象者情報においては、リハビリを実行している際に所定の時刻(時間間隔)で、センサごとに記憶される。例えば、対象者情報記憶部1304は、対象者が動作情報収集部10によって撮影された全てのフレームごとの各対象者情報を時系列順に時間に対応付けて、センサごとに記憶する。
【0148】
また、対象者情報記憶部1304は、
図24に示すように、「氏名:A、氏名番号:1、実施日:20120801_2、センサ:血圧計、対象者情報:血圧」及び「氏名:A、氏名番号:1、実施日:20120801_2、センサ:心拍計、対象者情報:心拍」を記憶する。すなわち、対象者情報記憶部1304は、「氏名:A」の人物が「2012年」の「8月1日」に実施した「2回目」のリハビリにおける対象者情報も同様に記憶する。
【0149】
同様に、対象者情報記憶部1304は、
図24に示すように、他の人物についても、センサごとの対象者情報を記憶する。このように、対象者情報記憶部1304は、対象者ごとに収集されたリハビリ中の対象者情報を、それぞれの対象者に対応付けて記憶する。なお、
図24に示す対象者情報はあくまでも一例である。すなわち、対象者情報記憶部1304は、
図24に示すセンサや対象者以外にも種々のセンサにおける対象者情報を記憶することができる。また、
図24においては、1回のリハビリに2つのセンサを対象者情報収集部20として適用した対象者情報を記憶する場合について示すが、センサが1つの場合や、3つ以上の場合も同様に記憶される。
【0150】
図22に戻って、表示情報記憶部1305は、後述する制御部140aによって生成された表示情報を記憶する。具体的には、表示情報記憶部1305は、後述する制御部140aが動作情報と対象者情報とを同期させた表示情報を記憶する。なお、表示情報については、後述する。
【0151】
次に、動作情報処理装置100aの制御部140aの詳細について説明する。
図22に示すように、動作情報処理装置100aにおいては、例えば、制御部140aが取得部1404と、解析部1405と、表示情報生成部1406と、表示制御部1407とを備える。
【0152】
取得部1404は、リハビリを実行する対象者の動作情報と、当該対象者の身体の状態を示す対象者情報をそれぞれ取得する。具体的には、取得部1404は、動作情報記憶部1303によって記憶された動作情報と、対象者情報記憶部1304によって記憶された対象者情報とを取得する。一例を挙げると、取得部1404は、動作情報収集部10によって収集され、動作情報記憶部1303によってフレームごとに記憶されたカラー画像情報、距離画像情報、音声認識結果及び骨格情報と、対象者情報収集部20によって収集され、対象者情報記憶部1304によって収集時刻に対応付けて記憶された圧力情報とをそれぞれ取得する。
【0153】
図25は、第5の実施形態に係る取得部1404によって取得される動作情報の一例を説明するための模式図である。
図25においては、動作情報収集部10が図示のように配置され、対象者がz軸方向に沿って歩行訓練を実施している状態の動作情報を取得する場合について示す。また、
図25においては、対象者が対象者情報収集部20としての圧力センサ(対象者の足元に図示)及び脳波計(対象者の頭に図示)を装着して歩行訓練を実施する場合について示す。
【0154】
例えば、取得部1404は、
図25に示すように、対象者がz軸方向に沿って歩行訓練を実施している際に、動作情報収集部10によって収集された動作情報を、動作情報記憶部1303から取得する。さらに、取得部1404は、例えば、
図25に示すように、対象者が歩行訓練を実施している際に対象者情報収集部20としての脳波計によって収集された脳波情報と、対象者情報収集部20としての圧力センサによって収集された圧力情報とを、対象者情報記憶部1304から取得する。
【0155】
すなわち、取得部1404は、
図25に示すように、動作情報収集部10の撮影領域である領域R3における対象者のカラー画像情報、距離画像情報及び骨格情報などを取得するとともに、歩行訓練時の対象者の脳波情報と足の圧力情報とを取得する。ここで、取得部1404は、例えば、氏名、氏名番号、実施日などをキーとしてそれぞれの動作情報を取得する。換言すると、取得部1404は、動作情報収集部10によって収集された対象者の歩行訓練における一連の歩行動作にかかる全てのフレームのカラー画像情報、距離画像情報及び骨格情報を取得するとともに、対象者情報収集部20によって所定のタイミングで収集された対象者情報を取得する。或いは、取得部1404は、リアルタイムで動作情報記憶部1303に格納される動作情報及び対象者情報記憶部1304に格納される対象者情報をリアルタイムに取得する。
【0156】
図22に戻って、解析部1405は、取得部1404によって取得されたリハビリの動作を実行する対象者の動作情報を用いて種々の解析を実行する。具体的には、解析部1405は、取得部1404よって取得された動作情報における対象者の所定の部位の経時的な位置の変化に基づいて、動作の状態を解析する。例えば、解析部1405は、歩行訓練を実施している対象者の足根や、足首、膝などの経時的な位置の変化に基づいて、対象者の足の着地点の位置や、歩数、歩幅、歩隔、歩行率(単位時間における歩数)、或いは、重複歩距離(一方の足が接地してから同じ側の足が再び接地するまでの距離)などの歩行状態を解析する。
【0157】
また、例えば、解析部1405は、取得部1404によって取得されたカラー画像情報、距離画像情報、音声認識結果及び骨格情報などの動作情報を用いて、リハビリを実施する対象者の傾きや、所定の部位の速度、加速度、移動距離などを解析する。
【0158】
表示情報生成部1406は、取得部1404によって取得された動作情報と対象者情報とを同期させた表示情報を生成する。具体的には、表示情報生成部1406は、対象者がリハビリテーションに係る所定の動作を実行した場合の当該対象者の対象者情報を表示情報として生成する。より具体的には、表示情報生成部1406は、解析部1405による解析結果に基づいて、対象者が歩行訓練や、関節可動域訓練などのリハビリテーションを実行している場合に、各リハビリにおける所定の動作を実行した場合の対象者情報を示した表示情報を生成する。
【0159】
図26は、第5の実施形態に係る表示情報生成部1406によって生成される表示情報の一例を示す図である。
図26においては、対象者がリハビリテーションとして歩行訓練を実行した場合を一例に挙げて説明する。また、
図26においては、I5に動作情報収集部10によって収集された動作情報のカラー画像情報を示す。また、
図26においては、I6に解析部1405による解析結果に基づいて生成された足の着地点の図を示す。また、
図26においては、I7に解析部1405による解析結果や、対象者情報収集部20によって収集された対象者情報の表を示す。
【0160】
例えば、表示情報生成部1406は、
図26に示すように、対象者の歩行の様子を示すカラー画像情報と、カラー画像情報にて示される対象者の足の着地点の位置を示す図と、解析結果及び対象者情報の表を同一画面に示した表示情報を生成する。すなわち、表示情報生成部1406は、取得部1404によって取得された動作情報に含まれるカラー画像情報を、
図26に示すように配置する。そして、表示情報生成部1406は、配置したカラー画像情報の下部に解析部1405によって解析された対象者の足の着地点の位置を示す図を配置する。
【0161】
ここで、
図26に示すI6の図について説明する。上述したように、
図26のI6の図は、解析部1405によって解析された対象者の足の着地点の位置を示す図である。表示情報生成部1406は、解析部1405によって解析された足の座標に基づいて、I6の図を生成する。以下、足の着地点の位置の解析の一例について説明する。例えば、解析部1405は、取得部1404によって取得された動作情報の骨格情報(座標情報)において、足根、足首、又は、膝などの高さ(y座標)の値から足が接地しているか否かを判定する。そして、解析部1405は、足が接地したと判定した位置の座標を足の着地点の位置として表示情報生成部1406に出力する。
【0162】
なお、上述した足の着地点の位置の解析方法はあくまでも一例である。すなわち、解析部1405は、動作情報に含まれる対象者の骨格情報を用いた種々の方法により、対象者の足の着地点の位置を解析することができる。例えば、解析部1405は、対象者の足根、足首、膝などの関節が歩行の進行方向において移動していない場合に足が接地していると判定することも可能である。
【0163】
また、足の着地点の位置の情報は、動作情報収集部10によって収集された対象者の動作情報に含まれる骨格情報だけではなく、対象者情報収集部20によって収集することもできる。例えば、歩行訓練を実行する対象者が対象者情報収集部20としてMEMSの位置情報センサを装着し、取得部1404が、対象者情報収集部20から対象者の足の着地点の位置に関する高精度な情報を取得する。このような情報を用いることにより、
図26のI6の図をより高精度な情報として表示させることが可能になる。
【0164】
そして、表示情報生成部1406は、解析部1405によって出力された足の着地点の位置の情報、或いは、取得部1404によって取得された対象者の足の着地点の位置に関する高精度な情報を受付けて、
図26のI6の図を生成する。例えば、表示情報生成部1406は、
図26のI6に示すように、足の着地点を上から観察した状態を示す図を生成する。かかる場合には、表示情報生成部1406は、解析部1405から受け付けた足の着地点の位置のx座標とz座標とを抽出して、xz平面上における抽出した位置に足型を配置した図を生成する。そして、表示情報生成部1406は、
図26に示すように、xz平面に配置された足型の位置がカラー画像情報I5に描出された対象者の足が着地する位置に合うように、xz平面の大きさを調節して、カラー画像情報の下部にI6を配置する。
【0165】
さらに、表示情報生成部1406は、
図26に示すように、足の着地点の位置それぞれにおける解析情報や、対象者情報を表として配置する。例えば、表示情報生成部1406は、
図26に示すように、歩ごとに、各パラメータを対応付けた表I7をI6の下部に配置する。ここで、表示情報生成部1406は、表I7の歩の位置がI6に示される各足跡の位置に合うように、表I7の大きさを調節して、表I7をI6の下部に配置する。
【0166】
例えば、表示情報生成部1406は、
図26に示すように、各歩における「歩幅」、「歩隔」、「圧力」及び「脳波」などを示した表示情報を生成する。ここで、表示情報生成部1406は、例えば、「歩幅」及び「歩隔」について、解析部1405による解析結果を受けつける。また、表示情報生成部1406は、「圧力」及び「脳波」について。取得部1404によって取得された対象者情報において、足が接地したと判定された時刻の値をそれぞれ取得し、取得した値を表中に示す。すなわち、表示情報生成部1406は、歩行訓練を実行している対象者の足が着地した時点の各パラメータ(解析結果及び対象者情報)を示した表を足跡の位置に合わせて配置した表示情報を生成する。
【0167】
なお、上述した例では、「歩幅」や「歩隔」の情報を動作情報から解析する場合について説明したが、これはあくまでも一例であり、「歩幅」や「歩隔」の情報を対象者情報から解析する場合であってもよい。例えば、歩行訓練を実行する対象者が対象者情報収集部20としてMEMSの位置情報センサを装着し、取得部1404が、対象者情報収集部20から対象者の足の着地点の位置に関する高精度な情報を取得する。そして、解析部1405は、取得部1404によって取得された足の着地点の位置に関する高精度な情報を用いて、対象者の「歩幅」や「歩隔」を解析する。このような情報を用いることにより、
図26のI7の表をより高精度な情報として表示させることが可能になる。
【0168】
なお、上述した例はあくまでも一例である。すなわち、対象者によって実行されるリハビリは歩行訓練に限られるものではなく、その他種々のリハビリが実行される場合であってもよい。また、上記した例では、歩行訓練における所定の動作として足が着地した時点について説明したが、実施形態はこれに限定されるものではなく、例えば、歩行訓練において対象者の足が最も高く上がっている時点の対象者情報が表示される場合であってもよい。また、上述した例では、パラメータとして、「歩幅」、「歩隔」、「圧力」及び「脳波」を例に挙げて説明したが、実施形態はこれに限定されるものではなく、例えば、血圧や、心拍数が用いられる場合であってもよい。
【0169】
図22に戻って、表示制御部1407は、表示情報生成部1406によって生成された表示情報を出力部110にて表示させる。例えば、表示制御部1407は、
図26に示す表示情報を出力部110にて表示させる。
【0170】
このように、第5の実施形態に係る動作情報処理装置100aは、動作情報収集部10によって収集された動作情報に対象者情報を同期させた表示情報を表示する。これにより、動作情報処理装置100aは、対象者の所定の動作における身体の状態を示す対象者情報を提供することができ、リハビリを実行する対象者の精密な情報を取得することを可能にする。
【0171】
次に、
図27を用いて、第5の実施形態に係る動作情報処理装置100aの処理について説明する。
図27は、第5の実施形態に係る動作情報処理装置100aによる処理の手順を示すフローチャートである。なお、
図27においては、リハビリとして歩行訓練を実行した場合を一例に挙げて説明する。
【0172】
図27に示すように、第5の実施形態に係る動作情報処理装置100aにおいては、歩行訓練が開始されると、取得部1404が、歩行を実行した対象者の動作情報と、対象者情報とをそれぞれ取得する(ステップS201)。すなわち、取得部1404は、動作情報記憶部1303から動作情報を取得し、さらに、対象者情報記憶部1304から取得した動作情報に対応する時刻の対象者情報を取得する。
【0173】
そして、解析部1405は、所定のパラメータについて取得された動作情報又は対象者情報を用いて解析する(ステップS202)。例えば、解析部1405は、高精度な情報を求められているパラメータについては、対象者情報を用いて解析を実行し、その他のパラメータについては、動作情報を用いて解析を実行する。
【0174】
その後、表示情報生成部1406は、動作情報と、対象者情報と、解析結果とを関連付けた(同期させた)表示情報を生成する(ステップS203)。例えば、表示制御部1407は、動作情報に含まれる画像情報や、対象者情報に含まれる所定のパラメータの情報、解析部1405によって解析された解析結果を関連付けた表示情報を生成する。そして、表示制御部1407は、生成された表示情報を出力部110にて表示するように制御する(ステップS204)。
【0175】
上述したように、第5の実施形態によれば、取得部1404は、リハビリテーションを実行する対象者の動作情報と、当該対象者の身体の状態を示す対象者情報をそれぞれ取得する。そして、表示情報生成部1406は、取得部1404によって取得された動作情報と対象者情報とを同期させた表示情報を生成する。そして、表示制御部1407は、表示情報生成部1406によって生成された表示情報を出力部110にて表示させるように制御する。従って、第5の実施形態に係る動作情報処理装置100aは、リハビリを実行する対象者の動作に同期した対象者情報を表示させることができ、リハビリを実行する対象者の精密な情報を取得することを可能にする。
【0176】
また、第5の実施形態によれば、表示情報生成部1406は、対象者がリハビリテーションに係る所定の動作を実行した場合の当該対象者の対象者情報を表示情報として生成する。従って、第5の実施形態に係る動作情報処理装置100aは、リハビリ特有の動作における対象者情報を提供することを可能にする。
【0177】
また、第5の実施形態によれば、取得部1404は、対象者情報として生体情報を取得する。そして、表示情報生成部1406は、対象者がリハビリテーションに係る所定の動作を実行した場合の当該対象者の生体情報を表示情報として生成する。従って、第5の実施形態に係る動作情報処理装置100aは、リハビリ実行時の対象者のバイタル情報を提供することができ、対象者の精密な情報を取得することを可能にする。
【0178】
また、第5の実施形態によれば、解析部1405は、取得部1404によって取得された動作情報を用いて、対象者の動作を解析する。表示情報生成部1406は、解析部1405によって解析された対象者の動作に含まれる所定の動作を実行した時点の対象者情報を表示情報として生成する。従って、第5の実施形態に係る動作情報処理装置100aは、動作情報に基づいて所定の動作のタイミングを決定することができ、より精密な情報を提供することを可能にする。
【0179】
(第6の実施形態)
上述した第5の実施形態においては、動作情報収集部10によって収集された骨格情報又は対象者情報収集部20によって収集された対象者情報を用いて、各種解析を実行する場合について説明した。第6の実施形態では、対象者情報として収集した情報を用いて、動作情報を補正し、補正した動作情報を用いて各種解析を実行する場合について説明する。なお、第6の実施形態においては、解析部1405の処理が異なる。以下、これを中心に説明する。
【0180】
第6の実施形態に係る解析部1405は、高精度の動作情報を用いて、動作情報を補正し、補正した動作情報を用いて各種解析を実行する。具体的には、解析部1405は、取得部1404によって取得された対象者情報が高精度の動作情報であった場合に、当該高精度の動作情報を用いて、動作情報収集部10によって収集された動作情報を補正し、補正した動作情報により、対象者の動作を解析する。
【0181】
かかる場合には、対象者情報収集部20は、例えば、マーカ及びトラッキング装置が適用され、高精度の動作情報を収集する。
図28A〜
図28Bは、第6の実施形態に係る動作情報収集の一例を説明するための図である。ここで、
図28Aにおいては、対象者の所定の部位の位置を補正する場合について示す。また、
図28Bにおいては、対象者の所定の部位の角度及び速度を補正する場合について示す。例えば、位置について、高精度の動作情報を収集する場合には、
図28Aに示すように、対象者情報収集部20としてのマーカを対象者が右膝に装着し、図示しないトラッキング装置がマーカの位置をトラッキングすることで、対象者の膝の動作情報を取得する。
【0182】
解析部1405は、動作情報収集部10によって収集される右膝に対応する関節「2n」の座標と、対象者情報収集部20によって収集される右膝の座標とから対象者の他の関節の座標を補正する。すなわち、解析部1405は、動作情報収集部10によって収集される右膝に対応する関節「2n」の座標と対象者情報収集部20によって収集される右膝の座標とから、対象者情報収集部20によって収集される座標空間におけるその他の関節の座標それぞれの位置の座標を算出する。
【0183】
一例を挙げると、動作情報収集部10によって収集された右膝に対応する関節「2n」の座標が(10,10,10)であり、対象者情報収集部20によって収集された右膝の座標が(11.5,10.8,11.2)であった場合に、解析部1405は、関節「2n」の座標を(10,10,10)から(11.5,10.8,11.2)に補正する。そして、解析部1405は、右膝に対応する関節「2n」の座標(10,10,10)と、対象者情報収集部20によって収集された右膝の座標(11.5,10.8,11.2)とから算出される変換係数を用いて、動作情報収集部10によって収集されたその他の関節「2a」〜「2t」の座標それぞれを補正する。すなわち、解析部1405は、その他の関節「2a」〜「2t」の座標それぞれに対して変換係数をかけることにより、各座標を補正する。
【0184】
そして、解析部1405は、上記した補正によって算出した対象者の各部位の座標(対象者情報収集部20によって収集される座標空間における座標)を用いて、各種解析を実行する。これにより、第2の動作情報処理装置100aは、より正確な座標を用いた解析を実行することができ、当該解析の結果を用いることで、より精密な表示情報を提供することを可能にする。
【0185】
なお、上述した実施形態では、高精度の動作情報を対象者情報収集部20としてのマーカ及びトラッキング装置で収集する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の動作情報収集部10を設置し、そのうちの1つをマーカ及びトラッキング装置とする場合であってもよい。
【0186】
また、同様に、対象者の所定の部位の角度及び速度を補正することも可能である。例えば、角度や速度について、高精度の動作情報を収集する場合には、
図28Bの右側の図に示すように、対象者が、対象者情報収集部としての関節角度センサ22や、速度センサ23を装着して、動作情報収集部10による動作収集範囲内で歩行訓練を実行する。これにより、解析部1405が動作情報を用いて角度や速度を解析し、さらに、対象者情報収集部(関節角度センサ22、速度センサ23)から高精度な角度情報や速度情報を収集することができる。
【0187】
かかる状態において、例えば、操作者によって高精度な角度情報が求められた場合には、まず、解析部1405は、
図28Bの左側に示すように、右肩に対応する関節「2e」と右肘に対応する関節「2f」とを結ぶ骨に対する右肘に対応する関節「2f」と右手首に対応する関節「2g」とを結ぶ骨の角度「θ1」をフレームごとに算出する。すなわち、解析部1405は、歩行動作中の対象者の右肘の角度を解析する。そして、解析部1405は、歩行動作中に関節角度センサ22によって取得される右肘の角度を用いて、フレームごとに算出した右肘の角度を補正する。すなわち、解析部1405は、所定のフレームの右肘の角度を、当該フレームの時間において関節角度センサ22によって取得された右肘の角度に補正する。
【0188】
一例を挙げると、解析部1405によって算出された「θ1」の角度が「170°」であり、関節角度センサ22によって収集された右肘の角度が「176°」であった場合に、解析部1405は、「θ1」の角度を「170°」から「176°」に補正する。そして、解析部1405は、「θ1」の角度「170°」と、関節角度センサ22によって収集された右肘の角度「176°」とから算出される変換係数を用いて、動作情報収集部10によって収集されたそれ以降の右肘の角度や、その他の関節の角度をそれぞれ補正する。すなわち、解析部1405は、それ以降の右肘の角度や、その他の関節の角度それぞれに対して変換係数をかけることにより、各角度を補正する。
【0189】
例えば、操作者によって高精度な速度情報が求められた場合には、まず、解析部1405は、
図28Bの右側に示すように、速度センサ23が装着された体の重心の速度情報をフレームごとに算出する。そして、解析部1405は、歩行動作中に速度センサ23によって取得される速度情報を用いて、フレームごとに算出した体の重心の速度を補正する。すなわち、解析部1405は、所定のフレームの体の重心の速度を、当該フレームの時間において速度センサ23によって取得された速度情報に補正する。
【0190】
一例を挙げると、解析部1405によって算出された体の重心の速度が「0.5m/sec」であり、速度センサ23によって収集された速度が「0.58m/sec」であった場合に、解析部1405は、体の重心の速度を「0.5m/sec」から「0.58m/sec」に補正する。そして、解析部1405は、体の重心の速度「0.5m/sec」と、速度センサ23によって収集された速度「0.58m/sec」とから算出される変換係数を用いて、動作情報収集部10によって収集されたそれ以降の体の重心の速度や、その他の部位の速度をそれぞれ補正する。すなわち、解析部1405は、それ以降の体の重心の速度や、その他の部位の速度それぞれに対して変換係数をかけることにより、各速度を補正する。
【0191】
上述したように、第6の実施形態によれば、取得部1404は、動作情報と比較して高解像度である高解像度動作情報を取得する。そして、解析部1405は、取得部1404によって取得された高解像度動作情報を用いて、動作情報を補正した後に、対象者の動作を解析する。従って、第6の実施形態に係る動作情報処理装置100aは、より正確な情報を用いて対象者の動作を解析することを可能にする。
【0192】
(第7の実施形態)
さて、これまで第5及び第6の実施形態について説明したが、上述した第5及び第6の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
【0193】
上述した第5の実施形態においては、カラー画像情報と、足の着地点の位置を示す図と、表とを配置した表示情報を生成する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、任意の図を配置した表示情報を生成する場合であってもよい。例えば、動作情報収集部10によって収集された動作情報に含まれるカラー画像情報と、対象者情報収集部20によって収集された動作情報に含まれるカラー画像情報との時間を同期させた表示情報を生成する場合であってもよい。
【0194】
図29A及び
図29Bは、第7の実施形態に係る表示情報生成部1406によって生成される表示情報の一例を示す図である。例えば、表示情報生成部1406は、
図29Aに示すように、表示ウィンドウの左側の領域に動作情報収集部10によって収集されたカラー画像情報を配置し、表示ウィンドウの右側の領域に対象者情報収集部20によって収集されたカラー画像情報を配置した表示情報を生成する。
【0195】
ここで、対象者情報収集部20においては、例えば、LEAPなどの高解像度のモーションキャプチャシステムが適用される。これにより、表示情報生成部1406は、例えば、
図29Aに示すように、表示ウィンドウの右側の領域に対象者の手の詳細なカラー画像情報を配置した表示情報を生成する。ここで、表示情報生成部1406は、表示ウィンドウの左側の領域のカラー画像情報と右側の領域のカラー画像情報との時刻を同期させる。
【0196】
また、例えば、表示情報生成部1406は、
図29Bに示すように、同一のカラー画像情報に動作情報収集部10によって収集された骨格情報と、対象者情報収集部20によって収集された対象者の右手の高解像度な骨格情報とを重畳した表示情報を生成する。
【0197】
また、上述した第5及び第6の実施形態においては、表示情報を出力部110にて表示させる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、対象者情報のバイタル情報に基づいて、リハビリテーションを実行する対象者に対して、誘導を促したりすることも、警告を発するようにすることも可能である。
【0198】
かかる場合には、例えば、記憶部130aが血圧や心拍数に関する所定の閾値を記憶する。そして、制御部140aが、対象者情報収集部20によって収集される血圧や心拍数を監視して、所定の閾値を超えた場合に、リハビリを実行する対象者に対して、「ペースを遅くしてください」或いは「負荷を軽くしてください」などの警告を示すメッセージを出力するように制御する。例えば、制御部140aは、出力部110を介して、音声や映像によりメッセージを出力する。
【0199】
上述したように、本願に係る動作情報処理装置100aは、動作情報と対象者情報とを用いて、種々の解析と表示を実行することができる。これをにより、動作情報処理装置100aは、例えば、対象者情報収集部20として音声センサを用いることで言語療法や音楽療法に利用したり、対象者情報収集部20として脳波計や五感センサを用いることで精神疾患の患者に対して利用したりすることも可能である。
【0200】
また、例えば、日常生活にも付与可能な小型センサやウェアラブルセンサが提供された場合に、本願に係る動作情報処理装置100aは、対象者情報収集部20としてそれらを用いることで、日常生活情報と訓練時の情報を連携して扱うことが可能になる。例えば、本願に係る動作情報処理装置100aは、日常生活時の改善状況の確認や訓練後の効果の評価などを行うことができる。また、本願に係る動作情報処理装置100aは、対象者情報収集部20として表示するためのセンサを用いることで、リハビリの訓練状況・回復状況・維持改善状況をリアルタイムでわかりやすく提供することも可能である。すなわち、対象者は、リハビリ中に映像を見る余裕がない場合がほとんどであると考えられる。そこで、対象者に対するリアルタイム表示においては、メガネタイプの表示機器(表示するためのセンサ)を用いることが望ましい。或いは、本願に係る動作情報処理装置100aは、対象者に対して、MEMSなどを用いて、映像以外で体に直接情報を伝えることも可能である。また、本願に係る動作情報処理装置100aは、メガネタイプの表示機器を用いてリアルタイム表示する場合には、ナビを実行させることも可能であり、ナビの出し方(実施者が真似しやすい魅せ方など)やタイミング(何秒後にする動作を表示するか)などを任意に設定することができる。
【0201】
上述した第5及び第6の実施形態では、動作情報処理装置100aが、リハビリを実行する対象者の動作情報及び対象者情報を取得して、表示情報を表示する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、各処理がネットワーク上のサービス提供装置によって実行される場合であってもよい。
【0202】
図30は、第7の実施形態に係るサービス提供装置に適用される場合の一例を説明するための図である。
図30に示すように、サービス提供装置200は、サービスセンタ内に配置され、例えば、ネットワーク5を介して、医療機関や、自宅、職場に配置される端末装置300とそれぞれ接続される。医療機関、自宅及び職場に配置された端末装置300は、動作情報収集部10及び動作情報収集部20がそれぞれ接続される。そして、各端末装置300は、サービス提供装置200によって提供されるサービスを利用するクライアント機能を備える。なお、
図30においては、動作情報収集部10及び対象者情報収集部20がそれぞれ1つのみ示されているが、接続される数は任意である。
【0203】
サービス提供装置200は、動作情報処理装置100aと同様の処理をサービスとして端末装置300に提供する。すなわち、サービス提供装置200は、取得部1404と、表示情報生成部1406と、表示制御部1407と同様の機能部を有する。そして、取得部1404と同様の機能部は、リハビリテーションを実行する対象者の動作情報と、当該対象者の身体の状態を示す対象者情報をそれぞれ取得する。そして、表示情報生成部1406と同様の機能部は、取得部1404と同様の機能部によって取得された対象者情報とを同期させた表示情報を生成する。そして、表示制御部1407と同様の機能部は、表示情報生成部1406と同様の機能部によって生成された表示情報を端末装置300のモニタにて表示させるように制御する。なお、ネットワーク5には、有線又は無線を問わず、インターネット(Internet)、WAN(Wide Area Network)などの任意の種類の通信網を採用できる。
【0204】
また、上述した第5の実施形態における動作情報処理装置100aの構成はあくまでも一例であり、各部の統合及び分離は適宜行うことができる。例えば、動作情報記憶部1303と対象者情報記憶部1304とを統合したり、取得部1404を動作情報を取得する動作情報取得部と、対象者情報を取得する対象者情報取得部に分離したりすることが可能である。
【0205】
また、第5の実施形態から第7の実施形態において説明した取得部1404、表示情報生成部1406及び表示制御部1407の機能は、ソフトウェアによって実現することもできる。例えば、取得部1404、表示情報生成部1406及び表示制御部1407の機能は、上記の実施形態において取得部1404、表示情報生成部1406及び表示制御部1407が行うものとして説明した処理の手順を規定した医用情報処理プログラムをコンピュータに実行させることで、実現される。この医用情報処理プログラムは、例えば、ハードディスクや半導体メモリ素子等に記憶され、CPUやMPU等のプロセッサによって読み出されて実行される。また、この医用情報処理プログラムは、CD−ROM(Compact Disc − Read Only Memory)やMO(Magnetic Optical disk)、DVD(Digital Versatile Disc)などのコンピュータ読取り可能な記録媒体に記録されて、配布され得る。
【0206】
上述したように、第5〜第7の実施形態に係る動作情報処理装置100は、リハビリを実行する対象者の精密な情報を取得することで、リハビリを実行する対象者に対して有効な支援を行う。次に、第8〜第10の実施形態において、移動動作を実行する対象者に対して安定した支援を行うことで、リハビリを実行する対象者に対して有効な支援を行う動作情報処理装置について説明する。
【0207】
(第8の実施形態)
図31は、第8の実施形態に係る動作情報処理装置100bの構成の一例を示す図である。第8の実施形態に係る動作情報処理装置100bは、第1〜第4の実施形態に係る動作情報処理装置100と同様に、例えば、医療機関や自宅、職場等において行われるリハビリテーションを支援する装置である。
【0208】
図31に示すように、第8の実施形態において、動作情報処理装置100bは、動作情報収集部10及び移動機構30に接続される。ここで、
図31に示す動作情報収集部10は、
図2に示す動作情報収集部10と同様である。すなわち、
図31に示す動作情報収集部10は、対象者の動作の情報を収集し、収集した各種情報を動作情報処理装置100bに送り、後述する記憶部130b(例えば、動作情報記憶部1306など)に格納する。なお、これらの処理については、上述した処理と同様であることから詳細な説明を省略する。
【0209】
移動機構30は、対象者が移動動作を実行した場合でも、対象者の動作情報を安定して収集するため機構である。具体的には、移動機構30は、移動動作を実行する対象者に対して所定の位置から当該対象者の動作情報を収集するように、動作情報を収集する動作情報収集部10を移動させる。例えば、第1の実施形態に係る移動機構30は、動作情報収集部10を乗せる台車である。かかる場合、移動機構30としての台車は、モータを有し、対象者との距離を一定に保つように自走する。すなわち、移動機構30は、移動動作を実行する対象者が常に動作情報収集部10の認識範囲内に入るように、動作情報収集部10の位置を変化させる。なお、移動機構30の詳細については、後述する。
【0210】
動作情報処理装置100bは、動作情報収集部10から出力される動作情報を用いて、リハビリテーションを支援するための処理を行う。具体的には、動作情報処理装置100bは、移動動作を伴うリハビリテーションを実行する対象者に対して安定した支援を行なう。
【0211】
上述したように、従来、リハビリテーションの機能訓練においては、歩行訓練や、関節可動域訓練などの種々の訓練が行われている。ここで、これらの訓練においては、例えば歩行訓練のように移動を伴う訓練がある。一例を挙げると、歩行訓練においては、約10m程度の距離を歩行する場合がある。しかしながら、動作情報収集部10が対象者を認識する認識範囲はそれほど広くないため、対象者が移動してしまうと、動作情報収集部10の認識範囲から外れてしまう場合がある。そこで、本実施形態に係る動作情報処理装置100bは、移動動作を実行する対象者に対して安定した支援を行なうことを可能にするように構成される。
【0212】
例えば、動作情報処理装置100bは、コンピュータ、ワークステーション等の情報処理装置であり、
図31に示すように、出力部110と、入力部120と、記憶部130bと、制御部140bとを有する。
【0213】
出力部110は、リハビリを実行する対象者の動作に係る各種情報などを出力する。例えば、出力部110は、動作情報処理装置100bを操作する操作者が入力部120を用いて各種要求を入力するためのGUI(Graphical User Interface)を表示したり、動作情報処理装置100bにおいて対象者の歩行状態を評価するための情報(リハビリの効果を評価することができる情報)などを表示したりする。一例を挙げると、出力部110は、歩行状態を評価するための情報として、対象者の画像や、対象者の各部位の座標情報、画像と座標情報を合わせた情報、或いは、過去の情報と比較した際の改善度情報などを表示する。なお、上記した例は、あくまでも一例であり、歩行状態を評価するための情報であればどのような情報が出力される場合であってもよい。例えば、出力部110は、モニタ、スピーカー、ヘッドフォン、ヘッドセットのヘッドフォン部分等である。また、出力部110は、メガネ型ディスプレイやヘッドマウントディスプレイ等、利用者の身体に装着させる方式のディスプレイであってもよい。
【0214】
入力部120は、リハビリを実行する対象者の動作に係る各種情報の入力を受け付ける。例えば、入力部120は、動作情報処理装置100bの操作者から各種要求(例えば、表示される画像の選択要求や、GUI上で計測を実行させるための計測要求など)の入力を受け付け、受け付けた各種要求を動作情報処理装置100bに転送する。例えば、入力部120は、マウス、キーボード、タッチコマンドスクリーン、トラックボール、マイク、ヘッドセットのマイク部分等である。また、入力部120は、血圧計、心拍計、体温計等の生体情報を取得するセンサであっても良い。
【0215】
記憶部130bは、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスク装置や光ディスク装置等の記憶装置である。また、制御部140bは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路、或いはCPU(Central Processing Unit)が所定のプログラムを実行することで実現することができる。
【0216】
以上、第8の実施形態に係る動作情報処理装置100bの構成について説明した。かかる構成のもと、第8の実施形態に係る医動作情報処理装置100bは、以下、詳細に説明する構成により、移動動作を実行する対象者に対して安定した支援を行なうことを可能にする。
図32は、第8の実施形態に係る動作情報処理装置100bの詳細な構成の一例を示す図である。まず、動作情報処理装置100bにおける記憶部130bの詳細について説明する。
図32に示すように、動作情報処理装置100bにおいては、例えば、記憶部130bが動作情報記憶部1306と、移動距離記憶部1307とを備える。
【0217】
動作情報記憶部1306は、動作情報収集部10によって収集された各種情報を記憶する。具体的には、動作情報記憶部1306は、動作情報収集部10の動作情報生成部14によって生成された動作情報を記憶する。より具体的には、動作情報記憶部1306は、動作情報収集部10の動作情報生成部14によって生成されたフレームごとの骨格情報を記憶する。ここで、動作情報記憶部1306は、動作情報生成部14によって出力されたカラー画像情報、距離画像情報及び音声認識結果をフレームごとにさらに対応付けて記憶することも可能である。
【0218】
例えば、第8の実施形態に係る動作情報記憶部1306は、上述した
図23に示す動作情報を記憶する。すなわち、動作情報記憶部1306は、
図23に示すように、氏名ごとに、氏名番号と、実施日と、動作情報とを対応付けた動作情報を記憶する。ここで、「氏名番号」とは、対象者を一意に特定するための識別子であり、氏名ごとに付与される。「実施日」とは、対象者がリハビリの訓練を実施した日時を示す。「動作情報」とは、動作情報収集部10によって収集された情報を示す。
【0219】
例えば、動作情報記憶部1306は、
図23に示すように、「氏名:A、氏名番号:1、実施日:20120801_1、動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報、・」を記憶する。上記した情報は、「氏名番号」が「1」である「氏名:A」の人物が「2012年」の「8月1日」に実施した「1回目」のリハビリにおいて、動作情報「カラー画像情報、距離画像情報、音声認識結果、骨格情報など」が記憶されていることを示す。
【0220】
ここで、
図23に示す動作情報においては、リハビリの動作を実行している際に撮影された全てのフレームごとの「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」などが時系列順に時間に対応付けて記憶される。すなわち、動作情報記憶部1306は、1回のリハビリ動作中に動作情報収集部10によって収集された「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」などを収集された時間に対応付けて記憶する。換言すると、動作情報記憶部1306は、動作情報収集部10によって収集された動作情報をフレームの時間でそれぞれ対応付けて記憶する。
【0221】
また、動作情報記憶部1306は、
図23に示すように、「氏名:A、氏名番号:1、実施日:20120801_2、動作情報:カラー画像情報、距離画像情報、音声認識結果、骨格情報、・」を記憶する。すなわち、動作情報記憶部1306は、「氏名:A」の人物が「2012年」の「8月1日」に実施した「2回目」のリハビリにおける動作情報も同様に記憶する。
【0222】
同様に、動作情報記憶部1306は、
図23に示すように、他の人物についても、「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」などを含む動作情報を記憶する。このように、動作情報記憶部1306は、対象者ごとに収集されたリハビリの動作情報を、それぞれの対象者に対応付けて記憶する。なお、
図23に示す動作情報はあくまでも一例である。すなわち、動作情報記憶部1306は、
図23に示す「カラー画像情報」、「距離画像情報」、「音声認識結果」及び「骨格情報」以外の情報をさらに対応付けて記憶することができ、また、例えば、動作情報収集部10が音声認識部13を有さない場合には、音声認識結果が含まれないものとして記憶することとなる。
【0223】
移動距離記憶部1307は、後述する制御部140bによる解析結果を記憶する。具体的には、移動距離記憶部1307は、後述する制御部140bが動作情報記憶部1306によって記憶された動作情報を用いて算出したセンサの移動距離を記憶する。なお、移動距離については、後述する。
【0224】
次に、動作情報処理装置100bの制御部140bの詳細について説明する。
図32に示すように、動作情報処理装置100bにおいては、例えば、制御部140bが取得部1408と、移動機構制御部1409と、解析部1410と、表示制御部1411とを備える。
【0225】
取得部1408は、移動動作(例えば、歩行訓練など)を実行する対象者に対して所定の位置から収集された当該対象者の動作情報を取得する。具体的には、取得部1408は、対象者の動作情報を収集する動作情報収集部10の認識範囲内に移動動作を実行する対象者が入り続けるように移動機構30によって位置が変化された動作情報収集部10によって収集された対象者の動作情報を動作情報記憶部1306から取得する。一例を挙げると、取得部1408は、対象者の移動動作に応じて移動機構30によって位置が変化された動作情報収集部10によって収集され、動作情報記憶部1306によってフレームごとに記憶されたカラー画像情報、距離画像情報、音声認識結果及び骨格情報をそれぞれ取得する。
【0226】
図33は、第8の実施形態に係る取得部1408によって取得される動作情報の一例を説明するための模式図である。
図33においては、動作情報収集部10が移動機構30の上に乗せられ、z軸方向に沿って歩行訓練を実施している対象者の動作情報を取得する場合について示す。ここで、移動機構30は、後述する移動機構制御部1409の制御により、対象者との位置関係に基づいて、
図33の矢印32又は矢印33の方向に移動する。なお、移動機構制御部1409による制御について、後に詳述する。例えば、取得部1408は、
図33に示すように、対象者がz軸方向に沿った矢印31の向きに歩行訓練を実施している際に、動作情報収集部10の認識範囲である領域R4内に入り続けるように移動機構30が移動しながら収集された対象者の動作情報を動作情報記憶部1306から取得する。
【0227】
すなわち、取得部1408は、
図33に示すように、移動動作を実行する対象者が動作情報収集部10の認識範囲である領域R4に入るように移動機構30が移動し、移動後の領域R4における対象者のカラー画像情報、距離画像情報及び骨格情報などを取得する。ここで、取得部1408は、例えば、氏名、氏名番号、実施日などをキーとしてそれぞれの動作情報を取得する。換言すると、取得部1408は、各動作情報収集部10によって収集された対象者の歩行訓練における一連の歩行動作にかかる全てのフレームのカラー画像情報、距離画像情報及び骨格情報をそれぞれ取得する。或いは、取得部1408は、リアルタイムで動作情報記憶部1306に格納される各動作情報をリアルタイムに取得する。
【0228】
図32に戻って、移動機構制御部1409は、取得部1408によって取得された対象者の動作情報に基づいて、移動機構30を移動させる。具体的には、移動機構制御部1409は、移動動作を実行している対象者が移動機構30の上に乗せられた動作情報収集部10の認識範囲内に入り続けるように移動機構30を移動させる。例えば、
図33を用いて説明すると、移動機構制御部1409は、歩行訓練を実施している対象者がz軸方向に歩いてきた場合に、当該対象者の動作情報から動作情報収集部10と対象者との距離を算出し、算出した距離に応じてモータを駆動させることで、移動機構30を矢印32又は矢印33の方向に移動させる。
【0229】
ここで、移動機構制御部1409は、例えば、動作情報収集部10と対象者との距離を「3m」に保つように移動機構30を制御する。一例を挙げると、移動機構制御部1409は、取得部1408によって取得された対象者の動作情報において、対象者の所定の部位(例えば、腰に対応する関節2c)のz軸座標の値から動作情報収集部10と対象者との距離を算出し、算出した距離が「3m」よりも短い場合には、
図33の矢印32の方向に移動機構30を移動させる。一方、算出した距離が「3m」よりも長い場合には、移動機構制御部1409は、
図33の矢印33の方向に移動機構30を移動させる。
【0230】
上述したように、移動機構制御部1409が動作情報収集部10と対象者との距離を一定に保つように移動機構30を制御することで、対象者が動作情報収集部10の認識範囲内に入り続けるように制御することができる。なお、動作情報収集部10と対象者との距離の閾値は、任意に決定される。ここで、上述した例(
図33に示す例)では、対象者がz軸方向に沿って歩行訓練を実施している場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、任意の方向への歩行訓練が実施される場合であってもよい。例えば、対象者がx軸方向や、z軸方向から45°ずれた方向などに沿った歩行訓練が実施される場合であってもよい。かかる場合には、移動機構制御部1409は、移動機構30がx軸に沿って移動するように制御したり、z軸方向から45°ずれた方向に沿って移動するように制御したりする。すなわち、移動機構30は、
図33に示す矢印32及び矢印33の方向だけではなく、360°いずれの方向にも移動可能となるように構成され、移動機構制御部1409は、動作情報収集部10と対象者との距離を一定に保つように、移動機構30を制御する。
【0231】
図32に戻って、解析部1410は、取得部1408によって取得された動作情報に基づいて、対象者の移動動作を解析する。具体的には、解析部1410は、取得部1408によって取得された移動動作を実行する対象者の動作情報、及び、動作情報収集部10の位置の変化量に基づいて、対象者の移動動作を解析する。より具体的には、解析部1410は、取得部1408によって取得された経時的な動作情報を用いて動作情報収集部10との相対位置を算出し、算出した相対位置及び動作情報収集部10の位置の変化量に基づいて、対象者の移動動作を解析する。ここで、動作情報収集部10の位置の変化量は、動作情報収集部10の加速度、移動機構30に備えられた車輪又はモータの回転数、又は、移動機構30に備えられた無線装置によって算出される。
【0232】
以下、
図34及び
図35を用いて解析部1410の処理の一例を説明する。
図34は、第8の実施形態に係る解析部1410による動作情報収集部10の移動距離の算出例を説明するための図である。
図34においては、加速度を用いて動作情報収集部10の移動距離を算出する場合について示す。
【0233】
例えば、解析部1410は、
図34の(A)に示すように、動作情報が収集されている各フレームに対応する時間(例えば、図中t1)の加速度(m/s
2)をそれぞれ取得する。そして、解析部1410は、
図34の(B)に示すように、取得した加速度に対して時間で積分することにより、速度を算出する。その後、解析部1410は、
図34の(C)に示すように、算出した速度に対して経過時間を積算することで、移動距離を算出する。これにより、解析部1410は、ある時点からある時点まで(例えば、t0〜t1まで)の動作情報収集部10の移動距離を算出する。そして、解析部1410は、算出した移動距離を時間に対応付けて移動距離記憶部1307に格納する。すなわち、移動距離記憶部1307は、動作情報が収集されている各フレームの時点における動作情報収集部10の移動距離が対応付けられた情報を記憶する。
【0234】
なお、解析部1410は、上述した加速度による動作情報収集部10の移動距離の算出のほかに、移動機構30の車輪の回転数や、モータの回転数、或いは、GPS(Global Positioning System)によって動作情報収集部10の移動距離を算出することができる。したがって、動作情報収集部10において加速度が取得できない場合であっても動作情報収集部10の移動距離を算出することができる。
【0235】
図35は、第8の実施形態に係る解析部1410による対象者の位置の解析例を説明するための図である。ここで、
図35においては、z軸方向に歩行訓練を実施する対象者の時間「t1」における床に対する位置を、時間「t0」の位置を用いて算出する場合について示す。すなわち、本願においては、動作情報収集部10が対象者の移動に伴って移動することから、固定された位置での固定された認識範囲の座標内での位置情報を取得することができないため、解析部1410は、動作情報収集部10に対する対象者の相対位置を算出し、算出した相対位置と、移動距離記憶部1307に格納した動作情報収集部10の移動距離とから、床に対する対象者の位置を算出する。
【0236】
ここで、
図35の上側の図は、時間「t0」における対象者と動作情報収集部10の状態を示し、
図35の下側の図は、時間「t1」における対象者と動作情報収集部10の状態を示す。例えば、解析部1410は、
図35の上側の図に示すように、歩行開始時「t0」における骨格情報に基づいて、対象者の所定の部位の動作情報収集部10に対する相対位置(図中、センサに対応する見た目上の座標)を算出する。一例を挙げると、解析部1410は、
図35の上側の図に示すように、対象者の腰に対応する関節「2c」の動作情報収集部10に対する相対位置「Z_t0(2c)=3.0m」、左足首に対応する関節「2s」の動作情報収集部10に対する相対位置「Z_t0(2s)=2.9m」、及び、右足首に対応する関節「2o」の動作情報収集部10に対する相対位置「Z_t0(2o)=3.1m」をそれぞれ算出する。
【0237】
そして、解析部1410は、
図35の下側の図に示すように、時刻「t1」における骨格情報に基づいて、対象者の腰に対応する関節「2c」の動作情報収集部10に対する相対位置「Z_t1(2c)=3.1m」、左足首に対応する関節「2s」の動作情報収集部10に対する相対位置「Z_t1(2s)=3.2m」、及び、右足首に対応する関節「2o」の動作情報収集部10に対する相対位置「Z_t1(2o)=2.9m」をそれぞれ算出する。
【0238】
そして、解析部1410は、「t1」に対応する移動距離を移動距離記憶部1307から読み出して、算出した各部位の相対位置の情報と、動作情報収集部10の移動距離とに基づいて、床に対する対象者の位置を算出する。例えば、解析部1410は、「t1」における動作情報収集部10(図中のセンサ)の移動距離「A=2.5」を読み出し、以下のように、床に対する対象者の位置を算出する。
【0239】
例えば、解析部1410は、対象者の移動前後の相対位置の差分に動作情報収集部10の移動距離を加算することで、床に対する対象者の位置を算出する。一例を挙げると、上述した腰に対応する関節「2c」の場合、解析部1410は、関節「2c」のz座標の位置を「B_t1(2c)=(Z_t0(2c)−Z_t1(2c))+A=(3.0−3.1)+2.5=2.4m」と算出する。すなわち、解析部1410は、「t1」の時点の対象者の腰の関節「2c」のz軸座標の値を「2.4m」と算出する。ここで、「2.4m」は、歩行開始時点「t0」における「2c」のz座標の位置からの距離に相当する。
【0240】
同様に、解析部1410は、関節「2s」についても、z座標の位置を「B_t1(2s)=(Z_t0(2s)−Z_t1(2s))+A=(2.9−3.2)+2.5=2.2m」と算出する。また、解析部1410は、関節「2o」についても、z座標の位置を「B_t1(2o)=(Z_t0(2o)−Z_t1(2o))+A=(3.1−2.9)+2.5=2.7m」と算出する。
【0241】
このように、解析部1410は、動作情報が収集された各フレームについて、移動機構30の移動方向と同一軸における対象者の各部位の座標を算出する。なお、y軸の座標に関しては、移動機構30の位置(床に対する動作情報収集部10の認識範囲の位置)に関係なく、動作情報収集部10によって収集された値を用いることができる。また、x軸の座標に関しても、移動機構30の移動に伴って、認識範囲のx軸方向の範囲がズレなければ、動作情報収集部10によって収集された値を用いることができる。
【0242】
そして、解析部1410は、算出した座標情報を用いて、対象者の移動動作に関する解析を実行する。例えば、解析部1410は、対象者が歩行訓練を実施していた場合に、対象者の足のz座標の変化から足の着地点を解析する。
図36は、第8の実施形態に係る解析部1410による歩行訓練の解析の一例を説明するための図である。例えば、解析部1410は、対象者の歩行訓練中の各フレームにおける左右の足のz座標の値をそれぞれ算出して、
図9に示すように、縦軸に奥行(m)、横軸に時刻をとったグラフを左右の足それぞれで生成する。
【0243】
そして、解析部1410は、
図36に示すグラフの左右の足それぞれにおいて、時刻経過に伴う奥行の変化がない時点に足が床に着地していると判定する。すなわち、解析部1410は、
図36の各足のグラフにおいて、単位時間あたりのz座標の値の変化が所定の閾値以下となっている時点を足が床についている時点と判定して、判定した時点(フレーム)の足の座標情報を足の着地点とする。ここで、判定に用いられる所定の閾値は、任意に設定される。
【0244】
なお、上述した例は、あくまでも一例であり、用いられる座標は上記した例に限られない。すなわち、関節「2s」及び「2o」のz座標だけではなく、例えば、関節「2t」及び「2p」のz座標、或いは、膝のz座標が用いられる場合であってもよい。また、単一の関節だけではなく、例えば、2つの関節のz座標の変化を用いて総合的に判定する場合であってもよい。また、解析部1410は、z座標だけではなく、例えば、y座標、又はx座標を用いて足の着地点を算出することも可能である。
【0245】
一例を挙げると、y座標を用いる場合には、解析部1410は、各関節におけるy座標の値(各関節の高さ)から足が地面についているか否かを判定する。すなわち、解析部1410は、関節のy座標の値が所定の閾値以下である場合に、足が地面についていると判定する。なお、所定の閾値は関節ごとに任意に設定される。また、x座標を用いる場合には、解析部1410は、x座標の値が略一定である場合に足が地面についていると判定する。すなわち、対象者が歩行している際に、地面に着いている側の足の関節のx座標の値の変化はほとんどないが、足が宙にういている場合には、x座標の値が小刻みに変化する。そこで、解析部1410は、x座標の値が略一定である場合に足が地面についていると判定する。
【0246】
また、座標について、複数の座標を総合的に用いて判定される場合であってもよい。例えば、z座標の変化とy座標の変化をそれぞれ解析して、それぞれの解析結果に基づいて、足が地面についたか否かを判定する場合であってもよい。また、各座標の値に対して、所定の係数を加える場合であってもよい。例えば、y座標の値に係数「α」を加えた上で、判定される場合であってもよい。
【0247】
また、上述したように、解析部1410は、足が着地したことを判定するだけではなく、足が浮いていることを判定することもできる。例えば、解析部1410は、z座標の単位時間当たりの値の変化が所定の閾値を超えている場合に、足が浮いていると判定する。また、例えば、解析部1410は、y座標の値が所定の閾値を超えている場合に、足が浮いていると判定する。また、例えば、解析部1410は、x座標の値が小刻みに変化している場合に、足が浮いていると判定する。そして、解析部1410は、浮いていると判定した足とは反対側の足が地面に着いていると判定する。例えば、解析部1410は、歩行中に右足が浮いていれば、左足は着地していると判定できる。また、予め地面の座標をシステムにインプットしておくことで、解析部1410は、足が地面の座標に近くなった場合に、着地していると判定することも可能である。
【0248】
上述したように、解析部1410は、足の着地点の位置(座標)を解析する。これにより、解析部1410は、例えば、解析した着地点の位置を基に、重複歩距離、歩幅、歩隔、歩数、歩行率、歩行時間、足が着地している時間などを解析する。すなわち、解析部1410は、着地点の座標を用いて、上記した種々の情報を解析する。ここで、解析部1410は、重複歩距離、歩幅、歩隔などを、歩行の方向を基準にして算出することが可能である。なお、「重複歩行距離」とは、片足が着地してから、再び着地するまでの距離を示す情報である。また、「歩幅」とは、対象者の歩行において右足(左足)の着地点から左足(右足)の着地点までの進行方向の距離を示す情報である。また、「歩隔」とは、対象者の歩行において右足(左足)の着地点から左足(右足)の着地点までの進行方向に直交する方向の距離を示す情報である。また、「歩数」とは、対象者が歩行訓練で歩いた歩数を示す情報である。また、「歩行率」とは、単位時間あたりの歩数を示す情報である。
【0249】
また、解析部1410は、床に対する対象者の各部位の位置(座標)を用いて、角度を解析することも可能である。例えば、解析部1410は、フレームごとの床に対する対象者の各部位の座標を用いて、所定の基準に対する対象者の体の所定の部位の角度を算出する。例えば、
図33に示す世界座標系の所定の空間(動作情報収集部10によって座標情報を収集することが可能な空間)において、z軸方向に沿った矢印の向きで対象者が歩行訓練を実行した場合に、解析部1410は、種々の角度を算出することが可能である。
【0250】
例えば、解析部1410は、xy平面における鉛直方向に対する頭に対応する関節「2a」から臀部の中央部に対応する関節「2d」までの軸(体軸)の角度を算出する。かかる場合には、解析部1410は、所定のフレームにおける頭に対応する関節「2a」における座標情報と、臀部の中央部に対応する関節「2d」の座標情報とを通過する直線を算出して、算出した直線とy軸と平行の直線とのなす角度を算出する。すなわち、解析部1410は、対象者を前方から見た場合の左右への角度(対象者にとって左右の角度)の度合いを算出する。
【0251】
また、例えば、解析部1410は、xz平面における水平方向に対する右肩に対応する関節「2e」から左肩に対応する関節「2i」までの軸の角度を算出する。かかる場合には、解析部1410は、所定のフレームにおける右肩に対応する関節「2e」における座標情報と、左肩に対応する関節「2i」の座標情報とを通過する直線を算出して、算出した直線とx軸と平行の直線とのなす角度を算出する。すなわち、解析部1410は、対象者を上方から見た場合の体軸を中心とする回転方向の体のブレの度合いを算出する。
【0252】
また、例えば、解析部1410は、yz平面における鉛直方向に対する頭に対応する関節「2a」から臀部の中央部に対応する関節「2d」までの軸(体軸)の角度を算出する。かかる場合には、解析部1410は、所定のフレームにおける頭に対応する関節「2a」における座標情報と、臀部の中央部に対応する関節「2d」の座標情報とを通過する直線を算出して、算出した直線とy軸と平行の直線とのなす角度を算出する。すなわち、解析部1410は、対象者を横から見た場合の左右への角度(対象者にとって前後の角度)の度合いを算出する。
【0253】
また、解析部1410は、所定の基準として対象者の体の一部を用いることも可能である。具体的には、解析部1410は、フレームごとに算出した床に対する対象者の各部位の位置を用いて、対象者の体の一部に対する対象者の体の所定の部位の角度を算出する。例えば、
図33に示すように、世界座標系の所定の空間(動作情報収集部10によって座標情報を収集することが可能な空間)において、z軸方向に沿った矢印の向きで対象者が歩行訓練を実行した場合に、解析部1410は、右肩に対応する関節「2e」と右肘に対応する関節「2f」とを結ぶ骨に対する右肘に対応する関節「2f」と右手首に対応する関節「2g」とを結ぶ骨の角度を算出する。すなわち、解析部1410は、歩行動作中の対象者の右腕(右肘)の角度を解析する。かかる場合には、解析部1410は、所定のフレームにおける関節「2e」における座標情報と、関節「2f」の座標情報とを通過する直線を算出する。さらに、解析部1410は、関節「2f」の座標情報と、関節「2g」の座標情報とを通過する直線を算出する。そして、解析部1410は、算出した2本の直線のなす角度を算出する。
【0254】
また、解析部1410は、対象者の各部位における速度を解析することもできる。例えば、解析部1410は、速度を解析する場合には、所定時間(例えば、0.5秒)ごとに、床に対する対象者の所定の部位の座標が移動した移動距離[m]を算出する。そして、解析部1410は、算出した所定時間当たりの移動距離に基づいて、対象者の移動速度[m/秒]を所定時間ごとに算出する。ここで、解析部1410は、歩行訓練を行っている間の対象者の移動速度の平均値を、対象者が歩く速度として算出することも可能である。一例を挙げると、解析部1410は、操作者が入力部120を介して指示した部位(例えば、いずれかの関節、或いは、各関節から導出される体の部位)の移動速度を算出する。また、解析部1410は、算出した速度を用いて加速度を算出する。具体的には、解析部1410は、上述した手法により算出した単位時間あたりの速度を用いて、加速度(単位時間あたりの速度の変化率)を算出する。
【0255】
上述したように、解析部1410は、フレームごとの床に対する対象者の各部位の座標情報を用いて、種々の解析を実行する。ここで、解析部1410は、上述した解析を自動で実行してもよく、或いは、操作者による操作のもと実行する場合であってもよい。また、解析部1410は、解析結果を用いて、対象者の歩行が所定の基準を満たす歩行(安定した歩行)であるか否かを判定することも可能である。また、解析部1410は、操作者による操作のもと実行する解析として、距離の測定などを実行することもできる。
【0256】
図32に戻って、表示制御部1411は、動作情報収集部10によって収集された情報や、解析部1410による解析結果などを出力部110にて出力させる。例えば、表示制御部1411は、動作情報収集部10によって収集されたカラー画像情報や、解析部1410によって解析された歩行訓練の解析結果などを出力部110にて出力させる。
【0257】
次に、
図37を用いて、第8の実施形態に係る動作情報処理装置100bの処理について説明する。
図37は、第8の実施形態に係る動作情報処理装置100bによる処理の手順を示すフローチャートである。
【0258】
図37に示すように、第8の実施形態に係る動作情報処理装置100bにおいては、移動動作が開始されると、取得部1408が、移動動作を実行した対象者の動作情報をセンサから取得する(ステップS301)。すなわち、取得部1408は、動作情報収集部10としてのセンサによって収集された動作情報を動作情報記憶部1306から取得する。
【0259】
そして、解析部1410は、センサの移動距離を算出して(ステップS302)、対象者の動作情報を用いて、センサに対する相対距離を各時間(各フレーム)で算出する(ステップS303)。その後、解析部1410は、算出した相対距離及びセンサの移動距離に基づいて、床に対する対象者の位置を算出する(ステップS304)。
【0260】
そして、解析部1410は、フレームごとの床に対する対象者の位置に基づいて、動作情報を解析する(ステップS305)。例えば、解析部1410は、歩行訓練を実施する対象者の歩行動作について、各種解析を実行する。
【0261】
上述したように、第8の実施形態によれば、取得部1408は、移動動作を実行する対象者に対して所定の位置から収集された当該対象者の動作情報を取得する。解析部1410は、取得部1408によって取得された動作情報に基づいて、対象者の移動動作を解析する。従って、第8の実施形態に係る動作情報処理装置100bは、移動動作を実行している対象者に対して、常に所定の位置から動作情報を取得することができ、移動動作を実行する対象者に対して安定した支援を行なうことを可能にする。その結果、第8の実施形態に係る動作情報処理装置100bは、リハビリテーションに対する医師や理学療法士などの評価をより精度よく行うことを可能にする。
【0262】
また、第8の実施形態によれば、取得部1408は、対象者の動作情報を収集する動作情報収集部10の認識範囲内に移動動作を実行する対象者が入り続けるように移動機構30によって位置が変化された動作情報収集部10によって収集された対象者の動作情報を取得する。そして、解析部1410は、取得部1408によって取得された移動動作を実行する対象者の動作情報、及び、動作情報収集部10の位置の変化量に基づいて、対象者の移動動作を解析する。従って、第8の実施形態に係る動作情報処理装置100bは、常に精度の高い動作情報を取得することができ、より安定した支援を行なうことを可能にする。例えば、歩行訓練においては、動作情報収集部10の認識範囲が長く、精度が一定な歩行訓練支援機能を提供し、歩行訓練において臨床上有用な評価を可能とする。
【0263】
また、第8の実施形態によれば、解析部1410は、取得部1408によって取得された経時的な動作情報を用いて動作情報収集部10との相対位置を算出し、算出した相対位置及び動作情報収集部10の位置の変化量に基づいて、対象者の移動動作を解析する。従って、第8の実施形態に係る動作情報処理装置100bは、動作情報収集部10が位置を移動した場合であっても、正確な解析を実行することを可能にする。
【0264】
また、第8の実施形態によれば、動作情報収集部10の位置の変化量は、動作情報収集部10の加速度、移動機構30に備えられた車輪又はモータの回転数、又は、移動機構30に備えられた無線装置によって算出される。従って、第8の実施形態に係る動作情報処理装置100bは、種々の状況において、移動動作を実行する対象者に安定した支援を行なうことを可能にする。
【0265】
(第9の実施形態)
上述した第8の実施形態においては、動作情報収集部10が移動機構30に乗せられ、対象者の移動に応じて、位置を移動する場合について説明した。第9の実施形態は、動作情報収集部10が位置を移動せずに移動動作を実行する対象者を支援する場合について説明する。第9の実施形態においては、移動機構30と、移動機構制御部1409及び解析部1410の処理の内容とが第8の実施形態と異なる。以下、これらを中心に説明する。
【0266】
図38は、第9の実施形態に係る移動機構30の一例を示す図である。例えば、第9の実施形態に係る移動機構30は、
図38に示すように、動く床である。そして、第9の実施形態に係る移動機構制御部1409は、
図38に示す移動機構(動く床)30を所定の速度で動かすように制御する。すなわち、移動機構制御部1409は、
図38に示すローラを所定の速度で回転させることで、対象者が移動動作を実行する床を所定の速度で移動させる。なお、床の速度は任意の速度で移動させることができ、対象者に応じて種々調整される。
【0267】
そして、第9の実施形態に係る取得部1408は、対象者に対して所定の範囲内で移動動作を実行させる移動機構30(例えば、動く床など)において移動動作を実行する対象者から所定の距離で収集された当該対象者の動作情報を取得する。例えば、動作情報収集部10が、動く床の上で歩行訓練を実施する対象者に対して所定の位置に配置され、当該対象者の動作情報を収集して、動作情報記憶部1306に格納する。そして、取得部1408は、動作情報記憶部1306に記憶された動作情報を取得する。
【0268】
そして、第9の実施形態に係る解析部1410は、取得部1408によって取得された移動動作を実行する対象者の動作情報、及び、動く床の移動量に基づいて、対象者の移動動作を解析する。例えば、解析部1410は、
図38に示すように、移動機構(動く床)30のローラの回転数などから床の移動距離Aを算出する。そして、解析部1410は、各フレームの対象者の座標情報と、算出した移動距離Aとを用いて、第8の実施形態と同様に対象者の位置を算出する。すなわち、解析部1410は、対象者が実際の床で歩行訓練を実施した場合の床に対する対象者の位置と同様の世界座標系における対象者の座標を算出する。
【0269】
そして、解析部1410は、算出した世界座標系における対象者の座標を用いて、上述したように、移動動作における種々の解析を実行する。すなわち、解析部1410は、歩行に関する解析や、対象者の角度、速度などの解析を実行する。
【0270】
上述したように、第9の実施形態によれば、取得部1408は、対象者に対して所定の範囲内で移動動作を実行させる移動機構(例えば、動く床など)30において移動動作を実行する対象者から所定の距離で収集された当該対象者の動作情報を取得する。従って、第9の実施形態に係る動作情報処理装置100bは、限られたスペースで移動動作を実行する対象者の動作情報を精度よく取得することを可能にする。
【0271】
また、第9の実施形態によれば、取得部1408は、動く床のうえで移動動作を実行する対象者の動作情報を取得する。そして、解析部1410は、取得部1408によって取得された移動動作を実行する対象者の動作情報、及び、動く床の移動量に基づいて、対象者の移動動作を解析する。従って、第9の実施形態に係る動作情報処理装置100bは、限られたスペースでの移動動作を容易に実行させることを可能にする。
【0272】
(第10の実施形態)
さて、これまで第8及び第9の実施形態について説明したが、上述した第8及び第9の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
【0273】
上述した第8の実施形態においては、動作情報収集部10を乗せた移動機構30が対象者の前を移動する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、移動機構30が対象者と並んで移動する場合であってもよい。かかる場合には、例えば、歩行訓練を実施する対象者は、動作情報収集部10に認識範囲においてx軸に沿って歩行することとなる。したがって、例えば、移動機構制御部142が、対象者の中心の位置(例えば、腰に対応する関節「2c」など)がx軸の「0」となる(認識範囲のx軸方向の中心の位置となる)ように、移動機構30を制御する。そして、解析部1410は、移動機構30の移動距離を算出する。さらに、解析部1410は、フレームごとに、対象者のx軸の「0」からのズレを算出し、異なる時点の2つのフレームにおけるズレと、移動距離とを用いて、床に対する対象者の位置(座標)を算出する。
【0274】
上述した第8の実施形態では、移動機構30が平らな面を移動して、揺れなどが発生しない場合について説明したが、実施形態はこれに限定されるものではなく、例えば、凹凸のある面を移動して揺れなどが発生する場合であっても適用することが可能である。例えば、移動機構30がちょっとした障害物などにより凹凸のある面を移動した場合や、自走による揺れが生じた場合などにおいては、動作情報である座標がすべての軸でぶれてしまう場合がある。そこで、第10の実施形態に係る動作情報処理装置100bは、移動機構30を用いたことによる軸のぶれを解消・微調整する。
【0275】
具体的には、第10の実施形態に係る解析部1410は、基準位置の座標に基づいて、移動中の移動機構30の座標のぶれを算出し、算出したぶれに基づいて、動作情報の座標を補正する。例えば、解析部1410は、歩行動作が実行される際の移動機構30の自走開始時のある位置の座標を基準として、動作情報が収集された各時点の当該位置の座標のぶれを算出する。すなわち、解析部1410は、自走開始時からどの方向へどの程度の速度で移動したかに基づいて、各時点における座標のぶれを算出する。そして、解析部1410は、算出したぶれに基づいて、収集された動作情報の座標を補正する。これにより、より精度の高い動作情報を収集することができる。
【0276】
上述した第8の実施形態では、動作情報処理装置100bが、移動動作を実行する対象者の動作情報を取得して、移動動作を解析する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、各処理がネットワーク上のサービス提供装置によって実行される場合であってもよい。
【0277】
図39は、第10の実施形態に係るサービス提供装置に適用される場合の一例を説明するための図である。
図39に示すように、サービス提供装置200は、サービスセンタ内に配置され、例えば、ネットワーク5を介して、医療機関や、自宅、職場に配置される端末装置300とそれぞれ接続される。医療機関、自宅及び職場に配置された端末装置300は、動作情報収集部10及び移動機構30がそれぞれ接続される。そして、各端末装置300は、サービス提供装置200によって提供されるサービスを利用するクライアント機能を備える。
【0278】
サービス提供装置200は、動作情報処理装置100bと同様の処理をサービスとして端末装置300に提供する。すなわち、サービス提供装置200は、取得部1408と、解析部1410と同様の機能部を有する。そして、取得部1408と同様の機能部は、移動動作を実行する対象者に対して所定の位置から収集された当該対象者の動作情報を取得する。そして、解析部1410と同様の機能部は、取得部1408と同様の機能部によって取得された動作情報に基づいて、対象者の移動動作を解析する。なお、ネットワーク5には、有線又は無線を問わず、インターネット(Internet)、WAN(Wide Area Network)などの任意の種類の通信網を採用できる。
【0279】
また、上述した第8の実施形態における動作情報処理装置100bの構成はあくまでも一例であり、各部の統合及び分離は適宜行うことができる。例えば、動作情報記憶部1306と移動距離記憶部1307とを統合したり、解析部1410を、移動距離を算出する算出部と、移動動作を解析する移動情報解析部とに分離したりすることが可能である。
【0280】
また、第8の実施形態から第10の実施形態において説明した取得部1408、移動機構制御部1409、解析部1410及び表示制御部1411の機能は、ソフトウェアによって実現することもできる。例えば、取得部1408、移動機構制御部142、解析部1410及び表示制御部1411の機能は、上記の実施形態において取得部1408、移動機構制御部1409、解析部1410及び表示制御部1411が行うものとして説明した処理の手順を規定した医用情報処理プログラムをコンピュータに実行させることで、実現される。この医用情報処理プログラムは、例えば、ハードディスクや半導体メモリ素子等に記憶され、CPUやMPU等のプロセッサによって読み出されて実行される。また、この医用情報処理プログラムは、CD−ROM(Compact Disc − Read Only Memory)やMO(Magnetic Optical disk)、DVD(Digital Versatile Disc)などのコンピュータ読取り可能な記録媒体に記録されて、配布され得る。
【0281】
(第11の実施形態)
さて、これまで第1〜第10の実施形態について説明したが、上述した第1〜第10の実施形態以外にも、種々の異なる形態にて実施されてよいものである。例えば、上述した第1〜第10の実施形態では、第1〜第4の実施形態において、リハビリを実行する対象者の詳細な動作の情報を取得する動作情報処理装置について説明し、第5〜第7の実施形態において、リハビリを実行する対象者の精密な情報を取得する動作情報処理装置について説明し、第8〜10の実施形態において、移動動作を実行する対象者に対して安定した支援を行う動作情報処理装置について説明した。しかしながら、本願に係る動作情報処理装置は、各実施形態で説明した構成及び処理を任意に組み合わせて行うことが可能である。
【0282】
例えば、複数の動作情報を同期させた単一の表示情報として観察者に提供するとともに、動作情報に同期させた対象者情報を提供することも可能である。かかる場合には、例えば、動作情報処理装置は、
図1に示すように複数の動作情報収集部が接続され、さらに、
図20に示すように対象者情報収集部が接続される。そして、動作情報収集部は、
図5に示す各部と、
図22に示す各部とを有し、複数の動作情報と対象者情報とを同期させた表示情報を生成して表示する。すなわち、動作情報処理装置においては、装置に含まれる位置算出部が複数の動作情報収集部によって生成された各動作情報を同期させ、さらに、装置に含まれる表示情報生成部が動作情報と対象者情報とを関連付けた(同期させた)表示情報を生成して、表示部に表示する。なお、上記した動作情報処理装置は、装置に含まれる解析部によって解析された解析結果をさらに関連付けた(同期させた)表示情報を生成して表示することも可能である。
【0283】
また、例えば、複数の動作情報を同期させるとともに、複数の動作情報収集部を移動機構で移動させるようにすることも可能である。かかる場合には、例えば、動作情報処理装置は、
図1に示すように複数の動作情報収集部が接続され、さらに、
図31に示すように移動機構が接続される。そして、動作情報収集部は、
図5に示す各部と、
図32に示す各部とを有し、移動機構によって移動される複数の動作情報収集部によって生成される各動作情報を同期させた表示情報を生成して表示する。すなわち、動作情報処理装置においては、装置に含まれる移動機構制御部が複数の動作情報収集部と対象者との距離が一定となるように複数の移動機構を制御し、装置に含まれる位置算出部が複数の動作情報収集部によって生成された各動作情報を同期させた表示情報を生成して、表示部が表示情報を表示する。
【0284】
また、例えば、移動機構によって移動される動作情報収集部によって生成される各動作情報と、対象者情報とを関連づけた(同期させた)表示情報を生成して表示することも可能である。かかる場合には、例えば、動作情報処理装置は、
図20に示すように動作情報収集部と、対象者情報収集部とが接続され、さらに、
図31に示すように移動機構が接続される。そして、動作情報収集部は、
図20に示す各部と、
図32に示す各部とを有し、移動機構によって移動される動作情報収集部によって生成される各動作情報と、対象者情報とを関連づけた(同期させた)表示情報を生成して表示する。すなわち、動作情報処理装置においては、装置に含まれる移動機構制御部が動作情報収集部と対象者との距離が一定となるように移動機構を制御し、装置に含まれる表示情報生成部が動作情報と対象者情報とを関連付けた(同期させた)表示情報を生成して、表示部に表示する。
【0285】
また、例えば、複数の移動機構によって移動される複数の動作情報収集部によって生成される複数の動作情報を同期させ、さらに、対象者情報と関連づけた(同期させた)表示情報を生成して表示することも可能である。かかる場合には、例えば、動作情報処理装置は、複数の動作情報収集部と、対象者情報収集部と、複数の移動機構とが接続され、
図5、
図22、
図32に示される各部を有し、各移動機構によって移動される動作情報収集部それぞれによって生成される複数の動作情報を同期させ、さらに、対象者情報と関連づけた(同期させた)表示情報を生成して表示する。なお、本願に係る動作情報処理装置は、上述した構成及び処理の組み合わせだけでなく、その他の構成及び処理を種々組み合わせることが可能である。
【0286】
なお、上述した第1の実施形態〜第10の実施形態でリハビリは、日本整形外科学会などで規定されたものだけでなく、その他種々の団体によって規定されたものの場合であってもよい。例えば、「International Society of Orthopaedic Surgery and Traumatology(SICOT):国際整形外科学会」、「American Academy of Orthopaedic Surgeons(AAOS):米国整形外科学会」、「European Orthopaedic Research Society(EORS):欧州整形外科学研究会」、「International Society of Physical and Rehabilitation Medicine (ISPRM) :国際リハビリテーション医学会」、「American Academy of Physical Medicine and Rehabilitation(AAPM&R):米国物理療法リハビリテーション学会」などによって規定されたリハビリの場合であってもよい。
【0287】
以上説明したとおり、第1〜第11の実施形態によれば、本実施形態の動作情報処理装置は、リハビリを実行する対象者に対して有効な支援を行うことを可能にする。
【0288】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。