(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023040990
(43)【公開日】2023-03-23
(54)【発明の名称】リハビリテーション支援装置、その方法およびプログラム
(51)【国際特許分類】
A61H 1/02 20060101AFI20230315BHJP
【FI】
A61H1/02 C
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022035593
(22)【出願日】2022-03-08
(62)【分割の表示】P 2021148160の分割
【原出願日】2021-09-10
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 1.ウエブサイトの掲載日 令和3年5月25日 ウエブサイトのアドレス https://youtu.be/H7kS_qlXlQU 2.公開日 令和3年7月15日 刊行物 JOurnal of Clinical Rehabilitation 30巻8号2021年7月号 3.ウエブサイトの掲載日 令和3年8月6日 ウエブサイトのアドレス https://youtu.be/z6xUVFNttu8
(71)【出願人】
【識別番号】517147593
【氏名又は名称】株式会社mediVR
(74)【代理人】
【識別番号】100134430
【弁理士】
【氏名又は名称】加藤 卓士
(72)【発明者】
【氏名】原 正彦
【テーマコード(参考)】
4C046
【Fターム(参考)】
4C046AA13
4C046AA29
4C046AA30
4C046AA33
4C046AA45
4C046AA47
4C046BB02
4C046BB10
4C046CC01
4C046CC04
4C046DD01
4C046DD36
(57)【要約】
【課題】ユーザの身体機能の回復を効果的に実現すること。
【解決手段】ユーザの右側の身体の一部を3次元的にリハビリテーション動作させるための第1目標オブジェクトと、ユーザの左側の身体の一部をリハビリテーション動作させるための第2目標オブジェクトを仮想空間において生成し、ヘッドマウントディスプレイに表示させる表示制御部と、第1目標オブジェクトの生成と、第2目標オブジェクトの生成とが交互に行われるように設定するための設定部と、第1目標オブジェクトおよび第2目標オブジェクトに対するユーザの1回毎のリハビリテーション動作の達成を報知するフィードバック部と、を備えたリハビリテーション支援装置。
【選択図】
図1
【特許請求の範囲】
【請求項1】
ユーザの右側の身体の一部を3次元的にリハビリテーション動作させるための第1目標オブジェクトと、前記ユーザの左側の身体の一部をリハビリテーション動作させるための第2目標オブジェクトを仮想空間において生成し、ヘッドマウントディスプレイに表示させる表示制御部と、
前記第1目標オブジェクトの生成と、前記第2目標オブジェクトの生成とが交互に行われるように設定するための設定部と、
前記第1目標オブジェクトおよび前記第2目標オブジェクトに対する前記ユーザの1回毎のリハビリテーション動作の達成を報知するフィードバック部と、
を備えたリハビリテーション支援装置。
【請求項2】
前記設定部は、前記第1目標オブジェクトの、前記仮想空間内における奥行方向の生成位置および、前記第2目標オブジェクトの、前記仮想空間内における奥行方向の生成位置をそれぞれ設定可能な請求項1に記載のリハビリテーション支援装置。
【請求項3】
前記表示制御部は、
前記ユーザの右側の身体の一部を表す第1アバターオブジェクトと、前記ユーザの左側の身体の一部を表す第2アバターオブジェクトと、をさらに前記仮想空間において生成し、
前記第1アバターオブジェクトと前記第1目標オブジェクトとを同系色または同形状で生成し、
前記第2アバターオブジェクトと前記第2目標オブジェクトとを同系色または同形状で生成し、
前記第1アバターオブジェクトおよび前記第1目標オブジェクトの色または形状は、前記第2アバターオブジェクトおよび前記第2目標オブジェクトの色または形状と異なる請求項1または2に記載のリハビリテーション支援装置。
【請求項4】
ユーザの右側の身体の一部のリハビリテーション動作と、前記ユーザの左側の身体の一部のリハビリテーション動作とが交互に行われるように誘導する動作誘導部をさらに有する請求項1または2に記載のリハビリテーション支援装置。
【請求項5】
前記動作誘導部は、右、左を表す文字、色、または図形の表示、「みぎ」および「ひだり」を識別するための音声出力、あるいは前記ユーザが左右の手に持つコントローラの振動により、前記ユーザのリハビリテーション動作を誘導する請求項4に記載のリハビリテーション支援装置。
【請求項6】
上肢機能、歩行機能、体幹機能、バランス機能等の身体機能、認知機能、および感覚機能の少なくとも1つの機能を改善させる請求項1~5のいずれか1項に記載のリハビリテーション支援装置。
【請求項7】
前記フィードバック部は、フィードバックとして、視覚、聴覚、触覚、味覚、および嗅覚のうち、いずれか2つの感覚を同時に刺激する請求項1~6のいずれか1項に記載のリハビリテーション支援装置。
【請求項8】
表示制御部が、ユーザの右側の身体の一部を3次元的にリハビリテーション動作させるための第1目標オブジェクトと、前記ユーザの左側の身体の一部をリハビリテーション動作させるための第2目標オブジェクトを仮想空間において生成し、ヘッドマウントディスプレイに表示させる表示制御ステップと、
設定部が、前記第1目標オブジェクトの生成と、前記第2目標オブジェクトの生成とが交互に行われるように設定するための設定ステップと、
フィードバック部が、前記第1目標オブジェクトおよび前記第2目標オブジェクトに対する前記ユーザの1回毎のリハビリテーション動作の達成を報知するフィードバックステップと、
を含むリハビリテーション支援方法。
【請求項9】
ユーザの右側の身体の一部を3次元的にリハビリテーション動作させるための第1目標オブジェクトと、前記ユーザの左側の身体の一部をリハビリテーション動作させるための第2目標オブジェクトを仮想空間において生成し、ヘッドマウントディスプレイに表示させる表示制御ステップと、
前記第1目標オブジェクトの生成と、前記第2目標オブジェクトの生成とが交互に行われるように設定するための設定ステップと、
前記第1目標オブジェクトおよび前記第2目標オブジェクトに対する前記ユーザの1回毎のリハビリテーション動作の達成を報知するフィードバックステップと、
をコンピュータに実行させるリハビリテーション支援プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、リハビリテーション支援装置、その方法およびプログラムに関する。
【背景技術】
【0002】
上記技術分野において、特許文献1には、患者のリハビリテーションを支援する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【非特許文献】
【0004】
【非特許文献1】Laver KE, et al: Virtual reality for stroke rehabilitation. Cochrane Database Syst Rev 11:CD008349, 2017
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、上記特許文献1に記載の技術では、段落0013に、「治療の進捗、すなわち運動機能の回復を直観的に把握したり、必要に応じて現在の動作に反映させたりできる。」と書かれているものの、このような技術では非特許文献1に記載の通り身体機能の回復を効果的に行うことはできなかった。
【0006】
本発明の目的は、上述の課題を解決する技術を提供することにある。
【課題を解決するための手段】
【0007】
上記目的を達成するため、本発明に係る装置は、
ユーザの右側の身体の一部を3次元的にリハビリテーション動作させるための第1目標オブジェクトと、前記ユーザの左側の身体の一部をリハビリテーション動作させるための第2目標オブジェクトを仮想空間において生成し、ヘッドマウントディスプレイに表示させる表示制御部と、
前記第1目標オブジェクトの生成と、前記第2目標オブジェクトの生成とが交互に行われるように設定するための設定部と、
前記第1目標オブジェクトおよび前記第2目標オブジェクトに対する前記ユーザの1回毎のリハビリテーション動作の達成を報知するフィードバック部と、
を備えたリハビリテーション支援装置である。
【0008】
上記目的を達成するため、本発明に係る方法は、
表示制御部が、ユーザの右側の身体の一部を3次元的にリハビリテーション動作させるための第1目標オブジェクトと、前記ユーザの左側の身体の一部をリハビリテーション動作させるための第2目標オブジェクトを仮想空間において生成し、ヘッドマウントディスプレイに表示させる表示制御ステップと、
設定部が、前記第1目標オブジェクトの生成と、前記第2目標オブジェクトの生成とが交互に行われるように設定するための設定ステップと、
フィードバック部が、前記第1目標オブジェクトおよび前記第2目標オブジェクトに対する前記ユーザの1回毎のリハビリテーション動作の達成を報知するフィードバックステップと、
を含むリハビリテーション支援方法である。
【0009】
上記目的を達成するため、本発明に係るプログラムは、
ユーザの右側の身体の一部を3次元的にリハビリテーション動作させるための第1目標オブジェクトと、前記ユーザの左側の身体の一部をリハビリテーション動作させるための第2目標オブジェクトを仮想空間において生成し、ヘッドマウントディスプレイに表示させる表示制御ステップと、
前記第1目標オブジェクトの生成と、前記第2目標オブジェクトの生成とが交互に行われるように設定するための設定ステップと、
前記第1目標オブジェクトおよび前記第2目標オブジェクトに対する前記ユーザの1回毎のリハビリテーション動作の達成を報知するフィードバックステップと、
をコンピュータに実行させるリハビリテーション支援プログラムである。
【発明の効果】
【0010】
本発明によれば、ユーザの身体機能の回復を効果的に実現できる。
【図面の簡単な説明】
【0011】
【
図1】第1実施形態に係るリハビリテーション支援装置の構成を示すブロック図である。
【
図2】第2実施形態に係るリハビリテーション支援システムの構成を示すブロック図である。
【
図3】第2実施形態に係るリハビリテーション支援システムの操作パネル画面の一例を示す図である。
【
図4】第2実施形態に係るリハビリテーション支援システムのタスクデータテーブルの一例を示す図である。
【
図5】第2実施形態に係るリハビリテーション支援システムのヘッドマウントディスプレイでの表示画面の一例を示す図である。
【
図6】第2実施形態に係るリハビリテーション支援システムのヘッドマウントディスプレイでの表示画面の一例を示す図である。
【
図7】第2実施形態に係るリハビリテーション支援システムのヘッドマウントディスプレイでの表示画面の一例を示す図である。
【
図8】第2実施形態に係るリハビリテーション支援システムのヘッドマウントディスプレイでの表示画面の一例を示す図である。
【
図9】第2実施形態に係るリハビリテーション支援システムの処理の流れを示すフローチャートである。
【
図10】第2実施形態に係るリハビリテーション支援システムによるリハビリの結果を示すデータである。
【発明を実施するための形態】
【0012】
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
【0013】
[前提技術]
これまでの上肢リハビリテーションは患側(麻痺側)に対する集中的なトレーニングを行うという方法論が一般的であった。例えばCI療法(constraint-induced movement therapy)や促通反復療法(川平法)、あるいはロボット機器を使うものとして上肢用ロボット型運動訓練装置 ReoGo-J(https://medical.teijin-pharma.co.jp/zaitaku/product/reogo-j/)、ロボットスーツの単関節HAL(https://www.cyberdyne.jp/products/SingleJoint.html)の形状からも患側(麻痺側)上肢を集中的にトレーニングする装置であることが明らかである。
【0014】
[第1実施形態]
本発明の第1実施形態としてのリハビリテーション支援装置100について、
図1を用いて説明する。
【0015】
図1に示すように、リハビリテーション支援装置100は、表示制御部101と、設定部102と、フィードバック部103とを含む。
【0016】
表示制御部101は、ユーザ110の左側の身体の一部を3次元的にリハビリテーション動作させるための目標オブジェクト151と、ユーザ110の右側の身体の一部をリハビリテーション動作させるための目標オブジェクト152とを仮想空間において生成し、ヘッドマウントディスプレイ120に表示させる。
【0017】
設定部102は、目標オブジェクト151の生成と、目標オブジェクト152の生成とが交互に行われるように設定する。
【0018】
フィードバック部103は、目標オブジェクト151および目標オブジェクト152に対するユーザの1回毎のリハビリテーション動作の達成を報知する。
【0019】
以上の構成により、脳の可塑性を最大限に刺激し、脳の運動学習、認知学習、感覚学習を大きく効率化することが可能となる。
【0020】
[第2実施形態]
本発明の第2実施形態に係るリハビリテーション支援システム200について、
図2を用いて説明する。
図2は、本実施形態に係るリハビリテーション支援システム200の構成を説明するための図である。本実施形態に係るリハビリテーション支援システム200は、上肢機能、歩行機能、体幹機能やバランス機能等の身体機能、認知機能(空間認知や注意機能を含む)、および感覚機能(内耳、前庭系や触覚、温痛覚、位置覚、深部感覚を含む)の少なくとも1つの機能を改善させる。
【0021】
図2に示すように、リハビリテーション支援システム200は、リハビリテーション支援装置210と、2つのベースステーション231、232と、ヘッドマウントディスプレイ233と、2つのコントローラ234、235とを備える。ユーザ220は、椅子221に座りながら、ヘッドマウントディスプレイ233の表示に合わせて、上半身をねじったり、手を伸ばしたりすることでリハビリテーション動作を行なう。本実施形態では、椅子に座って行なうリハビリテーションを前提に説明するが、本発明はこれに限定されるものではなく、立って行なっても、歩きながら行っても、ベッド上で行っても、仰臥位や腹臥位で行っても、あるいは走りながら、またはその他特定の動作を行いながら行ってもよい。また、コントローラは足や体幹等、手以外の体の部位に保持、装着してもよい。
【0022】
2つのベースステーション231、232は、ヘッドマウントディスプレイ233の動きおよびコントローラ234、235の動きを検知して、リハビリテーション支援装置210に送る。リハビリテーション支援装置210は、ヘッドマウントディスプレイ233の動きに基づいて、ヘッドマウントディスプレイ233の表示制御を行なう。また、コントローラ234、235の動きに基づいて、ユーザ220のリハビリテーション動作を評価する。なお、ヘッドマウントディスプレイ233としては、非透過タイプでも、ビデオシースルータイプでも、オプティカルシースルータイプでも、あるいは眼鏡型でも構わない。本実施形態ではVR(Virtual Reality)の仮想空間をユーザに提示するが、AR(Augmented Reality:拡張現実)のように、現実空間と仮想空間とを重畳表示してもよいし、MR(Mixed Reality:複合現実)のように、仮想空間に現実情報を反映させてもよいし、あるいはホログラム技術を代替手段として用いてもよい。
【0023】
本実施形態では、ユーザの手や頭の位置または動作を検出するためのセンサの一例として、ユーザ220が手に持つコントローラ234、235や、ベースステーション231、232を示しているが、本発明はこれに限定されるものではない。ユーザの"手そのものの位置"または動作を画像認識処理により検出するためのカメラ(深度センサを含む)や、温度によりユーザの手の位置を検出するためのセンサや、ユーザの腕に装着させる腕時計型のウェアラブル端末などや、モーションキャプチャなども、動作検出部211と連動することで本発明に適用可能である。つまり、キネクト(登録商標)等の三次元トラッキング装置や動作分析装置を用いたり、体にマーカー等を装着したりして行うことが一つの実施形態となる。
【0024】
リハビリテーション支援装置210は、動作検出部211、表示制御部212、213、フィードバック部214、評価更新部215、タスクセットデータベース216、設定部217、動作誘導部218を備える。
【0025】
動作検出部211は、ユーザ220が手に持つコントローラ234、235の位置をベースステーション231、232を介して取得し、ユーザ220の手の位置の変化によりユーザ220のリハビリテーション動作を検出する。
【0026】
表示制御部212は、3次元的な身体動作をユーザ220に促すための目標オブジェクト242a、242bを仮想空間240において生成し、表示する。特に、表示制御部212は、ユーザ220の左側の身体の一部を3次元的にリハビリテーション動作させるための目標オブジェクト242aと、ユーザ220の右側の身体の一部をリハビリテーション動作させるための目標オブジェクト242bを仮想空間240において生成する。
【0027】
表示制御部212は、目標オブジェクト242a、242bを仮想空間内に生成し、ユーザ220の上方向から下方に向けて移動させる。これにより、ヘッドマウントディスプレイ233においては、表示位置および大きさが徐々に変わるように(例えば徐々に大きくなり、その後小さくなるように)表示される。なお、目標オブジェクトの移動方向は、例えば床面方向から頭上方向へ上昇していくように表示させてもよく、上下方向の動きに加えて奥行き方向や左右方向への移動を含め、3次元的にどのような移動方法を伴ってもよいし、あるいは移動せずにある特定の座標位置に固定されていてもよい。
【0028】
さらに、表示制御部212は、検出したリハビリテーション動作に応じて動くアバターオブジェクト241a、241bを仮想空間内に生成する。アバターオブジェクト241aは、左手で操作するコントローラ234に対応して動くオブジェクトであり、ユーザの左側の身体の一部の位置を表す。アバターオブジェクト241bは、右手で操作するコントローラ235に対応して動くオブジェクトであり、ユーザの右側の身体の一部の位置を表す。
【0029】
アバターオブジェクト241a、241bおよび目標オブジェクト242a、242bの画像を、動作検出部211が検出したヘッドマウントディスプレイ233の向きおよび位置に応じて、表示画面240に表示させる。アバターオブジェクト241a、241bおよび目標オブジェクト242a、242bの画像は、背景画像243に重畳表示される。ここでは、アバターオブジェクト241a、241bは、コントローラ234、235と同じ形状をしているがこれに限定されるものではなく、さらに左右で大きさや形状、色を変えたりしてもよい。コントローラ234、235には1つ以上のボタンが用意されており、ボタンを操作することにより原点設定などの初期設定を含む各種設定を行うことができるように構成されているが、ボタン機能を無効にしたり、ボタンそのものを配置しないで、全ての設定を別途外部の操作部を用いて実行するように構成してもよい。背景画像243は、地平線244と、地表面画像245とを含んだ仮想空間から切り出したものである。
【0030】
表示制御部212は、右側の身体の一部の位置を示すアバターオブジェクトと、その右側のアバターオブジェクトの目標位置を示す目標オブジェクトとを同系色または同形状で生成する。また、表示制御部212は、左側の身体の一部の位置を示すアバターオブジェクトと、その左側のアバターオブジェクトの目標位置を示す目標オブジェクトとを同系色または同形状で生成する。また、左側アバターオブジェクトと左目標オブジェクトの色または形状は、右側アバターオブジェクトおよび右目標オブジェクトの色または形状と異なるように設定することが望ましい。ただし、同側だとしてもアバターオブジェクトと目標オブジェクトを必ずしも同系色や同形状に設定する必要はなく、あるいは右側と左側で色を分ける必然性もない。このあたりはユーザの使用感に応じていかように設定してもよい。
【0031】
ここでは、例としてアバターオブジェクト241a、241bは例えば青と赤で色分けされており、目標オブジェクト242a、242bも、青と赤に色分けされている。青い目標オブジェクト242aには、青いアバターオブジェクト241aを接触させることによりタスク達成となる。同様に赤い目標オブジェクト242bには、赤いアバターオブジェクト241bを接触させることによりタスク達成となる。すなわち、異なる色のアバターオブジェクトを接触させてもタスク達成とはならない。ここでは青と赤に色分けすることを例として示しているが、色盲のユーザ向けに、他の色分け(黄色と緑など)で表示してもよいし、あるいは色を用いずに形状や、「左」「右」、「L(Left)」「R(Right)」といったように言語的な表記、あるいは星印や三角印や○?のように記号を表記したり、図中の242a、242bのように異なる模様(ストライプ)を表記することで区別できるようにしてもよい。
【0032】
動作誘導部218は、ユーザの右側の身体の一部のリハビリテーション動作と、ユーザの左側の身体の一部のリハビリテーション動作とが交互に行われるように誘導する。具体的には、動作誘導部218は、右、左を表す文字、色、または図形の表示、「みぎ」および「ひだり」を識別するための音声出力、あるいは前記ユーザが左右の手に持つコントローラの振動を用いた触覚刺激や、肩や腕を触る、叩く等の方法により、ユーザのリハビリテーション動作を誘導する。
【0033】
アバターオブジェクト241a、241bが目標オブジェクト242a、242bにぶつかると、表示制御部212は目標オブジェクト242a、242bを消滅させ、フィードバック部214は、目標動作が達成されたとして、目標動作の達成を報知、あるいは知らせる目的でメッセージを表示して視覚的なフィードバックを行う。
【0034】
すなわちフィードバック部214は、目標オブジェクト242a、目標オブジェクト242bに対するユーザ220の1回毎のリハビリテーション動作の達成をそれぞれ報知する。ここでの報知の方法は、様々な方法が考えられる。表示画面内に「あっぱれ」「お見事」といった文字を一時的に表示させて、目標動作の達成具合をユーザに知らせてもよいし、同様の音声や効果音を用いて、目標動作の達成具合をユーザに教えてもよい。さらには、同時にコントローラ234、235のうち、目標オブジェクトに接触するための動きを行ったコントローラのみを振動させて、目標動作の達成具合をユーザに通知してもよい。あるいは、達成の報知は、例えば完全な達成、不完全な達成、達成できずといったように段階付けをして、達成の程度、達成具合を報知してもよい。
【0035】
例えば、アバターオブジェクト241に含まれるセンサオブジェクトと目標オブジェクト242a、242bとの最短距離が所定範囲内になると、目標達成となり、目標オブジェクト242a、242bは消滅する。このとき、アバターオブジェクト241a、241bに含まれるセンサオブジェクト(例えば、アバターオブジェクト241a、241bの先端部中心点を含む球体オブジェクト)と目標オブジェクト242a、242bとの最短距離が閾値以下になれば目標の完全達成として例えば「あっぱれ」と表示すると同時に対応する音声を出力してフィードバックする。このような複数の異なる感覚を刺激するフィードバックをマルチチャネルバイオフィードバックと呼ぶ。同時にコントローラ234,235を振動させてもよいし、嗅覚や味覚に対して刺激を与えてもよい。つまり、フィードバック部214は、フィードバックとして、視覚、聴覚、触覚、味覚、および嗅覚の5感うち、いずれか2つの感覚を同時に刺激することができる。この感覚刺激はいずれか3つを組み合わせてもよいし、4つを組み合わせても、あるいは全てを刺激してもよい。
【0036】
センサオブジェクトと目標オブジェクト242a、242bとの距離がどこまで縮まったかによってリハビリテーション動作を3段階以上に分けて評価してもよい。また、目標オブジェクトを同時に仮想空間内に2つ以上生成し、表示してもよい。
【0037】
表示制御部213は、レーダスクリーン画像250をヘッドマウントディスプレイ233の表示画面240に表示させる。レーダスクリーン画像250は、目標オブジェクト152の発生を報知するための報知画像である。レーダスクリーン画像250は、発生する目標オブジェクト242a、242bの位置が、仮想空間内の基準方向(ここでは椅子にまっすぐに腰掛けたユーザの正面方向となるように初期設定されている)に対して、相対的にどちらの方向であるかを報知する。レーダスクリーン画像250は、さらに、発生する目標オブジェクト242a、242bの位置が、ユーザ220からどの程度離れているかも報知する。なお、報知画像はレーダースクリーン画像に限定されず、文字や矢印、記号やイラスト、光や色の種類、強弱、点滅等によって報知されてもよい。また、報知方法は画像に限定されず、音声、振動または音声、振動、画像のいずれかの組み合わせによって行われてもよい。表示制御部213は、ユーザ220の頭の向きにかかわらず、レーダスクリーン画像250をヘッドマウントディスプレイ233の表示画面240の中央部分(例えば-50度~50度の範囲内)に表示させる。ただし表示部分は中央に限定されず、例えば画面の四隅や上端、下端、左端、右端の任意の場所でも構わない。
【0038】
レーダスクリーン画像250は、上方から見たユーザの頭を表わす頭画像251と、頭画像251の周囲を複数のブロックに分割したブロック画像252と、ユーザの視野領域を示す視野領域画像としての扇型画像253と、を含む。目標オブジェクトの位置を示す目標位置画像は、ブロック画像252のどのブロックが着色または点滅、点灯されるかによって示される。これにより、ユーザ220は、自分が向いている方向に対して左側に目標オブジェクトがあるのか、右側に目標オブジェクトがあるのかを、知ることができる。なお、本実施形態では、ブロック画像252が固定されて、扇型画像253が動く構成としているが、本発明はこれに限定されるものではなく、扇型画像253や頭画像251を固定しつつ、ブロック画像252を頭の向きに応じて動かしてもよい。具体的には頭が左に向けば、ブロック画像252が右に回転する構成でもよい。
【0039】
フィードバック部214は、表示制御部212を介して、メッセージ種別を、リハビリテーション動作の評価に応じて変化させることが好ましい。例えば、センサオブジェクトが目標オブジェクト242a、242bの中心に接触すれば、「あっぱれ」と表示し、センサオブジェクトが目標オブジェクト242a、242bの中心の周囲部分のみに接触すれば「おみごと」と表示するなどである。この目標オブジェクト242a、242bの大きさや、周囲部分の大きさは、設定部217により設定可能である。また、センサオブジェクトの大きさも設定部217により設定可能である。アバターオブジェクト241a、241bに含まれるセンサオブジェクトと目標オブジェクト242a、242bとの最短距離が第1閾値以下であれば、目標の完全達成として「あっぱれ」と表示すると同時に対応する音声「あっぱれ」を出力してフィードバックし、アバターオブジェクト241a、241bに含まれるセンサオブジェクトと目標オブジェクト242a、242bとの最短距離が第1閾値以上第2閾値以下であれば、目標の達成として「おみごと」と表示すると同時に対応する音声「おみごと」を出力してフィードバックすればよい。なお、出力される音声はメッセージを同一のものでなくてもよく、例えば「ピローン」というような非言語的な効果音を用いてもよい。なお、このようにセンサオブジェクトと目標オブジェクトの接触に必要な距離を縮めていくほど、より精度の高い動作が要求されるため、脳はより正確で研ぎ澄まされた動作を運動指令として体に要求する必要がある。この脳のイメージ付けをフィードフォーワードと呼ぶ。すなわち、動作完了のために要求するセンサオブジェクトと目標オブジェクトの距離が小さいほど、より強力なフィードフォーワードが必要があり、このことによってユーザの運動や認知、感覚の負荷レベルを連続的に調整できる。
【0040】
フィードバック部214は、目標オブジェクト242a、242bに仮想的に触れたユーザに対して、五感(視覚、聴覚、触覚、味覚、嗅覚)のうち2つ以上の感覚を刺激するフィードバックを、センサオブジェクトが目標オブジェクト242a、242bの中心から所定距離内に入ったタイミング、または、センサオブジェクトが目標オブジェクト242a、242bと接触したタイミングとほぼ同時に行う(リアルタイムマルチチャネルバイオフィードバック)。それらのタイミングからフィードバックまでの遅延は、例えば1秒以内であれば効果が高く、ユーザの動作タイミングとフィードバックのタイミングとの間隔が近ければ近いほど(遅延が小さいほど)効果が大きい。フィードバック部214は、「あっぱれ!」という画像により、ユーザの視覚を刺激するフィードバックを行ないつつ、同時に、スピーカ236から出力する音声あるいは効果音により、ユーザの聴覚を刺激するフィードバックを行なう。五感刺激に対する課題達成の報知は、動作種別に応じて等、いかように組み合わせて行ってもよい。
【0041】
さらに、フィードバック部214は、「あっぱれ!」という画像でユーザ220の視覚を刺激するフィードバックと、スピーカ236から出力する音声でユーザ220の聴覚を刺激するフィードバックと、コントローラ234が振動することでユーザ220の触覚を刺激するフィードバックとを同時に出力させてもよい。また、フィードバック部214は、「あっぱれ!」という画像でユーザ220の視覚を刺激するフィードバックと、コントローラ234が振動することでユーザ220の触覚を刺激するフィードバックとの2種類のフィードバックのみを同時に出力させてもよい。あるいは、フィードバック部214は、「あっぱれ!」という音声でユーザ220の聴覚を刺激するフィードバックと、コントローラ234が振動することでユーザ220の触覚を刺激するフィードバックとの2種類のフィードバックのみを同時に出力させてもよい。
【0042】
このようにコントローラ234、235を動かすユーザ220の動作がリハビリテーション動作であり、ユーザ220が行なうべき1回のリハビリテーション動作を促す目標オブジェクトの表示をタスク、あるいは課題と呼ぶ。1つのタスクを表わす情報(タスクデータ)として、目標オブジェクトの出現方向(椅子の正面方向に対して右90度、右45度、正面、左45度、左90度)、目標オブジェクトまでの距離、形状(大きさ)、出現位置(ユーザからの距離)、出現間隔(時間間隔)、落下または上昇等の移動速度、大きさ、色、左右どちらのコントローラで取得すべきか、同時に出現する目標オブジェクトの数、センサオブジェクトの大きさなどが含まれる。つまり、タスクデータは、目標オブジェクト242a、242bの仮想空間240における属性としての、移動速度、表示数、大きさ、表示位置および表示間隔の少なくとも1つを情報として含む。ユーザ220から目標オブジェクト242a、242bの落下位置までの奥行き方向の距離を連続的に設定してもよいし、例えば3段階のいずれかに設定することもできる。例えば、ユーザ220の直ぐそばに落下させたり、ユーザ220が大きく前のめりにならないと届かない位置に落下させたり、と変更することができる。これにより、ユーザに与える運動負荷、および空間認知能力、あるいは空間把握能力に対する負荷を制御することができる。
【0043】
評価更新部215は、ユーザ220が達成したタスクの量および質に応じて、ユーザのリハビリテーション動作を評価し、ポイントを加算する。ここで達成したタスクの質とは、「あっぱれ」か「おみごと」か、つまり、どこまで目標オブジェクトにアバターオブジェクトを近づけることができたかを含む。評価更新部215は、達成したタスクに対して、それぞれ、異なるポイント(遠いオブジェクトには高いポイント、近いオブジェクトには低いポイント)を付与する。評価更新部215は、積算されたポイントに応じて、タスクを更新することができる。例えば、課題達成率(目標達成数/課題数)などを用いてタスク(目標オブジェクトの属性)を更新してもよい。評価更新部215は、動作検出部211が検出したリハビリテーション動作と、表示制御部212によって表示された目標オブジェクトが表わす目標位置とを比較して、ユーザ220のリハビリテーション能力を評価する。具体的には、動作検出部211が検出したリハビリテーション動作に対応して移動するアバターオブジェクト241a、241bと目標オブジェクト242a、242bとが重なったか否かを、3次元仮想空間中の位置の比較により決定する。これらが重なれば、一つのリハビリテーション動作をクリアしたものと評価し、ポイントを加算する。表示制御部212は、目標オブジェクト242a、242bを、奥行き方向について異なる位置(例えば3段階の位置)に出現させることができる。評価更新部215は、それぞれ、異なるポイント(遠いオブジェクトには高いポイント、近いオブジェクトには低いポイント)を付与する。
【0044】
評価更新部215は、積算されたポイントに応じて、目標課題を更新する。例えば、課題達成率(目標達成数/課題数)などを用いて目標課題を更新してもよい。
【0045】
タスクセットデータベース216は、複数のタスクのセットを格納している。タスクとは、ユーザが行なうべき1回のリハビリテーション動作を示す。具体的には、1つのタスクを表わす情報として、どの位置にどのような速度で、どのような大きさの目標オブジェクトを出現させたか、その際、アバターオブジェクトはどのような大きさだったかなどを格納している。タスクセットデータベース216は、そのような複数のタスクをどのような順番でユーザに提供するかを決めるタスクセットを格納している。例えば、病院毎のテンプレートとしてタスクセットを格納してもよいし、実行したタスクセットの履歴をユーザごとに格納してもよい。リハビリテーション支援装置210は、インターネットを介して他のリハビリテーション支援装置と通信可能に構成されていてもよく、その場合、1つのタスクセットを、同じユーザが複数の場所で実行することもできるし、様々なテンプレートを離れた複数のユーザ同士で共有することもできる。
【0046】
設定部217は、左目標オブジェクト242aの生成と、右目標オブジェクト242bの生成とが交互に行われるように設定することが可能であり、設定部217はその設定に応じて表示制御部213に指示を送る。
【0047】
設定部217は、左目標オブジェクト242aの、仮想空間240内における奥行方向の生成位置および、右目標オブジェクト242bの、仮想空間240内における奥行方向の生成位置をそれぞれ設定可能である。
【0048】
また、設定部217は、目標オブジェクト242a、242bの仮想空間240における属性として、移動速度、表示数、大きさ、表示位置および表示間隔の少なくともいずれか1つを設定する。設定部217は、目標オブジェクト242a、242bの発生を報知したタイミングから、目標オブジェクト242a、242bを発生させるタイミングまでの遅延時間を設定してもよく、これによりユーザ220に対して与える認知的な負荷を制御することができる。つまり、ユーザは、レーダスクリーン画像250などによって目標オブジェクトが発生する仮想空間内の位置(ヘッドマウントディスプレイをどの方向に向ければ表示されるかを表す位置)を知ってから、実際に目標オブジェクトが発生するまでの時間、自分が行なうべき動作を継続的に記憶保持しなければならず、この「記憶時間」が、ユーザにとっての認知負荷となる。また設定部217は、「目標オブジェクト152を発生させるタイミングまで」ではなく、「目標オブジェクト152がユーザ220の届く範囲に接近するまで」の時間を変更することにより、認知的な負荷を制御してもよい。設定部217は、目標オブジェクト242a、242b以外の背景画像243をヘッドマウントディスプレイ233に表示させることにより、ユーザ220に対して認知的な負荷を与えてもよい。なお、認知負荷を変更する場合、ユーザに対してあらかじめ認知負荷を上げるまたは下げることを通知することが望ましい。通知方法は視覚的に文字や記号を用いて行っても、音声によって行っても、例えば肩や肘、腕や足を叩くなど、体の一部に触れるような形で行ってもよい。
【0049】
図3は、オペレータが操作するための画面(操作パネル)300を示す図である。設定部217が、このような操作パネル300を表示させる。本実施形態では、直感的な操作パネル300によって7つのパラメータ(距離、高さ、角度、大きさ、スピード、感度、間隔)を設定することで、リハビリテーション支援を行う。初期設定種別はマニュアルモード(タスク一つ一つのパラメータを設定して課題ごとに操作する方法)と、テンプレートモード(複数のタスクセットにパラメータがあらかじめ設定されている方法)、あるいは機器に自動的にタスクを生成させるお任せモード(オートモード)のいずれか、あるいはそれらを組み合わせて行うことができる。なお、操作パネルからは、ユーザの基本情報から各種の認知および運動機能評価指数、検査結果の確認、テンプレートの作成やオートモードの設定や指示なども行うことができる。
【0050】
操作パネル300を表示するディスプレイは、リハビリテーション支援装置210に接続された外部ディスプレイでもよいし、リハビリテーション支援装置210に内蔵されたディスプレイでもよく、デバイスを問わない。操作パネル300は、ユーザ視野表示領域301と各種パラメータ設定領域321~324とスコア表示領域303と再センタボタン305とを含んでいる。
図3は、説明のために、実際のユーザ220の様子を表わした領域306を含んでいるが、操作パネル300は、領域306を含む必要は無い。
【0051】
ユーザ視野領域301は、ヘッドマウントディスプレイ233に実際に表示されている画像を表示している。ユーザ視野領域301の中には、仮想空間内の基準方向が表示される。
図2で説明したとおり、ユーザ視野領域301には、その中央部分(例えば-50度~50度の視野角範囲)にレーダスクリーン画像250が表示されている。そして、次に現われる目標オブジェクト242a、242bの位置が、仮想空間内の基準方向に対して、相対的にどちらの方向であるかを表わしている。この例では、ブロック画像252の着色位置により、仮想空間内の基準方向に対して左方向の一番遠い位置に、目標オブジェクト242が現われることを示している。そして、扇型画像253の位置および頭画像251の向きにより、既にユーザは、左方向に向いていることが分かる。
【0052】
また、各種パラメータ設定領域321~324は、タスクを規定する複数のパラメータを設定するための画面である。設定部217は、各種パラメータ設定領域321~324に対する入力を、不図示の入力デバイスから受け付けることもできる。入力デバイスは、マウスやテンキー、キーボードでもよいし、各種コントローラやゲーム用のジョイスティック、タッチパネル等でも良く、その技術構成を問わない。
【0053】
各種パラメータ設定領域321~324は、左右の目標オブジェクトの大きさを決める入力領域320と、視認補助画像の大きさを決める入力領域321と、アバターオブジェクト241a、241bのセンサ領域の大きさを決める入力領域322と、目標オブジェクトの移動スピードを決める入力領域323と、次に現われる目標オブジェクトの位置を決める入力領域324とを含む。さらにホットキーやテンキー等の各種パラメータ外部入力デバイスによる目標オブジェクトの出現位置の操作を受け付けるか否かを設定するチェックボックス325を有している。
【0054】
入力領域320、321は、右と左のそれぞれにおいて、ユーザに目標オブジェクトの位置を見やすくするための視認用オブジェクトの半径(視認サイズ)と、アバターオブジェクト241a、241bと反応する目標オブジェクトの半径(評価サイズ)とを設定可能である。つまり、
図3の例では、ユーザには半径20cmの円が見えているが、実際にはその円の中央に位置する半径10cmのボールにタッチしなければタスクを完了したことにならない。視認サイズが小さければ、ユーザは目標オブジェクトを見つけるのが困難になる。視認サイズを大きくすれば、ユーザは目標オブジェクトを見つけやすくなる。評価サイズを大きくすれば、アバターオブジェクト241a、241bのずれの許容量が大きくなる。評価サイズを小さくすれば、アバターオブジェクト241a、241bのずれの許容量が小さくなり、よりシビアにリハビリテーション動作を評価できる。これらの視認サイズと評価サイズとを一致させることもできる。これらの設定により、フィードフォーワードの精度、すなわちユーザの脳が行う情報処理の精度を定量的に変化させる。身体機能(上肢機能や歩行機能、体幹機能、バランス機能)、認知機能(空間認知や注意機能を含む)、感覚機能(内耳、前庭系や触覚、温痛覚、位置覚、深部感覚を含む)に対する治療アプローチがコントロール可能となる。
【0055】
入力領域322では、アバターオブジェクト241a、241bの左右のセンササイズ(センサオブジェクトのサイズ)をそれぞれ設定できる。センササイズが大きければ、手の位置が目標オブジェクトから大きくずれていてもタスクを達成したことになるため、リハビリテーション動作の難易度は下がる。逆にセンササイズが小さければ、手を目標オブジェクトの中央領域(評価用サイズ)に、正確に動かさなければならないため、よりリハビリテーション動作の難易度が上がる。
図3Aの例では、センササイズは左右それぞれ2cmとなっている。この要素もフィードフォーワードの精度、すなわち脳に対する情報処理精度を定量的に変化させ、身体機能(上肢機能や歩行機能、体幹機能、バランス機能)、認知機能(空間認知や注意機能を含む)、感覚機能(内耳、前庭系や触覚、温痛覚、位置覚、深部感覚を含む)に対する治療アプローチをコントロール可能としている。
【0056】
入力領域323では、目標オブジェクト242a、242bが仮想空間内で動く速度を左右それぞれで規定できる。この例では45cm/sの速度に設定されている。
【0057】
入力領域324は、次のタスクの位置(タスクまでの距離と角度)を入力するための画像であり、レーダスクリーン画像250を拡大した形状となっている。チェックボックス325がチェックされているので入力デバイスによる操作が行える状態である。入力領域324における複数のブロックのいずれかをクリックまたはタップする操作が行なわれた場合、あるいはそれに対応する操作が入力デバイスによって行われた場合に、指定されたブロックの位置に対応する仮想空間内の位置に、目標オブジェクト242a、または目標オブジェクト242bを発生させる。
【0058】
つまり、
図3の例では、ユーザ220は仮想空間の中で、2cmのセンサ部分を含むアバターオブジェクト(コントローラ)を、左側の遠い場所において45cm/sの速度で落下する半径10cmの目標オブジェクト(ボール)にタイミング良く接触させることがタスクとなる。
図3は、ユーザ視野領域301に目標オブジェクト242aが出現した状態を示している。この状態で、領域306に示されているようにユーザ220が左腕を伸ばすと、ユーザ視野領域301に、アバターオブジェクト241aが現われる。目標オブジェクト242aの周囲には、目標オブジェクト242aの視認性をよくするための視認用オブジェクト312が表示されている。入力領域321で設定した視認サイズとは、このドーナツ形状の視認用オブジェクト312の半径を示している。なお、目標オブジェクトおよびアバターオブジェクトは、それぞれ左右どちらのものに対応してもよく、体の左側を仮想空間内で同側である左側に動かす動作を促してもよいし、右側に動かす動作を促してもよい。
【0059】
アバターオブジェクト241aが視認用オブジェクト312に触れた時点では、目標オブジェクト242aは消滅せず、タスクの完全な達成とはならない(不完全な達成であり、一定の点数は入りgood評価される)。目標オブジェクト242a、242bにアバターオブジェクト241a、241bが触れて初めてタスク完全な達成(perfect評価)となる。
【0060】
一方、スコア表示領域303に、それぞれの位置におけるタスクの合計回数および、そのタスクを何回達成したかを示す回数点数が示されている。点数は分数様に表記してもよいし、パーセント表示でも、またはそれらの組み合わせ等でもよい。評価部214は、1つのタスクセットで決められた一連のリハビリテーション動作の後、このスコアリスト332の値を用いて、リハビリテーション評価ポイントを導き出す。
【0061】
再センタボタン305は、ユーザ220の位置に合わせて仮想空間を再構築するための再構築指示をオペレータから受け付けるボタンである。再センタボタン305が操作されると、表示制御部212は、その瞬間のヘッドマウントディスプレイ233の位置を原点とし、その瞬間のヘッドマウントディスプレイ233の向きを基準方向とする仮想空間を再構築する。
【0062】
図4は、タスクセットデータベース216に記憶されたタスクテーブル400を示す図である。タスクテーブル400には、タスクIDに紐付けて、時間(タスクの発生タイミング)461、一つ前のタスクが終了してからのタスク間隔462、タスク種別463、タスク角度464、タスク距離(強度)465が記憶されている。さらにタスクテーブル260には、タスクIDに紐付けて、目標オブジェクトのスピード466、パーフェクト判定(あっぱれ評価)の基準サイズ467、グッド判定(おみごと評価)の基準サイズ468、センサオブジェクトの大きさ469、タスクの達成結果などが記憶されている。これらに加えて、タスクごとに、タスク発生報知からタスク発生までのディレイタイム(所定時間)を設定してもよい。
【0063】
図5~
図7は、本実施形態にかかるヘッドマウントディスプレイ233における表示の一例を示す図である。
図5では、江戸時代の町並みを表す背景画像501において、目標オブジェクトとして印籠511を示す画像が表示されている。さらに、印籠511の下には、ユーザが守るべきアイテムとして千両箱513が表示されており、忍者515が奥の方から徐々に近づいてくる構成となっている。忍者511のスピードは操作パネル300の入力領域323で設定された速度となる(ここでのスピードは制限時間と同義となる)。印籠511には、視認補助画像としての円512が表示されている。忍者515が千両箱513に到達するまでに印籠511をセンサオブジェクト(アバターオブジェクト241a、241bの先端中心)で触ればタスク達成となる。円512は、赤と青の2種類が用意されており、赤い円512で囲まれた印籠511には右手に持ったコントローラ235に対応する、右側の赤いアバターオブジェクト241bを操作して接触させることがタスクとなる。一方青い円512で囲まれた印籠511に対しては、左手に持ったコントローラ234に対応する、左側の赤いアバターオブジェクト241aを操作して接触させることがタスクとなる。
【0064】
印籠511は、操作パネル300の入力領域324で設定した位置(奥行きおよび角度)に表示される。印籠511は、ユーザが仮想空間内でアバターオブジェクト241a、241bをタッチさせるまでは、位置が変わらない。つまり空間に固定された目標オブジェクトである(水平に体を伸ばすことを要求するため水平タスクとも呼ぶ)。このような固定された目標オブジェクトは、小脳性運動失調などのような疾患のリハビリとして非常に効果的である。つまり体の動かし方を忘れている患者に対して、フィードフォワードにより、限定した体の動きのイメージを脳に焼き付けさせることができる。印籠511の奥行方向の距離を遠くすることにより、運動強度を変えることができる。さらに、マルチチャネルバイオフィードバックを組み合わせることにより、大きく運動能力、身体機能、認知機能、感覚機能が改善する。またこのような水平タスクによれば脳皮質の再編成を促すことによって慢性疼痛の改善も図ることができる。あるいはケモブレインと呼ばれる認知機能障害や、抗がん剤を摂取したがん患者の位置覚が神経障害により低下する感覚機能障害を回復させることもできる。目標オブジェクトがでる場所をあらかじめ教えて、ヒントを与えて認知負荷を下げてもよい。言語的インフォームよりも、体を触ることによる触覚インフォーム、複数回繰り返しの言語的インフォームも認知負荷をさげるのに有効である。言語的インフォームの方法も、より端的で命令形に近いシンプルな指示を行うことで認知負荷を下げて行ってもよいし、あるいは例えば「青色だから?(右手で取るように)」等といったように、質問形式でより複雑な指示の形をとってもよいし、または「2で割り切れる数を言ったときは右手でとりましょう」等と計算等の認知課題を含む形で言語的インフォームを行ってもよい。なお、印籠511の発生する横方向の位置や奥行きのみではなく、高さを設定可能に構成してもよい。
【0065】
図6は、目標オブジェクトが垂直に移動するタイプのタスクを行う画面の一例(垂直タスク)を示す図である。
図6では、畑を表す背景画像601において、目標オブジェクト出現のトリガーとなるトリガーオブジェクト602として、農家を表す人の画像が表示されている。つまり、表示制御部213は、目標オブジェクト603の発生を報知するための報知画像として、トリガーオブジェクト602を表示する。トリガーオブジェクト602が、芋の形をした目標オブジェクト603を上方に投げてから所定時間後に、
図7のように画面上から大きな芋の形をした目標オブジェクト703が出現する。落下してきた目標オブジェクト703を、ザルの形をしたアバターオブジェクト702を動かして受け止めることで、タスク達成となる。左右のアバターオブジェクト702は、コントローラ234、235の動きに連動して画面上を移動する。
【0066】
設定部217は、トリガーオブジェクト602が目標オブジェクト603を上方に投げて、目標オブジェクト603の発生を報知したタイミングから、目標オブジェクト703を発生させるまでの遅延時間を設定することにより、ユーザに与える認知的な付加を調整することができる。なお、トリガーオブジェクト602の動きと連動させて、レーダーチャート型の報知画像250でも同様のタイミングで目標オブジェクトの発生を報知したり、音声による報知を組み合わせたりしてもよい。
【0067】
このように、設定部217は、
図2のような地平線のみの背景のタスクだけではなく、
図5、
図6のような、情報量の多い背景のタスクで、ユーザに対して認知的な負荷を与えることができる。つまり、目標オブジェクト603が出現したことおよび目標オブジェクト703が落下してくるであろう位置の記憶を困難にさせて、より実生活で必要な認知負荷に近い負荷をリハビリテーションのユーザに与える。
【0068】
特に設定部217は、タスクのモードを変えて、背景画像301の少なくとも一部を時間と共に変化させることにより、ユーザ220に対して認知的な負荷を与える。
図6の例では、例えば、背景画像601の中で、雲604を移動させたり、草木605を揺らしたり、あるいは、目標オブジェクトと関係のない動物(不図示)を登場させたりしてもよい。これにより、ユーザ220に対して、目標オブジェクト603に対する集中を妨げて、より目標オブジェクト603が落下してくるであろう位置の記憶を困難にさせることができる。より専門的には、背景画像にタスクとは無関係の情報を表示することにより、目標オブジェクトに集中し難い環境を用意し、注意障害(より具体的には選択性注意障害、配分性注意障害、転換性注意障害、持続性注意障害)を意図的に惹起することで記憶を困難にさせて、認知負荷をコントロールしていると言える。
【0069】
図8は、本実施形態にかかる表示画面240における表示の他の例(垂直タスク)を示す図である。
図8では、森のような背景画像801中に、猿を表したトリガーオブジェクト802と、りんごを表した目標オブジェクト803とが表示されている。猿を表したトリガーオブジェクト802が、りんごを表した目標オブジェクト803を木から落として、ユーザに近づいてきた目標オブジェクト803を、ザルを表したアバターオブジェクト804で受け止めることでタスク達成となる。ここでも、設定部217は、トリガーオブジェクト802が木を揺らして、目標オブジェクト803の発生を報知したタイミングから、所定時間経過後に目標オブジェクト803の落下を開始させることにより、注意障害を惹起しながらユーザ220に対して認知的な負荷を与える。
【0070】
さらに、設定部217は、少なくとも2~5個の目標オブジェクト803を3次元仮想空間内に同時に存在させて、表示画面240に表示させることにより、ユーザ220に対してより認知的に強い負荷を与えることができる。言い換えれば、設定部217は、3次元仮想空間内において少なくとも2個の目標オブジェクト803を左右方向に異なる位置に発生させる。
【0071】
特に、目標オブジェクト803の移動方向(
図8では落下方向)に対して異なる方向(
図8では左右方向)の複数の位置に少なくとも2個の目標オブジェクト803を発生させれば、より一層の認知負荷を与えることができる。つまり、ユーザ220は上下方向の移動と、左右方向の発生位置の違いと、さらには奥行方向の落下位置の違いも考慮してコントローラ234,235を移動させなければならず、空間認知能力も試されていることになる。このように、タスクの所定時間の変更に加えて、トリガーオブジェクトを含む報知画像や報知音声に含まれる情報の種類や数、大きさ、空間的な広がりや位置、量等を調整することで、記憶保持すべき情報の複雑性、すなわちユーザに対して脳が情報処理すべき認知負荷を定量的に調整、コントロールすることが可能となる。
【0072】
評価更新部215は、目標オブジェクトが表わす3次元的な目標位置に対して、アバターオブジェクトがタイミング良く正確に到達したか否か、および、目標オブジェクトの発生報知から発生までの時間間隔と数、および背景画像の注意障害を惹起させる負荷の程度等の情報を用いて、ユーザの認知能力を評価する。
【0073】
図9は、リハビリテーション支援装置210における処理の流れを示すフローチャートである。ステップS901において、キャリブレーション処理として、リハビリテーション動作の目標をユーザに合わせて初期化する。具体的には、各ユーザに最初にキャリブレーションとして行動可能範囲を取得する作業を行ってもらい、その範囲を初期値に設定した上で目標をユーザに合わせて初期化する。
【0074】
次に、ステップS903において、右側タスク(つまり表示制御部212による目標オブジェクトの表示およびアバターオブジェクトによる達成の評価)を開始する。
【0075】
ステップS905において、左側タスク(つまり表示制御部212による目標オブジェクトの表示およびアバターオブジェクトによる達成の評価)を開始する。
【0076】
ステップS909においてタスクの達成度を取得して、ポイントを加算する。なお、片側のタスク発生後、その達成の評価を待たずに次の反対側のタスクを発生させ、これらの処理を並列処理してもよいし、時差処理してもよい。また、最初のタスク開始は左右どちら側からでもよく、最後のタスクも左右どちら側でもよい。すなわち、ここに記載のフローは一例に過ぎず限定されるものではない。
【0077】
<データ>
図10は、本実施形態にかかるリハビリテーション支援システム200を用いた結果を示す図である。
【0078】
症例はn=13で、平均 60±21歳、男性が7名(53.9%)、脳血管疾患患者が5名(38.4%)、整形外科疾患患者が4名(30.8%)、神経変性疾患患者が4名(30.8%)という構成である。全ての患者は通常のリハビリテーションを半年以上受けており、これ以上改善が難しいと言われた人ばかりである。この患者群に対して、最初20分間患側を集中的にトレーニングするリハビリテーションを実施しても、STEF、TUG、TMT-Aは統計学的有意には改善しなかった(
図10の通常介入20分のグラフ)。ここで、STEF(Simple Test for Evaluating Hand Function)は上肢機能検査である。TUG(Timed Up and Go test)は歩行機能、あるいは体幹機能やバランス機能の総合的な検査指標である。TMT-A(Trail-Making Test-A)は認知機能検査の一種である。STEFは数字が大きいほど、TUGとTMT-Aは数値が低い程成績がよい指標である。全てのデータは平均±標準偏差で示されている。統計学的解析にはペアを考慮した平均の比較試験であるpaired-t testを用いており、p<0.05を統計学的に有意差有りの基準とした。
【0079】
一方で、本実施形態にかかるシステム200を用いて患側、健側を問わず、左右交互に奥行を意識したリハビリテーションを行わせることで、STEF、TUG、TMT-Aが全て改善した。
【0080】
すなわち、本実施形態のように、この奥行きを意識した左右交互のトレーニングでは上肢機能のみならず、体幹機能やバランス機能の改善から歩行機能(身体機能)が改善し、さらに空間認知把握能力や注意機能が改善することが判明した。なお、例えばSTEFやTUG、TMT-Aの改善には内耳、前庭系や触覚、温痛覚、位置覚、深部感覚の改善も影響していることが推察された。このように、脳の可塑性を最大限に刺激し、脳の運動学習、認知学習、感覚学習を最大限効率化するためには左右交互に奥行きを意識したリハビリを行わせることが効果的であることを証明した。
【0081】
[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の技術的範囲で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の技術的範囲に含まれる。
【0082】
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に供給され、内蔵されたプロセッサによって実行される場合にも適用可能である。本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるサーバも、プログラムを実行するプロセッサも本発明の技術的範囲に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の技術的範囲に含まれる。